Sono passati circa 425 anni da quel giorno in cui un filosofo, un illuminato, venne bruciato sulla pubblica piazza a Roma, in Campo dé Fiori, dopo un processo per eresia durato circa 8 anni.
Uno dei suoi più gravi peccati fu dire che il Re era nudo.
Giordano Bruno fu, infatti, uno dei più radicali oppositori dell’antropocentrismo del suo tempo. La sua cosmologia demoliva sistematicamente ogni pretesa di centralità umana nell’universo. Mentre la visione tolemaica poneva la Terra al centro del cosmo e quella copernicana spostava questo centro al Sole, Bruno andò molto oltre: sostenne che non esisteva alcun centro, che l’universo era infinito e popolato da innumerevoli mondi, molti dei quali probabilmente abitati.
In buona sostanza, secondo la teoria di Bruno, l’umanità non occupava alcuna posizione privilegiata nel cosmo. La Terra era solo uno tra infiniti pianeti, il Sole solo una tra infinite stelle. L’idea stessa che l’universo fosse stato creato per l’uomo diventava assurda in questa prospettiva.
Bruno estese questo, chiamiamolo per semplicità, “anti-antropocentrismo” anche alla sfera metafisica. Nella sua filosofia panteista, l’uomo non era il culmine della creazione divina, ma semplicemente una delle infinite manifestazioni della natura-Dio. Non c’era una gerarchia che ponesse l’essere umano al vertice, ma una parità ontologica tra tutte le forme di esistenza.
Una posizione profondamente eversiva per l’epoca, poiché minava non solo la cosmologia aristotelico-tolemaica, ma l’intera concezione cristiana del posto dell’uomo nel creato.
Ebbene: dopo 425 anni rieccoci qui a dover discutere di antropocentrismo con molti esperti che si lanciano nel richiamare l’importanza del ruolo dell’uomo nei processi di revisione delle attività svolte da sistemi di AI.
L’antropocentrismo è un tabù talmente intoccabile da essere rapidamente entrato nei testi legislativi, spesso a ragione.
Ad esempio, l’art. 14 dell’ AI Act dell’Unione Europea (Regolamento 2024/1689), stabilisce l’obbligo di “human oversight” (supervisione umana) per i sistemi ad alto rischio, richiedendo che le persone possano comprendere le capacità e i limiti del sistema AI e intervenire o interromperne il funzionamento quando necessario (e questo mi sembra assolutamente corretto).
Il considerando 27 dell’AI Act afferma che l’AI dovrebbe essere “human-centric” e fungere da strumento per le persone, con l’obiettivo ultimo di aumentare il benessere umano. Ec anche questo concetto sembra essere assolutamente condivisibile.
In Italia il Decreto Legislativo 203/2024, adegua la normativa italiana all’AI Act e rafforza il principio della centralità umana. In questo senso l’Art. 9 disciplina specificamente il controllo umano sui sistemi ad alto rischio, stabilendo che deve essere “efficace” durante tutto il periodo di utilizzo del sistema. E qui, come accade spesso quando una norma europea tenta di essere “adeguata” dal legislatore italiano, iniziano a manifestarsi i primi giganteschi dubbi: cosa si intende per “efficace”?
In realtà tracce di antropocentrismo, o Human Centric per dirla all’inglese, sono rinvenibili in diversi testi legislativi o linee guida. Si pensi, per citarne solo due, all’art. 22 del GDPR (il Regolamento Europeo sulla tutela dei dati personali), che sancisce il diritto, in taluni casi, a non essere sottoposti a decisioni basate unicamente su trattamenti automatizzati, inclusa la profilazione. O ancora le “Ethics Guidelines for Trustworthy AI” pubblicate dall’High-Level Expert Group on Artificial Intelligence (AI HLEG) della Commissione Europea nell’aprile 2019, che identificano la “human agency and oversight” come uno dei sette requisiti chiave per un’AI affidabile, sottolineando che i sistemi AI dovrebbero supportare l’autonomia umana e il processo decisionale, non sostituirlo.
Tornando al nostro amico Giordano Bruno, soffermiamoci un attimo sul suo concetto di base: non c’è una gerarchia che ponga l’essere umano al vertice, ma vi è una parità ontologica tra tutte le forme di esistenza.
Se tra le forme di esistenza dovessimo, per assurdo, considerare anche l’intelligenza artificiale come una forma di esistenza peraltro in costante evoluzione, quale conseguenza potrebbe scaturirne per l’uomo?
Siamo davvero di fronte ad una nuova era dove l’uomo è, di nuovo, declassato a semplice comparsa, a seguito delle scoperte scientifiche?
Il punto è che siamo, direi nuovamente, in una fase evolutiva nella quale chiunque affronti in maniera “spietata” questo problema, potrebbe essere tacciato come “eretico”. L’AI in effetti viene considerata come una bolla, come un fenomeno che prima o poi incontrerà dei limiti invalicabili.
E l’uomo, questo incredibile essere umano che tutto l’universo ammira, costruito ad immagine e somiglianza di Dio, non potrà in alcun modo essere sostituito dall’Intelligenza Artificiale.
Ed è talmente importante per l’uomo ricordarsi di quanto è perfetto e insuperabile da doverlo precisare in leggi nazionali, regolamenti comunitari, linee guida e via dicendo. Ovviamente prevedendo rilevanti sanzioni per chi viola il principio dell’antropocentrismo.
Tutto giusto. L’intervento umano nei sistemi di intelligenza artificiale è fondamentale. Basti vedere i noiosi post artificiali con icone ed emoji a raffica.
O peggio i corsi di formazione (spesso proprio sull’AI) per blasonate riviste, chiaramente redatti con l’AI e senza neppure degnarsi di levare quella orribile punteggiatura fatta dii bullet point.
Oggi l’AI che vediamo, per quanto utile, in alcuni casi sembra stantia, puzza di finto da lontano un miglio, urla come una matta in merito a sentenze che non esistono e ti propone una rilevante dose di sciocchezze.
Eppure è solo la punta dell’Iceberg.
Esistono infinti pianeti fatti di sistemi di AI che ancora molti non vedono semplicemente perché non hanno nulla a che vedere con la loro quotidianità.
Tra questi, ecco che appare lo Stanford Agentic Reviewer ideato dalla Stanford University in ambito ricerca scientifica per snellire i processi di Peer Review e ringrazio Luciano Floridi per aver segnalato la piattaforma
Ma facciamo qualche passo indietro.
Il cosiddetto “peer review” è il processo attraverso cui articoli scientifici vengono valutati da esperti del settore prima della pubblicazione.
Un autore sottomette un articolo a una rivista o conferenza. Gli editor assegnano il paper a 2-4 revisori esperti. I revisori leggono l’articolo e forniscono commenti, critiche e raccomandazioni (accettare, rivedere, rifiutare). Gli editor adottano la decisione finale basandosi sulle recensioni. Gli autori eventualmente rivedono il paper sulla base dei commenti ricevuti.
È un processo fondamentale per la qualità scientifica dei paper ma presenta problemi: è lento (mesi), altamente soggettivo, può presentare delle incoerenze a seconda dei revisori, e richiede molto lavoro manuale.
Puo’ l’AI aiutare in questo processo? Ovviamente SI.
La Stanford University ha sviluppato una piattaforma AI denominata “Stanford Agentic Reviewer” disponibile al seguente link
👇👇👇
https://paperreview.ai
Il sistema ideato da Stanford fornisce ai redattori dei paper feedback in pochi minuti invece che mesi, permettendo iterazioni rapide.
Il sistema non si limita a leggere il paper, ma genera automaticamente query di ricerca di varia specificità per trovare lavori correlati su arXiv, cerca paper rilevanti da diverse prospettive come benchmark, problemi simili, tecniche correlate.
Per la cronaca arXiv e’ un repository open-access di preprint scientifici gestito dalla Cornell University.
Inoltre il sistema sviluppato da Stanford valuta la rilevanza di ciascun paper trovato; decide autonomamente se usare l’abstract esistente o generare un riassunto dettagliato del paper completo, sintetizza il tutto per fornire una revisione informata dalla letteratura più recente.
Game, Set, Match all’uomo.
A differenza delle review tradizionali focalizzate sul giudicare se pubblicare o no, questo sistema mira a fornire feedback azionabile per migliorare il lavoro. Cio’ che stupisce e’ la performance quasi-umana. Hanno testato il sistema su 300 submission ICLR 2025 e questi sono i risultati:
– Correlazione tra due revisori umani: 0.41 (Spearman)
– Correlazione tra AI e revisore umano: 0.42
Preciso che ICLR (International Conference on Learning Representations) è una delle conferenze più prestigiose nel campo del machine learning e deep learning, insieme a NeurIPS e ICML. ICLR ha una policy di open review – tutte le submission e le review sono pubbliche su OpenReview.net, anche per i paper rifiutati. Questo ha permesso a Stanford di scaricare 300 paper reali con le loro review umane, confrontare i punteggi dell’AI con quelli dei revisori umani reali, validare scientificamente il loro sistema.
La correlazione misura quanto due variabili si muovono insieme.
Il valore va da -1 a +1:
+1 = correlazione perfetta positiva;
= nessuna correlazione;
-1 = correlazione perfetta negativa.
La correlazione di Spearman è una variante che misura correlazione tra ranking (ordini) piuttosto che valori assoluti. È perfetta per confrontare valutazioni/punteggi. Per spiegare meglio il rapporto tra correlazioni AI/Human Centric considerate quanto segue:
Correlazione umano-umano: 0.41
– Prendono lo stesso paper
– Revisore umano A gli dà un punteggio
– Revisore umano B gli dà un punteggio
– La correlazione tra questi due punteggi è 0.41
Questo numero dice che due esseri umani esperti concordano solo moderatamente su quanto sia buono un paper. È una misura della soggettività intrinseca del peer review.
Correlazione AI-umano: 0.42
– L’AI dà un punteggio
– Un revisore umano dà un punteggio
– La correlazione è 0.42
Insomma, l’AI concorda con un umano (0.42) tanto quanto due umani concordano tra loro (0.41). Quindi l’AI è altrettanto consistente/affidabile di un revisore umano aggiuntivo.
Ora, nel processo peer review tradizionale sii usano multipli revisori proprio perché c’è disaccordo (0.41 di correlazione), si spera che la media di 3-4 opinioni dia un giudizio più robusto, ma questo richiede molto tempo umano qualificato. Con l’AI che raggiunge 0.42, Stanford dimostra che il sistema AI potrebbe fungere da “revisore aggiuntivo” credibile, fornire un primo filtro veloce, aiutare a identificare outlier nelle review umane.
In buona sostanza l’AI concorda con un umano tanto quanto due umani concordano tra loro.
Invece di un punteggio diretto, il sistema valuta 7 dimensioni separate (originalità, importanza, supporto alle affermazioni, solidità esperimenti, chiarezza, valore per la comunità, contestualizzazione rispetto ai lavori precedenti) e poi usa regressione lineare per il punteggio finale.
Ovviamente non sono (per ora) tutte rose e fiori.
La stessa Stanford University precisa che il sistema funziona meglio per campi come l’AI dove la ricerca recente è pubblicata liberamente su arXiv, ma meno bene in altri campi dove i ricercatori pubblicano solo su riviste tradizionali a pagamento, non c’è cultura del preprint, la letteratura è frammentata.
In ambito giuridico, ad esempio, non esiste un equivalente di arXiv (che mi risulti) e la maggior parte della ricerca giuridica è su riviste tradizionali (spesso a pagamento) o in volumi cartacei.
E’ tuttavia evidente che la strada è tracciata. Si parte, come di consueto, nel settore della ricerca scientifica per poi evolvere in altri settori.
Paper scritti da AI e rivisti da Agenti AI con la partecipazione dell’uomo. Non è esattamente antropocentrismo.
La supervisione dell’uomo è fondamentale per guidare questa rivoluzione. Ci si chiede tuttavia se la figura dell’uomo, il suo potere, la sua energia, non debbano essere necessariamente considerati come il “centro” di tutto questo processo ma come una componente fondamentale. E ciò senza in alcun modo limitare il ruolo dell’uomo ma, forse, per aiutare proprio l’uomo a vedere se stesso e a comprendere il suo ruolo in questo magnifico universo fatto di scoperte e innovazione.
E fatto di infiniti universi senza che ciò debba necessariamente portare ad altri roghi.
