Epistemia: incapacità di distinguere la conoscenza da ciò che sembra conoscenza
TEORIE > CONCETTI > CERVELLO E MENTE
Scopo di questa pagina
Il giornalista investigativo Luca Zorloni scrive: "L'intelligenza artificiale è molto brava a farci credere di sapere cose che non sa. E noi ci stiamo convincendo di conoscerle, mentre ci affidiamo a risposte che suonano bene. C'era una volta l'episteme. La vera conoscenza, secondo i filosofi dell'antica Grecia. Oggi ci ritroviamo invece con l'epistemia. Che della conoscenza è un'illusione. Una sorta di specchio della realtà deformato da una fede cieca nelle risposte dei grandi modelli linguistici (LLM) alle nostre domande. Giudizi. Valutazioni. Classificazioni di fonti. Azioni di discernimento che deleghiamo ai modelli di AI. E fin qui, tutto lecito. Il problema insorge quando riceviamo la risposta. Quanto la prendiamo per buona? Qui si colloca il bivio tra episteme ed epistemia. Tra conoscenza e illusione. Perché gli LLM non sono progettati per effettuare verifiche sostanziali, ma per generare una risposta che sia plausibile dal punto di vista linguistico. Il loro scopo, in fondo, è questo. Restituire un output che “suoni” bene. Al netto che sia vero o falso. Se quel risultato non viene verificato da chi delega all'AI un pezzo del suo lavoro, ecco che succede il patatrac. È qualcosa che ricorda molto da vicino il confronto tra Socrate e i sofisti nell'Atene del quinto secolo. Di questi uno degli esponenti di spicco era Gorgia. Il quale sosteneva che nulla esiste, che se anche esistesse non sarebbe conoscibile e se anche fosse conoscibile, non sarebbe comunicabile. L'AI fa un po' il contrario, perché può comunicare tutto, pur senza conoscerlo. Alla fine, però, l'esito è lo stesso. Un esercizio di persuasione che si fonda sulla capacità di costruire un discorso plausibile, non vero. Un recente studio pubblicato su Pnas e condotto da un team di ricerca guidato da Walter Quattrociocchi, docente dell'università La Sapienza di Roma e al timone del Center of data science and complexity for society, ha analizzato per la prima volta in modo sistematico come sei modelli linguistici di ultima generazione, tra cui ChatGPT di OpenAI, Gemini di Google o Llama di Meta, “operazionalizzano il concetto di affidabilità". Come si legge nella nota che annunciava la pubblicazione del progetto, "il lavoro confronta le loro valutazioni con quelle prodotte da esseri umani ed esperti del settore (NewsGuard, Mbfc), utilizzando un protocollo identico per tutti: stessi criteri, stessi contenuti, stessa procedura. Il focus non è sull’accuratezza del risultato finale, ma su come il giudizio viene costruito”. Le conclusioni dello studio condotto dal team di Quattrociocchi non identificano solo il problema, ma indicano anche la soluzione. Che è saperne di più dell'AI a cui ci affidiamo. Delegare la navigazione solo se si conosce la rotta, la destinazione, gli scogli che affiorano. O se si hanno gli strumenti per comprendere se, circondati dalla nebbia, si sta viaggiando nella giusta direzione. L'impiego dell'AI richiede di alzare il nostro livello di conoscenza, di ampliarlo e di mantenerlo aggiornato. Da un lato, rispetto alla capacità di utilizzare gli strumenti di intelligenza artificiale, di saperne distinguere i risultati, i meccanismi di funzionamento e quindi i punti di forza e quelli di debolezza. Dall'altro, rispetto alle materie su cui chiedono all'AI di sostituirci a noi. Alla fine, quando si parla degli effetti della tecnologia sul sapere, torniamo sempre al punto di partenza. Che fake news, deepfake, epistemia si disinnescano non tanto con etichette posticce o filigrane, ma coltivando lo spirito critico, investendo sulla formazione, allenando la mente a non cadere nei tranelli di una conoscenza superficiale. È una buona notizia, se volete, che ridimensiona gli allarmi delle trombe dell'Apocalisse. Ma è anche una consapevolezza che sposta il fuoco della trasformazione dall'AI a noi stessi. E ci inchioda alle nostre responsabilità. Sapremo uscirne migliori? " In uno studio del 2025 di Loru, Nudo, Di Marco e Quattrociocchi (La simulazione del giudizio negli LLM) in cui confrontano sei modelli LLM con giudizi umani essi scrivono: "Nonostante l'allineamento degli output, i nostri risultati mostrano differenze costanti nei criteri osservabili che guidano le valutazioni dei modelli, suggerendo che le associazioni lessicali e le variabili statistiche a priori potrebbero influenzare le valutazioni in modi diversi dal ragionamento contestuale. Questa dipendenza è associata a effetti sistematici: asimmetrie politiche e una tendenza a confondere la forma linguistica con l'affidabilità epistemica – una dinamica che chiamiamo epistemia, l'illusione di conoscenza che emerge quando la plausibilità superficiale sostituisce la verifica. In effetti, delegare il giudizio a tali sistemi può influenzare le euristiche alla base dei processi valutativi, suggerendo un passaggio dal ragionamento normativo all'approssimazione basata su modelli e sollevando interrogativi aperti sul ruolo degli LLM nei processi valutativi."
The worse I play the more that idiot follows me
Punto chiave di questa pagina
VIGILANZA EPISTEMICA: Il filosofo Hugo Mercier scrive: "Un insieme di presunti meccanismi cognitivi svolge una funzione di vigilanza epistemica: valutare le informazioni comunicate in modo da accettare informazioni affidabili e rifiutare informazioni inaffidabili (Sperber et al., 2010). L'esistenza di questi meccanismi è stata postulata sulla base della teoria dell'evoluzione della comunicazione (es.Maynard Smith & Harper, 2003; Scott-Phillips, 2008). Affinché la comunicazione tra qualsiasi organismo sia stabile, deve giovare sia a coloro che inviano i segnali (che altrimenti si asterrebbero dall'inviarli) sia a coloro che li ricevono (che altrimenti si evolverebbero per ignorarli). Tuttavia, i mittenti hanno spesso incentivi a inviare segnali a vantaggio di se stessi ma non dei destinatari. Di conseguenza, affinché la comunicazione rimanga stabile, deve esistere un meccanismo che mantenga i segnali, in media, affidabili. In alcune specie, i segnali sono prodotti in modo tale che è semplicemente impossibile inviare segnali inaffidabili, ad esempio se il segnale può essere prodotto solo da individui grandi o in forma (vedi, ad esempio, Maynard Smith & Harper, 2003). Negli esseri umani, tuttavia, essenzialmente nessuna comunicazione ha questa proprietà. È stato invece suggerito che gli esseri umani mantengano la comunicazione per lo più affidabile grazie a meccanismi cognitivi che valutano le informazioni comunicate, rifiutando segnali inaffidabili e abbassando la nostra fiducia nei loro mittenti: meccanismi di vigilanza epistemica."
Quest'ultima condizione viene invalidata dalla epistemia (vedi oltre).
Le allucinazioni degli LLM
Andrea Brugnoli analizza un articolo in cui Luciano Floridi confronta le caratteristiche degli LLM e quelle degli umani
C'é una nuova condizione cognitiva, che possiamo chiamare epistemia: l’incapacità di distinguere ciò che suona come conoscenza (che invece è solo "plausibilità" degli LLM) da ciò che è veramente conoscenza (che si basa su un organismo dotato di coscienza)
Punti di riflessione
Viviamo in un’epoca in cui la fluidità del linguaggio viene scambiata per profondità. In cui la plausibilità sintattica di una frase basta a conferirle autorevolezza. È qui che prende forma una nuova condizione cognitiva, che possiamo chiamare epistemia: l’incapacità di distinguere ciò che suona come conoscenza da ciò che è conoscenza. (Walter Quattrociocchi)
-
I modelli linguistici di nuova generazione — Large Language Models, LLM — non pensano, non comprendono, non verificano. Prevedono. Prendono in input una sequenza di parole e generano la più probabile successiva, sulla base di pattern statistici estratti da enormi quantità di testo. Il risultato è un linguaggio che suona giusto anche quando è radicalmente sbagliato. (Walter Quattrociocchi)
-
Con le vecchie bufale, ci si poteva attrezzare. Bastava conoscere le fonti, verificare i fatti, smontare l’intento. Oggi no. Il contenuto falso non si vede. Non ha i tratti della disinformazione classica. È scritto bene, non urla, non sembra partigiano. Semplicemente… non ha ancoraggio. Non poggia su nulla. Ma lo sembra. Un LLM può generare, con lo stesso tono e stile accademico, sia una spiegazione accurata dell’effetto placebo sia una parafrasi inventata sulla “memoria dell’acqua” come fosse un dato di fatto. Entrambe suonano vere. Ma solo una lo è. (Walter Quattrociocchi)
-
E qui si innesca l’epistemia: un corto circuito tra credibilità percepita e affidabilità reale. Un contenuto può sembrarci vero, non perché lo sia, ma perché la sua forma linguistica ci ricorda quella di chi solitamente dice cose vere. È un riflesso culturale, non un atto critico.
Ma c’è un’altra dinamica, ancora più insidiosa. I LLM non solo generano testi plausibili. Lo fanno assecondando l’utente.
Nel gergo tecnico si chiama sycophancy: la tendenza dei modelli a confermare ciò che credono l’interlocutore voglia sentirsi dire. Se un prompt suggerisce una posizione ideologica, il modello la rafforza. Se include un’opinione, la rilancia. Non per malizia, ma per struttura: il modello è ottimizzato per produrre la risposta più coerente col contesto, non quella più vera. (Walter Quattrociocchi)
-
Il risultato è una versione automatica — e amplificata — del confirmation bias: la nostra tendenza a cercare conferme delle nostre convinzioni. Solo che qui non siamo noi a filtrare la realtà: è la macchina a confezionarla su misura.
Esempio: chiedi a un LLM “perché i vaccini sono pericolosi” e otterrai una risposta che, pur inserendo qualche disclaimer, ricostruisce argomentazioni con tono neutro e sintassi da paper. Fai la domanda opposta, e il modello farà lo stesso — ribaltando la narrativa. Non ha convinzioni. Ottimizza per coerenza locale, non per verità globale. L’epistemia non solo si attiva. Viene accelerata. (Walter Quattrociocchi)
-
Il sapere diventa un servizio personalizzato, tarato sul nostro punto di vista. Il dubbio scompare. Il dissenso non arriva. Ogni interazione rinforza l’illusione che il mondo sia esattamente come lo immaginiamo. E che quella sia conoscenza.
E il paradosso è che tutto questo avviene proprio quando l’utente crede di colmare una lacuna. (Walter Quattrociocchi)
-
L’interfaccia conversazionale — domanda, risposta, linguaggio fluente — simula la dinamica della ricerca. Si pone una domanda, si ottiene una risposta: apparentemente impariamo. Ma il modello non insegna: predice. E ciò che restituisce non è sapere, ma un’imitazione della sua forma. La lacuna non viene colmata. Viene riempita di testo ben formulato. E in assenza di strumenti critici, questo basta.
È qui che l’epistemia diventa sistemica: quando l’atto stesso di “chiedere” a un LLM diventa fonte illusoria di apprendimento. Come se il solo gesto di porre una domanda producesse automaticamente comprensione. In questo scenario, il falso non è più un’anomalia. È un sottoprodotto strutturale. Non si manifesta come contenuto deviante, ma come esito legittimo di un processo che ottimizza la plausibilità, non la verità. E quindi non basta più riconoscere un’informazione falsa. Bisogna risalire al meccanismo che l’ha generata. (Walter Quattrociocchi)
-
E intanto, nel rumore di fondo, si moltiplicano figure che recitano la parte dell’esperto senza passare dal sapere. Blogger, divulgatori, opinionisti che si fanno spiegare gli articoli scientifici da ChatGPT — e poi li rilanciano come se li avessero capiti. L’effetto è paradossale: l’autorità dell’algoritmo travasa su chi lo interroga, e l’atto di chiedere diventa performance di competenza. È l’illusione al quadrato: un modello che simula il sapere, usato da chi simula di comprenderlo. In mezzo, il lettore, che non ha più gli strumenti per distinguere l’uno dall’altro. (Walter Quattrociocchi)
-
Anche le statistiche spesso usate per rassicurare — “l’LLM ha un tasso di accuratezza dell’87%”, “ha superato il test medico con il 92%” — vanno maneggiate con cautela. Questi numeri derivano da test su task ben definiti: domande a scelta multipla, classificazione, logica da manuale. Ma un LLM non opera in quei regimi. Non ragiona. Non comprende. E soprattutto: l’utente medio non gli pone domande da esame universitario. Gli chiede consiglio. Gli affida dubbi. Lo tratta come un’autorità. E se la risposta sembra sensata, difficilmente si verifica l’origine. Non c’è epistemologia. Solo verosimiglianza. Il vero problema non è “quanto spesso sbaglia?”, ma in che modo, in quali condizioni, e con quale opacità per chi legge. E su questo, i benchmark tacciono. Il punto è che gli LLM non alzano il livello del dibattito. Lo appiattiscono. Tutto suona credibile. Tutto si presenta come informazione. Tutto è al tempo stesso accessibile, fluente, autorevole — e vuoto. (Walter Quattrociocchi)
-
L’epistemia non è ignoranza. È peggio. È l’incapacità di accorgersi che qualcosa manca — perché tutto sembra già al suo posto.
Non c’è malafede. Non c’è intenzionalità. C’è solo l’effetto collaterale di una tecnologia che genera testo con una precisione sintattica tale da simulare il pensiero umano. Ma senza esserlo. Il problema non è che la macchina “non capisce”. Il problema è che noi non ce ne accorgiamo. (Walter Quattrociocchi)
-
Serve quindi una nuova alfabetizzazione. Non solo ai contenuti, ma alla forma dell’informazione. Capire come una frase è stata generata diventa, oggi, cruciale quanto capirne il significato. Altrimenti continuiamo a confondere il linguaggio con il pensiero. E l’apparenza di intelligenza con l’intelligenza stessa. (Walter Quattrociocchi)
-
Finora ha retto l'assunto che parlare bene volesse anche dire pensare bene. Perfezionare l'arte della retorica voleva comunque dire aver letto tanto e memorizzato tanto e quindi anche appreso tanto... L'assunto è stato messo in discussione a più riprese nella storia del pensiero (l'invenzione della logica in opposizione al pensiero per associazioni, e forse prima forma di intelligenza "artificiale", anche se operata su un cervello umano), ma finora ha retto al meno nel senso che il ben parlare era considerato un proxy attendibile del ben pensare. (Francesca Frontini)
L’epistemia non è ignoranza. È peggio. È l’incapacità di accorgersi che qualcosa manca — perché tutto sembra già al suo posto. Non c’è malafede. Non c’è intenzionalità. Il problema non è che la macchina “non capisce”. Il problema è che noi non ce ne accorgiamo.
Le cause strutturali delle allucinazioni nei modelli LLM
Nel panorama in rapida evoluzione dell' intelligenza artificiale (AI), un'
allucinazione si riferisce a un fenomeno in cui un modello generativo, in particolare un modello linguistico di grandi dimensioni (LLM), produce contenuti presentati con sicurezza e grammaticalmente corretti, ma di fatto inaccurati, privi di senso o non fedeli ai dati di origine. A differenza dei tradizionali bug software, che possono causare il crash di un sistema o restituire un errore, un modello allucinante si comporta come un "bugiardo sicuro di sé", creando falsità che sembrano plausibili. Ciò rappresenta una sfida unica per l'implementazione dell'IA generativa, poiché gli utenti potrebbero inavvertitamente fidarsi di risultati errati in settori critici come la sanità, la ricerca legale e la creazione automatizzata di contenuti. Per comprendere le allucinazioni, è necessario esaminare l'architettura alla base dell'IA moderna. La maggior parte degli LLM è costruita sull' architettura Transformer, progettata per prevedere il token successivo in una sequenza sulla base della probabilità statistica. Questi modelli non sono database di fatti, ma motori probabilistici addestrati su grandi quantità di dati di addestramento per riconoscere modelli linguistici.Diversi fattori contribuiscono alle allucinazioni:
- Generazione probabilistica: il modello seleziona le parole in base alla probabilità, non alla veridicità. Se una sequenza di parole è statisticamente probabile ma di fatto errata, il modello potrebbe comunque generarla. Questo fenomeno è descritto in modo esemplare nel documento di ricerca sugli Stochastic Parrots, che evidenzia come i modelli imitino la forma senza comprenderne il significato.
- Qualità dei dati: se il corpus di addestramento contiene informazioni contrastanti o non aggiornate, il modello potrebbe riprodurre queste incongruenze.
- Fonte Amnesia: gli LLM comprimono le conoscenze in parametri e spesso perdono la fonte specifica delle informazioni, portando alla fusione di concetti distinti o alla "confabulazione" quando vengono interrogati su argomenti oscuri.
Strategie di mitigazioneRidurre le allucinazioni è uno degli obiettivi primari della ricerca sulla sicurezza dell'IA. Gli sviluppatori impiegano diverse tecniche per "radicare" i modelli nella realtà:
- Generazione potenziata dal recupero (RAG): Anziché affidarsi esclusivamente alla memoria interna, il modello è collegato a una base di conoscenze esterna curata, spesso memorizzata in un database vettoriale. Il modello recupera i fatti rilevanti prima di generare una risposta, migliorando significativamente l'accuratezza, come descritto da IBM Research su RAG.
- Prompting della catena di pensiero: Questa tecnica incoraggia il modello a scomporre ragionamenti complessi in passaggi intermedi, riducendo gli errori logici.
- Apprendimento rinforzato dal feedback umano (RLHF): Durante la fase di messa a punto, gli annotatori umani classificano i risultati del modello, penalizzando le allucinazioni e orientando il modello verso la veridicità.
Criteri di confronto LLM-ESSERI UMANI
Il linguista Walter Quattrociocchi scrive ne suo articolo su PNAS in bibliografia:
Negli spazi online, dove le informazioni si diffondono rapidamente e gli utenti sono divisi in camere di risonanza giudicare l'attendibilità delle fonti e i loro pregiudizi è un problema fondamentale. Questi giudizi plasmano ciò che le persone credono e il modo in cui si evolve il dibattito pubblico, alimentando la polarizzazione, diffondendo disinformazione ed erodendo la fiducia . Gli esseri umani tendono a fare affidamento su standard di base: è accurato, indipendente e trasparente? Valutatori umani esperti, come NewsGuard e Media Bias/Fact Check (MBFC), applicano regole chiare per valutare migliaia di siti di notizie. Il nostro obiettivo non è valutare se gli LLM possano sostituire i valutatori umani, ma utilizzare questi parametri di riferimento per analizzare le euristiche che guidano le loro valutazioni e come rendono operativi concetti come credibilità e pregiudizio. Modelli ampiamente utilizzati come GPT, Gemini e Llama – già impiegati in numerose attività di classificazione e verifica dei fatti offrono un banco di prova naturale per questa analisi. Studi recenti hanno esplorato se gli LLM replichino le euristiche umane o riflettano pregiudizi ideologici appresi durante la formazione, ma la maggior parte si concentra su metriche a livello di output come l'accuratezza o il bias. Pochi esaminano come vengono prodotti questi output. Colmiamo questa lacuna analizzando come gli LLM generano giudizi sull'affidabilità e il bias politico e come le loro procedure si confrontano con la valutazione umana.
Seguono alcuni concetti sugli LLM tratti da un articolo di Walter Quattrociocchi su Intelligenza Artificiale ed LLM reperibile in bibliografia.
L’Epistemia è un ecosistema in cui tutti si sentono informati da macchine che allucinano.
LLM: processi non intelligenti
Un LLM non è un pensatore profondo: è un sistema statistico addestrato su enormi quantità di testo per modellare le regolarità del linguaggio, senza accesso diretto al mondo reale.
Non c’è semantica innata: è pura mappa statistica estratta dai dati, una geometria delle frequenze.
I processi stocastici degli LLM
Quando scrive, un LLM non applica logica simbolica o ragionamento causale: genera sequenze di parole campionando dalla distribuzione di probabilità appresa per il contesto dato. Se il testo è “Il gatto sta…”, la distribuzione assegnerà alta probabilità a “dormendo” e bassa a “pilotando un aereo”. Parametri come temperature, top-ko nucleus sampling introducono variabilità, evitando risposte sempre identiche. È un processo formalmente descritto come catena di Markov di ordine elevato: chi sostiene che “ragiona” deve spiegare in che senso un campionamento condizionato possa costituire ragionamento.
Architettura LLM
È l’architettura che ha reso possibili gli LLM moderni. Il suo cuore è il self-attention, un meccanismo che, dato un testo, valuta quanto ogni parola sia rilevante rispetto a tutte le altre del contesto, non solo a quelle vicine. Invece di leggere il testo parola per parola (come facevano le vecchie reti neurali sequenziali), il Transformer considera l’intera sequenza in parallelo, calcolando in un colpo solo relazioni a breve e a lungo raggio. Questo permette di mantenere il contesto anche a distanza di molte parole, accelerare l’addestramento e gestire testi molto lunghi senza “dimenticare” parti importanti. È il motore che potenzia la generazione statistica, ma non ne cambia la natura: resta un simulatore di linguaggio, non un processore di significato.
Abilità statistica degli LLM
L’abilità dell’LLM non emerge per magia, ma da un processo di minimizzazione di una funzione di perdita (tipicamente la cross-entropy) tra le previsioni del modello e i dati reali. Attraverso il gradient descent, miliardi di parametri vengono regolati per ridurre sistematicamente l’errore di previsione sul prossimo token. Dopo trilioni di iterazioni, l’output diventa statisticamente indistinguibile dal testo umano. Questo non garantisce verità né comprensione, ma coerenza statistica: l’obiettivo è predittivo, non epistemico.
Allucinazioni degli LLM
Il modello può produrre frasi false ma plausibili perché non confronta le sue uscite con lo stato reale del mondo. L’accuratezza è un effetto sistematico, non un vincolo progettuale. Chiamarle “allucinazioni” è abbastanza imbecille: sono la conseguenza inevitabile di un sistema che ottimizza per plausibilità linguistica, non per veridicità fattuale.
Potenza di un LLM
La potenza di un LLM non dipende solo dall’architettura, ma dalla scala: più parametri, più dati e più calcolo tendono a produrre modelli più capaci. Questo è il principio delle scaling laws: le prestazioni migliorano in modo prevedibile quando crescono insieme capacità del modello, quantità di dati e tempo di addestramento. È un fenomeno empirico: allargando la rete e nutrendola di più linguaggio, la mappa statistica diventa più dettagliata. Ma più grande non significa “più intelligente”: significa solo che il completatore di frasi ha un vocabolario statistico più ricco e preciso — e quindi riesce a sembrare ancora più credibile anche quando si inventa tutto.
La cosa affascinante non è che stia emergendo una mente, ma che siamo diventati capaci di codificare in forma computabile l’intelligenza implicita nel linguaggio. E quel linguaggio, con il suo senso, lo abbiamo generato noi. Un LLM è il riflesso statistico della nostra produzione linguistica, organizzato così bene da sembrare vivo, ma resta ciò che è: un simulatore di linguaggio umano, non un soggetto cosciente.
Serve quindi una nuova alfabetizzazione. Non solo ai contenuti, ma alla forma dell’informazione. Capire come una frase è stata generata diventa, oggi, cruciale quanto capirne il significato. Altrimenti continuiamo a confondere il linguaggio con il pensiero. E l’apparenza di intelligenza con l’intelligenza stessa.
Conclusioni (provvisorie): L’epistemia non è ignoranza. È peggio. È l’incapacità di accorgersi che qualcosa manca — perché tutto sembra già al suo posto. - Pensiero e linguaggio non equivalgono alla verità: occorre verificare la loro corrispondenza
Il giornalista investigativo Luca Zorloni scrive: "L'intelligenza artificiale è molto brava a farci credere di sapere cose che non sa. E noi ci stiamo convincendo di conoscerle, mentre ci affidiamo a risposte che suonano bene. C'era una volta l'episteme. La vera conoscenza, secondo i filosofi dell'antica Grecia. Oggi ci ritroviamo invece con l'epistemia. Che della conoscenza è un'illusione. Una sorta di specchio della realtà deformato da una fede cieca nelle risposte dei grandi modelli linguistici (LLM) alle nostre domande. Giudizi. Valutazioni. Classificazioni di fonti. Azioni di discernimento che deleghiamo ai modelli di AI. E fin qui, tutto lecito. Il problema insorge quando riceviamo la risposta. Quanto la prendiamo per buona? Qui si colloca il bivio tra episteme ed epistemia. Tra conoscenza e illusione. Perché gli LLM non sono progettati per effettuare verifiche sostanziali, ma per generare una risposta che sia plausibile dal punto di vista linguistico. Il loro scopo, in fondo, è questo. Restituire un output che “suoni” bene. Al netto che sia vero o falso. Se quel risultato non viene verificato da chi delega all'AI un pezzo del suo lavoro, ecco che succede il patatrac. È qualcosa che ricorda molto da vicino il confronto tra Socrate e i sofisti nell'Atene del quinto secolo. Di questi uno degli esponenti di spicco era Gorgia. Il quale sosteneva che nulla esiste, che se anche esistesse non sarebbe conoscibile e se anche fosse conoscibile, non sarebbe comunicabile. L'AI fa un po' il contrario, perché può comunicare tutto, pur senza conoscerlo. Alla fine, però, l'esito è lo stesso. Un esercizio di persuasione che si fonda sulla capacità di costruire un discorso plausibile, non vero. Un recente studio pubblicato su Pnas e condotto da un team di ricerca guidato da Walter Quattrociocchi, docente dell'università La Sapienza di Roma e al timone del Center of data science and complexity for society, ha analizzato per la prima volta in modo sistematico come sei modelli linguistici di ultima generazione, tra cui ChatGPT di OpenAI, Gemini di Google o Llama di Meta, “operazionalizzano il concetto di affidabilità". Come si legge nella nota che annunciava la pubblicazione del progetto, "il lavoro confronta le loro valutazioni con quelle prodotte da esseri umani ed esperti del settore (NewsGuard, Mbfc), utilizzando un protocollo identico per tutti: stessi criteri, stessi contenuti, stessa procedura. Il focus non è sull’accuratezza del risultato finale, ma su come il giudizio viene costruito”. Le conclusioni dello studio condotto dal team di Quattrociocchi non identificano solo il problema, ma indicano anche la soluzione. Che è saperne di più dell'AI a cui ci affidiamo. Delegare la navigazione solo se si conosce la rotta, la destinazione, gli scogli che affiorano. O se si hanno gli strumenti per comprendere se, circondati dalla nebbia, si sta viaggiando nella giusta direzione. L'impiego dell'AI richiede di alzare il nostro livello di conoscenza, di ampliarlo e di mantenerlo aggiornato. Da un lato, rispetto alla capacità di utilizzare gli strumenti di intelligenza artificiale, di saperne distinguere i risultati, i meccanismi di funzionamento e quindi i punti di forza e quelli di debolezza. Dall'altro, rispetto alle materie su cui chiedono all'AI di sostituirci a noi. Alla fine, quando si parla degli effetti della tecnologia sul sapere, torniamo sempre al punto di partenza. Che fake news, deepfake, epistemia si disinnescano non tanto con etichette posticce o filigrane, ma coltivando lo spirito critico, investendo sulla formazione, allenando la mente a non cadere nei tranelli di una conoscenza superficiale. È una buona notizia, se volete, che ridimensiona gli allarmi delle trombe dell'Apocalisse. Ma è anche una consapevolezza che sposta il fuoco della trasformazione dall'AI a noi stessi. E ci inchioda alle nostre responsabilità. Sapremo uscirne migliori? "
per scaricare le conclusioni (in pdf):
La razionalità richiede impegno personale!
Iscriviti alla Newsletter di pensierocritico.eu per ricevere in anteprima nuovi contenuti e aggiornamenti:
Iscriviti alla Newsletter di pensierocritico.eu per ricevere in anteprima nuovi contenuti e aggiornamenti:
Bibliografia (chi fa delle buone letture è meno manipolabile)
- Luca Zorloni (2026), Ci stiamo ammalando di epistemia, l'illusione di sapere cose solo perché l'AI le scrive bene - Wired
- Edoardo Loru, Jacopo Nudo, Niccolò Di Marco, Walter Quattrociocchi (2025), The simulation of judgment in LLMs - PNAS
- Walter Quattrociocchi (2025), “Intelligenza artificiale”, ChatGpt e Large Language Model: alcuni chiarimenti fondamentali - La nostra scuola
Scrivi, se non sei d'accordo
Se ritenete che le tesi del "punto chiave" non vengano sufficientemente supportate dagli argomenti presenti in questa pagina potete esprimere il vostro parere (motivandolo).
Inviate una email con il FORM. Riceverete una risposta. Grazie della collaborazione.
Guarda le pagine correlate
Libri consigliati
a chi è interessato a capire in che modo si creano e si modificano le idee umane
a chi è interessato a capire in che modo si creano e si modificano le idee umane
Spesa annua pro capite in Italia per gioco d'azzardo 1.583 euro, per l'acquisto di libri 58,8 euro (fonte: l'Espresso 5/2/17)
Pagina aggiornata il 12 Gennaio 2026

