Le illusioni dell’intelligenza artificiale

Articolo pubblicato su Nòva, Il Sole 24 Ore, il 19 febbraio 2023


Difendendosi dalle critiche di chi lo accusava di proporre un ritratto edulcorato della vita quotidiana veneziana, Carlo Goldoni osservò: «Se scrivessi il vero nessuno mi crederebbe. Quindi devo scrivere il verosimile». Una lezione portata alle estreme conseguenze dai creatori di ChatGPT, l’intelligenza artificiale più chiacchierata degli ultimi tre mesi.

La messa in scena è stata spettacolare. Milioni di persone l’hanno provata, commentata, copiata, usata per lavoro e per svago. Ma il percorso dell’entusiasmo per le nuove tecnologie è un’onda di rumore: sale, raggiunge l’apice, scende e alla fine si placa. Per quanto riguarda ChatGPT, la fase della massima eccitazione è stata superata: il grande scroscio di applausi per la brillantezza apparente delle risposte di questa chat automatica è stato presto subissato dai fischi più autorevoli. «Plagio ad alta tecnologia», accusa Noam Chomsky, linguista. «Cavolate», spara Tim Harford, economista. «Allucinazioni», giudica Gary Marcus, scienziato cognitivo. 

Fosse stata un’onda di marea, si sarebbe ormai ritirata, lasciando sulla spiaggia ogni genere di detriti. Ed è fra quelli che si deve cercare ciò che resterà di questa esperienza. C’è l’eloquenza generata statisticamente, come tutti sanno, sulla base di miliardi di testi masticati dal sistema che riesce a inferire la frase che probabilmente prosegue un certo incipit. I risultati migliori sono ottenuti però grazie all’intervento di migliaia di persone pagate qualche dollaro all’ora per correggere i risultati, come ricorda Marco Varone, cto di Expert.ai. E comunque una quantità di errori, omissioni, pure e semplici invenzioni: David Smerdon, economista alla University of Queensland, ha chiesto a ChatGPT: «Qual è il paper di economia più citato della storia?». La macchina ha risposto: «”A Theory of Economic History” di Douglass North e Robert Thomas, pubblicata nel Journal of Economic History, nel 1969, citata più di 30mila volte. Il paper è considerato ormai un classico della storia economica». Bella risposta, commenta Harford: «Peccato che quel paper non esista». ChatGPT punta al verosimile e non prova alcun interesse per distinguere il vero dal falso.

Perché, in realtà, non è una macchina per conoscere. È una macchina per conversare. Elena Esposito, sociologa dei processi culturali a Bielefeld e a Bologna, colloca il problema nel suo contesto esatto, nel suo libro decisivo: “Comunicazione artificiale. Come gli algoritmi producono intelligenza sociale” (Egea 2022). Non si tratta di comprendere l’intelligenza della macchina ma la sua funzione nella comunicazione che produce socialità. E incalza sullo stesso filone interpretativo Simone Natale, storico dei media a Torino, autore di “Macchine ingannevoli. Comunicazione, tecnologia, intelligenza artificiale” (Einaudi 2022). Natale sceglie un taglio più attento all’illusorietà della macchina che si presenta come capace di rispondere a un bisogno di conoscenza, mentre non è altro che simulazione. Un’interpretazione particolarmente adatta per commentare la crisi di ChatGPT.

Ma il rilancio è già pronto. La questione esce dal terreno ludico dell’interazione divertente con la chat per diventare seria quando si analizza la prossima incarnazione della tecnologia. Proprio mentre si spengono gli entusiasmi per ChatGPT, le cui risposte erano elaborazioni su un corpus monolitico di dati che si fermavano al 2021, i suoi creatori di OpenAI, alleata con Microsoft, hanno prodotto una nuova versione – costruita su una nuova tecnologia chiamata GPT3.5 – in grado di aggiornarsi con i risultati del motore di ricerca Bing. Cognitivamente è un salto enorme. Se prima il motore di ricerca restituiva una serie di link e affidava al pubblico il compito di scegliere che cosa pensarne, oggi potrebbe anche aggiungere un elaborato che sceglie il taglio con il quale riassumere quello che il motore di ricerca ha trovato. «È tutta questione di interfaccia» dice David Weinberger, filosofo della conoscenza. «Assumendo che le allucinazioni siano contenute, mi preoccupa che la nuova voce della chat diventi una sorta di oracolo disincarnato. La serie dei link restituiti dal vecchio motore di ricerca aiuta a esporre la natura della conoscenza, molteplice, mai stabilizzata». Se il motore con la nuova chat restituisse invece un testo con la sua interpretazione di ciò che ha trovato, invece di lasciarla agli utenti, finirebbe con l’impoverire la conoscenza.

Già. I detriti lasciati dall’ondata di ChatGPT modificano la prospettiva. Finora il dibattito sulla società che si adatta all’intelligenza artificiale si era concentrato sull’etica. Ma il nuovo problema è epistemologico. La questione non è più solo che cosa sia giusto fare con l’intelligenza artificiale. La nuova domanda è: qual è il valore della conoscenza comunicata dall’intelligenza artificiale? Se la macchina per la comunicazione verosimile, nella nuova versione, si maschera da conoscenza documentata della realtà, c’è il rischio che possa generare non un’ondata di entusiasmo, ma uno tsunami di illusioni.


Foto: “Trompe l’oeil” by peggyhr is licensed under CC BY 2.0.