Che cosa vuol dire che l’AI è capace di ragionare

Articolo pubblicato sul Sole 24 Ore il 14 settembre


Ancora una volta Sam Altman e la sua OpenAI sono riusciti a conquistare l’attenzione del pianeta. La presentazione della versione “01’’ di GPT ha riprodotto uno schema ormai classico: tecnologie sorprendenti, promesse roboanti e minacce terribili. Risultato atteso: seguiteci e finanziateci.

Ma il messaggio, questa volta, è tutto da interpretare: l’intelligenza artificiale che ragiona. Che cosa vuol dire? A chi può servire? Dove può arrivare? E che rischi può provocare? Le risposte non si trovano rincorrendo tutte le illazioni. Per i cittadini, le imprese e i governi è molto meglio guardare al fenomeno con metodo: primo, si tratta di cercare di comprendere che cosa fa oggi, davvero, il modello di OpenAI; secondo, decodificare le narrative usate per spiegarlo.

Ebbene. Che cosa significa che la versione “o1” è capace di ragionare? In pratica spacchetta problemi complessi in parti più piccole e più facilmente risolvibili con le logiche statistiche dell’intelligenza artificiale generativa, tenendo però le parti concatenate ed esplicitando il processo logico seguito. Anche per questo OpenAI dice che la nuova versione è più trasparente. In questo processo consuma moltissima elettricità e capacità di calcolo tanto è vero che il costo di usare la nuova versione è tre volte superiore alla versione precedente in input e quattro volte in output, calcolano a “the Verge”. La descrizione del modo di “ragionare” dell’intelligenza artificiale generativa era stata anticipata ad alcuni osservatori e si trova con qualche dettaglio nel libro di Roberto Viola – e dell’autore di questo articolo – intitolato “La legge dell’intelligenza artificiale” (Il Sole 24 Ore, 2024). Non sono peraltro chiarissimi i meccanismi di rinforzo dell’apprendimento scelti per minimizzare gli errori compiuti da questa tecnologia. Si sa che il problema delle “allucinazioni” non è risolto, per ammissione dei tecnici di OpenAI. E del resto, l’accelerazione dell’uscita di questa versione ha instillato il dubbio che non sia stata testata a sufficienza, tanto è vero che è presentata come una “preview”. Ma Mira Murati, responsabile della tecnologia di OpenAI, assicura al “Financial Times” che i test sono stati accurati. In ogni caso, i risultati sono come sempre bellissimi e la nuova versione risponde ai test di matematica in modo eccellente. Ma non è detto che questo si possa davvero definire “ragionare”.

La scelta delle parole in effetti, ambigue ma affascinanti, ha uno scopo fondamentale per un’azienda come OpenAI: far credere a chi ascolta che ogni nuova versione è una tappa verso la creazione di un’intelligenza artificiale che si avvicina a quella umana, per poi minacciare di superarla. Se convince di questo, OpenAI diventa l’incarnazione del progresso e si accredita come leader. E se la finanza ci crede, investe i miliardi che servono all’azienda per allenare i suoi mega-modelli.

Questa idea è sorprendentemente simile all’argomentazione addotta da John McCarthy, Claude Shannon, Marvin Minsky e gli altri scienziati che si sono riuniti nell’agosto del 1956 al Dartmouth College con l’idea che in pochi mesi avrebbero risolto il problema di creare quella che proprio loro chiamarono l’intelligenza artificiale: erano certi che qualsiasi aspetto del ragionamento umano si possa descrivere con tale precisione da poter essere simulato con una macchina. Quel progetto è ancora il mito fondativo di una narrativa – come quella di OpenAI – che descrive l’intelligenza artificiale e che ne annuncia il futuro: peccato che quei grandissimi scienziati non siano riusciti a realizzarla in pochi mesi come pensavano e che quasi settant’anni dopo la loro assunzione sia ancora ritenuta molto dubbia. È davvero così facile descrivere precisamente il pensiero umano?

Esiste in realtà un’altra narrativa importante. È quella secondo la quale la macchina funziona in modo radicalmente diverso dal cervello umano. E in effetti l’utilità dell’intelligenza artificiale sta proprio nel saper fare cose che gli umani non sanno fare: sa gestire quantità di dati inimmaginabili e trova correlazioni, regolarità, soluzioni, operando calcoli che gli umani non sanno fare. E d’altra parte fa una fatica micidiale a comprendere fatti che agli umani appaiono evidenti. Questa narrativa descrive un rapporto evolutivo antico degli umani con le macchine, il cui risultato è piuttosto coerente con l’esperienza storica: le macchine semplicemente aumentano le capacità degli umani. È una narrativa meno emotiva. Ma più realistica.


Foto: già pubblicata qui.