L’intelligenza artificiale si può battere a Go. E quindi?

Articolo pubblicato sulla guida all’intelligenza artificiale del Sole 24 Ore, pubblicata l’8 marzo 2023


Ai primi di febbraio di questo 2023, un umano ha battuto un’intelligenza artificiale a Go. Ci si era abituati a pensare che fosse impossibile. In effetti, nel 2016, AlphaGo, un’intelligenza artificiale progettata da DeepMind, di Google, aveva battuto Lee Sedol, il campione del mondo del gioco considerato tra i più complessi esistenti. Da allora, gli umani hanno dato per scontato che avrebbero perso per sempre a Go: tanto che Lee Sedol tre anni dopo la famosa sconfitta si è ritirato, dicendo che le macchine sono entità imbattibili. Si sbagliava, appunto. Il giovane Kellin Pelrine, scienziato informatico e giocatore di Go di talento, ha analizzato il modo di giocare di un’intelligenza artificiale chiamata KataGo con un programma disegnato da FarAI, ha scoperto il suoi difetti e l’ha battuta 14 volte su 15 partite senza l’ausilio del computer. E poi ha vinto anche contro un’altra intelligenza artificiale specializzata in Go chiamata Leela Zero. Si tratta di macchine considerate forti quanto AlphaGo.

L’abitudine a pensare che le nuove versioni delle macchine sono sempre migliori delle precedenti costituisce la struttura di base di una narrativa secondo la quale il progresso tecnologico è ineluttabile e gli umani non possono che subirlo, o accettarlo e cavalcarlo. E questo vale anche nel caso delle macchine per l’automazione cognitiva, nonostante che proprio in questo settore il progresso sia stato molto accidentato. Tutto era cominciato nell’estate del 1956, in un workshop al Dartmouth College con scienziati e matematici del calibro di Claude Shannon, Marvin Minsky, John McCarthy. In quell’occasione era nato il concetto di intelligenza artificiale e era stato stabilito un piano di sviluppo tecnico visionario. Gli scienziati partivano dall’assunzione che ogni aspetto dell’apprendimento o di qualsiasi altra caratteristica dell’intelligenza possa essere descritto in modo così preciso da poter essere simulato da una macchina, per progettare reti neurali in grado di usare il linguaggio, formare astrazioni, migliorare se stesse. E si dichiaravano convinti che il lavoro di un’estate sarebbe stato sufficiente per compiere progressi significativi. In realtà, l’intelligenza artificiale ha attraversato per decenni varie fasi di entusiasmo alternate a grandi depressioni. E ancora oggi non cessa di emozionare e deludere: come nel caso dell’entusiasmo per l’eloquenza di ChatGPT che ha lasciato spazio nel giro di tre mesi a un coro di critiche per gli errori che quella forma di intelligenza artificiale non cessa di commettere.

Certo, i risultati che oggi le intelligenze artificiali possono ottenere si rivelano sorprendenti. Perché i modelli per la simulazione, l’enormità dei dati disponibili per essere trattati con algoritmi complessi e la gigantesca potenza di calcolo dei computer, hanno reso possibile raggiungere risultati che fino a vent’anni fa erano inimmaginabili. Le applicazioni dell’automazione cognitiva più spettacolari – quelle che competono con gli umani in giochi difficilissimi – non devono distrarre troppo: le applicazioni di maggiore impatto sono forse quelle fanno collaborare le macchine nella produzione industriale, in agricoltura, nei servizi e nella scienza. Reti di robot che sanno diagnosticare il loro bisogno di manutenzione. Insiemi di droni, sensori, reti idriche e dati satellitari che possono realizzare sistemi di coltivazione di precisione con poco spreco di prodotti chimici e acqua e altissime rese. Sistemi di controllo della mobilità che favoriscono per esempio le assicurazioni sulle auto e consentono di prevedere le conseguenze dei diversi comportamenti dei clienti alla guida. AlphaFold di DeepMind è riuscita a ricostruire la struttura 3D di 200 milioni di proteine. La concretezza di queste applicazioni è evidente e gli investimenti ottengono ritorni di grande valore economico e scientifico.

Per cogliere le opportunità, occorre però farsi largo tra i rischi. E il primo di questi è l’equivoco che il concetto stesso di intelligenza artificiale tende a suscitare. Le sue funzioni, i problemi che affronta, il suo stesso nome non cessano di indurre gli osservatori nella tentazione di considerarla un’entità, vagamente antropomorfa, destinata a evolvere per diventare cognitivamente sempre più forte. Qualcuno è andato troppo oltre, come Blake Lemoine, il collaboratore di Google diventato famoso per avere sostenuto che l’intelligenza artificiale LaMDA era ormai divenuta cosciente di sé. Per Gary Marcus, scienziato cognitivo, le intelligenze artificiali generative che commettono quantità di errori sono preda di “allucinazioni”, che rischiano di contagiare anche i loro creatori.

La principale allucinazione è quella secondo la quale le macchine prenderanno il posto degli umani. In realtà, le macchine automatizzano certi processi cognitivi, nell’ambito di progetti di innovazione che gli umani definiscono e implementano. I processi sociali, economici, politici, sono il motore del cambiamento che guida l’applicazione delle macchine: queste fanno ciò per cui sono programmate. E nei limiti delle loro capacità. L’automazione cognitiva funziona sulla base di corpora di dati relativamente stabili e comunque relativi a fatti del passato, come osserva Gerd Gigerenzer, psicologo, autore di “Perché l’intelligenza umana batte ancora gli algoritmi” (Cortina 2022). Se si analizzano problemi stabili, le intelligenze artificiali funzionano bene, ma non altrettanto se si analizzano problemi in contesti con forti incertezze, nei quali i dati del passato non dicono molto sul futuro.

Insomma. Alzare le aspettative sull’intelligenza artificiale è una buona tattica di comunicazione, ma non aiuta a comprendere quello che sta succedendo. Soprattutto se si vuole imparare a trarre il massimo vantaggio dall’evoluzione tecnologica più importante del momento.


Foto: “Machine Learning & Artificial Intelligence” by mikemacmarketing is licensed under CC BY 2.0.