AI: il trattato promosso dal Consiglio d’Europa è stato accettato dagli Usa

L’intelligenza artificiale non è un’entità aliena. Rispecchia gli obiettivi, la visione e la mentalità di chi la progetta e costruisce. Governare l’intelligenza artificiale quindi significa creare un consenso, intorno agli scopi della sua realizzazione, che venga adottato dalle imprese che la producono e dagli stati che la regolano. Il che richiede un accordo internazionale. Sembrava impossibile, per la distanza degli interessi dei vari sistemi politici e delle strutture economiche e sociali che rappresentano. Ma il Consiglio d’Europa è riuscito a scrivere e far firmare da Stati Uniti, Regno Unito, Unione Europea e altri paesi un trattato sul governo dell’intelligenza artificiale che punta a limitare i rischi connessi all’applicazione di questa tecnologia senza frenarne lo sviluppo. I firmatari si impegnano a lavorare per favorire l’innovazione promessa dall’intelligenza artificiale ma nel rispetto dei diritti umani, dello stato di diritto e della democrazia.

Come è stato possibile? Da una parte, ovviamente, il trattato è frutto di compromessi e quindi non perfetto per nessun punto di vista. Inoltre, tiene fuori tutto ciò che riguarda la tecnologia militare. Ma impegna tutti a convergere verso una policy che favorisca uno sviluppo dell’intelligenza artificiale umanamente sensato. Anche grazie a un punto di principio che fino a qualche anno fa non era per nulla ovvio: le piattaforme sono responsabili dei rischi che generano con le loro applicazioni. In passato prevaleva in genere l’idea che la tecnologia è neutrale e sbaglia chi la usa male: ma ora il clima è cambiato. E si è compreso che la tecnologia in qualche modo influenza i suoi utilizzatori. Lo vedono quotidianamente miliardi di persone che usano piattaforme, come Facebook, Instagram e TikTok, i cui sistemi di raccomandazione a base di intelligenza artificiale sembrano incentivare certi comportamenti, che a loro volta rischiano di essere dannosi per la qualità dell’informazione, delle relazioni sociali e della stabilità psicologica delle frange più fragili della popolazione. 

Pur criticato, l’AI Act prodotto dall’Unione Europea ha fatto scuola. La California a sua volta ha sviluppato una proposta di legge che va nella stessa direzione. E va notato che sebbene alcune BigTech la osteggino, come Google e OpenAI, ci sono invece protagonisti dell’intelligenza artificiale come Anthropic che la sostengono. Il trattato messo a punto dal Consiglio d’Europa a sua volta apre la strada a un consenso più generale intorno ai principi dell’intelligenza artificiale affidabile, trasparente, spiegabile, documentata e rilasciata dopo test significativi per la sicurezza degli utilizzatori. Si va anche chiarendo una definizione internazionalmente accettata di questa tecnologia: «Ai fini della presente Convenzione, per “sistema di intelligenza artificiale” si intende un sistema basato su macchine che, per obiettivi espliciti o impliciti, inferisce, dagli input che riceve, come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali. I diversi sistemi di intelligenza artificiale variano nei loro livelli di autonomia e di adattabilità dopo l’implementazione».

Tutto questo potrebbe essere soltanto un tentativo dei sistemi politici di mettere un limite alla crescita del potere delle BigTech? Non è impensabile. Ma va osservato anche che proprio nel mondo delle start up californiane, il grande venture capital, da Sequoia ad Andreessen Horowithz ha deciso di investire oltre un miliardo di dollari nella nuova impresa di Ilya Sutskever, pioniere delle reti neurali, cofondatore di OpenAI – dalla quale è uscito dopo un’aspra polemica con il ceo Sam Altman sugli obiettivi dell’azienda – e allievo di Geoffrey Hinton, lo scienziato che a sua volta aveva abbandonato Google per poterne criticare liberamente la strategia. Safe Superintelligence di Sutskever ha 10 dipendenti e intende lavorare senza andare sul mercato per almeno due anni, allo scopo di produrre appunto una tecnologia “sana” e non rischiosa per la società. 

Insomma, la sensibilità per la necessità di investire in modo più avvertito sull’intelligenza artificiale si va diffondendo, anche parallelamente allo sgonfiamento della bolla finanziaria connessa all’idea di AI più fanaticamente dominatrice portata avanti da altre aziende. Può essere una svolta. 


Foto: “Plenary chamber of the Council of Europe’s Palace of Europe 2014 01” by Adrian Grycuk is licensed under CC BY-SA 3.0.