Non è fuori controllo l’intelligenza artificiale ma i giganti che la producono

Articolo pubblicato sul Sole 24 Ore il 24 ottobre 2025


Storytelling, paura, avidità e altre emozioni sembrano aver preso possesso dell’intelligenza artificiale. Chi cerchi una visione razionale la può trovare solo superando varie cortine fumogene.

In effetti, alcune narrative contrastanti raccontano il destino dell’intelligenza artificiale. I mercati finanziari e una manciata di tecno-capitalisti sembrano credere al racconto dell’ineluttabile progresso che questa tecnologia garantirà ai sistemi che l’adottano senza restrizioni e per questo investono centinaia di miliardi. Una cerchia sempre più larga di scienziati e imprenditori invece non cessa di firmare appelli per fermare lo sviluppo sregolato dell’intelligenza artificiale, che potrebbe provocare effetti catastrofici per gli umani. Nei giorni scorsi è tornata alla carica la raccolta di firme del Future of Life Institute. A fine settembre, in occasione dell’Assemblea generale delle Nazioni Unite, scienziati, politici e intellettuali avevano proposto un’iniziativa internazionale, chiamata AI Red Lines, per limitare le applicazioni più rischiose dell’AI. 

Di fronte all’esuberanza dei mercati e all’allarmismo di molti osservatori, peraltro, non mancano gli esperti che invitano alla calma. Gli economisti che vedono nelle condizioni di mercato attuali i connotati della bolla speculativa si moltiplicano. Gli studiosi che non credono all’avvento di un’intelligenza artificiale davvero capace di uscire dal controllo degli umani si fanno avanti sempre meno timidamente. In questo marasma di idee vaganti, la società emerge più preoccupata che fiduciosa, a sentire i sondaggi di Edelman, soprattutto in Occidente.

Le BigTech e le mega start up dell’intelligenza artificiale, però non si fermano. Elon Musk, tra l’altro fondatore di xAI, era tra i firmatari di un primo appello lanciato dal Future of Life Institute che chiedeva una moratoria sullo sviluppo dell’AI, ma oggi investe senza preoccupazioni molti miliardi nel suo modello Grok. Da parte sua, quando Sam Altman guidava l’OpenAI degli esordi, che era una non profit, parlava di un’umanità minacciata dall’intelligenza artificiale: ma da quando la sua OpenAI è una for profit e ha raggiunto una capitalizzazione stimata di poco inferiore ai mille miliardi non sembra più tanto in allarme. 

Come orientarsi? Che cosa occorre davvero temere nell’immediato e a che cosa occorre prepararsi nel lungo termine? 

Negli ultimi giorni OpenAI ha lanciato il suo browser con intelligenza artificiale, chiamato Atlas. È molto comodo per interrogare ChatGPT mentre si naviga in rete. E contiene un “agent mode” nel quale l’intelligenza artificiale prende il controllo del cursore e della tastiera e completa i lavori che l’utente gli vuole affidare, come prenotare biglietti ed effettuare ricerche online. L’autonomia dell’agente è limitata ma può dare un’idea di come l’AI rischi di evolvere. Se ChatGPT continua a compiere errori significativi, come finora non ha cessato di fare, chi affidasse ad Atlas il compito di rispondere automaticamente alle mail, si potrebbe trovare in difficoltà nell’eventualità che la macchina scrivesse frasi meno che appropriate. Man mano che gli utenti meno esperti affideranno gli agenti elettronici compiti sempre più complessi, i rischi cresceranno esponenzialmente. 

 

Del resto, in prospettiva, le future innovazioni possono alimentare altri timori. Secondo le indiscrezioni, OpenAI e il designer Jony Ive stanno pensando ad apparecchi dotati di microfoni sempre in ascolto per offrire un servizio proattivo. Con questa e altre innovazioni, l’”agentività” dell’intelligenza artificiale farà altri passi in avanti e il controllo degli umani farà nuovi passi indietro. E che dire dell’integrazione di prodotti elettronici direttamente nel cervello che gli stessi neurotecnologi, come Silvestro Micera dell’EPFL e della Sant’Anna di Pisa, suggeriscono debba essere regolamentata per non rischiare di diventare manipolatoria?

In realtà, non è l’intelligenza artificiale ad essere fuori controllo. Sono i tecno-capitalisti che guidano i giganti digitali a produrre ciò che hanno in mente senza limitazioni. Ci si può fidare delle BigTech e lasciare che si autoregolamentino? In passato, non hanno esitato a usare l’intelligenza artificiale – nella forma degli “algoritmi di raccomandazione” – per controllare in modo capillare il comportamento di miliardi di persone sui social network e approfittare delle loro debolezze. Oggi, OpenAI è accusata in tribunale di non avere fatto abbastanza per evitare che la sua ChatGPT potesse consigliare adolescenti depressi sui modi migliori per suicidarsi. Il copione emergente è sempre lo stesso: i giganti sembrano dare priorità alla conquista di un gran numero di utenti piuttosto che alla loro sicurezza. Si può ragionevolmente dubitare che in futuro saranno più coscienziosi.