Le contraddizioni di Musk sull’intelligenza artificiale: i buoni propositi non bastano

Questa è una versione ampliata dell’articolo pubblicato sul Sole 24 Ore del 30 marzo


La Microsoft ha licenziato il suo team dedicato all’etica per l’intelligenza artificiale in gennaio. Ma al Financial Times ha detto ieri che ci sono tante altre persone che se ne possono occupare. Nel quadro dei licenziamenti di questi mesi, Google a sua volta ha rinunciato a molti suoi esperti di etica, ma aveva aperto la strada già lasciando andare via due leader della materia come Timnit Gebru e Margaret Mitchell negli anni scorsi, a causa di opinioni discordanti con l’azienda. Meta ha licenziato i suoi esperti della materia a fine 2022. E persino Twitter, che era stata l’azienda più collaborativa con gli scienziati impegnati a comprendere i rischi degli algoritmi di raccomandazione nelle piattaforme sociali, ha licenziato a sua volta i suoi esperti di etica dell’intelligenza artificiale dopo essere stata acquistata da Elon Musk. 

La contraddizione è evidente. Proprio Musk ha firmato ieri insieme a oltre mille persone, tra le quali grandi esperti come Yoshua Bengio e Gary Marcus, l’appello per una moratoria di sei mesi sugli sviluppi di intelligenze artificiali di capacità superiori a quelle di GPT4. Con una mano Musk caccia i suoi esperti di etica dell’intelligenza artificiale e con l’altra chiede ai competitori di fermarsi nello sviluppo di queste tecnologie. E questo avviene nonostante l’impatto culturale e sociale dei suoi algoritmi di raccomandazione sia provato e piuttosto pesante sulle democrazie e sulle economie, mentre i rischi delle varie chat pseudo inteligenti sono temuti, con ottime ragioni, ma non ancora verificati in pieno.

Tutto questo non riduce l’importanza delle preoccupazioni contenute nell’appello di ieri. Ma serve a comprenderlo meglio. Una richiesta di moratoria è un’iniziativa che supporta una strategia di autoregolamentazione. Suppone che gli interessati possano decidere spontaneamente di aderire e che si comporteranno in modo non contraddittorio. Il che appunto non è banale: se anche i vertici aziendali accettassero la proposta moratoria, le pressioni del modello di business non sarebbero facili da superare.

Gli autori della lettera aperta, al Future of Life Institute, chiedono ai privati di fermarsi e prevedono che se questi non lo faranno allora dovranno intervenire le autorità politiche. Probabilmente ritengono che un appello del genere possa funzionare perché in fondo devono convincere solo poche mega aziende che dispongono delle gigantesche risorse necessarie a sviluppare questi modelli generativi. Ma con questo segnalano uno dei problemi più gravi della situazione che si è venuta a creare. Siamo di fronte a un oligopolio.

Tutti motivi che sottolineano la necessità dell’intervento delle autorità nelle democrazie. La Commissione europea sta sviluppando il suo AI Act. È pensato come un sistema di valutazioni sui rischi delle intelligenze artificiali e prevede il divieto di quelle più pericolose. Va pensato insieme al Digital Markets Act che aumenta i controlli antitrust delle mega piattaforme. Gli Stati Uniti stanno seguendo una strada analoga. Per ora.


Foto: “Artificial Intelligence – Resembling Human Brain” by deepakiqlect is licensed under CC BY-SA 2.0.