Intelligenza artificiale: l’ora delle scelte. Economiche, etiche ed epistemologiche

Articolo pubblicato sul Sole 24 Ore, domenica 26 novembre 2023

————————————

Tra Mission District a San Francisco e Rue de la Loi a Bruxelles, nelle ultime settimane, decine di riunioni a porte chiuse hanno deciso la missione dell’azienda americana OpenAI e la legge europea chiamata AI Act, disegnando probabilmente la prospettiva dello sviluppo dell’intelligenza artificiale per i prossimi decenni. I partecipanti a quelle riunioni dovevano rispondere una domanda strategica: la più misteriosa, affascinante, potente e, probabilmente, pericolosa tecnologia che emerge dalla digitalizzazione si deve sviluppare lasciando fare alle imprese che la producono o guidandone l’azione per prevenire e limitare i rischi delle sue applicazioni più controverse? Il ritmo di uscita delle nuove soluzioni deve essere dettato dalle tattiche competitive di chi vuole conquistare al più presto quote di mercato o dalla cautela in relazione ai danni che ne potrebbero derivare? Insomma: lo sviluppo dell’intelligenza artificiale sarà guidato dagli interessi di chi la produce o da quelli di chi è destinato a conoscerne l’impatto?

Giusto nell’ottobre scorso, un paper del Center for Security and Emerging Technology intitolato “Decoding Intentions. Artificial Intelligence and Costly Signals”, mostrava come OpenAI abbia deciso di lanciare GPT-4 nonostante i suoi importanti difetti, ammessi in una lunga relazione che descriveva il percorso seguito per testare la nuova tecnologia, mentre nello stesso periodo, Anthropic, un’azienda concorrente, aveva invece deciso di posporre il lancio del suo prodotto proprio per testarlo meglio e limitare i rischi per gli utenti. Tra i tre autori di quel paper c’era anche Helen Toner, che oltre a lavorare al Center era nel board di OpenAI: ha votato per l’allontanamento di Sam Altman ed è stata costretta a dimettersi a sua volta pochi giorni dopo, al ritorno del ceo alla guida dell’azienda. Ma il tema che poneva nel suo paper rimane: come ci si può organizzare per lanciare sul mercato dei prodotti di intelligenza artificiale più sicuri?

La risposta migliore si poteva trovare nell’autoregolamentazione affidata al senso etico delle aziende o nell’innovazione normativa? La Commissione Europea che ha proposto la prima versione dell’AI Act, e il Parlamento Europeo che lo ha emendato, erano convinti che la risposta fosse in una legge basata sulla definizione della pericolosità dei modi di utilizzare la tecnologia. Il loro testo prevedeva una classificazione delle applicazioni in base al rischio e definiva quali erano potenzialmente tanto dannose da dover essere vietate o attentamente normate, mentre le altre si sarebbero potute sviluppare liberamente. Ma anche il loro lavoro si era dovuto confrontare con la velocità di uscita delle ultime potentissime versioni dell’intelligenza artificiale, quelle che vanno sotto il nome di “large language model” (LLM), come appunto ChatGPT di OpenAI, Claude di Athropic, Bard di Google e altre. I rischi, etici ed epistemologici, degli LLM sono stati trattati da Commissione e Parlamento dopo l’uscita di ChatGPT, tenendo conto non soltanto della rischiosità delle loro applicazioni ma anche del modo in cui erano fatti. E nel trilogo con il Consiglio Europeo, a quanto pare, proprio su questa questione ci sono state discussioni molto accese. Il destino dell’AI Act sarà noto nei prossimi giorni.

Si vedrà. Di certo, ci sono già leggi che possono essere usate per limitare i danni potenziali dell’intelligenza artificiale. I motivi di preoccupazione non in effetti mancano. Ci sono tutte le controverse questioni relative all’impatto dell’automazione cognitiva sul lavoro, l’economia, la finanza. C’è il timore che proliferino la disinformazione e i discorsi di odio nelle piattaforme sociali che valorizzano i messaggi più violenti. C’è il tema della quantità di pregiudizi contenuti nei dati usati per automatizzare decisioni importanti per le persone. C’è il fenomeno della concentrazione del potere nelle mani di poche grandissime aziende. E ci sono gli aspetti strategici relativi all’utilizzo dell’intelligenza artificiale nelle armi, nei droni, nel controllo dei sistemi di connettività per le zone di guerra.

Un sistema, come l’Europa, fondato sui diritti umani e che si sviluppa alla velocità delle trattative tra una molteplicità di portatori di interessi, nazionali, lobbistici, associativi, può restare indietro, come in effetti è avvenuto, sulla costruzione di aziende capaci di conquistare centinaia di milioni di utenti in pochi mesi. Ma gli europei possono anche considerare la loro impostazione giuridica come un’opportunità per progettare intelligenze artificiali di tipo nuovo, non confrontabili con quelle dei concorrenti che privilegiano la velocità di uscita dei loro prodotti rispetto all’attenzione per i diritti dei cittadini, per gli autori, per la qualità dell’informazione che generano. Del resto, si può scommettere che qualsiasi sia il destino dell’AI Act, le grandi piattaforme americane saranno controllate a vista, mentre le startup europee come Mistral e Kyutai, saranno aiutate. Soprattutto se svilupperanno prodotti eticamente avvertiti, come promettono.

————————

Il 28 novembre è previsto un pezzo sullo stato di avanzamento dell’AI Act. 

————————

Foto: “Near Schuman roundabout/Rue de la Loi” by Anna & Michal is licensed under CC BY-SA 2.0.