L’intelligenza artificiale come questione di potere

Articolo pubblicato sul Sole 24 Ore il 26 aprile 2024


Le regole della guerra non sono le stesse che vigono in condizioni di pace. E vale anche per le regole che riguardano le tecnologie, compresa l’intelligenza artificiale. L’Executive Order che serve da guida per la policy dell’amministrazione americana sull’AI non si occupa dell’utilizzo militare di questa tecnologia. E lo stesso AI Act che sta per essere definitivamente approvato dall’Unione Europea non regolamenta i sistemi che servono solo per scopi militari. Eppure, anche la guerra deve avere le sue regole. Soprattutto visto che la guerra e la pace sembrano destinate a coesistere, sin quasi a mescolarsi, quando le tecnologie digitali sono usate in forme di conflitto poco ortodosse, che si insinuano in condizioni di pace apparente, per strategie tese a destabilizzare gli avversari e la loro cybersecurity.

I governi occidentali si stanno lasciando le mani relativamente libere per quanto riguarda l’intelligenza artificiale applicata alle armi, un po’ per non restare indietro rispetto alle scelte di paesi come la Cina e la Russia, un po’ perché a loro volta fronteggiano sistemi di potere enormi al loro interno. Sistemi dei quali fanno parte ovviamente anche le relazioni tra strutture militari e fornitori di tecnologia. E tra questi ci sono anche molti grandi dell’intelligenza artificiale civile. OpenAI ha cancellato dalla sua policy l’interdizione alla vendita della sua tecnologia ai militari nel gennaio scorso, come ha notato The Intercept, che ha anche visto i documenti con i quali la Microsoft propone i prodotti di OpenAI al Pentagono. Intanto, la controversa Clearview AI, produttrice di un software per il riconoscimento facciale, si vanta di avere venduto il suo prodotto all’Ukraina per identificare i volti dei soldati russi. E naturalmente molte aziende di armi stanno usando componenti di intelligenza artificiale per i loro sistemi di difesa dagli attacchi missilistici o per guidare i loro droni. È difficile in questi casi distinguere tra le tecnologie che sono usate soltanto per scopi militari e quelle che hanno un doppio uso, il che significa che non è semplice comprendere a quali tecnologie si applicano le regole e quali ne sono esenti.

I rischi che in questo modo non sono coperti dalle normative sono piuttosto importanti. Le intelligenze artificiali possono essere dotate di funzioni obiettivo che tengono conto della necessità di risposte proporzionate agli attacchi, che salvaguardano gli obiettivi civili, o persino che gestiscono i loro consumi energetici in modo da ridurre gli sprechi e la produzione di CO2: oppure possono essere sviluppate senza tener conto di queste esigenze di contenimento dei rischi. Se non ci sono regole non ci sono neppure garanzie che le tecnologie limitino i danni che possono arrecare ai civili o all’ambiente. O che gestiscano i sistemi d’arma in modo tale da tenere le loro scelte automatizzate sotto il controllo degli umani. Del resto, le intelligenze artificiali che vanno per la maggiore in questo periodo presentano anche un rischio intrinseco, dovuto alla loro tendenza a sbagliare. In assenza di regole, insomma, senza test adeguati per i danni collaterali che possono arrecare, le intelligenze artificiali militari possono anche essere presentate in modo da apparire più affidabili di quanto non siano in certe circostanze, con il rischio che producano più morti civili di quelle che si dovrebbero verificare in una guerra “giusta”.

Molto probabilmente la questione andrà affrontata a livello di trattati internazionali. Per adesso le superpotenze sembrano più interessate a estendere la loro sfera di influenza tecnologica piuttosto che a dialogare. In assenza di una collaborazione tra le super potenze, per ora se ne occupa soprattutto l’Organizzazione delle Nazioni Unite. Il segretario generale António Guterres ha tentato di portare avanti una politica di collaborazione tra gli stati membri per impedire la diffusione di armi autonome. Come ricorda Marietje Schaake, di Stanford, le prime trattative con questo obiettivo hanno trovato il consenso di più di 100 paesi ma l’opposizione decisiva di Stati Uniti, Regno Unito, Israele e Russia, per una volta alleati. Sicché l’intelligenza artificiale è sempre meno una questione di competizione tecnologica e sempre più un tema di potere globale.


Foto: “Pentagon” by gregwest98 is licensed under CC BY 2.0.