L'etica dell'intelligenza artificiale

Lo aveva nominato solo da nove giorni: ma Google ha già chiuso il comitato di esperti che avrebbe dovuto consigliare l’azienda sull’etica dell’intelligenza artificiale. In proposito Google si trova a fronteggiare problemi crescenti. Vendere al Pentagono le sue tecnologie di riconoscimento facciale anche se potrebbero consentire ai droni di individuare autonomamente i loro obiettivi? Impedire la pubblicazione di inserzioni pubblicitarie che si oppongono alla politica di controllo sociale operata dal governo cinese? Di fronte a questi e altri dilemmi di Google, le reazioni dei dipendenti e della pubblica opinione si fanno sempre più accese. Un comitato etico poteva aiutare. Ma l’idea si è trasformata in un incubo. Perché tra gli esperti chiamati a farne parte, Google ha pensato bene di inserire anche Kay Coles James, presidente della Heritage Foundation, notoriamente contraria ai diritti dei transgender e favorevole al muro contro l’immigrazione dal Messico, e di Dyan Gibbens, ceo di Trumbull Unmanned, una società che fa droni con soluzioni molto avanzate anche per il Pentagono. I dipendenti hanno raccolto migliaia di firme contro queste nomine. Alessandro Acquisti, studioso delle implicazioni sociali del riconoscimento facciale alla Carnegie Mellon, si è immediatamente dimesso dal comitato. Luciano Floridi, filosofo di Oxford, ha scritto un post straordinariamente accorato, nonché eticamente magistrale, per criticare la scelta e dichiararsi pronto alla battaglia delle idee contro la dimostrata intolleranza morale, culturale e umana di parte degli altri membri del comitato. Sicché Google ha fatto un passo indietro e chiuso il comitato. Una sconfitta che si sarebbe potuta evitare?
Un’idea alternativa sarebbe forse quella di non puntare su comitati aziendali, ma di credere piuttosto a forum istituzionali. Nei prossimi giorni, lo High-Level Expert Group on Artificial Intelligence sostenuto dalla Commissione Europea pubblicherà le sue linee guida. Lo scopo del documento è indicare la strada per la creazione di un’industria europea dell’intelligenza artificiale che sia forte sul piano economico e tecnico e che nello stesso tempo goda della fiducia della popolazione: probabilmente due facce della stessa medaglia in un paese democratico. Rispetto alla bozza pubblicata alla fine dell’anno scorso, la versione definitiva conterrà significativi cambiamenti, dovuti ai risultati della consultazione che si è tenuta nei mesi scorsi e a ulteriori riflessioni del comitato. Le componenti essenziali di una intelligenza artificiale che possa godere della fiducia del pubblico sono: il rispetto delle norme legali (un aspetto che non era presente nella bozza), il rispetto delle norme etiche, la robustezza tecnica.
È chiaro che l’etica è al centro del dibattito sul futuro della società nell’epoca digitale. Giovanni Buttarelli, supervisore europeo del sistema di garanti della protezione dei dati personali, aveva dedicato la giornata di riflessione sull’evoluzione delle normative per la privacy al rapporto tra etica e legge. A giugno, l’associazione per la Media Ecology si riunirà a Toronto per un congresso mondiale sull’etica dei media. Ma come aveva dimostrato una ricerca di Atomium Culture cui aveva contribuito anche il Sole 24 Ore, gli europei sono in maggioranza impreparati a comprendere le questioni etiche e tecniche che riguardano l’intelligenza artificiale. Il percorso per rendere la società digitale più giusta è ancora lungo.
Articolo pubblicato su Nòva il 7 aprile 2019