Intelligenza artificiale: conoscenza dei valori

Succede così, spesso. Una tecnologia nasce nella ristretta cerchia degli addetti ai lavori. Ci resta per un po’. Chi la guarda da fuori, senza comprenderla, la considera magica oppure, talvolta, pericolosa. Ma a un certo punto, finalmente, qualcuno la spiega e la rende utilizzabile da tutti: allora la sua importanza si espande, diventando essenziale per applicazioni che chi l’aveva progettata non aveva  mai immaginato. È la storia del computer che solo ai primi anni Ottanta è uscito dai laboratori ed è diventato un oggetto facile da usare. È la storia di internet che solo ai primi anni Novanta è diventato uno strumento diffuso al di fuori delle cerchie degli scienziati, degli intellettuali tecnofili e dei militari. Può essere la storia dell’intelligenza artificiale.
Dino Pedreschi e Ioanna Miliou, dell’università di Pisa, hanno scritto un rapporto per il Parlamento Europeo sulle prospettive dell’intelligenza artificiale per lo sviluppo economico e sociale. Mostrano le opportunità aperte dall’intelligenza artificiale nel riconoscimento delle immagini, nelle traduzioni, nell’organizzazione dei testi e molto altro. Ma mostrano anche le sfide che questa tecnologia lancia alla qualità della vita umana. Il nodo strategico per gli autori è chiaro: se l’intelligenza artificiale funziona come una scatola nera, se i suoi percorsi tecnici non si possono conoscere, ricostruire e criticare, allora rischia di generare distorsioni anche gravi: solo un’intelligenza artificiale che si fa comprendere dalla cittadinanza può conquistarne la fiducia e soltanto una progettazione socialmente avvertita può evitare di introdurre negli algoritmi pregiudizi e imprecisioni tali da generare polarizzazioni, monopoli e ineguaglianze. Oggi mancano, per Pedreschi e Miliou, strumenti per certificare la qualità dei modelli. E mancano specifiche etiche che introducano nella progettazione correttivi alle possibili decisioni discriminatorie degli algoritmi, garantiscano l’uso di dati affidabili, proteggano la privacy, operino in modo trasparente. Una progettazione fondata sui valori è fondamentale per la pubblica accettazione di questa tecnologia.
Non per niente, la pubblicistica dedica al tema grande attenzione. Sulla scorta della ricerca di opportunità ma anche per giocare con i timori che le popolazioni provano nei confronti delle tecnologie più avanzate. E bene hanno fatto Alessandro Longo e Guido Scorza a dedicare al tema il loro ultimo libro: “Intelligenza artificiale. L’impatto sulle nostre vite, diritti e libertà” (a giorni in libreria per Mondadori). Del resto, l’importanza di tenere vivo l’argomento per lo sviluppo delle imprese è testimoniata dall’attenzione che all’intelligenza artificiale ha dedicato il 15 maggio scorso Gioin, il network per l’open innovation avviato da Digital Magics, che il 3 giugno si occuperà di come questa tecnologia contribuisca all’innovazione nello sviluppo delle energie rinnovabili e della mobilità sostenibile.
Comprendere ciò che avviene alle frontiere dell’innovazione è sempre una sfida, ovviamente, poiché si tratta di luoghi che stanno oltre il limite del conosciuto. Ma le società che non accettano ciò che non comprendono possono bloccare l’innovazione: prima o poi gli innovatori si devono accompagnare ai narratori.
Articolo pubblicato su Nòva il 31 maggio 2020
photo di Drew Graham