Douglas Adams, lo scrittore di fantascienza autore della “Guida galattica per autostoppisti” (1979), ha descritto il computer più grande e potente che sia mai stato costruito, chiamato «Pensiero Profondo», programmato per rispondere alla domanda più grande che l’umanità si sia mai posta: «la Domanda fondamentale sulla Vita, l’Universo e Tutto quanto». Dopo avere elaborato i dati in suo possesso per sette milioni e mezzo di anni, il computer dichiara «con infinita maestà e calma» che la risposta è: «Quarantadue». Una risposta che lasciò perplessi gli umani.
È il caso più famoso, per quanto narrativo, di intelligenza artificiale che assomiglia a una scatola nera, una macchina che offre risposte e decisioni ma non spiega come arriva a quelle risposte e decisioni. È il tema posto da Frank Pasquale nel suo “The Black Box Society” (2015): se una scatola nera decide per esempio sull’affidabilità creditizia delle persone e ne condanna alcune a non poter avere accesso a prestiti in banca senza spiegare come funziona, quell’intelligenza artificiale non è programmata in modo giusto. La General Data Protection Regulation europea (Gdpr), stabilisce che i cittadini hanno il diritto di conoscere in che modo gli algoritmi arrivano alle loro decisioni quando queste emergono dai loro dati personali. E tra le indicazioni delle linee guida proposte dal comitato europeo per la progettazione di intelligenza artificiale affidabile si chiarisce che la “spiegabilità” delle conclusioni di queste tecnologie è una condizione etica essenziale.
Per qualcuno tutto questo non è sempre necessario. Un computer che gioca a scacchi non deve spiegare come prende le sue decisioni: basta che vinca. E, come sostiene Elizabeth Holm su “Science” (5 aprile 2019), se un computer riesce a garantire un controllo qualità eccellente della manifattura di certi materiali, non importa se non spiega come fa. Del resto, non è chiaro neppure come fa il cervello umano ad arrivare alle sue conclusioni.
Ma se le decisioni del computer cambiano la vita delle persone, il discorso è diverso. Ed è giusto tentare di spiegarlo. Per riuscirci è necessario portare avanti una ricerca scientifica sofisticata. Fosca Giannotti del Cnr di Pisa ha appena vinto un grant dello European Research Council proprio per un progetto di ricerca su questo argomento.
Judea Pearl, scienziato informatico vincitore del premio Turing e uno dei pionieri dell’intelligenza artificiale, scrive a proposito di questo argomento nel suo contributo a “Possible minds” (2019), il libro collettivo curato da John Brockman dedicato all’intelligenza artificiale. Sostiene che sebbene si possa sostenere che l’essenziale è che la macchina funzioni anche se non si sa come, in realtà questo genera limitazioni nello sviluppo dell’intelligenza artificiale. «Vedo il machine learning come uno strumento per trasformare i dati in probabilità. Ma per arrivare a macchine che comprendano i fenomeni serve che sappiano prevedere gli effetti delle azioni e coltivare un’immaginazione controfattuale» sicché «la mia conclusione generale è che per arrivare all’intelligenza artificiale di livello umano occorrono sistemi basati sulla collaborazione simbiotica tra modelli e dati». Insomma: la spiegabilità voluta dall’etica è anche una condizione per il progresso tecnico.
Articolo pubblicato su Nòva il 14 aprile 2019