Si parla molto di etica dell’intelligenza artificiale. E poco di epistemologia dell’intelligenza artificiale. Eppure i due temi convergono inesorabilmente.
Dell’etica si occupa la Commissione Europea nel suo documento strategico pubblicato la settimana scorsa: le lobby delle piattaforme l’hanno giudicato come un possibile freno alla loro libertà d’azione, gli attivisti dei diritti umani lo hanno invece visto troppo debole e generico. E di etica si occupa, come era prevedibile, la Pontificia Accademia per la Vita lavorando in collaborazione con Microsoft e Ibm, il che era meno prevedibile: «Gli algoritmi devono includere i valori etici» ha detto l’accademico Paolo Benanti, scegliendo una formula piuttosto impegnativa.
Di certo, il problema è fondamentale. Ma come definirlo? I pragmatici dicono che in fondo è etico ciò che fa bene a tutti e non è etico ciò che fa bene a qualcuno e male agli altri. In questo senso, più che di definire ciò che etico in assoluto, occorre creare un metodo per valutare il vantaggio condiviso tra tutti gli stakeholder. Ma come ci si mette d’accordo sui criteri da adottare?
Il problema, appunto, è epistemologico. Poiché l’intelligenza artificiale di fatto produce una forma di conoscenza a partire da informazioni, si potrebbe risolvere tutto sostenendo che quella conoscenza è oggettiva: se l’intelligenza artificiale desse risultati oggettivi gli stakeholder non avrebbero molto da discutere sullo strumento. Esiste, e ha vasta notorietà, una bizzarra teoria sulla “fine della teoria” che – grazie alla disponibilità di grandi insiemi di dati e di programmi che li possono gestire con un’efficienza mai vista in passato – suppone che l’intelligenza artificiale generi una sorta di verità oggettiva. Cioè: se lo dicono i dati e non i teorici, allora è vero. Ma non è vero, come si dimostra lavorando di epistemologia e buon senso. I dati disponibili non sono mai completi. E se i dati sono parziali, qualunque conoscenza se estragga sarà a sua volta parziale. Del resto gli algoritmi usati per estrarre conoscenza dai dati, e le domande che si pongono a quegli algoritmi, risentono dei pregiudizi di coloro che li inventano e le pensano. Del resto la valutazione delle soluzioni di machine learning non è facile: gli esperimenti non sono ripetibili, per il famoso problema della “black box” a causa del quale si sa che cosa entra e che cosa esce da quei programmi, ma non si sa che cosa esattamente avvenga in mezzo. L’epistemologia aiuta, sviluppando un senso critico e un sano scetticismo nei confronti delle conoscenze generate dalle macchine.
Il problema etico è anche un problema epistemologico. Le due questioni convergono. E probabilmente non c’è una soluzione buona per tutti i casi. Per stabilire i tempi della manutenzione predittiva delle macchine industriali non occorre una particolare riflessione epistemologica. Casomai il tema etico è relativo alla mutazione dei mestieri impattati dall’automazione e all’investimento nella formazione delle persone coinvolte. Invece, se le macchine sono usate per decidere qualcosa sulla vita delle persone, l’etica e l’epistemologia devono essere chiamate in causa. La valutazione del merito di credito delle persone, per esempio, può avere conseguenze enormi e non dovrebbe essere affidata a una supposta oggettività delle macchine. Le scelte che implicano conseguenze sulle persone possono essere aiutate dalle macchine ma devono essere operate dagli umani.
Articolo pubblicato su Nòva il 1 marzo 2020
Photo by Javier Allegue Barros on Unsplash