La versione completa dell’articolo è uscita su Nòva e 24+, servizio in abbonamento.
La crescita degli investimenti in applicazioni dell’intelligenza artificiale alla finanza non rallenta. Anzi. Secondo l’Ocse, nel 2020 sono stati spesi oltre 50 miliardi di dollari per l’intelligenza artificiale nei mercati finanziari e il venture capital ha investito almeno 4 miliardi in startup fintech. Conseguenze? Con dati, computer e algoritmi, l’intelligenza artificiale può migliorare l’efficienza degli investitori, facilitare i risparmiatori, stabilizzare i mercati; oppure tutto il contrario.
La discriminante non è nella tecnologia in sé ma nel modo di progettarla, di metterla in relazione con la realtà, di adottarla. L’Ocse in proposito ha elaborato da tempo alcuni principi chiave, riguardanti rispetto dei diritti umani, trasparenza, decisioni umane e non algoritmiche se riguardano gli umani, responsabilità dei progettisti. E a Venezia, in contemporanea con l’Ocse, Aspen, Intesa Sanpaolo e Tim hanno presentato un rapporto critico, su etica e intelligenza artificiale. Mentre i principi e gli obiettivi sono chiari, il modo per implementarli non lo è altrettanto. Nella finanza, la possibilità di migliorare l’efficienza delle aziende e l’informazione dei risparmiatori, si accompagna col rischio di distorsioni nella generazione di conoscenza. Come guidare l’evoluzione tecnologica in modo da difendere l’esperienza umana e non frenare l’innovazione?
(…)
Certo, il mantenimento di spazi deregolamentati è importante per il ritmo innovativo. La Commissione Ue si dimostra d’accordo. Ma l’intreccio delle questioni è difficile da dirimere. Del resto la tensione etica che responsabilizza i progettisti si deve incarnare nelle tecnologie, trasformandosi in metodo per la gestione, magari testata e certificata, della conoscenza. L’Osservatorio sull’etica nell’intelligenza artificiale, annunciato a Venezia e fondato da Tim e Intesa Sanpaolo a Roma sarà diretto dall’epistemologo Angelo Petroni. Forse, il metodo può garantire il merito.