Aindo. L’AI che genera dati sintetici per fare ricerca salvaguardando la privacy

Articolo pubblicato sul Sole 24 Ore il 23 agosto 2024


La ricerca che gli ospedali devono svolgere in collaborazione con le case farmaceutiche per definire nel modo migliore i dosaggi, per affinare i test sui nuovi farmaci, per estendere l’utilizzo di certi principi attivi a nuove patologie, si può avvalere di modelli basati sull’intelligenza artificiale: ma ha sempre bisogno di dati personali molto protetti. E dunque che cosa si deve fare: proteggere la salute o la privacy? Di fronte a questo dilemma si sono cercati dei compromessi. Ma come spesso avviene quando un problema è privo di soluzioni pienamente soddisfacenti, la soluzione è cambiare la struttura del problema. Il che richiede innovazione.

Aindo è una start up nata dalla Sissa di Trieste nel 2018 e produce dati sintetici. «Sono dati artificiali, non raccolti registrando quello che accade ai pazienti, ma generati a partire da dati reali secondo un metodo che garantisce che si comportino proprio come i dati reali» spiega Daniele Panfilo, amministratore delegato di Aindo: «I dati sintetici hanno la stessa utilità dei dati reali, ma non sono personali quindi non mettono in nessun modo in discussione la privacy». In effetti, per molto tempo si è cercato di anonimizzare i dati personali. «Il nostro è un paradigma diverso. L’anomimizzazione si realizza togliendo qualche componente ai dati reali. Ma resta sempre il rischio che in qualche modo quei dati possano essere ricondotti alle persone che li hanno generati. I nostri dati sono prodotti da un’intelligenza artificiale generativa specializzata: apprende da tabelle di dati e genera nuove tabelle con le medesime caratteristiche ma senza alcun rapporto con le persone originarie». Insomma, Aindo è un po’ come una ChatGPT delle tabelle di numeri. «Abbiamo un nostro brevetto per realizzare questa funzione. E abbiamo una certificazione Europrivacy».

È una soluzione strategica. Nella farmaceutica il valore di avere dataset che non si riferiscono a insiemi di persone esistenti ma che si comportano come loro consente sperimentazioni altrimenti impossibili. Ma succede anche alle banche: «Se un istituto di credito vuole fare una nuova dashboard per servire meglio un insieme di clienti, proponendo nuovi prodotti finanziari, o per riconoscere comportamenti sospetti, spesso prende i dati dei clienti e li consegna a società che sviluppano software in outsourcing. Ma questo passaggio mette in pericolo la privacy. Con i nostri dati sintetici non c’è alcun rischio» spiega Panfilo. «E le assicurazioni non sono meno interessate. Per esempio, stiamo conducendo una sperimentazione per un servizio antifrode che mette insieme le informazioni raccolte da diverse aziende con i loro clienti sotto forma di dati sintetici. In questo modo nessuna azienda consegna alle altre i propri dati, ma tutte possono fare elaborazioni tenendo conto del comportamento di gruppi di clienti cui non avrebbero altrimenti accesso».

Ma i dati sintetici sono affidabili? «Abbiamo molti metodi per valutarlo. In generale, si basano sui confronti tra le analisi che si fanno sui dati reali e quelle che si fanno sui dati sintetici. Altre volte, confrontiamo proprio le intelligenze artificiali allenate su dati reali e quelle che apprendono da dati sintetici. Così i nostri clienti sanno quanto sono affidabili i dati generati dai nostri modelli».

L’attenzione europea alla privacy ha insomma creato uno spazio per un’innovazione strategica. L’intelligenza artificiale apprende dai dati e dalla loro qualità dipende l’utilità e l’affidabilità della tecnologia più avanzata, discussa e affascinante del momento. Le Big Tech americane che spadroneggiano nell’economia digitale contemporanea sono anche le grandi oligopoliste dei Big Data. Hanno potuto crescere senza significativi condizionamenti nello sfruttamento dei dati. E questo ha messo sotto stress diritti come la privacy, il copyright, la libertà di espressione anonima. Le innovazioni che le aziende europee stanno creando per risolvere il dilemma che le americane hanno trascurato possono porle in una posizione di vantaggio se anche altrove le autorità cominceranno a valere i diritti umani.