Articolo scritto il 6 agosto del 2025 e poi pubblicato dal Sole 24 Ore
Ha quasi settant’anni. Ma sembra averne tre. E vuole maturare. L’intelligenza artificiale si fa adottare da istituzioni come la Camera e il Senato per un compito critico come la valutazione di costituzionalità delle leggi. Si fa utilizzare dagli studenti non per imbrogliare a fare i compiti ma, nella versione “studio”, come supporto per impararare meglio e più in profondità. I suoi produttori accettano, quasi tutti, il codice volontario di buone pratiche per l’applicazione dell’AI Act dell’Unione Europea, invece di lamentarsi all’insegna dello slogan ormai logoro secondo il quale le regole frenano l’innovazione.
Già. La maturazione è un processo fisiologico, ma quando accade a un’intelligenza che sembrava destinata a stupire e preoccupare senza sosta, è utile e va sottolineato. Dopo un lungo esordio, durato decenni, l’intelligenza artificiale ha fatto un balzo tecnico eccezionale negli ultimi dodici anni e ha conosciuto un’accelerazione dell’adozione entusiasmante e spaventosa, dal 2022. La sua eloquenza nell’espressione linguistica, la sua capacità di scrivere software, le sue abilità grafiche hanno convinto che fosse una tecnologia destinata a restare. L’impossibilità di eliminare le allucinazioni, la sua tendenza a eludere il copyright, la sua mancanza di trasparenza, però, ne frenavano l’adozione su larga scala. Per questo, le centinaia di miliardi investiti nello sviluppo delle infrastrutture e dei modelli per l’intelligenza artificiale sono motivo per le ipervalutazioni delle BigTech che possono impegnare enormi risorse per conquistare posizioni di vantaggio nel settore e, contemporaneamente, sono considerati segno di una bolla speculativa destinata a scoppiare.
Per navigare tra questi fatti emozionanti, nello stretto tra l’entusiasmo e la paura, c’è soltanto una via da percorrere: ridurre il tasso di irrazionalità e aumentare la maturità dell’approccio all’intelligenza artificiale. Certo, nel gergo degli innovatori, adottare l’idea di “tecnologia matura” equivale a dichiararne esaurito il periodo di accelerazione, col rischio addirittura di un abbassamento del valore aggiunto. Ma in questo caso, la maturità è piuttosto equilibrio, concretezza, fiducia. Se va applicata a processi critici, nell’industria e nelle istituzioni, nella sanità e nell’educazione, l’intelligenza artificiale deve cessare di sembrare semplicemente distruttiva dell’esistente e cominciare a diventare costruttiva. È il percorso previsto dalla classica curva della società di ricerche Gartner: una lenta adozione, seguita da una fase di adozione entusiastica e irrazionale, che sfocia in un periodo di crollo della fiducia che alla fine si ferma con l’avvio di un’adozione meditata e più stabile. È quello che serve ora all’intelligenza artificiale.
Non per nulla, OpenAI, Amazon, Anthropic, Google, Microsoft, insieme a molti altri produttori di modelli fondazionali per l’intelligenza artificiale generativa, hanno accettato di firmare volontariamente il “codice di buone pratiche dell’IA per finalità generali” proposto dalla Commissione Europea per facilitare il rispetto degli obblighi della legge sull’IA in materia di sicurezza, trasparenza e diritto d’autore. Significa che si sentono abbastanza mature da poter gestire i rischi sistemici che l’AI Act tenta di contenere. Solo Meta, tra le BigTech, si è rifiutata. Questo ha preoccupato chi ritiene che, proprio per la maturazione dell’AI siano necessari i modelli aperti, dei quali Llama di Meta è un esempio. Perché queste versioni aperte consentono agli utenti di applicare le loro conoscenze e i loro dati di qualità controllata all’addestramento dei modelli con lo scopo di ridurne la tendenza ad allucinare e di migliorarne la trasparenza. Ma proprio in questi giorni, OpenAI ha annunciato le sue versioni di modelli aperti, anche per rispondere alla concorrenza della cinese DeepSeek. Anche questo è un segno di maturazione.
Se l’intelligenza artificiale deve superare la fase degli “early adopters” e convincere la maggioranza degli utenti più pragmatici, deve stabilizzarsi, lasciarsi interpretare, presentarsi con maggiore equilibrio: nessuno che non sia ingenuo o ciecamente tecnofilo vuole mettersi in casa un mostro incontrollabile o una tecnologia indecifrabile. Perché ormai è chiaro: l’innovazione non è soltanto tecnologica. Se non è anche socialmente avvertita non è innovazione.