Articolo scritto il 2 novembre 2025 e poi pubblicato sul Sole 24 ore
L’economia dei data center è in piena crescita. Grazie a questo boom, Nvidia ha superato la capitalizzazione di 5mila miliardi. Le BigTech stanno investendo massicciamente per dotarsi dei centri di calcolo necessari a conquistare posizioni dominanti nell’intelligenza artificiale generativa. E persino in Italia, come riporta Laura Serafini sul Sole 24 Ore del 2 novembre, sono previsti 14 nuovi data center, per 2,5 miliardi. I dubbi non mancano. Alcuni studiosi, per esempio all’MIT, pubblicano ricerche che dimostrano come l’introduzione dell’intelligenza artificiale abbia finora prodotto scarsi benefici in termini di produttività. Innumerevoli osservatori giudicano questa ondata di investimenti come frutto di una bolla finanziaria. Persino la riduzione dei posti di lavoro prevista da molti studiosi come conseguenza dell’intelligenza artificiale non è data per certa da tutt. Ma tra i mollti argomenti problematici controversi, uno è relativamente sicuro. Questa economia dei data center è assetata di energia elettrica.
Già da tempo il problema è sentito. Il blackout spagnolo dell’aprile scorso ha dimostrato come i sistemi dell’energia e dell’informazione siano ormai diventati un unico sistema estremamente complesso. Un malfunzionamento alla rete elettrica può bloccare non soltanto la distribuzione di energia ma anche qualsiasi attività economica connessa a Internet, cioè quasi tutto.
Ma nella nuova fase dello sviluppo digitale centrato sull’intelligenza artificiale dei mega data center, il rischio aumenta. Il fabbisogno di energia dei data centre è enorme e crescente. Nel corso di un convegno organizzato dall’Aspen a Venezia è stato dimostrato come esista una relazione precisa tra la disponibilità di energia elettrica e la possibilità di sviluppare l’intelligenza artificiale in un paese. In pratica il limite di produzione di energia corrisponde al limite dello sviluppo nell’epoca dell’intelligenza artificiale. O almeno questo è vero se vale l’interpretazione che dell’intelligenza artificiale danno i giganti americani, da Google a Microsoft e Amazon: modelli enormi che macinano tutti i dati possibili girando in data center colossali. Se le cose vanno avanti così, in America i data center assorbiranno in pochi anni fino al 12% della domanda di energia elettrica, raddoppiando dai livelli attuali. In Irlanda, già oggi, i data center consumano più energia delle case di abitazione, si è ricordato all’Aspen.
La sola possibilità che questa tendenza sia mitigato consiste nel fatto che l’intelligenza artificiale non venga sviluppata secondo il modello delle BigTech, ma in base a un’architettura diversa, non concentrata nei data center, ma distribuita: nelle fabbriche, nei prodotti, nelle reti. Modelli addestrati sui dati selezionati delle aziende, di dimensioni adeguate all’uso per il quale sono progettati e non di più, oppure adatti a girare direttamente negli oggetti connessi, dalle automobili ai robot, dalle videocamere ai telefoni.
Questo modello di intelligenza artificiale distribuita appare più adatto alle strutture dell’economia europea. La crisi dell’energia europea, il ritardo sui mega modelli di AI generativa, le politiche ecologicamente avvertite, le stesse regole europee in materia di intelligenza artificiale, sono precondizioni favorevoli a uno sviluppo di AI distribuita piuttosto che concentrata nei mega data center. Specialmente quando sono progettati per andare a insistere su aree già sature di domanda di energia elettrica.
Come i cinesi hanno approfittato delle costrizioni ecologiche per costruire l’intera filiera della mobilità elettrica, così gli europei potrebbero partire dai loro caratteri tecnologici originari per costruire una filiera dell’intelligenza artificiale distribuita.