Se l’intelligenza artificiale spreca energia

Articolo pubblicato su Nòva, Il Sole 24 Ore, il 30 ottobre 2022


La digitalizzazione è la via maestra dell’innovazione che serve anche alla transizione ecologica? In teoria sì. In pratica la questione è più complicata. Per come sono andate le cose finora la digitalizzazione si è aggiunta alle altre forme di consumo delle risorse scarse del pianeta. La consapevolezza in materia sta crescendo. Steffen Lange, Johanna Pohl, Tilman Santarius, ricercatori in diverse istituzioni a Berlino, hanno pubblicato su Ecological Economics un paper nel 2020 nel quale affrontavano il problema e dimostravano che che il bilancio finale è chiaro: la digitalizzazione aumenta il consumo di energia e le emissioni di CO2. 

Oggi sappiamo perché: la produzione di energia che è ancora fondamentalmente basata sulla combusione di carbone e idrocarburi che emettono CO2; il modello economico prevalente indirizza il digitale verso il sostegno alla crescita piuttosto che al risparmio di risorse; il modello di progettazione dell’intelligenza artificiale non è interessato ai suoi costi energetici.

«Attualmente, l’intelligenza artificiale funziona in modo “muscolare”» spiega Barbara Caputo, del Politecnico di Torino: «Il fenomeno ha avuto un’accelerazione dal 2012, quando Alex Krizhevsky e colleghi vinsero la Imagenet Challenge con un distacco superiore al 10% rispetto ai concorrenti: il loro algoritmo di machine learning risolveva i problemi molto meglio di tutti gli altri». Nel metodo di Krizhevsky, uno scienziato informatico ucraino, le reti neurali rappresentano l’informazione e decidono dopo un addestramento che richiede grandi quantità di dati, un crescente numero di parametri e moltissima capacità di elaborazione. Quindi moltissima energia.

Dal 2012 si sono sviluppati sistemi sempre più potenti: le gpu (Graphics Processing Unit) che operano in parallelo sono passate da una a otto, i milioni di parametri utilizzati per lavorare sui dati sono passati da uno a 100. Le performance incredibili del Gpt3 sono pagate con elevate quantità di energia: solo l’addestramento della macchina per un compito consuma in qualche settimana come due cittadini americani in un anno e occorrono centinaia di migliaia di sessioni di addestramento per far funzionare bene il sistema. «È una crescita esponenziale delle risorse richieste» dice Caputo. «Con il modello della forza bruta, alla fine, i parametri che effettivamente cambiano, cioè imparano, non superano il 20%: insomma si fanno girare super computer e si usa molta energia per scoprire che l’80% dello sforzo è stato inutile. Ma in questo modello non si può evitare quello spreco». 

Insomma. Il metodo della “forza bruta” chiede sempre più energia e ne butta via molta. Oggi ci si comincia a preoccupare del costo energetico, dell’accettabilità sociale e della concentrazione di potere cui si assiste continuando a pensare l’intelligenza artificiale in questo modo. «Non è sostenibile» osserva Caputo. Poiché la Commissione Europea sta ancora lavorando al suo AiAct, il regolamento sull’intelligenza artificiale, forse comincerà a tener conto anche di questo argomento.


Foto: “Lisbon electricity museum” by pedrosimoes7 is licensed under CC BY 2.0.