Secondo una recente stima dell’Agenzia Internazionale dell’Energia, attualmente i data center di tutto il mondo rappresentano tra l’1 e l’1,5% dell’utilizzo di elettricità a livello globale. Tuttavia, la comunità scientifica concorda sul fatto che la rapida diffusione di nuove tecnologie comporterà un significativo aumento dell’utilizzo di energia nel settore.
L’ impatto di queste tecnologie sulla società rende cruciale la comprensione e la mitigazione dei loro effetti ambientali. Un recente studio condotto da un gruppo di ricercatori della Carnegie Mellon University ha approfondito la questione dei consumi energetici e le emissioni di carbonio derivanti dall’implementazione di modelli di intelligenza artificiale.
Secondo i risultati di questa ricerca, il settore dell’IA, ha un notevole impatto sull’ambiente. Nel periodo compreso tra il 2017 e il 2021, l’elettricità utilizzata dai principali fornitori di cloud computing, come Meta, Amazon, Microsoft e Google, è più che raddoppiata.
Le analisi precedenti si sono concentrate principalmente sulla quantificazione dell’energia operativa e delle emissioni di carbonio necessarie per l’addestramento dei modelli di machine learning. Tuttavia, il processo di inferenza, in cui i modelli vengono utilizzati per compiti specifici, è altrettanto rilevante e frequentemente influenzato dalla distribuzione su larga scala dei modelli.
Lo studio ha esaminato 88 modelli in 10 diverse attività e 30 set di dati, coprendo applicazioni nel linguaggio naturale e nella visione artificiale. Per ogni attività, l’energia utilizzata è stata misurata attraverso uno strumento chiamato Code Carbon, che calcola l’energia consumata dal computer durante l’esecuzione del modello.
I ricercatori hanno identificato notevoli differenze nella quantità di energia richiesta per l’inferenza tra modelli, modalità e attività. La generazione di immagini è emersa come il compito che richiede più energia: produrre un’immagine con IA richiede un’energia pari a quella che serve per equiparare la ricarica completa di uno smartphone. Tra le varie applicazioni utilizzate il modello più esoso è risultato essere Stable Diffusion XL.
Le analisi hanno evidenziato una considerevole variabilità tra i modelli di generazione delle immagini. In media, ciascuna immagine generata ha un consumo energetico equivalente al 24% della carica di uno smartphone.
Ripetere questa operazione per creare 1.000 immagini con un modello potente di intelligenza artificiale comporta un’impronta di carbonio pari a guidare un’auto media a benzina per oltre 6,6 chilometri.
Dallo studio è stato inoltre evidenziato che il consumo energetico varia notevolmente in base alla dimensione del modello, all’architettura e al paradigma di apprendimento (task-specifico o multi-task/multi-scopo). Modelli di calcolo di grandi dimensioni richiedono un maggiore dispendio energetico, e l’utilizzo di sistemi multiuso comporta un bilanciamento tra vantaggi operativi e costi energetici. Ad esempio, utilizzare un modello generativo per classificare le recensioni dei film in base alla loro polarità consuma circa 30 volte più energia rispetto all’utilizzo di un modello ottimizzato creato appositamente per tale compito.
Questo studio rappresenta il primo sforzo sistematico per misurare l’impatto ambientale dell’inferenza dei modelli di machine learning. I risultati evidenziano l’importanza di considerare attentamente tutte le fasi di implementazione dei modelli, non solo l’addestramento, per valutare in modo completo l’impronta ecologica delle tecnologie dell’IA.
Gli autori ritengono che lo studio attualmente non sia rappresentativo di tutti i contesti e le possibili implementazioni, e incoraggiano ulteriori analisi su modelli open-source, perché questo tipo di studi possono essere utili sia per i ricercatori e gli sviluppatori di IA, sia per i governi e i politici impegnati nella regolamentazione dell’IA e del suo impatto ambientale.