Quanta energia consuma l'intelligenza artificiale? - Borsa&Finanza
Cerca
Close this search box.

Quanta energia consuma l’intelligenza artificiale?

Un data center l'IA

L’intelligenza artificiale ha bisogno di così tanta energia per far funzionare i suoi chip e computer che rischia di non avere futuro se non si adotterà la fusione nucleare, una fonte pulita e potenzialmente illimitata. Lo ha dichiarato Sam Altman, l’amministratore delegato di OpenAI, la società che ha creato ChatGPT, in occasione dell’edizione 2024 del World Economic Forum di Davos. Nucleare o solare con massicci sistemi di stoccaggio su larga scala sono le soluzioni suggerite da Altman. Ma quanta energia consuma l’IA e perché?

 

Intelligenza artificiale ed energia: quali sono i consumi?

Progressi importanti nel campo dell’intelligenza artificiale si potranno avere soltanto se ci sarà una svolta sull’energia: il CEO di OpenAI ha parlato apertamente di energy breakthrough a Davos. L’IA, infatti, richiederà sempre più potenza di calcolo e quindi una serie di hardware più energivori. Stando ai calcoli dell’IEA, l’Agenzia internazionale dell’energia, attualmente i centri di calcolo rappresentano tra l’1 e l’1,5% del consumo globale di elettricità. Una percentuale destinata ad espandersi con l’affermazione definitiva dell’IA.

Un’analisi del data scientist Alex de Vries pubblicata su Joule rivela che il proseguimento della ricerca e dello sviluppo dei modelli di intelligenza artificiale porterà NVIDIA (la principale società che produce server per l’IA) a spedire 1,5 milioni di unità server dedicate all’anno entro il 2027. Questo milione e mezzo di server, funzionanti a piena capacità, consumerebbero almeno 85,4 terawattora di elettricità ogni anno. Intervistato dalla rivista Scientific American, De Vries spiega che l’IA è una tecnologia ad alta intensità energetica: se i colossi come Google, Microsoft e Amazon trasformassero completamente le loro applicazioni come i motori di ricerca e le piattaforme con l’intelligenza artificiale generativa, ogni interazione online diventerebbe molto più pesante in termini di risorse. La sostenibilità è a tutti gli effetti un fattore di rischio dell’IA.

Ad utilizzare la maggior quantità di elettricità negli algoritmi di deep learning è soprattutto la fase di addestramento: il training automatico, o machine learning, e l’insieme di processi che permettono di rendere un sistema capace di riconoscere e discriminare dei dati tra loro. Anche la fase di inferenza – quando l’algoritmo addestrato acquisisce un set di dati sconosciuti e riesce a fornire una risposta in autonomia e senza necessità di correzioni – è particolarmente complessa da eseguire e richiede una mole enorme di energia. Ad oggi non è ancora noto quale sia l’effettivo rapporto energetico: molto dipende dalla quantità di dati inclusi nei modelli. Ad esempio, i modelli linguistici di grandi dimensioni (LLM, Large Language Model) di cui si avvale ChatGPT esigono una potenza colossale.

Altre variabili da considerare quando si pensa all’energia nel futuro dell’IA sono il raffreddamento dei server (il consumo aggiuntivo è stimato attorno al 10% e fino al 50% per i data center globali) e il tipo di hardware usati per la gestione dei modelli, ovvero server più o meno recenti ed efficienti. Per citare un esempio, Microsoft ha avuto bisogno di sei milioni di metri cubi d’acqua per la gestione dei data center di Bing Chat: l’equivalente di 2.400 piscine olimpioniche. De Vries sostiene che i governi e le organizzazioni internazionali dovrebbero cominciare a chiedere alle aziende e agli sviluppatori tutte le informazioni e la massima trasparenza sull’uso dell’energia perché ci sono ancora pochissime informazioni su cui basarsi.

 

Perché l’IA consuma così tanta energia?

Numenta, società di ricerca avanzata nel campo delle neuroscienze e dell’intelligenza artificiale, ha pubblicato sul suo blog un’analisi sui costi energetici dell’IA. I modelli di deep learning consumano così tanta energia perché richiedono milioni o miliardi di esempi di formazione (necessari a far capire al modello informazioni, concetti, contesti e prospettive su un determinato argomento), numerosi cicli di allenamento (per implementare la capacità di imparare dagli errori), il riaddestramento quando vengono presentate e incluse nuove informazioni, un insieme di pesi e bias, funzioni d’attivazione e moltiplicazioni di matrici per calcolare l’output di un singolo livello. Per fare un esempio, GPT-4 ha 1,7 trilioni di parametri di machine learning.

Più che per gli esseri umani, l’intelligenza artificiale è una minaccia per l’ambiente perché con questi processi inquina troppo. Uno studio del MIT pubblicato su Technology Review stima che lo sviluppo di un modello di IA (un solo ciclo di allenamento, non un training ripetuto) comporta l’emissione di 284 tonnellate di anidride carbonica: l’equivalente di cinque volte l’impatto che ha un’automobile nel suo intero ciclo di vita. Sempre per GPT-4, pur non essendo stati resi noti i dati ufficiali, si calcola che OpenAI abbia consumato tra i 51,773 e i 62,319 megawattora: il consumo di energia di mille famiglie medie statunitensi in 5-6 anni e una quota oltre 40 volte superiore a quella utilizzata per GPT-3.

La potenza di computer e server utilizzati nell’addestramento dei sistemi di intelligenza artificiale è aumentata incredibilmente nell’era del deep learning (dal 2012 ad oggi sono raddoppiate ogni 3,4 mesi) e man mano che i modelli vengono programmati per gestire attività più complesse, la richiesta di hardware per elaborarli cresce in modo esponenziale. Così l’energia richiesta. Un’escalation che procede in senso contrario al raggiungimento della neutralità carbonica che ad esempio in Europa l’Unione si è impegnata a toccare entro il 2050.

 

Come l’IA può ridurre l’impatto inquinante

Le realtà del settore si stanno muovendo per ridurre l’impronta di carbonio, il parametro che stima le emissioni in atmosfera di gas serra, e per sviluppare un’intelligenza artificiale che funzioni in modo più intelligente. Numenta propone di applicare le tecniche delle neuroscienze all’IA per diminuire drasticamente la quantità di energia utilizzata dai sistemi di deep learning: l’utilizzo di rappresentazioni sparse nella fase di inferenza, la costruzione di modelli con reference frames (quadri di riferimento con dati strutturati), lo sviluppo dell’apprendimento continuo e hardware in grado di incorporare sparsità, reference frames e continual learning. In sostanza, meno calcoli, meno formazione e hardware ottimizzati.

La start-up franco-statunitense Hugging Face sta invece lavorando ad un metodo per calcolare in modo preciso le emissioni di Co2 degli LLM, stimando quante ne siano state prodotte durante l’intero ciclo di vita del modello e non soltanto nel corso dell’addestramento. BLOOM, il modello di linguaggio multi-idioma messo a punto dall’azienda nel 2022, ha generato 25 tonnellate di anidride carbonica, che diventano 50 se si considerano pure i microprocessori e i supercomputer utilizzati per il training e l’inferenza. L’uso quotidiano dell’algoritmo da parte degli utenti emette 19 chili di Co2 al giorno. Un sistema che richiede ingenti risorse, ma che almeno possiede uno standard per fare i conti con il ruolo cruciale che l’IA comincia ad avere e avrà sempre più nell’immediato futuro nell’ambito dei cambiamenti climatici.

AUTORE

Picture of Alessandro Zoppo

Alessandro Zoppo

Ascolta musica e guarda cinema da quando aveva 6 anni. Orgogliosamente sannita ma romano d'adozione, Alessandro scrive per siti web e riviste occupandosi di cultura, economia, finanza, politica e sport. Impegnato anche in festival e rassegne di cinema, Alessandro è tra gli autori di Borsa&Finanza da aprile 2022 dove si occupa prevalentemente di temi legati alla finanza personale, al Fintech e alla tecnologia.

ARTICOLI CORRELATI

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *