Parlare continuamente di “cloud computing” rischia di allontanarci dalla concretezza di ciò che questa espressione significa. In particolare, essa si riferisce alla possibilità di sfruttare la potenza di calcolo di milioni di server sparsi per il mondo per elaborare informazioni e richieste che i nostri telefoni e computer da soli non sarebbero mai in grado di portare a termine. Oltre che per elaborare i dati, queste schiere di computer servono anche per memorizzarli in enormi quantità, facendo sì che siano immediatamente disponibili grazie a una connessione a internet.

Questa tecnologia è alla base di attività ormai quotidiane come l’uso del GPS per tracciare il percorso migliore quando ci spostiamo (tenendo conto anche di variabili come la situazione del traffico in quel momento), o la traduzione di un documento. Tutto questo però ha un costo in termini energetici molto alto, e in costante crescita.

Tra queste tecnologie ricade anche l’intelligenza artificiale generativa (AI), la tecnologia alla base dei chatbot intelligenti come ChatGPT e degli strumenti che generano opere d’arte e musica originali a partire dalle richieste di testo degli utenti. Come spiega El País, Microsoft, Google e altre grandi aziende tecnologiche stanno integrando funzionalità di AI nei motori di ricerca, negli editor di testo e nelle mail. Il nostro rapporto con le applicazioni che utilizziamo quotidianamente sta quindi per cambiare.

Che effetto avrà questo cambiamento di paradigma sull’ambiente? Nessuno lo sa con certezza, ma la maggior parte degli esperti pensa che l’impatto sarà notevole. Quattro anni fa, alcuni scienziati hanno stimato che il settore tecnologico sarebbe stato responsabile del 14 per cento delle emissioni globali entro il 2040 (oggi si attesta intorno all’1-2 per cento). Altri hanno previsto che la domanda di energia dei data centre sarebbe aumentata di 15 volte entro il 2030. Tutte queste previsioni potrebbero però essere molto sottostimate, perché precedenti all’emergere di ChatGPT.

Nel 2018, OpenAI ha condotto uno studio che avverte della necessità di prepararsi al giorno in cui saranno necessari sistemi con capacità molto più elevate. Lo studio ha rilevato che la capacità di calcolo per addestrare i modelli di AI più grandi raddoppia ogni tre o quattro mesi.

L’addestramento di un modello di elaborazione del linguaggio naturale (come ChatGPT) produce emissioni equivalenti al ciclo di vita di cinque automobili a benzina, dalla fabbrica allo sfasciacarrozze, o di 125 voli di andata e ritorno Pechino-New York. Ma ci sono altri costi legati alle risorse naturali. Uno studio pubblicato su Nature ha rilevato che a Google sono serviti 15,8 miliardi di litri di acqua per raffreddare i suoi data centre nel 2021, mentre a Microsoft quasi 3,6 miliardi.

Non ci sono dati su quanto e quale tipo di energia consumino le grandi aziende tecnologiche per l’AI. Non esistono nemmeno dati pubblici sul consumo di acqua dei sistemi di raffreddamento dei data centre: le aziende non sono tenute a fornire queste informazioni. Questo sarà però risolto, anche se non nell’immediato. L’Unione Europea, spiega ancora El País, sta infatti lavorando a una direttiva che stabilisce requisiti di efficienza energetica e trasparenza. Gli Stati Uniti stanno lavorando a una normativa simile.

La maggior parte delle emissioni è prodotta durante l’addestramento dei modelli di AI, fondamentale per lo sviluppo di modelli di apprendimento automatico. In questa fase, vengono proposti all’algoritmo milioni di esempi per elaborare modelli che gli consentano di prevedere come evolverà una certa situazione. Ad esempio, i modelli linguistici di grandi dimensioni vengono addestrati su campioni di testo, in modo da sapere che “rotonda” è la parola che più probabilmente seguirà a “la Terra è”.

I modelli linguistici di grandi dimensioni hanno architetture molto estese. Come spiega uno degli esperti sentiti da El País, un algoritmo di apprendimento automatico di quelli usati nel campo delle risorse umane usa in media 50 variabili: dove lavorano attualmente i candidati, i loro stipendi, le esperienze precedenti e così via. ChatGPT ha più di 175 miliardi di parametri.

Sono in corso numerose ricerche volte a ridurre il numero di parametri e la complessità dei modelli in modo che richiedano meno energia. Tuttavia, esistono meno opportunità di ridurre il consumo energetico durante l’addestramento, perché questo richiede un uso prolungato e intensivo. Il primo è relativamente facile da ottimizzare, il secondo non altrettanto.

(Immagine di ilgmyzin su Unsplash)

Se sei arrivato fin qui

Magari ti interessa iscriverti alla nostra newsletter settimanale. Ricevereai il riepilogo delle cose che pubblichiamo sul blog, e se succede qualcosa di importante che riguarda l’associazione lo saprai prima di tutti.

Un paio di clic e ci sei