Il sempre più largo impiego di sistemi di intelligenza artificiale (AI) porta con sé costi nascosti che vanno ben oltre i consumi di elettricità. Due recenti ricerche hanno esaminato altrettanti aspetti spesso trascurati.

Il primo studio, uscito su Environmental Challenges, richiamando l’attenzione sulla natura tangibile dell’industria dell’AI, sottolinea che l’intero ciclo di vita dell’hardware, dall’estrazione delle materie prime fino alla produzione e allo smaltimento, esercita una notevole pressione sui delicati ecosistemi del nostro pianeta. Se il consumo di energia operativa dei centri dati utilizzati per addestrare i modelli di AI rappresenta una preoccupazione, il tributo ambientale è molto più ampio.

Basti pensare alle risorse necessarie per costruire questi centri dati e ai server che vi sono ospitati. L’estrazione di metalli come il rame, il tantalio e il silicio, fondamentali per l’hardware, avviene spesso nel Sud del mondo, causando danni ambientali e impattando sulle comunità locali con la scarsità d’acqua e l’inquinamento. L’estrazione del litio per le batterie può esercitare un’immensa pressione sulle risorse idriche dolci, con conseguenze dirette sulle popolazioni indigene. Allo stesso modo, lo smaltimento dei rifiuti elettronici rappresenta una minaccia per la biodiversità, l’acqua dolce e la salute umana a causa del rilascio di materiali pericolosi. Questo squilibrio geografico significa che gli oneri ambientali dello sviluppo dell’AI sono sostenuti in modo sproporzionato dai paesi in via di sviluppo, mentre i benefici sono in gran parte concentrati in Occidente.

Secondo lo studio, le attuali politiche ambientali sono insufficienti per affrontare queste sfide e si ritiene necessario introdurre obblighi più stringenti per i prodotti elettronici. Mentre iniziative come l’AI Act dell’UE mirano ad affrontare i rischi associati all’AI, il suo approccio basato sul rischio non considera adeguatamente il degrado ambientale. Il principio di precauzione, che prevede l’adozione di misure preventive in presenza di un ragionevole sospetto di danno, dovrebbe essere applicato più attivamente nello sviluppo e nella diffusione dei sistemi di AI.

Passando alla seconda area di ricerca, l’integrazione sempre più diffusa di strumenti di AI generativa (GenAI) come ChatGPT e Copilot nel lavoro intellettuale sta portando a interrogarsi sul loro impatto sulle capacità cognitive umane, in particolare sul pensiero critico. Un sondaggio condotto da Microsoft tra i lavoratori della conoscenza ha analizzato quando e come essi percepiscono il pensiero critico quando utilizzano strumenti di AI generativa (GenAI) e in che misura questi strumenti influenzano l’impegno richiesto.

I risultati suggeriscono che i lavoratori della conoscenza si impegnano principalmente nel pensiero critico quando utilizzano GenAI per garantire la qualità del loro lavoro, ad esempio verificando l’accuratezza dei contenuti generati dall’AI rispetto a fonti esterne e alla propria esperienza. Inoltre, si concentrano sul perfezionamento dei prompt e sull’integrazione efficace delle risposte dell’AI nei loro flussi di lavoro. È interessante notare che lo studio ha rilevato che una maggiore fiducia nella capacità dell’AI di svolgere un compito è associata a una minore necessità di impegnarsi nel pensiero critico. Al contrario, gli individui con una maggiore fiducia nelle proprie capacità tendono a impegnarsi di più nel pensiero critico quando utilizzano questi strumenti.

Ciò indica un potenziale rischio di eccessiva fiducia nell’AI che, a lungo andare, potrebbe ridurre la capacità di risolvere autonomamente i problemi, un fenomeno noto come “Ironia dell’AI generativa”. Se da un lato l’AI generativa può ridurre lo sforzo richiesto per alcuni compiti come la raccolta di informazioni, dall’altro spesso aumenta lo sforzo necessario per la verifica delle informazioni. Lo sforzo cognitivo si sposta dall’esecuzione dei compiti alla supervisione e all’integrazione dei risultati dell’AI.

Lo studio ha identificato diverse motivazioni alla base del coinvolgimento del pensiero critico nell’ambito dell’AI, tra cui il desiderio di migliorare la qualità del lavoro, di evitare potenziali conseguenze negative come errori fattuali o conflitti sociali e di sviluppare le proprie competenze. Tuttavia, esistono anche dei fattori inibitori, come la mancanza di consapevolezza del potenziale di errore, la percezione che il pensiero critico non sia necessario per compiti banali e un’eccessiva fiducia nella competenza percepita dell’AI. Anche i vincoli di tempo e la percezione di non avere responsabilità nella verifica possono ostacolare l’impegno critico.

Entrambi gli studi offrono una visione complessa del fenomeno sempre più influente dell’AI. Se da un lato questa offre potenziali benefici, dall’altro la sua adozione diffusa comporta oneri ambientali significativi e può influenzare in modo sottile i processi cognitivi umani.

(Foto di Immo Wegmann su Unsplash)

Ricordati di farlo

Lo sai che puoi destinare il 5 per mille dell’IRPEF all’Avis di Legnano? Basta inserire il nostro codice fiscale al momento della dichiarazione. Useremo i proventi per fare ancora meglio ciò che facciamo da sempre.

È spiegato tutto qui