Skip to main content

Come abbiamo scritto più volte, la rapida espansione dei modelli linguistici di grandi dimensioni, come ChatGPT di OpenAI o Gemini di Google, ha trasformato radicalmente il modo in cui le persone interagiscono con le informazioni. Questi sistemi di intelligenza artificiale sono ampiamente utilizzati nella vita di tutti i giorni e offrono numerosi vantaggi. Tuttavia, nonostante il loro potenziale trasformativo, sono emerse crescenti preoccupazioni riguardo alle implicazioni cognitive di un uso diffuso di questi strumenti. I ricercatori si chiedono sempre più spesso se la comodità immediata offerta dall’IA possa ridurre nel tempo le capacità di pensiero critico e il coinvolgimento in processi analitici più approfonditi, portando potenzialmente a quello che alcuni definiscono “debito cognitivo”.

Per approfondire queste questioni, i ricercatori del MIT Media Lab, del Wellesley College e del Massachusetts Institute of Technology e del College of Art and Design hanno intrapreso uno studio approfondito della durata di quattro mesi. Hanno scelto specificamente la scrittura di testi accademici come compito, in quanto è un’attività cognitivamente impegnativa che coinvolge molteplici processi mentali ed è un metodo comune per valutare le competenze degli studenti. Lo studio ha coinvolto 54 partecipanti, suddivisi in tre gruppi: uno ha utilizzato un LLM (ChatGPT), un altro un motore di ricerca tradizionale (Google) e il terzo si è affidato esclusivamente alle proprie conoscenze. Attraverso un meticoloso monitoraggio dell’attività cerebrale mediante elettroencefalografia, un’analisi dei testi con l’elaborazione del linguaggio naturale e delle interviste ai partecipanti, lo studio ha cercato di comprendere il costo cognitivo dell’assistenza dell’IA in un contesto accademico.

I risultati hanno rivelato che ogni gruppo ha sviluppato modelli di connettività neurale distinti che riflettono strategie cognitive diverse. La connettività cerebrale è diminuita in proporzione alla quantità di supporto esterno fornito: il gruppo “solo cervello” ha mostrato le reti neurali più forti e diffuse, mentre il gruppo LLM ha mostrato l’accoppiamento complessivo più debole. Ciò suggerisce che gli LLM “scaricano” una parte significativa del carico cognitivo normalmente associato all’elaborazione interna, al pensiero creativo e alle attività di memoria, come dimostrato dalla ridotta attività delle onde cerebrali specifiche negli utenti LLM. I risultati comportamentali rispecchiavano questi modelli neurali: gli utenti LLM avevano notevoli difficoltà a ricordare e citare accuratamente i propri saggi, il che indica una memorizzazione più superficiale rispetto agli altri gruppi. Inoltre, la percezione di appartenenza al saggio era significativamente inferiore per gli utenti LLM, molti dei quali si sentivano solo autori parziali. Dal punto di vista linguistico, i saggi generati con l’assistenza degli LLM erano statisticamente più omogenei all’interno degli argomenti, spesso identificati dagli insegnanti come caratterizzati da uno stile di scrittura privo di creatività o convenzionale. Una quarta sessione, in cui i partecipanti si sono scambiati gli strumenti, ha ulteriormente suggerito che l’uso precoce dell’IA potrebbe compromettere lo sviluppo di competenze a lungo termine e il pensiero critico, portando potenzialmente a un’“atrofia delle competenze” e a una visione più ristretta delle idee quando l’IA viene rimossa.

Al contrario, i partecipanti che inizialmente hanno scritto senza strumenti hanno mostrato un aumento significativo della connettività cerebrale quando è stato introdotto un LLM, indicando un alto livello di integrazione cognitiva quando l’IA è stata utilizzata dopo uno sforzo iniziale autonomo. Lo studio conclude che, sebbene l’IA offra un’indubbia comodità, riducendo il carico cognitivo immediato, ciò può avere un costo cognitivo significativo, compromettendo l’apprendimento profondo, la formazione di una memoria solida e l’indipendenza intellettuale. Lo studio sostiene quindi un approccio educativo equilibrato che incoraggi l’impegno cognitivo autonomo, combinato con l’assistenza dell’IA, al fine di prevenire effetti a lungo termine sul cervello. Un’ulteriore preoccupazione sociale emersa riguarda il notevole costo energetico delle query LLM, che consumano circa dieci volte più energia rispetto alle query di ricerca tradizionali.

Cal Newport, riflettendo sui risultati dello studio, offre una prospettiva sfumata sulle implicazioni cognitive dell’assistenza dell’IA, tracciando un parallelo con le sue precedenti osservazioni sugli studenti che utilizzano strumenti come ChatGPT. Egli suggerisce che i risultati dello studio supportano la sua ipotesi secondo cui gli individui utilizzano l’IA per ridurre al minimo lo sforzo cognitivo durante la scrittura, piuttosto che semplicemente per ridurre lo sforzo complessivo. Pur riconoscendo che questa riduzione dello sforzo può essere vantaggiosa per i compiti incentrati esclusivamente sul trasferimento efficiente delle informazioni, come le comunicazioni professionali, Newport esprime preoccupazioni significative per gli ambienti accademici. Nei contesti di apprendimento, la “sensazione di sforzo” è spesso parte integrante della crescita intellettuale; pertanto, scaricare il carico cognitivo sull’IA può ostacolare la capacità degli studenti di conservare e richiamare le informazioni, di sintetizzare le conoscenze dalla memoria e di sviluppare la metacognizione, ostacolando così l’apprendimento a lungo termine e il pensiero critico. Questa prospettiva è condivisa da molti commentatori che temono che un eccessivo affidamento all’IA possa portare a una regressione cognitiva, riducendo la capacità umana di pensiero profondo, di resilienza e di risoluzione creativa dei problemi. Il processo è stato paragonato al declino fisico che si osserva quando le comodità moderne riducono i movimenti corporei essenziali. Questo studio e queste riflessioni sottolineano collettivamente una tensione critica nell’era dell’IA: come bilanciare l’utilità degli strumenti avanzati con la coltivazione e il valore dello sforzo intellettuale umano?

Cal Newport, docente universitario e autore che studia questi argomenti da tempo, sostiene che l’assistenza fornita dall’intelligenza artificiale riduce effettivamente lo sforzo cognitivo nella scrittura. Questo, se da un lato è utile per un trasferimento efficiente delle informazioni in contesti professionali, dall’altro può ostacolare l’apprendimento in ambito accademico. Newport sostiene che la “sensazione di sforzo” è fondamentale per la crescita intellettuale e che affidarsi all’intelligenza artificiale per ridurre tale sforzo può ostacolare la memorizzazione e la sintesi delle conoscenze, favorendo una “pigrizia metacognitiva” e compromettendo l’apprendimento a lungo termine e il pensiero critico. Diversi commentatori condividono la preoccupazione che un eccessivo affidamento all’IA possa portare a una regressione cognitiva, riducendo la capacità di pensiero profondo, la resilienza e la capacità di risolvere i problemi in modo creativo. Ciò evidenzia una volta di più la sfida di trovare un equilibrio tra l’utilità dell’IA e quella dello sforzo intellettuale.

(Foto di Tara Winstead su Pexels)

Ricordati di farlo

Lo sai che puoi destinare il 5 per mille dell’IRPEF all’Avis di Legnano? Basta inserire il nostro codice fiscale al momento della dichiarazione. Useremo i proventi per fare ancora meglio ciò che facciamo da sempre.

È spiegato tutto qui

Privacy Preference Center