Molti utenti su internet sono preoccupati per l’ascesa dell’intelligenza artificiale (AI), in particolare per l’uso dei dati personali e per l’aumento dei contenuti generati dall’AI online. Alcuni hanno cercato di impedire l’uso dei propri dati pubblicando messaggi sui social media, ma questo metodo è ovviamente inefficace. Esistono tuttavia modi legittimi per limitare l’accesso dell’AI ai propri dati, come spiega un articolo sul New Yorker. Negli Stati Uniti, gli utenti non hanno altra soluzione se non rendere privato il proprio account Instagram per impedire lo scraping dei dati, il che questo limita la visibilità del profilo. Gli utenti del Regno Unito e dell’Unione europea hanno diritti più forti in materia di protezione dei dati e possono presentare un modulo di “diritto all’obiezione” a Meta. Altre piattaforme come X (un tempo Twitter) e LinkedIn hanno opzioni nelle loro impostazioni per rifiutare l’utilizzo dei dati personali per l’addestramento dell’intelligenza artificiale.

Nonostante queste opzioni, le aziende tecnologiche non rendono facile l’opt-out quando utilizzano i dati degli utenti per sviluppare i loro strumenti di AI. Inoltre, gli utenti incontrano sempre più spesso l’AI nelle loro interazioni online quotidiane, sia attraverso i risultati di ricerca generati dall’AI su Google sia attraverso le richieste di utilizzo di strumenti di AI su varie piattaforme. Queste funzionalità sono ancora in fase di sviluppo e gli investimenti nell’AI sono attualmente superiori alla domanda degli utenti. Ciò solleva la questione di chi beneficia di questi strumenti. Finora sembra che i principali beneficiari non siano gli utenti comuni, ma coloro che creano contenuti generati dall’AI a scopo di lucro sulle piattaforme social.

Questo afflusso di contenuti generati dall’intelligenza artificiale, spesso definito “brodaglia” (slop in inglese), è inevitabile online. Attualmente non esistono metodi affidabili per filtrare o bloccare questi contenuti. Sebbene piattaforme come Facebook e TikTok richiedano agli utenti di rivelare i contenuti generati dall’intelligenza artificiale e stiano sviluppando sistemi per etichettarli automaticamente, queste misure sono inefficienti. Di conseguenza, gli utenti si trovano a dover discernere i contenuti reali dalla “brodaglia” generata dall’AI, aggiungendo una “tassa sulla brodaglia mentale” alla loro esperienza online. Anche se le piattaforme di social media potrebbero potenzialmente affrontare il problema, attualmente esse traggono un vantaggio da questa situazione, e quindi hanno poco interesse a intervenire.

La situazione dei contenuti generati dall’intelligenza artificiale rispecchia il problema dello spam via mail del passato, conclude l’articolo. La quantità eccessiva di spam ha portato allo sviluppo di strumenti di filtraggio. Allo stesso modo, le aziende tecnologiche potrebbero creare soluzioni per gestire il problema dello “slop” che hanno creato. Tuttavia, per il momento, sta alla responsabilità evitare l’AI, se vogliono. E il compito è molto più complesso della semplice pubblicazione di un messaggio di protesta online.

(Foto di Solen Feyissa su Unsplash)

Se sei arrivato fin qui

Magari ti interessa iscriverti alla nostra newsletter settimanale. Ricevereai il riepilogo delle cose che pubblichiamo sul blog, e se succede qualcosa di importante che riguarda l’associazione lo saprai prima di tutti.

Un paio di clic e ci sei