Negli ultimi tempi c’è sempre più attenzione rispetto alla capacità sviluppata dai sistemi di intelligenza artificiale (AI, da artificial intelligence) di scrivere testi che appaiono verosimili sugli argomenti più diversi.

In particolare si è parlato molto di ChatGPT, un chatbot del laboratorio di ricerca OpenAI che crea testi realistici e ben fatti in risposta alle richieste degli utenti. Si tratta di un “modello linguistico di grandi dimensioni”, basato su reti neurali che imparano a svolgere un compito elaborando enormi banche dati fatte di testi (generati da esseri umani). Lo strumento è stato lanciato ufficialmente il 30 novembre 2022 e da allora è utilizzabile gratuitamente (funziona anche in italiano), anche se non si sa per quanto visti gli alti costi di gestione.

Professionisti di ogni settore stanno testando ChatGPT (e altri strumenti simili) per capire quanto possa coadiuvare il lavoro umano nella produzione di testi. Questo apre una serie di interrogativi sulle politiche da adottare per regolare l’uso di queste tecnologie nel campo della produzione della conoscenza.

Uno degli aspetti notevoli della vicenda è che talvolta non è facile riconoscere testi generati da ChatGPT. Come spiega Nature, secondo un preprint pubblicato a fine dicembre sul server bioRxiv, un chatbot dotato di intelligenza artificiale (AI) è in grado di scrivere falsi abstract di documenti di ricerca così convincenti che spesso gli scienziati non sono in grado di individuarli. Nell’esperimento effettuato, i ricercatori hanno chiesto al chatbot di scrivere 50 abstract di ricerca medica basati su una selezione pubblicata su alcune prestigiose riviste scientifiche. Hanno poi confrontato quegli abstract con quelli originali, facendoli passare attraverso un rilevatore di plagio e un rilevatore di testi generati da AI, e hanno chiesto a un gruppo di ricercatori medici di individuare gli abstract falsificati. I testi hanno ingannato sia i software che gli esseri umani. Gli abstract di ChatGPT hanno infatti superato il controllo di plagio: il punteggio mediano di originalità è stato del 100%, spiega Nature, il che indica che non è stato rilevato alcun plagio. Il rilevatore di testi di intelligenza artificiale ha invece individuato il 66% degli abstract generati. Ma i revisori umani non hanno fatto molto meglio: hanno identificato correttamente solo il 68% degli abstract generati e l’86% di quelli autentici. Ciò significa che hanno identificato erroneamente il 32% degli abstract generati come reali e il 14% degli abstract autentici come generati.

I commenti all’interno della comunità scientifica sono diversi. C’è chi vede questa situazione come potenzialmente “disastrosa” per le possibilità di falsificazione a cui potrebbe portare. Altri sono più cauti, come Arvind Narayanan, informatico dell’Università di Princeton nel New Jersey, secondo cui «È improbabile che uno scienziato serio usi ChatGPT per generare abstract». Secondo Narayanan il fatto di potere individuare gli abstract generati è “irrilevante”: «La questione è se lo strumento può produrre un abstract accurato e convincente. Non è così, e quindi i vantaggi dell’uso di ChatGPT sono minimi, mentre gli svantaggi sono significativi».

Nel frattempo alcuni studi citano ChatGPT come co-autore, anche se per alcuni editori il chatbot non ha i requisiti per essere indicato come tale. Gli editori e i fornitori di preprint contattati dalla redazione news di Nature concordano sul fatto che le intelligenze artificiali non soddisfano i criteri per essere autori di uno studio, perché non possono assumersi la responsabilità del contenuto e dell’integrità dei documenti scientifici. Tuttavia, alcuni editori sostengono che il contributo di un’intelligenza artificiale alla stesura dei documenti possa essere indicato in sezioni diverse dall’elenco degli autori.

Il tema sta interessando anche il mondo del giornalismo. Di recente si è scoperto che una testata che si occupa di tecnologia ha usato un software di AI per generare diversi articoli, senza segnalarlo chiaramente ai lettori. Oltre che problematico in sé, si è notato che gli articoli erano spesso imprecisi e poco interessanti. A quanto sembra, scrivere da sé è ancora il modo migliore e più economico per avere un lavoro ben fatto. Almeno per ora.

(Foto di Alex Knight su Unsplash)

Può funzionare ancora meglio

Il sistema trasfusionale italiano funziona grazie alle persone che ogni giorno scelgono di donare sangue, per il benessere di tutti. Vuoi essere una di quelle persone?

Si comincia da qui