L’Organizzazione Mondiale della Sanità (OMS) ha lanciato un avvertimento sul fatto che l’introduzione di tecnologie sanitarie basate sull’intelligenza artificiale (AI) potrebbe essere pericolosa per le popolazioni dei Paesi a basso reddito.
L’organizzazione, che ha pubblicato un report con le nuove linee guida sui modelli linguistici di grandi dimensioni (LLM), afferma che l’uso di questa tecnologia non dovrebbe essere lasciato in mano alle sole aziende tecnologiche dei Paesi ricchi. Secondo l’agenzia, spiega un articolo su Nature, se i modelli non vengono addestrati sui dati delle persone che vivono in luoghi con scarse risorse, queste popolazioni potrebbero trarre scarsi benefici dal loro impiego.
«L’ultima cosa a cui vogliamo assistere nello sviluppo di questa tecnologia è la propagazione o l’amplificazione delle disuguaglianze e dei pregiudizi nelle società di tutto il mondo», ha dichiarato Alain Labrique, direttore dell’OMS per la salute e l’innovazione digitale.
L’OMS ha pubblicato le prime linee guida sull’IA nell’assistenza sanitaria nel 2021, spiega Nature. Ma l’organizzazione è stata spinta ad aggiornarle meno di tre anni dopo dall’aumento della potenza e della disponibilità dei LLM. Chiamati anche AI generativa, questi modelli, tra cui quello che alimenta il popolare chatbot ChatGPT, elaborano e producono testi, video e immagini.
Secondo l’OMS, i LMM sono stati «adottati più velocemente di qualsiasi altra applicazione consumer nella storia». In ambito sanitario, i modelli possono produrre note cliniche, compilare moduli e aiutare i medici a diagnosticare e trattare i pazienti. Diverse aziende e fornitori di servizi sanitari stanno sviluppando strumenti specifici in tal senso.
L’OMS afferma che le sue linee guida mirano a garantire che la crescita dei LLM promuova e protegga la salute pubblica, anziché minarla. L’organizzazione mette inoltre in guardia da una “corsa al ribasso” globale, in cui le aziende cercano di arrivare per prime sul mercato, a costo di distribuire applicazioni non pienamente funzionanti e non sicure. Si prospetta persino il “collasso del modello”, un ciclo di disinformazione in cui i LLM addestrati su informazioni inesatte o false inquinano le fonti pubbliche di informazione.
«Le tecnologie di intelligenza artificiale generativa hanno il potenziale per migliorare l’assistenza sanitaria, ma solo se coloro che sviluppano, regolano e utilizzano queste tecnologie identificano e tengono pienamente conto dei rischi associati», ha dichiarato Jeremy Farrar, scienziato capo dell’OMS.
L’utilizzo di questi strumenti non deve essere lasciato alle sole aziende tecnologiche, ha avvertito l’agenzia. «I governi di tutto il mondo devono collaborare per regolamentare efficacemente lo sviluppo e l’uso delle tecnologie di intelligenza artificiale», ha dichiarato Labrique. Inoltre, prosegue Nature, i gruppi della società civile e le persone che ricevono assistenza sanitaria devono contribuire a tutte le fasi dello sviluppo e dell’implementazione dei LLM, compresi la supervisione e la regolamentazione.
Secondo il rapporto, è già evidente come le aziende più grandi stiano escludendo le università e i governi dalla ricerca sull’IA, con un numero mai visto prima di dottorandi e docenti che abbandonano il mondo accademico per quello imprenditoriale.
Le linee guida raccomandano che terze parti indipendenti eseguano e pubblichino verifiche obbligatorie successive al rilascio di LLM distribuiti su larga scala. L’OMS aggiunge che tali verifiche dovrebbero valutare la capacità di tali sistemi di proteggere sia i dati che i diritti umani. Infine, l’OMS sostiene che gli sviluppatori e i programmatori di software che lavorano su LLM che potrebbero essere utilizzati nell’assistenza sanitaria o nella ricerca scientifica dovrebbero ricevere lo stesso tipo di formazione etica dei medici.
Questo articolo è solo un pezzetto
Scrivere ci piace, ma l’attività principale di Avis Legnano è la sensibilizzazione alla donazione di sangue. Per partecipare a questo progetto basta compilare il modulo d’iscrizione.