La robotica sta compiendo grandi passi avanti negli ultimi anni. Lo sviluppo dell’intelligenza artificiale sta permettendo l’impiego di macchine che “ragionano” autonomamente in ambiti sempre più vasti e innovativi, e questa loro pervasività pone questioni etiche su cui in molti si interrogano da tempo. Il settore che viene subito in mente pensando agli sviluppi recenti di questa tecnologia è quello delle automobili a guida autonoma. Diverse case automobilistiche hanno fatto esperimenti e immesso sul mercato auto che si guidano da sole. Google e Tesla sono le due aziende che hanno raggiunto i risultati più avanzati al momento (Google punta ad auto totalmente autonome, mentre il sistema che sta sviluppando Tesla prevede che il guidatore sia vigile e intervenga spesso durante gli spostamenti). Queste auto (o meglio degli algoritmi che stanno alla base del loro software) sono sempre più abili nel valutare la pericolosità delle situazioni, talvolta con tempi di reazione molto più rapidi di quelli di un essere umano. Complessivamente il loro avvento sul mercato potrebbe quindi rendere più sicure le strade, in termini statistici.

I problemi sorgono nel caso in cui un’auto debba scegliere cosa fare in una situazione in cui comunque vada qualcuno si farà male. Se davanti alla vettura si para all’improvviso un gruppo di persone, l’auto dovrà andare volontariamente fuori strada, se anche questo dovesse provocare la morte del pilota, per fare in modo che nel complesso muoia il minor numero di persone possibile? Chi deve decidere come si comportano le auto: chi le programma? Chi le compra? Gli Stati? E nel caso, a chi andrebbe la responsabilità degli incidenti, se il guidatore in realtà non è colui che prende le decisioni? Sono solo alcune delle domande che già da qualche anno si pongono gli operatori del settore, ma le risposta sembrano molto lontane dall’essere trovate.

Un gruppo di ricerca del Mit (Massachusetts Institute of Technology) ha avviato da qualche tempo Moral Machine, un progetto interattivo per affrontare il problema e provare a portare avanti la discussione. Si tratta di un semplice test con 13 domande, a cui si può accedere liberamente cliccando qui. Nel corso del test sono presentate all’utente (con illustrazioni) alcune possibili situazioni di imminente incidente stradale in cui bisogna decidere quale sia il danno minore. Un esempio è quello che facevamo prima, ma via via subentrano ulteriori variabili. Se le persone che stanno attraversando lo fanno quando il semaforo è rosso, cosa succede? L’età delle persone che sarebbero travolte dall’auto ha un peso nella decisione? Bambini, anziani, donne, uomini, animali, quali priorità dare nella scelta? Alla fine all’utente sono presentati i risultati delle sue scelte, messi in relazione alla media delle risposte degli altri utenti.

Tutto cambia rispetto alla percezione del problema se si ragiona sul problema immaginando se stessi alla guida. Saremmo altrettanto portati a valutare il minor numero di vittime come “male minore”, o in quel caso prevarrebbe l’istinto di sopravvivenza? Compreremmo mai un’auto che sappiamo essere programmata per sacrificare il guidatore, in caso di pericolo per altre persone? Anche queste sono domande senza risposta, ma visto il rapido sviluppo che sta conoscendo il campo dell’intelligenza artificiale sarà necessario continuare a rifletterci, perché non sappiamo in quale altro ambito delle nostre vite in futuro potremo essere affiancati (o sostituiti) da robot in grado di prendere decisioni autonome.

Altri problemi si aprono: saremo sempre più dipendenti dai robot, fino a non poterne più fare a meno? Cosa succede se un robot non è in grado di valutare correttamente l’ambiente in cui si trova? I robot potrebbero un giorno diventare “più intelligenti” degli esseri umani? Se si dovesse accertare che in qualche modo possono “soffrire”, dovremmo garantire loro dei diritti?

Finora, chi è riuscito a porre il problema nel modo più sintetico ed elegante è stato lo scrittore e scienziato Isaac Asimov, che nella raccolta di racconto Io, robot (1950) elenca le sue tre Leggi della robotica: «I. Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno. II. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge. III. Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge». Sono passati quasi settant’anni dalla pubblicazione del libro, la tecnologia ha fatto enormi passi avanti, eppure dal punto di vista etico siamo ancora fermi lì.

Dall’anno scorso alcuni studiosi della facoltà di Interactive Computing del Georgia Institute of Technology stanno sviluppando un sistema per insegnare ai robot a imparare come prendere decisioni dai personaggi della narrativa. Con una certa ironia, il sistema si chiama Quixote, come l’ingegnoso hidalgo protagonista del libro di Miguel de Cervantes. John Mullan, docente di letteratura inglese allo University College di Londra, si chiede sul Guardian se davvero le vicende narrate nella migliore letteratura possano insegnare qualcosa di buono a un robot che vi cerchi le risposte su come muoversi nel mondo. Dopo vari esempi, conclude pensando alla propria esperienza e a quella di tanti altri studiosi di letteratura (traduzione nostra). «Posso riportare il fatto che quelli come noi, pagati per trascorrere la propria vita lavorativa leggendo e rileggendo la grande narrativa, ovviamente non sono moralmente migliori, socialmente più qualificati o psicologicamente più esperti dei nostri concittadini. Se fossimo robot, saremmo robot piuttosto goffi».

Fonte foto: flickr