Ucciderne uno per salvarne cinque: il trolley problem e le auto

Negli anni a venire le auto a guida autonoma saranno una realtà sempre più concreta. Siamo pronti, anche dal punto di vista etico?

Ucciderne uno per salvarne cinque: il trolley problem e le auto
INFORMAZIONI SCHEDA
Articolo a cura di

Le auto a guida autonoma stanno diventando una realtà sempre più evidente, come dimostrato dai vari modelli commercializzati da Tesla o Waymo. Se nel 2020 tutti i modelli di auto vendute sono state classificate al massimo di livello 2 (su 5), ovvero sono state riconosciute solo parzialmente come autonome visto che necessitano di un guidatore che monitori la guida e sia pronto ad intervenire in situazioni di emergenza, Honda ha da poco annunciato la produzione di veicoli che raggiungono il livello 3, in cui il guidatore può rimuovere gli occhi dalla guida e dedicarsi ad altre attività.
Questo traguardo ha riportato nella discussione pubblica il famoso "trolley problem", un dilemma morale che si interroga su quali vite salvare in un incidente mortale. È una preoccupazione concreta che riguarda le auto a guida autonoma?

Il trolley problem

Il trolley problem non è un problema che riguarda i bagagli a mano che tutti quanti sogniamo di poter al più presto tornare a utilizzare per viaggiare, bensì un veicolo su binari che non è in grado di frenare, ma solo di cambiare rotaia. Questo esperimento mentale, ideato dalla filosofa inglese Philippa Foot nel 1967, prevede che sul binario percorso si trovino cinque persone, legate o comunque impossibilitate a spostarsi, e che l'unico modo di salvarle sia di attivare un deviatoio che dirotterebbe il veicolo su un altro binario, su cui si trova un'altra persona impossibilitata a muoversi.
Il dilemma riguarda dunque una persona che si trovi nei dintorni del deviatoio: dovrebbe azionarlo e risparmiare cinque vite, al prezzo di una, o non agire e dunque condannare le cinque persone alla morte? La visione utilitaristica prevede di salvare le cinque persone, riconoscendo una sorta di additività nel "valore delle vite umane", e che dunque l'azione più appropriata sia quella che garantisce il bene maggiore per il maggior numero di persone. Numerosi studi hanno registrato che la maggior parte delle persone adotterebbe questo comportamento per risolvere il dilemma, così come enunciato. Ovviamente questo è ben diverso da ciò che succederebbe nella realtà: in un episodio della serie YouTube Mindfield, ad esempio, alcune persone sono state indotte a credere di essere in una situazione analoga a quella descritta, ma la maggioranza di loro è semplicemente rimasta paralizzata dalla paura. Come spesso succede con gli esperimenti mentali, numerose variazioni dello stesso problema sono state analizzate, portando a risposte differenti.

È infatti "semplice" decidere il da farsi quando un numero ben maggiore di vite è coinvolto su un binario rispetto all'altro, ma cosa succede quando su entrambi i binari è presente un solo individuo, o un gruppo di 3 adulti da una parte e 5 bambini dall'altra? In questi casi un approccio utilitaristico potrebbe ancora essere individuato, ma difficilmente la maggioranza delle persone si schiererebbe a favore di tale approccio con la stessa leggerezza del caso esaminato in precedenza. Gli esperimenti mentali di cui si è parlato sono appunto tali. Nonostante questo, essi rappresentano situazioni che a priori potrebbero davvero accadere, ad esempio un guidatore che rischia di essere coinvolto in un incidente frontale potrebbe scegliere di sterzare bruscamente e mettere a rischio la vita di un'altra persona per salvare la propria.
Se questo è forse più un dilemma che riguarda l'autopreservazione, come dovrebbe però comportarsi un'auto a guida autonoma in tali situazioni? Salvare il guidatore, o eseguire una scelta morale analoga a quella del trolley problem?

Le auto a guida autonoma

Il problema principale con la definizione di un trolley problem per le auto a guida autonoma riguarda essenzialmente il fatto che le intelligenze artificiali non hanno la stessa capacità cognitiva di un essere umano, quindi risulterebbe complicato stabilire un modo per valutare quale tra due persone su due distinti binari sia opportuno salvare. Per quanto riguarda il guidatore, la situazione si fa più spinosa. Priorizzare sempre la vita del guidatore, in qualsiasi situazione, a discapito degli altri occupanti della strada sarebbe certamente insensato, ma d'altro canto sedersi e lasciarsi guidare da una macchina che potrebbe anche "scegliere di sacrificarci", potrebbe terrorizzare qualcuno.
Uno studio pubblicato su Science nel 2016 chiedeva a un gruppo di persone di valutare, su una scala da 0 a 100, quanto fossero d'accordo con il fatto che le macchine a guida autonoma debbano essere programmate per salvare il maggior numero di vite, riscuotendo un punteggio medio di 70. D'altro canto, quando ai partecipanti veniva chiesto di valutare, sempre da 0 a 100, quanto fossero disponibili a comprare macchine che minimizzassero la perdita di vite umane (quindi sottoponendo anche il guidatore a rischio), il punteggio medio calava drasticamente a 30, evidenziando il problema di cui facevamo cenno prima.

Il punto fondamentale delle macchine a guida autonoma è tuttavia che esse dovrebbero evitare la presenza stessa di tali tipi di situazione. In un futuro ipotetico in cui le macchine a guida autonoma sono la maggioranza, ed esse possono interagire tra di loro, la possibilità che un trolley problem si presenti dovrebbe essere in realtà molto rara, così come l'avvenire di dinamiche in cui l'IA è responsabile di salvare o meno la vita del guidatore.
Inoltre, la preoccupazione di tali situazioni non dovrebbe essere un deterrente per l'adozione di macchine a guida autonoma, dato che un numero incredibilmente elevato di incidenti, mortali o meno, potrebbe essere evitato: basti pensare che negli Stati Uniti circa 40000 persone all'anno muoiono in incidenti autostradali e, di questi, il 40% è associato con guida in stato di ebbrezza e il 30% con eccesso dei limiti di velocità, negligenze completamente rimovibili con la guida autonoma.

Resta comunque il fatto che l'adozione di macchine a guida autonoma sarà un processo molto graduale e macchine "senza guidatore" dovranno interfacciarsi per un ampio periodo con veicoli guidati da persone in carne ed ossa. Trolley problem si verificheranno molto raramente, in quanto lo spettro decisionale del veicolo sarà solitamente ampio, e l'intelligenza artificiale potrà dunque scegliere tra un variegato ventaglio di possibilità anziché solo due come nel classico esperimento mentale. Nonostante questo, alcuni problemi etici dovranno essere affrontati prima o poi e si dovrà decidere se l'auto dovrà scegliere in maniera "utilitaristica" e salvare il numero maggiori di vite, anche a costo della vita del guidatore. Se questa dovesse essere la strada scelta, dovrà essere spiegata molto bene al pubblico, visto che anche in tal caso le auto a guida autonoma non rappresenterebbero un incremento di rischio per i guidatori, ma anzi ridurrebbero sensibilmente la possibilità di incidenti.