Nel 1967, la filosofa inglese Philippa R. Foot enunciò quello che poteva sembrare un semplice problema di etica: un vagone (trolley) senza controllo sta per investire 5 persone che sono legate sul binario. Il vagone sta però per incontrare un bivio e, se qualcuno azionasse la leva che controlla il bivio, il vagone potrebbe cambiare strada, investendo però così una singola persona.
Che cosa fare? Azionare la leva e quindi diminuire il numero di morti, oppure lasciare che il vagone faccia il suo corso?
La risposta può sembrare ovvia, ma non lo è se siamo noi a dover azionare la leva, o ancor meno se le variabili in gioco cambiano ulteriormente.
Cerchiamo di capire in questo articolo come la soluzione di questo "semplice" problema di etica nasconde un'enorme importanza nella tecnologia moderna, in cui siamo arrivati a chiederci: nell'era dell'intelligenza artificiale, quale etica dobbiamo insegnare alle automobili a guida autonoma?
La nascita del trolley problem e la dottrina del doppio effetto
È più giusto lasciar morire oppure uccidere salvando delle vite?
È da una riflessione su questa domanda che nacque il trolley problem nel 1967, quando la filosofa inglese Philippa R. Foot, all'interno dell'articolo The problem of Abortion and the Doctrine of the Double effect dove la filosofa criticava la dottrina del doppio effetto posta da Tommaso d'Aquino. Per il teologo italiano, semplificando, la soluzione risiedeva nelle conseguenze, cioè il doppio effetto: se un comportamento amorale, come uccidere, porta con se un bene superiore al male inflitto, allora un'azione normalmente considerata immorale può diventare lecita.
Foot si ritrovò a rifletterci riguardo alla questione dell'aborto, argomento tutt'oggi fortemente dibattuto in tutte le parti del mondo. Per farlo, però, ridusse la questione a una sorta di rompicapo che arrivasse a tutti:
Il conduttore di un treno è svenuto, ed un vagone – trolley – corre senza guida e sta per investire cinque persone che sono malauguratamente legate ai binari. Esiste però una chance per i cinque malcapitati: il carrello si sta dirigendo verso una biforcazione. È possibile quindi, per un passante che si trovi ad assistere alla drammatica scena, deviare la folle corsa del treno azionando la leva e così salvare i cinque. Sul binario secondario tuttavia è intrappolata una persona, che con tale azione verrebbe uccisa.
Che fare quindi, lasciar morire o uccidere e diminuire il numero di morti?
In questo caso, si può essere portati a pensare che manovrare la leva non implichi l'intenzione di uccidere, ma soltanto quella di salvare. Che differenza ci sarebbe stata se il problema fosse stato posto diversamente e – invece della leva – avessimo dovuto agire fisicamente uccidendo qualcuno?
Le varianti del problema e le variabili morali
Molti degli intervistati sul trolley problem hanno negli anni risposto che sì, avrebbero azionato la leva per salvare più vite. Arriva però qualche anno dopo la versione del problema della filosofa statunitense Judith Jarvis Thomson.
La situazione è la medesima: un vagone senza controllo sta per investire cinque persone legate sui binari. Questa volta, non c'è alcun bivio a poter deviare il treno, bensì al di sopra dei binari si trova un cavalcavia su cui si trova un uomo. L'unico modo per salvare le cinque persone è spingere questo uomo che, cadendo dal cavalcavia e finendo investito dal vagone, lo bloccherebbe salvando così le cinque persone.
Il problema è formalmente lo stesso: salvo cinque vite uccidendone una. Ma il fatto che in questo caso l'uccisione sia diretta, cambia tutto. La risposta di maggior parte intervistati cambia radicalmente: "non sono sicura che riuscirei ad uccidere una persona". Ancor più complessa diventa la risposta se la persona da spingere è qualcuno a noi caro. Eppure, anche nel caso originale avremmo ucciso una persona manovrando la leva.
Chiaramente, compare una variabile umana in più: la fisicità dell'azione diretta.
Ma non solo. Se l'uomo fosse stato cattivo o detestabile per un qualsiasi motivo? Saremmo stati più legittimati a ucciderlo per salvare cinque vite?
Non tutti compierebbero chiaramente le stesse scelte: le differenze tra individui e le loro culture influenzano le nostre scelte. Gli intervistati infatti hanno dato risposte diverse a seconda della fisicità delle persone, della loro etnia o appartenenza a gruppi minori, mostrando la discriminazione che può essere presente nella nostra società.
O peggio ancora, se non ci fosse stato un uomo da spingere, ma avessimo dovuto buttarci noi stessi per salvare le cinque persone, saremmo state in grado di farlo per ottenere "il male minore"?
Esistono tantissime varianti del trolley problem, più o meno "crudeli" o fantasiose, cosa che ha reso questo problema fortemente criticato negli anni per la sua forma astratta e perché riduce la filosofia a rompicapo.
Negli ultimi anni, però, questo problema ha trovato un'applicazione estremamente pratica: quando guidiamo una macchina, gestiamo le situazioni di pericolo a seconda del nostro istinto e del nostro sentire, motivo per il quale non tutti agiremmo allo stesso modo. E quindi, cosa dovrebbe fare un'automobile a guida autonoma se si trova davanti a un trolley problem?
Il dilemma etico delle automobili intelligenti a guida autonoma
Pensiamo a questo trolley problem: una bambina attraversa la strada all'improvviso inseguendo una palla. Noi, che siamo alla guida della macchina, dobbiamo decidere tempestivamente che cosa fare: sterzare investendo così una persona anziana che si trova sul marciapiede.
Che cosa sceglieremmo? Parlando di responsabilità, è stata la bambina a non rispettare il codice della strada, eppure verrebbe da pensare che sterzare sia doveroso, considerando che si tratta di un minore mentre sul marciapiede si trova una persona anziana. E se le persone anziane fossero state due, tre o cinque? Quante devono essere le persone perchè la vita della bambina diventi meno importante della loro?
E se invece ad attraversare fosse stata una persona anziana e sul marciapiede si trovasse un minore? Una semplice variazione che cambia completamente le carte in gioco.
Da problemi etici come questo, nasce un dilemma etico fondamentale per la messa in circolazione delle automobili a completa guida autonoma. Stiamo parlando del livello massimo di automazione, quello in cui è possibile guidare un veicolo senza condizionarlo in alcun modo.
In questo caso, cosa dovremmo "insegnare" alle automobili?
L'AI prende decisioni a seconda di quello che conosce
Al giorno d'oggi, le auto a guida completamente automatizzata – cioè di livello 4 e 5 – non sono ancora in circolazione. I problemi che devono affrontare infatti sono molteplici da un punto di vista non solo tecnologico, ma anche etico e percettivo.
L'intelligenza artificiale infatti, prende decisioni a seconda dei dati che possiede e, semplificando molto, di come le chiediamo di interpretarli. Va dà se quindi che per saper prendere una decisione in un contesto come quello descritto sopra, dove cioè si deve decidere tra la vita di una bambina che commette un errore e quella di una persona anziana che non ha commesso alcuna infrazione, è compito dei programmatori stabilire secondo quale etica si dovrà comportare.
Su due piedi potrebbe venire da rispondere con un razionale "chi sbaglia paga o si cerca il danno minore (come ad esempio una persona deceduta al posto di cinque)" come regola di fondo. Va considerato però che se per esempio il male minore è che sia la nostra auto a sbandare e infrangersi contro una barriera, mentre possiamo dire con certezza che la scelta umana sarebbe quella di preservarsi. Viene quindi da chiedersi se accetteremmo di stare all'interno di un automobile che potrebbe decretare che il male minore sia quello di lederci a favore della salute di qualcun altro.
Tutte le considerazioni fatte sopra, chiaramente, fanno ancora parte di un dibattito tutt'ora vivo e fervido all'interno della comunità scientifica. Le situazioni di pericolo, infatti, sono quasi sempre dovute all'errore umano, che questo tipo di veicoli risolverebbero. Certo è però che affinchè non ci sia l'errore umano da considerare – come ad esempio un sorpasso azzardato – tutte le persone in strada dovrebbero avere un automobile a guida autonoma.
Va sempre considerato che questi problemi etici vanno poi coniugati contestualmente a quelli tecnologici. Ad oggi infatti, le auto a guida autonoma completa non sono in grado di leggere istantaneamente la situazione che si trovano ad affrontare, così da decretare cosa sia più etico fare.