auto autonome andrea daniele signorelli

Il dilemma delle auto autonome

Pubblicato in origine su Esquire Italia nel maggio 2018

Rivoluzione Artificiale (ed. Informant, 2017) è acquistabile su Amazon in formato ebook (3,99 €) e cartaceo

Considerate il seguente problema: un treno ha perso il controllo e procede a velocità massima. Lungo il percorso, si trovano cinque persone legate ai binari che potrebbero essere uccise nel giro di pochi secondi. Schiacciando un tasto, potreste dirottare il vagone su un altro binario; ma c’è un problema: anche a questo binario è legata una persona, che quindi verrà travolta a causa della nostra decisione di premere il tasto. I casi sono due: se scegliamo di non fare nulla, cinque persone moriranno; se invece decidiamo di schiacciare il tasto, saremo direttamente responsabili della morte di una persona. Che decisione prendereste?

“La maggior parte delle persone ritiene che sacrificare un uomo per salvarne cinque sia la scelta migliore”, ha scritto Kris Hammond, professore della Northwestern University. “Questa scelta si basa su un semplice calcolo utilitaristico. Sfortunatamente, basta cambiare qualche dettaglio e la nostra intuizione viene rimessa in discussione. Immaginate se la singola vittima fosse un ricercatore che ha appena trovato la cura per il cancro, o se le altre cinque persone fossero malati terminali. In questi casi, dovremmo iniziare a considerare modi diversi di valutare lo scambio, spostandoci da un semplice calcolo a scelte con sfumature molto diverse che prendono in considerazione vari concetti di valore”.

Questo problema etico, noto come “il dilemma del carrello”, è tornato improvvisamente in auge con l’avvento delle auto autonome; nella speranza che potesse aiutare a trovare una risposta a una delle più pressanti questioni che avvolgono il mondo delle self driving cars: come deve comportarsi un’auto autonoma in situazioni impreviste? Se improvvisamente un pedone le si para davanti, non è possibile frenare in tempo e sterzando rischia di schiantarsi (uccidendo il passeggero dell’auto o travolgendo altre persone), qual è il comportamento corretto da adottare?

L’etica delle self driving cars

Gli esseri umani alle prese con situazioni di questo tipo valutano il da farsi caso per caso; reagendo d’istinto (nel caso di incidenti) o sulla base della loro scala di valori e della loro sensibilità (nel caso classico del dilemma del carrello). E per quanto invece riguarda le macchine? “Penso che un senso etico o morale possa essere instillato nelle macchine su una base utilitaristica. Le metriche le decideremo noi e potranno essere grossolane (‘salva quante più persone possibili’), sfumate (‘prima i bambini, le donne e i premi Nobel’) o dettagliate (‘valuta ogni individuo sulla base della sua educazione, fedina penale, menzioni sui social network, ecc.’). La scelta del codice spetta solo a noi”, spiega ancora Hammond. “Queste macchine, però, non dovranno esitare quando la carrozza sarà a pochi secondi dall’impatto. Agiranno in accordo con il codice etico e morale che forniremo loro. Faranno i loro calcoli e prenderanno la scelta migliore”.

Forse anche allo scopo di metterci maggiormente a nostro agio con questo genere di situazioni, al MIT di Boston hanno progettato un sito web chiamato Moral Machine, in cui sono proprio gli utenti del sito ad addestrare la macchina a prendere decisioni morali del tipo illustrato nel dilemma della carrozza. Questa piattaforma online, quindi, permette a chiunque lo desideri di descrivere come vorrebbe fosse programmato il cervello elettronico di un’automobile; e come sarebbe opportuno che si comportasse in situazioni estreme. Al termine del quiz, inoltre, è possibile confrontare le proprie scelte con quelle prese dagli altri utenti.

image

“I dati raccolti dalla moral machine, a cui hanno già partecipato oltre 2 milioni di persone, creeranno una fotografia di quello che la società ritiene essere il codice etico più opportuno”, ha spiegato lo sviluppatore del progetto Iyad Rahwan. “Questo ci permette di capire anche come la moralità venga vissuta diversamente nei vari paesi del mondo”.

Rimane una questione irrisolta: inserire nelle auto autonome un codice che funzioni solo secondo parametri utilitaristici, significherebbe accettare di circolare su un’auto che – in alcune situazioni, previste anche sul sito del MIT – sarebbe di fatto programmata per ucciderci. Siamo in grado di tollerare una condizione di questo tipo?

Considerando quanto si è discusso di questo dilemma nel campo delle auto autonome, potrebbe stupire che molti dei filosofi e degli esperti coinvolti nel dibattito – tra cui quelli che hanno stilato le linee guida per le self driving car per il ministero dei Trasporti tedesco – ritengano tutta questa discussione un falso problema; se non addirittura una inutile distrazione, buona solo per chiacchiere analitiche attorno al falò.

Da San Tommaso alle auto autonome

Un filosofo come Luciano Floridi, docente a Oxford, ha in più occasioni spiegato come, da un punto di vista morale e (soprattutto) pratico, il problema sia stato risolto già da parecchio tempo da pensatori come Tommaso D’Aquino o, in epoca più recente, Philippa Foot. In sintesi, se la prima scelta è giusta (nel caso di un’auto autonoma, sterzare per non investire una persona), ma questa finisce per avere un esito negativo, significa che è avvenuto qualcosa di tragico che non si poteva prevedere o evitare. Incartarsi in mille discorsi, variabili e quant’altro rischia di essere solo un esercizio intellettuale senza ricadute pratiche. E le ricadute pratiche, se vogliamo davvero prepararci a un mondo in cui le auto autonome scorrazzano liberamente per le città, sono le più importanti da affrontare.

QUANDO SI PARLA DI SCELTE ETICHE NON SI VINCE MAI 1 A 0, SEMMAI SI VINCE 2 A 1

Prima di tutto: numerosi studi hanno sottolineato come le auto autonome possano ridurre il numero di morti a causa di incidenti anche del 90%. Ma questo, comunque, significa che un 10% di fatalità continuerà a esserci e che, almeno per il futuro a venire, non sarà possibile progettare auto autonome in grado di analizzare ogni singola variabile ed evitare, sempre e comunque, che si verifichino incidenti. Anche l’algoritmo di intelligenza artificiale più evoluto al mondo, insomma, non è in grado di prevedere tutti i possibili imprevisti. “Se vogliamo salvare un gran numero di persone ci affideremo alle auto autonome, sapendo che qualcuno si dovrà assumere la responsabilità del fatto che parecchie persone moriranno lo stesso”, ha spiegato proprio Floridi. “Perché quando si parla di scelte etiche non si vince mai 1 a 0, semmai si vince 2 a 1”.

A confermare questa visione è anche un saggio pubblicato sul sito del World Economic Forum: “Nel mondo reale, affinché un guidatore si trovi ad affrontare davvero il dilemma del carrello, è necessario che avvengano tre cose: deve accorgersi della collisione imminente in tempo da poter considerare percorsi alternativi; deve esserci solo un altro possibile percorso (che guarda caso provocherà un’altra collisione fatale) e, in più, bisogna essere in grado di reagire in tempo per sterzare e dirigere la macchina verso questa collisione alternativa. Che si verifichino queste tre circostanze assieme è incredibilmente improbabile”.

Ciò che non è per niente raro, invece, sono le morti causate dagli errori umani alla guida, dalle distrazioni, dagli smartphone o dall’alcool; fattori che causano il 94% degli incidenti. “Nel mondo reale, le situazioni da dilemma del carrello si presentano davvero poche volte: le auto autonome le renderanno ancora più rare”. Per una semplice ragione: un algoritmo di intelligenza artificiale non si distrae, non beve prima di mettersi al volante e non controlla lo smartphone.

La praticità tedesca

Gli stessi concetti sono presenti nel già citato report con cui la Germania, prima al mondo, ha stilato le linee guida etiche per le auto autonome: “Non è possibile decidere ogni volta se salvare una vita piuttosto che un’altra (come richiesto dalla ‘versione self driving’ del dilemma del carrello), perché è una valutazione che dipende da situazioni molto specifiche, che sono influenzate anche da comportamenti imprevedibili e che, di conseguenza, non possono essere chiaramente standardizzate o programmate”.

LA PRIORITÀ VA SEMPRE DATA ALLE VITE UMANE, RISPETTO AD ANIMALI E OGGETTI

Che cosa prevedono allora queste linee guida? Un principio molto semplice: la priorità va sempre data alle vite umane, rispetto ad animali e oggetti, e l’uomo deve sempre avere il potere di sottrarre il comando alla macchina. In più, “in caso di incidenti inevitabili, classificare il passeggero in base a età, salute fisica o mentale, sesso e altro sarà vietato”. Come dire, il fatto che un passeggero abbia 90 anni o 20 non deve influire sulle decisioni del software.

E allora, come si comporterà un’auto autonoma nel momento in cui un pedone gli si parerà improvvisamente di fronte? Probabilmente, frenerà in tempo. Ma il principio guida è uno solo: la prima decisione dev’essere eticamente giustificabile; se poi questa dovesse provocare conseguenze tragiche, significa solo che anche l’intelligenza artificiale più evoluta del mondo non poteva proprio farci nulla.

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...