Pubblicato in origine su Esquire nel maggio 2018
Rivoluzione Artificiale (ed. Informant, 2017) è acquistabile su Amazon in formato ebook (3,99 €) e cartaceo
-
Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.
-
Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
-
Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge.
Nel 1942, Isaac Asimov metteva a punto le Tre leggi della robotica; suscitando infiniti dibattiti e gettando semi che saranno raccolti dagli scrittori di fantascienza per oltre settant’anni. Oggi, però, la situazione è cambiata: la regolamentazione di robot e intelligenze artificiali non è più materiale buono solo per la science fiction. Al contrario, è qualcosa che la società deve affrontare adesso; per non farsi trovare impreparata di fronte a bot in grado di impersonare esseri umani, assistenti virtuali che memorizzano ed elaborano tutto ciò che diciamo, auto autonome controllate da hacker e altro ancora.
Le tre leggi della robotica, insomma, servono davvero. Ma c’è un problema: per quanto funzionassero bene nel mondo della fantascienza, le regole di Asimov non hanno nessuna applicabilità in quello reale. Per dirla con l’esperto di roboetica Daniel Wilson, “le tre leggi sono molto ordinate, ma sono anche una stupidaggine. Prima di tutto: come cavolo fai a tradurle in codice?”. C’è di più: che senso ha incidere nel sistema operativo delle AI l’imperativo di “proteggere la propria esistenza” (terza legge), quando uno dei loro compiti più importanti sarà quello di svolgere lavori estremamente pericolosi (come recarsi in una centrale nucleare che ha subito un grave incidente)? E già che ci siamo, come fa un robot a capire che cosa sia “l’esistenza” o quando, esattamente, si sta causando un “danno” all’essere umano?
Tre (nuove) leggi per l’intelligenza artificiale
“Le tre leggi sono eleganti, ma sono ambigue”, ha scritto sul New York Times Oren Etzioni, fondatore dell’Allen Institute for Artificial Intelligence. Ed è per superare queste ambiguità che Etzioni ha messo a punto le sue personali tre leggi (chiarendo che debbano essere considerate solo uno stimolo di partenza). La prima regola recita così: “Una AI deve sempre dichiarare esplicitamente di non essere un umano”.
Una regola fondamentale non solo perché nel mondo, ormai, si aggirano robot che tengono discorsi ai convegni – come Sophia, che ha ricevuto la cittadinanza da parte dell’Arabia Saudita – o che accudiscono gli anziani; ma soprattutto perché i chatbot (software che si esprimono in forma testuale) sono e saranno sempre più difficili da distinguere dai normali esseri umani. Applicando la prima legge di Etzioni, provare a far passare una AI per un essere umano sarebbe semplicemente illegale; garantendoci così una parziale difesa in uno scenario che si fa sempre più complesso (basti pensare ai bot pro-Trump di Twitter o al celebre video fake di Barack Obama, a cui sono state messe in bocca parole – sincronizzate con il labiale e replicando la sua voce grazie al machine learning – che non ha mai pronunciato).
La seconda legge è altrettanto importante: “Un’intelligenza artificiale non può memorizzare o rivelare informazioni a meno che non abbia ricevuto un esplicito permesso da parte della fonte di queste informazioni”.
Se vi sembra di aver appena letto delle righe che avrebbero senso solo in una spy story futuristica, guardatevi attorno: il vostro Amazon Echo (dotato di intelligenza artificiale Alexa) ascolta quello che state dicendo in ogni momento, i bambini giocano con bambole-robot in grado di instaurare conversazioni e di comprendere ciò che viene loro detto e le domande che poniamo a Google Assistant sono memorizzate, conservate e analizzate. Informazioni sui prestiti, malattie, accuse tra colleghi, rivelazioni private sulla situazione familiare: tutto ciò che cerchiamo e diciamo può finire nel database delle AI; che poi – com’è successo qualche mese fa in un caso d’omicidio – possono venire “chiamate a testimoniare” dalle forze dell’ordine.
La lezione dell’antica Roma
Ma la legge più importante è sicuramente l’ultima: un’intelligenza artificiale dev’essere soggetta a tutta la gamma di leggi che si applica al suo operatore umano. “Non vogliamo che una AI si dia al cyberbullismo o manipoli le azioni di borsa; non vogliamo auto autonome che attraversino con il rosso o, peggio, armi autonome che violino i trattati internazionali”, scrive sempre Etzioni. “Il nostro sistema legale dovrebbe assicurare che non sia possibile, per l’uomo, dichiarare che il robot di sua proprietà ha fatto qualcosa che non potevamo evitare. In poche parole, dire l’ha fatto la mia intelligenza artificiale non potrà giustificare un comportamento illegale”. L’operatore umano, quindi, sarà sempre responsabile degli errori del robot o del software (e potrà rifarsi contro l’azienda produttrice se lo riterrà il caso).
Tutto ciò, ovviamente, è necessario perché un robot non può essere considerato responsabile delle proprie azioni; almeno finché non avrà sviluppato una coscienza (un orizzonte che appartiene ancora alla fantascienza). Ed è proprio per questa ragione che esperti di etica e tecnologia, come il professore di Oxford Luciano Floridi, sono insorti contro la proposta del Parlamento Europeo, che risale ormai a quasi due anni fa, di “dotare almeno i robot autonomi più sofisticati dello status di persone elettroniche, con specifici diritti e doveri”.
Per quanto avveniristica, la proposta del Parlamento Europeo nasconde infatti un pericolo: assieme ai diritti e ai doveri, arrivano necessariamente anche le responsabilità. E una volta imboccata questa strada, il rischio è di deresponsabilizzare proprietari e produttori, che – chiamati a giustificare il comportamento illegale del loro robot-assistente – potrebbero davvero difendersi affermando “non avrei mai immaginato che la mia AI potesse fare una cosa del genere”.
Sollevare i proprietari dei robot dalle loro responsabilità, insomma, è una pessima idea. Qualcosa che era già noto, migliaia di anni fa, agli antichi romani. “Se i robot dovessero diventare allo stesso livello degli uomini, possiamo adattare delle norme vecchie quanto le leggi dell’antica Roma, in cui era previsto che il proprietario di schiavi fosse responsabile per ogni danno da essi causato”, ha scritto proprio Floridi sul Financial Times. “Come i romani sapevano bene, attribuire qualche forma di personalità legale ai robot (o agli schiavi) avrebbe sollevato dalle sue responsabilità chi aveva il dovere di controllarli”. In questo modo, ci si assicurava che il padrone stesse attento e tenesse la situazione sotto controllo (il che, ovviamente, non impediva che lo schiavo finisse crocifisso).
Robot che disobbediscono all’uomo (per il suo bene)
In tutto questo, rimane però aperta una questione fondamentale: come impedire che dei criminali utilizzino le intelligenze artificiali per scopi illegali o che dei terroristi compiano una strage prendendo possesso in remoto di decine di auto autonome? Queste preoccupazioni spostano l’attenzione dalla fantascientifica “rivolta dei robot” per portarla su temi molto più concreti, che possono riguardare anche la quotidianità: “Se ordiniamo a un’auto autonoma di andare in retromarcia mentre un cane, come a volte accade, si è appisolato proprio dietro la ruota, non è importante che l’intelligenza artificiale che ci ascolta sia in grado di disobbedirci?”.
A pronunciare queste parole, in un podcast dello Scientific American, è Gordon Briggs, ricercatore dell’Università di Tuft che – assieme a Mattias Scheutz – sta lavorando a un progetto molto particolare: insegnare ai robot a disobbedire all’essere umano. “Il rischio che un robot compia di sua spontanea volontà azioni pericolose per l’uomo è estremamente basso. È molto più probabile che ciò avvenga perché ha ricevuto istruzioni in questo senso da parte di un programmatore o di un hacker”. Ed è esattamente per questa ragione che è importante che le AI imparino a disobbedire all’essere umano, almeno in certe situazioni.
Ma come si fa a inscrivere in un algoritmo un concetto così complesso? Ispirandosi, ancora una volta, alle tre leggi di Asimov. Prima di eseguire una “azione X”, infatti, il robot dovrà rispondere a una serie di domande: “So come si fa X? Sono fisicamente in grado di farlo? Sono in grado di farlo adesso? Il mio ruolo sociale mi obbliga a farlo? Violo qualche principio normativo se lo faccio?”.
Nel caso del cane appisolato, per esempio, la AI alla guida dell’auto autonoma avrebbe potuto comprendere che uccidere un animale sarebbe stata una violazione del principio normativo “non ferire o uccidere animali domestici” e avrebbe disobbedito all’ordine del proprietario; e lo stesso farebbe nel caso in cui degli hacker prendessero il comando in remoto di decine di self driving cars per mandarle a schiantarsi.
Per aggiungere un ulteriore livello di sicurezza, sempre Oren Etzioni ha proposto di sviluppare delle “intelligenze artificiali guardiane”, il cui unico compito è “assicurarsi che le varie smart machines non devino dalle linee guida fornite dai programmatori”. Restando al caso delle auto autonome, questo impedirebbe che un software – a causa di qualche errore o di conseguenze non previste dell’apprendimento autonomo – decidesse di accelerare oltre i limiti consentiti o di passare con il rosso.
Intelligenze artificiali che controllano altre intelligenze artificiali, per evitare che sfruttino impropriamente le loro conoscenze sempre più sofisticate. In questo scenario ai limiti dell’incredibile, all’uomo non rimane che assicurarsi di avere sempre a disposizione il classico bottone rosso, per fermare tutto se qualcosa dovesse andare per il verso sbagliato. Considerando la velocità a cui sta procedendo l’evoluzione delle AI, è meglio tenersi pronti per qualunque eventualità.