Pubblicato in origine su Esquire nel settembre 2018
Rivoluzione Artificiale (ed. Informant, 2017) è acquistabile su Amazon in formato ebook (3,99 €) e cartaceo
Il 4 agosto 2018, il presidente venezuelano Nicolas Maduro è stato vittima di un attentato durante un evento pubblico a Caracas. Maduro, come noto, è scampato all’attacco che non ha provocato particolari danni. Eppure, quel tentato omicidio è destinato a segnare una svolta per via delle modalità con cui è stato condotto: utilizzando droni commerciali acquistabili ovunque e da chiunque. Poco importano i sospetti che il tutto sia stato orchestrato dallo stesso Maduro (da tempo alle prese con la gravissima crisi economica di uno stato sempre più autoritario): indipendentemente da questa possibilità, ciò che davvero conta – e che ormai sembra essere certo – sono le modalità dell’attentato.
Per attaccare Maduro sarebbero infatti stati utilizzati dei droni DJI Matrice 600, un sistema dal costo di circa 5mila euro, utilizzato dai fotografi professionisti, in grado di sollevare fino a sei chilogrammi di peso. In questo caso, però, i droni sarebbero stati caricati con un chilogrammo di esplosivo ciascuno, trasformando in realtà le fosche profezie che esperti come Dennis M. Gormley avevano lanciato già nel 2003; avvertendo che gruppi terroristici avrebbero facilmente potuto accedere a nuovi strumenti tecnologici tanto efficaci quanto relativamente economici.
Sono decenni che gli eserciti di tutto il mondo utilizzano i droni per compiti di sorveglianza e per condurre omicidi e bombardamenti mirati; tanto che si stima che oggi siano circa 90 le nazioni che hanno a disposizione droni militari di vario tipo. Oggi però, come ha spiegato Alexandra Sander del Center for a New American Security, gli attori non statali possono beneficiare enormemente dall’accesso ai droni commerciali, che forniscono loro le capacità aeree di cui, classicamente, sono completamente privi.
Quanto avvenuto in Venezuela, ovviamente, non è una novità assoluta: è stato l’ISIS il primo a mostrare le potenzialità dei droni per condurre una nuova forma di guerriglia. Il gruppo jihadista guidato da al-Baghdadi ha inizialmente utilizzato i droni commerciali per scopi di propaganda e intelligence, salvo rendersi conto di poterli facilmente trasformare in bombe – innestando sui droni dell’esplosivo e mandandoli a schiantare – e in veri e propri mini-bombardieri, in grado di sganciare piccoli ordigni sugli obiettivi presi di mira.
Viste le potenzialità e la diffusione di questi strumenti, non stupisce che i sistemi anti-droni stiano rapidamente diventando una priorità per la difesa degli Stati: un report di Goldman Sachs ha stimato che addirittura il 10% del budget della difesa USA viene utilizzato per finanziare vari dispositivi che proteggono dagli attacchi con i droni; tra cui laser, droni da difesa, trasmettitori (a forma di fucile) che bloccano il segnale dei droni costringendoli ad atterrare e addirittura aquile in grado di dar loro la caccia.
Tutti questi sistemi, però, non sembrano in grado di arrestare quella che rischia di diventare una nuova forma del terrorismo, utilizzata anche dai ribelli Huthi dello Yemen per attaccare l’aeroporto internazionale di Abu Dhabi e che potrebbe teoricamente essere sfruttata per attaccare gli aerei civili.
Le auto autonome seminano il panico
Ma i droni sono solo uno dei tanti strumenti tecnologici in grado di trasformarsi in armi nelle mani di terroristi o di chiunque voglia compiere omicidi mirati: nel maggio 2015, due hacker hanno dimostrato come sia possibile prendere controllo degli strumenti digitali delle automobili e manometterli; mandando a sbattere una Jeep Cherokee dopo aver messo fuori uso da remoto la trasmissione che trasferisce la potenza del motore alle ruote.
“I moderni veicoli a motore spesso includono nuove tecnologie connesse per fornire benefici aggiuntivi in termini di sicurezza, efficienza energetica e altre comodità”, si legge in un report dell’FBI. “D’altra parte, a causa di questa accresciuta connettività, è importante che i consumatori e i produttori tengano alta la guardia sulle minacce potenziali in termini di cybersicurezza”.
Come ha dimostrato il caso della Jeep Cherokee, gli hacker potrebbero manomettere da remoto singoli veicoli presi volontariamente di mira; colpendo quindi obiettivi ben precisi. Se già così lo scenario è inquietante, il rischio è che le cose siano destinate a peggiorare nel momento in cui faranno davvero la loro comparsa sul mercato le auto autonome. Un gruppo di 26 esperti – provenienti da Oxford, Cambridge, OpenAI e altre realtà – ha infatti già lanciato l’allarme sui rischi “evidenti e concreti” di questa tecnologia.
Non si tratta, come spesso accade, dei timori relativi alla “rivolta dei robot” (che appartengono ancora al regno della fantascienza), ma della possibilità che i terroristi sfruttino le vulnerabilità presenti nelle self driving cars per lanciare attacchi in zone civili. Utilizzando i cosiddetti adversarial examples (attacchi portati ai sistemi di machine learning che causano errori da parte del software), sarebbe per esempio possibile, come spiega OpenAI, “causare collisioni mostrando alla macchina dei segnali di stop alterati”. Non è eccessivo, di conseguenza, immaginare che in futuro i cyberterroristi saranno in grado di manomettere contemporaneamente numerose auto autonome, seminando il panico nelle strade delle città.
Tutto questo dista ancora parecchi anni, ma considerando gli errori commessi nella diffusione di apparecchi IoT (internet of things) – diventati uno strumento di facile utilizzo per gli hacker – è importante che si diffonda consapevolezza sui rischi per la sicurezza che nuove tecnologie comportano. Rischi che saranno ancora più gravi quando a essere preso di mira sarà direttamente il corpo umano. Ormai è passato un decennio da quando un hacker ha preso per la prima volta il controllo di un pacemaker, ma se allora la manipolazione era avvenuta sfruttando la trasmissione radio, adesso è possibile impiantare direttamente dei malware all’interno di questi dispositivi (che sempre più di frequente sono connessi a internet); consentendo ai cyberterroristi di farli funzionare a loro piacimento.
I due ricercatori che più si sono spesi sul tema – Billy Rios della società di sicurezza Whitescope e Jonathan Butts di QED Secure Solutions – avevano addirittura pensato di approfittare di un recente convegno per fare una dimostrazione effettiva dei rischi che si corrono: “Avevamo discusso la possibilità di portare un maiale vivo per dimostrare come fosse possibile ucciderlo in remoto usando una app dell’iPhone”, hanno spiegato. “Questo avrebbe veramente mostrato di che implicazioni stiamo parlando. Ovviamente, abbiamo deciso di lasciar perdere, ma le nostre preoccupazioni rimangono enormi”.
Teoricamente, infatti, sarebbe possibile sfruttare i malware installati nei pacemaker per somministrare scariche elettriche non necessarie o, al contrario, per impedire che funzionino correttamente quando ce n’è bisogno. “Sono due anni che parliamo di questi problemi ma ben poco è cambiato; è molto frustrante”, hanno raccontato Butts e Rios. E considerando che, nel futuro, l’inserimento di tecnologie connesse all’interno del corpo umano diventerà sempre più diffuso, c’è davvero di che preoccuparsi.
Hackerare il cervello
Come noto, sono numerose le aziende che lavorano alla possibilità di collegare il cervello umano ai computer usando le cosiddette BMI (brain-machine interface); dispositivi già oggi utilizzati per scopi medici (per esempio, per permettere alle persone completamente paralizzate di digitare parole su uno schermo; consentendo loro di comunicare), ma che – stando almeno alle promesse di società come Neuralink di Elon Musk o Kernel – nel futuro potrebbero diventare strumenti in grado di potenziare l’intelligenza umana e rendere la connessione tra mente e macchina completamente disintermediata. Immaginate, per fare solo un esempio, di voler cercare la traduzione di una parola che non conoscete; ma invece di estrarre lo smartphone e andare su Google Translate o su WordReference, la cercate utilizzando il vostro cervello, connesso – di fatto – direttamente a internet.
Le potenzialità di una tecnologia di questo tipo sono immense; ma c’è un lato oscuro: “Anche se non comprendiamo ancora appieno il funzionamento del cervello, siamo sempre più vicini a decodificare in maniera affidabile alcuni segnali neurali. Non dovremmo avere alcuna forma di compiacenza quando si tratta di capire che cosa tutto questo possa significare per la nostra società”, ha spiegato il direttore del Wyss Center, John Donoghue, in un paper pubblicato su Science. “Dobbiamo attentamente prendere in considerazione tutte le conseguenze che provocherà vivere di fianco a macchine semi-intelligenti controllate direttamente dalla nostra mente e assicurarci che il loro uso sia sicuro ed etico”.
Quali sono queste possibili conseguenze? Prima di tutto, la minaccia alla sicurezza e la privacy dei nostri stessi pensieri. Quando queste BMI saranno davvero funzionanti e utilizzate su vasta scala, saranno in grado di raccogliere una gran quantità di dati neurologici che verranno trasmessi ai computer. Questo, ovviamente, pone enormi problemi in termini di privacy: i dati, come segnalato da Donoghue, potrebbero essere rubati e utilizzati per fini impropri. “Già oggi, per calibrare correttamente questi dispositivi si chiede alle persone paralizzate di rispondere, attraverso le interfacce, a domande private riguardanti la loro famiglia (per esempio, il nome di tua figlia è Emily?). Una rigida protezione di questi dati dovrà essere applicata a tutte le persone coinvolte”.
Lo scenario, nuovamente, è da incubo: raccogliere dati estratti direttamente dal cervello – qualcosa che è già diventato realtà in Cina – apre nuovi scenari in termini di manipolazione e sorveglianza (pensate al dibattito sull’uso dei dati personali da parte di Facebook e poi immaginate un dispositivo che legge le vostre onde cerebrali). Non solo: tornando al tema attentati, non si può escludere la possibilità che un hacker si introduca in un dispositivo connesso alla mente mettendo a rischio la vita delle persone. Il cosiddetto “brainjacking”, infatti, rende possibile manovrare i movimenti delle persone, con conseguenze tanto tremende quanto facilmente immaginabili.
Potrebbe essere troppo presto per porsi problemi di questo tipo, ma come ha sottolineato parlando con Gizmodo Adam Keiper, ricercatore del Ethics and Public Policy Center, “alcune delle preoccupazioni sollevate dagli autori del paper potrebbero un giorno diventare problemi reali: mi sembra prudente iniziare a occuparsene con anticipo. L’importante è concentrarsi sulle soluzioni (crittografia dei dati, sicurezza dei network e altri ancora) senza sollevare allarmismi che potrebbero essere decisamente prematuri”. Non lasciarsi spaventare da tutto questo, però, è davvero difficile.