E nemmeno sappiamo se mai esisterà: invece di aiutare le persone a comprendere l’attuale rivoluzione tecnologica, il mondo dell’informazione sta facendo da megafono agli interessi privati dei colossi della Silicon Valley
Pubblicato in origine su Wired
Ogni giorno esce almeno un articolo in cui si parla dell’intelligenza artificiale generale come di una prospettiva realistica. Potrebbe sembrare un modo per aiutare il pubblico a chiarirsi le idee sull’evoluzione della più affascinante tra le nuove tecnologie. In realtà, si sta facendo un lavoro completamente diverso: quello di megafono dei colossi della Silicon Valley e dei loro interessi economici e politici.
L’intelligenza artificiale generale non esiste, è molto improbabile che venga conquistata in un prossimo futuro e non è nemmeno chiaro se mai si riuscirà in questa impresa. E allora perché se ne parla così tanto? Perché sembra una prospettiva non solo inevitabile, ma addirittura destinata a concretizzarsi nel giro di qualche anno?
Prima di tutto, facciamo un passo indietro: che cos’è l’intelligenza artificiale generale (nota con l’acronimo AGI: artificial general intelligence)? La prima traccia di questo termine sembra risalire al 1997, quando venne usata dal fisico ed esperto di questioni militari Mark Gubrud nel suo paper Nanotechnology and International Security. Gubrud la definisce come “un sistema di intelligenza artificiale che può competere o superare il cervello umano per velocità e complessità, che può acquisire una conoscenza generale e può manipolarla e usarla per ragionare”.
Che cos’è l’intelligenza artificiale generale?
A ridare popolarità a questo termine è stato però il filosofo di Oxford Nick Bostrom (il cui saggio del 2014 Superintelligenza ha enormemente indirizzato il dibattito sui rischi dell’intelligenza artificiale), che l’ha descritta come “un intelletto che supera di molto le migliori attuali menti umane in molteplici ambiti cognitivi molto generali”.
Lasciamo un attimo da parte il fatto che Nick Bostrom è un personaggio molto controverso, che in passato ha assunto posizioni apertamente razziste, che ha sostenuto soluzioni politiche totalitarie e oggi è tra i più noti sostenitori di un’inquietante scuola di pensiero come il lungotermismo. Lasciamo perdere questi aspetti – che squalificano però in partenza il personaggio – e concentriamoci sulla sua definizione.
Stando alla tesi di Bostrom, non basta quindi aver di gran lunga superato gli umani in singoli ambiti definiti come il calcolo o gli scacchi (abilità già possedute dalle cosiddette narrow AI: le intelligenze artificiali semplici che possono svolgere un solo compito per volta), ma non è nemmeno sufficiente essere in grado di svolgere molteplici compiti come fa ChatGPT.
Prima di tutto perché – per quanto spesso considerato “generale” – il sistema di OpenAI è quasi esclusivamente in grado di prevedere quale parola abbia statisticamente la migliore probabilità di essere coerente con quella che l’ha preceduta. E in secondo luogo perché – nonostante i risultati spesso sorprendenti – non è assolutamente in grado di “superare di gran lunga le migliori attuali menti umane”: è semmai più rapido, ma afflitto da moltissimi limiti.
Anche la definizione di Gubrud ci conduce alla stessa conclusione: l’intelligenza artificiale basata su deep learning non può acquisire una conoscenza generale e tanto meno può manipolarla e usarla per ragionare, essendo completamente priva – come riconoscono tutti gli scienziati informatici – di ogni capacità di astrazione e generalizzazione della conoscenza.
Tutto ciò che fa è scovare correlazioni statistiche in un mare di dati, dando a esse una forma che a noi – nel caso delle intelligenze artificiali che creano testi o immagini – appare simile al prodotto dell’intelligenza umana, ma che in realtà non ha nulla a che fare con quelle che sono le caratteristiche distintive della nostra intelligenza.
Perché ‘intelligenza artificiale generale è un’illusione
Il deep learning può sicuramente ancora progredire, ma soltanto da un punto di vista quantitativo (più dati, più potere di calcolo, reti neurali ancora più grandi). Per raggiungere la AGI servirebbe però uno scarto qualitativo, di cui ancora non c’è nemmeno l’ombra. In poche parole, al momento l’intelligenza artificiale generale è soltanto un’idea: una sorta di Sacro Graal tecnologico che tutti inseguono, ma nessuno sa se sarà mai davvero raggiungibile e nemmeno quale sia la strada da seguire per arrivare a conquistare questo fantascientifico traguardo.
Sono aspetti che vengono da anni sottolineati da alcuni dei massimi esperti del settore: dal filosofo italiano Luciano Floridi (che già nel 2016 smontò questa tesi con argomenti ancora oggi del tutto validi) allo scienziato informatico Gary Marcus, secondo cui il deep learning – che è alla base di tutto ciò che oggi chiamiamo intelligenza artificiale – non può portarci all’intelligenza di tipo umano.
Come ha scritto James Bridle, artista con una formazione in Informatica e in Scienze Cognitive (e autore di un saggio fondamentale come Nuova Età Oscura), “ChatGPT è intrinsecamente stupido: ha letto la maggior parte del web e sa come dovrebbe suonare il linguaggio umano, ma non ha alcuna relazione con la realtà. […] È molto bravo a produrre ciò che suona come se avesse senso, e soprattutto a produrre cliché e banalità, ma è incapace di relazionarsi in maniera significativa al mondo per ciò che è. Diffidate di chiunque vi dica che questo sia un’eco, anche solo un’approssimazione, di una vera intelligenza”.
Insomma, abbiamo creato una tecnologia – avanzatissima e sorprendente – che è in grado di simulare per via informatica e statistica alcuni aspetti dell’intelligenza umana. E adesso diamo per scontato che questa stessa simulazione dovrebbe a un certo punto, inevitabilmente, trasformarsi in una vera forma di intelligenza.
Tutto ciò, ovviamente, non significa escludere la possibilità che un domani – non si sa quanto lontano – una vera forma di intelligenza artificiale generale emerga. Nulla si può escludere a priori. Quello che invece è importante sottolineare è che al momento tutto ciò non è nemmeno ancora in vista, come non è in vista nemmeno il necessario breakthrough tecnologico che potrebbe portarci a questa conquista. Come disse lo scienziato informatico Andrew Ng (ex responsabile di Google Brain), “preoccuparsi dell’intelligenza artificiale generale è come preoccuparsi del sovrappopolamento di Marte prima ancora di averci messo piede”.
La ragione per cui lo storytelling dell’intelligenza artificiale generale ha preso così tanto piede è che dietro di esso ci sono enormi interessi economici. Per uno scienziato informatico come il premio Nobel Demis Hassabis – fondatore di DeepMind, la cui missione, per statuto, è la creazione della AGI – ci sono imprenditori come Sam Altman, Elon Musk, Satya Nadella e innumerevoli altri, per i quali l’intelligenza artificiale generale rappresenta soltanto un dispositivo narrativo utile a perseguire i loro obiettivi privati.
Far credere che la AGI sia dietro l’angolo è infatti fondamentale per convincere gli investitori a continuare a finanziare le imprese del settore, permettendo di coprire le immense perdite dell’intelligenza artificiale in stile ChatGPT. Sostenere di essere a un passo dal creare qualcosa di incredibilmente potente è inoltre molto utile da un punto di vista politico, perché consente a Musk, Altman & co. di avere voce in capitolo e di influenzare le decisioni dei legislatori, che si ritrovano così a pendere dalle labbra di imprenditori che perseguono esclusivamente i loro interessi politici (come visto soprattutto nel caso di Elon Musk e dell’ex premier britannico Rishi Sunak).
Soprattutto, la AGI rappresenta una potentissima arma di distrazione di massa, che ci fa concentrare sull’esoterico e fantascientifico avvento di una potentissima superintelligenza artificiale, distraendoci dai veri e concreti rischi portati da questa tecnologia: impatto sul mondo del lavoro, sorveglianza, discriminazioni, allucinazioni, deresponsabilizzazione e altro ancora. Tutti temi che i colossi della Silicon Valley vogliono a ogni costo evitare, perché mostrano i punti deboli di questa tecnologia e potrebbero far aumentare le pressioni affinché venga regolamentata e limitata nei suoi campi d’utilizzo.
Per tutte queste ragioni, quando parla dell’intelligenza artificiale generale come di una prospettiva concreta – dando fiato a chi sostiene che il suo avvento sia dietro l’angolo – il mondo dell’informazione non sta facendo un favore ai lettori. Sta invece svolgendo il lavoro di ufficio stampa dei colossi tech e dei loro interessi privati.
