algoritmo pregiudizio andrea daniele signorelli

Il pregiudizio dell’algoritmo

Pubblicato in origine su La Stampa nel dicembre 2017

Rivoluzione Artificiale (ed. Informant, 2017) è acquistabile su Amazon in formato ebook (3,99 €) e cartaceo

“Se inserisci spazzatura, uscirà spazzatura”, recita un modo di dire in uso tra gli scienziati informatici. Il significato è molto semplice: la qualità dei risultati ottenuti da un algoritmo (compresi quelli alla base delle intelligenze artificiali ) dipende totalmente dalla bontà dei dati utilizzati per addestrarlo, essendo questi la materia grezza che permette alle macchine di trarre le loro conclusioni e previsioni. Se i dati sono di pessima qualità, insomma, non ci si può aspettare che un algoritmo svolga un buon lavoro. E se questi dati sono viziati dai pregiudizi umani, ecco che la macchina li farà suoi, riportandoli nei risultati ottenuti.

L’esempio più celebre di questo problema – che secondo il capo del dipartimento dell’intelligenza artificiale di Google, John Giannandrea, è il più importante ostacolo da superare in questo settore – riguarda il chatbot Tay. Nella sua breve vita, questo software (progettato da Microsoft) ha impersonato un utente di Twitter e ha iniziato a immagazzinare dati grazie alle interazioni con gli utenti dei social network. Come prevedibile, si sono scatenati i troll, che hanno iniziato a comunicare con Tay dandole in pasto una miriade di opinioni razziste, omofobe e quant’altro. Risultato? Nel giro di 24 ore, Tay è diventata la prima intelligenza artificiale nazista della storia . Prima di venir chiusa da Microsoft, è riuscita infatti a twittare il suo supporto a Hitler.

Quello di Tay è un caso particolare: non c’era modo di controllare e filtrare i dati che le venivano forniti. Problemi molto simili, però, si sono verificati anche in occasioni nelle quali sono stati proprio gli scienziati a istruire l’algoritmo. Nell’ottobre di quest’anno, si è scoperto che il software di Google chiamatoCloud Natural Language API – che ha il compito di “rivelare la struttura e il significato dei testi” – giudicava negativamente alcune affermazioni relative alla religiosità e alla sessualità, come “sono ebreo” o “sono gay”.

Com’è possibile? Il problema è che tutti gli algoritmi di questo tipo sono allenati utilizzando i testi reperiti nei libri o negli articoli (che rappresentano un materiale dal quale è molto facile estrarre i dati). Di conseguenza, spesso e volentieri non fanno che riproporre i pregiudizi contenuti nel materiale umano che viene usato per il loro addestramento. La ricercatrice Amanda Levendowski, della New York University, ha individuato una delle ragioni per cui spesso i testi analizzati dalle intelligenze artificiali sono così viziati dai pregiudizi: il diritto d’autore, che costringe i ricercatori a utilizzare vecchi testi di dominio pubblico.

“La maggior parte delle opere oggi di dominio pubblico sono state pubblicate prima degli anni ’20”, ha spiegato Levendowski a Motherboard USA. “Un database che faccia affidamento solo su questi lavori non potrà che riflettere i pregiudizi del tempo; e lo stesso farà il sistema di intelligenza artificiale allenato usando questi dati”.

Per tutte queste ragioni, non c’è da dare troppo credito alle intelligenze artificiali che promettono di riconoscere un criminale dal volto , visto che le previsioni di questi algoritmi potrebbero benissimo replicare pregiudizi tutti umani sui migranti o sulle persone di colore. Se le forze dell’ordine utilizzassero davvero questi algoritmi, sarebbe fin troppo facile ritrovarsi alle prese con un’intelligenza artificiale-poliziotto più reazionaria del Giustiziere della Notte.

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...