I ricercatori dell’Università di Princeton hanno dimostrato che le intelligenze artificiali copiano i pregiudizi umani quando imparano la lingua

Nomi femminili associati più al concetto di famiglia che a quello di carriera rispetto a nomi maschili. Esattamente come gli esseri umani, le intelligenze artificiali programmate con algoritmi per l’apprendimento del linguaggio possono essere sessiste e razziste. Questo è ciò che sostiene un’équipe di ricercatori dell’Università di Princeton in uno studio pubblicato sulla rivista Science: le macchine replicano i nostri stereotipi e pregiudizi linguistici.

Ormai diversi algoritmi di machine learning sono in grado di svolgere compiti e attività al pari dell’intelligenza umana. Anzi, talvolta pure meglio: scrivono codici, giocano a poker o a scacchi, qualcuno sta anche cercando di utilizzarli per la cura del cancro. Eppure potremmo dire che la mela non cade mai troppo lontana dall’albero: le intelligenze artificiali imparano da noi, dal materiale che gli viene fornito, e, se ci sono pregiudizi insiti, li riflettono nelle loro elaborazioni.

“La ragione per cui negli ultimi tempi stiamo facendo passi in avanti così in fretta è perché siamo diventati molto bravi a mimare l’intelligenza umana e a metterla dentro le intelligenze artificiali”, spiega Joanna Bryson, scienziato informatico a Princeton e alla Bath University e tra gli autori dello studio. “Oggi stiamo ottenendo migliori risultati degli esseri umani, specie in alcune aree come quella della lettura labiale”.

Dopo aver addestrato il popolare algoritmo GloVe per l’apprendimento del linguaggio sottoponendogli circa 840 miliardi di parole pescate dai testi presenti nel web, i ricercatori hanno applicato un particolare test, chiamato Implicit Association Test (Iat), per determinare se nel processo di apprendimento delle macchine fossero presenti dei bias, cioè dei pregiudizi o non obiettività.

L’Iat è un test che viene utilizzato in psicologia per studiare i tratti umani: ai volontari viene chiesto di fare degli abbinamenti tra un concetto e le parole che appaiono sullo schermo di un computer; oltre all’abbinamento in sé viene valutato anche il tempo impiegato dalle persone per stabilire l’associazione.

Lo stesso test adattato per l’algoritmo Glove delle macchine ha rivelato agli informatici di Princeton che i pregiudizi registrati nel linguaggio umano si trasportano nelle intelligenze artificiali.

“Gruppi di nomi correlati ad americani di origine europea risultano essere associati più facilmente a termini piacevoli piuttosto che a quelli sgradevoli, rispetto a gruppi di nomi che si riferiscono a persone afroamericane” precisano gli autori della ricerca.

“I nostri risultati suggeriscono che se si costruisce un sistema intelligente che impara le proprietà di linguaggio tanto da essere in grado di comprenderlo e riprodurlo, nel processo acquisirà anche associazioni culturali storiche, alcune dei quali possono essere discutibili“.

Ma questo, sostiene Bryson, non deve preoccupare perché quello che si vuole creare con le intelligenze artificiali è un sistema che si sviluppi affianco alla cultura, non un sistema statico congelato in un determinato momento. Un sistema che deve ricevere continui aggiornamenti e riprogrammazioni sulla base di nuovi dati.