Qual è il posto della donna nella società contemporanea? Secondo un software di riconoscimento delle immagini in sviluppo presso l'Università della Virginia probabilmente è in cucina. Ma l'IA non è diventata sessista a seguito di riflessioni "personali", bensì guardando le immagini che i suoi sviluppatori le hanno fornito, immagini che provengono dalla nostra cultura.

Uno sviluppo inatteso che deve farci riflettere sugli stereotipi, anche inconsci, che ancora alimentiamo, condividiamo e diffondiamo attraverso la nostra cultura e la nostra società.

Su questo infatti si è interrogato Vicente Ordóñez, lo stupito docente universitario che si è accorto di questo insolito modello comportamentale nel software di riconoscimento delle immagini su cui stava lavorando. Ordóñez allora, in collaborazione con altri docenti, ha controllato due set di immagini usate per l'addestramento del software, con risultati sorprendenti.

Le due collezioni, di cui una supportata anche da Facebook e Microsoft, hanno evidenziato di contenere un pregiudizio di genere prevedibile nella rappresentazione di attività come la cucina e lo sport, mostrando immagini in cui le donne sono dedite soprattutto allo svolgimento di attività in cucina e acquisti, mentre gli uomini si dilettano in sport e altre attività affini.

La cosa preoccupante è che in realtà il software non si è limitato a riprodurre tali pregiudizi, ma li ha addirittura amplificati, rafforzandoli e abbinando così immagini di donne a immagini di cucine più volte di quanto accada in percentuale nei database utilizzati per la sua "istruzione". Secondo Mark Yatskar, ricercatore presso l'Allen Institute for Artificial Intelligence, questo fenomeno infatti può intervenire rafforzando altri pregiudizi sociali presenti nei dati. Man mano che programmi di apprendimento automatico sempre più sofisticati si diffondo, queste distorsioni sono destinate a diventare sempre più rilevanti.

‎Secondo i ricercatori, un modo per neutralizzare questo fenomeno di amplificazione consisterebbe nel forzare il software a riflettere sui dati utilizzati durante il proprio apprendimento. Questo però richiederebbe ancora un intervento umano da parte di un ricercatore, che dovrebbe selezionare ciò che vuole correggere, continuando così a utilizzare pregiudizi di genere.

Al momento non c'è una soluzione semplice, ma c'è il problema e ci sono i pregiudizi che la nostra società e la nostra cultura alimentano. La sensazione dunque è che il problema e la sua soluzione non siano di natura tecnica, ma culturale.

Macchine e intelligenze artificiali, almeno a questo stadio di sviluppo, non sono autonome rispetto alle nostre idee e al nostro modo di pensare. Se un salto qualitativo deve essere fatto dunque riguarda l'essere umano e non il software da lui realizzato. Il resto verrà di conseguenza.‎