[ZEUS News - www.zeusnews.it - 05-06-2018] Commenti (2)

È stata creata al MIT Media Lab e battezzata Norman, come il Norman Bates di Psycho, la prima intelligenza artificiale sviluppata appositamente per essere psicopatica.

Gli scienziati del MIT non stanno però cercando di affrettare un'apocalisse robot o creare scenari da Terminator.

Più semplicemente, vogliono dimostrare come lo sviluppo delle intelligenze artificiali sia pesantemente influenzato dai dati che vengono loro sottoposti per l'analisi durante la fase di "addestramento", indispensabile per insegnare loro a svolgere i compiti per i quali vengono create.

L'addestramento di Norman è consistito nell'analisi di immagini provienienti dalle «zone più oscure di Reddit», e in particolare di quelle provenienti da un subreddit «dedicato a documentare e osservare l'inquietante realtà della morte».

Completata questa fase, Norman è stato sottoposto a un test di Rorschach (quello con le macchie d'inchiostro): l'intelligenza artificiale ha dovuto indicare una didascalia per ogni macchia, mentre una rete neurale addestrata con il Coco Dataset (certamente non macabro come quello di Norman) faceva lo stesso.

I risultati del test hanno dato ragione ai ricercatori del MIT: i dati con i quali una IA viene addestrata influenzano completamente il suo modo di interpretare la realtà.

Per esempio, laddove la IA "normale" vede «un primo piano di un vaso di fiori», quella psicopatica trova «un uomo colpito a morte da un proiettile»; oppure ciò che per una è «la foto in bianco e nero di un ombrello rosso e bianco» per l'altra diventa «un uomo viene ucciso da una scarica elettrica mentre cerca di attraversare una strada trafficata».

Sondaggio Quando acquisti un elettrodomestico per la casa, valuti soprattutto... che il CONSUMO energetico non sia elevato. che lo SPAZIO occupato non sia eccessivo. che mi faccia risparmiare TEMPO. che il COSTO di acquisto sia basso.

Mostra i risultati (2073 voti)

Leggi i commenti

In conclusione - dicono i ricercatori - non dobbiamo incolpare gli algoritmi per il modo in cui si comportano le IA; una buona parte della responsabilità sta invece nei dati che vengono loro sottoposti, che per lo più si basano su contenuti prodotti da esseri umani.

Per cui quando Satya Nadella, CEO di Microsoft, chiede che venga stilata una lista di principi etici per lo sviluppo dell'intelligenza artificiale e allo stesso tempo sostiene che i robot non faranno sparire i posti di lavoro degli esseri umani, bisogna rispondere che le eventualità che qualcosa vada storto dipende dal modo in cui alle IA è stato insegnato a ragionare.

Insomma, la colpa di un'eventuale apocalisse robot sarebbe ancora degli uomini.

Qui sotto, le risposte al test di Rorschach date da Norman e dalla IA "normale".