Condividi Facebook Twitter

Elon Musk deve ancora dimostrare se può davvero condurre al successo la sua azienda di Tesla, ma c’è una cosa che sicuramente è riuscito a mettere in atto: farci spaventare dall’intelligenza artificiale. Lo ripete in ogni occasione: «Questa tecnologia è il più grande pericolo per l’umanità, più pericolosa persino delle armi nucleari».

Elon Musk offre citazioni memorabili, i media hanno titoli allettanti di cui ha bisogno, i lettori sono costantemente spaventati. L’allarmismo del fondatore di Tesla è fastidioso per molti dei ricercatori che hanno studiato l’intelligenza artificiale per decenni. Toby Walsh professore australiano recentemente sulla rivista Wired ha scritto:

«Sembra che non si possa aprire un giornale senza che Elon Musk preveda che l’intelligenza artificiale debba essere regolata prima che inizi la Terza Guerra Mondiale. Non penso che dobbiamo temere ciò che le persone come me chiama singolarità il momento in cui le macchine iniziano a evolversi da sole».

Eppure, Elon Musk ha ragione su una cosa: la ricerca sull’intelligenza artificiale ha bisogno di essere regolata, non perché i robot prenderebbero altrimenti il potere, ma perché le aziende e i governi si affidano troppo alla presunta intelligenza delle macchine. Il Terminator rimarrà fantascientifico, ma senza regole sarà una distopica minaccia. I seguenti esempi mostrano che il progresso tecnologico può anche ritorcersi contro.

Guarda chi sta parlando

Sundar Pichai il CEO di Google all’inizio dello scorso mese in una conferenza ha condiviso una conversazione telefonica registrata. Ciò che i partecipanti sentivano alla conferenza era una donna che prenotava un tavolo in un ristorante. O almeno sembrava una donna. E, per quanto banale potesse apparire l’interazione, hanno applaudito. Perché? Perché quello che per la prima volta il pubblico aveva appena visto, era l’intelligenza artificiale imitare il discorso umano in modo così perfetto che il personale del ristorante all’altro capo della linea non si era accorto che stava parlando con una macchina.

Le reazioni sui social media si sono divise tra eccitazione e sgomento. Zeynep Tufekci sociologo, su Twitter ha scritto: «Questo è orribile e quindi ovviamente sbagliato». Sundar Pichai ha insistito più volte sul fatto che la chiamata era avvenuta esattamente come il pubblico l’aveva sentita, ma da allora sono stati sollevati dubbi sul fatto che Google abbia un po’ modificato la registrazione. E’ poco importante. Più rilevante è il dibattito sulla telefonata avviata dalla chiamata e sulla questione più ampia che essa pone. L’intelligenza artificiale deve identificarsi quando comunica direttamente con le persone?

La domanda va ben oltre l’Assistente Google, che può fissare appuntamenti per noi. Che cosa succede quando i truffatori utilizzano software che alla rinfusa chiama automaticamente i pensionati? I bot dei social network devono essere presentati in modo tale che gli utenti comprendano che stanno chattando con un computer? I ricercatori dell’intelligenza artificiale come Walsh, richiedono che i sistemi autonomi siano progettati in modo tale da non poter essere confusi con gli umani.

Le aziende tecnologiche impiegano decine di migliaia di persone per rimuovere lo sporco dalla rete, fanno clic su immagini e video inquietanti, individuano ed eliminano le raffigurazioni di estrema violenza. Nei paesi emergenti e in via di sviluppo sono impiegati aiutanti a basso costo per risparmiare agli utenti di Facebook e YouTube la vista di scene terrificanti, a rischio della propria salute mentale. Inoltre, alimentano banche dati per sviluppare software che un giorno potrebbe rendere obsoleto il loro lavoro. Mark Zuckerberg parla costantemente di “strumenti d’intelligenza artificiale” che in futuro Facebook dovrebbe tenere in considerazione. Nel corso della sua audizione dinanzi al Congresso degli Stati Uniti, per trenta volte ha fatto riferimento all’intelligenza artificiale che dovrebbe cancellare autonomamente i contenuti che violano gli standard della comunità.

L’intelligenza artificiale può effettivamente rimuovere la propaganda terroristica e il materiale pedopornografico. La decisione, in questi casi, è chiara ma non è sempre così, anche gli avvocati non sono d’accordo sul confine tra libertà di espressione e censura. Numerosi esempi negli ultimi anni hanno ripetutamente dimostrato che non è una buona idea lasciare che siano gli algoritmi a decidere: “Non siamo stati noi, è stata la macchina”, non deve essere permesso che diventi una scusa per Facebook o YouTube se un altro video di satira è stato bloccato perché l’intelligenza artificiale non è in grado di riconoscere il sarcasmo.

Attenzione alla “Infocalypse”

BuzzFeed lo scorso aprile ha pubblicato un video in cui un uomo ha avvertito di video falsi. Assomiglia a Barack Obama e parla come Obama. Ma lui non è Obama. In effetti, è l’attore Jordan Peele. Il video è un cosiddetto deepfake.

Le reti neurali artificiali, che sono modellate sulle reti naturali delle cellule nervose, ora possono forgiare registrazioni audio e video così perfette che difficilmente sono distinte dall’originale. Ora anche l’utente medio senza particolari abilità tecniche con applicazioni come Fakeapp, può creare video falsi. Molti potrebbero trovarlo divertente quando il falso Obama insulta con delle volgarità il suo successore Donald Trump. La situazione diventa meno divertente quando un video manipolato improvvisamente circola su Twitter in cui si vede Kim Jong-un annunciare che ha appena lanciato un missile nucleare contro gli Stati Uniti. I consiglieri di Trump hanno abbastanza tempo da dirgli dell’esistenza dei deepfakes prima che possa premere il pulsante rosso?

La propaganda con l’utilizzo dei video falsi è già una realtà: recentemente un partito belga ha pubblicato sui social media un video di Trump in cui il presidente avrebbe chiesto al Belgio di ritirarsi dall’accordo sul clima di Parigi. Gli esperti mettono in guardia contro la futura disinformazione. Aviv Ovadya, capo tecnico del Center for Social Media Responsibility presso l’Università del Michigan (aveva già previsto l’alluvione delle notizie false nella campagna elettorale americana), vede l’umanità dirigersi verso la “Infocalypse”. Le notizie false potrebbero inondare Internet. I video per lungo tempo erano stati considerati a prova di falsificazione. Ora dobbiamo imparare a diffidare dei nostri occhi e delle nostre orecchie.

Ordinare su Amazon è conveniente, ma lavorare con Amazon è spesso il contrario, nei centri logistici dell’azienda ogni mossa è filmata. La sorveglianza potrebbe diventare ancora più totale in futuro. Amazon all’inizio dell’anno ha ottenuto due brevetti per un braccialetto che tiene traccia di tutti i movimenti dei dipendenti. Grazie agli ultrasuoni e alla tecnologia radio, il bracciale sa sempre, dove sono le mani di chi lo indossa. Le vibrazioni potrebbero segnalare al dipendente che sta imballando la merce sbagliata.

Amazon nega l’uso del braccialetto per monitorare i dipendenti, afferma che è stato progettato per semplificare i processi di lavoro dei dipendenti della logistica. Il potenziale di abuso rimane enorme, anche se credi e ti fidi di Amazon. Milioni di persone nei mercati emergenti stanno lavorando duramente per costruire smartphone che non potranno mai permettersi, a loro sono estranei i sindacati e i diritti dei lavoratori. I loro datori di lavoro avrebbero senza dubbio trovato pratici i braccialetti di sorveglianza, ciò degraderebbe ulteriormente le persone in robot.

In conclusione un esempio attuale dimostra che paesi come la Cina ha poche inibizioni in materia di sorveglianza, una scuola della città di Hangzhou, nella Cina orientale, sta testando un sistema di riconoscimento facciale: tre telecamere osservano gli studenti e interpretano le loro espressioni facciali. Se il software ritiene di aver rilevato un bambino disattento, informa l’insegnante. Uno studente ha detto: «Giacché le telecamere sono state installate in classe, non oso più essere distratto, mi sento osservato in continuazione da occhi spaventosi».