L a Brexit e la vittoria di Trump hanno accompagnato il dibattito sulla cosiddetta post-truth society, l’idea di una società in cui il concetto di verità condivisa – l’insieme di eventi e personaggi che tutti consideriamo esistenti, al di là delle nostre opinioni su di loro – è definitivamente scomparso. O meglio, deformato per sempre: dai social network e dai loro algoritmi, per esempio, in grado di creare e rinforzare le filter bubble in cui un’emergenza politica può esistere o scomparire; un politico essere un eroe o un soggetto pericoloso per la Repubblica nel giro di poche ore, a volte minuti. I social network, infatti, confezionano un piccolo mondo personalizzato per ciascun utente, un “feed” che contiene notizie e personaggi che l’algoritmo ritiene possano piacerci. Così, se abbiamo messo “mi piace” su una pagina di destra, per esempio, siti come Facebook tendono a mostrarci altri contenuti simili, favorendo, com’è successo nelle scorse elezioni, una deriva estremista.

Elemento essenziale di queste bolle sono le fake news (quelle che in italiano vengono anche chiamate bufale), qui aggiornate secondo i voleri dell’algoritmo, e quindi scritte per fare da esca a un certo pubblico. Nei social sono solitamente composte da un titolo forte e da un’immagine d’accompagnamento, che può anche essere falsa. Prendiamo per esempio questa foto di Hillary Clinton con un microfono addosso, subito diventata un piccolo scandalo circa un ipotetico “macchinario contro la tosse” atto a mascherare le sue pessime condizioni di salute durante la campagna elettorale.

In realtà il dispositivo era un semplice microfono, e in questo caso la bufala non ha nemmeno avuto bisogno di Photoshop per diffondersi: proviamo però a immaginare cosa potrebbe succedere nella prossima campagna elettorale, quando le paranoiche supposizioni dell’alt-right americana verranno perfezionate da nuove tecnologie.

I social network confezionano un piccolo mondo personalizzato per ciascun utente, un feed che contiene notizie e personaggi che l’algoritmo ritiene possano piacerci.

In questo video, prodotto dal podcast Radiolab, vediamo i primi passi di una tecnologia destinata a fare grandi progressi e a dare a qualunque utente della rete la possibilità di creare un video in cui chiunque può essere visto e sentito dire qualsiasi cosa. Il secondo esempio, dotato di qualità video migliore, è un esperimento dell’University of Washington in cui da un audio reale viene generato il rispettivo video. Una piccola startup canadese, intanto, si dice in grado di “imitare la voce di qualunque persona”, e anche Adobe ha presentato un programma che si presenta come “il Photoshop per la voce”, mentre innumerevoli aziende stanno investendo per migliorare anche la componente video. È ormai possibile, insomma, creare reperti audio-video credibili usando un computer e un campione (sample) della voce della persona che vogliamo incastrare.

Le conseguenze di tutto questo per la nostra “realtà condivisa” sarebbero letali. Sempre nel pieno della campagna elettorale statunitense venne portata alla luce una registrazione audio rubata a Donald Trump in cui, anni prima, parlava in modo estremamente volgare delle donne. Qualche mese fa, nel pieno dello scandalo Weinstein e del movimento #metoo, il Presidente è tornato sull’argomento, smentendo la veridicità dell’audio. “Quello non sono io”, ha detto. Questo rifiuto totale di una prova molto solida è – ad oggi – poco credibile, poiché il video è reale, come ha confessato il Presidente stesso a suo tempo; ma nel futuro a breve termine potrebbe diventare la prassi, la reazione standard, anche legittima, a un mondo in cui chiunque può creare audio-video incriminanti con un banale software.

Oltre la propaganda

Le applicazioni di questa nuova tecnologia non sono solo politiche. Lo scorso gennaio Samantha Cole di Motherboard ha denunciato il proliferare su Reddit di filmati pornografici basati sullo stesso principio: tutto è cominciato dall’utente “deepfakes”, il primo a pubblicare sul sito clip del genere usando un programma intitolato face2face con cui riesce a sostituire al volto delle attrici pornografiche quello di donne famose.

In poche settimane “deepfakes” è diventato sinonimo di questo nuovo genere di contenuto, e siccome Reddit è un grande sito diviso per sezioni tematiche, ne è nata una a sua nome (che è stata nel frattempo chiusa dagli amministratori), mentre sempre più persone hanno cominciato a usare il programma per creare e modificare video pornografici usando foto di amiche e conoscenti. Il fenomeno è uscito dai confini di Reddit approdando nei siti porno e costringendo Pornhub a rimuovere tutti i video di questo tipo in quanto materiale realizzato “senza consenso”.

Ripercorrendo questi ultimi attacchi al nostro senso di realtà, torna in mente il tweet con cui l’artista inglese James Bridle ha salutato l’inizio del 2018, prevedendo “il completo collasso della realtà condivisa, che presenta già brecce in molti punti. La realtà non è mai stata stabile o universale ma la sua instabilità ora è visibile, e incontrovertibile”. Quella di Bridle è una reazione a quanto abbiamo descritto finora ma anche a una sua storia personale. Lo scorso novembre ha pubblicato un post intitolato “Qualcosa non va con internet” con cui metteva in luce una serie di canali della piattaforma “YouTube Kids” – la parte dedicata ai bambini del sito e quindi più “protetta” – in cui comparivano migliaia di video agghiaccianti, violenti o quantomeno inadeguati al pubblico di riferimento.

Nel futuro non sarà più necessario esistere per esistere, e le conseguenze di questa rivoluzione sono già visibili.

Alcuni dei video a cui faceva riferimento l’autore sono stati rimossi nel corso della purga messa in atto da YouTube in seguito alla pubblicazione del pezzo – le cui polemiche risuonano ancora oggi. Lo scandalo è cominciato con l’algoritmo di YouTube, che nell’ultimo anno e mezzo ha rivoluzionato il funzionamento e il mercato stesso del sito, scovando trend e argomenti di particolare successo e interesse pubblicitario. Si è così creato un mercato per video realizzati secondo le preferenze dell’algoritmo: ecco quindi il grande filone di video in cui persone adulte si vestono da Elsa (dal film Disney Frozen) e da Joker di Batman, e giocano, si abbracciano, danzano. Non solo: li si vedono mentre usano siringhe, si toccano e si comportano in modo davvero ambiguo. Uno di questi video, ora rimosso, aveva una presentazione colorata e innocua; il suo titolo, però, era “BURIED ALIVE Outdoor Playground Finger Family Song Nursery Rhymes Animation Education Learning Video”. Ovvero una serie di parole chiave auto-generate secondo i voleri dell’algoritmo (“Filastrocche Animazione Educazione”) precedute da riferimenti violenti e assurdi (“SEPOLTO VIVO”).

A riguardare tutti questi video, infatti, viene quasi spontaneo domandarsi se siano stati realizzati da esseri umani e non da algoritmi a cui sono stati serviti i dati sbagliati. “Questa è la produzione di contenuti nell’epoca dello scavo algoritmico” ha scritto Bridle, “anche se sei un umano, finisci per imitare la macchina”.

Nel futuro non sarà più necessario esistere per esistere, e le conseguenze di questa rivoluzione sono già visibili. Recentemente il magazine Business of Fashion ha dedicato un profilo a Miquela Sousa, nota su Instagram come @lilmiquela, un’influencer diciannovenne a cui piace la moda e il bel vivere che però ha una caratteristica unica: non esiste, il suo volto è generato al computer mentre tutto ciò che la circonda, soprattutto i vestiti di marca, sono veri. A oggi Sousa può essere considerato un esperimento interessante nella percezione dell’immagine femminile in un mondo così superficiale; ma è anche una delle possibili manifestazioni di una tendenza, un profondo sciame sismico che sta interessando da anni la nostra realtà. O quello che ne rimane.

Come hanno scritto i due studiosi Henry J. Farrell e Rick Perlstein in un preoccupato editoriale pubblicato dal New York Times sull’argomento, “la Democrazia dà per scontato che i suoi cittadini condividano la stessa realtà. Stiamo per scoprire se la democrazia può essere salvata quando quell’assunto non sta più in piedi”.

Courtesy: Camille Jodoin-Eng.