Il Ministero della Difesa degli Stati Uniti ha messo a punto un software di Intelligenza Artificiale in grado di riconoscere i video falsi creati con altri algoritmi di AI. Apparsi come strumenti per la pornografia, strumenti come DeepFake permettono di far dire qualsiasi cosa a chiunque, e questo ha sollevato subito preoccupazioni piuttosto serie. Anche perché per creare un falso basta il PC di casa.

Preoccupazioni che hanno spinto i militari USA (ma anche di altri paesi) ad attivarsi velocemente per contrastare il fenomeno. Ci si preoccupa, infatti, che un video artefatto possa innescare reazioni incontrollabili, anche perché potrebbe diventare difficile negare l'apparente evidenza. Siamo, in altre parole, di fronte a una postverità amplificata, a una nuova e potente interpretazione della fake news.

Ecco perché il Ministero (Department of Defense) si è rivolto alla DARPA (Defense Advanced Research Projects Agency) per trovare una soluzione. La risposta è Media Forensics, una collezione di strumenti digitali che, almeno per ora, può svelare se un video è originale oppure manipolato.

Le tecniche utilizzate sono molteplici ma tutte mirate a individuare microscopiche variazioni generate dagli algoritmi. Un dettaglio utile, per esempio, è che nei falsi video i protagonisti raramente sbattono le palpebre; e quando lo fanno il movimento è innaturale. "Questo accade perché gli algoritmi sono addestrati usando fotografie, nelle quali tendenzialmente una persona ha gli occhi aperti", scrive Will Knight su MIT Technology Review.

Si cercano quindi piccoli segnali che suggeriscano la non naturalità del video, considerando che "almeno per ora, per deepfakes sono difficili da imitare", come ha confermato Hany Farid della Dartmouth University. Una dichiarazione che lascia intendere come questa continua rincorsa sia destinata a durare molto a lungo.

Miglioramento degli algoritmi, miglioramento delle contromisure, palla al centro e si riparte. Un infinito gioco di guardie e ladri, come quello che vediamo da decenni in ambito di sicurezza IT; e altrettanto pericoloso. Anche per questo alcuni dettagli di Media Forensics sono riservati, nella speranza che questo rallenti gli sviluppatori degli algoritmi deepfakes. "Abbiamo un piccolo vantaggio sui falsari, per ora, e vogliamo tenercelo", spiega il professor Siwei Lyu (Università di Albany, New York).