Condividi Facebook Twitter

Jigsaw, una società di proprietà della società madre di Google Alphabet, ha svelato Assembler, strumento pensato per aiutare i giornalisti ad individuare immagini false su Internet. Jigsaw ha collaborato con Google Research e altri accademici per creare la piattaforma.

Jared Cohen, CEO e fondatore di Jigsaw in un post sul blog ha scritto:

«I lavori sulla piattaforma sono iniziati nel 2016, insieme a Google Research e ai partner accademici, abbiamo sviluppato una piattaforma sperimentale chiamata Assembler per testare come la tecnologia può aiutare i verificatori di fatti e i giornalisti a identificare e analizzare i media manipolati».

La società ha annunciato la piattaforma anche sulla sua pubblicazione di riferimento chiamata The Current. Jared Cohen, ha definito Assembler una “piattaforma sperimentale nella fase iniziale”, il che significa che non è ancora disponibile per tutti. La società ha lavorato con varie piattaforme di controllo dei fatti, tra cui Agence France-Presse, Animal Politico, Code for Africa, Les Décodeurs du Monde e Rappler per testare come Assembler può essere utilizzato dai giornalisti e nelle redazioni.

Jared Cohen nel post inoltre spiega:

«Assembler anche se è presentato come un unico strumento, in realtà è composto dalla fusione di vari “rilevatori di manipolazione dell’immagine”, che possono individuare ogni tipo di specifica manipolazione. Esperti dell’Università del Maryland, dell’Università Federico II di Napoli e dell’Università della California, Berkeley hanno contribuito a realizzare modelli di rilevamento».

Assembler ha sette rilevatori che lavorano su un’immagine per cercare tipi specifici di manipolazione, da Photoshop alla Rete generativa avversaria (GAN) che sono utilizzati nella creazione di deepfake.

Jigsaw ha anche costruito due rivelatori propri da utilizzare in Assembler. Jared Cohen ha descritto i due strumenti in modo più dettagliato nel post:

«Il primo è il rivelatore StyleGAN per affrontare in modo specifico i deepfake, questo rilevatore utilizza l’apprendimento automatico per distinguere immagini di persone reali da immagini di deepfake prodotte dall’architettura di deepfake StyleGAN (usa l’apprendimento automatico per generare e personalizzare immagini realistiche).

Il secondo è un modello che è stato addestrato utilizzando segnali provenienti da più rivelatori che cercano contemporaneamente varie forme di manipolazione. Il modello poiché è in grado di identificare più tipi di manipolazione delle immagini, i risultati sono, in media, più accurati che qualsiasi singolo rivelatore».