Guerre di Rete - una newsletter di notizie cyber

a cura di Carola Frediani

N.60 - 23 febbraio 2020

Oggi si parla di:

- deepfake

- accuse Usa/UK ad hacker russi

- smart speaker

- bracciali per silenziare i microfoni

- Signal

- e altro

DEEPFAKE

Quando il politico lo usa per la sua propaganda

I deepfake - video manipolati con tecniche di intelligenza artificiale che permettono di far dire o fare a delle persone ciò che non hanno mai detto o fatto - hanno sfondato una nuova porta, almeno per quanto riguarda il loro utilizzo.

In India, alle elezioni di febbraio dell’assemblea legislativa di Dehli, il presidente del partito BJP Manoj Tiwari ha diffuso alcuni video in cui critica l’attuale governo locale. In uno di questi c’è lui che parla in inglese. Nell’altro, identico, è sempre lui che però si esprime in haryanvy, un dialetto hindi. Quest’ultima clip era rivolta alla popolazione di lavoratori migranti di Dehli che parlano haryanvy, ed è stata distribuita in 5800 gruppi Whatsapp della regione raggiungendo circa 15 milioni di persone, secondo Vice.



Il punto però è che Tiwari quei discorsi in haryanvy e in inglese non li ha mai fatti e sicuramente non parla quel dialetto. Quei video sono infatti un deepfake. La novità è che sono stati commissionati dallo stesso politico (e realizzati da una società di comunicazione che si occupa della sua campagna) per raggiungere in questo modo specifiche fette della popolazione. Secondo Hindunstantimes, entrambi i video (quelli in inglese e in haryanvy) sarebbero l’alterazione di un video in hindi, in cui l’uomo parlava d’altro.

“I due video sono casi di lip sync”, commenta a Guerre di Rete Giorgio Patrini, fondatore della società Deeptrace che studia proprio il fenomeno dei deepfake. “Il video originale è stato manipolato da un algoritmo in grado di sincronizzare i movimenti labiali con delle tracce di parlato registrate esternamente. L’obiettivo è dare l’impressione che la stessa persona abbia pronunciato il discorso in altre lingue, di cui una è l’inglese. L’audio di per sé non è sintetico, ma è la registrazione di altre persone in altre lingue”.

La società di comunicazione che l’ha creato dice di aver pagato un attore per impersonare il politico che parlava in haryanvi, e poi in inglese, quindi ha usato un algoritmo di sincronizzazione labiale - allenato con video dello stesso Tiwari - per tradurre il suono nei movimenti della faccia dell’uomo.



È solo un modo diverso per fare campagna? Una versione potenziata di un video coi sottotitoli o doppiato? Una brillante seppur sfacciata operazione di marketing? O è una mistificazione e una manipolazione? Di sicuro la questione pone una serie di dubbi etici. Fino a che punto si può falsificare un video di un politico con una tecnologia del genere? Fino a che livello di microtargeting l’uso del deepfake permette di arrivare?

“Una estensione naturale del prendere di mira gruppi linguistici è il microtargeting”, ha scritto su Twitter il professore d’informatica di Princeton Arvind Narayanan. “Se la tecnologia continua a migliorare, un giorno potrebbe sembrare che un candidato parli e si rivolga personalmente a te. O potrebbe essere nascosto: un candidato in una pubblicità mirata potrebbe condividere proprio i tuoi valori, speranze e paure. Una delle limitazioni dei deepfake oggi è che hanno bisogno di avere molti dati sul target per fare il training. Ma il problema scompare se è il target a commissionare il deepfake, perché può fornire dati illimitati. A ben vedere, è sorprendente che ci sia voluto tutto questo tempo [per arrivare a questo tipo di video, ndr]”.



Tuttavia, per ora il 96 per cento dei deepfake sono ancora pornografia non consensuale, cioè sono usati per sostituire il volto di celebrità (ma anche di persone comuni) in filmati a luci rosse, riferisce un report di settembre della società Deeptrace. Che ricorda: mentre i video deepfake non pornografici analizzati su YouTube contengono una maggioranza di soggetti maschili (pensiamo alle celebri compilation come quelle dedicate a Nicholas Cage), “la pornografia deepfake è un fenomeno che colpisce e danneggia esclusivamente le donne”.

Sono anche nati dei siti dedicati esclusivamente alla pornografia deepfake, ricorda ancora il report che analizza l’offerta di mercato, diciamo così. Siccome la creazione di questi video richiede ancora una certa capacità tecnica e un processore grafico potente, ci sono servizi online che realizzano deepfake per altri. Alcuni dei portali esaminati richiedono a un individuo di caricare almeno 250 foto del soggetto target (la vittima), per generare i video richiesti, per cifre anche piuttosto basse (pochi dollari a video).

A livello politico non ci sono stati utilizzi particolarmente rilevanti. Tuttavia molti osservatori temono l’effetto destabilizzante della diffusione di queste tecnologie durante periodi di crisi o in campagne elettorali. E può anche succedere che un video di un politico sia accusato di essere un deepfake. È successo in Gabon, quando a fine 2018 il presidente Ali Bongo, che era stato assente dalla scena pubblica per motivi di salute, per fermare voci incontrollate ha diffuso un suo video. Che però altri hanno trovato “strano” e iniziato a considerare come un fake, alimentando ulteriormente i sospetti sulle condizioni del presidente e favorendo un tentato colpo di Stato. Secondo Deeptrace, le analisi forensi successive non avrebbero trovato segni di manipolazione nel video. Bongo è poi riemerso pubblicamente.

SANDWORM

Usa e UK puntano il dito contro gli hacker dei servizi russi

Lo scorso ottobre una serie di attacchi informatici hanno colpito la Georgia, interrompendo le attività di varie organizzazioni governative e private, e le trasmissioni di due tv nazionali. Ora gli Stati Uniti, con una dichiarazione del Dipartimento di Stato, hanno ufficialmente accusato i servizi segreti militari russi, noti come GRU, e in particolare l’unità 74455 anche nota come il Centro per le Tecnologie speciali (GTsST), di essere l’autore di tali cyberattacchi. “Questa azione - scrive il comunicato - contraddice i tentativi della Russia di sostenere di essere un attore responsabile del cyberspazio e dimostra un continuo schema di sconsiderate cyber operazioni del russo GRU contro molti Paesi”. Gli Stati Uniti chiedono alla Russia di cessare questo comportamento.

A ruota è arrivata, ovviamente concordata, anche la dichiarazione del governo britannico, secondo il quale il proprio centro per la cybersicurezza nazionale (NCSC) avrebbe valutato con “il più alto livello di probabilità” (è una categoria ben precisa, indicata in questo framework; in fondo c’è la scala di probabilità usata: in pratica ne sono “quasi certi”, al 95 per cento) che dietro agli attacchi ci sia stato GRU con l’obiettivo di minare la sovranità della Georgia.

Tuttavia non è stato chiarito bene il movente degli attacchi. Sappiamo che sono arrivati dopo una serie di proteste e manifestazioni dei georgiani contro l’ingerenza russa, avvenute in estate. Le relazioni tra Tbilisi e Mosca sono tese dal conflitto del 2008 e l’appoggio russo alle repubbliche separatiste di Abkhazia e Ossezia del Sud.



Ad ogni modo, le stesse parole degli inglesi sono state usate del Dipartimento di Stato americano: le azioni russe sono definite “irresponsabili” (reckless) e l’invito è di diventare invece un “partner responsabile”. Dal comunicato si evince che Stati Uniti e Gran Bretagna sono pronte a continuare a esporre e additare pubblicamente i cyberattacchi russi anche quando (in fondo questa è la novità delle due comunicazioni) non li riguardino neanche tangenzialmente.

Altra nota importante: per la prima volta americani e britannici identificano Sandworm - uno specifico gruppo di hacker, che per molti ricercatori di società private sarebbe l’autore di importanti attacchi - come parte del GRU.

“Il programma cyber, responsabile per questi danneggiamenti, è noto pubblicamente come team Sandworm, gruppo BlackEnergy, Telebots, VoodooBear”, scrivono gli inglesi. “È gestito dal Centro principale per le tecnologie speciali del GRU, anche noto con l’abbreviazione GTsST o unità 744552”.

Il comunicato prosegue dicendo che gli attacchi in Georgia dello scorso ottobre sarebbero una riemersione delle attività del GRU dalla fine del 2017. Ed elenca una serie di campagne che attribuisce allo stesso: 1) Blackenergy, quella che ha provocato un blackout in Ucraina a fine 2015, con 230mila persone rimaste senza elettricità per un tempo che va da una e sei ore; 2) Industroyer (o CrashOverride), cioè un secondo attacco alla rete elettrica in Ucraina a fine 2016 che ha causato un blackout di un’ora per un quinto di Kiev. È il primo malware progettato apposta per colpire reti elettriche; 3) NotPetya, il malware che nel giugno 2017 ha colpito il settore finanziario ucraino e poi si è propagato in Europa e in altri Paesi (il comunicato non lo ricorda ma è stato il più pesante economicamente, con 10 miliardi di dollari di danni); 4) BadRabbit: il ransomware (un virus che cifra i file e chiede il riscatto) che nell’ottobre 2017 ha cifrato gli hard drive di molte infrastrutture ucraine, colpendo anche l’aeroporto di Odessa, la metro di Kiev, ma anche dei media e delle banche russe. Il giornalista Andy Greenberg - che proprio su questo gruppo ha da poco scritto un libro (molto interessante) intitolato Sandworm - ricorda su Wired come agli stessi hacker in passato sia stato attribuito anche un attacco alle Olimpiadi invernali di Pyeongchang, in Corea del sud, nel 2018. E su Twitter sottolinea come sia raro che il Dipartimento di Stato si esponga su attacchi che non riguardano gli Usa o almeno Paesi Nato.

Non sono citati in questi comunicati, ma il governo Usa ha attribuito al GRU anche gli attacchi ai Democratici del 2016. Tuttavia in quel caso abbiamo anche dei dati tecnici abbastanza dettagliati usciti in un rapporto ad hoc. Invece in quest’ultima azione congiunta, americano-britannica, manca proprio l’analisi tecnica di come sarebbero arrivati all’attribuzione (e a quel livello di certezza del 95 per cento).

SORVEGLIANZA

Il silenziatore di microfoni

Alcuni ricercatori dell’università di Chicago hanno creato un “braccialetto del silenzio”, che emette impercettibili ultrasuoni in grado di disturbare/interferire nei microfoni che stanno nelle vicinanze (e quindi di proteggere quanto viene detto in loro presenza, impedendo che registrino le parole pronunciate), inclusi quelli degli assistenti digitali come Alexa, riferisce il New York Times. È ancora un prototipo ma a quanto pare ci sarebbero investitori interessati. Ed è una delle cose più cyberpunk che ho visto di recente.

I creatori su Twitter.

Smart speakers che si attivano a caso

A tal proposito, uno studio stima che gli smart speakers si attivino con una frequenza che va da 1,5 a 19 volte al giorno senza che il proprietario abbia profferito la parola per attivarli, cioè questo è il numero di volte in cui potrebbero registrare delle conversazioni per errore. (Non è vero però che registrino sempre, dice lo studio)

Via Zdnet

NO STALKING

In occasione del passato San Valentino, l'ong Privacy International ha preparato delle card da condividere online per educare donne a rischio di abusi a proteggere meglio la loro vita digitale e non. Le trovate qua (in inglese), e sono una buona idea che si può riciclare anche in altre occasioni.

APP CIFRATE

Attenti a quei due

Signal, la app di messaggistica cifrata lanciata da Moxie Marlinspike, e molto rispettata da ricercatori di sicurezza, sta mettendo a frutto una iniezione da 50 milioni di dollari, cortesia dell'ex fondatore di Whatsapp, Brian Acton (che se ne andò in polemica con Facebook ed ora è presidente esecutivo della Signal Foundation, la noprofit che gestisce l'app). Ora dunque Signal è passata da 3 a 20 dipendenti che stanno lavorando a una quantità di nuove funzioni inclusi immagini/video che spariscono dopo essere stati visti, un nuovo sistema per la messaggistica di gruppo e per conservare i contatti cifrati nel cloud, stickers, e reazioni in forma di emoji. In prospettiva, trovare anche un modo per identificare i suoi utenti senza il numero di telefono. Obiettivo: conquistare il mainstream. "Voglio che Signal raggiunga miliardi di utenti", ha detto a Wired Brian Acton. "So come si fa. L'ho fatto. E vorrei vederlo accadere entro i prossimi 5 anni".

Wired

HACKER NORDCOREANI

Ancora nel mirino degli Usa

Una nuova operazione di hacking attribuita alla Corea del Nord è stata esposta da una comunicazione del Pentagono, dell'Fbi e del Dipartimento di sicurezza nazionale americano, dove sono illustrati i malware usati (e altri dettagli tecnici utili per identificarli - vedi su VirusTotal), prevalentemente in attacchi di phishing e accesso remoto "per condurre attività illegali, rubare fondi ed evadere sanzioni". Un avviso collegato emesso dall'agenzia americana per la sicurezza delle infrastrutture (CISA) specifica che questa campagna sarebbe frutto di Hidden Cobra, l'affascinante nome dato dal governo americano per un presunto gruppo di hacker al servizio di Pyongyang, che però altri chiamano Lazarus o Zync, come ricorda Ars Technica.

Questo genere di comunicazione rientra nel recente attivismo americano per quanto riguarda l'attribuzione di attacchi governativi stranieri. Un approccio nato già nel 2014, quando per la prima volta l'Fbi accusò la Corea del Nord del pesante attacco a Sony. E rinforzato nel 2018, quando il Dipartimento di Giustizia ha incriminato un hacker nordcoreano per una serie di attacchi, incluso il ransomware Wannacry che nel 2017 si propagò in molti Paesi e organizzazioni (ne parlo in #Cybercrime). Infine nel 2019 il Tesoro americano ha sanzionato tre gruppi di hacker nordcoreani per aver preso di mira infrastrutture critiche e aver rubato milioni a banche ed exchange di criptovalute. Secondo vari osservatori, gli hacker nordcoreani hanno inaugurato una modalità insolita, per degli attaccanti governativi, puntando a ricavare da molte delle loro operazioni un vantaggio economico (e non solo di intelligence, spionaggio o sabotaggio).

HACKER IRANIANI

Hacker iraniani sponsorizzati dallo Stato hanno preso di mira le vulnerabilità di alcuni fornitori di VPN (Virtual Private Network) per infiltrare i network di aziende telco, dell'energia, e di organizzazioni governative. Lo rivela un recente report dell'azienda ClearSky, secondo il quale questi gruppi "avrebbero sviluppato buone capacità offensive e sarebbero in grado di sfruttare vulnerabilità di 1 giorno" (1-day vulnerability, significa che la vulnerabilità è nota da pochissimo a chi fornisce il prodotto, diversamente da una zero-day che ancora non è nota se non agli attaccanti, per cui ci sono stati zero giorni a disposizione per chiudere la falla).

via Zdnet

AIRBNB

Aumentano i costi (legali, di verifica delle inserzioni ecc) per Airbnb che registra una perdita netta di 322 milioni nei primi 9 mesi del 2019, scrive il WSJ (paywall). Aumentano i costi sulla sicurezza, un po' come per Facebook, scrive il giornalista tech Josh Constine. "Si scopre così che i margini nella tech non sono così dolci se devi pagare per le conseguenze". Ovvero, queste aziende non erano valutate propriamente poiché non spendevano nei loro costi effettivi, notano altri.

Vedi anche su Forbes.

LETTURE

AI ED EUROPA

Intelligenza artificiale, l'Ue punta a diventare il Terzo polo. L'Europa può diventare leader del settore a livello globale e creare una catena di valore per investimenti. Il White Paper della Commissione presentato a Bruxelles resta aperto alle osservazioni fino al 19 maggio

Rainews

AI

I sistemi di AI (Intelligenza Artificiale) che, secondo le aziende produttrici, sarebbero in grado di leggere l'espressione facciale e quindi le emozioni di una persona rischiano di essere inaffidabili e discriminatori perché basati su una scienza ormai datata, che non tiene conto del fatto che un crescente numero di prove mostri come le espressioni facciali cambino in base alle culture e anche all'interno della stessa cultura. Lo sostiene la professoressa di psicologia alla Northeastern University Lisa Feldman Barrett, che è anche direttrice dell'Interdisciplinary Affective Science Laboratory.

Guardian

Intervista a Garry Kasparov sul nostro rapporto con le macchine

Wired (inglese)

5G

Huawei e 5G: la guerra fredda tecnologica con la Cina e cosa teme davvero l’America di Trump

Valigia Blu

INFORMAZIONE

Sul social network Reddit esperti e scienziati rispondono alle domande dei cittadini sul coronavirus

Valigia Blu



Coronavirus: la democrazia e i diritti alla prova dell’epidemia

Il manifesto



Ti è piaciuta la newsletter? Inoltrala a chi potrebbe essere interessato!

E’ gratuita, indipendente, senza sponsor, mandanti o agende altrui, e si diffonde col passaparola dei suoi stessi utenti.

Come viene fatta questa newsletter (e come leggerla)

Per iscriversi: https://guerredirete.substack.com/

Buona domenica!