L’intelligenza artificiale, e le sue diverse, molteplici incarnazioni, sono un tema sempre più caldo. Molte le applicazioni utili già esistenti, che usiamo tutti i giorni, o che sono in corso di sviluppo. Pensiamo anche solo alle traduzioni automatiche; all’analisi d’immagini in ambito medico; ai filtri antispam; ai motori di ricerca. E, guardando più in avanti, anche agli assistenti digitali che saranno sempre più elaborati; o alle sperimentazioni di auto senza pilota; o alla possibilità di usare droni in aree disastrate in grado di prendere decisioni.

Certo, esistono timori e discussioni sugli effetti collaterali, gli imprevisti e i problemi etici di alcune di queste applicazioni, anche quando nascono con le migliori intenzioni. E c’è chi si sta ponendo il problema. Ma che dire invece degli utilizzi volutamente malevoli dell’intelligenza artificiale? Di quando viene impiegata per attaccare qualcuno o qualcosa? Che scenari si prevedono su questo fronte?

Lo studio sugli usi malevoli nel futuro prossimo

A delinearli ci prova ora un autorevole rapporto, appena uscito e firmato da numerosi ricercatori dell’università di Cambridge, Oxford, di associazioni dei diritti digitali come l’Electronic Frontier Foundation, di società di cybersicurezza e di gruppi come OpenAI, cofondato dall’ad di Tesla, Elon Musk. Lo studio - intitolato L’uso malevolo dell’intelligenza artificiale (The Malicious Use of Artificial Intelligence) - pur riconoscendo tutti i benefici di questa tecnologia, s’imbarca dunque nella scomoda impresa di prevedere come potrebbe essere usata da un attaccante.

Ma di che tipo di tecnologie stiamo parlando? I ricercatori considerano quelle già esistenti o che potrebbero essere plausibili entro i prossimi 5 anni, concentrandosi soprattutto sugli sviluppi del machine learning. Per chiarire subito, lo stesso studio definisce i due termini: l’intelligenza artificiale si riferisce a «sistemi in grado di eseguire compiti che si ritiene richiedano intelligenza»; il machine learning è un suo sottocampo, ed è un «sistema che migliora nel tempo l’esecuzione di un certo compito attraverso l’esperienza». Gran parte delle applicazioni citate prima si basano proprio sul machine learning.

Ora, gli attacchi individuati dai ricercatori che possono essere potenziati dall’intelligenza artificiale si dividono in tre ambiti: la sicurezza digitale, ovvero lo sviluppo di attacchi informatici più incisivi; la sicurezza fisica, ovvero la possibilità di sequestrare dispositivi autonomi altrui e usarli come un’arma (ad esempio proprio i droni); e la sicurezza politica, nel senso di un utilizzo statale di queste tecnologie per profilare, sorvegliare, o disinformare una popolazione.

Sorvegliare e manipolare

L’intelligenza artificiale, notano i ricercatori, può infatti automatizzare una serie di compiti utili ai fini della sorveglianza, ad esempio attraverso l’analisi di dati raccolti in massa; per obiettivi di persuasione, attraverso la creazione di messaggi di propaganda mirati; e per l’inganno, attraverso la manipolazione di video. Sono preoccupazioni «più significative sotto regimi autoritari, ma che possono indebolire anche la capacità delle democrazie di sostenere dibattiti pubblici autentici».

Ad esempio, si cita la possibilità di fare analisi dei social network per individuare specifici influencers, persone con ampio seguito e ruoli chiave, verso le quali esercitare sorveglianza o indirizzare disinformazione. Tra le manipolazioni, viene fatto l’esempio di video falsificati, di cui è previsto un aumento in qualità e quantità. Questa è una tecnologia già esistente, comparsa mentre gli autori scrivevano il rapporto. A fine 2017 infatti si sono diffusi online vari casi di deepfakes, in cui programmi che permettono di inserire la faccia di qualcuno sul corpo di un altro, all’interno un video, hanno trovato un primo sbocco nella creazione di finti porno (in cui ai protagonisti del girato originario sono sostituite le facce di altre persone, spesso celebrità).

Un piccolo caso mediatico che ha portato Reddit, una delle comunità online dove si erano diffusi i deepfakes, a un giro di vite e a una messa al bando di tale pratica. Ovviamente, il trasferimento di queste tecniche nell’ambito della lotta politica per la creazione di video finti non è affatto improbabile.

«Alcune di questi scenari possono essere più o meno preoccupanti a seconda del Paese preso in considerazione», commenta a La Stampa Miles Brundage, ricercatore al Future of Humanity Institute di Oxford e tra gli autori del rapporto. «Governi autoritari tenderanno a usare l’intelligenza artificiale per sorvegliare e sopprimere il dissenso, e i governi democratici vedranno una proliferazione di contenuti media manipolati. La diffusione di notizie false, già esistente, potrebbe essere molto più preoccupante se fosse accompagnata da video apparentemente realistici di un leader politico che dica cose oltraggiose; o se mostrasse molte versioni diverse di uno stesso evento, con il risultato di produrre confusione. Tutto ciò era già possibile senza intelligenza artificiale, ma con questa si abbattono i costi e si aumenta la scala di diffusione».

Phishing e cyberattacchi

Ma l’ambito in cui ci si aspetta quanto prima sviluppi tangibili è probabilmente quello della cybersicurezza. Già oggi esistono aziende e startup che usano l’intelligenza artificiale come strumento di difesa da attacchi informatici. E lo stesso studio riconosce l’importanza di questo approccio. Tuttavia, il timore è che anche gli attaccanti possano giovarsi di questa tecnica. I ricercatori fanno l’esempio dello spear phishing, cioè dell’invio mirato di mail finte, che sembrano provenire da qualcuno che si conosce.

Più la mail è personalizzata, più l’inganno sarà efficace, più alte saranno le probabilità per la vittima di cascarci. Per questo inviare mail di questo tipo richiede un certo lavoro di scavo e raccolta informazioni da parte dell’attaccante, sui contatti e le relazioni del target. Tuttavia se questa fase può essere automatizzata, allora gli attacchi di spear phishing possono diventare ancora più diffusi e temibili. Tra gli scenari del futuro i ricercatori immaginano anche una situazione in cui la vittima abbia ricevuto una brochure infetta con un software malevolo, dopo aver cliccato su una pubblicità mirata che gli sia stata servita dagli attaccanti, dopo una sua profilazione.

Ma l’intelligenza artificiale potrebbe essere usata anche per rendere più incisiva la ricerca di vulnerabilità nel software (che già oggi può essere automatizzata). O per aggiornare continuamente un certo malware. O per identificare meglio possibili target.

«Le tecniche per individuare questi attacchi sono giù sviluppate ma di fatto è una rincorsa continua tra chi attacca e difende, e non sappiamo a lungo termine cosa accadrà. Per questo è necessario pianificare prima cosa vogliamo fare», commenta ancora Brundage. Di qui le raccomandazioni dei ricercatori: imparare dalla comunità che si occupa di cybersicurezza, perché il suo ruolo sarà fondamentale in questa fase. E allargare il dibattito e la discussione sull’uso dell’intelligenza artificiale a molteplici soggetti, non solo ai tecnici, per prevenire e mitigare usi malevoli.