Sta crescendo la consapevolezza sui rischi dell’intelligenza artificiale, man mano che gli usi dannosi o potenzialmente tali si stanno moltiplicando, favoriti o meglio non ostacolati dalla perdurante assenza di un adeguato quadro regolatorio globale e condiviso.

Al tempo stesso c’è un certo cauto ottimismo sulla possibilità che l’umanità riesca a rendere “responsabile” ed etica l’AI.

E’ intorno a questa dialettica che si muove il dibattito scientifico ad oggi, come emerge dalle analisi del Rapporto di Ai Now Institute e del Symposium 2019 delle fondatrici Kate Crawford e Meredith Whittaker tenutosi il 02 ottobre scorso allo Skirball Theatre della New York University.

Un rapporto che arriva nei giorni scorsi, come sempre molto atteso ogni anno.

Il rapporto AI Now 2019

L’AI Now Institute ha pubblicato il suo Rapporto AI Now 2019 sugli impatti sociali dell’Intelligenza Artificiale basandosi su un contesto geografico prevalentemente statunitense.

AI Now è uno dei dieci Istituti di ricerca interdisciplinari ospitati presso la New York University. Fondato nel 2017 da Kate Crawford e Meredith Whittaker, AI Now, grazie a collaborazioni con una vasta rete di livello mondiale di studiosi, filosofi, tecnologi, responsabili politici e note organizzazioni in difesa dei diritti, esamina le implicazioni sociali dell’intelligenza artificiale specie laddove la stessa si rivela fallace e non adeguata al compito per il quale viene programmata nel contesto delle diverse aree in cui si svolge e sviluppa la vita degli individui.

Le loro analisi si basano sempre su quattro domini principali:

Diritti e libertà – Valutazione dell’Impatto dell’intelligenza artificiale e delle tecnologie correlate in ambiti ad alto rischio come giustizia penale, attività delle forze dell’ordine, applicazioni domotiche e smart home, selezione del personale, istruzione, accesso alle risorse. AI Now, in tal frangente, collabora con diverse organizzazioni tra cui ACLU American Civil Liberties Union (l’importante organizzazione non governativa per i diritti civili e le libertà individuali con degli Stati Uniti)

Valutazione dell’Impatto dell’intelligenza artificiale e delle tecnologie correlate in ambiti ad alto rischio come giustizia penale, attività delle forze dell’ordine, applicazioni domotiche e smart home, selezione del personale, istruzione, accesso alle risorse. AI Now, in tal frangente, collabora con diverse organizzazioni tra cui ACLU American Civil Liberties Union (l’importante organizzazione non governativa per i diritti civili e le libertà individuali con degli Stati Uniti) Lavoro ed automazione – Valutazione dell’impatto sociale apportato dai cambiamenti conseguenti all’introduzione dei sistemi di automazione e di intelligenza artificiale sulla natura delle prestazioni lavorative e sulle condizioni di lavoro nei diversi settori.

Valutazione dell’impatto sociale apportato dai cambiamenti conseguenti all’introduzione dei sistemi di automazione e di intelligenza artificiale sulla natura delle prestazioni lavorative e sulle condizioni di lavoro nei diversi settori. Bias ed inclusione sociale – I dati riflettono le condizioni sociali, storiche e politiche in cui sono stati creati e, i sistemi di intelligenza artificiale “apprendono” sulla base dei dati inseriti. Questo, insieme a molti altri fattori, causa risultati distorti, imprecisi ed ingiusti ad alto impatto per le istanze di uguaglianza e giustizia delle popolazioni.

I dati riflettono le condizioni sociali, storiche e politiche in cui sono stati creati e, i sistemi di intelligenza artificiale “apprendono” sulla base dei dati inseriti. Questo, insieme a molti altri fattori, causa risultati distorti, imprecisi ed ingiusti ad alto impatto per le istanze di uguaglianza e giustizia delle popolazioni. Sicurezza ed infrastruttura critica – Valutazione dell’impatto sociale dei sistemi di intelligenza artificiale nelle infrastrutture principali, dagli ospedali alla rete elettrica ed elettronica.

“Across diverse domains and contexts, A.I. is widening inequality, placing information and control in the hands of those who already have power, and further disempowering those who don’t” – AI Now 2019

Le raccomandazioni del Rapporto

Il Rapporto inizia con dodici “pesanti ed urgenti” raccomandazioni, alcune declinate al condizionale ed altre invece imperative, destinate all’industria dell’Intelligenza Artificiale, alla comunità dei ricercatori e ai regolatori e decisori politici di tutto il mondo.

Questi gli ammonimenti nel dettaglio:

Le Autorità di regolamentazione dovrebbero vietare l’utilizzo, nelle decisioni importanti che incidono sulla vita delle persone, compreso l’accesso alle opportunità di inclusione sociale, dei cosiddetti algoritmi di “rilevamento delle emozioni” ovvero l’analisi dei dati biometrici tesa a verificare, partendo dalle espressioni del volto, lo stato d’animo ed altri tratti della personalità di un soggetto. Cessare dunque di distribuire sistemi di “emotion detection” poiché frutto di scienza spazzatura (“costruita su basi marcatamente instabili”) utilizzata per qualsiasi cosa, dalle cure mediche all’assicurazione, alla valutazione delle prestazioni degli studenti.

ovvero l’analisi dei dati biometrici tesa a verificare, partendo dalle espressioni del volto, lo stato d’animo ed altri tratti della personalità di un soggetto. Cessare dunque di distribuire sistemi di “emotion detection” poiché frutto di (“costruita su basi marcatamente instabili”) utilizzata per qualsiasi cosa, dalle cure mediche all’assicurazione, alla valutazione delle prestazioni degli studenti. I Governi e le organizzazioni dovrebbero interrompere ogni uso del riconoscimento facciale in contesti sociali e politici delicati (“compresi sorveglianza, polizia, istruzione e occupazione – in cui il riconoscimento facciale comporta rischi e conseguenze che non possono essere risolti retroattivamente”) fino a quando i rischi non saranno completamente studiati e saranno predisposte adeguate normative. Di seguito un’infografica eloquente del trend di sviluppo dei sistemi di riconoscimento facciale negli USA tra il 2018 ed il 2019.

WHITEPAPER Strategie DevOps: perché puntare su un'infrastruttura capace di gestire al meglio le applicazioni? Cloud DevOps

L’industria dell’intelligenza artificiale deve necessariamente apportare cambiamenti strutturali significativi per affrontare il razzismo sistemico, la misoginia e la mancanza di diversità .

. conseguenze sostanziali dell’uso dell’IA inquinata da algoritmi di apprendimento automatico fallaci e discriminatori. ImageNet Roulette, in tale contesto è progetto di arte digitale, oltre che un’app selfie divenuta virale, che mostra come i pregiudizi si sono insinuati nelle tecnologie di intelligenza artificiale che stanno cambiando la nostra vita. Costituisce quindi soprattutto un’interessate presa di coscienza che attraverso la “roulette di Imagenet” fornisce un’interfaccia in grado di svelare alle persone in che modo i sistemi di intelligenza artificiale le classificano, esponendo le categorie sottili e altamente stereotipate che applicano al nostro mondo complesso e dinamico.

fallaci e discriminatori. ImageNet Roulette, in tale contesto è progetto di arte digitale, oltre che un’app selfie divenuta virale, che mostra come i pregiudizi si sono insinuati nelle tecnologie di intelligenza artificiale che stanno cambiando la nostra vita. Costituisce quindi soprattutto un’interessate presa di coscienza che attraverso la “roulette di Imagenet” fornisce un’interfaccia in grado di svelare alle persone in che modo i sistemi di intelligenza artificiale le classificano, esponendo le categorie sottili e altamente stereotipate che applicano al nostro mondo complesso e dinamico. I Governi dovrebbero stabilire e promuovere la divulgazione e la consapevolezza nel pubblico dell’impatto che l’industria dell’intelligenza artificiale provoca sul clima e sull’ambiente. L’intelligenza artificiale è estremamente dispendiosa in termini di energia e utilizza una grande quantità di risorse naturali. La ricercatrice Emma Strubell di Amherst ha pubblicato un documento all’inizio di quest’anno che ha rivelato l’enorme impronta di carbonio dell’addestramento di un sistema di intelligenza artificiale. Il suo team ha dimostrato che la creazione di un solo modello AI per l’elaborazione in linguaggio naturale può emettere fino a 600.000 libbre di anidride carbonica. È circa lo stesso importo prodotto da 125 voli di andata e ritorno tra New York e Pechino.

I lavoratori dovrebbero avere il diritto di contestare le determinazioni assunte, nei pertinenti contesti lavorativi e professionali, sulla base di algoritmi predittivi di IA. E le organizzazioni sindacali potrebbero avere, in tutto ciò un ruolo, importante in difesa dei diritti e nella definizione delle condizioni standard di sicurezza dei lavoratori. Da Uber ai magazzini Amazon, queste enormi piattaforme automatizzate indirizzano il comportamento dei lavoratori, stabiliscono obiettivi prestazionali e determinano i salari dei lavoratori, dando ai lavoratori un controllo molto limitato. All’inizio di quest’anno, Uber ha ridotto la retribuzione dei lavoratori apparentemente senza spiegazioni o avvertimenti, implementando silenziosamente la modifica tramite un aggiornamento della loro piattaforma.

Gli “operatori tecnici”, impiegati nelle applicazioni di AI, dovrebbero avere sia il diritto di sapere esattamente cosa stanno contribuendo a progettare e realizzare, sia di contestarne conseguentemente usi non etici o dannosi del loro lavoro .“Le aziende dovrebbero assicurarsi che i lavoratori siano in grado di tracciare dove il loro lavoro viene applicato, da chi e per quale fine”.

.“Le aziende dovrebbero assicurarsi che i lavoratori siano in grado di tracciare dove il loro lavoro viene applicato, da chi e per quale fine”. Gli Stati dovrebbero elaborare specifiche “leggi” destinate alla regolamentazione delle informazioni biometriche in ambito sia pubblico che privato. Viene citato come esempio positivo da seguire il Biometric Information Privacy Act (BIPA) adottato nell’Illinois nel 2008. Tale provvedimento mira a proteggere gli individui dalla raccolta e dall’archiviazione illecite di informazioni biometriche consentendogli anche di citare in giudizio quegli “enti privati” che effettuano la raccolta di dati biometrici non autorizzata o illegittima compresi gli scopi di sorveglianza, localizzazione e profilazione.

in ambito sia pubblico che privato. Viene citato come esempio positivo da seguire il Biometric Information Privacy Act (BIPA) adottato nell’Illinois nel 2008. Tale provvedimento mira a proteggere gli individui dalla raccolta e dall’archiviazione illecite di informazioni biometriche consentendogli anche di citare in giudizio quegli “enti privati” che effettuano la raccolta di dati biometrici non autorizzata o illegittima compresi gli scopi di sorveglianza, localizzazione e profilazione. I legislatori devono regolare l’integrazione delle infrastrutture di sorveglianza e sicurezza pubblica e nazionale con le applicazioni di AI fornite a supporto dalle organizzazioni private specie in ambito militare e di repressione della criminalità. “Dalle città intelligenti alla sorveglianza di quartiere (Looking at you, Ring) ai contratti di sorveglianza militare e governativa per Big Tech, Belt-and-Road e altri progetti di imperialismo digitale […]”Abbiamo bisogno di una forte trasparenza, responsabilità e controllo in questi settori, come i recenti sforzi per imporre la divulgazione pubblica e il dibattito su partenariati, contratti e acquisizioni tecnologiche pubblico-privato”. Come ormai noto, Amazon sta collaborando con oltre 400 dipartimenti di polizia statunitensi per promuovere Ring, ma Ring è solo una parte di un problema molto più grande e la retorica tecno-utopica delle “città intelligenti” nasconde in realtà problemi più profondi di ingiustizia e disuguaglianza.

specie in ambito militare e di repressione della criminalità. “Dalle città intelligenti alla sorveglianza di quartiere (Looking at you, Ring) ai contratti di sorveglianza militare e governativa per Big Tech, Belt-and-Road e altri progetti di imperialismo digitale […]”Abbiamo bisogno di una forte trasparenza, responsabilità e controllo in questi settori, come i recenti sforzi per imporre la divulgazione pubblica e il dibattito su partenariati, contratti e acquisizioni tecnologiche pubblico-privato”. Come ormai noto, Amazon sta collaborando con oltre 400 dipartimenti di polizia statunitensi per promuovere Ring, ma Ring è solo una parte di un problema molto più grande e la retorica tecno-utopica delle “città intelligenti” nasconde in realtà problemi più profondi di ingiustizia e disuguaglianza. Le valutazioni di impatto “algoritmico”, Algorithmic Impact Assessment, devono tenere conto dell’incidenza dell’IA sul clima, sulla salute e sulla “segregazione” geografica altamente influenzata questa dal potere peraltro sottovalutato della tecnologia di rimodellare la geografia delle nazioni.

Gli esperti di machine learning, in ottica di accountability, dovrebbero analizzare compiutamente i rischi potenziali dei loro modelli di apprendimento automatico e documentarne dettagliatamente lo sviluppo.

I legislatori dovrebbero richiedere l’acquisizione di forme di “consenso informato” per l’uso di qualsiasi dato personale destinato ad applicazioni di intelligenza artificiale correlate alla salute comprese le singole fasi in cui si articola la sperimentazione clinica.

L’impronta di carbonio dell’IA su larga scala è spesso nascosta dietro astrazioni come “il cloud”. In realtà, si stima che attualmente l’infrastruttura computazionale del mondo emetta tanto carbonio quanto l’industria aeronautica, una percentuale drammatica delle emissioni globali.

Dodici importanti esortazioni riconducibili anche alle cinque aree tematiche oggetto dei panel al Symposium alla NYU di ottobre e riassunte nelle Infografiche precedenti:

Riconoscimento facciale ed emoticon detection ;

; Passaggio dalla “propensione all’IA” e al “de-biasing tecnico” alla giustizia dell’AI;

Città, sorveglianza, frontiere;

Lavoro, organizzazione dei lavoratori e AI

Impatto climatico dell’IA

“Ciò che diventa chiaro è che attraverso diversi domini e contesti, l’intelligenza artificiale sta allargando la disuguaglianza, mettendo informazioni e controllo nelle mani di coloro che hanno già il potere e privando ulteriormente coloro che non lo fanno.”

Cresce l’ondata di pushback

I ricercatori evidenziano chiaramente e con riscontri attendibili come i sistemi di AI vengano implementati in settori quali l’assistenza sanitaria, l’istruzione, l’occupazione, la giustizia penale “senza adeguate garanzie o strutture di responsabilità in atto”.

In particolare mette in risalto come l’uso algoritmico dei sistemi di riconoscimento facciale finalizzati alla “rilevazione delle emozioni”, malgrado l’acclarata inattendibilità delle basi scientifiche sulle quali si fonda, abbia continuato ad essere distribuito su larga scala in tutti gli ambiti di inclusione sociale maggiormente incidenti, specie in ambito lavorativo. Il rapporto AI Now ne riporta alcuni esempi specifici riconducibili ad altrettante aziende che operano nel settore dell’emoticon detection compreso il caso di un’azienda che si proponeva di generare statistiche credibili sul rilevamento dei livelli di attenzione degli studenti attraverso l’analisi algoritmica della loro attività cerebrale.

In tutto ciò non ha mancato di manifestarsi l’emersione di una crescente ondata di “pushback” sintetizzato a grandi linee nella seguente istantanea tratta come le altre dal Symposium AI di Now.

Dal rifiuto dell’idea che il riconoscimento facciale sia inevitabile, al tracciamento del potere tecnologico attraverso gli spazi nelle nostre case e nelle nostre città, le analisi del Rapporto AI non mancano di sottolineare neppure l’enorme quantità di lavoro significativo ed analisi critiche in corso, lasciando intendere un certo cauto ottimismo sulla possibilità che si possa quanto prima sfruttare l’opportunità di decidere quali tipi di AI sono accettabili e di conseguenza come renderli “responsabili”: contando in primis su risorse umane animate da un impegno comune per la giustizia e dalla volontà di guardare oltre l’hype chiedendosi chi trae beneficio dall’intelligenza artificiale, chi è danneggiato e chi invece decide.

Conclusioni

Il pregiudizio degli algoritmi, l’invasione e violazione della privacy; i pericoli legati al riconoscimento facciale fino alla cessione della nostra libertà di scelta. Sono tutti temi – che pur essendo centrali per capire come stia cambiando la nostra epoca e quali siano le sfide per il futuro – cedono troppo spesso il passo a inutili quanto fuorvianti visioni cyberpunk sulla singolarità tecnologica; con il risultato che, ancora oggi, sul tema dell’intelligenza artificiale si fa parecchia confusione.

È certo che l’intelligenza artificiale possa contribuire in maniera significativa favorendo progressi sociali tangibili in grado “di fare la differenza” per milioni di persone; dalla lotta alla povertà alla diagnostica in ambito salute e ricerca scientifica (dalla predizione delle malattie alla scelta della cura più adatta). Il futuro è già qui, solo che non è equamente distribuito riporta un noto aforisma di William Gibson. Tuttavia, l’insidia dietro l’angolo è andare incontro ad una colossale delusione ed i rischi che ne conseguono sono già stati ben esposti nel rapporto di AI Now: l’intelligenza artificiale è tanto attendibile quanto i dati sui quali può fare affidamento; bastano piccole variazioni di varia natura e imprevisti per mandare in tilt la ratio di un algoritmo e la soluzione che ne dovrebbe scaturire.

Una soluzione, immaginata da uno dei massimi esperti mondiali del deep learning, Andrew Ng, richiede un totale cambio di prospettiva che può risultare utile richiamare: più che attendersi che le soluzioni di AI si adattino al nostro mondo, dovremo essere noi a dover adattare il nostro mondo a loro.

Ma è davvero una prospettiva che vale la pena di seguire?

Luciano Floridi sostiene che “da sempre l’uomo si adatta alle tecnologie che usa; d’altra parte, siamo noi a essere flessibili e sono loro a essere invece rigide.” e che “Tra le varie preoccupazioni concrete sollevate dall’intelligenza artificiale, quindi, c’è anche questa: chi si adatta a chi? L’altro grosso problema che vedo è che non solo noi ci adattiamo alle macchine e non viceversa, ma che queste tecnologie sono costruite per gestire le nostre scelte e preferenze”.

Nonostante quindi i rischi a cui l’intelligenza artificiale ci pone di fronte siano molto più concreti di quelli paventati da figure come Elon Musk – e nonostante tutti limiti ben evidenziati anche nel Rapporto AI– tuttavia l’evoluzione del deep learning, con il giusto apporto di risorse umane può ancora rivelare ottime prospettive di implementazione orientando positivamente i successivi i prossimi tecnologici: ad esempio verso i paradigmi dell’Explainable AI e di algoritmi ibridi, simbolici-non simbolici.

Stiamo parlando di ricerca avanzata che però presto prenderà piede: una sorta di AI ibrida in grado, forse, di affrontare in modo efficace il complesso problema della black box dei network neurali. Poco accettabili soprattutto nei contesti critici dove l’AI deve essere accountable nelle scelte: in Sanità, nella Giustizia, nelle auto che si guidano da sole…

Tucidide ci dice che il futuro e la storia sono diretti dagli uomini e dalle risorse materiali, non dal destino o da considerazioni di ordine diverso; la natura umana e il vero motore.

A maggior ragione, quando guardiamo al futuro con lo sguardo consapevole di ciò che la normalità del digitale ci ha già prospettato, cercando di dirigerne gli ulteriori sviluppi, sarà fondamentale prestare attenzione ed essere consapevoli che – parlando di intelligenza artificiale – ci riferiamo a qualcosa che in realtà ha zero intelligenza sul mondo reale e zero semantica: il significato e il senso lo danno le persone, ed questa è la nostra ricchezza cha farà la differenza nella riconciliazione tra uomo e sviluppo tecnologico.

WEBINAR Blockchain, Iot, AI per una Supply Chain intelligente e più efficiente Blockchain Intelligenza Artificiale

@RIPRODUZIONE RISERVATA