L’applicabilità dell’intelligenza artificiale ha avuto finora come unico limite l’immaginazione.

L’utilizzo di questa tecnologia si sta facendo largo in campo sanitario, nell’implementazione delle smart cities, così come nell’automazione di innumerevoli operazioni e gestione dei dati, ottenendo una riduzione dei costi e tempi di produzione e organizzazione del lavoro.

Questo però sta causando preoccupazione in alcuni settori.

AI e lavoro

È recente, per esempio, la decisione della banca BNL in merito all’implementazione di robot in sostituzione di alcuni impiegati.

L’attuale legislazione previdenziale consente infatti alla banca, attraverso 'quota 100' o ‘opzione donna’, di far uscire 600 addetti attraverso un piano di esodi volontari. La chiusura di circa 30 sportelli sul territorio nazionale prevede parallelamente l’introduzione di soluzioni di machine learning e AI, che, incorporando tecnologie di apprendimento permettono di automatizzare processi non ripetitivi.

Probabilmente tutto questo appena dieci anni fa sarebbe stato inimmaginabile.

LEGGI ANCHE: Un europeo su 4 si fida più dell’Intelligenza Artificiale che dei politici (dice uno studio)

L’approccio dell'UE all'intelligenza artificiale

Probabilmente l’unico modo per concepire al meglio l’utilizzo dell’AI è quello di stabilire dei principi e dei parametri che ne garantiscano non solo l’efficacia, ma anche un'armonica integrazione nell'ottica di un progresso tecnologico destinato ad evolvere ancora.

L’Unione Europea è la prima al mondo ad avere la volontà di definire principi etici che guidino nello sviluppo delle tecnologie in diversi ambiti, con un approccio “umano-centrico”.

Il documento presentato all'inizio di aprile, “Generare fiducia in un’intelligenza artificiale incentrata sull’Uomo”, sottolinea l’utilità dell’intelligenza artificiale nel "migliorare il settore della salute, ridurre il consumo di energia, rendere le auto più sicure, aiutare gli agricoltori ad usare l’acqua e le risorse naturali in maniera più efficiente" e ad "individuare delle frodi e delle minacce informatiche", come si legge nel documento.

LEGGI ANCHE: Climate change e IoT: come l’internet degli oggetti ci salverà dall’estinzione

Parallelamente la diffusione sempre maggiore dell’AI porta con sé varie sfide mai affrontate a livello etico e legale, così la Commissione Europea ha deciso di istituire un gruppo di studio sull’intelligenza artificiale composto da 52 esperti provenienti dal mondo accademico, imprenditoriale e della società civile (AI HLEG), e lo ha incaricato di redigere le “linee guida di tipo etico sull’intelligenza artificiale” rivolto a tutti coloro che sviluppano o utilizzano AI e destinato a essere aggiornato periodicamente con novità e nuovi studi.

All’interno di questo contesto la nozione fondamentale sarà la Trustworthy AI (l’affidabilità dell’Intelligenza Artificiale): più sarà attendibile, più velocizzerà i processi, più gli utenti/esseri umani saranno pronti a coglierne l’utilità e i benefici, accrescendo la fiducia nei suoi confronti.

Alcuni principi fondamentali di un’intelligenza artificiale affidabile dovranno essere:

responsabilità : in caso di errori o abusi dovrà essere possibile risalire ai responsabili, prevedendo sanzioni.

: in caso di errori o abusi dovrà essere possibile risalire ai responsabili, prevedendo sanzioni. Controllo dei dati : i sistemi creati dovranno evitare discriminazioni e manipolazione dei dati.

: i sistemi creati dovranno evitare discriminazioni e manipolazione dei dati. Design democratico : tutti i cittadini potranno accedere ai dati e/o utilizzare prodotti e servizi indipendentemente dall’età, eventuale disabilità o stato sociale.

: tutti i cittadini potranno accedere ai dati e/o utilizzare prodotti e servizi indipendentemente dall’età, eventuale disabilità o stato sociale. Supervisione umana dell’autonomia : l’ottica umano-centrica prevede che maggiore sarà l’autonomia di un’AI, maggiore dovrà essere il controllo umano su di essa.

: l’ottica umano-centrica prevede che maggiore sarà l’autonomia di un’AI, maggiore dovrà essere il controllo umano su di essa. Rispetto della priv acy : la protezione dei dati e la privacy dovranno essere garantite in tutte le fasi di vita dell’AI, tutto in linea con il GDPR, ossia la normativa comunitaria relativa alla protezione dei dati personali.

: la protezione dei dati e la privacy dovranno essere garantite in tutte le fasi di vita dell’AI, tutto in linea con il GDPR, ossia la normativa comunitaria relativa alla protezione dei dati personali. Robustezza e sicurezza dei sistemi.

L’obiettivo è che all’inizio del 2020 i feedback dei vari stakeholder saranno un’opportunità di valutazione ed eventuale revisione.

Investimenti e buoni propositi

Accantonando il pensiero etico, la Commissione Europea ha la necessità di rimanere al passo con il resto del mondo (soprattutto Cina e Stati Uniti) e un anno fa ha presentato un piano di investimenti che mira a implementare gli sforzi nell’intelligenza artificiale entro il 2020, con 1,5 miliardi di euro, augurandosi che anche il settore privato ne entri a far parte.

Lo scorso dicembre è nato ELLIS (European Laboratory for Learning and Intelligent Systems) il laboratorio europeo sull’Intelligenza Artificiale con il supporto di alcune realtà europee e statunitensi.

ELLIS prevede un programma di dottorato europeo per educare la prossima generazione di ricercatori di AI e stimolare la crescita economica sfruttando le nuove tecnologie.

All’orizzonte, dunque, si intravedono nuove figure professionali che probabilmente oggi non siamo ancora in grado di immaginare.