REDUCE dall’audizione di fronte al Congresso statunitense, dove i parlamentari hanno dimostrato di avere ancora molta strada da fare per capire come funzioni davvero il business di internet, il ceo di Googleè tornato a parlare. Lo ha fatto in un’intervista al Washington Post nella quale si è dedicato all’argomento dell’intelligenza artificiale, ai rischi e ai pericoli che derivano dall’automazione e dallo sviluppo di soluzioni che sembrano sempre più poter fare a meno del controllo dell’essere umano.Le preoccupazioni di un uso distorto dell’Ai sono “estremamente fondate”, ha spiegato Pichai, che d’altronde non è nuovo a questo genere di posizioni. A suo avviso servono linee guida etiche molto chiare ma anche una riflessione profonda delle big company sul modo in cui, in futuro, si potrebbe abusare di menti artificiali in grado di sostituirsi al libero arbitrio umano. “Credo che il mondo della tecnologia debba realizzare che non si può solo costruire e poi semmai sistemare e correggere ciò che non va, così non funziona” ha spiegato il capo di Big G . Quell’approccio, insomma, non va bene.

I colossi dovrebbero dunque fare un salto di qualità, per assicurarsi che soluzioni, software, app e sistemi di intelligenza artificiale non minaccino il genere umano. Tutto sommato Pichai si è detto ottimista sui benefici che ne otterremo sul lungo periodo (parlando in particolare dei progressi nell’ambito della salute) e così non poteva che essere visto che Google è un protagonista assoluto della ricerca più avveniristica e dell’applicazione dell’AI nei propri prodotti, a partire dal motore di ricerca per arrivare alle scoperte della divisione DeepMind, acquisita nel 2014.Non solo: Google lavora anche a un progetto, battezzato Maven, dedicato all’applicazione dell’intelligenza artificiale in ambito militare che ha sollevato rumorose proteste fra i suoi dipendenti. Tanto da convincere il top management ad assicurare che l’accordo non sarà rinnovato quando, l’anno prossimo, arriverà alla sua scadenza.“Regolamentare una nuova tecnologia al suo inizio è difficile ma credo che le società dovrebbero autoregolamentarsi – ha aggiunto – ecco perché anche noi abbiamo tentato di articolare una serie di principi per l’AI. Magari non avremo ancora risolto ogni rischio ma era importante lanciare la conversazione”. Lo scorso gennaio Pichai aveva definito l’intelligenza artificiale come “una delle cose più importanti sulle quali l’umanità sta lavorando”.