Il CEO Google Sundar Pichai ha rilasciato un'intervista al Washington Post nella quale si trattava largomento intelligenza artificiale: dai rischi e pericoli che ne possono conseguire, fino ai benefici che ne possiamo ricavare dallo sviluppo.

Come sappiamo, l'intelligenza artificiale è nata per imparare in modo continuo da ciò che la circonda con lo scopo di migliorare, aiutare l'uomo e, in alcuni casi, arrivare anche a prendere decisioni autonome. È inevitabile però pensare ai rischi che possono esserci nello sviluppo di crescita e di maturazione di questa nuova tecnologia; ne è consapevole anche Pichai, il quale ammette che le "preoccupazioni di un uso distorto dellAI sono estremamente fondate. Sono necessarie, a suo avviso, delle linee guida etiche molto chiare ma anche una riflessione profonda delle big company sul modo in cui, in futuro, si potrebbe abusare di menti artificiali in grado di sostituirsi al libero arbitrio umano.

Il mondo delle volte ha un approccio superficiale, Credo che il mondo della tecnologia debba realizzare che non si può solo costruire e poi semmai sistemare e correggere ciò che non va, così non funziona, attacca il CEO di Google.

Tutto sommato Pichai si è detto ottimista sui benefici che ne otterremo sul lungo periodo; d'altronde non poteva essere altrimenti da Google che sta investendo molto nell'ambito dell'intelligenza artificiale, soprattutto per il motore di ricerca, o anche per le scoperte fatte dalla divisione DeepMind (acquisita nel 2014). L'avvertimento è rivolto soprattutto ai colossi che dovrebbero fare un salto di qualità, per assicurarsi che soluzioni, software, app e sistemi di intelligenza artificiale non minaccino il genere umano.

Lo scorso gennaio Sundar Pichai aveva definito l'AI come una delle cose più importanti sulle quali lumanità sta lavorando, rassicurando che sul lungo periodo i benefici supereranno i rischi, ma solo se le compagnie sapranno darsi delle regole precise sulle soluzioni di intelligenza artificiale

Alla fine dell'intervista il CEO dell'azienda di Mountain View ha voluto aggiungere:

Regolamentare una nuova tecnologia al suo inizio è difficile ma credo che le società debbano autoregolamentarsi, ecco perché anche noi abbiamo tentato di articolare una serie di principi per lAI. Magari non avremo ancora risolto ogni rischio ma era importante lanciare la conversazione.