Condividi Facebook Twitter

Il New York Post ha riportato che Google sta utilizzando i video di YouTube per addestrare le sue macchine d’intelligenza artificiale per capire il comportamento umano.

La società Mountain View ha selezionato più di 57.000 clip disponibili al pubblico per mostrare circa 80 azioni umane come camminare, calciare, abbracciare e stringere le mani. I video chiamati AVA, o “azioni visive atomiche“, sono clip di tre secondi di persone che fanno cose quotidiane come bere acqua, scattare una foto, suonare uno strumento, abbracciarsi, stare in piedi o cucinare. Ogni clip indica la persona su cui l’Intelligenza Artificiale (AI) dovrebbe concentrarsi, insieme a una descrizione della loro posa e se stanno interagendo con un oggetto o un altro essere umano.

Google in un post sul blog lo scorso 19 ottobre 2017 ha scritto:

«Nonostante le entusiasmanti scoperte fatte negli ultimi anni nella classificazione e nella ricerca di oggetti nelle immagini, riconoscere le azioni umane rimane ancora una grande sfida, ciò è dovuto al fatto che le azioni sono, per loro natura, meno definite degli oggetti nei video».

L’intelligenza artificiale (AI) è alla guida di grandi cambiamenti in Google, il CEO Sundar Pichai ha messo l’intelligenza artificiale all’avanguardia di quasi tutto ciò che l’azienda sta facendo. I nuovi smartphone Pixel di Google attingono alla tecnologia Intel; Rolls Royce recentemente ha annunciato una partnership con il sito per creare navi più intelligenti e autonome basate su AI e machine learning ed è il primo accordo in assoluto nel settore marino.

Google inoltre sta lavorando al software del riconoscimento della lingua per le macchine a guida autonoma.