Google utilise de plus en plus des réseau de neurones artificiels avec des méthodes d’apprentissage automatique, c’est notamment ces technologies qui lui permettent de reconnaître et différencier un chien d’un chat ou le ciel de la mer dans des photographies même en l’absence de métadonnées.

Dans un article récent des chercheurs qui y travaillent ont essayés d’employer ces neurones d’une manière un peu différente pour visualiser comment ils fonctionnent et les erreurs qu’ils peuvent faire.

Au lieu de se contenter d’essayer de reconnaître ce qui se trouve dans l’image ils ont demandé au système d’accentuer dans l’image les formes qu’il croit reconnaître.

Si il commence à voir un oiseau dans un nuage il va renforcer légèrement les lignes et les couleurs qui suggéraient un oiseau.

L’image est ensuite passée dans le système des centaines de fois et l’oiseau s’auto-renforce à chaque itération, de nouvelles formes émergent, etc.

Ils ne se sont pas contentés de partir d’images existantes mais ont aussi fourni aux neurones des images composées de bruit dont chaque pixel est une couleur au hasard, ne représentant donc strictement rien.

Malgré ça des choses reconnaissables émergent des images :