Nous pourrions très bientôt être en mesure de diffuser nos pensées sur un écran. Et cela, grâce à une intelligence artificielle.

Des scientifiques de l’université de Kyoto ont créé une intelligence artificielle (IA) capable de lire les ondes cérébrales d’un individu et de produire une image à partir de ce qu’il regarde, rapporte The Next Web. Ces travaux sont détaillés dans un article de recherche publié fin décembre, intitulé « Reconstruction d’images en profondeur à partir de l’activité du cerveau humain ».

Dans ce cadre, les chercheurs ont montré des images à des volontaires pendant 10 jours et ont mesuré leurs ondes cérébrales. L’expérience s’est déroulée de deux manières : dans certains cas, l’activité cérébrale était enregistrée en temps réel, pendant que le sujet regardait l’image. Dans d’autres cas, le sujet devait penser aux images qu’il avait vues auparavant.

Déchiffrage de scans cérébraux

Les scans issus des examens ont ensuite été utilisés pour entraîner un réseau d’apprentissage profond (ou deep learning). Cette méthode d’apprentissage automatique consiste à faire ingérer des quantités considérables de données à une machine, pour qu’elle puisse ensuite être capable de travailler en autonomie sur un sujet.

Dans le cas présent, le système imaginé par les chercheurs a décortiqué les données et rendu visible ce que les sujets observaient ou visualisaient dans leur esprit. L’équipe en charge du projet a ainsi montré la lettre « A » au sujet et le dispositif a produit une image ressemblant vaguement à la première lettre de l’alphabet.

Pour réussir ce petit exploit, les chercheurs expliquent avoir « nourri » leur algorithme de reconstruction avec les scans cérébraux, « traduits » en réseaux de neurones profonds. L’algorithme récupère les données issues des scans, les transforme en image et répète cette action jusqu’à ce que l’image soit la plus proche possible de ce que le cerveau a pensé.

L’IA devine à quoi l’image doit ressembler

En réalité, l’IA ne « lit » pas vraiment dans les pensées, du moins pas au sens où on l’entend habituellement. Elle ne comprend pas exactement à quoi l’on pense ; elle sait à quoi nos ondes cérébrales ressemblent quand on y pense. Et elle devine ainsi à quoi ressemble l’image générée par le cerveau.

Le temps de la télépathie n’est donc pas encore arrivé. Mais le travail de ces scientifiques va sans doute contribuer à faire avancer un peu plus le champ de la recherche sur l’apprentissage profond. Surtout, l’intelligence artificielle apprenant très rapidement, il est possible que cette technologie d’interprétation des ondes cérébrales, avec sa traduction à l’écran, devienne bien plus précise très rapidement.

Le temps de la télépathie n’est donc pas encore arrivé

Dès lors, on peut imaginer qu’elle nous permette bientôt, pourquoi pas, de projeter ce à quoi nous pensons sur un mur. On peut penser à plusieurs applications basées dessus : des témoignages vérifiables instantanément, une analyse des rêves bien plus facile, un moyen d’apprentissage…

Cette idée d’un « projecteur de pensée » est aussi quelque peu effrayante, puisqu’elle permettrait à une machine, ou à d’autres êtres humains, d’accéder à ce que nous avons de plus privé : nos pensées. Mais nous n’y sommes pas encore.

Partager sur les réseaux sociaux Tweeter Partager Partager Partager redditer

La suite en vidéo