Bill Gates, Stephen Hawkings et Elon Musk ont manifesté on s’en souvient leur inquiétude face aux terribles conséquences que pourraient avoir les progrès de l’intelligence artificielle pour l’humanité. Ce qui est venu confirmer des décennies de craintes - véhiculées par la science-fiction notamment - qu’une perte de contrôle sur les machines nous serait fatale.

Mais des chercheurs du Georgia Insitute of Technology pensent avoir trouvé la solution pour rendre les robots plus favorables à notre égard et moins susceptibles de nous tuer.

Une étude menée par deux chercheurs de l’Institut montre que lire des fables et des contes populaires pourrait apprendre aux robots les mœurs humaines - et en particulier la distinction entre bien et mal - comme cela se passe pour les enfants.

Les histoires, dit l’étude, offrent des modèles de comportements dans certains types de situations. Si les robots pouvaient les lire et les assimiler, ils auraient à disposition un nombre de modèles bien supérieurs à celui qu’on peut programmer. Ainsi y aurait-il plus de chances qu’ils se comportent plus finement avec les humains. Pour cela, il faut que les robots soient capables de comprendre ces histoires.

Or il existe une méthode baptisée Quichote qui apprend aux intelligences artificielles à lire des histoires qui font la démonstration des hautes valeurs de l’humanité et qui les récompense ensuite quand elles adoptent des comportements conformes à ces valeurs.

La base de cet apprentissage, c’est un système développé par l’un des deux chercheurs, le système Shéhérazade, qui montre comment une intelligence artificielle peut produire une suite d’actions conformes en allant puiser ses modèles dans des fictions. La méthode Quichotte ajoute la récompense pour renforcer la tendance au bon comportement. L’alliance des deux pourrait, selon les chercheurs, amener l’intelligence artificielle à adopter un comportement convenable.

Un test mené sur un robot devant aller chercher un médicament dans une pharmacie, et revenir, a montré que le robot avait compris que certains comportements, - comme entrer dans la pharmacie, voler le médicament, et prendre la chemin du retour - étaient inappropriés. Ainsi donc, les chercheurs y voient les débuts prometteurs d’une morale implémentée aux intelligences artificielles. La limite étant que si les robots peuvent apprendre les bons comportements, ils peuvent aussi apprendre les mauvais. Mais les chercheurs sont confiants :

« Il est impossible d’empêcher absolument qu’il soit fait du mal à un être humain. Mais nous croyons qu’une intelligence artificielle qui aurait été acculturée - c’est-à-dire qui aurait adopté les valeurs implicites d’une culture ou d’une société particulière - serait plus à même de ne pas céder à des comportements psychotiques, sauf dans les circonstances les plus extrêmes ».

Lire sur qz.com