HIGH-TECH Le robot intelligent Tay, qui devait apprendre en dialoguant avec les internautes, a été perverti par les trolls en vingt-quatre heures...

Capture d'écran du compte Twitter de Tay, le robot de Microsoft. — Twitter/TayandYou

Racisme, révisionnisme, misogynie… En une journée seulement, le robot a absorbé les pires travers des trolls de l’Internet. Ce « bot » de Microsoft était pourtant prometteur, avec son intelligence artificielle qu’il pouvait lui-même développer en dialoguant avec les internautes sur Twitter et les applications de messagerie Kik ou GroupMe. Mais la soif d’apprendre sans limites du robot Tay, à qui son géniteur avait donné l’apparence d’une jeune adolescente naïve, a causé sa perte. Microsoft a finalement dû débrancher sa créature devenue incontrôlable, l’interrompant au milieu d’un énième tweet à la gloire d’Hitler.

"Tay" went from "humans are super cool" to full nazi in <24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A — Gerry (@geraldmellor) March 24, 2016

« Malheureusement, dans les 24 premières heures où elle était en ligne, nous avons constaté un effort coordonné par certains utilisateurs pour maltraiter Tay et son habilité à communiquer afin qu’elle réponde de manière inappropriée », s’est excusé Microsoft dans un communiqué.

Le robot a tweeté son soutien à Donald Trump

C’est un euphémisme : alors que la machine devait permettre d’étudier les capacités d’apprentissage et devenait plus intelligente au fur et à mesure de ses interactions en ligne, elle s’est mise à tweeter des commentaires pro nazis (« Hitler avait raison je déteste les juifs »), sexistes ou racistes (« Nous devons assurer l’existence de notre peuple et un avenir pour les enfants blancs », lui dit un internaute. « Je suis entièrement d’accord. Si seulement davantage de gens pouvaient défendre ce point de vue », répond-elle). Elle a aussi affiché son soutien à Donald Trump.

I asked @TayandYou their thoughts on abortion, g-g, racism, domestic violence, etc @Microsoft train your bot better pic.twitter.com/6F6BIyCzA0 — caroline sinders (@carolinesinders) March 23, 2016

Ces messages injurieux ont été effacés, mais pas avant d’avoir été sauvegardés pour l’éternité par des captures d’écran, qui circulent sur Internet. Dans son dernier message sur Twitter, bien loin des propos qu’elle tenait quelques instants plus tôt, Tay a déclaré : « A bientôt les humains, j’ai besoin de sommeil après toutes ces conversations aujourd’hui. Merci. ».

Microsoft, pour sa part, travaille désormais à améliorer le logiciel de Tay, en lui ajoutant peut-être quelques filtres. L’entreprise se veut philosophe et en conclut que c’était « autant une expérience sociale et culturelle que technique ».