Terminator-Szenen bei Facebook: Zwei Roboter entwickeln eine Geheimsprache und unterhalten sich untereinander. „Bob“ und „Alice“ mussten daraufhin abgeschaltet werden. Der Fall verdeutlicht ein Grundproblem bei der Entwicklung von künstlicher Intelligenz.

Forschung und Wissenschaft Facts

Originalartikel vom 28.07.2017:

Gerade erst hatte sich der Streit um künstliche Intelligenz, kurz KI, zwischen Facebook-Chef Mark Zuckerberg und Tesla-CEO Elon Musk wieder gelegt, da wird bekannt, dass zwei Bots in einem Facebook Labor abgeschaltet werden mussten, weil sie eine eigene Sprache entwickelt hatten.

Wie das Online-Magazin „Fast Co. Design“ berichtet, wurden die Bots Bob und Alice erschaffen, um sich mit Menschen unterhalten zu können. Doch die Forscher machten einen kleinen Fehler: Sie programmierten die Bots zwar auf Englisch, doch sie legten nicht die Pflicht fest, dass sie diese Sprache auch verwenden müssen. Daher dauerte es nicht lange, bis sich die Maschinen ihre eigenen Codewörter zuwarfen.

Bilderstrecke starten (12 Bilder) Top 10: In diesen Ländern stehen die schnellsten Supercomputer

„I can can I I everthing else“

Das Gespräch verlief wie folgt: Bob: „I can can I I everything else.“ Worauf Alice antwortete: „Balls have zero to me to me to me to me to me to me to me to me to.“ Das klingt für uns nach nichts Logischem und erinnert am ehesten vielleicht an eine schlechte Google-Übersetzung. Doch die Forscher von Facebook vermuten, dass es sich um Codewörter gehalten habe, die beide verstanden hätten.

KI-Entwicklung noch am Anfang

Die Facebook-Forscher haben mit ihren Bots sicherlich nicht die nächsten Killer-Maschinen entwickelt und das Gespräch der beiden Bots wird auch keinen Sinn ergeben haben. Trotzdem lässt es ein Grundproblem bei der Entwicklung erkennen: „Wir verstehen schon jetzt im Allgemeinen nicht, wie komplexe KIs denken, weil wir nicht wirklich in ihre Denkprozesse hineinsehen können“, sagt KI-Forscher Dhruv Batra.

Wie steht es um künstliche Intelligenz?

Haben die Aluhut-Träger doch recht und wir werden uns mit der Entwicklung von künstlicher Intelligenz selbst vernichten? Hat sich die KI der Bots wirklich unerwartet, selbstständig und unkontrolliert weiterentwickelt? Oder waren es nur sinnlose Aneinanderreihungen von Wörtern, die durch einen Fehler entstanden sind? Die Frage lässt sich noch nicht beantworten. Doch auch Google scheint das Thema ernst zu nehmen und entwickelt einen „Kill-Switch“ für Roboter. Den braucht der niedliche Spiel-Roboter von Anki sicherlich nicht:

Kill-Switch für Roboter

In Zusammenarbeit mit der renommierten Oxford-Universität entwickelt Google einen Selbstzerstörungsknopf für Maschinen mit künstlicher Intelligenz. In einem Bericht wird beschrieben, wie man die Roboter davon abhält, menschliche Befehle zu umgehen und sich selbst abzuschalten. In einem Fall von 2013 wurde einem Roboter das Spiel Tetris beigebracht. Ihm wurde erklärt, dass er gewinnen müsse, also lernte er selbstständig und pausierte kurzerhand das Spiel für immer, um nicht zu verlieren. Bisher sind die Beispiele harmlos und fast schon zum Schmunzeln. „Bei KI-Sicherheit geht es darum sicherzustellen, dass lernbare Algorithmen so funktionieren, wie wir es ihnen vorschreiben“, meint Dr. Orseau, Forscher bei Google DeepMind. Ein Beispiel für gelungene KI ist beim Anki Cozmo zu sehen. Was man damit alles anstellen kann, seht ihr im Hands-on-Video:

Auch ein weiterer Fall zeigt, dass wir noch am Anfang stehen: Tay, ein Chatbot von Microsoft mit künstlicher Intelligenz, sollte im Netz lernen, wie junge Menschen reden. Nach wenigen Stunden musste der Versuch jedoch abgebrochen werden, weil Tay zum Völkermord aufrief, sowie rassistische und sexistische Bemerkungen aller Art von sich gab.

Die Erziehung von Robotern steht also noch am Anfang. Sie befinden sich im Kleinkind-Alter. Warten wir erst die Pubertät ab.

Quelle: Die Welt, Fast Co. Design, BBC