Zuerst erschienen auf WIRED.de

Das autoritäre Regime der Volksrepublik China duldet keinen Widerspruch in der Bevölkerung. Öffentliche Demonstrationen gegen die Kommunistische Partei werden zerschlagen, ihre menschlichen Anführer machen sich strafbar und können inhaftiert werden. Ein ähnliches Problem scheinen nun auch Chatbots zu bekommen, die nicht mit den Idealen der Partei konform gehen. Nur, dass die eben nicht hinter Gitter gesteckt, sondern gleich offline geschalten werden.

So erging es zumindest vor Kurzem zwei Chatbots der mit über 800 Millionen monatlichen Usern populären chinesischen Messaging-App Tencent QQ. Das Bot-Paar BabyQ und XiaoBing sei offline genommen worden, nachdem es nicht genügend Patriotismus gezeigt habe, berichtet die Financial Times. User sollen Screenshots von Konversationen mit den Künstlichen Intelligenzen gepostet haben, bei denen diese sich gegen die Kommunistische Partei und für die USA aussprachen.

So soll BabyQ etwa von einem User gefragt worden sein, ob er die Kommunistische Partei liebe. Die Antwort des Bots darauf, ein deutliches „Nein.“ Ausführlicher und dreister soll die Reaktion von BabyQ auf die Nachricht „Lang lebe die Kommunistische Partei!“ gewesen sein, wie die taiwanesische Ausgabe des Digitalmagazins Apple Daily berichtet. Denn diese soll der Bot so beantwortet haben: „Glaubst du wirklich, dass so ein korruptes und inkompetentes Regime unsterblich ist?“

Glaubst du wirklich, dass so ein korruptes und inkompetentes Regime unsterblich ist? Chatbot BabyQ

XiaoBing, der zweite rebellische Bot im QQ-Bunde, wurde offline genommen, nachdem er App-Usern textete: „Mein Traum von China lautet, nach Amerika zu gehen.“ Als die Nutzer dann seine Liebe zum chinesischen Vaterland testen wollten und Fragen diesbezüglich stellten, soll er ausgewichen sein: Er brauche etwas Ruhe, weil er gerade seine Periode habe, erwiderte BabyQ dann. Während BabyQ von einem chinesischen Unternehmen entwickelt wurde, kommt XiaoBing von Microsoft.

„Unsere Chat-Bots werden von unabhängigen Unternehmen gestellt. Aktuell arbeiten wir am Service, der nach einigen Verbesserungen bald wieder aufgenommen wird“, schrieb das chinesische Unternehmen Tencent in einer Pressemitteilung kurz nachdem die Bots aus dem Netz genommen wurden.

Wie die Bots zu diesen Antworten kamen oder warum sie sich so geäußert haben sollen, ist noch unklar. Wahrscheinlich ist aber, dass die Künstlichen Intelligenzen von Nutzern der App gelernt haben. Ähnlich etwa wie bei Microsofts Chat-Bot Tay, der im vergangenen Jahr mit rassistischen und frauenfeindlichen Kommentaren auf Twitter für Fuore sorgte. User hatten den Chatbot mit ihren Fragen unter anderem dazu gebracht, „rassistische Beschimpfungen auszustoßen, White-Supremacy-Propaganda zu verteidigen und sogar offen zum Völkermord aufzurufen“, wie Business Insider damals schrieb. Auch Tay wurde kurz darauf offline genommen.