Andererseits haben kleine Unternehmen auch eine gewisse Narrenfreiheit. »Wir können es uns leisten, dass mal etwas schiefgeht«, sagt Björn Schuller. Für die Großen kann es schnell sehr peinlich werden. Bei Google zum Beispiel scheint noch ein Vorfall aus dem Jahr 2015 nachzuwirken. Damals glaubte eine Bilderkennungssoftware im Foto einer dunkelhäutigen Frau einen Gorilla zu erkennen. Google merkte das erst, als der Tweet der Betroffenen viral ging.

Heutige KI macht eben nicht einfach nur Fehler, es ist oftmals auch niemandem klar, warum sie danebenliegt oder wie sie überhaupt zu ihren Resultaten kommt. Und beides sind Schwächen, die nach Meinung von Marcel Blattner, Chief Data Scientist bei der Schweizer Mediengruppe Tamedia, durch das Transferlernen auf ungünstige Weise verstärkt werden. »Die Risiken von Transfer Learning werden oft unterschätzt«, warnt er.

Vorurteile werden versteckt und weitergegeben

Eine große Gefahr lauert in sexistisch, rassistisch oder anderweitig verzerrten Trainingsdaten. Wenn es in einer Bilddatenbank hauptsächlich Menschen mit heller Hautfarbe gibt und dann noch ein paar Menschenaffen, muss das Netz zwangsläufig annehmen, dass nichtweiße Gesichter zu Gorillas gehören. Eine KI, die auf Basis jahrzehntealter Mitarbeiterdaten automatisierte Personalentscheidungen treffen soll, lernt, dass offenbar nur Männer Führungspositionen besetzen können. Und führt dieser »Bias« schon bei der ursprünglichen Verwendung eines KI-Systems zu fragwürdigen Ergebnissen, wird er bei der Zweitverwendung durch Transfer Learning nur noch unsichtbarer und im Zweifel sogar noch weiter verbreitet.

Für die Onlinemedien von Tamedia haben Blattner und sein Team ein System entwickelt, das automatisch Vorschläge macht, welche Kommentare unter Artikeln nicht veröffentlicht werden sollen. »Dieses Netz ist extrem gebiast, weil diese Kommentare Meinungen einer bestimmten Population reflektieren.« So habe das System viele sexistische und rassistische Vokabeln gelernt. Zudem sei es besonders sensibel bei Kommentaren über Politikerinnen – weil diese viel häufiger beleidigt werden als ihre männlichen Kollegen. »Würde man dieses System nun nehmen, um die Qualität von Artikeln zu überprüfen, würde man den Bias des Kommentar-Universums mit in die neue Aufgabe übernehmen.« Womöglich würden dann Artikel über Frauen und Männer mit zweierlei Maß gemessen.

Das zeigt nach Meinung von Blattner die Gefahr von Transfer Learning. Was sind die Ursprungsdaten? Für welchen Zweck wurden sie verwendet? Und welche Probleme kann mir das verursachen? Das müsse man immer fragen, doch längst nicht alle täten das. Im Gegenteil. »Ich lade irgendwo ein Modell herunter und gebe meine Daten ein.« Mehr lasse der Zeitdruck in Firmen oft nicht zu. Problematisch sei auch: »In der ganzen Pipeline, in der diese Systeme entstehen – von der Datengewinnung bis sie in die Welt hinausgelassen werden –, herrscht oft Aufgabenteilung.« Und über schlechte Dokumentation sei ja schon hinreichend viel geschrieben worden. Am Ende verstehe dann derjenige, der das Modell nutzt, nicht, wie es funktioniert.

Auch Schuller sieht die Herausforderungen wachsen. Schließlich sei es ohnehin oft schwierig herauszubekommen, wie eine KI zu ihren Schlüssen kommt. »Wenn man die Trainingsdaten nicht einmal kennt, ist das natürlich kaum mehr möglich.« Einen Bias aus einem System zu entfernen, sei zudem aufwändig, ergänzt Blattner. »Die Systeme werden meist schlechter dadurch. Daran haben die Unternehmen oft kein Interesse.« Stattdessen würden sie sie mit halbgaren Ergebnissen und Ungenauigkeiten durch verzerrte Trainingsdaten auf den Markt bringen. Das sei bedenklich, weil es die Benachteiligung bestimmter Bevölkerungsgruppen immer weiter verschärfe – ohne dass diese unfairen Entscheidungen wirklich nachvollzogen werden könnten.

Bei genauer Betrachtung sei Transfer Learning eben doch alles andere als einfach – und das werde zu selten berücksichtigt. Blattner ärgert das: »Ich glaube an diese Technologie, und ich glaube, dass sie uns weiterbringen kann, aber nur mit einem ganz ehrlichen Diskurs.«