19.05.2017, 11:17 Uhr Gerade keine Zeit? Hinweis: Wir haben in diesem Artikel Provisions-Links verwendet und sie durch "*" gekennzeichnet. Erfolgt über diese Links eine Bestellung, erhält t3n.de eine Provision.

IT-Konzerne rüsten auf: Sie investieren in maschinelles Lernen. Schon Mitte der 60er Jahre entstand ein Hype um die lernende Maschine. Dabei verstehen wir die Algorithmen immer noch nicht richtig.

Anzeige

Dass es sich der Rechner einfach machte, stellten Wojciech Samek und sein Team erst nach einiger Zeit fest. Der Wissenschaftler leitet die Forschungsgruppe Maschinelles Lernen am Fraunhofer Heinrich-Hertz-Institut HHI in Berlin. Seine Gruppe analysierte ein intelligentes System, das Pferde auf Fotos erkennen sollte. Doch es erkannte die Tiere nur manchmal. Die Forscher stellten fest: Das Programm hatte sich die Bilder der Pferde gar nicht „angeschaut“. Es hielt sich stattdessen an die Schlagworte, die im Copyright der Fotos hinterlegt waren. Wenn die Angaben fehlten, konnte der Rechner nichts mit den Bildern anfangen. Er hätte ein Pferd selbst dann nicht erkannt, wenn es dasselbe Bild gewesen wäre.

Nix mehr verpassen: Die t3n Newsletter zu deinen Lieblingsthemen! Die t3n Newsletter zu deinen Lieblingsthemen! Jetzt anmelden

Maschinelles Lernen ist ein großes Thema dieser Tage – besonders, seit die großen IT-Konzerne massiv in diese Technik investieren. Amazon erwarb 2015 die Firma Obeus mit Schwerpunkt Gesichts- und Emotionserkennung sowie Video-Indexierung. Apple kaufte Emotient, ebenfalls spezialisiert auf die Analyse von Gefühlen. Facebook erwarb das Startup Pebbles, das sich mit Gestenerkennung beschäftigt, und Google investierte unter anderem in Deep Mind Technologies. Letzteres Unternehmen machte mit dem Programm Alpha Go Furore, weil es beim Brettspiel Go einen der besten Spieler der Welt schlug. Selbst in kommerziellen Cloud-Diensten ist das maschinelle Lernen längst integriert, sei es bei Amazon Web Services, Microsoft Azure oder IBM Bluemix.

Aber wie können Unternehmen das maschinelle Lernen sinnvoll einsetzen? Ist es wirklich schon mehr als eine Spielerei? Das maschinelle Lernen lässt sich als so etwas wie die praxistaugliche Seite der künstlichen Intelligenz beschreiben. Das Thema wurde bereits in der Mitte des 20. Jahrhunderts gehypt. Damals wollten Visionäre Computer schaffen, die so „denken“ sollten wie wir Menschen. „Maschinen werden in 20 Jahren alle Arbeit übernehmen können, die ein Mensch erledigen kann,“ verkündete Mitte der 1960er Jahre der spätere Wirtschaftsnobelpreisträger Herbert Simon. Computer würden uns verstehen, hieß es, und unsere Sprache sprechen. Doch dann kam die Ernüchterung: Die Fortschritte ließen auf sich warten, die finanzielle Förderung der KI-Forschung brach ein.

Dank besserer Rechenleistung und geringeren Erwartungen erlebt die künstliche Intelligenz heute ihr Comeback, allerdings sprechen Informatiker inzwischen lieber von „Machine Learning“-Algorithmen. Es geht vor allem darum, aus Daten zu lernen, in Daten nach Mustern zu suchen und Vorhersagen zu vorher festgelegten Fragestellungen zu treffen. Statt der Maschine also vorzuschreiben, was sie machen soll, weist man sie an, aus Datenbeständen zu lernen und die eigentliche Aufgabe dann selbst zu erfüllen.

Anzeige

Maschinen brauchen (noch) Lehrer

Ein Beispiel dafür ist eine Software des Massachusetts Institute of Technology (IT). Eigentlich ist ein Foto eine Momentaufnahme. Doch dahinter steckt eine Geschichte. Wenn wir ein Bild sehen, können wir erraten, wie sich die Szene kurz nach der Aufnahme verändert hat: Zeigt es einen Zug kurz vorm Bahnhof? Dann können wir uns vorstellen, wie die Wagons an der Haltestelle einfahren. Eine Welle im Meer? Sie wird am Ufer brechen. Ein in die Luft springender Hund, eine ein paar Meter entfernte Frisbee? Der Hund wird sie fangen und wieder auf dem Boden landen. Die Glanzparade eines Torwarts? Endet im Gras. Wir müssen nicht lange darüber nachdenken – wir schließen es aus den im Bild angedeuteten Bewegungen.

Genau das wollten die MIT-Forscher auch Maschinen beibringen. Dafür haben sie eine Software entwickelt, die aus solchen Fotos kleine Videos macht, in denen sie die Handlung weiter spinnt. Die Videos dauern zwei bis vier Sekunden, und sie sind verschwommen, aber die Software kann trotz allem plausibel darstellen, welche Pixel sich ungefähr verändern. Die Essenz der Bewegung wird erfasst.

Den Forschern gelang diese Kunst, indem sie einem neuronalen Netz 5.000 Stunden an Lernvideos zeigten: Strandszenen, Bahnhofsszenen, Szenen auf einem Golfplatz oder Babys im Krankenhaus. Aus den Videos lernte der Rechner, Bewegungen auf einzelne Fotos zu übertragen, die in der gleichen Umgebung angesiedelt sind. Die Forscher entwickelten zudem eine Software, die voraussagt, ob sich zwei Menschen in einer Szene küssen, umarmen oder die Hand reichen werden. Das kann einem System künftig ermöglichen, sich Filme anzuschauen, sie zu verstehen und die Handlung zusammenzufassen oder die Filme sinnvoll zu schneiden. Für Trailer und Schnitt eines Videos braucht es dann keinen Menschen mehr. Ein kleiner Einblick in das, was maschinelles Lernen zu leisten vermag.

Anzeige

Ganz selbst können die Maschinen heute aber immer noch nicht „denken“. Maschinelles Lernen braucht in der Regel menschliche Mithilfe, eine Art Mentor oder Lehrer. Ein Online-Händler will zum Beispiel, dass eine Software automatisch erkennt, ob eine neue Hose blau, schwarz oder weiß ist. Daher ordnet zunächst ein Mensch mehrere Hosen entsprechend ein. Die Maschine versucht, mit diesen Daten den Unterschied von blau, schwarz und weiß zu verstehen. Ein Mensch beaufsichtigt die ersten Bewertungen der Maschine und korrigiert sie. Der Algorithmus verfeinert die Prognose. Die manuell geprüften Daten nennen Programmierer manchmal den Gold Standard, die Grundlage des sogenannten „Supervised Learning“.