Das Bundesamt für Migration und Flüchtlinge (BAMF) will mit Auswertungen von Smartphones sowie Namens- und Dialektanalysen herausfinden, woher Geflüchtete kommen. Die Schulungen, die BAMF-Mitarbeiter dazu durchlaufen, geben ihnen jedoch kaum Anhaltspunkte, wie sie die Ergebnisse ihrer digitalen Untersuchungen interpretieren sollen. Wir veröffentlichen die Dokumente.

Der Tag geht von 9 bis 17 Uhr, auf dem Stundenplan stehen: Auslesen mobiler Datenträger, Sprachbiometrie, Umschrift arabischer Namen. Alle anderthalb Stunden eine kurze Pause, um 11:45 Uhr Mittag. So sieht die Schulung des Bundesamtes für Migration und Flüchtlinge (BAMF) aus, die Mitarbeiter mit den neuen IT-Tools der Asylbehörde vertraut machen soll. Ein Tag, das ist nicht viel Zeit. Ein Kompaktkurs bei der Volkshochschule Berlin für Powerpoint und Outlook dauert eine ganze Woche, doch was die BAMF-Mitarbeiter in ihrer eintägigen Schulung lernen und üben sollen, ist nicht die Bedienung eines Mailprogramms.

Es geht um Systeme, die einen Einfluss darauf haben, ob ein Mensch in Deutschland Asyl bekommt oder nicht. Wie diese Systeme funktionieren, auf welchen Algorithmen und welchen Datenmodellen sie aufbauen, ist intransparent. Das BAMF will auch nicht, dass die Schulungsunterlagen der Mitarbeiter öffentlich zugänglich sind. Auf eine Anfrage nach dem Informationsfreiheitsgesetz schickte die Behörde zwar die 123-seitige Präsentation per Post, versah sie jedoch mit dem Hinweis, sie dürfte nicht „vervielfältigt, veröffentlicht oder anderen Personen zugänglich gemacht werden“. Eine Begründung dafür gab die Behörde nicht an. Wir veröffentlichen das Dokument, zusammen mit Handbüchern und Dienstanweisungen.

Das BAMF rollte seine neuen IT-Tools im Jahr 2017 aus, es gewann Preise damit, bezeichnet sich als Vorreiter in der Digitalisierung. Markus Richter, der vom IT-Leiter zum Vizepräsidenten der Behörde aufstieg, berichtet regelmäßig von hohen Einsatzzahlen und dem großen Nutzen der neuen Systeme. Sie sollen helfen, die Identität und Herkunft von Geflüchteten zu verifizieren.

Software und Wahrscheinlichkeiten versprechen trügerische Sicherheit

Bei Asylsuchenden ohne überprüfbare Ausweispapiere kann das BAMF einen sprachbiometrischen Test durchführen. Der Geflüchtete muss dann zwei Minuten lang in seiner Muttersprache ein Bild beschreiben, am Ende spuckt der Computer einen Zettel mit Wahrscheinlichkeiten aus: Levantinisches Arabisch, Ägyptisches Arabisch oder vielleicht doch Hebräisch? Egal, ob ein Mensch seinen Dialekt verstellt, es soll die Sprache herausbekommen, die er eigentlich spricht.

Die Schulungsunterlagen enthalten eine detaillierte Schritt-für-Schritt-Anleitung, wie die Mitarbeiter im Asylverfahrenssekretariat das System bedienen sollen: Die Nummer 72099 wählen, Dienststellennummer und Personennummer eingeben, Rautetaste. Signalton abwarten. Jetzt spricht der Antragsteller in den Telefonhörer, idealerweise zwei Minuten lang.

Doch wie ein Entscheider das Ergebnis interpretieren soll, wird nur grob erklärt. Ist die Angabe, dass ein Geflüchteter mit 76,1-prozentiger Wahrscheinlichkeit Golf-Arabisch spricht schon ein ausreichender Hinweis darauf, dass er nicht – wie vielleicht behauptet – aus Afghanistan kommt? Interpretationsvorgaben sucht man in den Unterlagen vergebens. Auch in den Dienstanweisungen und Benutzerhandbüchern fehlen sie. Weitere Unterlagen sendete das BAMF auf Anfrage zu Schulungsunterlagen und Interpretationshilfen nicht zu.

War die Aufnahme überhaupt brauchbar? Ist das, was ins Mikrofon gesprochen wurde, laut und klar genug? Wie die Bedingungen bei der Aufnahme waren, weiß der Entscheider nicht, denn die hat ein anderer BAMF-Mitarbeiter durchgeführt. Qualitätsmaße wie der Signal-Rausch-Abstand stehen auch auf dem Auswertungsbericht. In der Schulungspräsentation sind die Angaben ausgegraut und mit einem Hinweis versehen: „Nicht relevant“.

Bedienungs- und Interpretationsfehler sind vorprogrammiert

Das BAMF gibt seinen Mitarbeitern vor, in Asylbescheide immer alle vorliegenden Hinweise einfließen zu lassen. Doch wenn die Entscheider nicht wissen, ab wann sie Wahrscheinlichkeitsaussagen als ernsthafte Indizien ansehen können, kann dies Antragsteller in Probleme bringen. Etwa, wenn nur eine leicht überwiegende Wahrscheinlichkeit für einen Dialekt vorliegt, die ähnlich aussagekräftig wäre wie ein Münzwurf.

Frühere Recherchen bei Motherboard haben gezeigt, dass auch das Ergebnis einer Sprachanalyse, bei der die Sprechdauer nicht einmal eine halbe Minute betrug, Eingang in eine Asylakte fand. Eigentlich soll eine Aufnahme zwei Minuten lang dauern. Nichtsdestotrotz wurde das Ergebnis als Argument für einen Ablehnungsbescheid herangezogen. BAMF-Mitarbeiter führten zudem Sprachanalysen bei nicht-arabischsprachigen Antragstellern durch, obwohl die Software nur für arabischsprachige Personen genutzt werden soll. Eine Auflistung des Bundesinnenministeriums, welche Angaben zum Herkunftsland getestete Personen machten, führt Länder wie Bangladesch, Kenia und Venezuela auf, in denen Arabisch wohl keine übliche Muttersprache ist.

Was die Schulungsunterlagen nicht erwähnen: die Fehlerquote der Software selbst. Das BAMF gibt sie mit 15 Prozent an, eine nicht unerhebliche Zahl. Überträgt man das auf die 6.284 Dialektanalysen, die seit Einsatzbeginn der Software in Asylakten landeten, lag die Technik in mindestens 943 Fällen falsch. Eine unabhängige wissenschaftliche Begleitung, die Aufschluss darüber geben könnte, wie aussagekräftig sprachbiometrische Tests sind, gibt es immer noch nicht – obwohl das BAMF dies bereits vor mehr als einem Jahr ankündigte. Genauso fehlen verlässliche Zahlen dazu, wie häufig die IT-Systeme eingesetzt werden und ob sie überhaupt hilfreich sind.

Handyauswertungen sind nur in 35 Prozent der Fälle überhaupt verwertbar

Die Diskrepanzen zwischen verschiedenen Angaben sind gewaltig: Von 27.000 ausgelesenen Handys seit Herbst 2017 sprach BAMF-Vize Markus Richter. Zahlen aus einer Antwort des Innenministeriums auf eine Kleine Anfrage klingen anders: 9.710 Geräte sollen von Januar bis Mitte Oktober 2018 ausgewertet worden sein, davon bekamen in nur 2.845 Fällen Entscheider die Smartphone-Analysen zu Gesicht. Und nur in 35 Prozent dieser Fälle – das wären ungefähr 996 – seien die Ergebnisse verwertbar gewesen. Die Ergebnisse könnten „unterzeichnet“ sein, sagt das Innenministerium – von den 27.000 ins Spiel gebrachten Geräten sind sie meilenweit entfernt.

Woher kommt der Unterschied? 27.000 Handyauslesungen, das sind die „technischen Auslesevorgänge“, sagt das BAMF. Nicht zu all diesen bekommen die Entscheider Ergebnisberichte zu sehen. Manchmal geht das Auslesen schief, manchmal kann der Antragsteller doch noch einen Pass vorlegen oder seine Herkunft anders bestätigen. Bisher nur 996 verwertbare Handyanalysen, das klingt nicht viel für ein System, das nach Schätzungen des Innenministeriums bis Ende 2019 11,2 Millionen Euro verschlingen wird.