In vielen Redaktionen mangelt es am grundlegenden ­Verständnis für den Umgang mit Forschungsergebnissen. Eine einfache Checklist schafft Abhilfe

von Leonie Wunderlich

Ob ein sensationeller Krebstest am Universitätsklinikum Heidelberg, die vermeintlich wissenschaftliche Expertise von Lungenärzten in der Stickstoffdioxid-Debatte oder die Fehlinterpretation der „Mitte-Studie“ der Friedrich-Ebert-Stiftung: Immer wieder übernehmen Journalisten vorschnell Studienergebnisse oder machen bei der Einordnung und Interpretation wissenschaftlicher Erkenntnisse grobe Fehler. „In den aktuell berichtenden Medien, aber auch in vielen politischen und wirtschaftlichen Redaktionen gibt es ein echtes Qualitätsproblem“, stellt Holger Wormer, Professor für Wissenschaftsjournalismus an der Technischen Universität Dortmund, fest. Bei vielen Nachrichtenmedien, auch bei den öffentlich-rechtlichen Sendern sei es gang und gäbe, dass völlig unkritisch Studien übernommen oder zitiert würden.

Blinde Expertengläubigkeit

Ein Grund dafür: Zeitdruck. „Wir haben eine wachsende Konkurrenz um Klicks und Quoten bei gleichzeitig tendenziell sinkendem Personal“, sagt Wormer. Das erschwere eine tiefgründigere Recherche. Hinzu komme, dass viele Journalisten bei dem Wort „Studie“ eine blinde oder zu große Expertengläubigkeit hätten. „Ich muss kein investigativer Journalist sein, um zu merken, dass ich über die eine oder andere Studie nicht berichten bzw. erstmal tiefgründiger recherchieren sollte.“

Seit 2010 leitet Wormer das Projekt „Medien-Doktor“, das die Qualität von Wissenschaftsjournalismus nach festen Kriterien bewertet. Eine Erkenntnis daraus: „Vielen Journalisten fehlt ein grundlegendes wissenschaftliches Verständnis.“ Für Nicola Kuhrt, Wissenschaftsjournalistin und Mitgründerin des Medizin-Watchblogs MedWatch, gehört es zum journalistischen Handwerkszeug, Studien kritisch zu hinterfragen. Dafür müsse man auch nicht Naturwissenschaften studiert haben oder Mediziner sein (s. Interview mit Nicola Kuhrt/MedWatch).

Ab in den Redaktions-Papierkorb

Wormer, der auf der Konferenz im Panel „Studien ohne Sinn“ über #FakeScience diskutierte, pflichtet ihr bei: „Man kann einen Großteil der Studien mit einer einfachen Checkliste aussortieren.“ Etwa beim Blick auf den Auftraggeber. „Eine Studie eines Marktforschungsinstitutes oder einer Unternehmensberatung ist im wissenschaftlichen Sinne per se erstmal nicht als Studie zu betrachten“, sagt Wormer. Ein weiteres Kriterium sei die Methode, mit der die Forschungsfrage beantwortet werden sollte. „Eine Studie, bei der die angewandte Methodik nicht transparent gemacht wird, gehört in den Redaktions-Papierkorb“, rät Wormer. Wenn nicht nachvollziehbar sei, wie jemand zu einem bestimmten Ergebnis gekommen ist, müsse man annehmen, dass die Studie unseriös sei. Zuletzt sollte man prüfen, ob mit den erhobenen Daten wirklich so weitreichende Schlussfolgerungen gezogen werden können. Bei bestehender Unsicherheit sollten andere Studien oder die Einschätzung von Experten aus dem betreffenden Fach hinzugezogen werden.

Checkliste für einen besseren Umgang mit (wissenschaftlichen) Studien

Wer ist der Auftraggeber der Studie? Deuten die Ergebnisse darauf hin, dass hier im Sinne des Auftraggebers „geforscht“ wurde?

Wird die Methodik der Studie transparent gemacht? Ist die Methode geeignet, um die Frage zu beantworten? (Ggf. Experten fragen!)

Ist die Stichprobenwahl sinnvoll? Wie groß ist die Grundgesamtheit?

Ist die Fragestellung sinnvoll /überhaupt zu beantworten?

Klingt das Ergebnis der Studie zumindest annähernd vernünftig und nachvollziehbar?

Behauptung von Trends: Gab es genügend Vergleichszeitpunkte?

Gibt es andere Studien zum Thema? Falls ja: Sind deren Ergebnisse einheitlich oder widersprüchlich?

Quellen: Dohmen, C.: Wissenschaft verstehen und journalistisch nutzen. Netzwerk Weitblick. | Wormer, H. und Karberg, S.: Wissen: Basiswissen für die Medienpraxis. Herbert von Halem Verlag.

15. August 2019