Gefährliches Lauschen

Bringen sogenannte Preprints seriösen Wissenschaftsjournalismus in Bedrängnis? 

Mal soll Kaffee schlecht für‘s Herz sein, mal eher gut. Mal soll Vitamin D vor Krebs schützen, mal nicht. Mal soll man zum Abnehmen auf Fett verzichten, mal auf Kohlenhydrate. Viele Menschen haben den Eindruck, dass Wissenschaftler sich alle Nase lang selbst widersprechen. An diesem Eindruck ist auch die Art und Weise schuld, wie Journalisten über Forschung berichten. Denn: Wissenschaftsjournalisten schreiben Meldungen zumeist über eine einzelne neue Studie. Und das Risiko, dass diese eine neue Studie – gemessen an der Gesamtheit aller Studien zum Thema – einen Ausreißer darstellt, ist enorm hoch. Französische Forscher um Estelle Dumas-Mallet haben zum Beispiel 2017 gezeigt, dass weniger als 50 Prozent der in Zeitungen thematisierten Studien später durch weitere Studien bestätigt werden können [Dumas-Mallet E et al. 2017;12(2):e0172650].

Redakteure und Journalisten haben jetzt auf einer Konferenz im schweizerischen Lausanne die Sorge geäußert, dass die Situation sogar noch schlimmer werden könnte – und zwar aufgrund sogenannter Preprints. Das sind Vorabveröffentlichungen von Studien, noch bevor sie den üblichen Publikationsprozess einer Fachzeitschrift durchlaufen haben. Um zu verstehen, warum einige Journalisten Preprints mit Sorge sehen, muss man sich klar machen, auf welchem Weg Forschungsmeldungen normalerweise ihren Weg in die Zeitung finden.

Von der Meldung zum Artikel 

Bevor Nachrichten aus der Wissenschaft den Leser erreichen, ist in vielen Fällen Folgendes passiert: Forscher haben eine Studie durchgeführt und diese zur Veröffentlichung bei einem Fachjournal eingereicht. Passt der Beitrag grundsätzlich in das jeweilige Journal und erfüllt das Manuskript formale Mindeststandards, gibt die Redaktion den Beitrag in anonymisierter Form an zwei oder mehr Experten aus dem jeweiligen Feld weiter. Diese prüfen die Arbeit nun eingehend und fordern je nach dem von den Studienautoren kleinere und größere Nachbesserungen ein. Das kann nur sprachliche Aspekte betreffen, aber zum Beispiel auch bedeuten, dass Forscher weitere Daten sammeln oder andere Analysen durchführen müssen. Bessern die Forscher nicht nach, wird der Beitrag nicht publiziert. Ziel dieses sogenannten Peer-Review-Verfahrens ist es, die wissenschaftliche Qualität von Publikationen so hoch wie möglich zu halten. Steht der Beitrag schließlich kurz vor der Veröffentlichung im Fachblatt, ergeht eine Mitteilung an die Presse. Diese enthält die wichtigsten Informationen zur Studie – und ein Datum, ab dem frühestens eine Meldung zur Forschungsarbeit in der Zeitung stehen darf. Dieses sogenannte Embargo schenkt Journalisten ein bisschen Zeit. Die braucht man, um die Studie kritisch zu prüfen oder auch um bei Experten nachzufragen, wie diese die Ergebnisse bewerten. Bei Preprints fällt dieses Embargo weg. Sobald Forscher ihre Ergebnisse auf einem Preprint-Server hochladen, sind diese meist sofort veröffentlicht. Genau das ist auch der Sinn: Preprints sollen die Zeit verkürzen, bis die Daten der wissenschaftlichen Community zur Verfügung stehen. Beim Peer-Review-Verfahren kann das sogar Jahre dauern – ein großer Nachteil, etwa im akuten Krisenfall wie bei einer Epidemie. Die meisten Wissenschaftler reichen ihre Preprint-Arbeit anschließend noch bei einem Fachblatt ein, wobei die Einreichung durch das Preprint-Feedback im besten Falle gewonnen hat. Was langfristig wahrscheinlich die Qualität publizierter Forschung steigert, könnte allerdings im Wissenschaftsjournalismus genau das Gegenteil bewirken. Zumindest war diese Befürchtung Anfang Juli auf der World Conference of Science Journalists (WCSJ) vielfach zu hören. Was steckt dahinter?

Nicht für die Öffentlichkeit

Weil Preprints öffentlich sind, liegt es nahe, dass Journalisten in Zukunft auf der Jagd nach spannenden Meldungen auch Preprint-Server durchforsten. Dabei seien diese gar nicht für Journalisten bestimmt, wie Jonathan Webb vom australischen Nachrichtendienst ABC News betonte: „Wir müssen uns klar machen, dass wir auf Preprint-Servern den Austausch von Wissenschaftlern untereinander belauschen.“ Es handele sich um frühe und unfertige Arbeiten, so Webb.

Das Prinzip Preprint ist dabei keineswegs neu. Preprints selber gäbe es schon seit 20 Jahren, wie Diskussionsmoderator Curtis Brainard vom US-Wissenschaftsmagazin Scientific American erklärte. Neu sei aber, dass  zunehmend Preprints aus anderen Bereichen als Mathematik, Physik oder Computerwissenschaften veröffentlicht würden. Das mache durchaus einen Unterschied, so Tom Sheldon vom britischen Science Media Centre: Stelle sich ein Preprint später als „Müll“ heraus, sei der Schaden wahrscheinlich nur gering, wenn es um Themen wie schwarze Löcher, Fossilienfunde oder Quantencomputer ginge. Ganz anders gelagert aber sei der Fall, wenn Journalisten beispielsweise über Preprints zu Ernährung, Antidepressiva, E-Zigaretten oder Handys und Krebs berichten würden: „Bei solchen Gesundheitsthemen, die die breite Öffentlichkeit interessieren und auch erreichen, können Sie dann richtigen Schaden anrichten“, betonte Sheldon. Dieses Risiko bestünde grundsätzlich zwar auch bei Studien, die das Peer-Review-Verfahren durchlaufen haben; bei Preprints sei es aber deutlich größer.

Gefährliches Lauschen
Lauschende Geistliche im Gemälde Kardinäle im Vorzimmer des Vatikans (1895) von
Henri Adolphe Laissement. Quelle: Wikimedia Commons

Weniger Zeit für Reflexion und Prüfung?

Zum Problem werden könnte auch, dass Journalisten und Redakteure sich unter Druck gesetzt fühlen, sofort über einen Preprint zu berichten, sobald dieser erschienen ist. Anders als beim Embargo-System laufe man sonst Gefahr, dass Wettbewerber einen Scoop landen, während man selber noch mit gründlicher Prüfung und fachlicher Einordnung beschäftigt sei, gab Kate Kelland von der Nachrichtenagentur Reuters zu bedenken. Nichtsdestotrotz hielte sie es für absolut geboten, die selben Standards für die Preprint-Berichterstattung anzulegen, wie für Peer-Review-Forschung. Das hieße eben auch, sich die Zeit zu nehmen, um zwei bis drei Experten zu bitten, den Preprint fachlich einzuordnen. Letzlich würden Preprints verantwortungsbewusste Journalisten dazu zwingen, „das, was sie gut machen, besser zu machen“, so Kelland.

Beispiel medRxiv

Auch Anbieter von Preprint-Servern sehen gewisse Risiken für die Öffentlichkeit, wie das Beispiel medRxiv [www.medrxiv.org] zeigt. Die am 6. Juni diesen Jahres gestartete Plattform für medizinische Preprints wird federführend vom Verlag des renommierten British Medical Journal (BMJ) betrieben. Weil medRxiv medizinischen Preprints gewidmet ist, mache das Portal einige Dinge anders, als andere Preprint-Server, erläuterte Theodora Bloom, Chefredakteurin des BMJ. Bei medRxiv werden vor der Veröffentlichung auf der Preprint-Plattform unter anderem folgende Maßnahmen durchgeführt [siehe auch Rawlinson C, Bloom T et al. BMJ. 2019;365:l2301]:
  • Autoren müssen Erklärungen abgeben: Wie haben sie ihre Studie durchgeführt? Bestehen Interessenkonflikte? Außerdem müssen sie Details zur Forschungsethik (Genehmigungen durch Ethikkommissionen, Einverständnis der Patienten etc.) offenlegen.
  • Beiträge müssen ein dreistufiges Screening passieren:
    • Runde I: Handelt es sich um eine Forschungsarbeit? Wurde diese Arbeit bereits eingereicht (Plagiat)? Beispielsweise flögen in dieser Runde auch Fallberichte oder Meinungsbeiträge raus.
    • Runde II: Sind Aufbau und Inhalt der Arbeit oberflächlich in Ordnung? Das prüft ein Forscher des jeweiligen Feldes, aber nur recht grob. Die Maßnahme sei keinesfalls mit einem Peer Review zu vergleichen, betonte Bloom.
    • Runde III: Könnte die Publikation der Arbeit eine Gefahr für die Öffentlichkeit darstellen? Bestünden Zweifel, würde die Arbeit nicht publiziert. Zum Beispiel habe man währen der Zika-Epidemie in Südamerika Arbeiten zurückgewiesen, die nahegelegt hätten, dass das Virus nicht auf diese oder jene Art übertragen werden könne. Bloom: „Das sind keine Inhalte, die Sie ohne die nötige Gewissenheit mitten in einer Gesundheitskrise veröffentlichen wollen“.
  • BMJ verschicke zudem keine Pressemittelungen zu Arbeiten, die neu auf medRxiv erscheinen, berichtete Bloom. 

Nicht nur die Risiken sehen 

Auch die Bedenkenträger mussten in Lausanne einräumen, dass ihre Befürchtungen im Moment noch eher hypothetischer Natur sind. Schließlich wird bisher nur ein sehr kleiner Teil von medizinischer Forschung auf Preprint-Servern veröffentlicht. Allerdings ist der absolute Zuwachs enorm: Während prepubmed.org, eine Suchmaschine für biomedizinische Preprints, für 2013 noch rund 200 Preprints pro Monat ausweist, sind es für das Jahr 2018 schon gut 2.600 [Genaue Daten hier]. Auf längere Sicht könnten die diskutierten Probleme also sehr wohl virulent werden.

Dessen ungeachtet bergen Preprints aber möglichweise auch für die verantwortungsbewusste Berichterstattung Potenziale: Jonathan Webb erklärte zum Beispiel, er könne sich vorstellen, Preprints als Inspirationen für neue Themen und weitere Recherchen heranzuziehen. Ein weiterer Vorschlag kam aus dem Auditorium: Man könnte Preprints doch vielleicht auch nutzen, um die Dynamik von Forschung und Wissenschaft besser zu veranschaulichen. Indem Journalisten etwa auf die Unterschiede zwischen dem Preprint und der späteren Peer-Review-Veröffentlichung hinwiesen, ließe sich ein angemesseneres Bild von Forschung als Prozess zeichnen.

Am Ende des Tages könnte also das größere Problem sein, dass Journalisten Forschung nicht als Kontinuum sondern eher als abgeschlossenen Prozess präsentieren – ganz unabhängig davon, ob es sich bei ihren Quellen um Preprints oder Peer-Review-Artikel handelt. Auf der anderen Seite erscheint es zumindest fraglich, ob Leser ein „wir wissen es noch nicht sicher“ oder „kommt drauf an“ als Fazit einer wissenschaftlichen Nachricht akzeptieren. Aber ist das letztlich nicht eine schöne Forschungsfrage, die einmal selber Gegenstand eines Preprints oder Peer-Review-Papers werden könnte?

Kommentare

Beliebte Posts