Fake in der Forschung

Wie verlässlich ist die Wissenschaft?

Manipulation und Fälschungen in der Wissenschaft – wer und wie viele tun es? © HG: ingram/ thinkstock

Ob gefälschte Daten, geschönte Diagramme oder geklaute Inhalte – immer wieder werden auch Forscher bei Betrug und Schummeleien ertappt. In Zeiten von Fake-News wirft dies kein gutes Licht auf die vermeintlich seriöse und streng kontrollierte Wissenschaft. Doch sind dies nur Einzelfälle? Oder steckt mehr dahinter?

Ob Phänomene des Kosmos, Fortschritte in der Medizin oder Erkenntnisse über die Erdgeschichte: Unser Bild der Welt ist von dem geprägt, was Wissenschaftler herausfinden und veröffentlichen. Ihre Arbeit gilt als verlässlich und weitgehend objektiv – jedenfalls meistens. Doch gerade in letzter Zeit scheinen sich bei vermeintlich hochseriösen Publikationen und renommierten Forschern Fälle von Manipulation und sogar Fälschungen zu häufen. Müssen wir nun auch Fake-News in der Forschung fürchten?

Die Versuchung

Vom Fehler zur Fälschung

Was macht man, wenn die Daten nicht zur Hypothese passen? Oder ein Ausreißer alles in Frage stellt?© conejota/ iStock

Wer schon einmal wissenschaftlich gearbeitet hat, kennt die Situation: Man verbringt unzählige Tage und Nächte damit, ein wichtiges Experiment oder eine Messreihe durchzuführen. Dann endlich sind die Daten da und man macht sich an die Auswertung. Doch die Ergebnisse sind enttäuschend: Da sitzt ein Ausreißer-Wert so weit jenseits der Erwartungen, dass er droht, die gesamte Aussage zu torpedieren. Oder die Daten ergeben einfach kein klares Bild und schon gar keine statistische Signifikanz.

Warum Fehler normal und wichtig sind

Und jetzt? Für Wissenschaftler beginnt an diesem Punkt normalerweise die Fehlersuche – eine der wichtigsten und oft sogar produktivsten Phasen der Forschung. Sind die Ergebnisse nicht so wie erwartet, dann gilt es, seinen Ansatz zu hinterfragen: Lief bei den Messungen etwas falsch? Ist das Experiment vielleicht gar nicht geeignet, um die Fragestellung zu untersuchen? Oder lag man möglicherweise schon bei der Hypothese falsch – so bestechend und einleuchtend sie vielleicht auch anfangs schien?

Häufig bleibt einem Wissenschaftler dann nichts anderes übrig, als das Experiment zu wiederholen oder sogar in eine ganz neue Richtung zu planen und zu denken. Nicht selten haben erst Fehler und Versehen so wichtige Erkenntnisse zutage gefördert, wie beispielsweise die „zufällige“ Entdeckung des Penicillins durch eine im Brutschrank vergessene Bakterienkultur.

Selbst der geniale Albert Einstein brauchte viele Fehlversuche und Jahre für seine Feldgleichungen.© Historisch

Und selbst ein Genie wie Albert Einstein benötigte mehrere Jahre und unzählige falsche Anläufe, bis er endlich die Feldgleichungen für seine Allgemeine Relativitätstheorie formuliert bekam. Versuch und Irrtum sind daher kein Versagen, sondern ein integraler Teil des wissenschaftlichen Prozesses.

Unternehmer in eigener Sache

Doch genau hier liegt das Problem: Heute arbeitet kein Forschender mehr im stillen Kämmerlein und mit unbegrenzten Ressourcen an Geld oder Zeit – im Gegenteil. „Um heute erfolgreich zu sein, müssen Forscher oft Unternehmer in eigener Sache sein, deren Arbeit nicht nur durch Neugier angetrieben wird, sondern von der Jagd nach Fördermitteln, karrierepolitischen Erwägungen und Ehrgeiz“, konstatieren die US-Mikrobiologen Arturo Casadevall und Ferric Fang.

Gerade junge Forschende stehen unter einem immensen Erfolgsdruck, in der ihnen zur Verfügung stehenden Zeit möglichst optimale Ergebnisse zu bringen. Wiederholungen, Umwege oder gar ein Scheitern sind hier nicht eingeplant. Entsprechend viel Mut und Überwindung kostet es, in dieser Situation zu seinen Arbeitsgruppen- oder Institutsleitern zu gehen und einen Fehler oder sogar einen ganz falschen Ansatz einzugestehen.

Am Scheideweg

Und genau hier setzt die Versuchung ein: Warum lasse ich nicht einfach stillschweigend den lästigen Ausreißerwert weg – die restlichen Werte passen ja. Oder ich schöne die Daten so, dass doch noch eine statistische Signifikanz zustande kommt. Und wenn die Hypothese nicht mehr richtig passt, dann lassen sich die Ergebnisse vielleicht so uminterpretieren, dass sie doch noch die Erwartungen erfüllen.

„Wenige Wissenschaftler sind so schlau oder haben das Glück, dass sie in ihrer Karriere nicht irgendwann an einen solchen Scheideweg kommen“, sagt der US-Physiker Robert Park. Und dann müssen sie eine Entscheidung treffen: „In einer Richtung liegt das Zugeben, dass sie falsch lagen, in der anderen das Leugnen.“

Wer sind die Täter?

Persönlichkeit und Umstände wirken zusammen

Fälle von wissenschaftlichem Fehlverhalten gibt es aus nahezu allen Fachdisziplinen und Forschungsgebieten. Und das komplexe Gefüge von Umständen, Persönlichkeit und Sachzwängen sorgt dafür, dass im Prinzip fast jeder Forschende in die Versuchung kommen kann, Daten zu schönen, zu frisieren oder sogar fälschen.

Jung, männlich, ehrgeizig

Dennoch: Es gibt bestimmte Faktoren, die es durchaus erlauben, eine Art Täterprofil zu erstellen, wie Charles Gross von der Princeton University erklärt: „Der typische Täter ist jung, männlich und sehr ehrgeizig. Höchstwahrscheinlich forscht er in einem der schnellwachsenden Gebiete der modernen Biologie oder Medizin, in denen Durchbrüche eine große klinische, theoretische und finanzielle Bedeutung haben können“, so der Psychologe.

Der Täter arbeitet zudem wahrscheinlich an einem renommierten Institut und ist Teil einer größeren Arbeitsgruppe, die von einem international anerkannten Wissenschaftler geleitet wird. Wegen seiner vielen Verpflichtungen kann dieser sich meist nur wenig um seine Jungforscher kümmern. Gleichzeitig aber ist der Druck auf seine Mitarbeiter erheblich: Um den Ansprüchen ihres Betreuers zu genügen und ihren begehrten Platz in der Arbeitsgruppe zu behalten, müssen sie publizierbare Ergebnisse liefern – so viele und gute wie möglich.

Der Fall Schön

Tatsächlich passen viele bekannte Fälle von Wissenschaftsbetrug in dieses Bild. So zum Beispiel Jan Hendrik Schön. Schon mit 31 Jahren galt der bei den Bell Labs in New Jersey arbeitende Physiker als wahres „Wunderkind“. Ob der erste organische Feststofflaser, ein Transistor aus nur einem Molekül oder supraleitende Fullerene – fast schon im Wochentakt veröffentlichte Schön neue, bahnbrechende Errungenschaften. Allein 2001 erschienen 17 Arbeiten von ihm in den renommierten Fachjournalen „Nature“ und „Science“.

Eine der vermeintlichen Erfindungen von Jan Hendrik Schön war ein organischer Festkörperlaser© Frater

Dumm nur: Ein Großteil dieser Arbeiten basierte auf geschönten oder schlicht gefälschten Daten – was weder seine Koautoren noch die Peer-Review-Gutachter bemerkten. Das Ganze flog erst auf, als zwei Physikerinnen eine Veröffentlichung von Schön genauer studierten, weil sie die Daten für eines ihrer eigenen Projekte heranziehen wollten. Ihnen fiel auf: Zwei bei verschiedenen Temperaturen durchgeführte Experimente wiesen trotzdem das gleiche „Rauschen“ auf – physikalisch ist das unmöglich. Andere Forscher stießen wenig später auf ähnliche Dopplungen und Diskrepanzen.

Durch diese Vorfälle aufmerksam geworden, lancierten die Bell Labs eine interne Überprüfung von Schöns Arbeit – und wurden prompt fündig. Mindestens 16 eindeutig belegbare Fälle von wissenschaftlichem Fehlverhalten listeten die Gutachter in ihrem Bericht auf. Der Physiker hatte nicht nur günstige Daten einfach immer wiederverwertet, ganze Diagramme und Kurven waren im Computer errechnet, statt reale Daten abzubilden.

Verdächtig auch: Ausgerechnet die Rohdaten, die die Korrektheit von Schöns Arbeiten hätten belegen können, fehlten. Angeblich, so erklärte der Forscher, habe er kein Laborbuch geführt. Die Rohdaten habe er von seinem Rechner gelöscht, weil sie zu viel Platz beansprucht hätten. Bis heute bestreitet der Physiker, absichtlich Daten und Abbildungen gefälscht zu haben.

Nur ein extremer Einzelfall?

Spitze eines Eisbergs?

Wie viele Forschende schummeln?

Schummeleien und Fälschungen in der Wissenschaft sind beileibe kein neues Phänomen. Das beweisen Fälle wie der berühmte Piltdown-Mensch oder der des Physikers Emil Rupp – er hatte in den 1920er Jahren Daten, die den Welle-Teilchen-Dualismus belegen sollten, schlicht gefälscht.

Anzahl der zurückgezogenen Publikationen von 1977 bis 2011 und die Gründe dafür.© Fang et al. / PNAS

Haben Betrugsfälle zugenommen?

Doch gerade in den letzten Jahren und Jahrzehnten scheinen sich Fälle von wissenschaftlichem Fehlverhalten zu häufen – selbst wenn man die für Geistes- und Sozialwissenschaft typischeren Plagiate nicht einbezieht. „Wir müssen herausfinden, ob solche Vorkommnisse nur bloße Fußnoten der Wissenschaftsgeschichte sind oder ob wir Situationen und Motivationen kreieren, die solche Fälle zur Spitze eines ganzen Eisbergs machen“, konstatierte der US-Politiker Al Gore bereits 1981 vor einem Komitee.

Was also stimmt? Fälschen und schummeln Forschende heute mehr als früher? Oder werden heute einfach mehr von ihnen erwischt? Das herauszufinden, ist alles andere als einfach. Denn oft sind die Grenzen zwischen bloß schludriger Arbeit, Versehen und absichtlicher Manipulation fließend. Und selbst überführte Forscher haben meist jede Menge Ausreden parat – von angeblich versehentlichem Rohdatenverlust über schlichtes Leugnen bis zum Abschieben der Schuld auf Mitarbeiter reicht die Spanne.

Ein Drittel hat schon mal gemauschelt

Trotz dieser Schwierigkeiten gibt es durchaus Anhaltspunkte – und diese stammen von den Wissenschaftlern selbst. In anonymisierten Befragungen haben viele von ihnen darüber Auskunft gegeben, ob sie schon einmal der Versuchung erlegen sind. Die bisher umfangreichsten Daten dazu hat Daniele Fanelli von der University of Edinburgh gesammelt und untersucht. In seiner Metastudie wertete er 18 Befragungen aus den letzten rund 20 Jahren mit insgesamt mehr als 11.500 Teilnehmern aus.

Anteil der in den 18 Studien befragten Forschenden, die fragwürdige Praktiken (QRP) zugaben, von Fehlverhalten von Kollegen oder allgemein in ihrem Umfeld wussten.© Daniele Fanelli/ PloS ONE, CC-by-sa 3.0

Das Ergebnis: Knapp zwei Prozent der Befragten gaben zu, selbst schon mindestens einmal Daten gefälscht oder modifiziert zu haben. Sie haben demnach ziemlich schwerwiegende Verstöße gegen das korrekte wissenschaftliche Arbeiten begangen. Aber: „Mehr als ein Drittel der Forschenden gab verschiedene andere fragwürdige Praktiken zu“, berichtet Fanelli. Zu diesen gehörten das Weglassen einzelner Datenpunkte oder die nachträgliche Anpassung von Design, Methode oder Ergebnissen einer Studie an die Erwartungen.

Hohe Dunkelziffer

Doch selbst diese Zahlen sind vermutlich noch zu niedrig, denn gerade bei solchen Selbstauskünften sei die Dunkelziffer hoch: „Gerade in der Wissenschaft ist eine Reputation von Ehrlichkeit und Objektivität für die Karriere fundamental“, so Fanelli. „Jeder, der schon einmal Ergebnisse gefälscht hat, wird daher selbst bei zugesicherter Anonymität zögern, dies zuzugeben.“

Interessant auch: Als Postdocs der University of California in San Francisco nach eigenen Vergehen gefragt wurden, gaben 3,4 Prozent ein Fehlverhalten zu. 17 Prozent aber sagten, sie seien grundsätzlich willens, Daten wegzulassen oder zu selektieren, um ihre Ergebnisse zu verbessern. Noch extremer fiel eine ähnliche Befragung in San Diego bei Doktoranden der biomedizinischen Fächer aus: Knapp fünf Prozent gaben Manipulationen zu, aber 81 Prozent würden Daten selektieren, weglassen oder fälschen, um eine Förderung zu bekommen oder eine Publikation zu erreichen.

Doch wo bleibt bei alldem die vielgepriesene Selbstkontrolle der Wissenschaft?

Versagt die Selbstkontrolle?

Was Peer-Review leistet – und was nicht

Zwei Dinge galten bisher als Garant für die Ehrlichkeit und Verlässlichkeit der Wissenschaft: die Peer-Review der Fachjournale und die Reproduzierbarkeit der Ergebnisse. Beides zusammen soll sicherstellen, dass manipulierte oder gefälschte Ergebnisse gar nicht erst publiziert werden – oder zumindest von anderen Forschenden nachvollzogen und damit überprüft werden können.

Peer-Review: Vor der Veröffentlichung wird jeder eingereichte Artikel von einem oder mehreren Wissenschaftlern der entsprechenden Fachrichtung begutachtet.© Idrutu/ thinkstock

Qualitätskontrolle in Theorie – und Praxis

„Der Peer-Review-Prozess ist einer der Grundpfeiler der Qualität, Integrität und Reproduzierbarkeit in der Forschung“, konstatiert der wissenschaftliche Springer Verlag in Heidelberg, einer der größten Herausgeber von Fachjournalen. Das Prinzip der Peer-Review ist eigentlich simpel: Jedes bei einem Fachjournal eingereichte Manuskript wird an einen oder mehrere Wissenschaftler weitergeleitet, die im gleichen Fachgebiet arbeiten wie die Autoren. Diese Gutachter prüfen das Paper auf Relevanz, Korrektheit und Plausibilität.

Jeder Fachartikel durchläuft dadurch eine Art Qualitätskontrolle, bevor er erscheint – so jedenfalls die Theorie. Dennoch kommt es immer wieder vor, dass selbst renommierte Fachjournale wie „Nature“ oder Science“ gefälschte oder manipulierte Studien veröffentlichen. Meist kommt der Betrug erst im Nachhinein heraus, so dass die Artikel dann zurückgezogen werden müssen. Seit den 1970er Jahren gab es gut 2.000 solcher Fälle von Retraktionen – zwei Drittel davon wegen Fehlverhaltens, wie Ferric Fang von der University of Washington und seine Kollegen ermittelten.

Seit den 1970er Jahren wurden immerhin schon 2.047 Fachartikel zurückgezogen – zwei Drittel wegen Fehlverhaltens.© Maksim Koval/ thinkstock

Überlastet und ausgetrickst

Doch warum versagt die Peer-Review? Einer der Gründe: „Diese Form der Selbstkontrolle stößt langsam an ihre Grenzen“, erklärt Manfred James Müller von der Universität Kiel. „Die Zahl der Experten, die für solche Gutachten in Frage kommen, ist begrenzt und ihre Zeit ist es ebenfalls.“ Als Folge schaffen es die Gutachter oft kaum noch, die Manuskripte und die zugrundeliegenden Daten wirklich gründlich zu prüfen.

Hinzu kommt: Bei vielen Journalen können Autoren selbst fachlich geeignete Gutachter für ihre Artikel vorschlagen. Doch wie sich 2015 herausstellte, vereinfacht dies den Betrug: Autoren hatten eine eigene E-Mail-Adresse als die des Gutachters angegeben. Die bei den Verlagen zuständige Software schickte ihnen daraufhin ihr eigenes Manuskript zur Peer-Review – eine echte Prüfung entfiel damit. In den letzten Jahren mussten allein deswegen weit mehr als 100 Fachartikel zurückgezogen werden.

Star Wars im Fachjournal

Vollends ad Absurdum geführt wird das Prinzip der Peer-Review bei einigen Open Access-Fachjournalen: Weil sie davon leben, dass ihre Autoren ihnen Geld für das Publizieren zahlen, werden Manuskripte nur pro forma, wenn überhaupt begutachtet. Denn je mehr Artikel erscheinen, desto mehr verdienen auch die Verlage. Die drastische Konsequenz: Im Jahr 2017 wurde ein Pseudo-Fachartikel über die komplett fiktionalen „Midi-Chlorianer“ der Star Wars-Filme von drei dieser „Predatory Journals“ veröffentlicht.

Eine wilde Mischung aus Star Wars-Zitaten und Wikipedia-Plagiat – und trotzdem wurde der Pseudo-Fachartikel von drei Journalen veröffentlicht. © thinkstock (Kollage)

„Aber beweist dies deshalb, dass das gesamte System des wissenschaftlichen Publizierens hoffnungslos versagt? Nein!“, betont der Initiator dieses Tests, der unter dem Pseudonym „Neuroskeptic“ firmiert. Denn auch er ist der Überzeugung, dass sich die meisten Fachmagazine durchaus um seriöse und qualitativ hochstehende Inhalte bemühen – und eine echte Peer-Review betreiben.

Grund zur Sorge?

Gemessen an der gewaltigen Menge der Publikationen ist der Anteil der wegen Betrugs oder Fehlern zurückgezogenen Artikel tatsächlich eher gering: Unter den mehr als 25 Millionen Fachartikeln die bis 2012 im biomedizinischen Bereich publiziert wurden, waren etwa 1.300 Retraktionen wegen Fehlverhaltens, wie Fang und seine Kollegen feststellten.

Dennoch: Gerade in Zeiten von Fake News und alternativen Fakten werfen solche Fälle kein gutes Licht auf die Verlässlichkeit des wissenschaftlichen Publizierens insgesamt. Doch bedeutet dies, dass die Selbstkontrolle der Wissenschaft komplett versagt?

Die Anderen als Korrektiv

Whistleblower und das Prinzip der Reproduzierbarkeit

Neben der Peer-Review gibt es noch ein zweites „Sicherheitsnetz“ gegen Fakes in der Forschung: das Prinzip der Reproduzierbarkeit. Konkret bedeutet dies, dass alle Experimente und Studien so beschrieben und dokumentiert werden müssen, dass sie von anderen Forschenden wiederholt werden können.

„Reproduzierbare Forschungspraktiken können zwar die komplette Fälschung und Erfindung von Daten nicht verhindern“, meint Charles Gross von der Princeton University. „Aber eine weitverbreitete Anwendung solcher Praktiken könnte mit Sicherheit die gängigen Formen wissenschaftlichen Fehlverhaltens radikal reduzieren.“

Gerade in Fachrichtungen wie der Stammzell-Forschung ist die Versuchung groß, das Risiko erwischt zu werden aber auch.© Pablo K /iStock

Stammzellen im Säurebad

Tatsächlich sind einige der bekannten Betrugsfälle genau deswegen aufgeflogen: Andere Wissenschaftler wollten die in der Publikation beschriebenen Experimente nachmachen – und stießen auf Unstimmigkeiten: Mal fielen ihnen schon in den Daten oder bei den Methoden Fehler auf oder aber sie kamen bei der Durchführung der Studie zu völlig anderen Ergebnissen.

Ein prominentes Beispiel ist der Fall der japanischen Stammzellforscherin Haruko Obokata: In gleich zwei „Nature“-Veröffentlichungen behauptete sie, normale Zellen durch Eintauchen in ein Säurebad in eine Stammzelle umprogrammiert zu haben. Angesichts der großen Bedeutung induzierter Stammzellen für die Medizin war das eine echte Sensation – und wurde von entsprechend vielen Forschergruppen aufgegriffen.

Doch schnell stellte sich heraus, dass niemand Obokatas Ergebnisse reproduzieren konnte – selbst bei peniblem Befolgen ihrer Methode. Als dann das Forschungszentrum RIKEN der Sache nachging, stellte sich heraus, dass die Stammzellen schon von Anfang an in der Zellkultur enthalten waren. Obokata muss diese Kontamination nach Ansicht der Prüfer wissentlich herbeigeführt haben – sie hat betrogen.

Whistleblower können dabei helfen, Fälle von wissenschaftlichem Fehlverhalten aufzudecken.© Sohel Parvez Haque/ iStock

Whistleblower im Dienst der Forschung

Und noch etwas spielt für die Aufdeckung von Fakes eine wachsende Rolle: soziale Medien. Ähnlich wie in der Politik gibt es auch in der Wissenschaft inzwischen Plattformen, die ein Forum bieten für das kritische Hinterfragen von Fachartikeln, aber auch für „Leaks“ aus Forschungsgruppen. Eines dieser Foren erhielt allein von Juli bis Dezember 2012 fast 300 anonyme E-Mails, in denen Wissenschaftler über mögliche Manipulationen von Daten in Publikationen von Kollegen berichteten.

Andere Blogs und Foren widmen sich der sogenannten post-publication Peer-Review: Sie überprüfen und analysieren bereits erschienene Studien.

Whistleblower aus den eigenen Reihen waren es auch, die zwei schwedische Limnologen in Bedrängnis brachten. Peter Eklöv und Oona Lönnstedt hatten 2016 in einem „Nature“-Fachartikel über negative Folgen von Mikroplastik auf das Wachstum von Fischen berichtet. Doch wenig später meldeten sich Kollegen aus dem gleichen Forschungsinstitut und berichteten, einige der im Artikel beschriebenen Experimente seien gar nicht durchgeführt worden, bei anderen gebe es Diskrepanzen zwischen der Beschreibung und dem, was tatsächlich im Institut stattgefunden habe.

Die Universität von Uppsala führte daraufhin eine interne Untersuchung durch und befand die beiden Forscher für schuldig. Eklöv und Lönnstedt konnten viele ihrer Fragen nicht befriedigend beantworten und verwickelten sich in Widersprüche. Hinzu kam: Auch bei ihnen waren viele der Rohdaten verschwunden – angeblich, weil ein Laptop gestohlen worden war und es Probleme mit den Backups gab.

Zwischen Kontrolle und Vertrauen

Was sind die Konsequenzen?

Klar scheint: Vor der Versuchung, Daten zu schönen, manipulieren oder fälschen, ist kein Forschender gefeit. Kommen dann Erfolgsdruck, Ehrgeiz, mangelnde Kontrolle im Institut und bei den Fachjournalen dazu, bleiben Fälle von wissenschaftlichem Fehlverhalten nicht aus.

Es werden mehr erwischt

Das Positive aber: Auch das Bewusstsein für die Gefahr solcher „Sündenfälle“ wächst allmählich – und damit offenbar auch die Aufklärungsquote. „Neue Technologien, eine Kultur des Sharing, der Transparenz und der öffentlichen Kritik bieten heute nie dagewesene Chancen, die Wissenschaft von Fakes und Manipulationen zu säubern“, meint Daniele Fanelli von der Stanford University.

Anteil der wegen Betrugs zurückgezogenen Publikationen von 1973 bis 2011© Fang et al. / PNAS

Und tatsächlich: Ob durch Peer-Review, Whistleblower oder eine mangelnde Reproduzierbarkeit – inzwischen werden immer mehr Fälscher ertappt, wie Ferric Fang und seine Kollegen bei ihrer Studie feststellten. Demnach hat sich die Zahl der wegen Betrugs zurückgezogenen Fachartikel seit den 1970er Jahren zwar verzehnfacht – aber nicht unbedingt, weil mehr geschummelt wird. Stattdessen führen die Forscher den Anstieg primär auf eine bessere Aufklärungsquote zurück.

Dafür spricht, dass die Retraktionen besonders stark in die Höhe schnellten, als in den USA das Office of Scientific Integrity gegründet wurde – ein speziell der Aufdeckung von wissenschaftlichem Fehlverhalten gewidmetes Institut.

Fachjournale reagieren

Viele Fachjournale sind inzwischen zudem für das Thema sensibilisiert: Sie prüfen nicht nur die neu eingereichten Manuskripte, sondern auch vergangene Publikationen der Autoren und mögliche Vorwürfe des Fehlverhaltens. Um die Reproduzierbarkeit sicherzustellen und die Überprüfung durch Kollegen zu erleichtern, stellen immer mehr Wissenschaftler begleitend zu ihrer Veröffentlichung auch ihre Rohdaten ins Netz – bei einigen Fachjournalen ist dies inzwischen sogar Usus.

Transparenz schaffen und genauer hinschauen – das ist das Ziel.© StudioM1/ thinkstock

Fanelli hält aber noch eine weitere Maßnahme für nötig: Journale sollten Autoren die Möglichkeit geben, auch von sich aus Artikel zurückzuziehen – ohne negative Folgen oder Strafen. Denn immerhin rund 20 Prozent der Retraktionen beruhen nicht auf Betrug, sondern auf ehrlichen Fehlern, wie er in seiner Studie feststellte. „Wenn Wissenschaftler ihre fehlerhaften Arbeiten selbst zurückziehen, erspart das anderen Forschern Zeit und Geld für sinnlose Forschung – und verhindert aufwändige Untersuchungen wegen Fehlverhaltens“, so Fanelli.

Fokus auf Aufklärung und Transparenz

Ein Umdenken gibt es inzwischen auch bei vielen Instituten und Forschungsorganisationen. So bekämpfen einige den Druck des „Publish or perish“ damit, dass sie bei Bewerbungen für wissenschaftliche Positionen nicht mehr auf die Quantität der Publikationen setzen. Stattdessen darf jeder Bewerber nur noch zwei bis fünf Artikel als „Arbeitsprobe“ einreichen – es zählt die Qualität.

In den USA setzt man zudem auf Aufklärung: Die National Science Foundation(NSF) und die National Institutes of Health (NIH) fordern von allen durch sie geförderten Instituten und Arbeitsgruppen den Nachweis spezieller Schulungen: Mitarbeiter und Forschende müssen Kurse durchlaufen, die sich mit verantwortungsvoller Wissenschaft und Fehlverhalten auseinandersetzen. Gruppenleiter und Betreuer von Juniorforschern erhalten zusätzliche Trainings.

Kaum ein Arbeitsgruppen- oder Institutsleiter prüft wirklich Laborbücher und Rohdaten seiner Mitarbeiter.© BraunS/ iStock

Denn: Häufig sind sie es, deren Vorgaben, hierarchiebewusstes Verhalten und mangelnde Kontrolle erst ein günstiges Umfeld für Manipulationen schaffen. Tatsächlich ergab 2008 eine Stichprobe in den Arbeitsgruppen überführter Juniorforscher: Fast drei Viertel der Studien- oder Arbeitsgruppenleiter hatten die Rohdaten ihrer Mitarbeiter nie überprüft. Schon vor Jahren wurde daher empfohlen, die Größe von Arbeitsgruppen zu beschränken – auch in der Deutschen Forschungsgemeinschaft (DFG) wurde dies diskutiert. Passiert ist in diesem Punkt bisher allerdings kaum etwas.

„Vertrauen ist die Basis“

Doch bei aller Kontrolle basiert das System Wissenschaft auch zu einem großen Teil auf simplem Vertrauen, betont der US-Genetiker Michael White: „Der Professor, der das Labor leitet, vertraut darauf, dass seine Doktoranden die Daten und Ergebnisse nicht gefälscht haben. Die Gutachter der Fachjournale verlassen sich darauf, dass die Autoren tatsächlich die Methoden genutzt haben, die sie im Manuskript beschreiben.“

Und nicht zuletzt: Die Öffentlichkeit und die Forschenden selbst müssen darauf vertrauen können, dass die Unmengen an neuen Publikationen, mit denen sie Woche für Woche konfrontiert sind, nicht absichtlich darauf ausgelegt sind, sie zu täuschen. Transparenz, Wachsamkeit und ein Wandel der Forschungskultur hin zu einem Zulassen auch von Verzögerungen und Fehlern könnten dazu beitragen, dieses Vertrauen zu erhalten.

-Nadja Podbregar

Source: Fake in der Forschung – scinexx.de