Echt oder Fake? So erkennst du glaubwürdige Wissenschaft im Info-Dschungel
- Benjamin Metzig
- 21. Juli
- 9 Min. Lesezeit

Fühlst du dich auch manchmal erschlagen von der schieren Menge an Informationen, die täglich auf uns einprasseln? Besonders wenn es um wissenschaftliche Themen geht – von bahnbrechenden medizinischen Entdeckungen über die neuesten Erkenntnisse zum Klimawandel bis hin zu psychologischen Studien, die unser Verhalten erklären sollen. Überall lesen wir Schlagzeilen, sehen Posts in sozialen Medien, hören von Freunden über die „neueste Studie“, die angeblich alles Bisherige auf den Kopf stellt. Aber Hand aufs Herz: Wie oft fragst du dich dabei, ob das wirklich Hand und Fuß hat? Ob das, was da so überzeugend präsentiert wird, echter wissenschaftlicher Fortschritt ist oder vielleicht doch nur heiße Luft, schlecht gemachte Forschung oder sogar bewusste Irreführung? Genau hier beginnt unsere gemeinsame Entdeckungsreise! Lass uns zusammen eintauchen und die Werkzeuge schärfen, die wir brauchen, um im Informationsdschungel den Durchblick zu behalten und echte Erkenntnisse von clever verpacktem Unsinn zu unterscheiden. Bereit für ein kleines Abenteuer in die Welt der kritischen Bewertung?
Das Herzstück jeder vertrauenswürdigen Wissenschaft ist ein Prozess, den wir die wissenschaftliche Methode nennen. Klingt vielleicht erstmal trocken, ist aber unglaublich faszinierend, wenn man genauer hinschaut! Es geht im Grunde darum, neugierig zu sein, Fragen zu stellen und dann systematisch nach Antworten zu suchen. Man startet mit einer Idee, einer Hypothese – einer Art gebildeter Vermutung. Und dann kommt der spannende Teil: Man überlegt sich, wie man diese Idee knallhart überprüfen kann. Das bedeutet, gezielt nach Beweisen (Daten) zu suchen, die die Idee entweder stützen oder – und das ist super wichtig – widerlegen könnten. Der Philosoph Karl Popper hat das Prinzip der Falsifizierbarkeit geprägt: Eine Behauptung ist nur dann wissenschaftlich wertvoll, wenn man sich vorstellen kann, wie man sie widerlegen könnte. Wenn eine Idee so vage ist, dass sie alles und nichts bedeutet und man sie niemals falsch machen könnte, dann ist sie wahrscheinlich keine gute Wissenschaft. Echte Wissenschaft hat keine Angst davor, falsch zu liegen; sie lernt daraus und korrigiert sich selbst. Das ist ein dynamischer, lebendiger Prozess, kein starres Dogma. Pseudowissenschaftler hingegen ahmen oft nur die äußere Form nach, ohne diesen Kern der kritischen Überprüfung und Selbstkorrektur wirklich zu leben.
Ein weiteres wichtiges Puzzlestück im Wissenschaftsbetrieb ist das sogenannte Peer-Review-Verfahren. Stell dir vor, du hast eine Studie durchgeführt und deine Ergebnisse aufgeschrieben. Bevor das Ganze nun in einer seriösen Fachzeitschrift veröffentlicht wird, schauen sich andere Experten aus genau deinem Fachgebiet – deine "Peers" – deine Arbeit ganz genau an. Sie prüfen die Methodik, checken, ob die Schlussfolgerungen logisch sind und ob die Ergebnisse wirklich das aussagen, was du behauptest. Das ist wie ein Qualitätscheck durch Kollegen, der helfen soll, grobe Fehler, Schwächen oder unlogische Sprünge herauszufiltern, bevor etwas an die Öffentlichkeit gelangt. Das klingt erstmal super, oder? Ist es auch in vielen Fällen! Aber, und das ist ein wichtiges Aber: Das System ist nicht perfekt. Auch Experten können mal was übersehen, sie können eigene Voreingenommenheiten haben oder im schlimmsten Fall sogar getäuscht werden. Und dann gibt es noch die berüchtigten "Raubjournale" (Predatory Journals), die nur so tun, als würden sie ein strenges Review machen, aber eigentlich gegen Geld fast alles drucken. Eine Veröffentlichung mit Peer-Review ist also ein gutes Zeichen, aber leider keine absolute Garantie für Wahrheit oder Qualität. Es bleibt ein wichtiger Filter, aber wir sollten trotzdem kritisch bleiben.
Transparenz und Offenheit sind in der Wissenschaft unglaublich wertvoll. Was meine ich damit? Im Idealfall legen Forscher nicht nur ihre Endergebnisse offen, sondern auch, wie sie dazu gekommen sind. Das heißt: Sie teilen ihre detaillierten Methoden, die verwendeten Materialien (wie Fragebögen), die Rohdaten, auf denen ihre Analysen basieren, und manchmal sogar den Computercode, den sie zur Auswertung genutzt haben. Warum ist das so wichtig? Weil es anderen Wissenschaftlern ermöglicht, die Arbeit nachzuvollziehen, zu überprüfen und vielleicht sogar zu replizieren – also zu schauen, ob sie unter ähnlichen Bedingungen zu ähnlichen Ergebnissen kommen. Das ist ein Kernstück der wissenschaftlichen Selbstkorrektur! Wenn alles offenliegt, können Fehler leichter gefunden werden, und es wird schwieriger, Daten zu schönen oder unerwünschte Ergebnisse unter den Teppich zu kehren. Praktiken wie die Präregistrierung von Studien, bei der Forscher ihre Hypothesen und Analysemethoden bevor sie die Daten sehen festlegen, helfen dabei, bestimmte Tricksereien wie das "p-Hacking" (dazu gleich mehr) zu verhindern. Mangelnde Transparenz hingegen sollte uns immer ein wenig stutzig machen. Warum wird etwas nicht offengelegt? Gibt es etwas zu verbergen? Offenheit ist ein starkes Zeichen für Vertrauenswürdigkeit.

Hier kommen zwei Begriffe ins Spiel, die oft verwechselt werden, aber beide entscheidend sind, um Vertrauen in wissenschaftliche Ergebnisse zu fassen: Reproduzierbarkeit und Replizierbarkeit. Reproduzierbarkeit bedeutet, dass jemand anderes mit den Originaldaten und den Originalmethoden (z.B. dem Analyseskript) genau die gleichen Ergebnisse wie die ursprünglichen Autoren erzielen kann. Das prüft quasi, ob die ursprüngliche Analyse korrekt war. Replizierbarkeit geht einen Schritt weiter: Kann man ähnliche Ergebnisse finden, wenn man eine neue, unabhängige Studie durchführt, die aber der Methodik der Originalstudie folgt? Hier werden neue Daten gesammelt, um zu sehen, ob der Effekt robust ist und nicht nur ein Zufallstreffer in der ersten Stichprobe war. Du hast vielleicht schon von der "Replikationskrise" gehört, besonders in Bereichen wie der Psychologie. Damit ist gemeint, dass viele veröffentlichte Ergebnisse in unabhängigen Replikationsstudien nicht bestätigt werden konnten. Das hat viele Forscher aufgerüttelt und zu mehr Rufen nach Transparenz und methodischer Strenge geführt. Wenn ein Ergebnis nicht reproduziert oder repliziert werden kann, ist das ein Warnsignal. Es bedeutet nicht automatisch Betrug – manchmal sind es subtile Unterschiede in der Durchführung oder der Effekt tritt nur unter ganz bestimmten Bedingungen auf – aber es wirft berechtigte Zweifel an der Zuverlässigkeit des ursprünglichen Befunds auf.
Ah, die Statistik! Für viele ein Buch mit sieben Siegeln, aber absolut zentral für die Bewertung von Forschung. Oft stolpern wir über den Begriff "statistisch signifikant", meist in Verbindung mit einem ominösen "p-Wert". Was bedeutet das eigentlich? Vereinfacht gesagt, ist der p-Wert ein Maß dafür, wie wahrscheinlich es ist, ein bestimmtes Ergebnis (oder ein noch extremeres) rein zufällig zu erhalten, wenn es in Wirklichkeit gar keinen Effekt gibt (die sogenannte Nullhypothese). Wenn dieser p-Wert sehr klein ist (typischerweise unter 0.05 oder 5%), sagen Wissenschaftler, das Ergebnis sei "statistisch signifikant". Das soll uns helfen, uns nicht von zufälligen Schwankungen täuschen zu lassen. Aber Vorsicht! "Signifikant" heißt nicht automatisch "wichtig" oder "bedeutsam". Ein winziger, praktisch irrelevanter Effekt kann statistisch signifikant sein, wenn die Studie nur groß genug ist. Viel wichtiger ist oft die Effektstärke: Wie groß ist der gefundene Unterschied oder Zusammenhang? Ein signifikantes Ergebnis mit minimaler Effektstärke ist vielleicht gar nicht so spannend. Zudem gibt es leider "fragwürdige Forschungspraktiken" (QRPs): Forscher probieren vielleicht so lange verschiedene Analysen aus, bis ein p-Wert "passt" (p-Hacking) oder formulieren ihre Hypothesen erst, nachdem sie die Ergebnisse schon kennen (HARKing). Das untergräbt natürlich die Aussagekraft. Schau also nicht nur auf die Signifikanz, sondern auch auf die Effektgröße und ob die Methodik insgesamt solide wirkt!

Hier ist eine kleine Übersicht über statistische Fallstricke und fragwürdige Praktiken:
P-Hacking: Selektives Analysieren oder Berichten von Daten, bis ein statistisch signifikantes Ergebnis (p < 0.05) erreicht wird.
HARKing (Hypothesizing After the Results are Known): Hypothesen erst formulieren, nachdem die Ergebnisse bekannt sind, und sie dann als a priori Vorhersagen ausgeben.
Cherry-Picking von Ergebnissen: Nur die Ergebnisse berichten, die zur gewünschten Schlussfolgerung passen, und widersprüchliche Ergebnisse ignorieren.
Überinterpretation statistischer Signifikanz: Annahme, dass statistische Signifikanz automatisch praktische Relevanz oder Wahrheit bedeutet.
Vernachlässigung der Effektstärke: Fokussierung auf Signifikanz ohne Berücksichtigung der Größe des Effekts.
Unzureichende Stichprobengröße: Zu kleine Studien können zu unzuverlässigen Ergebnissen führen (sowohl falsch-positive als auch falsch-negative).
Verwechslung von Korrelation und Kausalität: Annahme, dass eine statistische Beziehung zwischen zwei Variablen bedeutet, dass eine die andere verursacht.
Neben all den methodischen Details gibt es auch so etwas wie einen Verhaltenskodex in der Wissenschaft, oft "Gute Wissenschaftliche Praxis" (GWP) genannt. Das sind die grundlegenden Spielregeln für ehrliches und sorgfältiges Forschen. Dazu gehört, absolut ehrlich zu sein (bei Daten, bei Beiträgen anderer), alles genauestens zu dokumentieren, damit es nachvollziehbar ist, und immer kritisch mit den eigenen Ergebnissen umzugehen. Natürlich gehört auch dazu, fremde Arbeiten korrekt zu zitieren und nicht als eigene auszugeben (Plagiat). Ein wichtiger Punkt ist auch die Aufbewahrung der Originaldaten – oft für viele Jahre –, damit Ergebnisse überprüft werden können. Und wer als Autor auf einer Publikation steht, sollte auch wirklich einen wesentlichen Beitrag geleistet haben – reine Geldgeber oder Chefs, die nichts Inhaltliches beigetragen haben, gehören da eigentlich nicht hin ("Ehrenautorschaften"). Diese Prinzipien bilden das ethische Fundament, auf dem Vertrauen in die Wissenschaft aufbaut. Verstöße dagegen sind oft die Ursache für Skandale und zurückgezogene Studien.
Wenn du tiefer in solche Themen eintauchen und regelmäßig spannende Einblicke hinter die Kulissen der Wissenschaft bekommen möchtest, dann trag dich doch für unseren monatlichen Newsletter ein! Du findest das Formular ganz oben auf der Seite – eine Einladung zu noch mehr faszinierenden Geschichten und Erkenntnissen.

Jetzt, wo wir wissen, was gute Wissenschaft ausmacht, lass uns die roten Flaggen anschauen – die Warnsignale, die uns stutzig machen sollten, wenn wir auf Behauptungen stoßen. Ein Klassiker der Pseudowissenschaft ist die nicht falsifizierbare Behauptung. Wenn jemand etwas behauptet, das man prinzipiell nicht widerlegen kann, ist Vorsicht geboten. Oft sind solche Aussagen extrem vage oder werden bei Gegenbeweisen schnell mit Ausreden ("Ad-hoc-Hypothesen") verteidigt. Ebenfalls typisch: Anekdoten statt Daten. Persönliche Erfahrungsberichte ("Bei mir hat das super geholfen!") klingen oft überzeugend, sind aber wissenschaftlich wertlos, da sie durch Zufall, Placebo-Effekte oder unzählige andere Faktoren beeinflusst sein können. Echte Wissenschaft braucht systematische Daten. Achte auch auf Rosinenpicken (Cherry-Picking): Werden nur die Studien oder Datenpunkte erwähnt, die die eigene Meinung stützen, während alles andere ignoriert wird? Das ist ein klares Warnsignal! Wissenschaft sucht aktiv nach widersprüchlicher Evidenz.
Weitere Alarmglocken sollten schrillen bei Stagnation. Echte Wissenschaft entwickelt sich weiter, korrigiert sich, baut auf neuen Erkenntnissen auf. Pseudowissenschaftliche Ideen hingegen bleiben oft über Jahrzehnte oder Jahrhunderte unverändert (denk mal an Astrologie) und sehen das fälschlicherweise als Stärke. Sei auch misstrauisch bei übermäßigem Jargon oder obskurer Sprache. Klar braucht Wissenschaft Fachbegriffe, aber manchmal wird eine komplizierte Sprache auch benutzt, um zu beeindrucken oder fehlende Substanz zu verschleiern. Wenn etwas unnötig kompliziert klingt und mit schwammigen Begriffen wie "Energiefluss" oder "Quantenheilung" um sich wirft, ohne das klar zu definieren oder messbar zu machen, ist Skepsis angebracht. Und natürlich: Achte auf logische Fehlschlüsse! Nur weil etwas "natürlich" ist, ist es nicht automatisch gut (Knollenblätterpilze sind auch natürlich). Nur weil eine Autorität etwas sagt, muss es nicht stimmen. Und nur weil zwei Dinge gleichzeitig auftreten (Korrelation), heißt das noch lange nicht, dass das eine das andere verursacht (Kausalität).
Hier ist eine Tabelle, die einige Kernunterschiede pointiert zusammenfasst:
Merkmal | Wissenschaft | Pseudowissenschaft / "Bullshit" |
Prüfbarkeit | Falsifizierbar; sucht Widerlegung | Nicht falsifizierbar; immunisiert sich |
Evidenzbasis | Systematische, empirische Daten | Anekdoten, Testimonials, Cherry-Picking |
Qualitätskontrolle | Peer-Review (idealerweise transparent) | Meidet echtes Review; ggf. Raubjournale |
Überprüfbarkeit | Reproduzierbar & Replizierbar (Ideal) | Oft nicht reproduzierbar/replizierbar |
Entwicklung | Selbstkorrigierend, dynamisch | Stagnierend, resistent gegen Kritik |
Umgang mit Kritik | Begrüßt Kritik als Motor | Feindselig gegenüber Kritik; ignoriert sie |
Sprache | Präzise, klar; quantitativ wo möglich | Vage, Jargon-überladen, emotional |
Transparenz | Offenlegung von Methoden/Daten (Ideal) | Intransparent, geheimniskrämerisch |
Interessenkonflikte | Offenlegung angestrebt | Oft unklare oder versteckte Interessen |
Ein letzter wichtiger Punkt sind Interessenkonflikte. Wer hat die Forschung bezahlt? Hat der Forscher oder die Institution finanzielle oder andere Verbindungen, die das Ergebnis beeinflussen könnten? Das kann die Finanzierung durch ein Pharmaunternehmen sein, das sein eigenes Medikament testet, oder eine Studie, die von einer Lobbygruppe in Auftrag gegeben wurde. Ein Interessenkonflikt bedeutet nicht automatisch, dass die Forschung schlecht oder falsch ist! Aber er erfordert besondere Aufmerksamkeit und vor allem Transparenz. Seriöse Wissenschaftler legen ihre potenziellen Konflikte offen. Wenn das nicht passiert oder wenn eine Studie von einer Quelle mit klarem Eigeninteresse finanziert wird, sollten wir die Ergebnisse besonders kritisch hinterfragen. Es ist einfach wichtig zu wissen, wer hinter einer Behauptung steht und welche Motive im Spiel sein könnten.
Was hältst du von diesen ganzen Aspekten? Ist dir schon mal eine Studie untergekommen, bei der du ein ungutes Gefühl hattest? Oder eine, die sich später als fehlerhaft herausgestellt hat? Teile deine Gedanken und Erfahrungen gerne in den Kommentaren unter diesem Beitrag! Ich bin gespannt auf deine Perspektive und freue mich auf die Diskussion.
Die Fähigkeit, all diese Aspekte zu berücksichtigen und wissenschaftliche Informationen kritisch zu bewerten, ist keine angeborene Gabe, sondern eine Fähigkeit, die wir alle lernen und trainieren können. Es geht darum, neugierig zu bleiben, Fragen zu stellen ("Woher weißt du das?", "Gibt es auch andere Erklärungen?"), Quellen zu prüfen ("Wer sagt das und warum?") und nicht alles blind zu glauben, nur weil es "wissenschaftlich" klingt. Es ist eine unglaublich wertvolle Fähigkeit in unserer komplexen Welt, die uns hilft, fundierte Entscheidungen zu treffen und uns nicht so leicht von Desinformation oder clever verpacktem Bullshit täuschen zu lassen. Ich hoffe, diese Reise durch die Merkmale guter und schlechter Wissenschaft hat dir ein paar nützliche Werkzeuge an die Hand gegeben. Bleib neugierig, bleib skeptisch (im positiven Sinne!) und hab Spaß dabei, die Welt mit wachen Augen zu erkunden!
Wenn du mehr solcher Analysen, spannende Wissenschafts-News und Einblicke hinter die Kulissen nicht verpassen willst, folge uns doch auch auf unseren Social-Media-Kanälen! Dort gibt es regelmäßig Updates, Diskussionsanstöße und eine tolle Community von Wissenschaftsbegeisterten.
#Wissenschaft #Pseudowissenschaft #KritischesDenken #Forschung #Studienbewertung #Wissenschaftskommunikation #FakeNews #Wissenschaftsjournalismus #PeerReview #Replikationskrise
Verwendete Quellen:
Wie kann sich die Wissenschaft im Zeitalter von „Fake News“ behaupten? - https://www.bfr.bund.de/cm/343/wie-kann-sich-die-wissenschaft-im-zeitalter-von-fake-news-behaupten.pdf
Promoting Scientific Literacy in the Science Classroom - https://www.nsta.org/science-teacher/science-teacher-mayjune-2023/promoting-scientific-literacy-science-classroom
Neue Studie: Nicht jede Studie ist vertrauenswürdig - https://www.luhze.de/2022/12/13/neue-studie-nicht-jede-studie-ist-vertrauenswuerdig/
Wissenschaftler:innen – so einfach wirst du zum/zur Pseudoexpert:in - https://www.quarks.de/gesellschaft/wissenschaft/wissenschaftler-so-einfach-wirst-du-zum-pseudo-experten/
How To Spot Bad Science - https://fs.blog/spot-bad-science/
Checklist of Guidelines for Evaluating Research and Research Claims - https://people.uncw.edu/kozloffm/Checklist%20of%20Guidelines%20for%20Evaluating%20Research%20and%20Research%20Claims.htm
Pseudowissenschaft – Wikipedia - https://de.wikipedia.org/wiki/Pseudowissenschaft
Pseudowissenschaft – Kampfbegriff oder mehr? - https://www2.hs-fulda.de/~grams/hoppla/wordpress/?p=1480
Science vs Pseudoscience Teacher Guide - https://ceee.colorado.edu/sites/default/files/2020-07/Science%20vs%20Pseudoscience%20Teacher%20Guide.pdf
Science vs. Pseudoscience - https://webs.wofford.edu/boppkl/coursefiles/Expmtl/PPTslides/Ch1_pseudoscience.pdf
Cold fusion - Understanding Science - https://undsci.berkeley.edu/cold-fusion-a-case-study-for-scientific-behavior/
When is science credible? - https://www.openaire.eu/blogs/when-is-science-credible?tmpl=component&print=1&format=print
How does transparent peer review impact research credibility and reproducibility? - https://scholar9.com/question/how-does-transparent-peer-review-impact-research-credibility-and-reproducibility
Is there an official list/site of debunked research studies that were outed as being fraudulent? : r/AcademicPsychology - https://www.reddit.com/r/AcademicPsychology/comments/14jnl35/is_there_an_official_listsite_of_debunked/
How to tell pseudoscience from real science? : r/AskScienceDiscussion - https://www.reddit.com/r/AskScienceDiscussion/comments/7tdfvs/how_to_tell_pseudoscience_from_real_science/
Top 10 most highly cited retracted papers - https://retractionwatch.com/the-retraction-watch-leaderboard/top-10-most-highly-cited-retracted-papers/
Data integrity scandals in biomedical research: Here's a timeline - https://www.drugdiscoverytrends.com/biomedical-research-integrity-scandals/
Bad science: 5 most notable studies retracted in 2015 - https://www.cbsnews.com/news/bad-science-studies-retracted-in-2015/
The Mozart Effect Myth: Listening to Music Does Not Help Against Epilepsy - https://neurosciencenews.com/mozart-effect-epilepsy-22722/
Research transparency and reproducibility policies and programmes at the international initiative for impact evaluation - https://www.tandfonline.com/doi/full/10.1080/19439342.2024.2388102?af=R
An empirical assessment of transparency and reproducibility-related research practices in the social sciences (2014–2017) - https://royalsocietypublishing.org/doi/10.1098/rsos.190806
Die Glaubwürdigkeitsrevolution in der Wissenschaft - https://open-science-future.zbw.eu/glaubwuerdigkeitsrevolution-wissenschaft/
unbelievable. - sometimes i'm wrong - https://sometimesimwrong.typepad.com/wrong/2014/03/unbelievable.html
Cold Fusion: A Study in Scientific Controversy - http://large.stanford.edu/courses/2015/ph241/chung2/
Statistical significance and its critics: practicing damaging science, or damaging scientific practice? - https://pmc.ncbi.nlm.nih.gov/articles/PMC9096069/
The Mozart effect - PMC - https://pmc.ncbi.nlm.nih.gov/articles/PMC1281386/
Statistical significance - Wikipedia - https://en.wikipedia.org/wiki/Statistical_significance
Evaluating Scientific Claims Made Online - https://library.ncc.edu/science_writing/web_evaluation
Choose the right statistical technique - https://www.emeraldgrouppublishing.com/how-to/research/data-analysis/choose-right-statistical-technique
Sicherung guter wissenschaftlicher Praxis Safeguarding Good Scientific Practice - https://www.uni-heidelberg.de/md/zentral/einrichtungen/verwaltung/innenrevision/empfehlung_wiss_praxis_1310.pdf








































































































Kommentare