Blogverzeichnis Bloggerei.de
top of page

Echt oder Fake? So erkennst du glaubwürdige Wissenschaft im Info-Dschungel

Dunkelblauer Hintergrund mit weißem Text: "Erkennst du echte wissenschaftliche Studien – oder Bullshit?". Darunter eine weiße Umrisszeichnung eines funkelnden Laborkolbens neben einem ebenfalls funkelnden Kothaufen-Emoji. Unten rechts steht "Wissenschaftswelle.de".

Fühlst du dich auch manchmal erschlagen von der schieren Menge an Informationen, die täglich auf uns einprasseln? Besonders wenn es um wissenschaftliche Themen geht – von bahnbrechenden medizinischen Entdeckungen über die neuesten Erkenntnisse zum Klimawandel bis hin zu psychologischen Studien, die unser Verhalten erklären sollen. Überall lesen wir Schlagzeilen, sehen Posts in sozialen Medien, hören von Freunden über die „neueste Studie“, die angeblich alles Bisherige auf den Kopf stellt. Aber Hand aufs Herz: Wie oft fragst du dich dabei, ob das wirklich Hand und Fuß hat? Ob das, was da so überzeugend präsentiert wird, echter wissenschaftlicher Fortschritt ist oder vielleicht doch nur heiße Luft, schlecht gemachte Forschung oder sogar bewusste Irreführung? Genau hier beginnt unsere gemeinsame Entdeckungsreise! Lass uns zusammen eintauchen und die Werkzeuge schärfen, die wir brauchen, um im Informationsdschungel den Durchblick zu behalten und echte Erkenntnisse von clever verpacktem Unsinn zu unterscheiden. Bereit für ein kleines Abenteuer in die Welt der kritischen Bewertung?


Das Herzstück jeder vertrauenswürdigen Wissenschaft ist ein Prozess, den wir die wissenschaftliche Methode nennen. Klingt vielleicht erstmal trocken, ist aber unglaublich faszinierend, wenn man genauer hinschaut! Es geht im Grunde darum, neugierig zu sein, Fragen zu stellen und dann systematisch nach Antworten zu suchen. Man startet mit einer Idee, einer Hypothese – einer Art gebildeter Vermutung. Und dann kommt der spannende Teil: Man überlegt sich, wie man diese Idee knallhart überprüfen kann. Das bedeutet, gezielt nach Beweisen (Daten) zu suchen, die die Idee entweder stützen oder – und das ist super wichtig – widerlegen könnten. Der Philosoph Karl Popper hat das Prinzip der Falsifizierbarkeit geprägt: Eine Behauptung ist nur dann wissenschaftlich wertvoll, wenn man sich vorstellen kann, wie man sie widerlegen könnte. Wenn eine Idee so vage ist, dass sie alles und nichts bedeutet und man sie niemals falsch machen könnte, dann ist sie wahrscheinlich keine gute Wissenschaft. Echte Wissenschaft hat keine Angst davor, falsch zu liegen; sie lernt daraus und korrigiert sich selbst. Das ist ein dynamischer, lebendiger Prozess, kein starres Dogma. Pseudowissenschaftler hingegen ahmen oft nur die äußere Form nach, ohne diesen Kern der kritischen Überprüfung und Selbstkorrektur wirklich zu leben.



Ein weiteres wichtiges Puzzlestück im Wissenschaftsbetrieb ist das sogenannte Peer-Review-Verfahren. Stell dir vor, du hast eine Studie durchgeführt und deine Ergebnisse aufgeschrieben. Bevor das Ganze nun in einer seriösen Fachzeitschrift veröffentlicht wird, schauen sich andere Experten aus genau deinem Fachgebiet – deine "Peers" – deine Arbeit ganz genau an. Sie prüfen die Methodik, checken, ob die Schlussfolgerungen logisch sind und ob die Ergebnisse wirklich das aussagen, was du behauptest. Das ist wie ein Qualitätscheck durch Kollegen, der helfen soll, grobe Fehler, Schwächen oder unlogische Sprünge herauszufiltern, bevor etwas an die Öffentlichkeit gelangt. Das klingt erstmal super, oder? Ist es auch in vielen Fällen! Aber, und das ist ein wichtiges Aber: Das System ist nicht perfekt. Auch Experten können mal was übersehen, sie können eigene Voreingenommenheiten haben oder im schlimmsten Fall sogar getäuscht werden. Und dann gibt es noch die berüchtigten "Raubjournale" (Predatory Journals), die nur so tun, als würden sie ein strenges Review machen, aber eigentlich gegen Geld fast alles drucken. Eine Veröffentlichung mit Peer-Review ist also ein gutes Zeichen, aber leider keine absolute Garantie für Wahrheit oder Qualität. Es bleibt ein wichtiger Filter, aber wir sollten trotzdem kritisch bleiben.


Transparenz und Offenheit sind in der Wissenschaft unglaublich wertvoll. Was meine ich damit? Im Idealfall legen Forscher nicht nur ihre Endergebnisse offen, sondern auch, wie sie dazu gekommen sind. Das heißt: Sie teilen ihre detaillierten Methoden, die verwendeten Materialien (wie Fragebögen), die Rohdaten, auf denen ihre Analysen basieren, und manchmal sogar den Computercode, den sie zur Auswertung genutzt haben. Warum ist das so wichtig? Weil es anderen Wissenschaftlern ermöglicht, die Arbeit nachzuvollziehen, zu überprüfen und vielleicht sogar zu replizieren – also zu schauen, ob sie unter ähnlichen Bedingungen zu ähnlichen Ergebnissen kommen. Das ist ein Kernstück der wissenschaftlichen Selbstkorrektur! Wenn alles offenliegt, können Fehler leichter gefunden werden, und es wird schwieriger, Daten zu schönen oder unerwünschte Ergebnisse unter den Teppich zu kehren. Praktiken wie die Präregistrierung von Studien, bei der Forscher ihre Hypothesen und Analysemethoden bevor sie die Daten sehen festlegen, helfen dabei, bestimmte Tricksereien wie das "p-Hacking" (dazu gleich mehr) zu verhindern. Mangelnde Transparenz hingegen sollte uns immer ein wenig stutzig machen. Warum wird etwas nicht offengelegt? Gibt es etwas zu verbergen? Offenheit ist ein starkes Zeichen für Vertrauenswürdigkeit.


In dieser klaren Vektorillustration sieht man eine wissenschaftliche Diagrammgrafik mit zwei Kurven (türkis und rot) auf einem Rasterhintergrund. Über dem Zentrum schwebt eine Lupe, deren Vergrößerungsbereich statt klarer Datenpunkte mehrere Fragezeichen zeigt – ein Symbol für Unsicherheit oder Datenlücken. Die stilisierte Darstellung mit kontrastreichen Farben und reduzierter Gestaltung unterstreicht das Thema: Wissenschaftliche Präzision steht manchmal vor offenen Fragen.

Hier kommen zwei Begriffe ins Spiel, die oft verwechselt werden, aber beide entscheidend sind, um Vertrauen in wissenschaftliche Ergebnisse zu fassen: Reproduzierbarkeit und Replizierbarkeit. Reproduzierbarkeit bedeutet, dass jemand anderes mit den Originaldaten und den Originalmethoden (z.B. dem Analyseskript) genau die gleichen Ergebnisse wie die ursprünglichen Autoren erzielen kann. Das prüft quasi, ob die ursprüngliche Analyse korrekt war. Replizierbarkeit geht einen Schritt weiter: Kann man ähnliche Ergebnisse finden, wenn man eine neue, unabhängige Studie durchführt, die aber der Methodik der Originalstudie folgt? Hier werden neue Daten gesammelt, um zu sehen, ob der Effekt robust ist und nicht nur ein Zufallstreffer in der ersten Stichprobe war. Du hast vielleicht schon von der "Replikationskrise" gehört, besonders in Bereichen wie der Psychologie. Damit ist gemeint, dass viele veröffentlichte Ergebnisse in unabhängigen Replikationsstudien nicht bestätigt werden konnten. Das hat viele Forscher aufgerüttelt und zu mehr Rufen nach Transparenz und methodischer Strenge geführt. Wenn ein Ergebnis nicht reproduziert oder repliziert werden kann, ist das ein Warnsignal. Es bedeutet nicht automatisch Betrug – manchmal sind es subtile Unterschiede in der Durchführung oder der Effekt tritt nur unter ganz bestimmten Bedingungen auf – aber es wirft berechtigte Zweifel an der Zuverlässigkeit des ursprünglichen Befunds auf.


Ah, die Statistik! Für viele ein Buch mit sieben Siegeln, aber absolut zentral für die Bewertung von Forschung. Oft stolpern wir über den Begriff "statistisch signifikant", meist in Verbindung mit einem ominösen "p-Wert". Was bedeutet das eigentlich? Vereinfacht gesagt, ist der p-Wert ein Maß dafür, wie wahrscheinlich es ist, ein bestimmtes Ergebnis (oder ein noch extremeres) rein zufällig zu erhalten, wenn es in Wirklichkeit gar keinen Effekt gibt (die sogenannte Nullhypothese). Wenn dieser p-Wert sehr klein ist (typischerweise unter 0.05 oder 5%), sagen Wissenschaftler, das Ergebnis sei "statistisch signifikant". Das soll uns helfen, uns nicht von zufälligen Schwankungen täuschen zu lassen. Aber Vorsicht! "Signifikant" heißt nicht automatisch "wichtig" oder "bedeutsam". Ein winziger, praktisch irrelevanter Effekt kann statistisch signifikant sein, wenn die Studie nur groß genug ist. Viel wichtiger ist oft die Effektstärke: Wie groß ist der gefundene Unterschied oder Zusammenhang? Ein signifikantes Ergebnis mit minimaler Effektstärke ist vielleicht gar nicht so spannend. Zudem gibt es leider "fragwürdige Forschungspraktiken" (QRPs): Forscher probieren vielleicht so lange verschiedene Analysen aus, bis ein p-Wert "passt" (p-Hacking) oder formulieren ihre Hypothesen erst, nachdem sie die Ergebnisse schon kennen (HARKing). Das untergräbt natürlich die Aussagekraft. Schau also nicht nur auf die Signifikanz, sondern auch auf die Effektgröße und ob die Methodik insgesamt solide wirkt!


Ein Wissenschaftler mit weißem Laborkittel und ernstem Blick sitzt in einem neutral gehaltenen Laborraum. In seinen Händen hält er zwei nahezu identische wissenschaftliche Papiere – eines ist mit „REAL SCIENCE“, das andere mit „PSEUDOSCIENCE“ überschrieben. Seine gerunzelte Stirn und der skeptische Gesichtsausdruck spiegeln die Schwierigkeit wider, zwischen fundierter Forschung und irreführender Pseudowissenschaft zu unterscheiden. Der Hintergrund ist unscharf und zeigt Regale mit Akten und Laborutensilien – der Fokus liegt ganz auf der inneren Entscheidungssituation.

Hier ist eine kleine Übersicht über statistische Fallstricke und fragwürdige Praktiken:


  • P-Hacking: Selektives Analysieren oder Berichten von Daten, bis ein statistisch signifikantes Ergebnis (p < 0.05) erreicht wird.

  • HARKing (Hypothesizing After the Results are Known): Hypothesen erst formulieren, nachdem die Ergebnisse bekannt sind, und sie dann als a priori Vorhersagen ausgeben.

  • Cherry-Picking von Ergebnissen: Nur die Ergebnisse berichten, die zur gewünschten Schlussfolgerung passen, und widersprüchliche Ergebnisse ignorieren.

  • Überinterpretation statistischer Signifikanz: Annahme, dass statistische Signifikanz automatisch praktische Relevanz oder Wahrheit bedeutet.

  • Vernachlässigung der Effektstärke: Fokussierung auf Signifikanz ohne Berücksichtigung der Größe des Effekts.

  • Unzureichende Stichprobengröße: Zu kleine Studien können zu unzuverlässigen Ergebnissen führen (sowohl falsch-positive als auch falsch-negative).

  • Verwechslung von Korrelation und Kausalität: Annahme, dass eine statistische Beziehung zwischen zwei Variablen bedeutet, dass eine die andere verursacht.



Neben all den methodischen Details gibt es auch so etwas wie einen Verhaltenskodex in der Wissenschaft, oft "Gute Wissenschaftliche Praxis" (GWP) genannt. Das sind die grundlegenden Spielregeln für ehrliches und sorgfältiges Forschen. Dazu gehört, absolut ehrlich zu sein (bei Daten, bei Beiträgen anderer), alles genauestens zu dokumentieren, damit es nachvollziehbar ist, und immer kritisch mit den eigenen Ergebnissen umzugehen. Natürlich gehört auch dazu, fremde Arbeiten korrekt zu zitieren und nicht als eigene auszugeben (Plagiat). Ein wichtiger Punkt ist auch die Aufbewahrung der Originaldaten – oft für viele Jahre –, damit Ergebnisse überprüft werden können. Und wer als Autor auf einer Publikation steht, sollte auch wirklich einen wesentlichen Beitrag geleistet haben – reine Geldgeber oder Chefs, die nichts Inhaltliches beigetragen haben, gehören da eigentlich nicht hin ("Ehrenautorschaften"). Diese Prinzipien bilden das ethische Fundament, auf dem Vertrauen in die Wissenschaft aufbaut. Verstöße dagegen sind oft die Ursache für Skandale und zurückgezogene Studien.


Wenn du tiefer in solche Themen eintauchen und regelmäßig spannende Einblicke hinter die Kulissen der Wissenschaft bekommen möchtest, dann trag dich doch für unseren monatlichen Newsletter ein! Du findest das Formular ganz oben auf der Seite – eine Einladung zu noch mehr faszinierenden Geschichten und Erkenntnissen.


Inmitten eines dunklen, undurchdringlichen Dschungels aus Schlagzeilen, Symbolen und wissenschaftlichen Icons bahnt sich eine Person in senfgelbem Hemd ihren Weg. Die dichten Ranken bestehen aus verwobenen Begriffen wie „Fake News“, „Sciences“, „Facts“ und Social-Media-Symbolen – teils korrekt, teils verzerrt oder irreführend dargestellt. Zwischen dem Blätterwerk verläuft ein heller, goldener Pfad, der Hoffnung auf Klarheit verspricht. Die Szene wirkt wie ein Sinnbild für die Suche nach Wahrheit in einem Dickicht aus Information und Desinformation.

Jetzt, wo wir wissen, was gute Wissenschaft ausmacht, lass uns die roten Flaggen anschauen – die Warnsignale, die uns stutzig machen sollten, wenn wir auf Behauptungen stoßen. Ein Klassiker der Pseudowissenschaft ist die nicht falsifizierbare Behauptung. Wenn jemand etwas behauptet, das man prinzipiell nicht widerlegen kann, ist Vorsicht geboten. Oft sind solche Aussagen extrem vage oder werden bei Gegenbeweisen schnell mit Ausreden ("Ad-hoc-Hypothesen") verteidigt. Ebenfalls typisch: Anekdoten statt Daten. Persönliche Erfahrungsberichte ("Bei mir hat das super geholfen!") klingen oft überzeugend, sind aber wissenschaftlich wertlos, da sie durch Zufall, Placebo-Effekte oder unzählige andere Faktoren beeinflusst sein können. Echte Wissenschaft braucht systematische Daten. Achte auch auf Rosinenpicken (Cherry-Picking): Werden nur die Studien oder Datenpunkte erwähnt, die die eigene Meinung stützen, während alles andere ignoriert wird? Das ist ein klares Warnsignal! Wissenschaft sucht aktiv nach widersprüchlicher Evidenz.


Weitere Alarmglocken sollten schrillen bei Stagnation. Echte Wissenschaft entwickelt sich weiter, korrigiert sich, baut auf neuen Erkenntnissen auf. Pseudowissenschaftliche Ideen hingegen bleiben oft über Jahrzehnte oder Jahrhunderte unverändert (denk mal an Astrologie) und sehen das fälschlicherweise als Stärke. Sei auch misstrauisch bei übermäßigem Jargon oder obskurer Sprache. Klar braucht Wissenschaft Fachbegriffe, aber manchmal wird eine komplizierte Sprache auch benutzt, um zu beeindrucken oder fehlende Substanz zu verschleiern. Wenn etwas unnötig kompliziert klingt und mit schwammigen Begriffen wie "Energiefluss" oder "Quantenheilung" um sich wirft, ohne das klar zu definieren oder messbar zu machen, ist Skepsis angebracht. Und natürlich: Achte auf logische Fehlschlüsse! Nur weil etwas "natürlich" ist, ist es nicht automatisch gut (Knollenblätterpilze sind auch natürlich). Nur weil eine Autorität etwas sagt, muss es nicht stimmen. Und nur weil zwei Dinge gleichzeitig auftreten (Korrelation), heißt das noch lange nicht, dass das eine das andere verursacht (Kausalität).


Hier ist eine Tabelle, die einige Kernunterschiede pointiert zusammenfasst:

Merkmal

Wissenschaft

Pseudowissenschaft / "Bullshit"

Prüfbarkeit

Falsifizierbar; sucht Widerlegung

Nicht falsifizierbar; immunisiert sich

Evidenzbasis

Systematische, empirische Daten

Anekdoten, Testimonials, Cherry-Picking

Qualitätskontrolle

Peer-Review (idealerweise transparent)

Meidet echtes Review; ggf. Raubjournale

Überprüfbarkeit

Reproduzierbar & Replizierbar (Ideal)

Oft nicht reproduzierbar/replizierbar

Entwicklung

Selbstkorrigierend, dynamisch

Stagnierend, resistent gegen Kritik

Umgang mit Kritik

Begrüßt Kritik als Motor

Feindselig gegenüber Kritik; ignoriert sie

Sprache

Präzise, klar; quantitativ wo möglich

Vage, Jargon-überladen, emotional

Transparenz

Offenlegung von Methoden/Daten (Ideal)

Intransparent, geheimniskrämerisch

Interessenkonflikte

Offenlegung angestrebt

Oft unklare oder versteckte Interessen

Ein letzter wichtiger Punkt sind Interessenkonflikte. Wer hat die Forschung bezahlt? Hat der Forscher oder die Institution finanzielle oder andere Verbindungen, die das Ergebnis beeinflussen könnten? Das kann die Finanzierung durch ein Pharmaunternehmen sein, das sein eigenes Medikament testet, oder eine Studie, die von einer Lobbygruppe in Auftrag gegeben wurde. Ein Interessenkonflikt bedeutet nicht automatisch, dass die Forschung schlecht oder falsch ist! Aber er erfordert besondere Aufmerksamkeit und vor allem Transparenz. Seriöse Wissenschaftler legen ihre potenziellen Konflikte offen. Wenn das nicht passiert oder wenn eine Studie von einer Quelle mit klarem Eigeninteresse finanziert wird, sollten wir die Ergebnisse besonders kritisch hinterfragen. Es ist einfach wichtig zu wissen, wer hinter einer Behauptung steht und welche Motive im Spiel sein könnten.


Was hältst du von diesen ganzen Aspekten? Ist dir schon mal eine Studie untergekommen, bei der du ein ungutes Gefühl hattest? Oder eine, die sich später als fehlerhaft herausgestellt hat? Teile deine Gedanken und Erfahrungen gerne in den Kommentaren unter diesem Beitrag! Ich bin gespannt auf deine Perspektive und freue mich auf die Diskussion.



Die Fähigkeit, all diese Aspekte zu berücksichtigen und wissenschaftliche Informationen kritisch zu bewerten, ist keine angeborene Gabe, sondern eine Fähigkeit, die wir alle lernen und trainieren können. Es geht darum, neugierig zu bleiben, Fragen zu stellen ("Woher weißt du das?", "Gibt es auch andere Erklärungen?"), Quellen zu prüfen ("Wer sagt das und warum?") und nicht alles blind zu glauben, nur weil es "wissenschaftlich" klingt. Es ist eine unglaublich wertvolle Fähigkeit in unserer komplexen Welt, die uns hilft, fundierte Entscheidungen zu treffen und uns nicht so leicht von Desinformation oder clever verpacktem Bullshit täuschen zu lassen. Ich hoffe, diese Reise durch die Merkmale guter und schlechter Wissenschaft hat dir ein paar nützliche Werkzeuge an die Hand gegeben. Bleib neugierig, bleib skeptisch (im positiven Sinne!) und hab Spaß dabei, die Welt mit wachen Augen zu erkunden!


Wenn du mehr solcher Analysen, spannende Wissenschafts-News und Einblicke hinter die Kulissen nicht verpassen willst, folge uns doch auch auf unseren Social-Media-Kanälen! Dort gibt es regelmäßig Updates, Diskussionsanstöße und eine tolle Community von Wissenschaftsbegeisterten.





Verwendete Quellen:


  1. Wie kann sich die Wissenschaft im Zeitalter von „Fake News“ behaupten? - https://www.bfr.bund.de/cm/343/wie-kann-sich-die-wissenschaft-im-zeitalter-von-fake-news-behaupten.pdf

  2. Promoting Scientific Literacy in the Science Classroom - https://www.nsta.org/science-teacher/science-teacher-mayjune-2023/promoting-scientific-literacy-science-classroom

  3. Neue Studie: Nicht jede Studie ist vertrauenswürdig - https://www.luhze.de/2022/12/13/neue-studie-nicht-jede-studie-ist-vertrauenswuerdig/

  4. Wissenschaftler:innen – so einfach wirst du zum/zur Pseudoexpert:in - https://www.quarks.de/gesellschaft/wissenschaft/wissenschaftler-so-einfach-wirst-du-zum-pseudo-experten/

  5. How To Spot Bad Science - https://fs.blog/spot-bad-science/

  6. Checklist of Guidelines for Evaluating Research and Research Claims - https://people.uncw.edu/kozloffm/Checklist%20of%20Guidelines%20for%20Evaluating%20Research%20and%20Research%20Claims.htm

  7. Pseudowissenschaft – Wikipedia - https://de.wikipedia.org/wiki/Pseudowissenschaft

  8. Pseudowissenschaft – Kampfbegriff oder mehr? - https://www2.hs-fulda.de/~grams/hoppla/wordpress/?p=1480

  9. Science vs Pseudoscience Teacher Guide - https://ceee.colorado.edu/sites/default/files/2020-07/Science%20vs%20Pseudoscience%20Teacher%20Guide.pdf

  10. Science vs. Pseudoscience - https://webs.wofford.edu/boppkl/coursefiles/Expmtl/PPTslides/Ch1_pseudoscience.pdf

  11. Cold fusion - Understanding Science - https://undsci.berkeley.edu/cold-fusion-a-case-study-for-scientific-behavior/

  12. When is science credible? - https://www.openaire.eu/blogs/when-is-science-credible?tmpl=component&print=1&format=print

  13. How does transparent peer review impact research credibility and reproducibility? - https://scholar9.com/question/how-does-transparent-peer-review-impact-research-credibility-and-reproducibility

  14. Is there an official list/site of debunked research studies that were outed as being fraudulent? : r/AcademicPsychology - https://www.reddit.com/r/AcademicPsychology/comments/14jnl35/is_there_an_official_listsite_of_debunked/

  15. How to tell pseudoscience from real science? : r/AskScienceDiscussion - https://www.reddit.com/r/AskScienceDiscussion/comments/7tdfvs/how_to_tell_pseudoscience_from_real_science/

  16. Top 10 most highly cited retracted papers - https://retractionwatch.com/the-retraction-watch-leaderboard/top-10-most-highly-cited-retracted-papers/

  17. Data integrity scandals in biomedical research: Here's a timeline - https://www.drugdiscoverytrends.com/biomedical-research-integrity-scandals/

  18. Bad science: 5 most notable studies retracted in 2015 - https://www.cbsnews.com/news/bad-science-studies-retracted-in-2015/

  19. The Mozart Effect Myth: Listening to Music Does Not Help Against Epilepsy - https://neurosciencenews.com/mozart-effect-epilepsy-22722/

  20. Research transparency and reproducibility policies and programmes at the international initiative for impact evaluation - https://www.tandfonline.com/doi/full/10.1080/19439342.2024.2388102?af=R

  21. An empirical assessment of transparency and reproducibility-related research practices in the social sciences (2014–2017) - https://royalsocietypublishing.org/doi/10.1098/rsos.190806

  22. Die Glaubwürdigkeitsrevolution in der Wissenschaft - https://open-science-future.zbw.eu/glaubwuerdigkeitsrevolution-wissenschaft/

  23. unbelievable. - sometimes i'm wrong - https://sometimesimwrong.typepad.com/wrong/2014/03/unbelievable.html

  24. Cold Fusion: A Study in Scientific Controversy - http://large.stanford.edu/courses/2015/ph241/chung2/

  25. Statistical significance and its critics: practicing damaging science, or damaging scientific practice? - https://pmc.ncbi.nlm.nih.gov/articles/PMC9096069/

  26. The Mozart effect - PMC - https://pmc.ncbi.nlm.nih.gov/articles/PMC1281386/

  27. Statistical significance - Wikipedia - https://en.wikipedia.org/wiki/Statistical_significance

  28. Evaluating Scientific Claims Made Online - https://library.ncc.edu/science_writing/web_evaluation

  29. Choose the right statistical technique - https://www.emeraldgrouppublishing.com/how-to/research/data-analysis/choose-right-statistical-technique

  30. Sicherung guter wissenschaftlicher Praxis Safeguarding Good Scientific Practice - https://www.uni-heidelberg.de/md/zentral/einrichtungen/verwaltung/innenrevision/empfehlung_wiss_praxis_1310.pdf

Kommentare

Mit 0 von 5 Sternen bewertet.
Noch keine Ratings

Rating hinzufügen
bottom of page