Wissenschaftliche Meldungen
Warum Menschen Falschinformationen glauben – selbst wenn sie die Fakten kennen
16.1.26, 16:49
Psychologie, Medien, Technologie, Gesellschaft

Warum Fakten oft nicht reichen
Wer Falschinformationen entdeckt, reagiert häufig reflexhaft mit einem Faktencheck: Zahlen posten, einen Debunk-Thread schreiben, seriöse Quellen zitieren. Klingt logisch – und ist trotzdem oft frustrierend wirkungslos. Ein aktueller sozialwissenschaftlicher Beitrag erklärt dieses Paradox mit einem Ansatz aus der Medien- und Kommunikationsforschung: Desinformation ist nicht nur ein Problem von „falschem Inhalt“, sondern ein Zusammenspiel aus Botschaft, Menschen und Plattformlogik.
Die Botschaft gewinnt, wenn sie sich „leicht“ anfühlt
Ein zentraler Befund: Für unser Gehirn ist es kognitiv einfacher, Informationen zunächst zu akzeptieren, als sie aktiv zu prüfen und gegebenenfalls zu verwerfen. Genau davon profitieren irreführende Überschriften, aus dem Kontext gerissene Zahlen oder manipulierte Bilder und Videos. Entscheidend ist dabei nicht nur, dass eine Information falsch ist, sondern dass sie als plausibel, stimmig oder vertraut wahrgenommen wird.
Der Beitrag greift dafür das Konzept sogenannter „deep stories“ auf – emotional aufgeladene Erzählmuster, die komplexe gesellschaftliche Fragen in einfache, moralisch klare Rollen pressen. Bei Migration können das Narrative vom „gefährlichen Außenseiter“, vom „überforderten Staat“ oder vom „unverdienten Neuankömmling“ sein. Solche Erzählungen wirken, weil sie nicht primär informieren, sondern Gefühle strukturieren. Sie schaffen Orientierung in einer komplexen Welt – auch dann, wenn sie sachlich falsch sind.
Persönlicher Kontext: Wenn Teilen Identität ist
Der zweite zentrale Faktor ist die Person selbst: Werte, politische Überzeugungen und Gruppenzugehörigkeit beeinflussen maßgeblich, welche Informationen als glaubwürdig empfunden werden. Passt eine Behauptung zur eigenen Weltsicht, kann sie sich schnell wie gesichertes Wissen anfühlen. Korrekturen werden dann nicht als Hilfe wahrgenommen, sondern als Angriff auf die eigene Identität oder auf die Gruppe, zu der man sich zugehörig fühlt.
Besonders eindrücklich ist ein in der Forschung häufig zitierter Fall aus dem Umfeld der US-Wahl 2016: Eine Tochter widerlegt wiederholt falsche Geschichten, die ihre Mutter über eine Präsidentschaftskandidatin teilt. Irgendwann antwortet die Mutter sinngemäß, es sei ihr egal, ob die Inhalte falsch seien – wichtig sei, ihre Abneigung deutlich zu machen. Aus sozialwissenschaftlicher Sicht ist das aufschlussreich: Teilen dient hier weniger der Wahrheitsfindung als dem sozialen Signalisieren. Inhalte werden zu Markern von Zugehörigkeit und Abgrenzung.
Dieses Prinzip verstärkt sich durch visuelle Inhalte. Auch KI-generierte Bilder können weiterverbreitet werden, selbst wenn den Nutzenden bewusst ist, dass sie manipuliert sind. Entscheidend ist nicht ihre faktische Wahrheit, sondern ob sie sich emotional „wahr“ anfühlen. Bilder transportieren Gefühle schneller als Texte – und umgehen damit einen Teil unserer kritischen Distanz.
Die Plattformen: Aufmerksamkeit als Geschäftsmodell
Der dritte Baustein ist die technische Infrastruktur. Digitale Plattformen sind darauf ausgelegt, Aufmerksamkeit zu maximieren. Likes, Kommentare, Watchtime und Weiterleitungen sind zentrale Erfolgsgrößen – nicht die Qualität oder Richtigkeit von Inhalten. Entsprechend begünstigen Empfehlungssysteme Materialien, die starke emotionale Reaktionen auslösen. Empörung, Angst und Wut funktionieren dabei besonders zuverlässig.
Hinzu kommt die schiere Skalierbarkeit des Teilens. Schon in kleinen Gruppen können sich Inhalte in wenigen Weiterleitungsschritten exponentiell verbreiten. Teilen ist schnell, sozial belohnt und mit kaum Kosten verbunden. Diese Struktur macht es extrem schwer, einmal etablierte Falschinformationen wieder einzufangen – selbst dann, wenn sie später klar widerlegt werden.
Was daraus folgt: Faktenchecks sind nötig, aber nicht genug
Die Schlussfolgerung fällt nüchtern aus: Faktenchecks bleiben wichtig, reichen allein aber nicht aus. Sie setzen an der inhaltlichen Ebene an, während Desinformation gleichzeitig kognitive Abkürzungen nutzt, Identität stabilisiert und von Plattformmechaniken verstärkt wird. Wirksamere Gegenstrategien müssten alle drei Ebenen berücksichtigen: die Gestaltung digitaler Anreizsysteme, die Verantwortung von Plattformen und Medien – und das eigene Teilverhalten der Nutzerinnen und Nutzer.
Solange Falschinformationen emotional anschlussfähiger sind und bessere Verbreitungsbedingungen haben als nüchterne Einordnung, bleibt das Problem bestehen. Der Kampf um Wahrheit ist dann weniger ein Wissens- als ein Strukturproblem.
Weitere aktuelle Meldungen findest du hier:
- 2Seite 1







































































































