Blogverzeichnis Bloggerei.de
top of page

Datenjournalismus: Wie Zahlen Geschichten prüfbar machen und trotzdem Entscheidungen brauchen

Quadratisches Cover mit leuchtenden Datenströmen, einem zentralen Journalismus-Desk aus Charts und Zahlen sowie der Überschrift „Datenjournalismus“ und dem Banner „Zahlen brauchen Entscheidungen“.

Es gibt kaum eine Sprache, die in der Öffentlichkeit so schnell Autorität erzeugt wie die Sprache der Zahlen. Eine Karte mit Farbverläufen wirkt ernster als ein Bauchgefühl. Ein Diagramm scheint belastbarer als ein Kommentar. Ein Dashboard sieht nach Wirklichkeit aus. Gerade deshalb ist Datenjournalismus in den vergangenen Jahren so wichtig geworden: Er liefert nicht nur Geschichten, sondern oft auch die Messinstrumente, mit denen wir diese Geschichten kontrollieren können.


Aber genau hier beginnt ein Missverständnis. Viele Menschen behandeln Zahlen noch immer so, als kämen sie fertig aus der Natur. Als müsse man sie nur einsammeln, ordentlich sortieren und schon sei die Wahrheit da. In Wirklichkeit ist guter Datenjournalismus etwas viel Anspruchsvolleres. Er macht die Welt nicht automatisch objektiv. Er macht sie prüfbarer. Und das ist nicht dasselbe.


Was Datenjournalismus eigentlich ist


Paul Bradshaw beschreibt im Data Journalism Handbook, dass Daten im Journalismus Quelle, Werkzeug oder sogar beides zugleich sein können. Das klingt schlicht, ist aber ein wichtiger Punkt. Datenjournalismus besteht nicht bloß darin, eine Statistik in einen Artikel einzubauen. Er beginnt dort, wo journalistische Fragen mit systematischer Datensuche, Bereinigung, Prüfung, Einordnung und Darstellung verbunden werden.


Das kann heißen, tausende Dokumente maschinell durchsuchbar zu machen. Es kann bedeuten, Wahlkreise kartografisch neu zu lesen, Krankenhausabrechnungen zu vergleichen oder die Logik eines Risikoscores aufzubrechen. Immer geht es um denselben Kern: Muster sichtbar machen, die im bloßen Einzelereignis verborgen bleiben.


Die öffentliche Faszination dafür ist verständlich. Datenjournalismus verspricht etwas, das klassische Debatten oft vermissen lassen: Nachvollziehbarkeit. Wenn eine Behauptung an eine Quelle, an ein Rechenmodell oder an einen Datensatz gebunden ist, wird sie angreifbar. Andere können dieselbe Tabelle öffnen, dieselbe Methode prüfen, dieselben Lücken entdecken. Genau das ist seine demokratische Stärke.


Kernidee: Die größte Leistung des Datenjournalismus ist nicht Neutralität.


Seine größte Leistung ist Prüfbarkeit.


Zahlen wirken hart. Ihre Herstellung ist es nicht.


Wer mit Daten arbeitet, merkt schnell, wie wenig „roh“ Daten tatsächlich sind. Sam Leon schreibt im Data Journalism Handbook 2, dass Daten trotz ihrer Aura harter Objektivität verzerrt oder missverständlich sein können. Fehler beginnen nicht erst bei böswilliger Manipulation. Sie entstehen oft viel früher und viel banaler.


Schon die Erhebung ist voller Entscheidungen. Wer wurde gezählt und wer nicht? Welche Kategorien gab es? Welche Fälle wurden als Ausreißer entfernt? Welche Begriffe wurden vereinheitlicht? Welche Lücken still geschätzt? Welche Zeitschnitte verglichen?


Das klingt technisch, ist aber hochpolitisch. Denn jede Datenerhebung ist auch ein Modell der Wirklichkeit. Sie sagt nicht nur, was da ist. Sie legt fest, was als zählbar gilt.


Helen Verran bringt das im Handbook-Text über den „Trouble of Value“ auf einen entscheidenden Punkt: Zahlen wirken unkompliziert, verbergen aber oft moralische und politische Spannungen. Ein Wert von 4,94 Millionen klingt nüchtern. Doch bis eine Zahl so ruhig dasteht, ist meist längst entschieden worden, welche Prozesse, Interessen, Definitionen und Prioritäten überhaupt in sie hinein dürfen.


Ein Datensatz ist nie einfach „die Realität“


Wie stark Definitionen die Geschichte verändern, sieht man besonders gut dort, wo wir die Daten intuitiv für unbestreitbar halten. Our World in Data zeigt bei Konfliktdaten, dass verschiedene Quellen schon in der Grundfrage auseinandergehen, was sie überhaupt als Konflikt zählen. Manche erfassen nur direkte Gefechtstote, andere auch Zivilist:innen. Manche schließen Hunger und Krankheiten als Kriegsfolgen ein, andere nicht. Manche setzen hohe Schwellenwerte für Gewalt, andere erfassen auch kleinere Konflikte.


Das heißt: Noch bevor irgendein Diagramm gezeichnet wird, ist bereits eine Weltanschauung im Spiel. Nicht unbedingt ideologisch im groben Sinn, aber methodisch. Wer „Kriegstote“ sagt, sagt noch nicht automatisch dasselbe wie der nächste Datensatz.


Dasselbe gilt in viel unscheinbareren Bereichen. Auf der Our-World-in-Data-Seite zu Festnetzanschlüssen wird offen dokumentiert, aus welcher Quelle die Werte stammen, wie die Daten verarbeitet werden und wie man CSV, Metadaten und Pipeline nachverfolgen kann. Das ist kein dekorativer Anhang. Es ist die eigentliche Ehrlichkeit der Zahl. Denn eine Grafik wird erst dann journalistisch stark, wenn sie nicht so tut, als wäre sie vom Himmel gefallen.


Die Geschichte steckt oft im Nenner


Viele schlechte Zahlendebatten scheitern nicht an falschen Daten, sondern an falschen Vergleichen. Rohzahlen beeindrucken schnell, erzählen aber häufig wenig. Hundert zusätzliche Fälle können viel oder fast nichts bedeuten, je nachdem, ob sie in einer Großstadt oder einer Kleinstadt auftreten. Ein Anstieg um 20 Prozent klingt dramatisch, solange nicht dazugesagt wird, dass die Ausgangsbasis winzig war.


Guter Datenjournalismus fragt deshalb ständig nach dem Nenner: pro Kopf oder absolut, pro Jahr oder kumuliert, median oder Mittelwert, nominell oder inflationsbereinigt, auf welcher Vergleichsgruppe, in welchem Zeitraum?


Gerade in dieser scheinbar nüchternen Arbeit steckt redaktionelles Urteil. Denn jeder Vergleich setzt eine These darüber voraus, was hier fair, sinnvoll und erklärungsstark ist. Zahlen erledigen diese Wahl nicht für uns. Sie zwingen uns nur, sie offen zu treffen.


Auch Datenbereinigung ist schon Deutung


Viele der wichtigsten Entscheidungen fallen in einem Stadium, das Leserinnen und Leser fast nie sehen: beim Putzen, Vereinheitlichen und Verbinden von Daten. Namen werden normalisiert. Dubletten entfernt. Fehlwerte ersetzt. Kategorien zusammengelegt. Koordinaten korrigiert. Extreme Werte ausgeschlossen. Jede dieser Entscheidungen kann harmlos sein. In Summe können sie aber die Erzählung spürbar verschieben.


Das ist kein Argument gegen Datenjournalismus, sondern für methodische Offenheit. Wenn eine Redaktion nur das hübsche Ergebnis zeigt, aber nicht erklärt, wie daraus eine belastbare Aussage wurde, verlangt sie Vertrauen auf Kredit. Wenn sie dagegen sichtbar macht, wo Entscheidungen fielen, wird aus Datenarbeit ein kontrollierbarer Prozess.


Natalia Mazotte beschreibt in ihrem Kapitel „Working Openly in Data Journalism“, warum gerade diese Offenheit entscheidend ist. In einer Welt reichlich verfügbarer Information, so die Pointe, genügt es oft nicht mehr, nur das Ergebnis zu präsentieren. Leserinnen und Leser müssen auch nachvollziehen können, wie man dorthin gekommen ist.


Besonders heikel wird es, wenn Zahlen Macht verkleiden


Die spektakulärsten Fälle des Datenjournalismus entstehen oft dort, wo Institutionen ihre Entscheidungen bereits als objektiv ausgeben. Dann prüft Journalismus nicht einfach Zahlen. Er prüft die Herrschaftsansprüche, die in Zahlenform auftreten.


Ein klassisches Beispiel dafür ist ProPublicas methodische Aufarbeitung des COMPAS-Risikoscores. Gerade weil der Score den Anschein einer nüchternen algorithmischen Beurteilung erzeugte, war seine Prüfung journalistisch so wichtig. ProPublica machte offen, welche Variablen betrachtet wurden, welche Schwellen als relevant galten und wie die Güte des Modells gemessen wurde.


Die entscheidende Lehre daraus lautet nicht bloß, dass Algorithmen Fehler machen können. Wichtiger ist etwas anderes: Sobald Zahlen oder Scores Entscheidungen über Freiheit, Strafe, Risiko oder Ressourcen legitimieren, muss ihre Methode öffentlich angreifbar sein. Datenjournalismus ist dann nicht Illustration, sondern demokratische Infrastruktur.


Unsicherheit macht einen Text nicht schwach


Viele Redaktionen fürchten noch immer, Unsicherheit könne eine Geschichte entkräften. Das Gegenteil ist oft näher an der Wahrheit. Die Studie von van der Bles und Kolleg:innen über den Effekt von Unsicherheitskommunikation auf Vertrauen zeigt, dass numerisch klar kommunizierte Unsicherheit Vertrauen nicht automatisch stark beschädigt. Problematischer sind eher vage, wolkige Formulierungen, die Unschärfe andeuten, ohne sie greifbar zu machen.


Das ist für guten Datenjournalismus eine befreiende Erkenntnis. Man muss nicht so tun, als sei ein Schätzwert exakt. Man kann Spannbreiten nennen. Man kann Modellgrenzen erklären. Man kann offenlegen, wenn Daten international nur bedingt vergleichbar sind. All das macht die Geschichte nicht weniger seriös. Es macht sie erwachsener.


Faktencheck: Präzision ist nicht dasselbe wie Gewissheit


Eine Zahl mit Nachkommastellen kann methodisch unsicherer sein als ein sauber erklärter Bereich.


Visualisierung ist nicht bloß Verpackung


Ein weiterer Irrtum lautet, die Grafik komme erst ganz am Schluss. Als wäre sie die hübsche Hülle für eine bereits feststehende Aussage. In Wirklichkeit entscheidet die Darstellung oft mit darüber, was überhaupt gesehen wird.


Eine logarithmische Skala erzählt anders als eine lineare. Ein abgeschnittener Nullpunkt dramatisiert Unterschiede. Eine Choroplethenkarte belohnt Fläche, nicht Bevölkerung. Ein Ranking produziert Konkurrenz, wo vielleicht Verteilung die bessere Geschichte wäre. Ein gleitender Durchschnitt glättet das Rauschen, kann aber auch abrupte Brüche verschlucken.


Datenvisualisierung ist deshalb keine kosmetische Zusatzleistung. Sie ist ein Teil der Argumentation. Wer sie baut, entscheidet mit, welche Form von Aufmerksamkeit ein Thema erhält. Gerade deshalb muss ein guter Leitartikel über Datenjournalismus auch den Gestaltungsteil ernst nehmen. Form ist hier nie bloß Form.


Die stärksten Datenstories verlieren die Menschen nicht aus dem Blick


Es gibt eine Sorte schlechter Zahlenprosa, die alles richtig rechnet und trotzdem wenig erkennt. Sie behandelt Menschen wie Messrauschen. Sie verwechselt Distanz mit Intelligenz. Sie glaubt, schon ein sauberer Datensatz mache eine Geschichte automatisch menschlich relevant.


Dabei ist das Gegenteil der Fall. Je weiter Journalismus in Tabellen, Modelle und automatisierte Auswertungen vordringt, desto wichtiger wird die Rückbindung an Erfahrung. Welche Lebensrealität steckt hinter einer Quote? Wer verschwindet in einer Sammelkategorie? Wer ist in den Daten unsichtbar? Welche Institution profitiert davon, dass eine Kennzahl einfach und sauber aussieht?


Die beste Datenarbeit macht aus Menschen keine dekorativen Einzelfälle, die man nachträglich an eine Statistik klebt. Sie benutzt Zahlen, um Strukturen sichtbar zu machen, und Geschichten, um zu zeigen, was diese Strukturen im Leben anrichten.


Darum braucht Datenjournalismus beides: Mathematik und Urteil


Vielleicht ist das der eigentliche Reifegrad dieses Feldes. Datenjournalismus ist dort am stärksten, wo er zwei Versuchungen zugleich widersteht. Der einen, alles in bloße Meinung aufzulösen. Und der anderen, Zahlen mit Wahrheit zu verwechseln.


Er ist kein Orakel, das uns die Welt ohne Deutung serviert. Aber er ist auch nicht bloß eine stilvolle Meinung mit Diagrammen. Er ist die Arbeit, Behauptungen so an Quellen, Kategorien, Rechenwege und Visualisierungen zu binden, dass sie öffentlich kontrollierbar werden.


Genau deshalb brauchen wir ihn. Nicht weil Zahlen für uns entscheiden. Sondern weil sie uns zwingen können, bessere Entscheidungen darüber offenzulegen, was wir für wahr halten.


Wenn du Wissenschaftswelle auch jenseits des Blogs verfolgen willst, schau hier vorbei: Instagram und Facebook


Weiterlesen


Kommentare

Mit 0 von 5 Sternen bewertet.
Noch keine Ratings

Rating hinzufügen


Mehr aus dem Blog
 

bottom of page