Wenn Maschinen Wissenschaft erzählen: Warum KI unsere Erklärungen verbessert und unser Urteil stärker fordert
- Benjamin Metzig
- vor 4 Stunden
- 6 Min. Lesezeit

Generative KI verändert gerade einen Bereich, der lange unterschätzt wurde: nicht die Forschung selbst, sondern die Art, wie Forschung überhaupt bei Menschen ankommt. Wer heute einen komplizierten Preprint, eine Methodensektion oder ein dichtes Policy-Papier in Sekunden zusammenfassen, übersetzen oder für verschiedene Zielgruppen umschreiben lassen kann, spürt sofort das Versprechen. Wissenschaft könnte verständlicher werden. Zugänglicher. Schneller. Vielleicht sogar gerechter, weil sprachliche und fachliche Hürden sinken.
Dieses Versprechen ist real. Aber es hat einen Preis. Denn ausgerechnet das, was generative KI besonders gut kann, ist in der Wissenschaftskommunikation auch ihr größtes Risiko: Sie produziert Texte, die so glatt, plausibel und anschlussfähig wirken, dass viele Leserinnen und Leser kaum noch erkennen, wo belastbare Evidenz endet und wo sprachliche Wahrscheinlichkeit beginnt.
KI in der Wissenschaftskommunikation ist deshalb keine reine Effizienzgeschichte. Sie ist eine Vertrauensfrage.
Warum KI ausgerechnet hier so verführerisch ist
Wissenschaftskommunikation scheitert oft nicht daran, dass Wissen fehlt, sondern daran, dass Wissen schlecht übersetzt wird. Zwischen Fachpublikation und Öffentlichkeit liegen Jargon, Zeitdruck, Plattformlogiken und sehr unterschiedliche Zielgruppen. Genau in dieser Lücke glänzt generative KI.
Wie Alvarez und Kolleginnen 2024 in Nature Human Behaviour betonen, können generative Systeme große Mengen komplexer Information schnell zusammenfassen, übersetzen und neu aufbereiten. Genau das macht sie für Hochschulen, Redaktionen, Museen, Forschungseinrichtungen und Wissenschaftlerinnen so attraktiv. Wer dieselbe Erkenntnis einmal für ein Fachpublikum, dann für Schülerinnen, dann für eine Lokalredaktion und schließlich für Social Media formulieren muss, spart mit solchen Werkzeugen enorme Zeit.
Auch die praktische Fachliteratur fällt in diesem Punkt nicht reflexhaft kulturpessimistisch aus. Hendriks et al. 2025 beschreiben, dass GenAI besonders hilfreich sein kann, wenn Fachsprache entschärft, Lesbarkeit erhöht oder Kommunikation an unterschiedliche Zielgruppen angepasst werden soll. KI kann also etwas leisten, was Wissenschaft lange zu selten ernst genommen hat: gute Erklärung als eigene intellektuelle Arbeit.
Kernidee: Die eigentliche Stärke von KI liegt nicht darin, Wissenschaft zu wissen.
Sie liegt darin, vorhandenes Wissen sprachlich umzuformen: kürzer, einfacher, mehrsprachig, dialogischer, visueller.
Gerade darin steckt ein demokratisches Potenzial. Mehrsprachige Aufbereitung, barriereärmere Formate und individuellere Zugänge könnten mehr Menschen erreichen als klassische Pressemitteilungen oder halb verständliche Zeitungsstücke. In einer Öffentlichkeit, die immer stärker über Plattformen, Suchmaschinen und Messenger organisiert ist, ist das kein Nebenvorteil. Es ist eine Machtfrage.
Das Kernproblem: Sprachliche Souveränität ist keine epistemische Souveränität
Das Problem beginnt dort, wo gutes Klingen mit guter Wissenschaft verwechselt wird.
Generative Modelle schreiben nicht so, wie Wissenschaft arbeitet. Sie wägen nicht selbstständig Evidenz, sie kennen keine methodische Demut und sie haben kein eingebautes Interesse daran, Unsicherheit sauber sichtbar zu machen. Sie erzeugen Sätze, die wahrscheinlich auf den Prompt passen. Das ist etwas völlig anderes als wissenschaftliche Verlässlichkeit.
Hendriks et al. 2025 formulieren das ungewöhnlich klar: GenAI ist mit epistemischen Grundwerten der Wissenschaft wie Genauigkeit, Objektivität und Reproduzierbarkeit nicht automatisch kompatibel. Ein Grund ist banal und folgenreich zugleich: Solche Systeme unterscheiden nicht sauber zwischen vorläufiger Evidenz, widerlegten Behauptungen, Preprints und belastbar bestätigtem Forschungsstand, wenn Menschen diese Trennung nicht aktiv erzwingen.
Noch schärfer wird das Problem bei Unsicherheit. Eine Studie in Nature Machine Intelligence von 2024 zeigt eine deutliche Kalibrierungslücke zwischen dem, was ein Modell intern an Unsicherheit "weiß", und dem, was Menschen aus seiner Sprache herauslesen. Vereinfacht gesagt: Modelle klingen oft sicherer, als Nutzerinnen und Nutzer sie einschätzen sollten. Genau das ist für Wissenschaftskommunikation toxisch. Denn gute Wissenschaftskommunikation lebt nicht nur davon, Fakten zu liefern, sondern auch davon, Grade von Sicherheit sichtbar zu machen.
Wenn ein Modell Wahrscheinlichkeiten in Wohlklang verwandelt, wird aus Verständlichkeit schnell eine Illusion von Verstehen.
Halluzinationen sind nicht der einzige Fehler, aber der gefährlichste
Das bekannteste Problem generativer KI sind Halluzinationen. Der Begriff klingt fast harmlos, als gehe es um gelegentliche Ausrutscher. Tatsächlich geht es um einen systemischen Defekt: überzeugend formulierte Behauptungen ohne belastbare Grundlage.
In Nature beschrieben Farquhar und Kolleginnen 2024, dass große Sprachmodelle falsche und unbegründete Antworten produzieren können und dass genau diese Unzuverlässigkeit ihren Einsatz in sensiblen Bereichen bremst. Für die Wissenschaftskommunikation ist das besonders heikel, weil hier oft genau jene Leserinnen und Leser erreicht werden sollen, die die Primärliteratur nicht selbst gegenprüfen können.
Aber Halluzinationen sind nur ein Teil des Problems. Ebenso riskant sind:
veraltete Evidenz, die wie aktueller Konsens klingt
falsche Ausgewogenheit, bei der wissenschaftlich schwache Positionen sprachlich auf Augenhöhe mit robusten Befunden erscheinen
verkürzte Kausalität, wenn aus Korrelation plötzlich Erklärung wird
weggeglättete Unsicherheit, weil Vorbehalte den Text "schlechter lesbar" machen würden
Gerade der letzte Punkt wird unterschätzt. Wissenschaft ist selten so sauber, wie Kommunikationsabteilungen es gern hätten. Gute Vermittlung heißt deshalb nicht, Ambivalenz wegzupolieren, sondern sie verständlich zu machen. Wenn KI genau das Gegenteil belohnt, entsteht ein paradoxes Ergebnis: Der Text wird lesbarer, aber die Wissenschaft darin unehrlicher.
Zielgruppenanpassung kann Zugang schaffen oder Vorurteile automatisieren
Viele Hoffnungen rund um KI in der Wissenschaftskommunikation hängen an Personalisierung. Ein Thema soll nicht mehr einmal für "die Öffentlichkeit" erklärt werden, sondern je nach Alter, Bildung, Vorwissen, Sprache oder Interesse anders. Auch das ist in der Sache sinnvoll. Es gibt nicht das eine Publikum.
Doch Zielgruppenanpassung ist nie neutral. Sie setzt Annahmen darüber voraus, wie bestimmte Gruppen denken, sprechen, zweifeln oder lernen. Wenn diese Annahmen aus verzerrten Trainingsdaten stammen, skaliert KI nicht nur Zugänglichkeit, sondern auch stereotype Vereinfachungen.
UNESCO warnte 2024 vor deutlichen Geschlechter-, Kultur- und Sexualitätsbias in großen Sprachmodellen. Frauen wurden in den untersuchten Systemen deutlich häufiger mit häuslichen Rollen verbunden, während Männer öfter mit Karriere und Status verknüpft waren. Für Wissenschaftskommunikation ist das kein Randaspekt. Wer Kommunikation automatisch "publikumsnah" zuschneidet, kann unbemerkt alte Rollenbilder in neue Formate gießen.
Hendriks et al. 2025 verweisen deshalb zu Recht darauf, dass gerade mehrsprachige und zielgruppenspezifische Anpassung doppelt geprüft werden muss: auf fachliche Genauigkeit und auf kulturelle Fairness.
Faktencheck: Personalisierung ist nicht automatisch Präzision.
Sie kann Information zugänglicher machen. Sie kann aber auch unterschwellig festlegen, wem welches Niveau, welche Sprache und welche Perspektive "zugemutet" wird.
Warum das in einer fragilen Informationsordnung besonders heikel ist
Die Debatte über KI in der Wissenschaftskommunikation findet nicht im luftleeren Raum statt. Sie trifft auf eine Öffentlichkeit, die bereits durch Plattformlogiken, sinkende redaktionelle Kapazitäten und Informationsüberlastung belastet ist.
Der Konsensbericht der National Academies von 2025 beschreibt sehr deutlich, dass Wissenschaftsdesinformation nicht nur absichtlich entsteht. Sie wächst auch dort, wo Informationslücken bestehen, wo Menschen widersprüchliche Signale erhalten oder wo verlässliche Einordnung fehlt. In den interaktiven Highlights des Berichts werden drei Entwicklungen hervorgehoben, die für diesen Artikel zentral sind: fragmentierte Publika, abnehmende Kapazitäten im Wissenschaftsjournalismus und digitale Systeme, die Sichtbarkeit nach Engagement statt nach Evidenz verteilen.
In genau so einem Umfeld ist generative KI ein Verstärker. Sie kann hochwertige Wissenschaftsinformation massenhaft zugänglich machen. Sie kann aber ebenso die Produktionskosten für plausibel klingenden Unsinn weiter senken.
Das ist keine theoretische Sorge. Laut Pew Research Center vom 3. April 2025 äußerten 66 Prozent der befragten US-Erwachsenen und sogar 70 Prozent der befragten KI-Expertinnen und -Experten starke Sorge darüber, dass Menschen durch KI ungenaue Informationen erhalten. Gleichzeitig zeigt Pew vom 15. Januar 2026, dass das Vertrauen in Wissenschaftlerinnen und Wissenschaftler zwar weiterhin hoch ist, aber unter dem Niveau vom Beginn der Pandemie liegt. Mit anderen Worten: Das kommunikative Umfeld ist bereits angespannt, bevor KI dort überhaupt voll angekommen ist.
Was gute KI-gestützte Wissenschaftskommunikation leisten müsste
Die produktive Frage lautet deshalb nicht, ob KI in der Wissenschaftskommunikation eingesetzt werden darf. Sie lautet, unter welchen Regeln sie nützt.
Silva Luna et al. 2025 schlagen dafür einen bemerkenswert brauchbaren Rahmen vor. Entscheidend sind dort nicht technische Superlative, sondern Qualitätsprinzipien:
wissenschaftliche Integrität: Stimmen Aussagen, Quellenlage und Evidenzgewicht?
Human-Centricity: Hilft das Format realen Menschen mit realem Vorwissen?
ethische Responsivität: Werden Risiken, Verzerrungen und Folgen mitgedacht?
inklusiver Impact: Erweitert das System Zugang oder reproduziert es Ausschlüsse?
Governance: Gibt es Kontrolle, Feedback, Dokumentation und Verantwortung?
Übersetzt in redaktionelle Praxis heißt das: KI darf Rohmaterial verdichten, Varianten erzeugen, Sprache anpassen, Übersetzungen vorschlagen und visuelle Ideen anstoßen. Aber sie darf nicht unsichtbar zur letzten Instanz über Wahrheitsgehalt, Unsicherheitsgrad oder Quellenpriorität werden.
Ein belastbarer Workflow für KI in der Wissenschaftskommunikation würde daher mindestens fünf Schritte brauchen:
Primärquellen und Evidenzlage zuerst menschlich klären.
KI nur auf dieser Basis umformulieren, nicht frei "wissen lassen".
Unsicherheit explizit markieren statt beim Glätten zu verlieren.
Zielgruppenanpassung auf Bias und Vereinfachungsfehler prüfen.
Veröffentlichung nur mit nachvollziehbarer redaktioneller Verantwortung.
Das klingt weniger futuristisch als die Vision vom vollautomatischen Wissenschaftserklärer. Es ist aber wahrscheinlich der einzig seriöse Weg.
Die eigentliche Zukunftsfrage lautet: Wer bleibt sichtbar verantwortlich?
Vielleicht ist das der wichtigste Punkt überhaupt. Wissenschaftskommunikation war noch nie bloß ein Transportproblem. Sie war immer auch eine Frage von Auswahl, Gewichtung, Kontext und Verantwortung. Was wird erklärt? Was wird weggelassen? Welche Unsicherheit wird mitkommuniziert? Welche Metapher hilft und welche verfälscht?
KI kann diese Arbeit unterstützen. Sie kann sie beschleunigen. Sie kann sie in manchen Punkten sogar verbessern. Ein unveröffentlichter, aber interessanter Preprint von Worden und Richards aus dem November 2024 deutet sogar darauf hin, dass Fachleute KI-generierte Inhalte in einzelnen Umweltkommunikationsformaten teilweise als ausreichend oder visuell überzeugend bewerten. Gerade deshalb wäre es naiv, das Thema mit einem einfachen Technikverbot abzuräumen.
Aber je besser die Maschine kommuniziert, desto wichtiger wird, dass Menschen als epistemische Verantwortliche nicht aus dem Bild verschwinden.
Die Royal Society warnte 2024, unzuverlässige oder intransparente KI könne nicht nur die Genauigkeit wissenschaftlicher Arbeit beschädigen, sondern auch das gesellschaftliche Vertrauen in ihre Ergebnisse. Für die Wissenschaftskommunikation gilt das doppelt. Denn hier wird nicht nur über Wissen gesprochen. Hier entscheidet sich, ob Menschen den Eindruck gewinnen, Wissenschaft sei ein Prozess mit Belegen, Grenzen und Korrekturen oder nur noch eine besonders elegante Textoberfläche.
KI kann Wissenschaft verständlicher machen. Der Fortschritt wäre aber erst dann wirklich groß, wenn sie uns nicht nur besser formulierte Antworten liefert, sondern auch besser erkennbare Grenzen. Bis dahin bleibt sie ein mächtiges Werkzeug mit einer klaren Regel: Wer Wissenschaft glaubwürdig erklären will, darf sprachliche Brillanz nie mit Erkenntnis verwechseln.

















































































Kommentare