Zukunftssysteme neu vermessen: Wie Forschung aus Szenarien, Daten und digitalen Zwillingen ein Entscheidungslabor macht
- Benjamin Metzig
- vor 8 Stunden
- 6 Min. Lesezeit

Die Zukunft ist in der Forschung lange wie ein schlechter Kontinent behandelt worden: wichtig, faszinierend, aber nur unscharf kartierbar. Man zeichnete Trendlinien, baute Szenarien, sammelte Expertenurteile und hoffte, dass daraus ein halbwegs belastbares Bild dessen entsteht, was als Nächstes kommt. Das war nie wertlos. Aber es war oft langsam, grobkörnig und anfällig für die Illusion, man müsse nur genug Informationen sammeln, um irgendwann die eine richtige Prognose zu finden.
Genau dieses Denken kippt gerade. Zukunftssysteme werden neu vermessen. Nicht, weil Forschende plötzlich in die Zukunft sehen könnten. Sondern weil sie immer besser darin werden, Gegenwart, Rückkopplungen und alternative Entwicklungspfade als zusammenhängende Systeme zu modellieren. Aus Zukunftsforschung wird damit schrittweise etwas anderes: weniger Orakel, mehr Testumgebung.
Zukunftssysteme sind keine Kristallkugeln mehr
Wenn heute von Zukunftssystemen die Rede ist, geht es nicht bloß um klassische Zukunftsstudien. Gemeint ist ein ganzer Werkzeugkasten: strategische Vorausschau, Szenariotechnik, integrierte Modelle, digitale Zwillinge, Frühwarnsysteme und KI-gestützte Prognosen. Der gemeinsame Nenner lautet nicht Gewissheit, sondern strukturierte Vorbereitung.
Die OECD beschreibt strategische Vorausschau ausdrücklich nicht als Versuch, eine einzige Zukunft vorherzusagen. Stattdessen geht es darum, mehrere plausible Zukünfte zu erkunden. Zu den dafür genannten Methoden gehören Horizon Scanning, Megatrend-Analysen, Szenarioplanung sowie Visioning und Backcasting. Das ist mehr als Semantik. Es markiert einen erkenntnistheoretischen Wechsel: Gute Zukunftssysteme sollen nicht Recht behalten wie ein Prophet, sondern Entscheidungen robuster machen.
Dieser Perspektivwechsel ist gerade deshalb so wichtig, weil die Systeme, die wir zu verstehen versuchen, nicht linear funktionieren. Klima, Energie, Stadtentwicklung, Lieferketten, digitale Infrastrukturen oder öffentliche Verwaltung reagieren nicht wie Uhrwerke. Sie bestehen aus vielen Ebenen, vielen Akteuren und vielen Verzögerungen. Kleine Änderungen an einer Stelle können große Wirkungen an anderer Stelle entfalten. Wer solche Systeme mit einer einzigen Trendlinie beruhigen will, täuscht sich meist zuerst selbst.
Die neue Vermessung beginnt mit Daten, aber endet dort nicht
Was die aktuelle Forschung verändert, ist zunächst die Dichte der Beobachtung. Satelliten liefern hochaufgelöste Erdbeobachtung, Sensornetze erzeugen laufend Umweltdaten, Verwaltungs- und Infrastruktursysteme produzieren digitale Spuren, und offene Datensätze machen Vergleichbarkeit viel leichter als noch vor wenigen Jahren. Das allein wäre aber nur mehr Messung.
Neu wird es dort, wo diese Daten in Modelle übersetzt werden, die nicht bloß beschreiben, was gerade ist, sondern durchspielen, was unter bestimmten Bedingungen plausibel wäre. Die europäische Initiative Destination Earth ist dafür ein besonders starkes Beispiel. Die EU-Kommission beschreibt DestinE als hochgenaues digitales Modell der Erde, das natürliche Phänomene und menschliche Aktivitäten gemeinsam überwachen, simulieren und vorhersagen soll. Dahinter steckt eine enorme Verschiebung: Zukunftssysteme werden nicht nur genauer, sondern operativer. Sie rücken näher an reale Entscheidungen über Katastrophenschutz, Anpassung, Wasser, Energie oder Stadtplanung heran.
Damit verändert sich auch die Frage, was eine gute Zukunftsanalyse überhaupt ist. Früher war ein Bericht oft das Endprodukt. Heute wird das Modell selbst zur Infrastruktur. Es lässt sich aktualisieren, mit neuen Daten füttern, mit Annahmen stressen, mit Gegenmaßnahmen testen. Zukunft wird nicht mehr nur beschrieben. Sie wird als Möglichkeitsraum bearbeitet.
Digitale Zwillinge machen aus Zukunft ein Simulationsproblem
Der Begriff „digitaler Zwilling“ klingt zunächst nach Technologiemarketing. In der Forschung meint er aber etwas Konkretes: die Kopplung zwischen einem realen System und einem virtuellen Gegenstück, in das Daten laufend einfließen und aus dem wiederum Informationen für Entscheidungen zurückgespielt werden.
Die in Communications Earth & Environment veröffentlichte Übersicht zeigt, wie weit dieser Gedanke inzwischen reicht. Dort wird beschrieben, dass digitale Zwillinge Umweltsysteme in sehr unterschiedlichen Maßstäben repräsentieren können und dass sich physische und soziale Komponenten zunehmend zusammen denken lassen. Wo starke Rückkopplungen zwischen Gesellschaft und Umwelt bestehen, reicht ein reines Klimamodell nicht mehr aus. Dann muss auch Verhalten modelliert werden: Investitionen, Anpassung, Migration, Nutzungskonflikte, politische Reaktionen.
Gerade darin liegt die eigentliche Neuerung. Zukunftssysteme messen heute nicht nur Zustände, sondern Beziehungen. Sie fragen nicht bloß: Wie warm wird es? Sondern auch: Wie reagieren Städte, Netze, Märkte, Verwaltungen und Haushalte darauf? Welche Kettenreaktionen entstehen? Welche Eingriffe dämpfen Risiken wirklich und welche verschieben sie nur?
Das macht Modelle mächtiger, aber auch heikler. Denn je mehr Komponenten gekoppelt werden, desto schwieriger werden Rechenaufwand, Verständlichkeit und Verantwortlichkeit. Dieselbe Nature-Übersicht betont deshalb Transparenz und Co-Produktion. Ein gutes Zukunftssystem darf kein schwarzer Kasten sein, der Autorität aus seiner Komplexität bezieht.
KI verändert nicht nur die Genauigkeit, sondern den Takt
Besonders sichtbar wird der Umbruch dort, wo maschinelles Lernen in Vorhersagesysteme eindringt. Die Veröffentlichung zu GraphCast markiert hier einen Einschnitt. Das System sagt 227 atmosphärische Variablen über zehn Tage voraus, war laut der Veröffentlichung bei 89,3 Prozent der geprüften Zielgrößen und Vorhersagehorizonte genauer als das ECMWF-HRES-System und konnte eine 10-Tage-Prognose in unter 60 Sekunden erzeugen.
Das ist nicht bloß ein technischer Rekord. Es verschiebt die institutionelle Taktung von Zukunftssystemen. Wenn hochwertige Vorhersagen schneller und billiger werden, lassen sich Szenarien häufiger aktualisieren. Extremereignisse können enger begleitet, Unsicherheitsräume öfter neu bewertet und politische Optionen schneller gegeneinander getestet werden. Aus periodischer Vorausschau wird in manchen Feldern fast kontinuierliche Vorausschau.
Aber genau hier liegt auch eine Gefahr. Geschwindigkeit sieht nach Sicherheit aus, ist aber keine. Ein schnelleres Modell kann blinde Flecken genauso effizient reproduzieren wie ein langsames. Wenn Trainingsdaten historische Muster überschätzen oder soziale Rückkopplungen unterschätzen, wird die Maschine diese Verzerrungen nicht magisch beseitigen. Zukunftssysteme mit KI werden deshalb nur dann besser, wenn ihre Grenzen genauso ernst genommen werden wie ihre Leistungsgewinne.
Frühwarnsysteme zeigen, wie nah Erkenntnis und Überinterpretation beieinanderliegen
Ein zweiter Forschungsstrang, der Zukunftssysteme neu vermisst, sind Frühwarnsignale für Kipppunkte und abrupte Übergänge. Die große Review in Earth System Dynamics ordnet 229 empirische Anwendungen von Frühwarnmethoden in fünf Forschungsdomänen ein: Klima, Ökologie, Gesundheit, Sozialwissenschaften und physikalische Systeme. Das zeigt, wie breit die Idee inzwischen geworden ist.
Der Reiz dieser Forschung ist offensichtlich. Wenn Systeme vor einem abrupten Wandel charakteristische Muster zeigen, etwa langsamere Erholung nach Störungen oder zunehmende Varianz, dann könnten Risiken früher sichtbar werden, als es eine reine Schadensbeobachtung erlaubt. Das wäre für Klimarisiken, Finanzstabilität, Gesundheitssysteme oder kritische Infrastrukturen enorm wertvoll.
Doch Frühwarnung ist kein Alarmsystem mit garantiertem Wahrheitswert. Gerade in hochgekoppelten Systemen können Signale mehrdeutig sein. Ein Ausschlag kann auf wachsende Instabilität hindeuten, aber auch auf veränderte Messbedingungen, externe Schocks oder ein unvollständig verstandenes Regime. Wer Zukunftssysteme ernst nimmt, muss deshalb zweierlei gleichzeitig aushalten: dass Frühwarnung unverzichtbar ist und dass sie nie dasselbe sein wird wie Gewissheit.
Merksatz: Gute Zukunftssysteme reduzieren nicht die Unsicherheit auf null.
Sie machen sichtbar, wo Unsicherheit sitzt, wie groß sie ist und welche Entscheidungen trotz ihr vernünftig sind.
Integrierte Modelle holen die Zukunft näher an reale Entscheidungen heran
Lange litten viele Zukunftsmodelle an einem praktischen Problem: Sie waren global beeindruckend, lokal aber oft zu grob. Genau daran arbeitet die Forschung inzwischen sichtbar. Die IIASA-Gruppe für Integrated Assessment and Climate Change entwickelt Werkzeuge für eine neue Generation gekoppelter Transformationspfade, die lokale und nationale Zwänge sowie Chancen besser abbilden sollen.
Das ist redaktionell vielleicht weniger glamourös als KI oder digitale Zwillinge, aber wahrscheinlich ebenso wichtig. Denn Zukunftssysteme scheitern selten daran, dass sie gar nichts wissen. Sie scheitern eher daran, dass ihre Aussagen zu abstrakt bleiben, um konkrete Entscheidungen zu tragen. Wenn Modelle besser zwischen globalem Ziel und lokaler Umsetzbarkeit vermitteln, verändert das ihre politische Relevanz fundamental.
Genau deshalb lohnt auch der Blick auf Beiträge wie Smart City ohne Nebelmaschine: Was Wien und Zürich tatsächlich messen, Algorithmische Verwaltung: Wenn Software über Anträge, Risiken und Prioritäten mitsortiert oder Open Data in der Verwaltung: Warum Transparenz erst mit Software, Standards und Schnittstellen wirklich beginnt. Sie zeigen aus anderen Richtungen dasselbe Muster: Je digitaler und vernetzter ein System wird, desto stärker entscheidet seine Daten- und Modellarchitektur darüber, was als Realität gilt.
Wer Zukunftssysteme baut, setzt auch Prioritäten
An dieser Stelle wird das Thema politisch. Zukunftssysteme sind keine neutralen Fenster in das Kommende. Sie sortieren Wirklichkeit. Sie gewichten Risiken, wählen Indikatoren, definieren relevante Akteure und entscheiden, welche Wechselwirkungen überhaupt modellierbar erscheinen.
Die OECD formuliert diesen Punkt in ihrem STI Outlook 2025 indirekt, aber klar: Der Wert strategischer Vorausschau liegt nicht darin, die Zukunft vorherzusehen, sondern darin, auf mehrere plausible Zukünfte vorbereitet zu sein. Genau das setzt allerdings voraus, dass unterschiedliche Perspektiven überhaupt in den Möglichkeitsraum gelangen. Wenn nur technisch Messbares zählt, verschwinden soziale Konflikte. Wenn nur ökonomische Effizienz zählt, verschwinden Verteilungsfragen. Wenn nur historische Daten zählen, verschwinden echte Brüche.
Darum braucht die nächste Generation von Zukunftssystemen mehr als Rechenleistung. Sie braucht Offenheit über Annahmen, nachvollziehbare Unsicherheiten und Institutionen, die Widerspruch nicht als Störung behandeln. Ein Modell, das perfekt rechnet, aber die falsche Welt modelliert, ist keine Hilfe. Es ist nur eine präzisere Form des Irrtums.
Was wir gerade lernen: Die beste Zukunftstechnik ist epistemische Bescheidenheit
Die eigentliche Pointe der aktuellen Forschung ist deshalb überraschend unheroisch. Je besser Zukunftssysteme werden, desto deutlicher zeigen sie ihre eigenen Grenzen. Mehr Daten helfen. Schnellere Modelle helfen. Digitale Zwillinge, Szenarien und Frühwarnmethoden helfen ebenfalls. Aber sie führen nicht zu einer Welt ohne Ungewissheit.
Sie führen zu etwas Nützlicherem: zu einer Welt, in der wir besser unterscheiden können zwischen robusten Entwicklungen, echten Kipprisiken, bloßen Modellannahmen und politisch motivierten Scheinsicherheiten. Zukunftssysteme werden damit nicht zu Maschinen der Vorhersage, sondern zu Maschinen der besseren Vorbereitung.
Das ist vielleicht weniger spektakulär als die alte Sehnsucht nach dem Blick in die Zukunft. Es ist aber sehr viel erwachsener. Und wahrscheinlich genau das, was Gesellschaften in einer Zeit aus Klimastress, KI-Schub, Krisenkaskaden und Infrastrukturumbau am dringendsten brauchen.
















































































