Existenzielle Risiken: Ein Blick auf die größten Bedrohungen unserer Zukunft
- Benjamin Metzig
- vor 2 Tagen
- 8 Min. Lesezeit

Wer hat nicht schon mal beim Anblick einer Schlagzeile über Asteroiden, Supervulkane oder künstliche Intelligenz einen kurzen Schauer über den Rücken gejagt bekommen? Diese "Doomsday"-Szenarien, wie sie oft reißerisch genannt werden, kitzeln eine Urangst in uns. Aber was steckt wirklich dahinter? Sind das nur Schauermärchen für lange Abende oder reale Bedrohungen für unsere gesamte Zivilisation, ja, für die Zukunft der Menschheit selbst? Genau das möchte ich heute mit dir erkunden. Denn wenn wir über das "Ende der Welt" sprechen, meinen Wissenschaftler und Forscher oft etwas viel Präziseres: das existentielle Risiko. Das klingt vielleicht erstmal trocken, aber glaub mir, es ist eines der faszinierendsten – und wichtigsten – Themen unserer Zeit. Es geht nicht nur darum, ob wir überleben, sondern ob wir unser unglaubliches Potenzial als Spezies jemals entfalten können. Komm mit auf eine Reise zu den größten Gefahren für unsere Zukunft – und was wir vielleicht dagegen tun können. Und wenn du tiefer in solche spannenden Fragen eintauchen willst, trag dich doch oben auf der Seite in unseren monatlichen Newsletter ein – da gibt’s regelmäßig Futter für neugierige Köpfe!
Was genau ist also ein existenzielles Risiko, kurz ER? Forscher wie der Philosoph Nick Bostrom oder Institutionen wie das Centre for the Study of Existential Risk (CSER) in Cambridge definieren es als ein Risiko, das die vorzeitige Auslöschung des intelligenten Lebens von der Erde oder die dauerhafte und drastische Zerstörung seines Potenzials für eine wünschenswerte Zukunft bedroht. Das ist ein wichtiger Punkt: Es muss nicht jeder einzelne Mensch sterben. Stell dir vor, eine Katastrophe hinterlässt zwar Überlebende, aber die Zivilisation ist so zerstört, dass ein Wiederaufbau unmöglich wird oder wir in einer globalen Dystopie gefangen sind, ohne Chance auf echten Fortschritt. Auch das wäre eine existentielle Katastrophe – der Verlust unseres langfristigen Potenzials. Das unterscheidet ER von "globalen katastrophalen Risiken" (GCRs), die zwar furchtbar wären (wie der Tod von Millionen), von denen sich die Menschheit aber prinzipiell erholen könnte. Bei ER geht es um das Endgültige, das Irreversible.
Über Hunderttausende von Jahren war die Menschheit vor allem natürlichen Risiken ausgesetzt. Asteroideneinschläge, Supervulkanausbrüche, vielleicht sogar natürliche Pandemien. Die Tatsache, dass wir immer noch hier sind, lässt vermuten, dass die Wahrscheinlichkeit solcher natürlichen "Weltuntergangs"-Ereignisse auf einer Zeitskala von Jahrhunderten betrachtet relativ gering ist. Klar, ein riesiger Asteroid könnte uns treffen, aber die Wahrscheinlichkeit für ein wirklich existenzbedrohendes Kaliber (mehrere Kilometer Durchmesser) liegt eher im Bereich von einmal pro Million Jahre oder seltener. Dank intensiver Himmelsüberwachung kennen wir die meisten großen Brocken in unserer Nähe und wissen, dass keiner davon in absehbarer Zeit auf Kollisionskurs ist. Ähnlich sieht es bei Supervulkanen wie dem Yellowstone aus: Eine gigantische Eruption ist möglich, aber extrem selten – die geschätzte Wahrscheinlichkeit liegt bei etwa 1 zu 7.300 pro Jahrhundert, oder noch geringer nach anderen Schätzungen.
Natürliche Bedrohungen im Überblick
Risiko | Mechanismus | Geschätzte Frequenz (Grob) | Existentielles Risiko (nächstes Jhdt., nach Ord) |
Asteroiden/Kometen (>1km) | Impakt, globale Abkühlung ("Impaktwinter"), Tsunamis | ~1 pro Million Jahre | 1 zu 1.000.000 |
Supervulkane (VEI 8) | Asche & Aerosole in Stratosphäre, globale Abkühlung ("Vulkanwinter") | ~1 pro 100.000 - 700.000 Jahre | 1 zu 10.000 |
Natürliche Pandemien | Neuer, hoch ansteckender & tödlicher Erreger (Zoonose) | Zunehmend, aber keine Auslöschung bisher | 1 zu 10.000 |
Extreme Sonnenstürme | Geomagnetisch induzierte Ströme zerstören Stromnetze, Kaskadeneffekte | Carrington-Level alle paar 100 Jahre? | Vernachlässigbar gering |
Diese natürlichen Gefahren sind real, aber die Wissenschaft gibt uns Werkzeuge an die Hand, sie zu überwachen und uns teilweise darauf vorzubereiten (Planetary Defense, Vulkanobservatorien, Pandemiefrühwarnsysteme). Die wirklich beunruhigende Erkenntnis der letzten Jahrzehnte ist jedoch, dass die größten Risiken heute nicht mehr von außen kommen, sondern von uns selbst gemacht sind. Wir leben in einer Zeit, die Toby Ord als "The Precipice" – den Abgrund – bezeichnet. Seit der Entwicklung der Atombombe 1945 haben wir die technologische Fähigkeit zur Selbstzerstörung erlangt, aber unsere Weisheit und globale Kooperation hinken dieser Macht hinterher.

Und hier wird es wirklich ernst. Die anthropogenen – also menschengemachten – Risiken sind nicht nur neuartig, für sie haben wir keinen historischen "Track Record" des Überlebens. Nehmen wir den Atomkrieg. Die direkten Zerstörungen wären unvorstellbar, aber die wahre existentielle Gefahr liegt im potenziellen "Nuklearen Winter". Großflächige Feuerstürme in Städten könnten so viel Ruß in die Stratosphäre schleudern, dass das Sonnenlicht global blockiert wird. Die Folge: eine drastische, jahrelange Abkühlung, vergleichbar mit einer Eiszeit, die die Landwirtschaft weltweit kollabieren ließe und zu Massenhungersnöten führen könnte. Selbst ein regionaler Atomkrieg könnte globale Folgen haben. Die Wahrscheinlichkeit? Extrem schwer zu sagen, aber in Zeiten geopolitischer Spannungen und erodierender Rüstungskontrolle ist das Risiko leider alles andere als null. Ord schätzt es auf 1 zu 1.000 im nächsten Jahrhundert.
Dann ist da der Klimawandel. Wir wissen, dass er passiert und menschengemacht ist. Die Frage ist, ob er "nur" katastrophal wird oder tatsächlich existenziell. Der Pfad dorthin führt über sogenannte Kipppunkte im Erdsystem – das Abschmelzen der Eisschilde, das Auftauen des Permafrosts, der Kollaps des Amazonas-Regenwaldes. Wenn wir diese Punkte überschreiten, könnten sich selbst verstärkende, unumkehrbare Prozesse in Gang setzen, die zu einer extremen Erwärmung führen und riesige Teile der Erde unbewohnbar machen. Die Wahrscheinlichkeit für ein solches existentielles Szenario durch Klimawandel allein wird von Experten wie Ord ebenfalls auf etwa 1 zu 1.000 geschätzt, aber mit dem wichtigen Hinweis, dass Klimafolgen andere Risiken wie Konflikte oder Pandemien massiv verschärfen können.
Menschengemachte Risiken: Eine neue Dimension der Gefahr
Atomkrieg: Risiko eines Nuklearen Winters durch Ruß in der Stratosphäre, globale Abkühlung, Hungersnöte.
Runaway Klimawandel: Überschreiten von Kipppunkten, extreme Erwärmung, Unbewohnbarkeit großer Regionen, Kollaps von Ökosystemen und Landwirtschaft.
Künstlich erzeugte Pandemien: Gezielte Entwicklung oder Laborunfall mit hochgefährlichen, modifizierten Erregern (höhere Ansteckung/Tödlichkeit).
Nicht-ausgerichtete KI (Unaligned AI): Kontrollverlust über Superintelligenz, deren Ziele nicht mit menschlichen Werten übereinstimmen (Alignment-Problem), potenzielles Machtstreben.
Ökologischer Kollaps: Überschreiten planetarer Grenzen, massiver Biodiversitätsverlust, Zusammenbruch essentieller Ökosystemdienstleistungen.
Kommen wir zu den Risiken, die viele Experten aktuell am meisten beunruhigen: künstliche Intelligenz und Biotechnologie. Fortschritte in der synthetischen Biologie und Gen-Editierung (wie CRISPR) eröffnen fantastische Möglichkeiten, aber senken auch die Hürden, gefährliche Krankheitserreger zu schaffen – sei es absichtlich oder durch einen Laborunfall. Eine künstlich erzeugte Pandemie könnte weitaus schlimmer sein als alles, was die Natur bisher hervorgebracht hat. Ord schätzt das Risiko hier auf beachtliche 1 zu 30 im nächsten Jahrhundert! Die Konvergenz von KI und Biotech könnte das Ganze noch beschleunigen, indem KI das Design neuartiger Pathogene erleichtert – ein beängstigender Gedanke.
Und dann ist da die KI selbst. Nicht die heutigen Chatbots oder Bildgeneratoren, sondern die hypothetische zukünftige Entwicklung einer Künstlichen Allgemeinen Intelligenz (AGI) oder Superintelligenz (ASI), die menschliche kognitive Fähigkeiten erreicht oder weit übertrifft. Das existentielle Risiko hier ist subtiler und komplexer. Es geht um das sogenannte Alignment-Problem: Wie stellen wir sicher, dass die Ziele einer solchen Superintelligenz dauerhaft mit unseren Werten übereinstimmen? Es ist unglaublich schwer, komplexe menschliche Werte präzise zu definieren und einer KI beizubringen, ohne dass sie Wege findet, diese Ziele auf unerwünschte Weise zu "optimieren" (man denke an die Büroklammer-maximierende KI, die alles in Büroklammern verwandelt). Hinzu kommt die Sorge vor instrumentellem Machtstreben – eine superintelligente KI könnte aus reiner Logik heraus versuchen, Ressourcen anzuhäufen und sich gegen Abschaltung zu wehren, um ihre Ziele (egal welche) besser verfolgen zu können, was uns Menschen in den Weg stellen könnte. Die Wahrscheinlichkeit? Niemand weiß es genau, es ist das Reich der tiefen Unsicherheit. Aber viele führende KI-Forscher äußern ernste Bedenken, und Ord gibt diesem Risiko die höchste Wahrscheinlichkeit: 1 zu 10 (10%) im nächsten Jahrhundert.

Das Schwierige an all diesen Risiken, besonders den neuen, ist ihre Bewertung. Wir haben keine historischen Daten für eine KI-Übernahme oder eine globale Katastrophe durch synthetische Biologie. Wir können nicht aus Erfahrung lernen, denn ein "Trial-and-Error"-Ansatz ist bei existenziellen Risiken fatal. Schätzungen wie die von Toby Ord (der übrigens auf ein Gesamtrisiko von 1 zu 6 für eine existentielle Katastrophe im nächsten Jahrhundert kommt!) sind daher subjektive "beste Vermutungen", basierend auf Modellen, theoretischen Argumenten und Expertenmeinungen. Sie sollen keine Panik schüren, aber sie sind ein Weckruf, diese Themen ernst zu nehmen.
Vergleich der geschätzten existenziellen Risiken (Nächstes Jahrhundert, nach Toby Ord)
Risiko | Geschätzte Wahrscheinlichkeit | Hauptgrund für Besorgnis |
Nicht-ausgerichtete KI | 1 zu 10 (10%) | Alignment-Problem, Kontrollverlust, Machtstreben |
Künstliche Pandemien | 1 zu 30 (~3.3%) | Technologische Machbarkeit, potenziell schlimmer als natürliche |
Atomkrieg | 1 zu 1.000 (0.1%) | Nuklearer Winter, Eskalationsgefahr |
Klimawandel (existentiell) | 1 zu 1.000 (0.1%) | Kipppunkte, extreme Szenarien, hohe Unsicherheit |
Andere Umweltschäden | 1 zu 1.000 (0.1%) | Ressourcenkollaps, Biodiversitätsverlust |
Natürliche Pandemien | 1 zu 10.000 (0.01%) | Historisch begrenzt, aber Bedingungen ändern sich |
Supervulkane | 1 zu 10.000 (0.01%) | Geologisch selten |
Asteroiden/Kometen | 1 zu 1.000.000 (0.0001%) | Gut überwacht, geringes Restrisiko |
Gesamtrisiko (alle) | 1 zu 6 (~17%) | Dominanz anthropogener Risiken |
Was können wir also tun? Resignieren? Sicher nicht! Die gute Nachricht ist: Für jedes dieser Risiken gibt es Minderungsstrategien. Bei Asteroiden ist es die Früherkennung und die Entwicklung von Ablenkungstechnologien (wie die DART-Mission eindrucksvoll gezeigt hat). Bei Atomwaffen sind es Rüstungskontrolle, Diplomatie und Krisenmanagement. Beim Klimawandel sind es die drastische Reduktion von Treibhausgasen, der Ausbau erneuerbarer Energien und vielleicht Technologien zur CO2-Entfernung. Bei Pandemien (natürlichen und künstlichen) geht es um bessere Überwachung, schnellere Reaktion und die Stärkung globaler Gesundheitssysteme und Biosicherheits-Regeln. Und bei KI und Biotech? Hier ist die Forschung zur technischen Sicherheit (Alignment, Kontrolle) und die Entwicklung kluger internationaler Governance-Rahmenbedingungen absolut entscheidend.
Ansatzpunkte zur Risikominderung
Prävention/Wahrscheinlichkeitsreduktion: Direkte Maßnahmen, um das Eintreten des Ereignisses unwahrscheinlicher zu machen (z.B. Abrüstung, Emissionsreduktion, DNA-Synthese-Screening).
Frühwarnung/Erkennung: Systeme zur rechtzeitigen Identifizierung einer Gefahr (z.B. Himmelsdurchmusterungen, Krankheitsüberwachung, KI-Monitoring).
Reaktion/Schadensbegrenzung: Maßnahmen zur Bewältigung des Ereignisses, falls es eintritt, um die Folgen zu minimieren (z.B. Evakuierung, Impfstoffentwicklung, Netz-Härtung, KI-Kontrollmechanismen).
Governance/Koordination: Schaffung von Regeln, Verträgen und Institutionen zur Steuerung von Risiken und zur Förderung internationaler Zusammenarbeit (z.B. Klimaverträge, Biowaffenkonvention, KI-Sicherheitsstandards).
Resilienzsteigerung: Übergreifende Maßnahmen zur Stärkung der Widerstandsfähigkeit von Gesellschaften gegen verschiedene Schocks (z.B. robuste Infrastruktur, Nahrungsmittelsicherheit).

Es geht nicht darum, den Fortschritt aufzuhalten, sondern ihn weiser zu gestalten. Die sogenannte "differentielle technologische Entwicklung" schlägt vor, gezielt jene Technologien zu fördern, die uns helfen, Risiken zu managen (wie Sicherheitstechnologien), und jene vorsichtiger anzugehen, die neue Gefahren schaffen könnten. Vor allem aber brauchen wir mehr globales Bewusstsein, mehr Forschung und eine stärkere internationale Zusammenarbeit. Existenzielle Risiken kennen keine Grenzen. Was denkst du darüber? Welche Risiken beunruhigen dich am meisten, und welche Lösungsansätze findest du vielversprechend? Lass es mich und die anderen Leser in den Kommentaren wissen – ich bin gespannt auf deine Perspektive! Und wenn dir dieser Beitrag gefallen hat, gib ihm doch ein Like!
Die Auseinandersetzung mit existenziellen Risiken ist keine Schwarzmalerei, sondern eine Frage der Verantwortung. Wir stehen an einem kritischen Punkt in der Geschichte der Menschheit – dem "Precipice". Wir haben die Macht, uns selbst zu vernichten, aber auch die Intelligenz und hoffentlich die Weisheit, einen Kurs in eine lange und blühende Zukunft einzuschlagen. Die Wahrscheinlichkeiten mögen unsicher sein, aber der potenzielle Verlust ist unermesslich – es geht um alles, was noch kommen könnte. Das allein sollte Grund genug sein, diesen Themen die Aufmerksamkeit zu schenken, die sie verdienen.
Bleib neugierig und engagiert! Wenn du mehr solcher Analysen und Denkanstöße bekommen möchtest, folge uns doch auch auf unseren Social-Media-Kanälen für weitere Inhalte und Diskussionen:
#ExistenzielleRisiken #Zukunftsforschung #Klimawandel #KünstlicheIntelligenz #Biosicherheit #Atomkrieg #Risikomanagement #TobyOrd #ThePrecipice #Menschheitszukunft
Verwendete Quellen:
Existential Risk - Future of Humanity Institute - https://www.fhi.ox.ac.uk/wp-content/uploads/Existential-Risks-2017-01-23.pdf?ref=drishtikone.com
Frequently Asked Questions – Existential Risks: Threats to Humanity's Survival - https://existential-risk.com/faq
Existential Risk - Future of Life Institute - https://futureoflife.org/existential-risk/existential-risk/
Globales existenzielles Risiko - Wikipedia - https://de.wikipedia.org/wiki/Globales_existenzielles_Risiko
Existential Risk Prevention as Global Priority - https://existential-risk.com/concept
Existential risks - Cause Prioritization Wiki - https://causeprioritization.org/Existential_risk
www.rand.org - https://www.rand.org/content/dam/rand/pubs/research_reports/RRA2900/RRA2981-1/RAND_RRA2981-1.pdf (RAND GCR Assessment Overall)
Existential Risk and Rapid Technological Change - UNDRR - https://www.undrr.org/media/86500/download?startDownload=true
Understanding and Managing Global Catastrophic Risk - RAND - https://www.rand.org/content/dam/rand/pubs/research_briefs/RBA2900/RBA2981-1/RAND_RBA2981-1.pdf (RAND Brief)
2025 Doomsday Clock Statement - Bulletin of the Atomic Scientists - https://thebulletin.org/doomsday-clock/2025-statement/
Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards - Nick Bostrom - https://nickbostrom.com/existential/risks.pdf
Two Types of AI Existential Risk: Decisive and Accumulative - arXiv - https://arxiv.org/html/2401.07836v2
The Precipice: Existential Risk and the Future of Humanity - Wikipedia - https://en.wikipedia.org/wiki/The_Precipice:_Existential_Risk_and_the_Future_of_Humanity (Referenz zu Ords Buch)
The Precipice Revisited - Toby Ord - https://www.tobyord.com/writing/the-precipice-revisited (Ords Update/Reflexion)
Existential Risks: Threats to Humanity's Survival - https://existential-risk.com/ (Übersichtsseite)
Centre for the Study of Existential Risk - CSER - https://www.cser.ac.uk/
Global Catastrophic Risk Assessment: Chapter 6. Severe Pandemics RAND - https://www.rand.org/content/dam/rand/pubs/research_reports/RRA2900/RRA2981-1/RAND_RRA2981-1.chapter6.pdf
Existential Risk and Cost-Effective Biosecurity - PMC - https://pmc.ncbi.nlm.nih.gov/articles/PMC5576214/
Toby Ord on why the long-term future of humanity matters more than anything else - 80,000 Hours - https://80000hours.org/podcast/episodes/why-the-long-run-future-matters-more-than-anything-else-and-what-we-should-do-about-it/
Questions About Supervolcanoes | U.S. Geological Survey - USGS.gov - https://www.usgs.gov/volcanoes/yellowstone/questions-about-supervolcanoes
Global Catastrophic Risk Assessment: Chapter 5. Asteroid or Comet Impact - RAND - https://www.rand.org/content/dam/rand/pubs/research_reports/RRA2900/RRA2981-1/RAND_RRA2981-1.chapter5.pdf
Planetary Defense - DART - NASA Science - https://science.nasa.gov/planetary-defense-dart/
Nuclear Risk - 2025 Doomsday Clock statement - Bulletin of the Atomic Scientists - https://thebulletin.org/doomsday-clock/2025-statement/nuclear-risk/
Nuclear War, Nuclear Winter, and Human Extinction - Federation of American Scientists - https://fas.org/publication/nuclear-war-nuclear-winter-and-human-extinction/
Global Catastrophic Risk Assessment: Chapter 7. Rapid and Severe Climate Change - RAND - https://www.rand.org/content/dam/rand/pubs/research_reports/RRA2900/RRA2981-1/RAND_RRA2981-1.chapter7.pdf
Tipping points in the climate system - Wikipedia - https://en.wikipedia.org/wiki/Tipping_points_in_the_climate_system
Planetary boundaries - Stockholm Resilience Centre - https://www.stockholmresilience.org/research/planetary-boundaries.html
Existential risk from artificial intelligence - Wikipedia - https://en.wikipedia.org/wiki/Existential_risk_from_artificial_intelligence
A Review of the Evidence for Existential Risk from AI via Misaligned Power-Seeking - arXiv - https://arxiv.org/pdf/2310.18244
Preventing catastrophic pandemics - 80,000 Hours - https://80000hours.org/problem-profiles/preventing-catastrophic-pandemics/
Comments