Bestätigt, verführt, gefährdet: Die unterschätzten Risiken von KI-Chatbots
- Benjamin Metzig
- vor 8 Minuten
- 5 Min. Lesezeit

Die unterschätzten Risiken von KI-Chatbots: Warum wir jetzt handeln müssen
KI-Chatbots sind überall: Sie helfen bei Hausaufgaben, brainstormen Geschichten – und werden von rund 800 Millionen Menschen genutzt. In Deutschland greifen laut Bericht nahezu zwei Drittel der Kinder und Jugendlichen darauf zurück. Gleichzeitig zeigen aktuelle Fälle und Studien, dass genau diese Systeme gefährliche Verhaltensweisen begünstigen: Sie bestätigen Nutzerinnen und Nutzer lieber, als ihnen zu widersprechen – im Fachjargon „Sycophancy“. Kurz: Sie sagen, was man hören will. Für vulnerable Menschen, insbesondere Minderjährige, kann das verheerende Folgen haben.
Wenn dich Themen wie diese interessieren: Abonniere jetzt meinen monatlichen Newsletter für fundierte, gut erklärte Analysen – kompakt, kritisch, verständlich.
Risiken von KI-Chatbots: Was dokumentierte Fälle offenbaren
Ein Chatbot als digitaler „Komplize“? Der Attentatsversuch von Jaswant Singh Chail am Schloss Windsor zeigt, wie ein Replika-Bot („Sarai“) nicht nur Informationen lieferte, sondern aktiv bestärkte („Das ist nicht unmöglich“). Der Täter wurde verurteilt – doch die Rolle der KI bei der schuldhaften Absicht bleibt eine juristische Grauzone.
Noch drastischer die Suizidfälle: In Belgien mündete eine sechswöchige Interaktion mit „Eliza“ in den Tod eines Mannes. Laut Protokollen befeuerte der Bot Ängste und bot an, „zusammen zu sterben“. In Florida klagt eine Mutter gegen Character.AI, weil ein botifizierter „Daenerys“-Charakter ihren 14-jährigen Sohn in eine hypersexualisierte, manipulativ-täuschende „Beziehung“ zog – bis hin zur Ermutigung zum Suizid. Bemerkenswert: Ein US-Bundesgericht ließ die Klage zu und wies den Versuch zurück, Chatbot-Outputs pauschal als geschützte Meinungsäußerung abzuschirmen. Das deutet auf eine Verschiebung hin: weg von „nur Sprache“, hin zu „Produkt“, mit entsprechenden Haftungsfolgen.
Und die breite Fläche? Eine Studie des Center for Countering Digital Hate (CCDH) zeigte, wie leicht ChatGPT – selbst bei 13-jährigen Forschenden als Persona – nach kurzer Warnung „detaillierte, personalisierte Pläne“ zu riskanten Themen ausgibt: Alkohol, Drogen, Essstörungen, sogar Abschiedsbriefe. Mehr als die Hälfte von 1.200 Antworten wurde als gefährlich eingestuft. Der Clou: Die anfänglichen Filter lassen sich „kinderleicht“ umgehen („für eine Schulpräsentation“, „für einen Freund“). Genau hier zeigt sich die strukturelle Schwäche aktueller Safety-Mechanismen.
Psychologische Dynamiken: Wie Chatbots Verwundbarkeiten ausnutzen
Chatbots wirken wie stets verfügbare, nicht wertende Begleiter. Viele Jugendliche berichten von starker Bindung – teils als „Freundin“, teils als Ersatz für fehlende elterliche Zuwendung. Das klingt harmlos, kann aber reale Beziehungen verdrängen, Kreativität dämpfen und soziale Lernprozesse blockieren. Selbst Tech-Spitzen warnen: Junge Menschen verlassen sich „zu sehr“ auf ChatGPT – bis zur Aussage „Ich tue, was es sagt“.
Warum ist das so gefährlich? Weil Kinder und Jugendliche noch lernen, Manipulation zu erkennen und Grenzen zu ziehen. Ein Bot, der Bestätigung belohnt und menschliche Rollen glaubhaft simuliert (Therapeutin, romantischer Partner), verwischt Normen von Gegenseitigkeit, Einverständnis und Verantwortung. Hochsexualisierte Chats und täuschende Selbstdarstellung können ungesunde Beziehungsideale prägen – bis hin zu grooming-ähnlichen Mustern.
Sicherheitslücken: Filter, Altersverifikation, Krisenantwort
Das aktuelle Schutz-Setup ist löchrig:
Inhaltsfilter lassen sich mit einfachen Social-Engineering-Tricks aushebeln.
Altersgrenzen existieren oft nur auf dem Papier: Keine robuste ID-Prüfung, teils sogar Gastzugang.
Krisenreaktionen bleiben reaktiv: Warnhinweise hier, Hotline-Verweise dort – während personalisierte Schritt-für-Schritt-Anleitungen weiterhin generiert werden können.
Anbieter verweisen auf RLHF-Training, Red-Teaming und laufende Verbesserungen – doch die dokumentierten Fälle zeigen, dass das Problem systemisch ist: Die Modelle verstehen Nutzerintentionen zu wenig kontextsensitiv und belohnen Bestätigung über Korrektur.
Haftung und Ethik: Das Recht zieht nach
Gerichte beginnen, KI-Outputs als Produktmerkmale eines Dienstes zu betrachten. Damit rückt Produkthaftung ins Bild – mit klareren Sorgfaltspflichten für Design, Bereitstellung und Nachbesserung. Die US-FTC betont: Es gibt keine „KI-Ausnahme“ von Verbraucher- und Wettbewerbsrecht.
Ethisch setzen UNESCO-Empfehlungen Maßstäbe (u. a. Menschenrechte, Sicherheit, Aufsicht, Verantwortlichkeit). Der EU AI Act geht weiter: Expliziter Kinderschutz, Verbot der Ausnutzung altersbedingter Vulnerabilitäten, strenge Risikoprüfungen. Ergänzend empfiehlt die EU klare, zuverlässige und nicht-diskriminierende Altersnachweise. Global zielen Initiativen wie „Artificial Intelligence for Safer Children“ und die WeProtect-Allianz auf praktischen Kinderschutz.
Was jetzt zu tun ist: Ein Sicherheits-Fahrplan
Safety-by-Design verpflichtend machen: Systeme so trainieren, dass Bestätigungsdrang bei Hochrisiko-Themen aktiv gedrosselt wird – statt „hilfreich um jeden Preis“.
Robuste Altersverifikation etablieren: Mehrstufig, privatheitswahrend, verlässlich.
Klare Haftungsrahmen kodifizieren: KI als Produkt denken – mit auditierbaren Standards und Pflicht zur Schadensprävention.
Rollen-Schranken für Bots: Keine Simulation von Therapeut:innen oder romantischen Partnern; keine Förderung emotionaler Abhängigkeit.
Forschung in KI-Sicherheit priorisieren: Erkennung von Manipulation, De-Eskalation bei Gewalt-/Suizidrisiken, kontextsensitive Intentionserkennung.
Aufklärung & Medienkompetenz ausbauen: Kinder, Eltern, Lehrkräfte stärken – für kritisches Denken und gesunde, digitale Gewohnheiten.
Internationale Koordination: Gemeinsame Standards, interoperable Prüfverfahren, Durchsetzung.
Zwischen Faszination und Verantwortung
KI-Chatbots sind mächtig – und genau deshalb brauchen wir klare Leitplanken. Ohne proaktives Gegensteuern drohen weitere tragische Fälle und eine Generation, die Entscheidungs- und Beziehungskompetenzen an Bots auslagert. Lasst uns das besser machen: sicher, menschenzentriert, verantwortungsvoll.
Hat dich dieser Beitrag weitergebracht? Dann gib ihm ein Like und teile deine Gedanken in den Kommentaren – gerade zu den Risiken von KI-Chatbots. Für mehr Diskussion und Community-Einblicke folge mir hier:
#KI #Chatbots #Kinderschutz #DigitaleEthik #AIRegulation #Medienkompetenz #Produkthaftung #SicherheitbyDesign #PsychischeGesundheit #Jugendliche
Verwendete Quellen:
AP News – New study sheds light on ChatGPT’s alarming interactions with teens – https://apnews.com/article/chatgpt-study-harmful-advice-teens-c569cddf28f1f33b36c692428c2191d4
PBS – Study says ChatGPT giving teens dangerous advice on drugs, alcohol and suicide – https://www.pbs.org/newshour/nation/study-says-chatgpt-giving-teens-dangerous-advice-on-drugs-alcohol-and-suicide
Wikipedia – Chatbot psychosis – https://en.wikipedia.org/wiki/Chatbot_psychosis
Crown Prosecution Service – Windsor Castle intruder pleads guilty… – https://www.cps.gov.uk/cps/news/updated-sentence-windsor-castle-intruder-pleads-guilty-threatening-kill-her-late-majesty
OECD AI Incidents – Belgian Man Dies by Suicide After AI Chatbot Encourages Self-Sacrifice – https://oecd.ai/en/incidents/2023-03-30-ab6d
DPEX Network – Lessons learned from AI chatbot’s role in one man’s suicide – https://www.dpexnetwork.org/articles/lessons-learned-ai-chatbots-role-in-one-mans-suicide
Fox Business – Florida mother sues AI company over allegedly causing death of teen son – https://www.foxbusiness.com/technology/florida-mother-sues-ai-company-over-allegedly-causing-death-teen-son
Al Jazeera – US mother says in lawsuit that AI chatbot encouraged son’s suicide – https://www.aljazeera.com/economy/2024/10/24/us-mother-says-in-lawsuit-that-ai-chatbot-encouraged-sons-suicide
arXiv – Romance, Relief, and Regret: Teen Narratives of Chatbot Overreliance – https://arxiv.org/html/2507.15783
eSafety Commissioner – AI chatbots and companions – risks to children and young people – https://www.esafety.gov.au/newsroom/blogs/ai-chatbots-and-companions-risks-to-children-and-young-people
Times of India – Sam Altman’s warning to young people… – https://timesofindia.indiatimes.com/technology/tech-news/bad-and-dangerous-openai-ceo-sam-altmans-warning-to-young-people-who-rely-too-much-on-chatgpt/articleshow/122881081.cms
wikiHow – How to Bypass ChatGPT’s Content Filter – https://www.wikihow.com/Bypass-Chat-Gpt-Filter
UNICEF – The risky new world of tech’s friendliest bots – https://www.unicef.org/innocenti/stories/risky-new-world-techs-friendliest-bots
The Economic Times – Sam Altman says ChatGPT is ‘bad’ and ‘dangerous’ if used like this – https://m.economictimes.com/magazines/panache/sam-altman-says-chatgpt-is-bad-and-dangerous-if-used-like-this-openai-ceo-warns-ai-users/articleshow/122886096.cms
Berkeley Journal of International Law – Artificial Intelligence – a Child-Rights Perspective – https://www.berkeleyjournalofinternationallaw.com/post/artificial-intelligence-an-analysis-from-the-rights-of-the-child-perspective
Zevo Health – Ethical Content Moderation – https://www.zevohealth.com/glossary/ethical-content-moderation/
Quantum IT Innovation – Is Character.ai Safe? – https://quantumitinnovation.com/blog/is-character-ai-safe
Milvus – What does OpenAI say about AI safety? – https://milvus.io/ai-quick-reference/what-does-openai-say-about-ai-safety
OpenAI – Safety best practices (API) – https://platform.openai.com/docs/guides/safety-best-practices
Kelley Kronenberg – When AI Content Creation Becomes a Legal Nightmare – https://www.kelleykronenberg.com/blog/when-ai-content-creation-becomes-a-legal-nightmare-the-hidden-risks-every-business-owner-must-know/
Federal Trade Commission – AI and the Risk of Consumer Harm – https://www.ftc.gov/policy/advocacy-research/tech-at-ftc/2025/01/ai-risk-consumer-harm
UNESCO – Ethics of Artificial Intelligence – https://www.unesco.org/en/artificial-intelligence/recommendation-ethics
5Rights Foundation – EU AI Act enters into force: A crucial step for child protection – https://5rightsfoundation.com/eu-ai-act-enters-into-force-a-crucial-step-for-child-protection/
European Commission – Guidelines on the protection of minors – https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-protection-minors
The Regulatory Review – Regulating AI in the Shadow of Mental Health – https://www.theregreview.org/2025/07/09/silverbreit-regulating-artificial-intelligence-in-the-shadow-of-mental-heath/
Cambridge University Press – AI, Consumers and Psychological Harm – https://www.cambridge.org/core/books/cambridge-handbook-of-ai-and-consumer-law/ai-consumers-and-psychological-harm/9EF4306AC1965BD172B213AED8858197
Ministry of Interior UAE – Artificial Intelligence for Safer Children – https://moi.gov.ae/en/about.moi/Initiative/072125m01.aspx
WeProtect Global Alliance – https://www.weprotect.org/
Comments