Blogverzeichnis Bloggerei.de
top of page

Wenn Prävention zur Vorhersage wird: Was KI in der Suchtprävention leisten kann und wo sie gefährlich wird

Ein junger Mensch blickt besorgt auf sein Smartphone, während um ihn Datenfelder zu Schlaf, Stimmung, Standort und Herzfrequenz schweben; darüber steht die Schlagzeile zur KI in der Suchtprävention.

Wer Sucht verhindern will, träumt von einem unfairen Vorteil: früher sehen, was kippt. Früher merken, wann aus Stress ein Muster wird, aus Einsamkeit ein Rückfallfenster, aus gelegentlichem Konsum eine Spirale. Genau deshalb wirkt Künstliche Intelligenz in der Suchtprävention so verführerisch. Sie verspricht, in Daten etwas zu erkennen, das Menschen oft erst spät sehen: feine Verschiebungen im Alltag, riskante Routinen, stille Vorboten von Kontrollverlust.


Das Problem ist nur: Prävention ist nicht dasselbe wie Vorhersage. Ein System, das jemanden als "gefährdet" markiert, hat noch niemandem geholfen. Es hat nur ein Urteil erzeugt. Ob daraus Fürsorge, Stigmatisierung oder Kontrolle wird, entscheidet nicht der Algorithmus, sondern das soziale Umfeld, die Institution dahinter und die Frage, wer mit diesem Wissen was tun darf.


Genau an dieser Stelle wird das Thema politisch, medizinisch und ethisch zugleich. Denn in der Suchtprävention geht es nicht bloß um Technik. Es geht um Vertrauen. Um Scham. Um Rückfallangst. Um Daten, die intimer sein können als ein Blutwert. Und um die gefährliche Versuchung, aus Wahrscheinlichkeiten Menschenbilder zu machen.


Warum Suchtprävention für KI so attraktiv ist


Sucht ist selten ein Ereignis aus dem Nichts. Davor liegen oft Muster: Schlafprobleme, sozialer Rückzug, Ortswechsel, krisenhafte Phasen, Schmerz, psychische Belastung, abrupte Veränderungen im Tagesrhythmus. Genau hier setzt die Logik digitaler Systeme an. Die Review zu Smartphone- und Wearable-basierter digitaler Phänotypisierung im Suchtkontext beschreibt, wie aus Bewegungsdaten, Kommunikationsmustern, Selbstberichten oder Sensorsignalen alltagsnahe Risikoindikatoren werden sollen.


Für die Forschung ist das plausibel. Viele riskante Situationen sind kontextgebunden. Suchtdruck fällt nicht gleichmäßig vom Himmel, sondern hängt an Orten, Uhrzeiten, sozialen Konstellationen, Stresslagen und Gewohnheiten. Wenn ein System solche Konstellationen erkennt, kann es theoretisch genau dann reagieren, wenn klassische Prävention zu grob wäre.


Das ist der eigentliche Reiz: keine Prävention im Jahresbroschüren-Stil, sondern Prävention im Moment des Abrutschens. Ein Hinweis. Eine Übung. Ein Kontakt zur Therapeutin. Ein Peer-Support-Kanal. Ein Alarm im Behandlungsteam. Die NIH HEAL Initiative beschreibt diese Richtung sehr nüchtern: Digitale Werkzeuge sind interessant, weil sie reale Situationen begleiten und deshalb sowohl bequem als auch präzise sein können. Aber genau deshalb müssen sie auch sauber auf Nutzen und Schaden geprüft werden.


Kernidee: Der eigentliche Wert von KI liegt nicht darin, Menschen zu durchschauen.


Er liegt darin, Hilfe früher, gezielter und niedriger in die Lebensrealität einzubauen, bevor eine Krise eskaliert.


Wo KI tatsächlich helfen könnte


Der stärkste Einsatzbereich ist nicht die große allwissende Rückfallmaschine, sondern die Kombination aus Mustererkennung und kleinen, konkreten Interventionen. Das können adaptive Nachsorge-Apps sein, Systeme für "just-in-time adaptive interventions", digitale Begleitung nach Entzug oder Behandlung oder klinische Werkzeuge, die Behandelnde auf riskante Verläufe aufmerksam machen.


Ein Teil der Hoffnung ruht dabei auf digitaler Nachsorge. Gerade nach stationärer oder strukturierter Behandlung brechen viele Hilfeketten ab. Eine systematische Übersichtsarbeit zu digitalen Interventionen für Abstinenzsicherung nach Alkoholbehandlung zeigt zwar kein robustes Wunderbild, aber ein wichtiges Muster: Manche Apps und unterstützenden Textnachrichten verlängerten Abstinenzphasen, andere Ansätze wirkten kaum, und eine Cue-Exposure-App schnitt sogar problematisch ab. Das ist unbequem, aber wertvoll. Es zeigt, dass digitale Prävention nicht als Block zu bewerten ist. Das Feld ist heterogen. Design, Timing, therapeutische Einbettung und Nutzungsrealität entscheiden.


Auch im klinischen Alltag kann KI nützlich sein, wenn sie nicht als Richter, sondern als Assistent arbeitet. Die systematische Review zu Clinical Decision Support Systems in Sucht und komorbiden Störungen beschreibt ein Feld mit Potenzial, aber auch mit deutlichen Reifeproblemen. Es gibt Hinweise auf Nutzen, doch die Herausforderungen sind massiv: unklare Transparenz, Implementierungslücken, Alarmmüdigkeit und Modelle, die in der Praxis oft weniger elegant sind als in der Publikation.


Mit anderen Worten: KI kann Versorgung unterstützen. Aber sie ersetzt weder Beziehung noch Urteilskraft. Und sie wird besonders dort interessant, wo Hilfesysteme ohnehin überlastet sind: in der Nachsorge, in ländlichen Regionen, in Teams mit zu wenig Zeit oder in Kontexten, in denen Menschen Hilfe suchen, ohne sofort in eine klassische Behandlung zu gehen.


Die große Versuchung: Risiko mit Gewissheit zu verwechseln


Genau hier beginnt die gefährliche Seite. Sucht ist kein neutraler medizinischer Bereich. Sie ist gesellschaftlich moralisiert. Wer wegen Krebs ein Risikomodell bekommt, wird meist als schutzbedürftig gelesen. Wer wegen Sucht ein Risikomodell bekommt, läuft viel eher Gefahr, als unzuverlässig, selbstverschuldet oder gefährlich markiert zu werden.


Das macht Fehlalarme besonders teuer. Ein falsch-positiver Krebs-Screening-Befund ist belastend. Ein falsch-positiver Sucht-Risikoscore kann zusätzlich Scham, Misstrauen und soziale Sanktionen auslösen. Deshalb reicht es nicht, hohe AUC-Werte zu feiern. Man muss fragen: Wer wird häufiger falsch eingestuft? Was folgt daraus? Wird Hilfe angeboten oder Kontrolle verschärft?


Die Review zu prädiktiven Modellen für persistierenden Opioidgebrauch, OUD und Überdosierung und die npj-Digital-Medicine-Übersicht zu Machine-Learning-Modellen für opioidbezogene Schäden zeichnen genau dieses ambivalente Bild. Es gibt brauchbare Vorhersageleistungen, aber externe Validierung ist selten, viele Datensätze sind verzerrt, und für OUD-Modelle zeigte sich keine klare generelle Überlegenheit komplexer ML-Verfahren gegenüber logistischer Regression. Das ist ein wichtiger Reality-Check. In einem Feld mit so hohen sozialen Folgekosten sollte niemand so tun, als seien kompliziertere Modelle automatisch klüger oder gerechter.


Suchtprävention wird gefährlich, wenn sie still zur Sozialkontrolle mutiert


Der heikelste Kipppunkt liegt nicht in der Klinik, sondern an ihren Rändern. Was passiert, wenn Risikoscores aus Gesundheits-Apps, Versicherungsdaten, Wearables, Plattformverhalten oder Standortmustern in Systeme wandern, die nicht primär helfen, sondern sortieren?


Dann wird aus Prävention sehr schnell Vorselektion. Wer bekommt welche Behandlung? Wer gilt als therapietreu? Wer erhält Ausgang, Medikamente, Versicherungsschutz, Kinderschutzvertrauen oder richterliche Milde? Die Logik ist nicht neu. Neu ist nur ihre rechnerische Verfeinerung.


Die WHO hat am 20. März 2026 sehr deutlich gemacht, dass generative KI und andere KI-Systeme, die in Momenten emotionaler Verletzlichkeit genutzt werden, als öffentliche Mental-Health-Frage begriffen werden müssen. Die Organisation fordert nicht nur Sicherheit und Evidenz, sondern auch Monitoring der Auswirkungen auf Wohlbefinden und langfristige Folgen wie emotionale Abhängigkeit. Für Suchtprävention ist das zentral: Ein Werkzeug, das Bindung an sich selbst erzeugt, statt Menschen tragfähig in reale Hilfe zu lotsen, kann das Problem am Ende nur verlagern.


Datenschutz ist hier kein Nebenthema


In kaum einem anderen Feld wirkt das Wort "Daten" so harmlos und so falsch zugleich. Wer digitale Suchtprävention ernst meint, spricht in Wahrheit über Aufenthaltsorte, Nutzungsgewohnheiten, Tippmuster, Stimmungslagen, Kommunikationsrhythmen, Rückfallereignisse, Krisenfenster und potenziell über sehr verletzliche Lebensphasen.


Der Grundsatztext zu den ethischen Risiken digitaler Phänotypisierung in npj Digital Medicine warnt seit Jahren davor, dass solche Daten oft außerhalb klassischer Gesundheitskontexte entstehen und deshalb für Betroffene schwerer einzuordnen sind. Menschen merken nicht immer, wann aus scheinbar banalen Signalen sensible Gesundheitsinformationen werden. Genau deshalb kann eine formal eingeholte Zustimmung praktisch wertlos sein, wenn nicht klar erklärt wird, was gesammelt wird, welche Schlüsse daraus gezogen werden und welche Folgen Fehlinterpretationen haben können.


Wie wichtig Vertrauen ist, zeigt auch die qualitative Studie zur Akzeptanz digitaler Phänotypisierung bei schwangeren und erziehenden Menschen mit Opioidabhängigkeit. Die Beteiligten waren keineswegs pauschal gegen solche Forschung. Aber Datensicherheit, Kontrolle über Zugriffe und der Schutz vor Weitergabe an Dritte waren zentrale Bedingungen. Das ist ein entscheidender Punkt: Misstrauen ist hier kein Akzeptanzproblem, sondern oft rationale Selbstverteidigung.


Die Debatte hat sich seitdem eher verschärft. Das Nature-Mental-Health-Paper zum "consent-forward paradigm" kritisiert, dass Nutzerinnen und Nutzer digitaler Mental-Health-Dienste oft zu wenig Einfluss darauf haben, wie ihre Daten gesammelt, geteilt oder kommerzialisiert werden. Für Suchtprävention gilt das in potenzierter Form. Wer in einer verletzlichen Lage Hilfe sucht, darf nicht mit einem Geschäftsmodell verwechselt werden.


Stigma ist kein Kollateralschaden, sondern der Kern des Problems


Suchtmedizin weiß längst, dass Sprache und institutionelle Haltung selbst Teil des Therapieerfolgs sind. SAMHSA verweist unter Berufung auf die NSDUH 2024 darauf, dass 48,4 Millionen Menschen ab 12 Jahren in den USA im vergangenen Jahr eine substance use disorder hatten. Gleichzeitig beschreibt die Behörde, wie Scham und negative Zuschreibungen Menschen davon abhalten, Hilfe zu suchen oder ehrlich über Konsum zu sprechen.


Auch NIDA betont, dass Stigma Behandlungszugang erschwert und durch Sprache wie durch institutionelle Praxis verstärkt werden kann. Für KI-Systeme ist das eine Zumutung im besten Sinn: Sie müssen nicht nur technisch funktionieren, sondern anti-stigmatisierend gebaut sein. Ein Score, der intern neutral aussieht, kann im Alltag wie ein digitales Brandzeichen wirken.


Das hat unmittelbare Folgen für Designfragen. Gute Systeme nutzen person-first language, formulieren Unsicherheit offen, vermeiden moralische Kategorien und koppeln Risikoerkennung immer an Unterstützungsoptionen. Schlechte Systeme produzieren stille Verdachtsräume.


Was ein verantwortbares System leisten müsste


Wenn KI in der Suchtprävention mehr sein soll als digitales Wunschdenken, braucht sie strengere Standards als viele andere Gesundheitsanwendungen.


Erstens braucht sie eine enge Zweckbindung. Daten, die für Rückfallprävention erhoben wurden, dürfen nicht unbemerkt in Versicherungs-, Personal- oder Sanktionslogiken wandern.


Zweitens braucht sie informierte Freiwilligkeit, die diesen Namen verdient. Keine dunklen Einwilligungsbanner, sondern verständliche Aufklärung über Datenarten, Modelle, Fehlerquellen, Zugriffsrechte und Löschmöglichkeiten.


Drittens braucht sie menschliche Aufsicht. Nicht als dekoratives Häkchen, sondern als tatsächliche Entscheidungsebene. Wenn ein System Risiko meldet, muss ein Mensch klären, was das im Kontext bedeutet.


Viertens braucht sie Fairness- und Schadenstests in der realen Anwendung. Nicht nur: Wie gut sagt das Modell etwas voraus? Sondern auch: Für wen versagt es häufiger? Wer zieht sich zurück, weil das System sich übergriffig anfühlt? Welche Gruppen werden übermarkiert? Welche Hilfeprozesse werden verbessert, welche verschlechtert?


Fünftens muss Prävention immer in Hilfearchitekturen eingebettet sein. Eine App ohne belastbare Nachsorge, ohne Krisenpfade und ohne erreichbare Menschen ist keine Prävention, sondern bestenfalls ein digitales Placebo.


Der eigentliche Maßstab


Die Frage ist am Ende nicht, ob KI Sucht "erkennen" kann. Die wichtigere Frage lautet, welche Form von Gesellschaft sich darin ausdrückt. Eine gute Gesellschaft nutzt Vorhersage, um Fürsorge präziser zu machen. Eine schlechte nutzt Vorhersage, um Unsicherheit effizienter zu verwalten und Verantwortung nach unten zu drücken.


Gerade deshalb ist KI in der Suchtprävention weder Heilsversprechen noch Horrorstory. Sie ist ein Testfall. Für die Medizin. Für den Datenschutz. Für die Regulierung. Und für unseren Umgang mit Menschen, deren Risiken wir am liebsten berechnen würden, bevor wir ihnen wirklich zuhören.


Wer aus diesem Feld etwas lernen will, sollte sich also nicht zuerst fragen, wie schlau der Algorithmus ist. Sondern wie viel Würde, Widerspruch und echte Hilfe das System zulässt, wenn es danebenliegt. Denn genau dort entscheidet sich, ob aus digitaler Prävention ein Fortschritt wird oder nur eine elegantere Form des Misstrauens.


Mehr Wissenschaftsanalysen und Einordnungen findest du auch auf Instagram und Facebook.


Weiterlesen


Kommentare

Mit 0 von 5 Sternen bewertet.
Noch keine Ratings

Rating hinzufügen


Mehr aus dem Blog
 

bottom of page