Wissenschaftliche Meldungen
KI-Bot-Schwärme: Wie „synthetischer Konsens“ Demokratien unter Druck setzt
16.2.26, 22:58
Technologie, Künstliche Intelligenz, Psychologie, Gesellschaft

Wenn „viele Stimmen“ nicht mehr viele Menschen sind
Wer heute durch soziale Netzwerke scrollt, begegnet nicht nur Meinungen, sondern auch einem unsichtbaren Spiel um Aufmerksamkeit: Was viel Resonanz bekommt, wirkt wichtiger, wahrer, populärer. Genau diese Abkürzung im Kopf – „wenn viele das sagen, wird schon was dran sein“ – könnte in der Ära generativer KI zur Achillesferse demokratischer Öffentlichkeit werden. Der Informatiker und Sozialwissenschaftler Filippo Menczer warnt: Neue KI-gesteuerte Bot-Schwärme könnten nicht nur Falschinformationen streuen, sondern in großem Maßstab den Eindruck gesellschaftlicher Mehrheiten simulieren.
Der entscheidende Punkt ist dabei nicht, dass Maschinen jetzt besser schreiben. Sondern dass sie zunehmend als „soziale Akteure“ auftreten können: Konten, die posten, antworten, sich gegenseitig bestätigen, Streitgespräche führen, Vertrauen aufbauen – und all das nicht einmalig, sondern dauerhaft und koordiniert.
Der Fall „fox8“: Ein Botnetz als Frühwarnsignal
Als Anschauungsbeispiel verweist Menczer auf eine Untersuchung aus der Zeit, als Twitter gerade zu X umbenannt wurde und Forschende noch relativ frei Daten für wissenschaftliche Analysen beziehen konnten. Sein Team stieß damals auf ein Netzwerk von über tausend Konten, die unter anderem Krypto-Betrug befeuerten. Das Botnetz wurde „fox8“ genannt, benannt nach einer der Webseiten, die es verstärken sollte.
So ein Fund klingt nach klassischer Bot-Jagd – und doch steckt die eigentliche Brisanz in einem Detail: Die Konten nutzten offenbar generative KI, um glaubwürdig wirkende Inhalte zu produzieren und miteinander zu interagieren. Auffällig wurden sie unter anderem, weil die Betreiber an einigen Stellen unvorsichtig waren und automatisierte Antworten mit verräterischen Formulierungen stehenblieben – etwa typische Verweigerungssätze, wie sie Sprachmodelle bei problematischen Aufforderungen ausgeben. Das ist wichtig, weil es zeigt, wie dünn die Beweislage im Alltag oft ist: Wir entdecken viele Manipulationskampagnen nicht, weil sie besonders schlau sind, sondern weil sie Fehler machen.
Die größere Sorge lautet daher: Wenn Akteure sauberer arbeiten, offene Modelle ohne „Sicherheitsgeländer“ einsetzen oder KI-Ausgaben konsequent nachbearbeiten, wird das Auffinden deutlich schwerer – und die Zahl unentdeckter Netze könnte groß sein.
Warum Bot-Schwärme mehr sind als „Spam mit Autopilot“
Früher waren viele Bots daran zu erkennen, dass sie gleichförmig agierten: identische Posts, plumpe Werbung, wenig echte Interaktion. Moderne KI-Agenten können dagegen variieren, improvisieren, Tonlagen wechseln und sich an Gesprächskontexte anpassen. Damit verschwimmt die Grenze zwischen „automatisiert“ und „menschlich“ – zumindest für Beobachterinnen und Beobachter, oft auch für automatische Erkennungssysteme.
Hinzu kommt die Plattformlogik: Empfehlungssysteme reagieren auf Aktivität. Wenn ein Schwarm sich gegenseitig Likes, Antworten, Zitate und Weiterverbreitung zuschiebt, entsteht künstliches Engagement, das algorithmisch wie Popularität aussieht. Was dann „gut läuft“, wird häufiger ausgespielt. Die Manipulation zielt damit nicht nur auf einzelne Menschen, sondern auf die Verstärkermechanik des Systems selbst.
Menczer beschreibt genau dieses Zusammenspiel: Realistische Hin-und-her-Interaktionen zwischen Bot-Konten und echten Accounts können ausreichen, um Sichtbarkeit, Followerzahlen und damit Einfluss zu steigern. Die Bots sind dann nicht nur Lautsprecher, sondern auch Tarnung – weil sie soziale Normalität imitieren.
„Synthetischer Konsens“: Die gefährlichste Illusion
Der Begriff, um den sich die Warnung dreht, heißt synthetischer Konsens. Gemeint ist die künstlich hergestellte Wahrnehmung, eine Meinung sei breit geteilt, vielleicht sogar „überparteilich“ oder „gesunder Menschenverstand“. Das ist ein anderer Angriff als die klassische Lüge. Er zielt nicht nur auf Fakten, sondern auf das Gefühl, wie die Gesellschaft „insgesamt“ tickt.
Psychologisch greift das ein bekanntes Prinzip auf: Social Proof, also soziale Bewährtheit. Menschen orientieren sich an dem, was andere anscheinend denken oder tun – besonders bei Unsicherheit. Genau das macht Demokratien verwundbar, weil öffentliche Meinungsbildung nicht im luftleeren Raum stattfindet. Sie lebt von Signalen: Widerspruch, Zustimmung, Gegenargumente, Diskursklima. Wenn diese Signale manipuliert werden, verändert sich nicht nur, was wir glauben, sondern auch, was wir für sagbar halten.
In Modellen und Simulationen, auf die Menczer verweist, scheint eine Taktik besonders wirksam: Infiltration. Also nicht nur von außen beschallen, sondern in Communities hineingehen, Beziehungen knüpfen, glaubwürdig werden. Ist ein Schwarm erst Teil einer Gruppe, kann er dort die gefühlte Mehrheitsmeinung verschieben, Zweifel säen oder Gegnerinnen und Gegner isolieren – ohne dass es nach einer plumpen Kampagne aussieht.
Was daran gesichert ist – und was (noch) nicht
Wie groß die Bedrohung schon heute ist, lässt sich schwer beziffern. Das ist kein Ausweichen, sondern ein Kernproblem der Forschung: Viele Plattformen geben weniger Daten heraus, Moderation wurde teils reduziert, und seriöse unabhängige Messungen sind dadurch schwieriger geworden. Wer behauptet, den aktuellen Anteil KI-gesteuerter Einflussnetzwerke exakt zu kennen, überschätzt wahrscheinlich die Datenlage.
Gleichzeitig gibt es handfeste Indizien, dass KI bereits in realen Botnetzen eingesetzt wurde – der „fox8“-Fall ist ein Beispiel. Dazu kommt, dass die technischen Hürden sinken: Sprachmodelle sind leistungsfähiger, teilweise frei verfügbar, und Automatisierung lässt sich mit vergleichsweise wenig Aufwand skalieren. Das macht die Sorge plausibel, dass die nächste Stufe nicht „ein paar bessere Bots“ ist, sondern koordinierte Schwärme aus vielen Agenten, die längerfristig agieren und auf Feedback reagieren.
Die Forschungslage deutet außerdem darauf hin, dass reine Text-Detektion als Schutzstrategie wackelig ist. Wenn Inhalte sprachlich immer menschlicher wirken und sich zusätzlich leicht paraphrasieren lassen, wird „KI-Text erkennen“ zum Katz-und-Maus-Spiel. Vielversprechender ist daher oft ein anderer Blickwinkel: nicht nur Inhalt, sondern Verhalten. Timing-Muster, Netzwerkbewegungen, auffällige Koordination – also Spuren im kollektiven Verhalten, die bei Menschen seltener auftreten.
Gegenmittel: Technik allein reicht nicht
Menczer betont, es gebe keinen einzelnen Hebel, der das Problem erledigt. Es braucht eine Mischung aus Transparenz, Forschung, Plattformverantwortung und Regulierung. Ein zentraler Baustein wäre, wissenschaftlich kontrollierten Zugang zu Plattformdaten wieder zu ermöglichen, damit Manipulationsmuster überhaupt systematisch erkannt und überwacht werden können. Ebenso wichtig ist die Fähigkeit, koordiniertes Verhalten zu identifizieren, auch wenn einzelne Agenten sehr „individuell“ wirken.
Diskutiert werden außerdem Kennzeichnungen oder Wasserzeichen für KI-generierte Inhalte. Das klingt verlockend, hat aber Grenzen: Erstens müssten sich Anbieter und Plattformen auf Standards einigen und sie zuverlässig umsetzen. Zweitens könnten böswillige Akteure bewusst auf Modelle setzen, die solche Signaturen nicht nutzen, oder Inhalte nachbearbeiten. Kennzeichnung kann also helfen, ist aber kein Allheilmittel.
Ein weiterer Ansatz ist ökonomisch: Wenn Plattformen künstliches Engagement belohnen, entsteht ein Markt für Manipulation. Werden Monetarisierungsmodelle so verändert, dass inauthentische Reichweite nicht mehr profitabel ist, sinkt der Anreiz für Bot-Farmen und Einflussdienstleister. Doch auch hier gilt: Das ist politisch, wirtschaftlich und technisch komplex – und wird nicht über Nacht passieren.
Warum diese Debatte jetzt so dringend ist
Demokratie lebt davon, dass wir Konflikte sichtbar austragen, argumentieren, Mehrheiten bilden und Minderheiten schützen – und dass wir dabei zumindest grob erkennen können, wer überhaupt „spricht“. Wenn diese Grundannahme bröckelt, wird Öffentlichkeit zur Kulisse, in der echte Menschen und simulierte Stimmen ununterscheidbar nebeneinander stehen.
Die Warnung vor KI-Schwärmen ist deshalb weniger eine Science-Fiction-Erzählung als eine Frage nach dem Betriebssystem moderner Gesellschaften: Wie schützen wir Meinungsbildung in digitalen Räumen, wenn Überzeugung, Aufmerksamkeit und Zugehörigkeit zunehmend von Systemen vermittelt werden, die sich gezielt ausnutzen lassen? Die unbequeme Antwort lautet: Nicht mit einem Tool, sondern nur mit einem ganzen Bündel aus Forschung, Aufsicht, Plattformdesign und politischem Willen.
Weitere aktuelle Meldungen findest du hier:
- 3Seite 3












