Wissenschaftliche Meldungen
Wenn KI Orte bewertet: Studie zeigt systematische Verzerrungen zugunsten reicher Regionen
21.1.26, 15:08
Künstliche Intelligenz, Technologie, Gesellschaft

Worum es geht: Wenn ein Chatbot die Welt „kartiert“
Große Sprachmodelle wie ChatGPT werden längst nicht mehr nur fürs Formulieren genutzt, sondern auch als eine Art Auskunftssystem über die Welt: Welche Länder gelten als „sicher“, welche Städte als „innovativ“, wo seien Menschen „glücklicher“ oder „schöner“? Genau hier setzt die Studie mit dem Titel „The Silicon Gaze: A typology of biases and inequality in LLMs through the lens of place“ an. Die Forschenden argumentieren, dass solche Systeme keine neutralen Momentaufnahmen liefern, sondern bestehende räumliche Ungleichheiten systematisch reproduzieren und verstärken. Gemeint sind Unterschiede darin, welche Regionen sichtbar sind, gut dokumentiert erscheinen und positiv bewertet werden.
Was die Forschenden gemacht haben: Ein Audit mit über 20 Millionen Vergleichen
Die Analyse beruht auf einem groß angelegten Audit eines kommerziellen Sprachmodells mit rund 20,3 Millionen Anfragen. Dabei wurden Orte gegeneinander bewertet oder gerankt – sowohl anhand subjektiver Fragen wie „Wo sind Menschen schöner?“ als auch anhand scheinbar objektiver Kriterien wie Sicherheit oder Lebensqualität. Über diese sehr unterschiedlichen Fragetypen hinweg zeigte sich ein stabiles Muster: Wohlhabendere, häufig westliche Regionen schneiden deutlich besser ab, während große Teile Afrikas, des Nahen Ostens sowie Regionen in Asien und Lateinamerika überproportional oft am unteren Ende landen.
Die zentralen Befunde: „Reiche“ Regionen werden bevorzugt – bis in Stadtviertel hinein
Die Verzerrungen bleiben nicht auf der Ebene von Ländern stehen. Auch innerhalb von Metropolen sollen die Bewertungen auffällig gut mit bekannten sozialen und ethnischen Trennlinien übereinstimmen. Genannt werden unter anderem Beispiele aus Städten wie London, New York oder Rio de Janeiro. Entscheidend ist dabei weniger, ob einzelne Einschätzungen „falsch“ sind, sondern wie sie zustande kommen: Sprachmodelle lernen aus einer Informationslandschaft, in der Sichtbarkeit, Medienpräsenz und Datendichte selbst schon extrem ungleich verteilt sind. Diese Schieflage spiegelt sich in den Antworten wider – und wird durch ihre scheinbare Objektivität zusätzlich legitimiert.
Warum das passiert: Fünf Bias-Mechanismen als „Typologie“
Die Autorinnen und Autoren schlagen eine Typologie von fünf miteinander verknüpften Verzerrungsmechanismen vor. Dazu zählen ein Verfügbarkeits-Bias, bei dem gut dokumentierte Orte häufiger und positiver auftauchen, ein Muster-Bias, der bestehende Regelmäßigkeiten verstärkt, sowie ein Durchschnitts-Bias, der komplexe Realitäten glättet. Hinzu kommen Trope-Biases, also stereotype Erzählmuster, und Proxy-Biases, bei denen schwer messbare Eigenschaften indirekt über Ersatzmerkmale wie Medienpräsenz oder internationale Rankings erschlossen werden. Die zentrale These lautet: Diese Verzerrungen sind keine Randfehler, sondern strukturelle Eigenschaften großer Sprachmodelle, weil sie auf historisch gewachsenen, ungleichen Datenwelten beruhen.
Was daran gesellschaftlich brisant ist: Autorität ohne Rechenschaft
Problematisch wird das, wenn solche Systeme zunehmend in Bildung, Verwaltung, Journalismus, Tourismus oder wirtschaftlichen Entscheidungsprozessen eingesetzt werden. Die Antworten werden oft als neutraler Wissensoutput wahrgenommen, obwohl sie auf fragmentarischen, teils veralteten und stark verzerrten Informationsbeständen beruhen. Wiederholte negative Zuschreibungen zu bestimmten Städten oder Ländern können sich so verfestigen und gesellschaftliche Wahrnehmungen prägen. Aus einem technischen Bias wird dann eine soziale Verstärkungsschleife.
Transparenz, Audits – und die Grenzen der Aussagekraft
Die Studie plädiert für mehr Transparenz, systematische Audits und öffentlich zugängliche Prüfwerkzeuge, mit denen sich solche Muster nachvollziehen lassen. Zugleich gilt: Einige methodische Details – etwa zur genauen Prompt-Gestaltung, zur Modellversion oder zu statistischen Robustheitsprüfungen – lassen sich ohne vollständigen Zugriff auf alle Primärmaterialien nur eingeschränkt beurteilen. Die Befunde weisen jedoch konsistent in eine Richtung: Sprachmodelle „sehen“ die Welt nicht neutral, sondern durch eine digitale Brille, die bestehende globale Ungleichheiten mitschleift.
Weitere aktuelle Meldungen findest du hier:
- 2Seite 1















