Wissenschaftliche Meldungen
Gehirnmodell lernt wie Tiere – und entdeckt Neuronen, die Fehler vorhersagen
30.12.25, 11:44
Neurowissenschaft, Künstliche Intelligenz, Technologie

Ein Gehirnmodell, das ohne Tierdaten lernt – und dabei ein übersehenes Fehlersignal findet
Ein Forschungsteam aus Dartmouth College, dem MIT und der Stony Brook University berichtet über ein computergestütztes Gehirnmodell, das ein visuelles Kategorielernen so nachbildet, wie es Versuchstiere in Laborexperimenten zeigen – inklusive der typischen, zunächst sprunghaften Lernkurve. Überraschend ist dabei nicht nur die Ähnlichkeit im Verhalten, sondern auch die Übereinstimmung in Mustern der neuronalen Aktivität. Das Modell wurde ausdrücklich nicht mit Tierdaten „trainiert“, sondern aus neurobiologischen Annahmen heraus konstruiert. Erst im Nachhinein verglichen die Forschenden die Simulation mit bereits vorhandenen Messdaten aus Tierexperimenten. Die Ergebnisse wurden am 29. Dezember 2025 in der Fachzeitschrift Nature Communications veröffentlicht.
Vom „Black-Box“-Netz zum biologisch inspirierten Baukasten
Viele KI-Modelle in der Neurowissenschaft sind entweder stark datengetrieben oder bilden nur Teilaspekte des Gehirns ab. Das neue Modell verfolgt einen anderen Anspruch: Es soll sowohl die Mikroebene einzelner Neuronen und Synapsen als auch die Makroebene mehrerer zusammenwirkender Hirnregionen abbilden. Die Forschenden beschreiben diesen Ansatz sinnbildlich als gleichzeitigen Blick auf „Bäume und Wald“: kleine neuronale Schaltkreise dienen als wiederverwendbare Grundbausteine, die in einer übergeordneten Architektur aus lernrelevanten Hirnarealen organisiert sind.
In der Simulation spielen unter anderem kortikale Netzwerke, Striatum-Schaltkreise und sogenannte tonisch aktive Neuronen eine Rolle. Letztere setzen Acetylcholin frei und erhöhen zu Beginn des Lernens die Variabilität der neuronalen Aktivität. Diese anfängliche „Unruhe“ ist funktional: Sie erlaubt dem System, verschiedene Handlungsoptionen auszuprobieren. Mit zunehmender Übung verändern sich die synaptischen Verbindungen so, dass diese Variabilität gedämpft wird und stabilere Entscheidungen entstehen.
Ein Test, der dem Tierexperiment nachempfunden ist
Getestet wurde das Modell mit einer Aufgabe zum visuellen Kategorielernen. Es musste Punktmuster zwei Kategorien zuordnen – ein Paradigma, das auch in Tierexperimenten etabliert ist. Das Lernverhalten der Simulation entwickelte sich ähnlich wie bei realen Tieren: Der Fortschritt verlief nicht gleichmäßig, sondern zeigte zunächst unregelmäßige Verbesserungen. Auch auf neuronaler Ebene fanden sich Parallelen. Mit fortschreitendem Lernen nahm die Synchronisation zwischen kortikalen und striatalen Komponenten im Beta-Frequenzbereich zu, insbesondere bei korrekten Entscheidungen. Vergleichbare Aktivitätsmuster waren bereits aus Tiermessungen bekannt.
Wichtig ist dabei die Einordnung: Dass das Modell keine Tierdaten „gesehen“ hat, bedeutet nicht, dass es ohne biologisches Vorwissen auskommt. Es basiert bewusst auf bekannten Eigenschaften realer Gehirne, etwa typischen Rhythmen und strukturellen Einschränkungen neuronaler Verschaltung. Ziel ist es, zu prüfen, ob realistisches Verhalten und realistische Aktivitätsmuster als emergente Eigenschaften aus diesen Annahmen hervorgehen.
Der eigentliche Fund: Neuronen als Vorboten von Fehlern
Der zentrale neue Befund der Studie betrifft eine Gruppe von Neuronen, die etwa ein Fünftel der simulierten Einheiten ausmachen. Deren Aktivität korrelierte nicht mit korrekten Entscheidungen, sondern vielmehr mit bevorstehenden Fehlern. Die Forschenden sprechen von einem bislang übersehenen neuronalen Code, der Fehlentscheidungen ankündigt. Zunächst galt dieses Muster als mögliche Eigenheit des Modells. Eine erneute Analyse bereits vorhandener Tierdaten zeigte jedoch, dass ein vergleichbares Signal auch im realen Gehirn existiert, dort bislang aber nicht als eigener funktioneller Subtyp erkannt worden war.
Zur Funktion dieser Neuronen äußern sich die Autorinnen und Autoren vorsichtig. Eine mögliche Deutung ist, dass sie dem Gehirn helfen, nicht starr an einmal gelernten Regeln festzuhalten. Ein System, das gelegentlich von der optimalen Strategie abweicht, könnte besser auf Veränderungen in der Umwelt reagieren. Ob dies tatsächlich der biologische Zweck dieser Aktivität ist, bleibt jedoch offen.
Relevanz für Medizin und KI – und offene Fragen
Die Studie versteht das Modell auch als Werkzeug, um krankhafte Veränderungen der Hirndynamik zu untersuchen und mögliche therapeutische Eingriffe zunächst in der Simulation zu testen. Das könnte langfristig helfen, Hypothesen für Medikamente oder andere Interventionen gezielter zu entwickeln. Gleichzeitig betonen die Forschenden die Grenzen ihres Ansatzes. Eine Simulation kann Experimente am lebenden Gehirn nicht ersetzen, sondern lediglich neue Vorhersagen liefern und helfen, Daten gezielter zu interpretieren.
Insgesamt zeigt die Arbeit vor allem einen methodischen Mehrwert: Ein ausreichend biologisch realistisches Modell kann nicht nur bekannte Effekte reproduzieren, sondern auch dazu beitragen, in vorhandenen Datensätzen bislang übersehene Strukturen sichtbar zu machen. Ob die identifizierten „Fehler-Neuronen“ ein allgemeines Prinzip des Lernens darstellen oder eher an spezielle Aufgaben gebunden sind, müssen künftige Studien klären.
Weitere aktuelle Meldungen findest du hier:
- 2Seite 2










