KI hilft Lernprozesse verstehen
Forschende des Instituts für Neuroinformatik der Ruhr-Universität Bochum haben ein Computermodell konstruiert, das örtliche Informationen nach einem ähnlichen Muster lernt wie Nagetiere. Dabei werden einzelne Sequenzen von Nervenzellaktivitäten im Hippocampus nach bestimmten Prioritäten wiederholt abgespielt. Macht das die Künstliche Intelligenz genauso, lernt sie Rauminformationen schneller als bei zufälliger Wiederholung der Sequenzen. Nicolas Diekmann und Prof. Dr. Sen Cheng berichten in der in der Zeitschrift eLife vom 14. März 2023.
Im Schlaf lässt das Gehirn Strecken Revue passieren
Die Gehirnregion des Hippocampus spielt für das Gedächtnis eine wichtige Rolle. Berühmte Fälle wie der des Patienten H.M., der nach der Entfernung großer Teile seines Hippocampus keine neuen Erinnerungen mehr bilden konnte, unterstreichen das. Studien an Nagetieren haben die Rolle des Hippocampus beim räumlichen Lernen und bei der Navigation belegt. Eine wichtige Entdeckung waren dabei Zellen, die an bestimmten Orten feuern, die sogenannten Ortszellen. „Sie sind an einem faszinierenden Phänomen beteiligt, das als Replay bekannt ist“, erklärt Nicolas Diekmann: „Wenn sich ein Tier fortbewegt, feuern bestimmte Ortszellen nacheinander entlang der Route des Tieres. Später in Ruhe oder im Schlaf können dieselben Ortszellen in der gleichen Reihenfolge wie erlebt oder in umgekehrter Reihenfolge reaktiviert werden.“
Die bei der Wiederholung beobachteten Sequenzen spiegeln dabei nicht nur früheres Verhalten wider. Es können auch Sequenzen neu zusammengestellt werden, sie können sich an strukturelle Veränderungen in der Umgebung anpassen oder noch nicht besuchte, aber gesehene Orte repräsentieren.
„Wir wollten wissen, wie der Hippocampus eine solche Vielfalt an Wiedergabearten effizient produziert und welchem Zweck sie dienen“, erklärt Nicolas Diekmann. Die Forschenden bauten daher ein Computermodell auf, in dem eine Künstliche Intelligenz Rauminformationen lernt. Es geht letztlich darum, wie schnell der KI-Agent einen Ausgang aus einer bestimmten räumlichen Situation findet. Je besser er sich darin auskennt, desto schneller ist er.
Abspielen nach bestimmten Regeln
Auch der KI-Agent lernt durch Wiederholen von neuronalen Sequenzen. Sie werden jedoch nicht zufällig abgespielt, sondern nach gewissen Regeln priorisiert. „Sequenzen werden stochastisch entsprechend ihrer Priorisierung abgespielt“, erklärt Diekmann. Bekannte Sequenzen werden bevorzugt abgespielt. Belohnte Positionen nehmen ebenfalls häufiger an Replay teil. „Unser Modell ist biologisch plausibel, erzeugt einen überschaubaren Rechenaufwand und lernt schneller als Agenten, bei denen die Sequenzen zufällig abgespielt werden“, fasst Nicolas Diekmann zusammen. „Das zeigt uns ein wenig genauer, wie das Gehirn lernt.“