Das metaphorische „Chaos im Gehirn“ hat bestimmt jede*r bereits erlebt: Die Gedanken sind durcheinander und lassen sich nicht ordnen. Aus der neurowissenschaftlichen Perspektive wird anstelle von „Gedanken“ die Dynamik von elektrischen Signalen untersucht. Das Gehirn stellt also ein komplexes, dynamisches System dar und solche Systeme weisen oft chaotisches Verhalten auf. Entsprechend stellen sich die Fragen: Verhält sich unser Gehirn tatsächlich chaotisch? Was genau ist in diesem Kontext mit chaotischem Verhalten gemeint? Und welche Vor- oder Nachteile ergeben sich daraus? Um diese Fragen beantworten zu können, werden zunächst die notwendigen Konzepte aus den Neurowissenschaften eingeführt.
Historisch betrachtet hat das Gehirn seit jeher den Menschen fasziniert: Schon Aristoteles befasste sich mit der Frage, welche Aufgabe es übernimmt. Er hielt das Gehirn für ein Kühlorgan, während das Herz für Gedanken zuständig sei (vgl. Oeser 2002). Seitdem haben sich die Neurowissenschaften stark weiterentwickelt. Zum einen hat sich die Auflösung der experimentellen Methoden deutlich verbessert: Verfahren wie Calciumbildgebung (vgl. Grienberger/Konnerth 2012) und Mikroelektroden Arrays (vgl. Obien et al. 2015) ermöglichen es, die Hirnaktivität lebender Organismen mit hoher Auflösung aufzuzeichnen. Zum anderen entwickelte sich der Bereich „Computational Neuroscience“, welcher sich mit der Modellierung und Simulation neuronaler Netzwerke befasst (vgl. Churchland et al. 1990). Dazu werden Modelle einzelner Neuronen aufgestellt, die in ihrem Abstraktionslevel variieren: Das Hodgkin-Huxley Modell beschreibt, wie die Ionenströme durch die Nervenzellmembran das elektrische Potenzial der Zelle verändern und basiert auf Messungen an einem Nerv des Tintenfischs. Ist ein eingehendes Signal groß genug, wird es als sogenanntes Aktionspotenzial weitergeleitet (vgl. Hodgkin/Huxley 1952). Vereinfachte Modelle, wie das von Hindmarsh und Rose, haben zwar keine direkte biologische Interpretation, erzeugen aber eine vergleichbare Dynamik und sind weniger rechenaufwendig (vgl. Hindmarsh/Rose 1984). Das wird relevant, wenn viele Neuronen zu einem Netzwerk verschaltet werden, um beispielsweise ein Hirnareal zu simulieren. Heutzutage gibt es viele Softwareprojekte, die entsprechende Simulatoren verfügbar machen (vgl. Gewaltig/Diesmann 2007, Stimberg et al. 2019). Mithilfe dieser lässt sich die Dynamik von neuronalen Netzwerken in Echtzeit oder sogar schneller simulieren (vgl. Kurth et al. 2022).
Zur Untersuchung derartiger Gehirnmodelle hinsichtlich chaotischen Verhaltens wird zunächst ein zugehöriger Chaosbegriff benötigt. Im Folgenden wird der Begriff aus der Theorie der dynamischen Systeme eingeführt, da viele Modelle das Gehirn als ein derartiges System beschreiben (vgl. Eberl 1995): Sie geben die zeitliche Entwicklung von Systemvariablen vor, in diesem Fall die elektrischen Potenziale aller Neuronen des Netzwerkes. Im Allgemeinen hängt diese zeitliche Entwicklung davon ab, in welchem Zustand sich das System zu Beginn befindet. Dies bedeutet, dass verschiedene Anfangszustände zu verschiedenen Folgezuständen führen. Für ein neuronales Netzwerk kann der Anfangszustand beispielsweise als Eingangssignal verstanden werden. Mögliche Eingangssignale sind das Erfühlen eines Würfels oder das Sehen einer Katze. Diese Formulierung nimmt bereits die Folgezustände vorweg: Im ersten Fall liegen sensorische Signale wie Druckwerte, im zweiten Fall visuelle Signale wie Helligkeitswerte vor, welche im neuronalen System verarbeitet werden. Die Folgezustände, die sich aus diesen Eingangssignalen ergeben, sind „Würfel“ und „Katze“.
Das Weiterdenken dieser Analogie führt zu der Frage, wie sich Anfangszustände verhalten, die sich nur gering voneinander unterscheiden: Dreht die Katze leicht den Kopf, ändert sich das Eingangssignal und damit der Anfangszustand ebenfalls leicht. Dennoch erkennt das Gehirn dieses Signal als Katze, wenn auch in einer anderen Position. Die Folgezustände bleiben also ähnlich. Diese Überlegung führt zur Einteilung von dynamischem Verhalten in zwei Klassen (vgl. Eberl 1995): Ausgehend von zwei Anfangszuständen, die sich geringfügig voneinander unterscheiden, wird die anschließende zeitliche Entwicklung beider Zustände verglichen. In einem Fall ist die zeitliche Entwicklung sehr ähnlich und das System wird als stabil bezeichnet. Im anderen Fall entfernen sich die Systemzustände im Verlauf der Zeit voneinander, hängen also nicht mehr voneinander ab und werden als chaotisch klassifiziert (vgl. Teschl 2012).
Für das Beispiel der Katze bedeutet dies, dass sich das System stabil verhält. Wäre es chaotisch, könnte das Ergebnis stattdessen „Hund“ oder „Baum“ lauten. Entsprechend erscheint chaotisches Verhalten im Gehirn zunächst wenig intuitiv. Dennoch zeigt die Analyse von Gehirnmodellen, dass sich diese unter bestimmten Bedingungen an die Modellparameter chaotisch verhalten. Ein bekanntes Beispiel ist das nach seinen Schöpfern Sompolinsky, Crisanti und Sommers benannte SCS-Modell (vgl. Sompolinsky et al., 1988). In jedem Neuron findet eine identische nicht-lineare Transformation des Signals statt, die durch eine sogenannte Aktivierungsfunktion beschrieben wird. Außerdem werden die Neuronen miteinander gekoppelt, wobei die jeweilige Verbindungsstärke zwischen zwei Neuronen zufällig von derselben Gaußverteilung mit Mittelwert null gezogen wird. Abhängig von der Varianz der Verbindungsstärken sowie von den Eigenschaften der Aktivierungsfunktion verhält sich das System dann stabil oder chaotisch.
Sind diese Bedingungen nun im Gehirn erfüllt? Da es sich um ein vereinfachtes Gehirnmodell handelt, gibt es für die Modellparameter kein biologisches Äquivalent im Gehirn, das gemessen werden könnte. Um Modell und Realität zusammenzubringen, können stattdessen charakteristische Größen im Modell bestimmt werden, welche sich dann mit Experimenten vergleichen lassen. Ein wichtiges Merkmal ist die Kovarianz zwischen einzelnen Neuronen; diese Größe beschreibt, in welchem Ausmaß zwei Neuronen zum selben Zeitpunkt aktiviert werden. Die Kovarianz variiert zwischen verschiedenen Neuronenpaaren und folgt dabei in der Gehirnrinde (Kortex) einer bestimmten Verteilung. Die Breite der Verteilung hängt von denselben Parametern ab, die festlegen, ob sich das SCS-Modell stabil oder chaotisch verhält und lässt sich auch experimentell bestimmen. Dabei zeigt sich, dass sich neuronale Netzwerke im Kortex zwar nicht chaotisch, aber nahezu chaotisch verhalten (vgl. Dahmen et al. 2018).
Was bedeutet dieses Ergebnis nun? Einerseits gilt für ein chaotisch arbeitendes Gehirn, dass es Informationen schnell vergessen würde: Die Systemdynamik verliert bereits nach kurzer Zeit ihre Abhängigkeit vom Anfangszustand und somit geht auch dessen Information schnell verloren. Da diese Information dem System damit nur eine geringe Zeitspanne zur Verfügung steht, kann sie nur eingeschränkt gespeichert und verarbeitet werden. Ein stabiles Verhalten ist also vorteilhaft für die Informationsverarbeitung. Andererseits gibt es Anzeichen dafür, dass Nähe zu chaotischem Verhalten durchaus von Vorteil sein kann: Es erlaubt, dass die zeitliche Entwicklung im System deutlich komplexer werden kann. Entsprechend ist ein nahezu chaotisches Netzwerk in der Lage deutlich komplexere Berechnungen durchzuführen. Da die Abhängigkeit der Systemdynamik vom Anfangszustand gegenüber einem vollständig chaotischen System über längere Zeitskalen erhalten bleibt, können Informationen länger gespeichert werden. Insgesamt können deswegen Informationen mit höherer Rechenleistung verarbeitet werden (vgl. Legenstein/Maass 2007).
Zusammenfassend lässt sich festhalten, dass sich das Gehirn nicht chaotisch verhält. Zugleich gibt es aber Hinweise, dass es sich zumindest nahezu chaotisch verhält. Dadurch ergeben sich Vorteile für die Informationsverarbeitung, sowohl in Komplexität als auch in Speicherkapazität.
Literatur
Churchland, P.; Koch, C.; Sejnowski, T. (1990): What is computational neuroscience? In: Schwartz, E. L. (Hg.): Computational Neuroscience. Cambridge, Massachusetts: MIT Press. S. 46–55.
Dahmen, D.; Grün, S.; Diesmann, M.; Helias, M. (2019): Second type of criticality in the brain uncovers rich multiple-neuron dynamics. In: Proceedings of the National Academy of Sciences, 116(26). S. 13051–13060.
Eberl, W. (1995): Grundlagen und Methoden zur nichtlinearen Dynamik. Online verfügbar unter: http://www.eberl.net/chaos/Skript/ [Zugriff: 22.5.2022].
Gewaltig, M.; Diesmann, M. (2007): NEST (NEural Simulation Tool). In: Scholarpedia, 2(2). S. 1439.
Grienberger, C.; Konnerth, A. (2012): Imaging calcium in neurons. In: Neuron, 73(5). S. 862–885.
Hindmarsh, J.; Rose, R. (1984): A model of neuronal bursting using three coupled first order differential equations. In: Proceedings of the Royal Society of London, Series B, Biological Sciences, 221(1222). S. 87–102.
Hodgkin, A.; Huxley, A. (1952): A quantitative description of membrane current and its application to conduction and excitation in nerve. In: The Journal of Physiology, 117(4). S. 500–544.
Kurth, A. C.; Senk, J.; Terhorst, D.; Finnerty, J.; Diesmann, M. (2022): Sub-realtime simulation of a neuronal network of natural density. In: Neuromorphic Computing and Engineering, 2(2). S. 021001.
Legenstein, R.; Maass, W. (2007): Edge of chaos and prediction of computational performance for neural circuit models. In: Neural networks, 20(3). S. 323–334.
Obien, M.; Deligkaris, K.; Bullmann, T.; Bakkum, D.; Frey, U. (2015): Revealing neuronal function through microelectrode array recordings. In: Frontiers in Neuroscience, 8. S. 423.
Oeser, E. (2002): Geschichte der Hirnforschung. Darmstadt: Wissen verbindet. 2. erw. Auflage 2009.
Poole, B.; Lahiri, S.; Raghu, M.; Sohl-Dickstein, J.; Ganguli, S. (2016): Exponential expressivity in deep neural networks through transient chaos. In: Advances in neural information processing systems, 29.
Sompolinsky, H.; Crisanti, A.; Sommers, H. (1988): Chaos in random neural networks. In: Physical Review Letters, 61(3). S. 259.
Stimberg, M.; Brette, R; Goodman, D. (2019): Brian 2, an intuitive and efficient neural simulator. In: eLife, 8. S. e47314.
Teschl, G. (2012): Ordinary Differential Equations and Dynamical Systems. Providence: American Mathematical Society. 1. Auflage 2012.
Thiboust, M. (2020): Insights from the brain: The road towards Machine Intelligence. Online verfügbar unter: https://www.insightsfromthebrain.com/ [Zugriff: 22.05.2022].