Durchbrüche in der Rechenleistung und den Neurowissenschaften konvergieren und ermöglichen es Forschern, die Aktivität des menschlichen Gehirns in einem noch nie dagewesenen Ausmaß zu simulieren. Zum ersten Mal verfügen Supercomputer nun über die Rechenkapazität, um Milliarden von Neuronen zu modellieren – eine Komplexität, die mit echten biologischen Gehirnen vergleichbar ist. Bei dieser Entwicklung geht es nicht nur um die Verarbeitungsgeschwindigkeit; Es geht um die neue Fähigkeit, grundlegende Theorien zur Gehirnfunktion zu testen, die zuvor unmöglich waren.

Der Aufstieg des Exascale-Computing

Der wichtigste Treiber ist das Aufkommen des „Exascale“-Computings, bei dem Systeme eine Trillion Berechnungen pro Sekunde durchführen können. Derzeit gibt es weltweit nur vier solcher Maschinen, von denen eine – der in Deutschland ansässige JUPITER – von Forschern um Markus Diesmann am Forschungszentrum Jülich genutzt wird. Das Team hat erfolgreich ein Spiking-Modell eines neuronalen Netzwerks konfiguriert, das auf den Tausenden von GPUs von JUPITER läuft und ein Netzwerk simuliert, das der menschlichen Großhirnrinde entspricht: 20 Milliarden Neuronen, die durch 100 Billionen Synapsen verbunden sind.

Dieser Maßstabssprung ist entscheidend. Kleineren Gehirnsimulationen wie denen von Fruchtfliegen fehlen Merkmale, die nur in größeren Systemen auftreten. Jüngste Fortschritte bei großen Sprachmodellen (LLMs) verdeutlichen dieses Prinzip: Größere Netzwerke zeigen qualitativ unterschiedliche Verhaltensweisen. Wie Diesmann erklärt: „*Wir wissen jetzt, dass große Netzwerke qualitativ andere Dinge tun können als kleine. Es ist klar, dass die großen Netzwerke anders sind.“

Von der Theorie zum Testen

Die Simulationen basieren auf empirischen Daten aus Experimenten mit menschlichen Gehirnen und gewährleisten anatomische Genauigkeit hinsichtlich Neuronendichte und Aktivitätsniveaus. Dies ermöglicht es Forschern, Kernhypothesen über die Funktionsweise des Gehirns zu testen, beispielsweise über die Mechanismen der Gedächtnisbildung. Sie können beispielsweise das simulierte Netzwerk Bildern aussetzen und beobachten, wie sich Erinnerungsspuren in verschiedenen Maßstäben entwickeln.

Über die Grundlagen der Neurowissenschaft hinaus bieten diese Simulationen eine neuartige Plattform für Drogentests. Forscher können neurologische Erkrankungen wie Epilepsie modellieren und die Wirkung verschiedener Arzneimittel ohne menschliche Probanden bewerten. Die erhöhte Rechengeschwindigkeit ermöglicht auch die Untersuchung langsamer Prozesse wie Lernen in Echtzeit mit mehr biologischen Details als je zuvor.

Einschränkungen und Zukunftsaussichten

Trotz dieser Fortschritte ist die Simulation eines Gehirns nicht dasselbe wie die Replikation eines Gehirns. Aktuellen Modellen fehlen entscheidende Elemente, die in echten Gehirnen vorkommen, wie etwa sensorische Eingaben aus der Umgebung. Wie Thomas Nowotny von der University of Sussex betont: „*Wir können eigentlich keine Gehirne bauen. Selbst wenn wir die Größe eines Gehirns simulieren können, können wir keine Simulationen des Gehirns machen.“

Darüber hinaus können selbst Simulationen von Fruchtfliegen das Verhalten realer Tiere nicht vollständig widerspiegeln. Das Feld ist immer noch durch unser unvollständiges Verständnis der Gehirnfunktion begrenzt.

Dennoch markiert die Möglichkeit, umfassende Simulationen durchzuführen, einen entscheidenden Moment in der Neurowissenschaft. Sie bietet beispiellose Möglichkeiten, Hypothesen zu testen, Theorien zu verfeinern und die Entdeckung von Arzneimitteln zu beschleunigen, wodurch letztendlich die Lücke zwischen biologischer Komplexität und rechnerischer Modellierung geschlossen wird.