Przełomy w mocy obliczeniowej i neurobiologii zbiegają się, umożliwiając naukowcom symulowanie aktywności ludzkiego mózgu na bezprecedensową skalę. Po raz pierwszy superkomputery mają moc obliczeniową niezbędną do symulowania miliardów neuronów, co jest złożonością porównywalną z prawdziwymi mózgami biologicznymi. Postęp ten polega nie tylko na szybkości przetwarzania, ale także na rosnącej możliwości testowania podstawowych teorii funkcjonowania mózgu, które były wcześniej niedostępne.
Era obliczeń na dużą skalę
Kluczowym czynnikiem jest pojawienie się obliczeń „eksaskalowych”, w ramach których systemy mogą wykonywać kwintyliony obliczeń na sekundę. Obecnie na świecie działają tylko cztery takie maszyny, z czego jedna – JUPITER, znajdująca się w Niemczech – jest wykorzystywana przez badaczy pod kierownictwem Markusa Diesmanna z Centrum Badawczego w Jülich. Zespołowi udało się dostroić model sieci neuronowej typu impulsowego do działania na tysiącach procesorów graficznych JUPITER, symulując sieć odpowiadającą ludzkiej korze: 20 miliardów neuronów połączonych 100 bilionami synaps.
Ten skok skali jest krytyczny. Symulacje małych mózgów, takich jak muszki owocowe, nie mają cech, które pojawiają się tylko w większych systemach. Niedawne postępy w dużych modelach językowych (LLM) pokazują tę zasadę: większe sieci wykazują jakościowo różne wzorce zachowań. Jak wyjaśnia Diesmann: „Teraz wiemy, że duże sieci mogą działać zasadniczo inaczej niż małe. Oczywiście duże sieci są inne. ”.
Od teorii do weryfikacji
Symulacje opierają się na danych empirycznych z eksperymentów na ludzkim mózgu, zapewniając anatomiczną dokładność w zakresie gęstości i poziomu aktywności neuronów. Umożliwia to badaczom testowanie podstawowych hipotez dotyczących działania mózgu, np. mechanizmów tworzenia pamięci. Mogą na przykład udostępnić obrazy symulowanej sieci i obserwować ewolucję śladów pamięci w różnych skalach.
Oprócz podstawowej neuronauki symulacje te oferują nową platformę do testowania leków. Naukowcy mogą modelować schorzenia neurologiczne, takie jak padaczka, i oceniać działanie różnych środków farmaceutycznych bez interwencji człowieka. Większa szybkość obliczeń umożliwia także badanie w czasie rzeczywistym powolnych procesów, takich jak uczenie się, z większą niż kiedykolwiek wcześniej szczegółowością biologiczną.
Ograniczenia i perspektywy
Pomimo tych postępów symulacja mózgu nie jest tym samym, co jego odtworzenie. Obecnym modelom brakuje kluczowych elementów obecnych w prawdziwych mózgach, takich jak bodźce sensoryczne z otoczenia. Jak zauważa Thomas Nowotny z University of Sussex: „Nie możemy budować mózgów. Nawet gdybyśmy mogli budować symulacje wielkości mózgu, nie bylibyśmy w stanie budować symulacji mózgu. ”.
Co więcej, nawet symulacje muszek owocowych nie w pełni odpowiadają rzeczywistym zachowaniom zwierząt. Pole jest nadal ograniczone przez nasze niepełne zrozumienie funkcji mózgu.
Jednak możliwość przeprowadzania symulacji na pełną skalę stanowi punkt zwrotny w neuronauce. Otwiera bezprecedensowe możliwości testowania hipotez, udoskonalania teorii i przyspieszania odkrywania leków, ostatecznie wypełniając lukę między złożonością biologiczną a modelowaniem obliczeniowym.