Les avancées en matière de puissance de calcul et de neurosciences convergent, permettant aux chercheurs de simuler l’activité cérébrale humaine à une échelle sans précédent. Pour la première fois, les superordinateurs possèdent désormais la capacité de calcul nécessaire pour modéliser des milliards de neurones – une complexité comparable à celle des vrais cerveaux biologiques. Ce développement ne concerne pas seulement la vitesse de traitement ; il s’agit de la capacité émergente de tester des théories fondamentales du fonctionnement cérébral qui étaient auparavant impossibles.
L’essor de l’informatique exascale
Le principal moteur est l’avènement de l’informatique « exascale », dans laquelle les systèmes peuvent effectuer un quintillion de calculs par seconde. Seules quatre machines de ce type existent actuellement dans le monde, l’une d’elles – JUPITER, basée en Allemagne – étant utilisée par des chercheurs dirigés par Markus Diesmann au Centre de recherche de Jülich. L’équipe a réussi à configurer un modèle de réseau neuronal à pointe pour fonctionner sur les milliers de GPU de JUPITER, simulant un réseau équivalent au cortex cérébral humain : 20 milliards de neurones connectés par 100 000 milliards de synapses.
Ce saut d’échelle est crucial. Les simulations cérébrales plus petites, comme celles des mouches des fruits, manquent de fonctionnalités qui n’apparaissent que dans des systèmes plus grands. Les progrès récents dans les grands modèles de langage (LLM) démontrent ce principe : les plus grands réseaux présentent des comportements qualitativement différents. Comme l’explique Diesmann : “Nous savons maintenant que les grands réseaux peuvent faire des choses qualitativement différentes de celles des petits. Il est clair que les grands réseaux sont différents. ”
De la théorie aux tests
Les simulations sont fondées sur des données empiriques provenant d’expériences sur le cerveau humain, garantissant une précision anatomique concernant la densité et les niveaux d’activité des neurones. Cela permet aux chercheurs de tester des hypothèses fondamentales sur le fonctionnement du cerveau, telles que les mécanismes de formation de la mémoire. Ils peuvent par exemple exposer le réseau simulé à des images et observer l’évolution des traces mnésiques à différentes échelles.
Au-delà des neurosciences fondamentales, ces simulations offrent une nouvelle plateforme pour le dépistage des drogues. Les chercheurs peuvent modéliser des conditions neurologiques comme l’épilepsie et évaluer l’impact de divers produits pharmaceutiques sans sujets humains. La vitesse de calcul accrue permet également d’étudier des processus lents comme l’apprentissage en temps réel, avec plus de détails biologiques que jamais.
Limites et perspectives d’avenir
Malgré ces progrès, simuler un cerveau n’est pas la même chose que le reproduire. Les modèles actuels manquent d’éléments critiques trouvés dans les vrais cerveaux, tels que les informations sensorielles provenant de l’environnement. Comme le souligne Thomas Nowotny de l’Université du Sussex, “Nous ne pouvons pas réellement construire des cerveaux. Même si nous pouvons faire des simulations de la taille d’un cerveau, nous ne pouvons pas faire de simulations du cerveau. ”
De plus, même les simulations de mouches des fruits ne parviennent pas à refléter pleinement le comportement réel des animaux. Le domaine est encore limité par notre compréhension incomplète du fonctionnement cérébral.
Néanmoins, la capacité d’exécuter des simulations à grande échelle marque un moment charnière dans les neurosciences. Elle offre des opportunités sans précédent pour tester des hypothèses, affiner des théories et accélérer la découverte de médicaments, comblant ainsi le fossé entre la complexité biologique et la modélisation informatique.























