Doorbraken in rekenkracht en neurowetenschappen komen naar elkaar toe, waardoor onderzoekers menselijke hersenactiviteit op een ongekende schaal kunnen simuleren. Voor het eerst beschikken supercomputers nu over de rekencapaciteit om miljarden neuronen te modelleren – een complexiteit die vergelijkbaar is met echte biologische hersenen. Deze ontwikkeling gaat niet alleen over verwerkingssnelheid; het gaat over het opkomende vermogen om fundamentele theorieën over de hersenfunctie te testen die voorheen onmogelijk waren.
De opkomst van exaschaalcomputers
De belangrijkste drijfveer is de opkomst van ‘exascale’ computing, waarbij systemen een triljoen berekeningen per seconde kunnen uitvoeren. Er bestaan momenteel wereldwijd slechts vier van dergelijke machines, waarvan er één – JUPITER, gevestigd in Duitsland – wordt gebruikt door onderzoekers onder leiding van Markus Diesmann van het Jülich Research Center. Het team heeft met succes een krachtig neuraal netwerkmodel geconfigureerd dat kan worden uitgevoerd op de duizenden GPU’s van JUPITER, waarmee een netwerk wordt gesimuleerd dat gelijkwaardig is aan de menselijke hersenschors: 20 miljard neuronen verbonden door 100 biljoen synapsen.
Deze schaalsprong is van cruciaal belang. Kleinere hersensimulaties, zoals die van fruitvliegjes, missen kenmerken die alleen in grotere systemen naar voren komen. Recente ontwikkelingen in grote taalmodellen (LLM’s) demonstreren dit principe: grotere netwerken vertonen kwalitatief verschillend gedrag. Zoals Diesmann uitlegt: “We weten nu dat grote netwerken kwalitatief andere dingen kunnen doen dan kleine. Het is duidelijk dat de grote netwerken anders zijn. ”
Van theorie naar testen
De simulaties zijn gebaseerd op empirische gegevens uit experimenten met menselijke hersenen, waardoor anatomische nauwkeurigheid met betrekking tot neurondichtheid en activiteitsniveaus wordt gegarandeerd. Hierdoor kunnen onderzoekers kernhypothesen testen over hoe de hersenen werken, zoals de mechanismen van geheugenvorming. Ze kunnen het gesimuleerde netwerk bijvoorbeeld blootstellen aan beelden en observeren hoe geheugensporen zich op verschillende schaalniveaus ontwikkelen.
Naast de fundamentele neurowetenschappen bieden deze simulaties een nieuw platform voor het testen van medicijnen. Onderzoekers kunnen neurologische aandoeningen zoals epilepsie modelleren en de impact van verschillende geneesmiddelen evalueren zonder menselijke proefpersonen. De hogere rekensnelheid maakt het ook mogelijk om langzame processen zoals leren in realtime te bestuderen, met grotere biologische details dan ooit tevoren.
Beperkingen en toekomstperspectieven
Ondanks deze vooruitgang is het simuleren van een brein niet hetzelfde als het repliceren ervan. In de huidige modellen ontbreken kritische elementen die in echte hersenen voorkomen, zoals sensorische input uit de omgeving. Zoals Thomas Nowotny van de Universiteit van Sussex opmerkt: “We kunnen eigenlijk geen hersenen bouwen. Zelfs als we simulaties kunnen maken van de grootte van een brein, kunnen we geen simulaties van de hersenen maken. ”
Bovendien zijn zelfs fruitvliegsimulaties niet in staat het gedrag van echte dieren volledig te weerspiegelen. Het veld wordt nog steeds beperkt door ons onvolledige begrip van de hersenfunctie.
Desalniettemin markeert de mogelijkheid om simulaties op volledige schaal uit te voeren een cruciaal moment in de neurowetenschappen. Het biedt ongekende mogelijkheden om hypothesen te testen, theorieën te verfijnen en de ontdekking van geneesmiddelen te versnellen, waardoor uiteindelijk de kloof tussen biologische complexiteit en computationele modellering wordt overbrugd.