Le scoperte rivoluzionarie nella potenza di calcolo e nelle neuroscienze stanno convergendo, consentendo ai ricercatori di simulare l’attività del cervello umano su una scala senza precedenti. Per la prima volta, i supercomputer ora possiedono la capacità computazionale di modellare miliardi di neuroni, una complessità paragonabile a quella dei veri cervelli biologici. Questo sviluppo non riguarda solo la velocità di elaborazione; si tratta della capacità emergente di testare teorie fondamentali sulla funzione cerebrale che prima erano impossibili.

L’ascesa dell’informatica exascale

Il fattore chiave è l’avvento del calcolo “exascale”, in cui i sistemi possono eseguire un quintilione di calcoli al secondo. Attualmente esistono solo quattro di queste macchine in tutto il mondo e una di queste – JUPITER, con sede in Germania – è utilizzata dai ricercatori guidati da Markus Diesmann presso il Centro di ricerca Jülich. Il team ha configurato con successo un modello di rete neurale ad impulsi da eseguire sulle migliaia di GPU di JUPITER, simulando una rete equivalente alla corteccia cerebrale umana: 20 miliardi di neuroni collegati da 100 trilioni di sinapsi.

Questo salto di scala è fondamentale. Le simulazioni cerebrali più piccole, come quelle dei moscerini della frutta, mancano di caratteristiche che emergono solo in sistemi più grandi. I recenti progressi nei modelli linguistici di grandi dimensioni (LLM) dimostrano questo principio: le reti più grandi mostrano comportamenti qualitativamente diversi. Come spiega Diesmann, “Ora sappiamo che le reti di grandi dimensioni possono fare cose qualitativamente diverse rispetto a quelle piccole. È chiaro che le reti di grandi dimensioni sono diverse.

Dalla teoria ai test

Le simulazioni si basano su dati empirici provenienti da esperimenti sul cervello umano, garantendo l’accuratezza anatomica per quanto riguarda la densità dei neuroni e i livelli di attività. Ciò consente ai ricercatori di testare ipotesi fondamentali su come funziona il cervello, come i meccanismi di formazione della memoria. Ad esempio, possono esporre la rete simulata a immagini e osservare come si sviluppano le tracce della memoria su scale diverse.

Oltre alle neuroscienze di base, queste simulazioni offrono una nuova piattaforma per i test antidroga. I ricercatori possono modellare condizioni neurologiche come l’epilessia e valutare l’impatto di vari farmaci senza soggetti umani. La maggiore velocità di calcolo consente anche di studiare processi lenti come l’apprendimento in tempo reale, con maggiori dettagli biologici che mai.

Limitazioni e prospettive future

Nonostante questi progressi, simulare un cervello non è la stessa cosa che replicarne uno. I modelli attuali mancano degli elementi critici riscontrati nei cervelli reali, come gli input sensoriali provenienti dall’ambiente. Come sottolinea Thomas Nowotny dell’Università del Sussex, “Non possiamo effettivamente costruire cervelli. Anche se possiamo fare simulazioni delle dimensioni di un cervello, non possiamo fare simulazioni del cervello.

Inoltre, anche le simulazioni dei moscerini della frutta non riescono a rispecchiare pienamente il comportamento degli animali reali. Il campo è ancora limitato dalla nostra comprensione incompleta della funzione cerebrale.

Tuttavia, la capacità di eseguire simulazioni su vasta scala segna un momento cruciale nelle neuroscienze. Offre opportunità senza precedenti per testare ipotesi, perfezionare teorie e accelerare la scoperta di farmaci, colmando in definitiva il divario tra la complessità biologica e la modellazione computazionale.