Los avances en el poder de la computación y la neurociencia están convergiendo, lo que permite a los investigadores simular la actividad del cerebro humano a una escala sin precedentes. Por primera vez, las supercomputadoras poseen ahora la capacidad computacional para modelar miles de millones de neuronas, una complejidad comparable a la de los cerebros biológicos reales. Este desarrollo no se trata sólo de la velocidad de procesamiento; se trata de la capacidad emergente de probar teorías fundamentales de la función cerebral que antes eran imposibles.

El auge de la informática a exaescala

El factor clave es la llegada de la informática a “exaescala”, donde los sistemas pueden realizar quintillones de cálculos por segundo. Actualmente sólo existen cuatro máquinas de este tipo en todo el mundo, y una de ellas, JUPITER, con sede en Alemania, es utilizada por investigadores dirigidos por Markus Diesmann en el Centro de Investigación de Jülich. El equipo ha configurado con éxito un modelo de red neuronal de picos para ejecutarse en las miles de GPU de JUPITER, simulando una red equivalente a la corteza cerebral humana: 20 mil millones de neuronas conectadas por 100 billones de sinapsis.

Este salto de escala es fundamental. Las simulaciones cerebrales más pequeñas, como las de las moscas de la fruta, carecen de características que sólo surgen en sistemas más grandes. Los avances recientes en modelos de lenguajes grandes (LLM) demuestran este principio: las redes más grandes exhiben comportamientos cualitativamente diferentes. Como explica Diesmann: “Ahora sabemos que las redes grandes pueden hacer cosas cualitativamente diferentes a las pequeñas. Está claro que las redes grandes son diferentes.

De la teoría a la prueba

Las simulaciones se basan en datos empíricos de experimentos con el cerebro humano, lo que garantiza la precisión anatómica en cuanto a la densidad neuronal y los niveles de actividad. Esto permite a los investigadores probar hipótesis fundamentales sobre cómo funciona el cerebro, como los mecanismos de formación de la memoria. Por ejemplo, pueden exponer la red simulada a imágenes y observar cómo se desarrollan las huellas de la memoria en diferentes escalas.

Más allá de la neurociencia básica, estas simulaciones ofrecen una plataforma novedosa para las pruebas de drogas. Los investigadores pueden modelar afecciones neurológicas como la epilepsia y evaluar el impacto de diversos productos farmacéuticos sin seres humanos. La mayor velocidad computacional también permite estudiar procesos lentos como el aprendizaje en tiempo real, con mayor detalle biológico que nunca.

Limitaciones y perspectivas futuras

A pesar de estos avances, simular un cerebro no es lo mismo que replicarlo. Los modelos actuales carecen de elementos críticos que se encuentran en cerebros reales, como la información sensorial del entorno. Como señala Thomas Nowotny, de la Universidad de Sussex, “En realidad, no podemos construir cerebros. Incluso si podemos hacer simulaciones del tamaño de un cerebro, no podemos hacer simulaciones del cerebro “.

Además, ni siquiera las simulaciones de moscas de la fruta reflejan plenamente el comportamiento animal real. El campo todavía está limitado por nuestra comprensión incompleta de la función cerebral.

Sin embargo, la capacidad de ejecutar simulaciones a gran escala marca un momento crucial en la neurociencia. Ofrece oportunidades sin precedentes para probar hipótesis, refinar teorías y acelerar el descubrimiento de fármacos, lo que en última instancia cierra la brecha entre la complejidad biológica y el modelado computacional.