Cuando ve un objeto idéntico en diferentes ocasiones, digamos su taza de café favorita en diferentes mañanas, la forma en que su cerebro representa la taza nunca es la misma

(Stanford)-Este es uno de los grandes misterios de la neurociencia: ¿Cómo identifica su cerebro de manera confiable el objeto como «el mismo» frente a sus patrones de actividad neuronal en constante cambio?

Un conjunto de datos sin precedentes está brindando nuevos conocimientos sobre este y otros enigmas de la neurociencia. Los científicos de Stanford registraron la actividad individual de miles de neuronas de ocho áreas cerebrales diferentes durante varios días, mientras los animales realizaban repetidamente una tarea de discriminación visual. Lo que emerge es una imagen detallada de cómo el cerebro procesa las señales visuales, desde la percepción hasta la discriminación y la respuesta conductual, un retrato que puede tener implicaciones para tecnologías como las interfaces cerebro-computadora y la visión por computadora.

«Este es el primer estudio de la visión en el que la actividad neuronal se ha registrado con resolución celular en toda la corteza visual», dijo Mark Schnitzer , profesor de biología y física aplicada, miembro del Instituto de Neurociencias Wu Tsai y Howard Hughes Medical. investigador del instituto. Pero el trabajo plantea tantas preguntas como respuestas, que es el objetivo de un trabajo exploratorio como este, dijo Schnitzer y agregó: “Es como si estuvieras aterrizando en la luna. Estás vislumbrando por primera vez algo y quieres explorar”.

Flujo de información a través del cerebro.

En este estudio, publicado en Nature el 18 de mayo de 2022, los científicos de Stanford entrenaron a ratones para que lamieran un pico después de mostrarles líneas horizontales pero no verticales; la señal visual se presentó durante dos segundos. Los ratones realizaron esta tarea cientos de veces al día durante cinco días mientras los científicos registraban su actividad cerebral. Los ratones fueron modificados genéticamente para expresar una proteína fluorescente en una clase particular de neuronas corticales, de modo que cuando una neurona se dispara, brilla más intensamente, lo que permite a los investigadores obtener imágenes de su actividad.

Las grabaciones de video del cerebro obtenidas en el estudio se asemejan a un cielo nocturno, con neuronas que se encienden y apagan como estrellas titilantes. Al buscar patrones estadísticos en los destellos, el primer autor Sadegh Ebrahimi, estudiante de doctorado en ingeniería eléctrica, pudo detallar la secuencia de eventos que se desarrolla en el cerebro. Ebrahimi trabaja en el laboratorio de Schnitzer y en el laboratorio del coautor Surya Ganguli , profesor asociado de física aplicada. Ganguli es miembro del Instituto de Neurociencias Wu Tsai y director asociado del Instituto Stanford para la Inteligencia Artificial Centrada en el Ser Humano (HAI).

Ganguli dijo: “Podemos rastrear el arco del flujo de información a través de estas ocho áreas del cerebro desde la entrada sensorial hasta la respuesta motora, y podemos observar el flujo de información de un lado a otro a través de las áreas a lo largo del tiempo. Nadie ha tenido nunca los datos para hacer eso”.

0,2 segundos posteriores al estímulo: un aumento en la redundancia

Inmediatamente después de que se presentó cada estímulo, los investigadores observaron una ráfaga inicial de actividad neuronal, como si el cerebro estuviera tratando de dar sentido a la imagen. Los investigadores encontraron algo inesperado en los primeros 0,2 segundos: la cantidad de neuronas que codificaban la misma información aumentó drásticamente. El cerebro usa la redundancia para ayudar a superar la variabilidad en las neuronas individuales, también conocida como ruido neuronal. Pero, hasta ahora, no se sabía que la cantidad de redundancia podría cambiar drásticamente dentro de la misma tarea.

La redundancia hace que la señal sea más infalible, pero es ineficiente. Esta compensación podría valer la pena en los primeros momentos de la percepción visual, explicó Schnitzer. Si alguien te muestra una taza, inicialmente debes asimilar todos los detalles visuales. Pero tu cerebro rápidamente se da cuenta de que «es una taza», que es una representación más eficiente.

De hecho, el equipo encontró que después de 0,2 segundos, la redundancia comenzó a disminuir. Esto puede indicar que el cerebro estaba formando un consenso: líneas horizontales o líneas verticales.

0,5 segundos post-estímulo: Estructura en ruido

Sorprendentemente, los modelos informáticos que utilizaron para interpretar las señales, conocidos como «decodificadores», eran resistentes al ruido neuronal. Los decodificadores entrenados con datos de un día funcionaron bien cuando se aplicaron a datos de días posteriores, a pesar de las fluctuaciones sustanciales diarias en el comportamiento de las neuronas individuales. A partir de aproximadamente 0,5 segundos, la representación neuronal del estímulo se volvió más estable. En este punto, los investigadores pudieron discernir si un animal había visto líneas horizontales o verticales, basándose únicamente en las señales de su cerebro.

El equipo también descubrió que las fluctuaciones diarias en los patrones de activación neuronal estaban correlacionadas con las fluctuaciones diarias. “Esto tiene mucha importancia porque significa que un decodificador que es bueno en un día individual para tener en cuenta que la variabilidad correlacionada será naturalmente bueno a lo largo de los días”, dijo Schnitzer.El equipo encontró una posible explicación: el ruido tiene estructura. Durante décadas, los neurocientíficos han reconocido que el ruido cerebral está correlacionado; pares de neuronas tienden a fluctuar de la misma manera. Son como lemmings. Si una neurona dispara un poco más en una prueba determinada, otra neurona también podría disparar un poco más”, explicó Ganguli. La importancia del ruido correlacionado no está clara, pero el equipo descubrió que sus decodificadores eran más precisos cuando tenían en cuenta el ruido correlacionado en lugar de ignorarlo.

1.0 segundos post-estímulo: La transmisión global

En este punto, los científicos podrían predecir la próxima respuesta de un ratón, lamer o no lamer, basándose únicamente en sus señales cerebrales. Las señales que codifican la respuesta del animal eran independientes de las que codifican el estímulo (líneas horizontales o verticales) y se transmitían a las ocho regiones del cerebro, incluida, sorprendentemente, la corteza visual primaria. Aproximadamente 1,0 segundo después del estímulo, el patrón de conectividad entre las diferentes áreas del cerebro comenzó a cambiar. “Inicialmente, las áreas visuales comparten información con otras áreas en canales específicos”, explicó Ebrahimi. «Entonces parece que estas áreas del cerebro llegan a un consenso sobre la respuesta del animal y transmiten esta información a todas las diferentes áreas del cerebro».

Este hallazgo se suma a un creciente cuerpo de trabajo que sugiere que la corteza visual hace más que solo ver. “Cada vez se reconoce más que tal vez estos nombres clásicos para las áreas del cerebro no sean tan precisos”, dijo Schnitzer. Por ejemplo, los científicos han encontrado señales de sed, movimiento, sonido y recompensa dentro de la corteza visual.

Del cerebro de ratón a la inteligencia artificial

Muchas aplicaciones prácticas podrían surgir de estos hallazgos. La capacidad de construir decodificadores que sean robustos a lo largo de los días podría ser una gran ayuda para la comunidad de interfaces cerebro-computadora. Las interfaces cerebro-computadora son dispositivos implantables que pueden discernir la intención de una persona únicamente mediante la lectura de señales cerebrales. Actualmente, los científicos tienen que recalibrar estos dispositivos diariamente para tener en cuenta las variaciones diarias en las representaciones neuronales. Este nuevo trabajo sugiere que tener en cuenta las correlaciones en el ruido podría ayudar a resolver este problema.

El estudio también revela diferencias sorprendentes entre cómo funciona la visión por computadora y cómo funciona la corteza visual. La mayoría de los sistemas de visión artificial reciben datos visuales y devuelven una clasificación: por ejemplo, taza. Pero lo que sucede en la corteza visual es mucho más dinámico. Los científicos pueden tomar prestados trucos del cerebro, como modular la redundancia, para mejorar la eficiencia de los sistemas de visión por computadora. El trabajo también sugiere la importancia potencial de construir sistemas de visión artificial que puedan integrar señales visuales y no visuales. De hecho, dijo Ganguli, este puede ser un primer paso clave hacia la construcción de máquinas que puedan planificar, imaginar y razonar.

Cita: Sadegh Ebrahimi et al. «Confiabilidad emergente en la codificación cortical sensorial y la comunicación entre áreas».  naturaleza _ Publicado en línea el 18 de mayo de 2022. doi: 10.1038/s41586-022-04724-y Otros coautores del artículo de Nature son Jérôme Lecoq, del Instituto Allen para la Ciencia del Cerebro, y Oleg Rumyantsev, Tugce Tasci, Yanping Zhang, Cristina Irimia y Jane Li, de la Universidad de Stanford.