Un estudio sugiere un papel computacional de las neuronas que evitan que otras neuronas se activen

Un estudio sugiere un papel computacional de las neuronas que evitan que otras neuronas se activen

Aquí hay una estrecha correspondencia entre lo que necesita para comunicarse en redes que cambian rápidamente y el procesamiento de información en el cerebro, dice la profesora Nancy Lynch. ¿Estamos tratando de encontrar problemas que puedan beneficiarse de esta perspectiva de computación distribuida, enfocándonos en algoritmos para los cuales podemos probar propiedades matemáticas ?. Crédito: MIT News

Investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT han desarrollado un nuevo modelo computacional de un circuito neuronal en el cerebro, que podría arrojar luz sobre el papel biológico de las neuronas inhibidoras 攏 eurones que evitan que otras neuronas se activen.

El modelo describe un circuito neuronal que consta de una matriz de neuronas de entrada y un número equivalente de neuronas de salida. El circuito realiza lo que los neurocientíficos llaman una operación de “el ganador se lleva todo”, en la que las señales de múltiples neuronas de entrada inducen una señal en una sola neurona de salida.

Utilizando las herramientas de la informática teórica, los investigadores demuestran que, dentro del contexto de su modelo, una determinada configuración de neuronas inhibidoras proporciona los medios más eficientes para realizar una operación en la que el ganador se lo lleva todo. Debido a que el modelo hace predicciones empíricas sobre el comportamiento de las neuronas inhibidoras en el cerebro, ofrece un buen ejemplo de la forma en que el análisis computacional podría ayudar a la neurociencia.

Los investigadores presentarán sus resultados esta semana en la conferencia sobre Innovaciones en Informática Teórica. Nancy Lynch, profesora NEC de ciencia e ingeniería del software en el MIT, es la autora principal del artículo. A ella se unen Merav Parter, un postdoctorado en su grupo, y Cameron Musco, un estudiante graduado del MIT en ingeniería eléctrica e informática.

Durante años, el grupo de Lynch ha estudiado la comunicación y la asignación de recursos en redes ad hoc, redes cuyos miembros se van y se vuelven a unir continuamente. Pero recientemente, el equipo ha comenzado a utilizar las herramientas del análisis de redes para investigar fenómenos biológicos.

“Existe una estrecha correspondencia entre el comportamiento de las redes de computadoras u otros dispositivos como teléfonos móviles y el de los sistemas biológicos”, dice Lynch. “Estamos tratando de encontrar problemas que puedan beneficiarse de esta perspectiva de computación distribuida, centrándonos en algoritmos para los que podamos probar propiedades matemáticas”.

Neurología artificial

En los últimos años, las redes neuronales artificiales (modelos informáticos basados ​​aproximadamente en la estructura del cerebro) han sido responsables de algunas de las mejoras más rápidas en los sistemas de inteligencia artificial, desde la transcripción de voz hasta el software de reconocimiento facial.

Una red neuronal artificial consta de “nodos” que, al igual que las neuronas individuales, tienen un poder de procesamiento de información limitado pero están densamente interconectados. Los datos se introducen en la primera capa de nodos. Si los datos recibidos por un nodo dado cumplen con algún criterio de umbral 攆 o instancia, si exceden un valor particular 攖, el nodo “dispara” o envía señales a lo largo de todas sus conexiones salientes.

Cada una de esas conexiones salientes, sin embargo, tiene un “peso” asociado, que puede aumentar o disminuir una señal. Cada nodo en la siguiente capa de la red recibe señales ponderadas de múltiples nodos en la primera capa; los suma, y ​​nuevamente, si su suma excede algún umbral, dispara. Sus señales salientes pasan a la siguiente capa y así sucesivamente.

En las aplicaciones de inteligencia artificial, una red neuronal se “entrena” con datos de muestra, ajustando constantemente sus pesos y umbrales de disparo hasta que la salida de su capa final representa consistentemente la solución a algún problema computacional.

Plausibilidad biológica

Lynch, Parter y Musco hicieron varias modificaciones a este diseño para hacerlo más plausible desde el punto de vista biológico. El primero fue la adición de “neuronas” inhibidoras. En una red neuronal artificial estándar, los valores de los pesos en las conexiones suelen ser positivos o pueden ser positivos o negativos. Pero en el cerebro, algunas neuronas parecen desempeñar un papel puramente inhibidor, evitando que otras neuronas se activen. Los investigadores del MIT modelaron esas neuronas como nodos cuyas conexiones solo tienen pesos negativos.

Muchas aplicaciones de inteligencia artificial también utilizan redes “feed-forward”, en las que las señales pasan a través de la red en una sola dirección, desde la primera capa, que recibe los datos de entrada, hasta la última capa, que proporciona el resultado de un cálculo. Pero las conexiones en el cerebro son mucho más complejas. Por tanto, el circuito de Lynch, Parter y Musco incluye retroalimentación: las señales de las neuronas de salida pasan a las neuronas inhibidoras, cuya salida a su vez vuelve a las neuronas de salida. La señalización de las neuronas de salida también se retroalimenta a sí misma, lo que resulta esencial para implementar la estrategia de que el ganador se lo lleve todo.

Finalmente, la red de investigadores del MIT es probabilística. En una red neuronal artificial típica, si los valores de entrada de un nodo superan algún umbral, el nodo se dispara. Pero en el cerebro, aumentar la fuerza de la señal que viaja a través de una neurona de entrada solo aumenta las posibilidades de que se active una neurona de salida. Lo mismo ocurre con los nodos del modelo de los investigadores. Una vez más, esta modificación es crucial para implementar la estrategia de “el ganador se lo lleva todo”.

En el modelo de los investigadores, el número de neuronas de entrada y salida es fijo, y la ejecución del cálculo del ganador se lleva todo es puramente el trabajo de un banco de neuronas auxiliares. “Estamos tratando de ver la compensación entre el tiempo computacional para resolver un problema dado y el número de neuronas auxiliares”, explica Parter. “Consideramos que las neuronas son un recurso; no queremos gastar demasiado”.

Virtudes de la inhibición

Parter y sus colegas pudieron demostrar que con una sola neurona inhibitoria, es imposible, en el contexto de su modelo, implementar la estrategia de que el ganador se lo lleve todo. Pero dos neuronas inhibidoras son suficientes. El truco es que una de las neuronas inhibidoras, que los investigadores llaman neurona de convergencia, finaliza una señal inhibitoria fuerte si se dispara más de una neurona de salida. La otra neurona inhibidora, la neurona de estabilidad, finaliza una señal mucho más débil siempre que se activen las neuronas de salida.

La neurona de convergencia impulsa el circuito para seleccionar una única neurona de salida, momento en el que deja de disparar; la neurona de estabilidad evita que una segunda neurona de salida se active una vez que se ha apagado la neurona de convergencia. Los circuitos de auto-retroalimentación de las neuronas de salida mejoran este efecto. Cuanto más tiempo se haya apagado una neurona de salida, es más probable que permanezca apagada; cuanto más tiempo haya estado encendido, es más probable que permanezca encendido. Una vez que se ha seleccionado una sola neurona de salida, su circuito de auto-retroalimentación asegura que pueda superar la inhibición de la neurona de estabilidad.

Sin embargo, sin aleatoriedad, el circuito no convergerá en una sola neurona de salida: cualquier ajuste de los pesos de las neuronas inhibidoras afectará a todas las neuronas de salida por igual. “Se necesita aleatoriedad para romper la simetría”, explica Parter.

Los investigadores pudieron determinar el número mínimo de neuronas auxiliares necesarias para garantizar una velocidad de convergencia particular y la velocidad de convergencia máxima posible dado un número particular de neuronas auxiliares.

Agregar más neuronas de convergencia aumenta la velocidad de convergencia, pero solo hasta cierto punto. Por ejemplo, con 100 neuronas de entrada, todo lo que necesita es dos o tres neuronas de convergencia; agregar un cuarto no mejora la eficiencia. Y solo una neurona de estabilidad ya es óptima.

Pero quizás lo más intrigante es que los investigadores demostraron que la inclusión de neuronas excitadoras, eurones que estimulan, en lugar de inhibir, la activación de otras neuronas, así como neuronas inhibidoras entre las neuronas auxiliares, no puede mejorar la eficiencia del circuito. De manera similar, cualquier disposición de neuronas inhibidoras que no observe la distinción entre neuronas de convergencia y estabilidad será menos eficiente que una que sí lo haga.

Asumiendo, entonces, que la evolución tiende a encontrar soluciones eficientes a los problemas de ingeniería, el modelo sugiere tanto una respuesta a la pregunta de por qué se encuentran neuronas inhibitorias en el cerebro como una pregunta tentadora para la investigación empírica: ¿las neuronas inhibitorias reales exhiben la misma división entre neuronas de convergencia y neuronas de estabilidad?

“Este cálculo del ganador se lo lleva todo es un motivo bastante amplio y útil que vemos en todo el cerebro”, dice Saket Navlakha, profesor asistente en el Laboratorio de Biología Integrativa del Instituto Salk de Estudios Biológicos. “En muchos sistemas sensoriales 攆 o por ejemplo, el sistema olfativo 攊 se usa para generar códigos dispersos”.

“Hay muchas clases de neuronas inhibidoras que hemos descubierto, y un próximo paso natural sería ver si algunas de estas clases se corresponden con las predichas en este estudio”, agrega.

“Hay mucho trabajo en neurociencia sobre modelos computacionales que tienen en cuenta muchos más detalles no solo sobre las neuronas inhibitorias, sino también sobre qué proteínas impulsan estas neuronas, etc.”, dice Ziv Bar-Joseph, profesor de informática en la Universidad Carnegie Mellon. “Nancy está adoptando una visión global de la red en lugar de mirar los detalles específicos. A cambio, obtiene la capacidad de ver algunos aspectos más amplios. ¿Cuántas neuronas inhibitorias realmente necesitas? ¿Por qué tenemos tan pocas en comparación con ¿Las neuronas excitadoras? El aspecto único aquí es que este modelo a escala global le brinda un tipo de predicción de nivel mucho más alto “.


Similar Posts

Leave a Reply