Uno de los mayores desafíos en el espacio del aprendizaje automático hoy en día es el problema de la asignación de créditos: la identificación de los componentes dentro del proceso de procesamiento de información y la identificación de cuáles son responsables de cualquier error que surja en el resultado generado por el algoritmo

La suposición común es que el problema se resuelve mejor mediante el uso de un proceso conocido como retropropagación, pero esto presenta problemas importantes. Investigadores de la Unidad de Dinámica de Redes Cerebrales del MRC y el Departamento de Ciencias de la Computación de la Universidad de Oxford han propuesto un nuevo mecanismo que tiene el potencial de cerrar estas brechas y es capaz de reproducir los patrones de actividad neuronal observados en humanos.

El problema de la asignación de créditos es fundamental para el aprendizaje automático. Una teoría propuesta, la retropropagación, ha tenido un éxito notable y ha dado lugar al avance de la inteligencia artificial y de los mecanismos neuronales. Debido al éxito de la retropropagación, ha habido un gran interés en el estudio de la retropropagación en su aplicación a los mecanismos de aprendizaje biológico. Aunque es posible que estos modelos no lo implementen directamente, la propagación hacia atrás se utiliza como estándar con el que se aproximan. Sin embargo, en los últimos años se ha vuelto cada vez más obvio que la notable capacidad del sistema neuronal biológico supera con creces la de retropropagación; requiere significativamente menos exposición a estímulos para aprender una respuesta, y el almacenamiento de información es mucho más eficiente y resistente.

En cambio, se propone que la asignación de créditos dentro del cerebro sigue un principio completamente diferente llamado «configuración prospectiva». En este caso, se invierte el orden convencional seguido de la propagación hacia atrás; en lugar de una modificación inicial del peso sináptico , se logran cambios en la actividad neuronal, que se modifica a lo largo de la red neuronal de modo que las neuronas puedan predecir mejor las salidas objetivo, después de lo cual los pesos sinápticos se modifican según sea necesario.

La configuración prospectiva es un principio que se ha observado en varias redes basadas en energía, como las redes de codificación predictiva y las redes de Hopfield, las cuales tuvieron éxito en describir el procesamiento de información cortical. Para respaldar esta teoría, se ha demostrado que la configuración prospectiva produce un aprendizaje eficiente y reproduce los resultados obtenidos mediante varios experimentos sobre el aprendizaje en

animales y humanos. En situaciones que comúnmente enfrentan las redes biológicas, como el aprendizaje con datos limitados o en entornos dinámicos, se ha demostrado que la configuración prospectiva da como resultado un aprendizaje más efectivo y eficiente en comparación con la propagación hacia atrás. Patrones de comportamiento bien conocidos en humanos y animales, como el condicionamiento del miedo, el aprendizaje por refuerzo y el aprendizaje sensoriomotor, también se pueden explicar a través de la configuración prospectiva.

Investigaciones anteriores, bajo el supuesto de que la retropropagación era el principio seguido por las redes de aprendizaje biológico, intentaron demostrar cómo las redes basadas en energía podían aproximarse a la retropropagación. Sin embargo, para hacerlo, las redes se configuraron de una manera que no era natural, por lo que se podía evitar que se modificara la actividad neuronal antes de la modificación del peso sináptico. Esto permitió que estas redes siguieran la secuencia de retropropagación. Sin embargo, cuando no están sometidas a tales restricciones, las mismas redes siguen una configuración prospectiva y demuestran ser superiores en eficiencia y eficacia.

Por ejemplo, es necesario que el cerebro pueda predecir la presencia de estímulos futuros en función de las sensaciones presentes; hacerlo le permite al cerebro planificar un comportamiento óptimo, lo que permite mejores respuestas ante diversos escenarios. Sin embargo, si el resultado observado no coincide con lo predicho, se deben modificar las ponderaciones en las redes para que las predicciones futuras puedan ser más precisas. La retropropagación calcula el grado de modificación del peso para minimizar el error, y esta modificación da como resultado cambios en la actividad neuronal. Por el contrario, la configuración prospectiva, como su nombre lo indica, implica que la actividad neuronal cambie de antemano para adaptarse mejor a los resultados observados y que los pesos se modifiquen más adelante. Esto está respaldado por varias observaciones de la actividad neuronal en humanos y animales, donde se muestra que proporcionar el resultado de una determinada predicción desencadena cambios inmediatos en la actividad neuronal.

El desempeño de dicho principio se evaluó mediante la cuantificación de la interferencia, que se encontró que se reducía sustancialmente, mejorando así el desempeño. Se utilizaron variantes de problemas clásicos de aprendizaje automático como forma de evaluar el rendimiento de la configuración prospectiva en comparación con la propagación hacia atrás. Específicamente, se probó en problemas que serían relevantes en escenarios a los que se enfrentaría la red neuronal biológica, como el aprendizaje en línea, el aprendizaje continuo y el aprendizaje por refuerzo. En todos estos problemas, se observó que la configuración prospectiva era superior a la alternativa. Una de las mayores ventajas de este principio es su capacidad para identificar qué pesos era necesario modificar y su capacidad para adaptarse a los cambios en el entorno pudiendo preservar el conocimiento existente; esto representó una mejora sustancial con respecto a la propagación hacia atrás, donde la sustitución de recuerdos más antiguos por información nueva a menudo conducía a interferencias catastróficas.

Conclusión

El principio proporciona una respuesta al antiguo dilema de cómo el cerebro equilibra la estabilidad y la plasticidad reduciendo la interferencia y compensando diferentes pesos para garantizar la coherencia de la producción. La configuración prospectiva probablemente funcione en conjunto con otros mecanismos para ayudar al cerebro a crear nuevas asociaciones. Este método se puede aplicar a redes de aprendizaje automático para ayudar con el rendimiento y la eficiencia. Estos descubrimientos tienen el potencial de revolucionar los métodos de aprendizaje automático y mejorar nuestra comprensión del funcionamiento y los comportamientos del cerebro.

Fuente del artículo: Documento de referencia | Artículo de referencia