¿Cuál es el estado del arte en el aprendizaje de Hebbian (aplicado tanto a la inteligencia natural como a la artificial)?

El aprendizaje hebbiano es un modelo antiguo, por lo que no hay mucho “estado del arte” allí, aunque quizás el aprendizaje anti-hebbiano sea un giro reciente.

La comprensión del aprendizaje espontáneo en sistemas mecanicistas ha avanzado mucho, con varias corrientes de investigación paralelas.

En el aprendizaje neuronal biológico, el estado de la técnica es la plasticidad dependiente del tiempo de espiga (STDP) , que es el paradigma que ahora recibe la mayor parte de la atención. E incluso el STDP se está matizando ahora, con fenómenos como el STDP inverso y el reescalado sináptico.

Para el aprendizaje a nivel del sistema neural, los tres paradigmas principales en este momento son:

  • Aprendizaje bayesiano ( por ejemplo , redes de creencias bayesianas, modelos gráficos)
  • Codificación dispersa (una forma de aprendizaje no supervisado)
  • Aprendizaje de refuerzo (especialmente aprendizaje de diferencia temporal)

En el aprendizaje automático (una rama de la inteligencia artificial), el estado de la técnica es el ” aprendizaje profundo ” y las ” redes de creencias profundas “, que son variaciones de las redes neuronales de propagación hacia atrás y las redes de creencias bayesianas (modelos gráficos) que se han extendido a formas jerárquicas. Con aprendizaje en múltiples etapas y en ocasiones combinando aspectos discriminatorios y generativos.

La famosa cita de Hebb de que las “células que se activan juntas se conectan” pone las cosas en el camino correcto, pero ahora sabemos que la realidad es mucho más compleja y matizada.

Relacionado
¿El aprendizaje profundo reduce la importancia de la ingeniería de características?
¿Pueden las redes neuronales artificiales descubrir nuevas características a medida que se entrena?
¿Cómo funcionan las redes neuronales artificiales?

El aprendizaje hebbiano es la idea de que “las células que se disparan juntas se conectan ” *. Es una vieja idea teórica, pero todavía encuentra apoyo experimental regularmente. Un vistazo rápido a google scholar mostrará esto:

https://scholar.google.com/schol

Desde la década de 1980, ha habido varias modificaciones del estricto aprendizaje del Hebbiano que añaden complejidad y flexibilidad. Éstos incluyen

  • Teoría de BCM: esto implica un umbral dinámico que separa un régimen de pesos sinápticos crecientes (LTP: potenciación a largo plazo) de un régimen de peso sináptico decreciente (LTD: depresión a largo plazo).
  • STDP (plasticidad dependiente del tiempo de espiga): esto implica un criterio temporal además de un criterio de velocidad de disparo. En otras palabras, la relación de fase entre dos neuronas determina si ocurre LTP o LTD. Se puede demostrar que existe una gran similitud entre STDP y BCM. Sin embargo, todavía hay algunas preguntas sobre el STDP como modelo general de plasticidad sináptica.

Las reglas de aprendizaje Instar y Outstar de Steve Grossberg también son ampliamente Hebbianas, y pueden usarse para varias tareas de reconocimiento de patrones y tareas de clasificación. Puedes leer sobre ellos aquí: http://www.scholarpedia.org/arti

Hay algunas reglas de aprendizaje muy interesantes que combinan los mecanismos tradicionales de Hebbian / anti-Hebbian con STDP. Me impresionó particularmente este estudio:

La tensión y la sincronización de picos interactúan en STDP: un modelo unificado

Algunos investigadores de robótica recientemente propusieron una regla de cambio de peso para el aprendizaje sensoriomotor. No lo he mirado detenidamente, pero me parece interesante.

Increíble…. Los robots aprenden el comportamiento coordinado desde cero.

La fórmula de Donald Hebb “las células que se unen se conectan” puede verse como un ejemplo temprano de una regla local tan simple que ha demostrado ser exitosa en la construcción de memorias asociativas y funciones perceptivas. Sin embargo, la ley de Hebb y sus sucesores … están restringidos a escenarios en los que el aprendizaje es impulsado de forma pasiva por un flujo de datos generado externamente. Sin embargo, desde la perspectiva de un agente autónomo, la entrada sensorial está determinada principalmente por sus propias acciones. El desafío de la autoorganización conductual requiere un nuevo tipo de aprendizaje que saque a la luz de las experiencias pasadas autogeneradas.

Este artículo introduce una regla que puede expresarse como “encadenar lo que cambia”. Esta regla tiene en cuenta la estructura temporal y establece el contacto con el mundo externo al relacionar directamente el nivel de comportamiento con la dinámica sináptica. Estas características juntas proporcionan un mecanismo para arrancar patrones de comportamiento desde cero.

Aparte de este ejemplo reciente, no me queda claro si los métodos de aprendizaje de Hebbian (o cualquier otra regla de aprendizaje biológico) se utilizan normalmente en inteligencia artificial (AI) o aprendizaje automático (ML). Normalmente, ML utiliza la propagación hacia atrás (backprop), que es muy diferente de las leyes de aprendizaje de inspiración biológica que mencioné anteriormente. En opinión de muchos neurocientíficos (incluido yo mismo), es muy poco probable que backprop sea un modelo preciso de aprendizaje neuronal real.

_____

* Por cierto, recientemente me enteré de que Carla J. Shatz fue la persona que ideó la famosa línea que resume el aprendizaje de Hebbian: “las células que se disparan se conectan juntas”.