¿Cómo es útil la distribución de Tracy-Widom en neurociencia?

Esa es una pregunta muy provocativa. La sincronización neuronal es una característica definitoria de la operación del cerebro, por lo que las transiciones de fase son ubicuas. Una mejor comprensión de las transiciones dinámicas también sería importante para comprender trastornos como la epilepsia y la enfermedad de Parkinson.

(Ahora que lo pienso, las transiciones de fase y la cohesión de fase deben estar involucradas en la fisiología del corazón e incluso a nivel celular, o incluso la hendidura sináptica, donde la población de biomoléculas e iones experimenta transiciones dinámicas. El agua en sí misma tiene comportamientos de transición inusuales , moléculas que pasan de un estado coordinado a un estado donde las moléculas actúan de manera más autónoma.)

El modelo clásico de arrastre en poblaciones de osciladores acoplados es el modelo de Kuramoto.
http://en.m.wikipedia.org/wiki/K…

Y.Kuramoto, “Autoentrenamiento de una población de osciladores no lineales acoplados”, Int.Symposium sobre Problemas Matemáticos en Física Teórica, ser. Notas de la Conferencia en Física, H.Araki, Ed. SpringerVerlag, 1975, vol.39, pp.420–422.

La universalidad ha sido investigada en relación con el modelo KS.
http://www.ncbi.nlm.nih.gov/m/pu…
por ejemplo.

Se pone un poco confuso hablar de la fase en este tema. Fase puede significar el estado termodinámico, pero en mecánica el espacio de fase es diferente, es una representación especializada de las variables dinámicas.

El modelo de Kuramoto es la mecánica clásica, pero podría ser interesante aprender cómo los acoplamientos cuánticos pueden ingresar a la imagen, especialmente el comportamiento de la escala. El acoplamiento giratorio es un área muy estudiada en física también.

Los estados de ondas cerebrales podrían ser otro lugar para buscar dinámicas de transición.

La conjetura es que el aprendizaje ocurre en el punto crítico de una transición de fase (ver: Modelo de Sandpile). Aquí está mi conjetura salvaje. La distribución de Tracy-Widom parece universal en el contexto de matrices aleatorias. Estas matrices son matrices de covarianza y la distribución de Tracy-Widom muestra que los valores propios más grandes alcanzarán su punto máximo alrededor de [math] \ sqrt {2n} [/ math] La capacitación en Aprendizaje Profundo también se ha demostrado para lograr el aprendizaje cuando la distribución de los valores en Sus pesos son de alta entropía. Así que mi conjetura es que el aprendizaje sucede en la transición de fase de un sistema de baja correlación a algo que está altamente correlacionado. Aprender nuevas transiciones de conceptos al sistema no correlacionado y luego volver a la transición de fase. No he revisado los cálculos, pero esa es mi intuición en cuanto a cómo funciona.

Leí ese artículo y es definitivamente intrigante.

Nunca he encontrado la distribución de Tracy-Widom en neurociencia. Revisé en google scholar y solo encontré lo siguiente:

Detección de ensamblajes celulares en grandes poblaciones neuronales.

Me imagino que será útil en ciertos tipos de análisis de datos. Pero, por lo que sé, esta distribución no se ha vuelto “de moda” en neurociencia.