Trabajo con redes neuronales computacionales biológicas, por lo que he pasado mucho tiempo pensando en cómo aprende el cerebro a realizar tareas complejas. Si bien la investigación de redes neuronales artificiales se ha diferenciado significativamente de la neurociencia computacional, todavía tiene mucho que aprender acerca de cómo emergen las capacidades cognitivas de los sistemas neuronales. Mencionaré dos estrategias que aún no están implementadas extensivamente en sistemas artificiales:
Especialización en arquitectura de redes [1] [2] [3]
La información en el cerebro está codificada por patrones espaciotemporales de actividad. Estos patrones no están simplemente determinados por las propiedades biofísicas de las neuronas en sí, o incluso por las fortalezas de las conexiones entre ellas, sino que están determinadas en gran medida por la geometría del sistema que comprende las neuronas. Para comprender mejor esto, me gusta considerar la posibilidad de conducir de Los Vegas, Nevada a Los Ángeles, California, un domingo por la tarde: miles de autos ingresan a la gran autopista de las vegas y todo parece ir a la deriva hasta que ocurren dos cosas cerca. La frontera de California: el número de carriles se reduce a la mitad y la carretera sube a un paso de montaña más allá de Primm. Claramente, la geometría de la ruta (ancho y pendiente) es un predictor del tráfico tan poderoso como la cantidad de vehículos que atraviesan la ruta. Los patrones poderosos en el comportamiento neural se pueden entender por analogía similar; la sincronía se desarrolla a través de una cooperación oportuna de la actividad inhibidora de la retroalimentación y la retroalimentación. A pesar de nuestra comprensión incompleta de cómo la aparición de estos patrones permite que las redes neuronales biológicas realicen tareas cognitivas complejas, estamos razonablemente seguros de que estos elementos son críticos para construir modelos silico de sistemas neurales más poderosos.
- ¿Un individuo consciente con múltiples iteraciones es una paradoja?
- ¿Se podrá transferir la conciencia humana a un nuevo cuerpo o máquina (por ejemplo, un robot, un cyborg, una computadora o un avatar)? ¿Puedes transferir tu propia conciencia y memoria y dejar tu cuerpo biológico sin crear dos seres?
- ¿Debo ir a UCSD para Ciencias Cognitivas (con un menor en CS) o UC Davis para Ciencias de la Computación?
- ¿Realmente tenemos libre albedrío si todos nuestros pensamientos / sentimientos / interpretaciones / reacciones son el resultado de reacciones químicas moleculares que responden a estímulos?
- ¿Cuáles son los requisitos de admisión para ingresar al MIT para estudios de pregrado en ciencias del cerebro y cognitivas?
Estrategias de aprendizaje adaptativas [4] [5]
Hoy mismo, Fritz Sommer [6], del Centro para neurociencias teóricas de Redwood, nos habló sobre cómo el aprendizaje no es tan conspicuamente consuntivo como lo hacen los algoritmos actuales de aprendizaje automático. Observe que el bebé se mueve a lo largo de su entorno, interactuando con casi todos los juguetes; mientras que el bebé ciertamente está aprendiendo sobre su entorno, la información (y el disfrute) no se maximiza al pasar la misma cantidad de tiempo con cada objeto. Además, a medida que los humanos aprenden, tomamos conciencia de las áreas de nuestro desempeño de tareas complejas en las que podríamos mejorar. Luego podemos reenfocar nuestros esfuerzos en apuntalar nuestras debilidades, dejando solo áreas reconocidas de fortaleza relativa. La mayoría de los algoritmos de aprendizaje automático están diseñados para engullir con avidez todos los datos de manera indiscriminada. El futuro de los sistemas inteligentes será necesariamente más deliberado en la implementación de recursos computacionales para maximizar la nueva información obtenida con cada nuevo aporte al modelo que se está capacitando.
Es probable que haya muchas más áreas de “Aprendizaje profundo” que puedan progresar, y estos son solo algunos ejemplos de direcciones futuras para el estudio de sistemas inteligentes.
Notas al pie
[1] Principios de neurocomputación para la ciencia y la ingeniería.
[2] La optimización de la arquitectura de la red neuronal mediante la programación genética mejora la detección y el modelado de interacciones gen-gen en estudios de humandiseas
[3] http://ieeexplore.ieee.org/abstr…
[4] [1606.03474] Sobre el control de la degeneración en ICA sobrecargada
[5] Plasticidad estructural, conectividad efectiva y memoria en Cortex
[6] Fritz Sommer – RedwoodCenter