¿Hay alguna razón para suponer que la arquitectura neuronal del cerebro (la que da lugar a la conciencia) no se puede concebir para que se organice de manera más eficiente, en términos generales?

La respuesta corta es, “sí y no”. Los animales cuyos nichos ecológicos han cambiado muy poco en los últimos 100 millones de años (por ejemplo, hormigas, cucarachas, etc.) se han vuelto extremadamente eficientes para reconocer y responder a estímulos familiares, a veces tan eficientes que no se adaptan a los cambiando el mundo, y terminamos comportándonos de maneras que nos parecen estúpidas, como cuando las polillas vuelan en llamas abiertas.

Sin embargo, eso no significa que los sistemas nerviosos de estos animales sean en realidad más rápidos que los nuestros. Incluso los invertebrados más inteligentes (como los pulpos) carecen de la proteína neuronal aislante llamada mielina , que permite que las señales nerviosas de los vertebrados viajen aproximadamente quince veces más rápido que las de los sistemas nerviosos de invertebrados. Aquí hay una página con más detalles sobre eso: Mayor velocidad de conducción como resultado de la mielinización.


Ahora, para el otro aspecto de su pregunta: ¿Es teóricamente posible diseñar una versión más eficiente del cerebro humano ?

Este aspecto de la pregunta toca una diferencia crucial entre la evolución y la ingeniería: la evolución no tiene sentido (excepto en la medida en que está “dirigida” por la selección natural), mientras que la ingeniería está orientada hacia los objetivos . La evolución coopta o esencialmente “copia y pega” las estructuras existentes si cumplen funciones adicionales razonablemente bien, luego las refina, mientras que los ingenieros humanos diseñan sus dispositivos desde el principio para realizar tareas específicas de la manera más eficiente posible.

Tome, por ejemplo, una parte relativamente simple de su cerebro: sus ojos (sí, sus ojos se consideran parte de su cerebro). Desde una perspectiva de ingeniería, el cableado en tus ojos es bastante ineficiente. Usted tiene puntos ciegos porque su nervio óptico sale de la retina, luego se curva hacia la retina y hacia el tálamo de su cerebro, en lugar de correr desde la parte posterior de la retina directamente hacia el tálamo, como lo haría un ingeniero humano. diseñar el sistema Aquí hay un artículo con más información: Evolución del ojo.


Esto plantea una pregunta obvia: ¿por qué nuestros nervios ópticos no han evolucionado para ser conectados de manera más eficiente?

Una parte de la respuesta es que la selección natural no puede simplemente limpiar la pizarra y rediseñar su sistema visual desde cero. El cableado entre las células de la retina y el nervio óptico es muy complejo e interdependiente, y la mayoría de las mutaciones aleatorias que afectan ese cableado conducirían a configuraciones visuales que no funcionaron correctamente, por cualquiera de las miles de razones microscópicas. (Lo que es más, tales mutaciones genéticas también conducirían a una variedad impredecible de otros cambios en todo el cuerpo, muchos de ellos inútiles en el mejor de los casos, o simplemente dañinos en el peor de los casos).

Pero otra parte de la respuesta, la parte más importante, en relación con esta pregunta en particular, es que existe un equilibrio evolutivo entre la eficiencia y la solidez (la capacidad de permanecer relativamente estable frente al cambio). Los sistemas extremadamente eficientes tienden a ser frágiles (lo opuesto a los robustos) porque, como esas polillas kamikaze que mencioné anteriormente, ¡en realidad son demasiado buenos en su trabajo para dar un paso atrás y adaptarse!

Por esta razón, la selección natural ha creado un alto grado de redundancia en el sistema nervioso humano: muchas áreas diferentes del cerebro, a través de diferentes escalas, cooperan para lograr una tarea tan simple como (por ejemplo) reconocer una cara. Si una parte del sistema se descompone, es posible que tenga problemas para reconocer de quién es la cara; mientras que si otra parte del sistema falla, es posible que no puedas ver la cara, pero aún así podrás verla en el ojo de tu mente cuando escuches una descripción verbal … y así sucesivamente. Esta robustez permite que los cerebros humanos se adapten a una amplia variedad de entornos y estilos de vida, desde buscar en la selva hasta cazar alces en la tundra hasta colonizar el espacio exterior.

Además de toda esa adaptabilidad, su cerebro recorta activamente las neuronas y las sinapsis subutilizadas en el transcurso de su vida, haciéndose cada vez más eficiente en hacer cualquier tipo de cosas que haga regularmente, a menudo a expensas de la capacidad de adaptación. . Por eso hay un dicho que dice: “No puedes enseñarle nuevos trucos a un perro viejo”. Los perros viejos pueden aprender algunos trucos nuevos, por supuesto; pero no tan fácilmente como los perros jóvenes cuyos cerebros siguen siendo más versátiles (y menos eficientes) pueden.

Por lo tanto, aunque su sistema nervioso no es el sistema más eficiente que se pueda imaginar en términos de velocidad de procesamiento total, es mucho más sólido que cualquier otro sistema informático existente en la actualidad. Este ” problema de fragilidad “, como se le llama comúnmente, ha sido un gran desafío para los investigadores de la IA; y sigue frustrando a muchos de ellos incluso hoy. Es la razón por la que las computadoras pueden vencer a los grandes maestros humanos en el ajedrez, pero no pueden reconocer de manera confiable una taza de café, mucho menos un rostro humano, si se les muestra en un ángulo inesperado, o en medio de un movimiento. El reconocimiento de voz computarizado también tiende a decepcionar, o ser sin gracia hilarante, por la misma razón. Aquí hay una página de Wikipedia con más información: software fragilidad

En resumen, si queremos construir un cerebro más eficiente, primero tendremos que resolver el problema de fragilidad (o en el camino). Esto no está fuera de discusión en el próximo siglo, pero la historia también muestra que las ambiciosas predicciones de AI tienen una forma de demorar más de lo esperado: http://lesswrong.com/lw/e36/ai_t…