¿Se están centrando los investigadores de la IA en los aspectos equivocados? Si es así, ¿en qué deberían centrarse en lugar de, por ejemplo, las ANN?

Muy buena pregunta para un noobie. Tengo la misma sensación desde que me familiaricé con las ANN hace unos 20 años.

Primero, para dejarlo claro, solo soy un aficionado (en el mejor de los casos), así que llévame con una reserva (una grande). Sin embargo, mi opinión es que lo que la gente llama ANN, ML, AI … para mí es solo álgebra no lineal y estadísticas aplicadas, nada más. No hay inteligencia alguna. Al menos no puedo verlo.

¿Qué es un problema? Cuando miro a mi alrededor puedo ver que todos los sistemas biológicos inteligentes se basan en un concepto de supervivencia en su núcleo. Tienen una vida, tienen una salud. No solo necesitan ser alimentados con una información, sino que también deben ser alimentados con un alimento, nada de lo que les importaría a los modelos ANN estándar. Están vivos de forma gratuita.

En segundo lugar, lo primero que aprenden todos los sistemas biológicos es evaluar sus propios estados internos. No comienzan aprendiendo patrones “sin sentido” que provienen de un mundo externo desconocido (como se hace en los ciclos de entrenamiento típicos de ANN / ML). En los sistemas biológicos inteligentes, las abstracciones de sus estados internos son recordadas como lo primero. Incluso me atrevo a llamar a estos como ” marcadores somáticos ” (saludos, Sr. Damasio!) :-). Y estos marcadores somáticos son el alfabeto de nivel más bajo y la base de referencia para todo lo que sigue. Más que eso. En el contexto del sistema, estos puntos de referencia ya tienen un valor subjetivo semántico. ¿Podemos llamarlo sentimientos?

… Solo entonces el sistema está realmente listo para aprender (inicialmente) patrones sin sentido que provienen del mundo externo de la manera que llamaría inteligente.

Así que de vuelta a la pregunta original. Creo que la investigación de IA no puede ver el bosque por los árboles. Está demasiado centrado en los aspectos técnicos, pero carece de una perspectiva sobre aspectos como la supervivencia, la subjetividad, los sentimientos, la conciencia … Por ahora, la inteligencia artificial es simplemente artificial y no inteligente.

Hay una gran brecha entre ANNs y AGI. Los ANN son una parte muy pequeña del rompecabezas de la inteligencia.

ANN no puede llevar a AGI más de lo que la inteligencia en humanos se puede reducir al nivel bajo de detalles de percepción y recuerdo. Supongamos que tomaste a un humano y pudiste eliminar todo lo que no está relacionado funcionalmente con la percepción. ¿Sería eso inteligente?

La investigación actual de ANN se centra en los mecanismos que hacen el reconocimiento y clasificación de patrones. Realmente hay muy poca “inteligencia” involucrada. El hecho de que las ANNs aparentemente pueden producir un comportamiento inteligente resulta de su capacidad para recuperar patrones de grandes conjuntos de datos, que fueron producidos originalmente por la inteligencia humana, ¿verdad? Así que ahí es donde está la inteligencia, en los creadores de patrones, no en las ANN.

Para avanzar hacia AGI se requerirá mucho más. Para lograr esto, los investigadores deberán incluir equivalentes de máquinas de capacidades de nivel superior. La literatura sobre robótica, conciencia artificial, “mentes” artificiales, ética de la máquina (etc.) son una pista de estos requisitos funcionales para la inteligencia. La investigación de ANN en general no está interesada en absoluto en este nivel de funcionamiento, y continúa centrándose en el reconocimiento de patrones. Esto no quiere decir que las ANN no puedan ser parte de los sistemas de AGI futuros (sin duda lo harán), pero la estructura de AGI no se limitará ni se implementará únicamente utilizando las tecnologías de ANN.

El concepto de “aprendizaje profundo” es un indicio de que las AN tendrán que ser parte de sistemas mucho más en capas. Los ANN son en la actualidad principalmente reconocedores de patrones de un solo propósito de un disparo. Superar estas limitaciones y mejorar las capacidades de ANN implica varios desafíos:

  • Representación e inferencia estadística / lógica híbrida.
  • Actualizaciones incrementales eficientes.
  • Federación de representación del conocimiento dentro de las redes de agentes.
  • Aprendizaje a lo largo de la vida: máquinas que continúan actualizando progresivamente su “conocimiento” a lo largo del tiempo.
  • Autoconciencia: aprendizaje que incluye un modelo propio del agente en relación con todo lo demás.
  • Aprendizaje incorporado: aprender de la interacción con el entorno.

Pienso que el progreso que se está logrando está creando los tipos de inteligencia que son, por analogía con los nuestros, subconscientes solamente, que en realidad es la mayor parte de nuestra inteligencia. Crear “entidades” es un paradigma que la mayoría de los investigadores parecen imaginar es solo un momento mágico de complejidad. Creo que el gran avance se producirá cuando se den cuenta de que la conciencia es ridículamente simple en la base, no compleja. El campo consciente se procesa a aproximadamente 60 bits por segundo, de los 400 mil millones de bits por segundo estimados por el cerebro humano. Esto nos está diciendo algo. Por eso me gusta la teoría del marco pasivo; Encaja mejor con la realidad experimentada.

Para simular un marco pasivo para comparación que utiliza entradas de elección (dilema) que la “máquina de abajo” considera necesarias, y también proporciona las palancas para realizar funciones simples y promulgar los resultados, es donde, en mi opinión, el paradigma debe moverse hacia .

Hemos exaltado la parte consciente mucho más allá de sus funcionalidades reales, que no son tan estupendas. La función “ego” que ejecuta su bucle inane perpetuo en el sistema es sin duda la culpable de esto, pero también es probablemente un mecanismo adecuado para el crecimiento dirigido. La naturaleza ilusoria de la elección consciente y el control en muchos niveles es tal vez el truco del cerebro que permite al ego funcionar tan bien e ignorar y bloquear cualquier entrada que demuestre su verdadero papel secundario. Obviamente, la alta utilidad de la función del yo neural es desde una perspectiva de supervivencia, el oro para el crecimiento y desarrollo adaptativo. Entonces construimos un ego simulado con sus limitaciones reales.

Como señaló Dalibor, es necesario que haya un ciclo de recompensa basado en algo similar al valor de supervivencia, y creo que también es un pequeño y engañoso gremlin de dudosa existencia y un valor real insignificante para entusiasmarse con los pequeños problemas que está resolviendo utilizando herramientas que no crea ni entiende, y se alimenta del equivalente a un “alto” computacional cuando devuelve sus resultados para que los ejecute la verdaderamente poderosa máquina autónoma a continuación.

Claramente soy un poco misantrópico….

Integración de métodos y los requisitos últimos para un sistema AGI. ¿Qué debería hacer? Olvídate de cómo debería hacerlo. Solo consigue los requisitos correctos primero. Luego elige los métodos apropiados. Así es como normalmente construimos software.

tienes razón. Muchos son divergentes y no están seguros. en parte porque ann requiere una validación cruzada completa. Por lo tanto, es una mala solución para agi. Deje que estos pollos hagan ruido en las revistas y en el mercado, usando paradigmas de investigación muy antiguos desde 1950 hasta 1990. Más tarde entenderán que es una manera incorrecta. aclamaciones

El problema con las cosas no descubiertas es que no se han descubierto.

Si tienes alguna idea de lo que puede ser, todos somos oídos.