Me imagino que casi todos los investigadores de aprendizaje automático tienen al menos un interés pasajero en la inteligencia artificial fuerte. Sin embargo, es difícil medir el progreso hacia una IA fuerte cuando el objetivo es binario; probablemente será fácil saber cuándo se ha logrado la inteligencia artificial a nivel humano, y será difícil medir el progreso incremental a lo largo del camino.
Hay algunos subcampos que piensan ampliamente sobre la inteligencia general artificial, e incluso algunas conferencias dedicadas al campo.
- Inteligencia General Artificial (AGI), http://agi-conf.org/2011/
- Arquitecturas cognitivas de inspiración biológica (BICA), http://bicasociety.org/2011/
Parte del problema es la semántica; Consideraría a Jeff Hawkins como un investigador de aprendizaje automático que está trabajando activamente en una inteligencia artificial fuerte, pero otros podrían no considerar que se superponga mucho con el campo del aprendizaje estadístico estadístico contemporáneo.
Investigadores de aprendizaje automático como Andrew Barto, Richard Sutton y Satinder Singh se acercan a la inteligencia artificial de otra manera; apuntando a la inteligencia a nivel animal como un requisito previo necesario para la inteligencia a nivel humano.
- ¿Cuál es la técnica de meditación más acreditada científicamente?
- ¿Cuál es el objetivo principal de la Iniciativa de Inteligencia MIT?
- ¿Cómo decido entre la psicología matemática, la ciencia cognitiva y la neurociencia computacional?
- ¿Existe tal cosa como tener una memoria pobre pero que aún pueda resolver problemas bien?
- ¿Qué consejo le darías a un ingeniero informático que quiera ir a la escuela de posgrado para estudiar ciencias cognitivas?
Otros investigadores como Nick Cassimatis, Pat Langley [1], Marvin Minsky [2] y John Laird (comúnmente etiquetados como científicos cognitivos) apuntan a arquitecturas cognitivas que están restringidas de la misma manera que la mente humana. No necesariamente se etiquetarían como investigadores de aprendizaje automático estadístico, pero históricamente se han publicado en puntos de venta de aprendizaje automático.
Para ser franco: la IA fuerte es un poco como un pararrayos. El entusiasmo por los grandes logros de la IA es casi universal en todo el campo; Un buen ejemplo reciente es la recepción del desempeño de Watson de IBM Research. La gente quiere presenciar el progreso en el campo, pero sería increíblemente arriesgado dedicar un programa de investigación únicamente para lograr una inteligencia artificial sólida. Hay un problema de credibilidad muy real y práctico: si dices que estás trabajando en una inteligencia artificial sólida, ¿cómo evaluarías el progreso? ¿Cómo evaluarías el éxito en el camino?
Muchos de estos nombres pueden parecer bastante complicados, ya que estoy tratando de ser inclusivo. La respuesta que algunos colegas dieron durante el almuerzo fue “el conjunto nulo”.
[1] Pat Langley es el editor fundador y ejecutivo de Machine Learning y, sin embargo, puede que no esté catalogado como un investigador de aprendizaje estadístico estadístico contemporáneo. Es un buen ejemplo de lo mucho que la comunidad de aprendizaje automático ha cambiado de rumbo en las últimas décadas.
[2] Marvin Minsky, en particular, ha publicado casi en todas partes , por supuesto, y no solo en puntos de aprendizaje automático.