¿En qué medida el progreso en la IA es un problema de ingeniería y en qué grado es un problema de comprensión de la inteligencia humana?

Estoy de acuerdo con Tom Gargaro en que el progreso en Inteligencia Artificial (IA) es una mezcla de ingeniería y comprensión de inteligencia humana. El enfoque que se adopte dependerá del tipo de investigación que uno esté haciendo o de las aplicaciones que esté intentando desarrollar. En algunos casos, un enfoque de ingeniería funciona realmente bien (por ejemplo, algoritmos de búsqueda / recomendación, creando mapas de entorno), mientras que en otros casos se prefiere un enfoque más inspirado en la biología (por ejemplo, comprensión de los procesos cognitivos, reconocimiento / comprensión del habla). Técnicas como las redes neuronales parecen combinar ambos enfoques: inspirados en la biología, pero abstraídos de tal manera que es útil aplicarlos en algoritmos.

El término IA puede significar diferentes cosas para diferentes personas. Para algunas personas, AI significa imitar de manera realista el comportamiento humano. Se puede encontrar un ejemplo de dicha IA en [1], donde se proporciona un modelo para el reconocimiento de palabras que muestra resultados comparables a los resultados humanos (es decir, tiempos de reacción y efectos cualitativamente comparables como la palabra efecto de superioridad [2]). Tales modelos pueden ser útiles para explicar, predecir e imitar el comportamiento humano, mientras que son menos adecuados para aplicaciones que necesitan proporcionar resultados “confiables”. Para estas personas, la comprensión de los procesos cognitivos (humanos) es el objetivo principal de la IA.
Otras personas piensan que la IA crea un comportamiento que parece inteligente, pero no es realmente importante cómo se logra este comportamiento. Aquí los resultados son más importantes que los mecanismos subyacentes. Un ejemplo de esto es el algoritmo de búsqueda de Google, PageRank [3]. Parece ser inteligente, ya que recupera resultados altamente relevantes para mis preguntas, pero el algoritmo en sí, según mi conocimiento, no se basa en procesos cognitivos ni en el comportamiento humano.

Los dos enfoques, por supuesto, pueden complementarse entre sí: las soluciones encontradas en un enfoque pueden despertar el interés de las personas que trabajan con el otro enfoque. Las redes neuronales son un ejemplo famoso, pero creo que los algoritmos evolutivos (EA) también son un gran ejemplo interesante [4]. Los algoritmos evolutivos se basan en la evolución biológica, lo que demuestra que la IA no solo se limita a la inteligencia humana, sino que también se extiende a la biología en general. Dada la enorme cantidad de problemas que se usan para resolver los EA, los EA a menudo se adaptan de tal manera que funcionan bien para el tipo de problema que intentan resolver. Estas adaptaciones pueden ser, pero no siempre tienen una inspiración biológica (por ejemplo, una mutación gaussiana). Aquí la ingeniería se hace cargo de hacer que los EA sean aún más útiles.

Para resumir: no hay una respuesta única a esta pregunta. Depende de lo que uno esté tratando de lograr y es probable que una combinación de ambos enfoques sea fructífera para avanzar en la IA.

[1] Rumelhart y McClelland (1982), un modelo de activación interactiva de los efectos de contexto en la percepción de letras: Parte 2. El efecto de mejora contextual y algunas pruebas y extensiones del modelo
[2] Efecto de superioridad de palabra: http://en.wikipedia.org/wiki/Wor…
[3] Pagerank: http://en.wikipedia.org/wiki/Pag…
[4] Algoritmos evolutivos: http://en.wikipedia.org/wiki/Evo…

Más del 90% de la investigación actual de la IA se centra en el problema de la ingeniería, aunque esto está cada vez más influenciado por las ciencias cognitivas. En realidad, la “ingeniería” es un nombre inapropiado: existe el problema de entender la inteligencia y luego el problema adicional de diseñar un sistema práctico de inteligencia artificial. Una analogía es la energía nuclear: primero necesitas entender la física nuclear, luego puedes intentar diseñar un reactor nuclear práctico.

Desde un punto de vista filosófico, creo que el problema de crear inteligencia artificial comparable a la humana no radica en lograr la perfección, sino en lograr los defectos correctos.

Para imitar la inteligencia humana, debe crear algo tan defectuoso como un ser humano, y luego hacer que la máquina sea capaz de reconocer y explorar estos defectos, y esencialmente sus propias limitaciones.

La creatividad humana es quizás la característica definitoria de nuestra inteligencia, nuestra capacidad de pensar, en torno y totalmente fuera de un problema.

La fabricación de esta creatividad será el mayor obstáculo para los arquitectos de inteligencia artificial, porque si bien puede enseñar a una máquina la forma de descubrir una respuesta a partir de una lista de posibles variables, ¿puede enseñar a una máquina a buscar en una respuesta en los lugares equivocados sin posibilidad alguna?

¿Se puede inyectar el genio del hardware de la computadora con los problemas de la condición humana?

¿Puedes escribir un programa de computadora que pueda aprender a imitar el alcoholismo, para que pueda escribir prosa como Hemmingway y poesía como Bukowski?

¿Puede enseñar a una máquina a dedicarse tan completamente a un tema, a una emoción, que puede destruir una parte de sí misma para expresar ese sentimiento, como lo hizo Van Gogh cuando se desfiguró a sí mismo?

¿Puede una máquina que no puede escuchar el sonido escribir una sinfonía como Beethoven?

La investigación en IA sin duda continuará creando más y más máquinas impresionantes que pueden aprender y pensar con velocidad astronómica, siempre y cuando perseguimos la perfección en la creación de esa IA, es decir, la inteligencia no humana.

Si el objetivo es construir una máquina que piense con creatividad humana, entonces examinar la inteligencia humana sería el lugar equivocado para comenzar.

Construya una máquina con una discapacidad, con un coeficiente intelectual de 100 pero con un virus que está ralentizando el cierre de sus funciones.

Construya una máquina programada para la anarquía, una máquina que examinará cada respuesta incorrecta para cuestionar lo que sabemos que es correcto. Construya una máquina que pueda tener su corazón roto, y luego enséñele a tocar la guitarra.

Construya algo defectuoso, y podríamos tropezar con una inteligencia artificial real. Y si lo hacemos, puedes apostar que será por accidente.