¿Cómo se puede mejorar la inteligencia artificial para aprender abstracciones?

La palabra abstracción en la pregunta no es lo que quieres decir. Quieres decir generalización, una idea diferente. Las clases en programación orientada a objetos son ejemplos de generalización, pero son hechas por el programador. Eso significa agrupar objetos o ideas similares en un concepto o clase. Sin duda las redes neuronales pueden hacer eso, pero no sabremos cómo sucede.

Si por abstracción te refieres a la palabra griega gnosis, entonces es imposible. La palabra abstracción a menudo significa eso. Por ejemplo:

Arte abstracto

Belleza abstracta

Conocimiento abstracto

Libertad abstracta

El significado de esos términos nunca puede ser fijado a una definición específica. Habrá instancias de abstracción más allá de cualquier definición, quizás incluso infinitamente largas. Pero los humanos usan esas abstracciones todos los días, es una parte regular de nuestra experiencia, tal vez la cualidad definitoria de los humanos. Tal vez una computadora pueda aprender un conjunto cada vez más amplio de abstracciones, más y más ejemplos de arte abstracto, por ejemplo. Pero siempre se perderá la gran idea.

Creo que las tres respuestas anteriores a la mía son excelentes. Solo agregaré esto: para comprender la abstracción, usted (o en este caso, el AGI) debe poder hacer una primera abstracción. Este requisito puede no ser absoluto, pero hace que el reconocimiento de patrones sea mucho más fácil.
Tomemos el concepto del humor sarcástico. Sin humor, el sarcasmo es simplemente un método para menospreciar a alguien. Con el humor puede ser un ingenio genuino que es el resultado de un intelecto mucho más refinado donde la intención está en el humor, en lugar del corte. En este caso, se requiere una buena comprensión del humor y la necesidad de equilibrio con una inflexión matizada. De lo contrario es un insulto a la fuerza bruta.
Por lo tanto, la abstracción puede ser simple o compleja, y la capacidad de comprender la combinación y el equilibrio de conceptos dispares es la cantidad de abstracciones que se crean. El uso más común es en símiles, metáforas y alegorías. Estos también son buenos casos de prueba para la abstracción creada, aunque claramente no son los únicos que consideran cómo se utilizan las abstracciones en el ámbito del pensamiento sensible, incluso si se trata de una IA (lo que no es necesario pero se requiere para un verdadero AGI).

Lea el trabajo de Ryszard Michalski sobre la inferencia de múltiples estrategias, la teoría inferencial del aprendizaje y las jerarquías dinámicas entrelazadas. Entonces echa un vistazo a mi trabajo sobre proposiciones neuronales. La planificación de la abstracción también es un buen tema a considerar en el campo.

La mejor de las suertes.

Se puede argumentar que las computadoras ya están comenzando a mostrar abstracción en tareas muy específicas y meticulosamente entrenadas. Esto está ocurriendo a través de un campo emergente de Aprendizaje Automático / AI conocido como Aprendizaje Profundo y Redes Neuronales.

Como antiguo jugador de Magic: the Gathering, aquí está uno de mis ejemplos favoritos de AI que muestra abstracción:

http://www.escapistmagazine.com/

La formación de una verdadera abstracción requiere la construcción de modelos (dinámica). No puedes abstraer simplemente aprendiendo a reconocer patrones. Debe haber un profundo significado detrás de lo abstracto. Este es mi argumento en contra del aprendizaje automático actual en el que se promociona como una tecnología mágica, y en contra de aquellos que dicen que el aprendizaje sin modelos es la verdadera forma correcta de dar sentido a los conjuntos de datos.
Para poder construir un modelo, sin embargo. generalmente requiere formar hipótesis, probarlas y luego crear un conjunto cohesivo de objetos, acciones, relaciones y varias propiedades de todos estos que juntos forman el modelo. Esto generalmente requiere capacidad de razonamiento y algún tipo de caja de arena para moldear la arena de datos. La teoría actual de ANN no cubre eso. Y la formación de un modelo puede requerir un sistema que sea capaz de diseñar, algo que la teoría de ANN sobre arquitecturas no maneja en absoluto.
Hay muchos que han dejado de lado la idea de la computación simbólica, pero creo firmemente que la inteligencia artificial decente tendrá que volver a la simbólica y fusionarla con el aprendizaje estadístico y metodologías de computación adicionales aún por desarrollar. Hablo desde el punto de vista de trabajar en eso, y en los próximos años planeo implementar mi paradigma arquitectónico DRAK que apoya esto.