Según mi conocimiento, no hay principios o axiomas generales de campo de batalla que rijan la inteligencia artificial, o inteligencia natural, con los cuales hacer inferencias sobre varios tipos de lo que se considera que son conductas inteligentes.
En su lugar, lo que hay es un conjunto de modelos probabilísticos que se generalizan en función de las experiencias a diferentes grados de satisfacción en diferentes condiciones. Por ejemplo, los enfoques del estado de la técnica para el reconocimiento de voz, la traducción automática, el reconocimiento de objetos, etc., se basan en un conjunto de arquitecturas de redes neuronales muy interrelacionadas. Un tema posiblemente unificador en estos esquemas de aprendizaje es la propagación hacia atrás, que se utiliza para optimizar la función objetivo predefinida en todos estos esquemas. Como técnica de optimización, la propagación hacia atrás no es irremplazable, ya que existen otras técnicas de optimización responsables de los modelos bien aprendidos.
Sin embargo, sostengo que existe un enfoque minimalista para formular AI o cualquier otro comportamiento inteligente que exista, porque la inteligencia surge en el mundo físico y las leyes de la física son un conjunto de axiomas bien establecidos basados en experimentos. El profesor de la UW Pedro Domingos promulgó la idea de “el algoritmo maestro” que unifica lo que él llamó cinco tribus en la IA [1], a saber, 1. deducción inversa, 2. propagación hacia atrás, 3. programación genética, 4. inferencia probabilística y 5. máquinas del núcleo , en un esfuerzo por llegar a un algoritmo que los gobierne a todos. El profesor de Stanford, David Tse, también propuso recientemente el principio de máxima entropía condicional [2], que es un marco natural que encapsula todo el aprendizaje supervisado. Google también tiene un contenedor llamado “un modelo para aprenderlos todos” [3] para todos sus modelos de aprendizaje de máquinas neuronales con la efectividad de la transferencia de aprendizaje, en un intento por unificar todos los paradigmas y trucos de aprendizaje que Google ha encontrado efectivos en la práctica. Ahí vas. A pesar de que la inteligencia sigue siendo posiblemente más que todos aquellos, incluido el aprendizaje no supervisado y el aprendizaje por refuerzo menos estudiados, algunas personas creen en un primer enfoque de la inteligencia y están trabajando en eso.
Notas al pie
- ¿Construiremos alguna vez una computadora que pueda igualar la eficiencia computacional del cerebro humano (fallas / vatios)?
- ¿Por qué es importante la ciencia cognitiva en la informática?
- Neurociencia cognitiva: cuando ‘hablamos en voz alta para nosotros mismos’, ¿es eso realmente un lóbulo del cerebro hablando con el otro?
- Mejora cognitiva: ¿Funciona el software de mejora de memoria?
- ¿Podría la neurociencia actual respaldar la tesis de Julian Jaynes de que la conciencia evolucionó a partir de la ruptura de una mente que funciona bicameralmente?
[1] https://learning.acm.org/webinar…
[2] http://papers.nips.cc/paper/6247…
[3] [1706.05137] Un modelo para aprenderlos todos