¿Es posible entrenar una ANN para imitar el razonamiento o algún otro fenómeno cognitivo?

No creo que una ANN sea suficiente para demostrar los fenómenos cognitivos. La razón es que es solo una parte del proceso de control más fundamental: realiza una clasificación que es similar a la decodificación. También es compatible con modelos basados ​​en estado, pero rara vez los ANN se acoplan a acciones. ANN es un componente arquitectónico base. Nuestros NN: no son “programados” por una persona mediante el muestreo de un entorno consistente y persistente a través de sensores. Un texto de mapeo ANN (o cualquier tipo de dirección) a una forma simbólica (presentada por un programador) no funciona como una arquitectura de control, por lo que no espere algo tan milagroso como ver una imagen, reconocer los estados como colores y la conciencia para emerger. eso.

Si, por mímico, estás contento con la palabra gato que se emite cuando se enseñan varias imágenes de un gato. Entonces sí, eso es clasificación y lo hará razonablemente (siempre que normalice el conjunto de entrada, es decir, haga que las direcciones tengan las mismas dimensiones (longitud y dirección)).

Depende de cuán amplia sea tu definición de los fenómenos cognitivos. Técnicamente las AN ya imitan fenómenos cognitivos.

Creo que también pueden imitar el razonamiento. La cuestión es que el razonamiento es un término muy cargado, por lo que tendría que definirlo muy claramente para obtener una respuesta clara.

Llamaría mucho a lo que se está haciendo con tensorflow en este momento como una forma de razonamiento, pero la gente podría estar en desacuerdo.