Si la IA se convirtiera en una realidad para todas las computadoras, ¿los profesionales de TI también necesitarían un título en psicología?

Cuando hablas de temas “mentales” te refieres a que la IA tiene algún tipo de emociones como si pudieran sentir emociones.

Tomemos un ejemplo del problema de Trolley. Y si te dijera que tienes las siguientes opciones:

  1. No hacer nada, el carro mata a 5 personas. Dejando 2 heridos.
  2. Activa el interruptor, matando a 2 personas. Dejando 5 heridos.

cual elegirías?

Si lo pensáramos lógicamente, tiene mucho más sentido matar a 2 personas y dejar a 5 lesionados porque la proporción de cuántos sobrevivieron sería mucho mayor que las muertes. Pero, ¿y si te lo dijera, uno de tus hermanos más cercanos está en uno de estos grupos de personas y no puedes saber cuál?

Al ser de naturaleza humana, no podemos decidir si una vida tiene más peso que la otra. Como resultado, cuando nos enfrentamos a una pregunta como esta, generalmente la evitaremos porque tratamos todas las vidas como algo igualmente importante para los demás. Nos emocionamos una vez que nos damos cuenta de que la vida de alguien cercano depende de nuestra decisión.

Por lo tanto, nuestra respuesta probablemente sería: No sé.

Sin querer, nos negamos a elegir la respuesta proporcionada y en su lugar hicimos nuestra tercera opción. Porque nuestras emociones contradicen el comportamiento lógico .

Presente esta pregunta a una máquina capaz de inteligencia. Una máquina es una entidad muy estable por sí misma: puede alimentar centros de datos 24/7 sin cansancio. Puede realizar un millón de ciclos de cálculo sin sentirse cansado o aburrido. ¿Cuál crees que escogerá?

Respuesta: Escogerá el resultado más lógico dependiendo de cómo esté programado .

Al final del día, las máquinas y las IA se basan en 1 y 0 . Tendrá que definir explícitamente cuál de los dos acepta. O proporcione un marco que lo ayude a decidir cuál escoger. Una máquina no simplemente se descompone y llora, y de repente “siente” la emoción porque puede. Pero nosotros, como programadores, podemos programar emociones en ellas para hacerlas replicar emociones humanas.

Sin embargo, replicar emociones no es lo mismo que sentirlas .

Existe un experimento mental llamado sala china que dice que “solo porque una computadora pueda dar todas las respuestas correctas para cada pregunta legítima no significa necesariamente que realmente entienda el contexto de lo que se está preguntando”. También hay un video de YouTube que lo explica muy bien, que lo vincularé más adelante.

Una IA puede mostrar signos de tener emociones como tristeza, miedo, ira, felicidad, etc. Pero solo porque pueda mostrar emociones no significa necesariamente que realmente sienta esas emociones.

Tiene emociones porque lo programamos.

Y si las emociones resultan en problemas mentales en una IA, es porque también programamos esas repercusiones.

No, porque es casi seguro que las primeras IAs realmente inteligentes del mundo no se basarán en el cerebro humano. Sería una idea terrible inyectar todos los sesgos y los deseos más oscuros de una especie históricamente conocida por actos horribles en una máquina inteligente. Probablemente el conocimiento general de aprendizaje automático será mucho más relevante para diagnosticarlo.

Supongo que te refieres a AGI, inteligencia general artificial.

Tendremos psicólogos de la IA también, la IA está ayudando a otros AI. Lo tendrán mucho más fácil, porque sus sujetos no son cajas negras.

Entonces todos nosotros, simples humanos, estaremos desempleados, a menos que decidamos trabajar. Así que no hay más profesionales de TI también. No los humanos.

La psicología humana probablemente no se aplicaría a la IA.

Además, el tipo de IA que pondría en una computadora personal no sería un sistema cerrado. En lugar de darle terapia, simplemente editaría su memoria directamente y modificaría algunas variables.