Cuando hablas de temas “mentales” te refieres a que la IA tiene algún tipo de emociones como si pudieran sentir emociones.
Tomemos un ejemplo del problema de Trolley. Y si te dijera que tienes las siguientes opciones:
- No hacer nada, el carro mata a 5 personas. Dejando 2 heridos.
- Activa el interruptor, matando a 2 personas. Dejando 5 heridos.
cual elegirías?
Si lo pensáramos lógicamente, tiene mucho más sentido matar a 2 personas y dejar a 5 lesionados porque la proporción de cuántos sobrevivieron sería mucho mayor que las muertes. Pero, ¿y si te lo dijera, uno de tus hermanos más cercanos está en uno de estos grupos de personas y no puedes saber cuál?
- ¿Cómo se estableció el índice de heredabilidad del 80 por ciento de inteligencia?
- ¿Cómo afectan el síndrome de Asperger y Savant a las personas?
- ¿Alguna vez has experimentado la muerte del ego? ¿Te cambió la experiencia? ¿Cómo?
- ¿Cómo afecta el cannabis al cerebro de un psicópata?
- ¿Cuáles son los aspectos negativos de ciertas culturas que hacen hincapié en evitar dañar los sentimientos de alguien?
Al ser de naturaleza humana, no podemos decidir si una vida tiene más peso que la otra. Como resultado, cuando nos enfrentamos a una pregunta como esta, generalmente la evitaremos porque tratamos todas las vidas como algo igualmente importante para los demás. Nos emocionamos una vez que nos damos cuenta de que la vida de alguien cercano depende de nuestra decisión.
Por lo tanto, nuestra respuesta probablemente sería: No sé.
Sin querer, nos negamos a elegir la respuesta proporcionada y en su lugar hicimos nuestra tercera opción. Porque nuestras emociones contradicen el comportamiento lógico .
Presente esta pregunta a una máquina capaz de inteligencia. Una máquina es una entidad muy estable por sí misma: puede alimentar centros de datos 24/7 sin cansancio. Puede realizar un millón de ciclos de cálculo sin sentirse cansado o aburrido. ¿Cuál crees que escogerá?
Respuesta: Escogerá el resultado más lógico dependiendo de cómo esté programado .
Al final del día, las máquinas y las IA se basan en 1 y 0 . Tendrá que definir explícitamente cuál de los dos acepta. O proporcione un marco que lo ayude a decidir cuál escoger. Una máquina no simplemente se descompone y llora, y de repente “siente” la emoción porque puede. Pero nosotros, como programadores, podemos programar emociones en ellas para hacerlas replicar emociones humanas.
Sin embargo, replicar emociones no es lo mismo que sentirlas .
Existe un experimento mental llamado sala china que dice que “solo porque una computadora pueda dar todas las respuestas correctas para cada pregunta legítima no significa necesariamente que realmente entienda el contexto de lo que se está preguntando”. También hay un video de YouTube que lo explica muy bien, que lo vincularé más adelante.
Una IA puede mostrar signos de tener emociones como tristeza, miedo, ira, felicidad, etc. Pero solo porque pueda mostrar emociones no significa necesariamente que realmente sienta esas emociones.
Tiene emociones porque lo programamos.
Y si las emociones resultan en problemas mentales en una IA, es porque también programamos esas repercusiones.