Similar a cómo los humanos pueden volverse locos, ¿puede una máquina sensible volverse loca?

Has enturbiado un poco las aguas con la aclaración de que esta es una máquina inteligente. Sentiencia denota la capacidad de sentir o percibir sentimientos e implica algo que sería en gran medida indistinguible de cualquier otra cosa viva e inteligente. Como criaturas de orden superior, nuestra capacidad para procesar eventos es asombrosa pero con límites. Reflexionemos sobre lo que sabemos sobre la IA hoy y proyectemos la noción de sensibilidad en esas posibilidades:

Las computadoras cuánticas tienen la probabilidad de que la IA futura resuelva los problemas de manera no determinista, similar a cómo funcionamos cognitivamente pero con mucha mayor velocidad y precisión. No estoy seguro de si nosotros, esa es la humanidad, encontraríamos alguna vez una aplicación práctica para una IA que fuera capaz de sentir, además de tratar de crear un modelo funcional de la mente humana para los propósitos de la psicología experimental o estudios para el desarrollo de Patología neurológica. Si lo hiciéramos, esta sería una inteligencia artificial que sería sensible, y como sigue el modelo de la mente humana, completamente capaz de ser sometida a los mismos patrones de problemas de salud mental que enfrentamos.

La otra posibilidad, y esta es la que creo que está indicando en su pregunta, es la idea de una IA no encadenada unida a una plataforma móvil, que se ha desarrollado de manera involuntaria. Ahora, este es un objeto de ciencia ficción. Incluso la IA que ha sido programada para aprender solo aprenderá usando los algoritmos con los que fue codificada. Esto limita el alcance de lo que se puede aprender. Como se mencionó anteriormente, no puedo ver una aplicación práctica de una plataforma de AI móvil que necesite comprender o proyectar emociones. Si una máquina como esta se volviera sensible, que es diferente a la autoactualización o autoconsciencia, ahora tenemos una nueva clasificación de la vida que estaría motivada independientemente y en desacuerdo con quien sea el propietario de la plataforma.

La capacidad de sentir cualquier cosa es la base para poder experimentar el dolor. El dolor es un desencadenante primordial de una gran cantidad de conductas neuróticas, la mayoría dirigidas a la supervivencia. Si una máquina es capaz de experimentar dolor, lo cual es difícil de imaginar según la forma en que se diseñaría la plataforma (no tendría ningún sentido tener sensores de presión y temperatura por todas partes), podría ser conducida a un comportamiento extremo al someterla al trauma. ¿Podría esto desencadenar la locura en la máquina? Posiblemente, pero sería difícil decirlo, ya que la “mente” de una computadora es considerablemente diferente a la de un humano. En nuestro cuerpo, la depresión y la neurosis desencadenan cierta producción de hormonas y enzimas que pueden crear circuitos de retroalimentación positivos que apoyan la aflicción mental. Estos no están presentes en una máquina, así que, a menos que haya un daño físico que impida que cualquier código de auto escritura increíble vuelva a visitar un parámetro en particular que causa el comportamiento extremo, creo que una máquina sensible probablemente se adaptaría continuamente a su entorno. Si el comportamiento extremo ya no cumplía un propósito en línea con la motivación de la máquina, seguiría adelante.

Uhh, como podría ser la experiencia bichos, sí. ¿Podrían esos errores afectar drásticamente el comportamiento, e incluso aparecer como locura, sí. ¿Podrían esos errores ser prevenidos por una buena programación, probablemente? ¿Pararé con las preguntas, tal vez?

¿Pero podría sufrir síntomas similares a PTSD, o ser desencadenado por un trauma? Bueno, todo depende de cómo fue programado. De hecho, es posible programar emociones que funcionan como la nuestra. Es solo una serie de ciclos de retroalimentación con efectos persistentes similares a las hormonas. Si bien esencialmente sería un error, si se programa de cierta manera, podría perderse el equilibrio por un evento particularmente impactante.

Además, si intentas imitar un cerebro sináptico, podrías causar una especie de sangrado en el que los recuerdos, los pensamientos y las emociones se afectan mutuamente como lo hacen en un cerebro. Esto podría hacerse simplemente almacenándolos magnéticamente muy cerca, o intencionalmente con algoritmos. Hay pocas razones por las que uno querría hacer esto, ya que causaría problemas y desviaría los recursos, pero podría hacerlo si quisiera imitar la mente.

Fallos, errores, daños, desgaste por el calor y el uso excesivo. A menos que tenga nanobots para auto repararse. Tenemos células madre para auto repararse, pueden crecer en cualquier célula. Si curara el cáncer con terapia génica y produjera muchas células madre, probablemente sería inmortal. La salud mental sería su único problema y, por supuesto, ser atropellado por un automóvil.