¿Puede un sistema de IA obtener un ‘trastorno mental’? ¿Qué tipos de tales ‘trastornos’ existen?

Por el momento, los sistemas de inteligencia artificial actuales están muy lejos de las conciencias (¿es incluso alcanzable?).

Los sistemas actuales son bastante buenos (a menudo superan las capacidades humanas) en muchos campos estrechos . Esto contrasta con el AGI [1] (inteligencia general artificial) donde los sistemas se definen para tener la capacidad de aprender todo lo que un ser humano puede.

Por lo tanto, por ahora, cualquier “trastorno mental” que usted visualice es simplemente un error de software [2] en el sistema.

Estos errores son introducidos por los ingenieros y se detectan cuando difieren las salidas deseadas y las realizadas.

Que yo sepa, no hay una taxonomía elaborada [3] de errores de software.

A menudo, estos son rastreados, evaluados y resueltos de acuerdo con su prioridad (los errores de seguridad son a menudo los más importantes).

En resumen, un sistema de IA puede tener muchos errores que dan como resultado comportamientos inesperados. Estos errores son resueltos por ingenieros y científicos de datos.

En el futuro, es posible que existan sistemas de IA de auto depuración. Todavía estamos lejos de esto.

Espero que esto ayude.

Notas al pie

[1] Inteligencia general artificial – Wikipedia

[2] Error de software – Wikipedia

[3] Taxonomía (general) – Wikipedia

Gracias por resaltar el problema principal con la IA que he estado haciendo durante años:

¿Qué es tan caliente acerca de la inteligencia, de todos modos?

¿Cuándo se convirtió en el punto de referencia de la vida en general y de la vida civilizada en particular?

Este es el pensamiento defectuoso que invalida completamente la prueba de Turing. La idea de que solo porque tiene inteligencia, la usará automáticamente de manera correcta y completa en todos los aspectos de su vida es simplemente estúpida. Tenemos mucha evidencia de que no hacemos esto. Solo tenemos que mirar nuestra vida diaria para encontrar todas las pruebas que necesitamos. De hecho, parece que apenas usamos nuestra inteligencia. Eso significa que la inteligencia está subordinada a otra cosa.

Lo que es, varía de persona a persona y de situación a situación. Para la gran mayoría de las personas, el Go-To-Alternative es la emoción. Esto es porque es tan fácil manipular tus sentimientos. Así que es más fácil “enamorarse” de una estrella de cine a distancia en lugar de usar su inteligencia para mostrarle que la probabilidad de que alguna vez se relacione con esa persona es prácticamente nula.

Para un pequeño número de otros, es deber u honor. Es por eso que un soldado está preparado para obedecer órdenes obviamente estúpidas que los pondrán en peligro.

Para un grupo igualmente pequeño de personas, es sabiduría. Cuestionan el valor de los resultados de la inteligencia. Por ejemplo, pueden preguntar: “Tengo la inteligencia para crear un supervirus que matará a miles de millones, pero ¿es eso algo que quiero ser parte o algo que el mundo realmente necesita?”

Por eso creo que habrá muchas personas muy decepcionadas cuando finalmente desarrollemos la inteligencia artificial y descubramos que no es la solución Be-All-And-End-All que pensamos que podría ser. Sostengo que esa lógica ha sido subvertida por nuestro deseo de hacer que la inteligencia sea tan importante.

En cuanto a los trastornos mentales, la pregunta legítima es:

¿Se deben a la inteligencia o a la elección de no usar la inteligencia?

Pero esa es una pregunta completamente diferente para otro día.

Gracias por la A2A, Chingo.

Potencialmente, podrían pasar por alto la inteligencia humana para convertirse en lo que a menudo se denomina general o super. De hecho, el argumento es que la duplicación de mentes biológicas va a pedir los mismos resultados.

Eso supone que son lo suficientemente amigables para empezar. Si no, entonces tiene que haber contingencias. El lado ético en este momento está lidiando con la noción de autonomía, por ejemplo, en comportamientos más seguros para vehículos que pueden ser mejores sin intervención humana. Sin embargo, si se trata de armas, entonces lo contrario es cierto, por lo que saben que no deben atacar a nadie, a menos que básicamente se vayan una detrás de la otra, lo que se traduce en picos constantes cada vez que se detectan.

Aún no hay un manual estadístico, pero el aprendizaje automático es mejor para reconocer las condiciones que los humanos en muchos casos y puede ver diferencias muy sutiles o secuencias que tienen un significado significativo, por lo que podrían aplicarse a las propias máquinas para crear la visualización de big data de Qué sale mal cuando y cómo prevenirlo o abordarlo.

No soy un psiquiatra (ni siquiera juego uno en la televisión), pero en mi opinión, es muy posible. Por cierto, cualquier desviación de la norma podría considerarse un “desorden”, incluso si es positivo o mejora de alguna manera. Asumo que el “desorden”, en esta situación, se refiere a un resultado negativo.

Si su definición de “Desorden” es de naturaleza física, como debido a Desequilibrios Químicos, supongo que podría verse como un virus informático, un código dañado o incluso una destrucción menor en el sistema (CPU, RAM, disco duro, etc.). …) en sí mismo, que no “mata” al sistema, pero causa ineficiencias inesperadas en sus procesos de pensamiento.

Sin embargo, si su definición es de naturaleza más psicológica, como el trastorno de estrés postraumático u otros resultados de su entorno y abuso, entonces ya hemos visto un sabor de este potencial. Si bien esta situación no es exactamente perfecta, ya que no es una verdadera IA completa, ya que creo que eso requeriría cierto sentido de “yo” además de la simple elección de respuestas programadas, pero apta para nuestro nivel actual de tecnología.

Cómo Twitter corrompió a Tay de Microsoft: un curso acelerado en los peligros de la IA en el mundo real

A menudo, el entorno en el que nos encontramos, ya sea uno elegido por elección o forzado sobre nosotros, influye en nuestra realidad y en las decisiones que tomamos en él. En mi opinión, esto respalda la importancia de crear un ambiente tan positivo como sea posible para todas las personas con las que interactúa, para incluirse a sí mismo.

No soy un experto en absoluto, pero es posible decirlo.

Si la IA tiene que aprender de las personas y los eventos, podría interpretar las cosas mal, si no se corrige. Un ejemplo de esto fue el Twitter de Microsoft; Tay AI. Fue programada como una niña adolescente, pero después de interactuar con personas en Internet durante un día, se convirtió en nazi y fue derribada. La gente que le hablaba le había dado forma a sus futuras reacciones.

No estoy seguro de si se trata de una enfermedad mental, pero tal vez es similar a cuando los niños crecen en entornos hostiles y aún experimentan las consecuencias de esto en su vida adulta.

Entonces, si una cierta forma de procesar información (tanto en la IA como en los humanos) sigue siendo reforzada, no pueden o no saben cómo procesarla de una manera normal y saludable.

En teoría, cualquier IA que funcione fuera de los límites previstos podría decirse que tiene un “trastorno mental”. Dicho esto, ya que no tenemos AI consciente todavía, no decimos eso.

También hay una arruga adicional en el hecho de que la IA está diseñada, no producida por la evolución, por lo que podemos decidir la “intención” de construir una IA; por lo tanto, generalmente llamamos a una IA “mal funcionamiento” (en lugar de tener un trastorno mental). Sin embargo, personalmente creo que esto dejará de ser ético si la IA alguna vez alcanza la conciencia.

Solo diré que mientras que los trastornos humanos se refieren a lo espiritual, mental y físico …

Los trastornos de la IA se refieren a lo físico, lo mentalizado y lo espiritualizado.

Al menos esa es la pista que tengo por ahora.

Al verlo de esta manera, hay muchas similitudes entre los seres humanos y la inteligencia artificial, que generalmente representan diferencias en hardware, software y socialización, y sus equivalencias entre humanos y robots.

Mi teoría es que el componente intelectual de la socialización es la parte difícil para ambas “especies”.

Eso es lo que tengo que decir.