Buena pregunta. He estado trabajando en el tema de la “caja negra” de la IA por un tiempo. El tema se conecta con la psicología.
Muchos psicólogos usan la IA hoy en día . El laboratorio de computación afectiva del MIT (Rosalind Picard) ha desarrollado muchas soluciones de IoT y de aprendizaje automático para la salud mental y la condición física. La Universidad de Florida trabaja en la prevención del suicidio utilizando el aprendizaje automático. La USC (Los Ángeles) usa Machine Learning para herramientas de diagnóstico clínico que interpretan los tonos de voz y las expresiones faciales, y se combinan con otros datos. Su “humano virtual” Ellie demostró ser útil con la atención de veteranos: los veterinarios le dicen más a la computadora que a un médico. Estos son solo algunos ejemplos.
AI usar psicología es más problemático.
No tiene sentido para la IA replicar lo que hace la gente. Las emociones humanas tienen raíces biológicas que la IA no tiene por qué arrastrar. Pero también necesitamos que los sistemas de inteligencia artificial sean menos rígidos para ser más eficientes. Multimodal, los sistemas del habla requieren ayuda psicológica. La profundidad, complejidad, cantidad de atajos en las interacciones humanas es un inmenso desafío para la IA. Necesitamos psicología para construir una colaboración efectiva entre AI y sus usuarios.
- ¿Qué buscan las escuelas de posgrado en sus candidatos para la psicología clínica?
- ¿Es posible olvidar algo intencionalmente?
- ¿Cómo puede ser un teólogo y psicólogo cristiano narcisista, condenar la homosexualidad, afirmar que todo narcisista es gay y, sin embargo, participar en los chats homosexuales?
- ¿Qué son las terapias de conducta de la tercera ola?
- ¿Por qué el este y el oeste tienen diferentes perspectivas hacia el abuso infantil y la violencia doméstica?
La pregunta es: ¿dónde nos detenemos antes de que se convierta en manipulación?
Existen industrias completas para rastrear el comportamiento del usuario y optimizar cada matiz de una aplicación. Usan psicólogos y tienen acceso a la observación directa de la conducta humana para aprender de los datos. Ahí es donde el objetivo de eficiencia se convierte en otra cosa: aplicaciones de aplicaciones diseñadas para ser adictivas, recomendaciones diseñadas para aprovechar nuestras debilidades.
¿Nos detendremos en un problema de interfaz de computadora humana, o los sistemas de inteligencia artificial utilizarán nuestras construcciones emocionales, y sus fallas, también en sus procesos internos? Es difícil hacer uno sin el otro. …