¿Por qué debería creer que la diversidad en los programadores de inteligencia artificial conducirá a una inteligencia artificial “mejor” (menos racista)?

No deberias

La diversidad subsume las teorías raciales. La diversidad hace la suposición falaz de que la representación proporcional por raza reduce el racismo. Lo único que reduce el racismo es que el antirracismo incluye una desinversión psicológica y filosófica en la idea misma de raza (y representación racial). Cualquier individuo de cualquier raza puede ser objetivamente antirracista. A menos y hasta que los programas de “diversidad” signifiquen una prueba para el antirracismo, entonces son tokenismo. El tokenismo no es tan malo, pero es filosóficamente débil. Es como decir que las animadoras masculinas no pueden ser sexistas. Sí claro.

De todos modos, hay muy pocos resultados de la programación de la IA que tienen efectos racistas, y ninguno de los cuales soy consciente tiene una intención racista. Ciertamente hay una ética a considerar en la programación de AI, que creo que son bastante claras. Si está esperando que su IA ‘aumente’ o ‘mejore’, entonces está en terreno firme. Si está esperando que su IA se ‘desinterrumpa’ o ‘interrumpa’, entonces está en un terreno inestable. Comprender que una IA que ayude a un experto conocido a hacer un mejor trabajo generalmente es algo bueno. Pero una IA que reemplaza una habilidad común es como poner a alguien con piernas perfectamente buenas en una silla de ruedas. Este es el mayor desafío para quienes construirían sistemas de inteligencia artificial.

Mi piedra angular en esto es John Seely Brown, a quien no he visto en 25 años, pero supongo que todavía va en la dirección correcta.

La gente piensa en qué casos deben analizarse en función de su experiencia y profundidad educativa.

Es una verdad que las “incógnitas desconocidas”, que no sabemos, pero que ni SABEMOS es un agujero en nuestro conocimiento, son los peores problemas a resolver.

Los diseñadores del Apple Watch no consideraron probar a nadie con muñecas que no estuvieran pálidas ni tatuadas, así que cuando las usaban los tatuajes de piel oscura o muñecas, no podían sentir el latido de su corazón y se produjo una repentina onda de la hilaridad de que Apple hubiera pasado por alto una trampa tan obvia.

Muchos, muchos, muchos programadores anglosajones, blancos y heterosexuales, y diseñadores de productos solo piensan en probar cosas que suceden en su propia vida en general: caras como las que ven, tweets como las que hacen sus amigos, nombres como los que crecieron en la escuela. , y así.

Las bases de datos de prueba que le dan a AI para entrenarlo pueden estar fuertemente sesgadas, a menudo en formas que los investigadores no notan. Los hombres blancos ven una escena de la multitud con un 35% de mujeres como mujeres mayoritarias. Ven una escena de la multitud con un 25–45% de caras negras y un 80% de negras.

Si un programador alimenta una base de datos que es 95% de caras blancas en un programa de IA, ese programa tiene más probabilidades de clasificar la cara de una persona de color como la cara de un gorila.

La IA comienza a actuar de manera sistemáticamente racista cuando los datos sobre los que se entrenó tenían ese tipo de sesgos. Si tenemos personas involucradas en el diseño básico y la creación de los conjuntos de datos que, al principio, señalarán una parte del comportamiento y dirán: “Wow, eso es raro, deberíamos arreglar eso”, entonces al menos no tendremos ese sesgo. . Podría ganar otros nuevos.

Ninguna de las cosas que hemos creado, que llamamos inteligencia artificial, en realidad pensamos como lo hacen los humanos. Es muy importante comprender cuán limitadas son las capacidades de la IA actual.

El “racista”, el “adolescente” Tay, es un programa de computadora que combina patrones. Puede responder a la conversación escrita de manera convincente, según la oración que se le ha dado, pero no puede pensar, no puede tener opiniones y justificarlas. No puede enseñarle nada en la conversación, y no puede resolver problemas fuera del ámbito de la respuesta convincente en la conversación.

Los medios a menudo antropomorfizan a la IA mucho más de lo que deberían, porque se vende mejor, pero no tienen la profundidad real de un humano.

No esperes mucho del ingenio humano. Toda la tecnología que ve, no importa lo buena que sea, es solo el primer paso en una escalera alta. Los humanos somos tan engreídos como para pensar que somos tecnológicamente avanzados. Todavía tenemos computadoras pésimas que fallan todo el tiempo. Y la gente muere de virus y enfermedades. Ni siquiera podemos controlar la contaminación. Hacemos más daño que beneficios. Sin embargo, somos tan arrogantes como para pensar que somos súper inteligentes. Una vez que podamos viajar fuera de nuestra galaxia, puedes hacer esa pregunta en Quora. No tenemos ninguna inteligencia artificial, porque no somos lo suficientemente inteligentes como para poder construirla. Espero haber hecho un punto.