ESTEREOTIPOS

La inteligencia artificial se está volviendo racista y sexista

Cuando un sistema de inteligencia artificial (AI, en inglés) aprende una lengua, utilizando textos de realidad cotidiana, este "recuerda" y aprende los estereotipos raciales y de género que están implícitos en ellos.

Foto: Pixabay
Foto: Pixabay

En el aprendizaje de los sistemas de AI se utilizan usualmente programas diseñados para el aprendizaje de los idiomas. Esta tecnología es utilizada en los motores de búsqueda, traductores, sintetizadores de texto automáticos, entre otras áreas. Con el fin de que la comunicación entre una persona y un sistema artificial suene lo más natural posible, y parezca «humano», los científicos que los desarrollan usan, a modo de textos educativos, textos extraídos de conversaciones de la televisión, radio, redes sociales y entradas de blogs.

Al usar este método, los científicos sostienen que las computadoras aprenden el lenguaje coloquial al lado del formal, algo que le da más naturalidad al hablar. Para comprobar esta hipótesis, los científicos desarrollaron el algoritmo llamado «Word-Embedding Association Text» (WEAT), que es algo parecido al test de asociación implícita usado en la psicología social.

Prejuicios

En ese test, el participante debe clasificar una serie de palabras e imágenes entre «positivo» y «negativo». Por ejemplo, «instrumentos musicales» suele ser evaluado como positivo» y «arma de fuego» como negativo.

En el WEAT, las máquinas también fueron expuestos a 840.000 millones de elementos léxicos (lexemas) y se buscó que encontraran una relación entre dos o más palabras. Se determinó que los sistemas de AI asociaron con mayor frecuencia los nombres masculinos con carreras de ciencias, mientras que los femeninos con humanidades. En el caso de los nombres propios más comunes entre la población afroamericana, estos fueron relacionados con conceptos como «peligro» y «pobreza», mientras que los nombres más comunes entre la población blanca fueron entrelazados a conceptos como «familia» y «felicidad»

De esta manera, los científicos corroboraron que la AI puede caer, de forma involuntaria, en los estereotipos de género y color de piel, pues estos se encuentran en los materiales de aprendizaje. Los autores de la investigación, publicada en la revista Science, remarcaron que estas particularidades del aprendizaje artificial tendrá repercusiones negativas en el futuro en cuanto a la labor comunicativa de las máquinas con las personas, reforzando y replicando estereotipos que ya son nocivos en la sociedad actual.

Te recomendamos

Publicá tu comentario

Compartí tu opinión con toda la comunidad

chat_bubble
Si no puedes comentar, envianos un mensaje