RACISMO AUTÓNOMO

Vehículos autónomos son más propensos a atropellar a personas de piel oscura

Los vehículos autónomos podrían tener un problema de sesgo racial, según un nuevo estudio, que encontró que identifican mejor a las personas blancas.

Foto: Pixabay
Foto: Pixabay

La lista de inquietudes sobre los vehículos autónomos es aún bastante larga, lo que ha impedido que se hagan su camino hasta las vías públicas, pero esta nueva preocupación es bastante inesperada. ¿O no tanto?

Además de preocuparnos por si son o no seguros y sobre cómo responden ante situaciones inesperadas, ahora se suma un asunto moral: ¿Por qué algunos vehículos autónomos responden mejor ante personas de piel blanca que ante aquellas de piel morena o negra?

De acuerdo con un nuevo estudio realizado en el Instituto de Tecnología de Georgia, si eres una persona con piel oscura, es más probable que un coche autónomo te golpee a vos que a tus amigos de piel blanca. Esto se debe a que los vehículos automatizados pueden ser mejores para detectar peatones con tonos de piel más claros.

Los autores del estudio comenzaron con una pregunta simple: ¿Cuál es la precisión con que los sistemas de detección de objetos de vanguardia, como los que utilizan los autos que conducen autos, detectan personas de diferentes grupos demográficos?

Para averiguarlo, observaron un gran conjunto de datos de imágenes que contienen peatones. Dividieron a las personas con la escala de Fitzpatrick, un sistema para clasificar los tonos de piel humana de claro a oscuro.

Después, revisaron la frecuencia con la que los modelos detectaban correctamente la presencia de personas en el grupo de piel clara en comparación con la frecuencia con la que lo hacían bien con las personas de los grupos de pieles más oscuras.

Ser el blanco perfecto

¿El resultado? La detección fue 5% menos precisa, en promedio, para el grupo de piel oscura con respecto a los grupos de pieles más claras. Esa disparidad persistió incluso cuando los investigadores controlaron variables como la hora del día en imágenes o que los peatones estuvieran ocasionalmente ocultos por algún otro objeto sólido.

«La principal conclusión de nuestro trabajo es que los sistemas de visión que comparten estructuras comunes con los que probamos deben examinarse más detenidamente», expresó Jamie Morgenstern, uno de los autores del estudio.

Este estudio aún no ha sido revisado por pares, por lo que los mismos autores piden que se tomen con cautela sus resultados, lo que no significa que el estudio no sea valioso, sin embargo no es para nada nuevo que los algoritmos pueden reflejar los sesgos de sus creadores, y aquellos que son de aprendizaje automáticos suelen aprender comportamientos de las poblaciones que los usan.

 

 

Te recomendamos

Publicá tu comentario

Compartí tu opinión con toda la comunidad

chat_bubble
Si no puedes comentar, envianos un mensaje