Un estudio realizado por la Universidad de Colorado Boulder ha revelado cuán malas son las IA para reconocer a las personas no cisgénero.

Los problemas preocupantes que tienen las IA para reconocer a las minorías raciales están cada vez más bien documentados, pero este nuevo estudio se encuentra entre los primeros en evaluar las clasificaciones de género.

Los sistemas de IA clasifican a las personas según lo que pueden "ver" y, a menudo, utilizan parámetros estereotípicos (por ejemplo, los hombres no tienen el pelo largo, las mujeres no tienen vello facial).

Hay una gran cantidad de categorías de género: Facebook, por ejemplo, tiene alrededor de 71 opciones para sus usuarios. Quizás esté pidiendo demasiado esperar que la IA clasifique exactamente a todos, pero los investigadores descubrieron que las categorías erróneas tienen el potencial de causar angustia grave.

Morgan Klaus Scheuerman, un investigador que trabajó en el estudio, se identifica como hombre. En la imagen a continuación, la IA de Microsoft a la izquierda lo identifica correctamente como hombre pero la de IBM a la derecha lo identifica como mujer:

Scheuerman dice que al probar sus fotos se clasificó erróneamente la mitad del tiempo a pesar de identificarse como un género "cisnormativo".

Mientras la categorización sea aproximadamente correcta, es poco probable que cause demasiada angustia. Sin embargo, imagine a alguien que ha pasado años sintiendo que era del género equivocado, que posiblemente enfrentó acoso y hostigamiento durante su transición, tal vez incluso realizó cirugías y / o tratamientos hormonales, y luego una IA los clasifica como el género con el que nacieron.

Scheuerman y su equipo probaron 10 servicios existentes de análisis facial y etiquetado de imágenes. Como puede ver, la mayoría de los servicios actualmente se limitan a intentar identificar los géneros cisnormativos:

En promedio, los sistemas de análisis facial funcionaron mejor con imágenes de mujeres cisgénero y peor con imágenes de hombres transgénero.

Estos son los resultados de cada servicio al clasificar los géneros:

Las tendencias de la moda evolucionan con el tiempo. Los peinados, en particular, pasan por muchas fases. Los hombres han optado por el cabello largo (piense en bandas de los 70 y 80 como Whitesnake, Guns n Roses y Aerosmith) durante algunos períodos, mientras que hay modelos femeninas exitosas como Ruth Bell que lucen un corte de pelo tradicionalmente asociado con los hombres.

En una década más o menos, incluso podría ser popular que los hombres tengan la cara afeitada y que las mujeres tengan barba. Los AI entrenados en imágenes hoy tendrían dificultades para adaptar y clasificar tales cambios, lo que plantea otro problema.

Generalmente hay muchos problemas sin soluciones, pero es necesario que haya. Las comunidades como LGBT ya corren un mayor riesgo de experimentar una mala salud mental a través de factores como la discriminación social y las desigualdades. Automatizar esos problemas tendrá consecuencias devastadoras.

¿Interesado en escuchar a líderes de la industria discutir temas como este? Asista a la 5G Expo, IoT Tech Expo, Blockchain Expo, AI & Big Data Expo y Cyber ​​Security & Cloud Expo World Series con eventos próximos en Silicon Valley, Londres y Amsterdam.






Dejar respuesta

Please enter your comment!
Please enter your name here