Según los informes, los contratistas que trabajan para Google apuntaron a personas sin hogar con "piel oscura" para ayudar a entrenar un sistema de reconocimiento facial.

Según lo informado por nuestra publicación hermana AI News, los algoritmos de reconocimiento facial tienen problemas bien documentados cuando se trata de identificar personas de color. Parte de la razón de la disparidad es que la mayoría de los conjuntos de datos para algoritmos de entrenamiento tienen poca diversidad.

Cualquier empresa de tecnología responsable querrá asegurarse de que sus tecnologías de reconocimiento facial sean igualmente precisas en toda la sociedad antes de que se implementen en áreas como la aplicación de la ley; que incluso algunos policías han expresado sus preocupaciones pueden conducir a un mayor sesgo.

Sin embargo, parece que en un intento por evitar el sesgo con sus propios algoritmos de reconocimiento facial, Google ha entrado en otra controversia. La situación plantea más preguntas sobre cómo recolectar datos éticamente.

El enfoque adoptado por la empresa, según los informes, contratada por Google es posiblemente el ejemplo perfecto de lo que no debe hacer.

Los trabajadores fueron empleados por la firma de personal Randstad, pero dirigida por los gerentes de Google, para buscar específicamente a personas con "tonos de piel más oscuros" y aquellos que pueden ser atraídos por una recompensa financiera en forma de una tarjeta de regalo de $ 5.

"Dijeron que se dirigen a las personas sin hogar porque son los menos propensos a decir algo a los medios", dijo un ex contratista al New York Daily News. "Las personas sin hogar no sabían lo que estaba pasando en absoluto".

"Siento que querían que nos aprovecháramos de los débiles", dijo otro contratista.

Se decía que las tácticas engañosas habían sido utilizadas por los contratistas para lograr que las personas estuvieran de acuerdo con los escáneres faciales; incluyendo llamarlo un "juego de selfies". Los dispositivos que los sujetos de investigación recibieron para "jugar" en realidad estaban escaneando su cara.

Los escaneos faciales de los participantes se obtuvieron para ayudar a entrenar los algoritmos de reconocimiento facial de Google para un conjunto mejorado de "desbloqueo facial" que debutará en su próximo teléfono inteligente insignia, el Pixel 4.

“Esta es una conducta totalmente inaceptable por parte de un contratista de Google. Es por eso que la forma en que se construye la IA hoy en día debe cambiar ". tuiteó Jake Snow, abogado de la ACLU del norte de California. "La respuesta al sesgo algorítmico no es apuntar a los más vulnerables".

¿Interesado en escuchar a líderes de la industria discutir temas como este? Asista a la 5G Expo, IoT Tech Expo, Blockchain Expo, AI & Big Data Expo y Cyber ​​Security & Cloud Expo World Series con eventos próximos en Silicon Valley, Londres y Amsterdam.

Historias relacionadas

Dejar respuesta

Please enter your comment!
Please enter your name here