A medida que los sistemas de reconocimiento facial se vuelven más comunes, Amazon se ha convertido en uno de los pioneros en el campo, cortejando a los clientes de todo EE. UU., Incluidos los departamentos de policía y el Servicio de Inmigración y Control de Aduanas (ICE). Pero los expertos dicen que la compañía no está haciendo lo suficiente para disipar los temores sobre sesgos en sus algoritmos, particularmente cuando se trata de rendimiento en caras con una piel más oscura.

El último motivo de preocupación es un estudio publicado esta semana por el MIT Media Lab, que descubrió que Rekognition tuvo un peor desempeño al identificar el sexo de un individuo si eran mujeres o de piel más oscura. En las pruebas dirigidas por Joy Buolamwini del MIT, Rekognition no cometió errores al identificar el género de los hombres de piel más clara, pero confundió a las mujeres con los hombres el 19 por ciento de las veces y confundió a las mujeres de piel más oscura con los hombres el 31 por ciento de las veces.

El estudio sigue la investigación que realizó Buolamwini en febrero pasado, que identificó sesgos raciales y de género similares en el software de análisis facial creado por Microsoft, IBM y la firma china Megvii. Poco después de que Buolamwini compartiera sus resultados, Microsoft e IBM dijeron que mejorarían su software. Y, como se descubrió en este último estudio, hicieron exactamente eso.

Desde el pasado mes de febrero, varias compañías de tecnología han expresado su preocupación por los problemas con el reconocimiento facial. Como el sesgo en los algoritmos es a menudo el resultado de datos de entrenamiento sesgados, IBM publicó un conjunto de datos curado que dijo que aumentaría la precisión. Microsoft ha ido aún más lejos, pidiendo que se regule la tecnología para garantizar estándares más altos para que el mercado no se convierta en una "carrera hacia el fondo".

Amazon, en comparación, ha hecho poco para participar en este debate. La compañía también negó que esta investigación reciente sugiriera algo sobre la precisión de su tecnología. Notó que los investigadores no habían probado la última versión de Rekognition, y que la prueba de identificación de género era un análisis facial (que detecta expresiones y características como el vello facial), no una identificación facial (que hace coincidir las caras escaneadas con las instantáneas).

Estos son dos paquetes de software separados, dice Amazon. "No es posible llegar a una conclusión sobre la precisión del reconocimiento facial para ningún caso de uso, incluida la aplicación de la ley, sobre la base de los resultados obtenidos mediante el análisis facial", dijo Matt Wood, gerente general de aprendizaje profundo e inteligencia artificial de Amazon Web Services, Los New York Times.

Sin embargo, investigaciones anteriores han encontrado problemas similares en el software de identificación facial de Amazon. Una prueba realizada el año pasado por la ACLU encontró que al escanear imágenes de miembros del Congreso, Rekognition hizo coincidir falsamente a 28 personas con disparos policiales. Amazon culpó los resultados a la mala calibración del algoritmo.

Si bien el sesgo en los sistemas de reconocimiento facial se ha convertido en un punto de reunión para los expertos e investigadores que están preocupados por la equidad algorítmica, muchos advierten que no debería eclipsar temas más amplios. Como señalan Buolamwini y su coautora Inioluwa Deborah Raji en su reciente artículo, solo porque un sistema de reconocimiento facial funciona igual de bien en diferentes colores de piel, eso no impide que sea una herramienta de injusticia o supresión.

La pareja escribe: "El potencial para el uso de armas y el abuso de las tecnologías de análisis facial no se puede ignorar ni las amenazas a la privacidad o las violaciones de las libertades civiles disminuyen, incluso a medida que disminuyen las disparidades de precisión".

Dejar respuesta

Please enter your comment!
Please enter your name here