Google en mayo de Alphabet Inc presentó una característica ingeniosa para Gmail que completa oraciones automáticamente para los usuarios a medida que escriben. Toca "Me encanta" y Gmail podría proponer "tú" o "eso".

Pero los usuarios no tienen suerte si el objeto de su afecto es "él" o "ella".

La tecnología de Google no sugerirá pronombres basados ​​en el género porque el riesgo es demasiado alto de que su tecnología "Smart Compose" pueda predecir el sexo o la identidad de género de alguien de manera incorrecta y ofender a los usuarios, según revelan los líderes de productos Reuters en las entrevistas.

El gerente de productos de Gmail, Paul Lambert, dijo que un científico investigador de la compañía descubrió el problema en enero cuando escribió "Me reuniré con un inversor la próxima semana" y Inteligente componer sugirió una posible pregunta de seguimiento: "¿Quieres conocerlo?" en lugar de "ella".

El nombre de Google se muestra fuera de la oficina de la compañía en Londres, Gran Bretaña. Imagen: Reuters

Los consumidores se han acostumbrado a los errores embarazosos de la autocorrección en los teléfonos inteligentes. Pero Google se negó a arriesgarse en un momento en que los problemas de género están cambiando la política y la sociedad, y los críticos están analizando los posibles sesgos en la inteligencia artificial como nunca antes.

"No todos los 'errores' son iguales", dijo Lambert. El género es "una cosa grande, grande" para equivocarse.

Conseguir una buena composición inteligente podría ser bueno para los negocios. Demostrar que Google comprende los matices de la inteligencia artificial mejor que los competidores es parte de la estrategia de la compañía para crear afinidad con su marca y atraer a los clientes a sus herramientas de computación en la nube, servicios de publicidad y hardware impulsados ​​por la inteligencia artificial.

Gmail tiene 1.500 millones de usuarios, y Lambert dijo que Smart Compose asiste en el 11 por ciento de los mensajes enviados desde Gmail.com, donde se lanzó por primera vez la función.

Smart Compose es un ejemplo de lo que los desarrolladores de AI denominan generación de lenguaje natural (NLG, por sus siglas en inglés), en el que las computadoras aprenden a escribir oraciones mediante el estudio de patrones y relaciones entre palabras en la literatura, correos electrónicos y páginas web.

Un sistema que muestra miles de millones de oraciones humanas se vuelve adepto a completar frases comunes pero está limitado por generalidades. Los hombres han dominado durante mucho tiempo campos como las finanzas y la ciencia, por ejemplo, por lo que la tecnología podría concluir a partir de los datos de que un inversionista o ingeniero es "él" o "él". El problema afecta a casi todas las grandes empresas de tecnología.

Lambert dijo que el equipo de Smart Compose de unos 15 ingenieros y diseñadores probó varias soluciones, pero ninguno demostró ser libre de prejuicios o valió la pena. Decidieron que la mejor solución era la más estricta: limitar la cobertura. La prohibición de pronombres de género afecta a menos del 1 por ciento de los casos en que Smart Compose propondría algo, dijo Lambert.

"La única técnica confiable que tenemos es ser conservadores", dijo Prabhakar Raghavan, quien supervisó la ingeniería de Gmail y otros servicios hasta una promoción reciente.

Nueva politica

La decisión de Google de jugar con seguridad en cuanto al género sigue a algunas vergüenzas de alto perfil para las tecnologías predictivas de la compañía.

La compañía se disculpó en 2015 cuando la función de reconocimiento de imagen de su servicio de fotos etiquetó a una pareja negra como gorilas. En 2016, Google modificó la función de autocompletar de su motor de búsqueda después de que sugiriera que la consulta antisemita "son malas para los judíos" cuando los usuarios buscaban información sobre los judíos.

Google ha prohibido los insultos y los insultos raciales de sus tecnologías predictivas, así como las menciones de sus rivales de negocios o eventos trágicos.

A "women =" "walkout =" "at =" "google =" "in =" "protest =" "over =" "payout =" "to =" "android =" "chief =" "andy =" " rubin. = "" image: = "" reuters = "

Un "Walkout de mujeres" en Google en protesta por el pago al jefe de Android Andy Rubin. Imagen: Reuters

La nueva política de la compañía que prohíbe los pronombres de género también afectó la lista de posibles respuestas en la respuesta inteligente de Google. Ese servicio permite a los usuarios responder instantáneamente a mensajes de texto y correos electrónicos con frases cortas como "suena bien".

Google utiliza pruebas desarrolladas por su equipo de ética de AI para descubrir nuevos sesgos. Un equipo de spam y abuso se asoma a los sistemas, tratando de encontrar errores "jugosos" al pensar como hackers o periodistas podrían, dijo Lambert.

Trabajadores fuera de los Estados Unidos buscan problemas culturales locales. Smart Compose pronto funcionará en otros cuatro idiomas: español, portugués, italiano y francés.

"Se necesita mucha supervisión humana", dijo el líder de ingeniería Raghavan, porque "en cada idioma, la red de lo inapropiado tiene que cubrir algo diferente".

Desafío generalizado

Google no es la única empresa tecnológica que lucha con el problema de los pronombres basados ​​en el género.

Agolo, una startup de Nueva York que ha recibido inversiones de Thomson Reuters, utiliza AI para resumir documentos comerciales.

Su tecnología no puede determinar de manera confiable en algunos documentos qué pronombre va con qué nombre. Así que el resumen extrae varias oraciones para dar más contexto a los usuarios, dijo Mohamed AlTantawy, director de tecnología de Agolo.

Dijo que una copia más larga es mejor que los detalles que faltan. "Los errores más pequeños harán que las personas pierdan confianza", dijo AlTantawy. "La gente quiere 100 por ciento correcto".

Sin embargo, las imperfecciones permanecen. Las herramientas de teclado predictivo desarrolladas por Google y Apple proponen al "policía" con género para completar "policía" y "vendedor" para "ventas".

Escriba la frase turca neutral "uno es un soldado" en el Traductor de Google y dice "él es un soldado" en inglés. Lo mismo ocurre con las herramientas de traducción de Alibaba y Microsoft. Amazon.com opta por "ella" para la misma frase en su servicio de traducción para clientes de computación en la nube.

Los expertos de AI han pedido a las empresas que muestren un descargo de responsabilidad y múltiples traducciones posibles.

LinkedIn de Microsoft dijo que evita los pronombres de género en su herramienta de mensajes predictivos de hace un año, Respuestas inteligentes, para evitar posibles errores.

Alibaba y Amazon no respondieron a las solicitudes de comentarios.

Las advertencias y limitaciones como las de Smart Compose siguen siendo las contramedidas más utilizadas en sistemas complejos, dijo John Hegele, ingeniero de integración de Automated Insights Inc con sede en Durham, Carolina del Norte, que genera artículos de noticias a partir de estadísticas.

"El objetivo final es un sistema completamente generado por una máquina en el que mágicamente sepa qué escribir", dijo Hegele. "Se han hecho muchos avances, pero aún no hemos llegado".

Dejar respuesta

Please enter your comment!
Please enter your name here