Microsoft ha advertido a los inversionistas que sus ofertas de inteligencia artificial podrían dañar la reputación de la compañía en un intento por prepararlos para lo peor.

La IA puede ser impredecible, y Microsoft ya tiene experiencia. En 2016, un chatbot de Microsoft llamado Tay se convirtió en un personaje racista, sexista y, en general, bastante desagradable después de que los usuarios de Internet aprovecharan sus capacidades de aprendizaje automático.

El chatbot estaba cubierto en los medios de comunicación de todo el mundo y, por sí mismo, estaba obligado a haber causado algunos daños a la reputación de Microsoft.

En el último informe trimestral de la compañía, Microsoft advirtió a los inversores:

"Los algoritmos de AI pueden ser defectuosos. Los conjuntos de datos pueden ser insuficientes o contener información sesgada. Las prácticas de datos inapropiadas o controvertidas de Microsoft u otros podrían impedir la aceptación de las soluciones de AI.

Estas deficiencias podrían socavar las decisiones, predicciones o análisis que producen las aplicaciones de AI, lo que nos somete a daños competitivos, responsabilidad legal y daños a la marca o la reputación.

Algunos escenarios de IA presentan problemas éticos. "Si habilitamos u ofrecemos soluciones de AI que son controvertidas debido a su impacto en los derechos humanos, la privacidad, el empleo u otros problemas sociales, podemos experimentar daños a la marca o la reputación".

Varias compañías han sido criticadas por el desarrollo no ético de la IA, incluidos varios competidores de Microsoft.

Backlash AI

Google se vio envuelto en una reacción violenta por el contrato de defensa del "Proyecto Maven" para suministrar aviones no tripulados que analizan la IA al Pentágono. El contrato recibió críticas tanto internas como externas.

Varios empleados de Google abandonaron la empresa y otros amenazaron si el contrato no se retiraba. Más de 4,000 firmaron una petición exigiendo que su administración suspenda el proyecto y nunca más "construya tecnología de guerra".

Tras la reacción del Proyecto Maven, el CEO de Google, Sundar Pichai, dijo que el contrato no se renovaría.

Pichai también prometió en una publicación de blog que la compañía no desarrollará tecnologías o armas que causen daño o cualquier cosa que pueda usarse para vigilancia que viole "normas internacionalmente aceptadas" o "principios ampliamente aceptados del derecho internacional y los derechos humanos".

En junio del año pasado, Microsoft enfrentó su propia revuelta interna por un contrato de $ 19 millones con ICE (Servicio de Inmigración y Control de Aduanas) durante un tiempo en que las autoridades dividían a las familias inmigrantes.

La directora general de Microsoft, Satya Nadella, se vio obligada a aclarar que Microsoft no está directamente involucrada con la política del gobierno de separar a las familias en la frontera entre México y Estados Unidos.

Un informe de la American Civil Liberties Union encontró sesgo en el algoritmo de reconocimiento facial de Amazon. Los amazónicos escribieron una carta al CEO Jeff Bezos expresando sus preocupaciones.

Los problemas con el sesgo de la IA siguen surgiendo y es probable que continúen durante algún tiempo. Es un problema que debe abordarse antes de cualquier despliegue masivo.

El mes pasado, la fundadora de la Liga de Justicia Algorítmica, Joy Buolamwini, realizó una presentación impactante durante el Foro Económico Mundial sobre el tema del sesgo de AI.

Microsoft claramente está preparando a los inversionistas para algunos deslices polémicos propios a lo largo de su viaje de desarrollo de AI

¿Interesado en escuchar a los líderes de la industria discutir temas como este y sus casos de uso? Asista a los eventos coubicados de AI y Big Data Expo con los próximos espectáculos en Silicon Valley, Londres y Amsterdam para obtener más información. Coubicado con IoT Tech Expo, Blockchain Expo y Cyber ​​Security & Cloud Expo.






LEAVE A REPLY

Please enter your comment!
Please enter your name here