AI News se reunió con el jefe de investigación de la Facultad, Ilya Feige, para hablar sobre prácticas seguras y justas en el desarrollo de la inteligencia artificial.

Feige acababa de dar una charla titulada "Equidad en la inteligencia artificial: los últimos avances en seguridad de la IA" en la AI Expo Global de este año. Nos las arreglamos para agarrarlo para obtener más de sus pensamientos sobre el tema.

Con razón, la gente está cada vez más preocupada por las IA injustas e inseguras. Los prejuicios humanos se están filtrando en algoritmos, lo que plantea un peligro muy real de que los prejuicios y la opresión puedan automatizarse por accidente.

AI News informó la semana pasada en una investigación de la Universidad de Nueva York que descubrió que la desigualdad en las carreras basadas en STEM está haciendo que los algoritmos funcionen mejor o peor para algunas partes de la sociedad que para otras.

Hallazgos similares, de Joy Buolamwini y su equipo de la Liga de Justicia Algorítmica, resaltaron una disparidad en la efectividad de los sistemas de reconocimiento facial líderes en el mundo entre los géneros y los tonos de piel.

En un mundo ideal, todas las partes de la sociedad estarían igualmente representadas mañana. La realidad es que el problema tardará mucho más en corregirse, pero las tecnologías de IA se están utilizando cada vez más en la sociedad actual.

AI News le preguntó a Feige por su perspectiva y cómo el impacto de ese problema puede reducirse mucho antes.

"Creo que lo más importante que deben hacer las organizaciones es pasar más tiempo pensando en el sesgo y en asegurar que cada modelo que construyen sea imparcial porque un equipo demográficamente dispar puede desarrollar tecnología no dispar".

Algunas compañías están buscando construir AI que puedan analizar sesgos en otros algoritmos. Le preguntamos a Feige por su opinión sobre si él cree que esta es una solución ideal.

“Definitivamente, mostré uno en mi charla. Tenemos pruebas para: Me das un algoritmo de caja negra, no tengo idea de lo que hace tu algoritmo, pero puedo dar una entrada, calcular la salida y solo puedo decirte qué tan sesgado está de acuerdo con varias definiciones de sesgo. ”

"Podemos ir aún más lejos y decir: modifiquemos su algoritmo y devolvámoslo para que sea imparcial de acuerdo con una de esas definiciones".

En el mundo occidental, nos consideramos bastante liberales y protectores de las libertades individuales. China, potencialmente el líder mundial en inteligencia artificial, tiene un cuestionable historial de derechos humanos y es conocido por la vigilancia invasiva y la recopilación masiva de datos. Mientras tanto, Rusia tiene una reputación de agresión militar que, según algunos, impulsará sus desarrollos de inteligencia artificial. Gran parte de Oriente Medio, aunque no se considera a los líderes en IA, está detrás de la mayor parte del mundo en áreas como los derechos de las mujeres y los homosexuales.

Le preguntamos a Feige qué opinaba sobre si estas actitudes regionales podrían encontrar su camino hacia los desarrollos de la IA.

"Es una pregunta interesante. No es que algunas regiones se tomen el tema más o menos en serio, solo tienen diferentes … diremos preferencias. Sospecho que China toma en serio la vigilancia y el reconocimiento facial, más seriamente que el Reino Unido, pero lo hacen para aprovechar la vigilancia masiva, para el control de la población ".

"El Reino Unido está tratando de caminar una línea fina en el uso eficiente de esa tecnología muy útil, pero no socava la privacidad personal y la libertad de las personas".

Durante su charla, Feige señaló que está menos preocupado por los sesgos de AI debido al hecho de que, a diferencia de los humanos, los algoritmos pueden ser controlados.

"Esta es una verdadera fuente de optimismo para mí, solo porque la toma de decisiones humana es increíblemente sesgada y todo el mundo lo sabe".

Feige le pidió a la audiencia que levantara una mano si estaba preocupada por el sesgo de la IA, lo que llevó a la mitad a hacerlo. Se hizo la misma pregunta con respecto a los prejuicios humanos y la mayor parte de la sala tenía la mano levantada.

“Puedes ser preciso con algoritmos de aprendizaje automático. Puede decir: "Este es el objetivo que estoy tratando de lograr, estoy tratando de maximizar la probabilidad de que un candidato tenga éxito en su trabajo de acuerdo con las personas históricas en su rol". O bien, puede ser preciso sobre los datos en los que se entrenó el modelo y decir: "Voy a ignorar los datos de antes de este período de tiempo porque las cosas eran" diferentes "en ese entonces".

"Los seres humanos tienen experiencias pasadas fijas que no pueden controlar. "No puedo cambiar el hecho de que mi madre hizo la mayor parte de la cocina cuando estaba creciendo y no sé cómo afecta mi toma de decisiones".

"Tampoco puedo forzarme a contratar por el éxito en sus trabajos, lo que trato de hacer. Es difícil saber si realmente tuve una buena conversación sobre el fútbol con el candidato ".

La facultad, de la cual Feige tiene el papel de jefe de investigación, es una empresa europea con sede en Londres. Con la Comisión de la UE que publicó recientemente sus directrices sobre el desarrollo de la IA, aprovechamos la oportunidad para conocer sus opiniones sobre ellas.

"En un nivel alto, creo que son geniales. Se alinean bastante con cómo pensamos acerca de estas cosas. Mi mayor deseo, cada vez que un cuerpo como ese reúne algunos principios, es que exista una gran brecha entre ese nivel de directrices y lo que es útil para los profesionales. Hacerlos más precisos es realmente importante y no fueron lo suficientemente precisos según mis estándares ".

“Pero no solo abogar por poner la responsabilidad en los responsables políticos. También hay una responsabilidad en los profesionales para tratar de articular cómo se ve el sesgo estadísticamente y cómo se puede aplicar a diferentes problemas, y luego decir: 'Ok, órgano normativo, cuál de estos es el más relevante y puede hacer esas declaraciones en este idioma' y, básicamente, cerrar la brecha ".

Google creó recientemente, y luego eliminó, un "consejo de ética" dedicado a sus desarrollos de inteligencia artificial. Tales tableros parecen una buena idea, pero representar a la sociedad puede ser un campo minado. Las críticas de Google por tener una figura conservadora con fuertes opiniones anti-LGBTQ y de inmigrantes en la junta.

Feige proporcionó su opinión sobre si las compañías deberían tener una junta de supervisión de AI independiente para garantizar que sus desarrollos sean seguros y éticos.

"Hasta cierto punto, definitivamente. Sospecho que hay algunos casos en los que quieres que la junta de supervisión sea muy externa y como un regulador con muchos gastos generales y muchos dientes ".

"En la Facultad, cada uno de nuestros equipos de productos tiene un equipo alternativo, que tiene prácticamente el mismo conjunto de habilidades, que supervisa y supervisa el trabajo realizado por el equipo del proyecto para garantizar que siga nuestro conjunto interno de valores y directrices".

"Creo que la pregunta fundamental aquí es cómo hacer esto de una manera productiva y garantizar la seguridad de la IA, pero que no frena la innovación". Se puede imaginar dónde el Reino Unido tiene una postura de supervisión realmente sólida y luego, en algún otro país con mucha menos supervisión regulatoria, las empresas se convierten en grandes multinacionales y operan en el Reino Unido de todos modos ".

Conseguir el equilibrio en torno a la regulación es difícil. Nuestra publicación hermana, IoT News, entrevistó a un abogado digital que expresó la preocupación de que las estrictas regulaciones GDPR de Europa harán que las compañías de inteligencia artificial del continente se queden atrás de sus contrapartes en Asia y América, que tienen acceso a mucha más información.

Feige cree que existe el peligro de que esto suceda, pero países europeos como el Reino Unido, ya sea que, en última instancia, siga siendo parte de la UE y estén sujetos a regulaciones como GDPR o no, pueden usarlo como una oportunidad para liderar la seguridad de AI.

Se proporcionan tres razones por las que el Reino Unido podría lograr esto:

  1. El Reino Unido tiene un talento significativo de AI y universidades de renombre.
  2. Tiene un historial bastante inobjetable y un gobierno respetado (Feige aclara en comparación con la forma en que algunos países ven a Estados Unidos y China).
  3. El Reino Unido tiene una infraestructura reguladora existente bastante sólida, especialmente en áreas como los servicios financieros.

Una de las mayores preocupaciones sobre AI sigue siendo su impacto en la fuerza laboral, particularmente si reemplazará a los trabajadores poco calificados. Queríamos saber si utilizar una legislación para proteger a los trabajadores humanos es una buena idea.

"Se podría hacer la pregunta hace cien años:" ¿Debería la automatización entrar en la agricultura porque el 90 por ciento de la población trabaja en ella? "Y ahora está casi todo automatizada. Sospecho que las personas pueden verse afectadas por la automatización, pero sus hijos estarán mejor con ella ".

"Creo que cualquier regulación de mano dura tendrá consecuencias imprevistas y debería pensarse bien".

Nuestra discusión con Feige fue perspicaz y proporcionó optimismo de que AI puede desarrollarse de manera segura y justa, siempre que haya voluntad de hacerlo.

Puedes ver nuestra entrevista completa con Feige de AI Expo Global 2019 a continuación:

¿Interesado en escuchar a los líderes de la industria discutir temas como este y sus casos de uso? Asista a los eventos coubicados de AI y Big Data Expo con los próximos espectáculos en Silicon Valley, Londres y Amsterdam para obtener más información. Co-localizado con la IoT Tech Expo, Blockchain Expo, y Cyber ​​Security & Cloud Expo.





1 Comentario

  1. […] AI News se reunió con el jefe de investigación de la Facultad, Ilya Feige, para hablar sobre prácticas seguras y justas en el desarrollo de la inteligencia artificial. Feige acababa de dar una charla titulada "Equidad en la inteligencia artificial: los últimos avances en seguridad de la IA" en la AI Expo Global de este año. Nos las arreglamos para agarrarlo para obtener más de sus pensamientos sobre el tema. Con razón, la gente está cada vez más preocupada por las IA […] AI Expo Global: Equidad y seguridad en inteligencia artificial […]

Dejar respuesta

Please enter your comment!
Please enter your name here