Google ha lanzado una iniciativa para financiar AI “buena” que puede ayudar a algunos a olvidar los contratos militares cuestionables con los que estaba involucrado.

La nueva iniciativa, llamada IA para el Bien Social, es un esfuerzo conjunto entre la subsidiaria filantrópica de la empresa Google.org y sus propios expertos.

El lanzamiento de la iniciativa es el “Desafío de Impacto de AI”, que está programado para proporcionar $ 25 millones en fondos a organizaciones sin fines de lucro al tiempo que brinda acceso a los vastos recursos de Google.

Como parte de la iniciativa, Google se asoció con el Centro de Ciencia Pesquera de las Islas del Pacífico de la Administración Nacional Oceánica y Atmosférica de los Estados Unidos (NOAA) para desarrollar algoritmos para identificar las llamadas de ballenas jorobadas.

Los algoritmos se crearon con datos de 15 años y proporcionan información vital sobre la presencia de la ballena jorobada, la estacionalidad, el comportamiento de las llamadas diarias y la estructura de la población.

Si bien es genial ver que Google financie y preste su experiencia a importantes proyectos de AI, se establece en un contexto más amplio de la participación de los gigantes de la tecnología de Silicon Valley en proyectos controvertidos como la defensa.

La propia Google se vio envuelta en una reacción por su contrato de defensa del “Proyecto Maven” para suministrar aviones no tripulados que analizan la IA al Pentágono. El contrato recibió críticas tanto internas como externas.

En abril, el infame lema “No seas malvado” de Google se eliminó del prefacio de su código de conducta. Ahora, en la línea final, dice: “Y recuerda … no seas malvado, y si ves algo que crees que no está bien, ¡habla!”

Los empleados de Google hablaron. Mas de 4,000 firmó una petición Exigiendo que su administración cese el proyecto y nunca más “construya tecnología de guerra”.

Tras la reacción del Proyecto Maven, el CEO de Google, Sundar Pichai, prometió una entrada de blog la compañía no desarrollará tecnologías o armas que causen daño, o cualquier cosa que pueda usarse para vigilancia que viole “normas aceptadas internacionalmente” o “principios ampliamente aceptados del derecho internacional y los derechos humanos”.

Aquí está lo que Google dice que son los objetivos clave de la compañía para los desarrollos de inteligencia artificial:

  1. Ser socialmente beneficioso.
  2. Evite crear o reforzar sesgos injustos.
  3. Ser construido y probado para la seguridad.
  4. Ser responsable ante las personas.
  5. Incorporar principios de diseño de privacidad.
  6. Mantener altos estándares de excelencia científica.
  7. Estar disponible para usos que concuerden con estos principios.

Ese primer objetivo, “ser socialmente beneficioso”, es a lo que Google apunta con su última iniciativa. La compañía dice que no está en contra de futuros contratos con el gobierno, siempre y cuando sean éticos.

“Estamos completamente felices de trabajar con el gobierno de los EE. UU. Y otros gobiernos de manera coherente con nuestros principios”, dijo el lunes a la prensa el jefe de inteligencia artificial de Google, Jeff Dean.





Dejar respuesta

Please enter your comment!
Please enter your name here