Tue. Jun 28th, 2022

Las reglas que rigen el uso de la inteligencia artificial en toda la UE probablemente tardarán más de un año en acordarse.

El año pasado, la Comisión Europea redactó leyes de IA. Mientras que EE. UU. y China están preparados para dominar el desarrollo de la IA con sus vastos recursos, su poderío económico y su regulación ligera, los rivales europeos, incluidos el Reino Unido y los miembros de la UE, creen que pueden liderar los estándares éticos.

En el borrador de las regulaciones de la UE, las empresas que sean declaradas culpables de mal uso de la IA se enfrentan a una multa de 30 millones de euros o el seis por ciento de su facturación global (lo que sea mayor). El riesgo de tales multas ha sido criticado por alejar las inversiones de Europa.

El proyecto de reglamento de IA de la UE clasifica los sistemas en tres categorías de riesgo:

  • Riesgo limitado: incluye sistemas como chatbots, gestión de inventario, filtros de spam y videojuegos.
  • Alto riesgo: incluye sistemas que toman decisiones vitales como la evaluación de la solvencia, el reclutamiento, la administración de justicia y la identificación biométrica en espacios no públicos.
  • Riesgo inaceptable: incluye sistemas que manipulan o explotan, crean puntuación social o realizan autenticación biométrica en tiempo real en espacios públicos para la aplicación de la ley.

Los sistemas de riesgo inaceptable enfrentarán una prohibición general de implementación en la UE, mientras que el riesgo limitado requerirá una supervisión mínima.

Las organizaciones que implementan sistemas de inteligencia artificial de alto riesgo deberían tener cosas como:

  • Supervisión humana.
  • Un sistema de gestión de riesgos.
  • Mantenimiento de registros y registros.
  • Transparencia a los usuarios.
  • Gobierno y gestión de datos.
  • Evaluación de la conformidad.
  • Registro del gobierno.

Sin embargo, la naturaleza engorrosa de la UE, que requiere el acuerdo de todos los estados miembros, cada uno con sus propias prioridades, significa que las nuevas regulaciones a menudo están sujetas a más debate y demora que la legislación nacional.

Reuters informa que dos legisladores clave dijeron el miércoles que las regulaciones de IA de la UE probablemente tomarán más de un año más para estar de acuerdo. El retraso se debe principalmente a los debates sobre si se debe prohibir el reconocimiento facial y quién debe hacer cumplir las reglas.

“El reconocimiento facial va a ser la mayor discusión ideológica entre la derecha y la izquierda”, dijo un legislador, Dragos Tudorache, en una entrevista con Reuters.

“No creo en una prohibición total. Para mí, la solución es establecer las reglas correctas”.

Con instituciones académicas líderes y más de 1300 empresas de IA que emplean a más de 30 000 personas, el Reino Unido es el mayor destino para la inversión en IA en Europa y el tercero en el mundo. Entre enero y junio de 2021, los inversores globales invirtieron £ 13,500 millones en más de 1,400 empresas de tecnología privada del Reino Unido de “tecnología profunda”, más que Alemania, Francia e Israel juntas.

En septiembre de 2021, el Reino Unido publicó su Estrategia Nacional de Inteligencia Artificial de 10 años en un intento por asegurar su liderazgo europeo en IA. La gobernanza juega un papel importante en la estrategia.

“El Reino Unido ya supera su peso a nivel internacional y ocupamos el tercer lugar en el mundo detrás de EE. UU. y China en la lista de los principales países para la IA”, comentó el ministro de DCMS, Chris Philp.

“Estamos sentando las bases para el crecimiento de los próximos diez años con una estrategia que nos ayude a aprovechar el potencial de la inteligencia artificial y desempeñar un papel de liderazgo en la forma en que el mundo lo gobierna”.

Como parte de su estrategia, el Reino Unido está creando un ‘Centro de estándares de IA’ para coordinar el compromiso del país en el establecimiento de reglas globales y está trabajando con el Instituto Alan Turing para actualizar la guía sobre ética y seguridad de IA.

“Estamos orgullosos de crear una comunidad dinámica y colaborativa de diversos investigadores y estamos desarrollando capacidades líderes en el mundo en investigación e innovación de IA responsable, segura, ética e inclusiva”, dijo el profesor Sir Adrian Smith, director ejecutivo del Instituto Alan Turing.

Lograr un equilibrio entre la regulación excesiva que sofoca la innovación y la regulación insuficiente que compromete la ética nunca es una tarea sencilla. Será interesante observar cómo las regulaciones de IA en Europa diferirán en todo el continente y más allá.

(Foto de Christian Lue en Unsplash)

Relacionados: La agencia de inteligencia británica GCHQ publica el informe “Ética de la IA”

¿Quiere aprender más sobre IA y big data de los líderes de la industria? Echa un vistazo a AI & Big Data Expo. Los próximos eventos de la serie se llevarán a cabo en Santa Clara los días 11 y 12 de mayo de 2022, Ámsterdam los días 20 y 21 de septiembre de 2022 y Londres los días 1 y 2 de diciembre de 2022.

Explore otros próximos eventos y seminarios web de tecnología empresarial impulsados ​​por TechForge aquí.

La publicación Las reglas de IA de la UE probablemente tardarán más de un año en acordarse apareció por primera vez en AI News.

By Erica Flores

Enamorada de la tecnología. Apasionada de la velocidad que la información puede adquirir en este mundo cambiante. Actualmente residiendo en Barcelona.