Para garantizar la inclusión, la administración de Biden debe redoblar las iniciativas de desarrollo de IA

Miriam Vogel es la presidenta y directora ejecutiva de EqualAI, una organización sin fines de lucro enfocada en reducir el sesgo inconsciente en la inteligencia artificial.

Más publicaciones de este colaborador
La IA sesgada perpetúa la injusticia racial

La Comisión de Seguridad Nacional sobre Inteligencia Artificial (NSCAI) emitió un informe el mes pasado con un mensaje público incómodo: Estados Unidos no está preparado para defender o competir en la era de la IA. Conduce a dos preguntas clave que exigen nuestra respuesta inmediata: ¿Estados Unidos seguirá siendo una superpotencia global si se queda atrás en el desarrollo y despliegue de la IA? ¿Y qué podemos hacer para cambiar esta trayectoria?
Si no se controlan, las herramientas de inteligencia artificial (IA) aparentemente neutrales pueden perpetuar y perpetuarán las desigualdades y, de hecho, automatizarán la discriminación. Los daños provocados por la tecnología ya han surgido en las decisiones crediticias, los servicios de atención médica y la publicidad.
Para evitar esta recurrencia y crecimiento a escala, la administración de Biden debe aclarar las leyes actuales relacionadas con la IA y los modelos de aprendizaje automático, tanto en términos de cómo evaluaremos el uso por parte de actores privados y cómo gobernaremos el uso de IA dentro de nuestros sistemas gubernamentales.
La administración ha dado un paso adelante, desde nombramientos clave en el espacio tecnológico hasta emitir una Orden Ejecutiva el primer día en el cargo que estableció un Grupo de Trabajo de Datos Equitativos. Esto ha reconfortado a los escépticos preocupados tanto por el compromiso de Estados Unidos con el desarrollo de la IA como por garantizar la equidad en el espacio digital.
Pero eso será fugaz a menos que la administración muestre una firme determinación para hacer realidad la financiación de la IA y establecer los líderes y las estructuras necesarias para salvaguardar su desarrollo y uso.

Necesidad de claridad sobre las prioridades

Ha habido un cambio sísmico a nivel federal en la política de IA y en los compromisos declarados con la igualdad en la tecnología. Varios nombramientos de alto perfil por parte de la administración Biden, desde la Dra.Alondra Nelson como adjunta de OSTP, hasta Tim Wu en el NEC, hasta (nuestro ex asesor principal) Kurt Campbell en el NSC, indican que se prestará una atención significativa a la inclusión Desarrollo de IA por expertos en el interior.
El informe final de NSCAI incluye recomendaciones que podrían resultar críticas para permitir mejores bases para el desarrollo inclusivo de IA, como la creación de nuevos canales de talento a través de una Academia de Servicios Digitales de EE. UU. Para capacitar a los empleados actuales y futuros.
El informe también recomienda el establecimiento de un nuevo Consejo de Competitividad Tecnológica dirigido por el Vicepresidente. Esto podría resultar esencial para garantizar que el compromiso de la nación con el liderazgo de la IA siga siendo una prioridad en los niveles más altos. Tiene sentido que el liderazgo de la administración en IA esté encabezado por el vicepresidente Harris a la luz de su asociación estratégica con el presidente, su conocimiento de la política tecnológica y su enfoque en los derechos civiles.

Estados Unidos debe predicar con el ejemplo

Sabemos que la IA es poderosa en su capacidad de generar eficiencias, como revisar miles de currículums para identificar candidatos potencialmente adecuados. Pero también puede escalar la discriminación, como la herramienta de contratación de Amazon que priorizaba a los candidatos masculinos o la "línea roja digital" del crédito en función de la raza.
La administración de Biden debería emitir una Orden Ejecutiva (EO) a las agencias invitando a la ideación sobre las formas en que la IA puede mejorar las operaciones gubernamentales. La OE también debe exigir controles sobre la inteligencia artificial utilizada por el gobierno de los Estados Unidos para garantizar que no esté difundiendo resultados discriminatorios de forma involuntaria.
Por ejemplo, debe existir un programa de rutina en el que se evalúen los sistemas de IA para garantizar que los sesgos dañinos integrados no den lugar a recomendaciones discriminatorias o incompatibles con nuestros valores democráticos e inclusivos, y que se reevalúen de forma rutinaria dado que la IA está en constante iteración y aprendizaje. nuevos patrones.

Implementar un sistema de gobernanza de IA responsable es particularmente crítico en el gobierno de los EE. UU., Que debe ofrecer protección de debido proceso cuando se niegan ciertos beneficios. Por ejemplo, cuando se utiliza la inteligencia artificial para determinar la asignación de los beneficios de Medicaid, y dichos beneficios se modifican o se niegan en función de un algoritmo, el gobierno debe poder explicar ese resultado, denominado acertadamente debido proceso tecnológico.
Si las decisiones se delegan a sistemas automatizados sin explicabilidad, pautas y supervisión humana, nos encontramos en la situación insostenible en la que se niega este derecho constitucional básico.
Del mismo modo, la administración tiene un inmenso poder para garantizar que las salvaguardas de IA por parte de los actores corporativos clave estén implementadas a través de su poder de adquisición. Se esperaba que el gasto de los contratos federales superara los $ 600 mil millones en el año fiscal 2020, incluso antes de incluir los fondos de estímulo económico pandémico. El gobierno de los Estados Unidos podría tener un impacto tremendo al emitir una lista de verificación para la adquisición federal de sistemas de inteligencia artificial; esto garantizaría que el proceso del gobierno sea riguroso y se aplique universalmente, incluidas las consideraciones relevantes de derechos civiles.

Protección contra la discriminación derivada de los sistemas de IA

El gobierno tiene otra palanca poderosa para protegernos de los daños de AI: su autoridad investigadora y procesal. Una Orden Ejecutiva que instruya a las agencias para aclarar la aplicabilidad de las leyes y regulaciones actuales (por ejemplo, ADA, Vivienda Justa, Préstamos Justos, Ley de Derechos Civiles, etc.) cuando las determinaciones dependan de sistemas impulsados ​​por IA podría resultar en un ajuste de cuentas global. Las empresas que operan en los EE. UU. Tendrían una motivación incuestionable para verificar sus sistemas de inteligencia artificial en busca de daños contra las clases protegidas.
Las personas de bajos ingresos son desproporcionadamente vulnerables a muchos de los efectos negativos de la IA. Esto es especialmente evidente con respecto a la creación de crédito y préstamos, porque es menos probable que tengan acceso a productos financieros tradicionales o la capacidad de obtener puntajes altos basados ​​en marcos tradicionales. Esto luego se convierte en los datos utilizados para crear sistemas de inteligencia artificial que automatizan tales decisiones.
La Oficina de Protección de las Finanzas del Consumidor (CFPB, por sus siglas en inglés) puede desempeñar un papel fundamental a la hora de responsabilizar a las instituciones financieras por los procesos de préstamos discriminatorios que resultan de la dependencia de sistemas de inteligencia artificial discriminatorios. El mandato de una EO sería una función forzada para las declaraciones sobre cómo se evaluarán los sistemas habilitados para IA, avisando a las empresas y protegiendo mejor al público con expectativas claras sobre el uso de IA.
Existe un camino claro hacia la responsabilidad cuando un individuo actúa de manera discriminatoria y una violación del debido proceso cuando un beneficio público es denegado arbitrariamente, sin explicación. En teoría, estas responsabilidades y derechos se transferirían con facilidad cuando se trata de un sistema de inteligencia artificial, pero una revisión de la acción de la agencia y los precedentes legales (o más bien, la falta de ellos) indica lo contrario.
La administración ha tenido un buen comienzo, como hacer retroceder una regla propuesta de HUD que habría hecho que los desafíos legales contra la IA discriminatoria fueran esencialmente inalcanzables. A continuación, las agencias federales con autoridad para investigar o enjuiciar deben aclarar qué prácticas de inteligencia artificial caerían bajo su revisión y las leyes actuales serían aplicables, por ejemplo, HUD para la discriminación ilegal en la vivienda; CFPB sobre IA utilizado en préstamos crediticios; y el Departamento de Trabajo sobre la IA utilizada en las determinaciones realizadas en las contrataciones, evaluaciones y despidos.
Tal acción tendría el beneficio adicional de establecer un precedente útil para las acciones de los demandantes en las quejas.
La administración de Biden ha tomado los primeros pasos alentadores que señalan su intención de garantizar una inteligencia artificial inclusiva y menos discriminatoria. Sin embargo, debe poner su propia casa en orden ordenando que las agencias federales requieran que el desarrollo, la adquisición y el uso de la inteligencia artificial, internamente y por aquellos con quienes hace negocios, se realice de una manera que proteja la privacidad, los derechos civiles, las libertades civiles y Valores estadounidenses.

Leave a Reply

Your email address will not be published. Required fields are marked *