Más de 1,000 investigadores, académicos y expertos han firmado una carta abierta oponiéndose al uso de IA para predecir el crimen.

Cualquiera que haya visto el Minority Report clásico de ciencia ficción estará preocupado por los intentos de predecir el crimen antes de que ocurra. En un escenario ideal, la predicción del delito podría ayudar a determinar dónde asignar los recursos policiales, pero la realidad será muy diferente.

Los investigadores están hablando antes de una publicación inminente titulada "Un modelo de red neuronal profunda para predecir la criminalidad mediante el procesamiento de imágenes". En el documento, los autores afirman poder predecir si una persona se convertirá en un delincuente basándose en el reconocimiento facial automático.

"Al automatizar la identificación de posibles amenazas sin prejuicios, nuestro objetivo es producir herramientas para la prevención del delito, la aplicación de la ley y las aplicaciones militares que se vean menos afectadas por los prejuicios implícitos y las respuestas emocionales", dice el profesor de la Universidad de Harrisburg y coautor del artículo. Nathaniel JS Ashby

"Nuestro próximo paso es encontrar socios estratégicos para avanzar en esta misión".

Encontrar socios dispuestos puede ser un desafío. Los firmantes de la carta abierta incluyen empleados que trabajan en IA de gigantes tecnológicos como Microsoft, Google y Facebook.

En su carta, los firmantes destacan los muchos problemas de las tecnologías de inteligencia artificial de hoy en día que hacen que incursionar en la predicción del crimen sea tan peligroso.

La principal de las preocupaciones es el sesgo racial bien documentado de los algoritmos. Todos los sistemas actuales de reconocimiento facial son más precisos cuando se detectan hombres blancos y, a menudo, señalan incorrectamente a los miembros de la comunidad BAME como delincuentes con mayor frecuencia cuando se utilizan en un entorno de aplicación de la ley.

Sin embargo, incluso si se abordan las inexactitudes con los algoritmos de reconocimiento facial, los investigadores destacan los problemas con el sistema de justicia actual que se han puesto en el centro de atención en las últimas semanas después del asesinato de George Floyd.

En su carta, los investigadores explican:

"La investigación de esta naturaleza, y las afirmaciones que la acompañan sobre la precisión, se basan en la suposición de que los datos sobre arresto criminal y condena pueden servir como indicadores confiables y neutrales de la actividad criminal subyacente. Sin embargo, estos registros están lejos de ser neutrales.

Como han demostrado numerosos académicos, los datos históricos de la corte y el arresto reflejan las políticas y prácticas del sistema de justicia penal. Estos datos reflejan quién la policía elige arrestar, cómo los jueces deciden gobernar y qué personas reciben sentencias más largas o más indulgentes.

Innumerables estudios han demostrado que las personas de color son tratadas con más dureza que las personas blancas situadas de manera similar en todas las etapas del sistema legal, lo que resulta en serias distorsiones en los datos. Por lo tanto, cualquier software creado dentro del marco legal penal existente inevitablemente hará eco de esos mismos prejuicios e inexactitudes fundamentales a la hora de determinar si una persona tiene la "cara de un criminal".

Entre los coautores del artículo en disputa se encuentra Jonathan W. Korn, Ph.D. estudiante que se destaca como veterano de NYPD. Korn dice que la IA que puede predecir la criminalidad sería "una ventaja significativa para las agencias de aplicación de la ley".

Si bien dicho sistema facilitaría la vida de los agentes de la ley, lo haría a costa de la privacidad y la automatización del perfil racial.

“Los programas de aprendizaje automático no son neutrales; las agendas de investigación y los conjuntos de datos con los que trabajan a menudo heredan creencias culturales dominantes sobre el mundo ", advierten los autores de la carta.

"La aceptación acrítica de los supuestos por defecto conduce inevitablemente a un diseño discriminatorio en los sistemas algorítmicos, reproduciendo ideas que normalizan las jerarquías sociales y legitiman la violencia contra los grupos marginados".

Puedes encontrar la carta abierta completa aquí.

(Foto por Bill Oxford en Unsplash)

¿Interesado en escuchar a líderes de la industria discutir temas como este? Asista a la 5G Expo, IoT Tech Expo, Blockchain Expo, AI & Big Data Expo y Cyber ​​Security & Cloud Expo World Series con eventos próximos en Silicon Valley, Londres y Amsterdam.

Etiquetas: ai, inteligencia artificial, sesgo, predicción del delito, reconocimiento facial, reconocimiento facial, Destacado, aplicación de la ley, red neuronal, carta abierta, policía, vigilancia policial, perfil racial, investigación

Dejar respuesta

Please enter your comment!
Please enter your name here