Una nueva herramienta impulsada por IA afirma detectar imágenes de abuso infantil con una precisión de alrededor del 99 por ciento.

La herramienta, llamada Safer, está desarrollada por Thorn, una organización sin fines de lucro, para ayudar a las empresas que no tienen sistemas de filtrado internos a detectar y eliminar tales imágenes.

Según la Internet Watch Foundation en el Reino Unido, los informes de imágenes de abuso infantil aumentaron un 50 por ciento durante el bloqueo de COVID-19. En las 11 semanas que comenzaron el 23 de marzo, su línea directa registró 44,809 informes de imágenes en comparación con 29,698 el año pasado. Muchas de estas imágenes son de niños que han pasado más tiempo en línea y han sido obligados a publicar imágenes de sí mismos.

Andy Burrows, jefe de seguridad infantil en línea en el NSPCC, dijo recientemente a la BBC: "El daño podría haber disminuido si las redes sociales hubieran hecho un mejor trabajo invirtiendo en tecnología, invirtiendo en características de diseño más seguras antes de esta crisis".

Más seguro es una herramienta que podría ayudar a marcar rápidamente el contenido de abuso infantil para limitar el daño causado.

Los servicios de detección de Safer incluyen:

  • Coincidencia de hash de imagen: el servicio insignia que genera hashes criptográficos y perceptuales para imágenes y compara esos hash con hashes CSAM conocidos. En el momento de la publicación, la base de datos incluye 5,9 millones de hashes. El hash ocurre en la infraestructura del cliente para mantener la privacidad del usuario.
  • Clasificador de imágenes CSAM: modelo de clasificación de aprendizaje automático desarrollado por Thorn y aprovechado dentro de Más seguro que devuelve una predicción de si un archivo es CSAM. El clasificador ha sido entrenado en conjuntos de datos con un total de cientos de miles de imágenes, incluyendo pornografía de adultos, CSAM y varias imágenes benignas, y puede ayudar en la identificación de CSAM potencialmente nuevo y desconocido.
  • Video Hash Matching: Servicio que genera hashes criptográficos y perceptuales para escenas de video y los compara con hashes que representan escenas de sospecha de CSAM. En el momento de la publicación, la base de datos incluye más de 650k hashes de escenas sospechosas de CSAM.
  • SaferList for Detection: Servicio para clientes Safer para aprovechar el conocimiento de la comunidad Safer más amplia al comparar con conjuntos de hash contribuidos por otros clientes Safer para ampliar los esfuerzos de detección. Los clientes pueden personalizar qué conjuntos de hash les gustaría incluir.

Sin embargo, el problema no se detiene con marcar contenido. Se ha documentado que los moderadores de las plataformas de redes sociales a menudo requieren terapia o incluso se suicidan después de estar expuestos día a día a algunos de los contenidos más perturbadores publicados en línea.

Thorn afirma que Safer está construido teniendo en cuenta el bienestar de los moderadores. Con este fin, el contenido se borra automáticamente (la compañía dice que actualmente solo funciona para imágenes).

Safer tiene API disponibles para desarrolladores que "están diseñados para ampliar el conocimiento compartido del contenido de abuso infantil mediante la contribución de hashes, el escaneo contra otros hashes de la industria y el envío de comentarios sobre falsos positivos".

Uno de los clientes de más alto perfil de Thorn hasta ahora es Flickr. Utilizando Safer, Flickr encontró una imagen de abuso infantil alojada en su plataforma que, tras una investigación policial, condujo a la recuperación de 21 niños de entre 18 meses y 14 años, y al arresto del autor.

Actualmente, más seguro está disponible para cualquier compañía que opere en los Estados Unidos. Thorn planea expandirse a otros países el próximo año después de personalizarlo para los requisitos de informes nacionales de cada país.

Puede obtener más información sobre la herramienta y cómo comenzar aquí.

¿Interesado en escuchar a los líderes de la industria discutir temas como este? Asista a la 5G Expo, IoT Tech Expo, Blockchain Expo, AI & Big Data Expo y Cyber ​​Security & Cloud Expo World Series con eventos próximos en Silicon Valley, Londres y Amsterdam.

Etiquetas: ai, inteligencia artificial, abuso infantil, explotación infantil, Destacado, Más seguro, Espina

Dejar respuesta

Please enter your comment!
Please enter your name here