Un grupo de expertos ha publicado dos videos falsos que parecen mostrar a los rivales electorales Boris Johnson y Jeremy Corbyn defendiéndose mutuamente por el papel principal de Gran Bretaña.

Los clips son producidos por Future Advocacy y tienen la intención de mostrar que las personas ya no pueden confiar necesariamente en lo que ven en los videos, no solo para cuestionar lo que leen y escuchan.

Aquí está el video de Johnson:

Y aquí está el video de Corbyn:

En la era de las noticias falsas, las personas son cada vez más conscientes de no creer todo lo que leen. Entrenar a la población en general para que no siempre crea lo que puede ver con sus propios ojos es mucho más desafiante.

Al mismo tiempo, también es importante en una democracia que se mantenga la pluralidad de los medios y que no se centralice demasiada influencia en un puñado de medios "confiables". Del mismo modo, no se puede permitir que las personas simplemente llamen a algo noticias falsas para evitar el escrutinio.

Future Advocacy destaca cuatro desafíos clave:

  1. Detectando deepfakes – si la sociedad puede crear los medios para detectar una falsificación profunda directamente en el punto de carga o una vez que se haya difundido ampliamente.
  2. El dividendo del mentiroso – un fenómeno en el que el sujeto puede descartar imágenes genuinas de contenido controvertido como falsas, a pesar de ser ciertas.
  3. Regulación – ¿Cuáles deberían ser las limitaciones con respecto a la creación de deepfakes y se pueden hacer cumplir prácticamente?
  4. La limitación del daño – Gestionar los impactos de las falsificaciones profundas cuando falla la regulación y la cuestión de dónde debe recaer la responsabilidad de la limitación de daños

Areeq Chowdhury, Jefe de Think Tank en Future Advocacy, dijo:

“Deepfakes representa una amenaza genuina para la democracia y la sociedad en general. Se pueden utilizar para alimentar la información errónea y minar totalmente la confianza en el contenido audiovisual.

A pesar de las advertencias de los últimos años, los políticos hasta ahora colectivamente no han abordado el tema de la desinformación en línea. En cambio, la respuesta ha sido aplazar a las empresas tecnológicas para que hagan más. La responsabilidad de proteger nuestra democracia reside en los pasillos de Westminster, no en las salas de juntas de Silicon Valley.

Al lanzar estas falsificaciones profundas, nuestro objetivo es utilizar la conmoción y el humor para informar al público y presionar a nuestros legisladores. Este tema debe colocarse por encima de la política del partido. Instamos a todos los políticos a que trabajen juntos para actualizar nuestras leyes y proteger a la sociedad de la amenaza de falsificaciones profundas, noticias falsas y anuncios políticos en línea con objetivos específicos ".

Los periodistas tendrán que convertirse en expertos en detectar contenido falso para mantener la confianza y la integridad. Las empresas de redes sociales también tendrán que asumir cierta responsabilidad por el contenido que permiten difundir en sus plataformas.

Moderación de redes sociales

La moderación manual de cada pieza de contenido que se publica en una red como Facebook o Twitter es simplemente inviable, por lo que la automatización será necesaria para al menos marcar contenido potencialmente ofensivo.

Pero, ¿qué constituye contenido ofensivo? Esa es la pregunta con la que luchan los gigantes de las redes sociales para lograr el equilibrio adecuado entre la libertad de expresión y expresión, al tiempo que protege a sus usuarios de la manipulación.

Anoche, Twitter publicado su borrador de política sobre deepfakes y actualmente está aceptando comentarios al respecto.

La red social propone los siguientes pasos para los tweets que detecta que presentan contenido potencialmente manipulado:

  • Coloque un aviso junto a los tweets que comparten medios sintéticos o manipulados.
  • Advierta a las personas antes de que compartan o les gusten los tweets con medios sintéticos o manipulados.
  • Agregue un enlace, por ejemplo, a un artículo de noticias o Momento de Twitter, para que las personas puedan leer más sobre por qué varias fuentes creen que los medios son sintéticos o manipulados.

Twitter define las falsificaciones profundas como "cualquier foto, audio o video que ha sido alterado o fabricado significativamente de una manera que pretende engañar a las personas o cambiar su significado original".

La definición actual de Twitter parece que podría terminar marcando el medio favorito de Internet, los memes, como falsificaciones profundas. Sin embargo, hay un argumento convincente de que los memes a menudo debería al menos estar marcado como modificado de su intención original.

Tome el infame meme "Esto está bien" que en realidad era parte de un cómic más grande de KC Green antes de que fuera manipulado para fines individuales.

En esta pieza de Buitre, Green da su postura personal de que está muy bien con las personas que usan su trabajo como un meme, siempre y cuando no lo moneticen para sí mismos o lo usen para fines políticos.

El 25 de julio de 2016, la cuenta oficial de Twitter del Partido Republicano utilizó el trabajo de Green y agregó "Bueno ¯ _ (ツ) _ / ¯ #DemsInPhilly #EnoughClinton". Verde después tuiteó: "Todo el mundo tiene derecho a usar esto está bien en las publicaciones en las redes sociales, pero personalmente me gustaría que @GOP elimine su publicación estúpida".

Concienciar sobre las falsificaciones profundas

Bill Posters es un artista británico conocido por crear falsificaciones subversivas de celebridades famosas, incluidos Donald Trump y Kim Kardashian. Los carteles estaban detrás del fake viral de Mark Zuckerberg para el proyecto Spectre, que AI News informó a principios de este año.

Los carteles comentaron sobre su activismo usando deepfakes:

"Hemos utilizado los datos biométricos de famosos políticos del Reino Unido para crear conciencia sobre el hecho de que sin mayores controles y protecciones con respecto a los datos personales y las nuevas tecnologías poderosas, la información errónea plantea un riesgo directo para los derechos humanos de todos, incluidos los derechos de aquellos en posiciones de poder .

Es sorprendente que después de 3 años, las recomendaciones de la investigación del Comité Selecto del DCMS sobre noticias falsas o la investigación de la Oficina del Comisionado de Información sobre los escándalos de Cambridge Analytica no se hayan aplicado para cambiar las leyes del Reino Unido para proteger nuestra libertad y democracia.

Como resultado, las condiciones para que las plataformas de redes sociales amplifiquen las formas computacionales de propaganda y campañas de desinformación siguen vigentes en la actualidad. Instamos a todos los partidos políticos a unirse y aprobar medidas que salvaguarden las elecciones futuras ".

A medida que el Reino Unido se dirige a su próxima elección importante, seguramente habrá mucho debate sobre la posible manipulación de votantes. Muchos han señalado hacia la interferencia rusa en las democracias occidentales, pero aún no hay evidencia sólida de que ese sea el caso.

Sin embargo, los partidos de oposición han criticado al gobierno en el Reino Unido por negarse a publicar un informe sobre la interferencia rusa. La ex candidata presidencial estadounidense Hillary Clinton calificó de "inexplicable y vergonzoso" que el gobierno del Reino Unido aún no ha publicado el informe.

Las acusaciones de interferencia y juego sucio probablemente aumentarán en el período previo a las elecciones, pero Future Advocacy está haciendo un gran trabajo al destacar al público que no se puede creer todo lo que ve.

¿Interesado en escuchar a líderes de la industria discutir temas como este? Asista a la 5G Expo, IoT Tech Expo, Blockchain Expo, AI & Big Data Expo y Cyber ​​Security & Cloud Expo World Series con eventos próximos en Silicon Valley, Londres y Amsterdam.





Dejar respuesta

Please enter your comment!
Please enter your name here