En 2018, la comunidad Reddit r / deepfakes ganó atención internacional
gracias a un pedazo de investigador
periodismo
por Samantha Cole, editora adjunta de VICE.

Los miembros del foro habían estado utilizando una tecnología emergente para
superponer las caras de las celebridades en videos pornográficos. Para el público en general
– y sin duda las estrellas inconscientes – fue un shock. La mayoría no sabía esto
La tecnología existía. Muy pocos creían que fuera posible producir un producto tan realista.
distancia en pies.

Los videos habían sido creados por una Red Adversaria Generativa (GAN), un
modelo de aprendizaje automático que utiliza algoritmos para imitar la distribución de datos.
En este caso, eso significaba superponer una cara humana sobre otra, completa
Con movimiento realista.

En poco tiempo, el término "deepfake" se convirtió en parte del léxico común, ambos
en círculos porno y más allá, y su introducción sin ceremonias al mundo
El tono de sus connotaciones negativas.

Pero, ¿son los orígenes y el mal uso de la farsa profunda lo que nos lleva a tomar un
vista innecesariamente tenue de una tecnología potencialmente útil?

Graves problemas

Avancemos rápidamente hasta 2019 y la calidad de los deepfakes está mejorando a un
tasa exponencial Su potencial para producir porno de venganza, engaños maliciosos,
el fraude, la información errónea y el chantaje son a menudo el foco de los artículos de noticias y
pensar en piezas, y no sin razón.

Recientemente, videos falsos de figuras notables como Mark Zuckerberg, la presidenta de la Cámara de Representantes de los Estados Unidos, Nancy Pelosi, y ex
El presidente Barack Obama ha hecho todo el
Noticias. Y cada vez es más difícil distinguirlos de lo real
cosa.

Después de que el presidente Trump retuiteó un video manipulado de la Sra. Pelosi,
presumiblemente bajo la impresión de que era real, quedó claro que lo político
Las implicaciones de esta tecnología podrían ser fenomenales, especialmente en la era de
"Noticias falsas" y manipulación de redes sociales.

De hecho, el Comité de Inteligencia de EE. UU. Emitió recientemente una advertencia antes del 2020
elecciones, afirmando: "Los adversarios y competidores estratégicos probablemente intentarán usar falsificaciones profundas o similares
tecnologías de aprendizaje automático […] para influir en las campañas dirigidas contra los Estados Unidos y nuestros aliados y
fogonadura."

Hace diez años, esto habría parecido una fantasía de ciencia ficción. Hoy en el
A raíz de Cambridge Analytica, es nuestra realidad.

Más allá del reflejo

El problema que rodea a deepfakes está estrechamente alineado con lo pertinente
pregunta de nuestra época: ¿qué sucede cuando la tecnología avanza más allá de nuestra
comprensión de sus implicaciones?

La gente está preocupada, y con razón. Pero lo que a menudo se pasa por alto en
El favor del reaccionismo instintivo es el potencial de los deepfakes para hacer el bien.

Recientemente, las GAN se han utilizado con fines educativos, como el Dali
La resurrección del museo de Salvador Dalí (es menos
aterrador de lo que parece). Y en el entrenamiento médico, donde las imágenes falsas son
ayudando a médicos, enfermeras y cirujanos en entrenamiento a practicar su profesión.

Las GAN también se pueden usar en una variedad de industrias para mejorar
Personalización e inmersión. El comercio minorista es un ejemplo obvio. En poco tiempo
los clientes pueden ver exactamente cómo se verían en los productos
están navegando en línea.

Del mismo modo, en el entretenimiento, es posible que no estemos tan lejos de convertirnos en
estrellas de nuestros propios éxitos de taquilla de verano. O al menos jefe de casting
directores
.

Realmente, las posibilidades son infinitas. Y lo que pase después será
determinar si alguna vez podemos explorarlos.

Golpeando la derecha
equilibrar

Con Toma del Congreso
pasos para criminalizar potencialmente las falsificaciones profundas
en total, la tecnología GAN está a punto de
enfrentar un momento decisivo. Pero una legislación demasiado punitiva puede ser un error
cuando hay potencialmente mucho que ganar, razón por la cual los encargados de formular políticas y
Los tecnólogos necesitan trabajar juntos para encontrar una solución.

En JED.ai, creemos en lograr un equilibrio; encontrar una manera de proteger
personas vulnerables por el uso nefasto de deepfake, mientras crean un
entorno que fomenta la exploración técnica.

Las soluciones actuales giran en torno a tecnología que puede
identificar deepfakes
. Pero como la tecnología utilizada para crear estos videos
mejora, estas contramedidas deberán mantener el ritmo.

En respuesta, estamos adoptando un enfoque diferente: trabajar en un concepto
eso vería todos los deepfakes registrados en un registro seguro y descentralizado. Nosotros
cree que esto ayudará a crear el entorno adecuado para explorar lo positivo
aplicaciones de la tecnología GAN, mientras la protegen, y al público en general,
de la explotación.

Con la legislación y las soluciones de seguridad adecuadas, no hay razón para que las falsificaciones profundas no puedan convertirse en sinónimo de titulares más positivos, y no podemos esperar a ver qué nos depara el futuro.

Sobre el autor: Jedidiah Francis es el fundador de Jed.ai Labs, un Startup Studio dedicado a usar Machine Learning para mejorar la forma en que vivimos, trabajamos y jugamos.

¿Está interesado en escuchar a los líderes de la industria discutir temas como este y sus casos de uso? Asista a los eventos de la IA y Big Data Expo con ubicaciones próximas en Silicon Valley, Londres y Amsterdam para obtener más información. Ubicado conjuntamente con IoT Tech Expo, Blockchain Expo y Cyber ​​Security & Cloud Expo.






Dejar respuesta

Please enter your comment!
Please enter your name here