El experto en inteligencia artificial Jarno Duursma ha denunciado un artículo engañoso en The Guardian que afirma haber sido escrito en su totalidad por el GPT-3 de OpenAI.

GPT-3 ha aparecido en muchos titulares en los últimos meses. La cobertura está garantizada, el GPT-3 es ciertamente impresionante, pero muchas de las afirmaciones de sus capacidades actuales son muy exageradas.

El titular del artículo que Duursma cuestiona es: “Un robot escribió todo este artículo. ¿Estás asustado todavía, humano?

Es un título que seguramente generará algunos clics. Sin embargo, a menudo un titular llega hasta donde llega el lector:

Así que habrá personas que hayan leído el titular y ahora crean que hay poderosos "robots" que escriben artículos completos, una narrativa falsa y peligrosa en un mundo con una desconfianza creciente en los medios.

GPT-3 requiere intervención humana y primero debe proporcionarse con mensajes de texto. Para ofrecer una explicación simplificada, Duursma lo llama "esencialmente un sistema de autocompletado súper avanzado".

Hay otro grupo de lectores; aquellos que leen quizás la primera mitad de un artículo para comprender la esencia. Es comprensible, la vida es agitada. Sin embargo, eso significa que los escritores debemos asegurarnos de que cualquier información vital esté cerca de la parte superior y no esté algo oculta:

Las tecnologías de IA seguirán siendo de ayuda para los humanos en el futuro previsible. Si bien las IA pueden ayudar con cosas como recopilar investigación y completar tareas, todo aún requiere indicaciones humanas.

En el caso del artículo de The Guardian, un humano primero escribió 50 palabras. Luego, GPT-3 creó ocho borradores del texto contribuido. Luego, un humano revisó cada uno de los ocho borradores y eligió las mejores partes. Finalmente, un humano pasó a editar el texto para hacerlo coherente antes de publicarlo.

Eso es mucha intervención humana para un artículo que afirma haber sido escrito íntegramente por AI.

La científica investigadora Janelle Shane tiene acceso a GPT-3 y lo usó para generar 12 ensayos similares a los que The Guardian habría examinado para ayudar a crear su artículo asistido por IA. La mayor parte del texto generado no es particularmente humano:

Las IA superinteligentes que pueden realizar todas estas tareas como un ser humano, conocidas como AGI (Inteligencias Generales Artificiales), probablemente estén a décadas de distancia.

El año pasado, los expertos en IA participaron en una encuesta sobre el tiempo de AGI:

  • El 45% predice que el AGI se logrará antes de 2060.
  • 34% espera después de 2060.
  • El 21% cree que la llamada singularidad nunca ocurrirá.

Incluso si / cuando se logra el AGI, existe un consenso cada vez mayor de que, en última instancia, todas las decisiones deben ser tomadas por un humano para garantizar la responsabilidad. Eso significa que una teoría generada por una IA aún sería verificada por un humano antes de que se publique.

Artículos como el publicado por The Guardian crean un miedo innecesario que dificulta la innovación. Estos artículos también generan expectativas poco realistas sobre lo que pueden lograr las tecnologías de IA actuales.

Ambos resultados no son saludables para una tecnología emergente que tiene enormes beneficios potenciales a largo plazo, pero requiere cierto realismo sobre lo que es realmente posible hoy y en el futuro cercano.

(Foto de Roman Kraft en Unsplash)

¿Está interesado en escuchar a los líderes de la industria discutir temas como este? Asista a la 5G Expo, IoT Tech Expo, Blockchain Expo, AI & Big Data Expo, y Cyber ​​Security & Cloud Expo World Series, ubicadas en el mismo lugar, con los próximos eventos en Silicon Valley, Londres y Ámsterdam.

Etiquetas: agi, ai, inteligencia artificial, Destacado, gpt-3, jarno duursma, openai, generador de texto

Dejar respuesta

Please enter your comment!
Please enter your name here