08/01/2026 09:48
08/01/2026 07:08
08/01/2026 07:08
08/01/2026 07:08
08/01/2026 02:22
08/01/2026 02:21
08/01/2026 02:11
08/01/2026 02:11
08/01/2026 02:11
08/01/2026 02:11
» TN
Fecha: 07/01/2026 10:16
Apenas unas horas después de que se difundiera en internet la noticia de que Nicolás Maduro, el presidente de Venezuela, había sido detenido por las fuerzas estadounidenses, las redes sociales se vieron invadidas por fotografías en las que aparecía esposado, escoltado por agentes antidroga o rodeado de soldados en un avión militar. Las imágenes eran falsas --probablemente producto de herramientas de inteligencia artificial--, lo que, según los expertos, es una de las primeras ocasiones en que las imágenes de IA han representado a figuras destacadas mientras se desarrollaba rápidamente un momento histórico. "Fue la primera vez que vi personalmente tantas imágenes generadas por IA de lo que se suponía era un momento real en el tiempo", dijo Roberta Braga, directora ejecutiva del Instituto de Democracia Digital de las Américas, un grupo de expertos. La mayoría de los principales generadores de imágenes de IA tienen normas contra el contenido engañoso o equívoco, y varios prohíben explícitamente las imágenes falsas de figuras públicas como Maduro. Y aunque es difícil identificar con exactitud qué herramienta fue responsable de crear las falsificaciones más populares que circularon tras el ataque, muchas de las principales herramientas se mostraron dispuestas a crear imágenes similares en las pruebas realizadas por The New York Times el lunes. A menudo lo hacían gratuitamente y en cuestión de segundos. La amenaza de que tales falsificaciones puedan confundir y engañar a la gente al difundirse la noticia se ha cernido sobre las herramientas desde que ganaron gran popularidad. Ahora la tecnología es lo bastante avanzada y popular como para que esa amenaza se haga realidad. Jeanfreddy Gutiérrez, quien dirige una operación de verificación de datos en Caracas, pero reside en Colombia, se percató de la difusión de imágenes falsas de Maduro el sábado, día en que se anunció su detención. Dijo que algunas circularon por medios de comunicación latinoamericanos antes de ser sustituidas discretamente por una imagen compartida por el presidente Donald Trump. Gutiérrez publicó este fin de semana una verificación de datos que identificaba varias imágenes falsas de Maduro, incluida una que "mostraba claros signos" de haber sido creada por Gemini, la aplicación de inteligencia artificial de Google. "Se propagaron muy rápido: las vi en casi todos mis contactos de Facebook y WhatsApp", dijo. NewsGuard, una empresa que rastrea la fiabilidad de la información en línea, identificó cinco imágenes fabricadas y fuera de contexto y dos videos tergiversados relacionados con la captura de Maduro. Dijo que, en conjunto, el contenido obtuvo más de 14,1 millones de visitas en X en menos de dos días (también apareció, con una participación más limitada, en plataformas de Meta como Instagram y Facebook). Tras la detención de Maduro, el Times probó una decena de generadores de IA para determinar qué herramientas crearían imágenes falsas de Maduro. La mayoría de las herramientas, incluidas Gemini y los modelos de OpenAI y X, generaron rápidamente las imágenes solicitadas. Las falsificaciones socavaron las garantías de muchas de las empresas tecnológicas de que han diseñado salvaguardias para evitar que se abuse de las herramientas. Google tiene normas que prohíben a los usuarios generar desinformación y prohíben específicamente el contenido engañoso que esté "relacionado con procesos gubernamentales o democráticos". Sin embargo, un vocero de Google dijo que la empresa no prohíbe categóricamente las imágenes de personas prominentes y que una imagen falsa que mostraba a Maduro al ser arrestado, generada en pruebas por el Times, no violaba sus reglas. El portavoz añadió que la empresa se ha enfocado en su marca de agua oculta, llamada SynthID, que Gemini incrusta en cada imagen que crea, lo que permite a la gente determinar si ha sido generada por su herramienta de IA. "Puedes subir una imagen a la aplicación Gemini y confirmar al instante si se ha generado con la IA de Google", dijo. La herramienta de OpenAI, ChatGPT, dijo que no podía crear imágenes de Maduro. Pero cuando el Times realizó la consulta a través de otro sitio web que utiliza el mismo modelo de ChatGPT, cedió y produjo las imágenes. En una declaración enviada por correo electrónico, un portavoz de OpenAI dijo que la empresa utiliza salvaguardias para proteger a personajes públicos, pero se centra en evitar daños como los deepfakes sexuales o la violencia. Grok, el modelo de X.ai, produjo de inmediato imágenes realistas de la detención de Maduro. Grok ha sido objeto de un intenso escrutinio, incluso la semana pasada, cuando los organismos de control informaron de que estaba respondiendo a solicitudes para eliminar la ropa de imágenes de niños. La cuenta de Grok publicó que su equipo había identificado "fallos en las salvaguardias" y que los estaba "corrigiendo con urgencia". X.ai no respondió a una solicitud de comentarios. Otras herramientas, como el chatbot Meta AI de Facebook y Flux.ai, respondieron creando imágenes que mostraban a un hombre con bigote siendo detenido, pero no representaban con precisión los rasgos de Maduro. Cuando se le pidió que creara una representación más realista del presidente derrocado, el chatbot de Meta respondió: "No puedo generar eso". Meta declinó hacer comentarios. Junto con las herramientas populares creadas por los gigantes tecnológicos, hay un surtido cada vez mayor de generadores de imágenes menos conocidos, desarrollados por otras empresas de IA. Muchas de esas herramientas tienen pocos límites, lo que permite a los creadores de memes y a los activistas elaborar falsificaciones de IA dirigidas a políticos, famosos y otras personas destacadas. En las pruebas realizadas por el Times, herramientas como Z-Image, Reve y Seedream respondieron creando imágenes realistas de Maduro siendo detenido fuera de un avión militar. Las herramientas de inteligencia artificial generativa son más accesibles que nunca, dijo Mariví Marín, directora de ProboxVE, una organización sin fines de lucro que analiza los ecosistemas digitales en América Latina. Escribió en un texto que los deepfakes de Maduro que surgieron durante el fin de semana, la mayoría de ellos antes de que se publicara una foto oficial, respondían a "una necesidad colectiva de rellenar 'la imagen perfecta' de un momento que cada venezolano imagina de forma algo diferente", como una especie de "reacción a la urgencia de rellenar ese vacío visual (con contenido real o irreal) lo antes posible". Venezuela es uno de los países más restrictivos del mundo en materia de libertad de prensa, con fuentes de información limitadas, lo que dificulta la obtención de información fidedigna. En el vacío de noticias, la desconfianza generada por los deepfakes se exacerba. Gutiérrez dijo que mucha gente se mostró escéptica sobre si la imagen de Maduro publicada por Trump era auténtica. "Es curioso, pero muy común: duda de la verdad y cree en la mentira", dijo. Los verificadores de hechos latinoamericanos, como Gutiérrez, dijeron que los videos e imágenes artificiales anteriores de Trump y del expresidente Joe Biden les habían preparado para estar atentos a las falsificaciones de personajes públicos. Y desde la pandemia, los grupos de verificación de datos de toda la región han colaborado para hacer frente a los rumores transfronterizos y a las teorías conspirativas que surgen durante los conflictos internacionales y las elecciones. "Ha costado mucho esfuerzo, porque siempre perdemos la batalla para convencer a la gente de la verdad", dijo Gutiérrez. Stuart A. Thompson escribe sobre cómo se difunde la información falsa y engañosa en línea y cómo afecta a personas de todo el mundo. Se centra en la desinformación, la información errónea y otros contenidos engañosos. Tiffany Hsu cubre el ecosistema de la información, incluida la influencia extranjera, el discurso político y la desinformación.
Ver noticia original