01/04/2026 20:29
01/04/2026 20:29
01/04/2026 20:29
01/04/2026 20:29
01/04/2026 20:29
01/04/2026 20:29
01/04/2026 20:29
01/04/2026 20:29
01/04/2026 20:29
01/04/2026 20:25
Buenos Aires » Infobae
Fecha: 01/04/2026 18:40
El caso de la estrella alemana Collien Fernandes, quien denunció a su exmarido por difundir deepfakes sexuales sin su consentimiento, expuso la urgencia de nuevas regulaciones y mecanismos de protección ante la violencia digital y la proliferación de contenido manipulado en redes sociales. En Infobae a la Tarde, Delfina Arambillet advirtió sobre el alcance global de este fenómeno y la dificultad de distinguir la realidad de la falsedad digital. En una charla con el equipo de Infobae a la Tarde, integrado por Manu Jove, Maia Jastreblansky, Paula Guardia Bourdin y Marcos Shaw, Arambillet subrayó: Hoy cualquiera puede ser víctima de la difusión de imágenes falsas creadas por inteligencia artificial. Es una mala noticia, pero está bueno que todos lo sepamos para entender qué límites queremos ponerle a lo que exponemos en redes. Nueva Programación Alemania debate una ley tras el escándalo de deepfakes sexuales La denuncia pública de Collien Fernandes contra su exmarido, el presentador Christian Ulmen, por la difusión de imágenes sexuales manipuladas con IA, desató una ola de protestas en Alemania. Un día ella empieza a encontrar en Internet imágenes hechas con inteligencia artificial, el famoso deepfake, de ella en situaciones sexuales, relató Paula Guardia Bourdin. Cuando se acerca a hacer la denuncia, obtiene la confesión del marido: las imágenes habían sido difundidas a través de cuentas falsas, agregó. La magnitud del caso reavivó el reclamo de organizaciones feministas y de derechos digitales, que exigieron endurecer la legislación para tipificar y sancionar la violencia digital de género. En paralelo, la discusión se trasladó a Argentina, donde la reciente sanción de la Ley Olimpia incorporó la violencia digital como forma de violencia de género. Hoy en la Corte Suprema ya se mide la violencia digital como una categoría específica. Hay denuncias de mujeres, no hay ninguna de hombres. El contraste es abismal, apuntó Guardia Bourdin. Deepfakes: nuevas herramientas, viejos riesgos Arambillet explicó que la facilidad para crear y viralizar deepfakes transformó el escenario: Antes necesitabas hardware y saber editar. Hoy es muy fácil, muy rápido y se viraliza enseguida. El fenómeno no solo afecta a figuras públicas. Hay un movimiento de padres que no quieren postear fotos de sus hijos en redes sociales, porque se sabe que muchas de esas imágenes terminan en redes de pornografía infantil. No solo a través de un deepfake, sino también con la propia foto que está publicada, alertó la especialista. La exposición digital creciente multiplica los riesgos de fraude, estafas y daño reputacional. Podés estar en Tailandia y que tu imagen esté siendo usada para una estafa sin que lo sepas. El riesgo es que alguien use tu imagen para cometer un ilícito, o incluso que tu nombre y tu likeness sean explotados comercialmente sin tu consentimiento, enfatizó Arambillet. La periodista Paula Guardia Bourdin agregó: Hay que ser precavido en la vida, no sabés qué te puede pasar. Los usuarios suelen minimizar el peligro hasta que ocurre un caso cercano. Mi tesis es que la gente expone su vida porque ve que no le pasa nada. Pero las consecuencias van a empezar a crecer y quizás generaciones más adelante ya no quieran saber nada con esto, reflexionó Manu Jove. El desafío de distinguir entre real y falso: el rol de los medios y la validación científica La sofisticación de los deepfakes complica la verificación de la autenticidad: Uno puede entrenar el ojo para notar detalles, como una piel demasiado perfecta o líneas de la cara demasiado marcadas, pero la IA avanza tan rápido que esas pistas pueden desaparecer mañana, explicó Arambillet. Existen herramientas como Deepfake Proof y marcas de agua invisibles en imágenes generadas por IA, pero la especialista advirtió que no hay un espacio seguro en redes donde el usuario pueda confiar al 100%. La conversación derivó hacia el rol clave de los medios: La oportunidad y el deber de los medios hoy es verificar la información que circula libremente y que puede ser falsa en un 90%, sostuvo Guardia Bourdin. Arambillet coincidió: El rol fundamental es volverse ese espacio de confianza para los usuarios. No existe un lugar en redes donde un usuario pueda decir: esto lo confío 100%. El debate se amplió al funcionamiento de los modelos de lenguaje y la espiral delirante estudiada por el MIT en ChatGPT y otros chatbots. No hay una conciencia detrás, solo una predicción de cuál es la mejor palabra que puede venir atrás de la otra. Los LLMs están diseñados para ser complacientes y eso puede llevar a errores o alucinaciones, explicó Arambillet. -- Infobae te acompaña cada día en YouTube con entrevistas, análisis y la información más destacada, en un formato cercano y dinámico. De 7 a 9: Infobae al Amanecer: Nacho Giron, Luciana Rubinska y Belén Escobar. De 9 a 12: Infobae a las Nueve: Gonzalo Sánchez, Tatiana Schapiro, Ramón Indart y Cecilia Boufflet. De 12 a 15: Infobae al Mediodia: Maru Duffard, Andrei Serbin Pont, Jimena Grandinetti, Fede Mayol y Facundo Kablan. De 15 a 18: Infobae a la Tarde: Manu Jove, Maia Jastreblansky y Paula Guardia Bourdin; rotan en la semana Marcos Shaw, Lara López Calvo y Tomás Trapé De 18 a 21: Infobae al Regreso: Gonzalo Aziz, Diego Iglesias, Malena de los Ríos y Matías Barbería; rotan en la semana Gustavo Lazzari, Martín Tetaz y Mica Mendelevich Seguinos en nuestro canal de YouTube @infobae.
Ver noticia original