15/08/2025 01:10
15/08/2025 01:10
15/08/2025 01:10
15/08/2025 01:10
15/08/2025 01:10
15/08/2025 01:10
15/08/2025 01:10
15/08/2025 01:10
15/08/2025 01:10
15/08/2025 01:10
Parana » El Once Digital
Fecha: 14/08/2025 23:30
Marcelo Temperini, Dr. en Derecho Informático y Cibercrimen, explicó que “cada vez va a ser más difícil distinguir lo falso de lo real. Va a empeorar en poco tiempo, porque la capacidad tecnológica avanza más rápido que lo que las personas o el derecho puede aggiornarse para frenarlo". Un fenómeno está redefiniendo el escenario político, social y mediático: el impacto de la Inteligencia Artificial y, en particular, de los deepfakes en la confianza pública y en la salud de la democracia. El reciente caso del video falso de Mauricio Macri en la campaña porteña, expone que esta amenaza ya no es futurista: está aquí y ahora. La IA ha creado un terreno donde la frontera entre realidad y ficción se difumina peligrosamente. Los deepfakes no solo facilitan el engaño, sino que erosionan la credibilidad de los medios periodísticos, debilitando una de las pocas barreras que resguardan la información veraz. Su poder radica en explotar nuestras emociones y sesgos: tendemos a creer lo que confirma nuestras expectativas, aunque sea falso. En términos institucionales, esto podría arrastrarnos a niveles inéditos de degradación democrática, afectando el derecho de la ciudadanía a decidir con información fidedigna. Argentina aún carece de una legislación que tipifique penalmente los deepfakes, dejando un vacío que habilita su uso para manipular y “ensuciar la cancha” sin consecuencias legales. El desafío es urgente: necesitamos consensuar reglas claras y desarrollar una ciudadanía crítica, capaz de detectar y frenar esta nueva forma de desinformación. El tema fue debatido en el programa El Ventilador, de Elonce. Marcelo Temperini, Dr. en Derecho, Cibercrimen y Derecho Informático, explicó que “cada vez va a ser más difícil distinguir lo falso de lo real. Esto que estamos viendo ahora va a empeorar en muy poco tiempo, porque la capacidad tecnológica avanza más rápido que lo que las personas o el derecho puede aggiornarse para poder frenarlo. Es un llamado de atención para nosotros. Es tan grave cuando la IA afecta temas tan importantes como la democracia, atenta contra algo fundamental como es la credibilidad pública”. Mencionó que en Argentina hay un caso conocido donde la Cámara Nacional Electoral “confirmó el procesamiento de una mujer, que es la directora de una agencia de marketing, desde cuya cuenta se publicaron los videos en la provincia de Córdoba, del caso Lospennato. Cuando se publica ese video, las redes sociales más importantes como Facebook, termina teniendo una trazabilidad y todos los datos de la persona que publica. Ella termina siendo acusada por el delito del artículo 140 de nuestro Código Electoral, es un delito penal. Necesitamos una ley que proteja lo que nosotros queremos proteger, en este caso es no engañar al votante para que vote o deje de votar a alguien”. Indicó que “no es necesario tener tanto conocimiento y herramientas para hacer deepfakes. Hice una prueba con una computadora en mi casa, necesité solamente una foto de Scaloni para hacer una filmación. Tiene un nivel de detalles impresionante, incluso muestra las sombras. No solamente puedo hacer un video con la cara de Scaloni, sino que también puedo obtener su voz”. Por otra parte, señaló que “la tecnología no es ni buena ni mala, sino que somos las personas las que la utilizamos con determinado fin. En muchos casos la usan para estafar, para cometer un delito o engañar un votante. También se usa para cosas buenas. No hay que criminalizar la tecnología”. Mencionó que una herramienta fundamental para combatir esto “es la alfabetización digital, es decir, que la gente esté cada vez más capacitada para usar lo que cotidianamente se usa o el sistema esté empujando a utilizar. La pandemia ha introducido a mucha gente a introducirse al comercio electrónico y demás. La alfabetización enseña a la gente a que distinga”. “El derecho penal lo que busca es proteger un bien jurídico determinado. Si queremos proteger la identidad, por ejemplo, hay que tener en cuenta que hoy en Argentina no es delito hacerse pasar por otro. Es clave apuntar a la responsabilidad de los intermediarios. Estos videos no se viralizan solos, hay alguien que pone dinero, alguien que está ganando dinero”, dijo. Por otro lado, indicó que “hace mucho que la política, antes de ir a un barrio, usa la tecnología, procesan los datos de las quejas de los vecinos para adecuar los discursos políticos y decirle a la gente lo que quiere escuchar”. Remarcó que “criminalizar una conducta no es la solución al problema. Para ejemplificar, en Argentina criminalizamos el grooming y no bajaron los casos. Siempre hay que alfabetizar, no es suficiente pero sirve muchísimo”. “La Inteligencia Artificial aún tiene problemas para el pelo, con el movimiento natural, los microgestos, los párpados, los dientes. Si uno desconfía en una videollamada, por ejemplo, debe pedirle a la otra persona que abra la boca. La IA no sabe dibujar los dientes por ahora. Internet no es un medio de comunicación que pasa por una verificación. Siempre en el diario, la radio o la televisión hay una curaduría del contenido y es algo que no ocurre en internet. En la inmediatez de llegar al contenido, sumado al sesgo de confirmación que no ayuda, no nos tomamos el tiempo de pensar si algo es falso o no”, agregó. “Hay una destrucción tan grande del concepto de privacidad que lo que yo me guardo para mi esfera privada pareciera ser algo malo. Hay una tendencia a publicarlo todo. Es como que si algo en mi vida no es mostrable, pareciera ser turbio. También hace falta mayor presencia estatal para la protección de los ciudadanos, algo que en Latinoamérica no ocurre. La gente tiene que saber a dónde van a parar sus datos. Cada vez hay más aplicaciones gratuitas porque el negocio está en los datos”, finalizó. Elonce.com Deepfakes y democracia: La amenaza invisible que ya está entre nosotros
Ver noticia original