07/02/2025 00:44
07/02/2025 00:44
07/02/2025 00:43
07/02/2025 00:36
07/02/2025 00:36
07/02/2025 00:35
07/02/2025 00:35
07/02/2025 00:35
07/02/2025 00:34
07/02/2025 00:34
» El Ciudadano
Fecha: 06/02/2025 22:00
La comuna de Soldini se sobresaltó por la circulación de cientos de imágenes de algunos de sus habitantes que aparecían desnudos en redes sociales. Un chico, que está identificado, tomó fotos de perfiles de Instagram y las intervino con inteligencia artificial para luego ponerlas en circulación. Ya hay una denuncia judicial, porque entre los afectados hay adolescentes y menores. Por lo que se supo, se trata de unas 300 personas las expuestas con la modificación de sus fotos. La madre de una de las víctimas, una de las denunciantes, señaló que el responsable es un chico de 16 años, vecino de la comuna ubicada a unos 16 kilómetros al sudoeste de Rosario que cuenta con algo más de 3 mil habitantes. Cecilia, mamá de una pequeña afectada por la manipulación de su imagen, relató que la inquietud comenzó a expandirse el pasado domingo cuando ella y otros padres detectaron, en los grupos de WhatsApp de sus hijos, «fotos de nenas del pueblo desde los ocho o nueve años de edad, desnudas”. La mujer agregó que “las fotos fueron extraídas de Instagram, se hicieron capturas» mediante una aplicación que habilita, además, a modificar las imágenes. Los padres consiguieron detectar unas 300 fotos de integrantes de al menos 25 familias, todas de Soldini. “Hay muchas menores de edad, un mayor y grupos de hockey femenino, un surtido de personas del pueblo”, precisó Cecilia. Sobre el autor de la viralización, apuntó que se trata de un chico que “asiste a la escuela», es conocido en el pueblo y, además, interactúa con la comunidad en varias actividades. “Quedamos inmóviles porque no tenemos las herramientas ni se conoce mucho sobre el tema. Primero hablamos con los padres (del chico responsable de la edición de las fotos), pero no tuvimos una buena respuesta y minimizaron el caso”, dijo Cecilia. “Después se comunicó gente de la comuna para ver qué recursos judiciales teníamos. Elevamos una denuncia y estamos viendo cómo se procede. Lo que más nos interesa es que el rostro de nuestras hijas no se esté difundiendo por todos lados de esa manera”, reclamó otra mamá. Difícil de tipificar y antecedentes en el país Como suele ocurrir ante el avance tecnológico acelerado, la legislación corre por detrás y se generan vacíos legales ante hechos que pueden ser tipificados como delitos pero no lo están. El Código Penal no dice nada sobre la creación o difusión de pornografía infantil creada con IA, explicó la presidenta de la Comisión de Inteligencia Artificial del Colegio de Abogados de Rosario, Claudia Guardia. El artículo 128 del CP refiere a la producción, distribución y/o comercialización de material de abuso sexual infantil o material sexual infantil. El Código Civil menciona las afectaciones al derecho a la imagen, la intimidad e integridad. Pero no hacen referencia a la inteligencia artificial sino a imágenes sin manipular. Todo eso, agravado por lo complejo que resulta impedir la viralización de las imágenes en el espacio virtual, del cual incluso se pueden descargar antes de que dejen de ser públicas. En Europa, el delito de manipulación de imágenes es conocido como deepfake, una figura de delito penal. En la Argentina, hubo varios casos similares. En octubre pasado, el epicentro fue un colegio privado religioso de la localidad bonaerense de San Martín, en la zona norte del conurbano. Un grupo de padres y madres acusó a un alumno de 15 años de vender fotos de sus compañeras modificadas con inteligencia artificial para que aparecieran desnudas. El adolescente había creado un negocio ilegal para comercializar esas imágenes falsas de al menos 22 chicas. El chico difundía primero el material de forma gratuita, pero después empezó a vender el pack de fotos de sus compañeras a 25 mil pesos. Entre sus clientes hubo otros adolescentes, pero también adultos. En agosto del mismo año, casos similares fueron denunciados en las ciudades rionegrinas de General Roca y Cipolletti. También allí, fotos de adolescentes con agregado de contenido sexual mediante inteligencia artificial se viralizaron en grupos de redes sociales. Los responsables de los montajes y la distribución de las imágenes también eran menores. Las primeras fotos retocadas aparecieron en la red de mensajería Telegram y rápidamente comenzaron a compartirse en distintos grupos. Los padres de las menores afectadas presentaron una denuncia y a partir de allí se inició una investigación para identificar a los responsables.
Ver noticia original