10/02/2025 13:29
10/02/2025 13:28
10/02/2025 13:28
10/02/2025 13:28
10/02/2025 13:27
10/02/2025 13:26
10/02/2025 13:26
10/02/2025 13:25
10/02/2025 13:24
10/02/2025 13:20
Crespo » Estacion Plus
Fecha: 09/02/2025 19:50
Tuvo como víctimas a adolescentes de entre 12 y 15 años, y fueron difundidas a través de redes sociales. EL consultor de la ONG Argentina Cibersegura analizó el fenómeno, que ahora consterna a otra localidad. En las últimas horas el pueblo de Soldini, ubicado a 15 kilómetros de Rosario, se conmocionó con la viralización de imágenes creadas con inteligencia artificial. La mayoría de las víctimas son adolescentes de entre 12 y 15 años, quienes junto a sus familias buscan enfrentar esta traumática situación social. La preocupación por el uso indebido de imágenes en redes sociales ha crecido en Argentina, especialmente tras recientes incidentes que involucran la manipulación de fotos de menores de edad. Había sucedido en Córdoba y otras localidades, a la que ahora se suma Soldini: desnudos a los que se les impone de manera profesional y sin defectos -a través de la Inteligencia Artificial-, los rostros de adolescentes de la ciudad. Rodrigo Álvarez, consultor en ciberseguridad y coordinador de la ONG Argentina Cibersegura, explicó a Cadena3 (FM Crespo 90.7), que "la inteligencia artificial llegó sin concientizar, sin educar a los usuarios", lo que facilita que cualquier persona con acceso a imágenes pueda modificarlas con fines dañinos. Álvarez señaló que "evitar que suceda es bastante difícil" ya que los agresores suelen tener acceso a los perfiles de sus víctimas a través de plataformas como Instagram y TikTok. "Lo que hay que hacer es tomar conciencia sobre la privacidad como usuarios de Internet", enfatizó, sugiriendo que los usuarios deben ser cautelosos con los contenidos que deciden compartir en línea. La viralización de imágenes manipuladas a través de aplicaciones como WhatsApp y Telegram plantea un desafío adicional. El experto en ciberseguridad expuso que "WhatsApp tiene un convenio de colaboración con fuerzas de seguridad a nivel mundial" para detectar contenido pornográfico infantil, pero "como la imagen está creada con inteligencia artificial y es una imagen nueva, no está hasheada", lo que impide que se active la alerta. El impacto de estas manipulaciones en la reputación y la salud mental de las víctimas es significativo. "Es un daño psicológico permanente", advirtió Álvarez, quien también mencionó que "perdemos el control completamente" sobre lo que ocurre con las imágenes una vez que son compartidas. La falta de una legislación adecuada para abordar estos problemas es otro punto crítico. "Modificar una ley de código penal para incorporar estas figuras nuevas no es algo tan simple", comentó el consultor quien esperó que se logren avances en este sentido. "Creo que es tiempo de que ya se hagan algunas modificaciones", concluyó.
Ver noticia original