Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • Infancias en Riesgo

    » Comercio y Justicia

    Fecha: 19/08/2025 05:52

    Por Santiago Sain (*) La infancia nunca fue prioridad para las grandes plataformas. Mientras las infancias navegan el mundo digital, una nueva amenaza se infiltra con forma de juego o video gracioso. Se trata de los deepfakes, creaciones generadas por inteligencia artificial (IA) que imitan rostros, voces y gestos, muchas veces sin consentimiento, y que hoy ponen en jaque los derechos fundamentales de niños, niñas y adolescentes. Una guía reciente de la Red de Inteligencia Colaborativa, con apoyo de la Asociación Argentina de Derecho Administrativo, advierte que la IA generativa no es solo una tecnología disruptiva, es también una puerta abierta a nuevas formas de manipulación y daño. Según el informe “Kids Online Argentina 2025” presentado por UNICEF Y UNESCO, más del 96% de los chicos tiene acceso a internet en su hogar, y el 88% se conecta a diario desde su celular. Las infancias están online, pero el mundo digital fue diseñado sin ellos. Plataformas como TikTok o YouTube Shorts, que habilitan el uso de IA sin filtros efectivos, se convierten en escenarios donde se juegan relaciones, identidades y derechos. Uno de los fenómenos más recientes es el del contenido “brainrot”: memes absurdos generados por IA que circulan entre adolescentes. A simple vista parecen inofensivos, pero instalan una estética de sobreestimulación, banalización del cuerpo y distorsión del consentimiento. En muchos casos, chicos y chicas suben imágenes propias o de compañeros a aplicaciones que luego generan deepfakes humorísticos, pero también sexualizados o directamente agresivos. Una de las grandes omisiones del entorno digital es el consentimiento informado. ¿Puede un niño de 12 años comprender que al subir su cara a una app, está cediendo su imagen para entrenar un modelo de IA? ¿Puede prever que su rostro aparecerá, meses después, en un video manipulado y viralizado? El artículo 26 del Código Civil y Comercial establece que los adolescentes de 13 a 16 años pueden decidir sobre tratamientos no invasivos, y desde los 16 son considerados adultos para decisiones sobre su cuerpo. El artículo 53 exige consentimiento para captar o reproducir imagen o voz, salvo excepciones (actos públicos, interés científico, cultural o informativo). De igual manera, en lo que refiere a la disposición de los derechos personalísimos, el artículo 55 del Código prescribe que el consentimiento es admitido, siempre que no sea contrario a la ley, la moral o las buenas costumbres, no resultando dicho consentimiento presumible, siendo de interpretación restrictiva y libremente revocable. La Ley 25.326 protege los datos personales, garantizando intimidad y autodeterminación informativa, conforme a estándares internacionales. Muchas apps ni siquiera verifican la edad de los usuarios. Y si bien algunas ofrecen términos y condiciones, estos suelen ser ilegibles incluso para adultos. El riesgo central de los deepfakes no reside únicamente en su capacidad de engaño, sino en la apropiación y reproducción no autorizada de identidades digitales. La inteligencia artificial no solo registra una imagen, la interpreta, aprende su lógica expresiva y genera contenido sintético que simula gestos, emociones y voz con alta fidelidad. Cuando hablamos de chicos, el peligro es mucho mayor. Pueden sufrir burlas, acoso, que sexualicen su imagen, y quedar marcados emocionalmente. Esto les puede afectar la autoestima y herirlos de por vida. Casos recientes en Argentina muestran que la amenaza no es teórica. En Córdoba, un joven fue procesado por crear deepfakes pornográficos con rostros de compañeras. En Buenos Aires, dos estudiantes replicaron esta conducta, generando daño psicológico comprobado. Ante el vacío legal, las fiscalías encuadran estos hechos como “lesiones graves mediando violencia de género” o “pornografía infantil agravada”, según el contenido. La Corte Suprema también encendió alarmas. En el fallo “Serantes” (2021), reconoció que la reproducción artificial de la voz sin consentimiento vulnera la intimidad e integridad de las personas. Ese criterio debe extenderse a imágenes, gestos y datos biométricos manipulados con IA. En el plano internacional, Estados Unidos sancionó la ley “Take It Down”, que obliga a eliminar contenidos generados sin consentimiento. En Europa, el Reglamento de Servicios Digitales exige trazabilidad algorítmica y protección reforzada para menores. El AI Act establece controles estrictos sobre sistemas que afectan derechos fundamentales. Reino Unido aplica el Age Appropriate Design Code y Australia, el Online Safety Act, autoriza al ente regulador a dar de baja deepfakes abusivos o no consentidos. ¿Y en Argentina? Si bien existen normas como la Ley 26.061 (protección integral de derechos de niños y adolescentes) y la Ley 25.326 (protección de datos personales), la realidad digital exige más: regulaciones específicas para IA generativa y garantías aplicables a plataformas. La guía nacional propone medidas concretas: controles parentales, alfabetización digital, acompañamiento activo, evaluación previa de apps, y sobre todo, diálogo. La responsabilidad debe ser compartida, los desarrolladores deben garantizar sistemas éticos, los Estados legislar y controlar, y los adultos responsables acompañar. La infancia es un territorio protegido, también en el entorno digital. Y como toda frontera vulnerable, necesita una regulación clara y completa. En definitiva, proteger la imagen, la voz y los datos de los más chicos implica garantizar el ejercicio pleno de sus derechos personalísimos, reconocidos por la Constitución Nacional, los tratados internacionales y el Código Civil y Comercial. Es deber del Estado, las plataformas y los adultos responsables adoptar medidas eficaces que aseguren que el entorno digital no se transforme en un territorio de impunidad para la vulneración de sus derechos fundamentales. (*) Abogado, Especialista en Derecho del Trabajo

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por