05/02/2026 09:59
05/02/2026 09:59
05/02/2026 09:59
05/02/2026 09:58
05/02/2026 09:58
05/02/2026 09:58
05/02/2026 09:58
05/02/2026 09:58
05/02/2026 09:57
05/02/2026 09:57
» Clarin
Fecha: 05/02/2026 09:04
España quedó esta semana en el centro del debate global sobre el impacto de las redes sociales en niños y adolescentes al anunciar que prohibirá el acceso a estas plataformas a los menores de 16 años. La iniciativa, presentada por el presidente Pedro Sánchez como parte de un paquete más amplio de medidas para regular el ecosistema digital, fue celebrada por la Comisión Europea, aunque acompañada por una advertencia: cualquier avance deberá ajustarse estrictamente a la Ley de Servicios Digitales (DSA) de la Unión Europea y no podrá imponer nuevas obligaciones a las plataformas tecnológicas. Más allá del anuncio político, la discusión de fondo es más compleja. El consenso social en torno a la protección de los menores convive con dudas técnicas, legales y también democráticas sobre cómo se implementa la prohibición, quién controla su cumplimiento y qué otras regulaciones avanzan en paralelo. Qué está habilitada a hacer España Desde Bruselas, el respaldo fue explícito pero condicionado. Tenemos que ser extremadamente cuidadosos, señaló Thomas Regnier, vocero de política digital de la Comisión Europea. Valoramos que quieran ir un paso más allá restringiendo potencialmente el acceso de los niños a las redes sociales, pero imponer obligaciones adicionales a las plataformas no es posible, insistió. La normativa europea no impide que un país fije una edad mínima para acceder a redes sociales. De hecho, España, Francia, Dinamarca, Grecia e Italia lideran ese debate dentro de la Unión. Francia y Dinamarca, por ejemplo, avanzaron con límites de 15 años. La Comisión Europea, por ahora, evita legislar de manera unificada por falta de consenso entre los Veintisiete y considera que se trata de una competencia nacional. El verdadero interrogante aparece en la aplicación práctica. La DSA obliga a las plataformas a adoptar medidas adecuadas y proporcionadas para garantizar la seguridad y la privacidad de los menores, pero les da libertad para decidir cómo hacerlo. Allí es donde el plan español enfrenta su principal desafío. Verificar la edad, el punto crítico El nudo gordiano es encontrar un sistema fiable, admiten incluso desde el propio Gobierno. Métodos como el uso de tarjetas de crédito, el escaneo del DNI o el reconocimiento biométrico generan fuertes reparos por los riesgos que implican para la protección de datos personales, en especial cuando se trata de menores. España apuesta por una solución propia: la Cartera Digital Beta, presentada en 2024 por el Ministerio para la Transformación Digital y Función Pública. La aplicación participa en un proyecto piloto de la Comisión Europea y se basa en la futura Cartera de Identidad Digital Europea. Permite acreditar la mayoría de edad de forma anónima, sin revelar datos personales, y con credenciales que caducan cada 30 días para evitar la trazabilidad entre plataformas. La Comisión Europea destacó el desarrollo técnico de la herramienta y eligió a España para liderar el piloto europeo, pero fue clara en un punto clave: su uso no puede ser obligatorio. Las plataformas podrán recurrir a ella solo si lo desean y siempre que no cuenten con otros sistemas de verificación eficaces. Directrices, sanciones y límites legales Además de la verificación de edad, la DSA establece directrices específicas para la protección de los menores: cuentas privadas por defecto, imposibilidad de ser añadidos a chats sin consentimiento, desactivación de la reproducción automática de videos, restricciones a filtros de imagen, cámara, micrófono y geolocalización, y algoritmos que no recomienden contenidos ni publicidad inapropiados. Las grandes plataformas, definidas como aquellas con más de 45 millones de usuarios mensuales entre ellas X, Instagram, Facebook y TikTok, están obligadas a elaborar informes anuales de evaluación de riesgos y a implementar medidas para mitigarlos. Las sanciones por incumplimiento pueden alcanzar hasta el 6% de la facturación anual. Sánchez fue más allá al plantear que los directivos de las plataformas asuman responsabilidad legal en caso de infracciones. Esa posibilidad, sin embargo, no está contemplada en la DSA. El marco europeo sostiene que las compañías no son responsables del contenido generado por los usuarios, salvo que, una vez notificadas, no actúen para retirar material ilegal. Críticas al paquete completo En ese punto aparece una de las voces más críticas. Borja Adsuara, abogado experto en Derecho Digital, cuestiona la estrategia del Gobierno español. Hacen una técnica de comunicación desde La Moncloa, donde juntan muchas medidas, vendiendo la primera que es la de los menores, porque ¿quién no va a estar de acuerdo en la protección de los menores?, advierte. Pero luego cuelan de rondón alguna otra medida que no tiene que ver específicamente con los menores. Adsuara muestra especial preocupación por la propuesta de crear una huella del odio y de la polarización en redes sociales. Mientras nos tienen ocupados y entretenidos hablando de la prohibición del acceso de los menores de 16 años a las redes sociales, cuelan lo de hacer una huella del odio y de la polarización, que ya no va con los menores, sino con un intento de control". La pregunta central, para el especialista, es quién define los límites. ¿Quién va a decidir que un mensaje es información o desinformación, es discurso de odio o libertad de opinión, o es polarización o crítica a un Gobierno?, plantea. Y advierte que esas decisiones podrían quedar en manos de una unidad dependiente del Ejecutivo. Yo no quiero que esta arma la tenga ningún Gobierno. Los límites a la libertad de expresión los tienen que garantizar los jueces, no una unidad que dependa del gabinete del presidente. ¿Prohibir o educar? Sobre la restricción a los menores, Adsuara recuerda que no se trata de una idea nueva. La obligación de verificar la edad está hasta en tres reglamentos europeos. El problema es que no existe todavía la tecnología segura y eficaz para hacerlo sin poner en riesgo los datos personales, justamente de los menores, afirma. El abogado reconoce que reforzar estos mensajes puede servir de apoyo a los padres, pero también plantea reparos de fondo. Hay gente que dice que lo que hay que hacer es educar en el uso adecuado de las tecnologías y no crear niños burbuja, señala. Y va más allá: Privar no solo de redes sociales, sino incluso de los móviles hasta los 16 o 18 años, puede generar chicos que no estén preparados cuando finalmente accedan. Qué pasa en el resto del mundo España se suma así a una tendencia internacional que ya avanzó en países como Australia, Francia o Dinamarca, con resultados dispares y muchas incógnitas abiertas. En el plano europeo, el Parlamento respaldó por amplia mayoría la idea de fijar los 16 años como edad mínima generalizada, aunque la Comisión aún no presentó una iniciativa legislativa concreta. En Australia, que desde el 10 de diciembre de 2025 es el primer país que puso en marcha una prohibición legal de redes sociales para menores de 16 años, la responsabilidad de aplicar la norma recae exclusivamente sobre las plataformas. Según la legislación la Online Safety Amendment (Social Media Minimum Age) Act las empresas deben tomar medidas razonables para impedir que los menores creen o mantengan cuentas, y deberán implementar sistemas eficaces de verificación de edad en un plazo máximo de 12 meses. Aunque el Gobierno no impuso una tecnología única, las opciones que se barajan incluyen uso de documentos oficiales, reconocimiento de edad por IA o validación por terceros, y las sanciones por incumplimiento pueden llegar a decenas de millones de dólares por infracción. Sin embargo, pruebas previas sugieren que muchos métodos (como estimaciones por rasgos faciales o identificación algorítmica) todavía tienen errores, y pueden ser menos eficaces con adolescentes cercanos a los 16 años o con diversos perfiles demográficos, lo que abre dudas sobre la fiabilidad práctica del sistema. En Francia, donde la Asamblea Nacional aprobó un proyecto de ley para prohibir el acceso a redes sociales a menores de 15 años, la aplicación práctica de la medida también enfrenta retos técnicos. La legislación no especifica una única forma de verificación de edad, aunque se espera que los proveedores de redes requieran que todos los usuarios (incluidos los adultos) demuestren su edad, con la obligación de verificarla en nuevos perfiles desde septiembre de 2026 y en las cuentas existentes antes de fin de año. Las autoridades recomiendan soluciones centradas en la privacidad, como sistemas de doble anonimato basados en terceros verificadores o herramientas desarrolladas a nivel europeo, pero ningún método concreto está plenamente implementado. La falta de sistemas universales y eficaces ha generado críticas, y las plataformas deberán equilibrar estas exigencias con las normas de protección de datos y las directrices de la DSA. En Argentina, en tanto, no existe una prohibición legal equivalente a la que plantea España; sin embargo, el debate está empezando a moverse en el ámbito legislativo y social. Actualmente rige la Ley de Protección de Datos Personales, que articula el tratamiento de datos en entornos digitales y exige consentimiento de los padres para menores, y se conmemora cada 13 de noviembre el Día Nacional de Lucha contra el Grooming, que penaliza el acoso sexual de adultos a través de medios digitales y busca sensibilizar sobre los riesgos de contacto con menores en redes o apps. Además, el Ejecutivo y la Agencia de Acceso a la Información Pública promueven recomendaciones para proteger la privacidad y seguridad de niños y adolescentes en Internet, y en el Congreso se tramita un proyecto de ley de protección de menores en entornos digitales que propone elevar de 14 a 16 años la edad mínima de consentimiento para el tratamiento de los datos personales en plataformas. SL Newsletter Clarín
Ver noticia original