24/11/2025 09:45
24/11/2025 09:44
24/11/2025 09:43
24/11/2025 09:42
24/11/2025 09:42
24/11/2025 09:41
24/11/2025 09:41
24/11/2025 09:41
24/11/2025 09:40
24/11/2025 09:40
Concordia » Hora Digital
Fecha: 24/11/2025 08:30
Un documento judicial presentado en California expone que Meta conocía los peligros para niños y adolescentes en sus plataformas, pero priorizó el crecimiento y ocultó información al público y al Cong Un expediente judicial presentado en el Distrito Norte de California, Estados Unidos, reveló este viernes acusaciones graves contra Meta por la forma en que habría manejado los riesgos que enfrentan niños y adolescentes en Facebook e Instagram. Los documentos forman parte de una demanda colectiva que incluye a más de 1.800 denunciantes y aseguran que la empresa estaba al tanto de problemas de seguridad, pero eligió minimizar su alcance para no afectar la presencia de menores, uno de sus públicos más estratégicos. El archivo contiene testimonios bajo juramento de ejecutivos actuales y antiguos, investigaciones internas, comunicaciones confidenciales y presentaciones corporativas obtenidas durante el proceso judicial. Destaca la declaración de Vaishnavi Jayakumar, exdirectora de seguridad y bienestar de Instagram, quien señaló que la plataforma tenía una política llamada “17x” para sancionar cuentas vinculadas presuntamente con la trata sexual: “Podrías incurrir en 16 infracciones por prostitución y solicitación sexual, y con la 17.ª tu cuenta sería suspendida”, informó el portal Perfil. Los demandantes sostienen que Meta sabía desde hace años que millones de adultos desconocidos contactaban a menores, que circulaba contenido sobre autolesiones, trastornos alimentarios y abuso sexual infantil sin ser removido, y que sus productos agravaban problemas de salud mental entre adolescentes. Sin embargo, la empresa ocultó estos daños tanto al público como al Congreso y bloqueó internamente propuestas para mejorar la seguridad. Según la presentación, Meta habría seguido una “estrategia de crecimiento a toda costa”, enfocada en atraer y retener usuarios jóvenes, incluso cuando investigaciones internas indicaban que sus plataformas podían ser adictivas y dañinas para menores. “Meta ha diseñado productos que sabe que son adictivos para los niños”, afirmó a la revista TIME el abogado de los demandantes, Previn Warren, y agregó: “Lo hicieron porque un mayor uso significaba mayores beneficios”. Los demandantes también denunciaron que Meta mantenía un umbral “excepcionalmente alto” para sancionar cuentas vinculadas con trata sexual, a pesar de que públicamente defendía políticas de tolerancia cero. Jayakumar relató que al ingresar a la empresa en 2020 descubrió la regla “17x”, que según ella representaba un nivel de sanción “muy, muy alto” en comparación con la industria. Además, señalaron que Instagram no ofrecía mecanismos claros para denunciar abuso sexual infantil, aunque sí permitía reportar faltas menores como spam o infracciones de propiedad intelectual. Jayakumar pidió repetidamente que se creara un canal específico para denunciar este tipo de contenido, pero le respondieron que era “demasiado difícil de solucionar”. El expediente advierte que Meta nunca informó a padres, al público ni a las autoridades que no eliminaba cuentas que participaban más de quince veces en tráfico sexual, lo que permitió que perfiles vinculados a explotación permanecieran activos por largos períodos. Estas fallas eran conocidas internamente y señaladas por equipos de seguridad y bienestar, pero los altos ejecutivos bloquearon soluciones por temor a afectar la interacción con adolescentes o el crecimiento de la plataforma. El problema se agravó con funciones como Reels, que facilitan la difusión masiva de contenido a audiencias desconocidas. Las interacciones inapropiadas entre adultos y menores se volvieron tan comunes que la empresa creó un acrónimo interno para referirse a ellas: “IIC”, Interacciones Inapropiadas con Niños. Una auditoría interna de 2022 detectó que la función “Cuentas que Podrías Seguir” recomendó 1,4 millones de adultos potencialmente inapropiados a adolescentes en un solo día. A pesar de estas alertas, las configuraciones de privacidad por defecto no se modificaron hasta 2024, cuatro años después de que varios equipos recomendaran el cambio. Otro punto clave del expediente es que Meta habría ocultado evidencia interna sobre el impacto negativo de Facebook e Instagram en la salud mental de adolescentes. Desde 2017, la empresa contaba con investigaciones que mostraban mayores tasas de ansiedad, depresión y soledad entre jóvenes con alto tiempo de uso. A fines de 2019, desarrollaron un “estudio de desactivación” en el que un grupo de usuarios dejó de usar las plataformas durante una semana y reportó menos ansiedad y depresión. Sin embargo, Meta suspendió el estudio y no publicó sus conclusiones, alegando que podrían ser malinterpretadas debido a “narrativas mediáticas existentes”. Un empleado expresó su preocupación en un mensaje interno citado en el expediente: “Si los resultados son malos y no los publicamos y se filtran, ¿parecerá que las tabacaleras hicieron investigaciones y sabían que los cigarrillos eran malos y luego guardaron esa información para sí mismas?”. Pese a estos datos, en diciembre de 2020 la empresa negó ante el Comité Judicial del Senado que pudiera determinar si un mayor uso entre adolescentes se relacionaba con más signos de ansiedad o depresión. Según los demandantes, esa respuesta fue deliberada: “La empresa nunca divulgó públicamente los resultados de su estudio de desactivación. En cambio, Meta mintió al Congreso sobre lo que sabía”, destacó Perfil. El expediente también sostiene que Meta decidió no eliminar automáticamente contenido dañino, incluido material de abuso sexual infantil, aunque sus sistemas de inteligencia artificial identificaban con certeza que violaba las políticas. Para contenido relacionado con autolesiones, el umbral para activar la eliminación automática era del 94%, lo que permitía que gran parte de esas publicaciones siguieran activas y accesibles para adolescentes. Finalmente, el documento revela que Meta implementó estrategias explícitas para captar y retener adolescentes, incluso preadolescentes, en sus plataformas. En 2017, Mark Zuckerberg propuso que el “tiempo dedicado por los adolescentes” fuera una métrica principal para la empresa. Documentos internos de 2024 indicaban que “captar nuevos usuarios adolescentes es fundamental para el éxito de Instagram”. La compañía desplegó iniciativas para ingresar en escuelas, trabajar con asociaciones de padres y maestros, y desarrollar campañas dirigidas a estudiantes. También utilizó datos de ubicación para enviar notificaciones masivas durante horarios escolares, en lo que empleados describieron como “bombardeos escolares”. Uno escribió: “Una de las cosas que necesitamos optimizar es evitar que miren tu teléfono debajo del escritorio en medio de la clase de Química :)”. Los demandantes sostienen que Meta sabía que millones de menores de 13 años usaban sus plataformas, a pesar de que la política de la empresa lo prohíbe y la ley estadounidense exige protecciones especiales para esa franja etaria. Investigaciones internas indicaban que en 2015 había 4 millones de usuarios menores de 13 años en Instagram, y para 2018 el 40 % de niños de 9 a 12 años afirmaban usar la aplicación diariamente. Según el expediente, esta estrategia era deliberada, ya que Meta analizó el comportamiento digital de niños de 5 a 10 años y evaluó productos diseñados para captar a preadolescentes. Algunos empleados compararon estas prácticas con las de las tabacaleras, señalando que “Zuck lleva tiempo hablando de eso… dirigirse a niños de 11 años parece propio de las tabacaleras”. En cuanto a medidas de seguridad, la empresa archivó o postergó repetidamente proyectos presentados por empleados que podrían haber reducido la exposición a daños. Uno de ellos fue el Proyecto Daisy, destinado a ocultar los “me gusta” para disminuir la comparación social negativa. Aunque los investigadores demostraron su efecto positivo, Meta retrasó el proyecto durante años porque era “bastante negativo para las métricas de Facebook”, según el testimonio citado.
Ver noticia original