26/02/2026 15:34
26/02/2026 15:34
26/02/2026 15:34
26/02/2026 15:34
26/02/2026 15:32
26/02/2026 15:32
26/02/2026 15:32
26/02/2026 15:32
26/02/2026 15:32
26/02/2026 15:31
» TN
Fecha: 26/02/2026 09:41
Los protocolos de seguridad de Meta vuelven a estar bajo escrutinio tras la divulgación de documentos judiciales y testimonios de ejecutivos recientemente desclasificados. Una vez más, el foco es la actividad de los menores de edad en Instagram. Leé también: Samsung presenta los Galaxy S26: las 3 claves del anuncio En una demanda que indaga eventuales características dañinas y adictivas de las redes sociales, los fiscales consultaron a representantes de Meta por qué demoraron tanto tiempo en implementar herramientas de seguridad básicas en esa plataforma. Entre ellas, un filtro que elimine contenido con desnudez en mensajes enviados a cuentas de adolescentes. La justicia advirtió que la compañía había identificado el problema en el 2018 y que, sin embargo, recién lanzó la función de protección seis años más tarde. En ese marco, el CEO de Instagram, Adam Mosseri, deslizó que recibió presiones para demorar el despliegue de esas medidas. Cosas horribles en los mensajes privados de Instagram Los comentarios de Mosseri salieron a la luz en una declaración desclasificada en una demanda federal. El director ejecutivo de Instagram fue consultado por intercambios de correos que mantuvo en el 2018 con Guy Rosen, director de seguridad de Meta, donde mencionó que podían ocurrir cosas horribles en los mensajes directos de la red social, incluyendo el envío de imágenes sexuales explícitas, incluso en cuentas de menores de edad. Leé también: Detalles del histórico juicio contra Instagram, YouTube y TikTok: los detalles de las acusaciones El titular de TechCrunch es revelador: El director de Instagram fue presionado para retrasar el lanzamiento de funciones de seguridad para adolescentes, como un filtro de desnudez, según revela un documento judicial. Aquel testimonio ante la justicia también reveló una serie de estadísticas preocupantes acerca de la actividad de los adolescentes en Instagram. Por ejemplo, que más del 19% de los chicos de entre 13 y 15 años afirmó en una encuesta que encontró desnudos y/o imágenes sexuales en la red social, que no quería ver. Además, que casi el 9% de ese grupo etario vio contenido relacionado con autolesiones en la plataforma. A los fiscales les interesaba más la demora en actuar, que si la aplicación es ahora más segura para los adolescentes, observa la fuente mencionada. La respuesta de Meta Durante más de una década, hemos escuchado a los padres, trabajado con expertos y fuerzas del orden, y realizado investigaciones exhaustivas para comprender los problemas más importantes, dijo Liza Crenshaw, vocera de la compañía de redes sociales. Utilizamos estos conocimientos para implementar cambios significativos, como la introducción de Cuentas para Adolescentes con protecciones integradas y el suministro de herramientas a los padres para gestionar las experiencias de sus hijos. Estamos orgullosos del progreso que hemos logrado y siempre estamos trabajando para mejorar, agregó. Leé también: Las redes sociales, obligadas a mostrar advertencias de riesgos en un Estado clave de EE.UU. Meta no es la única empresa que está bajo la lupa de la justicia, en este caso en un proceso que se realiza en el Distrito Norte de California. Entre los apuntados también se encuentran TikTok (ByteDance) y Google, en el último caso con el foco en YouTube. Los abogados de los demandantes esperan demostrar que los responsables de esas plataformas priorizaron sus propios intereses, como aumentar los ingresos, por sobre la protección ante posibles daños, especialmente a los menores de edad. Cabe recordar que en el 2021, Instagram intentó lanzar una versión para chicos menores de 13 años (la versión Kids), proyecto que fue cancelado luego de críticas y cuestionamientos provenientes de diversos sectores, como grupos de defensa y legisladores.
Ver noticia original