10/02/2026 17:00
10/02/2026 17:00
10/02/2026 16:59
10/02/2026 16:59
10/02/2026 16:59
10/02/2026 16:59
10/02/2026 16:59
10/02/2026 16:59
10/02/2026 16:59
10/02/2026 16:59
» La Nacion
Fecha: 10/02/2026 14:11
Encontrá las guías de servicio con tips de los expertos sobre cómo actuar frente a problemas cotidianos: Adicciones, violencia, abuso, tecnología, depresión, suicidio, apuestas online, bullying, transtornos de la conducta alimentaria y más. Bajo presión, las principales redes sociales acuerdan ser calificadas por su seguridad adolescente WASHINGTON. Las tres principales redes sociales acordaron someterse a una evaluación independiente para estimar qué tan efectivamente protegen la salud mental de los usuarios adolescentes a partir de una batería de tests anunciados hoy martes por una coalición de organizaciones civiles. En función de esos tests, se calificará si las plataformas tienen pausas obligadas o si incluyen la opción de apagar el scroll infinito, entre otras muchas mediciones sobre sus políticas de seguridad y su compromiso con la transparencia. Las plataformas que obtengan altas calificaciones recibirán la insignia de un escudo de color azul, mientras que las que obtengan bajas calificaciones serán etiquetadas como no aptas para bloquear contenidos dañinos. Las tres primeras empresas en aceptar la evaluación y anotarse para el proceso fueron Meta que opera Facebook e Instagram, TikTok y Snap. Espero que este nuevo conjunto de estándares y clasificaciones ayude a mejorar la salud mental de los adolescentes, apunta Dan Reidenberg, director general del Consejo Nacional para la Prevención del Suicidio de Estados Unidos, quien supervisó el desarrollo de los criterios de medición. Y espero que al mismo tiempo también transforme a las empresas tecnológicas: que realmente las ayude a modificar la forma en que diseñan, desarrollan e implementan sus herramientas. Los adolescentes son un grupo etario muy codiciado por las redes sociales, y los nuevos estándares llegan en un momento en que la industria tecnológica enfrenta crecientes presiones para proteger mejor a sus usuarios jóvenes. De hecho, en los tribunales de Estados Unidos hay una oleada de demandas que alegan que las tecnológicas líderes diseñan sus plataformas para que sean adictivas. El Congreso está considerando una serie de proyectos de ley elaborados para proteger la seguridad infantil online. Y los legisladores de los diferentes estados norteamericanos han intentado imponer límites de edad para el uso de las redes sociales. Pero esos esfuerzos dieron pocos frutos. Algunos expertos legales argumentan que los adolescentes y a sus familias pueden tener problemas para demostrar ante la Justicia que existen una conexión entre el uso de las redes sociales y los problemas que enfrentan. Por su parte, el gobierno norteamericano no logra ponerse de acuerdo sobre cómo regular esa industria, y las leyes aprobadas por los estados se toparon con impugnaciones basadas en la Primera Enmienda de la Constitución de Estados Unidos. Pero estos nuevos estándares voluntarios representan un enfoque alternativo. Reidenberg dice que las calificaciones no reemplazan la legislación que hace falta, sino que serán una herramienta útil para que adolescentes y padres decidan cómo interactuar con determinadas aplicaciones. El proyecto cuenta con el respaldo de la Coalición de Salud Mental, una organización civil fundada por el diseñador de moda Kenneth Cole. Según Cole, los nuevos estándares reconocen que la tecnología y las redes sociales hoy tiene un impacto real en la salud mental, especialmente entre los jóvenes, y ofrecen un camino claro hacia espacios digitales que fomentan un mayor bienestar. ¿Consenso científico? Todavía no hay consenso científico sobre si las redes sociales son perjudiciales para niños y adolescentes. Aunque algunas investigaciones han revelado que quienes más las usan tienen peor salud mental, otros estudios revelan que los jóvenes que no están conectados también pueden tener problemas. Sin embargo, son los propios adolescentes los dicen estar más preocupados por respecto al tiempo que pasan conectados, en particular las chicas, que en una encuesta del Centro de Investigaciones Pew de 2024 respondieron que las aplicaciones estaban afectando su autoestima, sus patrones de sueño y su salud mental en general. Reidenberg dice que en algunos casos es evidente que el tiempo que los jóvenes pasan en línea se vuelve problemático, y agrega que el nuevo sistema de calificación se desarrolló sin financiamiento de parte de la industria tecnológica, pero que las empresas deberán ofrecerse voluntariamente para participar. Antigone Davis, directora global de seguridad de Meta, señala que los nuevos estándares les brindarán a los usuarios una forma concreta de evaluar las protecciones de la plataforma y de hacer que las empresas rindan cuentas. La filial de TikTok en Estados Unidos expresó su interés por el proceso de clasificación, y Snap calificó el trabajo de la Coalición de Salud Mental como realmente impactante. Los organizadores comparan el proceso con la calificación de las películas por edad que hace Hollywood, o con la forma en que las autoridades regulatorias evalúan la seguridad de los autos nuevos. Las empresas presentarán sus políticas y diseños internos para que sean revisados por expertos externos, que elaborarán sus clasificaciones. En total, se medirá el desempeño de las empresas en unas dos docenas de criterios que abarcan sus políticas de seguridad, el diseño de la aplicación, la supervisión interna, la educación del usuario y los contenidos. Muchos de los estándares se centran específicamente en la exposición de los usuarios a contenidos sobre suicidio y autolesiones. Pero también apuntan al tiempo que algunas personas pasan navegando, y gratificarán a las plataformas que ofrezcan funciones de descanso, ya sean voluntarias u obligatorias. Las normas serán presentadas hoy en un evento en Washington. El senador demócrata por el estado de Virginia, Mark R. Warner, dice que recibe los nuevos estándares con satisfacción, pero que no pueden sustituir verdaderos medidas regulatorias. El Congreso tiene la responsabilidad de establecer salvaguardas aplicables y duraderas para que cada plataforma se haga responsable de sus efectos en los jóvenes y familiar que las usan, dice Warner. Por Ian Duncan (Traducción de Jaime Arrambide) Otras noticias de Salud mental Últimas Noticias Ahora para comentar debés tener Acceso Digital. Iniciar sesión o suscribite
Ver noticia original