28/08/2025 15:32
28/08/2025 15:31
28/08/2025 15:31
28/08/2025 15:31
28/08/2025 15:31
28/08/2025 15:31
28/08/2025 15:30
28/08/2025 15:30
28/08/2025 15:30
28/08/2025 15:30
Buenos Aires » Infobae
Fecha: 28/08/2025 13:08
La familia del profesor etíope exige justicia tras la propagación de mensajes violentos en Facebook (Reuters) El asesinato del profesor universitario Meareg Amare Abrha en Etiopía ha expuesto las profundas fallas en la moderación de contenidos de Meta y ha desencadenado una demanda internacional de USD 2.000 millones que podría obligar a la compañía a transformar sus algoritmos y políticas de control en todo el mundo, según reveló Future Media de Ricky Sutton. Según detalla The Guardian, la tragedia comenzó en noviembre de 2021 cuando publicaciones anónimas en Facebook, desde la cuenta BDU STAFF con más de 50.000 seguidores, acusaron falsamente al profesor de apoyar al TPLF, un grupo militar enemigo. Su hijo, Abrham Amare, advirtió de inmediato el peligro: “Muchos salieron en defensa de mi padre, diciendo que era un profesor querido y que las acusaciones eran falsas. “Otros nos urgieron a no perder tiempo y a avisar a mi padre para que huyera”, relató Abrham. La situación se agravó cuando los comentarios en la publicación incitaban a la violencia: “Los comentarios en la publicación pedían a la gente beber la sangre de mi padre y actuar de inmediato”, afirmó Abrham. El hijo de Meareg Amare Abrha, Abrham Meareg (Foxglove) A pesar de los reiterados intentos de Abrham por alertar a Facebook y solicitar la eliminación de los mensajes, la respuesta de la plataforma fue nula. “Sabía que el contenido extremo atrae atención extrema. Intenté que Meta los eliminara, pero no lo hicieron. Tres semanas después, mi padre perdió la vida”, denunció Abrham. La respuesta de Meta llegó recién el 11 de noviembre, ocho días después del asesinato. El ataque ocurrió el 3 de noviembre de 2021, poco después del mediodía, cuando el profesor Abrha fue emboscado al llegar a su casa. “Testigos afirman que los perpetradores lo siguieron desde la universidad y rodearon nuestra casa, planeando emboscarlo. Uno se acercó y le disparó primero en la pierna y luego en el hombro derecho. Citaban las publicaciones de Facebook y disparaban a plena luz del día”, detalló Abrham. La organización británica Foxglove, dedicada a la investigación y defensa de derechos digitales, tomó el caso como ejemplo de la responsabilidad corporativa de Meta. Rosa Curling, abogada de Foxglove, subrayó: “Semanas antes del ataque, dos publicaciones racistas en Facebook habían publicado su foto, lo habían doxeado, señalado el barrio donde vivía y pedido su asesinato”. Curling añadió: “La tragedia del profesor, lamentablemente, es una entre miles. En todo el mundo hemos visto cómo el diseño de Facebook ha avivado el odio y la violencia”. La demanda, presentada en Kenia, busca que Meta implemente en África las mismas medidas de emergencia que utilizó tras el asalto al Capitolio en Estados Unidos el 6 de enero de 2021. “Queremos priorizar la seguridad de los 500 millones de personas que viven en África Oriental y Meridional por encima de las ganancias de Mark Zuckerberg”, sostuvo Curling. Entre las exigencias figuran la contratación de más moderadores, una disculpa pública y la creación de un fondo de USD 2.000 millones para víctimas de odio y violencia en Facebook. La investigación de Foxglove reveló que, en Etiopía, Meta contaba con solo 25 moderadores para una población de 118 millones de personas y 85 lenguas, de las cuales solo tres eran cubiertas por el equipo. “Sabemos por nuestro trabajo de investigación que para Etiopía, una población de unos 118 millones en ese momento, con 85 idiomas hablados, había 25 moderadores de contenido en tres de los idiomas hablados en Etiopía”, denunció Curling. “Literalmente no hay nadie encargado de mantener seguros a los usuarios de Facebook. Y va mucho más allá. El padre de Abrham no era usuario de Facebook. Se trata de mantener seguras a todas nuestras comunidades”. Los mensajes anónimos en Facebook precedieron el ataque mortal al académico en Etiopía La abogada también criticó la distribución desigual de recursos de Meta: “El 87 % del presupuesto de desinformación de Meta se gasta en Estados Unidos. Solo el 13 % para los 53 países africanos, toda América Latina y Oriente Medio. Eso significa que todas esas comunidades quedan desprotegidas. Es discriminación absoluta”. Meta ha intentado argumentar que los tribunales kenianos no tienen jurisdicción sobre sus operaciones, pero la justicia africana ha rechazado esa postura. “Meta, muy predeciblemente, ha argumentado que los tribunales kenianos no tienen jurisdicción sobre ellos en relación con sus actividades en Kenia. Eso es realmente indignante”, afirmó Curling. “Me complace decir que hemos ganado este argumento tres veces”. La demanda exige que Facebook deje de promover el odio viral y utilice las mismas herramientas que aplicó en Estados Unidos para frenar la incitación violenta. “Hemos visto en Estados Unidos que puede cambiar ese diseño algorítmico de la noche a la mañana. Y puede permitirse contratar suficientes moderadores de contenido para mantener la plataforma segura. Está eligiendo no hacerlo. Es una elección”, sentenció Curling. Para Abrham, el caso representa una lucha por la justicia y la protección de millones: “Este caso es un hito para proteger millones de vidas y personas vulnerables en toda África. Los negocios no deberían seguir como siempre para Facebook a costa de nuestro dolor, nuestra miseria. Nuestro sufrimiento no debe ser una forma de obtener ganancias para la plataforma. Sé que es un camino largo, pero sin importar las barreras, estamos luchando, estamos moviendo montañas para lograr justicia para mi padre y para las personas sin voz en todo el mundo”.
Ver noticia original