Informe: Algoritmos de Facebook promovieron la violencia contra los rohingya

AAmnistía Internacional acusó el miércoles a la empresa matriz de Facebook, Meta, de haber “contribuido sustancialmente” a las violaciones de derechos humanos perpetradas contra el grupo étnico rohingya de Myanmar.

en un nuevo reporte, Amnistía afirma que los algoritmos de Facebook “amplificaron de forma proactiva” el contenido anti-rohingya. También alega que Meta ignoró las súplicas de los civiles y activistas para frenar la incitación al odio en la plataforma de redes sociales mientras se beneficiaba de una mayor participación.

La aparente incapacidad de Facebook para manejar el discurso de odio y la desinformación en línea se ha convertido en un importante problema fuera de línea para muchos países del mundo. Amnistía pide al gigante tecnológico que proporcione reparaciones a las comunidades afectadas.

Lee mas: Dentro de la explotación africana de Facebook

Los rohingya han sido perseguidos por la mayoría budista de Myanmar durante décadas, pero Facebook ha exacerbado la situación, dice Amnistía. El grupo de derechos humanos afirma que Tatmadaw, las fuerzas armadas de Myanmar, usó Facebook para impulsar la propaganda contra los rohingya y acumular apoyo público para una campaña militar de asesinatos desenfrenados, violaciones e incendios provocados contra la minoría predominantemente musulmana en agosto de 2017.

Posteriormente, más de 730.000 rohingya en el estado occidental de Rakhine fueron obligado a refugiarse en campamentos en la vecina Bangladesh. Hoy, más de un millón de rohingyas viven en el exilio, y los líderes militares de Myanmar enfrentan cargos de genocidio en la Corte Internacional de Justicia.

A Misión de investigación de la ONU en 2018 determinó que Facebook había sido un “instrumento útil” para vilipendiar a los rohingya en Myanmar “donde, para la mayoría de los usuarios, Facebook es Internet”. Meses después, Meta publicó un informe de impacto sobre los derechos humanos encargado en el que admitía que la empresa no estaba haciendo lo suficiente para detener la siembra de odio contra los rohingya en la plataforma. Desde entonces, Meta ha dicho que ha invertido en más moderadores de contenido de habla birmana y tecnología mejorada para abordar el problema.

Amnistía analizó documentos internos de Meta publicados por la denunciante Frances Haugen en 2021, así como varios informes públicos, y realizó entrevistas con activistas rohingya y ex empleados de Meta. Concluye que la empresa matriz de Facebook, entonces conocida como Facebook Inc., se dio cuenta de su papel en la contribución a las atrocidades contra el grupo étnico rohingya años antes de 2017, y no prestó atención a tales advertencias en ese momento y tomó medidas “totalmente inadecuadas”. ” medidas para abordarlos después del hecho.

Lee mas: Dentro de la decisión de Frances Haugen de asumir Facebook

El investigador principal, Pat de Brun, le dijo a TIME que el informe de Amnistía Internacional muestra el “peligro claro y grave” que Meta y su modelo comercial basado en el compromiso representan para los derechos humanos, las comunidades en riesgo y las áreas afectadas por conflictos.

El informe cita a un exempleado anónimo de Meta que le dijo a Amnistía Internacional en abril que, según su experiencia, creía que la empresa de redes sociales trataba las vidas de las personas del Sur Global como menos dignas de atención. “Diferentes países son tratados de manera diferente”, dijo el empleado. “Si mañana mueren 1.000 personas en Myanmar, es menos importante que si mueren 10 personas en Gran Bretaña”.

“Meta debe pagar por los daños que ha causado, y tiene la responsabilidad de hacerlo en virtud de las leyes y normas internacionales de derechos humanos”, añadió de Brun.

En una declaración por correo electrónico, Rafael Frankel, director de política pública de Asia-Pacífico de Meta, dijo a TIME que “Meta se solidariza con la comunidad internacional y apoya los esfuerzos para responsabilizar al Tatmadaw por sus crímenes contra el pueblo rohingya”.

Frankel no respondió preguntas sobre medidas y prácticas específicas que ha tomado la empresa, pero señaló que ha información divulgada voluntariamente a los órganos de investigación.

Afirmó: “Nuestro trabajo de seguridad e integridad en Myanmar sigue guiado por los comentarios de las organizaciones locales de la sociedad civil y las instituciones internacionales, incluida la Misión de Investigación de las Naciones Unidas sobre Myanmar; la Evaluación de impacto sobre los derechos humanos que encargamos en 2018; así como nuestra gestión continua de riesgos de derechos humanos”.

Contenido meta y anti-rohingya

En su informe, Amnistía concluye que Meta se enteró ya en 2012 de cómo sus algoritmos basados ​​en participación estaban contribuyendo a causar daños graves en el mundo real en Myanmar. Alega que, en los últimos 10 años, la empresa ha ignorado intencionalmente los riesgos conocidos de derechos humanos en su plataforma e implementó soluciones inadecuadas, priorizando las ganancias sobre la seguridad de los usuarios.

Htaike Htaike Aung, investigadora digital que documenta la historia de internet en el país del sudeste asiático a través de la Proyecto de Internet de Myanmarle dice a TIME que se reunió con altos ejecutivos de Facebook sobre los efectos de la plataforma de redes sociales en 2012 y 2013. “Se sentía como hablar con un vacío”, dice.

Algunas de las medidas bien intencionadas de Facebook han fracasado. En 2014, años antes de que los militares tomaran el control del gobierno, Facebook apoyó una campaña dirigida por la sociedad civil contra el discurso de odio mediante la creación de “paquetes de calcomanías” virtuales para que los usuarios las publicaran en respuesta a contenido violento y discriminatorio. Pero a medida que la gente lo hacía, el algoritmo de Facebook registraba las respuestas como compromiso y aumentaba aún más la visibilidad y la difusión del contenido dañino, dijo a Amnistía un activista que participó en la iniciativa.

Lee mas: Facebook no se arreglará solo

El informe de Amnistía dice que las prácticas de moderación de contenido de Meta no han sido rival para la gran cantidad de sentimiento incendiario y anti-rohingya impulsado algorítmicamente. A mediados de 2014, Amnistía afirma que la empresa solo tenía un moderador de contenido de habla birmana, con sede en Dublín, Irlanda, para monitorear las publicaciones de los 1,2 millones de usuarios activos de Myanmar en ese momento. En entrevistas realizadas por Amnistía, los refugiados rohingya recordaron cómo sus informes de publicaciones en la plataforma que se pensaba que violaban los estándares de la comunidad de Facebook a menudo eran ignorados o rechazados. Un documento interno de julio de 2019, citado por el informe de Amnistía, decía que solo se tomaron medidas contra “aproximadamente el 2% del discurso de odio en la plataforma”.

Refugiados rohingya miran un teléfono celular en el campo de refugiados de Kutupalong en Bangladesh el 14 de enero de 2018. (Manish Swarup—AP)

Refugiados rohingya miran un teléfono celular en el campo de refugiados de Kutupalong en Bangladesh el 14 de enero de 2018.

Manish Swarup-AP

En noviembre de 2018, Meta Anunciado, entre otras medidas, que había incorporado a 99 moderadores de contenido en idioma de Myanmar. (Se desconoce el número actual de tales revisores, encargados de monitorear las publicaciones de los aproximadamente 20 millones de usuarios de Facebook del país del sudeste asiático). Sin embargo, el sentimiento anti-rohingya ha florecido en Facebook, dice el grupo de derechos. Sobre la base de su revisión de documentos internos, Amnistía determinó que en 2020, un video de un monje budista anti-rohingya acumuló el 70 por ciento de sus vistas en Facebook a través del “encadenamiento”, la reproducción automática de un video recomendado después de que finaliza uno, a pesar de que Meta tenido prohibido el perfil de Facebook del monje por incitación al odio en 2018.

Lee mas: Facebook dice que está eliminando más discursos de odio que nunca. Pero hay una trampa

Además de los algoritmos, Amnistía dijo que otras funciones de Facebook incentivaban a los editores a publicar contenido anti-rohingya. La función de artículos instantáneos, por ejemplo, que se lanzó en 2015 y permite la publicación de historias en formato de noticias directamente en Facebook, hizo que floreciera el clickbait y el contenido sensacionalista. Meta también se benefició directamente de la publicidad pagada por Tatmadaw, agregó Amnistía.

Hasta la fecha, Meta ha defendido el uso de inteligencia artificial para mejorar la detección de contenido dañino. Pero esto se está quedando corto. En marzo, un informe de Testigo global descubrió que la IA de Facebook aprobó anuncios que contenían discursos de odio dirigidos a los rohingya.

Por su parte, la empresa está tomando más medidas para abordar los problemas de derechos humanos derivados del uso de su plataforma en Myanmar. En febrero del año pasado, en medio de una toma militar de Myanmar, Meta prohibió el Tatmadaw y otras entidades patrocinadas por el estado en Facebook e Instagram. y en su Informe de derechos humanos de julio de 2022la compañía describió otras medidas específicas de Myanmar que ha tomado, como la función ‘Bloquear su perfil’ para brindar a los usuarios que pueden ser objeto de acoso o violencia una mayor privacidad.

Victoire Rio, una investigadora de derechos digitales con sede en Myanmar cuyos estudios fueron citados en el informe de Amnistía, está de acuerdo en que hay fallas en los algoritmos de recomendación de Facebook. También expresa su preocupación de que Meta hace poca diligencia debida con sus usuarios. “El problema aquí no es solo que Facebook no invierte lo suficiente en la moderación de contenido, sino que la plataforma en sí misma no es neutral”, dice Rio.

Lo que Amnistía dice que Meta le debe a los rohingya

Amnistía afirma que sus hallazgos justifican las demandas de reparación de los rohingya, así como una mayor regulación del sector tecnológico. La organización también hizo un llamado a Meta para que apoye la atención legal, médica y psicológica de las víctimas rohingya, y las compense en función de las oportunidades que perdieron.

Los grupos rohingya en Cox’s Bazar le han pedido directamente a Meta que financie un proyecto educativo de un millón de dólares para niños y adultos en campos de refugiados. “Realmente creo que nos merecemos un remedio de Facebook”, dijo a Amnistía Sawyeddollah, un activista rohingya de 21 años que vive en un campo de refugiados en Bangladesh. “Facebook no puede rehacer nuestras vidas como antes; solo nosotros podemos hacer eso. Pero lo que necesitamos es educación para hacerlo”.

Lee mas: ‘No se nos permite soñar’. Musulmanes rohingya exiliados en Bangladesh están atrapados en un limbo sin final a la vista

En su informe, Amnistía argumenta que la solicitud de remediación de $ 1 millón representa una gota en el océano en comparación con lo que Marcas meta. Los ingresos de la empresa de tecnología en 2021 alcanzaron casi $ 118 mil millones, con una ganancia después de impuestos de $ 39.3 mil millones. También sería solo una fracción de lo que requieren los rohingya, señala Amnistía, citando una necesidad educativa total de más de $ 70 millones, según la ONU.

Miranda Sissons, directora de derechos humanos de Facebook según se informa rechazó la propuesta el año pasado y dijo que la compañía “no participa directamente en actividades filantrópicas”, aunque reafirmó el compromiso de Meta de involucrarse con la comunidad rohingya, incluidos los refugiados en Cox’s Bazar y otros campamentos.

El informe de Amnistía concluye: “La negativa de Meta a compensar a las víctimas rohingya hasta la fecha, incluso cuando las modestas solicitudes de la comunidad representan migajas de la mesa de las enormes ganancias de la empresa, simplemente se suman a la percepción de que se trata de una empresa totalmente alejada de la realidad de su ser humano. impactos en los derechos”.

Lee mas: Cómo Facebook forzó un ajuste de cuentas al cerrar el equipo que puso a las personas por delante de las ganancias

Amnistía también ha pedido una mayor supervisión independiente del sector tecnológico. Tan solo en los últimos años, legisladores y defensores alrededor del mundo he estado tratando de controlar las redes sociales empresas, aunque es un esfuerzo desafiante y, a veces, controvertido.

“Estas empresas han sido increíblemente efectivas a la hora de vender una narrativa que dice: si nos regulan, si abordan los aspectos más dañinos de nuestro negocio, fundamentalmente harán que Internet sea inaccesible por todas las razones por las que las personas dependen de él”, dijo Amnistía Internacional. Brun dice.

Pero “estas tecnologías moldean fundamentalmente cómo funciona la sociedad humana hoy en día y cómo interactuamos entre nosotros”, agrega. “No hay ninguna razón por la que este modelo de negocio deba dominar”.

Más historias de lectura obligada de TIME


Contáctenos a cartas@tiempo.com.