• Los grupos y activistas de derechos humanos llevan años instando a las empresas a hacer más para eliminar el contenido que fomenta la violencia

Esta es una traducción hecha por El Diario de la nota After Barring Trump, Facebook and Twitter Face Scrutiny About Inaction Abroad, original de The New York Times.

En Sri Lanka y Myanmar , Facebook mantuvo publicaciones en las que se le advirtió que contribuía a la violencia. En India , los activistas han instado a la empresa a combatir los cargos de figuras políticas dirigidos a musulmanes. Y en Etiopía , grupos pidieron a la red social que bloqueara el discurso de odio después de que cientos de personas murieran en violencia étnica inflamada por las redes sociales.

“Los problemas fuera de línea que sacudieron al país son plenamente visibles en el espacio en línea”, escribieron activistas, grupos de la sociedad civil y periodistas en Etiopía en una carta abierta el año pasado.

Durante años, Facebook y Twitter han rechazado en gran medida los llamados para eliminar el discurso de odio u otros comentarios hechos por figuras públicas y funcionarios gubernamentales que, según los grupos de la sociedad civil y activistas, corren el riesgo de incitar a la violencia. Las empresas se apegaron a políticas, impulsadas por los ideales estadounidenses de libertad de expresión, que dan a esas figuras más libertad para usar sus plataformas para comunicarse.

Pero la semana pasada, Facebook y Twitter cortaron al presidente Trump de sus plataformas por incitar a una multitud que atacó el Capitolio de Estados Unidos. Esas decisiones han enfurecido a grupos de derechos humanos y activistas, que ahora instan a las empresas a aplicar sus políticas de manera uniforme, particularmente en países más pequeños donde las plataformas dominan las comunicaciones.“

Cuando vi lo que hicieron las plataformas con Trump, pensé, ‘Deberías haber hecho esto antes, y deberías hacerlo de manera consistente en otros países del mundo’”, dijo Javier Pallero, director de políticas de Access Now, un especialista en derechos humanos grupo involucrado en la carta de Etiopía. “En todo el mundo, estamos a merced de cuándo deciden actuar”.

“A veces actúan muy tarde”, agregó, “y otras veces no actúan en absoluto”.

David Kaye, profesor de derecho y ex monitor de las Naciones Unidas para la libertad de expresión, dijo que las figuras políticas en India, Filipinas, Brasil y otros lugares merecen un escrutinio por su comportamiento en línea. Pero dijo que las acciones contra Trump plantearon preguntas difíciles sobre cómo se aplicó el poder de las empresas estadounidenses de Internet y si sus acciones sientan un nuevo precedente para un discurso policial más agresivo en todo el mundo.

Personal de la Fuerza de Acción Rápida patrullaba una calle en Bangalore, India, en agosto después de que una publicación en Facebook sobre el profeta Mahoma provocó disturbios
Personal de la Fuerza de Acción Rápida patrullaba una calle en Bangalore, India, en agosto después de que una publicación en Facebook sobre el profeta Mahoma provocó disturbios | AFP

“La pregunta en el futuro es si este es un nuevo tipo de estándar que pretenden aplicar a los líderes de todo el mundo, y ¿tienen los recursos para hacerlo?”, dijo el Sr. Kaye. “Va a haber un aumento real de la demanda para hacer esto en otras partes del mundo”.

Facebook, que también posee Instagram y WhatsApp, es la red social más grande del mundo, con más de 2.7 millardos de usuarios mensuales; más del 90% de ellos vive fuera de los Estados Unidos. La compañía se negó a comentar, pero ha dicho que las acciones contra Trump se derivan de su violación de las reglas existentes y no representan una nueva política global.

“Nuestras políticas se aplican a todos”, dijo Sheryl Sandberg, directora de operaciones de Facebook, en una entrevista reciente con Reuters . “La política es que no se puede incitar a la violencia, no se puede incitar a la violencia”.

Twitter, que tiene alrededor de 190 millones de usuarios diarios en todo el mundo, dijo que sus reglas para los líderes mundiales no eran nuevas. Cuando revisa publicaciones que podrían incitar a la violencia, dijo Twitter, el contexto de los eventos es crucial.

“El daño fuera de línea como resultado del discurso en línea es demostrablemente real, y lo que impulsa nuestra política y aplicación sobre todo”, dijo Jack Dorsey, director ejecutivo de Twitter, en una publicación el miércoles. Sin embargo, dijo, la decisión “sienta un precedente que siento que es peligroso: el poder que un individuo o corporación tiene sobre una parte de la conversación pública global”.

Hay indicios de que Facebook y Twitter han comenzado a actuar de forma más asertiva. Después del ataque al Capitolio, Twitter actualizó sus políticas para decir que suspendería permanentemente las cuentas de los infractores reincidentes de sus reglas sobre contenido político. Facebook tomó medidas contra varias cuentas fuera de Estados Unidos, incluida la eliminación de la cuenta de un medio de comunicación estatal en Irán y el cierre de cuentas administradas por el gobierno en Uganda, donde ha habido violencia antes de las elecciones. Facebook dijo que los derribos no estaban relacionados con la decisión de Trump.

Muchos activistas señalaron a Facebook por su influencia global y por no aplicar las reglas de manera uniforme. Dijeron que en muchos países carecía de la comprensión cultural para identificar cuándo las publicaciones podrían incitar a la violencia. Con demasiada frecuencia, dijeron, Facebook y otras empresas de redes sociales no actúan incluso cuando reciben advertencias.

En 2019 en Eslovaquia, Facebook no eliminó las publicaciones de un miembro del Parlamento que fue condenado por un tribunal y despojado de su escaño en el gobierno por incitación y comentarios racistas. En Camboya, Human Rights Watch dijo que la compañía tardó en actuar ante la participación de funcionarios del gobierno en una campaña de redes sociales para difamar a un prominente monje budista que defiende los derechos humanos . En Filipinas, el presidente Rodrigo Duterte ha utilizado Facebook para atacar a periodistas y otros críticos.

Después de una ola de violencia, los activistas etíopes dijeron que Facebook se estaba utilizando para incitar a la violencia y fomentar la discriminación.

dificios quemados en Shashamene, Ethopia, en julio. Más de 160 personas murieron en violencia étnica inflamada por las redes sociales
dificios quemados en Shashamene, Ethopia, en julio. Más de 160 personas murieron en violencia étnica inflamada por las redes sociales | Foto: AFP

“La verdad es que, a pesar de las buenas intenciones, estas empresas no garantizan la aplicación uniforme o el cumplimiento de sus normas”, dijo Agustina Del Campo, directora del centro de estudios sobre libertad de expresión de la Universidad de Palermo en Buenos Aires. “Y muchas veces, cuando lo intentan, carecen del contexto y la comprensión necesarios”.

En muchos países, existe la percepción de que Facebook basa sus acciones en sus intereses comerciales más que en los derechos humanos. En India, hogar de la mayoría de los usuarios de Facebook, la empresa ha sido acusada de no vigilar el contenido anti-musulmán de figuras políticas por temor a molestar al gobierno del primer ministro Narendra Modi y su partido gobernante.

“Los desarrollos en nuestros países no se abordan con seriedad”, dijo Mishi Choudhary, abogado de tecnología y fundador del Software Freedom Law Center, un grupo de derechos digitales en India. “Cualquier eliminación de contenido plantea cuestiones de libertad de expresión, pero la incitación a la violencia o el uso de una plataforma para el discurso peligroso no es un asunto de libertad de expresión, sino un asunto de democracia, ley y orden”.

Pero incluso cuando muchos activistas instaron a Facebook y Twitter a ser más proactivos para proteger los derechos humanos, expresaron su enojo por el poder que tienen las empresas para controlar el discurso e influir en la opinión pública.

Algunos también advirtieron que las acciones contra Trump causarían una reacción violenta, y los líderes políticos de algunos países tomarían medidas para evitar que las empresas de redes sociales censuraran el discurso.

Los funcionarios del gobierno en Francia y Alemania generaron alarma por la prohibición de las cuentas de Trump, cuestionando si las empresas privadas deberían poder silenciar unilateralmente a un líder elegido democráticamente. Un proyecto de ley en consideración para la Unión Europea de 27 naciones establecería nuevas reglas en torno a las políticas de moderación de contenido de las redes sociales más grandes.

Barbora Bukovská, directora senior de leyes y políticas de Article 19, un grupo de derechos digitales, dijo que el riesgo era particularmente pronunciado en países cuyos líderes tienen un historial de uso de las redes sociales para avivar la división. Dijo que los eventos en Washington dieron impulso en Polonia a un proyecto de ley del partido nacionalista de derecha gobernante que multaría a las empresas de redes sociales por eliminar contenido que no es explícitamente ilegal, lo que podría permitir una mayor selección de personas LGBTQ .

“Estas decisiones sobre Trump fueron las decisiones correctas, pero hay cuestiones más amplias más allá de Trump”, dijo Bukovská.

Noticias relacionadas