El problema del discurso de odio en Facebook puede ser más grande de lo que se creía

Facebook ha estado implicado en la limpieza étnica de miles de rohingya en Myanmar.Por Kevin Frayer / Getty Images.

Una de las razones por las que la campaña de injerencia en las elecciones de Rusia de 2016 fue tan exitosa es porque las personas que la implementaron tenían un conocimiento profundo de Facebook. Entendieron cómo funcionaba el algoritmo del sitio de redes sociales, impulsando las publicaciones que generaron fuertes reacciones y enterrando el contenido que no. Se dieron cuenta, tal vez incluso antes Mark Zuckerberg, que esto hizo que Facebook fuera casi cómicamente fácil de jugar. Y aprovecharon al máximo ese hecho, dispersando una serie de anuncios mordaces que tuvieron impactos alarmantes en la vida real, implicando no solo a operativos rusos en la sombra, sino también a ciudadanos estadounidenses inconscientes. A medida que el alcance de la intromisión de Rusia en Facebook se ha ido aclarando gradualmente, Zuckerberg se ha movido para tomar medidas enérgicas contra los mecanismos que lo permitieron, revisando el News Feed, contratando moderadores adicionales e incluso siguiendo los pasos de Apple para prohibir uno de los proveedores más notorios del sitio de noticias falsas. Pero quizás los problemas de Facebook sean más profundos que la desinformación o los teóricos de la conspiración; quizás la plataforma en sí sea el problema.

Un reciente estudio de Karsten Müller y Carlo Negro, Ambos investigadores de la Universidad de Warwick encontraron una correlación definitiva entre el uso de Facebook superior al promedio y la violencia contra los refugiados. Para llegar a esta conclusión, la pareja examinó 3.335 ataques contra los refugiados en Alemania durante un período de dos años y analizaron las comunidades en las que ocurrieron los ataques por variables como la riqueza, la demografía, la población de refugiados, el historial de delitos de odio y la lejanía. actividad política de derecha. Pero el factor Facebook se mantuvo constante en todos los casos. Por Los New York Times, cual primero informó en el estudio:

Sus grandes cantidades de datos convergieron en una estadística impresionante: dondequiera que el uso de Facebook por persona aumentara a una desviación estándar por encima del promedio nacional, los ataques a los refugiados aumentaron en aproximadamente un 50 por ciento.

Esto se mantuvo cierto, sugirió el estudio, porque Facebook efectivamente filtra a las personas en grupos de ideas afines, aislándolos de las figuras de autoridad y moderando las voces. En otras palabras, Facebook puede estar haciendo más que ponernos en nuestras burbujas de filtro, puede estar alterando la forma en que comunidades enteras determinan lo correcto de lo incorrecto. La Veces Se centró en un caso en la ciudad de Altena, en el oeste de Alemania, donde un hombre cubrió el ático de una casa de un grupo de refugiados con gasolina y le prendió fuego, motivado en parte por publicaciones que vio en Facebook que lo guiaron hacia el extremismo. Sus acciones fueron condenadas rotundamente por la gente que vive en la ciudad, que es mayoritariamente a favor de los refugiados. Pero el año pasado ocurrió otro acto de violencia: el alcalde del pueblo fue apuñalado por un hombre que estaba se dice que enojado por sus políticas a favor de los refugiados. Justo antes del ataque, según el Veces, una página local de Facebook se había llenado de comentarios llenos de odio sobre el alcalde. Puede tener la impresión de que existe un amplio apoyo de la comunidad a la violencia, dijo el Dr. Betsy Paluck, un psicólogo social, le dijo al Veces de la capacidad de Facebook para influir en los patrones de pensamiento de los usuarios. Y eso cambia tu idea de si, si actuaras, no actuarías solo.

Facebook se negó a comentar sobre el estudio, en su lugar dijo en un correo electrónico al Veces, Nuestro enfoque sobre lo que está permitido en Facebook ha evolucionado con el tiempo y continúa cambiando a medida que aprendemos de los expertos en el campo. Pero Altena no es un caso atípico: en Myanmar, Facebook se ha utilizado durante años para fomento hatred contra los rohingya y otros musulmanes, quizás contribuyendo a una horrible limpieza étnica en todo el país. La semana pasada, Reuters informó que más de 1,000 ejemplos de publicaciones, imágenes, videos y comentarios que atacaban a los rohingya u otros grupos musulmanes en Myanmar permanecían en la plataforma hace dos semanas, mientras que algún material, que llama a los perros rohingya o violadores y insta a su exterminio, lleva hasta seis años. Todas las publicaciones aparentemente violan las pautas de la comunidad de Facebook, que prohíben los ataques a grupos étnicos. En un comentario a Reuters, director de política de Asia Pacífico de Facebook, Mia Garlick, reconoció que la empresa fue demasiado lenta para responder a las preocupaciones planteadas por la sociedad civil, los académicos y otros grupos en Myanmar, algo que se quedó corto. Fueron advertidos tantas veces, dijo David Madden, un emprendedor que trabajaba en Myanmar. No se les podría haber presentado con más claridad y no tomaron los pasos necesarios.

Facebook es actualmente trabajando en un sistema de clasificación para sus usuarios, en un intento de medir su confiabilidad. Si se usa correctamente, el sistema podría silenciar o reducir eficazmente cosas como la propaganda mordaz contra los refugiados y los musulmanes, o cualquier otro género de información falsa y discurso de odio que se difunda en su plataforma. Sin embargo, también puede ser cierto que, independientemente de las medidas preventivas que instale Facebook, como clasificaciones de confianza o moderar las opciones de orientación de anuncios —Su modelo fundamental es lo que falla. Por cada caso en que Facebook intenta poner una curita en un tema aparentemente evidente, surgen más historias sobre las formas desgarradoras en las que se ha convertido en un arma.