mezquita en Digana Sri Lanka 580x387Cuando se habla de la incitación a la violencia en Facebook, un problema que va en aumento particularmente en mercados en vías de desarrollo, tanto representantes como críticos de la plataforma tienden a describirlo como un problema creado por pequeñas facciones de extremistas.

Según esta lógica, los extremistas divulgan rumores y comentarios incendiarios entre los usuarios normales y estos terminan infectados en cuestión ideológica. Por lo tanto, detener la violencia debería ser tan sencillo como simplemente silenciar a los extremistas.

Mark Zuckerberg, el director ejecutivo de Facebook, hace poco sugirió eso cuando le preguntaron sobre el papel de su plataforma en la violencia perpetrada en Birmania.

“La gente intentaba divulgar mensajes amarillistas, en este caso, a través de Messenger de Facebook”, dijo en una entrevista para un podcast de Vox en abril. “Ese es un ejemplo de los casos en que creo que está claro que la gente intentaba usar nuestras herramientas para ocasionar daño real”, dijo. ¿Y cuál fue la respuesta de Facebook? “Frenamos la divulgación de esos mensajes”, indicó Zuckerberg.

Sin embargo, un recuento de cómo la desinformación y el discurso de odio en Facebook contribuyeron a disturbios antimusulmanes en Sri Lanka en marzo, junto con la investigación acerca de cómo la gente usa las redes sociales, sugiere que quienes pretenden ser provocadores no son el único peligro —ni siquiera el más grande—.

Es posible que los usuarios ordinarios de redes sociales no tengan la intención de ser partícipes del esparcimiento de mensajes iracundos en línea, mucho menos de dirigir esos mensajes. Sin embargo, las estructuras de incentivos y de claves sociales en esas plataformas, regidas por algoritmos, con el tiempo pueden llevarlos —quizá sin que sean conscientes de esto— a aumentar el enojo y el miedo. Al final, provocándose entre sí, los usuarios comienzan a emplear el discurso de odio por sí mismos. El extremismo, en otras palabras, puede surgir orgánicamente.

Experimentamos esto de primera mano en el pequeño pueblo de Digana, Sri Lanka, una semana después de que los disturbios antimusulmanes causaran destrozos.

Una de las publicaciones que se cree que provocaron los ataques fue un video de Facebook publicado por Amith Weerasinghe, quien tiene muchos seguidores. Justo antes de que llegara la multitud iracunda, él se había grabado a sí mismo caminando por las tiendas de Digana: advirtió que demasiadas eran propiedad de musulmanes e hizo un llamado a los cingaleses para que recuperaran la ciudad.

Weerasinghe adquirió fama en línea apenas recientemente y, de acuerdo con vecinos, lo que dice sobre los musulmanes lo hace únicamente como parte de un personaje. “Es de esta zona; fue a la escuela por aquí”, dijo Jainulabdeen Riyaz, miembro de la comunidad musulmana local, riéndose por lo absurdo de ver a un chico local huraño fingiendo ser un fuereño combativo. “Su padre es carpintero. Es una persona normal”.

Conocimos a Riyaz en una reunión en honor a la familia de otro joven, Abdul Basith, quien fue asesinado en la trifulca de marzo. Riyaz, Basith y Weerashinghe crecieron siendo vecinos antes de que este último se convirtiera en una celebridad de las redes sociales que llevó al entorno real de Digana lo que se decía en el mundo digital. Y al final del día un joven que lo había conocido toda la vida estaba muerto.

Aunque la historia de cada individuo tiene sus giros únicos, hay algunos puntos comunes que tienen que ver con la manera en que las redes sociales pueden ampliar ciertos elementos de la naturaleza humana.

La sección de Noticias de Facebook, por ejemplo, ejecuta un algoritmo que promueve el contenido con el que más interactúan los usuarios. Los estudios hallan que las emociones negativas básicas —el miedo y el enojo— son las que generan más interacción. Por eso, las publicaciones que provocan estas emociones tienden a tener mayor éxito.

El tribalismo, una tendencia humana universal, también atrae mucha participación. Las publicaciones que promueven una identidad de grupo por medio de ataques a otro grupo usualmente tienen un buen rendimiento.

Finalmente, las redes sociales utilizan color y sonido para recompensar la interacción, algo que los humanos buscan naturalmente. Cada comentario y me gusta se suma a una hilera como la que indica que ganaste un premio e una máquina de apuestas, lo cual te provee una descarga de dopamina y te entrena para repetir cualquier comportamiento que te permita obtener la participación máxima.

Esto difícilmente es lo único que impulsa a Weerasinghe o a otros como él. No obstante, ese camino en busca de la atención, el elogio y una idea de importancia e intervención puede parecerle atractiva a cualquiera, incluso al hijo de un carpintero que critica a sus vecinos.

“Es perturbador. La radicalización sucede desde una edad muy temprana”, dijo Sanjana Hattotuwa, un investigador del Center for Policy Alternatives, en Colombo, que da seguimiento al discurso de odio en línea.

“Son niños de edad escolar”, dijo sobre los usuarios en los grupos de Facebook susceptibles al extremismo. “Los padres no tienen idea de que están participando. Los profesores tampoco lo saben. Así que esta es su iniciación en las relaciones comunitarias. Es odio y es algo muy malo”.

Los estudios han encontrado que la gente tiende a descartar ideas cuando creen que la sociedad las ha calificado de extremas. Sin embargo, se vuelven mucho más abiertos a ideas que creen que se consideran dominantes.

Tradicionalmente, alguien que escucha una idea extremista por primera vez podría haberla descubierto a través de amigos o familiares, que también podrían expresar que la idea no forma parte del pensamiento convencional. Las ideas ahora se transmiten mediante canales de noticias regidos por la voluntad popular cruda, impulsada por las interacciones.

Esto lleva a una nivelación ideológica. Para el algoritmo, el contenido de una idea es irrelevante. No importa si es una idea extremista o generalizada; solo cuenta su capacidad para provocar interacciones.

En 2014 y 2015, por ejemplo, una cantidad preocupante de usuarios en Reddit promovieron el odio contra personas feministas y contra personas que consideraban con sobrepeso. Ese tipo de ideas puede proliferar naturalmente en los algoritmos de las redes sociales al fomentar el enojo contra grupos vulnerables y el tribalismo al estilo “nosotros contra ellos”.

Una vez que esas ideas se habían vuelto prioridad en los algoritmos impulsados por los usuarios, rápidamente se percibieron como opiniones populares y la mayoría de los usuarios del sitio las adoptaron, e incluso las defendieron con furia. Muchos usuarios llevaron el extremismo al mundo real, pues acosaron a sus blancos tanto en internet como fuera de las redes.

Un estudio descubrió que Reddit solamente pudo eliminar esas ideas cuando tomó acciones más allá de vetar a algunos extremistas: comenzó a regular estrictamente el diálogo en línea, imponiendo un nivel de control social mucho mayor que el de otras plataformas, como Facebook y Twitter.

Esta última, de hecho, parece inadvertidamente entrenar a los usuarios, por medio de las ráfagas de información cuando una publicación se hace viral, a buscar el elogio de otros, ya sea al hacer menos a quienes se oponen a una idea o, si no hay enfrentamiento, a generar uno. Es parecido a la promoción accidental que los algoritmos de Facebook hacen del enojo y el tribalismo, aunque en Twitter es a una escala mucho mayor.

La indignación en línea a veces puede ser una manera necesaria de canalizar la oposición popular a las injusticias del racismo sistemático, por ejemplo, u otras formas de discriminación. No siempre es algo malo.

Sin embargo, si contribuye a la idea de que cualquier tema es una manera de asestar puntos entre tribus políticas o grupos sociales, las consecuencias reales son nocivas. Entre ellas, profundizar la polarización a tal punto que lo que las personas ven en las redes sociales cambia y define su percepción de la vida real.

Escribir un comentario


Código de seguridad
Refescar

feed-image RSS