Expulsar a los extremistas de las redes sociales es efectivo, pero tiene un riesgo: la radicalización

Entre las muchas lecciones que dejó el asalto al Capitolio de EEUU, en enero de 2021, tras las elecciones que desalojaron a Donald Trump de la Casa Blanca, quizás una de las más valiosas es el enorme poder de las redes sociales. Sobre todo cuando los extremismos echan mano de ellas con el propósito de crecer, amplificar su voz y articularse. A aquella enseñanza, retransmitida en vivo para todo el mundo, le siguió la resolución de las plataformas Facebook, Twitter y YouTube de vetar cuentas de corte radical, como QAnon, e incluso Trump vio cómo se suspendían las suyas.

Por su contexto y sobre todo a quién alcanzó, la medida se planteó casi como un mensaje a navegantes y un intento por salvar la propia imagen; pero no era del todo nueva en el sector. En 2020, por ejemplo, Reddit ya había clausurado el subreddit r/the_Donald, alimentado por partidarios del expresidente republicano, por su contenido antisemita y misógino y su discurso del odio. La gran pregunta es: ¿Sirve realmente de algo esta clase de expulsiones? ¿Cortan el problema?

Pues con casi todo en política y sociología: depende.

La respuesta, vaya por delante, es de todo menos sencilla. Hace un mes Recode se formulaba la misma pregunta y su conclusión, en líneas generales, es que que la presencia e influencia de los grupos extremistas se ha limitado, lo que no significa que hayan desaparecido del escenario. Simple y llanamente, se han dispersado, migrado hacia plataformas alternativas, más reducidas, como Telegram o Parler o Gab —estas últimas con un carácter mucho más acotado—, en las que encuentran reglas menos rígidas y en las que buscan un menor seguimiento de datos.

Un fenómeno bien calibrado

El fenómeno lo ha analizado también Atlantic Council, que ha detectado el traslado del grupo paramilitar Oath Keepers a MeWe, con un enfoque mucho menos estricto en la moderación de contenidos. Voces destacadas son también la del líder de los Proud Boys, organización de extrema derecha, o el fundador de Stop the Steal, movimiento de carácter conspiranoico. Algunos migraron tras los sucesos del Capitolio; otros ya tenían presencia y acabaron aterrizando plenamente tras su expulsión de las plataformas convencionales. Quizás el mejor ejemplo de esa mudanza sea, sin embargo, la red Truth Social, creada por el propio Trump tras su salida de Twitter.

¿Significa eso que desde principios de 2020 las grandes plataformas han logrado barrer los extremismos y discursos radicales y conspiranoicos ligados al asalto al Capitolio? A pesar de los vetos, Recode recuerda que sigue habiendo muestras, en especial en grupos y cuentas privadas. El mejor ejemplo, detalla, es que hace un par de meses Tech Transparency Project alertaba de que el algoritmo de Facebook seguía promocionando contenidos del colectivo paramilitar Three Percenters. El propio Departamento de Justicia ha presentado cargos contra algunos de sus integrantes.

"Los nuevos hallazgos subrayan cómo Facebook, ahora bajo la matriz Meta, sigue siendo un vector poderoso para el extremismo nacional, incluso después del ataque al Capitolio que buscaba anular las elecciones de 2020 —censuraba a principios de 2022 Tech Transparency Project—. Para los grupos de milicias, Facebook se mantiene como una plataforma incomparable para difundir su mensaje antigubernamental, comunicarse con los miembros y llegar a nuevos reclutas".

Desde que replanteó su política, en 2020, Facebook habría dado su visto bueno a 75.500 suspesiones, entre perfiles y grupos relacionados con colectivos militarizados. En el caso de Twitter, en enero de 2021, la red informaba de la eliminación de 70.000 cuentas asociadas con QAnon.

Al margen de lo complicado que pueda resultar el control, quedarse fuera de las grandes redes tiene un impacto clave. Aunque los discursos sigan sonando en Parler, Gab u otras redes "de nicho", en términos de visibilidad su alcance no es comparable con el que ofrecen Facebook, con 2.910 millones de usuarios o YouTube, con 2.562. Al llegar a menos gente les resulta más complicado difundir su mensaje, captar nuevos miembros y colar su contenido en la agenda.

"Sí, todavía operan en plataformas alternativas... pero en la primera capa de evaluación que podríamos hacer, son las plataformas principales las que más importan", explica a Recode Rebekah Tromble, directora del Instituto de Datos y Política de la Universidad George Washington.

"Pierden su 'poder de amplificación'. Esto pone de manifiesto que el valor añadido de YouTube para los creadores de contenidos no reside únicamente en su infraestructura, sino más bien en sus 2.000 millones de usuarios activos al mes", concuerdan Adrian Rauchfleisch y Jonas Kaiser en un análisis en el que estudian el fenómeno, y en el que concluyen: en la práctica, mantener a los extremistas lejos de las plataformas equivale a condenarlos "a la marginalidad".

Otro estudio publicado por la Association for Computing Machinery refleja que el fenómeno se aprecia bien en el caso de los influencers, voces que merman su alcance cuando se les apea de los principales "palcos" sociales. Alex Jones, por ejemplo, un conocido locutor de extrema derecha, vio en 2018 cómo Twitter suspendía su cuenta tras considerar que algunos de sus tuits iban contra la política de la red. Algo parecido le ocurrió al polemista Milo Yiannopoulus y a Owen Benjamin. El análisis publicado por ACM concluye que durante los seis meses siguientes a cada uno de esos vetos sus referencias en las plataformas que los expulsaron se habían desplomado un 92%.

Y no solo eso. Tras las expulsiones los seguidores de cada uno de los influencers parecieron suavizar sus discursos, con tuits menos "tóxicos" y un menor reflejo de sus ideologías. Otro análisis de 2020 realizado en Reddit con seguidores de Trump y la comunidad "incels" llegó a una conclusión en una línea similar e igual de interesante: suprimido el subreddit, el foro se desinfló, con menos usuarios y publicaciones en las nuevas plataformas a las que se trasladaron.

¿Consecuencia? Pérdida de fuerza y capacidad de influencia en el debate. Según los datos recabados por Zignal Labs para Recode, después de que las principales redes prohibieran la mayoría de grupos de QAnon, las menciones relacionadas con las palabras clave asociadas al movimiento se redujeron. En concreto, decayeron un 30% en Twitter, Facebook y Reddit en 2021. La tendencia puede estar relacionada con el propio paso del tiempo, pero el descenso es considerable: las citas a "Q Army", por ejemplo, se redujeron un 66%. Eso no quita que tanto los usuarios como los medios sigan hablando de QAnon en general, incluso con mayor frecuencia que a comienzos de 2020.

¿Es todo positivo? No exactamente. Puede perderse en volumen, en capacidad de impacto, pero no en radicalismo. En otras palabras: aunque las voces suenen con menos fuerza, en ocasiones quizás lo hagan con más agresividad. Esa es al menos la idea que dejan sobre la mesa los estudios, que concluyen que al ser expulsados de las grandes redes y dirigirse a foros más reducidos los discursos corren el riesgo de polarizarse. El análisis de r/The_Donald y r/Incels en Reddit desliza la idea.

"Las medidas de moderación redujeron significativamente la actividad de publicación en la nueva plataforma, reduciendo la cantidad de publicaciones, usuarios activos y recién llegados. A pesar de eso, los usuarios de una de las comunidades estudiadas (r/The_Donald) mostraron aumentos en las señales asociadas con la toxicidad y la radicalización", señalan, a modo de avertencia.

La duda queda botando y requiere, reconocen los autores, un análisis más profundo. "Se necesita más investigación en este campo; tanto para entender cómo se ven afectadas otras comunidades políticas, como para saber cómo las plataformas alternativas son capaces de amortiguar el desplazamiento y, por último, si este contribuye a un discurso más extremo o no", zanjan.

Imagen | Manuel Balce Ceneta/AP

Ver todos los comentarios en https://www.xataka.com

VER 22 Comentarios

Portada de Xataka