Aunque Threads (el Twitter de Instagram) tiene más usuarios, es Bluesky la que parece estar perfilándose como la gran alternativa a X. Los recientes acontecimientos que han tenido lugar en Estados Unidos y en la plataforma de Elon Musk han provocado que muchos usuarios abandonen X, lo que se ha traducido en un crecimiento importantísimo para la plataforma. También en un enorme desafío relacionado con un aspecto capital en cualquier red social: la moderación.
El crecimiento de Bluesky. Durante los últimos días, la plataforma ha crecido hasta los 19 millones de usuarios, más o menos a un ritmo de un millón diario. Es una cifra que demuestra el interés real que hay por encontrar una alternativa factible a X. ¿Qué ocurre? Que más usuarios es sinónimo de más problemas.
Los reportes. En Bluesky cualquier persona puede denunciar un contenido que considere peligroso, ilegal o incumpla las normas de la comunidad. Según detallan desde la plataforma, en solo 24 horas han recibido 42.000 reportes, es decir, 3.000 denuncias por hora. Es el récord histórico y una cifra que puede parecer baja si la comparamos con los 19 millones de usuarios registrados, pero que se entiende mejor con otro dato: solo en 2023, Bluesky recibió 360.000 reportes en total.
En otras palabras, Bluesky ha recibido en un solo día el 11,6% de reportes que recibió durante todo el año pasado. Un desafío técnico donde los haya.
In the past 24 hours, we have received more than 42,000 reports (an all-time high for one day). We’re receiving about 3,000 reports/hour. To put that into context, in all of 2023, we received 360k reports. We’re triaging this large queue so the most harmful content such as CSAM is removed quickly.
— Bluesky Safety (@safety.bsky.app) 15 de noviembre de 2024, 18:10
Eso de debe atajar. Desde la plataforma, que tiene 20 empleados a tiempo completo, afirman que "con esta importante afluencia de usuarios, también hemos observado un aumento del spam, las estafas y los trolls". Aseguran, además, estar "clasificando esta gran cola [de reportes] para que el contenido más dañino, como el abuso sexual infantil, se elimine rápidamente".
La primera medida. Obligar a que el usuario recién registrado tenga que verificar su correo antes de poder publicar, tan simple como eso. De esa manera, la plataforma aspira a evitar que los usuarios con malas intenciones puedan registrarse con correos de usar y tirar. Forzar la verificación podría reducir riesgos. No los elimina, pero sí aumenta el trabajo a quien quiera crear muchas cuentas en masa usando correos temporales.
Cómo evitar un X2. Las redes sociales no son malas en sí mismas, pero sí pueden tener un efecto nocivo cuando se permiten ciertos comportamientos y/o se elimina o reduce la moderación. En 2022, Elon Musk recortó el 80% de la plantilla de Twitter y desde octubre de 2023, X ha reducido sus recursos de moderación de contenido en un 20%. Los últimos datos disponibles, correspondientes a abril de 2024, muestran que X tiene 1.849 personas moderando la plataforma. Hablamos de un moderador por cada 60.200 usuarios. Meta, para poner en contexto, tiene 15.000 moderadores, uno por cada 17.600 usuarios.
A eso le sumamos un CEO que defiende su concepto de "libertad de expresión" por encima de todo (haciendo que los bloqueos no sirvan para nada, por ejemplo), que tiene comportamientos que violan los términos de su propia plataforma y que ha tomado una serie de medidas antibots que no han sido efectivas. Bluesky no quiere convertirse en lo que se ha convertido X y, para ello, ofrece algunas herramientas interesantes.
Bluesky contra los trolls. Una de las herramientas más simpáticas es el desetiquetado de las citas. Si alguien cita uno de nuestros posts y lo aprovecha para, por ejemplo, burlarse de nosotros o hacer daño, podemos deshacer esa cita y que nuestro post no aparezca bajo el suyo. Nada evita que se tome una captura de pantalla para los mismos fines, pero al menos la herramienta existe, que no es poco.
La otra es la lista de usuarios para bloqueos masivos. Estas listas, que cualquiera puede crear, sirven para reunir en una misma lista a todos los usuarios que hablan sobre ciertos temas, se comportan de tal o cual manera, etc. Digamos que no queremos leer, ver, escuchar o tener interacción alguna con cuentas que difunden bulos sobre chemtrails, pseudociencia, terraplanismo, etc. Pues podemos meter a todos los perfiles que hablen sobre esos temas en una lista y silenciarlos o bloquearlos en masa. Es más, podemos compartir esa lista de manera pública para que cualquiera pueda hacerlo.
Eso permite mantener nuestro feed limpio y alejado de perfiles que pueden tener comportamientos dañinos. Los bloqueos, por cierto, restringen cualquier tipo de interacción. El usuario bloqueado no podrá dar like, mencionar, contestar o seguirnos y su perfil y/o publicaciones no se mostrarán en nuestros feeds.
Imágenes | Xataka
Ver 29 comentarios