Atrás quedó el tiempo en el que Facebook se presentaba al mundo como un mero canal transmisor. No como un medio, supeditado a una serie de responsabilidades editoriales y morales, sino como una simple plataforma. Las ideas allí expresadas no le pertenecían ni le competían. Nada debía hacer por regularlas. Aquel axioma saltó por los aires tras su calamitoso 2016, investigación de Cambridge Analytica mediante, y desde entonces su posición ha cambiado.
¿Cuánto? Lo suficiente como para que en 2018 Mark Zuckerberg planteara la creación de un órgano que supervisara y monitorizara los espacios de debate dentro de la plataforma. En su momento, Zuckerberg comparó a Facebook con un gobierno municipal: no se trataba de eliminar el crimen e imponer un régimen de estricta censura, sino de combatirlo con herramientas que ahondaran en el carácter democrático y promovieran un saludable debate entre la comunidad.
La fórmula. En mayo aquella idea se concretó en el "Consejo asesor de contenido", un órgano destinado a "responder algunas de las preguntas más difíciles sobre la libertad de expresión en Internet". Su misión sería ponderar "qué contenido eliminar, cuál conservar y por qué". Una institución regulatoria que funcionaría de forma independiente a Facebook. Siguiendo con el paralelismo, si la plataforma representaba al poder ejecutivo y legislativo, el consejo sería su "Tribunal Supremo".
Miembros. Como tal, contaría con "jueces", o en su defecto miembros, encargados de analizar y deliberar publicaciones conflictivas. Una veintena de expertos y figuras públicas entre las que podemos contar a Alan Rusbridger, ex-director de The Guardian; Michael McConnell, profesor de derecho constitucional en Stanford; Catalina Botero-Marino, decana de la Facultad de Derecho de la Universidad de Los Andes; o Helle Thorning-Schmidt, ex-primera ministra de Dinamarca.
Los casos. El consejo se constituyó formalmente en octubre, y esta semana ha recibido sus seis primeros casos. Son los siguientes:
- Las capturas de pantalla de varios tuits publicados por el ex-primer ministro de Malasia, Mahathir Mohamad, en los que, tras los recientes atentados en Francia, defendía "el derecho" de los musulmanes "a matar a millones de franceses por las masacres del pasado".
- Las fotografías de un niño muerto, completamente vestido, acompañadas por un texto en el que se criticaba la ausencia de represalias y sanciones contra China por su tratamiento de la población uigur.
- Supuestas fotografías localizadas en Bakú, capital de Azerbaiyán, acompañadas por un texto en el que se afirmaba que la ciudad había sido construida por armenios y que, sin embargo, sus iglesias habían desaparecido.
- Ocho fotografías sacadas de Instagram en las que se mostraban pezones y senos femeninos junto a un texto en portugués donde se describían los síntomas del cáncer de mama.
- Una supuesta cita de Joseph Goebbels.
- Y un vídeo dedicado a la oposición del gobierno francés a utilizar hidroxicloroquina y azitromicina en los tratamientos paliativos y curativos del covid-19.
¿Qué hacer? Son seis publicaciones. Podrían ser muchas más. El consejo ha recibido miles de peticiones y denuncias, pero sólo ha tramitado un puñado "bien porque sean cruciales para el discurso público o porque planteen dudas importantes sobre las políticas actuales de Facebook". Lo cierto es que cada una de ellas entronca con algunos de los conflictos existenciales a los que se ha enfrentado la plataforma durante los últimos años.
¿Se debe transigir con el discurso del odio (Goebbels, Mohamad)? ¿Hay espacio para el desnudo femenino, aunque sea por una buena causa (las fotografías portuguesas)? ¿Se deben censurar las historias falsas y los montajes (Bakú)? ¿Es el contenido explícito admisible, en especial cuando se utiliza para tergiversar un conflicto político (uigures)? Todas estas preguntas son centrales a la práctica periodística. Facebook las había rehusado durante años. El consejo las aborda.
Insuficiente. Las funciones del consejo son limitadas. Ni sus miembros tienen dedicación exclusiva ni sus veredictos pueden abarcar a las miles de millones de publicaciones que alberga la plataforma. De ahí que el peso de la censura (o de la supervisión, según a quién preguntemos) siga recayendo sobre Facebook. Lleva tiempo practicando: en enero vimos cómo publicaciones o mensajes de algunos partidos políticos, como Vox, se acompañaban de una advertencia sobre su carácter falso.
Casilla de salida. La creación de un órgano "independiente" de Facebook busca neutralizar la imagen de arbitrariedad y partidismo político que, en ocasiones, ha despendido la acción regulatoria de la empresa. Pero Zuckerberg sigue afrontando el mismo problema: adoptar un rol más activo en la supervisión del debate dentro de la plataforma obliga a tomar decisiones difíciles, y a establecer criterios variables y conflictivos a la hora de permitir unas publicaciones u otras.
Era el territorio que Facebook nunca quiso pisar. Hasta ahora.
Ver todos los comentarios en https://www.xataka.com
VER 0 Comentario