Los últimos dos años para Facebook han sido los años del escándalo de Cambridge Analytica, del hito de los 2.000 millones de usuarios activos, del paso al frente de WhatsApp e Instagram o de la instauración ubicua del contenido efímero como el que marca el paso de generación. Pero también, sin duda alguna, el de Zuckerberg viéndose cada vez más fiscalizado y acorralado por la polémica en torno a la desinformación y la propaganda encubierta en su red social.
En mitad de ese debate, una entrevista del CEO de Facebook con Recode ha vuelto a meterle en una polémica a raíz de sus declaraciones sobre los usuarios de Facebook negacionistas del Holocausto:
"No creo que se estén equivocando intencionalmente".
Esta frase se enmarca en un contexto concreto: la decisión de Facebook de no vetar la presencia de Infowars, un grupo de extrema derecha entre cuyos mensajes se encuentran, entre otros, teorías conspirativas. Un contexto y una frase que vuelven a reavivar la polémica por el papel de Facebook en la libertad de expresión, la desinformación y los discursos de odio.
Facebook, como empresa y como plataforma de comunicaciones sociales, ha adoptado una postura que evidencia que las declaraciones de Zuckerberg no son en caliente. Con este gráfico comentado en una sesión con periodistas en su campus de Menlo Park se explica mejor cómo ínterpreta Facebook el nivel desinformativo de las publicaciones.
- Correcto. Información objetivamente veraz y sin intereses desinformativos detrás. No se actúa frente a ella.
- Erróneo. Información falaz pero sin intereses desinformativos detrás. Se reduce el alcance de estas publicaciones.
- Bulo / Hoax. Aquí entran los discursos de odio o el de las noticias directamente falsificadas, como puedan ser las generadas a partir de un fotomontaje que va a provocar una fuerte polémica al tratar de hacerse pasar como auténtico. Facebook puede entrar a eliminar este contenido por considerar que viola sus condiciones de uso.
- Propaganda / Cherry-picking. El cuadrante más delicado, según las propias palabras de Facebook: hay que valorarlo sin perder de vista la libertad de expresión, ya que no son falsos por sí mismos aunque sí contienen un sesgo. Se informa al usuario del contexto del medio que lo ha publicado, o se le muestran artículos relacionados con el tema del que ha leído para que pueda contrastarlo con otros medios.
¿Dónde encajaría lo comentado por Zuckerberg, ese discurso ofensivo con origen en creencias personales? Según él, se trata de equivocaciones no intencionadas, por lo que no cabría plantearse la eliminación. Pero con un "pero".
El difícil planteamiento de Facebook y su inmersión en el mundo real
El "pero" de Zuckerberg mediante el que sí se podría dar la eliminación de ese contenido ofensivo es cuando ponga en peligro la integridad de las personas en el mundo real, y no solo en mensajes intercambiados en Facebook. Para ello se apoyará de machine learning e inteligencia artificial, así como de verificadores humanos.
"Estamos moviéndonos hacia las políticas de desinformación que señalan o inducen a la violencia, vamos a demolerla. Si provocan daños reales, daños físicos reales, o si atacan a personas, ese contenido no debería estar en la plataforma".
Esta es una empresa excepcionalmente complicada. Facebook lleva dos años viéndoselas difíciles para paliar un problema que afecta exclusivamente a su plataforma. Ahora quiere estar expectante también de lo que ocurre en el mundo físico para actuar en consecuencia. Aquí recordamos, por ejemplo, el caso Pizzagate, que derivó en un hombre condenado a cuatro años de prisión por abrir fuego en una pizzería epicentro de un bulo... en Facebook. ¿También aplicaría de forma preventiva a contenido falso como este?
Facebook tampoco ha detallado a qué nivel de "peligro físico" deberá estar expuesto alguien para que se tenga en consideración la retirada de contenido que le pudiese llegar a afectar, pero ha comentado que está trabajando con grupos de la sociedad civil para comprender cómo esta desinformación puede servir de combustible a las tensiones locales. Así y todo, cree que aún debe establecer unos criterios concretos para determinar qué constituye violencia y qué no.
La empresa de Zuckerberg ha precisado que comenzará a aplicar esta medida en Sri Lanka, y que posteriormente podrá estudiarse la necesidad de llevarla a cabo en otros países. No es una elección casual: hace unos meses, el gobierno srilankés bloqueó las redes sociales en todo el país y acusó a Facebook de difundir mensajes de odio (vídeos que incitaban a la violencia contra musulmanes y budistas) tras los disturbios mortales en el país.
Por otro lado, la compañía también ha sido cuestionada por un rol así en Myanmar, donde Facebook fue acusada de jugar un papel clave en la propagación de discursos de odio en Myanmar en un momento en el que 650.000 rohingyas tuvieron que huir a Bangladesh. La ONU vio indicios de genocidio en la actuación del ejército birmano y el clero budista vio en la red social un altavoz para su discurso islamófobo.
Con esta medida, Facebook parece comprometerse a admitir su responsabilidad como correa de transmisión en escenarios límite: "Estamos empezando a trabajarla en países donde hemos visto casos recientes en los que se ha ha percibido que la desinformación alienta a la violencia física más allá del online", dijo la empresa. Cómo evolucione y en qué otros países pueda terminar aplicándose es una incógnita a día de hoy.
Imagen destacada | Anthony Quintano.
Ver todos los comentarios en https://www.xataka.com
VER 19 Comentarios