Eliminar mensajes de odio sin pasar por un juez es un plan peligroso: las dudas que plantea la proposición de Unidas Podemos

Eliminar mensajes de odio sin pasar por un juez es un plan peligroso: las dudas que plantea la proposición de Unidas Podemos

98 comentarios Facebook Twitter Flipboard E-mail
Eliminar mensajes de odio sin pasar por un juez es un plan peligroso: las dudas que plantea la proposición de Unidas Podemos
lyzanor

Enrique Pérez

Editor Senior - Tech

Editor especializado en tecnología de consumo y sociedad de la información. Estudié física, pero desde hace más de diez años me dedico a escribir sobre tecnología, imagen y sonido, economía digital, legislación y protección de datos. Interesado en aquellos proyectos que buscan mejorar la sociedad y democratizar el acceso a la tecnología. LinkedIn

"Peligroso", "preocupante" e "intolerable" son algunos de los adjetivos utilizados por juristas para definir la nueva Proposición no de Ley impulsada por Unidas Podemos para "prevenir la propagación de discursos de odio en el espacio digital". Aprobada el pasado 26 de octubre, la nueva medida ha encendido las alarmas de los expertos por poner en peligro la libertad de expresión en redes sociales.

Hemos consultado con distintos expertos en la materia para conocer más detalles sobre este nuevo proyecto, por qué puede ser utilizado como un instrumento de censura y cómo encajan estas medidas con la futura Ley de Servicios Digitales (DSA) que prepara la Unión Europea.

"Yo estoy en contra que sea el Gobierno quien determine qué es un mensaje de odio"

"Es una deriva peligrosa", explica Germán Teruel, profesor de Derecho Constitucional en la Universidad de Murcia. "Creo que uno de los riesgos hoy en día con el pluralismo en internet es el riesgo de censura privada. Aún más, y esto me preocupa, cuando esa censura privada viene impulsada o mediatizada por los poderes públicos. Que las redes estén limpias es algo bueno. Que no haya discursos odiosos y la gente se trate con respeto es positivo, sería el ideal. Pero, ¿a qué coste?", pregunta el profesor.

"La solución y el problema no es querer unas redes limpias, sino creer en la libertad de expresión, con independencia de que guste más o menos el mensaje. Si la respuesta es sí, habrá límites, por supuesto, todo tiene límites. Pero ese límite es la ley", explica Teruel.

Borja Adsuara, profesor, abogado y consultor en Derecho, nos explica la actual legislación, que él mismo ayudó a impulsar, sobre la responsabilidad que tienen las redes sociales sobre los mensajes que se vierten en ellas. "La Ley de Servicios de la Sociedad de la Información y del Comercio Electrónico (LSSI 2002) en su artículo 16 ya establece la responsabilidad de los prestadores de alojamiento de contenido, de las redes sociales. Es un debate de hace 20 años", asegura Adsuara.

"A no ser que tuvieran conocimiento efectivo de que eran claramente ilegales, no tenían responsabilidad sobre los contenidos. En su momento no se habían desarrollado tanto las redes, pero ya estaban obligadas a actuar con diligencia para retirar o imposibilitar el acceso a contenidos ilegales, en cuanto tuvieran conocimiento efectivo de ellos, y a ponerlo en conocimiento de la policía, los fiscales y los jueces", explica Adsuara.

"Ahora se está volviendo a reabrir el tema. Como los jueces, y eso es cierto, no tienen capacidad de reacción a la velocidad de las redes sociales, ahora quieren censurar contenidos. No le llamamos censura, lo llaman "control de contenido"", continúa Adsuara. "Hacemos un código de autorregulación por el que les decimos los contenidos que deben controlar y si no, pues les metemos una multa millonaria. Eso es poner un arma en manos de cualquier gobierno, no ya de este, sino de cualquiera. Y el próximo la utilizará contra ellos".

Sobre estas multas administrativas, Adsuara explica el caso de la Ley de Protección Integral contra la LGTBIfobia, con multas de hasta 40.000 euros en caso de mensajes ofensivos. Una multa proveniente de una funcionaria de asuntos sociales a raíz de una denuncia del Observatorio contra LGBTIfobia, sin pasar por el juez.

"En algún momento tendrán que hacer algún tipo de norma. Por el momento es una proposición no de ley. La herramienta única de denuncia es para que sea más fácil denunciar, una forma de controlar mejor las denuncias. Y si es única, habrá un mecanismo de coordinación con el gobierno. Han medido mucho las palabras para los que no sepan de esto", explica Adsuara en referencia a la herramienta de denuncia única que propone la PNL de Unidas Podemos.

"¿Quién va a estar contra los mensajes de odio? Nadie. Yo estoy en contra que sea el Gobierno quien determine qué es un mensaje de odio".

"Están hablando de una herramienta tecnológica. En cuanto automatices las denuncias en una plataforma única, es una forma más de control. Conéctalo a todos los casos de la pandemia, el informe de la Guardia Civil, etc. Esta PNL surge después de que Unidas Podemos denunciaran determinados bulos que acusaban al Gobierno del dolor causado por la mala gestión de la pandemia. Están preparando al Gobierno para que este haga su ley. ¿Quién va a estar contra los mensajes de odio? Nadie. Yo estoy en contra de que sea el Gobierno quien determine qué es un mensaje de odio", concluye Adsuara.

Sergio Carrasco, jurista y profesor colaborador de la Universitat Oberta de Catalunya, nos ofrece su visión sobre esta plataforma: "supongo que será un portal para denunciar, pero no sé cómo se instrumentará. Quizás funcione como un sitio web público que reciba las notificaciones de todos los prestadores o algo similar. No creo que sea tan sencillo obligar a todas las redes sociales a recibir peticiones de una web para actuar en esos plazos, primero porque sería susceptible de abuso. Lo veo muy peligroso".

"Quien tiene que decidir es el juez. La PNL podría ser inconstitucional"

"Lo que se pretende con estas medidas cautelares sería inconstitucional, así lo hemos dicho desde la PDLI", explica Carlos Sánchez Almeida, Director legal de la Plataforma en Defensa de la Libertad de Información. "Quien tiene facultad para decidir qué es susceptible de odio es el juez. El poder judicial puede acordar medidas cautelares, lo que se está pidiendo ya existe siempre y cuando se haga a través de los tribunales. Y pueden actuar en 24 horas. Si les llega un auto judicial con orden de retirar inmediatamente, lo deben hacer porque si no será desobediencia", explica Almeida. En caso de no retirar el contenido, la LSSI no les protegería y las redes serían responsables de ese contenido.

"Los últimos gobiernos están tratando de recurrir al derecho administrativo para invadir competencias del poder judicial. Quien tiene que decidir qué es odio y qué no es el poder judicial, no el administrativo. Lo que se está haciendo es un brindis al sol para amenazar a quien los critica", concluye Almeida.

"Esta propuesta es un globo sonda y se contradice con otras presentadas por Podemos, como derogar delitos de opinión como ataques al Rey a la bandera o enaltecimiento del terrorismo. En ese marco están defendiendo despenalizar conductas en aras de la libertad de expresión, que cuadra muy mal con acudir al derecho administrativo para perseguir opiniones. Lo que se está intentando es administrativizar la censura, privatizar la censura", expone Almeida.

"En el fondo está la libertad de expresión. No podemos decir qué es discurso de odio, eso debe discutirse. Tiene que pasar por un juez y requiere un tiempo"

"En el fondo está la libertad de expresión. No podemos decir qué es discurso de odio, eso debe discutirse. Tiene que pasar por un juez y requiere un tiempo. No es como un procedimiento ordinario, es más rápido. Como en manifestaciones que se recurren y se resuelven bastante rápido", explica Carrasco. "La reducción de plazos tan llamativa para actuar, especialmente en en los supuestos "discursos de odio" puede llevar a la retirada de contenidos ante la amenaza de poder terminar siendo responsables. Además, muchos casos (aunque lo pudiera parecer) no tienen esa relevancia", concluye Carrasco.

"La Constitución determina que la libertad de expresión dispone de tutela judicial efectiva", apunta Adsuara. "No se trata de censurar y decir, "ahí tienes los tribunales". Quiere decir que el único que puede determinarlo es un juez. No se puede permitir que la censura se aplique y después ya si eso reclamar. Así no funciona la tutela judicial efectiva".

Entre las medidas del proyecto se incluye un cuarto apartado donde se solicita aumentar la colaboración "entre los operadores de las empresas TIC con las autoridades fiscales y policiales competentes". Aquí los expertos consultados sí están a favor, pero plantean algunas dudas. "Muchas redes no colaboran. Me dicen que cada vez que tienen que pedir datos de un usuario no se los dan. Como no están en Europa no los mandan, y hay que hacer peticiones internacionales a través de juzgados", nos explica Adsuara.

"Uno de los puntos de la DSA es hacer como el GDPR, atarlos a Europa para que cuando alguien pidiera un dato sobre contenido se lo tengan que dar", apunta Adsuara sobre la futura gran ley que prepara Europa.

El importante papel de Europa

"Lo adecuado hubiera sido esperar a saber qué pasa con la Ley de Servicios Digitales (DSA), para después nosotros actuar. No tiene sentido sacar una normativa que quizás entre en conflicto y luego tener que hacer la transposición", responde Carrasco. "Creo que se están adelantando, más que preparar el terreno. Creerán que la europea va a ir por ahí, pero hay un debate muy continuo en Europa y no sabemos cómo va a quedar".

"En el caso francés, la ley directamente ha sido declarada inconstitucional", explica Almeida. "El sistema es una maravilla, pues el Consejo Constitucional falla en 30 días. Si no pasa ese filtro, cualquier ley va directamente a la basura". Francia y Alemania crearon leyes para regular los "mensajes de odio" y son los referentes utilizados por la PNL, pero los expertos explican que en el caso francés ha sido declarada inconstitucional y en el caso de Alemania ha levantado muchas críticas.

"La de Alemania surge como impulso contra el nazismo", explica Carrasco. Pero son casos distintos, según expone Adsuara: "lo que son constitutivos de odio van por otro lado, estamos hablando de sanciones administrativas y unos plazos máximos. La LSSI no habla de plazos, dice diligentemente". "¿Vamos a borrar todas las asociaciones que nos parezcan peligrosas? ¿Peligrosas para usted?", reflexiona Adsuara. "Una red social es una empresa y debe cumplir las normas de los países donde están", en referencia a que la libertad de expresión debe mantenerse.

Almeida apunta hacia una de las claves sobre el debate de los discursos de odio: "cuando es claramente delictiva, incite al odio o la violencia hacia un colectivo mencionado en el artículo 510, ya se recoge en el código penal. Pero si lo que se pretende es proteger al Gobierno por temas de odio, no son minorías protegidas por este artículo. El paraguas del delito de odio es para proteger a gente que históricamente ha sido discriminada".

Europa está cambiando su enfoque hacia las plataformas. De no ser responsables del contenido que se publicaba en ellas, a ser más proactivas. La futura Ley de Servicios Digitales (DSA) será determinante.

Sobre la Ley de Servicios Digitales europea, planteada para finales de 2020 y que recogerá parte de este debate, Almeida no sabría decirnos en qué sentido irá porque está pendiente de publicación el texto. "Históricamente, con la Ley de Comercio Electrónico no estaban obligados salvo requerimiento, pero eso está cambiando. Igual que pasó con la Ley Sinde, en Europa se ha empezado con la directiva del Copyright, que establece la posibilidad de censura, incluso algorítmica".

"Otro ejemplo son los contenidos terroristas. Se está debatiendo también prever la retirada de contenidos en un plazo muy corto, pero todo este tema está en proceso de revisión. Como abogados, hay que esperar para unificar criterios a nivel europeo", explica Almeida.

"Parece que Europa ya no está dando tanta importancia a la necesidad de fomentar el desarrollo tecnológico y apuesta por un papel activo de las plataformas a la hora de retirar el contenido".

Carrasco nos explica que ante la nueva DSA, las grandes empresas tecnológicas están intensificando sus presiones: "Hay un lobby por parte de Google o Facebook. Hasta ahora estaban protegidas por la ley del comercio eléctrico, pero parece que Europa ya no está dando tanta importancia a la necesidad de fomentar el desarrollo tecnológico y apuesta por un papel activo de las plataformas a la hora de retirar el contenido. Para actuar preventivamente".

¿Coincide esta postura de Europa con el proyecto aprobado en España? "En cierta forma sí lo estaría", responde Carrasco. "En Europa se está debatiendo por la naturaleza del contenido. Lo que pasará se va a poder discutir", sigue Carrasco, quien plantea un problema técnico: "los juristas de los prestadores no van a tener tiempo para reaccionar. Si recibo una notificación de denuncia, tienes que analizarla. ¿Cuántas peticiones tendrás? Miles. ¿Cuántos abogados? El volumen debe estar en concordancia, es totalmente irrealista aceptar que se va a poder hacer un análisis de cada mensaje, y en caso de duda los prestadores retirarán contenido para no jugársela".

El próximo 2 de diciembre, la Comisión Europea dará a conocer su proyecto de Ley para regular, entre otros aspectos, cómo se controlarán los contenidos publicados en las redes sociales y qué obligaciones tendrán las plataformas.

"No es nada fácil diferenciar qué es ilegal y qué es un discurso extremista"

Otro tema a debate es "el hecho que se tenga que crear un organismo o aplicación para saber qué es discurso odioso. ¿Quién lo decide?", pregunta Germán Teruel, quien expone el siguiente ejemplo. "Imagina que llega un grupo y publica una foto del 'coño insumiso' y un grupo cristiano explica que es odioso. ¿La Policía o la Fiscalía deben escribir a Twitter? Siempre hay límites, pero es el juez el que lo resuelve teniendo en cuenta todas las partes. Y lo mismo por el otro lado, con un mensaje de una asociación filofascista o negacionista del Holocausto. Imagina un artículo en Facebook titulado 'las grandes mentiras del siglo XX'. ¿Quién decide eliminarlo?".

"Tal y como se están planteando en Europa, y el proyecto de Podemos que va en esa línea, la Policía o la Fiscalía se podrían meter en las redes sociales. Lo que nunca podrían hacer en el mundo ordinario, sí lo harán en internet", expone Teruel. "Yo estoy repartiendo panfletos en una plaza, pueden multarme pero tiene que haber un juicio. No puede llegar la Fiscalía y decirle a un periódico que retire algo. Solo un juez puede decidir si algo es discurso de odio o no, o exceso libertad. Es un análisis que suele ser muy complicado porque dista de ser obvio, cuando un mensaje es una crítica hiriente o un insulto. Exige un análisis muy detallista. De primeras debe valer la libertad de expresión y si hay problema, un juez".

"Las plataformas tienen responsabilidad de ser neutrales hasta que alguien denuncie, no tienen una línea editorial como un periódico".

"En el caso de apología del terrorismo, no está claro qué es ilegal o qué es un discurso extremista. Es una medida con cierta demencia, instar a la Fiscalía a que se encarguen de las redes sociales. No es un sistema garantista", concluye Germán.

"La apología y el negacionismo están expresamente regulados. La mayoría de gente entiende que hay mensajes que son una barbaridad, pero es clave quien dice que es un discurso de odio. Hay mensajes que no llegan a delito, porque, si no, lo diría un juez. No se trata de lo que es o no es inadecuado, sino de lo legal o ilegal", explica Adsuara. "Las plataformas tienen responsabilidad de ser neutrales hasta que alguien denuncie, no tienen una línea editorial como un periódico".

Facebook Estrategia de Facebook para la moderación de contenidos.

Sobre estos intentos de moderación, Adsuara nos explica el caso de algunas plataformas: "Han contratado equipos de moderación de contenido, como los de la Torre Agbar de Barcelona de Facebook. Los criterios de esos trabajadores, no muy bien pagados y de gran estrés psicológico, provienen de cursos de formación".

En nuestra entrevista con Daniel Seijo, CEO de Menéame, ya apuntaba la problemática: "¿Cómo vas a hacer un algoritmo así para que determine si un contenido es ilegal? Por defecto no me la juego. Es un tema muy sensible, con muchas aristas. No solo está luchar contra el discurso de odio, sino generar una conversación sana. La solución no puede ser borrarlo y ya está".

"Decir una tontería no es delito. La religión no está comprobada por la ciencia. ¿Debemos eliminar esos mensajes entonces? Si un mensaje se considera perjudicial para la salud o convence a alguien para que haya abandone un tratamiento médico, eso sí es delito y hay gente en la cárcel por ello, pero está dictaminado por un juez", explica Adsuara.

¿Por dónde pasa la solución?

"La verdadera solución es reforzar el poder judicial, permitiendo que los jueces puedan tratar estos asuntos con la urgencia con la que deben tratarse", explica Carrasco. Aunque algunos expertos plantean algunas alternativas, como una sección segunda, equivalente a la de la Propiedad Intelectual, pero en materia de libertad de expresión y contenido.

"A lo mejor hay que pensar en una Agencia de Protección de los Derechos Fundamentales, una agencia pública que tenga en cuenta todos los elementos, no solo los discursos de odio, también la libertad de expresión", expone Teruel.

"Académicamente son cosas que hemos podido hablar. El modelo de Agencia de Protección de Datos tiene sus problemas y ni siquiera puedo decir que sea la mejor de las opciones, pero está encima de la mesa. El problema es que lo ilegal lo tiene que decidir una autoridad judicial".

"No vas a obligar a los usuarios a ir a los Tribunales por un tuit. Pero un jurado de expertos independientes podría ir más rápido".

Adsuara defiende también esta idea. "Mi propuesta de hace años, que ya planteó el Congreso en el informe de 2015 sobre redes sociales, es la creación de un organismo sectorial como autocontrol pero para contenidos que no sean publicitarios. Si no te quedas contento con la respuesta de la red social que ha borrado un contenido tuyo, puedes recurrir como una segunda instancia a un jurado de expertos independientes. No vas a obligar a los usuarios a ir a los Tribunales por un tuit, pero este jurado sectorial sí podría ser más rápido".

Sobre los tiempos, Adsuara explica que "es factible, en 24-48 horas se podría conseguir. Hay prohibiciones de manifestaciones de un día para otro. Pero en la libertad de expresión hay muchos matices. Un mensaje nos puede parecer muy muy ofensivo, pero en cambio quedar protegido por la libertad de expresión. Entre jueces y administraciones, propongo una comisión de expertos que actúe en segunda instancia. Más ágil que un procedimiento administrativo. Un organismo que estén representados expertos en libertad de expresión. Me fío más de un jurado de expertos que de un funcionario del gobierno".

"Con la Directiva del Copyright, hay una propuesta de crear un mecanismo de resolución de conflictos cuando haya falsos positivos. Por ejemplo, cuando se borre contenido en Youtube por supuestamente infringir las normas de Copyright. El algoritmo es incapaz de detectar si se está haciendo un uso lícito de las excepciones. Se está diciendo que se puede usar el Copyright para censurar la libertad de expresión. Ese organismo de Propiedad Intelectual también puede ser de Libertad de Expresión. Pero sobre todo con esta óptica. No como un organismo censor, sino que en caso de duda prevalezca la libertad de expresión", describe Adsuara. "Para armonizar criterios, como un árbitro que diga si es penalti".

Más crítico se muestra Almeida: "¿Un jurado de segunda instancia qué es? ¿Gente sin título de derecho? Defendemos que haya revisión humana de cualquier retirada y que si se produce, la haga alguien con cara y ojos. Para censurar solo puede hacerlo un juez. El artículo 20 expresa que solo un juez puede secuestrar una información, y toda internet es una publicación".

"Si el gobierno implementa esta ley, a mi juicio se equivocaría", expone Teruel. "Si están preocupados por la desinformación, que tengan buenos portales, que se molesten en que haya buena información o que haya buenas facultades de periodismo. Pero no que la Policía o la Fiscalía puedan ordenar sin un proceso claro eliminar mensajes, unos que pueden resultar molestos, pero no sabemos si son ejercicio de la libertad de expresión".

En Xataka | De pandemia a “infodemia”: la no-censura en WhatsApp y el complejo reto de frenar la desinformación (Despeja la X, 1x90)

Comentarios cerrados
Inicio