La 'Ley Iceta' lleva la censura más allá de la normativa europea: los algoritmos podrán cortar streamings y aplicarla en directo

Enrique Pérez

Editor Senior - Tech

Editor especializado en tecnología de consumo y sociedad de la información. Estudié física, pero desde hace más de diez años me dedico a escribir sobre tecnología, imagen y sonido, economía digital, legislación y protección de datos. Interesado en aquellos proyectos que buscan mejorar la sociedad y democratizar el acceso a la tecnología. LinkedIn

"Es una animalada que parece hecha a medida de La Liga y Netflix", describe Carlos Sanchez Almeida, director legal de la Plataforma en Defensa de la Libertad de Información. (PDLI). El abogado explica a Xataka los pormenores de la nueva 'Ley Iceta', que además de establecer el fin del Canon AEDE y ha permitido la vuelta de Google News a España, también incorpora la transposición del polémico artículo 17 de la directiva del Copyright europea. Una adaptación que no solo trae la censura algorítmica, sino que va más allá y lo aplica también a las retransmisiones en directo.

Esto es lo que se ha aprobado vía Real Decreto por el equipo del ministro de Cultura, Miquel Iceta. Una normativa que abre la puerta a aplicar censura directa vía algoritmos y amplía el impacto añadiendo una responsabilidad adicional respecto a los contenidos en directo. Aquí os explicamos los distintos puntos de esta nueva 'Ley Iceta' y qué consecuencias tendrá, tanto para creadores de contenido como las propias plataformas, pasando por la propia libertad de expresión de los usuarios de internet.

Por qué se habla de 'censura algorítmica'

La nueva ley ya puede consultarse en el BOE. En concreto, el artículo que provoca las mayores críticas es el número 73, que trata sobre el 'Uso de contenidos protegidos por parte de prestadores de servicios para compartir contenidos en línea'. Estamos ante el artículo que transpone en España gran parte de lo que se define en el artículo 17 de la normativa europea del Copyright. Antiguamente conocido como artículo 13 y que ya provocó grandes quejas en la red.

Según describe el BOE, las plataformas serán "responsables de los actos no autorizados de comunicación al público, incluida la puesta a disposición de obras y otras prestaciones protegidas por derechos de propiedad intelectual". Es decir, si hay un contenido protegido por derechos de autor, la responsabilidad caerá sobre la plataforma y no sobre el usuario que lo ha subido. Antes las plataformas eran meras intermediarias, pero con la nueva normativa tendrán un papel más relevante y también podrían recibir una mayor pena si no eliminan un contenido protegido por derechos de autor.

Para evitar enfrentarse a problemas, estas plataformas deberán realizar una serie de acciones. Y aquí es donde entra en juego lo que se conoce como 'censura algorítmica'. Las plataformas deberán, "de acuerdo con estrictas normas sectoriales de diligencia profesional", realizar "sus mayores esfuerzos por garantizar la indisponibilidad de las obras, de las cuales los titulares de derechos les hayan facilitado la información pertinente y necesaria". Adicionalmente, estas plataformas deberán demostrar que "han actuado de modo expeditivo al recibir una notificación suficientemente motivada** de los titulares de derechos".

La ley obligará a las plataformas a retirar el contenido protegido de "modo expeditivo" y con los "mayores esfuerzos". Unos requisitos inviables con humanos y que deja la decisión de borrado en manos de algoritmos.

Si combinamos "mayores esfuerzos" y "modo expeditivo", solo queda la aplicación de algoritmos para filtrar el contenido, pues sería inabarcable revisar individualmente con personas cada uno de los contenidos subidos que pudieran infringir derechos de autor. A la práctica, la norma fuerza a las plataformas a aplicar estos algoritmos de control si quieren cumplir la ley.

"Hacer mayores esfuerzos es un eufemismo", explica Almeida. "Todo esto evidentemente no se puede hacer sin tecnología". El abogado apunta que además "se modifica mediante Real Decreto, pero la parte de los editores de prensa la meten como parte de la Ley de Propiedad Intelectual". Una manera de proceder en la que habrá que ver si el Congreso la convalida en un plazo de 30 días. "Sino me veo que modificarán de nuevo la Ley de Propiedad Intelectual", anticipa Almeida.

"Se ha hecho oído sordos a las recomendaciones de la sociedad civil. Al obligar a los proveedores a poner filtros automatizados que censuren los contenidos a la brocha gorda, socava la libertad de expresión y la cultura digital", explican desde Xnet, organización en defensa de los derechos digitales.

El Gobierno podría haber "limitado las expectativas relativas a los "mayores esfuerzos", definiendo claramente en qué consisten estos esfuerzos", apuntan desde Xnet. Otro añadido que la plataforma ciudadana solicitó y no ha sido escuchada es la opción de "añadir fuertes salvaguardias a los derechos de los usuarios y velar para que se establezcan excepciones amplias y sólidas".

"Efectivamente, la ley incluye una serie de obligaciones para evitar ser responsables que en la práctica provocará que los prestadores tiendan a falsos positivos y eliminación de contenidos para seguir protegidos", apunta Sergio Carrasco, consultor jurídico en Fase Consulting.

"El hecho que se fuerce a las plataformas a la censura algorítmica para la publicación de un determinado contenido con tal de evitar ser responsables, eso tiene un impacto en la libertad de expresión. Pero creo que el gran problema es que se ha hecho un 'copy&paste' de la normativa europea. La función de una transposición es también la de clarificar algunos de los aspectos que quedan abiertos y aquí el legislador español no ha hecho ningún esfuerzo, dentro de poco margen, en añadir una mayor seguridad jurídica. Se ha limitado a copiar desde el punto de vista técnico, con deficiencias en la norma que pueden fomentar la legitiosidad y la falta de seguridad jurídica, particularmente grave en el campo de la libertad de expresión", expone Joan Barata, experto internacional en materia de libertad de expresión.

Un paso más allá de la normativa europea: censurando a los streamers

La 'Ley Iceta' no se queda en una mera transposición, también añade un punto no reflejado en la directiva original. Se trata del último apartado del artículo 73.4.

"En relación a los contenidos en directo, los prestadores de servicios para compartir contenidos en línea deben inhabilitar el acceso a los mismos o retirarlos de su sitio web durante la retransmisión del evento en directo en cuestión".

"Se han inventado una censura en directo que no está en la directiva europea", explica Almeida. "Sin ningún tipo de control humano, ni judicial, ni nada. Es como si llega la Guardia Civil al partido del pueblo e interrumpe el partido. En Francia y Alemania han habido jaleos con la transposición, pero no me suena de ningún país europeo que haya hecho algo así".

"Se han inventado una censura en directo que no está en la directiva europea. En la práctica están pensando en censurar a Ibai y a los grandes streamers de España cuando hagan sus directos".

"En la práctica, están pensando en censurar a Ibai y a los grandes streamers de España cuando hagan sus directos. Poder cortarles la emisión en directo. Imagina que Ibai saca un partido de fútbol en el que no tiene derechos, pues se lo cortan. O cualquier música que no esté debidamente autorizada. O cualquier obra gráfica con derechos. Esto afecta a las grandes plataformas y a todos los streamers españoles. Les pueden cortar su fuente de ingresos e irse a Andorra no les va a servir de nada", alerta Almeida.

La nueva normativa implicará que plataformas como Twitch o Youtube deberán estar dotadas técnicamente para que se les notifique cuando hay una emisión en directo de un contenido protegido por derechos de autor. Pongamos un partido de fútbol de La Liga, pero también de Ucrania u otras ligas. "El beneficiado directo es la Liga de Fútbol Profesional. Es una ley hecha a medida. Como también para Netflix, Movistar, HBO o Amazon", apunta Almeida, quien critica que el ministro Iceta suele mostrarse rodeado de directivos de Cedro, Coalición de Autores, Promusicae y otras organizaciones de gestión de derechos de autor. "Aunque estos reciben solo mijitas, quienes consiguen el trozo grande son los otros", expone el experto.

Otro asunto que nos explica Almeida es que no se trata de obras audiovisuales: "una retransmisión de un partido de fútbol no es una obra audiovisual y no es equiparable a una película, un libro o una canción, pero sí obtienen la máxima protección".

El añadido de las retransmisiones en directo favorece claramente a La Liga de Fútbol Profesional, donde su contenido se protege al mismo nivel que películas, libros o canciones.

La gestión de derechos de autor ya ha provocado algunos incidentes en plataformas como Twitch. El pasado mes de mayo, todos sus vídeos quedaron bloqueados por las operadoras españolas tras una petición "por error" de Telefónica Audiovisual. Con la nueva normativa, plataformas como Twitch deberán mantener algoritmos para controlar estos contenidos y también deberán revisar que las emisiones en directo no estén transmitiendo ningún evento protegido.

Qué plataformas deberán aplicar estas medidas y qué derechos tenemos los usuarios

Siguiendo lo ya establecido en la norma europea, la 'Ley Iceta' aplica diferentes responsabilidades en función del tamaño. Mientras Google, Twitter o Twitch tendrán que aplicar los "mayores esfuerzos", aquellas empresas con menos de tres años en la Unión Europea y cuyo volumen de negocio anual sea inferior a los 10 millones de euros, se les tendrá en cuenta su responsabilidad en función de la audiencia, su magnitud y la "disponibilidad de medios adecuados y eficaces".

Según expone Xnet: "las start-ups se verán en graves dificultades obligadas a operar con una celeridad indefinida que les deja en una situación de inseguridad jurídica".

En los próximos años previsiblemente veremos que las grandes plataformas aplican algoritmos de control de contenido que decidirán independientemente si borrar un vídeo. En el caso de pequeñas empresas como un foro, o bien introducen estos sistemas o bien se deberán hacer responsables en caso que algún usuario decida subir un contenido protegido.

Borja Adsuara, consultor en derecho digital, apunta que "los prestadores no tendrán una obligación general de supervisión. Es decir, actúan a instancia de un titular de derechos para retirar un contenido, pero no tienen obligación de hacer de policías". Esto supone que si un contenido no ha sido marcado como protegido por sus gestores, la plataforma no necesitará actuar proactivamente.

La normativa sí apunta que las plataformas deberán "proporcionar a los titulares de derechos que lo soliciten información adecuada, con carácter semestral, sobre sus prácticas". Lo que significa que estas empresas deberán explicar cuántas veces han borrado un determinado contenido.

Si nuestro contenido ha sido eliminado, tendremos 10 días para reclamar. Será entonces cuando un humano y no un algoritmo decidirá si podía publicarse o no".

Desde el lado de los usuarios que vean su contenido borrado se establece un mecanismo de reclamación. En 10 días se deberá revisar la actuación. En ese momento actuará la Sección Primera de la Comisión de Propiedad Intelectual y aquí sí se estará "sujeto a examen por parte de personas, sin intervención automatizada de robots u otros medios análogos".

"Este punto precisamente evidencia que hay censura algorítmica. La decisión de borrado la toma una máquina. Y si tu no te quejas, no hay intervención humana", expone Almeida. Un buen resumen de una 'Ley Iceta' que no solo mantiene los peligros a nivel de censura que ya inició Europa, sino que lo lleva un paso más allá con su implementación de las retransmisiones en directo y su impacto en todos los streamers de España.

Ver todos los comentarios en https://www.xataka.com

VER 88 Comentarios

Portada de Xataka