Los deepfakes plantean todo un reto para las plataformas sociales. Este tipo de contenido manipulado, consistente en editar un vídeo, audio o imagen mediante inteligencia artificial para mostrar, por ejemplo, a una persona de relevancia pública diciendo algo que realmente no ha dicho, supone todo un desafío para unas plataformas en los que el contenido viral tiende a expandirse rápidamente y, en según qué contextos, puede llevar a malentendidos.
Así, y tras el reciente anuncio de Facebook sobre los deepfakes, nos hemos preguntado: ¿Qué políticas tienen las principales plataformas sociales con respecto al contenido manipulado con inteligencia artificial? Para salir de dudas, hemos revisado las condiciones de Facebook, Instagram, LinkedIn y Twitter y, además, repasado qué acciones están tomando otros actores del mundo tecnológico para ayudar a combatirlos.
Empezamos por la red social más popular en Occidente: Facebook. Monika Bickert, vicepresidenta de gestión de políticas globales de Facebook, explicó en el blog corporativo de la compañía que "hay personas que se involucran en la manipulación de los medios para engañar" y que, "si bien estos vídeos aún son raros en Internet", presentan un "significativo desafío para nuestra industria y sociedad a medida que aumenta su uso".
Desde la compañía han explicado que, tras haber consultado a "más de 50 expertos a nivel mundial", han optado por una política sencilla: eliminar el contenido falsificado siempre y cuando se cumplan estos dos requisitos:
"Ha sido editado o sintetizado, más allá de los ajustes de claridad y claridad, de una manera que no quede claro para una persona promedio y que probablemente sirvan para engañarle y que piense que el protagonista del vídeo dijo palabras que en realidad no dijo.
Si es producto de una inteligencia artificial o aprendizaje automático, fusionando, reemplazando o superponiendo contenido en un vídeo para que parezca que es auténtico."
Ahora bien, hay excepciones. No se borrarán aquellos vídeos manipulados con fines satíricos, paródicos y aquellos que hayan sido editados para omitir palabras o cambiar su orden. Es decir, que, de una forma u otra, sigue siendo posible publicar contenido manipulado. Hay otra salvedad, y es que el contenido publicado por los políticos no será censurado, aunque publiquen deepfakes sobre sus rivales.
¿El motivo? El interés periodístico. Según Andrea Vallone, portavoz de Facebook, la plataforma aplica "los mismos estándares que a otros usuarios cuando se trata de medios manipulados" aunque "si el contenido reviste algún interés periodístico, aunque viole la norma, evaluaremos caso por caso si debe permitirse su permanencia en la plataforma". Mashable preguntó a Vallone que ocurriría si un contenido de interés periodístico llegase a calificarse como manipulado (es decir, que cumpliese con los dos criterios expuestos arriba) y no hubo respuesta. El ejemplo más claro de esta excepción es el vídeo de Nancy Pelosi.
Finalmente, desde Facebook aclaran que "de acuerdo con nuestras políticas existentes, el audio, las fotos o los videos, ya sean falsos o no, se eliminarán de Facebook si violan cualquiera de nuestras otras normas de la comunidad, incluidas las que rigen la desnudez, la violencia gráfica, la supresión de votantes y el discurso de odio".
En su publicación, Monika Bickert se refiere sola y exclusivamente a Facebook. Instagram no se menciona de ninguna de las maneras ya que, de hecho, tienen diferentes normas comunitarias aunque sean de la misma compañía, FACEBOOK, en mayúsculas. La política de Instagram contra los deepfakes es tan sencilla como que no hay política contra los deepfakes, al menos por ahora.
Seguramente recordemos cómo en junio de 2019 apareció en Instagram un deepfake de Mark Zuckerberg y cómo la plataforma optó por dejarlo publicado (aunque la CBS pidió a Facebook que lo retirase porque el vídeo contenía su marca comercial). Por aquellos entonces, un portavoz de la empresa dijo a The Verge que "trataremos este contenido de la misma manera que tratamos toda la información errónea en Instagram" y que "si los verificadores de hechos de terceros lo marcan como falso, lo filtraremos de las superficies de recomendación de Instagram como Explore y páginas hashtag". La misma política que las fake news.
Poco más tarde, Adam Mosseri, CEO de Instagram, dio una entrevista a la CBS y explicó que "no tenemos una política contra los deepfakes actualmente" y que "estamos intentado evaluar si quisiéramos hacer eso y, de ser así, cómo definiríamos los deepfakes". Según Mosseri:
"Necesitamos tener principios definidos y debemos ser transparentes sobre esos principios [...] En este momento, tratamos de equilibrar la seguridad y el diálogo, y ese equilibrio es muy, muy complicado. En este momento, lo más importante en lo que debemos concentrarnos es en llegar al contenido más rápido. Una vez que podamos hacer eso, podremos debatir si eliminarlo cuando lo encontremos".
El pasado mes de diciembre, Instagram explicó cómo combatirá la información falsa en Instagram y, de paso, anunció la expansión global del programa de verificación de datos. La política es similar a Facebook, en tanto en cuanto "si un verificador de información externo ha calificado contenido como falso o parcialmente falso, reduciremos su distribución; para ello, lo eliminaremos de la sección “Explorar” y de las páginas de hashtags. Además, se etiquetará para que las personas puedan decidir por ellas mismas lo que leer y compartir, y en lo que confiar. Si se aplican estas etiquetas, se mostrarán a todas las personas que vean el contenido en todo el mundo, en las noticias, el perfil, las historias y los mensajes directos".
En la línea de Instagram está Twitter. Por el momento no tiene una política referente a los deepfakes, sino que está pidiendo a los usuarios su opinión para "dar forma a nuestro acercamiento al contenido sintético y manipulado". Esto, según Del Harvey, VP de Seguridad y Confianza de Twitter, responde a que quieren que sus reglas "reflejen la voz de las personas que usan Twitter".
Twitter no tiene una definición exacta para contenido manipulado o sintético, pero la primera aproximación es la siguiente:
"Proponemos definir medios sintéticos y manipulados como cualquier foto, audio o video que haya sido alterado o fabricado significativamente de una manera que pretenda engañar a las personas o cambiar su significado original".
Harvey expone también "un borrador" de lo que harán cuando detecten medios sintéticos y manipulados que "intencionalmente intenten engañar o confundir a las personas". Según Harvey, Twitter puede:
- "Colocar un aviso al lado de Tweets que compartan medios sintéticos o manipulados.
- Advertir a las personas antes de compartir o dar me gusta a los Tweets con medios sintéticos o manipulados.
- Agregar un enlace, por ejemplo, a un artículo de noticias o un Momento de Twitter, para que las personas puedan leer más sobre por qué varias fuentes creen que los medios son sintéticos o manipulados".
Destaca además que "si un Tweet que incluye medios sintéticos o manipulados es engañoso y podría amenazar la seguridad física de alguien o provocar otros daños graves, podemos eliminarlo". Sin embargo, se trata de un borrador y por el momento no hay una política firme. Los usuarios pudieron dar su opinión hasta el 27 de noviembre de 2019 y desde Twitter dijeron que harán "un anuncio al menos 30 días antes de que la política entre en vigencia".
Llegamos a LinkedIn, que no se ha salvado de los deepfakes. El caso más sonado es el de Katie Jones, un perfil falso que conectó con personas de la esfera política de Washington DC y que salió a la luz después de que Associated Press descubriese algunos fallos en la foto de perfil que indicaban que había sido generada con IA (ya sabemos que esto es más que posible). Hay quien tachó este perfil de "espía" y, según William Evanina, director del Centro Nacional de Contrainteligencia y Seguridad de Estados Unidos, "los espías extranjeros usan habitualmente perfiles de redes sociales falsos para enfocarse en objetivos estadounidense".
LinkedIn no tiene una política contra los deepfakes, aunque sí contra los perfiles falsos, que están terminantemente prohibidos. Cuenta con un sistema de "defensa automático" basado en inteligencia artificial y machine learning que durante la primera mitad de 2019 tumbó el 98% de las cuentas falsas que se crearon. En total, en la primera mitad de 2019 se tomaron acciones contra 21,6 millones de cuentas falsas.
También hay normas de publicación en las que se recuerda "ser profesional y no publicar nada engañoso, fraudulento, obsceno, amenazante, odioso, difamatorio, discriminatorio o ilegal", sin definir exactamente qué es "engañoso" y "fraudulento". Linkedin puede "restringir, suspender o cancelar tu cuenta de LinkedIn y/o deshabilitar tus artículos por cualquier violación del 'Acuerdo del usuario'" y deshabilitar "las cuentas encontradas utilizando contenido infractor", pero no se hace mención explícita a los deepfakes.
Qué están haciendo las plataformas tecnológicas para ayudar a combatirlos
Vistas las políticas con respecto a los deepfakes de las plataformas, procede echar un vistazo al sector tecnológico para ver qué están haciendo empresas como Google, Facebook o Adobe para ayudar en la detección de deepfakes.
Facebook, por ejemplo, afirma ser capaz de detectar un deepfake en su plataforma si previamente ha tenido ocasión de analizar el archivo original, aunque no siempre tiene que darse ese caso. Para desarrollar herramientas de detección, Facebook (en colaboración con Microsoft y otras empresas) ha creado un dataset de deepfakes y el concurso Deepfake Detection Challenge para animar a los desarrolladores. Ambas iniciativas están subvencionadas con 10 millones de dólares.
Algo similar está haciendo Google, que en colaboración con Jigsaw, ha lanzado un enorme conjunto de datos de deepfakes que se ha incorporado a la Universidad Técnica de Múnich y a la Universidad Federico II de Napóles y que se puede descargar desde GitHub. Este conjunto de datos busca ofrecer una suerte de base de entrenamiento para los algoritmos de detección y ya ha sido descargado por más de 150 organizaciones de investigación e industriales.
Por último, cabe destacar el caso de Adobe. La empresa desarrolladora de Photoshop cuenta con una herramienta que, según Adobe, es capaz de detectar cuándo el rostro de una foto ha sido manipulado con su herramienta. Es posible gracias a una red neuronal convolucional que en las primeras pruebas obtuvo un 99% de precisión.
Aún así, siempre que hay una solución se crea un sistema capaz de vulnerarla. Ragavan Thurairatnam, co-fundador de Dessa, lo explicó bastante bien: será "inevitable que los actores malintencionados se muevan mucho más rápido que aquellos que quieren detenerlos".
Ver todos los comentarios en https://www.xataka.com
VER 2 Comentarios