TikTok sabe que su algoritmo genera adicción entre los jóvenes y hace poco para evitarlo, según una investigación de NPR

  • Una investigación ha determinado que TikTok ha infringido las leyes de protección al consumidor en Estados Unidos

  • 14 fiscales han emitido 14 demandas contra TikTok por ello. En una de esas demandas, la censura no estaba bien implementada y se ha podido acceder a la información de la investigación

  • TikTok no sale para nada bien parada

TikTok
1 comentario Facebook Twitter Flipboard E-mail

El pasado martes 14 fiscales generales de 14 estados distintos en Estados Unidos demandaron a TikTok. El motivo, expusieron en la demanda, era que TikTok había violado las leyes de protección al consumidor y contribuido a una crisis en la salud mental de los jóvenes. 14 demandas, todas ellas con información oculta (las típicas líneas negras que tapan frases o párrafos en un documento oficial) relacionada con comunicaciones internas de los ejecutivos de TikTok, documentos y datos de la investigación.

Un documento defectuoso ha permitido ver el contenido censurado. El resumen es que TikTok es consciente de que su app genera adicción y de que las medidas ofrecidas por la plataforma no son efectivas. Pero vayamos por partes.

El documento. Kentucky Public Radio (la radio pública del estado de Kentucky) ha tenido acceso a la demanda del fiscal general de su estado, una demanda de 119 páginas con la censura defectuosa. De esa forma, KPR y NPR (National Public Radio) han podido leer el contenido oculto y acceder a 30 páginas de información censurada. Posterior a la publicación del contenido, un juez estatal selló la demanda.

¿Qué dice la investigación? Varias cosas y ninguna de ellas a favor de TikTok. NPR afirma haber revisado "todas las partes de la demanda que fueron censuradas, en las que se destaca a los ejecutivos de TikTok hablando con franqueza sobre una serie de peligros para los niños en la popular aplicación de vídeos". También se afirma que algunas medidas de prevención, como las herramientas de gestión de tiempo, no solo no son efectivas, sino que miden su éxito en función de la buena prensa que TikTok genera con su publicación.

El algoritmo de TikTok solo necesita 260 vídeos para enganchar al usuario

260 vídeos. De acuerdo a los documentos revisados, esa es la cantidad de vídeos que un usuario necesita ver para volverse "adicto a la plataforma". En palabras de las autoridades de Kentucky, "si bien esto puede parecer sustancial, los videos de TikTok pueden durar tan solo 8 segundos y se reproducen para los espectadores en rápida sucesión, de manera automática [...] Por lo tanto, en menos de 35 minutos, es probable que un usuario promedio se vuelva adicto a la plataforma”.

TikTok, asegura NPR, afirmaba en una investigación que "el uso compulsivo se correlaciona con una serie de efectos negativos para la salud mental, como la pérdida de habilidades analíticas, la formación de la memoria, el pensamiento contextual, la profundidad conversacional, la empatía y el aumento de la ansiedad". Asimismo, TikTok era consciente de que "el uso compulsivo también interfiere con responsabilidades personales esenciales como dormir lo suficiente, las responsabilidades laborales y escolares y la conexión con los seres queridos".

TikTok Imagen: Solen Feyissa en Unsplash

Herramientas sin utilidad. TikTok dispone de algunas herramientas que permiten reducir o ajustar el tiempo que el usuario pasa dentro, pero en los documentos se desliza que la plataforma es consciente de su ineficacia. De hecho, se cita una investigación propia que determinó que el impacto ha sido de apenas 1,5 minutos. De 108,5 minutos diarios, el tiempo de uso pasó a 107 minutos con la implementación de estas herramientas.

Es más, los documentos afirman que TikTok medía el éxito de estas herramientas por cómo mejoraba "la confianza del público en la plataforma TikTok a través de la cobertura de los medios", pero no en función de cuánto se reducía el tiempo de uso. En la investigación también se citan las palabras de un ejecutivo que, en conversaciones con otro empleado, afirmaba que "nuestro objetivo no es reducir el tiempo invertido".

Gente guapa. Por otro lado, los documentos muestran que el algoritmo da prioridad a la gente guapa. De acuerdo a un informe interno citado en dichos archivos, TikTok se percató de que "un gran volumen de... sujetos poco atractivos" aparecían en la app, de manera que retocaron el algoritmo para potenciar a aquellos usuarios que la empresa consideraba atractivos.

"Al cambiar el algoritmo de TikTok para mostrar menos 'sujetos no atractivos' en el feed Para Ti, [TikTok] tomó medidas activas para promover una estrecha belleza normativa a pesar de que podría afectar negativamente a sus usuarios jóvenes", aseguran las autoridades de Kentucky en la investigación, según NPR. Eso promueve unos estándares de belleza que, a la larga, puede derivar en problemas personales.

Imagen: Cottonbro studio Imagen: Cottonbro studio

Falta de moderación. La investigación también sugiere que TikTok es consciente de cómo su app genera un filtro de burbuja, hasta el punto de que el algoritmo solo tarda 30 minutos en introducir al usuario en una. Eso es peligroso, sobre todo si hablamos de contenido lesivo. Contenido que, por cierto, puede encontrarse en la plataforma. Ha habido varios experimentos al respecto.

En primer lugar, TikTok emplea una capa de IA para analizar y detectar vídeos que incumplen sus normas y, posteriormente, pasa a revisores humanos. La IA se usa para filtrar contenido de carácter pornográfico, violento o político. Los moderadores humanos solo entran en juego si el vídeo tiene cierta cantidad de visualizaciones y el problema viene cuando algunos vídeos con temática delicada, como el suicidio y la autolesión, pasan el filtro de la IA.

Uno de los casos mencionados es un vídeo de autolesiones que se identificó y eliminó después de que alcanzase las 75.000 reproducciones. Además, NPR afirma que en los documento se recoge que aunque hay contenido que está prohibido por la plataforma, se puede encontrar. Simplemente no aparece en el "Para ti" o no se recomienda, pero existe. De hecho, TikTok reconoce tener un porcentaje de filtración que, en ciertos casos, como la normalización de los abusos a menores o la fetichización de los mismos, es muy preocupante.

Imágenes | Alexander Shatov Imagen: Alexander Shatov

El problema con los menores. Finalmente, la investigación sugiere que TikTok no hace demasiado por eliminar las cuentas de menores de 13 años, que no pueden tener una cuenta estándar. Aunque hay cuentas para usuarios jóvenes, NPR asegura que en los documentos internos se expone que a los moderadores se les pedía precaución antes de eliminar una cuenta sospechosa de ser de un menor de 13 años.

Los fiscales también sostienen que los directos pecan de falta de moderación, ya que permiten a los menores emitir en vivo y recibir dinero (en forma de regalos) por parte de los usuarios. En la demanda de Kentucky, afirma la radio pública local, se afirma que "la existencia de estas recompensas virtuales aumenta enormemente el riesgo de que depredadores adultos tengan como objetivo a usuarios adolescentes con fines de explotación sexual". Es un asunto que lleva tiempo sobre la mesa y no es la primera vez que se sugiere que este tipo de directos promueven la explotación sexual de los menores.

La postura de la plataforma. Desde Xataka nos hemos puesto en contacto con TikTok para conocer su postura. Fuentes de la empresa han asegurado a este medio lo siguiente.

"Es sumamente irresponsable por parte de NPR publicar información que se encuentra bajo secreto de sumario. Lamentablemente, esta denuncia selecciona cuidadosamente citas engañosas y saca de contexto documentos obsoletos para tergiversar nuestro compromiso con la seguridad de la comunidad. Contamos con sólidas medidas de seguridad, que incluyen la eliminación proactiva de cuentas de usuarios, sospechosas de pertenecer a menores de edad, y hemos lanzado voluntariamente funciones de seguridad como límites de tiempo de pantalla que están activos por defecto, herramientas de sincronización familiar, y límites de privacidad activados por defecto, para menores de 16 años".

Otro (duro) golpe para TikTok. Esta información es solo un obstáculo más para TikTok en Estados Unidos, donde actualmente se enfrenta a su posible prohibición. A no ser que TikTok en Estados Unidos se desvincule de Bytedance, su matriz con sede en China, la aplicación será prohibida a partir del 19 de enero.

Imagen de portada | Solen Feyissa

En Xataka | Creíamos que OpenAI estaba scrapeando la web a un ritmo insostenible. Hasta que TikTok decidió entrar en la IA

Inicio