Google tiene un grave problema con el spam y los contenidos inapropiados en YouTube. Lo pudimos comprobar hace unos meses con el descubrimiento de perturbadores vídeos en YouTube Kids, y desde entonces la empresa ha tratado de enmendar el camino.
Ese trabajo, dicen en Google, comienza a dar sus frutos. Un nuevo informe trimestral informará del cumplimiento de las políticas de la comunidad, y nos deja datos interesantes: se han eliminado más de 8 millones de vídeos inapropiados en la plataforma, y los sistemas de aprendizaje automático (machine learning) son cada vez más importantes en esta tarea.
Los usuarios como moderadores
Tanto es así que de los 8,3 millones de vídeos retirados del servicio YouTube —los resultados se centran en el servicio principal, no en YouTube Kids—, el 81% (6,7 millones) fueron detectados por esos sistemas de inteligencia artificial. Cuidado: detectados, que no borrados, porque tras marcar estos contenidos como inapropiados, todos ellos necesitan de una revisión por parte del equipo de moderadores humanos.

En Google y YouTube hacen uso extensivo del aprendizaje automático para detectar vídeos inapropiados antes incluso de que los usuarios puedan verlos (un 76% ni siquiera tenían visitas cuando fueron eliminados), pero a esa labor se suman un conjunto de profesionales —Google promete tener un equipo de 10.000 personas moderando contenido antes de que acabe 2018— y de usuarios que ayudan en esas tareas.
Esos usuarios entran en dos categorías: los usuarios convencionales como tú o como yo que pueden marcar un vídeo como inapropiado desde las opciones de la página de YouTube, o los moderadores de confianza de Google, usuarios que desempeñan esa labor de forma especializada. Estos últimos fueron responsables de detectar 1,1 millones de vídeos inapropiados, el 14% del total.

En Google no obstante destacan la labor de los usuarios convencionales, que detectaron 402.000 vídeos inapropiados en el cuartro trimestre de 2017. En realidad marcaron como inapropiados muchos más vídeos —9,3 millones en total—, aunque si éstos no violan las políticas de la comunidad no se eliminan del sistema.
La inteligencia artificial ayuda, pero sigue siendo insuficiente
Entre los aspectos que llevan a los usuarios humanos a marcar un vídeo como inapropiado están sobre todo los que tienen contenido sexual explícito (30%), son engañosos o son spam (27%), tratan de abusos u odio (16%) o son violentos o repulsivos (14%).

En Google explicaban cómo para reforzar esta tarea han puesto a dispositión de todos los usuarios un panel de transparencia en el que se mostrará a los usuarios el resultado de la actividad de los usuarios al marcar como inapropiados vídeos que han visto en YouTube. Ese panel ya estaba disponible para los moderadores autorizados, y ahora lo estará para el resto de usuarios.
La inversión en personas que logren ayudar a filtrar esos contenidos y eliminar aquellos no apropiados sigue en marcha, aunque en Google esperan que algún día esa labor se pueda realizar de forma autónoma por parte de sistemas de inteligencia artificial.
Por ahora esos sistemas aún están en pleno desarrollo y necesitan del juicio humano para decidir si el contenido es realmente negativo, y según los responsables de Google pasará aún tiempo hasta que hayan podido entrenar a estos sistemas para poder realizar esta tarea de forma autónoma.
Publicidad en vídeos extremista en YouTube, otro paso atrás
Mientras Google presentaba sus novedades en esas tareas de moderación de contenidos en YouTube, una investigación de CNN sacudía de nuevo al servicio.

Según esa información, la publicidad de más de 300 empresas ha aparecido en canales de YouTube que promocionan la pedofilia, la supremacía blanca, a los nazis, las teorías de la conspiración o la propaganda norcoreana.
Entre esas empresas estaban gigantes como Amazon, Adidas, Facebook, LinkedIn, Netflix o Cisco, que como revelan en esa investigación podrían haber ayudado sin querer a esos canales y a sus responsables a financiarse.
Muchas de las empresas implicadas han indicado que no tenían conocimiento de que su publicidad apareciese en dichos canales, y algunas como Under Armour ha detenido sus campañas en YouTube.
No es la primera vez que la empresa se encuentra con este tipo de problemas: en marzo de 2017 YouTube perdió millones de dólares en campañas publicitarias cuando varias empreas detectaron que sus anuncios se publicaban en vídeos que fomentaban el odio o el racismo.

Las críticas a los contenidos extremistas han ido incrementándose además con casos como el escándalo de Logan Paul, y tanto en este suceso como en esa nueva aparición de publicidad en vídeos que deberían no tenerla (y ser eliminados) queda patente que aunque Google haya comenzado a mover ficha, queda aún mucho camino por recorrer.
La empresa anunció a principios de 2018 que la política publicitaria cambiaba: solo canales con un mínimo de 1.000 suscriptores y 4.000 horas de visualización en los últimos 12 meses podrían formar parte del Programa de Partners de YouTube. Eso debería complicar las cosas a canales minoritarios, pero no parece solucionar el problema de los contenidos extremistas ni la publicidad que aparece en ellos.
Como señalan en CNN, algunos de los canales en los que se detectó la publicidad —como el canal pro-nazi de Brian Ruhe— han sido eliminados. Entre esos anuncios estaban los de la productora 20th Century Fox Film, y uno de sus portavoces indicó que "YouTube ha fallado una vez más a la hora de filtrar correctamente los canales para nuestras operaciones de marketing".
YouTube responde a las críticas
Por su parte los responsables de YouTube han indicado que "nos hemos asociado con nuestros anunciantes para realizar cambios significativos en la forma en que enfocamos la monetización en YouTube con políticas más estrictas, mejores controles y una mayor transparencia". El portavoz de esta empresa explicaba además que aun cuando los vídeos cumplen con las pautas de los anunciantes, "no todos los vídeos son apropiados para las marcas".
Según Google, entre los canales detectados por la CNN hay varios que son "simplemente comentarios políticos de derecha o sátira política de derecha. Estos canales no infringen las políticas de la comunidad y son apropiados para algunos anunciantes".
También aclaran que las ganancias acumuladas en la gran mayoría de vídeos mencionados en el reportaje son de menos de 5 dólares, y la mayoría de canales mencionados tienen ganancias acumuladas inferiores a los 100 dólares, lo que según ellos hace que estos "no sean ejemplos de los anunciantes que "financian" a los creadores detrás de estos vídeos y canales".
En Xataka | He mirado todos los datos que Google tiene sobre mí, y confirmo que es el Gran Hermano definitivo
Ver 12 comentarios
12 comentarios
Carlos Santamaria
Hace tiempo a Google ya le quedo grande administrar su plataforma de YouTube, ellos mismos se han encargado de fomentar los videos basura, para luego luchar en controlarlos.
rennoib.tg
Donde unos ven problema con las empresas publicitadas, que le están dejando sin dinero a Youtube, yo veo que Google está ingresando más dinero que nunca gracias a todo esto.
Cada vez veo más publicidad en cualquier vídeo, luego no ha bajado la cantidad de anuncios, diría que por lo menos se ha doblado o triplicado, pero los ingresos de los creadores por la publicidad ha bajado a menos del 5% de lo que era antes. El dinero es como la materia, ni se crea ni se destruye y todas las empresas acaban aprovechándose de cualquier incidente para autoenriquecerse más haciendo menos.
bacp
Me gustaría ver una cifra.
Al igual que hablan de como los moderadores humanos marcaron como inapropiados 9,3 millones de videos, de los cuales tras revisarse solo se eliminaron 402.000 videos, creo que sería interesante saber cuantos videos marco como inapropiados la inteligencia artificial, porque solo veo que 6,3 millones de videos borrados habian sido detectados por la IA, pero no se dice si la IA detecto 6,3 millones de videos y tiene un porcentaje de acierto del 100% o si detecto 630 millones y por tanto solo acerto en 1 de cada 100 videos que marcó como inapropiados.
ciudadwifi
El problema es lo que estos consideran inapropiado, contenido de odio, etc... porque un amigo y compañero de curro, pues tiene un canal de YouTube que llego a tener a principios del año pasado casi 10K seguidores (es una mierda, pero no todo el mundo los tienes) y no eran ni de desnudos, ni pro terrorista, ni profascistas, etc... la mayoría eran filosofía pua y después mgtow (yo antes de que me lo explicara él ni sabía que eran ni que existían), de denuncias falsas de violencia de genero... pues de la noche a la mañana, primero le cerraron el canal, después se lo volvieron a reabrir pero le borraron la mayoría de los videos y por supuesto dejaron de ponerle publicidad... y desde entonces, pues seguido, ahora que te borro este, mañana en cambio lo vuelve a subir e incluso le ponen publicidad (se ve que varis empresas empiezan a ver potencial en el mercado de los que ven esos videos, tampoco nada raro porque si conozco algo lo de los hombres herbívoros de Japón y allí ya hay productos destinados a ellos y tal -claro que son más 10M de japoneses y no creo ni que haya ni un 1% de Mgtows, pero tal como se está poniendo la cosa, cada vez me parece menos locura lo que dicen).
Lo flipante es que después hay videos feminazis en donde se dice desde matar al 90% de los hombres, encerrarnos en campos de concentración, etc... o como el famoso video de las SCUM suecas donde mataban un hombre, pues esos son perfectos y ahí no hay odio.
hasta luego
alberto_bengoa
Esto les pasa por fomentar ese discurso políticamente correcto de que la responsabilidad de la educación de los niños recae en las empresas de contenidos en lugar de en sus padres.
Ahora a jod____ con las consecuencias.
Usuario desactivado
Eso está muy bien. Se ve que están tomando apuntes de los errores de Facebook.
Cosmonautas
Algo funciona mal en el mundo; un chico puede salir sin problemas mostrando sus armas automáticas y se considera inapropiado que una madre muestre como da el pecho a su hijo.
jsilvapizarro
"Contenido inapropiado" : Todo canal que está evidenciando a políticos , trasnacionales y gobiernos sobre su bella corrupción.... (Echa la regla, echa la trampa).
jaimejames
Pues habria que ver cuales son las reglas y si en todos los paises son las mismas reglas.
Hay videos de un videojuego, summertime saga, y la tematica del juego incluye el incesto (el protagonista se podía comer a su mamá, tía y hermana aunque ya cambiaron el guion por los nuevos lineamientos de patreon).
the_aviator
Flaaaaaaaaanders.