Hace unas semanas, Youtube anunció varios cambios en su plataforma, incluyendo algunos que afectarán a su algoritmo de recomendación de vídeos. En su blog oficial, Youtube hacía un pequeño repaso a la evolución de su sistema de recomendación de contenido:
"Puedes que recuerdes que, hace unos años, los espectadores se sentían frustrados por los vídeos capta-clics y sus títulos y descripciones engañosas".
"[...] Más recientemente, la gente nos decía que estaban recibiendo demasiadas recomendaciones similares, llegando a ver vídeos sin fin sobre galletas tras visualizar un único vídeo con la receta de las snickerdoodles".
"Este año vamos a comenzar a reducir las recomendaciones de contenido que pudiera desinformar a los usuarios", explican, señalando con el dedo a vídeos de defensa de la 'Tierra plana' o a los que se hacen eco de conspiraciones relacionadas con el 11-S.
Guillaume Chaslot, ex-trabajador de Google y asesor del Center for Humane Technology, reconoce en un hilo publicado en Twitter que él mismo trabajó en la inteligencia artificial que promovió esa clase de vídeos y, tras calificar el cambio de rumbo de Youtube como una "victoria histórica", pasa a relatar cómo el portal de vídeos de Google se convirtió en el gran difusor de material conspiranoico en Internet.
Chaslot cuenta la historia de un conocido, "Brian", que a causa de una depresión empezó a frecuentar ese tipo de contenido, día y noche. "Para sus padres, familiares y amigos, su historia es desgarradora. Pero desde el punto de vista de la IA de YouTube, es un gran éxito".
¿Cómo es eso posible? "Diseñamos la IA de YouTube para que aumentara el tiempo que las personas pasan online, porque eso conlleva más anuncios. La IA considera a Brian como un modelo que debe multiplicarse. [...] ¿Cuántas personas como Brian son seducidas por esas 'madrigueras de conejo' todos los días? Por diseño, la IA intentará captar a la mayor cantidad posible".
Chaslot apunta en su hilo hacia la clave del asunto: al menos hasta ahora, los colectivos de usuarios "hiper-comprometidos" con un tipo de contenido concreto, aunque sean grupos pequeños, sesgaban las recomendaciones de Youtube en favor de sus gustos:
"Las personas que pasan su vida en YouTube afectan más las recomendaciones. Por lo tanto, el contenido que ellos ven obtiene más vistas. Los usuarios de YouTube se dan cuenta de ello y crean más [contenido de ese tipo], y la gente dedica aún más tiempo a eso contenido. Y vuelta al principio".
"Ejemplo de este círculo vicioso: hace dos años descubrí que la IA promovía muchas informaciones conspiranoicas en mayor proporción que las verdaderas. Por ejemplo, los vídeos de la Tierra Plana se promovían en torno a diez veces más que los de la Tierra redonda".
Curiosamente, los resultados proporcionados por las búsquedas de Youtube y por su sistema de recomendación no se asemejan en exceso, pese a trabajar con los mismos datos.
Esto, según explica Chaslot en su blog personal, "muestra que las pequeñas diferencias en los algoritmos pueden producir grandes diferencias en los resultados: la búsqueda probablemente privilegie la relevancia, mientras que las recomendaciones darán más importancia al tiempo de visualización".
"Por lo tanto, si 'la tierra es plana' mantiene a los usuarios más tiempo on line que 'la tierra es redonda', esa teoría se verá favorecida por el algoritmo de recomendación".
Si nos detenemos a pensarlo un momento, esta historia muestra ciertos paralelismos con de la de Tay, la IA conversacional diseñada por Microsoft, que la compañía liberó en Twitter para que charlase con los internautas jóvenes y aprendiera de su forma de comunicarse.
El experimento tuvo que finalizar en 24 horas, después de que un grupo relativamente pequeño de tuiteros se dirigiera a Tay con expresiones racistas y la IA aprendiera a reproducir sus proclamas.
Imagen | Fotograma de 'Señales', Buena Vista Pictures (2002)
Ver todos los comentarios en https://www.xataka.com
VER 5 Comentarios