Cuando un comentarista se pasa de la raya en el chat de un directo en Twitch, los moderadores o el dueño del canal tienen la posibilidad de bloquearlo. Eso, sobre el papel, debería evitar que la persona volviese a comentar, pero nada impide que el usuario se cree una cuenta nueva y vuelva a la carga. Hasta ahora.
Y es que Twitch ha anunciado el lanzamiento de "Suspicious User Detection" (o "Detección de Usuarios Sospechosos" en español) que, en pocas palabras, es una herramienta basada en machine learning cuyo objetivo es detectar a aquellos usuarios que se crean cuentas nuevas para seguir abusando en el chat.
Ese comentario quizá sea de alguien que bloqueaste con una cuenta nueva
De acuerdo a Twitch, "cuando baneas a alguien de tu canal, debería ser expulsado de tu comunidad para siempre. Desafortunadamente, estos usuarios a menudo optan por crear nuevas cuentas, volver a entrar en el chat y continuar con su comportamiento abusivo". La "Detección de Usuarios Sospechosos" quiere atajar esto.
¿Cómo? Usando machine learning. La herramienta detectará y analizará a los usuarios basándose en "una serie de señales de la cuenta" (Twitch no determina cuáles exactamente) y las marcará como "probables" o "posibles".
Los mensajes de las cuentas marcadas como "probables" no se enviarán al chat, aunque serán visibles para creadores y moderadores. Estos podrán elegir mantener la restricción, vigilar al usuario o expulsarlo de nuevo del canal.
Por otro lado, los mensajes de las cuentas marcadas como "posibles" aparecerán en el chat como normalmente, pero la cuenta será notificada al creador y moderadores para que puedan tener un ojo encima. No obstante, esto se puede modificar para que los mensajes de estas cuentas "posibles" tampoco aparezcan en el chat.
Esta herramienta estará activada por defecto en todos los canales y los creadores podrán ajustarla para adaptarla a sus necesidades. Una de las funciones que están disponibles es añadir manualmente a los usuarios que deben ser vigilados de cerca, por ejemplo.
Desde Twitch se han cubierto las espaldas y han sentenciado que "ningún [modelo] de aprendizaje automático será nunca 100% preciso". Dicho de otra forma, Twitch es consciente de que puede haber falsos positivos y negativos. Por ese motivo la herramienta no banea directamente, sino que notifica al creador y los moderadores. Lo que sí hace es aprender de las acciones del creador para mejorar su precisión.
Más información | Twitch
Imagen | Gage Skidmore con licencia CC BY-SA 2.0
Ver 7 comentarios