Una lucha constante de redes sociales como Facebook o Twitter es contra los usuarios que realizan spam, engañan mediante phishing o simplemente trollean. Facebook ahora dice tener una nueva herramienta para detectarlos: un Facebook paralelo donde bots con inteligencia artificial imitan a este tipo de usuarios. Con esto pueden estudiar su comportamiento y experimentar con medidas para ver si menguan su actividad.
El otro Facebook
Para realizar esta simulación la compañía ha creado, esencialmente, un Facebook alternativo. Conocido como 'WW' (haciendo referencia a que es una versión menor de la WWW), este simulador funciona con el mismo código que el Facebook original usado por usuarios reales. Pero en él no hay usuarios reales, sólo un montón de bots con inteligencia artificial que campan a sus anchas e imitan a los usuarios.
Un ejemplo de cómo funciona este simulador. Facebook describe que entrenaron a unos "bots malos" para que vendieran productos ilegales en la plataforma a otros "bots buenos". Esta es una práctica relativamente común en el Facebook real, donde a menudo se trata de vender ítems que está prohibidos como armas o drogas. Los bots realizan todas las actividades que un usuario real puede hacer: enviar mensajes a otros, hacer búsquedas, visitar páginas, dejar comentarios... Analizando cómo los "bots malos" se comportaban y trataban de vender esos ítems ilegales, comenzaron a aplicar diferentes restricciones para ver si así evitaban que se produjeran estas ventas, como por ejemplo limitar la cantidad de mensajes enviados entre desconocidos.
Una vez las medidas tomadas se demuestra que pueden ser efectivas, se comenzarán a implementar en el Facebook real y a los usuarios reales. La parte interesante de esto es que al ser un Facebook alternativo y simulado no hay interacción alguna con los usuarios reales.
Ahora bien, por mucho que sea un Facebook simulado, sigue sin ser exactamente como el Facebook real y tampoco puede simular todos los factores del mundo real. Al final, por mucho que el bot sea inteligente, no puede predecir el comportamiento exacto y las intenciones de un humano. Sin embargo es una forma interesante de probar medidas a tomar de forma segura y con la certeza de que no va a afectar a los usuarios finales.
Teniendo en cuenta que los bots están equipados con IA, en principio pueden servir para algo más que imitar comportamientos humanos conocidos. Es decir, los ingenieros de Facebook lo que realmente hacen ahora es programar a los bots para que hagan tareas concretas como tratar de vender un producto ilegal. Pero también se le puede simplemente dar un objetivo y que busque por si mismo la forma de conseguirlo, de ser así podría por ejemplo detectar posibles comportamientos y métodos que usuarios reales aún no han utilizado y prepararse en caso de que vayan a hacerlo.
El proyecto forma parte del departamento de inteligencia artificial de Facebook, Facebook AI. De aquí han salido cosas de lo más curiosas, como un robot que se mueve sin un mapa, una inteligencia artificial que resuelve ecuaciones matemáticas complejas u otra que cambia la voz de los cantantes..
Más información | Facebook AI
Ver 3 comentarios