Una startup estadounidense de inteligencia artificial llamada Standard Cognition ha anunciado que está probando una tecnología desarrollada para permitir comprar en tiendas sin necesidad cajeros ni de detenerse a pagar de ninguna manera: sólo llegar, coger el producto deseado y salir. Al estilo de los supermercados Amazon Go.
Y todo gracias al uso de cámaras y algoritmos para controlar de cerca los movimientos de los clientes y su interacción con los productos de los estantes. Pero lo relevante de la noticia no es la tecnología en sí, ni las nuevas dinámicas de consumo que podría favorecer, ni nada por el estilo.
No: lo relevante es su modo de prevenir el robo en tiendas. Los algoritmos de IA de Standard Cognition pueden, según explica la compañía, reconocer "signos reveladores" en los movimientos y actitudes de los clientes, su velocidad, sus miradas o movimientos. Todos estos factores se comunican inmediatamente al personal de la tienda. Pero, ¿cómo ha llegado a reconocerlos?
El problema de los datos de entrenamiento
El machine learning es especialmente efectivo reconociendo patrones: si se le ofrecen grandes cantidades de datos reales de ejemplo, es capaz de "aprender" qué tienen en común dichos datos y aplicar dicho "aprendizaje" a reconocer nuevos datos relacionados.
Standard Cognition decidió aportar a su IA, como método para ayudarla a reconocer robos, las grabaciones de miles de robos protagonizados por un centenar de actores contratados, refinando el sistema hasta obtener una tasa de precisión superior al 99%.
Las reacciones en Twitter no se han hecho esperar:
"Personas inocentes serán arrestadas, encarceladas, acusadas y posiblemente presionadas para declarase culpables, por culpa, tan sólo, de la idea que un actor tenía sobre cómo podría ser un robo"
Innocent people are going to be arrested, jailed, indicted, and probably pressured into accepting a plea bargain, because of an actor's idea of what theft might look like.
— Eric McCorkle (@eric_mccorkle) September 26, 2019
Tell me again how algorithms aren't political... https://t.co/V2uELu8Zsi
"Buena suerte a cualquiera que pasee, mire o se comporte como lo hicieron esos actores".
How did they train their shoplifting detection, you might ask?
— One Ring (doorbell) to surveil them all... (@hypervisible) September 24, 2019
They had 100 actors shop “for hours” and presumably acted like people shoplifting.
Good luck to anyone who happens to walk, gaze, or behave in the way that these actors did. pic.twitter.com/OlSORjzEiT
"Hacer que los actores finjan estar robando y usar eso para entrenar tus datos es el equivalente a entrenar un sistema de reconocimiento de criminales con imágenes de villanos de dibujos animados".
Quote from @provisionalidea "...getting actors to pretend to steal and using that to train your data is the equivalent of training an image recognition on cartoon villains to identify bad guys." 🤣 pic.twitter.com/hvDpTMw2IC
— One Ring (doorbell) to surveil them all... (@hypervisible) September 24, 2019
Ya hemos abordado varias veces polémicas sobre los sesgos de algoritmos de IA, y la respuesta suele ser casi siempre la misma: el sesgo no está en el algoritmo, sino en la calidad de los datos. En muchos casos, el mal funcionamiento de los algoritmos de identificación es atribuible al uso de pocos datos en el entrenamiento (y a veces millones pueden ser pocos), o a no usar datos extraídos de la realidad.
Pero... ¿acaso el riesgo de sesgo desaparecería sólo con usar muchos vídeos de robos reales? No: aún entonces, es posible mostrar sesgo en la selección y privilegiar, por ejemplo, vídeos que muestran únicamente a delincuentes vinculados a determinados grupos sociales.
Vía | VentureBeat
Imagen | Cyril Caton
Ver 21 comentarios