Una startup estadounidense de inteligencia artificial llamada Standard Cognition ha anunciado que está probando una tecnología desarrollada para permitir comprar en tiendas sin necesidad cajeros ni de detenerse a pagar de ninguna manera: sólo llegar, coger el producto deseado y salir. Al estilo de los supermercados Amazon Go.
Y todo gracias al uso de cámaras y algoritmos para controlar de cerca los movimientos de los clientes y su interacción con los productos de los estantes. Pero lo relevante de la noticia no es la tecnología en sí, ni las nuevas dinámicas de consumo que podría favorecer, ni nada por el estilo.
No: lo relevante es su modo de prevenir el robo en tiendas. Los algoritmos de IA de Standard Cognition pueden, según explica la compañía, reconocer "signos reveladores" en los movimientos y actitudes de los clientes, su velocidad, sus miradas o movimientos. Todos estos factores se comunican inmediatamente al personal de la tienda. Pero, ¿cómo ha llegado a reconocerlos?
El problema de los datos de entrenamiento
El machine learning es especialmente efectivo reconociendo patrones: si se le ofrecen grandes cantidades de datos reales de ejemplo, es capaz de "aprender" qué tienen en común dichos datos y aplicar dicho "aprendizaje" a reconocer nuevos datos relacionados.
Standard Cognition decidió aportar a su IA, como método para ayudarla a reconocer robos, las grabaciones de miles de robos protagonizados por un centenar de actores contratados, refinando el sistema hasta obtener una tasa de precisión superior al 99%.
Las reacciones en Twitter no se han hecho esperar:
"Personas inocentes serán arrestadas, encarceladas, acusadas y posiblemente presionadas para declarase culpables, por culpa, tan sólo, de la idea que un actor tenía sobre cómo podría ser un robo"
Innocent people are going to be arrested, jailed, indicted, and probably pressured into accepting a plea bargain, because of an actor's idea of what theft might look like.
— Eric McCorkle (@eric_mccorkle) September 26, 2019
Tell me again how algorithms aren't political... https://t.co/V2uELu8Zsi
"Buena suerte a cualquiera que pasee, mire o se comporte como lo hicieron esos actores".
How did they train their shoplifting detection, you might ask?
— One Ring (doorbell) to surveil them all... (@hypervisible) September 24, 2019
They had 100 actors shop “for hours” and presumably acted like people shoplifting.
Good luck to anyone who happens to walk, gaze, or behave in the way that these actors did. pic.twitter.com/OlSORjzEiT
"Hacer que los actores finjan estar robando y usar eso para entrenar tus datos es el equivalente a entrenar un sistema de reconocimiento de criminales con imágenes de villanos de dibujos animados".
Quote from @provisionalidea "...getting actors to pretend to steal and using that to train your data is the equivalent of training an image recognition on cartoon villains to identify bad guys." 🤣 pic.twitter.com/hvDpTMw2IC
— One Ring (doorbell) to surveil them all... (@hypervisible) September 24, 2019
Ya hemos abordado varias veces polémicas sobre los sesgos de algoritmos de IA, y la respuesta suele ser casi siempre la misma: el sesgo no está en el algoritmo, sino en la calidad de los datos. En muchos casos, el mal funcionamiento de los algoritmos de identificación es atribuible al uso de pocos datos en el entrenamiento (y a veces millones pueden ser pocos), o a no usar datos extraídos de la realidad.
Pero... ¿acaso el riesgo de sesgo desaparecería sólo con usar muchos vídeos de robos reales? No: aún entonces, es posible mostrar sesgo en la selección y privilegiar, por ejemplo, vídeos que muestran únicamente a delincuentes vinculados a determinados grupos sociales.
Vía | VentureBeat
Imagen | Cyril Caton
Ver 21 comentarios
21 comentarios
pableras
Vuelta la burra al trigo. No, una máquina no tiene sesgos. Un algoritmo, tampoco. Tenemos sesgos los humanos.
Un algoritmo no tiene sesgo ni aunque le programen para ello: si en su sistema de reconocimiento le programan que los que tienen el pelo de más de 7 colores son delincuentes, los detectará como tal, sin ningún tipo de miramientos. No se pregunta el porqué, simplemente sigue su rutina.
bluesman
Precisión del 99%... Para cualquiera que sepa un mínimo de Machine Learning sabe que eso es uns trola como una olla.
kinico
Lo bueno de esta noticia es que ahora ya sé lo que no debo hacer, cuando entre en una de estas tiendas, nada de ropa negra ni capas, no usar un sombrero negro de copa alta, no llevar el bigote largo y o rizado, por último y lo más importante de todo, nunca, bajo ninguna circunstancia decir muahahaha cuando este adentro, si sigo estas instrucciones, todo será legal y bonito.
albertitoito
Conclusión: Tal y como entre un actor en al tienda, va a ser arrestado
royendershade
Llegan malos tiempos para ser actor y entrar en tiendas...
piolindemacrame
Me hiciste acordar de los gorilas de Google Photos.
McAllus
No solo el sesgo está en la calidad de los datos si no, aunque probablemente de manera inconsiciente, también en las personas que programan los algoritmos de aprendizaje de la IA
morquar
No me acaba de quedar muy claro, si ponen sensores de presión en las baldas saben si hay un producto de más o de menos. Si en todo momento se hace un seguimiento de los clientes. Al salir le cobras y punto, aunque se lo haya metido entre los pantalones, simplemente sabes que tal persona pasó por tal zona y cogió tal cosa, que no dejó en ningún otro sitio.
karsten
Considerando que la startup es estadounidense no habría dudas de que apenas entre un cliente de color lo recibirían a tiros.
imf017
¿Sesgos dicen? Osea que si el cliente es negro, se lo llevan arrestado nada más entrar en la tienda.