Sus cámaras han estado conectadas a la plataforma de análisis facial de AWS
Oficialmente es una prueba para mejorar la seguridad en las estaciones
Algunos documentos plantean la opción de usarlo para mostrar publicidad en base a las emociones
Network Rail, la empresa pública responsable de la infraestructura ferroviaria británica, ha estado probando en secreto un sistema de videovigilancia con IA desarrollado por Amazon, según Wired, quien lo avanzó en febrero, pero no con el componente emocional.
Este sistema, implantado en varias de las estaciones de metro más concurridas de varias ciudades británicas, busca detectar comportamientos sospechosos y medir la "satisfacción" de los viajeros a partir de sus expresiones faciales, según documentos filtrados que menciona Wired.
Cómo funciona. Las cámaras de circuito cerrado de estaciones como Waterloo y Euston (Londres) o Piccadilly (Manchester) se conectaron a Rekognition, la plataforma de análisis facial de AWS.
Su IA es capaz de estimar edad y sexo de los pasajeros captados, así como de inferir su estado de ánimo a partir de sus gestos: alegre, enfadado, triste... El objetivo es detectar de forma automatizada conductas "de riesgo" como actos vandálicos o intrusión en las vías, y alertar al personal de la estación.
Qué dicen sus responsables. Network Rail confirmó que usan "tecnologías avanzadas" en las estaciones para "proteger a los pasajeros, al personal y a las infraestructuras", siempre "cumpliendo la legislación" y "en colaboración con la policía y los servicios de seguridad".
Purple Transform, la consultora que ha estado pilotando las pruebas, asegura que la detección de emociones se descartó durante los ensayos y que no se almacenaron imágenes. Su CEO defiende que la IA "ayuda a los operadores humanos a evaluar riesgos que no pueden monitorizar en tiempo real".
Los interrogantes. Este movimiento plantea algunas cuestiones:
- Falta de transparencia. Los documentos revelan una actitud "desdeñosa" hacia quienes pudieran sentirse espiados. "Normalmente no le importa a nadie, pero nunca se sabe", escribió un empleado.
- Riesgo de sesgos. Varios estudios demuestran que este tipo de sistemas arrojan más falsos positivos con ciertos grupos étnicos.
- Expansión de la vigilancia. Hay una fina línea entre el aumento de la seguridad y el escrutinio masivo y automatizado que amenaza libertades. Este tipo de movimientos normalizan su antesala.
En el punto de mira. Los documentos mencionados sugieren posibles aplicaciones de la IA de AWS para medir la "satisfacción del cliente" o incluso para mostrar publicidad personalizada en las pantallas según el perfil detectado. Una posibilidad que resulta inquietantes.
Los reguladores tienen en la mirilla a este tipo de sistemas. En España Mercadona quiso introducir algo parecido y finalmente dieron marcha atrás, entre otros motivos porque un juez puso las suficientes trabas a un procedimiento que generó dudas desde el principio.
En perspectiva. El despliegue discreto de cámaras con IA para monitorizar y perfilar pasajeros desinformados habla de los dilemas que plantea esta tecnología. Sus defensores argumentan el potencial para combatir el crimen u optimizar recursos. Sus detractores alertan del riesgo que supone para derechos fundamentales.
Y de fondo, una reflexión ineludible: ¿cuánta libertad estamos dispuestos a ceder a cambio de seguridad? ¿Quién nos asegura que el propietario de la infraestructura no usará esos sistemas para fines que vayan en su beneficio propio, no en beneficio general?
Imagen destacada | Iuliia Dutchak en Unsplash
En Xataka | Hemos perdido la batalla contra el reconocimiento facial. Europa aprueba su uso policial a gran escala
Ver todos los comentarios en https://www.xataka.com
VER 6 Comentarios