El polígrafo o "detector de mentiras" es una vetusta tecnología capaz de detectar los cambios fisiológicos de una persona (en la presión arterial, el pulso o la sudoración) durante un interrogatorio. En tiempos se consideró una herramienta fiable para descubrir la verdad en procesos legales, y constituía una prueba relevante en los juicios, pero numerosos estudios científicos realizados en los últimos años han señalado lo dudoso de su fiabilidad (si el sujeto está nervioso, aunque sea por una razón ajena al interrogatorio, el polígrafo puede señalarlo como culpable). Todo ello ha rebajado su utilidad a lo meramente orientativo.
Pero poder contar con un detector de mentiras fiable ha seguido siendo una aspiración de las autoridades a lo ancho y largo del mundo, y no han dejado de invertir en nuevas tecnologías capaces de lograrlo. Ahora, varios países parecen estar convencidos de que la Inteligencia Artificial era la pieza faltante en esa vieja aspiración.
De AVATAR a IBORDERCTRL: polígrafos 'animados' en las fronteras
El pasado mes de mayo supimos que las autoridades de EE.UU, Canadá y la Unión Europea estaban colaborando en el desarrollo de un sistema llamado AVATAR, creado por investigadores de las universidades de San Diego y Arizona, destinado a la realización de interrogatorios por parte de 'guardias fronterizos animados': la idea era poder realizar un primer filtrado entre los viajeros, a los que se sometería a preguntas sobre la posesión de armas o drogas, en busca de elementos (gestos faciales, alteraciones en la voz o la postura) que les delatasen. Una vez saltasen las alarmas, la decisión final sobre el viajero quedaría en manos de agentes humanos.
Pero, paralelamente a su colaboración en AVATAR, la Comisión Europea ha estado financiando el desarrollo de su propia tecnología, con un funcionamiento muy similar: hablamos del proyecto IBORDERCTRL, con el que los países de la UE buscarán aligerar la creciente presión que el creciente volumen de viajeros y vehículos aplica sobre nuestras fronteras externas (700 millones de personas entran en la UE cada año).
Pero... ¿cómo será capaz de acertar allí donde los detectores de mentiras tradicionales fallaron? "Estamos empleando tecnologías, tanto existentes y probadas como otras novedosas, para ayudar a los agentes fronterizos", explica George Boultadakis, el coordinador del proyecto. "El sistema de IBORDERCTRL recopilará datos que irán más allá de la biométrica y pasarán a los biomarcadores de engaño".
De los pasos fronterizos a los tribunales
Pero Aaron Elkins, investigador en la Univ. de San Diego y uno de los desarrolladores de AVATAR, explica que se han dado cuenta de que
"este sistema se puede usar más allá de la seguridad fronteriza, llevándolo a campos como la aplicación de la ley, las entrevistas de trabajo y otras aplicaciones de RRHH. Continuamos realizando mejoras, como el análisis de los datos recopilados mediante el uso de técnicas de Big Data, que harán de AVATAR una herramienta potencialmente valiosa en muchas industrias".
Rada Mihalcea, es profesora de ingeniería de la Universidad de Michigan, y lleva trabajando desde hace una década en la detección de engaños a través del uso de inteligencia artificial. En Popular Science explica en qué se basa el trabajo realizado por su equipo: "Lo primero que necesitan los investigadores que trabajan en inteligencia artificial y aprendizaje automático son datos".
En su caso, su labor de recopilación empezó con vídeos de casos legales reales, basándose en las declaraciones realizadas por individuos que terminaron siendo condenados, así como de los testigos que pretendieron exculparlos. Aquí se presenta, claro está una objeción básica, pues los algoritmos de aprendizaje automático sólo serán útiles si los datos son correctos: un sistema judicial que condene a muchos inocentes no puede ser fuente de datos fiables en este tipo de casos.
En cualquier caso, Mihalcea y su equipo empezaron a desarrollar su particular polígrafo inteligente a partir de 121 videoclips y sus correspondientes transcripciones: los primeros sistemas de aprendizaje automático que desarrollaron, basándose tanto en testimonios de inocentes como de culpables, tenía una precisión de entre el 60 y el 75%.
Ya en esa fase de la investigación los investigadores pudieron detectar patrones lingüísticos vinculados a la mentira, como la preferencia por expresiones categóricas (como "absolutamente") por encima de alternativas como "tal vez" o "probablemente". "Las personas que mienten tratan de compensar su mentira tratando se aparentar estar más seguros de sí mismos", explica Mihalcea.
Detectan mentiras mejor los humanos, pero aún no están listos para mandar a nadie a la cárcel
Pero su capacidad para tener en cuenta esa clase de factores no hacen que la tecnología diseñada por Mihalcea sea perfecta: "como investigadores, nos entusiasma haber podido llegar al 75 % [de precisión]". Pero eso sigue siendo una tasa de eror de 1 de cada 4 casos: "No creo que esté listo para ser usado en la práctica".
Otro equipo de investigadores, en este caso de la Univ. de Maryland, también se basó en el análisis de vídeos grabados en las salas de juicio para desarrollar DARE (siglas en inglés de "Motor de Análisis de Razonamiento y Engaño"). A DARE se le enseñó a buscar y clasificar microexpresiones humanas (ceño fruncido, labios sobresalientes, etc), así como a analizar la frecuencia de audio de la voz de los acusados, todo ello con el objetivo de revelar patrones capaces de indicar si una persona estaba o no mintiendo.
Posteriormente, se probó en vídeos protagonizados por actores a los que se había intruido para mentir: tampoco en este caso el resultado puede definirse como "preciso", si bien sus creadores destacan "una capacidad superior a la media humana para reconocer mentiras". Sin embargo, según Singh (uno de los integrantes del equipo de desarrollo), podríamos estar a tan sólo 3-4 años de que una IA sea capz de detectar sin error las mentiras humanas gracias al reconocimiento de las emociones detrás de cada microexpresión humana.
Raja Chatilla, presidente del comité ejecutivo de la Iniciativa Global para Consideraciones Éticas en Inteligencia Artificial y Sistemas Autónomos del IEEE, DARE (y otros sistemas similares deben ser usados con precaución, limitándose su uso a ayudar a humanos con formación legal (esto es, a los jueces) a tomar una decisión. "Alta probabilidad no es certeza", recuerda Chatilla, quien también nos recuerda que existe una posibilidad de sesgo en estos polígrafos inteligentes, en función de los datos utilizados para entrenar a sus IA.
Ver 4 comentarios