A finales de febrero, el medio online estadounidense Quarz publicaba una noticia con el siguiente titular: "El Ejército de los EEUU quiere convertir sus tanques en máquinas de matar accionadas por inteligencia artificial".
Se hacía así eco de la convocatoria realizada por los organismos militares a empresas privadas para que contribuyan a implantar el nuevo sistema ATLAS (Advanced Targeting and Lethality Automated System), que busca proporcionar a los carros de combate la capacidad de "identificar y atacar objetivos al menos el triple de rápido que con el actual proceso manual".
Las críticas no se hicieron hecho esperar, y el Ejército ha decido ahora matizar y ampliar la información difundida en su momento, para dejar claro que esta nueva tecnología no significa que estén preparando máquinas que vayan a atacar a nadie sin intervención humana.
Michael C. Horowitz, politólogo de la Univ de Pensilvania citado por Defense One, analiza la polémica:
"La controversia sobre ATLAS demuestra que persisten las objeciones tecnológicas y éticas respecto a a automatizar los sistemas de armamento".
"Es muy importante que cualquier revisión programa ATLAS no sólo aclare el grado de autonomía y el nivel de participación humana, sino también garantizar que cualquier incorporación de IA [a partir de ahora] se produce de una manera que garantice la seguridad y la fiabilidad".
Este debate ha coincidido en el tiempo con otra polémica independiente, relativa a una protesta pública de empleados de Microsoft sobre la participación de su compañía en el desarrollo de IVUS (Integrated Visual Augmentation System).
IVUS es el nombre de la tecnología de visualización para cascos de combate basada en los visores Microsoft Hololens, una de las tecnologías más distintivas de entre las proyectadas por el 'departamento de innovación' del Ejército estadounidense, el Army Futures Command.
La normativa del ejército de EE.UU prohíbe el armamento 100% autónomo
La cuestión es que a medida que la adopción de IA con usos militares se traslada del aire (drones) al suelo (a los tanques, a los cascos, a los robots auxiliares), el debate pasa a estar menos claro y a generar mayor rechazo ético.
EEUU realizó su primera prueba de robots militares armados en 2003, con la creación del robot SWORDS, dotado con una ametralladora. En 2007 llegó a ser enviado a Irak, pero el programa se suspendió cuando se comprobó que, una vez sobre el terreno, apuntaba de forma errática e imprevisible.
Tras eso, ese tipo de tecnología se abandonó y, ya en la era Obama, se aprobó una directiva (Directiva 3000.09 del Departamento de Defensa) que establecía que los humanos debían tener siempre capacidad de veto sobre las acciones de uso de fuerza ejercidas por cualquier máquina, tripulada o no, equipada con armamento. Una directiva que -esto es importante- aún sigue vigente.
Y eso es lo que ha querido dejar claro el Ejército estadounidense con su último comunicado sobre ATLAS, explicando que ATLAS utilizará un algoritmo capaz de detectar e identificar objetivos, pero siempre será el operador humano quien tome la decisión de disparar.
"Y después, una vez que el ser humano haya tomado la decisión, permitirá disparar con precisión", según explica Paul Scharre, director del Programa de Tecnología y Seguridad Nacional en el Centro para una Nueva Seguridad Americana. La idea es que esto pueda ayudar a reducir la proporción de bajas civiles y de fuego amigo.
Y a eso se le suma que hace unos meses que están trabajando en desarrollar una política de uso de la IA que complemente y desarrolle la recogida en la directiva 3000.09.
Imagen | U.S. Air Force photo/Airman 1st Class Cory D. Payne
Ver 19 comentarios