Desde el estreno de 'Terminator', los robots asesinos han sido un tópico en los debates sobre los peligros potenciales de la inteligencia artificial. Pero en los últimos tiempos han dejado de ser un argumento propio de neoluditas para convertirse en un tema de preocupación real para políticos y líderes de la industria tecnológica.
Durante una reciente entrevista para el Daily Telegraph, el mismísimo presidente de Microsoft, Brad Smith, afirmó que, a día de hoy, los robots asesinos son "imparables", porque las grandes potencias militares (EE.UU., China, Rusia, Reino Unido, Israel, Corea del Sur, etc) ya han iniciado una nueva carrera armamentística en el campo de las armas dotadas de IA.
Y, como ya ocurrió con las armas nucleares, una carrera en la que muchos pretenden ser los primeros y mejores puede llevar a la asunción de excesivos riesgos por parte de los corredores. Por no mencionar que un escenario en el que se logre salvaguardar a las tropas humanas del campo de batalla hace que resulte "más barato" para los gobiernos declarar guerras.
Corea del Sur, por ejemplo, ya ha dispuesto sus robots SGR-1, desarrollados conjuntamente por Samsung Techwin y la Universidad de Corea, en el mismo borde de la Zona Desmilitarizada. Estos robots serían capaces de detectar a los soldados norcoreanos que crucen la frontera y, técnicamente, podrían disparar sin necesidad de intervención humana.
Al otro extremo de Asia, Israel Aerospace Industries ha creado un misil inteligente llamado Harpy, programado para merodear durante horas hasta detectar emisiones de un sistema de radar hostil.
Mientras, en los Estados Unidos se está desarrollando el programa Squad X, basado en el uso de robots con IA en entrenamientos conjuntos con los marines, en los que estas máquinas operan de manera autónoma a menos que se les dé órdenes.
Hacen falta nuevas reglas para un nuevo mundo
Smith recordó que estamos ante tecnologías que están avanzando muy rápidamente, que en breve presenciaremos cómo los drones (voladores, nadadores y caminantes) empiezan a ser equipados con misiles u otras armas, capaces de operar de manera autónoma.
Muchos tecnólogos están empezando a alzar la voz pidiendo a sus gobiernos que ninguna IA pueda tomar decisiones de combate de forma totalmente autónoma, sin depender en ningún punto de la aprobación de un humano, porque un "error de juicio" de un robot inteligente no sólo es igual de probable que el de un humano, sino que sus consecuencias pueden ser mucho peores.
Y por ello, para evitar en la medida de lo posible estos peligros, Smith juzga necesaria una nueva Convención de Ginebra adaptada al actual mundo tecnológico, que nos dote de "normas que protejan tanto a civiles como a soldados".
Hoy en día existen ya cuatro de estas convenciones, todas ellas firmadas en la ciudad suiza homónima, con las que desde 1864 se ha ido edificando un consenso internacional de mínimos en cuanto a los límites éticos de la guerra:
- "Primera Convención de Ginebra, para el mejoramiento de la suerte que corren los militares heridos en los ejércitos en campaña" (1864).
- "Segunda Convención de Ginebra, para el mejoramiento de la suerte de los militares heridos, enfermos o náufragos en las fuerzas armadas en el mar" (1906).
- "Tercera Convención de Ginebra, para mejorar la suerte de los heridos y enfermos de los ejércitos en campaña y el trato de los prisioneros de guerra" (1929).
- "Cuarta Convención de Ginebra, relativa a la Protección de Personas Civiles en Tiempo de Guerra" (1949).
Según Smith, ahora que se cumplen 70 años desde la aprobación de la última de estas convenciones, ha llegado el momento de poner de acuerdo a las grandes potencias mundiales en lo que respecta a las normas aceptables a la hora de aplicar la inteligencia artificial a la guerra.
En el libro que acaba de publicar este mismo mes, llamado "Tools and Weapons" (Herramientas y armas), Smith también defiende que la Humanidad se dote de reglas más estrictas sobre el uso de la tecnología de reconocimiento facial "para protegernos contra posibles abusos".
Cabe destacar que, el pasado mes de agosto, un informe de la ONG holandesa PAX señalaba a las principales compañías tecnológicas de estar poniendo el mundo en peligro con su colaboración en el desarrollo de IAs asesinas, y situaba a Microsoft y Amazon como las compañías de mayor riesgo.
Imagen | John Breslin
Ver 18 comentarios