Si el futuro en clave belicista está marcado por la tecnología y el avance de la IA, es factible pensar que la llamada “guerra autónoma” que veíamos en películas como 'Terminator' no está tan lejos como pensábamos. Eso es preocupante en el escenario actual, donde no existe una regulación clara que delimite las líneas rojas en el campo de batalla. Sin supervisión humana, el terreno abonado para darle las llaves a un algoritmo lleva a imaginar escenarios dantescos. De eso ha tratado un encuentro entre 90 países, y todos han llegado a la misma conclusión menos uno.
Que la IA no apriete el botón. La historia tuvo lugar hace muy poco durante la cumbre sobre Inteligencia Artificial Responsable en el Dominio Militar (REAIM) celebrada en Seúl. La cuestión de fondo no era tanto regular, de hecho, la firma final no es vinculante, pero sí era una primera e importante aproximación tácita entre países ante un problema que tenemos casi tocando la punta de los dedos.
¿Deberían las máquinas tomar decisiones sobre el uso de armas nucleares? Esta fue la gran pregunta y el debate, y todos menos China parecieron tenerlo bastante claro: los humanos, no la inteligencia artificial, deberían tomar las decisiones clave sobre el uso de armas nucleares, según se acordó el martes en una declaración.
El acuerdo. Este casi centenar de países, entre los que se encontraban Estados Unidos, China, Reino Unido, Países Bajos o Ucrania, adoptaron el "Plan de Acción" después de dos días de conversaciones. Como decíamos, el acuerdo, que no es jurídicamente vinculante y no fue firmado por China, constataba que era esencial "mantener el control y la participación humana en todas las acciones... relativas al empleo de armas nucleares".
Además, en el acuerdo se añadió que las capacidades de IA en el ámbito militar "deben aplicarse de conformidad con el derecho nacional e internacional aplicable. Las aplicaciones de IA deben ser éticas y centradas en el ser humano".
El no de China. La respuesta de China es un síntoma del largo camino que queda por recorrer y de las tensiones geopolíticas que se viven en la actualidad. Tampoco hay respuesta de Rusia, que debido a la guerra de Ucrania estaba vetada de la cumbre. Sea como fuere, el rápido uso de sistemas militares basados en IA en conflictos recientes, así como su creciente importancia en los planes de futuro, ha subrayado la urgente necesidad de evaluar las posibles consecuencias no deseadas del mal uso de esta tecnología.
Un ejemplo de ello es el desarrollo y uso no regulados de drones en el campo de batalla, donde la única limitación real es el miedo a errores algorítmicos, como los que resultan en fuego amigo.
Incentivos a vincularse. Esta es otra de las patas a tratar. Los países directamente involucrados en conflictos tienen pocos incentivos para frenar este desarrollo, como se muestra en la guerra entre Rusia y Ucrania, donde ambos bandos están aprovechando cada vez más los drones mejorados con IA para acciones con una mínima supervisión humana.
Según explicó en la cumbre Kateryna Bondar, experta en tecnologías avanzadas del Centro de Estudios Estratégicos e Internacionales, “estos países son reacios a imponer restricciones, ya que consideran que la IA militar es una ventaja crítica. En cuestiones de supervivencia nacional, ninguna declaración o acuerdo, por bien intencionado que sea, impedirá que un país haga lo que sea necesario para garantizar su propia seguridad”, aseguraba.
La tecnología siempre por delante. Otro de los problemas que se trató en la cumbre fue la problemática de poner leyes a la IA. A este respecto, Manoj Harjani, coordinador del Programa de Transformaciones Militares en la Escuela de Estudios Internacionales, comentó que “es un juego constante de ponerse al día, en el que la tecnología evoluciona a un ritmo mucho más rápido que el proceso de regulación gubernamental, que a menudo avanza lentamente”.
De fondo: otra vez China. Si bien Estados Unidos ha disfrutado de superioridad en tecnología militar desde el final de la Guerra Fría, esta ventaja ya no lo es tanto en la carrera por convertirse en el líder mundial en IA y tecnologías de machine learning que podrían revolucionar la guerra, y aquí China vuelve a aparecer en el horizonte.
De hecho, hay datos que respaldan su posición de liderazgo. Según un informe publicado en agosto por el Instituto Australiano de Política Estratégica, China ha ampliado su liderazgo como la nación líder en investigación del mundo, copando en casi el 90%, de las 64 categorías examinadas por el grupo de expertos, incluyendo análisis avanzado de datos, algoritmos de IA, aprendizaje automático e IA adversaria. A ello hay que añadir que empresas chinas como Tencent Holdings, Alibaba Group Holdings y Huawei Technologies están entre las 10 principales firmas que realizan investigación en IA.
Conclusión. La cumbre nunca fue vinculante, ni se pretendía. Fue una aproximación a modo de tablero donde cada nación movió ficha dejando ver parte de sus cartas. Los expertos sostienen que, a pesar de las escasas posibilidades de alcanzar un acuerdo internacional vinculante para regular la IA militar a corto plazo, tal logro debería ser en el futuro “profundamente importante, si es posible”.
Como afirmaba Bondar, la IA es, en esencia, un producto del diseño humano, “un software que se puede programar para cumplir normas y reglamentos”. El problema está en que esas normas y reglamentos bien podrían traducirse en las taras y/o venganzas de unos y otros. De nuestra mano está lograr alcanzar un consenso para minimizar y adelantarnos a cualquier catástrofe innecesaria.
Imagen | włodi
En Xataka | China es el país que más ha aumentado su arsenal nuclear. Ahora pide contención a EEUU y sus aliados
Ver 13 comentarios