Las guerras no desaparecerán. No al menos si hacemos caso a toda la historia de la humanidad y a esa evolución que hemos visto en las estrategias y armamento militar. Nuevos descubrimientos en este área han hecho que matar sea cada vez más fácil, rápido y eficiente. Ocurrió con el arco, la artillería, los barcos, los aviones, o las armas nucleares.
Como indica el profesor Ronald Arkin, de la Georgia Institute of Technology, esos avances han provocado las llamadas Revoluciones en Asuntos Militares (RMAs), y los robots y la tecnología robótica es considerada como la próxima RMA. ¿Cuál será el papel de esos robots en el campo de batalla? Es lo que hemos tratado de dilucidar en una conversación telefónica con el profesor Ronald C. Arkin en la que este experto nos ha explicado las implicaciones positivas de su utilización.
Los robots podrían salvar vidas en conflictos armados
En un artículo del profesor Arkin publicado en julio de 2013 (aquí en PDF) en la revista trimestral de la AISB (The Society for the Study of Artificial Intelligence and Simulation of Behaviour) este expero explicaba los fundamentos de su trabajo y sus conclusiones, en las que la idea esencial es la respetar los esfuerzos humanitarios y lograr que en las guerras se salven el mayor número de vidas posible, reduciendo el número de bajas de no combatientes.

En esa labor los sistemas robóticos podrían ser cruciales. La introducción de este tipo de sistemas es ya una realidad, y hace tiempo que se aprovechan sus ventajas en misiones de reconocimiento y vigilancia, adquisición de objetivos o recolección de datos e inteligencia militar. Las capacidades autónomas de algunos de estos sistemas es limitada pero esos avances provocarán cambios en las tácticas militares que si se hacen correctamente -como defienden en el Georgia Tech Mobile Robot Laboratory (GT-MRL)- podría "reducir las atrocidades" cometidas en las guerras.
Como nos explicaba por teléfono, en sus investigaciones el profesor Arkin destacaba una idea sobre todas las demás: el objetivo -que es además factible según el trabajo de este experto y su equipo- es el de crear sistemas robóticos militares autónomos capaces de reducir las bajas civiles e incluso los daños materiales en comparación a los que producirían los combatientes humanos. Este objetivo precisamente contradice la intención de grupos que abogan por el veto total a la introducción de robots en enfrentamientos armados, y en opinión de Arkin su correcta introducción sería consistente con el Derecho Humanitario Internacional (DHI).
Las ventajas en el uso de estos sistemas son evidentes cuando se habla de reducción de bajas del mismo bando, respuesta rápida a las acciones del campo de batalla y mayor precisión. Todo ello parece dejar claro que el desarrollo e implantación de sistemas autónomos "letales" es inevitable, pero aquí es donde el DHI debe actuar.
Los robots no disparan primero y preguntan después. Si hay dudas o incertidumbre, los robots no deben actuar. Y esa es la clave: deciden cuando no actuar.
Arkin nos explicaba cómo el comportamiento humano es, en el mejor de los casos, ética y legalmente cuestionable. Los crímenes de guerra se explican según este experto por temas como un alto número de bajas de nuestro bando que llevan a un deseo de venganza, cambios en la cadena de mando que provocan un liderazgo más débil, tropas poco preparadas, enemigos que no están claramente definidos y órdenes confusas que dan lugar a interpretaciones erróneas. Los sistemas robóticos podrían solucionar muchos de estos problemas o minimizarlos, y en opinión de Arkin esto llevaría al objetivo final: que las bajas de no combatientes en esos enfrentamientos fueran las menos posibles.

Los estudios de laboratorio realizados por Arkin y su equipo indican que los sistemas robóticos podrían respetar ese DHI y lograr salvar vidas inocentes, lo que "si se consiguiera eso resultaría en un requisito moral según el cual sería necesario el uso de estos sistemas". Aunque Arkin aclara que los resultados de laboratorio proporcionan una solución fidedigna al problema, sí que destaca que estos primeros pasos permiten pensar en que este tipo de soluciones son posibles en el futuro.
El objetivo es el de crear sistemas robóticos militares autónomos capaces de reducir las bajas civiles e incluso los daños materiales
Para Arkin hay factores claros que permiten que sean optimistas en lo que esta tecnología puede lograr en el campo de batalla. Los robots, por ejemplo, tienen la capacidad de actuar de forma conservadora: no necesitan protegerse a sí mismos en caso de que la identificación del objetivo no sea precisa. La auto-preservación o supervivencia de los "robots-soldado" o de vehículos robóticos no es un parámetro clave, de modo que se pueden sacrificar en caso necesario. Como decía Arkin, "los robots no disparan primero y preguntan después. Si hay dudas o incertidumbre, los robots no deben actuar. Y esa es la clave: deciden cuando no actuar, y no lo inverso".
Ventajas y desventajas: ante todo, ir paso a paso
Los sensores robóticos también aportan mejor capacidad de observación, pero también está presente una ventaja fundamental hoy en día: no son conscientes de sí mismos y no tienen emociones o conciencia que puedan nublar su juicio. "El miedo y la histeria que están siempre latentes en combate y a menudo son reales nos presionan a tomar medidas terribles y a tener comportamientos criminales". Los robots también serían inmunes a distorsionar la información según la situación y sus propias emociones, además de contar con una capacidad de análisis y recolección de información que lleva a responder de forma más precisa y rápida que los seres humanos en muchas situaciones.

Los argumentos en contra existen, desde luego: hay que discutir quién es responsable de crímenes de guerra en los que se ha utilizado armamento autónomo o qué ocurre si esta introducción de sistemas robóticos hace que la intervención en conflictos armados sea más sencilla de aprobar por parte de los países que deciden intervenir. Pero como dice Arkin, "si se logran salvar vidas de no combatientes en ese esfuerzo humanitario, incluso existiría un imperativo moral para su uso. Esto parece contradecir la intención de vetar directamente los robots autónomos letales sin antes determinar a través de la investigación si se podría lograr de hecho mejor protección par alos no combatientes".
La prohibición de este tipo de armamento parece complicada, y aquí el profesor Arkin pone el ejemplo de cómo la ballesta fue prohibida por el Papa Inocencio II en 1139. No serviría de mucho, como tampoco serviría tratar de vetar el uso de artillería, misiles de crucero o bombardeos aéreos. Según este experto debe establecerse una moratoria para el uso de estos sistemas autónomos y demostrarse que en efecto pueden comportarse de acuerdo al DHI y salvar vidas inocentes.
El futuro que pinta Terminator está muy lejos si es que existe
Quisimos comentar con el profesor Arkin cuánto de verdad hay en ese futuro que nos pinta Hollywood y las novelas de ciencia ficción en las que las distopías son frecuentes y acabamos sometidos a un planeta dominado por los robots. Las recientes declaraciones de personalidades como Bill Gates, Elon Musk o Stephen Hawking para prevenirnos de la amenaza que representa la Inteligencia Artificial son en opinión de Arkin muy respetables, pero ese futuro está muy lejano.

No obstante, Arkin reconocía que es absolutamente recomendable tratar de prepararnos para ese momento en caso de que llegue, y aquí es interesante que recordemos cómo en la actualidad hay diversos organismos y agrupaciones que precisamente están tratando de allanar el terreno para que esa futura convivencia con robots que tienen consciencia de sí mismos sea mucho más natural y adecuada.
Aún así, Arkin era escéptico y creía que contar con una solución real en sistemas robóticos para enfrentamientos armados tardará del orden de 10 o 20 años, y que esa inteligencia artificial que nos venden desde Hollywood está aún más lejos de ese plazo. Inevitable era también la pregunta sobre las tres leyes de la robótica de Asimov y si estas leyes eran aplicables en escenarios reales. Aunque Arkin reconocía el mérito de Asimov, también aclaraba que dichas leyes "no son prácticas en la mayoría de situaciones. Deberían ser consistentes con las leyes humanas".
A día de hoy esas consideraciones son poco prácticas para el profesor Arkin, que coincidía con nuestra visión de la situación actual. Hoy por hoy los robots militares son herramientas. "Son como tostadoras: son autónomas hasta cierto punto, no son objetos con moral o consciencia de sí mismos y no estamos cerca de ello".
Las tres leyes de la robótica de Isaac ASimov fueron inspiradoras, pero no son prácticas
Estos robots podrían lograr reducir los daños colaterales, pero como ha pasado durante toda nuestra historia, su introducción producirá Revoluciones en Asuntos Militares que cambiará la forma en la que se lucha en las guerras: Las ventajas asimétricas modificarán la estrategia, las tácticas y el desarrollo de estos conflitos armados. Pero la idea central de todo el trabajo de Arkin es clara y contundente: el objetivo es salvar el mayor número posible de vidas, y no quitarlas. "Ganar guerras es el objetivo, pero no quiero que las naciones pierdan su alma en esa lucha".
Ronald C. Arkin es Regent's Profesor -un cargo especialmente importante y muy prestigioso en instituciones dedicadas a la investigación- y Decano Asociado de Research and Space Planning, College of Computing, Georgia Institute of Technology. Durante su dilatada carrera ha realizado decenas de publicaciones en revistas científicas y en conferencias, y es el autor de varios libros sobre esta materia, entre los que destacan "Behavior-Based Robotics", "Governing Lethal Behavior in Autonomous Robots" y "Robot Colonies".
Imagen | Andree Wallin
Más información | Governing Lethal Behavior (PDF, 115 págs) | An Ethical Basis for Autonomous System Deployment (ARO)
En Xataka | Al otro lado del test Voight-Kampff
Ver 40 comentarios
40 comentarios
alberto_bengoa
El problema no son solo las guerras. La tecnología va a seguir avanzando durante décadas y va a poner al alcance de la élite un poder inimaginable hace solo unos años, pero también dará mucho poder a los ciudadanos de a pie y a toda clase de grupos radicales y terroristas.
LA SOLUCIÓN, y lo pongo con mayúsculas por que creo que es la única forma de no exterminarnos entre nosotros, es apostar por una mezcla entre un sistema educativo mucho mejor y mucho mas universalizado, y una apuesta seria y realista de desarrollo de los países del tercer mundo y las regiones deprimidas del primer mundo.
La única forma de que la gente no quiera matarse entre si es que sea educada desde niños y no tenga necesidad económica de ello.
Tenemos una muestra muy clara de que esto funciona, y se llama Unión Europea. Durante miles de años ni una sola generación ha conocido la paz en este continente, y nosotros somos la primera que si lo ha hecho.
telegato
el resultado : menos guerras y más terrorismo
escubri
Aviso que no he leído todavía el artículo por falta de tiempo. Pero mi opinión si cabe y comparto es la siguiente: (muy breve).
Si se crean soldados robots al final todos tendrán esa tecnología, así que no corresponde a un monopolio etc.
Si se crean soldados robots no podrá ejercerse la opción de renuncia a la guerra porque ya hay máquinas que siempre obedecerán. No existirá la objeción de conciencia porque existirán ya soldados no humanos que ejercerian cualquier tipo de acto sin responder a ningun reparo; ni ético ni moral. Por lo tanto no se podrán evitar las guerras. Porque el objetivo es no necesitar de guerras, no el poder hacerlas sin coste de soldados humanos, porque siempre habrá un coste y es un coste basado en la violencia destructiva de unos contra otros y siempre está el factor humano, porque es un enfrentamiento entre humanos.
Con robots seguirán las guerras, pero al igual de como ha estado ocurriendo estos miles de años; con mayor sofisticación, ningún cambio, excepto por una mayor complejidad que puede añadir muchos más problemas todavía, como el lógico uso de inteligencias artificiales que no conocen el descanso ni el dolor.
nemeus
Que va a decir de un producto quien se gana la vida vendiendolo?
Solo hay que ver el ingente incremento de bajas civiles consecuencia del uso masivo de drones por parte de Estados Unidos.
Usuario desactivado
Resulta tremendamente contradictorio criticar la moral humana cuando esta misma sera la que programe estos robots autonomos que no inteligencias artificiales con conciencia.
Pero es que el concepto de guerras "humanitarias" es simplemente aberrante, no existen guerras más humanas. Y posiblemente el uso de estas herramientas sirva solo para matar más friamente aun.
Otro aspecto que me preocupa sobremanera es la critica continua a las emociones cuando precisamente esta demostrado que la inteligencia emocional es parte fundamental de nuestra inteligencia en conjunto y de nuestra evolución biologica y social, no puedo verlo como un handicap.
rumpelstisien
No va a ser posible parar este fenómeno. Una vez esta tecnología despegue, la carrera armamentista sera vertiginosa.
El principal peligro de ello es que una pequeña parte de la humanidad podrá tener a su servicio un ejercito robótico, que no cuestione su legitimidad ni su ética, y que podría someter e incluso exterminar al resto. La única forma de evitarlo es equilibrar la balanza poniendo al alcance de todo el mundo la posibilidad de crear estos sistemas. Hay que usar el open-source, el open-hardware, la impresión 3D,la WEB distribuida y las criptomonedas para difundir la tecnología a medida que se desarrolle y no dejar en manos de una minoría el monopolio de las armas robóticas.
r a g n o r
No estaría mal que los países empezaran a solucionar sus problemas con batallas de robots en el espacio, y dejasen a la población tranquila. Como echar un partidillo de fútbol.
frg92552
Lo de evitar los abusos sobre la población civil me parece una chorrada. Una guerra por definición es un caos y en el caos es lo de "a río revuelto ganancia de pescadores". La gente desaprensiva aprovecha esa situación de descontrol para los robos, el pillaje y los abusos. Eso, desgraciadamente, es inherente a las personas y no va a cambiar por el hecho de que los que "se maten" sean robots y no personas. El caos de la guerra ocurrirá igual y la gentuza seguirá aprovechando la situación para abusar del débil y joder al prójimo.
Además un conflicto en el que los que combatan sean solo robots las convertirán, mas que nunca, en guerras económicas. Los drones no son precisamente baratos y siempre ganarán los países o bandos mas potentes económicamente que serán los que se podrán permitir un mayor gasto de reposición de las unidades perdidas. Así que los bandos mas pobres, según se les vayan agotando los robots empezarán a recurrir a la guerra de guerrillas, con combatientes humanos armados... con lo que volveremos a la posibilidad de abusos, violencia contra los civiles desarmados y toda la desgracia de las guerras de siempre.
Finalmente, creo que si en las guerras no mueren personas haría que estas se declarasen con mucha más facilidad. Es verdad que esto no vale para fanáticos que consideran un honor morir por su religión o similares.
aar21
El papel de los roboten las guerras del futuro será exterminar a los humanos sin ningún remordimiento.
herpesg666
A la guerra se va a matar, a mutilar, a torturar, y a violar si se tercia.
Que mierda de conflictos nos esperan con estos santificados robots ?
Dudo mucho que programen a los robots para sacrificarse por unos cuantos humanos insignificantes. Lo mas probable es que los carisimos robots se defiendan y maten todo lo que puedan, hay que recuperar la inversion.
La regla es, como en el cole, MATAOS PERO NO OS HAGAIS DAÑO.
Gunther
Veo un futuro con robots asesinos sin duda... el problema no es nuestra moral.. el problema es cuando los programen los integristas o ISIS por ejemplo
Usuario desactivado
Os aviso que los robots no pensamos ir a matarnos en vuestras estupidas guerras. Vosotros id haciendo...
soysamuel
Tiene errores consensuales sobre la guerra graves
http:// lahaine.org /amauta/b2-img/Clausewitz%20Karl%20von%20-%20De%20la%20guerra.pdf
(junten los 3 pedazos, no me permite poner links)
vic.mace1
Pienso igual la violencia es al intrínseco a nuestra condición humana siempre encontraremos motivos para pelear
carlosge
Siempre lo dije
reimon301987
la única forma ,que apoyaría la creación de de armas robots, seria para una guerra contra alienigenas.
pensar, q todos un ejercito pude estar dirigido y construido por un solo hombre de mucho dinero, es aterrador,mas conociendo a sus hijos(niños mimados por paipi), ademas que las guerras solamente pasarían a ser realmente un videojuego, para el lado que dispone de estos equipos, si en la guerra, no se sufren las perdidas, seres queridos, que sentido tiene frenarlas o seguir creando otras.
ivanvh
No he podido leer todo el artículo pero creo que nos iría mejor si se desarrollaran robots políticos. Seguro que llegarían siempre a cualquier solución mejor que desencadenar una guerra.
Miyamoto Gaming
>2015
>todavía estamos con guerras.