"Las armas autónomas al 100% todavía no existen. Pero la tecnología se está moviendo en esa dirección y ya hay precursores en uso o en desarrollo". Ésta es una de las conclusiones a las que ha llegado la ONG Human Rights Watch en un informe conjunto que han publicado junto a la Universidad de Harvard. En él piden a la ONU y a los propios países que prohíban las armas letales que funcionen de forma autónoma antes de que éstas comiencen a fabricarse.
Según dicho informe, las armas autónomas tendrían que tomar sus propias decisiones sobre el uso de fuerza letal sin contar con algunas características puramente humanas, como la compasión y el propio juicio de la persona. No sólo eso, sino que explican cómo sería difícil atribuir la responsabilidad de un acto a una de estas máquinas en el caso de que cometiera un crimen de guerra y también aseguran que volverían a generar una carrera armamentística entre países.
"Una vez desarrolladas, las armas completamente autónomas podrían llegar hasta países irresponsables o a otros grupos armados, dándoles máquinas que pueden ser programadas para matar indiscriminadamente a sus propios civiles o a las poblaciones enemigas", explican en el informe
¿Quién es el responsable?
En dicho informe se paran con detalle a analizar precisamente la responsabilidad criminal y la responsabilidad civil de este tipo de robots diseñados para matar. "Las armas no podrían ser consideradas responsables de sus actos porque ellas podrían no actuar con intenciones criminales, lo que quedaría fuera de la jurisdicción de los tribunales internacionales y no podría ser castigado".
La ausencia de castigos podría crear un "clima de impunidad y producir consecuencias negativas importantes en supervivientes y también en la sociedad como conjunto", denuncian en el documento. En declaraciones a The Guardian, uno de los responsables de HRW ponía varios ejemplos: "el no existir responsabilidad legal significa que no se podrán evitar crímenes futuros, no habrá retribuciones para las víctimas y no habrá condena social al responsable".
Por todo ello, desde HRW piden "prohibir el desarrollo, producción y uso de las armas completamente autónomas" a través de una institución internacional con implicaciones legales. Además, recomiendan que cada país desarrolle sus propias leyes para prohibir esto mismo. El documento llega al público unos días antes de que la ONU se reúna para debatir sobre las armas letales autónomas, en una conferencia con expertos que se celebrará del 13 al 17 de abril.
Informe completo | Human Rights Watch
Imagen | jlmaral
Ver 18 comentarios
18 comentarios
neron666
Ahora pueden ver porque no deben dejar sus datos en internet, las bases de datos son el campo propicio para que estos inhumanos te busquen. Hay que cuidarse de la inteligencia artificial ya lo han dicho Stephen Hawking y Bill Gates, mientras tanto google y el pentagono trabajando en conjunto para producir superordenadores cuanticos.
shastar
Hace tiempo que los militares utilizan drones no tripulados y que "ejecutan su misión" sin recibir ninguna orden desde el momento en que los lanzan. Aunque no traten de imitar la forma humana (Como en la imagen del graffiti del artículo), no por ello deja de ser menos robot.
Llegan un poquito tarde.
rumpelstisien
Es muy preocupante.
Empiezan a existir programas capaces de aprender por si mismas:http://www.vidaextra.com/industria/google-crea-una-inteligencia-artificial-capaz-de-aprender-a-jugar-por-si-misma
Imaginemos por un momento poner un programa de este tipo a los mandos de cualquier arma; aviones, helicópteros, tanques, buques. En un breve espacio de tiempo podrán existir armas autónomas capaces de atacar a quienes y donde se les ordene. No necesitaran soldados que, a pesar del los entrenamientos, siguen teniendo piedad, empatía o simplemente sentido de la justicia y que pueden revelarse a las ordenes. Ahora imaginemos que algo de esas teorías que hablan de una pequeña élite que quiere dominar el mundo sea cierto....
acerswap
De todas formas es el mismo caso que el del operador de dron o del piloto al que le dicen "sobrevuela esta zona y cuando se detecte el objetivo por el sistema de guiado aprietas el boton para que caiga el misil". No saben a que o a quien apuntan.
De todas formas, hay algo que me llama la atencion en las ultimas guerras. Cada vez mas se tiende a dotar a los ejercitos para que no tengan que "ir a la guerra" ni pisar terreno enemigo. Cogen su dron, o sus misiles guiados, o sus armas de larga distancia y disparan desde lejos, incluso desde fuera del lugar del objetivo (¡hasta del mismo continente!). Los unicos que no tienen la posibilidad de mantenerse fuera de la guerra son los civiles. Antiguamente, se enviaba a las tropas a luchar en el campo de batalla. La posibilidad de que un soldado propio muriera era mayor, y los civiles podian alejarse de la zona. Lamentable evolucion.
zibergazte
Todo robot o IA debería respetar las tres leyes de la robótica siempre.
bacp
no veo la diferencia entre que me mate un robot que una persona ha activado y una mina que una persona ha dejado en el campo una semana antes.
TODO el armamento letal debería estar absolutamente prohibido y dejar de fabricarse, me da igual si me mata de un balazo un robot idiota, un robot inteligente, un robot con compasión, o un policía nacional. Incluso si estoy cometiendo un delito, quién es el policía para juzgar si merezco morir o vivir?
Que fabriques un objeto que solo sirve para matar personas y lo que te preocupe sea el debate filosófico de donde se halla la responsabilidad... da asco
coolchicken
Por eso las minas antipersona estan prohibidas por el tratado de attowa desde 1999
gordolaya
¿Y una mina antipersona no es un robot que "decide" (en función de la presión recibida) cuando matar?
No todo es tecnología de ultima generación.
Neohipocresía le llaman.....