Es una innovación (de eso no hay duda) que los robots sean capaces de participar en guerras bajo objetivos claros con un mínimo margen de error, aunque ese objetivo sea matar seres humanos. La idea puede sonar aterradora, pero a día de hoy es viable gracias a los avances tecnológicos que tenemos a nuestro alcance.
Voces como las de Elon Musk y Stephen Hawking no se han cansado de advertirnos acerca del uso de la inteligencia artificial en armas, un peligro potencia que podría acabar con la raza humana. Bajo esta misma premisa está surgiendo una iniciativa que busca impulsar una regulación mundial que prohiba el uso y desarrollo de armas autónomas, iniciativa que ahora busca advertirnos de este peligro a través de un aterrador vídeo.
'Slaughterbots': Una clara y dura advertencia
Esta iniciativa está liderada por Noel Sharkey, profesor de IA en la Universidad de Sheffield en el Reino Unido y presidente del Comité Internacional sobre Control de Armas en Robots, que junto a una coalición internacional conformada por profesores, investigadores y líderes tecnológicos, presentaron hace unos días a la ONU un documento que busca prohibir el desarrollo de tecnología de inteligencia artificial y la fabricación a gran escala de hardware para armas autónomas. La legislación también busca vigilar a cualquiera que trate de desarrollar este tipo de sistemas.
Según este grupo, estamos a punto de crear armas autónomas que podrán matar sin la ayuda de seres humanos, y como parte del esfuerzo que busca crear conciencia en el mundo, han creado una campaña a través de un vídeo que nos sitúa en ese supuesto futuro donde la innovación se sale de control. Una idea que suena a capítulo de 'Black Mirror' pero que podría convertirse en realidad en unos cuantos años.
En el vídeo se nos planeta la presentación de una nueva especie de drone diminuto con inteligencia artificial, los cuales son capaces de efectuar ataques en contra de los "malos" (sin importar quiénes sean) con una asombrosa precisión. Esta tecnología puede ser adaptada no sólo a drones para ataques personales, sino también a aeronaves de gran tamaño para ataques nucleares y batallas en tierra.
Todo lo que necesitan estos robots son datos como edad, sexo, aspecto físico, etnia o algún tipo de uniforme o sello característico en su ropa. Incluso se plantea la idea de atacar a activistas por medio de monitorización vía redes sociales, donde todos los que apoyen cierto hashtag o causa pueden ser el blanco de estos robots.
Pero como suele suceder en todos estos casos, la tecnología cae en manos equivocadas y se desatan una serie de ataques en contra de senadores de los Estados Unidos, así como en contra de varios estudiantes que compartieron un vídeo en redes sociales en favor de los Derechos Humanos.

El científico informático Stuart Russell de la Universidad de California, Berkeley, asegura que la tecnología para esto ya está aquí, sólo falta que se miniaturice y se haga masiva:
"He trabajado en IA por más de 35 años. Su potencial para beneficiar a la humanidad es enorme, incluso en tareas de defensa, pero permitir que las máquinas elijan matar humanos será devastador para nuestra seguridad y libertad. Miles de mis colegas investigadores están de acuerdo. Tenemos la oportunidad de prevenir el futuro que acabamos de ver, pero nuestro margen de maniobra se está cerrando rápidamente."
Un ejemplo de esto es que hoy día ya existen drones pilotados por ordenadores, sistemas avanzados de reconocimiento facial que funcionan a una velocidad que supera al ser humano, así como armas capaces de apretar un gatillo sin la necesidad de que intervenga un soldado. Este grupo de científicos asegura que de seguir así, la próxima guerra se librará a una velocidad impresionante donde la cantidad de pérdidas humanas superará todo lo que hayamos visto antes.
Más información | Ban Lethal Autonomous Weapons
Ver 30 comentarios
30 comentarios
thedave86
Es una realidad posible. Sí. Pero es paradójico que hoy nos preocupemos mas de lo que podría llegar a pasar que de lo que ya está pasando:
https://hipertextual.com/2017/11/mas-15-000-cientificos-emiten-segunda-advertencia-humanidad
Ya estoy viendo a verdaderos genios creando ideas e inventos para combatir al Robocop del futuro y sin conciencia suficiente para separar la basura de su casa.
Nada, solo una reflexión sin mas.
svi999
Muy buen video y para nada ciencia ficción. Asusta pensar que una máquina pueda decidir. Esto es positivo cuando su finalidad es pacífica (medicina, logística, seguridad en carreteras....) pero cuando se le permita tomar la decisión AUTÓNOMA de matar, dejará de ser un arma sofisticada en manos de alguien, para ser un organismo autónomo con capacidad de tomar decisiones que impliquen la muerte.
No hay forma de poner puertas al campo pero se pueden poner restricciones que al menos eviten en la medida de lo posible su proliferación desmedida.
¿No es cierto?. Si tu smartphone con reconocimiento facial es pirateado y alguien decide que se sobrecargue, se incendie, o te vacíe las cuentas cuando te reconozca, si recibe una orden...malo. Y si lo decide un programa de IA en función de tus comentarios en redes sociales? Malo no, desastroso.
Algo habrá que hacer.
innova
Siempre quedarán los E.P.M para defenderse de armas electrónicas.
Cuando todo está tan tecnificado la única forma de defenderse es anular sus sistemas
rebootedc
Asimov lo bautizó como Síndrome de Frankenstein.
pcbalear
Como la IA no existe como tal, hay que saber que dichos drones (los del vídeo) están programados para matar, por lo tanto la culpa la tiene el responsable de decirle al programador que así sea. No veo un gobierno permitiendo que hayan drones que vayan disparando así a los ladrones a la cabeza sin detención ni juicio.
phenomarc
Sinceramente, da bastante miedo. Aunque me parece interesante como se hace énfasis en distinguir entre buenos y malos, entre uno y otros, ya que así es como funcionan los paises (o el país que todos pensamos) actualmente.
contramedios
Voy a ponerme un poco en el papel de abogado del diablo. Aunque solo sea por dar otro punto de vista.
Vemos el vídeo y a todos nos parece un futuro horroroso, pero todo depende de quien tenga esta tecnología y como la utilice ¿os imagináis que en la 2ª Guerra Mundial los contrarios a Hitler hubieran tenido esta tecnología? Un solo dron hubiera bastado para matarlo, evitando millones de muertes en la Guerra. Esto significaría el fin de los ataques indiscriminados a la población, sin bombas, sin metralla que mata a quien se ponga por delante. En la guerra de Siria se podría ir solamente a por la cúpula del ISIS, sin provocar víctimas entre la población, salvando a todos los niños que suelen ser víctimas colaterales. No más destrucción en las ciudades, no más refugiados.
Parece todo muy bonito, hasta que piensas que pasaría si esa tecnología la hubiera tenido Hitler hace 70 años o el ISIS ahora. Entonces es cuando cambias de opinión. Difícil debate la verdad.
sanamarcar
Es muy sencillo se prohiben armas y conductas violentas. Oh guay digamos que es culpa de las maquinas. Si sin muy inteligentes les daremos pena xD. Y no nos matarán simplemente nos evitarak reproducirnos.
inkta
El vídeo me gusta pero solo un apunte:
"Bajo esta misma premisa está surgiendo una iniciativa que busca impulsar una regulación mundial que prohiba el uso y desarrollo de armas autónomas", de que sirve eso si alguien que no sigue la regulación desarrolla por su cuenta armas autónomas? No estaríamos 100% indefensos en ese caso?
normanwinters
Elon Musk solo es multimillonario, Hopkinss una autoridad científica, no los pongais juntos en la misma opinión...por coherencia y credibilidad.
snash
Por que no sea crea un organismo mundial para dar valides a las IA que sea crean, Asimov lo vislumbro con las tres leyes de la robotica, no es muy tarde para generar ese organismo al que le rindan cuentas por así decirlo las universidades y compañías tecnológicas dígase Google
algallardo
Sólo tienes que llevar una careta con la cara de putín, a ver quien se atreve a targetizar a ese.
rodros
El
lfpatino
Esto solo son drones programados para analizar datos y actuar automáticamente en consecuencia, sin ninguna clase de raciocinio o de mínima conciencia de lo que hace; es otro acto de marketing para publicitar una “IA” que realmente aún no existe, no es una lógica muy diferente a una trampa de ratón... con un diagrama de flujo. No digo que no sea una realidad preocupante, pero está mal explicado.
Además, no es un vaticinio para nada nuevo, esta posible realidad se explica mucho mejor en la saga de Terminator, omitiendo los viajes en el tiempo.
Usuario desactivado
Esta noticia ya tiene dias, me decepcionas Xataka