La existencia de misiles hipersónicos, de misiles furtivos de crucero y de armas dotadas de inteligencia artificial han reducido aún más el tiempo que las autoridades de una potencia nuclear tendrían para dar luz verde a un contraataque antes de que sus propios sistemas de control y comunicaciones quedaran inutilizados por el enemigo.
Ante esta circunstancia, los expertos estadounidenses en disuasión nuclear Adam Lowther y Curtis McGiffin han propuesto en un artículo publicado en una publicación especializada que, en su país, la potestad de dar la orden de contraataque no dependa de ningún ser humano, sino de una inteligencia artificial: una IA controlando el botón de lanzamiento de los 3.800 misiles nucleares del arsenal estadounidense.
¿Qué fue (o es) la 'Mano del hombre muerto'?
En realidad, la propuesta no es tan novedosa, puesto que el gran enemigo de los EE.UU. durante la Guerra Fría, la Unión Soviética, contó con un sistema similar (semiautomatizado y carente de IA en el sentido moderno del término): el Sistema Perimtr, popularmente conocido en Occidente como la Mano del Hombre Muerto.
Su funcionamiento era sencillo: el sistema se hallaba en constante contacto con diversas instalaciones militares en territorio ruso (incluyendo el propio Kremlin) y si en algún momento llegaran a fallar todos los canales de comunicación (presumiblemente a causa de un masivo ataque nuclear enemigo), Perimtr habilitaría el lanzamiento manual del arsenal soviético, permitiendo que incluso oficiales de bajo rango sin acceso a los códigos de lanzamiento pudieran accionar el contraataque.
Oficialmente, la Mano del Hombre Muerto soviética fue desmantelada tras la caída de la URSS, aunque expertos como Peter Smith (autor de 'Doomsday Men') afirman que Rusia seguiría protegida aún hoy por un sistema heredero de Perimetr.
En cualquier caso, ahora Lowther y McGiffin proponen dotar a Estados Unidos de un mecanismo equivalente, aunque en esta ocasión la IA permitiría que fuera totalmente automatizado:
"Puede ser necesario desarrollar un sistema basado en inteligencia artificial, con respuestas predeterminadas, que sea capaz de [reaccionar] a tal velocidad que la reducción de los tiempos de ataque no sitúen a los Estados Unidos en una posición insostenible".
¿Cómo evitar que un error del algoritmo desemboque en un holocausto nuclear?
Los autores proponen otras alternativas a esa propuesta, que pasan por situar sistemas de lanzamiento nuclear fuera de las fronteras estadounidenses para garantizar el mantenimiento de su capacidad de represalia. Sin embargo, dejan muy clara su apuesta por el uso de inteligencia artificial. Y eso plantea preguntas sobre los algoritmos y los protocolos de seguridad con los que podría contar semejante sosias de Skynet para evitar desatar una guerra nuclear no deseada.
Hoy en día, los algoritmos de aprendizaje automático son entrenados mediante el uso de grandes conjuntos de datos que permitirán a la IA aprender a detectar lo que está buscando. Por ejemplo, los sistemas de conducción autónoma se forman analizando millones de ejemplos de conducción humana... y aún así, la cantidad de datos se revela insuficiente dada la complejidad de la tarea.
De modo que, ¿cómo entrenar un algoritmo que debe ser capaz de detectar que su país ha sufrido un ataque nuclear masivo... cuando en la historia jamás se ha dado un solo caso de un ataque así? Michael Horowitz, profesor de la Univ. de Pennsylvania y colaborador del Bulletin of Atomic Scientists (la organización científica responsable de mantener el Reloj del Juicio Final), afirma que, dado el estado del desarrollo de la IA, un sistema así implicaría "algunos riesgos".
Siempre se podría buscar, a modo de mecanismo de seguridad, que el sistema demandase la confirmación de algún humano antes de dar por buena la detección de dicho ataque. Al fin y al cabo, el teniente coronel Stanislav Petrov ya evitó un holocausto nuclear en 1983, cuando el sistema soviético de detección de misiles nucleares detectó erróneamente cinco misiles dirigiéndose hacia territorio ruso, hecho que él (acertadamente, aunque en contra del protocolo de seguridad oficial) desestimó como una mera 'falsa alarma'.
Sin embargo, en los tiempos de la inteligencia artificial, el ser humano tiende a ser cada vez menos escéptico ante las afirmaciones de ésta. Horowitz lo denomina 'sesgo de automatización' y pone de ejemplo un estudio en el que los pilotos afirmaron que no confiarían en un sistema automatizado que les informase de un incendio en el motor a menos que hubiera evidencia que lo corrobora... pero, una vez inmersos en las simulaciones, eso fue exactamente lo que decidieron hacer.
"Existe en riesgo de que el sesgo de automatización impida al Petrov del futuro utilizar su propio juicio. O, sencillamente, de que en el futuro sencillamente no exista un Petrov".
Vía | Bulletin of Atomic Scientists
Imagen | Pixabay
Ver 52 comentarios
52 comentarios
mad_max
Un plan perfecto, sin fisuras.
bacp
Solo escribo porque veo mucho comentario sobre skynet y poco sobre W. O. P. R.
A mi la noticia me ha recordado mas a juegos de guerra
mord
Ya solo con leer el titular me acordé de la historia de Stanislav Petrov. Se agradece que se comente en el cuerpo de la noticia, entre otras cosas porque es precisamente un perfecto ejemplo de por qué no debería darse un arma a una IA. Muchísimo menos los misiles nucleares de EEUU.
A los dos individuos estos deberían quitarles el titulillo de "expertos", porque de veras que es para castigarlos cara a la pared por soltar semejantes ocurrencias.
eduardoflores
Nada más inteligente que dejar las armas nucleares en "manos" de una inteligencia artificial, ¡bravo señores!, El futuro de la raza humana está garantizado.
mitxael
Aparte de la profecía de Skynet, qué demonios importa. Si un pais decide lanzar miles de cabezas nucleares, aunque no reciba respuesta, se va a aniquilar a sí mismo.
emelianenko
Tantas peliculas y no han aprendido nada...
Elaphe
¿Pero que Terminator ni Skynet ni leches? Como ha dicho el compañero, esto es la temática de Juegos de Guerra.
Usuario desactivado
Si esa IA la programa Microsoft, nos podemos dar por exterminados.
toniweblogs
Pero es que la gente no ve terminator???
dbrel
otra vez un signo más de estupidez, pero bueno, lo importante es liquidar al otro que esta en otro lado.
rennoib.tg
Creo que sería más seguro y conveniente para todos convertir estados unidos en Fallout antes de que hagan algo así sinceramente, al menos solo perderíamos una parte del mundo.
MrKarate
Habemus Skynet...
orochi2000
SKYNET at portas
Cosmonautas
Todo en manos de un hacker de cables cruzados, que se haga con el control de la IA
Cosmonautas
Stanislav Petrov, bajo su responsabilidad personal, pasó por alto el protocolo porque como él dijo: "La gente no empieza una guerra nuclear con sólo cinco misiles". El Ejército Rojo no lo condenó por no informar a sus superiores del presunto lanzamiento de cinco misiles desde Montana, que llegarían en 20 minutos a la Unión Soviética; pero fue reasignado a un destino de importancia menor. Aunque parezca injusto, eran los superiores los que debían de decidir que era una falsa alarma. Ese error debería haber movilizado todos los recursos para la respuesta; además que primero se detectara un misil y después otros cuatro, daba tiempo a tener todo preparado para confirmación del primer impacto. La lógica es preparar los silos, los submarinos, hacer despegar bombarderos, armar sistemas, introducir códigos, preparar los bunker, mover personal esencial... y esperar confirmación real del ataque para que el presidente del Soviet Supremo tenga metafóricamente el dedo sobre el botón ¿Se imaginan también la reacción en el Pentágono cuando vieran todos esos preparativos? ¿Cuánto tardaría el teléfono rojo en sonar? Todo esto hay que encuadrarlo en un clima enrarecido por unos provocadores ejercicios militares de EEUU (el KGB difundió una alerta a sus unidades sobre el peligro de que EEUU lanzase un ataque nuclear camuflado con estos ejercicios). Los ejercicios fueron una respuesta al derribo de un avión de pasajeros surcoreano que violó el espacio aéreo y que no contestó a las advertencias de los cazas soviéticos. Dicho todo esto; creo que el Teniente Coronel Petrov debió ser condenado por no advertir al Estado Mayor de que los sistemas de detección podrían estar fallando (igual que falla detectando 5 donde hay 0, puede fallar detectando 5 donde hay 2000) y dejar las decisiones en manos de quienes tienen más elementos de juicio de la situación.
La otra cara de la moneda fue un Mig-23 pilotado por el Coronel Skuridin. Una avería leve del posquemador encendió los testigos de avería fatal del motor; al estar en mitad de la nada los protocolos mandaban al piloto eyectarse tras recibir la autorización del director de vuelo. El motor no se paró y el avión cruzó el telón de acero; fue interceptado por dos cazas de la OTAN que decidieron no derribarlo al ver que el piloto se había eyectado, que no llevaba armamento alguno y que era peligroso porque estaban sobrevolando áreas muy pobladas de Alemania. Se limitaron a escoltarlo con la mala suerte de que cayó sobre la casa de un agricultor que resultó muerto.
frikiman1
jajajajajajja
Los expertos tendrían que ver mas cine de scifi jajjaja
imf017
¿No sería mejor dejar de pinchar al resto del mundo y no ir por ahí buscándose enemigos?
ikervalen10
Es de i’m”*^*^iles. Lo mires por donde lo mires, ya va siendo tiempo de “aniquilar” las diferencias y empezar a remar al mismo objetivo. Somos una raza y como tal deberíamos unirnos, respetarnos y avanzar. Las diferencias poco importan cuando el objetivo es un bien común, sea de la cartera de quien sea.
alondruilmu
Perdonanos James Cameroon, a mas de 4 peliculas y la gente aun no entiende!
sordatos
Coldman aprueba esto....
luxose
Que comiencen a hacer experimentos para aumentar la inteligencia de los monos y ya estamos al otro lado. Imitando Terminator sólo les falta imitar el planeta de los simios.
Dhdez
Me hago un lanzamiento manual y acuso de "fallo grave" a la IA.
Maravillosa jugada
jorgeandreskashabi
¿Qué pasaría si detonásemos todas las bombas nucleares a la vez?
https://
www.
youtube
.com
/watch?v=JyECrGp-Sw8
nestorjimenez
Terror periodístico: Noam Chomsky, Michel Moore, Riczard Kapuscinski.
victor-bcn
Si un subnormal como Trump tiene que decidir eso,de lejos es más lista una IA.
No hace falta ni extenderse,vale más que no pase eso hoy en día con los retorcidos que gobiernan por ahí.
Usuario desactivado
Me molan las inteligencias artificiales, saben lo bueno que tiene si al final les dan el control de todo, pues que elegirán el mejor sistema político para gobernarnos a todos, y ese es el nacional socialismo. Es por cosas como estas que nunca darán control absoluto a esas inteligencias, porque tu imagínate el panorama.