El pasado mes de abril, China afirmaba en las Naciones Unidas, en el marco de un debate sobre el armamento inteligente, que "no debería haber premisas preestablecidas que puedan impedir el desarrollo de la tecnología de IA", y sólo unos meses después empezaba a seleccionar a jóvenes promesas de su sistema educativo para un programa de desarrollo de armas autónomas.
Sin embargo, las posturas de muchos funcionario del régimen de Pékin podrían ser más proclives a la cautela a la hora de valorar la actual 'carrera armamentística inteligente', según [el último informe](Centro de Investigación de Sistemas No Tripulados (USRC), dirigido por Yan Ye, y el Centro de Investigación de Inteligencia Artificial (AIRC), dirigido por Dai Huadong.) hecho público por el estadounidense Center for a New American Security.
A medida que las naciones dedican más fondos a aplicar los avances de la inteligencia artificial al campo militar, se acrecenta el temor a que esto ayude a desatar 'guerras accidentales' entre las mismas, sobre todo en el actual marco de normas internacionales tecnológicamente obsoletas.
En palabras de Gregory C. Allen, autor del informe, "el escenario específico que me describió [un funcionario chino anónimo] fue una escalada involuntaria relacionada con el uso de drones".
Otros países, como EE.UU, también usan los drones para tareas automatizadas (como el seguimiento de objetivos), pero China ha comenzado a exportar modelos, como el Blowfish A2, prometiendo capacidad para lanzar ataques autónomamente.
El riesgo de que no existan riesgos (directos)
Y, al igual que en la guerra cibernética los países se arriesgan con ataques que no realizarían si hubiera humanos involucrados de manera física, los militares podrían estar más dispuestos a desplegar y derribar drones, al no ponerse en riesgo directamente vidas humanas.
"El asunto es que no está claro cómo se interpretarán ciertos comportamientos: quien envía un avión no tripulado autónomo pensará que hacerlo no es un gran problema porque no hay riesgo de muerte, mientras que la otra parte podría derribarlo por la misma razón. Pero no hay un marco acordado sobre qué mensaje estarían enviando ambas partes".
O peor: en caso de que algún tipo de arma autónoma realice disparos de advertencia contra soldados enemigos, ¿a quién se atribuirá la responsabilidad de dicho ataque? ¿Cómo saberlo en ese momento, o cómo demostrarlo a posteriori?
En inevitable también plantearnos aquí qué ocurrirá cuando ciertos sistemas de respuesta militar se automaticen, desencadenando ataques sin el filtro previo del sentido común humano. ¿Qué habría ocurrido, por ejemplo, tras la falsa alarma nuclear "Incidente del equinoccio de otoño", de haber dependido todo de la decisión de las máquinas?
Lo que Allen plantea en su informe, en resumen, es que las normas de la "guerra autónoma" no están definidas, que cuanto más tiempo tardemos en definirlas mayor será el riesgo de que se dé una "escalada involuntaria", y que los funcionarios de la gran potencia oriental no sólo parecen tener claro todo esto, sino que empiezan a expresar su preocupación en foros diplomáticos.
China: a Dios rogando, y con el mazo dando
Sin embargo, esto no es óbice para que "a pesar de expresar preocupación por la carrera armamentística inteligente, la mayoría de los líderes de China considera que el uso militar de la IA es inevitable y lo está persiguiendo agresivamente".
Además, son conscientes de que su país tendrá más fácil avanzar en esta senda que los EE.UU, por los menores reparos del sector privado a implicarse en la fabricación de esta clase de armamento.
El informe también señala que, mientras tanto, los poderes públicos chinos están muy interesados en solventar las debilidades tecnológicas chinas frente a su potencial gran rival militar, los Estados Unidos, que se centran sobre todo en el desigual desarrollo de la industria de fabricación de chips.
De hecho, el gobierno chino ya está financiando a Baidu, Alibaba y Huawei para que cierren la brecha que les separa en ese campo de los americanos.
Imagen | Times Asi
Ver todos los comentarios en https://www.xataka.com
VER 45 Comentarios