¿Quién comandará a los ejércitos formados por robots? Es lo que hace años se preguntaba Maciej Ceglowski, un desarrollador y emprendedor polaco. Su pregunta resuena ahora que la IA generativa comienza a conquistar un terreno que hasta ahora parecía vedado: el de sus aplicaciones militares.
Anthropic. La empresa indicó esta semana que estaba asociándose con Palantir y Amazon Web Services para proporcionarle a las agencias de defensa e inteligencia de EEUU acceso a los modelos de IA Claude.
Meta. Hace unos días se descubrió que China había usado una versión previa de Llama para crear un chatbot con aplicaciones militares. Meta desautorizó tal uso de su tecnología de IA, y esta semana anunció nuevos términos de uso para su modelo de IA generativa: EEUU y algunos de sus socios más cercanos podrían usarla para desarrollar aplicaciones militares.
OpenAI. A lo largo del año la firma modificó también los términos de uso de sus modelos de IA. Antes prohibía explícitamente que se usaran para aplicaciones militares, pero la nueva política y esas modificaciones abrieron la puerta a dicho tipo de escenario. La empresa se ha asociado con Carahsoft, una empresa contratista del gobierno que teóricamente asigna contratos para el Departamento de Defensa.
Microsoft. Al igual que ocurre con Anthropic, la empresa de Redmond anunció en agosto que asoció con Palantir. Y como en el caso anteriormente citado, lo hizo para proporcionar soluciones de IA e infraestructura en la nube para las agencias de defensa e inteligencia de EEUU.
El gasto militar en IA se multiplica por 13. Como señalan en TechCrunch, un estudio en marzo de Brookings Institute reveló que el incremento en contratos de las agencias gubernamentales de EEUU relacionados con IA creció un 1.200% entre 2022 y 2023. Ese crecimiento puede haber sido incluso superior en 2024.
Pero. No todas las agencias y entidades de defensa en EEUU apuestan tan claramente por la IA. El ejército de EEUU está tomando una actitud bastante más cautelosa. Condoleezza Rize, exsecretaria de Estado, explicó en Axios cómo "el apetito por el riesgo en Washington no es muy grande", y algunos expertos apuntan a cómo los modelos de IA generativa tienen una tendencia preocupante a escalar el conflicto y a sugerir rápidamente el uso de armas nucleares.
Imagen | Hooddocellis con Midjourney
Ver 7 comentarios
7 comentarios
lopez
Tampoco nos montemos películas, seguramente lo que haga la IA es analizar fotos por satélite para detectar vehículos enemigos camuflados. En otro medio leí que el ejército ruso estaba colocando neumáticos encima de aviones aparcados ya que veían que con ese económico recurso algunos sistemas de guía occidentales utilizados por Ucrania tenían problemas para acertar en el blanco. Probablemente con una IA de reconocimiento de imágenes bastaría para evitar que al sistema se le engañe con tanta facilidad
luisfernandogomezddiaz
El sueño húmedo y dorado de los belicistas USAnos: Inteligencia Artificial, drones y robots de guerra para minimizar la necesidad de combatientes de carne y hueso. Porque las pérdidas humanas entre las tropas yanquis y su impacto mediático entre su población han sido hasta ahora el principal freno al belicismo de las élites dirigentes de USA empeñadas en desatar guerras y conflictos contra cualquiera que no se les someta servilmente, como lo están los europeones, Japón y el llamado Occidente Colectivo.
ricardouriluriel
No es una sorpresa que la IA tienda a escalar el conflicto y a usar armas nucleares, es lógico querer ganar la guerra con todos los medios a su alcance. El ptoblema es que la IA no entiende de política y de intereses particulares de los líderes mundiales, así que no piensa que escalando el conflicto o usando armamento nuclear le afecte a sus inversiones. El dinero manda más que cualquier otra cosa, y eso no está programado en la IA, de hecho en la IA se programa con derechos humanos, por lo que no tortura o asesinara a soldados tendidos como hacen los humanos