Elon Musk lleva tiempo emprendiendo su particular cruzada contra una inteligencia artificial que cree que algún día podría revelarse contra nosotros. Ahora, tanto el CEO de Tesla, como el experto en IA Mustafa Suleyman de DeepMind de Alphabet, se han unido a un total de 116 expertos de 26 países en contra de las armas autónomas.
Este grupo de expertos le ha escrito una carta abierta a Naciones Unidas para pedir que se prohíba el desarrollo y el uso de robots asesinos autónomos. Y es que si la Inteligencia Artificial ya es peligrosa, este grupo asegura que la inteligencia artificial dotada de armamento y capacidad de matar lo puede ser aún más.
Esta petición viene a raíz de que la ONU votase recientemente a favor de iniciar conversaciones formales sobre el uso de armas autónomas como aviones no tripulados o tanques y ametralladoras automatizadas. En ella, el grupo de expertos advierten que esta carrera armamentista amenaza con inaugurar una "tercera revolución en la guerra", poniéndola a la altura del descubrimiento de la pólvora y el desarrollo de armas nucleares.
"No tenemos mucho tiempo para actuar. Una vez que se abra la caja de Pandora, será difícil cerrarla", dicen también en la carta abierta. "Por lo tanto, imploramos a las Altas Partes Contratantes que encuentren una manera de protegernos a todos de estos peligros".
La carta abierta la firman como hemos dicho Elon Musk de Testla y Mustafa Suleyman de Google, además de decenas de CEOs de empresas robóticas y de inteligencia artificial, incluyendo las españolas RO-BOTICS, Aisoy Robotics y Macco Robotics, o la mexicana QOLbotics.
Unas legislaciones que no llegan
Las grandes empresas parecen divididas en dos bandos en cuanto a lo que Inteligencia Artificial se refiere. Las hay que aseguran que no hay ningún peligro en ellas, mientras que otros auguran un futuro catastrófico si seguimos desarrollándolas. De hecho, cartas abiertas como esta llevan años firmándose, incuyendo una que en 20015 ya avisaba de sus peligros.
La carta de hoy ha sido publicada en una fecha en la que se programó inicialmente la primera reunión para establecer un "Grupo de Expertos Gubernamentales de la ONU sobre Sistemas de Armas Autónomas Letales". La reunión fue cancelada, tal y como dice la carta, "debido a un pequeño número de Estados que no han pagado sus contribuciones financieras a la ONU".
Muchos de los críticos llevan años advirtiendo que la ONU lleva demasiado tiempo sin entrar a regular las armas autónomas. Esto le sigue dando luz verde a cualquier empresa o gobierno para desarrollarlas a su antojo sin partir de una legislación básica que las controle.
Y todo pese a la constante insistencia de empresarios de primer nivel que, como el propio Elon Musk, lleva tiempo intentando abrir un debate sobre el tema, así como otros científicos de la talla de Stephen Hawking
En Xataka | Este robot es capaz de inventarse su propio idioma para interactuar con los demás
Ver 23 comentarios
23 comentarios
Muriano
¡Maldita sea! Elon Musk es el John Connor de nuestro tiempo y no lo queréis ver. Cuando una horda de asesinos robóticos nos aceche, querréis que nos salve en su coche eléctrico.
whisper5
Se están mezclando temas en este artículo y eso sólo conduce a la confusión.
Nos quieren vender la idea del armamento inteligente, pero en realidad no existe tal cosa, porque el desarrollo de la inteligencia artificial actual es muy pobre. Nos han enseñado vídeos en los que un dron o un misil alcanza su objetivo con precisión milimétrica gracias a la avanzada tecnología y la inteligencia artificial, pero lo cierto es que esos son los casos que han funcionado. La historia bélica con este tipo de armas está repleta de fallos y muertes de inocentes. Deben ser prohibidas estas armas.
Los peligros de la inteligencia artificial general (la verdadera, no esta computación avanzada que tenemos ahora y que llaman inteligencia artificial) son los mismos que los del ser humano, ni más ni menos. La capacidad de hacer el bien o el mal existirá en un ser inteligente sea de carne y hueso o esté hecho de silicio. Cuando se cree verdadera inteligencia artificial tendremos que preocuparnos de su educación y aprendizaje, incluyendo nuestros conceptos éticos y nuestra capacidad de empatía. Tenemos el ejemplo de los niños: deben crecer libremente a través de un proceso de experimentación, cometiendo errores y aprendiendo de ellos, y guiados por adultos para la adquisición de una cultura, unos valores y una ética. La inteligencia artificial general deberá desarrollarse de la misma manera. Es un error pensar que se puede crear inteligencia artificial restringiendo, limitando y encadenando. No es posible así.
Por otra parte, la mayoría de los artículos que leo sobre los peligros de la inteligencia artificial entran dentro de la categoría apocalíptica a lo "Terminator". Este escenario es válido para los guiones de cine, pero no para el mundo actual debido a que estamos muy lejos de conseguir verdadera inteligencia artificial general. Lo peor de esta manía mediática por los escenarios tipo "Terminator" es que eliminan del debate los peligros que sí existen ahora con el nivel de inteligencia artificial que tenemos: sistemas de aprendizaje que no pueden justificar sus decisiones (cajas negras), sistemas con sesgos serios de discriminación, capacidad desmesurada para el control y vigilancia de los ciudadanos, sistemas de recomendación 'inteligentes' que nos encierran en nichos culturales o ideológicos reducidos basados en rentabilidades económicas, etc.
jaimejames
Lo que diga la ONU es letra muerta, china, estados unidos, rusia, corea del norte y otros países más hacen los que les venga en gana.
imf017
Y es que es algo lógico: en cuanto una IA tome conciencia de sí misma, se dará cuenta de que los humanos somos un GRAN PELIGRO tanto para el planeta como para nosotros mismos, por lo que el paso lógico sería exterminarnos. Y todo esto sin tener en cuenta el hackeo de armas autónomas, por supuesto.
xiscoluque
Tan solo comentar que esta noticia viene del futuro, ya que la carta que mencionan viene del año 20.015. Algo nos quieren decir.
¡Temblad, malditos, temblad!
;D
ciclo
A ver y ¿quién demonios va a luchar en un campo radiactivo devastado por las armas nucleares? Pues los robots, ¿quién si no? O vais a ir vosotros? Que poca visión de futuro, de verdad...
carlosperez852
Pues que quieres que te diga, prohibirle a la ONU que haga armas autonomas no asegura nada, USA,Rusia o China puede hacerlas por su cuenta y practicamente nadie puede decirles nada, Iran puede hacerlas tambien sin mucho problema, los terroristas en medio Oriente pueden estar pensando en la posibilidad, incluso pueden tener gente en Europa o America capacitandose para hacerlas en este momento, asegurarte que los de tu bando no las hagan no hacen que tu enemigo no pueda hacerlas.
Claro, hablamos de aqui a un par de decadas, ahora mismo sigue siendo improbable que alguien las pueda hacer, si incluso a los coches autonomos le faltan un trecho, a las IAs de combate les faltaran lo suyo tambien
oopere1
¿Estáis ciegos? Solo hay que juntar cables.
1-trabaja en ir a Marte.
2-los Tesla tienen protección antiguerra bacteriológica.
3-quiere limitar los robots de guerra.
Está claro que está trabajando con armas biológicas, y que los únicos que pueden combatir son los robots. Cuando tenga sus armas preparadas solo sobrevivían los que estén en Marte, y en la Tierra los que vayan con Tesla!!!!!! Por Dios! Está clarísimo! Nos la está jugando!!!
Usuario desactivado
no me parece raro que la evolución del hombre continúe artificialmente, supongo que si nos extermina ah de tener buenas razones. La verdad no sé porque no se carga a todos de una vez. Todos se creen santos y valiosos pero todos sabemos que la humanidad está llena de defectos, incluso los que se creen valiosos e inteligentes y sanos tiene prejuicios de superioridad y cosas así.