Google dice haber creado una inteligencia artificial capaz de diseñar otros modelos de inteligencia artificial superiores a los modelos creados por los humanos. Se trata de un nuevo avance de su AutoML, un sistema de aprendizaje automático con el que el equipo de Google Brain pretendía ver si eran capaces de crear una IA capaz de diseñar y entrenar otras IA sin intervención humana.
Y vaya si lo ha hecho. Tal y como han explicado en Futurism, los investigadores hicieron que esta inteligencia artificial actuase como una red neuronal de controladores capaz de crear otra red similar destinada para una tarea específica. Y ha sido esta manera como ha nacido NASNet, un algoritmo de reconocimiento objetos en tiempo real que supera a todos los que se han diseñado hasta ahora.
NASNet identifica, tal y como han contado sus responsables, en tiempo real todo tipo de objetos, desde personas hasta coches pasando por bolsos y otros elementos. Una vez creado el algoritmo inicial, la IA de AutoML evaluó por sí misma los resultados y el rendimiento que estaba obteniendo, y se dedicó a perfeccionar su creación sin intervención humana para corregir errores y hacerla mejor todavía.
Tras repetir este proceso varias veces, NASNet fue testado en un sistema de clasificación de imágenes llamado ImageNet y en otro de detección de objetos llamado COCO, donde dicen haber comprobado que ha superado todas las expectativas.

Según los investigadores que han revisado todo el procedimiento, NASNet ha sido capaz de obtener una precisión del 82,7% en la predicción del set de validación ImageNet, superando la media del 43,1% que suelen conseguir otros algoritmos similares, y superando en un 1,2% cualquier otro resultado publicado previamente.
Con este proyecto Google parece haber demostrado que ya son capaces de prescindir de empleados humanos para entrenar sus sistemas de inteligencia artificial e irlos perfeccionando. Con ello pueden desarrollarlos de una manera mucho más rápida y con un menor coste, y todo eso obteniendo igualmente unos resultados sorprendentemente buenos.
En cuanto a las utilidades que se le puede dar a esta IA recién nacida de otra IA, los investigadores de Google aseguran que NASNet puede ser utilizada en una gran cantidad de situaciones y han abierto su código para que otros se puedan beneficiar de sus capacidades de clasificación de imágenes. Por ejemplo, un sector donde podría hacerlo especialmente bien es en los sistemas de conducción humana donde detectar un obstáculo a tiempo puede prevenir accidentes.
Robots que crean robots
Haber creado una inteligencia artificial capaz de dar a luz otra de una forma rápida y eficiente sin duda va a poner nerviosas a muchas personas. Celebridades como Elon Musk, Stephen Hawking, Bill Gates o François Chollet, llevan tiempo avisando de la posibilidad de que las máquinas se revelen contra los humanos, sobre todo si empiezan a utilizarse en sectores militares.
Y está claro que si alguien empieza a pensar en la posibilidad de una rebelión de las máquinas, el que estas sean capaces de replicarse sería un primer paso lógico antes de hacerlo. Sin embargo tampoco deberíamos preocuparnos demasiado, porque el debate para que esto no pase ya está en la calle y en los gobiernos.
Musk y muchas otras personalidades del mundo tecnológico, científico y expertos en IA llevan tiempo pidiéndole a la ONU y otros países el prohibir las armas autónomas. La ONU ya dijo hace un año que iba a plantearse la prohibición de utilizar IAs en armamento, pero todavía no se han tomado medidas definitivas.
Ver 20 comentarios
20 comentarios
whisper5
Esto es un artículo sensacionalista donde los haya.
A quien quiera conocer realmente cuál es el estado de desarrollo de la inteligencia artificial le recomiendo estos artículos actuales:
Informe en PDF sobre el estado de avance de la inteligencia artificial en 2017 escrito por expertos:
http://aiindex.org/2017-report.pdf
Un artículo que resume lo más destacado del informe anterior:
https://www.bloomberg.com/view/articles/2017-12-04/artificial-intelligence-still-isn-t-a-game-changer
Otro artículo (en inglés) titulado "Entendiendo los límites del deep learning":
https://venturebeat.com/2017/04/02/understanding-the-limits-of-deep-learning/
elyacu
Que podría salir mal?
centinelabo
Ya habra nacido Jhon Connor?
johnnyconnor
A mí también me preocupa que las máquinas se reBelen contra el ser humano. Se acerca Skynet...
ilwp
Lo he dicho en mas comentarios. Revisar el tono y la cantidad de artículos esta año en esta pagina del tipo:
Google hace x milagro con la IA.
Desde que Google compro deep mind ha sido un bombardeo de adoraciones en forma de artículos para con la gran G.
Lo mejor es que llevan una linea muy parecida; Google dice que ha logrado algo único con su IA.
Luego no se vuelve a oír nada mas del tema.
En fin, publicidad encubierta.
pablo.javier.3538
De momento , tenemos una limitación para las IA que es el poder de cálculo. Cuando eso se subsane no tendremos cueva donde escondernos . Eso sí, iremos a esas cuevas sin enfermedades y más chulos que un 8
John Appleseed
Yo no sé si es que de verdad el autor no entiende nada de lo que esta escribeindo.
O es que mal-intencionadamente llena el articulo de mentiras, para ganar clics.
Pero despues de ver cosas como estas, hasta ganas me dan de poner a Xataka en mi lista negra, de sitios que nunca debo visitar.
artemis2012
Es absurdo pensar que una IA que se ha diseñado para crear una IA especifica de detección de objetos, pero mejorándose a sí misma, vaya a crear algo más que eso. Simplemente es una IA que se va calibrando ella sola para obtener un mejor resultado de aquello para lo que ha sido creada.
Eso si podrían usar este modelo para aprendizaje del lenguaje humano al menos para traductores, y así se podrían mejorar bastante.
Las IAs actuales no son más que autómatas para un fin especifico, y aquí todo cuando hablan parece que porque una IA se mejore a si misma en su fin especifico, ahora vaya a crear una conciencia artificial.... Absurdo.
Neopumper666
Ingenieros trabajan para crear IA capaz de crear IAs mejores que la de los ingenieros, haciendo innecesaria su participacion y pudiendo prescindir de ellos.
Algo no cuadra aqui
tony.fernandez.7568
Para lo único que vale es que ahora los capcha de señales de tráfico o coches (insufribles que tenemos que superar los humanos) ya no son seguros. Ahora Google puede obtener nuestras claves y van a tener que cambiar la seguridad en todas partes obligándonos a competir aún más con los bots.
Gracias, Google. Todos sabemos que trabajáis para dos propósitos: despedir humanos y conseguir todos nuestros datos.
erreran
Esta IA creará a su vez otras IAs más inteligentes que ella, que volverán a repetir el proceso indefinidamente. El fin del mundo se acerca señores.
Moreste87
Lo que me preocupa no es que las maquinas se revelen, si no que se desarrollen nuevos virus basada en IA. Y ahí si que se abrirá la caja de pandora