Los astrofísicos han recurrido por vez primera a la inteligencia artificial para generar complejas simulaciones en 3D del universo. Afirman que su modelo, bautizado como "Deep Density Displacement Model" (o "D3M" para abreviar), es capaz de ejecutar las simulaciones en aproximadamente 30 milisegundos, mientras que otros simuladores considerados 'rápidos' normalmente se toman un par de minutos.
Sin embargo, la verdadera sorpresa de los creadores de D3M (investigadores de instituciones académicas estadounidenses, canadienses y japonesas) no ha sido su velocidad, sino su extraordinaria precisión a la hora de calcular cómo sería el universo si se alterasen determinados parámetros del mismo, como la cantidad total de materia oscura.
La red neuronal que aprendió sobre gravedad y respondió sobre materia oscura
¿Y por qué es esto sorprendente? En primer lugar, porque los niveles de precisión que ofrece requerían hasta ahora, según los investigadores, de hasta 300 horas de cálculo; la simulación requiere calcular el desplazamiento por la gravedad de mil millones de partículas durante los aproximadamente 13.800 millones de años de edad del universo, partiendo del supuesto de que éste tuviera un diámetro de 600 millones de años luz.
Pero, sobre todo, resulta sorprendente porque al modelo en ningún caso se le proporcionaron datos de entrenamiento en el que estos parámetros cambiaran (la investigación se centra en la fuerza de la gravedad, la más relevante a la hora de estudiar la evolución a gran escala del cosmos).
Sus creadores, sencillamente, no están seguros de cómo funciona D3M. En palabras de Shirley Ho, una de las investigadoras del equipo, adscrita al Centro de Astrofísica Computacional del Flatiron Institute:
"Es como si a un software de reconocimiento de imágenes se le entrenase con un montón de fotos de gatos y perros, y luego fuera capaz de reconocer elefantes. Nadie sabe cómo ocurre esto, y es un gran misterio que hay que resolver".
Ho y sus colegas perfeccionaron la red neuronal de D3M alimentándola con 8.000 simulaciones diferentes de uno de los modelos más precisos disponibles hasta ahora, logrando aumentar progresivamente su precisión: el simulador más rápido con el que se contaba hasta ahora tenía un error relativo del 9,3%: D3M presenta sólo un 2,8%.
A partir de ahora, según Ho, tratarán de aprovechar la flexibilidad que le dota al modelo su capacidad para simular datos no incluidos en su entrenamiento, al tiempo que tratarán de desentrañar cómo el funcionamiento interno de la red neuronal puede producir tal resultado.
Vía | Phys.org
Ver 14 comentarios
14 comentarios
DrKrFfXx
Ahora os imagináis una red neuronal de grafeno... Lo oísteis aquí primero.
sanamarcar
A ver es que es como regar en el monte, lo que salga no tienes que entenderlo. Pero de ahí a inteligencia. Cuando el algoritmo no se ejecute y el ordenador se dedique a usar su inteligencia en el porno o tragaperras, entonces sí, corred insensatos. Además le daremos pena instantánea XD
ignostico
como se mide la precisión o error relativo o margen de error de algo que no se conoce su exactitud ? digamos que no sabemos que se esta midiendo ni como se esta haciendo pero el resultado tiene un margen de error de "xx"? .... solo se que no se nada,lo cual significa que algo se , al menos que sea lo contrario, pfff
petote
Y así nace Skynet.
fermiogo
Esto se debe a que nuestro universo es pura simulación.