En mayo de 2013, un superordenador en San José, California, tradujo y leyó 100.000 documentos académicos en apenas dos horas. Prácticamente todos los ensayos médicos publicados desde 2003 hasta una década después centrados en biología. En su rastreo buscaba palabras en clave sobre la proteína p53, la denominada «guardián del genoma» por su capacidad para suprimir tumores.
Aprovechando la información recabada sobre las investigaciones, el equipo médico responsable, que nunca hubiese podido leer tal mar de literatura, empezó a trabajar con estas quinasas para crear nuevos medicamentos. Aquellas investigaciones abrieron un camino a nuevas publicaciones. Y gracias, en parte, a aquel superordenador.
Una hora de cómputo de estos monstruos refrigerados equivale a varios años de cálculo humano
Ya se ha dicho y es bien cierto: vivimos un periodo de acumulación de información, la era del Big Data, del Internet de las Cosas. Compilamos tantos datos que estamos doblando anualmente la marca de nuestra historia. Ya hablamos largo y tendido del espacio que ocupa Internet.
Pero, ¿quién traduce esa información? ¿Quién gestiona los datos para convertirlos en conclusiones prácticas, algo tangible para una investigación en biología, astrofísica, o economía? Ellos son los cerebros donde el exceso es frontera para la humanidad pero hogar para estos monstruos que miden su músculo en teraflops.
Una historia escrita en teraflops
Las operaciones de coma flotante por segundo establecen el rango de rendimiento computacional de un ordenador. La fórmula es sencilla: los F.L.O.P.S. son igual a la cantidad de sockets instalados multiplicado por los núcleos de cada socket, por la velocidad del reloj y multiplicado por los FLOPs y partido de cada ciclo de reloj. Está bien, antes de perdernos en lo formulaico vayamos a lo práctico.
En la informática doméstica, esta medida sólo determina un puñado de datos brutos
¿Para qué haría falta tal cantidad enorme de procesamiento? En la informática doméstica, esta medida sólo determina un puñado de datos brutos. Pero cuando la carrera trata de dar con el equipo que mayor cantidad de datos es capaz de analizar, la medida es clave. Ídem para simular estados: desde catástrofes naturales hasta enfermedades, del plegamiento de proteínas a simulaciones por erosión, de estudios sobre densidad demográfica hasta planificación económica.
¿Te imaginas el comportamiento de estrellas colapsando y formando hipernovas en su estallido? Existe un timelapse creado por un superordenador.
Es habitual que los padres de estos supercomputadores los cedan para la investigación científica.
Hace dos años, un equipo dirigido por el Instituto Metodista de Investigaciones, en Houston, usaron los superordenadores Lonestar y Stampede para sus investigaciones sobre el cáncer. El estadounidense Cheyenne estudia los efectos del calentamiento global a largo plazo. Casi todos los centros meteorológicos del planeta se sustentan bajo supercomputadores, desde CINECA en Italia, Meteo en Francia o la Oficina Meteorológica del Gobierno de Reino Unido.
Desde catástrofes naturales hasta enfermedades, del plegamiento de proteínas a simulaciones por erosión
Y no sólo en materia de salud o asuntos ambientales. Sin ir más lejos, el Barcelona Supercomputing Center logró obtener la secuencia y ensamblado del ADN del tomate, para responder a su supervivencia y por qué ha triplicado su genoma durante los últimos 120 millones de años.
Al no componerse sobre un único hilo de procesamiento, los superordenadores pueden trabajar de forma conjunta con otros sistemas en otras partes del mundo. Pueden multiplicar su rendimiento de manera modular.
Una hora de cómputo de estos demiurgos refrigerados equivale a varios años de cálculo humano. El tiempo es su moneda más preciada. Según la lista de los 500 superordenadores más potentes, quienes operan en su mayoría con sistemas operativos basados en núcleo Linux, prácticamente todos los sistemas están sirviendo de aceleradores en investigaciones. Si queremos adelantarnos al presente, predecir el futuro y acelerar el progreso, ellos son nuestros aliados.
La tecnología del cambio
Trabajar de manera híbrida está sirviendo efectivamente para proponer cambios. Es decir: la “instrumentalización” la asume el personal humano, las máquinas arrojan resultados, y después es de nuevo el equipo científico quien plantea el teorema utilizando la información resultante.
Veteranos del hardware como la taiwanesa ASUS colaboran actualmente con un buen puñado de instituciones usando los supercomputadores como vehículo.
Los servidores de ASUS han ayudado a investigaciones de prospecciones petrolíferas, ingeniería aeroespacial, bioinformática, predicción del tiempo, simulación de reacciones químicas y movimiento de partículas
El conocimiento de ASUS en este campo no es nuevo: sus servidores HPC ASUS ESC4000/FDR G2 lograron coronarse hace un par de años hasta el segundo puesto de los Green500, con un rendimiento de 421,2 TFLOPS pero con un gasto energético muy inferior respecto a otros competidores.
Los servidores de ASUS se integraron sobre el clúster SANAM HPC del Frankfurt Institute for Advanced Studies y el centro de desarrollo científico de Arabia Saudí King Abdulaziz City for Science and Technology. Durante estos años han ayudado a la investigaciones de prospecciones petrolíferas, ingeniería aeroespacial, bioinformática, predicción del tiempo, simulación de reacciones químicas y movimiento de partículas. En la actualidad ocupa el puesto 288 del top internacional, con 38.400 núcleos y un máximo de 532,6 TFLOPS.
Mínimo coste energético, máxima eficiencia informática
Y, si ASUS ocupaba el segundo lugar como superordenador más eficiente del mundo, ahora aspira a llegar al primer lugar, a golpe de sistemas de alimentación redundante, con un 94% de ahorro energético sobre su anterior modelo de server y diseños térmicos más inteligentes.
Desde la ciudad alemana de Paderborn, en el instituto PC2 dentro de la Universidad de Paderborn, ASUS ha unido fuerzas con ClusterVision, especialistas en computación de alto rendimiento y cloud computing. El nuevo supercomputador, sobre el que parte esta iniciativa, cuenta con 10.000 núcleos Intel Xeon dispuestos en 614 nodos de cálculo, y un clúster HPC de 200 teraflops, siguiendo la misma línea de bajo coste pero alta potencia.
ASUS monta servidores de alta densidad ESC4000 G2 GPU, que soporta hasta ocho ranuras PCI Express 3.0, especialmente compatible con los nuevos procesadores Intel Xeon Phi 5110P y 3100, y los aceleradores GPU NVIDIA Tesla K10 / K20.
Esta es una tendencia asumida por propia necesidad. Una gran cantidad de laboratorios de investigación o bien absorben o bien alquilan sus propios superordenadores. El año pasado se supo que el Laboratorio Lincoln, centro de desarrollo gestionado por el MIT, ya cuenta con su propio supercomputador, para asumir distintas tareas de simulación y resolver «ciertas clases de problemas que de otro modo tendrían un ciclo de ejecución prohibitivamente largo».
Cuando miramos a las estrellas observamos algo inasible, intangible, un mundo que se nos escapa de las manos. Cálculos como el índice de antimateria en el Universo, su tamaño visible o el comportamiento de las estrellas.
¿Sabías que gracias al superordenador Edison se ha creado un mapa tridimensional del Universo adolescente? Nos ha llevado varias generaciones entender el mundo que nos rodea porque no hemos podido dominar el tiempo. Como expone Richard S. Segall en su ‘Research and Applications in Global Supercomputing’, la programación en paralelo sobre supercomputadores puede resolver algunos de los mayores paradigmas de nuestro tiempo.
Ahora podemos preguntarnos qué sucederá con ciertas especies de virus, de plantas, de mamíferos, introduciendo los datos y variables adecuadas sobre cada algoritmo. Y determinar parte del futuro con la ayuda de estos superordenadores. Y así prevenir o alentar dicho futuro.
Ver 5 comentarios