La multinacional Nvidia premiaba recientemente al profesor de la Universidad de Málaga Manuel Ujaldón, el cual lleva más de 10 años estudiando las posibilidades de los procesadores gráficos.
Se le otorgaba por primera vez a un español el título CUDA Fellow 2012, que premia cada año al científico que mejor desarrolla sus facetas de difusión de las posibilidades de programación CUDA y su aplicación en el ámbito de la investigación relacionada con la explotación de los recursos de la GPU en tareas ajenas a los videojuegos.
Recién estrenada esa distinción, en Xataka hemos querido conocer más de cerca los inicios de Ujaldón en este apasionante campo así como su trabajo y visión del futuro de las GPU. A continuación la entrevista de Xataka al profesor Ujaldón.
Xataka: ¿Por qué elegiste como línea de investigación la GPU? ¿Es lo más interesante que está pasando en la Arquitectura de Computadores?
Ujaldón: Diez años atrás, que fue cuando yo comencé en esto, era un soplo de aire fresco en mi área. No la GPU en sí, sino el poder aprovecharla para aplicaciones científicas
en lugar de para video-juegos o gráficos en general, donde las cosas sí estaban consolidadas. Yo me encontraba entonces en una fase de renovación, buscando un nuevo tema con el que ilusionarme, y sentí que podría aportar cosas.
Los primeros años fueron muy creativos, fascinantes. Ahora hay millones de personas trabajando en ello y se ha perdido ese sabor casero. Afortunadamente, ya que la popularidad alcanzada ha sido consecuencia de la eclosión de resultados que se han sucedido desde entonces.
Xataka: Desde hace un tiempo las GPU están posicionándose como el componente hardware perfecto para ciertas tareas. ¿Qué tipos de tareas o algoritmos y por qué?
Ujaldon: Fundamentalmente, son tareas de gran carga computacional y volumen de datos a procesar, a ser posible de forma independiente para poder trabajar en paralelo. Las investigaciones basadas en el genoma humano son un buen ejemplo, hay que analizar interacciones entre millones de genes provenientes de una extensa población.
Sin embargo, esto no significa que el modelo de computación tradicional tenga fecha de caducidad. Si hacemos una analogía con el transporte, la GPU es el avión y la CPU es el coche
En Barcelona, por ejemplo, secuencian 300 genomas al día, cuando sólo hace 10 años el proyecto genoma humano tuvo una envergadura descomunal. Es cierto que desde entonces hemos mejorado mucho el software para procesar el genoma, pero estos algoritmos aún tardarían semanas en computarse si no fuera por el uso de las GPUs. El progreso a nivel hardware ha sido mayor.
Sin embargo, esto no significa que el modelo de computación tradicional tenga fecha de caducidad. Si hacemos una analogía con el transporte, la GPU es el avión y la CPU es el coche. Un Málaga-Pekín en coche es inviable, como lo es un Málaga-Torremolinos en avión. Son dos medios complementarios, ambos necesarios. Hay problemas computacionales para los que la GPU no sirve, y otros muchos que le quedan pequeños.
Xataka: La GPU no suele ser un elemento muy visible para el consumidor. ¿hasta qué punto debemos prestarle más atención que a las CPU como terreno de innovación y como componente del PC?
Ujaldón: En el mercado actual de la informática de consumo se venden tres GPUs por cada CPU. Y su margen de beneficio es también superior. El consumidor está dispuesto a pagar más por prestaciones gráficas, pues es lo que mejor luce y más disfruta.
La novedad de este año es que los mayores fabricantes de CPU, como Intel y AMD, están integrando GPUs dentro de sus chips. Ya en 2013 será difícil adquirir una CPU que no lleve incorporado uno o varios procesadores gráficos dentro del chip. Tendremos entonces computación heterogénea, y los programadores deberán adquirir nuevas habilidades para aprovechar estos recursos: Saber cuándo hay que despegar el avión o arrancar el coche.
Xataka. La última iteración del desarrollo de las GPU las ha llevado hasta los 28 nanómetros, mientras que las CPU han alcanzado los 22 nanómetros. Sin embargo, año tras año sale a la luz el debate sobre el límite físico en el tamaño de los transistores, debate que se va postponiendo cada vez más. ¿Cuándo crees que alcanzaremos ese límite?
Ujaldón. La ventaja actual de la CPU es meramente corporativa. Intel, que es su principal valedor, tiene sus propias plantas de fabricación de chips e invierte en ellas dinero y capital humano. Nvidia, la marca líder de GPUs, no cuenta con esta infraestructura: en su lugar, subcontrata la fabricación a TSMC. Sin recursos propios, su capacidad de innovación es menor.
La ventaja actual de la CPU es meramente corporativa
Para enjugar esta desventaja, debería dar un paso al frente, y ya empiezan a salir las cuentas: Nvidia ha vendido más de 350 millones de GPUs en los últimos 5 años, y una planta de fabricación cuesta unos 2.000 millones de dólares, vigente tecnológicamente durante un par de años. Para 5 años, sale un coste aproximado de 10 euros por cada chip fabricado al ritmo de producción actual. Es superior a lo que le cuesta a Intel, pero revertiría en tantas mejoras sobre su hardware que abriría una nueva perspectiva para la compañía.
El mayor desafío, sin embargo, es el tecnológico, porque en capital humano Intel lleva más de 30 años de ventaja.
Respecto al límite en la miniaturización de los transistores, Intel está trabajando ya en la tecnología de 14 nanómetros. El siguiente hito son los 10 nm., y existe una hoja de ruta hacia los 7 nm. y 5 nm. donde se vislumbra el final evolutivo. Sin embargo, yo creo que aquí pasará algo similar a lo acontecido con la frecuencia del procesador veinte años atrás. Se decía entonces que llegaríamos a los 30 GHz, incluso cuando superamos 1 GHz en el año 2000.
hemos aprendido que una alta frecuencia conduce a problemas de calor en equipos sobremesa y consumo en portátiles
Ahora nos sonrojamos viendo que el procesador apenas ha conquistado los 3 GHz doce años más tarde, y esto ha sucedido porque en el camino hemos aprendido que una alta frecuencia conduce a problemas de calor en equipos sobremesa y consumo en portátiles, y el usuario valora más la fiabilidad y la autonomía energética. Encima, llega la GPU para demostrar todo lo que se puede hacer con procesadores de 0.5 GHz. Es así como descubrimos que los 30 GHz no son una necesidad.
Con los nanómetros puede terminar sucediendo algo similar. Seguramente podamos fabricar el chip de 10 nm., pero los costes de producción van a dispararse, y aparecerán problemas de fiabilidad debido a la cercanía de los límites físicos del transistor. Entonces valoraremos mejor lo que tendremos con chips de 14 nm., pensaremos que en esa variable ya hemos sacado buena nota, y nos dedicaremos a otras asignaturas pendientes. Por ejemplo, la GPU tiene un aprobado raspado en frecuencia, pero ha estudiado mejor la arquitectura para sacar un notable, y ostenta un sobresaliente en costes y volumen de producción. El resultado es un producto muy competitivo.
Xataka. ¿Ves entonces viable que se siga manteniendo la Ley de Moore en los próximos años?
Ujaldón. La Ley de Moore ya se ha saturado en los últimos años. El potencial tecnológico del procesador era inmenso en sus inicios, pero ya no resiste ese ritmo. Lo más importante es que el nivel alcanzado es suficiente para lo que la sociedad espera de los chips.
Siempre querremos coches a 300 Km/h., pero con 120 Km/h. de techo sigue siendo el medio de locomoción más utilizado. Y es que hay muchos desplazamientos en los que más velocidad significa más riesgo, más consumo, más incomodidades, y al final no compensa.
Xataka. Hablando un poco del ámbito profesional, ¿qué diferencia existe entre las tarjetas gráficas domésticas y las profesionales como la familia Quadro o Tesla
de NVidia, o las FirePro de AMD? ¿Son diferencias en el resto de componentes de la tarjeta o también en la propia GPU?
Ujaldón. En la GPU los cambios son marginales, porque ésa es la fórmula mágica: Fabricar un solo procesador y venderlo en todos los perfiles de usuario. Luego el chip se monta sobre una tarjeta, donde la memoria marca la diferencia. El resto de componentes apenas influye.
Lo malo es que esta gama de productos tiene un volumen de ventas muy inferior en el mercado, conduciendo a una relación rendimiento/coste desfavorable para el conjunto de la tarjeta gráfica. A mí me gusta más aportar por las GeForces, donde los jugones me hacen algunos favores: Disparan sus ventas, fomentan la proliferación de placas base para acompañarlas, drivers para configurarlas, fuentes para alimentarlas, documentación para resolver las incidencias, etc.
Xataka. Para acabar, desde tu posición de investigador, ¿qué escenario de innovación parece el más interesante para los próximos años?
Ujaldón. Lo que más me tiene enganchado es la bioinformática. Contribuir a acelerar problemas reales ligados a la detección de tumores o mejorar el tratamiento de enfermedades degenerativas gracias a las GPUs ha sido de lo más reconfortante.
Perteneciendo al Dpto. de Arquitectura de Computadores de la UMA, la oportunidad para ello pasa por realizar estancias de investigación en laboratorios ligados a la medicina. Si consultas mi curriculum de los últimos años, verás hasta 7 estancias largas en Estados Unidos y Australia, siempre en Dptos. universitarios como “Biomedical Informatics” asociados a hospitales. Además, mis colaboradores médicos tienen esa faceta humana y solidaria que resulta más difícil encontrar en mi gremio, y de la que me gusta contagiarme.
Desde aquí muchas gracias al profesor Ujaldón por atendernos y contestar las preguntas de esta entrevista.
Ver 23 comentarios