Jensen Huang se quiere cargar la ley de Moore. No es el primero que afirma que dicha ley ha muerto, y probablemente no será el último, pero el argumento de Huang tiene un epílogo: que esa ley ha muerto, pero que la GPU está ahí para salvar a la CPU y acabar "sustituyéndola".
La ley de Moore establece que el número de transistores en un procesador se dobla más o menos cada dos años. Aunque el número de transistores en los microprocesadores ha crecido un 50% al año, su rendimiento solo ha crecido un 10%. Es ahí donde entra una GPU cada vez más aceptada en terrenos como la inteligencia artificial, afirma Huang, y muchos seguramente se preguntarán si esa GPU puede realmente sustituir a la CPU. En realidad ya lo está haciendo, pero hay matices importantes.
Según NVIDIA, las GPUs ganan terreno a las CPUs
Huang lanzó tales afirmaciones durante la GPU Technology Conference China 2017 que se está celebrando en Beijing, pero en Intel hace tiempo que han dejado claro que la ley de Moore sigue muy viva.

Brian Krzanich comentaba en abril de 2016 cómo la evolución de los 14 a los 10 nm continuará con micros que estarán fabricados en litografías de 7 e incluso en 5 nanómetros harán que esa ley mantenga su validez a corto e incluso medio plazo.
Es cierto que a Intel le está costando más de lo que esperábamos dar esos saltos, pero lo cierto es que el mundo de los procesadores se ha vuelto a animar gracias a esa renovada AMD que con sus Ryzen y sus Threadripper ha reavivado la competencia entre ambas empresas.
De hecho a Huang no debe haberle sentado del todo bien la decisión de Tesla: esta semana se ha anunciado que el fabricante de coches eléctricos había decidido cambiar sus procesadores NVIDIA por unos de Intel para sus sistemas de infoentretenimiento, algo que no parece dar tantos argumentos en un área como el de la inteligencia artificial que comienza a ser protagonista absoluta en los sistemas de conducción autónoma de estos coches.
¿Es posible un ordenador basado únicamente en una GPU?
Lo cierto es que no. Las GPUs son procesadores altamente especializados, mientras que las CPUs son microprocesadores de propósito general. Aunque poco a poco se han ido adaptando algunas tareas para que sean computadas por la GPU (de ahí la rama GPGPU -> General Purpose Computing on Graphics Processing Units), la aplicación de la GPU a tareas de propósito general está restringida a ámbitos en los que el paralelismo es absoluto protagonista. Ejemplo claro de la actualidad: la minería de criptomonedas.

De hecho eso es lo que ha hecho NVIDIA con su Project Denver, emparejando una pequeña CPU ARM de doble núcleo con una solución GPU de la familia Kepler (ni siquiera Pascal). El proyecto tuvo aplicación práctica en las tabletas Nexus 9 de Google, y posteriormente NVIDIA ha desarrollado otros micros como el Tegra X1 que seguían esa misma filosofía en la que al final, insistimos, no se prescinde de la CPU.
De hecho Jensen Huang ni siquiera planteaba una sustitución total de las CPUs actuales, y se refería solo a campos específicos en los que efectivamente la potencia bruta de las GPUs está siendo muy bien aprovechada.
Ámbitos como la citada inteligencia artificial, el aprendizaje automático o la computación en la nube está haciendo que esa computación GPGPU esté ganando enteros y las soluciones basadas en procesadores gráficos estén teniendo un éxito notable, y de hecho NVIDIA está apostando cada vez más por esos segmentos con chips específicamente destinados a estos ámbitos.
De ahí a prescindir de la CPU, eso sí, media un mundo.
En Xataka | De nanómetros, miniaturización y ley de Moore: el futuro de los transistores
Ver 14 comentarios
14 comentarios
darkyevon
Seria interesante haber añadido el tema de la latencia añadida de las gpu. Por norma general, una cpu es capaz de hacer las operaciones en muchos menos ciclos, aunque un número simultáneo mucho menor. Es decir, si tienes 4 cosas que hacer, y tienes una cpu de 4 nucleos vs una gpu de 300 nucleos, la cpu tardará menos tiempo. Una cpu puede hacer operaciones en 1 o 2 ciclos, y lo mismo en una gpu puede suponer mas de 20. Además, hay que añadir el tiempo necesario para copiar los datos desde la memoria RAM hasta la memoria de la GPU. Solo te compensa hacer cálculos en la GPU si estos son muy numerosos, paralelizables, y tardan cierto tiempo en acabar. Si ponemos el mismo ejemplo con 300 tareas, la gpu acabará antes seguro.
El dia en que cpu y gpu sean uno solo acabará llegando, pero hasta que no se consiga que las gpu puedan hacer operaciones con el mismo número de ciclos que una cpu, eso no pasará. En ese caso, una GPU no seria mas que una CPU pero con una burrada de nucleos. Y ya no se necesitaria tener dos memorias separadas.
chandlerbing
O podrian hacer Co-Procesadores, en el tamaño de una grafica se podrian meter tres o dos dies de CPU si no llegasen a superar el problema de los transistores.
Ojala y no ,ya tenemos suficientes problemas con sus porquerias propietarias (Nvidia), no querria ver esos casos en CPU si hace tiempo que se superaron
TOVI
Interesante.
Dato:
"(de ahí la rama GPGPU -> General Purpose Computing on Graphics Processing Units)"
GPCPU sería ¿no?
alejandrotersse
El hecho de que los procesadores ya no den saltos cuanticos de un año al otro se debe a un monopolio por parte de Intel, no a una incapacidad de doblar la cantidad de transisotres no seamos ridiculos.
Lo que pasa es que Intel al no tener competencia puede darse el lujo de sacar cada 6 meses un procesador nuevo con un (5% o 10%) más de rendimiento y cobrarlo al precio que quiera, total como no tiene competencia no le importa.
Ahora, de repente aparece Ryzen, le cierra la cola a intel y "Oh sorpresa" se demuestra mi punto, instantaneamente Intel agrega a Coffe Lake dos nucleos más en cada gama, mejores frecuencias base, mejores frecuencias turbo, mejor consumo, mejor rendimiento mononucleo, etc logrando asi incluso hasta un 40% de mejoría en detrimento a los procesadores que lanzaron a principio de año... ¿Coincidencia? No seamos ingenuos, aca lo que esta pasando hace años es que hay una competencia desleal o una carencia total de la misma.
Lo que dice este representante de Nvidia es un disparate, ni más ni menos.
Usuario desactivado
Pos vale. Y el Murphy ese, el de la ley . no era Charles Bronson? . Vaya castaña de película , igual que el articulo .