La "ley de Moore" está en entredicho desde hace tiempo. El desarrollo de la tecnología litográfica se ha ralentizado a medida que los fabricantes de semiconductores se acercan cada vez más a los límites físicos que impone el silicio. Y este es, precisamente, el pilar sobre el que se sostiene la "ley" que postuló Gordon Moore, el cofundador de Intel, en 1965. Este respetado ingeniero y físico estadounidense renegó públicamente en varias ocasiones de que a la observación que hizo aquel año se le haya atribuido el estatus de ley.
Y es que en realidad lo que hizo fue una predicción fruto de la observación empírica, y no una ley amparada en un estudio científico minucioso. Aun así, durante muchas décadas su observación se ha erigido como la regla de oro utilizada por la industria de la microelectrónica para prever el ritmo con el que va a desarrollarse a medio y corto plazo.
Lo que Moore percibió hace algo más de cinco décadas y media fue que el número de transistores de los circuitos integrados se duplicaría cada año, y, a la par, su coste relativo se reduciría drásticamente. Diez años más tarde enmendó su observación al incrementar el plazo de tiempo necesario para que se lleve a cabo ese desarrollo de la tecnología de integración, colocándolo en 24 meses, y no en un año. Y desde entonces su pronóstico se ha cumplido con una precisión más que razonable.
La "ley de Huang" dibuja en el horizonte un futuro en el que NVIDIA y la IA reinarán
La "ley de Huang" hace referencia a Jensen Huang, el director general de NVIDIA, pero no ha sido bautizada por él. La responsable del nombre de este postulado es Tekla S. Perry, editora sénior en IEEE Spectrum, y lo formuló en el artículo que publicó el 2 de abril de 2018 con el propósito de describir el rapidísimo desarrollo que ya entonces estaban experimentando los procesadores gráficos. Eso sí, es justo recordar que el auténtico responsable de la popularización de la "ley de Huang" es Christopher Mims, un columnista del diario The Wall Street Journal.
A Tekla S. Perry se le ocurrió enunciar esta "ley" después de asistir a una conferencia pronunciada por Jensen Huang
Sea como sea la razón por la que a Tekla S. Perry se le ocurrió bautizar así esta "ley" después de asistir a una conferencia pronunciada por Jensen Huang fue que la "ley de Moore" ya no parecía describir correctamente el vertiginoso desarrollo que estaban experimentando las GPU, especialmente en el ámbito de la inteligencia artificial. De esto va, en realidad, la predicción que lleva el nombre del fundador de NVIDIA. La gráfica que publicamos debajo de estas líneas refleja con mucha claridad de qué estamos hablando. E impresiona.
El titular de la gráfica contiene la idea más importante: durante la década que se extiende entre 2012 y 2022 el rendimiento de los chips de NVIDIA para aplicaciones de inteligencia artificial se ha multiplicado por 1.000. Nada menos que por 1.000. Es cierto; la "ley de Moore" no refleja bien este desarrollo tan veloz. No obstante, es importante que tengamos en cuenta que el impacto del desarrollo de los procesos litográficos no explica esta evolución tan vertiginosa.
Bill Dally, uno de los máximos responsables de NVIDIA en el ámbito científico, pronunció hace apenas dos semanas una interesantísima conferencia en la que explicó el crucial rol que tiene la innovación en el ámbito de la microarquitectura para sostener el desarrollo de las GPU para inteligencia artificial. Ya no basta en absoluto aferrarse a la mejora de la litografía y la calidad de los transistores; o refinas la arquitectura de tus chips o te atascas.
Dally es prudente, y por tanto no garantiza que de aquí a 2032 la capacidad de las GPU vaya a volver a multiplicarse por 1.000. Al fin y al cabo si somos rigurosos no debemos olvidar que ni la "ley de Huang" ni la "ley de Moore" son en realidad leyes. Solo son pronósticos razonablemente fiables que no perdurarán eternamente.
Más información: NVIDIA
Ver 9 comentarios