La carrera por colocar en el mercado los mejores microprocesadores no ha sido siempre como lo es ahora. Intel, AMD, y también las marcas que en algún momento han tenido importancia en este mercado, como IBM o Motorola, entre otras, han dedicado sus recursos al refinamiento progresivo de la microarquitectura de sus chips.
Sin embargo, el papel protagonista en la búsqueda del máximo rendimiento posible lo ha acaparado durante décadas el incremento de la frecuencia de reloj, que es uno de los parámetros que condicionan directamente la productividad de un procesador.
En apenas cincuenta años, los que han transcurrido desde que en 1971 Intel lanzó el primer procesador comercial, el 4004, que tenía tan solo 4 bits y trabajaba a una frecuencia de reloj de 740 kHz, los microprocesadores se han desarrollado hasta ser capaces de operar a una frecuencia de reloj claramente superior a los 5 GHz.
De hecho, recurriendo a la refrigeración criogénica con nitrógeno líquido esta cifra puede incrementarse mucho más, aunque es una práctica que aún no podemos considerar popular, y con la que coquetean sobre todo los entusiastas del overclocking.
De la guerra del gHz a la del número de núcleos
Desde principios de los 70 la mejora de la arquitectura, el aumento de la frecuencia de reloj y el refinamiento de la fotolitografía han ido de la mano con el propósito de incrementar las capacidades y el rendimiento de los procesadores, pero llegó un momento en el que la tecnología del silicio evidenció síntomas de fatiga. No podría ir mucho más allá.
Trabajar a frecuencias de reloj aún más altas podía desencadenar la degradación física del propio procesador debido a la electromigración, entre otros fenómenos limitantes, pero hace poco más de una década y media a los fabricantes se les ocurrió una solución: integrarían múltiples núcleos en el encapsulado de la CPU.
No todas las aplicaciones podrían sacar partido a varios núcleos simultáneamente, pero aquellas que sí pudiesen aprovecharlos podrían escalar su rendimiento sin necesidad de incrementar la frecuencia de reloj del procesador.
Además, cuando llegaron los primeros chips multinúcleo la tecnología multithreading ya estaba lista, por lo que las posibilidades del procesamiento multihilo eran muy prometedoras. Esta innovación permite que cada núcleo físico implemente dos núcleos lógicos, de manera que cada uno de ellos es capaz de procesar simultáneamente dos hilos de ejecución (threads).
Intel tiene la tecnología Hyper-Threading, que es su implementación de esta innovación. Y AMD tiene SMT (Simultaneous Multi-Threading), que es la suya. En cualquier caso, en esencia ambas técnicas de procesamiento de dos hilos de ejecución en un único núcleo físico trabajan de una forma muy similar.
Durante la última década los sistemas operativos, las aplicaciones, y, por supuesto, los procesadores, han desarrollado mucho sus capacidades de procesamiento multihilo, de manera que actualmente esta estrategia tiene un impacto fundamental en las prestaciones que nos proponen nuestros ordenadores. Y también en nuestra experiencia como usuarios.

No obstante, los procesadores no son el único componente de nuestros ordenadores que se ha desarrollado mucho durante las últimas décadas. La memoria principal, las soluciones de almacenamiento secundario y los procesadores gráficos también han evolucionado a un ritmo vertiginoso.
Y, mientras tanto, los dispositivos móviles se han abierto paso en nuestro día a día y han provocado que los usuarios valoremos mucho no solo el rendimiento global de nuestros ordenadores, sino también la forma en que administran la energía. Nos importa la velocidad, pero también la autonomía, lo que nos ha colocado en el momento en el que estamos ahora: en la guerra de las marcas por ofrecernos el mejor rendimiento por vatio.
En la cruzada del rendimiento por vatio mandan la litografía y la arquitectura
El camino que nos ha traído hasta aquí ha sido largo. Incluso tedioso en algunos momentos. Pero, sobre todo, ha estado repleto de desafíos. Los fabricantes de microprocesadores han ido solventando numerosos retos para evitar que las soluciones que nos proponen se estanquen.
Debían poner en nuestras manos un rendimiento cada vez mayor a toda costa, y la mejora de la tecnología de integración y el refinamiento de la microarquitectura han sido dos pilares fundamentales en este recorrido. Y van a seguir siéndolo debido a que son los dos ingredientes indispensables en la búsqueda del rendimiento por vatio más alto.
Sin embargo, durante los últimos años hemos comprobado que no lo tienen nada fácil. Desarrollar las técnicas fotolitográficas que permiten a los fabricantes de semiconductores introducir cada vez más transistores en el mismo espacio requiere poner a punto soluciones tecnológicas extraordinariamente avanzadas. Y no es fácil dar con ellas.
De hecho, los usuarios estamos siendo testigos de lo mucho que está costando a una empresa con los ingentes recursos que tiene Intel mantenerse a la vanguardia en este ámbito para proteger su competitividad.
IBM y TSMC ya están trabajando de forma experimental en los primeros chips de 2 nm (o 20 ángstroms)
En lo que se refiere al desarrollo de la tecnología fotolitográfica el futuro es esperanzador. La hoja de ruta de TSMC, Intel, Samsung, y también la de otros fabricantes de semiconductores, nos coloca en los albores de la era de los ángstroms. IBM y TSMC ya están trabajando de forma experimental en los primeros chips de 2 nm (o 20 ángstroms), e Intel asegura que en 2025 tendrá listo su nodo de 18 ángstroms (que equivalen a 1,8 nanómetros).
No cabe duda de que los próximos años van a ser muy emocionantes, aunque cabe la posibilidad de que los fabricantes de chips no consigan cumplir a pies juntillas todas las promesas que nos están haciendo ahora.
Además, el desarrollo de la fotolitografía es solo uno de los requisitos que es necesario acometer para poner en manos de los usuarios chips con un mayor rendimiento por vatio. También es imprescindible refinar la microarquitectura con el propósito de que sea capaz de llevar a cabo más trabajo en cada ciclo de la señal de reloj, y, al mismo tiempo, consumir menos energía.
Mejorar la litografía ayuda en este camino, de eso no cabe duda, pero también es indispensable idear nuevos enfoques que hagan posible la implementación de microarquitecturas más eficientes. Y no es nada fácil. Los fabricantes de microprocesadores lo tienen más difícil que nunca, pero este es uno de esos caminos que, sin duda, merece la pena recorrer.
Ver 24 comentarios
24 comentarios
amfortas
Yo actualmente lo que pido, sí, vale, potencia, pero sobre todo un procesador frío, que necesite la menos refrigeración posible (con lo que conlleva menos ruido y menos gasto energético).
Esto me recuerda un poco a comparar las bombillas tradicionales y las led modernas:
Las primeras son muchos más baratas y más reciclables, pero con un desperdicio de energía del 90% (que se pierde en calor).
Ahora mismo Intel y AMD ofrecen sólo potencia, pero apenas están evolucionando en mejor gasto y eficiencia.
sanamarcar
No es nada nuevo. La eficiencia es un mantra que Intel ha perseguido con miles de millones pero claro estaban solos pensando que eran el rey del mambo y llegaron los moviles y sus chips baratos vendidos en miles de millones al año, y la colaboración. Más que problema de rendimiento, veo de costes, ya que no se ofrece mas poner menos, se ofrece ahora mas por más.
Solo tenemos que ver la evolución en GPUs: RX480, RX 5500 y RX 6500, esto no creo que sirva para aguantar un futuro de IA e inteligencia a precios razonables. Y luego chips a coches que se usan 1 hora al día...pues.
mushhu
pq los límites de la física no respetan a ningún tecnooptimista
dark_god
Y curiosamente siempre debió ser la eficiencia. Más que nada porque con la eficiencia llegar la potencia de manera natural. Se abaratan los productos (baterías mas pequeñas, refrigeración más pequeña), y por lo general se mejora la fiabilidad.
netmejias
Para cuando una noticia de grafeno?. Del que lleva hablando por aquí lo menos 12 años.
caront3
Me resulta interesante el tema pero lo veo muy incompleto y genérico. La evolución de las CPU tiene dos componentes principales:
Diseño: ha evolucionado desde un enfoque monolito con el 484, a uno de cauce segmentado en P1 y finalmente microarquitectura superescalar a partir de P2. El rendimiento viene realmente de ahi y no de GHz y nucleos, el procesador esta parado durante mucho tiempo y lo interesante es como se incrementa el IPC con diseños superescalares para ejecutar desordenadamente o resolviendo problemas de dependencias de datos, saltos o fallos de memoria usando IA.
Fabricación: me parece increible que no se mencione el diseño de transistor, de Planar a Finfet, terminado por GAA. Aclarar la nomenclatura de la métrica de los NM estaría bien porque solo es aplicable a Planar y ahora es solo Marqueting para solo decir que 2 es mejor que 3. Por útimo, hablando de eficinecia estaría bien hablar del fenomeno del "silicio oscuro" ya que condiciona el diseño de la CPU ya que los últimos 8 años, la densidad ha ido a un ritmo diferente al consumo del transistor haciendo que sea imposible encender toda la CPU a la vez.
brightspark
Ojalá se aplique esta perspectiva, porque Intel y Nvidia parece que no van por esos derroteros. Sobre todo el de Nvidia que parece que la nueva 3090ti consume 450w. Yo espero que se implemente más temprano que tarde la innovación de Samsung e IBM, un nuevo diseño vertical para los procesadores, que reduciría muchísimo el consumo. Se ha llegado a una potencia más que notable, sería lo suyo que se potenciara la autonomía en multitud de dispositivos y el generar el mínimo ruido posible en ventiladores gracias a procesadores que no requieran mucho enfriamiento.
Jerichocr
Hacer este articulo sin mencionar a Apple y sus M1 huele raro.