A medida que pasan los años, los microprocesadores van siendo cada vez más y más pequeños, y por ello en el mismo espacio se logra instalar algo más potente. El más claro ejemplo es el de las tarjetas gráficas, las cuales podrían venir con GPUs de 40 nanómetros el próximo año.
Ésta arquitectura de 40 nanómetros es algo que por ahora aún no se ha conseguido a nivel doméstico ni siquiera en las CPUs, los procesadores centrales. Según NordicHardware, AMD/ATi estaría ya preparando el lanzamiento de las nuevas GPUs más pequeñas para su lanzamiento en el 2009, en forma del nuevo procesador RV740, para posteriormente lanzar el RV870 en los siguientes meses, que vendría a ser el sucesor del actual procesador usado en la última remesa de gráficas Radeon HD 4000 Series, que es el RV770 de 55 nanómetros.
En la competencia, NVidia, los procesadores GT200 utilizados en las gráficas GTX 280 y 260 son de 65 nanómetros, mientras que en las 9000 Series también existe alguno de 55.
Como ya he comentado al inicio de la entrada, una GPU fabricada en una arquitectura más minimalista debería implicar un rendimiento mayor, suponiendo claro está que el fabricante esté manteniendo el tamaño del procesador. De hecho, las tarjetas gráficas lanzadas en el último par de años están sufriendo un incremento del tamaño brutal, llegando a ocupar doble slot PCI debido a las dimensiones de la propia tarjeta, e incluso en algunos casos, requieren una fuente de alimentación especial.
Vía | TechPowerUp.
Más información | NordicHardware.
Ver 12 comentarios
12 comentarios
Pablo Espeso
@Kirtash, por si no quedó claro, al menos yo considero tarjeta como tal a toda la placa gráfica ;)
@p_a_k_o, técnicamente a menor tamaño de transistor, más puedes meter por unidad de superficie, y más podrás meter en la misma superficie que antes, ergo más potente será tu creación (en la teoría, como dice SIMo, luego ya veremos los benchmarks reales) :)
Pablo Espeso
aplatanado, NVidia tendrá buena calidad/precio, pero... ATi la tiene mejor :P
aplatanado
¿Qué NVIDIA se la está comiendo con patatas? Pues no se, las últimas gráficas de AMD tienen muy buena relación calidad/precio. Otra cosa es que sean lo bastante buenas como para invertir la inercia del mercado. Sólo hay que recordar ese par de años que estuvo AMD en la cresta de la ola de los procesadores en cuanto a prestaciones y sin embargo no fue capaz de ser lider en ventas. Mientras que Intel si lo era con su castaña de Pentium IV.
Land-of-Mordor
La disminución a 40nm no tiene por qué implicar una mejoría directa del rendimiento. Se disminuye el tamaño de los elementos del transistor (lo más importante es disminuir el tamaño de la puerta) y por enede el tamaño del mismo. Así se consigue meter menos transistores en el mismo espacio o reducir el tamaño de un chip en varios órdenes de magnitud, aumentar la frecuencia de trabajo del mismo (al disminuir el \"grosor\" de la puerta del transistor que permite transiciones de 0 a 1 y de 1 a 0 más rápidas) y disminuir el consumo (se necesita una corriente menor para atravesar la puerta del transistor).
Todas estas mejoras se pueden aprovechar de 2 maneras diferentes, fabricando micros con el mismo diseño, pero a más velocidad, menor consumo, etc (mejor rendimiento) o duplicando unidades funcionales y a veces añadiendo nuevos núcleos para aprovechar el espacio extra (aquí ya depende de si de verdad se aprovecha esa duplicación por parte del software o de cómo se implemente dicha duplicación para que de verdad haya un aumento del rendimiento).
Un ejemplo de esto son los Atom. Básicamente no introducen nada nuevo en cuanto a diseño que no se haya visto, por ejemplo, en la familia Centrino desde sus orígenes. Casi podría asegurar que su diseño es idéntico al de los primeros Centrino, sólo que en vez de ser fabricados a 120nm (o más) están fabricados a 65,55 o incluso 45nm. Reduciendo así el tamaño del chip, el consumo y casi mejorando el rendimiento con respecto a los primeros Centrino.
Whiskito, la reducción de la tecnología de integración sólo afecta a los chips (procesador y co-procesador gráfico y chips de memoria), el resto del \"hardware\" de la tarjeta se mantiene igual. Y si los chips trabajan a una velocidad mayor hay que aumentar el tamaño del disipador y del ventilador. Pasa como los microprocesadores, recuerda que los 486 no llevaban ventilador, y que los primeros Pentiu
esponja
De momento habrá que esperar a los benchmarks como dice WhisKiTo pero no creo que la mejora sea abismal, por lo menos en los primeros modelos.
Espero que con el tiempo AMD vuelva a pegar fuerte, tanto con sus micros como con las gráficas porque Intel y NVIDIA se la están comiendo con patatas. A ver si esto sirve para revivirla.
Esto junto los Quad-core de 45nm de AMD que supuestamente llegaran a finales de año esta acercando a AMD a la competencia, y de eso estaba yo mas que seguro, algun bombazo mas tendran en la manga...
p_a_k_o
Esta afirmacion tampoco es cierta, una disminucion en la escala de integracion para el mismo numero de transistores deberia suponer una reduccion de la temperatura, pero es indiferente en el rendimiento
simoivan
A menor tamaño, menor tiempo pasan los datos rondando por dentro y por tanto mas velocidad. Claro esta... en teoría.
meik
creo que los 45nm en los procesadores son mas prioritarios, es en este segmento donde AMD esta perdiendo terreno y le hace falta
por cierto se sabe si se va a lanzar algun X2 de 45nm, o AMD solo desarrolllara los Phenom? aun hoy dia se desaprovechan los 2 nucleos (por falta de optimizacion) irse a mas para el usuario "tipico"es un despilfarro
#5, meik, lo dije yo mas arriba, he leido en Fudzilla que para finales de año deben estar listos ya los Quad-Core de 45nm de AMD se esperan velocidades de 3.0GHz.
meik
#6 perdona andrei me has entenido mal, pregunto si a parte de los 4 nucleos se sabe si van a seguir desarrollando con los 45nm los doble nucleo
Ah, meik, no me habia empapado, de los de doble nucleo no tengo ni idea, pero con esto de los multi nucleos me veo dentro de 4 años con un AMD de 12 nucleos, que si no estoy equivocado ya estan trabajando en ellos, asique me imagino que los dual se quedaran anticuados al igual que los procesadores de toda la vida.