En los últimos años hemos visto un salto espectacular en el rendimiento de las tarjetas gráficas, pero junto a la mejora de prestaciones también hemos visto cómo las tarjetas gráficas cada vez son más grandes y más pesadas. La pregunta es por qué.
Mi gráfica es potente y gigantesca. Una NVIDIA GeForce RTX 3080 Ti Founders Edition de este fabricante mide 285 x 116 x 40 mm. La RTX 2080 Ti estándar de NVIDIA medía 267 x 112 x 35 mm. La diferencia es clara, pero va aún a más si vemos que la reciente RTX 3090 Ti mide 313 x 138 x 55 mm y ocupa no uno ni dos (que ya se ha convertido en la norma para muchos modelos), sino tres slots en nuestro PC. Es enorme.
Es la potencia, amigo. El problema de estas tarjetas es que esa potencia obliga a contar con un consumo energético muy elevado. Hasta la familia RTX 2000, en NVIDIA las gráficas consumían como mucho 250 vatios. Con la RTX 3080 Ti vimos cómo los consumos se podían dispara hasta los 350 vatios de potencia, pero es que en la RTX 3090 Ti ese consumo puede llegar a los 450 vatios.
Con AMD pasa tres cuartos de lo mismo. En las Radeon RX 5000 los modelos de referencia tenían consumos que como mucho eran de 225 vatios, pero las cosas también ha cambiado con las Radeon RX 6000: las RX 6900 XT y las RX 6800 XT ya llegan a los 300 vatios, y la RX 6950 XT puede llegar a los 335 vatios.
Refrigerar necesita espacio. Esos consumos y esa potencia tienen una consecuencia clara: el calor disipado por estas gráficas de última generación es enorme, y es necesario refrigerar esos componentes para mantener a raya las temperaturas generadas. Los ventiladores y los elementos pasivos —disipadores, heatpipes— ayudan, pero además es necesario que el flujo de aire caliente pueda liberarse de forma eficiente, y para eso —y para meter todos esos componentes y elementos— se necesita espacio. Mucho.
La cosa puede ir a más. Todo lo que venimos leyendo de las futuras RTX 4000 y las Radeon RX 7000 plantea una situación similar o peor en ese sentido: las RTX 4090 plantean consumos de 450 W, mientras que las GPUs NAVI 31 de AMD que integrarán las hipotéticas Radeon RX 7900 XT tendrán un consumo que rondará los 400 W.
Los PC gaming compactos, grandes perjudicados. Es de esperar que por tanto estas graficas sean tan enormes y pesadas (o más) que los actuales buques insignia de ambos fabricantes. Eso es mala noticia para quienes gustan de construirse equipos gaming compactos, pero si eso no es un problema para ti, atento porque ambas futuras generaciones de gráficas plantean saltos de rendimiento espectaculares.
Ver 33 comentarios
33 comentarios
romano83
Es muy simple, el mercado se regula solo:
1. Si la gente demanda hornos-gpu de +450W que requieran fuentes enormes, se seguirán ofertando y subiendo precios.
2. Si la gente como yo, no está dispuesta a meter en su PC, como está el patio con el coste de la electricidad, GPUs de semejante tamaño y consumo (y precio), y en cambio demanda aumento de eficiencia (rendimiento/Watio) en niveles moderados (300W máximo) y precios contenidos (gama media y media-alta), tanto Nvidia como AMD (ya veremos Intel) competirán en esa gama en precio y eficiencia energética. Es un Win-win para los usuarios ser exigentes y no comprar nada a precios absurdos, máxime cuando nos han maltratado durante dos años subiendo precios y vendiendo millones de GPUs directamente a los mineros.
Salu2.
Trocotronic
Os habéis dejado la muletilla “y eso es bueno”, “y eso es malo”.
tmpmds
"en la RTX 3090 Ti ese consumo puede llegar a los 450 vatios". Madre del amor hermoso... Qué dolor solo de leerlo!!
Yo creo que se está yendo un poco de las manos este tema. Y la siguiente generación, qué? >500W??
¿Qué tal si al menos en una generación nos centramos en mantener más o menos el rendimiento pero bajar el tamaño y el consumo aprovechando las mejoras de las foundries y añadiendo rediseños enfocados al consumo?
Si alguien realmente necesita tanta, tantísima potencia gráfica (y no para minar!), pues que se ponga 2 GPUs con SLI o similar. Pero esto de tirar por una mega-GPU monolítica enorme y complejísima que consume lo que no está escrito, ufff...
Yo creo que a estas alturas, en las que la calidad de render a 4K y 60hz es brutal, quizás sería momento de replantearse esta política. Hacer un poco como hizo Voodoo Graphics en su momento, pero evidentemente adaptados a los tiempos actuales. Si quieres render 8K a >120hz para VR, pues de momento monta 2 núcleos de GPU. Ó 4. En el mismo encapsulado. Pero hazlas tremendamente eficaces.
No soy especialmente seguidor de Apple, pero me encanta lo que han hecho y hacen con los M1 y compañía. Eficacia brutal y rendimiento al nivel máximo actual (o incluso algo más). Pues vayamos también por ese camino con las GPUs, que ya rinden muy, muy bien.
reiizumi
Las gráficas son como los televisores, cada vez les meten más cosas, pero la gente de a pie no vemos la diferencia. Menos en la cartera, que te la dejan vacía de golpe.
Hecho de menos los modelos "silent", gráficas que habían sido optimizadas una y otra vez hasta ser las mejores posibles de su gama, y sin ventiladores.
No hace falta que los modelos RTX lleguen a estos extremos, pero la gran mayoría de gente no queremos esa "supuesta potencia de más", queremos algo viable:
- Tamaño razonable en tu PC. Cabe recordar que las cajas actuales se diseñaron con el año de los lectores de CD/DVD, con la desaparición de estos y de los HDD, el tamaño de la caja está totalmente desproporcionado. Con la mitad tienen de sobra.
- Una cartera que llore menos, que actualmente llora cuando compras la gráfica ¡y cuando la usas!
- Dejar el aire acondicionado para ti, en vez de tener que meterlo dentro de la caja.
reyang
Aca lo que debemos hacer nosotros como consumidores, es poner un alto a esto y no comprar semejantes monstruos de tarjetas tanto en tamaño como en consumo, para que los fabricantes entiendan que el camino debe ser por encima de todo mejorar la eficiencia sin disparar el consumo.
Hechs
Más de 200 watios para una tarjeta gráfica es una salvajada. Ni hablar de la 3090 Ti...
nessness
Hay que empezar a poner los gabinetes acostados sino se van a torcer los conectores...
Usuario desactivado
Toda esa capacidad de calculo
gastada solo para que el avatar luzca mas realista.... Las GPU deberian ser de uso general. Como un coprocesador. Si alguien las usa para
juegos, muy bien, pero deberia ser facil usarlas para procesamiento. Como hacen los mineros de bitcoin pero en otros campos, como tener tu propia IA en casa.
Nuker
Recuerdo hace 15 y 20 años cuando compré la ATI Radeon HD2600 XT pcie de 256MB DDR4 era lo último, reventé a los 5 meses la fuente de 450W, pasé a otra de 550W, lo mismo, se le reventaron los capacitores de la salida de 12v, que los reemplace, pero tampoco duraron mucho. Años después adquirí lo mejor del momento, la ATI Radeon HD4890 OC 1GB GDRR5 PCIe, un ladrillo que consumía 192w (una animalada para la época), y que en la realidad (Full Load) eran más... Reventó otra de 700w recuerdo. Actualmente hace 4 años tengo la GTX 1060 6GB Windforce de 120w que la elegí por su bajo consumo. Pero tanto jugar varias hs al día sin descanso, al COD War World 2 modo zombis nazis y al Crysis 3, etc, reventé una Thermaltake 750w Modular. Ahora tengo otra Thermaltake Smart 700w (busqué la más barata) pero esta vez, juego poco y Santo remedio, ya hace 2 años que anda perfecto. Así que ni mal de la cabeza compraría algo que consuma más de 160W, ni 1 solo watt más que eso. Cuando se jode la fuente, es un dolor de cabeza porque generalmente comienzan regulando mal, con tildadas, bluescreens, y reinicios "aleatorios" hasta que se joden del todo y pueden quemar otras partes en el camino. Si consume 1w más de esos 160w, ya ni la miro asi sea la Deep Blue o la Skynet. Saludos
xolan
Pues a migrar a las laptops.
sergio71
Si mal no recuerdo la GTX 480 llegaba a consumir 700W, despues las generaciones siguientes se estabilizaron y rondaban los 250W
Posiblemente la GTX 4090 sea el ultimo moustro come watts y las 2 siguientes generaciones sean de optimización, equiparando rendimiento con bajo consumo
frkwot5
El que no lo vea, que se limpie las gafas, pero dentro de poco el PC como lo conocemos con tantos componentes desaparecerá.....todo será gráfica y punto
Nuker
Hola, si amigo... eso durante 2 décadas... cambié 4 veces donde vivía, casa, departamento, de nuevo otro depto. más y ahora en una casa con toda la instalación nueva, hasta puse cables de 3 mm y la corriente donde estoy es estable (Argentina).
Lo de la GTX 1060 6GB OC que reviente la Thermaltake 750 modular no la esperaba, todavía tengo la 1060 ahora mismo. Yo le atribuyo a las horas de juego que pasé jugando durante meses, hubo un tiempo que le daba como loco al Call of Duty World War II modo Zombis Nazis y notaba que la PC calentaba mucho con ese juego, pasa que yo estaba de 3 a 4 o más hras seguidas y si jugaba por ej al Crysis 3 esas mismas hrs la pc no calentaba tanto. Es un Ryzen 3600X - 32GB DDR4 3600MHz - Samsung 970 EVO 500 NVMe - WD M.2 2TB - Sound Blaster Audigy RX y ahora la Thermaltake Smart 700 (esta no es modular), la anterior modular 750w me duró 3 años. Sigo con la misma pc, solo que ahora uso mucho los Emuladores. Me agarró lo de lo retro, debe ser la edad... muchos años de vicio con los games estos.... ja. Saludos.
adar48
Que hay de las primeras computadoras de antaño que eran gigantescas??
Donde ni siquiera tenían tarjetas gráficas (me parece) y como mucho tenían 3 mb de almacenamiento xD
Aunque llegamos al punto que podemos tener una supercomputadora portátil gaming (me refiero a las laptops, como la Asus Rog SE (2022) y la MSI TITAN más reciente) por las exigencias de nuevos programas y juegos, las gráficas no dan abasto ahora, ya había pasado con el juego Crysis de Crytek, que cuando salió era demasiado para las computadoras de aquel entonces y ahora estamos viendo juegos y demos de programas con texturas, luces y ambientes hiperrealistas, nada más miremos Red Dead Redemption que aunque salió hace pocos años aún compite como uno de los juegos más bellos de la historia y adivinen qué?, se le pueden meter mods para mejorarlo todavía más y que parezca que es de la vida misma, vi esos mods y parecía que podías sacar una captura de pantalla en cualquier momento y que fuera tu nuevo fondo de escritorio.
Ojalá en algún momento logren mejorar las gráficas y procesadores para una mejor eficiencia energética o capaz cambian los procesos de fabricación o los elementos que componen estos componentes, porque a veces pienso que la lotería del silicio es una barbaridad xD