NVIDIA GeForce RTX 4090, análisis: esta bestia arrasa con todo. Incluso con la monstruosa 3090 Ti

La nueva tarjeta gráfica insignia de NVIDIA ya está aquí. Jensen Huang, el director general de esta compañía, dio a conocer el pasado 20 de septiembre tanto la GeForce RTX 4090 a la que vamos a dedicar íntegramente este análisis como la también muy prometedora, aunque sobre el papel algo menos ambiciosa, GeForce RTX 4080.

Las mejoras que nos prometen estas tarjetas gráficas son las que los entusiastas de los juegos podíamos esperar: un rendimiento más alto a cualquier resolución, pero, sobre todo, a altas resoluciones y al emplear el trazado de rayos. Pero hay algo más. En teoría una de sus bazas más contundentes es la tecnología de reconstrucción de la imagen mediante inteligencia artificial DLSS 3.

Esta innovación nos promete un rendimiento más alto en las condiciones más exigentes, menos latencia, y, de propina, una calidad de imagen más alta y menos artefactos de movimiento. No obstante, la GeForce RTX 4090 no es solo una solución gráfica para juegos. De hecho, esta tarjeta ha sido dimensionada, al igual que la GeForce RTX 3090 Ti, para lidiar con suficiencia con un escenario de creación de contenidos muy exigente. Veamos cómo se las gasta.

NVIDIA GeForce RTX 4090: especificaciones técnicas


nvidia geforce rtx 4090

nvidia geforce rtx 3090 ti

nvidia geforce rtx 4080

NVIDIA GEFORCE RTX 3080 TI

arquitectura

Ada Lovelace

Ampere

Ada Lovelace

Ampere

transistores

76 000 millones

28 300 millones

No disponible

28 300 millones

fotolitografía

4 nm TSMC

8 nm Samsung (tecnología de integración personalizada para NVIDIA)

4 nm TSMC

8 nm Samsung (tecnología de integración personalizada para NVIDIA)

núcleos cuda

16 384

10 752

9728 (16 GB)

7680 (12 GB)

10 240

núcleos rt

128 (3ª generación)

84 (2ª generación)

76 (3ª generación)

80 (2ª generación)

núcleos tensor

512 (4ª generación)

336 (3ª generación)

304 (4ª generación)

320 (3ª generación)

unidades de cálculo (cu)

128

84

76

80

caché de nivel 1

128 Kbytes (por SM)

128 Kbytes (por SM)

128 Kbytes (por SM)

128 Kbytes (por SM)

frecuencia de reloj máxima

2,52 GHz

1,86 GHz

2,51 GHz (16 GB)

2,61 GHz (12 GB)

1,67 GHz

memoria dedicada

24 GB GDDR6X

24 GB GDDR6X

16 GB GDDR6X o 12 GB GDDR6X

12 GB GDDR6X

bus de memoria

384 bits

384 bits

256 bits (16 GB)

192 bits (12 GB)

384 bits

velocidad de transferencia de la memoria

1008 GB/s

1008 GB/s

735 GB/s (16 GB)

912 GB/s

shader tflops (fp32)

90

40

49

34

operaciones de rasterización

192 ROP/s

112 ROP/s

96 ROP/s

112 ROP/s

unidades de mapas de texturas

512

336

304

320

tasa de texturas

1290 Gtexeles/s

625 Gtexeles/s

761,5 Gtexeles/s

532,8 Gtexeles/s

tasa de píxeles

483,8 Gpíxeles/s

208,3 Gpíxeles/s

240,5 Gpíxeles/s

186,5 Gpíxeles/s

directx 12 ultimate

interfaz pci express

PCIe 4.0

PCIe 4.0

PCIe 4.0

PCIe 4.0

revisión hdmi

2.1

2.1

2.1

2.1

revisión displayport

1.4a

1.4a

1.4a

1.4a

dlss

3

2

3

2

ranuras ocupadas

3

3

3 (16 GB)

2 o 3 (12 GB)

2

temperatura máxima de la gpu

90 ºC

92 ºC

90 ºC

93 ºC

consumo medio

450 vatios

450 vatios

320 vatios

350 vatios

potencia recomendada para la fuente de alimentación

850 vatios

850 vatios

750 vatios

750 vatios

conectores de alimentación

3 x 8 pines o 1 cable PCIe Gen 5 de 450 vatios o más

3 x 8 pines

16 GB: 3 x 8 pines o 1 cable PCIe Gen 5 de 450 vatios o más

12 GB: 2 x 8 pines o 1 cable PCIe Gen 5 de 300 vatios o más

2 x 8 pines

precio

2099,89 euros

1576,84 euros

Desde 1469 euros (16 GB)

Desde 1099 euros (12 GB)

1563,76 euros

Inno3D GeForce RTX 4090 X3 OC 24 GB GDDR6X

La arquitectura Ada Lovelace de la GeForce RTX 4090, bajo nuestra lupa

NVIDIA no se ha andado con delicadezas a la hora de comunicar qué  representa para esta compañía la llegada de la arquitectura Ada Lovelace: un salto gigantesco en términos de rendimiento y eficiencia.

En cualquier caso, más allá de la apuesta por la tecnología de integración de 4 nm de TSMC en detrimento de la litografía de 8 nm de Samsung utilizada en la fabricación de los procesadores gráficos GeForce RTX 30, las nuevas GPU de NVIDIA nos entregan una nueva generación de núcleos RT y núcleos Tensor, así como más núcleos CUDA que nunca.

También llegan de la mano de frecuencias de reloj más altas e implementan tecnologías de procesado de la imagen más sofisticadas. Así se las gastan las brutales (y caras) GeForce RTX 40.

Más núcleos CUDA, y, además, llegan los núcleos RT de 3ª generación

Los núcleos CUDA se responsabilizan de llevar a cabo los cálculos complejos a los que se enfrenta una GPU para resolver, entre otras tareas, la iluminación general, el sombreado, la eliminación de los bordes dentados o la física. Estos algoritmos se benefician de una arquitectura que prioriza el paralelismo masivo, por lo que cada nueva generación de GPU de NVIDIA incorpora más núcleos CUDA.

La arquitectura de los núcleos CUDA prioriza el paralelismo masivo, de ahí que cada nueva generación de GPU de NVIDIA incorpore más unidades de este tipo

Como cabía esperar, los procesadores gráficos de la familia GeForce RTX 40 tienen muchos más núcleos de este tipo que sus predecesores. De hecho, la GPU GeForce RTX 4090 incorpora 16 384 núcleos CUDA, mientras que la GeForce RTX 3090 Ti se conforma con 10 752. La GeForce RTX 4080 de 16 GB tiene 9728, y la versión de 12 GB incorpora 7680 núcleos CUDA. La GeForce RTX 3080 Ti las supera a ambas con sus 10 240 núcleos de este tipo, pero la RTX 3080 se coloca entre las dos versiones de la RTX 4080 con sus 8704 núcleos CUDA.

Los núcleos RT (Ray Tracing), por otro lado, son las unidades que se encargan expresamente de asumir una gran parte del esfuerzo de cálculo que requiere el renderizado de las imágenes mediante trazado de rayos, liberando de este estrés a otras unidades funcionales de la GPU que no son capaces de llevar a cabo este trabajo de una forma tan eficiente. Son en gran medida responsables de que las tarjetas gráficas de las series GeForce RTX 20, 30 y 40 sean capaces de ofrecernos ray tracing en tiempo real.

NVIDIA asegura que sus núcleos RT de 3ª generación duplican el rendimiento de sus predecesores al procesar las intersecciones de los triángulos

NVIDIA asegura que sus núcleos RT de 3ª generación duplican el rendimiento de sus predecesores al procesar las intersecciones de los triángulos que intervienen en el renderizado de cada fotograma. Además, estos núcleos incorporan dos nuevos motores conocidos como Opacity Micromap (OMM), o 'micromapa de opacidades', y Displaced Micro-Mesh (DMM), que podemos traducir como 'micromalla de desplazamientos'.

Dejando a un lado los detalles más complejos, el motor OMM tiene el propósito de acelerar el renderizado mediante trazado de rayos de las texturas empleadas en la vegetación, las vallas y las partículas. El procesado de estos tres elementos representa un gran esfuerzo para la GPU, y el objetivo de este motor es, precisamente, aliviarlo. Por otro lado, el motor DMM se encarga de procesar las escenas que contienen una gran complejidad geométrica para hacer posible el renderizado en tiempo real mediante trazado de rayos.

Los núcleos Tensor evolucionan: llega la 4ª generación

Al igual que los núcleos RT, los núcleos Tensor son unidades funcionales de hardware especializadas en resolver operaciones matriciales que admiten una gran paralelización, pero estos últimos han sido diseñados expresamente para ejecutar de forma eficiente las operaciones que requieren los algoritmos de aprendizaje profundo y la computación de alto rendimiento. Los núcleos Tensor ejercen un rol esencial en la tecnología DLSS (Deep Learning Super Sampling), de ahí que tengan un claro protagonismo en la reconstrucción de la imagen mediante DLSS 3.

Según NVIDIA, la 4ª iteración de estos núcleos es mucho más rápida que su predecesora, logrando multiplicar su rendimiento por cinco en determinadas circunstancias. Un apunte interesante: el motor de transformación FP8 utilizado por primera vez por esta marca en estos núcleos para llevar a cabo cálculos con números en coma flotante de 8 bits procede de la GPU H100 Tensor Core diseñada por NVIDIA expresamente para los centros de datos que trabajan con algoritmos de inteligencia artificial.

Estas dos tecnologías nos prometen marcar la diferencia en las GeForce RTX 40

El esfuerzo computacional que conlleva el renderizado en tiempo real de un fotograma mediante trazado de rayos es descomunal. Esta es la razón por la que cada nueva generación de procesadores gráficos no puede conformarse únicamente con introducir una cantidad mayor de las mismas unidades funcionales presentes en sus predecesoras.

La fuerza bruta importa, pero no es suficiente en absoluto. También es imprescindible elaborar estrategias que consigan abordar los procesos involucrados en el renderizado de una forma más inteligente. Más ingeniosa.

Las tecnologías 'Shader Execution Reordering' y 'Ada Optical Flow Accelerator' persiguen incrementar el rendimiento de la GPU abordando las tareas involucradas en el renderizado de la forma más eficiente posible

Este es el enfoque que pone sobre la mesa NVIDIA con las GPU GeForce RTX 40, y a nosotros nos parece la opción correcta. Precisamente las dos tecnologías en las que estamos a punto de indagar, conocidas como Shader Execution Reordering (SER) y Ada Optical Flow Accelerator, persiguen llevar a la práctica este propósito: incrementar el rendimiento de la GPU abordando las tareas involucradas en el renderizado que desencadenan un mayor esfuerzo computacional de la forma más eficiente posible.

La tecnología Shader Execution Reordering (SER) se responsabiliza de optimizar los recursos de la GPU reorganizando en tiempo real y de una manera inteligente los sombreadores (shaders), que son los programas que llevan a cabo los cálculos necesarios para resolver los atributos esenciales del fotograma que se está renderizando, como la iluminación o el color.

De alguna forma esta técnica lleva a cabo un procedimiento similar a la ejecución superescalar de las CPU, lo que, según NVIDIA, permite a la tecnología SER multiplicar por tres el rendimiento del renderizado mediante trazado de rayos, incrementando, por el camino, la cadencia de imágenes por segundo en hasta un 25%. No pinta nada mal.

Por otro lado, la tecnología Ada Optical Flow Accelerator tiene el propósito de predecir qué objetos se van a desplazar entre dos fotogramas consecutivos para entregar esa información a la red neuronal convolucional involucrada en la reconstrucción de la imagen mediante DLSS 3.

Según NVIDIA esta estrategia multiplica por dos el rendimiento de la anterior implementación de la tecnología DLSS, y, a la par, mantiene intacta la calidad de imagen. De nuevo, suena muy bien, pero los usuarios tendremos que ir comprobando poco a poco si realmente esta innovación está a la altura de las expectativas que está generando.

NVIDIA nos promete que las GeForce RTX 40 son más eficientes que las RTX 30

Una de las consecuencias de la adopción de la tecnología de  integración de 4 nm de TSMC frente a la litografía de 8 nm utilizada por  Samsung para fabricar las GPU de la familia GeForce RTX 30 consiste en  que los últimos procesadores gráficos de NVIDIA deberían ser perceptiblemente más eficientes. Y sí, eso es precisamente lo que nos promete esta marca.

Según NVIDIA la temperatura máxima que alcanzan bajo estrés las GPU GeForce RTX 4090 y 4080 asciende a 90 ºC

La diapositiva que publicamos debajo de estas líneas describe la relación que existe entre la energía consumida y el rendimiento que nos entregan las GPU con arquitectura Turing, Ampere y Ada Lovelace. Y, efectivamente, esta última implementación gana por goleada a sus predecesoras. Aun así, no debemos pasar por alto las exigencias de las nuevas tarjetas gráficas de NVIDIA si nos ceñimos a su consumo eléctrico.

Según NVIDIA la temperatura máxima que alcanzan bajo estrés las GPU GeForce RTX 4090 y 4080 asciende a 90 ºC, pero el consumo medio de la RTX 4090 roza los 450 vatios, mientras que la RTX 4080 coquetea con los 320 vatios. Por otro lado, NVIDIA sugiere que los equipos en los que va a ser instalada una RTX 4090 cuenten con una fuente de alimentación de 850 vatios o más, mientras que la RTX 4080 requiere una fuente de al menos 750 vatios.

DLSS 3 multiplica por cuatro el rendimiento con 'ray tracing'

La técnica de reconstrucción de la imagen empleada por NVIDIA recurre al análisis en tiempo real de los fotogramas de nuestros juegos utilizando algoritmos de aprendizaje profundo. Su estrategia es similar a la que emplean otros fabricantes de hardware gráfico: la resolución de renderizado es inferior a la resolución de salida que finalmente entrega la tarjeta gráfica a nuestro monitor.

El motor gráfico renderiza las imágenes a una resolución inferior a la que esperamos obtener, y después la tecnología DLSS escala cada fotograma a la resolución final

De esta forma el estrés al que se ve sometido el procesador gráfico es menor, pero a cambio es necesario recurrir a un procedimiento que se encargue de escalar cada uno de los fotogramas desde la resolución de renderizado hasta la resolución final. Y, además, debe hacerlo de una forma eficiente porque, de lo contrario, el esfuerzo que hemos evitado en la etapa anterior podría aparecer en esta fase de la generación de las imágenes.

Esta es la fase en la que entra en acción la inteligencia artificial que ha puesto a punto NVIDIA. Y los núcleos Tensor de la GPU. El motor gráfico renderiza las imágenes a una resolución inferior a la que esperamos obtener, y después la tecnología DLSS escala cada fotograma a la resolución final aplicando una técnica de muestreo mediante aprendizaje profundo para intentar recuperar el máximo nivel de detalle posible.

En las imágenes que hemos utilizado para ilustrar este artículo podemos ver que el procedimiento implementado en DLSS 3 es más complejo que el utilizado por DLSS 2. De hecho, la nueva técnica de reconstrucción de la imagen de NVIDIA aprovecha la presencia de los núcleos Tensor de cuarta generación de las GPU GeForce RTX 40 para hacer posible la ejecución de un nuevo algoritmo de reconstrucción llamado Optical Multi Frame Generation.

'Optical Multi Frame Generation' analiza dos imágenes secuenciales del juego en tiempo real y calcula la información del vector que describe el movimiento de todos los objetos

En vez de abordar la reconstrucción de cada fotograma trabajando con píxeles aislados, que es lo que hace DLSS 2, esta estrategia genera fotogramas completos. Para hacerlo analiza dos imágenes secuenciales del juego en tiempo real y calcula la información del vector que describe el movimiento de todos los objetos que aparecen en esos fotogramas, pero que no son procesados por el motor del propio juego.

Según NVIDIA esta técnica de reconstrucción de la imagen consigue multiplicar por cuatro la cadencia de imágenes por segundo que nos entrega DLSS 2. Y, lo que también es muy importante, minimiza las aberraciones y las anomalías visuales que aparecen en algunos juegos al utilizar la anterior revisión de esta estrategia de reconstrucción de la imagen.

El procesado de los fotogramas en alta resolución y los vectores de movimiento se alimentan de una red neuronal convolucional

Un apunte interesante más: el procesado de los fotogramas en alta resolución y los vectores de movimiento se alimentan, según nos explica NVIDIA, de una red neuronal convolucional que analiza toda esta información y genera en tiempo real un frame adicional por cada fotograma procesado por el motor del juego.

Para concluir, ahí va otra promesa de esta compañía: DLSS 3 puede trabajar en tándem con Unity y Unreal Engine, y durante los próximos meses llegará a más de 35 juegos. De hecho, es posible habilitar esta técnica en poco tiempo en aquellos títulos que ya implementan DLSS 2 o Streamline.

La sobrecogedora GeForce RTX 4090 Founders Edition, en detalle

La presencia física de esta tarjeta gráfica impone. Más, incluso, que la también monstruosa GeForce RTX 3090 Ti. La versión Founders Edition que hemos analizado mide 304 x 137 mm, roza los 2,2 kg y acapara nada menos que tres ranuras (61 mm) de la caja de nuestro PC. Por esta razón os recomendamos que antes de haceros con una solución gráfica tan voluminosa os cercioréis de que entra con cierta holgura en el interior de vuestro ordenador. Eso sí, a nosotros esta versión desarrollada por la propia NVIDIA nos parece elegantísima.

El siguiente requisito importante que merece la pena que no pasemos por alto es el consumo medio de esta GeForce RTX 4090, que, según NVIDIA, roza los 450 vatios. La fuente de alimentación que nos recomienda esta marca debe tener una capacidad de entrega de potencia de al menos 850 vatios, aunque, como es lógico, los usuarios podemos matizar esta cifra dependiendo del consumo de los demás componentes con los que esta solución gráfica va a convivir en nuestro PC, especialmente del de la CPU.

En la siguiente fotografía de detalle podemos ver con claridad la salida de aire alojada junto a los conectores DisplayPort y HDMI. Esta tarjeta incorpora tres salidas DisplayPort 1.4a ideales para instalaciones multimonitor, y, al igual que las RTX 30, también tiene una salida HDMI que implementa la norma 2.1 y que nos permite enviar la señal de vídeo a un televisor (lo ideal es que también sea compatible con este estándar para poder sacar partido a las prestaciones vinculadas a él).

En la siguiente fotografía podemos ver qué aspecto tiene el adaptador que nos permite enlazar cuatro conectores de alimentación de 8 pines con la toma de alimentación integrada en la tarjeta. NVIDIA asegura que solo necesitamos utilizar tres cables PCIe de 8 pines, de manera que el cuarto solo es necesario si decidimos practicar overclocking. No obstante, también tenemos la opción de prescindir de este adaptador si nuestra fuente de alimentación incorpora un cable PCIe Gen 5 de 450 vatios o más.

¿Adivináis cuál es la GeForce RTX 4090 en la siguiente fotografía? Es la de la base, y sobre ella hemos colocado una GeForce RTX 3090 Ti. La RTX 4090 es un poco más alta, y la RTX 3090 Ti es ligeramente más larga. En cualquier caso, ambas soluciones gráficas son imponentes. Hace pocos años probablemente no habríamos imaginado que estas tarjetas iban a adquirir una envergadura de este calibre.

La siguiente fotografía solo tiene un interés meramente anecdótico, pero ilustra con claridad cuál es el tamaño de la nueva GeForce RTX 4090. Como podemos ver, es igual de alta que una consola Xbox Series X y solo un poco menos ancha. Ahí queda eso.

El rendimiento de la RTX 4090 es de otro mundo (con y sin DLSS 3)

La configuración de la plataforma de pruebas que hemos utilizado para evaluar el rendimiento de esta tarjeta gráfica es la siguiente: microprocesador AMD Ryzen 9 5950X con 16 núcleos (32 hilos de ejecución); dos módulos de memoria Corsair Dominator Platinum DDR4-3600 con una capacidad conjunta de 16 GB y una latencia de 18-19-19-39; una placa base ASUS ROG Crosshair VIII Hero con chipset AMD X570; una unidad SSD Samsung 970 EVO Plus con interfaz NVMe M.2 y una capacidad de 500 GB; y, por último, un sistema de refrigeración por aire para la CPU Corsair A500 con ventilador de rodamientos por levitación magnética.

Otro elemento muy importante de nuestra plataforma de análisis es el monitor que hemos utilizado en nuestras pruebas: un ROG Strix XG27UQ de ASUS equipado con un panel LCD IPS de 27 pulgadas con resolución 4K UHD y capaz de trabajar a una frecuencia de refresco máxima de 144 Hz. Esta veterana pantalla es una pieza habitual en nuestros análisis y nos permite sacar todo el jugo a cualquier tarjeta gráfica de última generación.

Todas las pruebas las hemos ejecutado con la máxima calidad gráfica implementada en cada juego o test y habilitando la API DirectX 12 en aquellos títulos en los que está disponible. El modo de reconstrucción de la imagen que hemos seleccionado tanto en las tarjetas gráficas de NVIDIA como en las de AMD en aquellos juegos que implementan esta tecnología es el que prioriza el rendimiento. Y, por último, las herramientas que hemos utilizado para recoger los datos son FrameView, de NVIDIA; OCAT, de AMD; y FRAPS. Las tres están disponibles gratuitamente.

No podemos seguir adelante sin detenernos un momento para echar un vistazo a la fuente de alimentación a la que hemos encomendado la tarea de saciar a la siempre hambrienta y exigente GeForce RTX 4090. Durante nuestras pruebas hemos utilizado una fuente Corsair HX1500i modular con una capacidad de entrega de potencia máxima de 1500 vatios y unas prestaciones acordes a la tarjeta gráfica que estamos analizando. De hecho, durante las decenas de horas que han durado nuestras pruebas esta fuente de alimentación se ha comportado de una manera completamente estable. Además, es sorprendentemente silenciosa.

Ha llegado el momento de meternos en harina. En la primera gráfica podemos ver que en la prueba 'Time Spy' de '3DMark' la GeForce RTX 4090 ha arrasado. Si pincháis en la pestaña Graphics Score comprobaréis que ha batido con una contundencia apabullante incluso a la GeForce RTX 3090 Ti. Y, como cabía esperar, en CPU Score las diferencias entre una tarjeta gráfica y otra son mínimas debido a que todas las hemos puesto a prueba con el mismo procesador: un Ryzen 9 5950X de AMD. Y, por supuesto, también con exactamente los mismos componentes.

Ver el gráfico https://infogram.com/untitled-1ho16vono0mnx4n?live

El test 'DLSS Feature' de '3DMark' ha sido diseñado expresamente para evaluar el impacto que tiene en el rendimiento la tecnología de reconstrucción de la imagen DLSS. En la RTX 4090 hemos utilizado DLSS 3, y en las RTX 3090 Ti y 3080 Ti DLSS 2. La nueva versión de DLSS solo es compatible con la microarquitectura Ada Lovelace.

En cualquier caso, la gráfica habla por sí misma: la RTX 4090 es mucho más rápida que las otras dos GeForce RTX tanto al utilizar el DLSS como al prescindir de esta tecnología. De hecho, a 2160p multiplica por más de dos el rendimiento de la RTX 3090 Ti con DLSS, y por casi dos sin DLSS. Menuda proeza.

Ver el gráfico https://infogram.com/untitled-1hdw2jp9pzjqp2l?live

Durante nuestras pruebas hemos tenido acceso a una beta de 'Microsoft Flight Simulator' que nos ha permitido habilitar el soporte DLSS 3 de la RTX 4090. Y, como podéis ver, el rendimiento que arroja esta tarjeta gráfica en este juego es fantástico. Lo mueve bien sin necesidad de recurrir al DLSS, pero al utilizarlo su rendimiento literalmente explota. De hecho, a 2160p roza los 190 FPS, y os aseguro que su calidad gráfica en estas condiciones es apabullante.

Ver el gráfico https://infogram.com/untitled-1h7k230k08kyv2x?live

Siguiente parada: el muy exigente 'Cyberpunk 2077'. Y nos encontramos con más de lo mismo. La RTX 4090 doblega a las demás tarjetas gráficas con una claridad insultante sin necesidad de recurrir a la reconstrucción de la imagen, pero cuando introducimos en la ecuación la tecnología DLSS 3 barre tanto a las GeForce RTX 30 como a las Radeon RX 6000. Un apunte brutal: la RTX 4090 nos permite disfrutar este juego a 2160p, con la máxima calidad gráfica y el trazado de rayos activado con una cadencia media de 134 FPS. Eso sí, con el DLSS 3 activado.

Ver el gráfico https://infogram.com/untitled-1hdw2jp9pzd7p2l?live

En el nuevo, y gráficamente precioso, 'A Plague Tale: Requiem' la RTX 4090, una vez más, se ha impuesto a las dos RTX 30 con una rotundidad aplastante, y a todas las resoluciones. Lo impactante es que casi consigue duplicar el rendimiento de la RTX 3090 Ti en algunos escenarios de prueba. Es muy poco habitual que nos encontremos con un incremento del rendimiento tan alto entre dos generaciones consecutivas de tarjetas gráficas. Nada más que añadir.

Ver el gráfico https://infogram.com/untitled-1hdw2jp9pzo3p2l?live

Este análisis parece un monólogo de la RTX 4090, pero los números son completamente objetivos, y hablan por sí mismos: en 'F1 22' esta tarjeta gráfica vuelve a arrasar. Supera a todas las demás con claridad sin reconstrucción de la imagen, pero al activar el DLSS 3 multiplica por más de dos el rendimiento de su inmediata perseguidora. Disfrutar este juego de Codemasters a 2160p, con la máxima calidad gráfica y trazado de rayos a casi 240 FPS es una auténtica pasada.

Ver el gráfico https://infogram.com/untitled-1h8n6m3v31jkz4x?live

Vamos ahora con un viejo conocido. En 'Doom Eternal' la RTX 4090 no juega la baza de la tecnología DLSS 3, al menos por el momento, pero, aun así, gana con claridad a las otras tarjetas gráficas que hemos probado. El motor gráfico de este juego está increíblemente bien optimizado, lo que permite a la RTX 4090 entregarnos a 2160p y con el trazado de rayos activado nada menos que una cadencia media de más de 250 FPS.

Ver el gráfico https://infogram.com/untitled-1ho16vonokn9x4n?live

Más de lo mismo. La superioridad en 'Control' de la RTX 4090 sin contar con la tecnología DLSS 3 no es tan apabullante como en los títulos que implementan esta técnica de reconstrucción de la imagen. Aun así, bate a las demás tarjetas gráficas con mucha claridad, especialmente a 1440p y 2160p. De hecho, estamos comprobando, como cabía esperar, que el nuevo modelo insignia de NVIDIA ha sido dimensionado para entregarnos todo su potencial con las resoluciones más altas.

Ver el gráfico https://infogram.com/untitled-1h8n6m3v317zz4x?live

Curiosamente, en 'Death Stranding' a 1080p la GeForce RTX 3080 Ti pisa los talones a la RTX 4090, pero a medida que incrementamos la resolución esta última toma ventaja hasta conseguir dejar muy atrás a todas las demás tarjetas gráficas a 2160p. Esta es, sin duda, la resolución a la que la nueva GeForce se siente más cómoda.

Ver el gráfico https://infogram.com/untitled-1h7j4dvgvxxyv4n?live

El último motor gráfico al que vamos a recurrir, el de 'Final Fantasy XV', es una prueba de auténtica fuerza bruta. Aquí no tenemos ni trazado de rayos ni DLSS; solo capacidad de cálculo. Y, de nuevo, la RTX 4090 se impone, aunque lo hace con mucha más claridad, al igual que en 'Death Stranding', a medida que se incrementa la resolución.

Ver el gráfico https://infogram.com/untitled-1hxr4zxyxrqvo6y?live

En la siguiente gráfica podemos ver que la GPU de la GeForce RTX 4090 se ha calentado en las mismas circunstancias perceptiblemente menos que el procesador gráfico de las otras tarjetas. Este es un claro síntoma de que el sistema de refrigeración implementado por NVIDIA en este diseño Founders Edition cumple su cometido.

En cualquier caso, las cinco tarjetas gráficas trabajan bajo estrés en un rango de temperaturas muy razonable, lo que avala el sistema de refrigeración que han puesto a punto tanto los ingenieros de AMD como los de NVIDIA en sus diseños de referencia.

Ver el gráfico https://infogram.com/untitled-1hxr4zxyxr8ko6y?live

Para medir el nivel de ruido máximo emitido por cada tarjeta gráfica bajo estrés utilizamos nuestro sonómetro Velleman DVM805, y, como podéis ver en la siguiente gráfica, el nivel de ruido máximo emitido por la GeForce RTX 4090 es ligeramente superior a la media. Eso sí, sus 61 dB máximos no son exagerados, por lo que este nivel de ruido no representa un problema, especialmente si jugamos con auriculares.

Ver el gráfico https://infogram.com/untitled-1h7z2l8e8zywg6o?live

NVIDIA GeForce RTX 4090: la opinión de Xataka

Honestamente, esta tarjeta gráfica ha superado nuestras expectativas. Y por mucho. No es nada frecuente que nos encontremos con un incremento del rendimiento tan alto entre dos generaciones consecutivas de soluciones gráficas. Los números no necesitan demasiadas aclaraciones: la GeForce RTX 4090 es capaz de mover todos los juegos que hemos probado a 2160p, con la máxima calidad gráfica y trazado de rayos con unas cadencias de imágenes por segundo altísimas. De hecho, superan los 130 FPS en todos los títulos que implementan DLSS 3.

Esta GeForce RTX 4090 ha nacido para lidiar con la resolución 2160p en las condiciones más exigentes posibles

Esta tecnología de reconstrucción de la imagen ha sido todo un descubrimiento. Conocíamos en profundidad las anteriores iteraciones de DLSS, pero esta revisión nos entrega un rendimiento más alto que nunca y una latencia más baja. Y estas cualidades marcan la diferencia en los juegos de acción en primera persona o en los de lucha, entre otros géneros. Ahí va un pequeño anticipo: estamos preparando un análisis en profundidad de la calidad de imagen de la tecnología DLSS 3 que complementará todo lo que os contamos en este artículo.

De una cosa no cabe duda: esta GeForce RTX 4090 ha nacido para lidiar con la resolución 2160p en las condiciones más exigentes posibles. Y DLSS 3 es su mayor aliada para salir airosa de este desafío. ¿Pegas? Solo una: su precio la coloca definitivamente fuera del alcance de la mayor parte de los jugadores. Es una lástima, pero es lo que tienen las tarjetas gráficas insignia en estos tiempos. Si queremos el rendimiento más alto y la mejor calidad gráfica, tenemos que rascarnos el bolsillo. Qué le vamos a hacer.

Inno3D GeForce RTX 4090 X3 OC 24 GB GDDR6X

Esta tarjeta gráfica ha sido cedida para este análisis por NVIDIA. Puedes consultar nuestra política de relaciones con las empresas.

Más información: NVIDIA

Ver todos los comentarios en https://www.xataka.com

VER 74 Comentarios

Portada de Xataka