NVIDIA anunció ayer el lanzamiento de su NVIDIA GeForce RTX 3090 Ti, una versión supervitaminada de aquellas RTX 3090 que se presentaron hace año y medio.
Estamos ante la que se postula como el canto de cisne de la arquitectura Ampere. Todo está aquí llevado a los límites, incluyendo también un precio de 1.999 dólares que nos hace preguntarnos hasta qué punto compensa un producto así. Y no solo por el precio o por la mejora de prestaciones.
Ampere se quiere despedir a lo grande
La gráfica es hasta cierto punto 'aburrida', porque no es más que una sucesora casi natural de la RTX 3090. Se mantiene la GPU GA102 con fotolitografía de 8 nm que estaba presente en el resto de modelos de la familia, pero se la lleva un poco más allá.

Así, en NVIDIA suben la frecuencia de reloj de sus núcleos y la de su memoria (formada por nuevos módulos mejorados GDDR6X). Eso unido al mayor número de núcleos CODA hace que sea posible alcanzar una potencia de 40 TFLOPS en cáculos de precisión simple.
El uso de los nuevos módulos de memoria es además relevante porque ya no es necesario tener módulos en la parte inferior, lo que a su vez evita tener que preocuparse de refrigerar esos chips. Todo está "encima", y el sistema de refrigeración solo se tiene que encargar de mantener buenas temperaturas en en la parte superior/frontal de la gráfica, no en la inferior.
Esa potencia no sale gratis. No lo hace en términos de consumo, porque estamos ante una gráfica que consume ella solita 450 W, cuando la RTX 3090 tenía un TDP de 350 W. Esta es de hecho la primera gráfica que hace uso del nuevo conector 12VHPWR de la especificación ATX 3.0 que tiene 16 pines en lugar de los habituales 12 para estos modelos de alta gama y gran consumo.
La NVIDIA GeForce RTX 3090 Ti está orientada a gamers y a creadores de contenidos, pero de hecho sus responsables admiten que "hoy los juegos gráficamente más intensivos no aprovechan toda la potencia que la RTX 3090 TI ofrece. Y eso está bien".
Estamos pues ante una gráfica que ni siquiera se podrá aprovechar en gaming en la mayoría de escenarios porque es demasiado potente: puede que el juego 8K sea aquí el único reto importante para este modelo, lo que deja claro que esta última edición es un producto para un nicho muy limitado de gamers.
La idea aquí es atraer a los creadores de contenido, que tienen una alternativa interesante a las Titan RTX: el rendimiento en rendering respecto a ellas crece entre un 42% y un 102% según NVIDIA.
Una gráfica (muy) difícil de recomendar
En juegos la mejora es marginal respecto a las RTX 3090, y según NVIDIA la mejora media es del 9% cuando el precio ha crecido un 33% y pasa de los 1.499 a los 1.999 en esta edición "Ti".
Esa es una razón importante para plantearse si realmente vale la pena hacer una inversión así. La otra es aún más llamativa: se espera que este año NVIDIA presente su nueva familia RTX 4000 con GPU AD102, arquitectura Ada y con fotolitografía de 5 nm.
De hecho el modelo estrella podría ser una absoluto monstruo con 18.432 núcleos CUDA (recordemos, este otro monstruo "solo" tiene 10.752) y un consumo que se rumorea podría llegar a máximos de 850 W. Eso daría un rendimiento de las GPUs AD102 que teóricamente sería hasta el doble de lo que ofrecen las actuales GPUs GA102.
Habrá que esperar a confirmar esos rumores, algo que quizás podamos hacer en septiembre, cuando se espera que se presente esa nueva familia de tarjetas gráficas de NVIDIA. A la espera de esos detalles y del precio de esas gráficas, esta última edición de las RTX 3000 parece tener sentido en ámbitos muy, muy concretos.
Ver 27 comentarios
27 comentarios
davidverapinero
Respuesta corta No, respuesta larga No a ese precio y con ese consumo
johnnyconnor
Supongo que, si hay gente que se compra un coche de 800 CV para ir por la calle a 30 Km/h, habrá también quien compre una gráfica de 2000 € o más para mostrar que la tiene más grande [la cartera], aún cuando en muchos escenarios no se aprovecha esa potencia.
Yo aún tengo que amortizar mi vetusta 1050Ti 😭
rogerquerty
He flipado con lo de 450W.
Hasta que he llegado a la parte en que su "sucesora" podría llegar a los 850W. Entonces se me ha pasado.
Usuario desactivado
Puede tener sentido para profesionales de ingenieria que la usen como coprocesador. A proposito, hace años habia tarjetas para PC que traian procesadores para aumentar la potencia de calculo. Me gustaria que Xataka redactara algun articulo sobre como aumentar la capacidad de computo de los PCs de escritorio.
ukos
Vamos, un timo
imf017
No, la pregunta es: ¿tendrá stock alguna vez?
TOVI
Con ese titular tan largo podrían haber añadido: las respuesta es... NO
twikzer
a que te refieres con usuarios finales? a personas particulares que no sean autonomos? (no empresas) por que esas tambien puede comprar las quadro, o te refieres a las geforce?
salomon100
No estoy muy puesto en Graficas. Hablando en Plata, una tarjeta gráfica como esta 3090 Ti, cuantos puede soportar en Juegos Triple AAA con todo al maximo??
Quizas 4k a 240 fps estables??
8k a 120 fps estables??
o cual es su limite??
Usuario desactivado
Con ese consumo lo lógico sería que Endesa las subvencionará, sería un negocio perfecto.
pererecuda
Es que ya Nvidia se permite cualquier cosa....mofarse en la cara de los usuarios directamente con burlas como esta. Superándose día a día en inflar los precios de sus gráficas. Y mira que es difícil.
recluso
Es un timo hasta para los mineros.
palamos2000
1999 jaaujaja ni la 3090 se vende a ese precio de 2300 no bajan por tanto esta ti no bajara de los 3000
enertecs
como soy de latam esta gráfica la podré comprar recién en el 2026 además de ya contar con mi sistema ongrid aunque ya en ese año vaya en la ztx 5200...pero que aún me apaño con la gtx1060.