La tarjeta gráfica suele apropiarse de una parte importante del presupuesto que dedicamos a nuestros ordenadores, sobre todo si estamos decididos a poner a punto un PC para juegos o creación de contenidos medianamente ambicioso. No cabe duda de que es un componente que tiene un impacto enorme en nuestra experiencia, por lo que una elección desacertada podría echar por tierra nuestras expectativas y obligarnos a cambiarlo mucho antes de lo que habíamos previsto. Afortunadamente, podemos evitarlo.
Este artículo es la cuarta entrega de una guía extensa en la que los principales componentes y los periféricos más relevantes de un PC tendrán su dosis de protagonismo. Nuestra intención es ayudar a los usuarios que han decidido montar un equipo a la medida a encontrar los componentes que resuelven mejor sus necesidades y encajan mejor en su presupuesto, y para lograrlo dedicaremos a la mayor parte de ellos un artículo en exclusiva. La protagonista indiscutible de este artículo es la tarjeta gráfica de la misma forma en que en las anteriores entregas de la guía hablamos de la placa base, el procesador y la memoria principal.
La tarjeta gráfica, en detalle: estas son las características que más nos interesan
Antes de que profundicemos en las especificaciones y las tecnologías con las que nos interesa familiarizarnos para encontrar la solución gráfica que resuelve mejor nuestras necesidades es interesante que nos planteemos cuándo es aconsejable que instalemos en nuestro PC una tarjeta gráfica dedicada. Y es que no siempre es necesario dedicar una parte de nuestro presupuesto a este componente. La lógica gráfica que han incorporado tanto AMD como Intel a sus últimas familias de microprocesadores tiene la potencia necesaria para resolver con suficiencia algunos escenarios de uso.
Si nuestro objetivo es diseñar y construirnos un PC exclusivamente para ofimática, navegación en Internet y reproducción de contenidos, no necesitaremos una tarjeta gráfica dedicada. Los gráficos implementados en los procesadores Ryzen de 3ª generación de AMD y en los Core de 10ª generación de Intel, así como en iteraciones anteriores de estos chips, son perfectamente capaces de resolver este escenario de uso. Eso sí, es importante que nos cercioremos de que elegimos un microprocesador que incorpore lógica gráfica porque no todos la integran.
Dedicar una parte de nuestro presupuesto a una tarjeta gráfica tiene todo el sentido si queremos usar nuestro PC para jugar y crear contenidos, pero esto no significa que con los gráficos integrados en la CPU no podamos jugar y crear
Dedicar una parte de nuestro presupuesto a una tarjeta gráfica discreta tiene todo el sentido si queremos utilizar nuestro PC para jugar y crear contenidos, pero esto no significa que con los gráficos integrados en la CPU no podamos jugar y crear. Si lo hacemos ocasionalmente y nos basta jugar a 1080p, con una cadencia de imágenes que habitualmente se moverá entre 30 y 60 FPS, y aceptamos que la calidad gráfica no sea siempre la más alta, la lógica gráfica implementada en algunos procesadores de Intel y AMD nos bastará. Los gráficos integrados más capaces, y los que mejor experiencia nos ofrecerán, son los Radeon RX Vega 11 que podemos encontrar en algunos procesadores Ryzen de 2ª y 3ª generación, y los HD Graphics 630 que nos propone Intel en algunos de sus microprocesadores Core de última hornada.
Pero si queremos utilizar nuestro PC para jugar a 1080p o resoluciones superiores con la máxima calidad gráfica posible y cadencias de imágenes por segundo sostenidas de 60 FPS o más, la mejor opción es apostar por una tarjeta gráfica discreta. Lo mismo sucede con la creación de contenidos. Si editamos vídeo, diseñamos en 3D o realizamos animaciones, y necesitamos que nuestro equipo nos ofrezca una experiencia lo más satisfactoria posible en este escenario de uso, nos vendrá muy bien tener una tarjeta gráfica dedicada. Aunque, eso sí, la creación de contenidos no suele ser tan exigente con el hardware gráfico como los juegos, especialmente los de última hornada.
En la siguiente sección del artículo indagaremos en el porfolio actual de soluciones gráficas de AMD y NVIDIA, pero antes de hacerlo nos interesa familiarizarnos con las especificaciones y las tecnologías que van a ayudarnos a identificar qué nos proponen las tarjetas gráficas que tenemos en el punto de mira. Algunas de esas características, como el filtrado de texturas, las técnicas de sombreado, el suavizado de los bordes dentados o el trazado de rayos, tienen un impacto directo en la calidad de imagen. Y otras, como la frecuencia de reloj a la que trabajan la GPU y la memoria o el número de núcleos gráficos, condicionan claramente las cadencias de fotogramas por segundo sostenida y máxima que nos va a ofrecer nuestra tarjeta gráfica.
Procesador gráfico o GPU (‘Graphics Processing Unit’)
La GPU es el auténtico corazón de nuestra tarjeta gráfica. Al igual que la CPU es un circuito integrado muy complejo que integra varios miles de millones de transistores diminutos y varios núcleos que tienen capacidad de procesamiento independiente. Sin embargo, aquí acaba el parecido entre estos dos componentes. Y es que la arquitectura de la CPU y la GPU persiguen objetivos muy diferentes. El paralelismo, una propiedad que podemos definir como la capacidad que tiene un circuito integrado de procesar varias tareas simultáneamente, es muy importante cuando ejecutamos algunas aplicaciones en una CPU, como, por ejemplo, las herramientas de renderizado en 3D. Sin embargo, el paralelismo en una GPU no solo es muy importante; es crucial.
Las tareas que debe llevar a cabo una GPU para generar los gráficos que vemos en nuestro monitor se caracterizan por exigir un esfuerzo de cálculo muy grande, y, sobre todo, por ser paralelizables de una forma muy natural. Esta es la razón por la que los procesadores gráficos tienen una cantidad de núcleos muy superior a la de las CPU. Habitualmente estas últimas tienen entre 2 y 64 núcleos, que pueden implementar o no la tecnología SMT (Simultaneous Multi-Threading) para que cada uno de ellos sea capaz de procesar hasta dos hilos de ejecución simultáneamente. Sin embargo, una GPU moderna puede incorporar hasta más de 4.000 núcleos, que, eso sí, son más pequeños y sencillos que los núcleos de una CPU.
Las arquitecturas implementadas por AMD y NVIDIA en sus procesadores gráficos son muy diferentes, pero tienen algo muy importante en común: ambas han sido diseñadas para asumir enormes cargas de trabajo en paralelo de la forma más eficiente posible. Lo curioso es que no solo los juegos y las aplicaciones gráficas pueden sacar partido a la enorme capacidad de procesamiento en paralelo de las GPU; otras herramientas también pueden hacerlo, aunque para lograrlo tienen que haber sido programadas de manera que su código exprese el paralelismo que puede ser ejecutado en una GPU como si esta fuese un procesador de propósito general.
Para ayudar a los programadores a sacar partido al potencial de procesamiento en paralelo que tienen sus GPU, AMD y NVIDIA han desarrollado Radeon Open Compute y CUDA respectivamente. Estas dos plataformas facilitan la escritura de aplicaciones que pueden ejecutar una parte de su código sobre la GPU, liberando de esta forma a la CPU de una parte importante del esfuerzo. Algunas de las herramientas comerciales que pueden aprovechar los recursos de los procesadores gráficos actuales son Photoshop, Premiere Pro, AutoCAD, CATIA, SolidWorks o 3ds Max, entre muchas otras aplicaciones. Lo interesante de todo esto es que la GPU de nuestro PC no tiene un impacto muy profundo solo en los juegos, sino también en algunas de las aplicaciones de edición de vídeo, retoque fotográfico o diseño en 3D con las que algunos usuarios estamos familiarizados.
La frecuencia de reloj en las tarjetas gráficas
El ritmo de trabajo de la GPU y la memoria local integrada en la tarjeta gráfica lo determina la señal de reloj de la misma forma en que también marca la velocidad de trabajo de la CPU y la memoria principal de nuestro PC. La frecuencia de reloj tiene un impacto muy importante en el rendimiento del procesador gráfico, pero no es en absoluto el único parámetro que condiciona su productividad. La cantidad de núcleos que incorpora la GPU, la forma en que están implementados y los algoritmos que intervienen en el renderizado de las imágenes, como las técnicas de sombreado adaptativo, de eliminación de los bordes dentados (antialiasing), el filtrado de las texturas o el ray tracing, también condicionan su rendimiento.
Al igual que la CPU, la GPU no trabaja a una frecuencia de reloj constante. AMD y NVIDIA nos indican dos valores diferentes en las especificaciones de sus procesadores gráficos: las frecuencias de reloj base y máxima. La primera refleja la velocidad a la que trabajan los núcleos de la GPU cuando la mayor parte de ellos está siendo sometida a un estrés importante, y la segunda indica la frecuencia máxima a la que pueden operar algunos de esos núcleos cuando el estrés al que está siendo sometida la GPU no es suficiente para alcanzar su umbral de consumo. Si una tarea es lo suficientemente liviana algunos núcleos podrán incrementar su ritmo de trabajo más allá de la frecuencia de reloj base siempre que, eso sí, la energía total disipada por el procesador gráfico en forma de calor lo mantenga por debajo de su umbral máximo de temperatura.
TFLOPS: qué miden y por qué son importantes
Esta unidad nos permite evaluar el rendimiento de un procesador gráfico midiendo el número de operaciones en coma flotante que es capaz de llevar a cabo en un segundo. Es un dato importante porque nos permite hacernos una idea bastante precisa acerca de la capacidad de cálculo de la GPU, pero no es la única especificación que describe su rendimiento. La forma en que están optimizados los algoritmos que intervienen en el renderizado de las imágenes, que pueden ser aplicados con más o menos ingenio, es otra característica que también suele tener un impacto muy profundo en la productividad del procesador gráfico.
La unidad FLOPS procede del término en inglés Floating point Operations Per Second, y, como hemos visto en el párrafo anterior, se calcula midiendo cuántas operaciones consigue llevar a cabo la GPU en un segundo cuando trabaja con números representados en coma flotante. Esta es una notación que se utiliza habitualmente en cálculo científico porque nos permite representar de una forma eficiente números muy grandes y muy pequeños. Sin embargo, la precisión con la que trabajan las GPU no es siempre la misma. Como podemos intuir, su rendimiento se incrementa cuando se reduce la precisión de los números en coma flotante con los que están trabajando, de ahí que antes de comparar los TFLOPS de dos procesadores gráficos diferentes debamos cerciorarnos de que están trabajando con la misma precisión.
Las notaciones utilizadas habitualmente para representar números en coma flotante son FP32 y FP16 (la ‘F’ y la ‘P’ proceden del término en inglés floating point). La primera de ellas se conoce como precisión simple y nos ofrece una mayor exactitud que la segunda debido a que codifica los números utilizando el formato de coma flotante de 32 bits. FP16, sin embargo, representa los números en coma flotante utilizando 16 bits, por lo que tiene la mitad de precisión que FP32. La diferencia de precisión que existe entre las operaciones FP16 y FP32 provoca que el rendimiento de una GPU sea mayor cuando lleva a cabo las que tienen menor precisión, de ahí que si utilizamos los TFLOPS para comparar la productividad de dos procesadores gráficos debamos comprobar que están describiendo el mismo tipo de operaciones.
‘Ray tracing’: qué es y qué impacto tiene en la calidad de imagen
El trazado de rayos (ray tracing) parece haber llegado para quedarse. NVIDIA lo introdujo junto a la primera generación de GPU GeForce RTX, y AMD lo implementará en sus próximos procesadores gráficos con arquitectura RDNA 2. No cabe duda de que es la prestación gráfica de moda, pero lo realmente interesante para nosotros, los usuarios, es conocer con cierta precisión qué es y qué impacto tiene en nuestra experiencia. Los algoritmos de renderizado mediante trazado de rayos imitan cómo se comporta la luz en el mundo real para generar imágenes bidimensionales a partir de modelos en 3D con un acabado fotorrealista.
Las ecuaciones que nos permiten describir matemáticamente cómo se comporta la luz como parte de un algoritmo de renderizado son bastante complejas. Un procesador gráfico puede resolverlas, por supuesto, pero el problema es que el número de cálculos que debe realizar para obtener el color de cada uno de los píxeles de la imagen bidimensional que vamos a generar es muy elevado. Es más un problema de cantidad que de complejidad, sobre todo si nos ceñimos al trazado de rayos recursivo, que es el que se utiliza actualmente.
Esta es la razón por la que las empresas que deben afrontar el renderizado de imágenes en 3D, como, por ejemplo, las que se dedican a los efectos especiales para cine mediante CGI o las de animación por ordenador, tienen unas «granjas» de ordenadores enormes. Esos equipos son, precisamente, los que deben llevar a cabo los cálculos matemáticos que exige el renderizado mediante trazado de rayos. La razón por la que hasta ahora este método no era viable en tiempo real en el ecosistema de nuestros ordenadores, al menos no con la eficiencia necesaria, no es otra que la ingente cantidad de cálculos que debe llevar a cabo la GPU.
Turing, la arquitectura que NVIDIA está utilizando en sus últimas GPU, implementa mediante hardware los recursos necesarios para hacer viable en nuestros ordenadores un renderizado híbrido que combina la rasterización tradicional, que es el método de renderizado que han usado hasta ahora, con el renderizado mediante trazado de rayos. Esto significa que los desarrolladores de videojuegos pueden decidir qué tecnología les ofrece el acabado gráfico que tienen en mente, analizando previamente su impacto en las prestaciones.
El objetivo último del trazado de rayos es dotar a los juegos de un acabado gráfico más cuidado sin que los cálculos que conlleva hagan ineficiente el renderizado en tiempo real. Esto quiere decir, sencillamente, que un único fotograma puede contener ambos métodos de renderizado, balanceando de esta forma la calidad visual y el esfuerzo de cálculo que debe afrontar la GPU. Para hacer posible el renderizado mediante ray tracing la familia de procesadores gráficos GeForce RTX de NVIDIA cuenta con unas nuevas unidades funcionales integradas en la lógica de la GPU llamadas RT core (Ray Tracing core) que no son otra cosa que procesadores dedicados específicamente a este tipo de renderizado.
Los procesadores gráficos GeForce RTX de NVIDIA cuentan con unos núcleos integrados en la lógica de la GPU llamados 'RT core' y diseñados expresamente para llevar a cabo el renderizado por trazado de rayos
Estas unidades son las que deben llevar a cabo los cálculos matemáticos que requiere el renderizado, pero no acometen este reto solas: cuentan con la ayuda de la inteligencia artificial. Y es que una parte importante de la arquitectura Turing es su capacidad de utilizar el aprendizaje automático para reducir tanto como sea posible el número de rayos que es necesario procesar durante el renderizado. Los juegos que ya incorporan esta tecnología nos demuestran que su impacto en la calidad gráfica es beneficioso, pero, al mismo tiempo, el trazado de rayos penaliza seriamente el rendimiento de la GPU.
El hecho de que tanto los próximos procesadores gráficos de AMD como Xbox Series X y PlayStation 5 vayan a incorporar esta tecnología contribuirá a afianzar más el trazado de rayos. Aún no sabemos si las próximas GPU de AMD conseguirán afrontar este modo de renderizado de una forma más eficiente que los actuales procesadores gráficos de NVIDIA, pero es muy probable que la complejidad de esta innovación acarree un margen de mejora importante que a los usuarios no nos quedará más remedio que asumir. El ray tracing nos ofrece mejores gráficos, sí, pero su consolidación definitiva llegará cuando pueda convivir con unas cadencias de imágenes por segundo sostenidas a resoluciones altas que actualmente no parecen estar al alcance ni siquiera de las tarjetas gráficas que incorporan la GPU de NVIDIA más avanzada.
Memoria dedicada: las tecnologías GDDR y HBM
La cantidad y el tipo de memoria que acompaña a la GPU condicionan seriamente las prestaciones de la tarjeta gráfica debido a que el flujo de información entre estos dos componentes es constante. Los procesadores gráficos diseñados para ofrecernos cadencias de imágenes elevadas a altas resoluciones necesitan verse respaldados por una memoria local que habitualmente tiene una capacidad de 8 GB, aunque también hay soluciones de gama alta que incorporan hasta 16 GB. En cualquier caso, el tamaño de la memoria que trabaja codo con codo con la GPU no es lo único que importa. También es crucial la tecnología que utiliza porque condiciona seriamente la velocidad de transferencia máxima que es capaz de alcanzar.
Las tarjetas gráficas que podemos encontrar actualmente en las tiendas utilizan tres tipos de memoria: GDDR5, GDDR6 o HBM2. Los dos primeros recurren a la misma base tecnológica utilizada por la memoria principal de nuestros ordenadores e implementan interfaces de hasta 256 bits. Las tarjetas gráficas más modernas utilizan memoria GDDR6, y no GDDR5, debido a que es capaz de alcanzar un ancho de banda mayor, de hasta 16 Gbps, y opera con un voltaje más bajo (1,35 voltios). Sin embargo, AMD utiliza en sus tarjetas gráficas Radeon VII y Radeon RX Vega memoria HBM2, que recurre a una tecnología diferente a la de las memorias de tipo GDDR.
No es necesario que compliquemos más este artículo indagando en las peculiaridades de la arquitectura de los chips de memoria HBM2, pero es interesante que sepamos que el bus que permite la transferencia de información entre la GPU y la memoria puede tener hasta 4.096 bits, una cifra muy superior a los 512 bits máximos de la interfaz GDDR6. Esta interfaz es posible en gran medida gracias a la estructura en forma de pila que tienen los circuitos integrados de memoria HBM2, y les permite alcanzar un ancho de banda muy superior al de la memoria GDDR6. De hecho, la memoria HBM2 de una tarjeta gráfica Radeon VII alcanza un ancho de banda máximo de 1.024 GB/s, una cifra muy superior a los 448 GB/s de una tarjeta gráfica con GPU GeForce RTX 2080 SUPER. Pero hay una razón de peso que provoca que la memoria HBM2 no esté presente en más tarjetas gráficas: su estructura es más compleja que la de las memorias GDDR6, y, por este motivo, es mucho más caro fabricarla.
Esto es lo que nos prometen las últimas tarjetas gráficas de AMD y NVIDIA
Como he mencionado unos párrafos más arriba, la arquitectura de los procesadores gráficos de AMD y NVIDIA es muy diferente, por lo que la forma en que estas compañías presentan las especificaciones de sus soluciones también lo es. Las dos tablas que tenéis debajo de estas líneas recogen algunas de las GPU de estas marcas que podemos encontrar actualmente en las tiendas. Nos ha sido imposible recopilarlas todas porque el porfolio que tienen es muy amplio y no podemos incluir todo su catálogo en una única tabla. Aun así, no importa debido a que el propósito de estas tablas es ayudarnos a identificar las diferencias que existen entre unos procesadores gráficos y otros de la forma más sencilla posible.
Como podéis ver, una de las diferencias más relevantes entre unas GPU y otras, más allá de su arquitectura, es el número de núcleos que integran. Cuanto mayor sea esta cantidad más trabajo en paralelo podrá asumir el procesador gráfico, y, por tanto, mayor será su rendimiento bajo estrés intenso. Otra diferencia relevante entre unos modelos y otros reside en las frecuencias de reloj base y máxima a las que es capaz de trabajar la GPU. Su rendimiento en TFLOPS y su capacidad de relleno de píxeles y texturas dependen en gran medida del número de núcleos gráficos y la frecuencia de reloj, pero en su productividad global también interviene la memoria.
Las tarjetas de gama de entrada suelen tener 4 GB; las de gama media, 6 GB; y las de gama alta, 8 GB, aunque algunas, las más ambiciosas, apuestan por 12 o 16 GB. Todas las GPU de NVIDIA conviven con memoria GDDR6, pero AMD apuesta en algunas de sus soluciones por chips HBM2. La tabla que tenéis a continuación refleja las especificaciones de algunos de los procesadores gráficos de AMD que podemos encontrar actualmente en el mercado, en el que conviven soluciones de última hornada con propuestas que llevan varios años en las tiendas:
AMD | RADEON VII | RADEON RX 5700 XT | RADEON RX 5600 XT | RADEON RX 5500 XT | RADEON RX VEGA 64 | RADEON RX 590 | RADEON RX 570 |
---|---|---|---|---|---|---|---|
UNIDADES DE CÁLCULO | 60 | 40 | 36 | 22 | 64 | 36 | 32 |
FRECUENCIA DE RELOJ BASE | 1.400 MHz | 1.605 MHz | N.d. | N.d. | 1.247 MHz | 1.469 MHz | 1.168 MHz |
FRECUENCIA DE RELOJ MÁXIMA | 1.800 MHz | 1.905 MHz | 1.560 MHz | 1.845 MHz | 1.546 MHz | 1.545 MHz | 1.244 MHz |
RENDIMIENTO EN PRECISIÓN SIMPLE | 13,8 TFLOPS | 9,75 TFLOPS | 7,19 TFLOPS | 5,2 TFLOPS | 12,6 TFLOPS | 7,1 TFLOPS | 5,1 TFLOPS |
PROCESADORES DE TRANSMISIÓN | 3.840 | 2.560 | 2.304 | 1.408 | 4.096 | 2.304 | 2.048 |
VELOCIDAD RELLENO DE PÍXELES | 115,26 GP/s | 121,9 GP/s | 99,8 GP/s | 59 GP/s | 98,9 GP/s | 49,54 GP/s | 39,808 GP/s |
VELOCIDAD RELLENO DE TEXTURAS | 432,24 GT/s | 304,8 GT/s | 224,64 GT/s | 162,36 GT/s | 395,8 GT/s | 222,48 GT/s | 159,232 GT/s |
TAMAÑO DE LA MEMORIA | 16 GB | 8 GB | 6 GB | 8 GB | 8 GB | 8 GB | 8 GB |
TIPO DE MEMORIA | HBM2 | GDDR6 | GDDR6 | GDDR6 | HBM2 | GDDR5 | GDDR5 |
VELOCIDAD DE LA MEMORIA | 4 Gbps | 14 Gbps | 14 Gbps | 14 Gbps | 1,89 Gbps | 8 Gbps | 7 Gbps |
INTERFAZ DE MEMORIA | 4.096 bits | 256 bits | 192 bits | 192 bits | 2.048 bits | 256 bits | 256 bits |
ANCHO DE BANDA DE LA MEMORIA | 1.024 GB/s | 448 GB/s | 336 GB/s | 224 GB/s | 483,8 GB/s | 256 GB/s | 224 GB/s |
CONSUMO TÍPICO | 300 vatios | 225 vatios | 150 vatios | 130 vatios | 295 vatios | N.d. | 150 vatios |
La elección de una tarjeta gráfica u otra está condicionada tanto por el rendimiento que queremos que nos ofrezca como por nuestro presupuesto. Todos los modelos relativamente recientes, incluso los más económicos, nos permiten jugar a 1080p con suficiencia, aunque no todos nos garantizan una cadencia de imágenes estable de 60 FPS o más con la mayor calidad visual. Si nos ceñimos al catálogo de AMD de una Radeon RX 570, que es una tarjeta gráfica que lleva en las tiendas algo más de dos años y que podemos encontrar sin dificultad entre 120 y 150 euros, podemos esperar que mueva la mayor parte de los juegos a 1080p y con la mejor calidad gráfica con una cadencia sostenida entre 30 y 60 FPS.
Si aspiramos a alcanzar una tasa de imágenes sostenida superior a los 60 FPS a 1080p, o si queremos coquetear con la resolución 1440p, una Radeon RX 590, que se puede conseguir por unos 220 euros, o una Radeon RX 5700 XT, con un precio de partida de unos 380 euros, son dos de las opciones que podemos contemplar. Y si ponemos nuestros ojos sobre la resolución 2160p y nuestro presupuesto es generoso podemos fijarnos, entre otras opciones, en los modelos Radeon RX Vega 64 y Radeon VII.
La elección de una tarjeta gráfica u otra está condicionada tanto por el rendimiento que queremos que nos ofrezca como por nuestro presupuesto
La primera lleva más de dos años en el mercado, se puede conseguir a partir de unos 480 euros y nos permitirá jugar a 2160p con una cadencia que en la mayor parte de los juegos oscilará entre 35 y 60 FPS. La Radeon VII es una opción más reciente que nos promete una cadencia media de unos 100 FPS a 1440p y entre 45 y 65 FPS a 2160p con la máxima calidad visual. La podemos conseguir por algo más de 600 euros. Un apunte importante: ninguna de estas tarjetas gráficas con GPU de AMD implementa ray tracing por hardware.
Ahora le toca el turno a NVIDIA. La siguiente tabla recoge las especificaciones de los procesadores gráficos de las familias GeForce RTX 20 y GTX 16, y persigue ayudarnos a comparar las características de las tarjetas gráficas que los incorporan:
NVIDIA | GEFORCE RTX 2080 SUPER | GEFORCE RTX 2070 SUPER | GEFORCE RTX 2060 SUPER | GEFORCE GTX 1660 TI | GEFORCE GTX 1660 SUPER | GEFORCE GTX 1660 | GEFORCE GTX 1650 SUPER |
---|---|---|---|---|---|---|---|
NÚCLEOS CUDA | 3.072 | 2.560 | 2.176 | 1.536 | 1.408 | 1.408 | 1.280 |
RTX-OPS | 63 T | 52 T | 41 T | No | No | No | No |
GIGARRAYOS/S | 8 | 7 | 6 | No | No | No | No |
FRECUENCIA DE RELOJ BASE | 1.650 MHz | 1.605 MHz | 1.470 MHz | 1.500 MHz | 1.530 MHz | 1.530 MHz | 1.530 MHz |
FRECUENCIA DE RELOJ MÁXIMA | 1.815 MHz | 1.770 MHz | 1.650 MHz | 1.770 MHz | 1.785 MHz | 1.785 MHz | 1.725 MHz |
TAMAÑO DE LA MEMORIA | 8 GB | 8 GB | 8 GB | 6 GB | 6 GB | 6 GB | 4 GB |
TIPO DE MEMORIA | GDDR6 | GDDR6 | GDDR6 | GDDR6 | GDDR6 | GDDR5 | GDDR6 |
VELOCIDAD DE LA MEMORIA | 15,5 Gbps | 14 Gbps | 14 Gbps | 12 Gbps | 14 Gbps | 8 Gbps | 12 Gbps |
INTERFAZ DE MEMORIA | 256 bits | 256 bits | 256 bits | 192 bits | 192 bits | 192 bits | 128 bits |
ANCHO DE BANDA DE LA MEMORIA | 448 GB/s | 448 GB/s | 448 GB/s | 288 GB/s | 336 GB/s | 192 GB/s | 192 GB/s |
CONSUMO TÍPICO | 250 vatios | 215 vatios | 175 vatios | 120 vatios | 125 vatios | 120 vatios | 100 vatios |
Las tarjetas gráficas de la serie GeForce GTX 16 son una opción atractiva si nuestro presupuesto es comedido y estamos dispuestos a prescindir del ray tracing. Con una solución como la reciente GeForce GTX 1650 SUPER, que se puede conseguir por unos 175 euros, podemos jugar a 1080p y con la máxima calidad gráfica con una cadencia media que oscilará entre 45 y 60 FPS. Si preferimos jugar a 1440p con cierta soltura podemos apostar por una GeForce GTX 1660 SUPER, que alcanzará una tasa de imágenes entre 30 y 60 FPS a esta última resolución, y que superará con claridad los 60 FPS sostenidos a 1080p, todo ello con la máxima calidad gráfica. No es difícil encontrar esta tarjeta a un precio aproximado de 260 euros.
Los jugones que prefieren hacerse con una tarjeta capaz de llevar a cabo el renderizado con trazado de rayos tendrán necesariamente que apostar por un modelo de la familia GeForce RTX 20. Una tarjeta gráfica con GPU GeForce RTX 2060 SUPER nos permitirá alcanzar una cadencia media de imágenes que oscilará entre 60 y 90 FPS a 1080p con la máxima calidad gráfica. A 1440p podemos aspirar a alcanzar unos 60 FPS estables, aunque en muchos juegos tendremos que reducir un poco la calidad visual. Esta tarjeta la podemos conseguir a partir de unos 410 euros.
Si queremos jugar a 1440p con la máxima calidad gráfica y una cadencia de imágenes por segundo estable de al menos 60 FPS tendremos que hacernos con una tarjeta con GPU GeForce RTX 2070 SUPER. Se puede conseguir desde unos 540 euros. Y si ponemos nuestros ojos sobre la resolución 2160p y no queremos sacrificar ni la calidad visual ni la tasa de imágenes, tendremos que apostar por una tarjeta gráfica con procesador GeForce RTX 2080 SUPER. Esta solución nos garantiza una experiencia fantástica a 1.440p, con tasas estables que en la mayor parte de los juegos oscilarán entre 70 y 110 FPS, y una cadencia que oscilará entre 45 y 70 FPS a 2160p con la máxima calidad visual. Eso sí, este monstruo no es nada barato. Si queremos hacernos con una de estas tarjetas tendremos que invertir en ella no menos de 770 euros aproximadamente.
La tarjeta gráfica está ligada estrechamente a nuestro monitor
Las prestaciones de nuestra tarjeta gráfica siempre van a estar limitadas por las características de nuestro monitor. Y a la inversa. Esta es una regla de oro que nos interesa mucho tener presente si queremos sacar el máximo partido posible a nuestro dinero. Si tenemos un monitor Full HD básico con una frecuencia de refresco de 60 Hz lo ideal es que nos hagamos con una tarjeta gráfica que nos garantice una cadencia de imágenes sostenida de 60 FPS a 1080p con la máxima calidad visual. En este escenario de uso no nos interesará invertir más dinero en una tarjeta gráfica que alcance, por ejemplo, una tasa de imágenes media de 100 FPS a 1080p porque no vamos a poder disfrutar el incremento de rendimiento que nos ofrece. Vamos a pagar más dinero por una experiencia que no va a ser mejor porque esta última tarjeta gráfica va a estar limitada por nuestro monitor.
El monitor y la tarjeta gráfica forman un tándem, y lo ideal es que sus especificaciones estén en sintonía si no queremos que ninguno de los dos resulte infrautilizado
Os propongo que ahora imaginemos un escenario diferente. Si hemos decidido invertir nuestro dinero en un monitor QHD capaz de alcanzar una velocidad máxima de actualización de 144 Hz y queremos sacarle el máximo partido, nos interesará hacernos con una tarjeta que sea capaz de arrojar una tasa de imágenes media a 1440p lo más cercana posible a los 144 FPS. En este contexto nos veríamos obligados a hacernos con una solución de AMD o NVIDIA de gama alta, pero es la única forma de aprovechar las características del monitor que hemos elegido. En definitiva, nos interesa recordar que el monitor y la tarjeta gráfica forman un tándem, y lo ideal es que sus especificaciones estén en sintonía si no queremos que ninguno de los dos resulte infrautilizado.
NVIDIA Quadro RTX y AMD Radeon Pro: las opciones idóneas para un PC profesional
Si el equipo que estamos diseñando no lo vamos a utilizar para jugar, pero necesitamos usarlo para crear modelos en 3D, editar vídeo en 4K o crear contenido de realidad virtual, entre otras opciones, es probable que no nos interese hacernos con una tarjeta gráfica para juegos. A diferencia de las soluciones de las que hemos hablado hasta ahora en este artículo, las Quadro RTX de NVIDIA y las Radeon Pro de AMD tienen una marcada vocación profesional. Por esta razón, cuentan con controladores optimizados para muchas de las aplicaciones profesionales de creación de contenidos, así como con certificaciones ISV (proveedores independientes de software).
Además, suelen tener una amplia dotación de salidas de vídeo que nos permite trabajar en entornos multimonitor, pueden aglutinar enormes cantidades de memoria, nos permiten trabajar con una profundidad de color de hasta 10 bits, e, incluso, crear contenidos con resolución 8K, entre otras opciones. Su precio oscila entre los poco más de 200 euros que cuesta una Radeon Pro WX 3200 y los más de 7.000 euros que nos veremos obligados a desembolsar si queremos hacernos con una Quadro RTX 8000. Como veis, el rango de precios que maneja el mercado de las tarjetas gráficas profesionales es incluso más amplio que el de las soluciones para juegos.
Cómo construirte un PC a la medida en 2020
En los primeros párrafos de este artículo os hemos recordado que esta es la cuarta entrega de una guía extensa dedicada a los usuarios que han decidido diseñar y montar un PC a la medida. Confiamos en que os resulte útil y os ayude a encontrar los componentes que resuelven mejor vuestras necesidades y encajan mejor en vuestro presupuesto. Estos son los artículos en los que estamos trabajando y el orden en el que los iremos publicando:
- Cómo elegir la placa base
- Cómo elegir la CPU y la refrigeración
- Cómo elegir la memoria principal
- Cómo elegir la tarjeta gráfica
- Cómo elegir el almacenamiento secundario
- Cómo elegir la caja y la fuente de alimentación
- Cómo elegir el monitor
- Cómo elegir el teclado y el ratón
Nota: algunos de los enlaces aquí publicados son de afiliados. A pesar de ello, ninguno de los artículos mencionados ha sido propuesto ni por las marcas ni por las tiendas, siendo su introducción una decisión única del equipo de editores.
Ver todos los comentarios en https://www.xataka.com
VER 25 Comentarios