Lo hablábamos hace diez días y finalmente se confirma, punto por punto, lo que comentábamos por entonces. Entonces rumores acerca de los detalles de la nueva tarjeta gráfica NVidia Titan X, ahora características definitivas.
Lo que quizá sea más representativo, el precio: NVidia Titan X llegará al mercado por 999 dólares, posicionándose como una tarjeta gráfica de gama muy alta preparada para competir frente a la AMD R9 295X2 y la anterior Titan Black de la propia NVidia. Mantenemos la solución de una única GPU - por la doble GPU Hawaii de la 295X2 de AMD - pero con evolución entre medias: sí, el nuevo núcleo GM200 con arquitectura Maxwell.
A 8 dólares el millón de transistores
Decíamos antes que se confirman los datos que se preveían en los días anteriores al lanzamiento. Se confirma el uso de 8.000 millones de transistores en el GM200, superando los 7.080 millones del GK110 de la anterior generación. El número total de procesadores CUDA se sitúa finalmente en 3.072 procesadores, convirtiéndose en la tarjeta gráfica de NVidia que mayor número de ellos tiene de la historia. Está claramente pensada para el procesamiento masivo de información, algo sobre lo que NVidia ha resaltado algunos números relativos al enorme crecimiento de los datos y a la necesidad de disponer del hardware necesario para poder procesarlos todos. Ahí es donde tiene su hueco la nueva Titan X.
TITAN X, the world's fastest GPU, will be $999. #GTC15 pic.twitter.com/Sh13OYFKKd
— NVIDIA (@nvidia) March 17, 2015
La GPU GM200 es su nueva obra maestra. Un escalón por encima de las GM206 y GM204 de las GTX 960, 970 y 980 y construida en 28 nanómetros. Como curiosidad ocupa una superficie de 551 milímetros cuadrados (aproximadamente un cuadrado de 2,5x2,5 centímetros) y es capaz de proporcionar 7 TFLOPS en precisión simple, y 0,2 TFLOPS en precisión doble. A esto ayuda, en parte, los 12 GB de memoria GDDR5-384b, una cifra desorbitada para ser una tarjeta de un núcleo.
Y al final es una GeForce
Sorprende ver que la nueva NVidia GTX Titan X sigue perteneciendo a la familia GeForce, mientras el fabricante no ha dejado de proporcionar datos sobre el mercado de la computación, big data y sobre el crecimiento de la información que está a nuestra disposición. Es una gráfica 'doméstica' de perfil profesional.

Tradicionalmente este modelo iría a la familia Quadro, pero sea cual sea la razón la realidad es que está dentro de las GeForce. ¿Es una tarjeta gráfica para jugar? Sin duda sí y rendirá excepcionalmente bien; si no la mejor, entre las mejores. Sin embargo, su precio y algunas de sus especificaciones (memoria RAM, número de procesadores CUDA) la perfilan hacia algo más profesional y empresarial. Un paso intermedio entre lo de casa y lo del trabajo.
¿Cuándo la tendremos en España?
Por ahora no hay detalles al respecto, y de hecho el fabricante ni siquiera ha confirmado cuándo la distribuirá en el mercado. Estimamos que GeForce Titan X se empezará a vender durante las próximas semanas, incluyendo el mercado español.

¿Por cuánto? Ya os imaginaréis que los 999 dólares se convertirán en 1000 euros por estos lares, euro arriba, euro abajo. Nada barato ni asequible, la mayoría de los mortales seguiremos acudiendo a las gamas medias mucho más atractivas en precio y con un rendimiento más que decente.
Más información | NVidia
Ver 30 comentarios
30 comentarios
noskyee
Pues a mi el precio me parece bien para lo que ofrece, obviamente no es algo para jugar únicamente pero para utilizar la para trabajo y entretenimiento me parece perfecta, si nos gastamos eso o más en smartphones porque no en una gráfica?
alberto_bengoa
Por mi se puede ir por donde ha llegado.
Para el sector profesional ya están las Quadro, y para un PC gamer gastarse semejante disparate me parece casi ofensivo.
noe.castro
Tan domestica como para jugar pac-man con ella. . . XD
Preferiría gastarme los mil dólares en un muy buen equipo que gastarme mil dólares en solo una parte de él . . . . XD
riwer
Sigo esperando a ver cuando llega el anuncio de la 960ti :(
kls
Esta vez si puede que tenga exito, bueno entre quien pueda permitirselo claro...
En otras versiones de la Titan su compra solo estaba justificada para un uso profesional, ya que para jugar ofrecia poco mas que la GTX top del momento y resultando mucho mas cara, pero en esta ocasion la cosa ha cambiado, y mucho.
El precio sigue siendo algo caro, pero tambien es bastante mas potente que la 980, y se acerca bastante a la 295x2, asi que casi entraria dentro de lo "normal".
He de reconocer que siempre he sido bastante esceptico con las Titan, pero esta vez parece que Nvidia si ha hecho un producto que pueda interesar a profesionales y a usuarios normales.
labandadelbate
Se nos ha ido "la pinza" 1000€ por una tarjeta gráfica, y luego estamos jugando con los moviles y las tablets... No entiendo nada.
sanamarcar
Esta tarjeta no va a Quadro porque para eso tendría que tener un rendimiento en DP bueno, lo que no es el caso. Que para computación seria no es ideal, pero para hacer simulaciones no tan precisas en CUDA y demás debe rendir bien.
Jarre2
Ciertamente deben de existir usuarios a quienes les rente y aporte beneficio este monstruo de tarjeta gráfica que seguramente tendrá al final un precio de 1000 euros + iva y otros 'impuestos' o beneficios.
No voy a tirar tierra a este elementro hardware porque el precio que ofrece puede ser el adecuado para el coste de producción de sus elementos y además si no fuera por la existencia de este hardware no evolucionarían las tarjetas gráficas.
Personalmente -para mi uso personal-, me parece cara e incluso antieconómica puesto que su consumo energético seguro que hace subir bastante el recibo de la luz.
dacotinho
Espero ansioso una "Shocking Interview" con el risitas explicando como diseñaron la tarjeta y el precio.
bonsanto1
Por un momento pensé que era la xbox... XD
agente_zeth
dame 4 para llevar, ponerlas en un cluster y jugar al busca minas que te cagas (las explosiones son en 4d)
supertux
En cuanto a GPUs, no había visto un desempeño en FLOPS DP tan bajo en mucho tiempo, y menos en un buque insignia. ¡Es apenas un poco más que el de mi AMD R9 270x!