4K es una de las palabras de moda en el CES 2014. Se está oyendo en todos los pasillos, entre todos los fabricantes. Esta tendencia en pantallas para televisores, portátiles e incluso smartphones y tablets marcará al parecer los próximos meses, pero hay un problema. Esos productos 4K no son en realidad 4K.
De hecho, la mayoría de fabricantes están utilizando el acrónimo UHD (Ultra High Definition) como sinónimo de 4K, cuando hay sutiles pero importantes diferencias entre ambos formatos. Mucho nos tememos --sobre todo, en el caso de los puristas-- que las resoluciones y calidad de esos televisores y contenidos son inferiores a los que marca la verdadera especificación 4K.
La verdadera resolución 4K es DCI 4K
Como explican en profundidad en AVS Forum, el formato 4K está definido con el estándar comercial del organismo Digital Cinema Initiative, y se conoce popularmente como DCI 4K. En este formato hay parámetros importantes, el primero de los cuales es la resolución, que es de 4.096 x 2.160 píxeles, que además da como resultado una relación de aspecto de 1.9:1.

El gráfico está mal: 4K es UHD, y faltaría un área 256 píxeles mayor en anchura, la correspondiente al verdadero DCI 4K.
En comparación con eso, una imagen UHD tiene una resolución de 3.840 x 2.160 y una relación de aspecto de 1.78:1, lo que significa que un panel que fuera realmente 4K tendría 256 píxeles más de anchura. La diferencia no parece tan significativa, pero lo es por una sencilla razón.
Y esa razón es que casi todo el contenido que se presenta en televisión lo hace con la relación de aspecto 1.78:1, y eso obligaría a mostrar unas bandas negras a izquierda y derecha de la pantalla para mantener la relación de aspecto intacta si reprodujéramos contenidos 4K reales.
Esta es la razón de que se haya elegido la resolución de 3.840 x 2.160 como la nativa en los dispositivos para usuario final, y esa será la elección de productores de contenidos y fabricantes de televisores o monitores.
La calidad tampoco será la soñada
Hay un segundo problema: DCI 4K hace uso de compresión de vídeo JPEG2000, con una tasa de bits de hasta 250 Mbps, vídeo de 12 bits 4:4:4 y un gamut de color muy amplio. Aunque la futura especificación HDMI 2.0 probablemente permita dar soporte a los hipotéticos y futuros Blu-ray UHD (o como quiera que se llamen), lo hará condicionando esas prestaciones, puesto que ese estándar no llegará a poder ofrecer tal calidad de vídeo y tales tasas de transferencia.

Según los expertos de AVS Forum, tendremos que "conformarnos" con vídeo de 10-bits 4:2:2 para contenidos en ultra alta definición en películas a 24 fotogramas por segundo además de casi doblar el throughput posible hasta ahora en las conexiones HDMI (18 Gbps totales frente a los 10,2 Gbps actuales) que por lo visto no será suficiente para reproducir con soltura DCI 4K.
UHD debería denominarse 2160p
Teniendo en cuenta estas circunstancias, los fabricantes y la industria harían bien en cambiar la nomenclatura del estándar y dejar de vendernos que todo es 4K cuando realmente no lo es. Eso es precisamente lo que tratan de indicar desde ese artículo y desde otros como la entrevista al experto Joe Kane, que proponía una solución.

Dicha solución pasaría por utilizar una nomenclatura lógica, sobre todo teniendo en cuenta que en los últimos años hemos visto cómo los equipos iban teniendo soporte para resoluciones 480p, 720p o 1080p gradualmente.
El salto ahora sería a equipos 2160p, una nomenclatura que tiene mucho sentido ya que siempre nos hemos referido a las pantallas para usuarios finales en términos de resolución vertical, y a pantallas para entornos comerciales por su resolución horizontal.
Mucho nos tememos que el término 4K está aquí para quedarse, pero id haciéndoos a la idea. Lo que estáis viendo en 4K no es 4K. Es 2160p. Que por otro lado, es un salto cualitativo importante, desde luego.
En Xataka | Cinco televisores con los que estar preparados para la llegada del 4K
Ver 89 comentarios
89 comentarios
ssuperlopezz
Me ha resultado muy interesante y formativo el artículo. Se debería fomentar más este tipo de artículos para que los fabricantes no nos engañen como intentan hacer casi siempre. Enhorabuena!
Tachikoma
Los primeros que usais mal el 4K sois vosotros en los titulos de las noticias. Si la prensa ya los llama asi, ¿como esperais de que la gente lo llame 2160p?. De hecho, al final de la noticia, poneis un ejemplo de uso al colocar el enlace "Cinco televisores con los que estar preparados para la llegada del 4K" y no son televisores 4K, serian 2160p.
Ademas el conector HDMI que usamos ahora es el "Tipo A" y cuando se crearon las especificaciones del HDMI se formalizó el "Tipo B" preparado para las futuras resoluciones DCI 4K.
sensenic
Esto es como lo de HD-Ready, y los famosos 720p, 1080i, 1080p, etc... al principio habrá confusión, diferencias de precio, early-adopters, términos engañosos... pero debería imponerse al final el máximo.
Si como he entendido, el estándar real es 4.096 × 2.160 y va a haber contenido en ese formato, ese debería ser el objetivo. 2160p será un paso intermedio, y por mucho que las teles emitan en ese formato, unas bandas negras no molestan si a cambio puedo ver 4K de verdad de otras fuentes.
Eso y que por otra parte 4K tiene una potencia comercial que no tiene 2160p o UHD. 4K aparenta ser "4 veces mejor", 2160p aparente ser "sólo el doble" y UHD... una cosa intermedia. 4K es mucho 4K.
rodneycr7
Buen articulo, 2 cosas, 1-yo veo mi televisor 1080p de 60 pulgadas a 3 metros lo cual a esa distancia ni aunque me pusieran 128k veria la diferencia, 2- no hay contenido, dejen de ser tan consumistas y lean un libro que eso es a resolución real.
googlade
Lo de las bandas negras a izquierda y derecha sería si reprodujésemos contenido UHD en una pantalla 4K real, en cambio si el contenido es 4K reescalado para reproducirse en una pantalla UHD, las bandas las tendríamos en la parte superior e inferior. Aunque en este caso también podría ser que perdiésemos los 256 píxeles sobrantes (128px por la izquierda y 128px por la derecha).
faustoart
La resolución UHD es de formato 16:9 (el mismo formato que los 1080p o que los 720p) y por lo tanto es lo más adecuado para el consumidor medio, que podrá acceder a contenidos de todo tipo. Pensar que nos están "estafando" porque le llaman 4k en lugar de UHD es no entender algo tan básico como que las 4K "reales" probablemente ni lleguen al mercado, al ser mucho menos versátiles. 4K es más fácil de entender y de recordar. Personalmente no entiendo cómo se puede aprobar tan alegremente una relación de aspecto tan bizarra, que no es ni 16:9 (casi todo el contenido actual) ni en cine (21:9). A ver si encuentro la respuesta en wikipedia o algo.
al-o
Yo por mas que he visto televisiones UHD en Media Markt, Fnac y similares, no veo el salto cualitativo que se observa del 576i al 1080p. Si, se ve muy bien, pero apenas noto la diferencia, asi que yo a este tren de momento no me subo.
ssuperlopezz
En el mundo de las televisiones empezaron engañando deliberadamente en el aspecto de contraste. De repente, lo medían en millones gracias a tratamiento de software, pero era imposible ver cual era el real en estático a no ser que lo leyeras en alguna review de alguna página especializada que lo hubiera probado a fondo. Lo mismo ocurrió con la tasa de refresco (Hz) que mediante software la duplicaban o triplicaban, pero era imposible ver la real, o nativa, a no ser que tuvieras la suerte de que estuviera analizado de nuevo en alguna review en profundidad. Y así seguimos...
(Perdonad si he metido la pata en algún término, ya que no soy un entendido en el tema; simplemente lo que he podido informarme como usuario)
actpower
Bueno, eso no es del todo cierto. El artículo original comete un error muy grande (quizás intencionadamente) diciendo que el "verdadero 4K" es el 4K DCI. Lo que no aclara es que dentro de la resolución 4K DCI hay TRES formatos, y ellos solo hablan de FULL (4096x2160) que NO se usa, siendo los más habituales los formato FLAT (3996x2160) y el SCOPE (4096x1716). Precisamente el formato FLAT tanto en 2K como en 4K es el más parecido al 16:9 de HD (es un pelín más ancho en horizontal, no en vertical).
Quizás lo lógico sea distinguir entre UHD y 4K, pero EN ESENCIA son resoluciones muy parecidas. Nadie va a poder distinguir entre UHD y FLAT 4K en la práctica, al igual que sucede en 2K.
De hecho, es hasta ridículo. En proyección de Cine Digital no se usa 4K, sino 2K. Y esto será así durante unos cuantos años. Ni hay contenidos (solo el 1% de los DCP que vienen al cine está en 4K), ni hay proyectores (solo el 5% de los proyectores son 4K). Los servidores SI están preparados para manejar la información, pero el MASTER final de la inmensa mayoría de pelícuas se realiza en 2K, sencillamente porque no merece la pena sacarlos en 4K para que solo lo vea el 1% de la gente.
Por otro lado, aunque en los DCP se usa el codec Jpeg2000 con sampling de color 4:4:4 y 12 bits por canal, originalmente no tiene porqué ser así, es decir, nadie nos asegura que lo que estamos viendo proyectado tiene esa fidelidad de color, pues de origen se puede haber usado una cámara que grabe en H264, como así sucede en muchas producciones, incluso de alto nivel. Y sencillamente no pasa nada, pues es tal la calidad de proyección, que no se aprecian fallos grandes. Y eso lo puedo asegurar con conocimiento de causa...
Que obviamente a mayor calidad de origen mayor calidad final, es un hecho. Pero que al igual que se proyectan DCPs se proyectan Blurays (y sin decirlo) y la gente ni lo nota, también.
Creo que la carrera del 4K se ha iniciado demasiado rápido. Personalmente el uso de 4K en casa tiene sentido en dos escenarios: El uso de un monitor, donde esa resolución es determinante por la cercanía de la pantalla a nuestros ojos y claramente podemos distinguirlo (en tamaños mayores de 28" a unos 45cm de la cara), y en proyección Home Cinema. En una tele de 50 o 60" hay que estar a UN METRO para poder distinguir 1080P de UHD (o 4K, es lo mismo). Más lejos de esa distancia nuestra vista no es capaz de distinguir más allá de que se percibe algo más de nitidez, pero no mucho más.
WallyTheCat
Me parece un ejemplo en toda regla de lo que es ser un tecnofriki pedante.
El comun de los mortales, y muchos de los que lean este articulo, por no decir la mayoria, son incapaces de distinguir la diferencia de calidad entre 4096 pixels y 3840 pixels. A cambio, gracias a usar el ancho de 3840 pixels nos ahorramos bandas verticales o cortes en la parte superior e inferior.
El cambio de 4x3 a 16x9 ya ha sido lo suficientemente traumatico como para meter un nuevo cambio de aspect ratio.
Sin duda la industria ha hecho lo correcto y leyendo este articulo parece que nos han tomado el pelo.
nornak
El 4K ó 2160p solo es util para pantallas enormes. En una normal (la mas grande que entre en mi casa,) no se nota aunque te quedes pegado al cristal de la pantalla. Es mas importante la velocidad de refresco, contraste, brillo, naturalidad y pureza colores y demas caracteristicas.
Muy importante el 4k para los fabricantes para renovar las flotas de TV de las casas a modo de gancho. Y para los frikies para que puedan dar la nota.
Usuario desactivado
Igual que el 4G.... en verdad no es 4G si no LTE y parece ser que los únicos dispositivos que no mienten son los iOS por qué son los únicos que he visto que pone LTE en vez de 4G.
Muy buen artículo.
Diego Andres Ruiz Serrano
un panel 1080p de 42 "300" euros maso panel 4k(2160p)mas de 1000 euros y solo puedes notar la diferencia si estas a tres centímetros del panel entonces como hago para disfrutar de la resolución desde tan cerca si todo mundo mira la tele desde 1,80 metros de distancia lol cada año sacan mas resolución como si nuestros ojos pudieran aumentar de resolución cada ves que los fabricantes salen con aumentos por no decir mas: innecesarios.
ads2801
Sinceramente, de 1080p a 4K el ojo humano no ve más que sutiles diferencias. No se nota una gran diferencia, como si de DVD a 1080p, así que con 1080p es más que suficiente a la distancia que se suelen emplear los televisores hoy en día, al no ser que tenga un uso profesional, yo veo el 4k de más. Está bien que saquen e investiguen por resoluciones cada vez mejores, con más resolución y más calidad, pero que lo intenten acercar tan pronto como salga a los consumidores, no me parece adecuado, más aún cuando la diferencia es mínima para usos domésticos, dónde están o quieren enfocar las ventas. A mí, con un buen televisor FULL HD me sobraría.
Diego
Nos la están colando otra vez como el famoso HD Ready y el FullHD de hace unos años.
Y a todo esto la calidad de emisión de TV en abierto no es que sea pésima, es para llorar.
saph4
Parece mentira... habrase visto, el marketing mintiéndonos vilmente.
vodor
Si esto es así supongo que dejara de pasar cuando un grupo de usuarios grande demanden a fabricantes o vendedores por venderles un producto de inferiores especificaciones a las anunciadas, y reclamen una devolución del dinero (o parte de él).
Supongo que puedes ganar por ser publicidad engañosa o algo así.
jacawitz
Yo sabía que la "K" era por las mil lineas del FullHD (1080p) y que, por tanto, 4K debería ser aquel que tuviera al menos 4 mil lineas verticales, en este caso 4320p (7680x4320, para mantener el aspecto). Pero luego a alguien se le ocurrió llamarle 4K a poner cuatro veces esa resolución, el error es evidente al ver que a la resolución 7680x4320 le han llamado 8k cuando, siguiendo la lógica del 4k, debería ser 16k.
Todo esto se trata de, como siempre, inventar nombres para confundir al usuario.
icelduques
Hombre, al fin podré darles un enlace fácil de entender a los corticos de mis amigos para que entiendan que lo que nos van a estar vendiendo los próximos años es 2160p y que no cuadruplica la resolución Full HD que conocían hasta ahora x'D
l0b0
Interesante artículo, no lo sabia, creo yo que la razón para usar el término "4K" es puramente comercial, ya de por si es complicado para el usuario promedio los terminos 720i, 720p, 1080i, 1080p y todavía agregarle el 2160p, ese número no es tan fácil de aprenderse como el 1080, la verdad yo si prefiero que lo llamen 4k, es corto, se te graba la primera vez que lo escuchas aunque realmente no lo sea, pero claro no esta de más el saber cual es la verdadera resolución.
hakirojimmy
¿De dónde habéis sacado esto? Acabo de leer que la ITU define el 4K como 3840x 2160: http://broadcastengineering.com/news/itu-standards-ultraHD
¿Podéis corregirme si me equivoco? Porque ahí lo pone bien claro.
De todas formas esos pocos píxeles de diferencia no son un engaño, es simple marketing, prefiero mil veces decir 4K (cuatro ka) que 2160p (dos mil ciento sesenta pe). Huiría de UHD porque la gente ni sabe bien la diferencia entre HD Ready y Full HD, y "Ultra" parece obvio que es más que "Full", pero si sólo pones la "U" de UHD no es nada obvio, además de que las terminologías tipo full, super, hyper, ultra me suenan muy casposas o del anime XD
Juankar
Muy interesante, ahora sí que está claro.
Me gustaría también un artícuo sobre DVB-T2 y si es necesario comprar un TV que lo incorpore, he de comprar uno y de los que he visto no lo lleva ninguno
nebur692
Y por qué los fabricantes no usan la apertura total del 4k?
4.096 x 3.112 con relación de aspecto 1:32:1
Sr.Mawel
Eso de que no era 4K real, lo dijimos muchos en cuando empezó hablarse de las nuevas tv hace un par de años (o mas).
Siempre defendimos que para ser 4K tendría que la resolución ser 4xxx X 2xxx.
Y desde aquí nos llevabais la contraria.