4K es una de las palabras de moda en el CES 2014. Se está oyendo en todos los pasillos, entre todos los fabricantes. Esta tendencia en pantallas para televisores, portátiles e incluso smartphones y tablets marcará al parecer los próximos meses, pero hay un problema. Esos productos 4K no son en realidad 4K.
De hecho, la mayoría de fabricantes están utilizando el acrónimo UHD (Ultra High Definition) como sinónimo de 4K, cuando hay sutiles pero importantes diferencias entre ambos formatos. Mucho nos tememos --sobre todo, en el caso de los puristas-- que las resoluciones y calidad de esos televisores y contenidos son inferiores a los que marca la verdadera especificación 4K.
La verdadera resolución 4K es DCI 4K
Como explican en profundidad en AVS Forum, el formato 4K está definido con el estándar comercial del organismo Digital Cinema Initiative, y se conoce popularmente como DCI 4K. En este formato hay parámetros importantes, el primero de los cuales es la resolución, que es de 4.096 x 2.160 píxeles, que además da como resultado una relación de aspecto de 1.9:1.
En comparación con eso, una imagen UHD tiene una resolución de 3.840 x 2.160 y una relación de aspecto de 1.78:1, lo que significa que un panel que fuera realmente 4K tendría 256 píxeles más de anchura. La diferencia no parece tan significativa, pero lo es por una sencilla razón.
Y esa razón es que casi todo el contenido que se presenta en televisión lo hace con la relación de aspecto 1.78:1, y eso obligaría a mostrar unas bandas negras a izquierda y derecha de la pantalla para mantener la relación de aspecto intacta si reprodujéramos contenidos 4K reales.
Esta es la razón de que se haya elegido la resolución de 3.840 x 2.160 como la nativa en los dispositivos para usuario final, y esa será la elección de productores de contenidos y fabricantes de televisores o monitores.
La calidad tampoco será la soñada
Hay un segundo problema: DCI 4K hace uso de compresión de vídeo JPEG2000, con una tasa de bits de hasta 250 Mbps, vídeo de 12 bits 4:4:4 y un gamut de color muy amplio. Aunque la futura especificación HDMI 2.0 probablemente permita dar soporte a los hipotéticos y futuros Blu-ray UHD (o como quiera que se llamen), lo hará condicionando esas prestaciones, puesto que ese estándar no llegará a poder ofrecer tal calidad de vídeo y tales tasas de transferencia.
Según los expertos de AVS Forum, tendremos que "conformarnos" con vídeo de 10-bits 4:2:2 para contenidos en ultra alta definición en películas a 24 fotogramas por segundo además de casi doblar el throughput posible hasta ahora en las conexiones HDMI (18 Gbps totales frente a los 10,2 Gbps actuales) que por lo visto no será suficiente para reproducir con soltura DCI 4K.
UHD debería denominarse 2160p
Teniendo en cuenta estas circunstancias, los fabricantes y la industria harían bien en cambiar la nomenclatura del estándar y dejar de vendernos que todo es 4K cuando realmente no lo es. Eso es precisamente lo que tratan de indicar desde ese artículo y desde otros como la entrevista al experto Joe Kane, que proponía una solución.
Dicha solución pasaría por utilizar una nomenclatura lógica, sobre todo teniendo en cuenta que en los últimos años hemos visto cómo los equipos iban teniendo soporte para resoluciones 480p, 720p o 1080p gradualmente.
El salto ahora sería a equipos 2160p, una nomenclatura que tiene mucho sentido ya que siempre nos hemos referido a las pantallas para usuarios finales en términos de resolución vertical, y a pantallas para entornos comerciales por su resolución horizontal.
Mucho nos tememos que el término 4K está aquí para quedarse, pero id haciéndoos a la idea. Lo que estáis viendo en 4K no es 4K. Es 2160p. Que por otro lado, es un salto cualitativo importante, desde luego.
En Xataka | Cinco televisores con los que estar preparados para la llegada del 4K
Ver todos los comentarios en https://www.xataka.com
VER 129 Comentarios