¡Hola, Invitado! (Iniciar sesiónRegístrate)
Hora: 22 Nov 2024, 12:37

¿Se puede encodear a 10 bits desde una fuente de 8 bits?

04 Mar 2014, 06:41
Mensaje: #21

RE: ¿Se puede encodear a 10 bits desde una fuente de 8 bits?

(01 Mar 2014)Kumicho escribió:  Los bits de la imagen no tienen nada que ver con la precisión de los cálculos y los 8-bits hacen referencia a los bits por canal de la imagen, pero los 10 bits hacen referencia a la precisión de los cálculos.

No, tanto los 8 como los 10 bits hacen referencia a la profundidad de colores almacenados por canal (aka: bitdepht). Lo único que los diferencia es su algoritmo de 'colorimetría' (no sé si esa palabra exista pero no se me ocurre una mejor al momento) que aplica cada uno, es decir, según su documentación, en comparación a los 8 bits, los 10 bits son más precisos a la hora de 'aplicar color' debido su algoritmo.

Repito, la 'precisión de los cálculos' (como la llamas) sólo es el algoritmo que usa cada uno para aplicar la profundidad por canal dentro de un vídeo.
04 Mar 2014, 11:01
Mensaje: #22

RE: ¿Se puede encodear a 10 bits desde una fuente de 8 bits?

8 bits de entrada -> 10 bits de almacenamiento -> 8 bits de salida = 10 bits de precisión con 8 bits de color.
04 Mar 2014, 21:53 (Este mensaje fue modificado por última vez en: 04 Mar 2014 21:54 por aanimeX)
Mensaje: #23

RE: ¿Se puede encodear a 10 bits desde una fuente de 8 bits?

(04 Mar 2014)Kumicho escribió:  8 bits de entrada -> 10 bits de almacenamiento -> 8 bits de salida = 10 bits de precisión con 8 bits de color.

Creo que hay una confusión aquí. Antes mencionaste que los 8 bits se referían a los bits de la imagen, y que los 10 a la precisión de la imagen. Me parece que de allí es que viene esta confusión. Como lo mencioné anteriormente, tanto los 8 como los 10 bits se refieren al bitdepth (profundidad de color). El gradiente aplicado en los 10 bits es mayor que el de los 8 debido a que hay más colores para agarrar, es decir, que la precisión de color que aplican los 10 bits debería de ser mayor a la que aplican los 8 bits.

Una vez explicado esto, es que según la información de x264, el algoritmo de stream que planteas debería de ser el siguiente:

10bits de entrada --> conversión a 8 bits -- transmisión y llegada a 8 bits -- conversión a 10 bits --> salida a 10 bits
4:2:2 --> 4:2:0 -- 4:2:0 -- 4:2:2 --> 4:2:2

Es decir, el stream entra en 10, y para realizar la transmisión se convierte a 8, cuando llega a destino se vuelve a convertir a 10, tal como estaba antes de entrar. Ahora bien, si te refieres al 10 bits 4:2:0 que hacen muchas personas, hay un error en todo eso, todos sabemos que debería ser 4:2:2 (aunque no sé si finalmente x264 terminó de aceptar más del 4:2:0, tiene tiempo que no hago test con 10 bits), pero es demasiado (TL;DR), y no me gustaría entrar en esa clase de detalles.

Saludos.


Usuario(s) navegando en este tema: 2 invitado(s)