Hace 3 años | Por ccguy a newsletter.fraunhofer.de
Publicado hace 3 años por ccguy a newsletter.fraunhofer.de

Tras dedicar varios años a su investigación y normalización, Fraunhofer HHI (junto con socios de la industria como Apple, Ericsson, Intel, Huawei, Microsoft, Qualcomm y Sony) está celebrando el lanzamiento y la adopción oficial del nuevo estándar mundial de codificación de vídeo H.266/Versatile Video Coding (VVC). Este nuevo estándar ofrece una compresión mejorada, que reduce los bits requeridos en un 50% en relación al anterior H265 sin reducir la calidad de la imagen.

Peachembela

deberían colocarles otros nombres, esa nomenclatura lleva a confundir.

vacuonauta

#3 confunde, sí, pero mejor eso que ir de ultracompression a ultracompression supra y de ahí a ultracompression supra top, etc

Sadalsuud

#2 Solo por eso Lucifer, en su sabiduría, tiene un lugar especial en el infierno para todos esos hipócritas de ojos rasgados que sacaron adelante la ley que obligaba a censurar los genitales, junto con los que codificaban el canal plus los viernes por la noche, y otro para la... bueno, pues eso, lo dejo así que no quiero ganarme un calzador...

D

#1 ¿Aún almacenas porno? Bienvenido a la época del streaming. Xvideos, Pornhub hay cantidad indigente de material porno sin almacenar nada.

D

#2 La codificación del C+ del siglo XXI.

D

#1 Y una CPU así de grande para poder verlo.

E

#3 Hay otra nomenclatura:
H264 = AVC (Advanced Video Coding)
H265 = HEVC (High Efficiency Video Coding)
H266 = VVC (Versatile Video Coding)

k

Ya nos van a vender nuevas necesidades:
The new chips required for the use of H.266/VVC, such as those in mobile devices, are currently being designed

R

Me parece absolutamente increíble como siguen logrando exprimir aún más los algoritmos de compresión. Donde está el límite?

Catapulta

El flautista retorna!

A

#11 no sé si es que esperabas que un nuevo sistema de codificación y descodificación se pudiera hacer en hardware no diseñado para ello

ailian

#16 Se puede hacer por software.

torkato

#17 por software se puede hacer, pero va fatal.

BM75

#11 No pasó con el H265. Tampoco hace falta exagerar...

p

#18 Por eso están diseñando chips de decodificación, para no cargar el procesador con un proceso tan pesado. Además así tendrán una excusa para hacerte comprar un móvil nuevo.

Cehona

#24 ¿8K en un móvil? ¿Es necesario?

sieteymedio

#2 comentario de calidad y sabiduría.

sieteymedio

#7 Menudo noob. Y el día en que retiren todos los videos de tu fetiche o actor preferido porque han decidido que no son legales?

e

#18 lo normal seria compararlo a AV1, el cual actualmente requiere una capacidad de computo muy superior a H265 logrando una reducción leve en el bitrate, misma calidad

El problema va a ser el huevo y la gallina, el codec mas soportado ganara y a estas alturas deberiamos ir viendo compresores y decompresores hardware para AV1 en cambio le falta 1 año para ver lo mismo en H266.

AV1 mejora en un 25% a H265
H266 mejora en un 50 a H265

¿Será notable la mejora? ¿o será algo marginal?

Yosemite

#11 Ahí le has dado. ¿Para qué mejorar el software si podemos tirar el hardware actual a la basura y forzar uno nuevo?
¿Cuál es el negocio del software? La venta de hardware lol
Será por eso que Apple, Ericsson, Intel, Huawei, Microsoft, Qualcomm y Sony está celebrando el lanzamiento

Peka

#7 La conexión siempre se puede caer o peor un día puede llegar un pulso electromagnético y se jodió todo Internet.

#23 con un buen trabuco...

sieteymedio

"Bienvenido a pornotits.com. Necesitas un procesador con tecnología XFEFfen 266 para disfrutarla al máximo."

sieteymedio

#13 En la pasta que te puedas gastar en hardware, como siempre.

#27 no. Tampoco hace falta 4k, pero como cualquier vídeo se va a grabar para ser visto en diferentes soportes, y uno de ellos va a ser la una televisión... te comes el archivazo de chorrocientos megas en el Movil...

D

A mi ya me parece brutal la compresión que conseguía h265... En 10 años tenemos una película 3D 4K 60fps en 20Mb 😂

torkato

#23 Ya, claro, pero lo suyo es que esté optimizado. Si tienes que comparte un Ryzen 7 o un i9 para ver vídeos mal vamos.

Zade

#21 y VP9 en el Apple TV a partir de tvOS 14

j

#27 el nuevo codec no es solo para 8k, puedes usarlo en cualquier otra resolución y reducir la cantidad de datos a la mitad (con respecto a h265 y a 1/4 con respecto a h264)

K

#13 todos estos algoritmos se crean en base de aumentar considerablemente el uso del procesador/chip de decoding. A base de tirar de procesador/chip se puede reducir tanto como uno se quiera. El problemas es que no hay hardware que pueda descomprimir nada si tu algoritmo es muy exigente. Cada salto generacional es básicamente un poquito de algoritmo de compresión como la mayoría lo entiende y un aumento considerable del uso de chip.

soyTanchus

#7 Ingente, se dice ingente.

P

Pied Piper comprime más.

b

#7 #12 #13 #29 #32 Aparte de que las webs de streaming, recomprimen los vídeos, con un bitrate bastante más inferior.

court

#13 El límite de cuánto se pueden comprimir X bits viene determinado por su entropía https://es.wikipedia.org/wiki/Entrop%C3%ADa_(informaci%C3%B3n)#Codificador_%C3%B3ptimo

Mariele

El intituto Fraunhofer se sale. Un par de centros así en España y arreglábamos el prejuicio de que aquí solo estamos para sangrías, toros, sevillanas y palillos en la boca.

A todo esto, me alucina que sigan mejorando la compresión de vídreo así. Tengo una pregunta para algún experto: ¿Estas técnicas de codificación de vídeo hubieran tenido alguna ventaja 20 años atrás? O es que la razón por la que se usaban cosas como mpeg1 o incluso video raw a pelo era no tanto por no saber cómo hacerlo mejor sinó por limitaciones en el número de cálculos que reproductores y cámaras podían hacer?

Mariele

Yo estoy tirando billetes contra la pantalla pidiendo vídeo con 6 grados de libertad para el espectador, pero nada rebota

M

#5 La noche,... obvious.

R

#47 si, pero el tema es que aquí no se están comprimiendo bits realmente, h266 es lossy, por tanto no hay necesidad de recrear la señal original a la perfección. Los ahorros en espacio que se podrían obtener usando compresiones basadas en árboles de Huffman por ejemplo hace ya tiempo que se superaron en algoritmos de compresión de vídeo (entre otras cosas porque MPEG ya pasaba el resultado de la compresión lossy por un Huffman y entiendo que sigue siendo el caso, o similar, en h266

Peazo_galgo

#32 en caso de pulso electromagnético fuerte se joderian todos los cacharros electrónicos incluidos tu ordenador,tablet, móvil y discos duros así que estarías jodido igualmente salvo que vivieras en un búnker reforzado bajo tierra (y aún así tengo mis dudas...)

swapdisk

#22 ¿Ah no? Pues los servidores Plex echan humo cuando les metes pelis en H265 porque la mayoría de los clientes no soportan la deco correctamente y hacen transcoding.

j

#48 Te has pasado con la contestación, y encima eres tú el que no tiene razón. Los límites de entropía que mencionas se refieren a la compresión/codificación SIN pérdidas.

Todos los métodos prácticos actuales de compresión de vídeo son CON pérdidas, y ahí sí, aun no está todo inventado y se puede comprimir mucho más. Todo depende del algoritmo que uses para decidir lo que quieres "perder" al comprimir.

Así que sí, a base de tirar de CPU, aun podemos comprimir tanto como queramos. Depende de la complejidad de nuestro algoritmo.

j

#47 Solo para compresión SIN perdidas. Que no es el caso.

a

#42 En realidad, cada avance viene precedido de la comprensión de lo que resulta funcionalmente más importante para el ojo humano y lo que no es tan importante.
Existe un límite para comprimir la información. Si tú generas varias secuencias de bytes con valores totalmente al azar no encontrarás ningún algoritmo capaz de comprimir esos datos.

Peka

#54 ¿Quien te dice que no tengo mi ordenador del porn en una jaula de faraday?

j

#50 Es lo ultimo que dices.

Hace unos 20 años, cuando empezó a popularizarse el formato MP3, recuerdo a un amigo que me decía sorprendido: "acaba de salir una tecnología que es capaz de comprimir 13 CDs de audio en un solo CD-ROM! El unico problema es que tarda 12 horas en comprimir un solo CD, y además necesitas un 486 para reproducir el fichero"

En esa epoca (sería el año 1991 o 1992), el 486 era un PC de gama media/alta.

e

#60 Solo un apunte: hace 20 años estábamos en el 2000

R

#50 sin ser un experto, un poco de todo. Por un lado, la limitación en cámaras y dispositivos de grabación es el más claro. Lo más habitual es que las cámaras grabaran en un formato de compresión light tipo DV (que comprimía cada frame individualmente mediante DCT, muy similar a jpeg) y luego, una vez editado un ordenador se dedicaría a realizar la conversion del vídeo a un codec más avanzado (proceso extremadamente lento en un ordenador de casa). Este códec (como pasa en los codecs de ahora) no codifica un pixel como parte de un bloque en función de sus otros píxeles cercanos en la imagen, sino que tiene en cuenta su evolución a lo largo del tiempo. Como mencionaba en otro comentario, la complejidad de compresión es mucho mayor que la de reproducción, así que aunque hicieran falta varios segundos por frase para comprimir, la reproducción era rápida.

Muchas de las piezas claves de compresión lossy se hicieron efectivas en los 90, pero basadas en principios matemáticos más antiguos, principalmente transformaciones discretas de cósenos (DCT), propuestas en los 70, y estas a su vez basadas en transformadas de fourier.

Sin embargo, no es solo un problema de fuerza bruta. Si bien hace 20 años el hardware era una limitación, hay muchas técnicas aplicadas hoy en día que no existían hace 20 años.

court

#53 #57 go to #63

Jakeukalane

#43 pues habrá un límite log (n) (o colo de llame) normal ¿no? Lo que al parecer se está lejos...

javipe

#21 Lo puedes hacer por software siempre, y decodificar que suele ser un poco menos pesado, lo puedes hacer en tiempo real. Otra cosa es que si lo haces por hardware normalmente lo puedes hacer con mucha más eficiencia, lo cual en dispositivos móviles redunda en ahorro de la batería.

javipe

#30 Me parece muy optimista decir que H266 reducirá un 50% sobre H265. Habrá que verlo y en qué condiciones. Como siempre influirá los que estén detrás de cada Codec. Me sorprende que algunos están poniendo los huevos en las de los dos cestas AV1, y H266. Los miembros que gobiernan el estándar AV1 son Netflix, Amazon, Google, Apple, Microsoft, Cisco, IBM, ARM, Intel, Facebook, Nvidia, Samsung, Mozilla y Tencent.
Me hace pensar que AV1 va a tener más soporte detrás. Habrá que ver si H266 cumple expectativas porque será la manera de derrotara a AV1

R

#63 se aplica en el sentido de que una compresión lossy es una reducción de la entropia hecha a propósito. En una compresión lossless efectivamente la entropia determina tu límite. En una lossy, es simplemente una propiedad, pero no es mi factor limitante, ya que la entropia de la entrada y de la salida son distintas. No entiendo su relevancia para hablar de un límite teórico para la efectividad de compresión lossy de vídeo

D

#2

Pixels del tamaño 320x200 .... (lo que era una CGA antigua)

BM75

#55 Es un tema bastante específico, no una "nueva necesidad" que afecte a mucha gente. No conozco a nadie que se cambiara de ordenador, tablet o móvil expresamente solo porque saliera H265.

R

#63 por cierto, compresión lossy no es agrupar bloques de información similares bajo un mismo símbolo, eso solo es el último paso. Cuando aplico un MDCT a un archivo de sonido para eliminar ciertas frecuencias y crear un mp3, no estoy agrupando bloques de información similares. Estoy eliminando información (y entropia), pero lo estoy haciendo de una forma muy específica basándome en las limitaciones del oído humano. Lo mismo cuando en compresión de imagen me baso en mantener información de luminancia y desechar parte de la información de crominancia. No es la similitud de los símbolos la que me permite hacer eso, sino la distribución de conos y bastones en el ojo humano limitando nuestra visión en color

BM75

#42 A base de tirar de procesador/chip se puede reducir tanto como uno se quiera.

Evidentemente, NO es cierto.

court

#68 Sí es un factor limitante y el proceso es exactamente el mismo: sin extenderme mucho, puedes pensar en la compresión con pérdida como en el siguiente proceso (dicho rápido y mal, pero equivalente a efectos prácticos):

1) Aplicas un filtro a la entrada para eliminar la información que no te interesa o agrupar/reducir la granularidad/precisión de la menos relevante.
2) Aplicas compresión.

Como ves, lo que determina la pérdida es el filtro aplicado a priori, el resultado del filtro (tu entrada para compresión) tiene cierta entropía y supone un límite como siempre. La compresión con pérdida trata de encontrar mejores filtros que eliminen/agrupen información no relevante para la vista u oído humanos de forma que el impacto en la percepción sea mínimo. Una vez eliminado todo lo que los sentidos humanos no perciben, lo que queda, que es bastante, se comprime con las mismas limitaciones de siempre (las cuales, son matemáticas y absolutas).

En resumen: la compresión con perdida es solo añadir un filtro que transforma la entrada antes de una compresión sin pérdida.

a

#69 El modo 13

Manolitro

#59 Y la red eléctrica que lo alimenta?

pedrobz

#59 Depende de la fuerza del pulso, la jaula te puede servir o no. Aparte, tiene que estar dentro de la jaula en el momento del pulso, y la jaula debe también estar cerrada, una apertura y adiós.

BM75

#24 ¿Conoces a alguien que se cambiara de móvil solo porque salió H265?

e

#67 hay que tener en cuenta que unos compresores buenos importan mucho, por eso al principio de la vida de cada codec es:

codec menos eficiente pero con compresores optimizados > codec mas eficiente pero compresores menos optimizados

R

#65 oh, absolutamente hay un límite. Pero esto es como lo de transmitir datos por el aire. Hace bastante tiempo en la universidad explicaban como el aire como medio de transmisión llegaría a su límite, y que aunque aún lograrían exprimir un poco más, tampoco podría quedar demasiado espacio para mejorar. Han pasado 15 años y ahí siguen mejorando (en justicia, muchas de las mejoras de ahora basadas en usar más frecuencias para wifi o que un dispositivo transmite en múltiples canales si estos están libres no está aumentando el límite teorico

court

#71 lo elaboro en #73, y hay muchas más formas de las que describo dependiendo de qué clase de información quieres comprimir, pero eso no cambia que al final haces una compresión matemática sin pérdida limitada como tal.

R

#73 Si, pero el 99.99% de lo que define un codec como h265 es ese “solo añadir un filtro que transforma la entrada”. La compresión sin pérdida que se hace después es poco más que una nota al pie de página diciendo “Una vez realizado todo esto, aplican Huffman encoding”.

D

#17 Y te fundes la batería en cero coma... Por software lo puedes hacer en un ordenador de sobremesa, pero lo bueno de estos chips es que decodifican consumiendo una fracción de energía.

D

#42 Que me despierten cuando consigan codificar 8K a un bit por segundo

court

#81 En efecto; por eso la afirmación a la que respondía en mi primer comentario era falsa: no puedes comprimir todo lo que quieras tirando de CPU y siempre tienes un límite absoluto; una vez que has descartado la información que no te interesa estás tan limitado como siempre.

Peka

#75 Bateria intercambiable y bateria se recarga fuera de la jaula

Peka

#76 Vivo en ella

D

#45 Pied Piper SIEMPRE comprimira más

Cehona

#41 Intenta reproducirlo a 4320p60 (8K) sin lag y a 1080p60 (en las opciones del video)


swapdisk

#70 no hombre, pero muchos no lo usamos por eso. Requiere hard mucho más moderno y potente. Cierto que ahorras espacio, pero comprimir en H265 también lleva más tiempo.

D

#45 Se dice middle-out.

R

#84 ese comentario original de que podías reducir tanto como quisieras es obviamente falso. Pero te has metido en un berenjenal tu solo añadiendo conceptos que aplican a compresiones lossless y luego te has agarrado a un clavo ardiente para justificar el por que ese concepto era aplicable en este caso y por el camino dejando mensajes (algunos escritos de manera turbia, otros directamente falsos) que lo único que hacen es complicar aún más un tema que ya de por si es complejo para gente que no esté familiarizada

b

#86 ¿Como tienes internet dentro de una auténtica jaula de Faraday?

l

#13 totalmente
Yo paso a 265 todos los videos del móvil y pasan de ocupar 200megas a 25megas. Cerca de un 90% de menos espacio.
Y ya he parece increíble. Que ocupen unos 15 megas, más increíble todavía

Lo del HW, all final en unos años todos los procesadores soportaran 265, 266

Peka

#92 He dicho que es mi ordenador del P0rn hay que seguir la conversación.

b

#33 Con buena *** bien se ***

(con buena cpu bien se decodifica, mal pensados)

D

#74

19 ó 13H , pero eso es VGA, CGA era más limitadita.

https://en.wikipedia.org/wiki/Mode_13h

R

#83 mañana mismo. Espero que no seas muy exigente con el frame rate, va a estar algo lejos de 60 fps. Mejor si empezamos a hablar de fph, o mejor aún, fpd. Creo que podría sacar casi 2fpd.

Corrección, me he equivocado por un orden de magnitud, que tal si vamos a fpa?

court

#91 Puedes decirme qué he dicho que sea falso? La compresión con perdida, a pesar de nombre, no es lo que puede sugerir: es filtrado + compresión sin pérdida y se rige por las mismas limitaciones porque la compresión es la misma: la parte de filtrado NO es compresión, es filtrado. Por otro lado, no he reducido en absoluto el comentario, si hay otras conclusiones que puedas sacar de lo que dice (voy a ignorar por tu bien la frase en negrita), por favor, muéstralas.

Y no considero que me haya mentido en ningún berenjenal Cuando tengo un rato libre no me importa rebatir la desinformación y las tonterías que se dicen por váyase a saber usted qué motivo; especialmente cuando el autor habla tratando de sentar cátedra sobre un tema que desconoce.

seby

#79 Vaya por delante mi ignorancia, pero las ondas electromagnéticas son de frecuencias infinitas, con lo cual podrás aumentar la frecuencia (que es proporcional a la potencia) hasta el límite de que sean nocivas con los seres vivos.
Una vez se llegue al límite, se podría utilizar doble o triple canales a la vez para transmitir la información.
El ancho de banda con esa supuesta tecnología sería infinito.

D

#12 Bienvenido a la epoca de los favoritos en tu navegador.

1 2