Hace 3 años | Por ccguy a newsletter.fraunhofer.de
Publicado hace 3 años por ccguy a newsletter.fraunhofer.de

Tras dedicar varios años a su investigación y normalización, Fraunhofer HHI (junto con socios de la industria como Apple, Ericsson, Intel, Huawei, Microsoft, Qualcomm y Sony) está celebrando el lanzamiento y la adopción oficial del nuevo estándar mundial de codificación de vídeo H.266/Versatile Video Coding (VVC). Este nuevo estándar ofrece una compresión mejorada, que reduce los bits requeridos en un 50% en relación al anterior H265 sin reducir la calidad de la imagen.

Comentarios

b

#7 #12 #13 #29 #32 Aparte de que las webs de streaming, recomprimen los vídeos, con un bitrate bastante más inferior.

D

#12 Bienvenido a la epoca de los favoritos en tu navegador.

ccguy

#100 poco útil si desaparece el contenido

Sadalsuud

#2 Solo por eso Lucifer, en su sabiduría, tiene un lugar especial en el infierno para todos esos hipócritas de ojos rasgados que sacaron adelante la ley que obligaba a censurar los genitales, junto con los que codificaban el canal plus los viernes por la noche, y otro para la... bueno, pues eso, lo dejo así que no quiero ganarme un calzador...

D

#2 La codificación del C+ del siglo XXI.

sieteymedio

#2 comentario de calidad y sabiduría.

D

#2

Pixels del tamaño 320x200 .... (lo que era una CGA antigua)

a

#69 El modo 13

D

#74

19 ó 13H , pero eso es VGA, CGA era más limitadita.

https://en.wikipedia.org/wiki/Mode_13h

a

#96 Sí, yo hablaba por la resolución y los 64000 bytes de imagen en crudo lol

Saludos.

x

#2 4K es magnífico, casi injustificable. 8K no me lo imagino, lo tengo que ver.

Ahora bien, esto es justo lo que le hacía falta a DP 1.4 para poder mover 8K a 60Hz.

D

#1 ¿Aún almacenas porno? Bienvenido a la época del streaming. Xvideos, Pornhub hay cantidad indigente de material porno sin almacenar nada.

sieteymedio

#7 Menudo noob. Y el día en que retiren todos los videos de tu fetiche o actor preferido porque han decidido que no son legales?

Peka

#7 La conexión siempre se puede caer o peor un día puede llegar un pulso electromagnético y se jodió todo Internet.

Peazo_galgo

#32 en caso de pulso electromagnético fuerte se joderian todos los cacharros electrónicos incluidos tu ordenador,tablet, móvil y discos duros así que estarías jodido igualmente salvo que vivieras en un búnker reforzado bajo tierra (y aún así tengo mis dudas...)

Peka

#54 ¿Quien te dice que no tengo mi ordenador del porn en una jaula de faraday?

Manolitro

#59 Y la red eléctrica que lo alimenta?

Peka

#75 Bateria intercambiable y bateria se recarga fuera de la jaula

jhoker

#75 bateria de patata, 100% libre de emisiones e independiente de red electrica 😂

pedrobz

#59 Depende de la fuerza del pulso, la jaula te puede servir o no. Aparte, tiene que estar dentro de la jaula en el momento del pulso, y la jaula debe también estar cerrada, una apertura y adiós.

Peka

#76 Vivo en ella

b

#86 ¿Como tienes internet dentro de una auténtica jaula de Faraday?

Peka

#92 He dicho que es mi ordenador del P0rn hay que seguir la conversación.

Cyrus_

#54 Entiendo que el dice que el pulso electromagnetico esté cerca del servidor de la nube, pero lejos de sus discos duros.

soyTanchus

#7 Ingente, se dice ingente.

D

#1 Y una CPU así de grande para poder verlo.

rogerius

#1 «The new chips required for the use of H.266/VVC, such as those in mobile devices, are currently being designed.»

P

Pied Piper comprime más.

D

#45 Pied Piper SIEMPRE comprimira más

D

#45 Se dice middle-out.

court

#53 #57 go to #63

R

#63 se aplica en el sentido de que una compresión lossy es una reducción de la entropia hecha a propósito. En una compresión lossless efectivamente la entropia determina tu límite. En una lossy, es simplemente una propiedad, pero no es mi factor limitante, ya que la entropia de la entrada y de la salida son distintas. No entiendo su relevancia para hablar de un límite teórico para la efectividad de compresión lossy de vídeo

court

#68 Sí es un factor limitante y el proceso es exactamente el mismo: sin extenderme mucho, puedes pensar en la compresión con pérdida como en el siguiente proceso (dicho rápido y mal, pero equivalente a efectos prácticos):

1) Aplicas un filtro a la entrada para eliminar la información que no te interesa o agrupar/reducir la granularidad/precisión de la menos relevante.
2) Aplicas compresión.

Como ves, lo que determina la pérdida es el filtro aplicado a priori, el resultado del filtro (tu entrada para compresión) tiene cierta entropía y supone un límite como siempre. La compresión con pérdida trata de encontrar mejores filtros que eliminen/agrupen información no relevante para la vista u oído humanos de forma que el impacto en la percepción sea mínimo. Una vez eliminado todo lo que los sentidos humanos no perciben, lo que queda, que es bastante, se comprime con las mismas limitaciones de siempre (las cuales, son matemáticas y absolutas).

En resumen: la compresión con perdida es solo añadir un filtro que transforma la entrada antes de una compresión sin pérdida.

court

#71 lo elaboro en #73, y hay muchas más formas de las que describo dependiendo de qué clase de información quieres comprimir, pero eso no cambia que al final haces una compresión matemática sin pérdida limitada como tal.

R

#73 Si, pero el 99.99% de lo que define un codec como h265 es ese “solo añadir un filtro que transforma la entrada”. La compresión sin pérdida que se hace después es poco más que una nota al pie de página diciendo “Una vez realizado todo esto, aplican Huffman encoding”.

court

#81 En efecto; por eso la afirmación a la que respondía en mi primer comentario era falsa: no puedes comprimir todo lo que quieras tirando de CPU y siempre tienes un límite absoluto; una vez que has descartado la información que no te interesa estás tan limitado como siempre.

R

#84 ese comentario original de que podías reducir tanto como quisieras es obviamente falso. Pero te has metido en un berenjenal tu solo añadiendo conceptos que aplican a compresiones lossless y luego te has agarrado a un clavo ardiente para justificar el por que ese concepto era aplicable en este caso y por el camino dejando mensajes (algunos escritos de manera turbia, otros directamente falsos) que lo único que hacen es complicar aún más un tema que ya de por si es complejo para gente que no esté familiarizada

court

#91 Puedes decirme qué he dicho que sea falso? La compresión con perdida, a pesar de nombre, no es lo que puede sugerir: es filtrado + compresión sin pérdida y se rige por las mismas limitaciones porque la compresión es la misma: la parte de filtrado NO es compresión, es filtrado. Por otro lado, no he reducido en absoluto el comentario, si hay otras conclusiones que puedas sacar de lo que dice (voy a ignorar por tu bien la frase en negrita), por favor, muéstralas.

Y no considero que me haya mentido en ningún berenjenal Cuando tengo un rato libre no me importa rebatir la desinformación y las tonterías que se dicen por váyase a saber usted qué motivo; especialmente cuando el autor habla tratando de sentar cátedra sobre un tema que desconoce.

R

#98 la frase en negrita no es mia, si hay algo que claramente los dos estamos de acuerdo es que esa frase es completamente falsa

Efectivamente, toda compresión lossy es una parte de filtrado y después una aplicación de una compresión lossless. Pero cuando alguien te dice algo como que h266 comprime el doble que h265, no te está diciendo que la parte de compresión lossless de h266 es más eficaz, te habla de la parte de filtrado. Porque la parte de compresion lossless no ha cambiado en 25 años. Si crease un codec de vídeo y por alguna estupida razon decidiera no aplicar esa fase de compresión lossless final, la gente lo seguiría llamando compresión lossy, incluso cuando solo tuviera la parte de filtrado.

El factor limitante de compresiones lossy no es la entropia del mensaje inicial (que se ve reducida), sino la eficacia del filtro inicial de reducir dicha entropia mientras que se engaña al sentido humano. Y como no hay dos humanos iguales, esto se convierte en algo aún más subjetivo, donde la industria intenta un nivel aceptable para la mayor parte de la gente. Pero para una persona sorda, una compresión lossy de audio podría perfectamente tener cero bits y aún así ser aceptable.

En un mensaje comentabas:
compresión con perdida: que no es más que agrupar bloques de información similares bajo un mismo símbolo.

Que no es correcto

x

#73 Nada te impide comparar el stream obtenido con el real y mandar la diferencia por otro canal.

R

#63 por cierto, compresión lossy no es agrupar bloques de información similares bajo un mismo símbolo, eso solo es el último paso. Cuando aplico un MDCT a un archivo de sonido para eliminar ciertas frecuencias y crear un mp3, no estoy agrupando bloques de información similares. Estoy eliminando información (y entropia), pero lo estoy haciendo de una forma muy específica basándome en las limitaciones del oído humano. Lo mismo cuando en compresión de imagen me baso en mantener información de luminancia y desechar parte de la información de crominancia. No es la similitud de los símbolos la que me permite hacer eso, sino la distribución de conos y bastones en el ojo humano limitando nuestra visión en color

x

#63 go to #108

Jakeukalane

#43 pues habrá un límite log (n) (o colo de llame) normal ¿no? Lo que al parecer se está lejos...

R

#65 oh, absolutamente hay un límite. Pero esto es como lo de transmitir datos por el aire. Hace bastante tiempo en la universidad explicaban como el aire como medio de transmisión llegaría a su límite, y que aunque aún lograrían exprimir un poco más, tampoco podría quedar demasiado espacio para mejorar. Han pasado 15 años y ahí siguen mejorando (en justicia, muchas de las mejoras de ahora basadas en usar más frecuencias para wifi o que un dispositivo transmite en múltiples canales si estos están libres no está aumentando el límite teorico

seby

#79 Vaya por delante mi ignorancia, pero las ondas electromagnéticas son de frecuencias infinitas, con lo cual podrás aumentar la frecuencia (que es proporcional a la potencia) hasta el límite de que sean nocivas con los seres vivos.
Una vez se llegue al límite, se podría utilizar doble o triple canales a la vez para transmitir la información.
El ancho de banda con esa supuesta tecnología sería infinito.

x

#99 El "ancho de banda", lo que significa es que si transmites más información estás ocupando las frecuencias adyacentes también. Usar frecuencias muy altas tiene límites, como entrar en la banda visible, que eso no lo vas a hacer (pero hay satélites que lo hacen, para radars). La transparencia de los materiales de construcción baja a casi nada por encima de los 6GHz.

x

#79 Una evaluación de hace algunos años decía que tenemos frecuencias de sobra, las cuales, debidamente, usadas, son más que suficientes para todos los datos que estamos transmitiendo.

x

#65 Lo que hace un algoritmo de compresión es adivinar la siguiente imágen de una secuencia. Si la adivina exactamente no hay que transmitir nada más. Si la diferencia es pequeña, se transmitirá poca cosa. La cantidad de cosas adivinables no creo que tenga un límite.

p

#18 Por eso están diseñando chips de decodificación, para no cargar el procesador con un proceso tan pesado. Además así tendrán una excusa para hacerte comprar un móvil nuevo.

Cehona

#24 ¿8K en un móvil? ¿Es necesario?

#27 no. Tampoco hace falta 4k, pero como cualquier vídeo se va a grabar para ser visto en diferentes soportes, y uno de ellos va a ser la una televisión... te comes el archivazo de chorrocientos megas en el Movil...

j

#27 el nuevo codec no es solo para 8k, puedes usarlo en cualquier otra resolución y reducir la cantidad de datos a la mitad (con respecto a h265 y a 1/4 con respecto a h264)

Cehona

#41 Intenta reproducirlo a 4320p60 (8K) sin lag y a 1080p60 (en las opciones del video)


j

#88 No entiendo que intentas decir. Por si acaso voy a aclarar lo que pretendo decir en mi anterior comentario:

De este nuevo codec (h266) no solo se van a beneficiar los videos en 8k, también se podrán codificar videos en 1080p o 4k y reducir su tamaño manteniendo la calidad.
Lo mismo sucede con h265.

Al reproducir los videos que pones, el video en 8k me va a saltos. ¿Y?
Ni siquiera tengo resolución 8k en el portatil. Pero puedo reproducir el video en 1080p codificado con el codec VP9 (similar en rendimiento al h265 - usado para 4k), por lo tanto me estoy beneficiando de un codec más eficiente que el h264 con una resolución "solo" 1080p.

BM75

#24 ¿Conoces a alguien que se cambiara de móvil solo porque salió H265?

e

#18 lo normal seria compararlo a AV1, el cual actualmente requiere una capacidad de computo muy superior a H265 logrando una reducción leve en el bitrate, misma calidad

El problema va a ser el huevo y la gallina, el codec mas soportado ganara y a estas alturas deberiamos ir viendo compresores y decompresores hardware para AV1 en cambio le falta 1 año para ver lo mismo en H266.

AV1 mejora en un 25% a H265
H266 mejora en un 50 a H265

¿Será notable la mejora? ¿o será algo marginal?

javipe

#30 Me parece muy optimista decir que H266 reducirá un 50% sobre H265. Habrá que verlo y en qué condiciones. Como siempre influirá los que estén detrás de cada Codec. Me sorprende que algunos están poniendo los huevos en las de los dos cestas AV1, y H266. Los miembros que gobiernan el estándar AV1 son Netflix, Amazon, Google, Apple, Microsoft, Cisco, IBM, ARM, Intel, Facebook, Nvidia, Samsung, Mozilla y Tencent.
Me hace pensar que AV1 va a tener más soporte detrás. Habrá que ver si H266 cumple expectativas porque será la manera de derrotara a AV1

e

#67 hay que tener en cuenta que unos compresores buenos importan mucho, por eso al principio de la vida de cada codec es:

codec menos eficiente pero con compresores optimizados > codec mas eficiente pero compresores menos optimizados

k

Ya nos van a vender nuevas necesidades:
The new chips required for the use of H.266/VVC, such as those in mobile devices, are currently being designed

A

#11 no sé si es que esperabas que un nuevo sistema de codificación y descodificación se pudiera hacer en hardware no diseñado para ello

ailian

#16 Se puede hacer por software.

torkato

#17 por software se puede hacer, pero va fatal.

#23 con un buen trabuco...

b

#33 Con buena *** bien se ***

(con buena cpu bien se decodifica, mal pensados)

#95 lo iba a poner, pero no me salían términos tan apropiados

Hermano separado al nacer

torkato

#23 Ya, claro, pero lo suyo es que esté optimizado. Si tienes que comparte un Ryzen 7 o un i9 para ver vídeos mal vamos.

luckyz

#23 A costa del uso de potencia. Un chip siempre va a ser más eficiente y por eso las primeras versiones van en CPU y luego salen chips que lo hacen 10 veces más rápido por 10 veces menos energía.

D

#17 Y te fundes la batería en cero coma... Por software lo puedes hacer en un ordenador de sobremesa, pero lo bueno de estos chips es que decodifican consumiendo una fracción de energía.

Zade

#21 y VP9 en el Apple TV a partir de tvOS 14

javipe

#21 Lo puedes hacer por software siempre, y decodificar que suele ser un poco menos pesado, lo puedes hacer en tiempo real. Otra cosa es que si lo haces por hardware normalmente lo puedes hacer con mucha más eficiencia, lo cual en dispositivos móviles redunda en ahorro de la batería.

BM75

#11 No pasó con el H265. Tampoco hace falta exagerar...

swapdisk

#22 ¿Ah no? Pues los servidores Plex echan humo cuando les metes pelis en H265 porque la mayoría de los clientes no soportan la deco correctamente y hacen transcoding.

BM75

#55 Es un tema bastante específico, no una "nueva necesidad" que afecte a mucha gente. No conozco a nadie que se cambiara de ordenador, tablet o móvil expresamente solo porque saliera H265.

swapdisk

#70 no hombre, pero muchos no lo usamos por eso. Requiere hard mucho más moderno y potente. Cierto que ahorras espacio, pero comprimir en H265 también lleva más tiempo.

D

#89 Al final es coste/beneficio. Yo aún tiro de H264 HLS por ser el más soportado y el que menos hace sufrir a los clientes.
Podría ahorrar disco y ancho de banda en H265 pero ahora mismo en mi caso no me compensa... veremos con el tiempo

Yosemite

#11 Ahí le has dado. ¿Para qué mejorar el software si podemos tirar el hardware actual a la basura y forzar uno nuevo?
¿Cuál es el negocio del software? La venta de hardware lol
Será por eso que Apple, Ericsson, Intel, Huawei, Microsoft, Qualcomm y Sony está celebrando el lanzamiento

m

#11: Y que son promesas muy teóricas:
Este nuevo estándar ofrece una compresión mejorada, que reduce los bits requeridos en un 50% en relación al anterior H265 sin reducir la calidad de la imagen.
Claro, como YouTube, que ahora saludan y se mueve todo el fondo alrededor de la mano. lol
O sea, anotan cuatro vectorcillos de movimiento, el resto va interpolado, no hay corrección de errores y pasa lo que tiene que pasar, que se arrastra el fondo como si fuera parte del frente. lol

Catapulta

El flautista retorna!

R

Me parece absolutamente increíble como siguen logrando exprimir aún más los algoritmos de compresión. Donde está el límite?

sieteymedio

#13 En la pasta que te puedas gastar en hardware, como siempre.

K

#13 todos estos algoritmos se crean en base de aumentar considerablemente el uso del procesador/chip de decoding. A base de tirar de procesador/chip se puede reducir tanto como uno se quiera. El problemas es que no hay hardware que pueda descomprimir nada si tu algoritmo es muy exigente. Cada salto generacional es básicamente un poquito de algoritmo de compresión como la mayoría lo entiende y un aumento considerable del uso de chip.

j

#48 Te has pasado con la contestación, y encima eres tú el que no tiene razón. Los límites de entropía que mencionas se refieren a la compresión/codificación SIN pérdidas.

Todos los métodos prácticos actuales de compresión de vídeo son CON pérdidas, y ahí sí, aun no está todo inventado y se puede comprimir mucho más. Todo depende del algoritmo que uses para decidir lo que quieres "perder" al comprimir.

Así que sí, a base de tirar de CPU, aun podemos comprimir tanto como queramos. Depende de la complejidad de nuestro algoritmo.

a

#42 En realidad, cada avance viene precedido de la comprensión de lo que resulta funcionalmente más importante para el ojo humano y lo que no es tan importante.
Existe un límite para comprimir la información. Si tú generas varias secuencias de bytes con valores totalmente al azar no encontrarás ningún algoritmo capaz de comprimir esos datos.

BM75

#42 A base de tirar de procesador/chip se puede reducir tanto como uno se quiera.

Evidentemente, NO es cierto.

D

#42 Que me despierten cuando consigan codificar 8K a un bit por segundo

R

#83 mañana mismo. Espero que no seas muy exigente con el frame rate, va a estar algo lejos de 60 fps. Mejor si empezamos a hablar de fph, o mejor aún, fpd. Creo que podría sacar casi 2fpd.

Corrección, me he equivocado por un orden de magnitud, que tal si vamos a fpa?

court

#13 El límite de cuánto se pueden comprimir X bits viene determinado por su entropía https://es.wikipedia.org/wiki/Entrop%C3%ADa_(informaci%C3%B3n)#Codificador_%C3%B3ptimo

R

#47 si, pero el tema es que aquí no se están comprimiendo bits realmente, h266 es lossy, por tanto no hay necesidad de recrear la señal original a la perfección. Los ahorros en espacio que se podrían obtener usando compresiones basadas en árboles de Huffman por ejemplo hace ya tiempo que se superaron en algoritmos de compresión de vídeo (entre otras cosas porque MPEG ya pasaba el resultado de la compresión lossy por un Huffman y entiendo que sigue siendo el caso, o similar, en h266

j

#47 Solo para compresión SIN perdidas. Que no es el caso.

l

#13 totalmente
Yo paso a 265 todos los videos del móvil y pasan de ocupar 200megas a 25megas. Cerca de un 90% de menos espacio.
Y ya he parece increíble. Que ocupen unos 15 megas, más increíble todavía

Lo del HW, all final en unos años todos los procesadores soportaran 265, 266

x

#13 Se puede hacer mucho más, el límite está en un protocolo donde le das la descripción del personaje y dices: "ahora que ande más deprisa mientras mastica chicle poniendo cara de felicidad", el algoritmo simula eso y solo hay que transmitir pequeñas diferencias, sin duda debidas a la creatividad del director.

m

#13: Sería interesante ver si ese 50% es "tuneado" o si es real. Mira lo que decían de WEBP, que le daba 100 vueltas a JPEG y al final... pues eso que normalmente suelen hacer la comparación sacando a JPEG fuera de su ámbito de trabajo, no sabemos si usan las opciones que mejor lo optimizan... el caso es que un JPEG bien optimizado no queda casi atrás. Aquí hay que destacar la compresión aritmética, que en JPEG no se ha usado tradicionalmente por un tema de patentes y lo que hacen es comparar un JPEG que sigue sin usarla con un formato que sí la usa, lo cual no es una comparación real. De hecho incluso sería interesante implementar Maniac en JPEG y hacer las comparaciones así en los formatos que usen Maniac, si bien no es realista porque JPEG no lo usa, pero puede ayudar a interpretar si la forma de tratar la imagen es mejor o peor. Como dato: un formato sin pérdida como PNG que usa Maniac en vez de Deflate, comprime una barbaridad, hasta un tercio respecto de un PNG ya optimizado, se llama FLIF:
https://en.wikipedia.org/wiki/Free_Lossless_Image_Format

Y también es típico mirar medidas que a lo mejor matemáticamente están bien, pero que no siempre se corresponden con lo que vemos, como el PNSR, que a lo mejor una imagen es mejor que otra, pero luego la miras y está demasiado difuminada y a nuestro ojo representa la realidad peor que la otra. Aquí añadiría lo que digo en otro comentario: si a un algoritmo PNSR le importa poco que se mueva el fondo al mover el frente, a mi como humano sí me importa porque se me hace "raro" de ver.

Peachembela

deberían colocarles otros nombres, esa nomenclatura lleva a confundir.

vacuonauta

#3 confunde, sí, pero mejor eso que ir de ultracompression a ultracompression supra y de ahí a ultracompression supra top, etc

M

#5 La noche,... obvious.

E

#3 Hay otra nomenclatura:
H264 = AVC (Advanced Video Coding)
H265 = HEVC (High Efficiency Video Coding)
H266 = VVC (Versatile Video Coding)

D

A mi ya me parece brutal la compresión que conseguía h265... En 10 años tenemos una película 3D 4K 60fps en 20Mb 😂

Mariele

El intituto Fraunhofer se sale. Un par de centros así en España y arreglábamos el prejuicio de que aquí solo estamos para sangrías, toros, sevillanas y palillos en la boca.

A todo esto, me alucina que sigan mejorando la compresión de vídreo así. Tengo una pregunta para algún experto: ¿Estas técnicas de codificación de vídeo hubieran tenido alguna ventaja 20 años atrás? O es que la razón por la que se usaban cosas como mpeg1 o incluso video raw a pelo era no tanto por no saber cómo hacerlo mejor sinó por limitaciones en el número de cálculos que reproductores y cámaras podían hacer?

j

#50 Es lo ultimo que dices.

Hace unos 20 años, cuando empezó a popularizarse el formato MP3, recuerdo a un amigo que me decía sorprendido: "acaba de salir una tecnología que es capaz de comprimir 13 CDs de audio en un solo CD-ROM! El unico problema es que tarda 12 horas en comprimir un solo CD, y además necesitas un 486 para reproducir el fichero"

En esa epoca (sería el año 1991 o 1992), el 486 era un PC de gama media/alta.

e

#60 Solo un apunte: hace 20 años estábamos en el 2000

R

#50 sin ser un experto, un poco de todo. Por un lado, la limitación en cámaras y dispositivos de grabación es el más claro. Lo más habitual es que las cámaras grabaran en un formato de compresión light tipo DV (que comprimía cada frame individualmente mediante DCT, muy similar a jpeg) y luego, una vez editado un ordenador se dedicaría a realizar la conversion del vídeo a un codec más avanzado (proceso extremadamente lento en un ordenador de casa). Este códec (como pasa en los codecs de ahora) no codifica un pixel como parte de un bloque en función de sus otros píxeles cercanos en la imagen, sino que tiene en cuenta su evolución a lo largo del tiempo. Como mencionaba en otro comentario, la complejidad de compresión es mucho mayor que la de reproducción, así que aunque hicieran falta varios segundos por frase para comprimir, la reproducción era rápida.

Muchas de las piezas claves de compresión lossy se hicieron efectivas en los 90, pero basadas en principios matemáticos más antiguos, principalmente transformaciones discretas de cósenos (DCT), propuestas en los 70, y estas a su vez basadas en transformadas de fourier.

Sin embargo, no es solo un problema de fuerza bruta. Si bien hace 20 años el hardware era una limitación, hay muchas técnicas aplicadas hoy en día que no existían hace 20 años.

e

#50 Ambas cosas el formato mp3 no se hacía con mas calidad por que las maquinas no podrían hacer nada con el... y muchas de las técnicas que usan los codecs actuales no existian de aquella, asi que ambas.

Mariele

Yo estoy tirando billetes contra la pantalla pidiendo vídeo con 6 grados de libertad para el espectador, pero nada rebota

Naiyeel

#51 Dale un poco de tiempo a la IA y tendremos eso y lo mas importante, videos de japonesas sin pixelar.

sieteymedio

"Bienvenido a pornotits.com. Necesitas un procesador con tecnología XFEFfen 266 para disfrutarla al máximo."

1 2