EDICIóN GENERAL
299 meneos
1660 clics
Google libera el código de su algoritmo para reducir el tamaño de los JPEG hasta en un 35%

Google libera el código de su algoritmo para reducir el tamaño de los JPEG hasta en un 35%

Google sigue trabajando en mejorar su procesado de imagen. Si hace unos meses habábamos de RAISR, la técnica con la que la Gran G pensaba crear imágenes de alta resolución a partir de muestras de mucha menor calidad, hoy la empresa de Mountain View vuelve a ofrecernos novedades en este campo. Según han publicado a través del Google Research Blog están trabajando con un nuevo codificador para archivos JPEG llamado Guetzli, con el que pretenden reducir el tamaño de estos ficheros un 35% con respecto a los archivos que se generan actualmente.

etiquetas: google , jpeg , 35% , compresión , algoritmo
Esta claro que la gran G no es la que hace tiempo conquistó la página de inicio de nuestros navegadores, pero se me ocurren pocas empresas que sin ser centradas en el software libre realicen cobtribuciones a este de semejante calidad.
Cuando se lo ganan hay que reconocerlo, cuando se meten en nuestros habitos, hasta los más íntimos, también hay que cerrarles la puerta.
#1 Conquistó la página de inicio de los navegadores porque era una simple caja de texto para buscar y un logo, mientras que la competencia eran prácticamente portales web y tardaban varios segundos en cargarse, con conexiones de modem de 56 kb.
#9 daba mejores resultados que la competencia.
#16 Eso es muy discutible. Incluso ahora, si buscas algo te dará resultados en base a lo que has buscado anteriormente, y a lo que busca la gran masa de gente, que ni por asomo quiere decir que sea la mejor búsqueda posible.

Yo pasé por muchos buscadores. El que más recuerdo haber usado era lycos, y si me pasé a google fue por lo que he dicho, porque cargaba volando cuando las conexiones eran con modems y a la hora de la tarifa plana no tiraban ni a la de tres.
#17 La velocidad o peso la página no eran para tanto. Había buscadores ligeros:

www.brandnewthinking.de/wp-content/uploads/2011/06/Bildschirmfoto-2011

Claro que rapidez y limpieza al mostrar los resultados, sin anuncios molestos, atrajo a muchos. Pero lo que enganchó a la mayoría de los usuarios fue la calidad.

Lo más normal era que cuando buscabas algo tuvieras que visitar los 10, 15, 20 primeros resultados o mas mientras que con google lo que buscabas…   » ver todo el comentario
#16 #17 Eso es completamente indiscutible.

A mi me pasó justo lo contrario, la página de Google me parecía horrenda con su logo cutre y su sencillez, pero tuve que rendirme ante la evidente superioridad de los resultados de búsqueda.
#16 Por eso también ... :-D
Pues con el ejemplo puesto se han lucido, el degradado de la imagen es muy superior al de libjpeg.
#2 libjpeg es la del medio
#2 #8 No creo que el mejor ejemplo del mundo sea una imagen de 190x240 px y que ya incialmente parece pixelada. No se lo han currado mucho en el artículo, que digamos. Imagino que es un zoom de otra imagen mayor. Qué menos que hubiesen puesto enlaces a esos ejemplos.
#2 #8 #10 yo veo muchos menos artefactos en la de más a la derecha que en la de en medio, lo cual es bueno.
#15 En las zonas homogéneas sí
Pero en las de detalle no. Ahí libjpeg tiene algunos incrementos de brillo puntuales, pocos. Pero la de google directamente cambia tonos a cholón, baste ver entre las 7 y las 9 del iris, donde sustituye los verdes por tierras.
Parece que un mix con las ventajas de ambas sería lo ideal.
#23: Es que es algo bastante típico, que una imagen parece que está más comprimida "sin que se note", pero luego te fijas bien y el algoritmo mata las texturas o atenúa los bordes. Esto ya lo "estudié" con el JPEG 2000, que parecía muy guay pero a veces se comía las texturas.
#15 Pues serás tú, porque yo veo en la imagen de la derecha unos colores más alterados y más apagados.
#10 es un zoom, en el de tamaño original no se ve la diferencia
#8 Ya me había percatado, lo pone a pie de foto.
Parece poco, pero un ahorro de un 35% de las imágenes de todas las webs, multiplicado por todas las visitas, puf, ya no solo es un tiempo de carga más rápido, hablamos de una cantidad de bits colosal.
Aproximadamente un 35% más de pr0n en el mismo ancho de banda.

Esto en la época de los 56k valía un Nobel.
#4 ¿Nobel? ¡Le haciamos emperador mundial!
#4 Depende como lo mires, para ese entonces sería la misma cantidad de pornografía pero menos pixelada. :troll:
#4 si ocupa un 35% menos, tienes un 53% más en el mismo ancho de banda.
#29 Nope. 1 / 1,35 = 0,7474

Si que que es cierto que en lo tardabas en descargarte 0,7474 MB de pr0n , ahora te descargas 1 MB.

Sobre 0,7474, es verdad que 0,35 es un 46,8%, pero no sería un incremento del 53%.


Todo esto para decir que la paja te iba a durar menos.
#30 bueno, yo el número que usaba es 1-0,35=0,65
#6 Ya hay algoritmos que lo superan, no sé si guardarán relación: www.jpegmini.com/
(no spam)
No creo que comprima la foto del negro que circula por ahí
Según han publicado a través del Google Research Blog están trabajando con un nuevo codificador para archivos JPEG llamado Guetzli, con el que pretenden reducir el tamaño de estos ficheros un 35% con respecto a los archivos que se generan actualmente

Una no-noticia con un titular mierder
#12 Están trabajando => el trabajo continúa.
Pretenden conseguir => El software ya lo hace pero ahora hay que usarlo.

Y la noticia es la liberación del código que se ya está disponible como dice el titular:
github.com/google/guetzli/

En fin, un comentario basado en una no-lectura.
Veo que ni siquiera han mirado el paper para redactar la noticia, han copiado y pegado de su "fuente". arxiv.org/abs/1703.04421
#14 Se han conformado con lo publicado en el blog oficial de Google por lo que parece.
¿pretenden?

Pues cuando lo hagan, que pongan la noticia. Hasta entonces ¿qué significa?
¿humo?
¿obsolescencia?
Han fichado a los de 'El flautista' :troll:
Lo que hay que hacer es que abandonar el formato .JPG y pasarse al .BPG de una vez.
#28 Sí, BPG está muy bien, pero muchísimos programas no lo soportan.

Salu2
#32 Como no se soportaba el JPG al principio, ni el PCX, ni el BMP, ni el GIF....
No vale eso, lo que sí vale es que se lo tomen en serio, pero no interesa...

Luchemos por el BPG por favor.
Mo he probado y realmente funciona, una imagen de 178k que la ha comprimido a 121k . Eso si ha tardado más de 2 minutos.
Y la calidad la verdad que igualita, un 10 por google.
¿Cómo se compara esto con Lepton (github.com/dropbox/lepton)? Porque Lepton existe desde hace ya tiempo, está probado, funciona bien, y reduce el tamaño de los JPEG sin modificar la imagen.

De todas maneras la verdadera solución es encontrar un formato que sustituya de una vez a JPEG. Mi favorito actualmente es FLIF (flif.info)
comentarios cerrados

menéame