Hace 7 años | Por ccguy a genbeta.com
Publicado hace 7 años por ccguy a genbeta.com

Google sigue trabajando en mejorar su procesado de imagen. Si hace unos meses habábamos de RAISR, la técnica con la que la Gran G pensaba crear imágenes de alta resolución a partir de muestras de mucha menor calidad, hoy la empresa de Mountain View vuelve a ofrecernos novedades en este campo. Según han publicado a través del Google Research Blog están trabajando con un nuevo codificador para archivos JPEG llamado Guetzli, con el que pretenden reducir el tamaño de estos ficheros un 35% con respecto a los archivos que se generan actualmente.

Comentarios

omegapoint

#4 ¿Nobel? ¡Le haciamos emperador mundial!

D

#4 Depende como lo mires, para ese entonces sería la misma cantidad de pornografía pero menos pixelada.

D

#4 si ocupa un 35% menos, tienes un 53% más en el mismo ancho de banda.

D

#29 Nope. 1 / 1,35 = 0,7474

Si que que es cierto que en lo tardabas en descargarte 0,7474 MB de pr0n , ahora te descargas 1 MB.

Sobre 0,7474, es verdad que 0,35 es un 46,8%, pero no sería un incremento del 53%.


Todo esto para decir que la paja te iba a durar menos.

D

#30 bueno, yo el número que usaba es 1-0,35=0,65

millanin

#9 daba mejores resultados que la competencia.

millanin

#17 La velocidad o peso la página no eran para tanto. Había buscadores ligeros:

http://www.brandnewthinking.de/wp-content/uploads/2011/06/Bildschirmfoto-2011-06-30-um-11.21.192-458x432.png

Claro que rapidez y limpieza al mostrar los resultados, sin anuncios molestos, atrajo a muchos. Pero lo que enganchó a la mayoría de los usuarios fue la calidad.

Lo más normal era que cuando buscabas algo tuvieras que visitar los 10, 15, 20 primeros resultados o mas mientras que con google lo que buscabas estaba en los primeros resultados. Ningún otro buscador tenía botón de Voy a tener suerte.

Aunque lo han modificado con el tiempo, en su momento google, gracias a PageRank, daba mejores resultados. Aún hoy en día los demás buscadores no son tan fiables aunque copien el estilo de google.

D

#16 #17 Eso es completamente indiscutible.

A mi me pasó justo lo contrario, la página de Google me parecía horrenda con su logo cutre y su sencillez, pero tuve que rendirme ante la evidente superioridad de los resultados de búsqueda.

luiggi

#16 Por eso también ...

omegapoint

Parece poco, pero un ahorro de un 35% de las imágenes de todas las webs, multiplicado por todas las visitas, puf, ya no solo es un tiempo de carga más rápido, hablamos de una cantidad de bits colosal.

Cerner

Pues con el ejemplo puesto se han lucido, el degradado de la imagen es muy superior al de libjpeg.

D

#2 libjpeg es la del medio

Mister_Lala

#2 #8 No creo que el mejor ejemplo del mundo sea una imagen de 190x240 px y que ya incialmente parece pixelada. No se lo han currado mucho en el artículo, que digamos. Imagino que es un zoom de otra imagen mayor. Qué menos que hubiesen puesto enlaces a esos ejemplos.

D

#2 #8 #10 yo veo muchos menos artefactos en la de más a la derecha que en la de en medio, lo cual es bueno.

Cerner

#15 En las zonas homogéneas sí
Pero en las de detalle no. Ahí libjpeg tiene algunos incrementos de brillo puntuales, pocos. Pero la de google directamente cambia tonos a cholón, baste ver entre las 7 y las 9 del iris, donde sustituye los verdes por tierras.
Parece que un mix con las ventajas de ambas sería lo ideal.

m

#23: Es que es algo bastante típico, que una imagen parece que está más comprimida "sin que se note", pero luego te fijas bien y el algoritmo mata las texturas o atenúa los bordes. Esto ya lo "estudié" con el JPEG 2000, que parecía muy guay pero a veces se comía las texturas.

Toranks

#15 Pues serás tú, porque yo veo en la imagen de la derecha unos colores más alterados y más apagados.

D

#10 es un zoom, en el de tamaño original no se ve la diferencia

Cerner

#8 Ya me había percatado, lo pone a pie de foto.

ikipol

Según han publicado a través del Google Research Blog están trabajando con un nuevo codificador para archivos JPEG llamado Guetzli, con el que pretenden reducir el tamaño de estos ficheros un 35% con respecto a los archivos que se generan actualmente

Una no-noticia con un titular mierder

ccguy

#12 Están trabajando => el trabajo continúa.
Pretenden conseguir => El software ya lo hace pero ahora hay que usarlo.

Y la noticia es la liberación del código que se ya está disponible como dice el titular:
https://github.com/google/guetzli/

En fin, un comentario basado en una no-lectura.

D

Cuando lo consigan será noticia.

salteado3

#6 Ya hay algoritmos que lo superan, no sé si guardarán relación: http://www.jpegmini.com/
(no spam)

l

Lo que hay que hacer es que abandonar el formato .JPG y pasarse al .BPG de una vez.

Nova6K0

#28 Sí, BPG está muy bien, pero muchísimos programas no lo soportan.

Salu2

l

#32 Como no se soportaba el JPG al principio, ni el PCX, ni el BMP, ni el GIF....
No vale eso, lo que sí vale es que se lo tomen en serio, pero no interesa...

Luchemos por el BPG por favor.

ikipol

No creo que comprima la foto del negro que circula por ahí

capitan__nemo

¿pretenden?

Pues cuando lo hagan, que pongan la noticia. Hasta entonces ¿qué significa?
¿humo?
¿obsolescencia?

D

¿Y si en realidad no es de Hooli? ¿Y si es de Pied Piper y se lo han robado?

d

Mo he probado y realmente funciona, una imagen de 178k que la ha comprimido a 121k . Eso si ha tardado más de 2 minutos.
Y la calidad la verdad que igualita, un 10 por google.

D

Veo que ni siquiera han mirado el paper para redactar la noticia, han copiado y pegado de su "fuente". https://arxiv.org/abs/1703.04421

ccguy

#14 Se han conformado con lo publicado en el blog oficial de Google por lo que parece.

D

¿Cómo se compara esto con Lepton (https://github.com/dropbox/lepton)? Porque Lepton existe desde hace ya tiempo, está probado, funciona bien, y reduce el tamaño de los JPEG sin modificar la imagen.

De todas maneras la verdadera solución es encontrar un formato que sustituya de una vez a JPEG. Mi favorito actualmente es FLIF (http://flif.info)

D

Han fichado a los de 'El flautista'