Hace 4 años | Por neog17 a muylinux.com
Publicado hace 4 años por neog17 a muylinux.com

A destacar la mejora del soporte para tabletas en Linux, Windows y macOS, soporte para visualizar imágenes HDR en HDR, siempre que el hardware lo permita; la mejor rendimiento de los pinceles con gráficos vectoriales y mejor paleta de colores, ambas como proyectos desarrollados durante el pasado Google Summer of Code de 2018; e incluso una nueva sección de noticias sobre Krita en plan lector RSS que aparecerá en la página de inicio de la aplicación.

Comentarios

Chimuelo

#7 Mis dieces y voto positivo a la noticia. Estoy HARTO de que las noticias políticas monopolicen el contenido de la portada.

D

#7 Qué bueno sería si pudiésemos saber los motivos que han llevado a algunos a votar en contra de esta noticia. Lo digo porque hay muchos psicoanalistas en paro.

TocTocToc

Al final subirán a portada meneos sin meneos .

salsamalaga

#1 Define: al final.

TocTocToc

#2 Al final de menéame, por supuesto.

salsamalaga

#5 Al final de menéame, hay un .net

TocTocToc

#6 En catalán significa limpio.

El_pofesional

Hace poco decidí dejar de usar Adobe y me va muy bien. Para vídeo tengo Davinci Resolve, que lo han puesto gratis e integra fusion (un After Effects por nodos). Para revelado digital uso Capture One y para crear gráficos y editar fotos uso Gimp y Krita.

Luego probaré la nueva versión, pero mola mucho que cierto tipo de monopolios digitales sean cada vez más cosa del pasado.

ElPerroDeLosCinco

Una duda sobre el HDR. Tenía entendido que es una manera de equilibrar la iluminación de una imagen, de forma que no queden zonas muy iluminadas y otras demasiado oscuras y que todo esté medianamente bien iluminado. Pero no veo por qué va a hacer falta un hardware "que permita" visualizar estas imágenes, como dice el artículo ¿Qué tiene de especial ese hardware? A mí me parece que se pueden ver en cualquier monitor.

f

#4 Como todo, la cuestion es el tema de contrastes.
para empezar, HDR10 (que es el estandar hoy dia) especifica una profundidad de color de 10 bits, o sea, 1024 tonalidades distintas del mismo color, en lugar de los 8bits o 256 tonalidades distintas actuales. para poder apreciar esas 1024 tonalidades distintas, primero el panel del monitor debe ser capaz de mostrar esas 1024 tonalidades, o sea, tener un panel de 10 bits en lugar de un panel de 8bits, o de 6 bits de los primeros TFT. Segundo, para poder apreciar entre el tono 546 de rojo, y el tono 547 de rojo, debe haber un 'contraste' entre ambos, y de eso se encarga 'el brillo', para eso, la maxima luminosidad del panel debe ser cercano a 1000 candelas por metro cuadrado (o tambien llamado, 'nits'), al contrario de los paneles actuales de 260 o 320 nits que se venden en consumo hoy dia.

asi que, si, para poder editar correctamente imagenes HDR, necesitas un hardware que soporte decentemente HDR, o sea, panel de 10bits de profundidad de color y 1000nits. Por supuesto, puedes editar HDR sin tener panel HDR (o con paneles SDR, que son los estandar hoy dia), pero es igual que pretender pintar un cuadro sin tonos puros, solo mezclas, o sea, sin blancos puros, sin negros puros, sin colores primarios o secundarios puros... al final todo te quedara... grisaceo o apagado...

Y despues, saltaremos a HDR12, o tambien llamado DolbyVision.

Si has visto las imagenes con 'efecto HDR' en un monitor normal, y te parecen irreales, es porque realmente son 'irreales' para tu monitor normal, ya que es imposible para tu monitor SDR mostrar toda la gama de color HDR, asi que 'simula' el efecto saturando 'irrealmente' ciertos colores para que en tu monitor SDR veas 'lo que mas o menos se veria' en un HDR. Si ves una imagen HDR real en un hardware que soporte HDR real, es como ver un puñetero espejo o ver a traves de un cristal la realidad.