#11 ay ay! mazo! no veas! que la loli se fue con el chiki y le dijo que a la puri le va el rollo del tete y que igual pa la otra semana le dice que que dice!!! aayyyyy
#12#14 una cosa es el tamaño de palabra que puede procesar una CPU, y otra cosa distinta son los bits que se usan para definir el color de cada pixel, lo que define el número de colores distintos que puede haber en una imagen. No tiene absolutamente nada que ver una cosa con la otra.
Llevado a la actualidad: hoy en día se usan 24 bits o 32 bits para definir los colores que se muestran por pantalla (8 bits por cada color primario RGB + 8 bits del canal Alpha), y las CPUs procesan palabras de 64 bits.
#15 Si, pero cuando se habla de graficos de 8 bits, se refiere uno a la generacion de ordenadores, no a los bits por pixel.
De la misma forma, se suele entender por graficos de 16 bits a los graficos de consolas de 16bits (que eran de 8bits por pixel o incluso menos)
Por eso calificar al VGA como graficos de 8bits se hace raro, aunque "tecnicamente" sea cierto.
Comentarios
se le nota la mirada malvada...
El gato de Mario Bros.
No es un gato, es un raton gigante!
Hay gato, hay meneo!
Podría ser un malvado conejo!!
Un gato del minecraft
A ver cuánto dura esto en portada.
Pero ese gato ¿es azul / negro o blanco / dorado?
Joder, seguro que si miro también hay algún comentario copiado de reddit
#9 Joder tio, qué fuerte!
#11 ay ay! mazo! no veas! que la loli se fue con el chiki y le dijo que a la puri le va el rollo del tete y que igual pa la otra semana le dice que que dice!!! aayyyyy
CREEPY
Que raro se me hace eso de que VGA=8bits, porque los graficos VGA solo eran posibles en PCs, que iban con CPUs de 16bits como minimo.
#12 Yo he pensado lo mismo.
Habría que ver si se lanzo alguna VGA para el 8088, pero me parece a mí que no.
8088: de 16 bits, pero con el bus externo de 8 bits, la gente se entretenía discutiendo si era de 8 ó de 16 bits.
#12 #14 una cosa es el tamaño de palabra que puede procesar una CPU, y otra cosa distinta son los bits que se usan para definir el color de cada pixel, lo que define el número de colores distintos que puede haber en una imagen. No tiene absolutamente nada que ver una cosa con la otra.
Llevado a la actualidad: hoy en día se usan 24 bits o 32 bits para definir los colores que se muestran por pantalla (8 bits por cada color primario RGB + 8 bits del canal Alpha), y las CPUs procesan palabras de 64 bits.
#15 Si, pero cuando se habla de graficos de 8 bits, se refiere uno a la generacion de ordenadores, no a los bits por pixel.
De la misma forma, se suele entender por graficos de 16 bits a los graficos de consolas de 16bits (que eran de 8bits por pixel o incluso menos)
Por eso calificar al VGA como graficos de 8bits se hace raro, aunque "tecnicamente" sea cierto.
porque lo han quitado de portada?
Y esto? Un gatete Cuantico?
#17 Cuantificado.
Hicieron el esperimento de Schrödinger en alguna escuela de secundaria, pero algo no salió bien.