El equipo del español Pablo Artal ha demostrado que nuestra capacidad visual es aún más impresionante de lo que pensábamos. Somos capaces de sacar información a partir de un estímulo de apenas 5 milisegundos, 50 veces más rápido que un parpadeo.
#4:
#1 Este cálculo es válido para procesar y sintetizar imágenes complejas en el cortex, pero existen circuitos neuronales en los que el ojo es capaz de reaccionar sin la intervención del SNC, entiendo que es en esos caso que se alcanzan rstas velocidades: por ejemplo, cuando se acerca un objeto peligrosamente rápido al ojo, éste actúa mucho más rápido, sin llegar a decodificar las características detalladas de dicho objeto.
#3:
#2 eso siempre me pareció muy tonto, se aprecia perfectamente en un ordenador si un videojuego va a 30, a 60 e incluso 120.
Más bien diría yo qué menos de 30 se aprecia claramente brusco, así que sería el mínimo aceptable.
#1:
Estímulo cada 5ms equivale a apreciar 200 frames por segundo.
#13:
#2 Hasta donde yo sé el ojo es analógico, así que recibe información de forma continua, no cada X segundos. Otra cosa es que un estímulo demasiado corto pueda no llegar a percibirse porque ni siquiere llegue a excitar los receptores... o porque el ojo esté mirando a otro sitio mientras ocurre. Pero vamos, si el estímulo es lo bastante potente y resulta que tu ojo ya estaba mirando hacía donde está lo ves sí o sí. Ejemplo: Cuando alguien hace el tonto con un láser y te pasa por el ojo estoy bastante seguro (aunque pruebas no tengo) de que pasa menos de 5 milesegundos por tu ojo y vaya si te enteras.
La cosa es que lo ves porque el ojo justo en ese momento está mirando al láser, claro. Cuanto más rápido es el estímulo más improbable es. En contra de lo que parece, el ojo ve una región muy pequeña en un instante dado. Lo que hace que veamos escenas completas es que el ojo está escaneando todo el tiempo en busca de cosas de interés (movimientos sacádicos) y que el cerebro va componiendo la imagen, dándonos la sensación de ver mucho de golpe. Si un estímulo dura demasiado poco, puede que tu ojo en realidad ni esté mirando ahí el tiempo que dura, y por tanto no lo percibes.
El paper del que habla la noticia, de todos modos, va de algo muy concreto. Como su nombre indica, busca: "el tiempo de presentación mínimo para poder estimar la orientación de un estímulo". Esto ya no es tan sencillo como ver la velocidad máxima a la que el ojo puede percibir algo. Para discriminar la orientación el ojo tiene que ver que el estímulo está ahí, verlo en su totalidad (lo que implica decidir que es un estímulo de interés y recorrerlo con la mirada) y con la información recibida ya determinar la orientación, que es lo que se pide.
Si el estímulo dura demasiado poco, el cerebro no tiene tiempo de decidir que quiere que los ojos se den una vuelta por la zona del estímulo para tratar de determinar su orientación, y por tanto no se puede obtener este dato. Este tiempo es el que el busca el paper.
PD: Toda esta explicación en realidad puede estar mal, que no soy especialista en el ojo ni mucho menos, pero estoy razonablemente seguro. Se agredecen correcciones, eso sí
#3 opino igual q tu. La duda q tengo es si se diferencia de 25 a 30?
Alguien de video q sabe explicar la diferencia q existia entre tv y cine? Los 25 o 30 fps?
#10 Pues depende de la persona, yo por ejemplo cuando voy a casa de algún colega con el motion blur o cualquiera de esas tecnologías percibo mucho el efecto opera soap y me disgusta bastante.
#10 Me suena que el cine normalmente era a 24 y la tele a 30. Cuando compré la cámara estuve leyendo sobre el tema. Una de las opciones que ofrecían algunos modelos era la posibilidad de grabar a 24 fps; esto era así porque a mucha gente las grabaciones a 30 fps le parecen de poca calidad, como si fuera para la tele, mientras que las que son a 24 fps tienen un toque más cinematográfico.
#25 lo que no deja de ser un poco fetichista porque si en el cine eligieron 24fps fue por límites en la tracción mecánica de la cinta y porque el rollo de película no fuese inmenso.
Vamos que era porque no podían no porque no quisieran ir a más.
#29 Bueno, como la gente que se compra discos de vinilo porque dice que se oyen mejor y luego resulta que miras los que tienen en la colección y la mayoría están grabados a partir de copias digitales.
#25 Ya se ha quedado así por costumbre y tradición, y como dices por ese look con desenfoque de movimiento en escenas movidas.
El Hobbit la rodaron a 48fps y queda muy bien, pero es cierto que daba una sensación extraña.
#31 La respuesta a eso esta en nuestro maravilloso organo de la vision. El cerebro es realmente el que ve y ante estimulos de 24fps le es mas facil inventar relleno y que encaje con una memoria fluida que a 48. A 48fps sigue faltando muchisima información para ver algo fluido pero hay suficiente como para que el cerebro perciba y le cueste mas invertarse la traslación de un fotograma a otro.
#10 Cine son 24fps progresivos, y TV son 50fps entrelazados en PAL o 60 en NSTC.
En cine hay que tener cuidado con los paneos o se notan los saltos entre frames.
#2 Hasta donde yo sé el ojo es analógico, así que recibe información de forma continua, no cada X segundos. Otra cosa es que un estímulo demasiado corto pueda no llegar a percibirse porque ni siquiere llegue a excitar los receptores... o porque el ojo esté mirando a otro sitio mientras ocurre. Pero vamos, si el estímulo es lo bastante potente y resulta que tu ojo ya estaba mirando hacía donde está lo ves sí o sí. Ejemplo: Cuando alguien hace el tonto con un láser y te pasa por el ojo estoy bastante seguro (aunque pruebas no tengo) de que pasa menos de 5 milesegundos por tu ojo y vaya si te enteras.
La cosa es que lo ves porque el ojo justo en ese momento está mirando al láser, claro. Cuanto más rápido es el estímulo más improbable es. En contra de lo que parece, el ojo ve una región muy pequeña en un instante dado. Lo que hace que veamos escenas completas es que el ojo está escaneando todo el tiempo en busca de cosas de interés (movimientos sacádicos) y que el cerebro va componiendo la imagen, dándonos la sensación de ver mucho de golpe. Si un estímulo dura demasiado poco, puede que tu ojo en realidad ni esté mirando ahí el tiempo que dura, y por tanto no lo percibes.
El paper del que habla la noticia, de todos modos, va de algo muy concreto. Como su nombre indica, busca: "el tiempo de presentación mínimo para poder estimar la orientación de un estímulo". Esto ya no es tan sencillo como ver la velocidad máxima a la que el ojo puede percibir algo. Para discriminar la orientación el ojo tiene que ver que el estímulo está ahí, verlo en su totalidad (lo que implica decidir que es un estímulo de interés y recorrerlo con la mirada) y con la información recibida ya determinar la orientación, que es lo que se pide.
Si el estímulo dura demasiado poco, el cerebro no tiene tiempo de decidir que quiere que los ojos se den una vuelta por la zona del estímulo para tratar de determinar su orientación, y por tanto no se puede obtener este dato. Este tiempo es el que el busca el paper.
PD: Toda esta explicación en realidad puede estar mal, que no soy especialista en el ojo ni mucho menos, pero estoy razonablemente seguro. Se agredecen correcciones, eso sí
#13 Bueno, sin ser ningún experto tampoco, creo que en lo de que el ojo ve una región muy pequeña te equivocas, el campo de visión es bastante amplio. Otra cosa es que el cerebro centre su atención en lo que está delante, que sí es donde el ojo ofrece una mejor percepción. Pero en los "alrededores" de nuestro pundo de atención tenemos percepción. No la suficiente como para leer algo sin dirigir la mirada, pero sí para detectar movimientos.
#13#21 A mi me pasa una cosa curiosa, relacionada con lo que comentáis y no creo que sea una rareza.
Ejemplo: abro la despensa y cae un bote.
Mi ojo está fijo en lo que voy a coger, pero también percibe lo que cae.
Simplemente extiendo la mano sin mirar y el bote cae en ella.
Cerebro/ojo perciben lo que pasa, calculan la trayectoria y lo atrapo sin pensar en ello.
Es decir, no veo claramente lo que pasa, pero lo percibo y proceso la información correctamente.
No es indispensable centrar la atención.
#21 Bueno, lo de que el ojo ve poco es una afirmación con matices, sí.
Lo que es la visión central cubre unos pocos grados grados solamente. Esto es así porque los conos (los fotorreceptores que captan color) se concentran en la fóvea, que es una región muy pequeña del ojo. La visión periférica ya tiene un rango más amplio, porque básicamente el resto de la retina tiene bastones en más o menos proporción. Pero con los bastones lo que se captan son cambios de intensidad (vamos, básicamente movimiento).
#13 He echado un vistazo al artículo completo y no veo un análisis de posibles fuentes de error en las mediciones. Como he mencionado en otro comentario, no se aclara lo que yo considero que podría ser la principal fuente de error: el estar reconociendo una postimagen como una imagen real.
Si te dan un fogonazo de luz con un flash, el flash puede durar centésimas de segundo, pero puedes estar viendo/reconociendo el filamento del flash durante segundos. Ya no estás viendo el filamento, pero si que lo puedes reconocer. Reconoces su proyección sobre la retina.
Al igual que puedes escuchar un sonido décimas de segundo después de haberse extinguido debido a que los canales de Na/Cl de la cóclea aún están haciendo su descarga químico-eléctrica debido a que esta no es instantanea.
Considero que puedes ver una imagen durante un tiempo mínimo, pero que ese tiempo haya sido lo suficiente para saturar los bastones de la retina de forma que posteriormente siguen produciendo una imagen postimagen, que será la interpretada en el cerebro.
¿Cómo eliminar este posible sesgo en un estudio? ni idea
#2 No, entre 24 y 30 imágenes por segundo (completamente estables) es lo que el ojo humano necesita para percibir el movimiento de manera "natural". Eso no quiere decir que no veamos más allá de las 30 imágenes por segundo, si no que a partir de ahí apreciamos más fluidez, pero no mejor calidad.
Muchas cámaras digitales y programas de edición funcionan ahora con 60 imágenes por segundo. Pero es probable que sólo lo notes cuando se trata de videojuegos, porque la cantidad de imágenes por segundo en ese contexto no suele ser 100% estable (baja o sube ligeramente). Por eso a mucha gente le gusta tener 100 o 120 imágenes por segundo, para no notar cuando baja o sube la cantidad de imágenes por segundo. No se si me he explicado.
#27 Con 24 fps puedes ver el movimiento "lento" de forma natural, pero si vas al cine a ver una película de acción los 24 o 30 fps se quedan claramente insuficientes.
Yo aquí suelo distinguir 2 conceptos: el tiempo "en negro" y la fluidez: Si estas viendo una escena de acción quieres que esta sea lo mas fluida posible, por tanto en este caso más fotogramas será más calidad.
Respecto al tiempo en negro, yo he probado varias teles 3D con gafas activas (de las que los cristales parpadean) y las nuevas bien, pero las antiguas para mi eran horrorosas, ya que las veía parpadear. (nota: yo soy capaz de ver el parpadeo a 50 hz de las bombillas halógenas de baja calidad.)
Y lo que dicen algunos del efecto telenovela, eso solo afecta a ciertas generaciones "mayores" que asocian altos fps con "mala calidad". Los jóvenes acostumbrados a altos fps en los videojuegos prefieren (preferimos) cine con muchos fps para ver bien las escenas de acción.
#1 Este cálculo es válido para procesar y sintetizar imágenes complejas en el cortex, pero existen circuitos neuronales en los que el ojo es capaz de reaccionar sin la intervención del SNC, entiendo que es en esos caso que se alcanzan rstas velocidades: por ejemplo, cuando se acerca un objeto peligrosamente rápido al ojo, éste actúa mucho más rápido, sin llegar a decodificar las características detalladas de dicho objeto.
Hará que leerse el trabajo con calma porque habría que descartar que lo que realmente ve "el ojo", sea una postimagen o como han descartado este factor si realmente lo han hecho.
#12 Eso es... si utilizan una luz suficientemente potente, pueden enviar una señal que los fotorreceptores reconozcan durante más tiempo (pero sin pasarse, que luego se quema la retina).
Para eliminar el sesgo que dices: básicamente pegar un fogonazo tras mostrar el estímulo los N milisegundos que sea para garantizar que los conos estarán todos saturados por igual. Debería funcionar, ¿no?
Si la luz visible está por el orden de los 500-700 nanometros (medio micrómetro) o sea 0.5x10-6, y vemos a 5x10-3 eso nos da que la luz nos ha bombardeado unas 10.000 ondas.
Comentarios
Estímulo cada 5ms equivale a apreciar 200 frames por segundo.
#1 tenía entendido que se recibían poco menos de 30 por segundo.
#2 eso siempre me pareció muy tonto, se aprecia perfectamente en un ordenador si un videojuego va a 30, a 60 e incluso 120.
Más bien diría yo qué menos de 30 se aprecia claramente brusco, así que sería el mínimo aceptable.
#3 Motion blur, es la clave.
#3 opino igual q tu. La duda q tengo es si se diferencia de 25 a 30?
Alguien de video q sabe explicar la diferencia q existia entre tv y cine? Los 25 o 30 fps?
#10 de 25 a 30 dos se nota muchísimo! Lo noto de 110 a 120..
En de 25a 30 pasa de ir "regular" a casi injugable según qué juegos.
#10 Pues depende de la persona, yo por ejemplo cuando voy a casa de algún colega con el motion blur o cualquiera de esas tecnologías percibo mucho el efecto opera soap y me disgusta bastante.
https://es.m.wikipedia.org/wiki/Efecto_telenovela
#10 Me suena que el cine normalmente era a 24 y la tele a 30. Cuando compré la cámara estuve leyendo sobre el tema. Una de las opciones que ofrecían algunos modelos era la posibilidad de grabar a 24 fps; esto era así porque a mucha gente las grabaciones a 30 fps le parecen de poca calidad, como si fuera para la tele, mientras que las que son a 24 fps tienen un toque más cinematográfico.
#19 Grabar a 24 o a 30 no afecta a la calidad de imagen, solo a la cinemática.
#23 Lo que digo es que muchos defienden que un vídeo a 24 fps tiene un look más cinematográfico, por eso prefieren esa velocidad.
#25 lo que no deja de ser un poco fetichista porque si en el cine eligieron 24fps fue por límites en la tracción mecánica de la cinta y porque el rollo de película no fuese inmenso.
Vamos que era porque no podían no porque no quisieran ir a más.
#29 Bueno, como la gente que se compra discos de vinilo porque dice que se oyen mejor y luego resulta que miras los que tienen en la colección y la mayoría están grabados a partir de copias digitales.
#25 Ya se ha quedado así por costumbre y tradición, y como dices por ese look con desenfoque de movimiento en escenas movidas.
El Hobbit la rodaron a 48fps y queda muy bien, pero es cierto que daba una sensación extraña.
#31 La respuesta a eso esta en nuestro maravilloso organo de la vision. El cerebro es realmente el que ve y ante estimulos de 24fps le es mas facil inventar relleno y que encaje con una memoria fluida que a 48. A 48fps sigue faltando muchisima información para ver algo fluido pero hay suficiente como para que el cerebro perciba y le cueste mas invertarse la traslación de un fotograma a otro.
#10 Cine son 24fps progresivos, y TV son 50fps entrelazados en PAL o 60 en NSTC.
En cine hay que tener cuidado con los paneos o se notan los saltos entre frames.
#2 Hasta donde yo sé el ojo es analógico, así que recibe información de forma continua, no cada X segundos. Otra cosa es que un estímulo demasiado corto pueda no llegar a percibirse porque ni siquiere llegue a excitar los receptores... o porque el ojo esté mirando a otro sitio mientras ocurre. Pero vamos, si el estímulo es lo bastante potente y resulta que tu ojo ya estaba mirando hacía donde está lo ves sí o sí. Ejemplo: Cuando alguien hace el tonto con un láser y te pasa por el ojo estoy bastante seguro (aunque pruebas no tengo) de que pasa menos de 5 milesegundos por tu ojo y vaya si te enteras.
La cosa es que lo ves porque el ojo justo en ese momento está mirando al láser, claro. Cuanto más rápido es el estímulo más improbable es. En contra de lo que parece, el ojo ve una región muy pequeña en un instante dado. Lo que hace que veamos escenas completas es que el ojo está escaneando todo el tiempo en busca de cosas de interés (movimientos sacádicos) y que el cerebro va componiendo la imagen, dándonos la sensación de ver mucho de golpe. Si un estímulo dura demasiado poco, puede que tu ojo en realidad ni esté mirando ahí el tiempo que dura, y por tanto no lo percibes.
El paper del que habla la noticia, de todos modos, va de algo muy concreto. Como su nombre indica, busca: "el tiempo de presentación mínimo para poder estimar la orientación de un estímulo". Esto ya no es tan sencillo como ver la velocidad máxima a la que el ojo puede percibir algo. Para discriminar la orientación el ojo tiene que ver que el estímulo está ahí, verlo en su totalidad (lo que implica decidir que es un estímulo de interés y recorrerlo con la mirada) y con la información recibida ya determinar la orientación, que es lo que se pide.
Si el estímulo dura demasiado poco, el cerebro no tiene tiempo de decidir que quiere que los ojos se den una vuelta por la zona del estímulo para tratar de determinar su orientación, y por tanto no se puede obtener este dato. Este tiempo es el que el busca el paper.
PD: Toda esta explicación en realidad puede estar mal, que no soy especialista en el ojo ni mucho menos, pero estoy razonablemente seguro. Se agredecen correcciones, eso sí
#13 Bueno, sin ser ningún experto tampoco, creo que en lo de que el ojo ve una región muy pequeña te equivocas, el campo de visión es bastante amplio. Otra cosa es que el cerebro centre su atención en lo que está delante, que sí es donde el ojo ofrece una mejor percepción. Pero en los "alrededores" de nuestro pundo de atención tenemos percepción. No la suficiente como para leer algo sin dirigir la mirada, pero sí para detectar movimientos.
#21 Según tengo entendido la visión periférica es más sensible al movimiento, para detectar cosas que se nos acercan de imprevisto.
#13 #21 A mi me pasa una cosa curiosa, relacionada con lo que comentáis y no creo que sea una rareza.
Ejemplo: abro la despensa y cae un bote.
Mi ojo está fijo en lo que voy a coger, pero también percibe lo que cae.
Simplemente extiendo la mano sin mirar y el bote cae en ella.
Cerebro/ojo perciben lo que pasa, calculan la trayectoria y lo atrapo sin pensar en ello.
Es decir, no veo claramente lo que pasa, pero lo percibo y proceso la información correctamente.
No es indispensable centrar la atención.
No sé si mesplico.
#21 Bueno, lo de que el ojo ve poco es una afirmación con matices, sí.
Lo que es la visión central cubre unos pocos grados grados solamente. Esto es así porque los conos (los fotorreceptores que captan color) se concentran en la fóvea, que es una región muy pequeña del ojo. La visión periférica ya tiene un rango más amplio, porque básicamente el resto de la retina tiene bastones en más o menos proporción. Pero con los bastones lo que se captan son cambios de intensidad (vamos, básicamente movimiento).
Este diagrama lo ilustra muy bien: https://en.wikipedia.org/wiki/Peripheral_vision#/media/File:Peripheral_vision.svg .
Por eso, ver en detalle el ojo ve una región pequeña, como decía. Pero el típico "ver movimiento por el rabillo del ojo" está ahí de verdad
Si he entendido bien a #28, por cierto, esta es la explicación.
#13 He echado un vistazo al artículo completo y no veo un análisis de posibles fuentes de error en las mediciones. Como he mencionado en otro comentario, no se aclara lo que yo considero que podría ser la principal fuente de error: el estar reconociendo una postimagen como una imagen real.
Si te dan un fogonazo de luz con un flash, el flash puede durar centésimas de segundo, pero puedes estar viendo/reconociendo el filamento del flash durante segundos. Ya no estás viendo el filamento, pero si que lo puedes reconocer. Reconoces su proyección sobre la retina.
Al igual que puedes escuchar un sonido décimas de segundo después de haberse extinguido debido a que los canales de Na/Cl de la cóclea aún están haciendo su descarga químico-eléctrica debido a que esta no es instantanea.
Considero que puedes ver una imagen durante un tiempo mínimo, pero que ese tiempo haya sido lo suficiente para saturar los bastones de la retina de forma que posteriormente siguen produciendo una
imagenpostimagen, que será la interpretada en el cerebro.¿Cómo eliminar este posible sesgo en un estudio? ni idea
#2 Eso es un invento de los consoleros para justificar sus pésimas maquinas.
#2 No, entre 24 y 30 imágenes por segundo (completamente estables) es lo que el ojo humano necesita para percibir el movimiento de manera "natural". Eso no quiere decir que no veamos más allá de las 30 imágenes por segundo, si no que a partir de ahí apreciamos más fluidez, pero no mejor calidad.
Muchas cámaras digitales y programas de edición funcionan ahora con 60 imágenes por segundo. Pero es probable que sólo lo notes cuando se trata de videojuegos, porque la cantidad de imágenes por segundo en ese contexto no suele ser 100% estable (baja o sube ligeramente). Por eso a mucha gente le gusta tener 100 o 120 imágenes por segundo, para no notar cuando baja o sube la cantidad de imágenes por segundo. No se si me he explicado.
#27 Con 24 fps puedes ver el movimiento "lento" de forma natural, pero si vas al cine a ver una película de acción los 24 o 30 fps se quedan claramente insuficientes.
Yo aquí suelo distinguir 2 conceptos: el tiempo "en negro" y la fluidez: Si estas viendo una escena de acción quieres que esta sea lo mas fluida posible, por tanto en este caso más fotogramas será más calidad.
Respecto al tiempo en negro, yo he probado varias teles 3D con gafas activas (de las que los cristales parpadean) y las nuevas bien, pero las antiguas para mi eran horrorosas, ya que las veía parpadear. (nota: yo soy capaz de ver el parpadeo a 50 hz de las bombillas halógenas de baja calidad.)
Y lo que dicen algunos del efecto telenovela, eso solo afecta a ciertas generaciones "mayores" que asocian altos fps con "mala calidad". Los jóvenes acostumbrados a altos fps en los videojuegos prefieren (preferimos) cine con muchos fps para ver bien las escenas de acción.
#1 Este cálculo es válido para procesar y sintetizar imágenes complejas en el cortex, pero existen circuitos neuronales en los que el ojo es capaz de reaccionar sin la intervención del SNC, entiendo que es en esos caso que se alcanzan rstas velocidades: por ejemplo, cuando se acerca un objeto peligrosamente rápido al ojo, éste actúa mucho más rápido, sin llegar a decodificar las características detalladas de dicho objeto.
Depende, yo creo que mi ojete percibiría un ataque en millonésimas de segundo.
#5 ...en descubrir si en si te estás sentando es en una silla o ...
Hará que leerse el trabajo con calma porque habría que descartar que lo que realmente ve "el ojo", sea una postimagen o como han descartado este factor si realmente lo han hecho.
#12 Eso es... si utilizan una luz suficientemente potente, pueden enviar una señal que los fotorreceptores reconozcan durante más tiempo (pero sin pasarse, que luego se quema la retina).
#12 a 144 imágenes por segundo en mi monitor todavía soy capaz de ver frames independientes.
A 160 empiezo a no notarlo. Tiene sentido que a 200 no lo perciba en absoluto.
#PCMasterRace
Entonces mientras parpadeas te puedes perder 50 de esos estímulos.
#11 De ahí los duelos de vaqueros. El primero que parpadee, muere.
5ms es una eternidad. El ojo humano es capaz de apreciar miles de veces más que eso. A ver si buscamos otros estudios.
Y si está en topless lo apreciamos en microsegundos.
Para eliminar el sesgo que dices: básicamente pegar un fogonazo tras mostrar el estímulo los N milisegundos que sea para garantizar que los conos estarán todos saturados por igual. Debería funcionar, ¿no?
Si la luz visible está por el orden de los 500-700 nanometros (medio micrómetro) o sea 0.5x10-6, y vemos a 5x10-3 eso nos da que la luz nos ha bombardeado unas 10.000 ondas.