Hace 9 años | Por israelf a universo.iaa.es
Publicado hace 9 años por israelf a universo.iaa.es

¿Por qué no se utiliza una "camara digital" en las misiones espaciales?: Enviada por Luis Alburquerque Me he fijado que en las misiones al espacio cuando se sacan fotografias siempre son o en blanco y negro o con filtros especiales o retocadas, en astrofotografía o fotografiando a Felipe lo entiendo pero ¿por qué se hace tambien cuando se hacen fotos desde el mismo planeta?¿por qué no se utiliza u

Comentarios

garnok

#10 y un señor de albacete dándote codazos para que tenga mas movimiento y salga lo mas borroso posible

Belu84

#9 Y para ganar karma, aunque aún no llegue a ser naranja fuerte. lol

Minha

#36 Naranja fuerte? yo lo veo azul y negro

Pijuli

#6 Hombre, lo mismo no va a ser porque no vas a saber la cantidad de cada color. Eso es lo que consigues con los filtros. Aquí lo que sabes es la cantidad de luz. ¿Algún experto en estos temas por la sala?

israelf

Creo que no lo he leído por aquí. Siempre me lo he preguntado.

Minha

#5 Si te gustan estos temas, leelo, es corto y muy muy interesante

Mister_Lala

#7 Quedaría más fácil de entender si hubiese hecho alguna referencia al infrarrojo o al ultravioleta, que son términos que el común de los mortales manejamos.

D

Porque con una cámara digital no hay nada que revelar.

elkesabe

Estoy un poco fuera de onda. ¿Qué quiere decir el que pregunta con lo de "fotografiando a Felipe"?

javireco

#33 creo que es un chiste astrofísico, a mi me ha pasado igual por lo demás está bien la explicación

ruinanamas

Muy ilustrativo y bien explicado. Así da gusto informarse.

Cyteck

#52 Tienes alguna de ellas? No conozco este tipo de cámaras, así por encima me parecen de muy baja resolución pero especializadas para hacer fotos a los astros o realizar largas exposiciones, no las tengo todas que sea lo mismo, investigaré más en todo caso gracias por tu aportación

meneandro

#53 No, sé que existen (y si existen estas quiza existan otras con mejores prestaciones) pero nunca me he puesto a profundizar en el tema.

Mike_Zgz

En el artículo habla de CCD, ¿pero ahora las cámaras no son CMOS? :-
http://es.wikipedia.org/wiki/Sensor_CMOS Al pie de la primera imagen "Uno de los primeros CMOS-APS, desarrollado por la NASA."

De todas maneras me contesto, por ejemplo la curiosity usa CCD ya que monta un sensor Kodak KAI-2020 pues en aquella época las cámaras de buena calidad usaban CCD pero ahora el CMOS está desplazando la tecnología, pero, ¿y ahora?.

En todo caso no me convence como está explicado el artículo.

Cyteck

#24 Si el articulo tuviera razón quiere decir que la NASA disponia ya en 1970 de unos CCD superiores a los CMOS en disfrutamos actualmente el público en general, no olvidemos que es tecnología inventada por la NASA, vamos que esta gente tiene unos CCD con un rango superior a la luz visible y con estos RAW puedes contruir la foto con los colores que quieras, visible, infraroja, ultravioleta etc ya que dicho RAW no es como los que manejamos nosotros RGB, tienen más información. Eso quiere decir que todas la fotos que hay en la web de la NASA son creaciones para el gran público. Pero como he dicho solamente si este articulo estuviera en lo cierto.

meneandro

#32 Es que una cosa son sensores que son capaces de coger un amplio radio del espectro electromagnético (mucho más por arriba y por abajo del rango visible) y otra cosa sensores que son capaces de coger y filtrar adecuadamente el rango visible. No vas a montar en una cámara convencional algo mucho más caro y que hace muchas más cosas de las que son necesitas solo por una ganancia marginal de calidad.

O sea, no es que la NASA tenga algo mejor de lo que usamos ahora desde hace la tira de años, es que los sensores de la nasa y los que usan nuestras cámaras tienen objetivos y diseños diferentes y adaptados.

Cyteck

#47 Lo quiero!!

e

#24 En astronomía la reina es la CCD. Son de uso corriente y con muy buenos resultados las camaras reflex adaptadas al telescopio pero las específicas para astrofotografía, sobre todo las de gama alta, que son únicamente el chip y un sistema de refrigeración sin óptica ni botoncitos, son en su mayoría CCD.

AaLiYaH

#34 Para casi cualquier campo ciéntifico la CCD triunfa, entre otras cosas porque en el sensor no se "gasta" espacio en circuitería (la conversión Análogico/Digital), mientras que en el CMOS, sí.

Me imaginaba la razón, pero vamos, se agradece la explicación porque mucha gente desconoce estos temas. Yo hasta este año, que he empezado a ver temas de instrumentación industrial en un master de vision artificial, sabía 0 de cámaras, la verdad.

Joder, porque el espacio es en blanco y negro. Por que va a ser??? La Tierra antes era asi tambien, pero hacia 1920 inventamos el color y desde entonces la vida es en color.

B

Creo que es porque se distinguen mejor los colores en una escala de grises que de color.

D

Por la misma razón que Meneáme se ve mejor en una pantalla de fósforo.

tribulete72

Magnífica explicacion. Me lo había preguntado varias veces

juantxovilla

Añadir que el rober Curiosity, ha sifo la primera misión interplanetaria en la cual sí se han llevado cámaras 'a color', esto ha sido así porque es una misión geológica y han querido que sus geólogos se puedan basar mejor en sus propios ojos para navegar y decidir mejor los objetivos a los que llevar el rober. Obviamente también lleva cámaras multiespectrales con diferentes filtros para tareas 'más científicas'

superplinio

#19 ¿el rober? ¿roberto?

garnok

#21 junto con el paco y el pepe

o

#27 y la Jenni

Okias

#19 Típico del Rober

jacarepagua

Mucho más interesante es la pregunta "¿Qué usaban en las misiones espaciales antes de los sensores digitales?". Tomar una foto en el espacio, revelarla, escanearla y enviarla de vuelta a la Tierra es un auténtico reto. Misiones como la Voyager no usaron película sino un sistema llamado vidicon que también requería de escaneo. Fue de las últimas en emplearlo antes de la introducción de los sensores digitales.

m

#42 Los pioneros en fotografía espacial fueron los rusos. La primera foto que se tomó de otro planeta (Venus) la realizó la sonda Venera-9 en 1975 con una "cámara" con una resolución de 1 pixel!

http://www.planetary.org/blogs/guest-blogs/2014/0724-standing-on-venus-in-1975.html

Más sobre cámaras espaciales rusas:

http://mentallandscape.com/V_Cameras.htm

S

Interesante

D

En las misiones se utilizan c'amaras digitales, sin comillas, y se dispara tambi'en a color. No s'e muy bien de qu'e co;o habla el titular... arf... tendr'e que leer!

opinologo

¡Genial! Ya tengo respuesta para mi cuñado

m

Y yo me pregunto, si como dice al final la razón de que no se lleven filtros de color es: "La razón es que cada gramo adicional en una misión espacial implica decenas de kilos de combustible extra" Como puñetas cuando fueron a la luna no se llevaron filtros por exceso de peso pero si 3 coches tamaño turismo?

garnok

#22 por que los filtros se los aplicas despues en la tierra tranquilamente en un estudio de fotografia pero la luna no se recorre muy rapido que digamos a pie

meneandro

#22 Si tienes un sensor capaz de obtener los valores de frecuencia de onda electromagnética asociados al rango del espectro visible y en casa los puedes separar y "pintar" ¿pa qué vas a montar tres sensores?

Quikenobi

#22 Porque en un filtro no te puedes montar para darte un garbeo.

D

... ¿y por qué no se utiliza un tamaño de letra normal (como dios manda) en las páginas web?
------------------------------------------------------------------------------------------------------------------------------------------

(Para que puedan leerlas los seres humanos).

joffer

#23 Prueba pulsar Ctr+ ó Ctr- repetidas veces.

Arganor

#23 Dios no manda, sugiere.

Mister_Lala

No lo he leído, pero me atrevo a asegurar que se debe a que una foto en color "necesita" 3 bytes por pixel, y una en tonos de gris, 1 byte por pixel. El problema no es sacar la foto, si no retransmitirla a La Tierra, que no hay banda ancha.

Mister_Lala

#4 Mecachis. Eso me pasa por bocazas, jajaja

D

todo tiene que ver mas que nada con que en el espacio viene a estar todo a 240 grados bajo cero o similar, y alli la electronica no trabaja bien, no se puede mandar nada de lo que se utiliza aqui normalmente, sino modificado, y electronica de los 80s mas sencillita ...

por otro lado esto confirma lo que siempre dije, la Nasa nos enseña una foto obtenida y reconstruida por ordenador a partir de datos por radiotelescopio, por ejemplo de una estrella o planeta lejanisimo, NADA MAS QUE SON DIBUJOS, osea cualquiera sabe lo que hay alli en realidad, lo digital nos aleja nos priva de la realidad, es un muro ...
a todos los niveles, por eso ahora entre la gente y la realidad debido a internet y los ordenadores hay un grueso muro mas que nunca, de desinformacion, aislamiento

brohz

#12 Este artículo nos remarca que no solo lo que nos muestran nuestras cámaras digitales son una imagen "falsa" sino que se adapta a nuestra perspectiva y es un error porque no es la real. Si fuesemos otro animal en vez de un ser humano, se podría decir que lo que vemos es como es la realidad?.
Con photoshop y conocimientos sobre el entorno se puede recrear a la perfección la gamma de colores que veriamos, no será una foto tan romántica pero así es la ciencia.

Andor

#12 ¿QUÉ?

i

#12 Yo quiero eso que tu fumas.

meneandro

#12 Es que los "parámetros" que interesan a los científicos que trabajan en misiones espaciales son diferentes a los nuestros. Incluso las fotos que sacan los satélites de nuestra tierra son "falsas" en el sentido que nosotros las conocemos. Pero no quiere decir que sean falsas o incorrectas.

Me explico, aquí tenemos sensores adaptados a captar las frecuencias de onda correspondientes al rojo, verde y azul. Un satélite o un dispositivo mandado al espacio capta rangos de frecuencias electromagnéticas mucho más amplios y en mucha mayor cantidad. Para generar una imagen a color hay que separar las capas asociadas a los rangos de frecuencia que necesitemos. O para analizar fenómenos metereológicos (ciertas frecuencias del espectro se ven afectadas por la acumulación de nubes, hay sensores que pueden calcular la velocidad del viento, cuyos datos son añadidos como capas, etc).

O sea, hay una cierta cantidad de postprocesado, pero la información que se obtiene es la que es. No es que se pinten las cosas así echándole imaginación, sino que se sabe con un cierto margen de error qué tonos tiene cada cosa.

M

#12 Tú deberías ir a trabajar a la NASA y enseñarle a todos esos ignorantes de qué va la cosa!