313 meneos
8804 clics

Los microprocesadores de las naves espaciales

El reciente fallo de uno de los dos ordenadores de Curiosity ha puesto de relieve el importante papel que juegan los microprocesadores en las misiones espaciales. El rover marciano incorpora dos RAD750 (PowerPC 750) a 200 MHz, ¿pero qué hay de otras naves espaciales? Con diferencia, el microprocesador más popular en la NASA es el RAD6000, una versión del PowerPC 601 desarrollado por IBM y actualmente construido por BAE Systems.
etiquetas: microprocesadores, naves espaciales, astronáutica, sistema solar
usuarios: 160   anónimos: 153   negativos: 0  
47comentarios mnm karma: 624
Comentarios destacados:           
#1   Chips muy fiables no como los que hacen hoy día que se queman solos ":"troll":"
votos: 1    karma: 18
 *   Rubenhippy Rubenhippy
#2   #1 Ya no hacen z80s como los de antes. :-)

#3 Hombre, para calcular a mansalva...con esos sobra. Además el ensamblador es tu amigo. Ni que decir que los SOs de tiempo real ayudan bastante.
votos: 8    karma: 93
 *   sacreew sacreew
#3   Si con esos procesadores varias generaciones atrasadas en relación a lo que hay en el mercado se consiguen semejantes logros la única explicación es que el software tiene que ser de vértigo de bueno.
votos: 5    karma: 37
#5   #3 Con un PowerMacintosh a 200 Mhz
bimg2.mlstatic.com/cpu-mac-apple-200-mhz-expandible-a-512-mb-ram-por-r
se pueden hacer todo tipo de tareas de edición gráfica, manejo de textos, etc... de hecho me parece un procesador colosal teniendo en cuenta que va dirigido a realizar calculote puro y duro, y sin duda programado de manera optima y eficiente...
votos: 9    karma: 91
#11   #5 Ahora solo te falta una buena capa de acero para protegerlo de la radiación, no vaya a ser que se cuelgue antes de guardar los cambios.
votos: 1    karma: 21
#34   #11 Acero no, plomo.
votos: 0    karma: 10
#38   #34 Cierto, pero en realidad cualquier material lo suficientemente grueso.
votos: 0    karma: 9
#9   #3 Mas bién diriamos que el software actual es vértigo de malo.

Mira que ha avanzado el software en los ultimos años.
1.- Relojes de sistema de 1MHz -> 3GHz 3000/1
2.- Bus de datos: 8->64 8/1
3.- Memoria 1KB->3 GB 3M/1
4.- Almacenamiento 1MB-> 1TB 1M/1

Solo con estos datos podemos inferir una multiplicación de la potencia del hardware 24.000P/1, (24.000 petas)

¿Y el software mientras? no solo ha avanzado sino que en muchos casos hasta a retrocedido, los programas son cada vez mas monstruosamente grandes, mucho mas lentos,menos eficientes y con mas fallos que nunca.
votos: 26    karma: 209
#10   #9 No ha retrocedido, se ha vuelto tan complejo por las nuevas opciones que dan las computadoras modernas que no ha avanzado al ritmo del hardware, pero no es lo mismo: una aplicación de hace 30 años tenía menos oportunidades de fallar porque no dependía de tanto hardware ni estaba pensada para ser ejecutada en distintos modelos de computadoras (no hablo ya de en distintas arquitecturas)... hay muchísimas más variables que pueden fallar hoy día.

Y sobre el rendimiento... una aplicación pequeña…   » ver todo el comentario
votos: 17    karma: 149
#12   #10 ¿No había tantos modelos en los 80? ¿En serio? Había incluso más variedad que ahora. Ten en cuenta que actualmente hay un par de plataformas en sobremesa (PC y Mac) y poco más en portátil (ARM y algo de x86). En los 80 había incluso distintas arquitecturas x86 (no sólo IBM PC), distintas M68K (Atari, Amiga, Mac, QL, ...), alguna ARM (RiscPC), Z80 (Amstrad CPC y PCW, Sinclair, ...), 6502 (C64, Apple II, KIM-1, ...), etc.

En cuanto a lo de hacer los programas en ensamblador, se puede usar un método intermedio (que casi nadie usa): Forth. Está en un punto intermedio entre ensamblador y C.
votos: 6    karma: 66
 *   bufalo_1973 bufalo_1973
#15   #12 En sobremesa más bien solo hay PC, pues "PC" y Mac actualmente ambos son la misma arquitectura x86, solo que con distinto sistema operativo.
votos: 3    karma: 34
#25   #12 ¡Sacrilegio! Z80... ¡te falta los MSX! :-( (también se te olvida mentar el mundo de los µControladores, que hoy por hoy son ampliamente utilizados)
votos: 1    karma: 19
#28   #12 Y los VIC-20 de Comodore con aquellas memorias de expansión de 8k...¡ que tiempos ! :-) :-) :-)
votos: 1    karma: 20
#32   #28 Yo tuve uno :-)
#29 No digo que esté a medio camino. Me refiero a que es más portable que ensamblador y de aún más bajo nivel que C (RPN entre otras cosas).
votos: 1    karma: 20
#29   #12 ¿Forth en un punto intermedio entre ensamblador y C?

:palm:

#9 El otro día salio ese tema de conversación durante una cena: El software está retrocediendo respecto al hardware. Mientras que el hardware es cada vez más y más potente, nos comemos esa potencia con software cada vez más amigables al programador y más costosos para las CPU.

Se empezó programando en ensamblador, se paso a C, y poco a poco se han ido imponiendo las "maquinas virtuales" (Java, C#, Flash?) corriendo bytecodes y ahora el "futuro" parece que será javascript, que es puro texto en ascii/unicode.

Cada vez se necesita más CPU para conseguir los mismos resultados que hace años.
votos: 6    karma: 73
#37   #29 Yo creo que el problema es que resulta "mas barato" poner mas memoria que optimizar el código ... o usar mas procesador, o mas disco duro, etc...

Al precio que esta el hard, resulta mas barato comprar un par de gigas de RAM que dedicar un equipo a reducir el consumo.
votos: 1    karma: 21
#42   #37 Eso de siempre. A finales de los 80, cuando un 386 era el tope de gama, un berzas me soltó que el programaba en GWBASIC y que si no corría lo bastante, que el cliente se comprara un ordenador más potente.
votos: 1    karma: 22
#39   #12 No digo que no hubiese variedad, sino que se hacían programas pensando mucho más en el hardware de la máquina. No hablo de los PCs, eso fue una revolución (PC era el de IBM, el resto eran "PC compatibles", la denominación ya dice mucho). Antes, si hacías un juego para el Spectrum, tenías que elegir si iba a usar 16, 48 o 64 Kilobytes, y aunque compartiese microprocesador con el Amstrad CPC, no era compatible porque el resto del hardware (véase la memoria, las interrupciones...) no…   » ver todo el comentario
votos: 1    karma: 19
#44   #39 "El usar librerías no está reñido con la eficiencia."
Sí, lo está, siempre, a no ser que haga SOLO lo que quieres que haga, y eso no ocurre nunca (a no ser que la hagas tu y puedas eliminar partes innecesarias), otro tema es que no sepas hacerlo mejor de como lo hace la librería, ese es otro tema.

Pero mi problema principal es otro, y es el tema de los requisitos, ejemplo.
Quiero hacer un "hola mundo", y me apetece hacerlo en .NET
¡SORPRESA! Obtienes un "Hola…   » ver todo el comentario
votos: 0    karma: 7
 *   NapalMe NapalMe
#45   #44 Si nos ponemos así, para hacer un "hola mundo" en cualquier lenguaje necesitas casi lo mismo, porque son los requisitos básicos para instalar Windows/Linux.

Como comenté antes, tienes que mirar los requisitos que quieres cumplir al hacer un programa y elegir cómo hacerlo. Un engine gráfico no está hecho ni en Java ni en C#, sino en C++, y un hola mundo se puede hacer con un .bat en el que pongas "@echo Hola, Mundo", te ocupará lo mínimo que puede ocupar un fichero y será retrocompatible hasta con el MS-DOS de los 80.



#43 Si no saben que hay alternativas es que ni se molestan en mirar, ya no es un tema tecnológico sino de pura vagancia, porque sale en cualquier catálogo de Phone House o de cualquier operadora.
votos: 0    karma: 7
#46   #45 El problema es que pudiendo hacer un bat, la mayoría se acostumbra en hacerlo en .NET cuando no hace falta.
Luego te descargas cualquier chorrada, un cliente de correo, un juego de damas, o algo que no tiene porque requerir nada, y te encuentras que te hace falta el .NET, y si no tienes 512MB de ram no puedes usarlo.
El programador dirá que el cliente no tiene los requisitos mínimos, ¡mentira! ¡el software esta mal diseñado!

La librerías gráficas tres cuartos de lo mismo, muchos juegos y…   » ver todo el comentario
votos: 1    karma: 15
#40   #12 Mi Amiga One, del 2003, usa un PowerPC G4 a 933MHz, y aún hay usuarios de PCs actuales que se quedan fritos cuando ven lo que puede hacer. El último modelo de Amiga es el AmigaOne X1000 ( a-eon.com/?page=x1000 ), de 2012, tiene un PowerPC PA Semi Dual-core PA6T-1682M a 2.0GHz/64 bits y una CPU programable XMOS XS1-L2 124 "Xena" 500MHz.

En general, la filosofía en el desarrollo para Amiga ha sido siempre ha sido siempre la de exprimir las capacidades del hardware al máximo, dado que nunca se ha podido contar con actualizaciones periódicas de CPUs. No te queda otra que apañarte con lo que tienes, sacándole todo el partido posible, a base de optimizar el software hasta sus límites.
votos: 3    karma: 40
#21   #10 Complejo no, cómodo, ¿Para que programar nada que ya está hecho? ¡usemos librerías (con sus fallos) que dependen de otras librerías (con sus fallos) que dependen de....! Pongamos capas y capas de abstracción para que programar sea mas fácil, aunque luego requiera 1000 veces mas recursos que programado sin librerías externas.
votos: 6    karma: 61
#26   #21 Si no utilizáramos el trabajo realizado por otros programadores (librerías) el desarrollo de las aplicaciones sería mil veces más lento y costoso.

No he oído a nadie quejarse de la librería stdio ni hay errores en dicha librería. Se pueden utilizar librerías y programar eficientemente y sin errores.
votos: 0    karma: 8
#31   #26 Pero programar no se vuelve "complejo" por la "dificultad de las rutinas empleadas" o por la "cantidad de código" si no por la cantidad de código "extraño" donde no se tiene claro que hace ni como y no se tiene el control. El problema es que muchos están acostumbrados a usar librerías muy pesadas para programar cualquier cosa, porque es facil, no por ser complejo, otro tema es que luego un programa de mierda requiere 1Gb de RAM porque la librería usada lo requiere para poder instalarlas.
votos: 1    karma: 19
#23   #10 "Es como decir que los teléfonos móviles han retrocedido porque hace 10 años la batería duraba una semana y ahora dura un día o dos, o porque un Nokia 5110 no se colgaba como se puede colgar ahora un smartphone con Android. "

Es que han retrocedido.

Que los móviles ahora se cuelguen, sean lentos, tarden en cargar software, la batería les dure un día en vez de una semana y que encima sean tan grandes que parece que llevas de paseo el mando a distancia de la TV, me parece un retraso muy grave para hacer cosas no muy alejadas de lo que ya podíamos hacer con móviles menos potentes hace 10 años.
votos: 4    karma: 40
#27   #23: lo de la batería es falso. Quita toda conexión de datos y programillas ejecutándose por detrás, baja el brillo de la pantalla y deja de mirar el chisme cada dos minutos. Tendrás un teléfono que hará todavía muchas más cosas que uno de hace 10 años (que eran llamadas, sms, agenda, juegos simples, calculadora, alarma) y la batería durará si no una semana, si cuatro o cinco días. Esos dos o tres días por las pilas que le tenías que cambiar al diskman.
votos: 1    karma: 18
#43   #23 "El tamaño es porque la gente lo reclama: en un HTC Hero no se puede navegar tan cómodamente como en un iPhone o en un Galaxy III. ¿Que quieres uno más pequeño? Pues tienes el Galaxy III mini, o el Xperia mini, pero viendo lo que se han vendido no diría que a la gente les mole. "

No, no lo reclaman: Es que es lo que les venden. No saben que hay alternativas.

Cuantas veces habré oído voces de incredulidad y admiración cuando saco el Xperia Mini para mandar un whassap. No saben que existen móviles pequeños que hacen lo mismo.

De todas formas, aunque sean pequeños siguen teniendo los mismos problemas que los grandes: Lentos, toscos, tienen que cargarse todos los días, etc...
votos: 0    karma: 10
#14   #9

No acabo de entender el cálculo que propones.
-la mejora de la CPU la mides por su velocidad de reloj
-la del bus de datos, por su tamaño de palabra (no por su velocidad de reloj). (*)
-la de memoria, por su capacidad de almacenamiento (no por su velocidad de reloj ni su tamaño de palabra)
-y el almacenamiento como la memoria, por su capacidad.

(*) Y no tengo claro en qué influye el bus de datos para multiplicar la potencia más allá de no ser un cuello de botella, pero bueno.

Entonces coges, multiplicas todo eso entre sí, y de ahí infieres un factor de "multiplicación de la potencia del hardware" de 24exa.

Sin ánimo de ofender, o estoy un poco espeso o esto no tiene ni pies ni cabeza.
votos: 20    karma: 159
#47   Para #14. #9 expone una realidad. El hardware ha avanzado en capacidad y velocidad una barbaridad respecto a las tecnologias en desarrollo de software. Si se aprovechara al 100% la potencia real del hardware actual tendriamos en casa siempre un PC una o dos generaciones por delante de la siguiente.
votos: 0    karma: 11
 *   frankiejcr frankiejcr
#19   #9 siento algo de pena por ti si piensas que el software no ha avanzado demencialmente mucho en estos últimos tiempos, y las estadísticas de errores podrían ser hasta despreciables si utilizamos probabilidades teniendo en consideracion la diferencia entre el numero de programadores, su instrucción, lineas de código, opciones de tecnología, y errores críticos cometidos. poniendo como ejemplo www.google.com, hasta ahora no me a sucedido un error, y es un programa que al segundo lo usan mas de dos o tres gatos( como lo eran antes los usuarios de software ).
votos: 1    karma: 18
 *   anacronico
#22   #9 2.- Bus de datos: 8->64 8/1

2^8/1 ;) A no ser que andes multiplicando el exponente, en cuyo caso es correcto, pero...
votos: 2    karma: 31
 *   Ander_ Ander_
#24   #9 Yo creo que se refería al software que se monta en esos equipos espaciales. En cualquier caso, tienes razón en que el software, en muchísimos casos, es un cuello de botella para el máxima aprovechamiento de la tecnología informática, pero considera también que en el desarrollo de hardware se invierte más tecnología y recursos de mejor calidad que en el desarrollo de software. Aún así, los circuitos integrados no están exentos de fallos de diseño. Y por otro lado, todos sabemos que, en…   » ver todo el comentario
votos: 0    karma: 7
 *   bitman
#35   #9 Por tu percepción del software parece que sólo conoces Windows XP y el Office 2000.
Existen motores de software avanzadísimos: ahí está el PHP, realizando interpretacion y compilacion de lenguaje en tiempo real -cosa impensable hace años - , o el interprete Java en los Android.
O los sistemas de reconocimiento facial , filtrado de voz...
O el codec H.264, que hace maravillas comprimiendo videos de alta resolución.
votos: 1    karma: 21
 *   demostenes demostenes
#20   #3
La NASA es especialista en la investigación del desarrollo de código tolerante a fallos.
El esquema básico es desarrollar los módulos mediante varios grupos independientes. Cada uno de ellos desarrolla el módulo sin contacto con el resto, cumpliendo con estándares de calidad y con una especificación muy clara y detallada.
Luego, hay dos estrategias básicas en tiempo de ejecución:
-Ejecutar todos los módulos y luego decidir cual o cuales de ellos dan resultados razonables (votación, tests estadísticos, validación lógica de resultados...)
-Ejecutar un módulo, y si éste falla (analizando sus resultados con uno de los métodos mencionados en el anterior punto), seguir con el siguiente hasta encontrar uno que de resultados válidos.
votos: 2    karma: 25
 *   --329594--
#36   #3

precisamente se eligen procesadores que sean fiables, no necesitan un I7 porque no van a instalar un windows 7
votos: 1    karma: 17
jrz jrz
#4   Espero ansioso el primer comentario sobrado del tipo "donde juego al counter strike va mucho mejor y tiene cuatro cores".
votos: 1    karma: 22
 *   Minotauro Minotauro
#6   Los chips que van al espacio tienen que resistir temperaturas extremas, radiaciones de todo tipo, y deben funcionar en un aparato con graves escasedades energéticas y de refrigeración. Meterle mas MHz de los que necesita es tener que poner paneles solares mas grandes y un radiador mas grande. Y subir un kilo al espacio es mas caro que un kilo de oro.

Además, deben ser chips fiables y altamente probados en el momento de empezar el diseño de la sonda o nave.
votos: 12    karma: 113
 *   Ousdog
#7   Además para la mayoría de las tareas que tienen que desempeñar les sobra tiempo, sobre todo en trayectorias orbitales. Es innecesario meter un procesador "rápido".
votos: 0    karma: 7
#8   Ahora falta el típico comentario (basado en películas) que los programas que llevan están hechos en los 60s porque no fallan y no encuentran programadores, bla, bla, bla. Mejor empezar por este artículo (hay unos cuantos: lospibesdelautn.foroactivo.com/t370-un-mendocino-en-la-nasa "En la NASA tienen una situación interesante
porque las misiones Viking, que ya han salido de nuestro sistema solar,
siguen funcionando y enviando datos. Entonces han contratado a muchos
ingenieros…   » ver todo el comentario
votos: 6    karma: 47
#16   #8 Pues vaya mierda de documentación...
votos: 0    karma: 7
#17   Los de SpaceX usan en el cohete Falcon 9 y en la capsula Dragon ordenadores PPC, aunque no radiation hardened, sino "radiation tolerant", por abaratar. Y casi todo con Linux.

#8, tu primer enlace no se yo si... amos a ver, las Viking fueron las sondas que aterrizaron en Marte. Las únicas que han salido del sistema solar son las Pioneer y las Voyager, y estas últimas funcionan aún. Las Pioneer es posible que funcionen, pero la señal era ya muy débil hace década y pico y se dejó de intentar contactar con ellas.
votos: 4    karma: 49
 *   Sheldon_Cooper Sheldon_Cooper
#18   #8 Las Viking fueron a Marte. Las que salieron del sistema solar fueron las Voyager 1 y 2, y las Pioner 10 y 11.
votos: 3    karma: 34
#13   ¿Hal 9000 no está? Qué decepción...
votos: 1    karma: 20
#30   ¿Con qué procesadores se "llegó a la luna"?
Siempre digo en plan de coña que llegamos con la tecnología del Spectrum, pero me gustaría saberlo
votos: 1    karma: 18
#41   Recomiendo echar un vistazo a Single event Effects, single event upsets (SEU), single event transients (SET), Single event LAch up (SEL) , SEGR, SEBR, Son todos effectos diferentes debido a la radiacion que afectan a memorias y logica. Desde transitorios (los peores) a permanentes. Es cierto que hay mucha preocupacion con las nuevas tecnologias nanoscopicas porque "en general" son exponencialmente mas sensibles a la radiacion (sobre todo si tenemos en cuenta que el numero de…   » ver todo el comentario
votos: 2    karma: 25
comentarios cerrados

menéame