EDICIóN GENERAL
202 meneos
1287 clics
Superordenador con Linux alcanza 1 TFLOPS en el espacio

Superordenador con Linux alcanza 1 TFLOPS en el espacio

Spaceborne Computer es un superordenador impulsado por Linux y diseñado por HPE. Hace un mes llegó a la ISS a bordo de la nave espacial SpaceX Dragon. Su objetivo: demostrar que un sistema informático de tipo comercial, podía resistir durante un año las duras condiciones del espacio (radiaciones ionizantes y cambios de temperatura principalmente).

| etiquetas: superordenador , linux , tflops , spaceborne , estación , espacial , iss
¿sistema informático de tipo comercial = Linux?
#1 Tras las actualizaciones de rigor desde Tierra (alguien habrá hecho un “yum update”, dado que lleva una versión estándar de RHEL 6.8), se han llevado a cabo diversas pruebas para medir su rendimiento.
#1 Supongo que lo dice porque es hardware normal y corriente de consumo, que no está diseñado para el espacio. Dice que no tiene que pasar procesos de certificación y tal que es más costoso y no les permite tener lo último.
#4 Ya pero no acabo de ver si es un sistema que se haya sacado al exterior de la ISS, porque en el interior las condiciones son mucho menos extremas, ni está sometido a cambios radicales de temperatura, ni la certificación es tan crítica como podría ser en un equipo de exterior.
#5 no tanto como en el exterior pero también también hay radiación en el interior de la estación espacial. de hecho las partes donde más tiempo pasan (como donde duermen) tienen mejor isolación

www.nasa.gov/audience/foreducators/postsecondary/features/F_Understand
#8 Offtopic: yo hubiera utilizado "aislamiento" en vez de "isolación" que parece una traducción literal del inglés "isolation".
#9 gracias. me sonaba mal y no estaba seguro si la palabra existe o me la acabo de inventar basándome en el inglés. no he caído en la palabra aislamiento :-)
#9 "insulation". "isolation" significa estar solo, incomunicado (seguro que hay una palabra en castellano pero no me sale.)
#17 aislado puede ser la palabra que buscas?
#8 Os estáis olvidando de una parte muy importante: las vibraciones durante el lanzamiento. Desde el momento del lanzamiento hasta que sale de atmósfera esa maquina ha estado como las puñeteras maracas de Machín, y no son diez segundos precisamente... es una prueba de fuego para los componentes montados en superficie de las placas electrónicas modernas.
#30 no mas que en un transporte por carrrtera con peor fijacion o sujecion
#36 ...no soy 100tifiko, no conozco los números exactamente. Pero san Google me dice que los astronautas soportan 3 veces la fuerza de la gravedad durante el lanzamiento y que la capsula dragón despliega paneles solares 10 minutos después de lanzarse. Así que entiendo que son algo menos de 10 minutos de fuerzas G equiparables a unas turbulencias bastante serias de un avión comercial o una pequeña montaña rusa.

Tal vez lleves razón, pero a mi se me hace que te tiene que mover las piezas de sitio como si fueran cascabeles si no has tenido un control de calidad exquisito durante la producción.
#46 No creo qie el resto de materiales vayan como las maletas en mi coche cuando van de viaje. Estaran embaladas y sujetas en prevision de lo que pieda ocurrir en el viaje y arriba se ensamblararan. Creo que es el lenor de los problemas.
#54 Nonono, no me refería a lo que es "la maquina", sino a lo de dentro. Modulos de memoria bailando en sus zocalos, conectores de cables soltandose, condensadores que se desprendan... y por supuesto lo que decia de los componentes montados en superficie (es.wikipedia.org/wiki/Tecnología_de_montaje_superficial). Seguramente soy yo que soy un zarpas con el soldador, pero mis componentes SMC te digo yo que no aguantan 10 minutos de meneos, mucho menos con 3 G de fuerza. Al…   » ver todo el comentario
#55 Yo diría que no, pero supongo que el experimento sirve para darnos la razón a uno de los dos o a ninguno. :->
#30 #36 eso iba a decir, ese problema ya existe con la electrónica que se monta en vehículos como camiones o trenes
#4 La noticia habla de un logro del hardware, pero el titular solo habla de Linux. Hay mucho obcecado en Linux que no sabe ni de lo que habla.
#1 No. Por lo que dicen son de la gama HPE Apollo, por el tamaño supongo que 2000, (dudo que sea 4000 que va orientado a storage). Es un chasis con 2 nodos de computo independientes. Si es así, supongo que habrán hecho unas mínimas modificaciones para que lo certifique la NASA en su transito y operación en el espacio.
#1 hay distribuciones de GNU/Linux de pago, como Red Hat Enterprise Linux. Libre y gratis no es lo mismo.
#1 Hay un montón de sistemas operativos con kernel Linux, desarrollados y mantenidos por empresas que ganan mucho dinero "vendiendo soporte técnico, herramientas específicas para esos OS.

Cualquier empresa puede coger el kernal Linux, las herramientas de GNU, Xorg, CUPS, Mozilla... empaquetarlo todo en un DVD y venderlo al precio que pueda.

Lo único a lo que está obligado es a facilitar el código fuente del todo ese software libre, para que siga siendo libre y abierto. Y en algunos…   » ver todo el comentario
Este es el año de Linux en el espacio
#2 ... La última frontera, estos son los viajes...
#40 llegando audazmente donde ningún hombre ha llegado antes.
Pero si la nueva Xbox llega a los 6 Teraflops y no va ser mas potente que un Pc gaming actual 1 teraflops me parece poco. :-|
#6 tampoco creo que se pongan a jugar al Call of Duty. es linux.
#6 No es lo mismo una operación de GPU que una de CPU, los 6 teraflops de la xbox son a nivel de GPU. Las gráficas solo se dedican a una tarea y tienen pipelines dedicados exclusivamente a ello.

Una CPU es mucho más generalista y compleja y por lo tanto más lenta. 1 Teraflop a nivel de CPU es mucho.
#19 edito : queria enlazarte en #21 para #6 pero ya no podía, así que mi comentario anterior carece de sentido.
#24 Lo que pone en el enlace que he puesto...
...Con el tiempo, más allá de su enfoque científico y matemático, los FLOPS han acabado convirtiéndose en una medida de referencia para medir el rendimiento total del sistema (CPU + GPU). Aun así hay que tener en cuenta que en las aplicaciones ordinarias no científicas de los procesadores, las operaciones sobre números enteros medidos en MIPS son mucho más comunes...

A mi me parece muy poco para poder llamarlo superordenador, pero creo tiene que ver más con el sensacionalismo de los medios que otra cosa. En la noticia, ya desarrollada, indica que es un ordenador comercial.
"El objetivo último es probar la fiabilidad en el espacio del hardware más moderno, sin tener que pasar por un complejo proceso previo de endurecimiento, redundancia y certificación. Algo que consume tiempo, espacio y dinero, además de obligar a utilizar equipos más antiguos."
Esto puede acelerar (y mucho), la puesta en el espacio de tecnología más moderna. Es estupendo.
#7 bueno, tampoco te emociones que le han puesto Red Hat. es lo que usamos en le curro y es peor que una debian estable, con versiones de software de hace 10-15 años :troll:
#11 Creía que Red Hat era de lo mejor en Linux... Sin duda me queda mucho por aprender.
#27 es que es "de lo mejor", lo que pasa es que no existe mejor y peor en términos absolutos.

Red Hat es una magnífica distribución, pero depende de tus prioridades puede haber otras mejores para ti. Es una de las cosas buenas del software libre: fomenta la competitividad, la variedad y la diversidad.
#27 Es una buena distribución para uso en "entornos de producción" (profesionales). Pero a lo peor no es la "mejor" distribución que tu quieres tener en tu portátil :-)
#27 es bueno a lo que estabilidad refiere, y en cualquier caso mucho mejor que windows o mac :-)
#11 Por eso es buena. Puedes tener una redhat de hace 10 años totalmente actualizada de parches. Eso es lo bueno de redhat. Los parches no suben de version las aplicaciones, solo las parchean la vulnerabilidad que sea para que sean seguras, y TODO siga funcionando después. Puedes tener tu mega-aplicación de la empresa dearrollada hace años, que solo funciona con determinadas versiones, y actualizar el sistema sin miedo a que deje de funcionar. Eso con Debian o derivados es absolutamente imposible.
#32 si, la verdad es que yo he estado usando firefox versión 10 en RHELW hasta hace poco y estaba encantado, es muchísimo más estable que las versiones actuales, tenía cientos de pestañas abiertas, incluso más de mil y sin problema alguno. pero al final tuve que actualizar porque hay páginas web que ya no se mostraban correctamente, es una pena :-/
#11 yo siempre he sido de Debian; para uso particular siempre uso Debian o derivadas; pero en el trabajo utilizo RHEL y me parecen bastante parejas en muchas cosas. Hace tiempo es posible que fuera mejor Debian, pero ahora no creo que haya mucha diferencia en las versiones más recientes.
#11 Es que hardware moderno también quiere decir "joven". Y joven no casa bien con "estabilidad" :-D
#7 pues no se qué decirte abaratar costes en el espacio no sé si será muy seguro.
#13 Ese debe ser el truco: no es tan seguro como validarlo para el espacio y a cambio ponen en órbita tecnología más moderna. Quizá jueguen con que no sea crítico o haya suficiente redundancia.
No lo puedo evitar. Me encanta el espacio.
#7 Porque? No estan desarollando un hardware a prueba de espacio, han mandado jn pc normal y corriente para ver cuando se rompe. No es avance. Mola que se tenga prueba real de cuanto durA un equipo comercial en el espacio, a ver el contraste con las super cucarachas blindadas de la nasa.
Guay, menudos partidones de pong te puedes echar a 40.000 km de altura.
#16 la ISS está a sólo 400 Km de altura, así que espacio exterior no mucho
#57 bueno, el pong funcionará igual, no?
1 teraflop... filthy casuals :troll:
"la Nvidia GeForce GTX 1080 tiene una potencia de 9000 Gigaflops, unos 9 Teraflops."

www.xataka.com/basics/que-son-los-teraflops-y-que-miden-exactamente
Este es el año de Linux en el espacio.
Hace tiempo leí una pregunta en Stackoverflow bastante curiosa acerca de software para entornos altamente radiactivos: stackoverflow.com/questions/36827659/compiling-an-application-for-use-
#23 Explícame un poco eso, ¿el software también se adapta para radiaciones? no entiendo nada, pensaba que lo único que se adaptaba era el hardware. o_o
#48 según las respuestas en esa pregunta, sí. Tienes estructuras de datos resistentes a fallos, cálculo de errores mediante redundancia de datos, sistemas distribuidos de alta disponibilidad...

Aunque a mí particularmente lo que me ha dejado el culo torcido ha sido el que respondía que existe investigación acerca de operaciones resistentes a fallos, de forma parecida a cómo se realiza el cifrado homomórfico (operar sobre los datos sin descifrar los datos).
#52 joder que curioso. Entonces supongo que no utilizan una Red Hat al uso sino una versión adaptada
Tras las actualizaciones de rigor desde Tierra (alguien habrá hecho un “yum update”, dado que lleva una versión estándar de RHEL 6.8)

Pero esto qué mierda es... ¿No lleva Debian? >:-(
#28 La verdad es que podían haberlo probado con Slackware {0x1f4be}
HPE? pero eso sigue existiendo? no estaba ya fusionada con CSC y se llamaba DXC ahora?
de hecho, la parte de HP después de la división encargada del Hardware era HP, HPE era la encargada del software para empresas.
No debería ser HP quien hubiera creado el servidor?
#37 los servidores se fueron con HPE
#47 Ah, no tenía ni idea, pensaba que toda la parte de Hardware se quedó en HP.
Es decir, han conseguido el rendimiento de una PlayStation 3.

Genial, pero es mérito del hardware y de las placas solares, no de Linux como sugiere el titular.
Importante dato "con Linux"...
"Una vez asegurados los 56 kg de hardware (bastante menos en la ISS)" o_o o_o o_o

menéame