Hace 5 años | Por Calipodelimon a m.xataka.com
Publicado hace 5 años por Calipodelimon a m.xataka.com

Durante los últimos cinco años, China ha sido la dueña del número uno en cuanto a supercomputadores basados en su potencia, mientras que Estados Unidos ha ido perdiendo año con año liderazgo en este segmento. Tan solo el año pasado, dentro de la lista de los 500 supercomputadores más potentes del mundo, China ya contaba con 202 puestos, y EEUU había pasado de tener 169 a 144 máquinas, esto en sólo seis meses.

Comentarios

c

#3 Y el software. Forman un cluster que hace que funcionen como una "única CPU" altamente paralelizada

b

#7 LSF. una maravilla.

a

Siendo que se trata de mas de 4000 servidores hasta que punto se le puede llamar a eso supercomputador, no seria simplemente una red de servidores ? Cual es la regla para entrar en la competicion ? Lo servidores tienen que estar a menos de cierta distancia para considerarse un supercomputador o como va eso ?

D

#2
La diferencia es la red de interconexión de los nodos.
Un CPD normal utiliza Ethernet mientras que los superordenadores utilizan InfiniBand.

f

#2 un supercomputador tiene que ser capaz de procesar datos a una tasa muy alta. Entonces, deberia estar constituido por:
* elementos de calculo (procesadores) de última generación.
* aceleradores (gpu / xeon phy / ... ) de ultima generacion
* red de interconexion de baja latencia, ancho de banda alto, y poca probabilidad de congestion (infiniband normalmente, pero hay otras)
* sistema de ficheros paralelo, de alto rendimiento.

El caso es que la definicion no es fija, y maquinas consideradas "supercomputadores" hace unos años ya no lo son mas (porque te montas un servidor con 4 gpus y ya tienes 4-5 teraflop, mientras que un supercomputador de hace... 10-15 años? Ya te daba eso, por una millonada).

b

#4 las cpu son power9 no intel. Con nvlink desde la cpu no solo entre GPUs

f

#11 Pues... muy bien, pero... ¿pPr qué es eso una respuesta a mi comentario?

b

#13 no Xeon phy que dices en tu comentario.

f

#14 Estaba describiendo los bloques constitutivos de un supercomputador "genérico" (en respuesta a #2), no describiendo este supercomputador en concreto. Y que sean Power9 no tiene nada que ver con que lleve aceleradores como Xeon Phi.

b

#15 no puede llevarlos. Eso solo puede ir con Intel no AMD y desde luego no con otras arquitecturas. Power 9 tiene nvlink (2.0) y CAPI El segundo es abierto. Lo mismo que el power9 vía openpower.

f

#16 Ahí me has pillado, no estuve atento . Pero repito, sólo le estaba describiendo los bloques constitutivos de un supercomputador genérico.

e

#2 en los inicios de la supercomputación la mayoría de máquinas eran diseños especiales enfocados para entornos de cómputo. El ejemplo más conocido seguramente sean los primeros cray http://www.computerhistory.org/revolution/supercomputers/10/7

El problema de estas máquinas es que eran muy caras de desarrollar y complejas a la hora de administrarlas y utilizarlas. Escalar este tipo de máquinas tampoco era sencillo. Es por eso que poco a poco los supercomputadores en lugar de ser una única máquina "gorda" empezaron a utilizar "commodity hardware" en red. Es decir, utilizan muchos nodos de cómputo con "hardware standard" que utilizan la red para comunicarse entre ellos y trabajar "en equipo".

Las principales característica de lo mayoría de supercomputadores actuales son: (estoy generalizando, hay bastantes excepciones)

* miles de nodos de cómputo con "commodity hardware"
* una red de comunicación de baja latencia. La red más común es infiniband aunque hay otras como omni-path, myrinet u otras
* un sistema de ficheros distribuido accessible en todos los nodos de cómputo. Algunos de los más comunes son Lustre, BeeGFS o GPFS
* Un software para distribuir el cómputo y gestionar los recursos en los nodos. Uno muy utilizado es Slurm aunque hay muchos más como SGE, LFS, PBS, Moab/Maui y otros
* Muchas de la aplicaciones que se suelen ejecutar en la máquina utilizan librerías MPI que permiten distribuir el cómputo entre los diferentes nodos utilizando la red de baja latencia para la comunicación entre los procesos. Esto también depende mucho del área de investigación. Hay algunas areas que en lugar de hacer computación distribuida utilizando librerías MPI requieren de entornos de supercomputación porque su cuello de botella es el gran volumen de datos a procesar. Un ejemplo muy típico de esto son los bioinformáticos que hacen secuenciación genómica. Pero esto es otro tema bastante largo...

Espero haberte aclarado por qué se considera un supercomputador y no una red de servidores.

b

#2 Tienes in “kernel dispatcher” central que pone trabajos en las CPU de todos los modos en función de prioridades y carga (LSF) un sistema de ficheros que es local a todos los nodos y coherente en todo momento (GPFS). Todo ínter conectado con RDMA de de baja latencia ( 4 a 5 NANOsegu dos). De facto es como una máquina NUMA pero de mogollón de sockets.

squanchy

Este ordenador lo peta.

b

#5 200 veces

D

"cuenta con 28.000 GPUs fabricadas por Nvidia" pa jugar al Fornite.