Hace 14 años | Por CIB3R a techpowerup.com
Publicado hace 14 años por CIB3R a techpowerup.com

"El sector de servidores es un mercado muy exclusivo en el que Intel y AMD se reparten a la clientela hornada tras hornada de procesadores. En esta ocasión es AMD quien anuncia los nuevos procesadores de 8 y 12 núcleos. Llega así pues la familia Opteron 6000 que traerá consigo un mayor rendimiento tanto en equipos con configuraciones biprocesador como de cuatro procesadores. La nueva gama ha apostado por la flexibilidad en configuraciones y permitirá disponer de hasta 48 núcleos en un servidor." Vía http://tinyurl.com/ybqazu7

Comentarios

Stash

#2 O SqlSever desde hace la torta de años.

b

Pues aprovechando el comentario de #2 lanzo una pregunta para quien sepa responder.

¿No es posible meter una aplicacion "intermedia" que digamos, "reparta el trabajo" entre cores en las aplicaciones que sólo acceden a un núcleo del ordenador?

D

#6 "Eso es algo completamente inviable" + hard coding = own3d asegurado.

D

#6 ya existe y lo hace el sistema operativo. Si tienes un procesador con doble núcleo (por lo menos) veras como los dos procesadores van trabajando. El SO se encarga de balancear el trabajo aunque por supuesto no es tan eficiente como si la aplicación de manera nativa lo haría.

frankiegth

Para #4.

...¿No es posible meter una aplicacion "intermedia" que digamos, "reparta el trabajo" entre cores...

Esa es una de las funciones principales del sistema operativo, pero como dice #6 el código de la aplicación en cuestión tiene que estar preparado y confabulado con el sistema operativo para aprovechar los multiples cores de la máquina.

mr_b

#2 En realidad, ahora mismo todos los sistemas operativos de ámbito general son multihilo, por lo que aprovechan de forma nativa el hecho de tener varios cores. Otra cosa es que lo aproveche cada aplicación, pero el sistema operativo sí que se beneficia.

#4 "Repartir" el trabajo de un sólo proceso entre varios cores es bastante difícil, porque no se sabe por donde "partir" dicho trabajo para asignarlo. Es el programador el encargado de partir las tareas en "hilos" para que sea el kernel el que las reparta entre los cores.

#11 El software "actual", con actual me refiero a "de calidad" (no me refiero a comercial) está preparado para usar todos los núcleos que haya ya que suele ser multihilo. De repartir los hilos entre los cores se encarga el sistema operativo.

t

#17 totalmente de acuerdo.

Como apunte decir que los fabricantes optan por ese tipo de arquitecturas para seguir "aumentando" prestaciones ya que la frecuencia máxima de operación hace tiempo que dejarón de subirla. Evidentemente haciendo las cuentas Ncores*IstrucionesporCiclo sales ganando cuantos mas cores tengas. Ahora probablemente el word fuese más rápido en un P4 a 4GHz que en un QUADCORE. Hay que seguir vendiendo chachiflops.

D

#18 Eso pense yo cuando me compre mi portatil con un solo core hace años ya.
Epic fail.

Porque se nos olvida que si tenemos 30 programas en ejecucion entre demonios y el word, tal vez se queden 29 en un core y el word en el otro.
Y tal vez en ese caso si que ejecute el word más rápido

n

#2 ¿La mayoría de las aplicaciones no usan threads en su ejecución?

PD: Y lo de libreria como MPI, o openMP no están muy extendidas porque hacen falta varias CPU's para ejecutar programas. En mi uni me las ví para poder reservar 16 puestos con linux y poder realizar pruebas en Arq. de Computadores II (quizás es uno de los problemas, aunque se pueden montar granjas de PC's para ese cometido, es demasiada pasta para una sola asignatura).

heffeque

Lo que comenta #2 es bastante falso... esa situación se daba con las aplicaciones de hace 3 o 4 años, no con las actuales. Es más, los sistemas operativos han avanzado mucho al respecto también. Como ejemplo el GCD del SL.

No hay más que ver benchmarks de aplicaciones de aplicaciones reales de hoy en día comparando el rendimiento con diverso número de núcleos desactivados.

ZeYt

#2 No se lo que dices yo en mi carrera en primero y en segundo he visto programación concurrente.,,

PythonMan8

#16 No sabes cuánto me alegro de oir tus palabras. Si no te importa, dime de qué universidad se trata, para tenerla en cuenta cuando tenga que puntuar curriculums.

frankiegth

Para #2. Java soporta programas multihilo, todo es ponerse manos a la obra documentándose a través de Internet.

El P2P puede ayudar muchísimo para encontrar documentación completa al respecto...

D

#2 es que quizá suceda que el 99% de los programas que usamos en el escritorio no necesiten ser multihilo, y sea suficiente con tener el office en un core, el Firefox en otro, el VLC en otro...

Y para las aplicaciones web, los servidores ya soportan varios cientos de hilos, con lo que tampoco es demasiado necesario programar con ese concepto. Ni siquiera google o facebook utilizan multithreading al estilo OpenMP o MPI sino que dividen sus aplicaciones y sus bases de datos y aplican balanceo de carga.

Solo se me ocurre usar programación paralela como la que tú describes en tres supuestos: videojuegos y otras aplicaciones multimedia que requieran de alto rendimiento (rendering, codificación...), aplicaciones científicas de alto rendimiento, y aplicaciones en las que se necesite fuerza bruta, como romper claves. Y en ese tipo de aplicaciones ya se programa en paralelo desde hace años.

blabla28

#2 No tienes mucha idea de lo que es la informática ¿verdad? Y por cierto, Charlatane's Edition, cómprate un diccionario.

i

#2 y otros: La gran gran mayoría de programas son difíciles de paralelizar y la en la mayoría de aplicaciones de escritorio no se ganaría mucho rendimiento. Hay problemas y situaciones específicas en las que sí se gana mucho rendimiento paralelizando el código (codificación/descodificación de vídeo por ejemplo) pero son los menos.
No digo que no estaría bien que las aplicaciones se fueran diseñando cada vez más pensando en procesadores multinúcleo pero no es una panacea.

D

#1

¿durante mucho tiempo? Tu no has trabajado con Oracle ¿verdad? Estos colegas llevan licenciando por core desde que sacaron los multicore (y no necesariamente Intel) A mi me dieron un toque en la empresa hace cinco años por comprar una SUN v890 con 4 CPU dual core y el tema de las licencias de Oracle.

D

#9 Efectivamente, por eso los kernels de 64 bits en debian terminan en -amd64 aunque sirvan para cualquier arquitectura IA64.

Yo no cambio mis servidores Opteron ni por todo el oro del mundo (Bueno, por todo el oro del mundo si)

lol

pusilanime_hedonista

#20 "Efectivamente, por eso los kernels de 64 bits en debian terminan en -amd64 aunque sirvan para cualquier arquitectura IA64."

¿IA64? ejem, ejem, supondremos que ha sido una errata.

D

#33 Si, que la maquina de cafe esta estropeada y ahora mismo no diferencio entre un Z80 y un X86-64 lol

frankiegth

Para #9. Te voto positivo por la información que aportas, pero no me gusta comprometerme con ninguna marca. En mi experiencia he visto más procesadores AMD quemados que Intel, y en general es cierto que de momento Nvidia funciona mejor que ATI con los GNU/Linux (aunque la mejor opcion siga siendo una gráfica Intel por muy lentas que sean).

No es bueno hacerse fanboy de las marcas porque todas necesitan despertar para meterse de lleno en la liberación de especificaciones para el desarrollo del software libre. El proximo procesador que compre sera Intel, porque me tocó las narices que mi Duron de AMD no soportara el juego de instrucciones SSE2.

Pero no tengo prisa para cambiar de máquina, es más conservo máquinas del 2000 en funcionamiento. No me gusta tirar hardware que funciona perfectamente. Me llama la atención el próximo procesador de Intel con la tarjeta gráfica integrada en el mismo chip y con un rendimiento muy superior a la habitual en Intel. Es un procesador para portatiles que espero se pase desde el inicio a lado libre del software.

frankiegth

Continuación de #24.

Ya sé que los nuevos procesadores AMD soportan SSE2, pero me apetece en cualquier caso probar un Intel en el futuro.

A ver cuando nos unimos muchos y creamos un procesador libre!!

t

#26 Procesadores libres ya hay, por ejemplo OpenSPARC T2 Processor (http://www.opensparc.net/opensparc-t2/download.html). Este por ejemplo tiene 8 cores. Ahora creo que con una colecta entre todos no nos da ni para los cafes que nos costaría implementarlo.

frankiegth

Para #27. Goto #24.

icedcry

#24 En mi experiencia he visto más procesadores AMD quemados que Intel
Eso es que no has tenido un Dell 620 (aunque la culpa al final es de la falta de ventilación...)

Yo en casa tengo el Dell 620 que le compré a la empresa al finalizar el leasing, y que basta con limpiarlo por dentro cada 2 meses para que no arda, el portátil de la empresa E6400 y un Asus X50N con el HD cambiado para que sea de 7200 rpm.

La verdad es que el Asus siendo más viejo rinde mejor metiéndole caña al SQL Server 2008 que el Dell E6400, (con el mismo software y HD equivalente)...cosas del Hypertransport de AMD.

PythonMan8

#24 "Pero no tengo prisa para cambiar de máquina, es más conservo máquinas del 2000 en funcionamiento. No me gusta tirar hardware que funciona perfectamente. "

Yo antes pensaba como tú. Luego me dí cuenta que si virtualizaba media docena de pentium IV del 2000 en un Quad-Core obtenía mejor rendimiento y al cabo de tan sólo tres o cuatro meses había amortizado la compra. Y la comodidad y seguridad de tenerlo todo ejecutándose en máquinas virtuales no tiene precio.

D

#41 ummm, pero que ganas virtualizándolos?, tenerlo todo más "ordenadito"?. No estoy en plan vacilón, es que no le encuentro otro sentido

b

#42 Ahorras energia por ejemplo.

D

#43 pero por qué hace falta virtualizar?, por qué no se hacen las tareas directamente en el S.O host?.

b

#44 Venga otra que he pensado. Por ejemplo, con el host puedes automatizar la recuperación de los virtualizados. Cae uno virtualizado lo dectectas y lo levantas sin más consecuencias.

PythonMan8

#42 Pues por poner un ejemplo del día a día. Si guardo una máquina virtual en el fichero "/var/lib/virtualMachines/MiServidorDeCorreoVirtual" y hago un backup de ese fichero automáticamente estoy guardando toda la configuración del servidor (cuentas, cortafuegos, configuración de red, librerías y dependencias de paquetes, scripts personalizados, etc ...). Si ahora quiero actualizar a una versión más moderna del servidor, copio la máquina virtual en mi portátil, ejecuto la misma desconectando el portátil de la red, hago todas las actualizaciones que me apetezca en mi portátil (por ejemplo una actualización completa del sistema operativo) y cuando estoy completamente seguro de que todo está OK, reemplazo el fichero en /var/lib/virtualMachines por el nuevo. En total el cambio puede llevar unos 5 minutos.

D

Para #9,

AnTiX

#27 Mi padre tiene un mercedes que si le quitas el liquido refrigerante se estropea casi mas rapido que un AMD...
No se que intentas demostrar con ese video, a mi lo que menos me preocupa es que se me caiga el disipador...

D

#31 el ventilador se puede estropear. En tu casa quizá no importe, pero en una empresa, la diferencia entre ralentizar la máquina y que ésta salga ardiendo es crítica.

SHION

#27 Ya sabemos que la arquitectura de los primeros athlon (duron, XP) aunque superaba en rendimiento a los pentium 3 eran unos procesadores que se calentaban mucho. Ya puestos podrías poner el ejemplo de como los K6-2 eran una mierda comparados con los pentium II pero lo que importa es el presente y un equipo de similares prestaciones es muchisimo mas barato en AMD, otra cosa aparte es el sector entusiasta que pueden gastarse 1000 euros sólo en un procesador y una placa core i7 para ganar unos pocos puntos mas de rendimiento ya que en rendimiento, que no en precio, el i7 es insuperable de momento pero támpoco tan diferenciado como se quiere hacer creer.

AnTiX

8 y 12 Megapixels!! UAUU.. oh wait! me he equivocado de tematica... o no?

alx

/modo ignorante on) El software actual, sea profesional o particular está preparado para funcionar con tantos nucleos?, sabria aprovechar un SO (sea Windows o Linux o el que sea) la potencia que le ofrecen estos procesadores?

/modo ignorante off)

p

#11 en entornos de servidores si, esos 8 o 12 cores y mas(con una mother para 4 cpus tendríamos 48 cores), base de datos tanto oracle, sql server, mysql, etc. están preparados para muchos cores, también servidores web como apache y iis.

h

#13 Samba usa bastante mucho el fork(), solo vean cuantos procesos nmbd y smbd hay en un servidor con Samba

D

Pues yo tengo una placa multiprocesador con 8 Quadcore y la ADSL de Telefónica va igualito que en el 486 de mi abuela.

icedcry

#29 Eso va a ser porque tu abuela ha puesto los geranios encima del cable del ADSL, quítalos y repite los tests de velocidad.

L

Para ventilar ese monstruo de 12 núcleos habrá que usar un campo eólico

Ahriman

Pero para uso doméstico no sirve esto no? Osea mejor que gaste el dinero en 1 o 2 núcleos o no?

Tengo pensado usar Linux, lo digo por si aprovecha más que Windows.

enlaza

Esto de los cores es la releche,

En el mercado domestico me hiba más rápido mi k7 que el core 2 duo de ahora.

Tanta multitarea tanta leches y van igual o peor de velocidad, creo que lo único que se hace por parte del hardware es compensar la pesadez del software.
Lo cual unido a la falta de aplicaciones x64 es un comecocos.

con un core 2 duo y 3 gigas de RAM, ahora va y me falta a veces procesador, estando muchas veces al 100 % haciendo 4 cosas.

En sistemas con core2 duo si puedo asignar procesos a uno de los cores ó compartido.

En servers es lo de siempre, el complicado balanceo de carga.