"El sector de servidores es un mercado muy exclusivo en el que Intel y AMD se reparten a la clientela hornada tras hornada de procesadores. En esta ocasión es AMD quien anuncia los nuevos procesadores de 8 y 12 núcleos. Llega así pues la familia Opteron 6000 que traerá consigo un mayor rendimiento tanto en equipos con configuraciones biprocesador como de cuatro procesadores. La nueva gama ha apostado por la flexibilidad en configuraciones y permitirá disponer de hasta 48 núcleos en un servidor." Vía http://tinyurl.com/ybqazu7
#2:
Lo preocupante es que la mayor parte del software no es capaz de aprovechar más de un core.
Hay que rehacer casi todo el software actual para poder aprovechar la potencia de una CPU moderna, pero el 99% de los informáticos no tienen ni pajolera idea de lo que es una aplicación multihilo y lo de programar en C y librerías como OpenMP es ciencia ficción gracias a la gran formación de nuestras universidades empezinadas en formar a Master of Bussiness Charlatane's Administrations como Enrique Dans mientras nos transformamos poco a poco en esclavos tecnológicos de China y Korea.
#8:
El sector de servidores es un mercado muy exclusivo en el que Intel y AMD se reparten a la clientela hornada tras hornada de procesadores.
Al contrario que en el mercado del PC en el que AMD e Intel cuentan con multitud de competidores... Ó_ò
#6:
#4 Eso es algo completamente inviable una vez hecho el programa. Tendría que ser algo que fuese capaz de detectar esas tareas que se puedan ejecutar en paralelo, y eso implica conocer el código, lo cual no va a suceder si no es código libre. Y aún siéndolo, sería algo un poco específico de más por cada programa y, a final de cuentas, no sé si merecería la pena lo que puedas ganar con lo que puedas perder.
Como suele suceder, es mucho mejor reprogramar de nuevo pensando en ello.
#1:
Durante mucho tiempo los cores no han tenido importancia a nivel de licenciamiento de software pero como los fabricantes han visto que se seguiría por este camino han empezado a cambiar las licencias de sus productos para tener en cuenta ese factor.
Un ejemplo claro es VMWare que con su producto de virtualización vSphere cuando se llega a los 8 cores, como los procesadores de la noticia, ya es necesario actualizar a una licencia superior.
#9:
En el mercado de Pcs domesticos intel sigue ganando porque intel es intel y mucha gente piensa que un AMD es una especie de mierda barata pero esa gente no sabe que AMD fue el primero en sacar procesadores de 64 bits y durante años se comieron a intel en rendimiento, en sacar procesadores dual core y quead core nativos y no nucleos "pegados con pegamento" como quien dice que hizo intel con sus penosos pentium D.
Intel es cojonudo pero también gracias a su imagen de marca, estilo apple, porque actualmente si bien intel supera a AMD en rendimiento bruto con sus core i7, AMD les supera en rendimiento/precio y ya no sólo en los procesadores sino en el precio de las placas.
También cabe apuntar que intel no tiene gráficas decentes mientras que AMD domina el mercado con las ATI que hace tiempo que se mean en las nVidia.
Lo preocupante es que la mayor parte del software no es capaz de aprovechar más de un core.
Hay que rehacer casi todo el software actual para poder aprovechar la potencia de una CPU moderna, pero el 99% de los informáticos no tienen ni pajolera idea de lo que es una aplicación multihilo y lo de programar en C y librerías como OpenMP es ciencia ficción gracias a la gran formación de nuestras universidades empezinadas en formar a Master of Bussiness Charlatane's Administrations como Enrique Dans mientras nos transformamos poco a poco en esclavos tecnológicos de China y Korea.
Pues aprovechando el comentario de #2 lanzo una pregunta para quien sepa responder.
¿No es posible meter una aplicacion "intermedia" que digamos, "reparta el trabajo" entre cores en las aplicaciones que sólo acceden a un núcleo del ordenador?
#4 Eso es algo completamente inviable una vez hecho el programa. Tendría que ser algo que fuese capaz de detectar esas tareas que se puedan ejecutar en paralelo, y eso implica conocer el código, lo cual no va a suceder si no es código libre. Y aún siéndolo, sería algo un poco específico de más por cada programa y, a final de cuentas, no sé si merecería la pena lo que puedas ganar con lo que puedas perder.
Como suele suceder, es mucho mejor reprogramar de nuevo pensando en ello.
#6 ya existe y lo hace el sistema operativo. Si tienes un procesador con doble núcleo (por lo menos) veras como los dos procesadores van trabajando. El SO se encarga de balancear el trabajo aunque por supuesto no es tan eficiente como si la aplicación de manera nativa lo haría.
...¿No es posible meter una aplicacion "intermedia" que digamos, "reparta el trabajo" entre cores...
Esa es una de las funciones principales del sistema operativo, pero como dice #6 el código de la aplicación en cuestión tiene que estar preparado y confabulado con el sistema operativo para aprovechar los multiples cores de la máquina.
#2 En realidad, ahora mismo todos los sistemas operativos de ámbito general son multihilo, por lo que aprovechan de forma nativa el hecho de tener varios cores. Otra cosa es que lo aproveche cada aplicación, pero el sistema operativo sí que se beneficia.
#4 "Repartir" el trabajo de un sólo proceso entre varios cores es bastante difícil, porque no se sabe por donde "partir" dicho trabajo para asignarlo. Es el programador el encargado de partir las tareas en "hilos" para que sea el kernel el que las reparta entre los cores.
#11 El software "actual", con actual me refiero a "de calidad" (no me refiero a comercial) está preparado para usar todos los núcleos que haya ya que suele ser multihilo. De repartir los hilos entre los cores se encarga el sistema operativo.
Como apunte decir que los fabricantes optan por ese tipo de arquitecturas para seguir "aumentando" prestaciones ya que la frecuencia máxima de operación hace tiempo que dejarón de subirla. Evidentemente haciendo las cuentas Ncores*IstrucionesporCiclo sales ganando cuantos mas cores tengas. Ahora probablemente el word fuese más rápido en un P4 a 4GHz que en un QUADCORE. Hay que seguir vendiendo chachiflops.
#18 Eso pense yo cuando me compre mi portatil con un solo core hace años ya.
Epic fail.
Porque se nos olvida que si tenemos 30 programas en ejecucion entre demonios y el word, tal vez se queden 29 en un core y el word en el otro.
Y tal vez en ese caso si que ejecute el word más rápido
#2 ¿La mayoría de las aplicaciones no usan threads en su ejecución?
PD: Y lo de libreria como MPI, o openMP no están muy extendidas porque hacen falta varias CPU's para ejecutar programas. En mi uni me las ví para poder reservar 16 puestos con linux y poder realizar pruebas en Arq. de Computadores II (quizás es uno de los problemas, aunque se pueden montar granjas de PC's para ese cometido, es demasiada pasta para una sola asignatura).
Lo que comenta #2 es bastante falso... esa situación se daba con las aplicaciones de hace 3 o 4 años, no con las actuales. Es más, los sistemas operativos han avanzado mucho al respecto también. Como ejemplo el GCD del SL.
No hay más que ver benchmarks de aplicaciones de aplicaciones reales de hoy en día comparando el rendimiento con diverso número de núcleos desactivados.
#16 No sabes cuánto me alegro de oir tus palabras. Si no te importa, dime de qué universidad se trata, para tenerla en cuenta cuando tenga que puntuar curriculums.
#2 es que quizá suceda que el 99% de los programas que usamos en el escritorio no necesiten ser multihilo, y sea suficiente con tener el office en un core, el Firefox en otro, el VLC en otro...
Y para las aplicaciones web, los servidores ya soportan varios cientos de hilos, con lo que tampoco es demasiado necesario programar con ese concepto. Ni siquiera google o facebook utilizan multithreading al estilo OpenMP o MPI sino que dividen sus aplicaciones y sus bases de datos y aplican balanceo de carga.
Solo se me ocurre usar programación paralela como la que tú describes en tres supuestos: videojuegos y otras aplicaciones multimedia que requieran de alto rendimiento (rendering, codificación...), aplicaciones científicas de alto rendimiento, y aplicaciones en las que se necesite fuerza bruta, como romper claves. Y en ese tipo de aplicaciones ya se programa en paralelo desde hace años.
#2 y otros: La gran gran mayoría de programas son difíciles de paralelizar y la en la mayoría de aplicaciones de escritorio no se ganaría mucho rendimiento. Hay problemas y situaciones específicas en las que sí se gana mucho rendimiento paralelizando el código (codificación/descodificación de vídeo por ejemplo) pero son los menos.
No digo que no estaría bien que las aplicaciones se fueran diseñando cada vez más pensando en procesadores multinúcleo pero no es una panacea.
Durante mucho tiempo los cores no han tenido importancia a nivel de licenciamiento de software pero como los fabricantes han visto que se seguiría por este camino han empezado a cambiar las licencias de sus productos para tener en cuenta ese factor.
Un ejemplo claro es VMWare que con su producto de virtualización vSphere cuando se llega a los 8 cores, como los procesadores de la noticia, ya es necesario actualizar a una licencia superior.
¿durante mucho tiempo? Tu no has trabajado con Oracle ¿verdad? Estos colegas llevan licenciando por core desde que sacaron los multicore (y no necesariamente Intel) A mi me dieron un toque en la empresa hace cinco años por comprar una SUN v890 con 4 CPU dual core y el tema de las licencias de Oracle.
En el mercado de Pcs domesticos intel sigue ganando porque intel es intel y mucha gente piensa que un AMD es una especie de mierda barata pero esa gente no sabe que AMD fue el primero en sacar procesadores de 64 bits y durante años se comieron a intel en rendimiento, en sacar procesadores dual core y quead core nativos y no nucleos "pegados con pegamento" como quien dice que hizo intel con sus penosos pentium D.
Intel es cojonudo pero también gracias a su imagen de marca, estilo apple, porque actualmente si bien intel supera a AMD en rendimiento bruto con sus core i7, AMD les supera en rendimiento/precio y ya no sólo en los procesadores sino en el precio de las placas.
También cabe apuntar que intel no tiene gráficas decentes mientras que AMD domina el mercado con las ATI que hace tiempo que se mean en las nVidia.
Para #9. Te voto positivo por la información que aportas, pero no me gusta comprometerme con ninguna marca. En mi experiencia he visto más procesadores AMD quemados que Intel, y en general es cierto que de momento Nvidia funciona mejor que ATI con los GNU/Linux (aunque la mejor opcion siga siendo una gráfica Intel por muy lentas que sean).
No es bueno hacerse fanboy de las marcas porque todas necesitan despertar para meterse de lleno en la liberación de especificaciones para el desarrollo del software libre. El proximo procesador que compre sera Intel, porque me tocó las narices que mi Duron de AMD no soportara el juego de instrucciones SSE2.
Pero no tengo prisa para cambiar de máquina, es más conservo máquinas del 2000 en funcionamiento. No me gusta tirar hardware que funciona perfectamente. Me llama la atención el próximo procesador de Intel con la tarjeta gráfica integrada en el mismo chip y con un rendimiento muy superior a la habitual en Intel. Es un procesador para portatiles que espero se pase desde el inicio a lado libre del software.
#26 Procesadores libres ya hay, por ejemplo OpenSPARC T2 Processor (http://www.opensparc.net/opensparc-t2/download.html). Este por ejemplo tiene 8 cores. Ahora creo que con una colecta entre todos no nos da ni para los cafes que nos costaría implementarlo.
#24 En mi experiencia he visto más procesadores AMD quemados que Intel
Eso es que no has tenido un Dell 620 (aunque la culpa al final es de la falta de ventilación...)
Yo en casa tengo el Dell 620 que le compré a la empresa al finalizar el leasing, y que basta con limpiarlo por dentro cada 2 meses para que no arda, el portátil de la empresa E6400 y un Asus X50N con el HD cambiado para que sea de 7200 rpm.
La verdad es que el Asus siendo más viejo rinde mejor metiéndole caña al SQL Server 2008 que el Dell E6400, (con el mismo software y HD equivalente)...cosas del Hypertransport de AMD.
#24 "Pero no tengo prisa para cambiar de máquina, es más conservo máquinas del 2000 en funcionamiento. No me gusta tirar hardware que funciona perfectamente. "
Yo antes pensaba como tú. Luego me dí cuenta que si virtualizaba media docena de pentium IV del 2000 en un Quad-Core obtenía mejor rendimiento y al cabo de tan sólo tres o cuatro meses había amortizado la compra. Y la comodidad y seguridad de tenerlo todo ejecutándose en máquinas virtuales no tiene precio.
#44 Venga otra que he pensado. Por ejemplo, con el host puedes automatizar la recuperación de los virtualizados. Cae uno virtualizado lo dectectas y lo levantas sin más consecuencias.
#42 Pues por poner un ejemplo del día a día. Si guardo una máquina virtual en el fichero "/var/lib/virtualMachines/MiServidorDeCorreoVirtual" y hago un backup de ese fichero automáticamente estoy guardando toda la configuración del servidor (cuentas, cortafuegos, configuración de red, librerías y dependencias de paquetes, scripts personalizados, etc ...). Si ahora quiero actualizar a una versión más moderna del servidor, copio la máquina virtual en mi portátil, ejecuto la misma desconectando el portátil de la red, hago todas las actualizaciones que me apetezca en mi portátil (por ejemplo una actualización completa del sistema operativo) y cuando estoy completamente seguro de que todo está OK, reemplazo el fichero en /var/lib/virtualMachines por el nuevo. En total el cambio puede llevar unos 5 minutos.
#27 Mi padre tiene un mercedes que si le quitas el liquido refrigerante se estropea casi mas rapido que un AMD...
No se que intentas demostrar con ese video, a mi lo que menos me preocupa es que se me caiga el disipador...
#31 el ventilador se puede estropear. En tu casa quizá no importe, pero en una empresa, la diferencia entre ralentizar la máquina y que ésta salga ardiendo es crítica.
#27 Ya sabemos que la arquitectura de los primeros athlon (duron, XP) aunque superaba en rendimiento a los pentium 3 eran unos procesadores que se calentaban mucho. Ya puestos podrías poner el ejemplo de como los K6-2 eran una mierda comparados con los pentium II pero lo que importa es el presente y un equipo de similares prestaciones es muchisimo mas barato en AMD, otra cosa aparte es el sector entusiasta que pueden gastarse 1000 euros sólo en un procesador y una placa core i7 para ganar unos pocos puntos mas de rendimiento ya que en rendimiento, que no en precio, el i7 es insuperable de momento pero támpoco tan diferenciado como se quiere hacer creer.
/modo ignorante on) El software actual, sea profesional o particular está preparado para funcionar con tantos nucleos?, sabria aprovechar un SO (sea Windows o Linux o el que sea) la potencia que le ofrecen estos procesadores?
#11 en entornos de servidores si, esos 8 o 12 cores y mas(con una mother para 4 cpus tendríamos 48 cores), base de datos tanto oracle, sql server, mysql, etc. están preparados para muchos cores, también servidores web como apache y iis.
En el mercado domestico me hiba más rápido mi k7 que el core 2 duo de ahora.
Tanta multitarea tanta leches y van igual o peor de velocidad, creo que lo único que se hace por parte del hardware es compensar la pesadez del software.
Lo cual unido a la falta de aplicaciones x64 es un comecocos.
con un core 2 duo y 3 gigas de RAM, ahora va y me falta a veces procesador, estando muchas veces al 100 % haciendo 4 cosas.
En sistemas con core2 duo si puedo asignar procesos a uno de los cores ó compartido.
En servers es lo de siempre, el complicado balanceo de carga.
Comentarios
Lo preocupante es que la mayor parte del software no es capaz de aprovechar más de un core.
Hay que rehacer casi todo el software actual para poder aprovechar la potencia de una CPU moderna, pero el 99% de los informáticos no tienen ni pajolera idea de lo que es una aplicación multihilo y lo de programar en C y librerías como OpenMP es ciencia ficción gracias a la gran formación de nuestras universidades empezinadas en formar a Master of Bussiness Charlatane's Administrations como Enrique Dans mientras nos transformamos poco a poco en esclavos tecnológicos de China y Korea.
#2 O SqlSever desde hace la torta de años.
Pues aprovechando el comentario de #2 lanzo una pregunta para quien sepa responder.
¿No es posible meter una aplicacion "intermedia" que digamos, "reparta el trabajo" entre cores en las aplicaciones que sólo acceden a un núcleo del ordenador?
#4 Eso es algo completamente inviable una vez hecho el programa. Tendría que ser algo que fuese capaz de detectar esas tareas que se puedan ejecutar en paralelo, y eso implica conocer el código, lo cual no va a suceder si no es código libre. Y aún siéndolo, sería algo un poco específico de más por cada programa y, a final de cuentas, no sé si merecería la pena lo que puedas ganar con lo que puedas perder.
Como suele suceder, es mucho mejor reprogramar de nuevo pensando en ello.
#6 "Eso es algo completamente inviable" + hard coding = own3d asegurado.
#6 ya existe y lo hace el sistema operativo. Si tienes un procesador con doble núcleo (por lo menos) veras como los dos procesadores van trabajando. El SO se encarga de balancear el trabajo aunque por supuesto no es tan eficiente como si la aplicación de manera nativa lo haría.
Para #4.
...¿No es posible meter una aplicacion "intermedia" que digamos, "reparta el trabajo" entre cores...
Esa es una de las funciones principales del sistema operativo, pero como dice #6 el código de la aplicación en cuestión tiene que estar preparado y confabulado con el sistema operativo para aprovechar los multiples cores de la máquina.
#2 En realidad, ahora mismo todos los sistemas operativos de ámbito general son multihilo, por lo que aprovechan de forma nativa el hecho de tener varios cores. Otra cosa es que lo aproveche cada aplicación, pero el sistema operativo sí que se beneficia.
#4 "Repartir" el trabajo de un sólo proceso entre varios cores es bastante difícil, porque no se sabe por donde "partir" dicho trabajo para asignarlo. Es el programador el encargado de partir las tareas en "hilos" para que sea el kernel el que las reparta entre los cores.
#11 El software "actual", con actual me refiero a "de calidad" (no me refiero a comercial) está preparado para usar todos los núcleos que haya ya que suele ser multihilo. De repartir los hilos entre los cores se encarga el sistema operativo.
#17 totalmente de acuerdo.
Como apunte decir que los fabricantes optan por ese tipo de arquitecturas para seguir "aumentando" prestaciones ya que la frecuencia máxima de operación hace tiempo que dejarón de subirla. Evidentemente haciendo las cuentas Ncores*IstrucionesporCiclo sales ganando cuantos mas cores tengas. Ahora probablemente el word fuese más rápido en un P4 a 4GHz que en un QUADCORE. Hay que seguir vendiendo chachiflops.
#18 Eso pense yo cuando me compre mi portatil con un solo core hace años ya.
Epic fail.
Porque se nos olvida que si tenemos 30 programas en ejecucion entre demonios y el word, tal vez se queden 29 en un core y el word en el otro.
Y tal vez en ese caso si que ejecute el word más rápido
#2 ¿La mayoría de las aplicaciones no usan threads en su ejecución?
PD: Y lo de libreria como MPI, o openMP no están muy extendidas porque hacen falta varias CPU's para ejecutar programas. En mi uni me las ví para poder reservar 16 puestos con linux y poder realizar pruebas en Arq. de Computadores II (quizás es uno de los problemas, aunque se pueden montar granjas de PC's para ese cometido, es demasiada pasta para una sola asignatura).
Lo que comenta #2 es bastante falso... esa situación se daba con las aplicaciones de hace 3 o 4 años, no con las actuales. Es más, los sistemas operativos han avanzado mucho al respecto también. Como ejemplo el GCD del SL.
No hay más que ver benchmarks de aplicaciones de aplicaciones reales de hoy en día comparando el rendimiento con diverso número de núcleos desactivados.
#2 No se lo que dices yo en mi carrera en primero y en segundo he visto programación concurrente.,,
#16 No sabes cuánto me alegro de oir tus palabras. Si no te importa, dime de qué universidad se trata, para tenerla en cuenta cuando tenga que puntuar curriculums.
Para #2. Java soporta programas multihilo, todo es ponerse manos a la obra documentándose a través de Internet.
El P2P puede ayudar muchísimo para encontrar documentación completa al respecto...
#2 es que quizá suceda que el 99% de los programas que usamos en el escritorio no necesiten ser multihilo, y sea suficiente con tener el office en un core, el Firefox en otro, el VLC en otro...
Y para las aplicaciones web, los servidores ya soportan varios cientos de hilos, con lo que tampoco es demasiado necesario programar con ese concepto. Ni siquiera google o facebook utilizan multithreading al estilo OpenMP o MPI sino que dividen sus aplicaciones y sus bases de datos y aplican balanceo de carga.
Solo se me ocurre usar programación paralela como la que tú describes en tres supuestos: videojuegos y otras aplicaciones multimedia que requieran de alto rendimiento (rendering, codificación...), aplicaciones científicas de alto rendimiento, y aplicaciones en las que se necesite fuerza bruta, como romper claves. Y en ese tipo de aplicaciones ya se programa en paralelo desde hace años.
#2 No tienes mucha idea de lo que es la informática ¿verdad? Y por cierto, Charlatane's Edition, cómprate un diccionario.
#2 y otros: La gran gran mayoría de programas son difíciles de paralelizar y la en la mayoría de aplicaciones de escritorio no se ganaría mucho rendimiento. Hay problemas y situaciones específicas en las que sí se gana mucho rendimiento paralelizando el código (codificación/descodificación de vídeo por ejemplo) pero son los menos.
No digo que no estaría bien que las aplicaciones se fueran diseñando cada vez más pensando en procesadores multinúcleo pero no es una panacea.
El sector de servidores es un mercado muy exclusivo en el que Intel y AMD se reparten a la clientela hornada tras hornada de procesadores.
Al contrario que en el mercado del PC en el que AMD e Intel cuentan con multitud de competidores... Ó_ò
Durante mucho tiempo los cores no han tenido importancia a nivel de licenciamiento de software pero como los fabricantes han visto que se seguiría por este camino han empezado a cambiar las licencias de sus productos para tener en cuenta ese factor.
Un ejemplo claro es VMWare que con su producto de virtualización vSphere cuando se llega a los 8 cores, como los procesadores de la noticia, ya es necesario actualizar a una licencia superior.
Mas info: http://www.vmware.com/download/eula/multicore.html
#1
¿durante mucho tiempo? Tu no has trabajado con Oracle ¿verdad? Estos colegas llevan licenciando por core desde que sacaron los multicore (y no necesariamente Intel) A mi me dieron un toque en la empresa hace cinco años por comprar una SUN v890 con 4 CPU dual core y el tema de las licencias de Oracle.
En el mercado de Pcs domesticos intel sigue ganando porque intel es intel y mucha gente piensa que un AMD es una especie de mierda barata pero esa gente no sabe que AMD fue el primero en sacar procesadores de 64 bits y durante años se comieron a intel en rendimiento, en sacar procesadores dual core y quead core nativos y no nucleos "pegados con pegamento" como quien dice que hizo intel con sus penosos pentium D.
Intel es cojonudo pero también gracias a su imagen de marca, estilo apple, porque actualmente si bien intel supera a AMD en rendimiento bruto con sus core i7, AMD les supera en rendimiento/precio y ya no sólo en los procesadores sino en el precio de las placas.
También cabe apuntar que intel no tiene gráficas decentes mientras que AMD domina el mercado con las ATI que hace tiempo que se mean en las nVidia.
#9 Efectivamente, por eso los kernels de 64 bits en debian terminan en -amd64 aunque sirvan para cualquier arquitectura IA64.
Yo no cambio mis servidores Opteron ni por todo el oro del mundo (Bueno, por todo el oro del mundo si)
#20 "Efectivamente, por eso los kernels de 64 bits en debian terminan en -amd64 aunque sirvan para cualquier arquitectura IA64."
¿IA64? ejem, ejem, supondremos que ha sido una errata.
#33 Si, que la maquina de cafe esta estropeada y ahora mismo no diferencio entre un Z80 y un X86-64
Para #9. Te voto positivo por la información que aportas, pero no me gusta comprometerme con ninguna marca. En mi experiencia he visto más procesadores AMD quemados que Intel, y en general es cierto que de momento Nvidia funciona mejor que ATI con los GNU/Linux (aunque la mejor opcion siga siendo una gráfica Intel por muy lentas que sean).
No es bueno hacerse fanboy de las marcas porque todas necesitan despertar para meterse de lleno en la liberación de especificaciones para el desarrollo del software libre. El proximo procesador que compre sera Intel, porque me tocó las narices que mi Duron de AMD no soportara el juego de instrucciones SSE2.
Pero no tengo prisa para cambiar de máquina, es más conservo máquinas del 2000 en funcionamiento. No me gusta tirar hardware que funciona perfectamente. Me llama la atención el próximo procesador de Intel con la tarjeta gráfica integrada en el mismo chip y con un rendimiento muy superior a la habitual en Intel. Es un procesador para portatiles que espero se pase desde el inicio a lado libre del software.
Continuación de #24.
Ya sé que los nuevos procesadores AMD soportan SSE2, pero me apetece en cualquier caso probar un Intel en el futuro.
A ver cuando nos unimos muchos y creamos un procesador libre!!
#26 Procesadores libres ya hay, por ejemplo OpenSPARC T2 Processor (http://www.opensparc.net/opensparc-t2/download.html). Este por ejemplo tiene 8 cores. Ahora creo que con una colecta entre todos no nos da ni para los cafes que nos costaría implementarlo.
Para #27. Goto #24.
#24 En mi experiencia he visto más procesadores AMD quemados que Intel
Eso es que no has tenido un Dell 620 (aunque la culpa al final es de la falta de ventilación...)
Yo en casa tengo el Dell 620 que le compré a la empresa al finalizar el leasing, y que basta con limpiarlo por dentro cada 2 meses para que no arda, el portátil de la empresa E6400 y un Asus X50N con el HD cambiado para que sea de 7200 rpm.
La verdad es que el Asus siendo más viejo rinde mejor metiéndole caña al SQL Server 2008 que el Dell E6400, (con el mismo software y HD equivalente)...cosas del Hypertransport de AMD.
#24 "Pero no tengo prisa para cambiar de máquina, es más conservo máquinas del 2000 en funcionamiento. No me gusta tirar hardware que funciona perfectamente. "
Yo antes pensaba como tú. Luego me dí cuenta que si virtualizaba media docena de pentium IV del 2000 en un Quad-Core obtenía mejor rendimiento y al cabo de tan sólo tres o cuatro meses había amortizado la compra. Y la comodidad y seguridad de tenerlo todo ejecutándose en máquinas virtuales no tiene precio.
#41 ummm, pero que ganas virtualizándolos?, tenerlo todo más "ordenadito"?. No estoy en plan vacilón, es que no le encuentro otro sentido
#42 Ahorras energia por ejemplo.
#43 pero por qué hace falta virtualizar?, por qué no se hacen las tareas directamente en el S.O host?.
#44 Venga otra que he pensado. Por ejemplo, con el host puedes automatizar la recuperación de los virtualizados. Cae uno virtualizado lo dectectas y lo levantas sin más consecuencias.
#42 Pues por poner un ejemplo del día a día. Si guardo una máquina virtual en el fichero "/var/lib/virtualMachines/MiServidorDeCorreoVirtual" y hago un backup de ese fichero automáticamente estoy guardando toda la configuración del servidor (cuentas, cortafuegos, configuración de red, librerías y dependencias de paquetes, scripts personalizados, etc ...). Si ahora quiero actualizar a una versión más moderna del servidor, copio la máquina virtual en mi portátil, ejecuto la misma desconectando el portátil de la red, hago todas las actualizaciones que me apetezca en mi portátil (por ejemplo una actualización completa del sistema operativo) y cuando estoy completamente seguro de que todo está OK, reemplazo el fichero en /var/lib/virtualMachines por el nuevo. En total el cambio puede llevar unos 5 minutos.
Para #9,
#27 Mi padre tiene un mercedes que si le quitas el liquido refrigerante se estropea casi mas rapido que un AMD...
No se que intentas demostrar con ese video, a mi lo que menos me preocupa es que se me caiga el disipador...
#31 el ventilador se puede estropear. En tu casa quizá no importe, pero en una empresa, la diferencia entre ralentizar la máquina y que ésta salga ardiendo es crítica.
#27 Ya sabemos que la arquitectura de los primeros athlon (duron, XP) aunque superaba en rendimiento a los pentium 3 eran unos procesadores que se calentaban mucho. Ya puestos podrías poner el ejemplo de como los K6-2 eran una mierda comparados con los pentium II pero lo que importa es el presente y un equipo de similares prestaciones es muchisimo mas barato en AMD, otra cosa aparte es el sector entusiasta que pueden gastarse 1000 euros sólo en un procesador y una placa core i7 para ganar unos pocos puntos mas de rendimiento ya que en rendimiento, que no en precio, el i7 es insuperable de momento pero támpoco tan diferenciado como se quiere hacer creer.
8 y 12 Megapixels!! UAUU.. oh wait! me he equivocado de tematica... o no?
/modo ignorante on) El software actual, sea profesional o particular está preparado para funcionar con tantos nucleos?, sabria aprovechar un SO (sea Windows o Linux o el que sea) la potencia que le ofrecen estos procesadores?
/modo ignorante off)
#11 en entornos de servidores si, esos 8 o 12 cores y mas(con una mother para 4 cpus tendríamos 48 cores), base de datos tanto oracle, sql server, mysql, etc. están preparados para muchos cores, también servidores web como apache y iis.
#13 Samba usa bastante mucho el fork(), solo vean cuantos procesos nmbd y smbd hay en un servidor con Samba
Pues yo tengo una placa multiprocesador con 8 Quadcore y la ADSL de Telefónica va igualito que en el 486 de mi abuela.
#29 Eso va a ser porque tu abuela ha puesto los geranios encima del cable del ADSL, quítalos y repite los tests de velocidad.
Para ventilar ese monstruo de 12 núcleos habrá que usar un campo eólico
Pero para uso doméstico no sirve esto no? Osea mejor que gaste el dinero en 1 o 2 núcleos o no?
Tengo pensado usar Linux, lo digo por si aprovecha más que Windows.
Esto de los cores es la releche,
En el mercado domestico me hiba más rápido mi k7 que el core 2 duo de ahora.
Tanta multitarea tanta leches y van igual o peor de velocidad, creo que lo único que se hace por parte del hardware es compensar la pesadez del software.
Lo cual unido a la falta de aplicaciones x64 es un comecocos.
con un core 2 duo y 3 gigas de RAM, ahora va y me falta a veces procesador, estando muchas veces al 100 % haciendo 4 cosas.
En sistemas con core2 duo si puedo asignar procesos a uno de los cores ó compartido.
En servers es lo de siempre, el complicado balanceo de carga.