En una increíble cadena de eventos , un programador ruso acuchillo a su amigo después de tener una acalorada discusión sobre NVIDIA vs AMD. Posteriormente intento quemar el cadáver para cubrir el asesinato
#30 Me he dado cuenta que cada vez que cambian el color de algo de Menéame u os deja ciegos o con secuelas de visión permanente, independientemente del color que sea
#44y AMD (ATI en tecnología) bastante más eficientes energéticamente.
AMD siempre ha ido por detrás en eficiencia energética, no sé por qué te inventas eso. Cuando quieras vamos haciendo comparativas de gráficas a lo largo de las generaciones (con sus respectivas parejas AMD-Nvidia)
El combo intel-nvidia no es que se vincule... es que Intel además de también ser más eficiente energéticamente lo que importa para los gamers es el rendimiento por núcleo. AMD destaca en rendimiento multicore, pero para los juegos importa mucho más el rendimiento por núcleo, por ahora. Y AMD no vale para competir en eso.
Y por eso AMD (en procesadores) está para builds de presupuesto, no para builds de alto rendimiento
#51 Porque estás acostumbrado a un diseño y cuando te lo cambian, se nota.
Aunque yo desde que fijaron la barra naranja ya no tengo esos problemas, tan solo tuve que aprender braile.
Antes de cambiar más cosas deberían permitir despegar la barra naranja de los cojones.
#51#30
He tenido que mirar dos veces para comprobar que estaba logueado,
Ahora me voy a poner a tocar botones a ver que pasa...
Ya veréis según se vaya incorporando la gente después de una noche de fiesta, esto va a ser un festival del humor.
Y eso que en Rusia no tienen tortilla de patatas, si la discusión llega a ser si es con cebolla o sin cebolla, monta una masacre que mata a medio barrio.
#19 Es curioso como cala el márqueting y cómo nVidia ha conseguido vincular su imagen a Intel.
Sin embargo, en CPUs AMD eran las tostadoras e Intel hacía throttling a saco para fardar de fresquitos (y proteger los chips de malas instalaciones).
Pero nVidia siempre fueron las tostadoras (hasta hace bien poco, por eso tuvieron que sacar Optimus en su día) y AMD (ATI en tecnología) bastante más eficientes energéticamente.
(Esto no quiere decir que, netamente, piense que Radeon es mejor que Gforce. Hay otros factores a tener en cuenta)
#66 lo que usted diga señor, AMD caca, nVidia bueno. En todo y sin excepciones. Lo que hacemos por simplificar las cuestiones a algo binario.
nVidia tuvo hasta hace poco serios problemas para hacer gráficas de portátil en gama media-alta por eficiencia energética. Otra cosa es que AMD se coma los mocos porque tienen esa fama o porque no saben luchar en marqueting (o no quieran) o porque sus drivers den pena... cada uno tiene lo suyo y es muy difícil pensar cual es la equivalente de cada marca... hasta que una le copia a otra la arquitectura ¿ya sabes que nVidia empezó a luchar por mejorar su rendimiento multicore hace unos años? Sí, ese mismo que no sirve para juegos... y la verdad parece que consiguieron igualarse.
Además, creo que fui bien claro al separar que hablaba de gráficas (Ati), no tiene sentido la última línea.
Comentarios
Es que le tenía mucha nvidia.
#3 En Rusia ni se te ocurra discutir sobre si la obra de Dostoyevski es más trascendental que la de Goethe; te pueden correr a ostias.
Intentó quemar el cadaver poniendo varios procesadores AMD a pleno rendimiento?
#0 Los comienzos de frase siempre con mayúsculas.
#1 La nvidia es muy mala.
Si lo llega a poner encima de los chips de la Nvidia no queda ni rastro: carbonizado.
#23 A mi me encantan las Ndivias con salmón.
un programador ruso...
Ahora se explica. En Rusia se matan hasta por discusiones filosóficas
#22 A mí la Nvidia me corroe
#16 #14 Haya paz, no queremos una desgracia.
¿Por qué? Si bastante pena tinía con ser fan de AMD...
#6: Eso está patentado por Felipe Gal.
#Disclaimer: este mensaje no pretende hacer referencia a personas físicas del mundo real.
#8 tienes nvidia
#32 lo ha nViado al otro barrio.
#33 Está claro, lo mató por envidia usando la gfuerza
#31 ¿Felipe Gal? No sé a quién te refieres , por mí como si me dices Señor X.
Que paso con los votos
Mis ojos
#4 Y punto final, algún espacio sobrante, alguna tilde ausente... #0
90% chistes fáciles. Me da a mi que este tipo de noticias nada más sube a portada por que pone fácil el hacerlos no por la noticia en si.
Que bien todo en chisteame
Próximamente en los cines: "Programmed to kill"
buff! es que es una mierda. igual que Linux...
#26 Porque eres un casual y solo la usas pal Candry Crush...
#10 Venía a decir eso.
#1 le amedrentó...
¡Qué bestia, quemar el cadáver! ¿No podía comprar cal viva?
#14 yo tambien he tenido de ambas, me quedo con amd
#3 Relacionada Un ruso es disparado tras una discusión sobre la filosofía de Kant
Un ruso es disparado tras una discusión sobre la f...
bigstory.ap.orgSolo les falta poner al final: "Y LEÍA MANGA!" y ya está lista para poner en las noticias de Antena mierder.
Obviamente ganó el de NVIDIA. No podía ser de otra forma.
#3 Especialmente después de tragarse unos litros de vodka.
#6 No quemó el cadáver, es que la tarjeta AMD se calentó demasiado como siempre e incendió la casa
AMD. Tuve una, no quiero ni volver a oír hablar de ellas.
Por el chiste y las gracias está muy bien, pero vamos parece que pasó hace un año y esto es el resultado del juicio.
Pero si hay que hacer un chiste:
Nvidia, como siempre, ganando gracias a puñaladas traperas.
La culpa es de los videojuegos
#0 Con tu permiso te he arreglado un poco el titulo, espero que no te moleste.
Pues menos mal que no se enteró que yo soy fan de las Intel HD
#22 Eso no me lo dices en la calle, payaso.
#42 La calle es mia, y me la follo cuando quiero! ¿esta claro?
Si estaban en casa del de AMD ya se como pensaba quemarlo
#2 Debía apreciarlo mucho y le dió el final que tanto adoraba, morir calentito cual procesador de su amada marca, muy considerado.
#30 Me he dado cuenta que cada vez que cambian el color de algo de Menéame u os deja ciegos o con secuelas de visión permanente, independientemente del color que sea
Al ver vídeos de streamers rusos, me queda claro: no saben AMDinistrar la nVidia.
#24 Como en este corto cubano de hace unos años:
joder mi primera portada en meneame
#16 Que te aproveche la tostadora
Por otra parte la Nvidia deRobus tiene una mini-barretina sobre la case. Monííísima
#19 que tostadora mas mala... mi 480 no pasa de 60º jugando con los ultimos drivers...
Cuánto daño ha hecho El Mundo Today.
Seguro que era la falta de sexo y amor.
Esos primos cercanos primates que menos se matan, los bonobos.
#44 y AMD (ATI en tecnología) bastante más eficientes energéticamente.
AMD siempre ha ido por detrás en eficiencia energética, no sé por qué te inventas eso. Cuando quieras vamos haciendo comparativas de gráficas a lo largo de las generaciones (con sus respectivas parejas AMD-Nvidia)
El combo intel-nvidia no es que se vincule... es que Intel además de también ser más eficiente energéticamente lo que importa para los gamers es el rendimiento por núcleo. AMD destaca en rendimiento multicore, pero para los juegos importa mucho más el rendimiento por núcleo, por ahora. Y AMD no vale para competir en eso.
Y por eso AMD (en procesadores) está para builds de presupuesto, no para builds de alto rendimiento
Yo por Nvidia, MATO
#11 tengo las dos... y por eso se de que hablo.
#17 No para nada.
estoy seguro que hace decadas debe haber ocurrido alguna pelea con muerte discutiendo si eran mejor las hercules o las cga
Me suena que por cada 3 nvidia se vende 1 Radeon, al reves hubiera sido más "noticia"
error
Ryzen levantando ampollas. Verás cuando la RX 490 con 12 FB de HBM2 por menos de lo que cuesta una 1080 .
Anda que como este pille a Linus...
#51 Porque estás acostumbrado a un diseño y cuando te lo cambian, se nota.
Aunque yo desde que fijaron la barra naranja ya no tengo esos problemas, tan solo tuve que aprender braile.
Antes de cambiar más cosas deberían permitir despegar la barra naranja de los cojones.
#24 eso es peor que plagiar a Faulkner
#51 #30
He tenido que mirar dos veces para comprobar que estaba logueado,
Ahora me voy a poner a tocar botones a ver que pasa...
Ya veréis según se vaya incorporando la gente después de una noche de fiesta, esto va a ser un festival del humor.
Me he acordado de esto : http://www.tiraecol.net/modules/comic/comic.php?content_id=141
Lo bien que iban las de 3dfx.
Menos mal que no hablaron sobre espacios y tabulaciones sino igual se carga a toda la familia.
#29 ¿Inrel HD? Tu te mereces que te den de palos
Y eso que en Rusia no tienen tortilla de patatas, si la discusión llega a ser si es con cebolla o sin cebolla, monta una masacre que mata a medio barrio.
le quemó con una gtx 480 ni lo dudéis
#19 Es curioso como cala el márqueting y cómo nVidia ha conseguido vincular su imagen a Intel.
Sin embargo, en CPUs AMD eran las tostadoras e Intel hacía throttling a saco para fardar de fresquitos (y proteger los chips de malas instalaciones).
Pero nVidia siempre fueron las tostadoras (hasta hace bien poco, por eso tuvieron que sacar Optimus en su día) y AMD (ATI en tecnología) bastante más eficientes energéticamente.
(Esto no quiere decir que, netamente, piense que Radeon es mejor que Gforce. Hay otros factores a tener en cuenta)
AMD es mejor y punto, y a ver quien tiene huevos para decirme lo contrario...
Matar por MDMA
9 años y medio por matar a otra persona, que barato sale matar en Rusia... casi tanto como ser un corrupto en España.
#66 lo que usted diga señor, AMD caca, nVidia bueno. En todo y sin excepciones. Lo que hacemos por simplificar las cuestiones a algo binario.
nVidia tuvo hasta hace poco serios problemas para hacer gráficas de portátil en gama media-alta por eficiencia energética. Otra cosa es que AMD se coma los mocos porque tienen esa fama o porque no saben luchar en marqueting (o no quieran) o porque sus drivers den pena... cada uno tiene lo suyo y es muy difícil pensar cual es la equivalente de cada marca... hasta que una le copia a otra la arquitectura ¿ya sabes que nVidia empezó a luchar por mejorar su rendimiento multicore hace unos años? Sí, ese mismo que no sirve para juegos... y la verdad parece que consiguieron igualarse.
Además, creo que fui bien claro al separar que hablaba de gráficas (Ati), no tiene sentido la última línea.