edición general
10 meneos
73 clics
La primera GPU para juegos de China, la Lisuan G100, funciona como una Nvidia GTX 660 Ti de 13 años [ENG]

La primera GPU para juegos de China, la Lisuan G100, funciona como una Nvidia GTX 660 Ti de 13 años [ENG]

China presentó recientemente su primera GPU para juegos, la Lisuan G100. Construida sobre un proceso de 6 nm, la tarjeta fue promocionada como un potencial rival del RTX 4060 de Nvidia. Sin embargo, un reciente listado de Geekbench sugiere que su rendimiento es más cercano al de la GeForce GTX 660 Ti de 13 años o la Radeon R9 370 de 10 años. El listado también parece revelar especificaciones sorprendentemente anémicas, incluyendo solo 32 unidades de computación, 256 MB de VRAM y un reloj de GPU de 300 MHz.

| etiquetas: lisuan , g100
En 30 meses, la tarjeta le reirá las gracietas a nvidia de tu a tu, con un 25% del valor de la tarjeta de Nvidia si compras 500 unidades. Y entonces alguien se echará las manos a la cabeza.. pero como ha podido pasar esto??
#4 #3 La soberbia nos pierde en el viejo continente.

Yo admiro los esfuerzos Chinos.
#11 Es que no es cuestion de admiracion , es su forma de ser su forma de estudiar y trabajar , yo admirarlos no, si hicieran lo mismo con menos esfuerzo, pero son bestias.
Pero lo que si es de admiracion es el destino de todo eso, no es para enriquecimiento exclusivamente personal , que gran parte si , sino para un proyecto comun y a largo plazo, eso es lo que admiro.
#3 hombre, piensa que ni NVIDIA ni AMD se van a quedar parados esos 30 meses. Suponiendo que avancen más rápido que AMD/NVIDIA , faltaría bastante más tiempo para alcanzarles.
#15 ya, Aquiles no puede adelantar a la tortuga.
#3 No se a quién quieres engañar...
Que los chinos son muy capaces, pero el desarrollo de estas tecnologías requieren tiempo.
#19 No estan empezando ahora. Llevan muchos años en algo que no hemos sido capaz de olerlo: la cadena de valor.

Tiene las materias primas, las empresas de quimicas, las manufacturas y los centros tecnológicos dentro del país a centenares de kilometros entre ellos. No depende de USA ni de Rusia ni de Europa.

Y hasta que tenga problemas sociales serios, tiene una fuerza laboral que nos da mil vueltas.

No se a ti quien te ha engañado pensando otra cosa pero hace 10 años era el primo tonto en los coches y ahora nos dan mil vueltas. En los microchips nos van a llegar a la altura en 3-4 años y nos va a dar sopas con ondas para cuando nos queramos dar cuenta.
Reirse de quien esta desarrollando su propia tecnologia independiente del mercado, para cuando llegue a la par o sea superior ponerles unos aranceles enormes y aun asi sera comercialmente mas competente.
La historia se repite: se ríen de China cuando se ve obligada a desarrollar su propia tecnología, pero luego lloran cuando les han alcanzado y ya son una competencia seria.

Así pasó con los coches eléctricos cuando Tesla era la todopoderosa y ahora los coches chinos son su mayor amenaza.

También podría mencionar los chips para móvil que, cuando bloquearon el acceso a ellos a Huawei, pronosticaron la caída de las empresas de móviles chinas y ahora producen chips bastante competentes.
#8 Tesla no es buen ejemplo. La tecnología de baterías nunca ha sido suya, China lleva muchos años siendo puntera.

En el resto de acuerdo.
Si libera el código fuente y tiene drivers de código abierto ya tendría mejor soporte que muchas tarjetas gráficas comerciales de código privativo.
En el artículo no veo ninguna referencia de precio. Una comparación entre un Ferrari y un Seat Panda que no mencione los precios es absurda. Sabiendo precios ya podremos especular sobre si es una mierda, un meh o una revolución.
#9 con esas specs, si tienes un micro un poco moderno, la gráfica integrada la supera, así que da igual el precio que tenga porque usarla solo hará que tu PC vaya más lento....
#18, tienes razón y solo se podría tomar como aprendizaje inicial entonces, sobre todo si solo estamos mirando su propósito como "gaming". Nada comercial. Pero parece que además del precio falta más información. Veremos esas pruebas de rendimiento más adelante si exprimen algo más...
A seguir esperando. :troll:
un buen punto de partida que sea igual en compatibilidad que una 660ti,
cuando usen la tecnologia que tiene actualmente huawei o similares en sus gpu
pueden dar un buen salto si mantienen esa compatibilidad total usando 3nm y memoria rapida
#21 hay mucha, muchísima tecnología en una GPU moderna además de los nanómetros, y si no que se lo digan a AMD como suda tinta para alcanzar a NVIDIA a pesar de fabricar en la misma fábrica de TSM.
Es el diseño del hardware y del software, que muchas veces se olvida, pero es precisamente dónde NVIDIA le saca más ventaja a AMD, en el software.

Pero vamos, que yo miedo no tengo, a mi me da igual qué fabricante lidere, mientras no esté llena de bugs y me de por saco a mi :-)
32 compute cores a 300Mhz no merece la pena mandar nada a la GPU, eso es más lento que una CPU medio moderna.
#17 concretamente a la altura de una de 10-13 años, pero con 6nm. mañana te lo duplican, no tengas miedo.
Es que no pueden copiar una RTX en condiciones o que
Cualquiera que le guste el cacharreo cuando lee que se hizo el benchmark con 256 MB VRAM y 300 MHz de reloj, sabe perfectamente que es una versión de prueba de drivers.

Googleando un poco se estima que salga allá por septiembre, por lo que en julio aparecerán las primeras versiones finales
Habrá que ver el modelo final , como menciona #10 , pero también otras cositas , como por ejemplo , si podrá hacer algo similar al nvlink de las 3090, o el consumo de energía... Que no todo es potencia bruta.
Si ademas es compatible con CUDA , ya puede empezar a temblar NVIDIA , AMD , Intel ...
#13 no es tan sencillo ser compatible CUDA. Son especificaciones cerradas y patentadas. Mejor irían por el lado de ROCm (AMD) que eso sí es libre y OpenSource.
#16 bueno , pues compatibles con github.com/vosen/ZLUDA al menos :-)
Si AMD mantuviera compatibilidad entre series , igual le podrían hacer algo de sombra a nvidia , si no por potencia , al menos por precio.
Veamos cuando venga con drivers optimizados y que compatibilidad y consumo tiene.

menéame