Hace 11 meses | Por tropezon a elperiodico.com
Publicado hace 11 meses por tropezon a elperiodico.com

La IA se ha convertido en una oportunidad de oro para las grandes empresas tecnológicas. Gigantes como Microsoft, Google o Meta llevan meses enfrascados en una frenética carrera corporativa. Sin embargo, el acelerado despliegue de herramientas como ChatGPT no sería posible sin otra compañía: NVIDIA, que no es la responsable de los productos de IA que están apareciendo en escena, sino de la tecnología que los sustenta. La compañía alcanzó un valor bursatil de 945.000 millones. Su capitalización casi dobla la de 2ª compañía de chips, TSMC

Comentarios

Robus

Hace años Nvidia creo un sistema de librerías CUDA para utilizar las tarjetás gráficas para realizar operaciones matemáticas no ligadas a gráficos.

Desde entonces se empezaron a usar en datacenters, hasta el punto que Nvidia sacó versiones de sus tarjetas únicamente para datacenters (no podías usar una doméstica en un datacenter o te exponías a denuncias)

Luego llegó la minería de datos y provocó que sus tarjetas se vendiesen como rosquillas.

Ahora, gracias a CUDA, tienen un monopolio de facto en las tarjetas gráficas para cálculo, más que nada porque no hay alternativa.

R

#1 Sí, por desgracia el rendimiento de OpenCL con AMD no tiene nada que ver con NVidia y CUDA.

Por cierto, ya que te veo puesto con el tema, sabes algo de cómo van los núcleos de IA que AMD empieza a incorporar en su gama 7000? Parece prometedor, pero no he visto nada que le saque provecho

Robus

#3 Estoy metido en el tema de ML y Nvidia tiene grandes máquinas para entrenar (las targetas gráficas con CUDA) y pequeñas máquinas independientes para inferir (jetson nano o Xavier, también con CUDA).

No me ha interesado mucho mirarme alternativas en el entrenamiento, ya que en estos momentos no hay alternativa real a Nvidia, si consiguen hacer algo decente seguro que se comenta en las comunidades de IA.

Por otro lado, en inferencia, hay un par de alternativas: el google coral (te permite hacer inferencia potente conectando un USB a tu portatil) y el Azure IOT-DevKit de Microsoft (que me regalaron pero todavía no he tenido tiempo de mirarme).

El problema que le veo a AMD es que aunque saque una gran cantidad de librerias para ML los resultados deberían ser mucho mejores que los de Nvidia para que la comunidad se plantease moverse de unos "estandares oficiales" que usa todo el mundo a un mundo alternativo que no se sabe si tendrá continuidad.

rojo_separatista

#4, el dispositivo de Azure no se, pero el Coral de Google se ha quedado estancado desde hace varios años y hoy es varios órdenes se magnitud más lento que las últimas Jetson Orin. Vamos que hoy no creo que haya ninguna alternativa realista a Nvidia para hacer inferencia de modelos.

D

Son todos unos nvidiosos