54 meneos
65 clics

No hay electricidad para entrenar tanta inteligencia artificial: 4 de cada 10 centros de datos tendrán problemas
Entrenar GPT-3, el modelo de lenguaje largo (LLM) detrás del éxito de ChatGPT en 2022 requirió unos 1.287 megavatios-hora (MWh) de electricidad. O, lo que es lo mismo: conseguir que esta herramienta se perfeccionara a hombros de 175.000 millones de parámetros produjo las mismas emisiones de carbono que un coche tras recorrer 700.000 kilómetros. Desde entonces, la cosa no ha hecho sino empeorar: aunque las cifras exactas para GPT-4 no han sido divulgadas públicamente, se estima que su entrenamiento requirió 65.300 MWh de electricidad, lo que g
|
Click para ver los comentarios