Hace 3 años | Por mr_b a xataka.com
Publicado hace 3 años por mr_b a xataka.com

GPT-3 de Open IA causó revuelo hace unos meses cuando impresionó al mundo por sus capacidades para generar contenido. Con 175 millones de parámetros GPT-3 parecía una auténtica bestia, ahora un nuevo modelo de aprendizaje profundo chino hace eso y más gracias a sus 1750 millones de parámetros. La Academia de Inteligencia Artificial de Beijing (BAAI) dio a conocer la versión más reciente de su modelo de aprendizaje profundo preentrenado en un evento sobre IA en Beijing, conocido como Wudao (significa “comprensión de las leyes naturales”).

Comentarios

rojo_separatista

Esperando impacientemente ver lo que es capaz de hacer. Falta ver con cuantos datos lo han podido entrenar, aunque no creo que sea un problema extraer miles de millones de textos de internet, cabe recordar que la espectacularidad de GPT-3 se debe tanto por su número de parámetros como por su base de datos de entrenamiento.

Jakeukalane

Edit

Jakeukalane

#1 pues no, tenía razón. Está mal usado son 1,750,000,000,000 parámetros. 1 billón 750 mil millones. Y el gp3 son 175.000 millones y no 175 millones. Se ve que al ver trillion han cortocircuitado y esta vez han quitado ceros de más.