Hace 1 año | Por geralt_ a newatlas.com
Publicado hace 1 año por geralt_ a newatlas.com

La IA Alpaca de Stanford tiene un rendimiento similar a la asombrosa ChatGPT en muchas tareas, pero se basa en un modelo lingüístico de código abierto y cuesta menos de 600 dólares entrenarla. Parece que estas inteligencias artificiales divinas ya son terriblemente baratas y fáciles de reproducir.

Comentarios

awezoom

Pues que se lo vendan a Microsoft por 9.000 millones de dolares. MS ahorraría un 1000 milloncitos y se evita despedir a unos cuantos ingenieros de esos que tanto le sobran ahora...

snowdenknows

"we definitely need more regulation on ai
— Sam Altman (@sama)" traducido, quiero mi monopolio

n

Que gran futuro, IAs a precio de becario.

l

#7 Dudo que sea eso.

ktzar

Funciona en mi Mac perfectamente. Rápido y arranca en segundos... Es increíble. No es chatgpt, pero el modelo 7b traduce al catalán, al chino, escribe código (más o menos)...

rojo_separatista

#38, pero cambiar el valor de los parámetros del modelo no afecta a su desempeño en cuanto a coste computacional para hacer inferencia.

v

#7 quitas el autocontrol y se convierte en Skynet.

ccguy

Y yo en un rato hago un programa que se baje y archive todo el internés.

Os lo pongo en github y ya no tenéis que tener ADSL

D

#5 Lo que pasa es que los chatbots como ChatGPT o GPT-4 desperdician mucha energía en el autocontrol. Si quitas eso, es posible que sí se pueda competir con ellos con menos parámetros.

rojo_separatista

#44, de hecho no me cabe duda de que ChatGPT tiene mejor de capacidad de comprensión lectora que la media de personas.

rojo_separatista

#20, aún así sigues teniendo el problema de hacer inferencia una vez ejecutados. Si hay miles de usuarios conectados, no lo veo viable en tiempo real por muchos nodos distribuidos que haya. No digo que en el futuro el hardware doméstico o la compresión de estos modelos no mejore lo suficiente para que esto ocurra, pero todavía no estamos en este escenario.

rojo_separatista

#11, en realidad lo que dice #9 no es verdad. Aunque no han trascendido todos los detalles sobre la arquitectura de GPT-3.5 y GPT-4. El proceso de RLHF, solo fine-tunea la arquitectura original sin añadir-le más parámetros. El grueso del entrenamiento se produce antes y en la parte de inferencia no afecta en lo más mínimo ya que no cambia el tamaño del modelo.

rojo_separatista

#39, aver, que no digo que los que han hecho sean cuñaos, digo que el periodista que ha redactado el titular, lo es un poco.

Si es tal y como explica el titular, este modelo se terminará utilizando muchísimo más que los modelos de OpenAI en muy poco tiempo. ¿Te apuestas algo a que no termina siendo así?

rojo_separatista

#42, creo que te estás liando demasiado. Yo no he entrado en nada de esto de lo que comentas. Lo que digo es que vender en el titular que con 600€ se puede replicar lo que hacen modelos que cuestan miles de millones de euros es cuñadismo de manual. A partir de ahí, podemos discutir lo que quieras, de hecho no digo que modelos más pequeños no sean interesantes para empresas o investigadores en algunos caso, pero no amenazan la posición de OpenAI y Microsoft por ahora.

D

ya no esta disponible

n

Porque ChatGPT no ha inventado la pólvora, pero eso es algo que los periodistas no entienden.

M

#7 Perdona. ¿Qué significa en autocontrol?

reithor

Bueno, parece que la velocidad de reproducción de las IAs se asemejan a las dinámicas poblacionales propias de los fans de sectas como Opus Dei o neocatecumenalismo.

Polarin

A ver... recordemos una serie de temas muy tontos... como que la universidades americanas tienen muchisimas mas infraestructuras que las espaniolas. Stanford, Carnegie-Mellon, el MIT o incluso Rutgers, tienen una infraestructura parecida a la necesaria para este asunto, y tienen a la gente que se esta sacando doctorados ahora mismo intentando comerse a ChapGPT.

D

#16 En AWS alquilar un espacio que pueda entrenar modelos más simples que un botijo cuesta casi dos mil euros al mes.

Solo en transferencia de datos, de la nube a tu servidor, superas los cien euros.

Hay gato encerrado.

D

#6 ¿Para qué? Los datos, que es lo importante, los han sacado de chatgpt.

D

#24 Sí, tienes toda la razón. Miré los comentarios leyendo solo el inicio de la noticia, mal hecho.

D

#28 El RLHF no cambia el tamaño del modelo ni añade (que sepamos) parámetros, pero creo que sí que modifica los que ya hay, especialmente los de alto nivel (últimas capas), aunque es posible que afecte también a capas de bajo nivel.
De hecho, la tendencia lógica es que las medidas de seguridad extiendan su influencia por todo el modelo.

Zeioth

Y ademas si recuerdo correctamente, una IA alpaca la puedes correr en local en tu PC. Lo que habilita muchas aplicaciones que con chatGPT serían imposibles.

Ejemplo, distribuir software Open Source de edición de imagen, que le puedas dar ordenes en lenguaje natural.

ACEC

En un triste i3 sin GPU funciona. A la primera pregunta ha tardado unos 15 minutos en responderme, pero lo ha hecho y de manera correcta.

e

#30 quiero de lo que tomas

l

#5 #7 Yo tenia entendido que los transformers son muy eficaces, pero tienen un consumo de recursos brutal. SEguramente sera interesante intentar hacer lo mismo con una alternativa a trasnformes.

#12 Tambien una vez hecho es mas facil hacerlo otra vez. Es como la patentes de farmacos. Una vez se descubre un farmaco que funciona, aunque tengas que descubrir como funciona te ahorras investigar todos los callejones sin salida y puedes saber como se hace parte del proceso.

#24 No se hacen programas antiSPAM. Va ser necesario porque se va poder crear texto que cuele.
Tambien seria interesante evaluar la calidad de los textos( mensajes, correos, comentarios) o su interes o hacerte un extracto quitando la paja que meten en paginas de clickbait.

h

#26 Ni los periodistas ni muchos por aquí... lol

...hala, ya me quedao a gusto

h

#5 A ver hombre, que son Stanford, no son precisamente cuñaos... respetiño por dios. No dicen que supere a GPT4, pero leyendo los resultados y su coste (que es lo que se hace posible cuando abres tu modelo) puedes hacerte una idea de como nos estamos acercando a la fase de rendimientos decrecientes con el approach actual.

h

#41 Te refieres al artículo (es la primera palabra de tu comentario), el cual me parece bastante acertado y completo. El titular es clickbait, en eso estamos de acuerdo, lo escribe un periodista. Sin embargo, aquello de Sparks of Artificial General Intelligence lo escribe OpenAI... que es un clickbait ordenes de magnitud mayor... no te quedes en el titular, la noticia es importante y la explican bastante bien en una lectura de 5 minutos (en #16 tienes el enlace a la fuente)... seguro que si has digerido las más de 150 páginas del otro día, esto es pan comido.

No apuesto nada, creo que ya dije alguna vez que yo no soy economista (no vengo a estas noticias a hablar de economía) y tampoco sé que va a pasar en el futuro (y tú tampoco)... ahora bien (y esto sí es cuñadismo, porque no puede ser otra cosa), si con algo que sale gratis o casi gratis puedo cubrir el 90% de los casos de uso... pues empresas como OpenAI tendrán que enfocarse en nichos de mercado bastante específicos (lo contrario sería como intentar robarle cuota de mercado a Linux, por ejemplo se me ocurre).

h

#43 Sí, seguro que me he liado demasiado... tiene que ser eso. Habrá que metérselo a ChatGPT a ver si nos lo aclara

h

#1 ojalá eso tenga licencia GPL

kaoD

#9 [citation needed]

¿Podrías describir RLHF y por qué la hace menos eficiente?

Si lo piensas intuitivamente no tiene sentido: hay más entradas que producen la misma salida (la controlada) y por tanto es más eficiente no menos.

navi2000

#13 Recuerdo el día que una señora delante de mi en un PC Box sacó orgullosa un disquette de 3'5" de su bolso y le dijo al encargado "¿me puedes grabar Internet aquí?". Las risas de todos todavía resuenan en mi cabeza.

D

#3 Más bien por gastona. Y nada de boxes, la han quitado y punto. Pero están saliendo otras como churros.

RamonMercader

#5 si, pero una red distribuida de voluntarios cediendo su gpu puede competir contra las grandes, el open source/modelos comunitarios va a ser un actor inportsnte en esta batalla

MisturaFina

Inteligencia para todos!!!
El codigo libre y su filosofia son el nuevo mundo. Comunismo digital!!!

User93439

Si todo el hierro que se está utilizando actualmente para minar mierdas de criptodivisas se utilizara para entrenar modelos...

rcorp

#2 se viene el fin del capitalismo

Cuando todos tengamos poder infinito, cuando todos podamos poner a trabajar a una IA para que gane una fortuna para nosotros, sólo quedarán IAs en el mundo de los negocios luchando por hacerse con el mayor imperio industrial, creando negocios y estrategias comerciales para maximizar el beneficio.

Imagináos millones de IA haciendo esto (para sus respectivos usuarios). El dinero dejará de tener sentido.

Patrañator

#10 quitas el autocontrol y se come con patatas a todos los diputados del Congreso, sería interesante soltar esa vaquilla en un Pleno

rcorp

#31 si tu dispones de una IA con una capacidad mejor que la de cualquier gestor, empresario, ingeniero, físico, emprendedor, artista, etc del mundo, y ésta IA tenga conexión a Internet (con lo que podrá contratar, hacer negocios, dar órdenes, cerrar tratos, crear campañas de márqueting, llegar a acuerdos, estudiar el mercado, hacer reuniones, etc)...

Tú le pedirás que te lleve la contabilidad de tu cuenta del banco, o le pedirás que gane todo el dinero del que sea capaz para tí?

Es para saberlo


Por favor, dime que sólo le pediras que te escriba el CV con fuentes molonas