Hace 11 meses | Por techjb a twitter.com
Publicado hace 11 meses por techjb a twitter.com

GPT4All - a 7B parameter model (based on LLaMA) trained on a massive collection of clean assistant data including code, stories, and dialogue.

tdgwho

no sé porqué, pero me parece un mierdón tal y como lo describen.

Llama es muy muy malo, he podido probar los modelos 7B 13B y 30B y responde lo que le sale del culo.

Y encima lo entrenas con GPT3 que es a día de hoy, viejo.

Y no solo eso, estás entrenando con lo que una IA dice, que no tiene porqué estar bien.

No sé, a mi no me cuadra mucho

tdgwho

#1 Eso sin contar que hablamos de un modelo de 7 billones de parámetros, gpt3 tiene 175 billones, y gpt4 ya ni lo sabemos.

sorrillo

#_2 Eso sin contar que hablamos de un modelo de 7 billones de parámetros, gpt3 tiene 175 billones, y gpt4 ya ni lo sabemos.

Lo más reprochable es el nombre, usar GPT4 aunque ese "4" se refiera a "for" es claramente para crear confusión.

A todo ello no tengo nada claro que GPT4 tenga muchos más parámetros que GP3, en la entrevista1 que apareció hace nada por aquí Sam Altman eludió responder a la pregunta de cuántos parámetros tenía citando ejemplos donde hubo una carrera de números y ahora ya no le damos importancia, creo que citó el caso de las CPU del móvil aunque en esa misma línea podía haber citado los megapixeles de sus cámaras.

1 Entrevista a Sam Altman: CEO de OpenAI sobre GPT-4, ChatGPT y el futuro de la IA | Lex Fridman Podcast [EN]

Hace 1 año | Por JungSpinoza a youtube.com


Nota: Este comentario es para responder a @ tdgwho que por lo visto me tiene en su lista negra de ignorados. Por alguna razón que se me escapa los@admin demeneamemeneame han decidido que si alguien te pone en su lista negra ya no puedes citarle en respuesta a sus comentarios públicos, dificultando así el uso de herramientas de menéame como es el ver los comentarios en forma de hilo de discusión.

tdgwho

#3 Venga va, te saco del ignore.

Pero no me pongas escalas logaritmicas vale? lol

Si, no tenemos pruebas de que gpt4 tenga mas parámetros, pero bueno, como poco, son los mismos que gpt3, y eso supera por mucho ese modelo. Incluso el mayor de todos de llama que son 65 billones.

spacos

#1 A ver lumbreras, la idea de esto es poder hacer funcionar el modelo en "hardware de estar por casa" o por lo menos asequible a mortales. No pretendas tener el rendimiento de chatGPT4 en tu tostadora.

tdgwho

#5 que necesidad tienes de faltar al respeto a los demás? te ha sentir mas hombre?

spacos

#6 A mi si. Pero antes de opinar ...

tdgwho

#c-3" class="content-link" style="color: rgb(227, 86, 20)" data-toggle="popover" data-popover-type="comment" data-popover-url="/tooltip/comment/3796613/order/3">#3 Acabo de probarlo, una simple petición "dame una función en python3 que salude al usuario dado"

"Sorry, I am not able to provide you with such an instruction as it is beyond my capabilities and expertise in Python 3."

Y si se lo preguntas directamente en inglés:

Could you give me a python3 function that sends regards to given user

```import requests # imports necessary modules for sending HTTP Requests in Python
def send_regards(user):
headers = # sets up headers for HTTP request
response = requests.get('', auth=user, headers={'^C
>

No se entera de nada

D

Alguien sabe si el modelo tiene censura?

ed25519

#8 efectivamente, mis tests tambien son un desastsre, me parece que las gtp* tienen marketing y vende humo hasta no poder. Un compañero de trabajo me dijo..... es un google con los resultados en texto que se mueve

tdgwho

#10 bueno, gpt4 si que responde lo que se le pregunta.

y gpt3.5 también lo hacía bastante bien.

Lo de no responder a una simple función en python que son 2 dichosas lineas, solo me lo ha hecho llama lol

tdgwho

#9 Dado que ha sido entrenado con outputs de gpt3, si, alpaca tiene censura, aparte del que pueda tener llama.

D

#12 gracias.