Hace 1 año | Por ccguy a genbeta.com
Publicado hace 1 año por ccguy a genbeta.com

Su nombre es 'Claude', y ha sido desarrollado por AnthropicAI, la compañía fundada hace año y medio por Dario Amodei, exvicepresidente de investigación de OpenAI (compañía desarrolladora, a su vez, de ChatGPT, GPT-3 y DALL-E 2). Cuando la empresa se presentó al mundo, lo hizo con 124 millones de dólares bajo el brazo, aportados por (entre otros) Jaan Tallinn, creador de Kazaa y de Skype que, en los últimos años, se había destacado por respaldar proyectos dirigidos a protegernos de los peligros de la inteligencia artificial.

Comentarios

Gilbebo

#3 Renta Básica Universal y lo que tú dices. Y los que hagan trabajos manuales difícilmente automatizables a cobrar bien y dormir tranquilos.

ContinuumST

#13 O que nos usen como carne de cañón o pasta base para hacer soylent rojo o soylent amarillo, qué más dará. Ya veremos cómo son las historias que crean esos algoritmos. Confío en que sean mejores que los de Netflix 😈 , jajajajaja.

Jakeukalane

#15 si hay RBU quizás alguien pueda leer el libro. Y yo ver la peli.

ccguy

#13 voy a aprender fontanería

Gilbebo

#16 Exactamente en eso estaba pensando.

sorrillo

Lo impresionante de chatGPT es que lo hemos podido probar y hemos visto en tiempo real tanto sus aciertos como sus errores, hemos podido guiarle e intentar conseguir un resultado.

Si otros dicen haberlo hecho pues tendremos que fiarnos de esa persona y de lo que dice haber conseguido y el cómo, y que no es el undécimo intento el que publica.

Y por cierto preguntarle a chatGPT sobre sí mismo es lo que suele generar peores respuestas, parece que le han forzado a explicar sus supuestas limitaciones hasta la pesadez.

A todo ello creo recordar que las respuestas del chatGPT inicialmente eran instantáneas, algo que recuerdo me sorprendió por la cantidad de contenido que daba de forma inmediata. Ahora responde poquito a poco, algo así como a ritmo de lectura. Quizá esté equivocado en ese recuerdo pero lo dudo.

Mi hipótesis es que han ralentizado las respuestas artificialmente para que no se sature tan rápido con todos los usuarios preguntando, ahora hacen esperar a los usuarios a que acabe con esa lenta respuesta poco a poco para hacer la siguiente.

D

#2 Es normal que lo hayan ralentizado ya que la demanda es brutal. Si respondiera a la misma velocidad que al principio, tendría que dejara a decenas o cientos de miles de usuarios sin respuestas.

sorrillo

#5 Preferiría que lo hubieran resuelto dando la respuesta instantánea y luego poniendo una cuenta hacia atrás de x segundos para poder volver a charlar con él. De forma que pudieras ver la respuesta inmediatamente y aplicarla sin tener que esperar artificialmente por otros motivos que no tienen que ver con que la respuesta aún no esté generada.

D

#7 No estoy seguro de que funcione como dices. ChatGPT va generando tokens, es posible que vayan creándolos y repartiéndolos de manera asíncrona, sin esperar a que una respuesta esté "completa" para entregarla.

sorrillo

#8 Mi sospecha de como funciona es que cada vez que le haces una pregunta le envían a la IA toda la charla previa seguida y ésta "continua el texto" a partir de ahí. Y como digo cuando lo hice al principio creo recordar que la respuesta era instantánea, que es lo más normal para un ordenador, que si te da 20 líneas de texto lo haga en nanosegundos. Y luego muestran vía web esa charla completa incluyendo la nueva extensión de texto.

Pero por la saturación ahora esa parte final la muestran poquito a poco dando la falsa idea que la IA la está escribiendo, cuando para entonces ya ha atendido a otros miles de usuarios con sus respuestas y quien te está ralentizando es el frontend web y no la IA en sí.

Luego está el tema de colas, de cuantas peticiones pueden darle y ahí es donde están restringiendo también la entrada a usuarios. Por ejemplo estaba logueado desde el móvil y podía charlar con chatGPT mientras que si lo intentaba desde el PC, con el mismo usuario, me decía que estaba saturado. Así que tenía que pasar las respuestas del móvil al PC para usarlas (era un script).

D

#10 Al principio parecía instantáneo, pero eso no implica necesariamente que se esperase a tener todos los tokens para enviarlos. Es posible que lo tuvieran ya configurado para enviarlos uno a uno. Así que no necesariamente es el frontend. Ten en cuenta que el cuello de botella probablemente lo tienen en la computación, no en la distribución.
Personalmente, prefiero que me vaya llegando la respuesta a cachos a tener que esperar un tiempo indefinido antes de recibirla. Y me imagino que a muchos usuarios les pasará lo mismo. O que la opción que tú planteas, de esperar a que esté libre la máquina (y que entonces ella deba esperarte a ti).

sorrillo

#12 pero eso no implica necesariamente que se esperase a tener todos los tokens para enviarlos. Es posible que lo tuvieran ya configurado para enviarlos uno a uno. Así que no necesariamente es el frontend.

No entiendo. ¿Realmente crees que la IA puede tardar más de 10.000.000.000 nanosegundos a dar la respuesta a cachitos?

Lo normal en los computadores es que se devuelva toda la respuesta prácticamente al instante en términos temporales humanos, no me parece realista que si veo por la pantalla que se escribe durante 10 segundos durante todo ese tiempo la IA esté enviando "tokens" de pocas letras a la vez.

Personalmente, prefiero que me vaya llegando la respuesta a cachos a tener que esperar un tiempo indefinido antes de recibirla.

Claro, pero es que no es esa la realidad de la que estamos hablando. Hablamos que el frontend web tenga la respuesta entera y para que no les satures la IA te la vaya dando a cachitos lentamente, a velocidad humana (qué casualidad sino que sea justo a velocidad humana y no que tarde una semana o diez milisegundos).

rojo_separatista

#14, hablamos de un modelo de 175.000 millones de parámetros que intervienen cada vez que se quiere generar un token de salida, aunque parezca poca cosa sacar una palabra, tiene un coste computacional descomunal. No es sorprendente que el flujo de salida de palabras sea tan lento que sea perceptible a simple vista.

Jakeukalane

#18 recuerdo que me llevaban la contraria cuando decía que los modelos de texto ocupan más en memoria que los modelos de imagen...

rojo_separatista

#21, para nada, Dalle-2 tiene 3.500 millones de parámetros mientras que la versión más grande se GPT-3 tiene 175.000 millones. Tardaremos un poco en tener grandes modelos de lenguaje ejecutándose en nuestros ordenadores, mientras que Stable Difussion ya se puede ejecutar con una buena gráfica.

Jakeukalane

#24 exacto, es lo que yo decía, que un modelo de texto no cabe siquiera en colab gratuito.

rojo_separatista

#2, GPT no genera toda la respuesta de golpe, la forma como funciona GPT es generando la respuesta, palabra a palabra, hasta que llega al token final. Por lo tanto, creo que lo que pasa es que al limitar la cantidad de GPU que tiene asignada cada usuario que está conectado al sistema se termina ralentizando de el flujo de palabras que escupe como respuesta.

Es decir, estamos viendo la salida del modelo en tiempo real, pero parece que vaya a velocidad se lectura.

Cc/ veo que #8, ya lo ha comentado.

Jakeukalane

#2 los famosos downgrades. Las imágenes de dalle 2 al principio y con más pasos eran una pasada, incluyendo las caras. Pasa en todas las IAs excepto en Stable diffusion porque siguen saliendo más proyectos.

blockchain

Estamos IAndo por encima de nuestras posibilidades ya ....

D

Yo le pregunte por curas para la esclerosis multiple o el ELA y no parece tan inteligente.

si la tecnologia no es capaz de curarnos y mejorarnos la vida para que sirve?

sorrillo

#4 Confundes la inteligencia con el conocimiento o la cultura.

No se deja de ser inteligente por no conocer la respuesta al sentido de la vida, el universo y todo lo demás.

treu

#4 Yo le he preguntado por los números del euromillon y tampoco, que poco inteligente es.

D

#11 una cosa es predicciones y otra inteligencia, una pesrona inteligente puede entender como son los procesos metabolicos que causan un tumor, pero predecir un sorteo de loteria no.
Ergo la IA tan inteligente no es.

aun no se para que sirve de hecho.

Khadgar

– ¿Una IA? ¿En esta compañía? ¿En esta época del año? ¿Localizada enteramente en vuestros servidores?
– Sí.
– ¿Puedo verla?
– ... no.