@Ze7eN Mi experiencia y la de muchos otros con Podemos es diferente a la tuya. Espinar, Bescansa, Errejon, Tania... Ahora me dirás que los echaron los círculos de podemos y no Pablo Iglesias. En fin, lo que hay que leer.
Anteayer pude rescatar por fin el muñeco del Yeti que se me había caído hace dos años en la fosa séptica. Como le tenía mucho cariño lo limpié a conciencia y pude quitarle el olor, pero por algún motivo se quedó con el colorcillo fecal, así que lo tiré por la ventana. Vi que pasó una chica y lo cogió. Espero que halle un nuevo hogar.
Ayer perdí una apuesta porque al fin la becaria vendió el emoji de caca defectuoso (tenía patas y brazos) a un rarito de esos que ponen nombres extraños a sus hijos. O al menos eso me contó.
Ayer, mientras tenía en brazos a Pepa, me acerqué a una chica que vendía muñecos de crochet, y le compré un Chewbacca. Fue en una feria friki. Mucho niño rata y poca pasta, por lo que la chavala estaba super contenta de vender algo. Igual era la primera venta del día. No lo sé, pero estaba más contenta que unas pascuas.
- Hay, qué ilusión!
- Pues imagínate yo, que tengo un Chewbacca.
Me miró entre extrañada y sorprendida y me dijo "le has puesto como nombre a tu hija Chewbacca de verdad?".
@Jakeukalane No te entiendo. ¿Te refieres a que los textos puedan ser más largos? Sí es eso, sin problema. No hace falta que te suscribas aunque hacerlo ayuda.
@woody_alien@Rembrandt Una cosa más, dada la naturaleza del proyecto, te recomendaría que lo "separases" en dos, uno si quieres que le de conversación, y otro si quieres que le eche un ojo y avise si hay algo raro, lo digo porque para la conversación es mejor un LLM, pero para análisis de vídeo en imágenes lo mejor son redes neuronales con modelos que te permitan algo de manejo temporal, para que la IA pueda entender qué se está haciendo.
Los LLMs son muy populares, pero les cuesta más procesar imágenes que si usas una CNN directamente, por lo que te recomiendo que dejes los LLMs para que le de conversación o siga órdenes orales y la vigilancia, por CNN y LSTM.
Que lo mismo sabes todo esto ya, pero bueno, por si acaso.
@woody_alien@Rembrandt Por diferentes motivos, puedo atestiguar que es cierto que muchas veces los ancianos dejan a las mulas como los seres más flexibles y adaptables del universo en comparación, aunque su pellejo esté en juego.
@woody_alien Sí, uso Lm Studio como servidor y AnythingLLM como interfaz pq permite algo más de agencia y, de momento, es gratuito. Pero sí, por sí solo también hace cositas. @Rembrandt
@Rembrandt uf, complicado de comparar. Hay modelos que hablan básicamente y rápido, otros que reconocen imágenes, otros con algo de razonamiento. No sigo mucho las sagas de los modelos comerciales. @woody_alien
@woody_alien Yo de hecho subí a 64gb y para lo q quiero también va como un tiro.
Ps. Lo de tokens infinitos no es correcto. Menos memoria, menos tokens. 4k 8k los habituales con esa combinación.
lunawine.me/sobre-mi/
--Feijoo.
Me lo acabo de inventar, pero no me sorprendería que lo hubiera dicho
@angelitoMagno
x.com/i/status/2025847089356267841
Os podéis poner en fila a comerme los cojones, si eso....
@ochoceros @paumal
@paumal
- Hay, qué ilusión!
- Pues imagínate yo, que tengo un Chewbacca.
Me miró entre extrañada y sorprendida y me dijo "le has puesto como nombre a tu hija Chewbacca de verdad?".
En fin, el muñeco mola un montón, por si tenéis curiosidad: www.etsy.com/shop/AidualcCrochet
20 pavos.
136 años y funcionando tan campante. Se dice pronto.
Es mi segundo reloj de pared más antiguo.
El primero tiene 20 años más.
Y también funciona, por supuesto.
Los LLMs son muy populares, pero les cuesta más procesar imágenes que si usas una CNN directamente, por lo que te recomiendo que dejes los LLMs para que le de conversación o siga órdenes orales y la vigilancia, por CNN y LSTM.
Que lo mismo sabes todo esto ya, pero bueno, por si acaso.
No se nota, colega, no se nota.
Ps. Lo de tokens infinitos no es correcto. Menos memoria, menos tokens. 4k 8k los habituales con esa combinación.