edición general
pip

pip

Debianita, estoy decrépito pero aún razono. Linuxero recalcitrante, empecé con la Slackware 3.1 que regalaba "PC Actual" en 1997, y hasta hoy. Profesionalmente desarrollo software de bajo nivel (drivers y esas cosas en C o C++), y en mi tiempo libre, sofware libre.

En menéame desde octubre de 2007

9,50 Karma
2.053 Ranking
42 Enviadas
6 Publicadas
18K Comentarios
17 Notas
  1. #19 yo solo te cuento mi experiencia con integración de LLMs via API oficial, en este caso era Gemini vía VertexAI pero podría ser cualquier otra. En la sección de las instrucciones principales del prompt se ponen todos los requisitos, e hice la prueba exactamente con el mismo prompt que teníamos en producción, poniendo y quitando una línea con una instrucción negativa, y el resultado fue que había un porcentaje de error apreciablemente inferior quitando esa instrucción. Al final lo que hicimos fue modificarla, no eliminarla, con una modificación que nos daba mejores resultados. Lo que ocurre es que al final un LLM es pura estadística con vectores de distancia entre tokens, por lo que los resultados pueden ser completamente diferentes con cambios muy pequeños y sutiles, y en este caso comprobé por mi mismo que hay ocasiones en las que es mejor omitir una instrucción que ponerla en negativo, pues de la segunda forma ya se añade al contexto y la puede "malinterpretar".
  2. #2 #7 una cosa parecida que me ha ocurrido trabajando en integraciones con LLMs es que al ponerle una instrucción negativa en el prompt, por ejemplo: "No aceptes X", aceptaba más veces lo que le decía en X que si no se lo ponía. Y esto lo validé con un test A/B separando los datos en dos grupos iguales, de varias miles de muestras cada uno, en un prompt con la instrucción negativa y en el otro sin ella, y lo confirmé. Y tiene todo el sentido del mundo, porque estás poniendo en el contexto los tokens relativos a X, y por lo tanto es algo que va a afectar a la salida, por el contrario si no se lo pones la mayoría de veces simplemente lo ignora.

    Mi conclusión con el tiempo que llevo trabajando con IA a nivel empresarial, que ya son más de 2 años, es que los LLMs para automatización de grandes proyectos en entornos corporativos no son fiables, y fallan más que una escopeta de feria.Todas las empresas que están planeando automatizar procesos para despedir gente,…   » ver todo el comentario
  3. #1 mencionan una cosa interesante en el artículo, tú le puedes decir al principio “ni de coña hagas esto”, pero si se le acaba el contexto y tiene que resumir lo que lleva de momento para que pueda seguir trabajando… pues lo mismo no entra en el resumen esa instrucción inicial.

    Vamos, que además de alucinar es como si tuvieran demencia senil. Cada día más útiles.
  4. Soy informático, y diría que estoy razonablemente informado de las capacidades de la IA. Y no veo ni por asomo que pueda hacer mi trabajo, porque no se puede documentar, procedimentar ni automatizar de ninguna manera. No hay dos días iguales. La IA puede ayudarme extrayendo información de textos largos, resumiendo reuniones o ayudando a redactar, pero no mucho más.
  5. ¿Empezando por los CEOs? :troll: :troll:
  6. Por otra parte: Sebastian Mallaby, economista experto en IA: "ChatGPT quebrará en los próximos 18 meses"
    www.meneame.net/story/sebastian-mallaby-economista-experto-ia-chatgpt-

    Supongo que ni una cosa ni la otra, pero a ver quien se queda más cerca.
  7. Detrás de chatgpt hay un indio buscando en la wikipedia xD xD
  8. Es fantástica.
  9. Parece que Lilly está ganando peso y volumen de mercado.

    ¡Tachaaaan!
    Ya me iba
  10. Jodida distopía.
  11. #7 Si te has comido una actualizacion chunga, desinstalarlo no te va a valer de nada.
  12. Seguro que ha dejado de tomar café.
  13. Lo que cambia la sintaxis el significado de las cosas: no diseñado por IA sino diseñado CON IA. Un humano listo y preparado usa una herramienta, no es la IA sustituyendo al humano. Coño ya.
  14. Artículo escrito por IA. Huele a leguas.

menéame