#17 el chino tiene ventaja en la compresión de información pero no en la calidad de las respuestas porque mientras está recibiendo o generando tokens está usando el mecanismo de atención para resolver el problema. Un LLM solo cambia su estado interno cuando se procesan tokens por lo que darle más tokens aunque sea un simple "gracias" le favorece. Por no hablar que el tokenizado por ejemplo de OpenAI favorece al inglés y hay secuencias de varias palabras que mapean a un solo token. Eso no pasa con los caracteres chinos.
Y luego el reinforcement learning que usan para que sea capaz de resolver tareas es principalmente en inglés para que saque buena nota en los benchmarks. Es de sobra conocido que los LLMs en general hacen más caso a las órdenes escritas en inglés.
Eso no quita que puedas usar las LLMs en español, chino o buriato y hagan las cosas medianamente bien pero que funcionan peor que el inglés por razones puramente estadísticas es un hecho.
#9 si en ese experimento hubierais usado la API para ver la perplejidad de cada token veríais que al cambiar de idioma de repente la perplejidad subía mucho y por tanto estabais haciendo más difícil el trabajo del modelo. En un problema complejo será más proclive a alucinar cosas raras.
#10 el 90% de los textos sobre programación están en inglés así que el LLM tendrá una perplejidad mayor procesando tokens en otro idioma por pura estadística. Más perplejidad implica más probabilidad de alucinar. Se puede usar en otros idiomas pero las empresas americanas optimizan para el inglés. No estás aprovechando todo su potencial.
#4 llevamos dos o tres años años con esto de las IA y yo aún no he notado el supuesto ahorro por ninguna parte. Los servicios de suscripción, licencias, juegos, etc no han parado de subir de precio.
#21 muchos monopolios se han originado porque una empresa era mucho mejor que otras. Es algo totalmente independiente. Y que ahora sea un monopolio bueno para el usuario no quita que en un futuro pueda ir a peor. Mira por ejemplo el Google que conquistó el mundo siendo mucho mejor que Altavista, Yahoo o Terra y los claros abusos de posición dominante que han venido después.
Yo personalmente no tengo queja con Steam y poseo casi 500 juegos allí pero si la gran mayoría de las ventas de juegos en PC son en su plataforma son un monopolio.
#7 tú mismo has explicado porqué es un monopolio. Si haces un juego de PC necesitas sí o sí sacarlo en Steam o te arriesgas a no vender una mierda. Igual que si haces aplicaciones de móvil tienes que estar en iOS si quieres algo de dinero.
Yo como desarrollador encantado de que se lleven un 30% a cambio de gestionarme los cobros con tarjeta, devoluciones, cobrar el IVA de cada país y declararlo pero no quita que sean plataformas monopolísticas de facto porque si no estás en ellas no existes.
Me gustaría ver esas estadísticas pero por estrato social en vez de país de origen. Los pobres cometen más delitos que los ricos. Los inmigrantes son generalmente más pobres.
Puede que haya cierto componente cultural por el que algunas nacionalidades cometen más delitos pero estoy seguro que la correlación es mucho mayor con el estatus económico.
No sé de qué izquierda habla. Yo apoyaba al gobierno de Chávez porque objetivamente mejoró mucho la vida de los venezolanos reduciend pobreza, analfabetismo y paro. Maduro es un payaso que ha destruido las mejoras de Chávez y lo único que le ha importado es perpetuarse en el poder.
#64 que den conciertos, se busquen sponsors directos, pongan patreon o lo que sea. La publicidad algorítmica es nociva y hago todo lo posible para que no me llegue ni un anuncio ni a mí ni a mi familia.
#43 yo uso un ordenador i7 de hace 8 años creo con una GPU Intel integrada pero le metí 32gb de RAM. Ollama me funciona por CPU.
Obviamente genera texto más lento que ChatGPT pero me sirve. Para cosas rápidas uso un modelo Gemma pequeño y si quiero más calidad Deepseek y lo dejo que vaya a su ritmo. Con la interfaz Open WebUI es muy fácil ir cambiando de modelos.
#7 yo uso LLMs en local con ollama y estoy muy contento. Modelos de 4 a 16 millones de parámetros me funcionan muy bien.
Yo valoro mucho más la privacidad y poder preguntarle cosas que están censuradas en los LLMs en línea que si el modelo ha sacado un poco más de puntos en nosecual benchmark.
Si va a traducir el libro al español una máquina ¿qué me impide q mí obtener la edición en inglés más barata seguramente y traducirmelo yo con esa misma máquina? O generarme el libro entero a partir del resumen de la wikipedia.
Aquí también sería ilegal por contener elementos no edibles dentro de comida según la directiva europea 2009/48 pero se añadió una excepción explícita para el roscón de reyes (y los huevos Kinder).
Los más jodidos son los que están empezando en su carrera. Hay y habrá mucha menos oferta para ello porque las empresas creen que un senior con una IA agente te saca lo mismo.
Yo confío en poder seguir trabajando unos años más y con 50 y pico retirarme.
Pues yo vivo en una comunidad mal-gobernada por PP y Vox. A mi madre le detectaron un cáncer un jueves y el lunes siguiente ya estaba recibiendo la quimioterapia.
#4 los chips "GPS" hoy en día tienen soporte por hardware para las constelaciones de los distintos países. Se llama GPS por costumbre pero realmente estás usando GPS, GLoNASS, Galileo o lo que le llegue al dispositivo.
Yo he notado un poco ese efecto en mí mismo cuando programo. Desarrollo bastante más rápido con la IA de Cursor y reviso todo lo que me genera pero noto que se me asienta menos en la cabeza que si lo escribo yo a mano. Partes del producto que escribí hace meses las recuerdo mejor que lo que generé hace unas semanas. Supongo que escribir código y revisar código ejercitan distintas partes del cerebro.
Y luego el reinforcement learning que usan para que sea capaz de resolver tareas es principalmente en inglés para que saque buena nota en los benchmarks. Es de sobra conocido que los LLMs en general hacen más caso a las órdenes escritas en inglés.
Eso no quita que puedas usar las LLMs en español, chino o buriato y hagan las cosas medianamente bien pero que funcionan peor que el inglés por razones puramente estadísticas es un hecho.