edición general
eltoloco

eltoloco

En menéame desde agosto de 2017

8,65 Karma
4.404 Ranking
20 Enviadas
6 Publicadas
7.546 Comentarios
0 Notas

La inteligencia artificial no está aprendiendo: está extrayendo [208]

  1. #162 es tan simplificación como decir que es "razonamiento", con la diferencia de que decir bucle de retroalimentación es mucho más cercano a la realidad que decir razonamiento. Evidentemente lo llaman así por marketing. Mi mensaje es muy simple y claro, si quieres entenderlo bien, y sino también.

El sueño del trabajo remoto parece que se rompió completamente en España. Cuando contratar a un programador equivale a abrir una empresa entera la cosa se complica [37]

  1. Y es una buena noticia, solo faltaba que con el problema de vivienda que tenemos, vengan a España un montón de "nómadas digitales" cobrando sueldos de EEUU con los que pueden pagar sin problema alquileres de 2000 y 3000€ al mes.

    Si trabajas en España, condiciones españolas e igualdad de oportunidades para el que viene de fuera como el que es de aquí, lo cual incluye cotizar en España para un empresa con sede en España.

Arde la iglesia de Vondelpark de Ámsterdam durante la Nochevieja [12]

  1. #1 para una oportunidad que tienen de poder quitar de en medio un edificio sin ningún tipo de utilidad, y la van a desperdiciar gastándose una pasta en arreglarlo.. esperemos que no :->

La inteligencia artificial no está aprendiendo: está extrayendo [208]

  1. #129 no estoy hablando de la IA en general, estoy hablando del modo "razonamiento" de los LLMs. Es un bucle de retroalimentación, donde la salida de la petición inicial es la entrada de la siguiente o siguientes, y el resultado del "razonamiento" es la salida final, de hecho algunas como Chat GPT te permiten ver las salidas de cada iteración para veas como "razona". Por si no lo sabías, así es como funcionan los modos de "razonamiento" de Chat GPT, Gemini o cualquier otro, y es por este motivo por el que son tan lentos. Pero claro, si lo hubiesen llamado modo "retroalimentación" no queda guachi piruli, sino cutre, en cambio si te dicen modo "razonamiento" y no tienes ni papa de como funciona este modo ni mucho menos un LLM, una red neuronal entrenada mediante ML y ni siquiera un simple perceptrón AKA "neurona", entonces te lo crees y flipas en colores.
  1. #44 eso es lo que pensaban muchos CEOs que apostaron por el vibe coding, y en todos los casos ha acabado siendo un auténtico desastre.
  1. #9 confundes razonamiento con un bucle de retroalimentación, las IAs no razonan, por mucho que le hayan llamado así por marketing.

ChatGPT priorizará el contenido patrocinado e integrará anuncios en sus respuestas [119]

  1. #9 eso ya ocurre, Google ya muestra en su buscador la respuesta de su LLM arriba de los enlaces. Es cierto que no lo hace siempre, sino dependiendo de la búsqueda, generalmente si la búsqueda es más larga o una pregunta entonces responde el LLM, si buscas algo más concreto te muestra solo los enlaces.

    #10 yo pienso igual que tú, Google ya ha ganado, OpenAI va a quebrar más pronto que tarde, y sus restos acabarán en manos de Microsoft, que lo echará a perder, como casi todo lo que toca.

Tras despedir a 4000 empleados y automatizar con agentes de IA, los ejecutivos de Salesforce admiten: «teníamos más confianza en los grandes modelos de lenguaje hace un año» [EN] [48]

  1. #47 venga, que hasta te he puesto el enlace al hilo donde lo dijiste.. hay que esforzarse un poco más en escurrir el bulto, o sino sigue para adelante dando un plazo más específico para que podamos revisitarlo, porque recular sabemos que no lo vas a hacer, te puede el fanatismo de la IA..
  1. #45 menudo hombre de paja que te marcas, y no paras de repetir. Nadie nunca ha dicho que los LLMs vayan a desaparecer, ni mucho menos yo, pesado.

    Lo dicho, ¿Cuantos meses más tenemos que esperar para una super IA que resuelva problemas matemáticos por si misma? ¿12? ¿48? ¿1200? En serio lo pregunto, yo doy por hecho que unos meses son 3 o 4 meses, 6 máximo, pero viniendo de ti ya me espero cualquier cosa. Especifica y así nos podremos reir un rato.. xD
  1. #43 aqui lo tienes, escrito hace 2 meses:

    cuando una IA resuelva una conjetura matemática, algo que ocurrirá en cuestión de meses

    www.meneame.net/story/sam-altman-padre-chatgpt-algun-momento-proximos-

    ¿Cuantos meses más tenemos que esperar? ¿12 meses? ¿48 meses? ¿1200 meses (100 años)? xD xD xD

    Ya me veo venir tu respuesta, pegando un enlace a un medio ultra-sensacionalista y click bati estilo Xataka donde el titular diga que Chat GPT ha resulto el problema matemático del siglo, artículo planchado de un medio anglosajón también generalista y sensacionalista, que se basa en un paper donde se dice que X persona ha resultado el problema ayudándose de IA. Vamos, igual de verídico que decir que una calculadora, y no Einstein, descubrió la relatividad o que un PC, y no Tim Berners-Lee, inventó internet. :shit:
  1. #41 te corrijo;

    Los fundamentos matemáticos de los LLMs son deterministas siempre que se calculen de forma secuencial.

    Como los LLMs corren en GPUs, y por lo tanto los cálculos no son secuenciales, las matemáticas que los rigen son no deterministas, porque ante un mismo valor de entrada devuelven valores diferentes en cada ejecución.

    Y por supuesto que los cálculos se pueden hacer en una CPU, y a mano también se pueden hacer, pero ya te he dicho que es económicamente inviable, y lo ignoras convenientemente para seguir por tu linde y no aceptar la realidad, que es que los LLMs no son deterministas.

    Respecto a tus predicciones, llevo un año leyendo en tus comentarios que en un par de meses tendremos AGIs. Vamos, que te crees las ínfulas de Altman y Musk incluso más que ellos mismos, dicho de otra manera, eres más papistas que los papas de la IA, pero sin intereses milmillonarios detrás, y por eso haces el ridículo.

    Respecto a que la IA no va a desaparecer, evidentemente Capitán Obviedad. Nadie nunca ha dicho lo contrario. Lo que se dice es que va a pinchar la burbuja de la IA, lo cual es evidente, y cuando eso ocurra van a quebrar muchas empresas, entre ellas OpenAI, y se va a pasar de moda el meterle la etiqueta IA hasta a las lavadoras.

    Pero no por ello se van a dejar de usar los LLMs ni mucho menos, si acaso se volverán más caros cuando solo queden las 4 grandes tecnológicas y se acabe la fiesta de la financiación gratuita para el resto. Así que tranquilo, los LLMs seguirán haciéndonos la parte tediosa del trabajo a los programadores y a muchos otros gremios, y las redes sociales seguirán llenas de videos de mierda, eso no va a cambiar aunque pinche la burbuja.

    Ahora que ya has medio aceptado que los LLMs no son deterministas, solo te falta aceptar que ni tú ni yo vamos a ver una AGI en la vida, ni mucho menos va a ser derivada de un LLM que falla más que una escopeta de feria, ni de ningún otro modelo de IA basado en estadística, por muy grande que sea. Y aquí seguiré recordándotelo cada vez que vea un comentario tuyo pregonizando lo maravillosos que son LLMs.
  1. #38 toma, aquí tienes un croquis donde Rick & Morty te explican porque los LLMs no son deterministas. básicamente lo mismo que he puesto en #39, hecho con IA generativa:

    cc #3 #13 #21  media
  1. #38 riéte, riéte, que es lo único que te queda ante el ridículo que haces cada vez que niegas lo evidente.

    Te lo repito, las matemáticas de los LLMs no son deterministas porque la suma en coma flotante no es asociativa, y como los LLMs se ejecutan en GPUs de forma concurrente los resultados varian entre ejecución y ejecución. Es un hecho irrefutable, que se explica matemáticamente de forma muy simple:

    (a + b) + c != a + (b + c)

    Con el ejemplo clásico:

    a = 10 ^ 16
    b = -10 ^ 16
    c = 1

    (a + b) + c -> (10 ^ 16 + -10 ^ 16) + 1 = 1

    a + (b + c) -> 10 ^ 16 + (10 ^ 16 + 1) = 0, porque el 1 se pierde por la falta de precisión de la coma flotante.

    Y, como ya te he dicho, la única forma de que sea determinsta es forzar que la ejecución sea secuencial, lo cual haria que los LLMs y los grandes modelos de IA en general sean económicamente inviables.

    De un simple ingeniero, a un supuesto doctor.. ;) :-*

    Y ahora puedes ir corriendo a preguntárselo a tu LLM favorito xD xD xD
  1. #35 ah, y no, las matemáticas detrás de los modelos de LLMs no son deterministas, porque en las operaciones que hacen las GPUs el orden de los factores sí que altera el producto, y hacerlas secuenciales para garantizar el orden haría que no fuesen rentables, o mejor dicho, que fuesen inviables económicamente, porque rentables no lo son ni lo serán nunca con el ritmo de gasto que llevan. Hay que prestar más atención a lo que lees..
  1. #35 es tan sencillo como que nada te garantiza que ante un mismo input tengas una misma respuesta, y lo sabe cualquiera que haya trabajado extensivamente con un LLM. Ni siquiera la opción de structured output para obtener respuestas en formato JSON está garantizada y falla de vez en cuando, opción programada por el propio proveedor como OpenAI o Google. Y ya no te digo que el contenido del JSON sea el mismo, por ejemplo un boolean ante una pregunta simple y clara sea siempre true o false, es que ni siquiera te garantizan que la respuesta sea siempre JSON. Lo que hacen para que falle menos es comprobarlo en servidor y repetir la inferencia hasta que obtienen un JSON, pero esto solo es rentable con los modelos lite, no con los pro, y por eso fallan muchísimo y no te queda otra que programar los reintentos en el cliente (Pagando por doble o triple) y tener un buen fallback.

    Pero ya nos conocemos, y al final va a dar igual cuantos argumentos y fuentes te de, de mi propia experiencia o de fuentes externas, que siempre vas a negar todo lo que no te guste, exactamente igual que un negacionista.

    Llevas 2 años dando la chapa con que los LLMs son la quinta esencia de la inteligencia y repitiendo que en dos meses vamos a tener AGIs, y no te cansas de hacer el ridículo viendo como tus predicciones no solo no se cumplen sino que se rebaten cada día que pasa, con los mayores expertos del mundo en IA diciendo que los LLMs no tienen nada de inteligente y que se aproxima otro invierno de la IA debido a sus limitaciones insuperables.

    Acéptalo ya, ni los LLMs son deterministas ni vamos a tener una AGI derivada de ellos.
  1. #22 los LLMs son no deterministas, incluso con temperatura 0:

    mbrenndoerfer.com/writing/why-llms-are-not-deterministic

Todas las empresas tech están metiendo IA en todos sus productos. El problema es que nadie los quiere [100]

  1. #6 por fuerza mayor he tenido que comprar una lavadora recientemente, y la que encontré con mejor relación calidad-precio me ha venido con una función “IA”, que básicamente consiste en que al poner el programa de lavado, en lugar de decirte cuánto tiempo va a tarde antes de iniciarlo, en el momento en el que inicias te hace una animación cutre durante 30 segundos y después te pone el tiempo, que por lo poco que la he usado por ahora se determina en base al peso de la ropa que has cargado. Vamos, que lo que llaman IA podría ser perfectamente una tabla de pesos y tiempos de lavado, pero con IA vende más.. :shit:

    PD: No tiene chatbot, ni nada parecido

EEUU diseñó tres escenarios para la caída de Maduro y ninguno terminaba bien para Venezuela [12]

  1. #3 la falacia de la democracia se desmonta en un momento mencionando a cualquiera de las monarquías árabes absolutistas que son aliadas de EEUU, como por ejemplo Arabia Saudí, EAU o Qatar

Roma abrió dos nuevas estaciones de metro excavadas entre ruinas milenarias del Coliseo [10]

  1. #1 el mismo video en el perfil oficial de Roma en Instagram:

    www.instagram.com/reel/DSYAFUKDN_z/

Sánchez, sobre la decisión de Bruselas de alargar la vida de los coches de combustión: "Es un error histórico de Europa" [233]

  1. #1 es un error, pero no solo ni principalmente por motivos climáticos, es un error estratégico de bulto, estamos dejando a China sola en la carrera por la que claramente va a ser la tecnología que va a dominar en el futuro, y no en un futuro muy lejano, sino ya mismo, en unos pocos años.

    Es igual de grave que cuando Nokia y Microsoft hicieron caso omiso a la salida del iPhone, y con ello a la invención del smartphone moderno, que a todas luces era la tecnología que iba a dominar en pocos años. Google si que reaccionó de forma instantántea, está documentado, y por ello salieron también triunfantes. Nokia quebró y fue absorbida por Microsoft, que poco después vendió lo poco que quedaba y salió del mercado de los smartphones.

    Europa ahora mismo está tomando la misma decisión respecto a los coches eléctricos que la que tomaron Nokia y Microsoft respecto a los smartphones. Y el resultado evidentemente también va a ser el mismo.

    Por supuesto parte del error es no decir esto claramente, y querer dar la matraca con los compromisos climáticos, agenda 2030 y demás. No seré yo quien niegue que el cambio climático es un problema, pero también me resulta evidente su uso con fines políticos, por parte de ambos bandos.

Mediaset censura el momento en el que Máximo Huerta acusa a Ana Rosa de polarizar por sus editoriales y recula después [36]

  1. #34 Simplemente entré en el vídeo que enlazaste, me dio curiosidad por el Pozí, porque yo era muy niño cuando se hizo famoso, leí la referencia a Ama Rosa e hice la puntualización, porque el meneo trata sobre Ana Rosa, no sobre Ama Rosa. ¿Puedes ya dejar de dartelas de listillo y pedante?
  1. #32 te estoy diciendo que lo he leído en la wikipedia, que puede ser cierto o no. Quien se está colando de listo eres tú.
  1. #30 lo pone en la página de Pozí de Wikipedia

    es.wikipedia.org/wiki/El_Pozí

Laura Restrepo y otros escritores cancelan su presencia en el Hay Festival de Cartagena por la participación de María Corina Machado [196]

  1. #87 no seré yo quien apoye o aplauda a MCM, pero esa imagen es evidentemente falsa, basta con ver cómo la N de “nos” es totalmente plana en lugar de adaptarse a la forma del pecho derecho de la mujer.

Mediaset censura el momento en el que Máximo Huerta acusa a Ana Rosa de polarizar por sus editoriales y recula después [36]

  1. #8 en realidad dice "Ama Rosa", que fue novela radiofónica:

    es.wikipedia.org/wiki/Ama_Rosa
« anterior1

menéame