Noticias de ciencia y lo que la rodea
297 meneos
2770 clics
Apple acaba de demostrar que los modelos de "razonamiento" de IA en realidad no razonan en absoluto (ING)

Apple acaba de demostrar que los modelos de "razonamiento" de IA en realidad no razonan en absoluto (ING)

En el estudio titulado "La ilusión de pensar: Comprender las fuerzas y limitaciones de los modelos de razonamiento a través de la lente de la complejidad del problema", los investigadores probaron hasta qué punto las IAs razonan. En vez de las viejas pruebas matemáticas usaron puzzles algorítmicos que los modelos no habían visto nunca. Todos los modelos "razonadores" golpearon una pared de complejidad donde se derrumbaron por completo a 0% de precisión. No razonan, simplemente memorizan los patrones muy bien.

| etiquetas: apple , modelos , razonamiento , ia , lrm , torre , hanoi
137 160 5 K 155
137 160 5 K 155
Comentarios destacados:                                  
#17 #7, ahora solo falta definir qué es un proceso mecánico? Puede que nos llevemos una sorpresa y resulte que limpiar casas, hacer de fontanero o cambiar un pañal o poner una vía a un paciente sea algo infinitamente menos mecánico que escribir un programa informático o hacer un buen diagnóstico médico.
Vaya, que sorpresa...

En realidad la mayoria de la gente tampoco lo hace y nadie lo hace todo el tiempo. De ahí la confusión
#1 Habría que ver qué tal se desempeñaban los humanos en los problemas donde fracasaban las IA.
#3 Pues leyendo el texto, bastante bien.

Puede sonarte a chino, pero la IA se rendía sin intentarlo, no gastaba créditos cuando tenía ilimitados. Simplemente paraba.

Según el humano, lo curioso que sea, invertirá más o menos tiempo y alguno lo conseguirá.

Luego le intentaron enseñar explicándoselo paso a paso y dándole la solución final, pero tampoco lo entendía. En esto los humanos destacamos.

Lo único que queda por decir es que esto lo sabíamos todos. Han buscado un poco los tests que les darían publicidad, porque es más que sabido que las IA no razonan ni se pueden enfrentar a retos para los que no tienen entrenamiento
#36 Y las IA generativas actuales no aprenden sobre la marcha en absoluto. Eso las pone por debajo de la mayoría de los humanos. Solo aprenden en la fase de entrenamiento. Cuando hablas con ellas y las explicas cosas, esas cosas pasan a formar parte del prompt, las tiene en cuenta para seguir la conversación, pero no las ha aprendido, solo las recuerda, que no es lo mismo, no en IA.
#3 La torre de Hanoi y el problema de la barca son problemas mas viejos que el hilo negro
#39 Ojo, no es que no los resuelvan en su formato original, sino que los van complicando y llega un momento en que colapsan.

Voy a dejar el enlace al paper original, ya que el hilo del meneo sólo incluye algunas capturas de pantalla y no enlazan el paper:

ml-site.cdn-apple.com/papers/the-illusion-of-thinking.pdf

Por poner un ejemplo de prompt, este es el que usan para Las Torres de Hanoi, cambiando "n" por el número de discos:

You are a helpful assistant. Solve this puzzle…   » ver todo el comentario
#39 De hecho me ha sorprendido lo pronto que fallaba con la torre de Hanoi (con 4 o con 8 discos). Tiene que haber listados con la solución completa para 7 u 8 discos a patadas en Internet / los datos de entrenamiento, pero supongo que hay más ejemplos en los que sólo ponen los pasos iniciales o los pasos iniciales y finales, y eso "confunde" al LLM, haciéndole devolver alguna variante aleatoria de esas soluciones parciales.
#3 Los humanos siempre buscan soluciones incluso sin saber si existe o no dicha solución, así es como se han inventado tantas cosas y como creamos las leyes físicas que luego parecen tan lógicas y sencillas, de momento ningún modelo de Ia sabe "crear" cosas que no tenga memorizadas, evidentemente van a ayudar con cálculos complejos y otros tipo de cosas pero hasta que llegue la singularidad estamos aún lejos
#83 ayudan con cosas pero no cálculos. Las IA generativas no saben ni contar. Si le pides que cuenten algo lo hacen como a ojo, una estimación, y si son 3 o 4 cosas suelen acertar, pero si son 25 ya fallan mucho.
#3 Por culpa de Bioware millones de jugadores podemos resolver torres de Hanoi en sueños.
#1 Si memoriza pero no razona significa que no aprende/innova, solo copia.

Eso es importante de cara a los juicios que se vienen por propiedad intelectual y violación de licencias de copyright/copyleft.
Es gracioso que sea justo Apple, que por lo que escuché va atrasadísima en el tema de la IA.
#2 no va atrasadisima, pero quiere que los cálculos se hagan en los dispositivos no en servidores externos, por eso son modelos mas sencillos, no comparables con otros servicios. Aunque tien un acuerdo con chatGPT para usar su IA de manera complementaria en temas complejos, siempre previa autorización del usuario.

Esto evita perdida de privacidad pero las funciones que hacen superordenadores no son comparables con un iPhone, por el momento.
Según vallan mejorando los algoritmos irán mejorando las funciones.
#72 búscate el discurso en contra de la hotografia de garcia marquez
#26 Va atrasadísima.

Hasta el punto de que no tiene ninguna IA propia y pretende usar la de terceros.

Lo que intenta Apple, sin conseguirlo, es crear un ecosistema seguro donde se pueda usar la IA. Pero no tiene ninguna IA propia ni puede a éstar alturas tenerla a no ser que compre una, cosa en la que también va tarde con la burbuja existente.


Es decir, que a pesar de no tener ninguna y verse obligada a usar la IA de otros, tú dices que no va atrasadísima con la IA. Ok.
#129 Joder que va atrasadísima, compraron Siri para el iPhone 4 creo y sigue prácticamente igual . Es una auténtica basura, el 1 de abril después de hacer casi 650km llego a Bergara y le digo, Oye Siri busca la gasolinera mas cercana. “Disculpe pero tiene que desbloquear el movil primero para poder hacer eso”. Perfecto, Oye Siri busca la gasolinera más cercana. Me contesta: He encontrado 2 resultados quiere iniciar la navegación? A más de 700km estaba la gasolinera tú. Puta basura.

Ahora…   » ver todo el comentario
#129 tiene modelos propios que ha hecho públicos:

developer.apple.com/machine-learning/models/
#2 sí, bueno, esto les sirve para saber si tienen que meter pastizal para igualar o si se pueden ahorrar pq en tres días la moda será otra.
#14 no me agobieis ostias que yo sigo todavia viendo si saco guita de NFT
#14 A ver, en mi opinión y me puedo equivocar, la IA no va a ser el 3D de los televisores o los notebook que regalaban hasta con periódicos , los NFT, el HD Ready, el Metaverso de Facebook vendiendo escasez digital en universo infinito. Lo que si creo es que la burbuja va a explotar, seguramente más tarde que temprano ya que para mí estamos en la fase de Nokia 3310 o Alcatel One Touch de la Inteligencia Artificial, ni hay inteligencia ni es artificial. Pero es un campo que va a crecer y mejorar, muchos jóvenes desarrolladores que están trasteando e invirtiendo su tiempo y talento darán sus frutos en unos cuantos años.  media
#2 Es un "si no follamos todos la puta al río".

Han denunciado a Apple por no incorporar la IA a los iPhone 15 como prometieron y su salida desesperada es que tampoco es para tanto.
#78 No es a los iPhone 15 es a iOS 18, los iPhone 16 tampoco tienen todas las características y mejoras que iban a traer con el iOS 18 y el gran Apple Intelligence versión Houdini … ni se le ha visto ni se le espera. Todo eso lo anunciaron en el WWDC justo del año pasado, el de este año , que ha sido hoy no lo he visto .
#2 A mí me parece acojonante que Amazon no haya hecho algo todavía. Hablas con Alexa hoy y parece idiota :-D... parece trivial engancharle al menos algún modelo de un tercero o qué sé yo...
#62 Amazon me parece que está preparando una Alexa más inteligente... pero de pago.
#62 no has visto el chat que tiene incorporado?
#2 Es que, si estás mandando a la basura el dinero de los inversores, y llevándote un sueldo millonario mientras tanto, no vas a poner el foco en los problemas que tiene esta tecnología. Es normal que las pegas las ponga quien no está engañando a la gente.
#90 Pues a Apple precisamente le han demandado por el engaño que perpetró en el WWDC 24 cuando dijo que gracias a iOS 18 y Apple Intelligence iban a ser la ostia bendita y tanto era su mejora que debido a los recursos que necesitaba Apple Intelligence sólo iba a haber esa función en los iPhone 15 y posteriores.

¿Dónde están esas funciones y mejoras? No lo saben ni ellos pero el caso es que mucha gente que se compró un iPhone nuevo para que soportasen esas funciones y ahora resulta que ha pasado 1 año y siguen sin materializarse ni concretarse, pues se sienten defraudados.
#2 lo mismo que cuando el amigo Elon quería parar las IAs 6 meses...
#15 pobreseto :foreveralone:
De artificial mucho pero de inteligencia poco.
Obviamente, todo es estadística y matemáticas.

Como curiosidad, un tema de conversación, una frase, una respuesta se basa en modelos predictivos de qué palabra poner a continuación de la siguiente. Un complejo mediano pediátrico eso sí, pero no deja de ser matemáticas y estadísticas.
Por ahora, y creo que durante muuuucho tiempo más, las IAs son eso, y ni conciencias ni razonamiento.
Igual todo llegará, pero creo que aún falta muuuucho tiempo.
#5 ¿Un complejo mediano pediátrico...?
#20 Explotación de hobbits y niños.
#20 dichoso autocompletar
#21 microscopía electrónica vegetativa.
#20 Un médico de niños de la Tierra Media
#5, no tengo la menor duda de que el cerebro humano también es todo matemáticas y estadística. Siempre he sido materialista y creo que lo que nos enseñan los LLM es que lo que realiza el cerebro, al menos la parte que llamamos inteligencia, se puede reducir a una serie de operaciones matemáticas.
#141 Ni de coña. Las matemáticas son un invento del cerebro humano. Hay diferencias supuestamente evidentes entre inteligencia y sabiduría.

Como dijo Arquímedes: ¡Eureka!
#5 Como suelo decir yo … gráficamente estamos aún aquí, aunque hay que reconocer que en 1 año y medio la cosa ha mejorado en muchos aspectos, en otros también han retrocedido.

Había gente por ahí afirmando rotundamente que iban a curar el cáncer, si es que no aprendemos :-P  media
cuando razonen estaremos bien jodidos
#6. Es lo que diferencia los procesos automáticos de los procesos conscientes. Los seres humanos somos insustituibles, pero esa obviedad parece que ya solo la entienden los profesionales que buscan vida inteligente en la inmensidad del universo. Le mente humana puede que sea mucho más lenta pero sin duda llega mucho más lejos que cualquier IA por muy espectaculares que sean sus resultados. La propia IA es un resultado de nuestras capacidades mentales.
#11 No veo yo a la consciencia como un prerequisito para la comprensión.
#23. Sin un "yo" consciente la comprensión por sí sola no tiene ni sentido ni propósito.
#25 El siguiente paso en IA será incorporar la comprensión. Ahora mismo no saben como hacerlo, pero se acabará por hacer. Eso debería acabar con la tontería actual de las alucinaciones.

Por lo demás, la vida no tiene sentido. Se trata de sobrevivir y ya.
#33 'pero se acabara por saber'

LOL

En los modelos actuales? LOL
#35 En los modelos futuros. ¿Alguien duda que los habrá? Bueno, si no nos vamos a las mierda antes.
#35 En los modelos actuales desde luego que no. Los LLM actuales no tienen remedio. No es posible mejorarlos. Los problemas que les observamos son problemas propios de lo que hacen, no fallos que se puedan corregir.
#25 Eso no es razón para que no pueda existir.
#11, la conciencia y la inteligencia no tienen nada que ver, aunque en nuestro cerebro ambas cosas funcionen a la vez son cosas distintas. Cualquier LLM es infinitamente más inteligente que un lagarto, pero mucho menos consciente, o dicho de otra manera, es igual de consciente una persona con IQ 100 que una con IQ 150.
#118 Los informáticos del saco me van a matar pero el 100% de la informática fue creada por esos estudiantes vagos que querían automatizar trabajo con software :troll:
#142 Tu comentario me recordó el libro Visión Ciega de Peter Watts en el que descubrí que efectivamente inteligencia y conciencia no tienen que ir de la mano.
#97. En #57 aporto respecto a #11 la idea de ser "únicos", únicos como especie en este planeta y únicos como forma de vida en el universo conocido. En ese sentido puede afirmarse que los "seres humanos" somos insustituibles.
#11 ¿porqué somos insustituibles como proceso conciente? ¿en que te basas para decir eso? ¿es magia o que?
#48. Me baso en que los seres humanos somos únicos, nada puede sustituir a los seres humanos, si acaso complementar pero nunca sustituir. La misma idea es aplicable a cualquier otra especie de seres vivos.
#57 Parece una tautología.
#57 En realidad lo que dices es un poco una perogrullada. En un sentido estricto, el mojón que he soltado hace un rato es único e insustituible, puesto que no hay otro igual. De ahí a que no haya cosas mejores o preferibles a ese mojón... Pues lo mismo se puede aplicar a cualquier ser vivo o especie.
La IA se va a llevar por delante todos aquellos trabajos mecánicos.

La IA es una herramienta potente para el resto de profesiones, aumentando su productividad, tal como la ingeniera de software.

Esto es evidente y no hace falta ningún estudio, simplemente cualquier ingeniero que utilice frecuentemente los LLMs puede darse cuenta que no razonan, son una base de datos con la que puedes comunicarte con lenguaje natural.
#7, ahora solo falta definir qué es un proceso mecánico? Puede que nos llevemos una sorpresa y resulte que limpiar casas, hacer de fontanero o cambiar un pañal o poner una vía a un paciente sea algo infinitamente menos mecánico que escribir un programa informático o hacer un buen diagnóstico médico.
#17 Paradoja de Moravec. (Lo acabo de escribir sin haber visto antes a #75 )
#17 El 90% de lo que hacemos todos es mecánico. Limpiar casas, hacer de fontanero y hasta cambiar pañales también lo son. En esos ejemplos lo que nos da ventaja, de momento, son las manos, brazos, piernas como "herramientas multifunción". En cuanto se desarrolle la robótica, pues automatización al canto. Porque vamos, yo al menos no gasto ni "media neurona creativa" en hacer la cama, barrer, fregar o hasta hacer la comida. Básicamente es reconocer objetos y aplicar una serie de pasos. De inteligencia, poca.
#65 vengo aquí a dejar la paradoja de moravec: es.m.wikipedia.org/wiki/Paradoja_de_Moravec

Contra intuitivamente, las tareas de "pensar" computacionalmente son más sencillas de solucionar que las habilidades motoras.
#75 Hombre, eso lo dijo hace 50 años... no sé yo si sigue siendo válido. Tanto en robótica, como en razonamiento se ha avanzado mucho. Algo que menciona, como reconocimiento de caras (o reconocimiento visual) está ahora a años luz de lo que había en los 80 y no sé si al nivel de un niño de 4 años. Y en robótica hay modelos que ya se mueven razonablemente bien, porque a parte de potencia de cálculo también se necesitan sensores y actuadores mucho mejores de los que había en su época. Habría que ver a qué llamaba IA, porque el ajedrez o las damas a mí no me lo parece y menos en esa época.
#75 De forma paralela a esta observación, la mente consciente humana ocupa muy pocos recursos del cerebro. La mente inconsciente lo hace casi todo, incluida la toma de las decisiones. Las decisones, una vez tomadas, se comunican a la mente consciente.
#65, eso es porque millones de años de evolución nublan tú juicio y te hacen creer que para hacer un buen diagnóstico médico o escribir 1000 líneas de código, tienes que pensar más para saber interpretar el entorno y mandar a tus músuclos los impulsos necesarios adaptándose a la situación, pero no es así realmente. No te niego que la robótica también arrasará en su campo, pero mucho antes habrá atrasado con los trabajos intelectuales.
#73 Perdona, que me expresé mal o mejor dicho, sólo me centré en los ejemplos que pusiste, pero cuando decía que el 90% de lo que hacemos es mecánico, me refería a todos, médicos, informáticos, actores, barrenderos... La creatividad de verdad es innecesaria en la mayoría de cosas que hacemos. Y sí, un médico, un barrendero o un mecánico puede perfectamente tener su momento creativo para solucionar algo puntual, pero la mayoría de las veces, todo es sota, caballo y rey.
#17 Me refería a trabajos que tienen que ver con la gestión, administración, oficina, etc.

Programadores hará falta y ahora más, están surgiendo nuevas tecnologías alrededor de la IA como NLWeb y MCP y hace faltan programadores que puedan implementar flujos de trabajo basados en esas tecnologías.
Si, bueno, a ver, las IAs lo que hacen es buscar patrones y elaborar respuestas que encajen con esos patrones previos.

Lo que ocurre es que la mayor parte de los trabajos y tareas que realizamos los humanos suelen ser cosas que alguien ya hizo antes. Más aún, suelen ser cosas que muchos ya ha hicieron antes. Con lo cual, pues se puede dar una respuesta mediante comparación de patrones.

Es más, hay gente que se queja de que "la IA da resultados mediocres". Es que para la casi totalidad de lo que hacemos los humanos, con tener un resultado mediocre pero rápido, es mejor que tener un resultado excelente pero que requiera mucho más tiempo. La sustitución de lo artesanal por lo industrial es eso mismo.
A mi me sorprenden principalmente dos cosas:
1) la capacidad de “comprensión” que tienen a veces. Incluso con un prompt regulero, basadas en el contexto, son capaces de predecir lo que quería decir.
2) a pesar del punto anterior, otras veces la cagan un poco (código con errores, métodos que no existen, etc…ignorando requerimientos aunque clarifican que el código si que hace eso), o mucho, moviéndose en la misma respuesta desde el tema de una función “map” para recorrer una lista hasta llegar la IA solita a explicar que debería usar Google maps.
#9, es que a la mayoría de la gente le cuesta entender que la inmensa mayoría de tareas intelectuales que llevamos abajo tiene una lógica subyacente por debajo que se basa en esencia en patrones estadísticos. Se piensan que el predecir la probabilidad de que una palabra vaya detrás de otra es poco más que tener una tabla de frecuencias con las palabras que se han escrito después de una palabra dada y seleccionar la que aparece más veces sin entender lo que implica elevar los patrones estadísticos infinidad de órdenes y con funciones matemáticas que utilizan miles de millones de parámetros.
#9 A mí me sorprende lo cuñadas que son

Te dicen cosas que son falsas con una seguridad que te las podrías creer perfectamente.
#41 Un LLM no tiene ni la menor idea de cuando acierta y cuando no.
#9 coincido, llevo usando IAs a diario desde que lanzaron copilot ~2022 y puedes tener ambos casos es como si tuvieras al lado un tío superdotado con una enfermedad mental del carajo :-D
A veces uso los modelos razonadores esos dándoles un problema de los muy difíciles. Por supuesto que el output que me dan es totalmente equivocado, eso ya lo doy por supuesto. Pero a veces, dentro de todo el rollo del "razonamiento" (que no es tal cosa) sale alguna idea que no se me había ocurrido, y eso es muy valioso.
Se sabe que no razonan.
No sé a qué viene un envío sobre esto.
#12 Se sabe que no razonan.

Pues díselo a todas las compañías de IA que anuncian sus modelos “razonadores” a bombo y platillo. Y como tal te los venden.
#47 ¿ Que les diga que dejen de mentir para vender ?
#68 #91 Pues precisamente para eso hace falta hacer estas afirmaciones y con estudios que lo demuestren. Para que no puedan mentir al personal.

No era tan difícil de entender la siguiente conclusión de mi comentario. Yo creo que si se lo hubierais preguntado a la IA ya os lo habría explicado. Sin razonar!
#68, #125, aquí todo el mundo tiene intereses empezando por Apple, autora de este estudio y que está años luz atrás en el tema de la IA. No seamos inocentes.
#47 Las compañías de iA simplemente mienten para venderte su producto. Saben perfectamente desde siempre que las iAs no razonan y que con esta tecnología nunca van a hacerlo, pero parte de su publicidad es antropomorfizarlas para que creamos que el invento es mucho más sorprendente de lo que es en realidad.
#91 Es marketing. Están acojonados para defender la inversión hecha. Por eso que dicen idioteces como que "tomarán consciencia". Pura ciencia ficción.
#102 y de forma "sutil" van creando una falsa narrativa en la que cuelan conceptos como que las iAs "alucinan", lo cual es otra forma de antropomorfizarlas. No alucinan, lo que hacen es fallar a menudo como una escopeta de feria.
#47 Es una corrupción de la palabra. El "razonamiento" que te da un LLM no son los pasos que sigue para llegar a su conclusión. Es un output más que se genera con plantillas, como el otro output. Hay que mirarlo como la información adicional que es.
#12 Pues que el 90% de la gente sigue pensando lo contrario, que razonan mucho mejor que cualquier persona.

A mi la IA me ha construido unas idas de pinza tremendas. Que sí, que si no sabes SQL y la IA va y te construye SQL, aunque sea una mierda, pues lo vas a flipar en colores. Pero lo flipas porque no entinendes lo que construye. Sólo ves que hace SQL, y que tú no puedes, y ya has decidido ponerte de rodillas y adorar a tu nuevo dios.
#50 si no sabes SQL y usas lo que te construye la IA vas apañado, pero bien.

Lo que más as noto de las IAs son dos cosas, que no saben decir no sé, ellas siempre te dan un resultado aunque sea completamente incorrecto pero con la seguridad de un experto. Y, de la mano, que como no sepas la respuesta a lo que le preguntas apañado vas para usarla como herramienta. Te ahora horas de búsqueda de documentación y cruzar datos, sí, pero mezclan cosas y se equivocan bastante.
#50 Pues que el 90% de la gente sigue pensando lo contrario,
Eso es un problema tremendo.
#12 Supongo que la novedad es que lo dice Apple.
Porque es algo bastante evidente. Llevo más de un año viendo verdaderos disparates en la IA. Al principio me lo tomaba con humor, pero cada vez me preocupa más.
#13 pero cada vez me preocupa más.
Eso pasa por haber pensado alguna vez que la inteligencia artificial es inteligente. No lo es. Ni está pensada para eso tampoco.
Con otras herramientas similares como las calculadoras y las hojas de cálculo no hay tantos problemas., La gente se adapta mejor.
#13 No es más que un automatismo de juntar palabras. Debería estar diciendo siempre tonterías, pero si sigue documentos de su entrenamiento que dicen algo sensato, copiará de ahí y hasta parecerá que ha pensado.

A los humanos nos parece que piensa porque lo asociamos al uso del lenguaje natural. Hay que deshacerse de esa asociación o nos engañan.

Ahora, al decir tonterías le llaman alucinaciones (cuando antes las alucinaciones eran otra cosa). Resulta que los modelos más recientes dan más alucinaciones que los modelos anteriores y no se sabe la causa. Si fuera porque los nuevos modelos tienen más información, habríamos llegado a un límite.
Bueno, el otro día empecé una aplicación que necesita conjuntar varias posibles entradas de datos, interpretarlos, consignar posibilidades y realizar varias tareas diversas y luego lanzar en paralelo otras, escribí un texto detallandolo todo, se lo pasé a una IA (probé con varias) y al principio, fue bien, iba montando los bloques y entrelazándolos, pero cuando estaba casi completa y había que añadir funcionalidades que podían afectar a distintos scripts (estaba hecha en pyhton) empezó a…   » ver todo el comentario
#19 Mi experiencia es justo esa, pedir las cosas por partes y luego ir montado tú el modelo. Si le pides algo muy complejo se lía. Es cierto que ha mejorado bastante. No se si es coincidencia o no, pero acierta más en Python que en C#
#16 Una calculadora y una IA no se parecen en más que en que son herramientas. La calculadora es determinista y jamás te devolverá una falsedad dada una entrada. La IA es probabilistica, por lo que siempre hay probabilidad de error en su respuesta, incluso en las más obvias.

Y justo por eso, la IA se equivoca en esos razonamientos nunca presentados. Una IA jamás te dirá que algo no sabe resolverlo. Te dará la respuesta que considere con más precisión, aunque sea 0.

Salu3
#22 la IA se equivoca en esos razonamientos nunca presentados.
No razona. Simplemente predice texto en función de los datos que se le han insertado en la fase de entrenamiento.
#22 #24 Toda la física no cuántica es determinista
#22 Una red neuronal es totalmente determinista. Igual que una calculadora.
#27, puede que sí que hagan falta más, pero dado en que la forma en que se va a programar será el lenguaje natural es posible que la barrera de entrada baje bastante y la experiencia no sea tan importante.
Sorpresa en las gaunas. Es que si razonaran ya estaríamos viviendo en una distopía. Los LLMs tienen un límite. No van a llegar al AGI pero vamos, a mí me han facilitado muchísimo el curro. Si se quedan como están... de puta madre.
#31, no se quedarán como están, las IAs de hoy son muchísimo mejores que las de hace un año pero muchísimo peores que las del año que viene.
Pedidle a una IA de dibujo que pinte un avión sin ventanas para los pilotos.

No puede. Porque no hay ejemplos en internet.

(Visto en el canal del youtuber/piloto mentourpilot)
#34 He ido a probarlo y si puede (SORA de Openai)  media
#37 #44 Leñe... pues sí, pues sí.

Tenéis razón
#34 Dile al YouTuber que va más perdido que un pulpo. Anda que no hacen las IAs burradas de todo tipo con la aviación si pides representarlas.

Iba a buscar en la papelera de reciclaje porque a mí me ha hecho varios aviones sin ventanas pero veo que #37 ya te lo enlaza.
#34 La IA va evolucionando rápido. Los problemas que no podía resolver hace unos meses (como el que comentas) ahora los puede resolver y algunos que no puede resolver ahora, lo podrá hacer en unos meses.
#44 No has entendido lo que te intenta decir.

Te intenta explicar que las IAs no solucionan problemas nuevos. Son buscadores avanzados con una interfaz muy buena.
#131 Ya, pero el problema es que no es así.
#34 Tiene gracia. Ayer hice una prueba con aviación y alucina un poco  media
Aunque algunos no se lo crean estas IA se dedican a elegir y mostrar la mejor combinación de palabra, a través de patrones. No piensan. Digamos que son muy buenas juntando letras. Eso no quita que al tener una base de datos enorme muchas veces son bastante buenas pero no dice ni la verdad ni o han pensado.
Hay que tener claro un concepto elemental...

Verosímil ≠ Verídico
Eso lo he dicho yo aquí anteriormente pero otros meneantes me han asegurado que sí que piensan.

En fin.
#51 Hay algunos meneantes que son fanáticos de las IA y les atribuyen toda clase de cualidades mágicas. De hecho, los prefiero a los fanáticos del feminismo.
#46 q modelos?

Los basados en transformadores?

La verdad es q si lo dudo....

O cambia la tecnologia o no lo veo. Que cambiara algun dia, claro, igual para meter esto, pero en la actual....
#53 El problema de la consciencia o de la inteligencia es que no sabemos casi ni definir lo que son. Yo veo un poco complicado llegar a desarrollarlo artificialmente si no sabemos casi ni lo que es. Creo que la mayoría tiene la esperanza de que sea una característica emergente al aumentar el nivel de complejidad de los sistemas simples que tenemos ahora... la cosa es que si no es así, pues no llegaremos a ello.
#60 La consciencia no tiene nada de "emergente". Es un sistema hecho totalmente a propósito que se encarga de mantener un modelo del entorno. Todos los animales tienen esto.
#96 Eso dependerá de a qué llamas 'consciencia'. ¿Un termómetro "es consciente" de la temperatura de su entorno? ¿Un árbol es consciente? A mí me parece que lo que entendemos por consciencia es otra cosa.
#53 Lo de los transformadores es una tontería. Una pequeña aceleración en una red neuronal. Hay que prescindir de todo eso y construir un sistema que pueda almacenar conceptos. Los LLM actuales no van a pasar de lo que hacen actualmente.
vaya sorpresa un programa con una función determinada que es escupir datos no razona ,
Si los modelos fueran escalables en complejidad, ya tendríamos la AGI, y la empresa que lo consiguiera probablemente se quedaría el modelo para sí, compartiendo solo subproductos.
#55 Te ha quedado un pelín pretencioso eso de le has propuesto problemas únicos porque te los has inventado tú. Sin acritud, me creo que te hayas inventado el problema, pero no que no sea equivalente a muchos otros ya propuestos anteriormente.
#71 Puede que sí sea pretencioso. Lo que he hecho ha sido coger un libro de puzzles lógicos y matemáticos antiguo que tengo, el Moscow Puzzles, versión en inglés de un antiguo libro soviético de puzzles lógicos. He cambiado el texto, las historias y por supuesto he traducido al español unos cuantos, y se los he propuesto.

Y los ha resuelto muy satisfactoriamente. Se puede opinar, por supuesto, que ya los conocía, es posible que ese viejo libro de Boris Kordemsky esté escaneado y disponible en…   » ver todo el comentario
¿Esta es la excusa para no aportar Apple Intelligence a sus iPhones?
#84 La excusa es Siri. Por lo que se vé Siri es una auténtica chapuza (en cuanto a programación) y no es posible enlazar eso con un LLM. Lo están rehaciendo desde cero y dicen estar bastante avanzados.
#81 yo creo que es perfectamente válido.

Podemos hacer que un modelo de IA complete un examen de historia de selectividad de 10, o intérprete un texto jurídico y haga un resumen, o que dibuje lo que queramos a un nivel casi profesional.
Lo que no conseguímos es: una IA que conduzca (lo que hay tras invertir cantidades obscenas de dinero todavía no funciona bien), que te cambie un desagüe, que haga hormigón y levante una pared de ladrillos, que haga volar una cometa...

Ahí nos chocamos con la paradoja de Moravec.
#86 Interpretar un texto, hacer un examen y hasta el dibujo en cierta forma, son todo lo mismo, reconocer patrones.. "memorizar" y saber qué contestar. Lo comparas con "actividades físicas" que requieren también desarrollar actuadores físicos adecuados. Nuestras manos son una puñetera maravilla y emular eso mismo a nivel mecánico es complejo, pero no porque las tareas sean más complejas.

Y es gracioso, porque hay muchos huimanos que tampoco son capaces de hacer todo eso que dices.
#86 Sí a mi me das 10 millones de exámenes de historia, 10 millones de texto jurídicos y 10 millones de cuadros en una base de datos donde puedo copiar y pegar las partes que quiera y también te saco un 10 selectividad y sin estudiar. Y lo que es más importante, “sin pensar” en porqué contesto lo que contesto, simplemente me limitaría a hacer una comparaciones lógicas si esto igual a esto pues entonces este trozo de texto va bien aquí y lo pego. Txim Pum.

Yo creo que se subestimaba mucho lo que significaba “pensar”, “inteligencia “, “sabiduría” etc.
#81 #86 Sigue siendo algo mágico que nuestro cerebro haga la cinemática inversa para coger una pelota que viene por el aire de manera más fácil que multiplicar 34*15. Todo lo que implica que un robot haga lo primero son años de trabajo. Que haga lo segundo, es algo totalmente trivial. La paradoja aplica totalmente. Desconocía que tenía nombre.
Mientras no razonen la humanidad está a salvo. No queremos sorpresas, mientras tanto que sigan utilizando la IA los estudiantes vagos (en son de broma lo último). Gran aporte por cierto, este hilo es maravilloso. Felicidades a su autor.
Todo es cuestion de tiempo, a la vida le costo millones de años...
Lo llevo tiempo diciendo.
#119 La temperatura es un parámetro del modelo, no de ninguna red neuronal. Una red neuronal es determinista.

En un LLM, la red neuronal produce una serie de posibles tokens con su peso. Hasta aquí es determinista. A partir de aquí ya estás fuera de la red neuronal, entonces lo transformas en probabilidades, le aplicas temperaturas y lo que te de la real gana, seleccionas un token y vuelves a llamar a la red neuronal para el siguiente token.

Un modelo no es sólo la red neuronal (normalmente muchas) sino que hace montones de cosas a golpe de código. Son dos cosas distintas. Si te miras como funciona una red neuronal verás que es evidente que es determinista.
#105 Pero mientras se queda retrasada, no le interesa que los demás sigan distanciándose. Llegar a la conclusión de que las IAs de sus rivales sí razonan, es echar balones a su tejado.
#149, las matemáticas son un invento humano que nos permite construir modelos que explican como funciona nuestro universo. La inteligencia humana también puede modelarse con matemáticas del mismo modo que modelamos el movimiento de los planetas.
#151 Bueno, no sabemos si realmente explican como funciona nuestro universo o si lo que hace es darnos sentido a una representación de lo que nosotros percibimos. Tendría que buscar algo de información para explicarme mejor, porque este no es mi campo de conocimientos, y es un pelín tarde para una conversación tan seria :-). A ver si mañana, me acuerdo y busco a ver donde demonios tengo recopilado información sobre si realmente las matemáticas dan respuesta a leyes fundamentales o si somos…   » ver todo el comentario
#152, lo mismo ocurre con la inteligencia, tampoco podemos estar seguros de hasta que punto se puede modelar con operaciones matemáticas y patrones estadísticos todos los comportamientos atribuibles a la inteligencia humana, pero negarlo de plano es más propio de un acto de fe que de una aproximación científica al tema. Por lo pronto vayamos poniendo a prueba los modelos de IA hasta que lleguemos a un punto en que no mejoran. De momento, la verdad es que están mejorando mes a mes.
#153 Menudo pifostio tuve con DeepSeek para convertir esto:
git clone github.com/jackyzha0/quartz.git
cd quartz
npm i
npx quartz create

A un contenedor podman compose. 33.000 palabras y 230.000 caracteres y no lo consiguió. Al final lo tuve que sacar yo.
#155, mi experiencia es que Deepseek está hoy por hoy órdenes de magnitud por debajo de Gemini 2.5 pro.
#156 No he usado nunca versiones de pago. Y es un poco putada que los gobiernos dejen esto en manos privadas pero intento priorizar open source.
#157, entonces no eres consciente del inmenso poder que tienen estás herramientas. El problema es que aunque tú no utilices las versiones de pago, otros sí lo harán y que el gobierno deje esto en manos privadas no me sorprende en absoluto después de dejar en manos privadas la banca, la industria armamentística, las telecomunicaciones o la electricidad.
#158 Ya, tú dales más poder a Google, Microsoft y tal :-P

Cada uno que se apañe como pueda, yo hago lo que puedo y lo que hagan los demás no lo puedo controlar.

Avisados ya estamos desde hace mucho, desde luego.

He echado cuentas y me compraría un ordenador que me permita instalar una IA en local por el precio de 20 a años de Google IA Pro. (Así de tonto soy jaja). Pero aún no es el momento. No hay prisa. Hay que dejar que explote la burbuja primero.
#154 Vuelves a mezclar cosas. Hacer una operación matemática no implica inteligencia, ni consciencia, ni razonamiento, ni nada, es totalmente mecánico. Cazar una pelota que viene por el aire, tampoco implica inteligencia, consciencia, ni razonamiento. La diferencia está en los sensores y actuadores. No puedes pedir a un robot que cace una pelota si no tienes algo para que la vea. Ni puede cazarla si no tienes algo que emule un brazo, una mano o lo que sea. Y eso no es inteligencia. Sigo sin ver ninguna paradoja, sólo que se comparan cosas diferentes.
«12

menéame