Tecnología, Internet y juegos
8 meneos
64 clics
Un niño de 8 años derrota a la IA [ENG]

Un niño de 8 años derrota a la IA [ENG]

Los niños suelen pensar que la IA es mucho más inteligente que ellos. Cuando la IA les hace los deberes, tiene respuestas convincentes para todo. Pero cuando se trata de razonar con información nueva, los niños demuestran tener la ventaja. En un desafío de razonamiento entre niños, adultos e IA, los niños vencieron fácilmente a la IA, según una investigación de la Universidad de Ámsterdam y el Instituto de Santa Fe.

| etiquetas: ia , razonamiento , novedad
Este estudio es muy interesante porque demuestra de forma empirica lo que comento aquí

www.meneame.net/story/ia-no-sabe-resolver-originalidad

La IA necesita que el espacio de soluciones esté estadísticamente definido. El humano puede operar cuando ese espacio aún no existe. Si la IA no tiene ese entrenamiento es practicamente inutil.


Aquí la traducción:

Tres alfabetos
El estudio utilizó acertijos basados en texto. «A los modelos de lenguaje todavía les cuesta mucho entender los

…   » ver todo el comentario
#1 Esto ya lo dije yo antes, es un problema de arquitectura de los LLM actuales. No están hechos para innovar o crear nuevas respuestas que nunca fueron conocidas antes. Lo que sí pueden hacer es siguiendo patrones para los que fueron entrenados, inducir respuestas en base a respuestas anteriores.
#1, #2, #7, #3, cuando leí el titular me chirrió muchísmo hasta literalmente no creermelo basándome en mi experiencia personal con los LLM de frontera.

Pero como la evidencia anecdótica no es suficiente en ciencia, me fuí a buscar el paper al que hace referencia y bingo!

arxiv.org/pdf/2411.02348

Evaluan modelos no razonadores del 2024 que en cuestión de LLMs es como evaluar la potencia computacional de los ordenadores personales con máquinas de los años 90.

Vamos que ninguna de las conclusiones del artículo es válida a día de hoy. Y eso es muy importante en la era de la IA, tener un espíritu crítico bien formado para no dejarte impresionar por titulares resultones.
#25, por eso debemos basarnos en lo que son capaces de hacer estos modelos y esta noticia no hay por donde cogerla a día de hoy tal y como explico en #23 y #26.
#1 Yo creo que la IA está empujando la necesidad de desdoblar el concepto 'creatividad'.

Y tras esto, si llega a ocurir, tal vez descubramos que mucho humanos están más cerca de la creatividad de la IA que lo que les es innato como humano
#1, y aquí tienes la demostración empírica de cuando chatGPT-4o falla:
chatgpt.com/share/69429bc3-a6d8-8001-9c43-9dec9e999c73

ChatGPT-5.2 y Gemini 3 aciertan:
chatgpt.com/share/69429c00-a748-8001-bed6-c30e398334be
g.co/gemini/share/4eba1905b6b3

Dado que los resultados experimentales son distintos, tus conclusiones sobre lo que son los LLM razonadores deberían cambiar, si nos apegaramos un poco al método científico. Las conclusiones se ajustan a lo que observamos y no al revés.
La clave está en que dentro de 10 años los niños de 8 años seguirán dando los mismos resultados que ahora. La IA sigue mejorando mes a mes.

Disfrutad de estas pequeñas victorias mientras duren.
#3 sabes que disfruto con estas discusiones pero eso que comentas no tiene base empirica, es una proyección sobre el futuro, no un argumento.

Yo en ningun momento digo que la IA no pueda llegar a tener una inteligencia parecida a la humana. Lo que yo digo es que los LLM actuales no están limitados por falta de potencia, sino por el hecho de que todo su razonamiento ocurre dentro de un espacio semántico fijado por el entrenamiento. Pueden explorar ese espacio, pero no transformarlo ni

…   » ver todo el comentario
#5 No se están añadiendo algoritmos para cubrir cada tipo de problema, lo que se está haciendo es extendiendo la cantidad y tipología de datos que se usan para entrenar esas IAs.

Se empezó solo con ciertos textos, luego se fueron ampliando, luego se amplió a imágenes, luego a ...

La IA cada vez tiene mayor acceso a más tipos y cantidades de contenidos para entrenarse, el ser humano se entrena con todo tipo de contenidos desde incluso antes de nacer.

Lo que se ha visto es que la IA mejora…   » ver todo el comentario
#8 No se si te has dado cuenta que estas afirmando justo lo que comento, refuerzas mi argumento. Si la mejora de la IA consiste en ampliar la cantidad y variedad de datos de entrenamiento, entonces no estamos ante un aumento cualitativo de inteligencia, sino ante una mejor cobertura del espacio aprendido.
Eso marca el limite, la IA mejora dentro del marco que el entrenamiento define, pero no puede crear un marco nuevo.

Aunque filosófícamente hablando, si la IA lograse cubrir todos los marcos conocidos seria similar a la inteligencia humana pero sin ser exactamente igual que esta
#9 Para nada, la cantidad y variedad de datos de entrenamiento permite extraer mayores conceptos de abstracción, permite separar mejor lo que es concreto y específico de lo que es un concepto general.

El ser humano, aunque solo tenga 8 años, lleva aprendiendo de cantidad y variedad de datos durante muchísimo tiempo y eso le permite separar mejor lo que es concreto y específico de lo que es un concepto general.

No hay por ahora evidencia alguna que el funcionamiento de la IA sea cualitativamente distinto al de un ser humano.
#11

Para nada, la cantidad y variedad de datos de entrenamiento permite extraer mayores conceptos de abstracción, permite separar mejor lo que es concreto y específico de lo que es un concepto general.

Puede ser, no se hasta que punto los LLM pueden abstraer patrones de lo conocido. Ahi ya no controlo

No hay por ahora evidencia alguna que el funcionamiento de la IA sea cualitativamente distinto al de un ser humano.

Esto es una falacia lógica. Que no haya evidencias de la IA sea cualitativamente distinta no implica que no lo sea. Es como decir que no hay evidencia alguna que Dios no existe por lo tanto puede existir.
#14 Sí hay evidencias que el funcionamiento de un motor de combustión es cualitativamente distinto al funcionamiento de un ser humano.

Que no haya evidencias en ese sentido sobre la IA a estas alturas es relevante, más cuando interactuamos con éste con lenguaje natural. A diferencia de Dios sí podemos experimentar con la IA y podemos experimentar, con limitaciones, con el cerebro humano.
#16 fair enough, pero sigue siendo una falacia lógica ya que tu puedes interactuar con dos "cajas negras" sin saber que hay detrás y pensar que lo que hay es lo mismo. En terminos informáticos la IA te da una API que es un subconjunto extremadamente reducido de la inteligencia humanan. Inferir al usar esa API reducida que son iguales o funcionan igual es un error de razonamiento: no hay base para concluir equivalencia a partir de la experiencia limitada que nos da la caja negra.
#17 El objetivo es crear inteligencia como la humana, el proceso es imitar lo que hace el cerebro humano, el entrenamiento son los datos que hemos generado los humanos, el resultado buscado es que sus respuestas sean indistinguibles de las que daría un humano.

Hoy en día ya puedes interactuar con una IA y en ciertos contextos ya es equiparable a estar tratando con un asistente humano.

Que todo ese proceso, que toda esa industria, acabe creando algo equivalente a un cerebro humano no solo no es descabellado sino que cumpliría los objetivos de aquellos que están trabajando activamente en ello y de los clientes que los usan.
#5 #3 Metiéndome en la discusión.

Pero no deja de ser un elemento que permitirá el desarrollo de las nuevas tecnologías.

La analogía que más me gusta es que estamos en la era del internet pre-Google, con aquellos directorios de categorías (como Yahoo! o Altavista) absolutamente infumables ya en su momento, pero que en su momento supusieron una mejora enorme y lograron concentrar la atención en el potencial de internet.

Las IA actuales, en su forma de LLM puros, seguramente serán una vía…   » ver todo el comentario
#5 ¿Por qué es un problema ontológico? ¿Acaso el problema de las IA es un asunto metafísico? A menos que lo que quieras defender es que todo asunto, en cuanto que tal asunto es, se trata de un problema ontológico. Pero eso es una conclusión vacía.
#20

Es ontologico si lo que nos preguntamos es:
¿Puede una IA ser realmente inteligente, o siempre será un algoritmo construido para tareas específicas?

Seria gnoseológico, que tambien aplica, si lo planteamos asi:
“¿Cómo podemos comprender la conciencia humana para intentar replicarla en IA?

Creo que esta bien formulado.

La ontología es simplemente la rama de la filosofía que estudia el ser y la existencia. No tienen que ser fantamas ni dioses
#21 La pregunta "¿Puede una IA ser realmente inteligente, o siempre será un algoritmo construido para tareas específicas?" no es una cuestión ontológica, ya que, como bien dices, la pregunta no se cuestiona sobre el ser o la existencia (lo que de manera correcta indicas que hace la ontología).

Lo que estás haciendo es preguntarte por las características de un ente (la IA), pero eso no constituye una cuestión ontológica. La ontología se ocupa del ser en sí mismo, no de sus cualidades.…   » ver todo el comentario
Obviamente. Lo raro sería lo contrario.

Coge a cualquier humano de dos o tres años que nunca haya visto un destornillador y enséñale tres fotos de destornilladores.

Entrena un modelo con cinco mil fotos de destornilladores.

El niño casi nunca fallará identificando algo como un destornillador y el modelo acertará nueve de cada diez.

Siete mil fotos de destornilladores le hemos pasado a un modelo y sigue diciendo que el maldito Martillo de Thor es un destornillador.

La IA se llaman así por tradición y por publicidad, pero no son inteligentes.
#12 a mi lo que más gracia me hace, y es un ejemplo perfecto de esto son los modelos que llaman "thinking". No piensan, es un simple bucle retroalimentado. Es puro márketing, el que pensó eso si que piensa
#15 No piensan, es un simple bucle retroalimentado.

Demuestra que eso no es pensar.
#24 ¿Eso no es como decir "demuestra que no existe Dios"?
#25 A quien respondo claramente parte de la premisa que el pensamiento sí existe y que los humanos sí piensan, está contraponiendo el pensamiento humano con la supuesta ausencia de pensamiento de la IA.

Si no se puede demostrar que el pensamiento exista no se puede demostrar que el humano piensa y es absurdo afirmar si lo hace o no la IA.

Si por contra sí se puede demostrar que el pensamiento existe y que el humano piensa entonces sí es realista demostrar si la IA piensa o no piensa.
#29 Creo que aquí la cuestión es conceptual y no empírica. Por eso una demostración no empírica es muy sencilla. Si defines el pensamiento como una cualidad subjetiva de los seres vivos, queda demostrado, por definición, que la IA no piensa.
#30 Claro, y si defines pensamiento como una cualidad subjetiva del hombre blanco, queda demostrado, por definición, que los negros no piensan.
#31 Ese es mi punto.
#32 Pues que quien lo afirma tenga el valor de definirlo en los términos racistas o sustracistas que estás proponiendo.

No es distinto a usar el término alma para excluir a quien quieras excluir sin tener que demostrar nada.
#15, precisamente los modelos thinking invalidan todo lo que pretendía dar a entender este envío.
La IA te responderá exactamente a lo que preguntes, no pretendas un razonamiento que aporte mas allá de eso
#10 No.

Estoy relativamente de acuerdo con lo que dices, sólo parcialmente, pero no con el resultado final.

Yo no he dicho que todo el mundo razone o que lo haga correctamente. Hay muchos factores, no todos voluntarios, para determinar que haga un proceso correcto de razonamiento. La mayoría de los, digamos,, errores humanos al respecto vienen no determinados por la capacidad sino por los sesgos de todo tipo que tenga el sujeto.

Pero, dicho esto, lo que estás comparando no son razonamientos…   » ver todo el comentario
La IA no razona. No lo ha hecho, no lo hace, no lo hará.
#6 Efectivamente ni lo hace, ni con el sistema actual lo hará pero... Tampoco lo hace una ingente cantidad de humanos, y todos conocemos gente que piensa pero no razona, que sabe leer pero no entiende lo que lee... Estamos comparando la IA con gente con buenas capacidades mentales, con una inteligencia decente... pero la mayoría de gente son average Joe que no saben hacer la o con un canuto, y yo me atrevo a decir, aun sin capacidad de razonamiento, la IA les ha superado por mucho.

menéame