Los niños suelen pensar que la IA es mucho más inteligente que ellos. Cuando la IA les hace los deberes, tiene respuestas convincentes para todo. Pero cuando se trata de razonar con información nueva, los niños demuestran tener la ventaja. En un desafío de razonamiento entre niños, adultos e IA, los niños vencieron fácilmente a la IA, según una investigación de la Universidad de Ámsterdam y el Instituto de Santa Fe.
|
etiquetas: ia , razonamiento , novedad
www.meneame.net/story/ia-no-sabe-resolver-originalidad
La IA necesita que el espacio de soluciones esté estadísticamente definido. El humano puede operar cuando ese espacio aún no existe. Si la IA no tiene ese entrenamiento es practicamente inutil.
Aquí la traducción:
Tres alfabetos
El estudio utilizó acertijos basados en texto. «A los modelos de lenguaje todavía les cuesta mucho entender los
… » ver todo el comentario
Y tras esto, si llega a ocurir, tal vez descubramos que mucho humanos están más cerca de la creatividad de la IA que lo que les es innato como humano
Disfrutad de estas pequeñas victorias mientras duren.
Yo en ningun momento digo que la IA no pueda llegar a tener una inteligencia parecida a la humana. Lo que yo digo es que los LLM actuales no están limitados por falta de potencia, sino por el hecho de que todo su razonamiento ocurre dentro de un espacio semántico fijado por el entrenamiento. Pueden explorar ese espacio, pero no transformarlo ni
… » ver todo el comentario
Se empezó solo con ciertos textos, luego se fueron ampliando, luego se amplió a imágenes, luego a ...
La IA cada vez tiene mayor acceso a más tipos y cantidades de contenidos para entrenarse, el ser humano se entrena con todo tipo de contenidos desde incluso antes de nacer.
Lo que se ha visto es que la IA mejora… » ver todo el comentario
Eso marca el limite, la IA mejora dentro del marco que el entrenamiento define, pero no puede crear un marco nuevo.
Aunque filosófícamente hablando, si la IA lograse cubrir todos los marcos conocidos seria similar a la inteligencia humana pero sin ser exactamente igual que esta
El ser humano, aunque solo tenga 8 años, lleva aprendiendo de cantidad y variedad de datos durante muchísimo tiempo y eso le permite separar mejor lo que es concreto y específico de lo que es un concepto general.
No hay por ahora evidencia alguna que el funcionamiento de la IA sea cualitativamente distinto al de un ser humano.
Para nada, la cantidad y variedad de datos de entrenamiento permite extraer mayores conceptos de abstracción, permite separar mejor lo que es concreto y específico de lo que es un concepto general.
Puede ser, no se hasta que punto los LLM pueden abstraer patrones de lo conocido. Ahi ya no controlo
No hay por ahora evidencia alguna que el funcionamiento de la IA sea cualitativamente distinto al de un ser humano.
Esto es una falacia lógica. Que no haya evidencias de la IA sea cualitativamente distinta no implica que no lo sea. Es como decir que no hay evidencia alguna que Dios no existe por lo tanto puede existir.
Que no haya evidencias en ese sentido sobre la IA a estas alturas es relevante, más cuando interactuamos con éste con lenguaje natural. A diferencia de Dios sí podemos experimentar con la IA y podemos experimentar, con limitaciones, con el cerebro humano.
Hoy en día ya puedes interactuar con una IA y en ciertos contextos ya es equiparable a estar tratando con un asistente humano.
Que todo ese proceso, que toda esa industria, acabe creando algo equivalente a un cerebro humano no solo no es descabellado sino que cumpliría los objetivos de aquellos que están trabajando activamente en ello y de los clientes que los usan.
Pero no deja de ser un elemento que permitirá el desarrollo de las nuevas tecnologías.
La analogía que más me gusta es que estamos en la era del internet pre-Google, con aquellos directorios de categorías (como Yahoo! o Altavista) absolutamente infumables ya en su momento, pero que en su momento supusieron una mejora enorme y lograron concentrar la atención en el potencial de internet.
Las IA actuales, en su forma de LLM puros, seguramente serán una vía… » ver todo el comentario
Es ontologico si lo que nos preguntamos es:
¿Puede una IA ser realmente inteligente, o siempre será un algoritmo construido para tareas específicas?
Seria gnoseológico, que tambien aplica, si lo planteamos asi:
“¿Cómo podemos comprender la conciencia humana para intentar replicarla en IA?
Creo que esta bien formulado.
La ontología es simplemente la rama de la filosofía que estudia el ser y la existencia. No tienen que ser fantamas ni dioses
Lo que estás haciendo es preguntarte por las características de un ente (la IA), pero eso no constituye una cuestión ontológica. La ontología se ocupa del ser en sí mismo, no de sus cualidades.… » ver todo el comentario
Coge a cualquier humano de dos o tres años que nunca haya visto un destornillador y enséñale tres fotos de destornilladores.
Entrena un modelo con cinco mil fotos de destornilladores.
El niño casi nunca fallará identificando algo como un destornillador y el modelo acertará nueve de cada diez.
Siete mil fotos de destornilladores le hemos pasado a un modelo y sigue diciendo que el maldito Martillo de Thor es un destornillador.
La IA se llaman así por tradición y por publicidad, pero no son inteligentes.
Estoy relativamente de acuerdo con lo que dices, sólo parcialmente, pero no con el resultado final.
Yo no he dicho que todo el mundo razone o que lo haga correctamente. Hay muchos factores, no todos voluntarios, para determinar que haga un proceso correcto de razonamiento. La mayoría de los, digamos,, errores humanos al respecto vienen no determinados por la capacidad sino por los sesgos de todo tipo que tenga el sujeto.
Pero, dicho esto, lo que estás comparando no son razonamientos… » ver todo el comentario