Tecnología, Internet y juegos
12 meneos
274 clics
El problema matemático de hace más de 2.000 años planteado por Platón descolocó a ChatGPT y a sus propios creadores

El problema matemático de hace más de 2.000 años planteado por Platón descolocó a ChatGPT y a sus propios creadores

El estudio, publicado en la revista International Journal of Mathematical Education in Science and Technology, relata una conversación cuidadosamente diseñada entre ChatGPT y un investigador, con el objetivo de examinar cómo el modelo responde a un problema geométrico clásico: duplicar el área de un cuadrado. Esta tarea no solo desafía el conocimiento matemático del sistema, sino que también pone a prueba la forma en que “construye” sus respuestas. Y lo más interesante no fue si acertó o falló, sino cómo lo hizo

| etiquetas: problemas matemático de platón , inteligencia artificial
10 2 1 K 58
10 2 1 K 58
"Lo interesante no fue solo que el modelo se equivocara"

Claro que no, porque las IAs se equivocan constantemente. Fallan más que una escopeta de feria.

Lo peor de todo es la rotundidad con la que aseveran que su equivocación es algo certero. Por la retórica utilizada en sus lenguajes y manera de expresarse escrito, te hacen creer que lo resultados que obtienen son indudablemente ciertos, de ahí que haya que estar altamente "ojo avizor" con los resultados que te da…   » ver todo el comentario
@Torrezzno ¿te acuerdas lo que me explicabas de las IA que no razonan? En este meneo
www.meneame.net/story/otra-prueba-mas-aporofobia-ias-prefieren-no-exis

Pues vuelvo a no tener claro nada.

?(
#1 Las IAs más recientes sí que razonan. No soy experto en el tema, por lo que no puedo explicar cómo lo hacen, pero por lo que he leído, si que usan métodos heurísticos de razonamiento.

Y bueno, lo he comprobada directamente. Cuando se le plantea un problema nuevo, es decir, creado por mí, es capaz de reconocer el tipo de problema y resolverlo. Algo que muchos alumnos son incapaces de hacer. Que cuando les cambias el texto del problema que han memorizado, se encuentran incapaces de resolverlo.
#3 Las IAs más recientes sí que razonan.

Lo que hay que entender es que eso es imposible. Se puede razonar únicamente en base a conceptos. Los LLM no deducen ni almacenan ni pueden usar conceptos, por lo tanto no razonan. No se puede razonar en base a texto. Eso no tiene ni sentido.

Entonces, sucede que los muy fans de la inteligencia maravillosa DICEN que "internamente" una red neuronal crea conceptos. Una red neuronal no puede hacer nada de eso. Lo que hace es tragarse…   » ver todo el comentario
#5 ¿y el cerebro humano sí que genera conceptos? ¿y cómo lo hace?
#6 Nadie sabe como funciona un cerebro humano. No se sabe qué hace una neurona, y menos aún como. Así que ya ves.

Pero subjetivamente, desde la consciencia, la cosa está clara.

Los datos se asocian a los conceptos. Se crean nuevos conceptos constantemente y se almacenan en la memoria.

Así por ejemplo, si ves un gato, sabes que es un gato porque lo relacionas con el concepto de gato. "saber que es un gato" y "relacionarlo con el concepto de gato" es exactamente lo mismo.

Para razonar se crean nuevos conceptos que no están relacionados con los datos directamente, sino con otros conceptos.
Aunque ChatGPT puede generar respuestas que imitan el razonamiento, no posee experiencia consciente ni comprensión conceptual.

menéame