El estudio, publicado en la revista International Journal of Mathematical Education in Science and Technology, relata una conversación cuidadosamente diseñada entre ChatGPT y un investigador, con el objetivo de examinar cómo el modelo responde a un problema geométrico clásico: duplicar el área de un cuadrado. Esta tarea no solo desafía el conocimiento matemático del sistema, sino que también pone a prueba la forma en que “construye” sus respuestas. Y lo más interesante no fue si acertó o falló, sino cómo lo hizo
|
etiquetas: problemas matemático de platón , inteligencia artificial
Claro que no, porque las IAs se equivocan constantemente. Fallan más que una escopeta de feria.
Lo peor de todo es la rotundidad con la que aseveran que su equivocación es algo certero. Por la retórica utilizada en sus lenguajes y manera de expresarse escrito, te hacen creer que lo resultados que obtienen son indudablemente ciertos, de ahí que haya que estar altamente "ojo avizor" con los resultados que te da… » ver todo el comentario
www.meneame.net/story/otra-prueba-mas-aporofobia-ias-prefieren-no-exis
Pues vuelvo a no tener claro nada.
Y bueno, lo he comprobada directamente. Cuando se le plantea un problema nuevo, es decir, creado por mí, es capaz de reconocer el tipo de problema y resolverlo. Algo que muchos alumnos son incapaces de hacer. Que cuando les cambias el texto del problema que han memorizado, se encuentran incapaces de resolverlo.
Lo que hay que entender es que eso es imposible. Se puede razonar únicamente en base a conceptos. Los LLM no deducen ni almacenan ni pueden usar conceptos, por lo tanto no razonan. No se puede razonar en base a texto. Eso no tiene ni sentido.
Entonces, sucede que los muy fans de la inteligencia maravillosa DICEN que "internamente" una red neuronal crea conceptos. Una red neuronal no puede hacer nada de eso. Lo que hace es tragarse… » ver todo el comentario
Pero subjetivamente, desde la consciencia, la cosa está clara.
Los datos se asocian a los conceptos. Se crean nuevos conceptos constantemente y se almacenan en la memoria.
Así por ejemplo, si ves un gato, sabes que es un gato porque lo relacionas con el concepto de gato. "saber que es un gato" y "relacionarlo con el concepto de gato" es exactamente lo mismo.
Para razonar se crean nuevos conceptos que no están relacionados con los datos directamente, sino con otros conceptos.