El estudio, publicado en la revista International Journal of Mathematical Education in Science and Technology, relata una conversación cuidadosamente diseñada entre ChatGPT y un investigador, con el objetivo de examinar cómo el modelo responde a un problema geométrico clásico: duplicar el área de un cuadrado. Esta tarea no solo desafía el conocimiento matemático del sistema, sino que también pone a prueba la forma en que “construye” sus respuestas. Y lo más interesante no fue si acertó o falló, sino cómo lo hizo
|
etiquetas: problemas matemático de platón , inteligencia artificial
Claro que no, porque las IAs se equivocan constantemente. Fallan más que una escopeta de feria.
Lo peor de todo es la rotundidad con la que aseveran que su equivocación es algo certero. Por la retórica utilizada en sus lenguajes y manera de expresarse escrito, te hacen creer que lo resultados que obtienen son indudablemente ciertos, de ahí que haya que estar altamente "ojo avizor" con los resultados que te da… » ver todo el comentario
www.meneame.net/story/otra-prueba-mas-aporofobia-ias-prefieren-no-exis
Pues vuelvo a no tener claro nada.
Y bueno, lo he comprobada directamente. Cuando se le plantea un problema nuevo, es decir, creado por mí, es capaz de reconocer el tipo de problema y resolverlo. Algo que muchos alumnos son incapaces de hacer. Que cuando les cambias el texto del problema que han memorizado, se encuentran incapaces de resolverlo.