#151 Mmm... Te lo compro. Algo parecido me pasó a mi al principio de usarla. Preguntarle por algo (un proceso de programación), el responderme X, y yo decirle "X no puede ser por esto y lo otro". ChatGPT me decía "tienes razón, no puede ser por lo que dices". Yo le preguntaba "entonces, ¿cómo hago X?", y me vuelve a responder con lo mismo que me dijo al principio, que ya habíamos establecido que era incorrecto. Repetí varias veces la pregunta, y siempre acababa respondiendo lo mismo. No recuerdo cómo salí del bucle
Fuera de bromas, en ese punto estoy de acuerdo contigo. Una persona puede notar que cierto hecho es falso, por mucho que mucha gente diga que es cierto, y ia IA te responderá que es cierto porque esa es la opinión mayoritariamente aceptada. Pero imagino que esa forma de razonar que nos hace notar que cierto hecho es falso, también es una especie de "análisis estadístico" que hacemos basado en nuestras experiencias previas. Y supongo que por ese hecho de tener menos datos de referencia es más fácil manipular a mentes menos desarrolladas como niños, CI's bajos, ultraderechistas (mierda, había dicho "fuera de bromas" ), etc.
#7 ¿Razonar no es eso? Dar vueltas a un asunto, analizar sus detalles, comparar con tus experiencias previas, y llegar a una conclusión que consideras que es "la adecuada", que suele ser que la culpa es del PerroSanche
Son sus costumbres, y hay que respetarlas. La de saltar del balcón a la piscina (¿Cómo no se me había ocurrido antes? ) y la de quejarse cuando van ganando.
#19 Sí, pienso lo mismo. Si tanto empeño ponen en ocultar los datos, es porque saben que no se pueden negar. Si los datos estuviesen a su favor, los tendríamos hasta en la sopa, claro