#85o que tú llamas “cuñadear” es justo lo que hacen los humanos constantemente
Pues claro, especialmente los maridos de las hermanas o hermanos.
De ahí el nombre
la capacidad de autocorrección que sí tiene un sistema como este.
ChatGPT tiene 0 capacidad de corrección en una "conversación". Da tumbos y cae en contradicciones consigo mismo. Al final se limita a repetir lo mismo una y otra vez.
ChatGPT no “cree” saber nada
De hecho, chatGPT nl cree ni deja de creer nada. No tiene esa facultad.
simplemente procesa probabilísticamente
Exacto. Es un programa.
. ¿Cuál es tu solución, entonces?
Que cuando no sepa algo diga "no lo se" y que presente solo como posibilidades las cosas que no son realidades.
¿Que todo sistema hable como si dudara hasta del propio abecedario, para que tú no te sientas intimidado por una frase bien construida?
"La tierra es plana" es una frase bien construida y una auténtica estupidez al mismo tiempo. Las estupideces no intimidan. Y menos las disfrazadas con retórica
Solo dan la risa a los capaces y confunden a los incapaces.
Lo que tú llamas un problema es, en realidad, una consecuencia de operar con lenguaje natural en un modelo estadístico.
Es decir, defectos del algoritmo. Porque chatGPT y las IA son eso. Programas.
No es virtud ni defecto: es cómo funciona.
Que sea "como funciona" no evita que ese modo de funcionar sea defectuoso o estupendo para sus objetivos. Es "como funciona", mal en algunas ocasiones.
Te falla el razonamiento lógico.
Si esperas infalibilidad, te equivocaste de especie, de herramienta y de época.
Yo no espero nada. Señalo los puntos donde el sistema falla.
El problema no es ChatGPT.
Claro que el problema es ChatGPT cuando chatGPT falla en su cometido.
El problema es que tú esperabas a un sabio infalible
Yo espero una herramienta que me de un resultado correcto, y que si no lo tiene o no sabe como llegar a el lo indique.
Como es capaz de hacer cualquier persona.
te encontraste con un espejo de cómo razonamos los humanos..
No tiene nada que ver en como razonamos los humanos.
Los humanos sabemos cuando no sabemos algo.
solo que con más datos y menos ego</i)
Es un programa. Los programas no tienen ego
Y salvando eso, yo se decir "no lo se" cuando no se algo en lugar de inventar la respuesta a ver si suena la flauta. chatGPT es incapaz
#80lo que no entiendes es que ni tú, ni yo, ni nadie va por la vida con un 100% de certeza en todo lo que dice
ChatGPT lo hace. Aunque lo que diga sea absurdo o contrdictorio en si mismo.
cuando tú sueltas una burrada, ni la estructuras bien ni la haces pasar por razonable. En cambio, un sistema como ChatGPT..
Concuerdo, ChatGPT hace pasar por "razonables" auténticas burradas.
Eso es un problema, no una virtud.
, no es disimular, es funcionar dentro de los márgenes del conocimiento disponible,
De *su* conocimento, o en muchos casos de su ausencia. Como te han señalado, hablar como si se conociera algo que se ignora completamente se llama "cuñadear".
ChatGPT es un enooooorme Cuñao
#49explícame entonces por qué cada vez que se habla de estas herramientas la mitad del discurso es "eficiencia", "automatización", "optimización de recursos" y demás palabritas mágicas
Eso es facil. En una palabra "Marketing ".
Pues claro, especialmente los maridos de las hermanas o hermanos.
De ahí el nombre
la capacidad de autocorrección que sí tiene un sistema como este.
ChatGPT tiene 0 capacidad de corrección en una "conversación". Da tumbos y cae en contradicciones consigo mismo. Al final se limita a repetir lo mismo una y otra vez.
ChatGPT no “cree” saber nada
De hecho, chatGPT nl cree ni deja de creer nada. No tiene esa facultad.
simplemente procesa probabilísticamente
Exacto. Es un programa.
. ¿Cuál es tu solución, entonces?
Que cuando no sepa algo diga "no lo se" y que presente solo como posibilidades las cosas que no son realidades.
¿Que todo sistema hable como si dudara hasta del propio abecedario, para que tú no te sientas intimidado por una frase bien construida?
"La tierra es plana" es una frase bien construida y una auténtica estupidez al mismo tiempo. Las estupideces no intimidan. Y menos las disfrazadas con retórica
Solo dan la risa a los capaces y confunden a los incapaces.
Lo que tú llamas un problema es, en realidad, una consecuencia de operar con lenguaje natural en un modelo estadístico.
Es decir, defectos del algoritmo. Porque chatGPT y las IA son eso. Programas.
No es virtud ni defecto: es cómo funciona.
Que sea "como funciona" no evita que ese modo de funcionar sea defectuoso o estupendo para sus objetivos. Es "como funciona", mal en algunas ocasiones.
Te falla el razonamiento lógico.
Si esperas infalibilidad, te equivocaste de especie, de herramienta y de época.
Yo no espero nada. Señalo los puntos donde el sistema falla.
El problema no es ChatGPT.
Claro que el problema es ChatGPT cuando chatGPT falla en su cometido.
El problema es que tú esperabas a un sabio infalible
Yo espero una herramienta que me de un resultado correcto, y que si no lo tiene o no sabe como llegar a el lo indique.
Como es capaz de hacer cualquier persona.
te encontraste con un espejo de cómo razonamos los humanos..
No tiene nada que ver en como razonamos los humanos.
Los humanos sabemos cuando no sabemos algo.
solo que con más datos y menos ego</i)
Es un programa. Los programas no tienen ego
Y salvando eso, yo se decir "no lo se" cuando no se algo en lugar de inventar la respuesta a ver si suena la flauta. chatGPT es incapaz