Siempre producirán resultados plausibles pero falsos, incluso con datos perfectos, debido a límites estadísticos y computacionales fundamentales. Los modelos de razonamiento avanzados de OpenAI alucinaban con mayor frecuencia que los sistemas más simples. El modelo O1 de la compañía alucinaba el 16 % del tiempo al resumir información pública, mientras que los modelos más recientes, O3 y O4-mini, alucinaban el 33 % y el 48 % del tiempo. “A diferencia de la inteligencia humana, carece de la humildad necesaria para reconocer la incertidumbre”.
|
etiquetas: ia , openai , estudio , modelos , alucinaciones
Quién quiere una herramienta informática que te da resultados, ya no sólo de los que no te puedes fiar, sino además (y lo más importante), a la que no le puedes "rendir cuentas", siendo tú el único responsable por dar por correctos sus análisis, creados por estadística, y… » ver todo el comentario
GenAI es cojonuda para algunos casos de uso, pero cuando escucho cosas como automatizar procesos basados en esta tecnología, me da escalofríos. Cualquiera que entienda un mínimo como funciona sabe que nunca será precisa por fundamentos
Si quieres algo cercando al 100% de fiabilidad sale mas barato un experto humano
Empieza la cuenta atrás de la burbuja.
Pero hay gente que se informa con la IA.
Eso y los que creen qie la IA piensa y razona.
Anda, si #_2 me tiene ignorado. Joer, qué bien