Siguen las críticas a OpenAI por su fracaso en el lanzamiento de GPT-5. Esto tiene pinta de que va a ser un duro golpe para la compañía. Veremos si se recupera
#7 Alguna vez aciertan en las respuestas, pero como que no son creibles (podrían ser equivocadas, y de mucho) no tiene utilidad. El problema no es resoluble con la tecnología actual.
#5, esto no significa que lo que se esté evaluando cuando le pasas una imagen sea la versión más potente del razonador, que es la que en teoría tiene nivel de doctorado. La falta de rigurosidad del periodista es de traca, pero quien tiene la culpa de todo esto es OpenAI y su falta de claridad.
#9 El modelo de imágenes es un modelo separado y siempre va al máximo, no es como chatgpt 5 que tiene 3 modelos y según lo que pages accedes a unos o a otros, por eso también te limitan el número de imágenes que puedes generar en ventanas de 30 días. Dicho de otra manera no puedes contrar Dalle 3 plus o pro o similar, y es de lo mejor en generación de imágenes
La culpa de todo eso es de OpenAI, pero no porque su modelo sea malo, que no lo es, sino por presentar las cosas con oscurantismo y con el culo. A estas alturas creo que ni siquiera se sabe si GPT-5 es multi-modal o te enruta a otro modelo cuando le pasas una imagen. Mi apuesta es que es otro modelo, porque en el catálogo de APIs, ninguna variante de GPT-5 admite imágenes como input, así que realmente lo que se está evaluando cuando se le pasa una imagen no es este modelo. En todo caso, la… » ver todo el comentario
Lo del "nivel de doctorado" es una frase de marketing. Para justificarla, contrataron a doctores (en lo que sea) y los pusieron a etiquetar cosas, que es el trabajo habitual de entrenamiento de un LLM. Como que los entrenadores son doctores, dicen lo del "nivel de doctorado", pero no hay nada especial ni inusual ahí. Es un entrenamiento vulgar, marketing aparte.
#4, no, no es verdad. Se dice esto porque hay benchmarks especializados que comparan el desempeño de estos modelos con el de doctores humanos en varios problemas de razonamiento, el principal de ellos es el GPQA.
Están diseñados para que sus respuestas parezcan creíbles, pero no significa que lo sean.
Simplemente sucede que en muchos casos, lo que parece y lo que es, coincide, y creemos que esos modelos funcionan bien.
Son como ese cuñado sabelotodo que tiene respuestas para todas las preguntas, aunque la mitad de las veces su respuesta estén totalmente equivocadas
Es lo que uso para generar la mayoría de imágenes que uso en mi trabajo, y es top