Lo que antes era una ventaja considerable sobre la competencia de OpenAI gracias a su exitoso chatbot con IA ChatGPT se ha convertido en una ventaja mínima. [En inglés]
#10 es un paranoico, lo menciona en su nombre de usuario "MeneaMePersigue". Cualquier corrección se lo toma como un ataque.
Así que ni agua, si no es correcto, errónea y a correr, que tiene karma de sobra.
Están pasándose el dinero entre OpenAI, Google, Microsoft y Nvidia las unas a las otras de tal manera que se vuelven "too big to fall" y si se la pegan el estado va a salir a rescatarlas porque el efecto dominó hundiría las valoraciones de los principales mercados financieros
Pero ChatGPT está siendo arrasado por Gemini y Claude
#1 Incluso por Grok, que me parece bastante más cutre pero te deja hacer muchas más cosas. ChatGPT sin pagar es de las más limitadas, que rápido te dicen que no puedes subir más imágenes o que te va a responder el modelo viejo, con lo que el que simplemente quiera hacer pruebas para ver con cual se queda en el futuro pagando suscripción tiene bastante más margen con Gemini, DeepSeek, Meta AI, Grok, etc.
#8 Pero es lo que digo, que puede causar el efecto contrario. Si yo pruebo dos IAs y con una no consigo hacer nada y con la otra sí cuando tenga que pagar elegiré la segunda. Están jugando como si tuviesen un producto mucho mejor que la competencia, y al final no es así, simplemente tienen una marca que, de momento, es sinónimo de IA. Yo si ahora tuviese que pillar una suscripción sí o sí elegiría Gemini, y la elegiría básicamente porque hice más pruebas con ella y me gustaron más los resultados que con ChatGPT.
#21 Has probado la última actualización de Gemini? Muchos conocidos que usan IA a nivel profesional me cuentan que desde hace unas semanas Gemini a pegado un salto brutal, no remolonea y con un prompt sencillo elabora respuestas muy complejas, lo hace todo de golpe. A ChatGPT hay que pedirle las cosas de a poquito.
#21 Estoy totalmente en desacuerdo. Yo estuve con suscripcion a Chat GPT desde 2024 hasta mediados de este año. Probé a cambiar un mes a Gemini y de momento no tengo intención alguna de volver. También depende del tipo de uso que le des.
#8 El resultado es que en lugar de pasar por caja te vas a la versión gratuita de otros. O te pillas la promoción de Perplexity I la de Gemini de un año gratis.
#16 Esa es solo para estudiantes pero al parecer es relativamente fácil hacerse pasar por estudiante aunque peines canas.
No lo he investigado mucho pero he leído por ahí que vale una cuenta vieja de tu universidad o instituto que todavía funcione y que también hay instituciones académicas que dan cuentas gratuitas a cualquiera y que también valen.
#15 Se dice constantemente que las IA chinas gratuitas son mejores que la versiones de pago de las occidentales. Yo no sé si es así, ya que todas ellas me parecen un truño.
Solamente Perplexity, usado como buscador, me vale para algo.
Esto no significa que el desarrollo de la IA esté estancado sino todo lo contrario. Todo esto precisamente viene de Gemini 3, el último modelo de Goolge que supera de bastante a GPT-5.
#25 Gemini-3 es mejor en los benchmarks, lo que hoy en día no significa nada. Todos los resultados de benchmarks están trucados por todo el mundo. Luego los tests independientes los ponen en su sitio.
Gemini-3 es más grande, por ejemplo le cabe más contexto, pero las diferencias de los modelos actuales con los anteriores son insignificantes en la práctica.
Ahora mismo Gemini-3 mantiene su hype porque no está disponible sin pagar, pero por supuesto ya hay evaluaciones
#25, por razones obvias, no. El Gemini que te muestra resultados en el buscador es un modelo flash mucho más pequeño que el Gemini 3 pro que salió hace 3 semanas para usuarios de pago.
#27, muchos de los benchmarks a los que te refieres mantienen el conjunto de datos de evaluación como privados para evitar precisamente que los sobreentrenen para sacar buenas puntuaciones. Cualquiera que lo haya probado sabe que es cualitativamente superior a GPT-5.
#34 No lo es. Tanto humanos como animales tomamos decisiones en base a conceptos, sin estadísticicas y por lo tanto sin alucinaciones (con el significado de alucinación en una IA).
#35, pon un ejemplo de una decisión basada en conceptos para que podamos comprobar si un LLM razona o no? Decir vaguedades sin concretar en qué se materializan es idealismo pseudo-científico. Es como si yo dijera tanto los humanos como los animales tomamos decisiones basadas en los chakras.
Esto es como la carrera espacial entre USA y la URSS para llegar a la Luna, no importa quien gana las distintas batallas, el ganador es quien llega primero a la Luna.
En este caso el ganador va a ser quien llegue primero en tener una AGI.
#20 La AGI es una cosa de ciencia ficción, que no tenemos ni definida, y por supuesto ni la menor idea de como ir hacia eso.
Los LLM actuales no tienen ninguna capacidad de aprendizaje ni de razonamiento. A base de evolucionarlos no se va a lograr nuevas capacidades. Es entonces necesario algo nuevo. Algo que no se tiene y no se sabe como tendría que ser.
Hasta el hype de la AI ha dejado de nombrar la AGI.
#28, en qué te basas para decir que los modelos actuales no razonan?
Apegandonos a la definición de razonar que hace la RAE: Ordenar y relacionar ideas para llegar a una conclusión.
Y en base a los casos de uso que quieras:
- Resolver un problema matemático
- Programar
- Interpretar un texto legal
- Pasar un test de comprensión lectora
- Inventarse poemas que riman
- Superar tests de inteligencia
Los LLM razonan. Pero te vuelvo a preguntar a ti, sin entrar en vaguegades pseudo-filosóficas sino en tests verificables. ¿En qué te basas para decir que los seres humanos razonan y los LLM no?
#31 No existe ninguna capacidad de proceso lógico dentro de un LLM. Todo lo que hace un transformer es consultar estadísticas. D'on no n'hi ha no en raja.
#41 No es estadística. Como que pensar es difícil y cuesta energía, lo que hace el cerebro humano es aprender respuestas de memoria (a base de repeticiones del mismo tema). Si se repite la misma pregunta, se tira de la respuesta automatizada (los procedimientos se almacenan en el cerebelo), con mayor rapidez y un coste energético mucho menor. Es que pensar tanto cansa. Para crear ese procedimiento, primero se ha pensado la cosa, se ha tomado una decisión y eso queda ahí para cuando sea… » ver todo el comentario
#31 ¿Han arreglado lo de que no distingan entre propaganda y realidad? Razonar dependiendo de como los alimentes no me parece normal y habla del nulo pensamiento critico que tienen.
He discutido de esto con mi marido. El precier Gémini pq es mas directa contestando y según el más exacta. Yo prefiero gpt de pago porque me da la impresión de que si estás buscando algo a ciegas entiende mejor la idea, aunque toque repreguntar. Gémini me parece más carácter autista.
Y perplexity? Tienes la mayoría de los modelos de referencia. Mis opciones a día de hoy son 1 perplexity y 2 gemini, sobre todo por la integración con sus servicios. Pero no me mola tener todos los huevos en el mismo cesto.
Así que ni agua, si no es correcto, errónea y a correr, que tiene karma de sobra.
Pero ChatGPT está siendo arrasado por Gemini y Claude
ChatGPT de pago le da mil vueltas a Gemini.
No lo he investigado mucho pero he leído por ahí que vale una cuenta vieja de tu universidad o instituto que todavía funcione y que también hay instituciones académicas que dan cuentas gratuitas a cualquiera y que también valen.
Solamente Perplexity, usado como buscador, me vale para algo.
Gemini-3 es más grande, por ejemplo le cabe más contexto, pero las diferencias de los modelos actuales con los anteriores son insignificantes en la práctica.
Ahora mismo Gemini-3 mantiene su hype porque no está disponible sin pagar, pero por supuesto ya hay evaluaciones
www.lesswrong.com/posts/8uKQyjrAgCcWpfmcs/gemini-3-is-evaluation-paran
#27, muchos de los benchmarks a los que te refieres mantienen el conjunto de datos de evaluación como privados para evitar precisamente que los sobreentrenen para sacar buenas puntuaciones. Cualquiera que lo haya probado sabe que es cualitativamente superior a GPT-5.
En este caso el ganador va a ser quien llegue primero en tener una AGI.
Los LLM actuales no tienen ninguna capacidad de aprendizaje ni de razonamiento. A base de evolucionarlos no se va a lograr nuevas capacidades. Es entonces necesario algo nuevo. Algo que no se tiene y no se sabe como tendría que ser.
Hasta el hype de la AI ha dejado de nombrar la AGI.
Apegandonos a la definición de razonar que hace la RAE: Ordenar y relacionar ideas para llegar a una conclusión.
Y en base a los casos de uso que quieras:
- Resolver un problema matemático
- Programar
- Interpretar un texto legal
- Pasar un test de comprensión lectora
- Inventarse poemas que riman
- Superar tests de inteligencia
Los LLM razonan. Pero te vuelvo a preguntar a ti, sin entrar en vaguegades pseudo-filosóficas sino en tests verificables. ¿En qué te basas para decir que los seres humanos razonan y los LLM no?