edición general
134 meneos
2379 clics
OpenAI se encuentra de repente en serios problemas: "Van a terminar como lo hizo MySpace. "

OpenAI se encuentra de repente en serios problemas: "Van a terminar como lo hizo MySpace. "

Lo que antes era una ventaja considerable sobre la competencia de OpenAI gracias a su exitoso chatbot con IA ChatGPT se ha convertido en una ventaja mínima. [En inglés]

| etiquetas: tecnologia , ia , inteligencia artificial , chagpt
Están pasándose el dinero entre OpenAI, Google, Microsoft y Nvidia las unas a las otras de tal manera que se vuelven "too big to fall" y si se la pegan el estado va a salir a rescatarlas porque el efecto dominó hundiría las valoraciones de los principales mercados financieros

Pero ChatGPT está siendo arrasado por Gemini y Claude
#1 Incluso por Grok, que me parece bastante más cutre pero te deja hacer muchas más cosas. ChatGPT sin pagar es de las más limitadas, que rápido te dicen que no puedes subir más imágenes o que te va a responder el modelo viejo, con lo que el que simplemente quiera hacer pruebas para ver con cual se queda en el futuro pagando suscripción tiene bastante más margen con Gemini, DeepSeek, Meta AI, Grok, etc.
#7 la versión gratuita es un mojón y muy limitada, funciona mal a proposito para que pases por caja
#8 Pero es lo que digo, que puede causar el efecto contrario. Si yo pruebo dos IAs y con una no consigo hacer nada y con la otra sí cuando tenga que pagar elegiré la segunda. Están jugando como si tuviesen un producto mucho mejor que la competencia, y al final no es así, simplemente tienen una marca que, de momento, es sinónimo de IA. Yo si ahora tuviese que pillar una suscripción sí o sí elegiría Gemini, y la elegiría básicamente porque hice más pruebas con ella y me gustaron más los resultados que con ChatGPT.
#12 yo he probado suscripción de Gemini y de ChatGPT.

ChatGPT de pago le da mil vueltas a Gemini.
#21 Has probado la última actualización de Gemini? Muchos conocidos que usan IA a nivel profesional me cuentan que desde hace unas semanas Gemini a pegado un salto brutal, no remolonea y con un prompt sencillo elabora respuestas muy complejas, lo hace todo de golpe. A ChatGPT hay que pedirle las cosas de a poquito.
#23, me la juego a que no la ha probado. Mucha gente todavía no ha interiorizado que esta es la tecnología que más rápido está evolucionando de la historia de la humanidad y se piensan que las conclusiones a las que llegaron hace tres años son válidadas a día de hoy, cuando ni siquiera sirve lo que viste el mes pasado para conocer el estado actual de la tecnología.
#83 Coincido contigo pero cambiaría lo de "hace tres años" a "hace tres semanas". Las ultimas actualizaciones del ultimo mes han dado un salto importante en muchos niveles.
#21 Estoy totalmente en desacuerdo. Yo estuve con suscripcion a Chat GPT desde 2024 hasta mediados de este año. Probé a cambiar un mes a Gemini y de momento no tengo intención alguna de volver. También depende del tipo de uso que le des.
#21 precisamente eso es lo que dice #12

Si tienes una ia que es la repera pero no dejas probarla lo suficiente, o los resultados sin pagar son de pena. Lo más lógico es que te vallas a una suscripción de otra ia que aunque inferior, los resultados gratuitos te han dado mejor resultado ¿no?

Es decir, aunque seas mejor, si ante las pruebas otra te da mejores resultados, acabas con la segunda.

El problema es que ese modelo te funciona si realmente eres la mejor con mucha diferencia y el boca a…   » ver todo el comentario
#8 El resultado es que en lugar de pasar por caja te vas a la versión gratuita de otros. O te pillas la promoción de Perplexity I la de Gemini de un año gratis.
#15 como es eso de 1 año gratis con Gemini?
#16 Esa es solo para estudiantes pero al parecer es relativamente fácil hacerse pasar por estudiante aunque peines canas.

No lo he investigado mucho pero he leído por ahí que vale una cuenta vieja de tu universidad o instituto que todavía funcione y que también hay instituciones académicas que dan cuentas gratuitas a cualquiera y que también valen.
#16 en estos momentos, y esto lo digo solo como información y no para engañar a google ni a otras pobres empresas que ofertan cosas a estudiantes, puedes darte de alta en la UNED (uned.es) como futuro estudiante. La UNED te da acceso al campus con usuario y pass y eso ya te sirve para que te den el año gratis.
#15 Se dice constantemente que las IA chinas gratuitas son mejores que la versiones de pago de las occidentales. Yo no sé si es así, ya que todas ellas me parecen un truño.

Solamente Perplexity, usado como buscador, me vale para algo.
#8 joer un mojón... hace un año estábamos flipando con el mojón
#7 #8 es lo que me pasó a mí, con un trabajo de la universidad usaba la versión de pago porque la básica se quedaba corta bastante rápido.

Pero fue salir deepseek que hacía más de manera gratuita y desde entonces, que les peten a OpenAI, que ya no los uso ni para consultas básicas.
#62 Deepswek tiene para crear imágenes o es texto?
#63 ah, de crear imágenes si que creo que tiene entre poco y nada. Yo es que uso trabajos de puro texto.

Reconociendo imágenes, deepseek vale bien poco también, en eso cojea también mucho. Le tengo que estar "traduciendo" mis gráficos a texto, y creo que en eso chatgpt no tiene problema.

A nivel generalista ciertamente parece que Gemini va muy por delante del resto.
#1 En mi caso, Chatgpt para preguntas que preguntaría en Google, y Gemini para cosas serias xD
#1 No se pueden comparar Google, Amazon o Microsoft a OpenAI. Si la inversión en IA se va al carajo, OpenAI se va al mismo carajo. Las otras son empresas que ganan mucho dinero por otras vías.
#1 yo creo que deberíamos volver al capitalismo, si una empresa quiebra, pues que quiebre. Y aquí deberíamos haber hecho eso con los bancos en 2008.
#1 Han montado un aquelarre y están conjurando: ¡Skynet! ¡Skynet! ¡Skynet! ¡Skynet!
#4 pero si lo he meneado. Era una deferencia.
#5 llevas haciendome la misma 20 veces con 20 perfiles diferentes, que se contar
#10 era una deferencia
#10 es un paranoico, lo menciona en su nombre de usuario "MeneaMePersigue". Cualquier corrección se lo toma como un ataque.
Así que ni agua, si no es correcto, errónea y a correr, que tiene karma de sobra.
#9 Pon el idioma desde el primer momento y asunto resuelto
#86 Está puesto, no hay problema, es solo trolleo, no os lo tragéis
Esto no significa que el desarrollo de la IA esté estancado sino todo lo contrario. Todo esto precisamente viene de Gemini 3, el último modelo de Goolge que supera de bastante a GPT-5.
#13 El mismo Gemini que se ve en el buscador? El que no puede ni comprender bienes qué se está buscando? Ese?
#25 Gemini-3 es mejor en los benchmarks, lo que hoy en día no significa nada. Todos los resultados de benchmarks están trucados por todo el mundo. Luego los tests independientes los ponen en su sitio.

Gemini-3 es más grande, por ejemplo le cabe más contexto, pero las diferencias de los modelos actuales con los anteriores son insignificantes en la práctica.

Ahora mismo Gemini-3 mantiene su hype porque no está disponible sin pagar, pero por supuesto ya hay evaluaciones

www.lesswrong.com/posts/8uKQyjrAgCcWpfmcs/gemini-3-is-evaluation-paran
#25, por razones obvias, no. El Gemini que te muestra resultados en el buscador es un modelo flash mucho más pequeño que el Gemini 3 pro que salió hace 3 semanas para usuarios de pago.

#27, muchos de los benchmarks a los que te refieres mantienen el conjunto de datos de evaluación como privados para evitar precisamente que los sobreentrenen para sacar buenas puntuaciones. Cualquiera que lo haya probado sabe que es cualitativamente superior a GPT-5.
#27 Es el caso DieselGate de Volkswagen en versión IA.
Esta en ingles #0 deberías incluirlo en el título
#3 en la entradilla, no llores porque el idioma de referencia de un post en un agregador de noticias está unos centímetros más abajo de tus deseos
#34 No lo es. Tanto humanos como animales tomamos decisiones en base a conceptos, sin estadísticicas y por lo tanto sin alucinaciones (con el significado de alucinación en una IA).
#35, pon un ejemplo de una decisión basada en conceptos para que podamos comprobar si un LLM razona o no? Decir vaguedades sin concretar en qué se materializan es idealismo pseudo-científico. Es como si yo dijera tanto los humanos como los animales tomamos decisiones basadas en los chakras.
#37 Dejar Eurovisión
#54, vamos, que una vez más nadie puede ponerme ningún ejemplo de los fallos supuestamente tan graves y evidentes que cometen los LLM. Y mira que todavía hay algunos ejemplos tontos de fallos a los que os podríais agarrar, aunque claro, nada que ver con lo que era el primer chatGPT. Es frustrante discutir con gente a la que el método científico y la evidencia empírica se la pela completamente porque creen en el alma aunque les da vergüenza reconocerlo públicamente.
#78 buenos días, te cuento mi experiencia

Uso GPT 5.1 a diario, en el trabajo y en lo personal. Y ahora gemini, pero todavía no lo tengo de pago. Estamos pensando en sustituir uno por otro.

Yo diría que su mayor problema es que no tienen la capacidad para "darse cuenta" de que se están equivocando en su respuesta o que han tomado un camino de razonamiento incorrecto.

En muchas ocasiones, GPT en concreto, se enroca en dicho razonamiento incorrecto. Teniendo que abrir una nueva…   » ver todo el comentario
#81, todos tenemos experiencias personales y errores que la IA hace podemos señalar, pero a mi lo que me interesa es la tendencia que sigue y Gemini 3 hace muchas más cosas y mejores que los modelos anteriores y la productividad la multiplica a poco que sepas que es lo que tienes entre manos. En todo caso, que se equivoque en algunos ejemplos no significa que no razone de la misma manera que si se equivoca un humano tampoco significa que no razone. El razonar no es una categoría binaria sino un…   » ver todo el comentario
#81 Y que es "lo demás" ?? xD
#92 su definición razonar de la rae :roll:
#81 Concurro contigo. ChatGPT es tozudo. Cuando se equivoca puedes corregirle, y te dará la razón pero repetirá el error más tarde,. Incluso tras algún acierto después de darle el toque vuelve a las andadas.
#78 Pero si te he puesto un ejemplo tal y como pedías !!!
Un LLM jamás habria llegado a la decisión de dejar eurovisión
#85, que digas que esto es un ejemplo demuestra que no entiendes nada.

En serio, mírate el video de Bernie Sanders y deja de actuar como un negacionista del cambio climático.

youtu.be/qR1ykKzYp6c?si=Rt_10swKZD8BzQiY
#89 Tu peticion: "pon un ejemplo de una decisión basada en conceptos para que podamos comprobar si un LLM razona o no"

Mi respuesta: " Dejar Eurovisión".

Necesitas ver un vídeo?
#91, si piensas que esto es razonar el que no razona eres tú.
#100 Esto el qué?

Me he limitado a exponer un hecho.

Menuda empanada tienes...
#95, los humanos también cometen fallos catastróficos y no por ello decimos que no razonan en absoluto. Si cuando anti-gravity hace algo mal dices que sirve para decir que no razona, cuando hace algo bien deberías decir que sirve para decir que razona. Razonar es un continuo de valores, que van desde el cero absoluto, hasta un valor sobre-humano. Y las IAs se encuentran en algún punto de esta escala.
#78 método científico en algo que puede devolver dos cosas distintas a la misma pregunta, no lo veo yo muy factible
#96, hay problemas matemáticos que solo tienen una respuesta y se pueden utilizar para determinar si los LLM razonan o no.

Recordemos que según la RAE razonar es: Ordenar y relacionar ideas para llegar a una conclusión.
#35 Los humanos también alucinamos, creemos haber visto cosas que no hemos visto, y nos llegamos a creer nuestras propias mentiras.
Vamos, que me fío más de ChatGPT que de muchas personas :shit:
#47 Esa alucinación no tiene nada que ver con las "alucinaciones" de chatGPT
#53 Ya lo sé, es un chascarrillo, porque estoy convencido de que la AGI se va a conseguir más por involución nuestra que por evolución de la IA
#47 Eres muy libre de fiarte de lo que quieras, pero el significado de la palabra alucinación aplicado a humanos no tiene nada que ver con el significado de la palabra alucinación aplicado a un LLM.

Debes considerarlo como palabras totalmente distintas.
#47 Sí, pero como le dije a chatGPT cuando me dio una información errónea: para que me des una respuesta basada en nada que podría ser la respuesta de cualquiera, prefiero preguntarle a un colega
#47 sí claro. Pero si tienes un empleado que te la lía una vez, lo entrenas para qué no lo haga otra vez. Si te la lía cuatro veces, lo echas a la calle. Eso no lo puedes hacer aquí, reentrenar a una LLM requiere muchos millones de ejemplos. Puedes usar RAG, pero también tiene limitaciones de tamaño de contexto y de que la búsqueda semántica muchas veces no da el resultado esperado
#35 Tendrías que conocer a mi vecino...
#35 los conceptos son pesos en determinadas neuronas.
#72 Si eres feliz creyéndote eso, pues yo que te voy a decir. Supongo que es una especie de religión.

Un concepto es ante todo una información que existe aparte de los datos. Los conceptos se relacionan entre sí formando el conocimiento. Para razonar es preciso operar sobre los conceptos. No hay nada de esto dentro de un LLM.
#73, un concepto según la RAE es una representación abstracta de algo. Los embeding con los que trabajan los LLM y todas las redes neuronales son esto por definición.
Esto es como la carrera espacial entre USA y la URSS para llegar a la Luna, no importa quien gana las distintas batallas, el ganador es quien llega primero a la Luna.

En este caso el ganador va a ser quien llegue primero en tener una AGI.
#20 La AGI es una cosa de ciencia ficción, que no tenemos ni definida, y por supuesto ni la menor idea de como ir hacia eso.

Los LLM actuales no tienen ninguna capacidad de aprendizaje ni de razonamiento. A base de evolucionarlos no se va a lograr nuevas capacidades. Es entonces necesario algo nuevo. Algo que no se tiene y no se sabe como tendría que ser.

Hasta el hype de la AI ha dejado de nombrar la AGI.
#28, en qué te basas para decir que los modelos actuales no razonan?

Apegandonos a la definición de razonar que hace la RAE: Ordenar y relacionar ideas para llegar a una conclusión.

Y en base a los casos de uso que quieras:
- Resolver un problema matemático
- Programar
- Interpretar un texto legal
- Pasar un test de comprensión lectora
- Inventarse poemas que riman
- Superar tests de inteligencia

Los LLM razonan. Pero te vuelvo a preguntar a ti, sin entrar en vaguegades pseudo-filosóficas sino en tests verificables. ¿En qué te basas para decir que los seres humanos razonan y los LLM no?
#31 No existe ninguna capacidad de proceso lógico dentro de un LLM. Todo lo que hace un transformer es consultar estadísticas. D'on no n'hi ha no en raja.
#32, vamos, no razonan porque redefines el concepto para que un LLM no quepa. El método científico, no funciona así.
#33 "simplemente genera la continuación más coherente con el contexto."
#52, te das cuenta que haciendo esto se hubiese podido escribir el Quijote o desarrollar la teoria de la relatividad?
#76 No. No se hubiera podido.
Escogiendo "la continuación mas coherente" no habrias descubierto ninel teorema de arquímedes y menosagregando una pizca de aleatoriedad para que parezca "mas humano"
#94, si en la ventana de contexto le pones la información necesaria para siguiendo el metodo deductivo llegar a una conclusión, con un modelo lo suficientemente complejo, por supuesto que hubieses llegado.

A no ser que pienses que los científicos cuando desarrollan sus teorías entran en un trance interdimensional que hace que escriban sobre el papel sus teorías en un estado alterado de la conciencia en lugar de llegar a ellas encontrando patrones en las observaciones, es decir procesando información tal y como hace un modelo.
#32 nuestro cerebro también es una máquina estadística.
#32 El cerebro humano toma gran cantidad de decisiones en base a la estadística de la experiencia propia.
#41 No es estadística. Como que pensar es difícil y cuesta energía, lo que hace el cerebro humano es aprender respuestas de memoria (a base de repeticiones del mismo tema). Si se repite la misma pregunta, se tira de la respuesta automatizada (los procedimientos se almacenan en el cerebelo), con mayor rapidez y un coste energético mucho menor. Es que pensar tanto cansa. Para crear ese procedimiento, primero se ha pensado la cosa, se ha tomado una decisión y eso queda ahí para cuando sea…   » ver todo el comentario
#44 Es interesante esto que dices, pero en principio nos acerca más a un mecanismo mecánico, aunque previamente programado por nosotros.
En cuanto a al razonamiento, yo creo que hay que admitir que es inquietante la capacidad de tratar con conceptos abstractos a partir de un puro programa estadístico que simula las conexiones neuronales.
Es difícil no pensar que surge una suerte de emergencia de proto-razonamiento a partir de este proceso.
Diría que aún no sabemos donde va a llegar a base de ajustes e ideas felices de mejora.
#51 Una red neuronal artificial no simula las conexiones de las neuronas biológicas en absoluto. Ni por aproximación. Ni de puta coña.
Las más modernas, a base de "transformers", no son más que una serie de multiplicaciones de matrices.

Un LLM no tiene ninguna capacidad de tratar con conceptos. Sólo genera palabras que deduce de unas estadísticas. Nos da la siguiente palabra más probable. No sabe hacer nada más.

Al no poseer conceptos, no puede razonar.

Los LLM han casi llegado ya a su máximo nivel de desarrollo. Hacerlas aún más grandes no sirve de nada. A partir de ahora sólo veremos mejoras en el entrenamiento. Esto es, hasta que a alguien se le ocurra una nueva tecnología.
#77 Bueno, la idea original de las redes neuronales artificiales es imitar las biológicas a partir de la sinapsis. Vale que es un modelo matemático, una simulación aproximada. Pero hasta cierto punto está claro que funciona. 'Aprende' a través de la experiencia, a reconocer letras mediante conjuntos de datos etiquetados, o por si sola en mundos virtuales con una función fitness.
Luego están los demás avances, que también son otros modelos matemáticos para conseguir alineamiento y conceptualización.
#41 Y gran cantidad de decisiones no basadas en ella
#31 ¿Han arreglado lo de que no distingan entre propaganda y realidad? Razonar dependiendo de como los alimentes no me parece normal y habla del nulo pensamiento critico que tienen.
#36, si no me pones un ejemplo, no te sigo.
#38 Pues por ejemplo, que se ponga del lado de Israel.
#36 Un LLM no tiene ningún mecanismo para distinguir la información buena de la mala. Si se hace, esto es en tiempo de entrenamiento y por una mano humana.

Al confundir e intercambiar una con la otra es cuando se producen las alucinaciones, que son por lo tanto inevitables.

No tienen ninguna capacidad de comprensión. Son simples máquinas de mezclar palabras. Por supuesto, no tienen pensamiento de ninguna clase.
#45 En principio nosotros tampoco tenemos medios para distinguir informaciones truchas, si están suficientemente bien elaboradas tragaremos.
Luego está nuestra capacidad de tratar con el mundo físico, llevar a cabo experimentos (empirismo) y llegar a nuestras propias conclusiones. Además de observar reglas de deducción lógicas que por supuesto hemos aprendido a partir del corpus de conocimiento anterior, y hemos validado porque tienen sentido en tanto no encontramos contraejemplos válidos.
#58 Esa es la cosa, nosotros vivimos en nuestras cabezas, pero existir en un mundo físico y recibir una cantidad tan absurda de estímulos de reafirmación provenientes de él que ni siquiera somos conscientes de ello afinan nuestro funcionamiento y es algo que no tiene la IA. Me habéis recordado una búsqueda de google sobre una canción que no recuerdo ahora ni el título ni el artista, pero que me decía que era una versión de otra, lo cual era completamente falso y deducido solamente de que…   » ver todo el comentario
#70 ... Al final va a resultar que si les damos un cuerpo físico con el que puedan interactuar, un LLM para que puedan entender lo que queremos de ellos, y un método más refinado de aprendizaje de maquina que no requiera más que unos pocos ejemplos, va a bastar con darles las leyes de la robótica de Asimov como toda programación para que salgan al mundo.


Flipo, pero es que es flipante.
#58 si están suficientemente bien elaboradas tragaremos

Un LLM no tiene esta capacidad, sino que traga siempre.

porque tienen sentido

Un LLM no sabe si algo tiene sentido o no.
#31 Como el debate ya cansa, discútelo con chatGPT... ya que lo consideras tan inteligente.


Aquí tienes la explicación completa en castellano, manteniendo el nivel de detalle:


---

¿Puede un LLM “razonar”?

Depende del significado que adoptemos para “razonar”.
Si lo comparamos con el razonamiento humano, no, un modelo como yo no razona igual que una persona: no tengo conciencia, ni intenciones, ni comprensión interna del mundo.

Pero si hablamos de razonamiento funcional, es decir, la…   » ver todo el comentario
#50, pues mira tú, chatGPT viene a decir lo mismo que yo. Los que se pierden en entelequias de qué es pensar, la experiencia subjetiva y demás son otros. A mi me interesa que pueda resolver problemas siguiendo una secuencia lógica de pasos.

Y sí, el debate puede que canse, pero hay que darlo igual que con los negacionistas del cambio climático, porque sino, la sociedad penasará que aquí no pasa nada y no hay que tomar ninguna medida todo es un bluf inventado por un departamento de márqueting.

Mientrastanto, te recomiendo que mires lo que dice Bernie Sanders, a lo mejor aprendes algo: youtu.be/qR1ykKzYp6c?si=dqQg3itOFOKGBbnZ
#75 Si, viene a decir que si. Que es un algoritmo que determina el siguiente patron más probable.

O sea que dice que SI es un algoritmo

Tambien dice que aunque le podemos llamar "razonar" a lo que hace, no es ni equiparable ni comparable al razonamiento humano.

Vamos, lo mismito que dices tú..xD
#99, en tu preocupación por defender desesperadamente la existencia del alma, pierdes el foco. Que me da igual si el proceso es consciente o no, o funciona igual o diferente a como lo hace en el ser humano. Yo tengo mis propias hipótesis que casan bastante con el pensamiento materialista que los marxistas defendemos desde hace siglos.

Pero más allá de esto, lo que nos importa para determinar si razona o no, es si puede seguir una secuencia deductiva de pasos para llegar a una conclusión. ¿Hace…   » ver todo el comentario
#20 Entonces no habrá ganador
#20 la luna era un objetivo fisico real, AGI es un palabro indefinido
Pago Claude, ChatGPT y Gemini y:

- ChatGPT 5.1 es mejor para chats "habituales", hacerle preguntas y demás
- Claude Opus 4.5 es mejor para programación
- Gemini 3 Pro es un mix de ambas, pero no supera ninguna de las dos en sus "puntos fuertes". Pero está evolucionando mucho más rápido que ChatGPT
no jodas, justo antes de la paga de navidad?
Yo uso abacus de pago. Me permite elegir entre varias IAs a la hora de formular la pregunta
Y cada vez va peor ChatGPT.
#39 es la percepción que tengo. He cancelación subscripció este mismo mes, probaré Gemini a ver que tal.
#0
Estoy a punto de votar sensacionalista, aporta pocos datos, y los pocos que da son en favor de google. Dice los usuarios activos de google, pero no dice pagan por el servicio.
Esto parce un anuncio pagado por google.
He discutido de esto con mi marido. El precier Gémini pq es mas directa contestando y según el más exacta. Yo prefiero gpt de pago porque me da la impresión de que si estás buscando algo a ciegas entiende mejor la idea, aunque toque repreguntar. Gémini me parece más carácter autista.
#14 Comparto. Gemini ni si quiera logra comprender qué pregunta uno.
#26 Ninguno "comprende" nada, pero a mí Gemini me va al grano y suele dar en el clavo, también en las recomendaciones extra que me da sin haberlas pedido
Yo solo pago por Suno y a lo mejor paso próximamente pero con las versiones gratuitas de todas me llega de sobra.
Pues yo uso las dos y de pago y para según que cosas sigo prefiriendo a chatgpt, anoche sin ir mas lejos les pedí que me dijeran un método para descargar y recuperar de waybackmachine un blog que tuve hace años y con chatgpt llegué a buen puerto. Con gemini no consigo trabajar como si fuera un compañero con conocimientos, gemini me sigue resultando un buscador espectacular.
Es una pena, la verdad que chat gpt es la mejor IA digan lo que digan de las otras, al menos a nivel conversacional, te pones a hablarle y mantiene muchisimo la coherencia. Tengo Gemini Pro, que dicen ahora que es la mejor, y a los 4 o 5 mensajes intercambiados se le va la puta pinza y pierde el hilo.
Google hace todo lo que hace OpenAI, y más, con infraestructura propia, otras patas de negocio que lo financian sin problemas y con la facilidad de integrarlo verticalmente en productos que ya usan millones de personas y empresas. El moat de OpenAI es nulo, puro goodwill que se va terminando inevitablemente a medida que va pasando la euforia.
Y perplexity? Tienes la mayoría de los modelos de referencia. Mis opciones a día de hoy son 1 perplexity y 2 gemini, sobre todo por la integración con sus servicios. Pero no me mola tener todos los huevos en el mismo cesto.
#43 Yo también uso perplexity de pago con la promoción de Movistar de 1 año gratis e intentaré ir consiguiendo años gratis de diferentes maneras de momento. Estoy muy contento, tanto por el acceso a los diferentes modelos (ahora uso gemini 3 Pro integrado un perplexity) como por su navegador Comet.
«12

menéame