edición general
ACEC

ACEC

En menéame desde noviembre de 2007

11,92 Karma
477 Ranking
46 Enviadas
8 Publicadas
5.273 Comentarios
0 Notas

OpenAI tiene cinco años para convertir 13 000 millones de dólares en 1 billón de dólares [EN] [93]

  1. #1 Respuesta de ChatGPT:
    Tu cálculo parte de una premisa incorrecta y, por tanto, llega a conclusiones absurdas.

    Los 13.000 millones no vienen “de suscripciones a 20 dólares”.
    Ese es solo un componente. El grueso del resto viene de contratos empresariales, que pagan muchísimo más que un usuario individual. Un acuerdo corporativo puede costar desde cientos de miles hasta decenas de millones al año. Reducir todo el ingreso a “20 dólares × n usuarios” es simplemente falso.

    No hace falta multiplicar usuarios hasta llenar el planeta.
    El modelo empresarial no escala solo por número de suscriptores, sino por:
    – ventas B2B,
    – licencias,
    – uso en plataformas de terceros,
    – acuerdos con gobiernos,
    – servicios de computación.
    Ese es el verdadero motor del ingreso, no la aritmética de “20×usuarios”.

    El gasto de 1 billón no es para “no estar en números rojos” ahora, sino una inversión a diez años en infraestructura global. Es como confundir la construcción de toda la red eléctrica con la factura de la luz de tu casa.

    La conclusión de tu cálculo (“subir a 1.540 $ o tener 4.100 millones de usuarios”) no describe la realidad económica de OpenAI. Describe únicamente que has asumido un modelo que no existe.

    – Si quisieras modelarlo con rigor: mira el ARPU (ingreso medio por usuario) real, segmentado entre consumidor final y cliente empresarial. El ARPU empresarial suele ser orders of magnitude mayor que el de un suscriptor GO.
    – Las grandes partidas de gasto que justifican la cifra del “billón” son CAPEX en centros de datos, acuerdos energéticos y amortización de hardware —gastos que se pagan en años, no con el saldo del mes corriente.
    – OpenAI también puede recurrir a financiación (deuda o equity), asociaciones estratégicas y modelos de reparto de ingresos para escalar sin exigir que millones de particulares paguen precios imposibles.
    – Titulares sensacionalistas venden clicks; la economía real tiene contratos, plazos y contabilidades. Confundir ambos mundos es la fuente de la “ecuación mágica” que has visto.

    Que un titular ruidoso no borre la realidad: extrapolaciones simplistas no sustituyen a un balance y a contratos firmados.
  1. #1 La idea no es que la gente de a pie paguen, sino que las empresas paguen para así tener que contratar menos gente de a pie.
  1. #1 A ver, que las IA no estan hecha para preguntar 4 chorradas por 5 euros, las empresas pagaran 1500 y más si eso les permite despedir a 500 personas.
  1. #73 Desde luego que nadie lo sabe con seguridad, pero decir que hay un 1% de alcanzarlo es otra fumada, s
    La probabilidad será mas que el mas pesimista y menos que el mas optimista, como todos los cambios tecnológicos grandes.
  1. #1 Se ha comprometido a gastar 1000.000 millones en diez años, y gana 13.000 millones al año, no? Entonces si todo siguiera igual ganáis 130.000 millones en 10 años, y tiene que lograr multiplicar esa cifra por 8. La cuota sería, entonces, de 160$, no de 1540, no? ¿O se ha comprometido, acaso, a hacer esa inversión cada año?
  1. #1 En realidad a lo que están apostando es a llegar ellos primero que nadie a la AGI (artificial general intelligence) y llevarse muuuucha pasta luego. El modelo de suscripción actual es solo para ir sacando algo mientras tanto. Si os interesa el tema esta la entrevista a Tristan Harris en diary of a ceo que lo explica bastante bien.
  1. #1 Publicidad. Meterán los resultados de la IA con publicidad. Tiempo al tiempo, como hicieron con Youtube, cuando empezaron aquello era insostenible y míralos hoy en día.

    "Hazme una imagen de un coche en medio de una calle peatonal"... será un Tesla y en el fondo saldrá un Starbucks con un letrero de Coca Cola y en la parada de autobús un letrero de ProtonVPN.
  1. #1 hay tambien una subscripcionde 200 usd...
  1. #10 No va a gastar todos los años el mismo dinero que gasta ahora, que está en plena fase de expansión.
  1. #1 Y estos son de los serios, imaginaros como les irá a los vende humos que son la mayoría.
  1. #1 El desastre desde mi punto de vista es precisamente que el 70% de los ingresos vengan precisamente de un producto como es ChatGPT. OpenAI a lo que aspira es a que su grueso de ingresos sea por el uso de sus modelos vía API, no por usuarios de un producto de chat (creo yo).
  1. #1 ¿Ya está en break even? Joder, sí que han sido rápidos. o_o Chatgpt salió hace dos días y no solo paga costes sino que mantiene las inversiones de la empresa. Bastante sorprendente.

    Como dice la noticia, no esperan alcanzar esa cifra con subscriptores.
  1. #1: Pues que no cuenten conmigo, si no liberan los modelos que usen material Creative Commons, yo los boicoteo.
  1. #1 En realidad la opción más probable es que no acaben invirtiendo el gritón de dólares al que "se han comprometido".
  1. #10 Parece que lo estén apostando todo a que van a conseguir reducir los costes de alguna manera, como ha hecho Deepseek.

    O, si queremos ver el vaso medio vacío, están inflando la burbuja ellos y Nvidia para hacer caja justo antes de que pete.

    ¿Nadie por aquí tendrá compradas acciones de Nvidia y OpenAI, verdad?

Teva, la empresa israelí acusada de hacer pruebas con presos palestinos a la que se enfrenta un médico andaluz [22]

OpenAI tiene cinco años para convertir 13 000 millones de dólares en 1 billón de dólares [EN] [93]

  1. #1 Sus fuentes de ingresos no son solo las suscripciones. Te has pegado un ratito haciendo unos cálculos que parten de una premisa errónea. OpenAI está cerrando acuerdos comerciales con miles de empresas alrededor del mundo para explotación de su tecnología.

¿Son los LLM un simple predictor estadístico de palabras? [337]

  1. #193 Por cierto, una IA jamás me haría una pregunta así. Como mucho podría solicitar clarificaciones al prompt....
  1. #193Una calculadora no resuelve un problema,
    Pues yo le digo que me diga la raiz cuadrada de 54237 y lo hace estupendamente....
    Si una LLM resuelve problemas, una calculadora también.

    resuelve un cálculo muy específico
    Lo específico que sea el problema es irrelevante. Resuelve los problemas para los que fué diseñado. Como las LLM.

    Es una herramienta muy limitada
    Voy a argumentar como suele hacer mucha gente en esta discusión.. "también hay personas muy limitadas"

    Al LLM le planteas el problema
    Como a la calculadora "resuelve este logaritmo".

    , que puede ser de una gran variedad de ámbitos
    Bueno, la calculadora también resuelve problemas en muchos ámbitos..... siempre que sean cálculos, claro.

    trata de encontrar la solución en base a su conocimiento.
    mmmm. NO.
    Error. La LLM no "trata" de hacer nada. Lleva a cabo su algoritmo y SIEMPRE te dará una solución. Y no tiene "conocimiento".

    Comprende conceptos al relacionarlos con conceptos similares
    mmmm. NO.
    Una LLM no "comprende" absolutamente nada. Te da el patrón más probable que le indica su algoritmo.

    Es capaz de inferir relaciones y resolver problemas para las que no fue específicamente entrenada
    Tu puedes tener esa sensación, pero la LLM simplemente ejecuta su algoritmo y obtiene su respuesta. Esté mas o menos entrenada.

    No sigue un algoritmo como tal,
    Pues claro que si. Por supuesto que sí. Sigue su algoritmo.
    ¿ De donde sacas que no lo hace ? Otra cosa es que tú no te des cuenta cual es realmente el algoritmo que está siguiendo, que no tiene absolutamente ninguna relación con el problema que TU estás resolviendo con la LLM.

    una vez que se pone a "pensar"
    No. La LLM no piensa. Ejecuta el algoritmo.

    no hay forma de hacer ingeniería inversa del proceso
    Y que?. Eso es por la complejidad en el resultado de la ejecución del algoritmo, no tiene nada de extraño ni de…   » ver todo el comentario
  1. #81 Una LLM no es má capaz de resolver problemas que una calculadora.

    El que resuelve el problema es el.que está usando la LLM.

    Y una LLM ni entiende ni comprende. Calcula siguiendo su algoritmo.

TVE cancela 'El condensador de fluzo': "Nos han comunicado que no habrá nueva temporada" [75]

  1. #33 Idem.

Tres años de ChatGPT: la máquina que no pudo quitarte el trabajo ahora va a por tus secretos [18]

  1. #4 si me pagas tu el clusters de GPUs encantado xD

Aunque lo nieguen los creyentes, Dios es una hipótesis que ha sido ya descartada [133]

  1. #15 Se puede demostrar que no hay ninguna evidencia de la existencia de un dios. Demostrar que no existe dios es demostrar que hay un prepucio inmaterial e invisible orbitando la tierra.

MALEMÁTICAS CCXCVII: un gráfico muy, muy poco manipulado [40]

  1. #26 ya si no se truncara el origen sería la otia

Detienen, juzgan y encarcelan a un panetone que parecía de chocolate y era de pasas [40]

  1. #16 Tenía que decirse y se dijo. Gracias! :clap:

menéame