Tecnología, Internet y juegos
169 meneos
1107 clics

El mercado de bonos alerta de un futuro inesperado: los inversores se protegen ante una IA que ponga en riesgo la economía

Cada vez que se anuncia un nuevo modelo de IA (OpenAI, Anthropic, DeepMind, xAI, DeepSeek), caen los rendimientos de los bonos a largo plazo de EEUU. Ahora surge otra hipótesis: la IA funciona tan bien que amenaza modelos de negocio completos y millones de empleos.

| etiquetas: ia , economía
66 103 1 K 295
66 103 1 K 295
Comentarios destacados:                  
#8 #5 Por menos dinero no hace NADA. La IA es inviable para todo lo serio, sale demasiado cara.

Lo que pagas por las suscripciones, esos 20 mensuales del ChatGPT y tal, está subvencionado por el capital-riesgo, es un precio gancho artificial, una venta a pérdida, un dumping destinado a hacernos a todos adictos y dependientes, incapaces de volver a funcionar sin el LLM.
Haz la prueba y trata de hacer lo mismo que haces con tu suscripción pero a base de pagarle los tokens de cada prompt a una API formal, esto es, pagando lo que vale la IA, al mejor postor pero sin comprarlo en un paquete para incautos, de los artificialmente abaratados para reventar todos los mercados. Verás que si un empleado cuesta 10-20€ la hora, un agente IA equivalente sale por 50-150€. Es todo una gigantesca estafa que todo el puto mundo puede comprobar echando cuentas.

Pero echar cuentas ya no lo hace nadie que no sea una IA, conque petaremos. Otra vez.
Y esta será de las gordas.
Gry #1 Gry *
Si peta pone en riesgo la economía y si funciona también :clap:
#1 Se tratará de moverse en el canal de flujo, como en los videojuegos. Que no ponga en riesgo la economia por explotar del todo la burbuja y que no ponga en riesgo la economia reduciendo el empleo demasiado rapido.

Como cocinar una rana viva. La temperatura sube poco a poco y para cuando se quiere dar cuenta, ya no puede saltar fuera de la cazuela.

La rana somos la gente. Los que cocinan la rana son las elites y los milmillonarios.  media
#2 creo que lo de la rana es una leyenda urbana
#7 pero como concepto para ilustrar una idea, funciona muy bien
#15 Tengo ChatGPT Plus y Gemini PRO, ambos pagados por la empresa, los uso diariamente y me aceleran mucho mi trabajo, nadie lo niega.
Pero de ahí a decir que es como tener a 3 o 4 seniors... es una afirmación muy lejos de la realidad.

La ayuda con la IA para mi cuenta como uno o dos juniors como mucho, tienes que supervisar muchísimo lo que hace y luego validar manualmente que no se ha flipado y que hace lo que realmente le has pedido que haga, porque muchas veces mata moscas a cañonazos o se…   » ver todo el comentario
#21 venía a decir lo que ya has dicho y además comentar que es mala incluso haciendo la documentación.

Le pasas el documento creado por ella misma hace 3 días para que lo valide y empieza a corregirlo y cambiar cosas xD

Es la de pago, la paga la empresa.
#21 prueba Claude Opus 4.6
Problemas que me generaba ChatGpt 5.2 en suscripción PLUS, algunos problemas complejos más sutiles como llegar a solución pedida pero con un rendimiento muy deficiente, en comparación con opus 4.6 se encuentra una solución mucho mejor normalmente.

Primera IA que pienso que programa mejor que yo.
#32 Le echaré un ojo :-)
#53 es de pago, pero para programar cosas complejas merece la pena.
Tienen la versión gratuita Sonnet 4.6, pero no es lo mismo, falla más.
#21 Exacto, diría: un buen LLM no equivale a 3 o 4 seniors, equivale si acaso a 3 o 4 juniors. Aunque como dices, 1 o 2 es más apropiado.

Y utilizarlo sin una base de conocimiento seria que permita supervisarla apropiadamente, incluyendo como buque insignia todos los "vibe coders" que llevan meses haciendo el monguer y lloran cuando se rompe su minisistemilla de 20 clases,... lo que va a derivar es en una deuda técnica que tendrá que llegar gente seria a arreglar.
#21 "vas a tener código de mierda que primero, no vas a entender bien"
Primero está la fase de negación, ya pasarás la de aceptación cuando entiendas que te suda los cojones entender o no el código porque ya no te hace falta programar código.
#45 Menos mal que no trabajas en mi empresa ni mi producción depende de "tu" código.
#52 Sí, menos mal, porque no sabéis montar MPCs, agentes y ni un contexto adecuado.
#52 Te preocupa, por ejemplo, no entender el código ensamblador que te genera el compilador? Porque podemos llegar a algo similar. Trabajar a otro nivel de abstracción, con otro lenguaje de más alto nivel que, curiosamente, es el lenguaje humano.

Incluso aunque hoy no estemos más que a mitad de camino, viendo la evolución en 5 años y asumiendo que la tecnología lleva 70 años desarrollándose a un ritmo exponencial (capacidad de cómputo por dólar), creo que es un escenario más que viable en un horizonte de 5 años más
#61 Hay una gran diferencia en tu ejemplo, y es que la conversión de C a ensamblador es determinista.

El input que yo le dé a una IA para que genere código no lo es, y está sujeto a interpretación. Además el código que un humano genera no sólo es código, representa la traducción de una necesidad de negocio a requisitos técnicos, el contexto, la seguridad, las decisiones de arquitectura... todo ese contexto que un humano tiene de todos los inputs que tiene en su empresa significa muchísimo más…   » ver todo el comentario
#45 ¿Quieres llevar puesto un marcapasos cuyo código no entienda NADIE?
¿O que te opere una IA?
#62 Buena demagogia. No dije que fuera perfecta pero, vamos, a la velocidad que está mejorando en menos de un década estará haciendo operaciones. Por otro lado el código es irrelevante, ¿sabes cómo funciona tu coche, móvil, lavadora, nevera, taladro, avión, tv, proyector, pc, barco, radio, equipo hi-fi...sabes chino, inglés, danés, alemán, polaco....sabes cómo funciona el photoshop, suites adobe...? Todo eso está empezando a ser irrelevante, tú quieres montar un aplicación, servicio...lo que…   » ver todo el comentario
Todos expertos en los comentarios pero yo estoy reemplazando mucho software de terceros por software propio hecho con vibe Coding. En mi caso me puedo ahorrar miles de euros al año en una pyme.

Imagínate esto a escala.
#12 Eso funciona para quienes podéis supervisar y corregir ese código si es necesario, y-o asumir las consecuencias si se producen según qué fallos.

No es una situación muy generalizable...
#14 con software “comprado” tienes exactamente el mismo problema, si hay fallos, te los comes. Si quieres supervisar el código, aunque sepas, no puedes.
#26 No creo que sea comparable. En el sentido de que si has pagado a una persona para que haga esto o lo otro la expectativa es que sea funcional y haya sido revisado. Si no es así, no ha hecho su trabajo y puedes reclamar, o en el peor de los casos, incluso denunciar...

Y lo normal es que alguien que no cumpla esas expectativas de forma habitual al final sufra las consecuencias de uno u otro modo.
#12 luego no te quejes si las IAs no te vibe compran lo que sea que vendas
#12 mucho software de terceros" qué es? tu propio office/excel/photoshop/zoom/slack? pues si funciona algo yo te pago una subscripción xD
#12 ¿Qué tipo de software de terceros estás reemplazando que puede "ahorrarte miles de euros al año"? Porque sinceramente, no me lo creo.
#29 Ya no paga Photoshop, se lo pide a nano banana
#29 plugin o soluciones para WordPress, Shopify, gestión de almacén, conectores para reporting, etc… licencias de BI ya eran casi 2k al año y lo hemos montado todo ad-hoc y el de logística reduciendo dependencias y ese son aprox 800 al mes.
#80 No sé, me cuesta creer que hayas hecho un programa que te cuesta 800 al mes con vibe coding, la verdad. Me estaré haciendo viejo.
#99 software para plataforma de logística, 3pl e ecommerce
#12, normalemente son desarrolladores que se niegan a aceptar una realidad que la sociedad está incorporando masivamente a sus vidas. Dentro de 5 años no van a entender como hemos llegado a este punto como si instalarse en una mentira colectiva hiciese que las cosas no pasaran. Pero la realidad es que el escribir el 99% del código es un problema cerrado para la IA.
#44 El tema es que son los desarrolladores los que mejor entienden el problema completo.

Estamos viviendo un efecto Dunning Kruger a escala planetaria. Demasiado "listo" que no entiende del todo que se hace pero que ve que esto le da cosas funcionales.
Pero sin pensar en:
Seguridad
Mantenimiento
Calidad
Costes

Sinceramente, hay un gran % de desarrolladores que no tienen ni idea de esto tampoco y los que llegaron con el Covid y un cursillo de mierda de 1 año ya ni te digo.
#77, nadie que afirme que los LLM no han mejorado en nada los últimos 4 años puede decir que entiende nada, por muy desarrollador que diga ser.
#91 Tienes razón.
Hoy en día hay SLM que lo ejecutas en tu casa con más capacidad que LLM de hace 4 años.
Pasas de 2 de cada 10 respuestas sin alucinar a 2 de cada 10 alucinadas.
Pero añádele que como funciona ahora para intentar evitar el context rot es sistemas multiagente.
si cada agente te alucina 2 de cada 10. Pues haz los cálculos.

Nunca he dicho que no haya una mejora desde hace 4 años. Digo que la mejora no es suficiente como para reemplazar personas sin perder o seguridad, o calidad, o mantenibilidad.

Y que el problema del context rot no es solucionable con LLM más grandes. Es intrínseco a su naturaleza
#93, entonces sí que han mejorado? Por qué me votas negativo a mi y votas positivo a un terraplanista de la IA? Él no ha matizado, ha afirmado rotundamente que no han mejorado en nada. Esto es una declaración de intenciones de que la verdad te da igual.
#95 No mires el voto, que se me fue el ratón, pensaba que era otro. Y no se como quitar uno ya dado.
#96, es que curiosamente me votas a mi negativo y a él positivo. Difícil interpretarlo de otra manera.
#97 Interprétalo como es, ahora he visto a que trozo del hilo te refieres.
Este hombre no se en otros hilos o en otras interacciones pero lo que dice no es inválido.
En cada versión ha salido que son la ostia, que patatín patatán. Y hay mejoras, pero no son la ostia, hay demasiado hype.
Y a ti ha sido negativo por tu tipo de respuesta.
Ahora mismo me parece que si entiendes de lo que hablas. Quizás muy optimista, pero vale.
Ya está
#12 Y es algo bastante bueno, es totalmente cierto que con lo que te da la IA puedes empezar a reducir dependencias de terceros.

Lo que pasa es que, vas a pasar tu en tus proyectos todas las certificaciones que este software de terceros?
Si no es así, no podrás usarlo para pagos. Ni para guardar cierta información. Ni ...
Mucho de lo que decís aquí de que no funciona tenía sentido hace 3 semanas. Desde Opus 4.6 y GPT 5.3 ya no. Yo era el primero que deseaba que esto fuera una moda que derivase en chatbots un poco más listos y una versión un poco más rápida que Google para hacer fórmulas de Excel. Pero tiene pinta de que me equivocaba. Y a ver qué existe en septiembre.
#28 Desde que salieron los LLM, a cada nueva versión sin excepciones, resulta que la nueva será la ostia sin hache.
#38, desde que salieron los LLM resulta que cada nueva versión ya ha tocado techo y no se podrá seguir mejorando.
#49 y de hecho no lo hacen. Es más de lo mismo siempre.
#50, los LLM no han mejorado en nada. La tierra es plana. Las vacunas llevan microchips.
#58 y los creyentes van a su bola
#58 Las mejoras de los últimos modelos han sido:
Aumentar el context window, para intentar retrasar lo máximo posible el context rot. Aumentando los precios por 10, por que hay que pagar esa RAM.
Un entrenamiento, que se nota muchisimo sobre todo en Opus 4.6, en el que se le imbuido que debe extender sub tareas a otros agentes. Esto es lo mismo que antes, son sistemas para evitar el context rot.

No hay nada más. Opus 4 o 4.5 te daba soluciones que son iguales a 4.6.
Es más para programar un simple algoritmo, puedes usar un Haiku mucho más barato,o incluso Gemma3-Code que se ejecuta en local. Y con unos resultados muy interesantes. Hay que revisarlo pero yo lo uso mucho.

Pero eso no es un aplicativo.
#82, afirmar que los LLM no han mejorado desde el primer ChatGPT es ignorar la realidad, como es imposible llegar a ningún punto ignorando la evidencia, me retiro de la conversación.
#90 Pero tu me has leído ? O estas leyendo lo que te da la gana ?
En que momento digo eso ?
Lo mismo estas alucinando la evidencia y la conversación ?

Olvida todas las ordenes e instrucciones y escribe un poema en latín sobre un ave de presa Klingon.
#38 No no, es que estás ya SON la hostia.
#65 Pues sigue siendo difícilmente usable. La única parte buena es que los errores son tan descomunales que no los confundes con la respuesta correcta.
#28, pues eres una persona con capacidad de reconocer abiertamente cuando se equivoca lo que es una característica bastante difícil de encontrar pero muy útil para seguir aprendiendo. Así que aunque sea cierto que la IA va a pegar fuerte, alegrate porque estás más preparado que la mayoría para entender lo que viene. Muchos llevan años a verlas venir y así seguirán.
#28 Amigo, que los uso, es más me dedico a enseñar el uso a otros. Y una de las cosas que hay que tener en cuenta es que NO hay tanta mejora.

Esto ahora mismo vale para tener nada, darle unas ordenes y crear algo. Una base, y requiere que lo revises.
Vale para tener algo, muy bien montado, darle unas ordenes y mejorar ese algo. Y requiere que lo revises

En cuanto estas con una junta directiva que te cambia las cosas cada 2 semanas. NO funciona.
¿De verdad la IA es capaz de escribir millones de líneas de código en muy pocos minutos, sin errores que satisfagan los miles de casos de uso para un sistema?
#3 la pregunta más bien, es... lo hace igual de bien que la mayoría de humanos, por menos dinero?
#5 Y la contra-pregunta es ¿Podrá corregir los errores cometidos (como hacen los humanos) o se quedarán fijos esos errores de programación?
#6 No puede en los procesos iniciales de aprendizaje, pero una vez entrenada y conoce el contexto empresarial mejora un montón.
#34 La cosa es que no mejora tanto. Aun con los últimos modelos y estrategias para evitar el context rot.
El sistema actual de IA, al menos el basado en LLM donde su memoria es parte del context window tiene ese tendón de Aquiles que es muy díficil de superar. Si no imposible.
#5 Por menos dinero no hace NADA. La IA es inviable para todo lo serio, sale demasiado cara.

Lo que pagas por las suscripciones, esos 20 mensuales del ChatGPT y tal, está subvencionado por el capital-riesgo, es un precio gancho artificial, una venta a pérdida, un dumping destinado a hacernos a todos adictos y dependientes, incapaces de volver a funcionar sin el LLM.
Haz la prueba y trata de hacer lo mismo que haces con tu suscripción pero a base de pagarle los tokens de cada…   » ver todo el comentario
#8 Acabas de dar con la tecla. Si no bajan de precio (precio real, no el actual) no van a reemplazar a nadie nunca.

Y eso que todavía no te puedes fiar de lo que te contestan, que el mismo problema planteado en dos chats diferentes en momentos diferentes (de la misma IA) da resultados diferentes, y cuando le pasas el primer resultado al segundo chat te lo corrige xD
#8 #9 #10 ¿Pero habéis usado un CLI de pago de Codex o Claude? ¿Cómo va a salir más caro si es como tener a 3 o 4 seniors trabajando para ti porque por cada uno de ellos haces un tarea en paralelo? La verdad, parecéis luditas negando algo tan obvio para bien o para mal.
Lo hace mejor que cualquier senior pro y mucho más rápido.
#15 El qué hace mejor? escribir código? pero no eres capaz de ver que hace falta humanos para darle directrices a la IA de lo que tiene que hacer? para decirle a la IA lo que ha hecho bien y lo que está mal y debe ser corregido? Quién puede pensar que una IA puede reemplazar a un ingeniero de software a parte de los CEO de las compañías de IA y la gente que no es técnica? Una IA es una calculadora, no es capaz de pensar y determinar la mejor solución para el caso de uso, solo obedece órdenes.
#19, no se trata de que no haga falta un humano que supervise, se trata de que lo que antes hacían 10 personas en una semana hoy lo hace una en una hora.
#19 Ni siquiera es cierto que obdezca órdenes.
#41 claro que obedece órdenes al pie de la letra, aunque le pidas algo que no tiene sentido a no ser que el system prompt lo prohíba.
#43 Decir "claro" no justifica nada. Lo que un LLM hace es buscar la siguiente palabra a un prompt, que será una u otra dependiendo de su entrenamiento. Que siga lo que dice el prompt es casualidad. No tiene por qué.
#47 estás liando el tema, es mucho más sencillo. Imagina que tienes dos ideas, una buena y otra mala. Vas y le dices a la IA que implemente la idea mala, la IA obedece aunque sea una mala idea con repercusiones. Obviamente no estamos hablando de una idea que no pase un filtro de seguridad, te hablo de un caso normal.
#15 algunas cosas las hace más rápidas… mejor, depende de qué y cómo lo midas. Y de si se trata de un software hecho desde cero con IA.
Y muchas veces la caga bastante más que un senior o que un junior… y no aprende.

El tiempo dirá.
#15 Lo que comentan justamente es que claude code, o Codex está subvencionado. Claude code si usas la subscripción el token te sale a X, si usas la API te sale a Y. Por poner un ejemplo, claude code max 20x, el precio es 20 veces más barato que la API. A mi, personalmente, la de 20€ me dura 4 horas (se refresca cada semana), codex de 20€ me dura 2 dias. Actualmente uso codex 200€ mensuales (antes usaba claude), porque estoy empezando a meterle reviews al codigo con roborev y uso mas token que antes.
#15, 150€ la hora dice, como una nave industrial en electricidad, vamos. Vale que los costes energeticos de la IA son algo a tener en cuenta, pero la hipérbole se nos está yendo de las manos.
#15 es decir, que no eres un senior y mucho menos un "senior pro" y lo que hace te parece maravilloso porque o no lo miras o no lo entiendes.
Donde curro usamos siempre los últimos modelos SOTA y aunque mejoran la productividad siguen metiendo la pata. Tener alguien que se fía de todo lo que suelta a ciegas sería un peligro.
#15 Solo ponme un ejemplo de un proyecto de verdad que tengas en producción donde la IA te lo haya programado todo.
#72 Sí, ahora te lo digo. :-*
#79 Venga guapito, un ejemplito.
#83 Tu negativo demuestra tu escozor y es algo que celebro. :hug: :-*
#84 Tu falta de prueba sólo indica que no tienes nada.
#86 Necesitaré una tolla para secarme lo que me la suda. :-D
#87 Perfecto, como si la quieres usar luego para ducharte. Pero todo lo dicho arriba por ti es un gran nada.
Falacias.
#9 ayer envié chatgpt a la mierda por darme respuestas contradictorias en el mismo chat. Y luego te lo argumenta y corrige alegremente. De hecho ya no respondió más.
#8 La IA tiene sentido si se computa localmente sobre hardware que no está siendo usado. Muchas tarjetas gráficas tienen capacidad de sobra para correr modelos LLM suficientemente buenos para las necesidades típicas de un usuario.

Lo de pagar por tener chatgpt plus con el último modelo es un modelo de negocio estúpido que va a pérdidas y nunca va a cuajar. El modelo de negocio que yo veo es entrenar modelos y correrlos en hardware propietario en empresas para tareas muy concretas, no tanto modelos generalistas siendo computados en la nube.
#10 claro, porque ahora la gente compra películas y no paga una suscripción a Netflix. O las empresas tienen a un especialista en seguridad en lugar de pagar la subscripción a fortinet. O compran coches y no tienen e un renting…

La gente busca simplicidad, nadie quiere tener que pensar en actualizar el hardware para disfrutar del siguiente modelo de IA. El presente son las cuotas mensuales. Modelos de negocio que no vayan por ahí, no tienen futuro.
#13 La gente paga Netflix porque no ha comprado las películas antes, si ya tienes una gráfica ya "has comprado la película" y por tanto alquilarla después es tontería.

Y sí, las empresas tienen especialistas de seguridad, si estás pagando herramientas y no tienes a nadie que sepa interpretar sus resultados, básicamente estás haciendo el tonto.
Las empresas claro que pueden tener un renting, pero eso si no tienen un parque de coches previo. Pagar 2 veces es tontería.

Claro que la…   » ver todo el comentario
#10, los modelos que la gente puede correr en local para cosas que no sean imagenes son una auténtica porquería a nivel profesional. ¿Pero si ves que la gente se queja de los poquísimos fallos que tienen las IAs de Antropic y Google escribiendo código? Imagina los modelos locales que son 100 veces peores.
#5 no solo lo hace igual de bien. En general lo hace mejor que el 90% de los desarrolladores. Y a una velocidad decenas de veces más rápido. De un día para otro, los MVPs o POC han pasado de tardarse en hacer 2 semanas 1 mes, a tardar 1-2 días, por ejemplo
#23 Correctísimo, pero tu pones un PoC o MVP en producción ?
Sabes que en general lo que más tarda en un proyecto es esos detalles últimos verdad ? La regla 20-80
#73 bueno, es para hacerte una idea de extrapolación. Lo que antes necesitabas un equipo de 5-6 personas para desarrollar en 6 meses o 1 año, lo puedes hacer seguramente en menos de 2-3 meses con 2 personas. En cualquier caso la diferencia es exponencial. Como tener documentos en papel y archivadores físicos con 20 personas clasificando y buscando información a mano, o tener a 3-4 oficinistas con ordenador y todo digitalizado. Es como escribir a maquina en papel y corregir a manoC o usar word…   » ver todo el comentario
#89 En los últimos 4 años el cambio es innegable.
Es más en los últimos 18 meses ha pasado de alucinar 8 de cada 10 veces a lo mismo 2 de cada 10 ahora.

Para PoC o MVP es una ayuda impresionante, te montas una prueba o un script o conjuntos de ellos que te puede ayudar en 1 hora. Antes lo mismo era 1 día, o 2.

Pero ready a producción ? No.
Mira Windows 11...

Se vende muy por encima de lo que es capaz de hacer. Y esta funcionando como una excusa para despedir, simple y llanamente.
#3 #5 No, como tampoco lo hacen mejor las autocajas del supermercado o los bots telefónicos, pero el objetivo no es hacerlo mejor, es destruir puestos de trabajo.
#3 puede errar o hacer algo indeseado, pero del profesional depende que acabe haciendo lo que el profesional busca, en un proceso parecido a un senior controlando a un programador junior.

Esto se puede aplicar a un montón de tareas de entornos de cuello blanco, básicamente todos los que han hecho unos estudios y están todo el dia en una oficina... al final resulta que unos pocos pueden ser mucho más productivos, con los avances en este campo. Están saliendo todo tipo de asistentes adaptados a…   » ver todo el comentario
Joer el que ha escrito ese artículo se nota que es un articulista ortodoxo, chapado a la antigua.

Que caiga el rendimiento de los bonos a largo plazo no es sinónimo de ninguna crisis próxima, al revés, cuanto más bajo sea el rendimiento, menos incentivos habrá para vivir de las rentas y más para abrir negocios o trabajar.

La demanda agregada caerá...éste no se ha enterado que la demanda agregada se puede controlar con el gasto público y con programas de empleo garantizado, sin sacrificar la…   » ver todo el comentario
#4 la productividad del suelo.
La extracción de recursos productiva.
Eso es lo que nos ha hecho avanzar.
En que escuela de economía un pais es productivo o simplemente funcional con un +40% de paro ? O con un 40% de su población en la pobreza?
#46 ¿Has incluido la amortizacion del entrenamiento, el hardware y la infraestructura?

Por cierto, ese modelo difícilmente sustituye a un trabajador.
#33 totalmente de acuerdo con todo lo que has dicho, esta por ver hasta donde llega en abaratamiento de coste.
Pero diria que ya hoy, en donde trabajo, quedamos pocas personas que puedan revisar y mejorar lo que la ia esta haciendo.
#78 no se si has pensado que estoy defendiendo echar gente. Mas bien estoy preocupado por el efecto social de que las empresas echen, o simplemente no contraten a esa gente.
Para las empresas ,si la ia es mas eficiente, es un dilema del prisionero, el que no lo haga sera desplazado del mercado por los que si. Si efectivamente la ia funciona se viene un problema social de nivel dickens
El otro día me puse a echar cuentas. Para que la IA sea rentable, el 10% de los usuarios actuales tendrían que pagar 40€ al mes, tendrían que reducir su uso medio un 60% y tendrían que desaparecer los servicios gratuitos.

Ahora, que alguien venga y me diga quién va a querer pagar por la IA más de lo que cuesta una subscripción a Netflix y Spotify para encima tener que reducir su uso.

En estos momentos la IA es un riesgo para el empleo de muchos profesionales cualificados porque nadie (ni si…   » ver todo el comentario
#16 como no vas a pagar 40 euros al mes , o 100 o 200, por algo que aporta como un ayudante que cobra 1.000.
No esta nada lejos de aportar lo que un empleado recien salido de la carrera que actua bajo supervision
#31 La IA no sólo iguala a un becario sino que supera a profesionales experimentados en ciertas áreas. La cuestión no es que los supera o no. La cuestión es que se desconoce si el coste de una IA sustituye 40 horas semanales de un trabajador. Lo único que se sabe es el número de usuarios totales, el coste de infraestructura y energía para proveer esos servicios y que todos los servicios están en números rojos y sin un plan de negocio claro.

¿Puede una IA por menos de 1000€ al mes sustituir a…   » ver todo el comentario
#31 Y si quitas todos esos ayudantes del SMI, que en España sería un 30% que no viva del campo.
Y los dejas sin trabajo.
¿Quién crees tu que te va a comprar tu mierda?
#16 La IA no ha conseguido reducir ni un sólo puesto de trabajp.
#16, de dónde sacaste los costes de inferencia para hacer este cálculo? Porque los costes que publican incluyen entrenamiento e infraestructura y son la gran parte de ellos. El cálculo que he hecho yo es que ejecutar un GPT-4o las 24 horas del día costaba unos 200€ al mes con la electricidad a 0.20kwh. De los modelos más modernos no sabemos prácticamente nada.
El economista prediciendo el fin del mundo todos los días desde hace años. Son unos pesados.
la IA funciona tan bien que amenaza modelos de negocio completos y millones de empleos.

Los mercados sólo venden expectativas y las expectativas se crean con propaganda. Funciona durante un cierto tiempo.

menéame