edición general
171 meneos
578 clics
El cofundador de OpenAI, Andrej Karpathy, dice que pasará una década antes de que los agentes de IA realmente funcionen [EN]

El cofundador de OpenAI, Andrej Karpathy, dice que pasará una década antes de que los agentes de IA realmente funcionen [EN]

"Carecen de inteligencia, no son lo suficientemente multimodales, no pueden usar computadoras ni nada de eso". "No tienen aprendizaje continuo. No puedes simplemente decirles algo y lo recordarán. Tienen deficiencias cognitivas y simplemente no funciona". Además, la desventaja de construir el tipo de agentes que hacen que los humanos sean inútiles, dijo, es que los humanos entonces son inútiles y la "basura" de la IA, el contenido de baja calidad generado por la IA, se vuelve omnipresente.

| etiquetas: ia , andrej karpathy , agentes , década
Comentarios destacados:                  
#5 Yo no podria pronosticar ni que hara nuevo la ia mañana, pronosticar a una decada , me parece entre aventurado y absurdo.
Porque con datos hace diez años solo podria soñar lo que esta pasando ahora para bien o para mal.
Y cuando las limitaciones no son digamos de imposibilidad sino de limite de energia o de procesamiento , con financiacion casi infinita.
No se. Solo hay que ver la evolucion diaria. Es absurdo que haya una evolucion diaria , que saquen modelos nuevos que mejoran cada semana.
Una decada es una eternidad.
Aparte el articulo es de octubre, despues de octubre ha salido nested

www.infobae.com/tecno/2025/11/24/como-nested-learning-de-google-acerca
Yo no podria pronosticar ni que hara nuevo la ia mañana, pronosticar a una decada , me parece entre aventurado y absurdo.
Porque con datos hace diez años solo podria soñar lo que esta pasando ahora para bien o para mal.
Y cuando las limitaciones no son digamos de imposibilidad sino de limite de energia o de procesamiento , con financiacion casi infinita.
No se. Solo hay que ver la evolucion diaria. Es absurdo que haya una evolucion diaria , que saquen modelos nuevos que mejoran cada semana.
Una decada es una eternidad.
Aparte el articulo es de octubre, despues de octubre ha salido nested

www.infobae.com/tecno/2025/11/24/como-nested-learning-de-google-acerca
#5, no pasa nada, podemos reajustar nuestras predicciones cuando nos de la gana y no hay que rectificar nada. Hay gente que pronostica que los LLM han tocado techo desde la primera versión de chatGPT y ahí los ves, diciendo que ahora sí, han tocado techo.
#36 la cuestión es, cuanto cuesta subir un poco mas ese techo.
#44 A veces simplemente es imposible subirlo y hay que empezar de cero con otro enfoque. Y lo digo por experiencia, bastante experiencia.

Pero aquí todo el mundo tiene bola de cristal y lo ve muy claro.
#47 solo hay que ver el gasto de GPU, energia... inversiones millonarias para sacar modelos que son un poquito mejores....
#44, de momento no hay señales de estancamiento y que la curva haya entrado en una fase logarítmica de rendimientos decrecientes sino todo lo contrario.
#53 No hay señales.... rendimiento decreciente, cada vez mas caro conseguir menos, limite y coste computacional y energetico, información para entrenamiento finita, escalado que no solucióna alucinaciones o memoria, empresas quemando dinero sin saber de donde sacar el retorno.

Alguna señal de fatiga ya hay.
#59, lo siento mucho pero lo que acabas de escribir es mentira. Repito, no es algo opinable, no es algo debatible, no es algo que admita discusión alguna. Todas las métricas de todos los benchmarks dicen lo mismo, se está superando las mejores puntuaciones, con un precio por token infinitamente menor.

En la gráfica que te muestro están los resultados del benchmark de referencia ARC-AGI-2 (en todos los benchmarks el resultado que vas a ver es muy parecido). El eje horizontal representa el coste…  media   » ver todo el comentario
#61 Superan los benchmarks porque entrenan los modelos en los benchmarks. Pero la relevancia de esos benchmarks es infinitesimal.
#63, si supieras como está diseñado ARC AGI 2 no habrías dicho esto. Parte del dataset es privado y es la organización la que se encarga de probarlo internamente y publicar los resultados.

En todo caso yo tengo inifinidad de datos que corroboran que no hemos entrado en rendimientos decrecientes. ¿Tienes tú alguno que sí?
#64 Ya sé que parte del dataset es privado, pero es similar. Son ejercicios similares. Es como si creas un benchmark de ajedrez, aunque haya una parte privada, solo estás testando la capacidad para el ajedrez.
#65, a algo nos tenemos que atender, hay infinidad de benchmarks y todos indican lo mismo. Además la variable del coste de cómputo es inapelable, a bajado respecto a los modelos del año pasado. A no ser que afirmes que Gemini 3 es peor que o1 y esto explica el menor coste computacional, lo cual sería columpiarse un rato, es imposible defender que se está escalando en coste. Lo que discutimos no es algo opinable, lo vuelvo a repetir, afirmar questo es ir directamente en contra de la evidencia.  media
#61 el aumento de rendimiento es decreciente respecto al coste de entrenamiento.... no mezcles conceptos.
#67, de dónde sacas que el coste de entrenamiento ha sido más caro? Tienes datos para afirmar esto? Que el coste de inferencia que sale en las tablas sea más bajo indica que el modelo en sí debe ser más pequeño o con una arquitectura que lo hace mucho más eficiente y por lo tanto más barato de entrenar a no ser que la mejora sea únicamente por haberlo dejado iterar más. Lo que pasa es que esto no suele ocurrir con las redes neuronales, que llegadas a un punto, la mejora se estanca. Esto las big…   » ver todo el comentario
#69 pues nada...

La relación coste-rendimiento en el entrenamiento de Modelos Grandes de Lenguaje (LLM) muestra que el rendimiento del modelo generalmente mejora a medida que aumenta el tamaño y el coste de entrenamiento, pero esta mejora sigue una curva de rendimientos decrecientes. No existe una única "gráfica" universal, sino una tendencia general y un punto de equilibrio óptimo que las empresas buscan.

Rendimientos Decrecientes: La curva de rendimiento frente al coste no es…   » ver todo el comentario
#77, estás comparando modelos razonadores con modelos que no lo son lo cual por su naturaleza a la forma de entrenar es un poco sesgado. Por eso lo interesante sería comparar la primera hornada de modelos razonadores con los actuales, de lo cual no hay datos, pero sí sabemos el precio por token en inferencia y es mucho más bajo lo cual es un claro indicativo de que son mucho más eficientes. Lo que sí ha sido público es DeepkSeek, que confirma esta tendencia.

Cuando entras en una fase de estancamiento debido a los rendimientos decrecientes no ves mejoras de más del 100% en un año.
#79 si mejorar el 100% te ha costado un 1000% mas ya estas en un modelo decreciente.
#81, otra vez, de dónde sacas esto? Los datos de entrenamiento de los modelos razonadores privados no se conocen. Si comparas el grado de mejora respecto a GPT-4 que es con quien estás comparando supuestos costes es superior al 1000% en los benchmarks más complicados.

Lo único que tenemos público es DeepSeek y demostró que se puede entrenar modelos de frontera con un coste irrisorio.
#83 da igual lo que te diga por lo que veo... asi que nada el coste será cada vez menor, funcionara todo mejor y mas rápido y mañana hasta entenderan lo que escriben.
#86, ya estamos con las filosofadas. Me da igual el debate sobre si los LLM se enteran, piensan o son inteligentes porque esto dependerá de cómo definamos que es cada cosa. Para mí este es un debate estéril. A mí lo que me importa es lo que pueden hacer bien y lo que no, entender el problema desde una óptica ingenieril, no filosófica y lograr que si cuando le paso A y el modelo me responda B, lo haga correctamente. Lo demás os lo dejo para los de uno u otro bando.
#69 y para ser mas exactos, ya existen estudios que indican que aumentar el tiempo o potencia de computo en la inferencia no solo no mejora si no que resulta en peores resultados, por lo que no se considera un camino escalable.
#78, la mejora no está en escalar el tiempo de razonamiento, sino en mejores formas de entrenar a los modelos y mejores arquitecturas. No es fuerza bruta, es trabajo de ingenieros y los resultados son los que son. Estamos debatiendo sobre algo que no es opinable, los modelos no se han estancado, han mejorado mucho este último trimestre del año, no hay ningún techo y no he parado de mostrar evidencia. Por el otro lado no he encontrado ninguna que refute que tanto Gemini, como Opus no hayan dado un gran salto y sí la hay de todo lo contrario.
#80 los nuevos modelos han costado mucho mas que los anteriores, puedes encontrar estimaciones por todas partes. Los modelos mejoran, pero cada vez menos por mas inversión. No me lo he inventado yo..... Mejoraran mas... seguro, pero cada vez a un coste mayor en computación. Mejorar hardware y tecnicas ayudará...
#82, DeepSeek se entrenó con 5 millones de dólares. ¿Recuerdas el cataquismo que provocó en bolsa? Si miras la gráfica GPT-4.5 no llega ni al 1% en ARC-AGI-2, esto es una mejora de mas del 3000% por parte de de Gemini 3 con unos costes de inferencia menores.

Y déjame decirte una cosa que quizás no sepas. Aunque lo más espectacular sean los costes de entrenamiento, el cuello de botella de verdad y donde las empresas de IA están dilapidando la mayor cantidad de dinero es en inferencia. Una inferencia que a la vista está, ha mejorado en costes.

Pero allá tú, agarrate a datos sin contrastar que no casan con nada de lo publicado para validar tu tesis.  media
#85 la industria tiende a modelos mas pequeños que den rendimiento para tareas especificas. Los modelos grandes tienen un rendimiento decreciente y cuesta cada vez mas entrenarlos.... Los datos son finitos y caros, la energia tambien, lo mismo que el hardware. La previsión es que los modelos sean cada vez mas caros, no mas baratos... Si tu has leido otra previsión pues bien para ti. Yo todo lo que veo es que la tendencia es aumento de coste exponencial....
#90, no hay ningún dato publicado que haga pensar eso que dices. Lo que hay publicado es justo lo contrario. Los modelos funcionan mejor a menor coste.

Es más, hace menos de una semana se ha presentado Gemini 3 Flash, una versión hiper-reducida de Gemini 3 y ha demostrado que la pérdida de rendimiento en comparación a su mayor modelo es mucho menor que la que había en generaciones anteriores de modelos. Los ingenieros están logrando que los modelos sean cada vez más eficientes en relación coste-rendimiento.
#91 que el coste esta en el entrenamiento..... y la tendencia es reducir modelos porque hacerlos crecer mas no es sostenible en el mundo de del retorno economico.....
#85 y uno de los principales problemas es la concentración, ya que solo las mas grandes tecnologicas se pueden permitir subirse al carro, porque el coste no para de subir... la inferencia mejora, pero eso no mejora la calidad de los resultados. Entrenar el siguiente modelo es donde los costes crecen. Es verdad que no son datos públicos, pero si un problema conocido.
#36 Han tocado techo porque ha elegido un camino evolutivo imposible de sostener. Chatgpt es una mierda comparado con otras soluciones open source. El problema, para empezar, es que ya no sé enfocan en la mejora , sino en vender una mejoria.
#74, en qué evidencia científica te basas para afirmar lo que afirmas?  media
#5 OpenAI estaba entrenando bots "IA" con DOTA 2 en 2016 haciendo cosas que dejaban flipando a los jugadores profesionales. Sabían muy bien lo que querían conseguir y la información de la que disponen no tiene nada que ver con la que divulgan. Por supuesto que nosotros no podemos pronosticar nada.
#52 Lo mismo que esta haciendo google con sima2 y no man sky
Coño, parece que describe a todo aquel ser que es de derechas. Lo clava el cabrón :-P
#1 No es cierto que todos los que son de izquierdas sean subnormales. Yo mismo soy de izquierdas y no soy subnormal. Pero joder...
#3 Bien, creo que eres rojo. Pero tendrás que demostrarlo. Pero te aviso, soy muy estricto.

Pero no, no eres de izquierdas y por ende igual sí eres idiota. Digo por ende, no me mal interpretes.
#4 La gente que no piensa como tu es idiota. Eres una bellísima persona sin duda.
#8 Bueno, visto así así igual llevas razón. Pero que me insultes llamándome bello, eso te lo guardaré hasta el final de los tiempos.
#9 El troll de izquierda que insulta a sus camaradas de clase social. Será tu estigma hasta el fin de los tiempos.
#8 Son cabezas donde sólo cabe una idea, máximo.
#24 habla de una sola idea el loro que no para de repetir "bajar impuestos, eliminar estado, cargarse contrato social" como panacea del éxito económico.

Ah si, y cubazuela del ETA
#72 ¿Va por mi? En tal caso te has confundido.
#94 Pues perdón y compenso negativo.
#8 Es mucha mas que simplemente "no piensa como tu" . De hecho, el problema es que no piensan. La traición de Trump debería haber provocado una revolución provocando un cambio de rumbo absoluto de la derecha actual, pero no, "es tan burdo que seguimos con ello" que dijo aquel...
#3 Ah? ¿No sabes expresarte?
#1 ¿Te das cuenta que acabas de insultar al 50% de la gente con la que te relacionas solo por su forma de pensar? ¿ no crees que igual deberías mirarte tu intolerancia a la gente que piensa distinto a ti?
#6 No, que cojones me voy a dar cuenta. Yo querría insultar al cien por cien :-D
#7 Te das cuenta de que son personas ¿no? que comen, beben, cagan...curran como tu. No está bien que una persona que se considera de izquierda insulte al conjunto de los trabajadores.
#10 Otra cosa igual, personas personas, no sé. Los nazis también lo eran :-P
#11 Son proletarios y trabajadores como tu. Ten conciencia de clase, es lo que marca el partido. Te debes a la dictadura del proletariado y a la disciplina del partido.
#13
Te debes a la dictadura del proletariado y a la disciplina del partido.
Describes a los votantes de derechas fielmente. xD
#20 En realidad es una de las bases de cualquier partido comunista.
#25 xD Te tienes que reír, nunca has militado en un partido comunista ni sabes lo que es "jaula de grillos".
Lo de siempre, tenemos a Abascal controlando su partido con mano de hierro ( denunciado por ex-militantes del partido) peroooo ... la culpa es de los "putos rojos".
#73 Tio, es.wikipedia.org/wiki/Dictadura_del_proletariado / pcielcomunista.org/attachments/article/37/ORGANIZACIÓN Y DISCIPLINA C
Es que no hay que preguntarle ni a la IA, que es buscar en google. No digo que la culpa sea de los rojos, es que lo que he puesto son dos características base de los partidos comunistas.
#98 Ostias. Toca césped e interactua con gente de verdad. Lo necesitas.

Ya me joderia ser un gordo friki sin vida intentando aleccionar al resto sobre la vida buscando lo que es la vida en Google.
#13 ¿Podrías explicarnos que es para tí la dictadura del proletariado?
#29 No, no podrá.
#58 Me esperaba una respuesta tipo "Stalin"
#29 Pero si es que no tengo que explicaros nada, que esto se estudia en el instituto y es historia general es que está en wikipedia: es.wikipedia.org/wiki/Dictadura_del_proletariado
Que para mi no tiene que ser nada, no es una opinión mía. Es uno de los objetivos de los movimientos de izquierda. Lo que no es ni medio normal es que un currela se crea superior a otro y se ponga a insultar a otro currela porque piensa distinto.
#6

Algo típico del fascio es su persona relación con las matemáticas y su tendencia a inventarse números.
#17 Qué inventarse números elpais.com/espana/elecciones/generales/ si tenemos en cuenta que los partidos nacionalistas son de derechas por definición ya que la izquierda es internacionalista, más del 50% de los votantes votaron a la derecha.
#26

A más de un poxtarra le va a dar un pasmo si ,eres en el mismo saco al PNV y a POX. xD
#6 De momento, trabajamos media hora más al día gracias a los millones de trabajadores que han votado a las derechas.

Sí, podemos llamarles gilipollas. Y son un peligro, pues "su manera de pensar" tiene consecuencias negativas para el resto de la sociedad,
#6 cada uno es libre de tener sus ideas. Pero si votas contra tus intereses... pues no eres muy listo. Luego vienen los lloros y los leopardos comecaras.
#30 Son trabajadores que tienen una opinión igual que tu y que yo. Y no hay que faltarles al respeto, tienen sus razones para pensar como piensan igual que nosotros tenemos las nuestras y la explicación a por qué piensan distinto no puede ser: son tontos. No perdamos la capacidad de estar sentados hablando y tomando un café con una persona que piensa distinto a nosotros.
#6 Ser regre no es una forma de pensar. Es una forma de no pensar.
#62 Son trabajadores que tienen una opinión igual que tu y que yo. Y no hay que faltarles al respeto, tienen sus razones para pensar como piensan igual que nosotros tenemos las nuestras. No perdamos la capacidad de estar sentados hablando y tomando un café con una persona que piensa distinto a nosotros.
#1 qué cansinos sois :calzador: conozco gente de los bandos que son igual de "inteligentes" que tienen lo justo para pasar el día, no te sientas muy superior.
#32 hasta un reloj averiado acierta dos veces al día.
Algunas de estas predicciones sobre IA van a quedar tan bien como la famosa "640 K de RAM debería ser suficiente para cualquiera" de Bill Gates.
#28 Ahora tengo la duda de si sabes o no que Bill Gates nunca dijo esa frase.
#33 Gates cuando lo ha negado ha hecho énfasis en que nunca hubiera dicho que una cantidad de RAM es suficiente para siempre , cosa que en la supuesta frase no se dice. Esto me hace sospechar que o lo dijo refiriéndose a en ese momento y se pilló los dedos o que sus enemigos le malinterpretaron maliciosamente. Como no hay grabación del hecho nunca sabremos la verdad.
#38 de su web  media
#39, pues cierto, fue fundador. Aunque salió en 2017, antes incluso de que apareciese el "Attention is all you need".
Mierda de artículo para variar, ojalá lo hubiera hecho la IA, estaría mejor. Falacias/Problemas varios:
-. Argumento de autoridad: Porque Karpathy lo dice.
-. Datos cuestionables: El artículo cita a Quintin Au, diciendo que hay "20% de error por acción" sin fuente, metodología ni contexto. Estadística inventada o malinterpretada.
-. Falsa dicotomía: Presenta como si sólo hubiera dos opciones: agentes totalmente autónomos o colaboración humano-IA, ignorando un espectro de posibilidades.
No entiendo como esta noticia se puede entenderse como un jarro de agua fría al desarrollo de la IA. Suponiendo que tenga razón, que en 10 años tengamos agentes 100% autónomos es una revolución que dejaría patas arriba nuestra sociedad tal y como la conocemos. 2015 fue hace 10 años. ¿Estamos normalizando que en 10 años una IA podrá hacer perfectamente sin ninguna supervisión lo que la mayoría de personas hacen hoy en su trabajo frente al ordenador, diciendo que no hay para tanto? ¿Estamos locos o qué?
#40 mucha razón. Pero también acojona.
Encima la carrera competitiva que a nivel gubernamental están teniendo EEUU y China le va echar más gasolina al fuego.

Burbuja estaría bien, cuando es dinero privado y finito. No cuando es estatal, sin final y con burócratas tomando decisiones.
#40 Lo veo más como ser optimista sobre el futuro de la IA. A inicios del 2025, se pensaba que la IA reemplazaría a los programadores por el boom del vibe coding, que el futuro era ser “arquitecto”. A mediados, que la IA era como un junior dev. En estos días, lo de reemplazar a un junior dev se considera una estupidez, y ya mucha gente hasta ha dejado de usar la IA como asistente.
#54 ¿Quién ha dejado de usar la IA en desarrollo, exactamente? ¿Lo dices por experiencia? ¿Puedes poner ejemplos?
Es que no corresponde en absoluto a mi experiencia, y creo estar bastante bien informado.
#88 No IA, sino el asistente de autocompletado, por ejemplo el del Visual Studio Code.
Cómo se nota quién tiene un trabajo estable que no depende de inversores y habla de lo que sabe.

Qué diferencia con todos aquellos que hablan a los medios de comunicación cuando realmente le hablan a los inversores haciendo predicciones absurdas para pedirles luego dinero.

Cualquiera que haya hecho o trabajado con algún modelo, simple o complicado que sea, sabe que lo está clavando

Nada raro, coño, viendo quién es. A Indurain le vas a enseñar s ir en bici.

La década, por cierto, es el mínimo y siendo optimistas
Yo ya cada vez que leo IA me acuerdo de esta genialidad de tweet.

x.com/i/status/1999124665801880032
#35 Muy bueno, precisamente Copilot es lo que han puesto donde trabajo, y es una mierda.
El no se equivoca la verdad yo creo que tiene razón, también creo que la gente le va a malinterpretar empezando por el que ha escrito el titular.

Una cosa es pensar que un agente pueda trabajar independientemente supliendo el 100% del trabajo de un trabajador correctamente y otra completamente diferente es decir que no funcionan correctamente.

No funcionan aun tan bien como el sector quisiera o cono sabemos que llegará un momento que puedan funcionar y el calculá que puede que sean 10 años el tiempo que nos lleve a que eso ocurra.
#23 Exacto, creo que el escenario del que habla es el de agentes completamente independientes. El problema es que ya hoy día unos pocos humanos utilizando hábilmente la IA pueden cargarse muchísimos puestos de trabajo de bajo perfil.
O sea que Deepseek en 2 o 3, entendido
#19 bueno de los que están disponibles en youtube probablemente
En verdad os digo... Que sus vayáis a tomar por culo. Bueno, no fue así técnicamente, pero ese era el espíritu, como cuando se legisla :roll:
Han pasado ya casi tres años de que en tres meses no habrá desarrolladores.
#45 no hay mes en el que algún gurú de la IA no lo diga, incluido aquí en menéame.
Dentro de 20 años seguiremos a solo 6 meses de que todos los programadores se vayan al paro, esta vez si que si.
#57 hasta he visto gurus recomendado no aprender programación...

La IA va a programar por nosotros y nadie va a entender lo que hace.... ¿ Que puede salir mal??

Ademas que una IA actual se entrena con codigo creado por humanos... es incapaz de innovar o crear conceptos nuevos.

Mucho cine y mucho humo es lo que hay.
#60 pues vaya fenómenos. Se ha pasado al querer que se enseñe programación en las escuelas a que ahora ya nadie aprenda...
Coño, por fin alguien que lo pilla y se sincera.
#16 no es que lo pille. Es que este tío fundó openAI. Tiene los mejores cursos sobre LLM que puedes encontrar

www.youtube.com/watch?v=7xTGNNLPyMI&t=7567

Dejó la empresa porque ya no investigaban sino que se centraron en vender humo (como el resto) es profesor en Stanford si mal no recuerdo.
#18 Se quién es... lo de que son los mejores cursos daría para discusión. Pero hay que reconocerle que al menos no vende milongas.
#18, no, Andrej Karpathy no fundó OpenAI,. Estuvo un breve período entre un año después de su fundación antes de irse a Tesla y luego regresó durante unos meses. Ilya Sutskever tuvo un papel mucho más activo, tanto en la fundación de OpenAI como en el posterior desarrollo de chatGPT.

Coincido en lo de los cursos sobre LLM's.
Yo veo a muchos deseando despedir a gente y meter a IA en su lugar, y parece que no entienden que la imagen que va a dar de la compañia no es de "wow.. que tecnologico" sino de "compañía barata".

La mayoría de gente que llama a un servicio NO quiere hablar con una máquina. Sea IA, sea contestador para dejar mensajes, o sea lo que sea.
#42 Es que si echas a la gente y la suplanta "una IA" (me repatea el término), no voy a usar tus servicios, para eso ya "hablo" yo con una IA directamente.
#42 #43 cuando se entenderá que no es deseo. No es intencionalidad, maldad, malos contra buenos.

Es teoría de juegos. Es inevitable.

Yo tuve algunas entrevistas de trabajo, unas con Ia. Y la verdad la experiencia fue muchísimo mejor con la IA que con el 99% de las entrevistas humanas que he tenido
#42 el problema será cuando no sepas diferenciar si es una máquina o no
#46 Para eso a un falta una temporada.. aunque es exponencial lo que estamos viviendo, igual esa temporada es más breve de lo que parece.
Tiene que bajar las expectativas de la AI todos los mierdes de marketing, luego seguira su camino.

Siempre que sale algo nuevo, lo mismo.
el contenido de baja calidad generado por la IA

Se dice "slop".
Comienza a pincharse la burbuja.
«12

menéame