"Carecen de inteligencia, no son lo suficientemente multimodales, no pueden usar computadoras ni nada de eso". "No tienen aprendizaje continuo. No puedes simplemente decirles algo y lo recordarán. Tienen deficiencias cognitivas y simplemente no funciona". Además, la desventaja de construir el tipo de agentes que hacen que los humanos sean inútiles, dijo, es que los humanos entonces son inútiles y la "basura" de la IA, el contenido de baja calidad generado por la IA, se vuelve omnipresente.
|
etiquetas: ia , andrej karpathy , agentes , década
Porque con datos hace diez años solo podria soñar lo que esta pasando ahora para bien o para mal.
Y cuando las limitaciones no son digamos de imposibilidad sino de limite de energia o de procesamiento , con financiacion casi infinita.
No se. Solo hay que ver la evolucion diaria. Es absurdo que haya una evolucion diaria , que saquen modelos nuevos que mejoran cada semana.
Una decada es una eternidad.
Aparte el articulo es de octubre, despues de octubre ha salido nested
www.infobae.com/tecno/2025/11/24/como-nested-learning-de-google-acerca
Porque con datos hace diez años solo podria soñar lo que esta pasando ahora para bien o para mal.
Y cuando las limitaciones no son digamos de imposibilidad sino de limite de energia o de procesamiento , con financiacion casi infinita.
No se. Solo hay que ver la evolucion diaria. Es absurdo que haya una evolucion diaria , que saquen modelos nuevos que mejoran cada semana.
Una decada es una eternidad.
Aparte el articulo es de octubre, despues de octubre ha salido nested
www.infobae.com/tecno/2025/11/24/como-nested-learning-de-google-acerca
Pero aquí todo el mundo tiene bola de cristal y lo ve muy claro.
Alguna señal de fatiga ya hay.
En la gráfica que te muestro están los resultados del benchmark de referencia ARC-AGI-2 (en todos los benchmarks el resultado que vas a ver es muy parecido). El eje horizontal representa el coste…
En todo caso yo tengo inifinidad de datos que corroboran que no hemos entrado en rendimientos decrecientes. ¿Tienes tú alguno que sí?
La relación coste-rendimiento en el entrenamiento de Modelos Grandes de Lenguaje (LLM) muestra que el rendimiento del modelo generalmente mejora a medida que aumenta el tamaño y el coste de entrenamiento, pero esta mejora sigue una curva de rendimientos decrecientes. No existe una única "gráfica" universal, sino una tendencia general y un punto de equilibrio óptimo que las empresas buscan.
Rendimientos Decrecientes: La curva de rendimiento frente al coste no es… » ver todo el comentario
Cuando entras en una fase de estancamiento debido a los rendimientos decrecientes no ves mejoras de más del 100% en un año.
Lo único que tenemos público es DeepSeek y demostró que se puede entrenar modelos de frontera con un coste irrisorio.
Y déjame decirte una cosa que quizás no sepas. Aunque lo más espectacular sean los costes de entrenamiento, el cuello de botella de verdad y donde las empresas de IA están dilapidando la mayor cantidad de dinero es en inferencia. Una inferencia que a la vista está, ha mejorado en costes.
Pero allá tú, agarrate a datos sin contrastar que no casan con nada de lo publicado para validar tu tesis.
Es más, hace menos de una semana se ha presentado Gemini 3 Flash, una versión hiper-reducida de Gemini 3 y ha demostrado que la pérdida de rendimiento en comparación a su mayor modelo es mucho menor que la que había en generaciones anteriores de modelos. Los ingenieros están logrando que los modelos sean cada vez más eficientes en relación coste-rendimiento.
Pero no, no eres de izquierdas y por ende igual sí eres idiota. Digo por ende, no me mal interpretes.
Ah si, y cubazuela del ETA
Te debes
a la dictadura del proletariado ya la disciplina del partido.Describes a los votantes de derechas fielmente.
Lo de siempre, tenemos a Abascal controlando su partido con mano de hierro ( denunciado por ex-militantes del partido) peroooo ... la culpa es de los "putos rojos".
Es que no hay que preguntarle ni a la IA, que es buscar en google. No digo que la culpa sea de los rojos, es que lo que he puesto son dos características base de los partidos comunistas.
Ya me joderia ser un gordo friki sin vida intentando aleccionar al resto sobre la vida buscando lo que es la vida en Google.
Que para mi no tiene que ser nada, no es una opinión mía. Es uno de los objetivos de los movimientos de izquierda. Lo que no es ni medio normal es que un currela se crea superior a otro y se ponga a insultar a otro currela porque piensa distinto.
Algo típico del fascio es su persona relación con las matemáticas y su tendencia a inventarse números.
A más de un poxtarra le va a dar un pasmo si ,eres en el mismo saco al PNV y a POX.
Sí, podemos llamarles gilipollas. Y son un peligro, pues "su manera de pensar" tiene consecuencias negativas para el resto de la sociedad,
-. Argumento de autoridad: Porque Karpathy lo dice.
-. Datos cuestionables: El artículo cita a Quintin Au, diciendo que hay "20% de error por acción" sin fuente, metodología ni contexto. Estadística inventada o malinterpretada.
-. Falsa dicotomía: Presenta como si sólo hubiera dos opciones: agentes totalmente autónomos o colaboración humano-IA, ignorando un espectro de posibilidades.
Encima la carrera competitiva que a nivel gubernamental están teniendo EEUU y China le va echar más gasolina al fuego.
Burbuja estaría bien, cuando es dinero privado y finito. No cuando es estatal, sin final y con burócratas tomando decisiones.
Es que no corresponde en absoluto a mi experiencia, y creo estar bastante bien informado.
Qué diferencia con todos aquellos que hablan a los medios de comunicación cuando realmente le hablan a los inversores haciendo predicciones absurdas para pedirles luego dinero.
Cualquiera que haya hecho o trabajado con algún modelo, simple o complicado que sea, sabe que lo está clavando
Nada raro, coño, viendo quién es. A Indurain le vas a enseñar s ir en bici.
La década, por cierto, es el mínimo y siendo optimistas
x.com/i/status/1999124665801880032
Una cosa es pensar que un agente pueda trabajar independientemente supliendo el 100% del trabajo de un trabajador correctamente y otra completamente diferente es decir que no funcionan correctamente.
No funcionan aun tan bien como el sector quisiera o cono sabemos que llegará un momento que puedan funcionar y el calculá que puede que sean 10 años el tiempo que nos lleve a que eso ocurra.
Dentro de 20 años seguiremos a solo 6 meses de que todos los programadores se vayan al paro, esta vez si que si.
La IA va a programar por nosotros y nadie va a entender lo que hace.... ¿ Que puede salir mal??
Ademas que una IA actual se entrena con codigo creado por humanos... es incapaz de innovar o crear conceptos nuevos.
Mucho cine y mucho humo es lo que hay.
www.youtube.com/watch?v=7xTGNNLPyMI&t=7567
Dejó la empresa porque ya no investigaban sino que se centraron en vender humo (como el resto) es profesor en Stanford si mal no recuerdo.
Coincido en lo de los cursos sobre LLM's.
La mayoría de gente que llama a un servicio NO quiere hablar con una máquina. Sea IA, sea contestador para dejar mensajes, o sea lo que sea.
Es teoría de juegos. Es inevitable.
Yo tuve algunas entrevistas de trabajo, unas con Ia. Y la verdad la experiencia fue muchísimo mejor con la IA que con el 99% de las entrevistas humanas que he tenido
Siempre que sale algo nuevo, lo mismo.
Se dice "slop".