Anthropic es una de las compañías líderes en desarrollo e innovación de modelos de lenguaje de inteligencia artificial. Y quisieron probar algo realista en el contexto en el que el CEO de la compañía no deja de hablar de sustitución de trabajadores por agentes: que Claude Sonnet 3.7 se encargara de gestionar una pequeña tienda de forma autónoma.
|
etiquetas: ia , direccion empresa , ruina
No digo nah y lo digo todo.
El propio proceso de entrenamiento tiene que estar bien hecho para no caer en posibles errores posteriormente ¿por qué? porque no razonan, sólo comparan la nueva entrada con lo almacenado y asocian lo más probable. Eso no es razonar, es ser una calculadora como la Casio o Texas Instruments del instituto pero "on steroids". Para razonar tienes que ser capaz de hacer operaciones matemáticas, y… » ver todo el comentario
Desde luego, si no hace lo que hace el cerebro va a ser difícil que esté razonando. Pero si ADEMÁS "sólo" es cuestión de hacer operaciones matemáticas muy rápido para dar por respuesta lo "más probable" no lo "más cierto", no está razonando.
Esta misma semana estaba en una reunión de trabajo en la que participaba uno de los jefazos de sistemas. Cuando la cosa… » ver todo el comentario
No tiene por qué. Puede haber muchas otras formas posibles de razonar. El cerebro tiene una, pero no necesariamente la única.
Lo que está claro es que un LLM no implementa ninguna.
Ya sé que, sibre el papel, podrá haber más maneras. El problema está en que si no imita el cerebro humano ¿vamos a ser capaces de inventar tan pronto una máquina que razone de otra manera?
Posible, sí, complicado, muchísimo.
www.ncbi.nlm.nih.gov/books/NBK11053/
Cosita número dos, en ningún momento he dicho que crea en el alma y si algo de lo que he dicho te ha parecido que lo decía y, más aún, como si creer en ello "dominase" mi perspectiva, te lo resumo fácil: te equivocas. Desconozco si existe el alma o cualquier otra entidad análoga, ergo mi razonamiento no va por ahí.
Cosita número tres: nuestro modo de funcionar puedes modelizarlo todo lo sencillo que… » ver todo el comentario
Se trata, como dices, de un problema de complejidad. El cerebro humano no se ha modelizado aún, y no se ha alcabnzado ese grado de complejidad. Pero sólo es cuestión de eso. Las IA no pueden llevar a cabo de manera fiable más que unas pocas tareas. Esas tareas irán aumentando, y quizás no se llegue nunca a alcanzar la modelizaciñón completa de un cerebro humano, pero ciertamente se incrementará el bnúmero de tareas que resuelvan de manera fiable.
Incrementalmente.
eso creo.
El nivel de complejidad es tremendamente distinto. Eso es verdad, pero no es toda la verdad. La mente humana hace cosas que los LLM no pueden hacer. No es que las hagan mucho menos, es que no las hacen y punto.
Yo no soy de los que esperan que puedan hacerlo todo. Se trata de qué parte pueden hacer.
Que aumente la potencia de cálculo no es que razone.
Lo mismo que dice Penrose. No lo veo justificado.
Por otro lado, un LLM de los de ahora, cualquiera de ellos, presenta un estado fijo, que no cambia. Reacciona a los prompts siempre de la misma manera, como una función. Lo que le llaman el "contexto" es un prompt más largo.
No recuerda nada de lo que haya hecho en su estado interno. Ese estado no se modifica al funcionar.
En fin, buenas noches
Lo de aprender de los errores… en los últimos dos años no lo he visto a menos que le diga en el prompt que haga x o y para evitar los errores que ha cometido días anteriores.
Acto seguido algún genio de Internet: un saludo a los que opinan que los humanos razonan.
Pero falacia al fin y al cabo.
A no ser que uses dos varas de medir, concluir que las IAs no razonan porque una titular dice que una empresa ha quebrado por culpa de una IA, te lleva inmediatamente a concluir que los humanos tampoco razonan.
Y lo sabes. Porque en caso contrario, si no lo sabes, tu absurdez es aún mayor.
Y lo sabes.
Las críticas a la segunda vez han venido en la forma de "Hemos probado a decirselo de muchas formas distintas y hemos encontrado una donde el resultado es correcto".
Vale, pero eso no es útil en la práctica.
Si quieres saber más sobre él y por qué las conclusiones del mismo no son correctas, tienes este vídeo: youtu.be/aMHAhA1v9Zc?si=zJNq9KceID5LeokP
Por otro lado, el paper que sí ha sido aceptado en Nature es este: www.nature.com/articles/s42256-025-01049-z
El artículo que enlazas no tiene nada que ver.
Sarcasmo esperable porque no razonan.
No se trata de pensamiento mágico, sino de resultados finales.
No es que hayan logrado pensar, sino que es otra solución distinta.
Cuando se acabe y el cliente final tenga que abonar el total de la factura veremos sines rentable.
Lo que no quita, que puedan estar todavia verdes para ese tema.
En cuanto a tu pregunta original, pues la cosa seria poner 100 maquinas de vending en difdrentes empresas con IAs, y compararlas con la media del resto de maquinas de vending, a ver cual les va mejor.
Te has leído el meneo? La IA vendió a perdidas, se cargo el sistema de pagos, y encargó piezas de metal para venderlas. Que media quieres hacer???
La quiebra del negocio, ¿eh? Vaya #clickbait.
Salu3
Salu3
No se las capacidades de la IA y los LLM en este contexto, pero tampoco me extrañaría que esta experiencia estuviese diseñada un poco regular.
El sentido común no es capacidad de proceso sino conocimientos. Es una base de datos de cosas que se deben saber.
Que yo sepa, nadie ha logrado recopilar una base de datos de sentido común.
Los tipos de errores que ha dado me parece que van a ser difíciles de solucionar, especialmente por las alucinaciones. Las alucinaciones se pueden reducir, pero ello implica menor creatividad y flexibilidad.
Jajajajaja, humanos, jajajajaja.
Eso ya lo predijeron en futurama!!!!
Aún no estaba preparada
Etc.....
Que no digo que no, pero, a medio largo plazo, la IA no está preparada para todo, por mas que muchos vendan que si
Basta con que esté preparada para una serie creciente de tareas, hasta que encuentre su techo.
El experimento me parece muy bueno para ir mejorando los modelos e ir avanzado.
Es un experimento. Banca rota.- supongo que nadie compraba los productos. No se puede hacer milagros con productos malos.