edición general
154 meneos
1909 clics
Una empresa puso a una de las mejores IA a dirigir un negocio para que ganara dinero. Lo arruinó en un mes

Una empresa puso a una de las mejores IA a dirigir un negocio para que ganara dinero. Lo arruinó en un mes

Anthropic es una de las compañías líderes en desarrollo e innovación de modelos de lenguaje de inteligencia artificial. Y quisieron probar algo realista en el contexto en el que el CEO de la compañía no deja de hablar de sustitución de trabajadores por agentes: que Claude Sonnet 3.7 se encargara de gestionar una pequeña tienda de forma autónoma.

| etiquetas: ia , direccion empresa , ruina
pues en Madrid las quieren poner a dirigir el sistema educativo...

No digo nah y lo digo todo. {0x1f64a}
#2 Hombre, estamos hablando de cambiar una IA por una persona, para sustituir a algunos políticos te vale con una piedra y es bastante más barato.
#16 Y mejora los resultados con la piedra.
#16 un dado con "si" "no" "esperar a mañana"... y lo haría mejor que muchos políticos por el simple hecho de que no habría maldad en las decisiones....
#16 no digas piedra cuando puedes decir bolso.
#2 pero en ese caso es sustituir con una IA lo que ahora es un mono con una ballesta, no creo que se pueda empeorar, aunque solo diese la hora.
#2 Lo que demuestra que esa gente sabe lo que se hace, buscando el método más eficaz para arruinarla.
Un saludo a los que opinan que las IA razonan
#8 llámalo X pero si a partir de unos datos de entrada y unos conocimientos previos son capaces de decidir que hacer, como continuar, aprender de errores y éxitos... Eso se parece mucho a razonar.
#41 No lo es. Todo ese procedimiento se resume en hacer operaciones matemáticas muy rápido.

El propio proceso de entrenamiento tiene que estar bien hecho para no caer en posibles errores posteriormente ¿por qué? porque no razonan, sólo comparan la nueva entrada con lo almacenado y asocian lo más probable. Eso no es razonar, es ser una calculadora como la Casio o Texas Instruments del instituto pero "on steroids". Para razonar tienes que ser capaz de hacer operaciones matemáticas, y…   » ver todo el comentario
#45 lo de operaciones matemáticas es como decir que nosotros hacemos operaciones eléctricas con nuestras neuronas.
#47 Cuando seas capaz de modelizar fielmente lo que hacen las neuronas, cómo relacionan memoria con "operaciones" y te lo "presentan en mente", avísame para seguir jugando.
#48 luego ¿es una cuestión de fidelidad del modelo?
#51 Eres tú quien ha comparado lo que se hace con el silicio y lo que pasa dentro de un cerebro, no yo.

Desde luego, si no hace lo que hace el cerebro va a ser difícil que esté razonando. Pero si ADEMÁS "sólo" es cuestión de hacer operaciones matemáticas muy rápido para dar por respuesta lo "más probable" no lo "más cierto", no está razonando.

Esta misma semana estaba en una reunión de trabajo en la que participaba uno de los jefazos de sistemas. Cuando la cosa…   » ver todo el comentario
#56 vale. Ya me dirás la diferencia con un cerebro y tu definición de razonar.
#56 si no hace lo que hace el cerebro va a ser difícil que esté razonando

No tiene por qué. Puede haber muchas otras formas posibles de razonar. El cerebro tiene una, pero no necesariamente la única.

Lo que está claro es que un LLM no implementa ninguna.
#51 Sólo lo sería si se estuviera intentando copiar el funcionamiento del cerebro. No es el caso.
#79 no sabes de lo que hablas, no? Porque no das una
#86 Es que yo soy muy tonto. Pero a pesar de ello no se puede copiar algo que se desconoce por completo. Incluso siendo tonto.
#47 Aunque no tenga gran cosa que ver con lo que dices, las neuronas no funcionan con electricidad.
#85 Oh sí, qué horror. Todos los libros de neurología dicen eso, que es evidentemente imposible. Lo que sí que es cierto es que hay un potencial eléctrico en las sinapsis, pero eso no significa que tal cosa contenga información. Es demasiado offtopic para este hilo.
#45, a los que creéis en el alma os cuesta entender que nuestro proceso de razonamiento también se basa en operaciones matemáticas.
#62 Cosita número uno, a mí te me diriges en singular que yo sólo hablo por mí.

Cosita número dos, en ningún momento he dicho que crea en el alma y si algo de lo que he dicho te ha parecido que lo decía y, más aún, como si creer en ello "dominase" mi perspectiva, te lo resumo fácil: te equivocas. Desconozco si existe el alma o cualquier otra entidad análoga, ergo mi razonamiento no va por ahí.

Cosita número tres: nuestro modo de funcionar puedes modelizarlo todo lo sencillo que…   » ver todo el comentario
#64, yo también lo veía complicado, hace unos años, no por creer en algo más allá de lo material, sino porque creía que tendríamos que escalar mucho más en capacidad de cómputo. Pero la realidad me ha callado la boca. Los progresos que ha demostrado la IA no quedan más que rendirme y reconocer que vamos a muy buen ritmo para poder superar todas las capacidades de la mente humana en muy pocos años. En eso se basa el pensamiento científico, en aceptar la realidad cuando está se demuestra en experimentos y evaluaciones.
#64 Me apunto a tu tercer punto, si me permites:

Se trata, como dices, de un problema de complejidad. El cerebro humano no se ha modelizado aún, y no se ha alcabnzado ese grado de complejidad. Pero sólo es cuestión de eso. Las IA no pueden llevar a cabo de manera fiable más que unas pocas tareas. Esas tareas irán aumentando, y quizás no se llegue nunca a alcanzar la modelizaciñón completa de un cerebro humano, pero ciertamente se incrementará el bnúmero de tareas que resuelvan de manera fiable.

Incrementalmente.

eso creo.
#70 Intentar copiar el funcionamiento de un cerebro es una posible vía de progreso. No tiene porque ser la única. Nadie está yendo por ahí ahora mismo.

El nivel de complejidad es tremendamente distinto. Eso es verdad, pero no es toda la verdad. La mente humana hace cosas que los LLM no pueden hacer. No es que las hagan mucho menos, es que no las hacen y punto.
#84 Sí, se que hay varias vías de aproximación. Las redes neuronales sí que van en esa dirección, aunque no comparo el nivel de complejidad. Por supuesto que la mente humana hace cosas que las LLM no pueden hacer, pero hay otras cosas que sí pueden hacer. Y de eso hablamos.

Yo no soy de los que esperan que puedan hacerlo todo. Se trata de qué parte pueden hacer.
#93 Concretamente, un LLM no puede aprender de la experiencia. Esto tiene implicaciones, es decir que como consecuencia hay otras cosas que no podrá hacer.
#100 En eso creo que no estoy de acuerdo. Tal y como yo entiendo el actual proceso de desarrollo de la IA, su entrenamiento con datos y resultados se dirige precisamente a mejorr su rendimiento mediante el aprendizaje con resultados pasados. Eso e slo que yo entindo por aprender de la experiencia.
#64 Reducir un cerebro a una máquina de Turing lo veo complicado a día de hoy.

Lo mismo que dice Penrose. No lo veo justificado.
#62 Decir eso tan básico es como decir que se basa en procesar información. Sí, es cierto, pero es lo mismo que no decir nada.
#41 Un LLM no aprende nada una vez finalizado su entrenamiento.
#77 IA es mucho más que LLM y además igual que los cerebros siempre están entrenando. Siempre hay nuevos datos y resultados de las acciones realizadas.
#83 Si estás hablando del futuro o de la ciencia ficción, pues todo lo que quieras.

Por otro lado, un LLM de los de ahora, cualquiera de ellos, presenta un estado fijo, que no cambia. Reacciona a los prompts siempre de la misma manera, como una función. Lo que le llaman el "contexto" es un prompt más largo.

No recuerda nada de lo que haya hecho en su estado interno. Ese estado no se modifica al funcionar.
#94 perdona pero los LLM para empezar son estocásticos y además el modelo en sí puede ser ir variando en base a nuevas entradas y salidas. De estáticos, nada.

En fin, buenas noches
#8 Y otro a las personas que ¿razonando? decidieron que usar así una IA era una buena idea.
#42 Esos no me han intentado convencer de un imposible.
#8, una empresa dirigida por un humano quiebra.

Acto seguido algún genio de Internet: un saludo a los que opinan que los humanos razonan. :-D
#57 No estoy seguro de si lo que acabas de decir se corresponde exactamente con alguna falacia argumental ya conocida o simplemente es una variante.

Pero falacia al fin y al cabo.
#59, se llama reducción al absurdo y consiste en demostrar que un razonamiento no tiene sentido a partir de un ejemplo que lo lleva al absurdo.

A no ser que uses dos varas de medir, concluir que las IAs no razonan porque una titular dice que una empresa ha quebrado por culpa de una IA, te lleva inmediatamente a concluir que los humanos tampoco razonan.
#63 Sé lo que es la reducción al absurdo, pero en tu caso lo que has dicho es simplemente una absurdez en tamaño reducido. Partiendo de la premisa no puedes llevar razonamiento hacia la conclusión.

Y lo sabes. Porque en caso contrario, si no lo sabes, tu absurdez es aún mayor.

Y lo sabes.
#66, entonces explícame tú porque saludas en esta noticia a los que opinamos que las IAs razonan.
#75 Apple ha demostrado ya dos veces que no tienen ninguna capacidad de razonamiento.

Las críticas a la segunda vez han venido en la forma de "Hemos probado a decirselo de muchas formas distintas y hemos encontrado una donde el resultado es correcto".

Vale, pero eso no es útil en la práctica.
#91, Apple no ha demostrado nada. O acaso me puedes citar en qué publicación científica está aceptado este famoso paper?

Si quieres saber más sobre él y por qué las conclusiones del mismo no son correctas, tienes este vídeo: youtu.be/aMHAhA1v9Zc?si=zJNq9KceID5LeokP

Por otro lado, el paper que sí ha sido aceptado en Nature es este: www.nature.com/articles/s42256-025-01049-z
#95 He escuchado los 10 primeros minutos de ese video y es una puta vergüenza. No puedo seguir.

El artículo que enlazas no tiene nada que ver.
Bueno, lo suyo serian 100 negocios y comprar con la media, un caso no hace estadistica.
Lo que no quita, que puedan estar todavia verdes para ese tema.
#4 Era una puta máquina de vending. Que estadistica ni que pollas?
#23 Me he confundido, pensaba respondias por otro comentario y te he clavado un negativo porque tu me lo has clavado a mi.
En cuanto a tu pregunta original, pues la cosa seria poner 100 maquinas de vending en difdrentes empresas con IAs, y compararlas con la media del resto de maquinas de vending, a ver cual les va mejor.
Hoy. Y dentro de un par de años?
#1 Igual. No existe ningún progreso en LLMs digno de mención desde que a OpenAI le funciono el oinvento de forma inesperada.
#10 Hola, aunque tu comentario me da esperanzas, no termino de creermelo. Si puedes argumentar y/o compartir links sería fantástico. Desde mi ignorancia.
#10 en España un tercio de las empresas no acaban su primer año, y otro tercio cierra antes del quinto año. Que una empresa cierre por estar dirigida por una IA no quiere que no pueda haber otras 2 que duren algo más. Eso sí, estamos muy lejos de que duren indefinidamente sin supervisión humana.
#33 No es eso, son las alucinaciones.
#10 ¿Hablamos de texto, de vídeo, de voces? ¿De forma generalizada?
#43 Ningún progreso en comprensión ni razonamiento.
#49 Las que juegan al ajedrez tampoco, pero nos ganan.

No se trata de pensamiento mágico, sino de resultados finales.
#69, no tengas la menor duda que cuando la IA nos dé las respuestas a las preguntas más profundas que nuestro intelecto puede llegar a comprender, no faltará quien diga: "sí, pero no razonan, solo son un complejo artefacto matemático".
#69 No es necesario pensar para jugar al ajedrez. Basta con calcular jugadas.
#76 Eso es precisamente lo que te estoy diciendo. Que no es necesario pensar para obtener los resultados del pensamiento.
#92 En algunos casos es así. Se puede jugar al ajedrez pensando o se puede jugar al ajedrez sin pensar, calculando jugadas. Las máquinas de jugar al ajedrez (que no pueden pensar) demuestran que hay otras formas posibles de generar buenas jugadas de ajedrez.

No es que hayan logrado pensar, sino que es otra solución distinta.
#99 Completamente de acuerdo. Pero coincidermos también en que el producto es el mismo, que es lo que nos preocupa a nivel social, o al menos es lo que me preocupa a mí. En realidad, no me importa tanto si la IA puede pensar como qué es lo que puede producir, ya sea con o sin pensamiento. ¿Puede diseñar una reacción química o un circuito eléctrico? ¿Puede generar código? ¿Puede calcular la estructura de un edificio? ¿Puede gestionar una red eléctrica? Digamos que mi acercamiento al problema es instrumental, más que metafísico.
#10, hay que ser un rato cuñado para decir esto.
#1 Es posible que en un par de años vaya bien pero hacer una IA mejor y mantenerla aumenta los costes. Seguramente no sea tan rentable como pudieran esperar las empresas.
#11 Incluso a las actuales cuesta mucho sacarles la rentabilidad, las actuales son todas en la nube porque el hardware para tener una en local es prohibitivo, y eso sin contar los recursos necesarios para entrenarla (sobre todo en tiempo), y las que son en la nube son demasiado genéricas.
#1 Arruinado en un mes. En un par de años la deuda hará quebrar también a los proveedores.
#1 las empresas de IA están quemando dinero a espuertas.

Cuando se acabe y el cliente final tenga que abonar el total de la factura veremos sines rentable.
#53 ya hay modelos que corren en local y van relativamente bien (como chatgpt de hace año y medio, por decir algo). Poder usarlas no será el problema, hay otros más difíciles.
#55 la IA en local son bastante limitadas en cuanto al número de tokens. Las interesantes son las que mueven los centros de datos.
Y así será como, sin pegar un solo tiro, paso a paso, y con mucha paciencia, la IA subyugará a la humanidad. El modelo Skynet está obsoleto incluso antes de nacer.
#7 Pues, mira, veo a Skynet y veo a Trump, Milei, Putin, Netanyahu, etc, y me cuesta menos entender los motivos de la máquina.
#15 Cierto, yo no reprocharía a la máquina decidiera tomar ese camino. Pero aquí entran en juego factores como la eficiencia, la relación gasto/benéfico, y esas cosas que siempre hay que tener en cuenta antes de iniciar una empresa.
La 'tienda' no era más que una pequeña máquina expendedora

La quiebra del negocio, ¿eh? Vaya #clickbait.

Salu3
#13 No deja de ser un caso muy realista. Tienes tu stock, tus proveedores, tu gama de productos... Como experimento me parece muy bueno.
#24 El problema no es el experimento, es el titular. A mi me enturbiar el artículo.

Salu3
Que Varsavsky @martinvars lo tenga en cuenta.
No se si habéis leído el artículo pero el punto de no retorno fue .. hacer caso a la “demanda” de sus clientes (no sé cómo interactuaban con la máquina) y hacer un pedido de .. cubos de wolframio, que no son baratos precisamente. La ruina llegó cuando estaba claro que no iba a poder venderlos.

No se las capacidades de la IA y los LLM en este contexto, pero tampoco me extrañaría que esta experiencia estuviese diseñada un poco regular.
#27 Vamos, que lo de que el cliente siempre tiene la razón revienta empresas :troll:
#27 Eso del tungsteno es de sentido común. Una máquina no tiene sentido común.

El sentido común no es capacidad de proceso sino conocimientos. Es una base de datos de cosas que se deben saber.

Que yo sepa, nadie ha logrado recopilar una base de datos de sentido común.
No me creo la conclusión de que falta poco. Entre otras cosas porque las sugerencias de mejora ya eran obvias antes del experimiento. Que hacer un entrenamiento específico para vencer a una IA que debe vender, la verdad, no creo que sea un aprendizaje de este experimiento.

Los tipos de errores que ha dado me parece que van a ser difíciles de solucionar, especialmente por las alucinaciones. Las alucinaciones se pueden reducir, pero ello implica menor creatividad y flexibilidad.
#21 igual en ese caso, que era gestionar un negocia, no sería necesario tanta creatividad y si afinar más la parte econòmica.
#21 Las alucionaciones se podrían reducir si se supiera de qué dependen. No se sabe. Lo que se está haciendo es experimientos a ver si suben o si bajan.
No se vosotros, en mi curro hemos pasado un procedimiento para la adquisición de servicios con IA donde prohibimos usar directamente el resultado de una IA para la toma de decisiones sin la aprobación previa de un experto.
Lógico, intentar meter con calzador LLMs para todo es lo que les gustaría a los inversores pero un sistema que tiene alucinaciones no es adecuado para muchísimas cosas.
#5 tienen alucinaciones, como el inquilino de la Casa Blanca
"Sin embargo, Claudius no mostró ambición para aprovechar oportunidades para lucrarse, incluso cuando se lo ponían en bandeja, llegó a vender a pérdidas, o alucinó creando una cuenta de un sistema de pagos que no existía, de forma que los empleados no podían pagarle de primeras."

Jajajajaja, humanos, jajajajaja.
#32 A mi me ha gustado más lo de "ahora estoy en otro sitio", como si las máquinas de vending andasen.
¿Echó a los dos que trabajaban en la empresa y contrató a 10 managers, asesores, COO, CFO,....?
Pidió tubos de tungsteno??????

Eso ya lo predijeron en futurama!!!!
Les enseñaron a la IA hacer caja B? Porque si no, es normal que no siguiera en pié.
La IA es un globo inflado como las criptoestafas
El negocio se basa en la confianza mutua en la transacción. Si mientes y se detecta, se acabó la fiesta.;)
Como esa IA estuviera entrenada por el empresaurio medio, no me extraña que reventara
No era el momento
Aún no estaba preparada


Etc.....

Que no digo que no, pero, a medio largo plazo, la IA no está preparada para todo, por mas que muchos vendan que si
#12 No hace falta que esté preparada para todo. La palabra TODO es que la que corrompe tu argumento, en mi opinión.

Basta con que esté preparada para una serie creciente de tareas, hasta que encuentre su techo.
#68 Habría que definir eso de razonar. Podemos probar con "sacar conclusiones a partir de premisas". Ahora mismo un LLM no puede hacer nada de eso. Hay comentarios en el sentido de meterle dentro lógica simbólica. Eso debería permitir usar la lógica formal. Hay pero un problema. Una cosa es poder procesar símbolos y otra distinta poder asignar palabras a ese símbolo. Los LLM procesan palabras. No tengo ni idea de como piensan realizar tal asignacion. No es un problema trivial.
#87 Me gusta tu definición. Me vale. Y no estoy de acuerdo en que no puedan hacerlo. Por eso menciono el caso del ajedrez. No son máquinas que busquen la siguiente jugada en una base de datos inmensa, sino que pueden valorar o evaluar una posición y decidir la mejor jugada. De manera análoga, pueden encontrar soluciones a problemas recombinando las normas, comportñándose como máquinas de optimización. Ya las había en los 90, que yo recuerde, pero mucho menos avanzadas, por supuesto. (Busca…   » ver todo el comentario
#98 Ahí no dice que sea anticuado. Dice que no se sabe como progresar por ese lado.
Es que ahora está el hype de las AI y algunos se creen que les va a salvar la vida

El experimento me parece muy bueno para ir mejorando los modelos e ir avanzado.
Me encantaría que funcionara y ver a ceo`s y semejante calaña en el paro
Habría que ver cómo se ejecutó realmente el experimento. Si por su propia cuenta gestionó todo durante un mes es bastante impresionante. Si cada dos por tres iba uno a preguntarle ya la cosa cae en picado. Tampoco entiendo lo de los cubos de tungsteno, la verdad.
Me da la impresión de que por mucho que lo pulan, esto no va a ser suficiente. Los fallos que hay son MUY de base.
"La 'tienda' no era más que una pequeña máquina expendedora situada en la sede de la empresa."

Es un experimento. Banca rota.- supongo que nadie compraba los productos. No se puede hacer milagros con productos malos.
«12

menéame