Anthropic es una de las compañías líderes en desarrollo e innovación de modelos de lenguaje de inteligencia artificial. Y quisieron probar algo realista en el contexto en el que el CEO de la compañía no deja de hablar de sustitución de trabajadores por agentes: que Claude Sonnet 3.7 se encargara de gestionar una pequeña tienda de forma autónoma.
|
etiquetas: ia , direccion empresa , ruina
No digo nah y lo digo todo.
El propio proceso de entrenamiento tiene que estar bien hecho para no caer en posibles errores posteriormente ¿por qué? porque no razonan, sólo comparan la nueva entrada con lo almacenado y asocian lo más probable. Eso no es razonar, es ser una calculadora como la Casio o Texas Instruments del instituto pero "on steroids". Para razonar tienes que ser capaz de hacer operaciones matemáticas, y… » ver todo el comentario
Desde luego, si no hace lo que hace el cerebro va a ser difícil que esté razonando. Pero si ADEMÁS "sólo" es cuestión de hacer operaciones matemáticas muy rápido para dar por respuesta lo "más probable" no lo "más cierto", no está razonando.
Esta misma semana estaba en una reunión de trabajo en la que participaba uno de los jefazos de sistemas. Cuando la cosa… » ver todo el comentario
Cosita número dos, en ningún momento he dicho que crea en el alma y si algo de lo que he dicho te ha parecido que lo decía y, más aún, como si creer en ello "dominase" mi perspectiva, te lo resumo fácil: te equivocas. Desconozco si existe el alma o cualquier otra entidad análoga, ergo mi razonamiento no va por ahí.
Cosita número tres: nuestro modo de funcionar puedes modelizarlo todo lo sencillo que… » ver todo el comentario
Se trata, como dices, de un problema de complejidad. El cerebro humano no se ha modelizado aún, y no se ha alcabnzado ese grado de complejidad. Pero sólo es cuestión de eso. Las IA no pueden llevar a cabo de manera fiable más que unas pocas tareas. Esas tareas irán aumentando, y quizás no se llegue nunca a alcanzar la modelizaciñón completa de un cerebro humano, pero ciertamente se incrementará el bnúmero de tareas que resuelvan de manera fiable.
Incrementalmente.
eso creo.
Acto seguido algún genio de Internet: un saludo a los que opinan que los humanos razonan.
Pero falacia al fin y al cabo.
A no ser que uses dos varas de medir, concluir que las IAs no razonan porque una titular dice que una empresa ha quebrado por culpa de una IA, te lleva inmediatamente a concluir que los humanos tampoco razonan.
Y lo sabes. Porque en caso contrario, si no lo sabes, tu absurdez es aún mayor.
Y lo sabes.
Lo que no quita, que puedan estar todavia verdes para ese tema.
En cuanto a tu pregunta original, pues la cosa seria poner 100 maquinas de vending en difdrentes empresas con IAs, y compararlas con la media del resto de maquinas de vending, a ver cual les va mejor.
No se trata de pensamiento mágico, sino de resultados finales.
Cuando se acabe y el cliente final tenga que abonar el total de la factura veremos sines rentable.
La quiebra del negocio, ¿eh? Vaya #clickbait.
Salu3
Salu3
No se las capacidades de la IA y los LLM en este contexto, pero tampoco me extrañaría que esta experiencia estuviese diseñada un poco regular.
Los tipos de errores que ha dado me parece que van a ser difíciles de solucionar, especialmente por las alucinaciones. Las alucinaciones se pueden reducir, pero ello implica menor creatividad y flexibilidad.
Jajajajaja, humanos, jajajajaja.
Eso ya lo predijeron en futurama!!!!
Aún no estaba preparada
Etc.....
Que no digo que no, pero, a medio largo plazo, la IA no está preparada para todo, por mas que muchos vendan que si
Basta con que esté preparada para una serie creciente de tareas, hasta que encuentre su techo.
El experimento me parece muy bueno para ir mejorando los modelos e ir avanzado.
Es un experimento. Banca rota.- supongo que nadie compraba los productos. No se puede hacer milagros con productos malos.