edición general
122 meneos
661 clics
Amazon Prime Video retira los resúmenes generados por IA tras el error de Fallout [Ing]

Amazon Prime Video retira los resúmenes generados por IA tras el error de Fallout [Ing]

Amazon Prime Video ha retirado su resumen en vídeo de Fallout, generado por IA, después de que los espectadores se dieran cuenta de que contenía errores en partes clave de la historia. El servicio de streaming comenzó a probar los resúmenes en vídeo el mes pasado, y ahora han desaparecido de las series incluidas en la prueba, entre las que se encuentran Fallout, The Rig, Tom Clancy's Jack Ryan, Upload y Bosch. Se supone que esta función utiliza la inteligencia artificial para analizar los puntos clave de la trama de una serie y resumirlos…

| etiquetas: amazón , ia , resúmenes , fallos , fallout
Comentarios destacados:              
#1 La IA, demostrando una vez más que salvo para generar miniaturas del youtube, avatares para los foros de internet y fotografías de furros y waifus, todavía está más verde que el cilantro y cuesta más corregir sus cagadas que hacer las cosas a mano.
La IA, demostrando una vez más que salvo para generar miniaturas del youtube, avatares para los foros de internet y fotografías de furros y waifus, todavía está más verde que el cilantro y cuesta más corregir sus cagadas que hacer las cosas a mano.
#1 Y para escribir emails.
#1 Lo que cuesta corregir son las cagadas de los que usan la IA y no revisan los resultados de mierda que reciben..

La IA no es "responsable" de ninguna cagada.

Lo son sus usuarios.
#4 La IA no es "responsable" de ninguna cagada.

pues siento discrepar. Para prueba este video de un médico de UK que vi ayer mismo, al que la IA de Google acusó de haber sido suspendido y era todo mentira: www.youtube.com/watch?v=_5Djs6fguCU
Ahí no hay ningún usuario responsable, la responsabilidad son de las grandes tech que nos quieren meter sus putas IAs por todos lados y en lugares donde nadie pidió tener IA.
#4 Exacto, por el momento una "IA" no es una entidad, sino una simple herramienta, pero la gente no se da cuenta, a veces ni siquiera la que trabaja en con ella, yo creo que para Amazon la situación tiene algo positivo, se detecta a un empleado (o empleados) ineficaz a la legua con cagadas así.
#4 El problema es que la IA sólo tiene sentido sentido económicamente si hace el trabajo sola. De nada sirve hacer estos recaps con IA si luego va a tener que estar un humano asegurándose de que no hay errores. Dicho humano se ha tenido que aprender la serie, ver los recaps para ver que cuadran, y regenerándolos una y otra vez cuando se inventen partes u omitan hechos importantes. Llegado cierto momento, acabarías antes poniendo al humano a hacerlos por sí solo.
#4 Si te fijas el otro no ha usado la palabra "responsabilidad", se ha limitado a decir que comete cagadas ridículas que hay que corregir a mano.
Justo lo que tú dices.
#35 Positivo por el detalle {0x1f44d}
#1 Y que tienes contra las waifus furro????
#1 pues yo he aumentado la productividad de mi trabajo en al menos un 200%. Y probablemente me estoy quedando corto, además es capaz de crear un prototipo web de las api que creo en unos pocos minutos.
Puede que a veces cometa errores o que el camino no sea el adecuado pero ahí estoy yo para corregir o encaminar.
#12 ¿Qué es productividad en tu caso? Si se puede saber.
#16 Programar, redactar, sacar información, hacer procesos que hago en un día y antes tardaría 3 ó 4.
Uso básicamente copilot o Claude code qué para mi es el mejor.

Mi empresa es pequeña, unos 10 trabajadores, antes siempre nos hacía falta gente, ahora ya no se piensa en contratar, aunque tampoco en despedir.
#26 O sea hacer cien tornillos en lugar de cincuenta. Como símil. No como insulto. ¿Es así?
#31 eso es, pero es algo más allá, ahora hago 100 tornillos y también hago las tuercas y los tacos para esos tornillos.
#33 es que es esa la Fran diferencia para mí... Que con una base generalista en algo... Ahora puedes abarcar muchísimo mas
#26 El estudio que se hizo indicaba que la IA no ahorra tiempo en la programación, sino lo contrario, pero la percepción de los programadores es que así son más productivos.
#63 un estudio dirá lo que quiera, yo te puedo decir que al menos a mí lo hace y no es percepción. Lo notó yo, lo notas los jefes y lo más importante lo nota los productos que salen al final.
#67 El estudio ese es una medida objetiva. Luego otras cosas son subjetivas. No te preocupes que si algo es real, acabará medido.
#12 Y un destornillador eléctrico te permite apretar tornillos con menos esfuerzo y en una fracción de tiempo sobre el de toda la vida. Pero poco más. El “problema” con la IA es que algunos piensan que es un ser omnisciente e infalible, cuando no deja de ser una herramienta, más o menos buena dependiendo de lo que quieras hacer con ella.
#28 yo pienso que ahora no es un reemplazo, ni pienso que que no vaya a eliminar a los programadores en un futuro. Pero van a hacer falta muchos menos y la forma de trabajar va a cambiar radicalmente.

#25 es una herramienta compleja y puede tener peligro en personas sin experiencia. Pero a su vez te ayuda a hacer un banco de pruebas que no se hubiera hecho de no existir las LLM.
#12 El problema es que las big techs están vendiendo que la IA no es una herramienta sino un reemplazo para la mano de obra humana.
#1 A ver, es que siempre se ha intentado defender que era una herramienta, pero se nota a leguas que muchas empresas lo que quieren es directamente cargarse empleados con la IA. Una persona familiarizada con la serie habría visto el resumen, lo habría corregido y se habría ahorrado tiempo de trabajo al no tener que escribir todo de 0, pero lo que ellos querían era hacerlo con 0 empleados pues harían la supervisión humana mínima, con una persona que igual ni sabe de qué va la serie, con lo que la cagada llegó al gran público.
#1 Es una primera versión, dentro de unos meses seguro que lo hace bastante mejor.

Fíjate los videos generados por IA hace 2-3 años y compara con lo que hacen ahora.
#1 Las horas de trabajo que me ahorra me dicen lo contrario.
#50, basta con probar chatGPT y utilizar el modelo thinking y el modelo fast para darse cuenta de que lo que dices es mentira. Las CoT han representado un salto cualitativo en la calidad de las respuestas que dan los modelos.
#56 No sirve para hacerles pensar. De hecho, la chain of though les puede llevar aún más lejos de la respuesta correcta. Encadenar búsquedas es una cosa que no sustituye al razonar.
#60, soy ingeniero, no filosofo, por eso no he hablado en ningún momento de pensar, a mi lo que me interesa es evaluar los outputs del modelo, osea, que lo que me interesa a mi de un modelo es que de el mayor número de respuestas correctas posible y eso es lo que logran los CoT, hacer que los LLM funcionen mejor. Negar esto es negar una verdad científica inapelable.
#64 Pues no me suena ningún estudio donde se comparen resultados de con o sin cadena de razonamientos. Yo, sin eso, no puedo afirmar que hagan nada.
No hay nada en el interior de un LLM que garantice, o ni siquiera promueva, la corrección de lo que dice.
#3, de hecho sí, hay muchísimas cosas y el trabajo de décadas de investigación por parte de mentes brillantes para eso, como la función de recompensa, el algoritmo del backpropagation, lso optimizadores, la chains of thoughts, los mecanismos de auto-atención, los embedings, el positional encoding... Todo son técnicas enfocadas a lo que dice un LLM sea lo más correcto posible. No es perfecto, pero funciona bastante bien.

Claro, que si te piensas que un LLM lo que hace es limitarase buscar que palabra suele aparecer más veces después de la anterior es normal que digas eso. Es increíble la de tonterías y de cuñadeces que se pueden llegar a leer en Internet.
#5 la función de recompensa, el algoritmo del backpropagation, lso optimizadores,

Todo esto sirve para el entrenamiento. Se consigue que las respuestas entrenadas se acerquen a lo deseado. Las que están cerca de las entrenadas suelen ir cerca, pero las que pillan lejos, puede salir cualquier cosa.

la chains of thoughts,

No influye en la respuesta.

los mecanismos de auto-atención,

Los transformers machacan la información del mismo modo siempre sin mirar nada.

los embedings,

Eso es una interpretación humana de los pesos internos.

el positional encoding...

Eso es un truco del entrenamiento.
#11, no se que pretendías explicar con tu comentario pero spoiler: salió mal.

Primero convengamos que una salida correcta de un LLM es cuando el output es el esperado. Si es un problema matemático, que llegue a la solución correctamente, si es un problema de programación que escriba código sin errores, si es un problema de conocimientos que responda con los datos correctos.

Todas las cosas que te he comentado están pensadas para que cuando el LLM genere el próximo token, el texto que vaya…   » ver todo el comentario
#13 hasta el moño estoy de la poc en la que ando metido, con aws e ia en la que los resultados no son deterministas pero:

- tu prompt esta mal
- no escogiste el modelo adecuado
- el perro se comio los datos con los que el modelo fue entrenado

Siempre hay una excusa para justificar los pobres resultados que obtengo
#14, es el tiempo que nos ha tocado vivir. Supongo que a muchos oficinistas de los años 70 no les hizo ni pizca de gracia la llegada de los ordenadores y que la forma de trabajar con la que se habían desenvuelto toda su vida cambiase de un plumazo. Con la IA va a pasar lo mismo, quieras o no tendrás que aprender a sacarle partido, sino otros lo harán. A mi, en general la IA me da excelentes resultados. Me preocupan cosas mucho más graves sobre el futuro que no es depara la IA y no es precisamente su mal desempeño.
#18 si si, si todo son unicornios y arcoiris, hasta que le toca 'bucear' en algo serio.

Y ahí ya, comienza la sarta de tontunas:" y si pruebas con este modelo? Ajustaste la temperatura? Incluye un ejemplo en el prompt'

Resultados poco deterministas
#18 Los ordenadores son deterministas y si hay un error, eso es corregible.
#14 Cuando más trabajas con modelos más te das cuenta de que de "inteligencia" tiene poco.

Los buenos resultados que han dado con los análisis y generación de textos han lanzado el hype por las nubes.

Está todo el mundo tan subido en la rueda de las mentiras que ya los mismos proveedores te las sueltan a la cara sin vergüenza ninguna.

El otro día me llegaron a decir "con nuestro software repites una acción tres veces mientras te graban en video y a partir de la cuarta si haces algo incorrecto te corregirán y te dirán cómo hacerlo bien. " Y no se les caía la cara de vergüenza.
#23, lo único que se es que has votado positivo a un comentario que dice frases equivalentes a que la tierra es plana o las vacunas del covid llevan microchís, aunque probablemente no te hayas ni dado cuenta.

Porque la frase: "la chains of thoughts, no influye en la respuesta.", es objetivamente falsa. No es algo discutible, no es algo opinable, no es algo que se pueda matizar. Es afirmar algo que de forma inapelable es una falsedad del tamaño de una catedral. Las otras…   » ver todo el comentario
#42 Si te alejas un poco del conocimiento general, a la vista está que la tierra es plana.... Esto es lo que pasa con las IA, si no entiendo como funciona y cuando las uso el resultado es que invoca a metodos que no existen, crea código que no compila etc etc pues el sentir general es que algo falla. Los agentes con las ultimas versiones de Claude por ejemplo funcionan muy bien, pero la realidad es que le dices que tienes un problema que no tienes en el proyecto y te arregla algo que no está mal.... La IA no sabe lo que está bien o mal.

Tambien veo a gente que ya le pide al agente que le escriba los test y cuando pasa todo en verde ni miran lo que escribió la IA. En unos años los que deberian revisar el código no lo van ni a entender
#43, pues yo le he preguntado cosas de mi tesis doctoral que te aseguro que se alejan muchísimo del conocimiento general y te digo que los modelos tocan, vaya que si tocan.
#44 pero como ya hemos discutido otras veces, ni entienden ni saben lo que tocan jejeje les falta contexto. Esto mejorará con el tiempo seguramente.
#45, yo creo que si les vas guiando son muy buenos aterrizando ideas vagas que tienes en la cabeza además de encontrar referencias o analogías muy buenas. La mejor combinación es alguien que domina de un tema con un LLM.
#46 Sin duda, en eso estamos de acuerdo. Como herramientas son una maravilla, si sabes lo que pides, los resultados son incluso asombrosos. Tareas de dias pasan a ser horas. Pero veo mucho hype entre los cargos intermedios que piensan que con la IA van a sacar las tareas como churros..... ideas como, le pinto una pantalla a la IA y me hace todo el código y la realidad esta lejos de eso.
#43 invoca a metodos que no existen, crea código que no compila

Esto es. ¿Por qué debería limitarse a los métodos que existen? No hay nada en un LLM que se preocupe de eso. Lógico entonces que pasen estas cosas. Es tan sorprendente como cuando acierta.

Lo relevante es que no se trata de un mal funcionamiento que se pueda corregir, como cuando arreglas un bug en un programa. Es el funcionamiento normal y esperado de un LLM. Los futuros LLM seguirán haciéndolo igual.
#42 Yo no sé lo que tú habrás entendido del funcionamiento de un LLM, pero se da la circunstancia de que el Chain of Thought no influye para nada en la respuesta al promp.

Lo puedo describir si te hace falta.

Si se le pide que genere al chain of thought, pues lo hace cogiendo trozos del prompt y se crea un nuevo prompt a partir de ahí. Con la respuesta a eso se elabora un nuevo prompt y se pasa también, así sucesivamente (cadena). Te va enseñando los resultados de cada paso.

La producción de…   » ver todo el comentario
#5. Creo que #3 se refiere a las IA funcionan con el piloto automático siempre encendido, sin un control "externo" inmediato de lo que finalmente genera.
#19 Ni externo ni interno. Le llaman alucinaciones, que es como un nombre cariñoso, pero la triste realidad es que lo que una IA responde no tiene por qué tener ninguna relación con la respuesta correcta, ni tiene por qué no tenerla. Se están usando redes neuronales para lo que no sirven. Esto no va a funcionar nunca.
#5 Nada de eso sirve de salavaguarda alguna para evitar o incluso detectar los fallos. Al final no dejan de ser aproximadores de funciones, y los errores de dicha aproximación sólo se pueden detectar en entrenamiento al comparar contra datos conocidos, una vez te sales de la variedad de datos entrada conocidos no hay forma de verificar el resultado. Y un serio problema que hay, y que no se sabe resolver (aunque hay aproximaciones) es que las redes neuronales "recuerden" el conjunto de sus datos de entrenamiento y detecten que están extrapolando más allá de lo razonable.
#30, todo esto son avances que han permitido que los LLM comentan cada vez menos errores. Esto es una realidad incontestable. ¿Cometen fallos? Sí. Pero eso no significa que los LLM no sirvan para nada y no puedan seguir mejorando. De hecho han seguido mejorando de forma sostenida desde que aparecieron.

Hay que acostumbrarnos dejar de ver a los modelos de IA modernos como un software tradional, no son una calculadora que siempre te da el mismo resultado y de forma correcta. Son algo distinto…   » ver todo el comentario
#38 Una red neuronal da una respuesta única a un prompt determinado, exactamente igual que una calculadora. La aleatoriedad que hay en un LLM se genera aparte y a propósito.

No se trata de preguntarse si son útiles, sino si lo son por el coste que tienen.
#49, pero el proceso que sigue para generar el resultado no es una secuencia de insrucciones definida manualmente como una calculadora que te garantiza siempre la respuesta correcta, sino operar por un espacio latente inabarcable que comprime la lógica existente aprendida del corpus de entrenamiento. Por eso, aunque sea determinista, es imposible saber de antemano qué va a contestar ante cada input y garantizar que en el proceso de compresión no se haya perdido información factual que provoque…   » ver todo el comentario
#55 Toda la aleatoriedad que hay en un LLM está leida de un generador de números aleatorios. (pseudoaleaorios, pero eso es otra discusión)
#58, esto empieza a ser bastante desesperante, te lo he dicho bien claro: Por eso, aunque sea determinista, es imposible saber de antemano qué va a contestar ante cada input. :wall: :wall: :wall:
#59 Creo que no comprendes la definición de "determinista". Hint: es distinto de predecible.
#61. es muy desesperante, te estoy diciendo precisamente que a pesar deterministas no son predecibles como una calculadora y me dices que no comprendo la definición de determinista porque no son predecibles. :palm:
#62 Dijiste:

no es una secuencia de insrucciones definida manualmente como una calculadora que te garantiza siempre la respuesta correcta, sino operar por un espacio latente inabarcable que comprime la lógica existente aprendida del corpus de entrenamiento.

Lo cual es exactamente lo mismo que operar con un conjunto de instrucciones. No hay ninguna diferencia con una calculadora, como pretendes decir.
#65, más claro no te lo he podido poner, si no lo entiendes tienes un grave problema. Secuencia de insrucciones definida MANUALMENTE. Esto no tiene nada que ver con operar dentro de un espacio latente aprendido por un algoritmo de optimización procesando miles de millones de textos.

Calculadora -> Trazable y predecible
LLM -> No trazable e impredecible


Ambas cosas son deterministas y funcionan ejecutando una secuencia de instrucciones pero no tienen nada que ver y no se puede esperar lo mismo de ambas.
#66 Lo de manualmente es irrelevante. No se es más ni menos determinista por ello. No es que se pueda ser "sólo un poco determinista", pero es una forma de hablar.

No entra el azar en algo determinista, por definición.

Tanto da la composición o la historia de un sistema determinista. Es igual de determinista.

De todos los sistemas deterministas se espera una y sólo una respuesta a un estímulo determinado.

Una red neuronal es determinista. Un LLM no, porque se usan números aleatorios adrede para evitar que lo sea, pero podría perfectamente no hacerse. Si fuera determinista, entonces sería predecible (p. ej. habiendo probado el estímulo concreto antes). No es algo que dependa de la complejidad.
Con lo poco que hubiese costado poner a un tipo a revisar si lo que decía era correcto... :roll:
#7 Eso es, la IA está todavía verde, y por eso necesita supervisión.
Algún jefe se habrá venido arriba por ahorrarse 4 euros.
#7 Pero entonces no te ahorras ese coste.
Gente, desde que existe el capitalismo, el empresario SIEMPRE ha intentado sustituir a los trabajadores con tecnología.

Y tras unos duros periodos de transición, siempre ha acabado consiguiéndolo. Y aún así, han seguido haciendo falta trabajadores para otro tipo de tareas.

¿Qué quiero decir con esto?
1. Que la IA se va a convertir en herramienta bastante estandarizada. Quien piense que dentro de un año las empresas dirán ¡cáspita! ¡esto no sirva para nada! que se engañe a si mismo si quiere, pero no, la IA no va a desaparecer.
2. Tampoco va a ser el apocalipsis para el empleo que otros auguran que será.
#21 Hay que ir con cuidado para no confundir el hype con la realidad. Una cosa es lo que te dicen que podrá hacer, y otra distinta son las capacidades reales.

Las empresas lo prueban y luego lo aceptan o lo rechazan. Creo que el porcentaje de rechazos está sobre el 90%.
#53 Hay gente que se piensa que la IA "vale para todo", pero no es así.
Ahora bien, tiene unos usos para los que si funciona de forma correcta.

Yo soy desarrollador full stack freelance (no trabajo dentro de un equipo), por lo que tengo que tocar mucho código en muchos lenguajes. Lo mismo hoy PHP, mañana me paso horas retocando CSS, después jQuery, ahora algo de SQL.

Y aunque los conceptos los tengo claro, suelo tener problemas para recordar sintaxis, nombres de funciones, ¿esto…   » ver todo el comentario
Mucha pasta se está invirtiendo en IA para el poco retorno real.
La mayoría de empresas que han intentado sustituir personas por IA (seamos sinceros, ese es el ahorro que esperan las corporaciones) han resultado un completo fiasco.
#22 (seamos sinceros, ese es el ahorro que esperan las corporaciones) Claro! y seguro que en unos cuantos (bastantes) años pasará como con los robots que ahora mismo trabajan en las fábricas de automóviles... las AI sustituirán a personas en algunas partes de los procesos productivos en las que esto sea posible y sobre todo, rentable!

Pero esos robots con AI que van a encargarse de algunos trabajos, necesitarán a los humanos que les den las instrucciones y como en las fábricas de…   » ver todo el comentario
Empresarios garrulos que piensan que la IA puede sustituir a los trabajadores humanos.

Alguien serio usaría esa herramienta para, con los mismos trabajadores, sacar más producción, mejor calidad o lo que sea para recibir mayores ingresos.

Pero vamos, que el cutre que quiere aumentar los ingresos reduciendo "gastos" en personal sustituyéndolo por IA, no tiene mucha idea sobre gestionar empresas, desconoce el trabajo que se realiza, y además es un poco hijo de puta.
Es lo que tiene que nadie supervise lo que hace la AI
Al margen del hipe de la IA. Amazon, IMO, no se caracteriza por hacer buenas aplicaciones/plataformas para interactuar con el usuario. Excepto Amazon cómo plataforma logística. Me refiero a Amazon music, o prime video. El user experience es muy penoso

menéame