#11, no se que pretendías explicar con tu comentario pero spoiler: salió mal.
Primero convengamos que una salida correcta de un LLM es cuando el output es el esperado. Si es un problema matemático, que llegue a la solución correctamente, si es un problema de programación que escriba código sin errores, si es un problema de conocimientos que responda con los datos correctos.
Todas las cosas que te he comentado están pensadas para que cuando el LLM genere el próximo token, el texto que vaya escribiendo se parezca lo máximo posible a las respuestas correctas que te he puesto a modo de ejemplo en el párrafo anterior.
Ahora paso a detallar como interviene cada una de estas cosas para lograr dicho propósito:
La función de recompensa en un LLM no está diseñada por un experto sino que se… » ver todo el comentario
#11 Y los funcionarios sean GC , Policia o Vigilancia Aduanera sin la posibilidad de responder amen de ser juzgados y condenados por estupidos conceptos como humanidad, proporcionalidad, etc,etc
Si se permitiese hacer lo de Trump en el caribe se acababa el narcotrafico en el estrecho en 4 dias, pero ohhhhh eso es vulnerar derechos humanos , y demás pamplinas. Eso si ,cuando muere un miembro de las FCSE asesinado por estos indeseables es " un accidente de trabajo" . Asi nos va .
#11 Yo la verdad no se cual es la verdadera solución… pero ninguno de los dos a estas alturas quiere ninguna de las soluciones propuestas que no sea masacrar al prójimo. Así no vamos a ningúna parte.
Por cierto, gracias porque eres de las pocas respuestas respetuosas y racionales.
#11 Claro, los políticos pueden establecer el precio que quieran para un tratamiento oncológico que hace una única farmacéutica para el resto del mundo, o seguro que pueden presionar para cambiar el precio de un iPhone, es más, también para poner el precio del petróleo que quieran, incluso para tu Play5.
Expresar que el gobierno puede poner el precio que quiera de los productos:
A) Te acabas de caer del árbol y no sabes que vivimos en un mundo globalizado.
B) Mientes deliberadamente.
C) De manera encubierta, quieres vender que el Estado puede bajar los precios bajando el IVA (= hacer trampas al solitario).
#11 los políticos NO ponen los precios.
Y si lo hicieran, no tardabas ni medio seguro en empezar a echar espuma por la boca y balbucear "comunistas".
Y lo sabes.
#11 Sacaron CUDA para AMD y lo tuvieron que retirar a pesar de ser software libre por exigencia de los abogados de nVidia. Claro que en China eso importa menos.
#11 Si los empleados son pobres está claro que no gastan, pero se vales de que hay dinero suficiente para funcionar, las empresas típicas que precariza, Globo, Uber, Amazon, Temu, Zara,... no pagan bien, y sin embargo tienen a millonarios como dirigentes, no es solo por lo poco que pagan, sino también por lo poco que pagan a sus productores.
Y todo lo que comentas sería correcto si ésas subidas de sueldo y ése SMI las aplicasen a los empleados y productores de esas plataformas... pero los productos que compras en Temu, Inditex, etc,... no está fabricado ni si quiera en Europa. Estas pagando poco con tu SMI recién subido solo para que se lo lleve el CEO de una multinacional, ni siquiera llegan beneficios a trabajadores en Europa.
#11 un dibujo no, pero tenemos el famoso juego del teléfono roto donde una persona va pasando un mensaje a la siguiente, y al final se ve cuánto se ha deformado el mensaje original. No hacen falta muchas iteraciones (personas) para que el mensaje se desvirtue completamente.
#11 Si se ha reproducido no califica para premio Darwin.
"Los Premios Darwin son un reconocimiento satírico y póstumo que se otorga a personas que, por actos de extrema estupidez o falta de sentido común, se eliminan a sí mismas (o quedan estériles) del acervo genético, contribuyendo irónicamente a la evolución humana al autoseleccionarse de forma espectacular."
Primero convengamos que una salida correcta de un LLM es cuando el output es el esperado. Si es un problema matemático, que llegue a la solución correctamente, si es un problema de programación que escriba código sin errores, si es un problema de conocimientos que responda con los datos correctos.
Todas las cosas que te he comentado están pensadas para que cuando el LLM genere el próximo token, el texto que vaya escribiendo se parezca lo máximo posible a las respuestas correctas que te he puesto a modo de ejemplo en el párrafo anterior.
Ahora paso a detallar como interviene cada una de estas cosas para lograr dicho propósito:
La función de recompensa en un LLM no está diseñada por un experto sino que se… » ver todo el comentario