Por lo que he entendido y soy capaz de comprender en base a experiencias y contexto, que no digo que sea la verdad ni mucho menos, las alucinaciones vienen dadas cuando la IA enfrenta la necesidad de cumplir con las instrucciones dadas y las necesidades solicitadas pero no es capaz de alcanzar el objetivo de una manera directa por lo que acaba buscando por temperatura un enlace lo suficiente cercano a la respuesta necesaria y a partir de ella procede a razonarla para cumplir con las instrucciones solicitadas.
En gran parte es culpa del usuario, por desconocimiento principalmente pero también por problemas a la hora del aprendizaje y fallos en el modelo por supuesto.
Lo mas cercano para entender es cuando la gente, ya sea por ego o por desconocimiento busca en google algo, pero enuncia su busqueda orientada a encontrar algo que le de la razón, no tanto buscar la respuesta correcta.
Si tu estas escribiendo una redacción y pides a la IA que te busque y cite tres artículos que demuestran tus argumentos, los va a buscar y es posible que aunque no existan realmente tres artículos que demuestran tus argumentos, buscara probablemente aquellos que con mas probabilidad puedan demostrarlo, si le pides que te de citas o enlaces a ellos, si no existen pero quizas encuentre menciones de algunos aun sin fuentes acaba encontrando aquellas fuentes e intentando cumplir con tus instrucciones buscara una manera de generarlas, por que una IA no tiene concepto de verdad ni de realidad intrínsecamente.
He experimentado mucho esto, es muy importante sobre todo no dar por sentados los objetivos que le enmarcas por que va a intentar cumplirlos y no tiene reparos en inventarselos para cumplir los objetivos que le has enmarcado.
#17 Lo siento, pero a parte de que no es la primera vez que oigo esta tecnología, ha sido reconocida oficialmente por varios países, incluido Estados Unidos, y ya ha sido usada, pero sobre todo, no es una persona, son la declaraciones de múltiples personas.
Mira atrás un momento y reflexiona, que es más probable, que sea a causa de una tecnología conocida y ajustada a la declaración de los testigos, o que sea a causa de un arma química desconocida, de la que no se ha reportado de ninguna manera, no existen testigos que prueben remotamente su uso, de la que no tenemos prueba de que existe y es desconocida para todos y que cause esos exactos síntomas, que no tenga otros efectos que podamos demostrar o reportar y adicionalmente cause alucinaciones que hagan confundir en masa a la gente a pensar que están siendo atacados por una tecnología de la que sí que conocemos.
Has escuchado alguna vez hablar de la navaja de ockham?
#3 Pues siento que soy un ignorante y aun eso cuando la veo tratar temas fuera de los ecológicos y laborales, que no le quito la razón, soy capaz de reconocer que demuestra mucha ignorancia, ese es el problema la verdad, si hasta yo me doy cuenta imagínate.
Lo peor sera que la gran mayoría de ellos votarán a partidos políticos que están en contra de establecer limites de precios en especulación que hacen inviable a los trabajadores seguir en esas condiciones, ellos mismos se arruinan la situación, la ignorancia no conoce límites y es muchísimo mas rápida que la inteligencia.
#1 llevo mucho escuchando lo del galileo, justo me dio por verificar mi tlf con gpstest, tengo un poco x7 pro y nanailo, satelites gps, rusos y chinos pero galileo nada
Es aquí donde viene la gente a ver un articulo de mierda de un blog en un país de más 1400 millones de personas?
No se lo digáis a Indra que le da un jamacuco del ataque de risa.
Flipaos.
#5 No caigamos de nuevo, The Last of Us no la "hundieron" por nada de esto, claro que gilipollas la atacaron por ello, pero no la cantidad masiva de usuarios a los que yo me incluyo simplemente no nos gusto, si te vas a cualquier sistema de criticas, son horribles y las que se meten con la ideología son minimas.
Que esta pasando en esta serie? me lo creo,es un capítulo, quien vota capitulos? muy pocos, pues el bombing se nota. con Last of Us 2 es algo radicalmente diferente, la gente voto que no le gustaba y ellos intentaron victimizar todo lo negativo por unos pocos gilipollas.
En gran parte es culpa del usuario, por desconocimiento principalmente pero también por problemas a la hora del aprendizaje y fallos en el modelo por supuesto.
Lo mas cercano para entender es cuando la gente, ya sea por ego o por desconocimiento busca en google algo, pero enuncia su busqueda orientada a encontrar algo que le de la razón, no tanto buscar la respuesta correcta.
Si tu estas escribiendo una redacción y pides a la IA que te busque y cite tres artículos que demuestran tus argumentos, los va a buscar y es posible que aunque no existan realmente tres artículos que demuestran tus argumentos, buscara probablemente aquellos que con mas probabilidad puedan demostrarlo, si le pides que te de citas o enlaces a ellos, si no existen pero quizas encuentre menciones de algunos aun sin fuentes acaba encontrando aquellas fuentes e intentando cumplir con tus instrucciones buscara una manera de generarlas, por que una IA no tiene concepto de verdad ni de realidad intrínsecamente.
He experimentado mucho esto, es muy importante sobre todo no dar por sentados los objetivos que le enmarcas por que va a intentar cumplirlos y no tiene reparos en inventarselos para cumplir los objetivos que le has enmarcado.