Hace 1 año | Por senfet a hipertextual.com
Publicado hace 1 año por senfet a hipertextual.com

ChatGPT está inventándose estudios y artículos que no solo no se han publicado, sino que las referencias y las citas son inventadas. [...] ChatGPT se está inventando artículos completos de The Guardian que, en realidad, nunca se publicaron, algo que, de facto, supone que ni los usuarios, ni el propio ChatGPT sean capaces de distinguir de manera confiable la verdad de la ficción

Comentarios

zordon

#11 igualito que un psicópata lol

senfet

#13 A mí me dio consejos para deshacerse de un cuerpo humano:

Supercinexin

#11 A ver: es una tecnología desarrollada por blancos angloamericanos. ¿Cómo te creías que iba a funcionar?

Don_Gato

#11 Eso fue lo último que adiviné del juego. De casualidad claro. Me pregunto qué estaba pensando Dave Perry cuando programó eso. Del estilo "usa el hueso de rata en la cerradura y atale un globo para que se asuste el pájaro y deje caer el papel con la clave".

dqenk

#19 complicado porque era de las pocas acciones que necesitaban combinar 2 objetos.

Yo todavía no entiendo lo de la araña y la pecera.

roybatty

#11 acierta siempre el 50% de las veces

Fernando_x

#11 Y eso te ha pasado porque es un modelo de lenguaje, diseñado y preparado para responder con las frases que mejor encajen en el contexto del prompt que ha recibido. No miente, en el sentido de que diga algo que no es real. Es que para chatGPT lo único que es real, que existe, es su entrenamiento y sus prompts. No sabe nada del mundo real porque no está entrenado ni diseñado para eso.

De todas formas, ésta es la respuesta a tu pregunta de GPT4:
"Three Weeks in Paradise" es un videojuego de plataformas de 1986 desarrollado por Mikro-Gen para ZX Spectrum y Amstrad CPC. No tengo información específica sobre la mecánica de afilar un hacha en este juego, ya que mi conocimiento se basa en datos recopilados hasta septiembre de 2021.

Dicho esto, es posible que no exista una mecánica de afilar hachas en "Three Weeks in Paradise", ya que es un juego de plataformas con un enfoque en la resolución de acertijos y la recolección de objetos en lugar de combate o mejoras de herramientas. En este juego, los jugadores controlan a Wally Week y su familia, quienes deben resolver acertijos y recolectar objetos para escapar de una isla desierta.

Si realmente necesitas afilar un hacha en el juego, te recomendaría buscar guías o recursos específicos para "Three Weeks in Paradise" que puedan haber sido creados por la comunidad de jugadores. También es posible que estés confundiendo este juego con otro que sí tenga una mecánica de afilar hachas.



¿qué te parece la mejora?

Y para la otra pregunta:
En "Three Weeks in Paradise", los jugadores deben recoger y utilizar objetos para resolver acertijos y avanzar en el juego. Algunos de los objetos que se pueden encontrar y usar en el juego incluyen:

Paraguas: Se puede utilizar para atravesar áreas con agua y evitar caídas dañinas.
Cuerda: Ayuda a escalar áreas de difícil acceso y a cruzar ciertas secciones del mapa.
Llave: Se utiliza para desbloquear puertas y acceder a nuevas áreas del juego.
Bote inflable: Permite a los personajes cruzar cuerpos de agua más grandes.
Hueso: Se puede usar para distraer a animales peligrosos, como cocodrilos, para pasar de forma segura.
Estos son solo algunos ejemplos de objetos que se pueden encontrar en "Three Weeks in Paradise". La recolección y el uso correcto de estos objetos son fundamentales para avanzar en el juego y completar la aventura.


¿ha mejorado?

dqenk

#30 al menos en la primera reconoce no tener información, pero la segunda no ha mejorado. Se ha inventado casi completamente la lista de objetos, de los cuales solo hay una llave.

Fernando_x

#32 Para lo que funciona fenomenal es precisamente para inventarse cosas:
Prompt: Crea el argumento de un juego de ordenador, de plataformas 2D, de estilo retro, que contenga elementos que haya que localizar para resolver puzzles.
Describe el o los personajes, con sus características, habilidades e historia. Describe el lore importante del juego.
Luego describe cada uno de los niveles: temática, enemigos con sus características y habilidades y el jefe final de cada nivel.
Finalmente, describe la forma de puntuar, de obtener o perder vida y otras propiedades que quieras que tenga, y las formas de ganar o perder.

Respuesta:

Bueno, la respuesta es tan larga que creo que no puedo pegarla en meneame. Que me ha creado toda la temática y todo lo necesario para empezar a ponerse a programar.

celyo

#11 Es una mierda porque simplemente podría haber dicho "no sé la respuesta", pero eso es algo que chatGPT parece no hacer nunca.

Creo que intenta buscar la respuesta más aproximada en todo momento. Es decir, como no se " cómo se afila el hacha en el juego "three weeks in the paradise"", pues busco algo aproximado en sus registros de esa frase, que lo más así sería "cómo se afila el hacha".

Le pregunté si conocía el juego o no, y me dijo que sí. Le dije que me dijera el nombre de 5 objetos que el personaje pudiera recojer, y de nuevo se inventó la respuesta.

Entiendo que tendrá registros del juego, y de ahí la primera parte.
La siguiente, pues no se, conoce el juego > si, conoces la respuesta > no, soluciones aproximadas > buscar lo primero que encuentre.

NOTA: ¿cómo se puede probar estas cosas? ya me entra la curiosidad de ver si lo rompo. Por favor.

G

#7 Exacto, a este mismo artículo me estaba refiriendo.

De ahí que el "disclaimer" que pueda aparecer en algunas respuestas de ChatGPT sobre sus propias "inexactitudes", debería ser un disclaimer que apareciera por defecto en todas sus respuestas, como complemento a la información que estuviera destacando.

Fernando_x

#7 Claro, es eso lo que venía a decir. Si lo usas para lo que no sirve, normal que no funcione mal. Prueba por ejemplo a que te dé enlaces sobre la afirmación que te acaba de dar. Puede que sea completamente correcta, pero los enlaces serán inventados, pero con un parecido similar a como deberían ser los reales. Por ejemplo si la pregunta era sobre alguna película, te pondrá enlaces inventados en imdb.

BM75

#8 ¿Os? ¿Segunda del plural?

m

Es muy inteligente. Si no hay lo que necesita, se lo inventa.
Podría estar en el congreso de los diputados

Ormuzd

#3 O en bar con un palillo en la boca.

BM75

#3 O en menéame.

Ergo

¿Conocías la comunidad inteligenciainteligencia ?
#0

senfet

#12 No la conocía. Gracias, me hago seguidor.

Ferran

#14 La última noticia enviada es del 2021

D

En HiperTextual están a la última.

baraja

#27 "de otras fuentes confiables" no, cariño mío ChatGPT, en todo caso será "de fuentes confiables" porque tú, bot mentirosa, no lo eres

ContinuumST

#38 Era coña mía. De todas maneras... si a un humano experto en globos le preguntas cuál es el mejor globo... casi seguro que te pregunta, "¿el mejor globo para qué?

ContinuumST

#41 -->#39 Era coña mía.

Fernando_x

#44

De todas formas, gracias por la puntualización.

ContinuumST

#48 Aunque de todas formas, en el sentido estricto de la palabra, se le programa para aprenda así o así o así... Digo yo, que entiendo poco (nada) del tema.

ContinuumST

#49 "para que* aprenda"

LoboAsustado

Que no hayan sido publicados no implica que no hayan sido escritos...a saber donde rebusca lol

banyan

Wow 😯 esto podría jubilar a Inda. 😐

nemesisreptante

Cada vez se parece más a la prensa tradicional

G

Seguramente, si le preguntas si esta afirmación es cierta, te dirá que es culpa tuya por no corroborar los datos que te da.

Lo curioso es que ese "disclaimer" no te lo añade al final de cada respuesta, cuando debería ser así siempre.

Pero claro, entonces le quitan "encanto" al "hype".

G

#26 He hecho la prueba, y no, no se disculpa.

Directamente niega la mayor (lo cual en sí mismo me parece un error en su "entrenamiento").

Con el argumento de que no puede "mentir", ya que sólo mezcla palabras que se vaya encontrando por ahí y que aparentemente puedan tener sentido para algunos (aunque en realidad no tengan sentido alguno porque las frases que forma tienen significados inciertos (vamos, que miente más que habla) )

Y luego al final destaca que si dudas de lo que cuenta, que busques en otras fuentes.

Vamos, que te lanza el "disclaimer" que indico en #1 únicamente cuando cuestionas lo que dice, corroborando la poca fiabilidad que indico en #6.

No obstante, veo positivo y sobre todo necesario este "disclaimer" en todas sus respuestas, y a ser posible en negrita y con letras más grandes que las que usa en la misma respuesta.

Al menos los desarrolladores mostrarán "buenas intenciones" con este software.

Bien es sabido por todos que las "condiciones de uso" que se aceptan al usar ciertas herramientas informáticas, el personal se las pasa por el arco del triunfo. Y aunque todos sabemos que este chat es claramente un "beta", la promoción continua que le están haciendo (y a mi modo de ver, a este nivel de madurez de la herramienta, injustificada), no se corresponde con las visibilidad de las obligatorias advertencias de inseguridad que proporciona en cada una de sus respuestas.

Aún así, la herramienta es prometedora, sin duda.

c

#27 Pues en mi caso siempre empieza diciendo "disculpa el error" justo antes de inventarse una respuesta nueva..... muchas veces la cosa acaba en un conjunto de respuestas circulares.... lol lol

c

#1 No.

Se disculpará por el error y se inventará otra frase.... Aunque lo que diga sea cierto.

lol lol

Fernando_x

#35 Correcto, error mío. Donde pone programado debería poner entrenado.

Fernando_x

#36 Ese es el problema hoy en día, que va mejorando mucho en gpt4, que al no tener noción de la realidad, no existe diferencia entre las preguntas "dime los jugadores del Real Madrid" y la pregunta "dime los hipotéticos jugadores de un supuesto equipo de futbol llamado Real Madrid"

c

Está claro que este titular no es de ChatGPT.

Gila Vive!

edgard72

Algún día un periodista llamará a un contacto para confirmar una noticia, y será una IA suplantando la voz del contacto quién responderá, y estaremos ya perdidos.

maggette

Yo lo he utilizado para ayudarme a escribir artículos de un blog, me gusta citar los artículos científicos que sustentan la información. Cuando le pedía artículos con un resumen de la información, absolutamente todos los autores estaban inventados, el doi no coincidia y era imosible saber si estaba bien. Insistiendo que las referencias estaban mal, me daba unas nuevas y siempre mal... a nivel de citas de artículos científicos me ha sido imposible usarlo.

b

Entonces digamos que miente, no?

Fernando_x

#24 No, tan solo hace lo que está programado para hacer: completar textos con la continuación que considera más apropiada. No miente en el sentido de decir cosas que no son reales, porque para GPT lo único real es su entrenamiento y los promps que recibe. No sabe nada sobre el mundo real.

ContinuumST

#31 ¿Pero no habíamos quedado que no está "programado" y que aprende solito? 😈 😆

celyo

#35 pero tiene que tener un entrenamiento, como cualquier IA, que se le nutre de datos.A partir de ahí, pues ya va elaborando cual es mejor proceso a según que se le pregunte.

Si le preguntas por "¿Qué es un globo?" y nadie le "enseñado" que es un globo, no te sabrá responder.
Ahora, si le das datos de globos en cantidad, y luego le preguntas "¿cual es el mejor globo?", ahí te dará una respuesta en base al entrenamiento que haya tenido.

b

#31 Digamos entonces que no sabe que miente. Si te preguntan por algo, no sabes la respuesta y te la inventas por responder algo en vez de decir que no lo sabes, eso es mentir. Veo correcto que GPT pueda ser creativo para inventar una historia, un cuento. Pero si le preguntas por un dato, por una respuesta en la que esperas la verdad no veo que bien que se invente cosas. Debería decir "no tengo datos suficientes para responder" o bien señalar explícitamente que se está inventando las fuentes.

D

Hay que regularlo y prohibirlo, hay que encarcelar a los que lo programaron y hay que obligar a sacarse licencias y pagar tasas para todo aquel que quiera volver a probar.

En España se haría así. Por eso somos punteros en tecnología a nivel mundial.