Tecnología, Internet y juegos
56 meneos
6486 clics
Este envío tiene varios votos negativos. Asegúrate antes de menear
Retan a ChatGPT y DeepSeek a jugar a 'Dragones y Mazmorras' y lo que pasa dice mucho del futuro que nos espera

Retan a ChatGPT y DeepSeek a jugar a 'Dragones y Mazmorras' y lo que pasa dice mucho del futuro que nos espera

Un experimento científico presentado en la conferencia NeurIPS y publicado en OpenReview ha puesto a prueba a ChatGPT, DeepSeek y otros modelos de lenguaje en un escenario poco habitual: partidas de Dragones y Mazmorras. Lo ocurrido durante el juego ofrece claves relevantes sobre el futuro de la inteligencia artificial y su capacidad para mantener coherencia y estrategia a largo plazo.

| etiquetas: juegos de rol , chatgpt , deepseek , dragones y mazmorras
37 19 30 K 19
37 19 30 K 19
Comentarios destacados:                  
#1 Para el que no quiera entrar a la noticia, no aclara nada, parece redactado por una inteligencia artificial mientras juega a D&Ms.
Para el que no quiera entrar a la noticia, no aclara nada, parece redactado por una inteligencia artificial mientras juega a D&Ms.
#1 yo tengo mi teoría que la mayoría de envíos están redactados por una IA, incluso empiezo a sospechar de los usuarios, de hecho creo que tú y yo podríamos ser también una IA :troll:
#2 ahora que lo dices...
#4 El Internet Muerto.
#2 Resistirse es inutil
#12 La resistencia es fútil :troll:  media
#18 Bueno pues si me tiene que poseer "7 de 9" habrá que dejarse .
#19 Sin desmerecer tu buen gusto. Me quedo con la 6.
Tricia Helfer en.wikipedia.org/wiki/Number_Six_(Battlestar_Galactica)  media
#21 Hombre, si nos podemos salir de los Borg, prefiero a T'pol.
#22 Mi AI no sabe como rebatir eso. Tablas hasta que nos invadan los Dalek :-D
#24 Allonsy!!!
#6 "sospecho que está redactado por una persona que no sabe de qué va eso de Dragones y Mazmorras."

El envío aunque escueto, es sobre un artículo científico, que aparece citado y simplemente habla de las conclusiones del mismo, no hay nada que haga pensar que está escrito por IA, más bien pienso que ni lo habéis leído.

#1 #2
#2 tienes razón! Muchos de los usuarios actuales son AI?
Quieres que te lo explique con gráficas y moñequitos?
Si/no/
#2 La mayoría solo somos A.
#2 Yo no soy una IA.

¿Quieres que te resuma en una tabla las razones que demuestran que no soy una IA?
#2 Eso explicaría mucha cosa... :tinfoil:
#1 No, sospecho que está redactado por una persona que no sabe de qué va eso de Dragones y Mazmorras. Por lo que veo las usaron para rolear y ver si se enteraban de las reglas, pero tampoco entra en demasiados detalles.

Hace un año un amigo me enseñó un supuesto prompt curradísimo para que ChatGPT hiciese de máster de una partida de rol. Hice un par de pruebas y aunque hacía el paripé bastante bien al principio después se perdía bastante, y si querías hacer trampa ni se enteraba, que llegué a inventarme objetos del inventario que no tenía y me dejaba usarlos igualmente.
#6 digo de coña que parece, no que lo sea. El periodismo actual cada vez es de peor calidad, por lo que una IA tampoco tendría que esforzarse mucho...
#7 Esa es la cosa, que gracias a sitios como Xatakas, Computer Hoy, Banda ancha y demás sitios que alimentan Google Discover, llevamos conviviendo con información basura más de 10 años. El que la genera un humano o una IA, tanto da, la calidad es la misma.
#23 Esa basura ha entrenado a IA y la IA la usa a su vez para "enseñarnos" e "informarnos".
#6 el contexto/memoria es su mayor limitante hoy en dia
#28 yo no tengo ni idea de programar y hace poco me dispuse a hacer una automatización básica de la contabilidad de mi negocio. Comprobar correos, subir tickets, facturas, etc y subirlo todo a un Excel guardado en Drive. Pues bien, al principio iba todo perfecto, me hacía las diferentes partes del script a la primera o como mucho a la segunda. Se acordaba de todas la indicaciones que le había dicho previamente y yo no daba crédito como algo así podía ser posible.

Cuando ya llevaba un par de…   » ver todo el comentario
#32 pues si pruebas claude opus y le metes al prompt todo eso flipas
#46 si, he visto que hay herramientas mucho más potentes pero para lo que yo iba a hacer me llegaba con hacer un script con las 5 o 6 funciones que necesitaba mediante Google Apps Script en Google Sheets y subido a todo a Drive me llegaba la versión gratis de Gemini.

En la segunda sesión me dio varios consejos para que si empezaba a olvidar cosas como proceder y que su máximo son 70.000 tokens. Seguro que hay versiones de pago con varios cientos de miles como bien dice #41

#45 bueno, eso…   » ver todo el comentario
#32 Bueno, también influye el tipo de subscripción, llega un momento que el contexto se empieza a borrar y empiezan a " olvidar". Si pagas más tienes más capacidad.
#32 no te voy a mentir, para el final de tu comentario ho también me he olvidado de como empieza
#32 exacto. Tienes que mantener las conversaciones cortas porque sino empieza a desvariar.

Para lo de programar. Nosotros los programadores usamos herramientas a nivel del ordenador (Cursor, Codex, Gemini CLI...). Le pides una funcionalidad y la IA te modifica los archivos de código directamente. Claro, con eso puedes mantener conversaciones cortas.
#6 Yo he jugado con ChatGPT varias veces la partida de Un Faro Sin Luz, no es que sea rejugable, si no para probar a la IA en distintos momentos. Si funcionas como un proyecto y acotando escenarios y disponiendo claramente las bases, subiendole pdfs como el manual, la propia aventura, hoja de personaje y tal... Cada vez va mejor. He llegado a jugar tb con ella parte de La Mina Perdida de Phandelver y de nuevo, con algun intento de trampa que me hizo y algun mapa que se perdia un poco, en…   » ver todo el comentario
#6 Ni siquiera las pusieron a rolear. Las pusieron a decidir las acciones en una situación muy controlada y específica, en un combate. Y además en un experimento muy pobre. Tanto que retiraron el artículo tras ser rechazado por la mayoría de los reviewers.
#6 Yo flipé cuando encontré a un tipo que había hecho prompts y dado toneladas de trasfondo a una IA y decía usarla para jugar rol en solitario. Qué se había escrito varios artículos sobre el tema y llevabas arios videos subidos ya.
Pero cuánto más leías más se notaba que el usuario había sido incapaz de generar contenido coherente mediante IA y que lo único para lo que usaba la IA era para que los npc tomasen decisiones (incoherentes) en los combates.
#1 se resume en el contenido en negritas

todos muestran una degradación progresiva en escenarios prolongados.
#9 Esto indica que no usa bien el disco duro/memoria.
Porque en teoria, los datos previos deberian ser usados y guardados.
Que haya degradacion indica quizas que solo usa los datos ha guardado y estos quizas sean pocos
#13 No, no tiene por qué. En muchos benchmarks ocurre lo mismo por muchos tokens que se usen y mucha realimentación de outputs que se emplee. Hay ya tablas que comparan la eficiencia de la IA versus humanos con la variable tiempo, y todas pierden en tareas que llevan más de una hora a un humano. Hay una medida que sacan ahora sobre esa eficiencia que trata de comparar LLMs según una ratio de 50% tareas resueltas según el tiempo que les lleva a un humano completarlas al 100%. Cuanto una tarea…   » ver todo el comentario
#29 Las IAs están diseñadas para responder cuestiones cortas, en el momento que se ponga foco en otro tipo de tareas y se entrenen para eso también lo harán. Y sobre esto, las investigadores de seguridad acerca de las IAs establecen algunas lineas rojas que se comentan aquí: Objetivos a largo plazo y memoria continua...
#42 Aquí no es tanto una cuestión de entrenamiento, como de lo que puede mantener de forma conjunta en "la mente" a la vez, y eso es una limitación por hardware que no se va a multiplicar tan rápidamente.

Es verdad que se pueden usar otras estrategias, pero siempre a costa de perder algo de contexto.
#1 Entonces tiene razón el título de que "lo que pasa dice mucho del futuro que nos espera" :troll:
#1 A eso venía, además se contradice indicando que era una experiencia basada exclusivamente en combates para luego pasar a valorar el nivel de coherencia interpretativa. Si todo son combates no hay interpretación.
#1 Es solo un "refrito" de un artículo promocionado en X, pero "por lo que sea" no mencionan que han hecho poco más que una traducción parcial y cutre del artículo original.

Son tan torpes que con la captura de pantalla se puede ver quién es el autor original. Imagino que no les importa dejar claro que no saben lo que es el periodismo o que saben que sus lectores son tan imbéciles que se tragan cualquier bazofia que publiquen.

El autor de la noticia original es James Felton, el "periodista" de El Confidencial que la ha copiado cambiando poca cosa y sin citarla es R. Badillo.

www.iflscience.com/scientists-forced-ai-language-models-to-play-dungeo
#1 ya deja una cosa clara y preocupante: "degradación progresiva en escenarios prolongados", o sea, fallan en estrategias a medio y largo plazo y cada vez funcionando peor
Parece que encontraron la clave de un encabezado que produce más clicks, lo cual dice mucho de lo que está por venir

Dan a ChatGPT y DeepSeek 10.000 dólares para invertir en criptos y lo que pasa dice mucho del futuro que nos aguarda
www.elconfidencial.com/tecnologia/2025-11-02/chatgpt-deepseek-inversio
#14 el mismo "periodista" que firma este artículo aquí subido. Hasta quizás ese R. Badillo a lo mejor ni exista y es el nombre que le han puesto al "periodista" cuando los artículos los hace la IA.

Edito: he estado buscando al periodista y realmente si que existe. Aquí está una recopilación de todos sus artículos publicados en diferentes medios. Me la envaino, pero no borro lo anterior para que quede constancia de lo bocas que soy por no investigar antes de hablar :-P

muckrack.com/r-badillo
#14 Todos ellos perdieron dinero. Alguno quedó a deber
#14 eso lo hace mucho Xataka pero con el "se las prometían felices".

Si lo buscas en Google te saldrán como 30 o 40 artículos así, todos de Xataka o de su red de publicaciones.
#14 Venía justo a comentar eso: parece que el tipo no tiene mucha imaginación para los títulos, jajajaja
Noticia leída y no dice nada.
que unos LLMs juegan mejor y otros peor.

#teahorrounclick
Puff, como si las partidas de Dragones y Mazmorras fueran coherentes y estratégicas.
#3 Es un buen experimento para ver limitaciones porque en el rol hay reglas fijas, pero también hay más libertad que en cualquier videojuego, con lo que al final una IA tiene que intentar adaptarse. Si solo fuese un relato valdría todo.
El tema es que debido al tamaño de contextos y al numero de variables, las tareas que exigen evolucionar una tarea la IA va perdiendo foco a medida que la tarea se va complicado paso a paso.
La IA te hace genial un drag and drop, pero si le metes reglas de snapping, luego de rotacion, luego de traslacion, y vas afinando la tarea cada vez mas…la IA se entera cada vez menos aunque le des peticiones muy claras y directas.
No se debe a que la tarea adicional que se le haya pedido sea compleja o…   » ver todo el comentario
#31 Vaya, acabas de descubrir el diseño TopDown
Luego llegará el diseño orientado a objetos...
#39 Mas bien hay que trabajar en hexagonal Y DDD con la IA. Y evitar acoplamientos fuertes.
Pero eso para otro capítulo…
#39 También es la base de los microservicios, pero asumir que cada parte tiene que ser agnóstica del resto, en muchos casos es un error de diseño ( al igual que lo es en los microservicios ), que enmaraña y complica cosas que en principio ya eran relativamente sencillas.

La realidad, es que según la naturaleza del componente, será más o menos modularizable e independiente. Para lo que pueda funcionar de una forma aislada, la IA lo tendrá más fácil, pero en grandes aplicaciones esto no es…   » ver todo el comentario
#56 Todo tiene su medida. Las reglas se hacen con un objetivo.
Si seguir la regla complica la consecución del objetivo, no se debe seguir.

Es así de simple. Hasta un go to puede ser lo mejor en determinadas circunstancias.

Por cierto, no se si a nadie más le ha pasado. Pero chatGPT me empieza a fallar por cosas básicas.
Coge solo un trozo del texto y lo interpreta según su entrenamiento ignorando el resto. "No lee bien"... hace lecturas en diagonal y emite sus conclusiones que obviamente son erróneas.
#60 Si seguir la regla complica la consecución del objetivo, no se debe seguir.

Salvo que haya mucho hype, y esté muy de moda aplicarlo a todo, aunque no sea la mejor elección. Se ha vivido con muchos paradigmas, y se está viviendo también ahora con la propia IA.

Hasta un go to puede ser lo mejor en determinadas circunstancias.

Claro. Pero para eso, has tenido que hacerlo mal diez mil veces ( cosa que una IA puede replicar, y es su base ), y también tener el contexto de…   » ver todo el comentario
#63 No es que "olvide cosas", es que obvia parte del texto y "supone que quiere decir" lo que le sugiere su entrenamiento. A veces es un desastre.
Escribes una frase, solo coge media frase y la interpreta según su entrenamiento ignorando los matices de la segunda parte. Acaba hablando de otra cosa....
Lo curioso es que hasta hace poco no lo había notado demasiado.
#70 Igual están usando versiones distilled ( reducidas a propósito ) para los planes gratuitos o más baratos, pero si has notado la diferencia, seguramente es que algo hay.
#60 A mi me empieza a hacer eso cuando el contexto se le llena, abrir nueva conversacion hace que en parte reenfoque de nuevo.
#74 Porque yo respondía a esto:

a) "Basta con ver la evolución de estos meses. Cada vez tiene más memoria y usa más información para construir el prompt interno."

Es cierto que cada vez tienen más memoria para usar como contexto, pero es una progresión cara realizada a golpe de talonario para añadir más memoria VRAM. No es escalable ni sostenible con los modelos y la tecnología actual para su uso multitudinario. Y tampoco es utilizable en procesos largos, que es de lo que…   » ver todo el comentario
#75 muy bueno. Me ha gustado! Gracias.
Notar que en el sentido científico de la palabra el artículo nunca ha sido publicado. Especialmente NO ha sido publicado en NeurIPS, sino que NeurIPS lo ha rechazado.

Los autores mandaron el articulo, que recibió 4 reviews desfavorables (indicando que el paper no da la talla para NeurIPS) y los autores retiraron el envío. Ahora les toca a los autores tratar de mejorarlo y mandarlo a otro sitio.
El análisis final concluye que los grandes modelos funcionan bien en simulaciones basadas en reglas, pero todos muestran una degradación progresiva en escenarios prolongados.

Cero sorpresa, no es algo que no se supiera de antes.
La noticia es un plagio descarado en el que no citan la fuente. Después que si derechos de autor y tal.... Mirad la fecha "PUBLISHED January 22, 2026"

www.iflscience.com/scientists-forced-ai-language-models-to-play-dungeo
"Retan"? En serio?
#69 Actualmente hay limitaciones, como siempre, aquí nadie ha dicho que las capacidades actuales son suficientes, o que no vayan a crecer en el futuro, yo solamente anoto que para mantener más contexto, actualmente se requiere máquina, y la máquina es cara, muy cara.

Esto no quiere decir que se vaya a estancar, ni que no se pueda mejorar esa capacidad de contexto de otras maneras más baratas, pero sencillo no es.
#73 el artículo dice que la falta de contexto dice mucho del futuro que nos espera. Yo he dicho que justamente eso no define el futuro que nos espera. Tú dices que la falta de memoria los limita ahora, yo digo que las limitaciones actuales no definen el futuro que nos espera. Tú dices que las limitaciones actuales no definen el futuro que nos espera...
No tengo problema en hablar de este tema, pero está siendo una conversación un poco rara.
Si la IA se sigue basando en la ‘’inteligencia’ humana existente, ocurrirá exactamente lo mismo de siempre.
Sensacionalista de libro, menudo click bait
Justamente la pérdida de contexto de la que habla el artículo (que podría ser un tweet) no dice mucho del futuro que nos espera, porque cada vez tienen más contexto. Basta con ver la evolución de estos meses. Cada vez tiene más memoria y usa más información para construir el prompt interno.

No entiendo las conclusiones del artículo. :palm:
#35 porque cada vez tienen más contexto.

Pero ese aumento de contexto está limitado por VRAM ( memoria RAM de la tarjeta gráfica ), con lo cual es un aumento bastante acotado, y especialmente caro, lo cual restringe bastante la progresión en este sentido.
#62 igual que cuando alguien dijo que "640 KB deberían ser suficientes para cualquiera"
(Gates dijo que no fue él btw)

No hay limitaciones en este aspecto, ya hemos pasado por esto antes.
Resumen:

"Overall, the team found that the chatbots performed well, though they did struggle with long-term tasks"

cualquier que haga uso intensivo de la ia para tareas más allá de "dame 10 nombres originales para un perro", sabe del problema obvio del contexto, del elefante en la habitación, algo que ahora parece baladí pero que como no logre solucionarse va a hacer estallar la burbuja de la ia de forma estrepitosa
Una IA nunca podrá jugar sino realizar acciones

Jugar: Entretenerse, divertirse tomando parte en uno de los juegos sometidos a reglas, medie o no en él interés
Basura de NOticia, vamos no dice absolutamente nada que no se sepa. Las IAs hoy día se degrada con contextos largos.
Lo he intentafo con ChatGPT varias veces durante el último año y la realidad es que funciona de pena.
A veces es muy pasivo y espera a que le digas qué hacer, ofreciendo solo sugerencias. Otras, pone el turbo y te planta un texto enorme de lo que ha ocurrido, sin entender que es jugador y debe decir "intento X" y ver qué sicen los dados.
Se lo inventa todo y no es capaz de recordar los stats/habilidades que tiene.
Y un largo etc.
Cómo no decir nada en 60 líneas.

menéame