Un experimento científico presentado en la conferencia NeurIPS y publicado en OpenReview ha puesto a prueba a ChatGPT, DeepSeek y otros modelos de lenguaje en un escenario poco habitual: partidas de Dragones y Mazmorras. Lo ocurrido durante el juego ofrece claves relevantes sobre el futuro de la inteligencia artificial y su capacidad para mantener coherencia y estrategia a largo plazo.
|
etiquetas: juegos de rol , chatgpt , deepseek , dragones y mazmorras
Tricia Helfer en.wikipedia.org/wiki/Number_Six_(Battlestar_Galactica)
El envío aunque escueto, es sobre un artículo científico, que aparece citado y simplemente habla de las conclusiones del mismo, no hay nada que haga pensar que está escrito por IA, más bien pienso que ni lo habéis leído.
#1 #2
Quieres que te lo explique con gráficas y moñequitos?
Si/no/
¿Quieres que te resuma en una tabla las razones que demuestran que no soy una IA?
Hace un año un amigo me enseñó un supuesto prompt curradísimo para que ChatGPT hiciese de máster de una partida de rol. Hice un par de pruebas y aunque hacía el paripé bastante bien al principio después se perdía bastante, y si querías hacer trampa ni se enteraba, que llegué a inventarme objetos del inventario que no tenía y me dejaba usarlos igualmente.
Cuando ya llevaba un par de… » ver todo el comentario
En la segunda sesión me dio varios consejos para que si empezaba a olvidar cosas como proceder y que su máximo son 70.000 tokens. Seguro que hay versiones de pago con varios cientos de miles como bien dice #41
#45 bueno, eso… » ver todo el comentario
Para lo de programar. Nosotros los programadores usamos herramientas a nivel del ordenador (Cursor, Codex, Gemini CLI...). Le pides una funcionalidad y la IA te modifica los archivos de código directamente. Claro, con eso puedes mantener conversaciones cortas.
Pero cuánto más leías más se notaba que el usuario había sido incapaz de generar contenido coherente mediante IA y que lo único para lo que usaba la IA era para que los npc tomasen decisiones (incoherentes) en los combates.
todos muestran una degradación progresiva en escenarios prolongados.
Porque en teoria, los datos previos deberian ser usados y guardados.
Que haya degradacion indica quizas que solo usa los datos ha guardado y estos quizas sean pocos
Es verdad que se pueden usar otras estrategias, pero siempre a costa de perder algo de contexto.
Son tan torpes que con la captura de pantalla se puede ver quién es el autor original. Imagino que no les importa dejar claro que no saben lo que es el periodismo o que saben que sus lectores son tan imbéciles que se tragan cualquier bazofia que publiquen.
El autor de la noticia original es James Felton, el "periodista" de El Confidencial que la ha copiado cambiando poca cosa y sin citarla es R. Badillo.
www.iflscience.com/scientists-forced-ai-language-models-to-play-dungeo
Dan a ChatGPT y DeepSeek 10.000 dólares para invertir en criptos y lo que pasa dice mucho del futuro que nos aguarda
www.elconfidencial.com/tecnologia/2025-11-02/chatgpt-deepseek-inversio
Edito: he estado buscando al periodista y realmente si que existe. Aquí está una recopilación de todos sus artículos publicados en diferentes medios. Me la envaino, pero no borro lo anterior para que quede constancia de lo bocas que soy por no investigar antes de hablar
muckrack.com/r-badillo
Si lo buscas en Google te saldrán como 30 o 40 artículos así, todos de Xataka o de su red de publicaciones.
que unos LLMs juegan mejor y otros peor.
#teahorrounclick
La IA te hace genial un drag and drop, pero si le metes reglas de snapping, luego de rotacion, luego de traslacion, y vas afinando la tarea cada vez mas…la IA se entera cada vez menos aunque le des peticiones muy claras y directas.
No se debe a que la tarea adicional que se le haya pedido sea compleja o… » ver todo el comentario
Luego llegará el diseño orientado a objetos...
Pero eso para otro capítulo…
La realidad, es que según la naturaleza del componente, será más o menos modularizable e independiente. Para lo que pueda funcionar de una forma aislada, la IA lo tendrá más fácil, pero en grandes aplicaciones esto no es… » ver todo el comentario
Si seguir la regla complica la consecución del objetivo, no se debe seguir.
Es así de simple. Hasta un go to puede ser lo mejor en determinadas circunstancias.
Por cierto, no se si a nadie más le ha pasado. Pero chatGPT me empieza a fallar por cosas básicas.
Coge solo un trozo del texto y lo interpreta según su entrenamiento ignorando el resto. "No lee bien"... hace lecturas en diagonal y emite sus conclusiones que obviamente son erróneas.
Salvo que haya mucho hype, y esté muy de moda aplicarlo a todo, aunque no sea la mejor elección. Se ha vivido con muchos paradigmas, y se está viviendo también ahora con la propia IA.
Hasta un go to puede ser lo mejor en determinadas circunstancias.
Claro. Pero para eso, has tenido que hacerlo mal diez mil veces ( cosa que una IA puede replicar, y es su base ), y también tener el contexto de… » ver todo el comentario
Escribes una frase, solo coge media frase y la interpreta según su entrenamiento ignorando los matices de la segunda parte. Acaba hablando de otra cosa....
Lo curioso es que hasta hace poco no lo había notado demasiado.
a) "Basta con ver la evolución de estos meses. Cada vez tiene más memoria y usa más información para construir el prompt interno."
Es cierto que cada vez tienen más memoria para usar como contexto, pero es una progresión cara realizada a golpe de talonario para añadir más memoria VRAM. No es escalable ni sostenible con los modelos y la tecnología actual para su uso multitudinario. Y tampoco es utilizable en procesos largos, que es de lo que… » ver todo el comentario
Los autores mandaron el articulo, que recibió 4 reviews desfavorables (indicando que el paper no da la talla para NeurIPS) y los autores retiraron el envío. Ahora les toca a los autores tratar de mejorarlo y mandarlo a otro sitio.
Cero sorpresa, no es algo que no se supiera de antes.
www.iflscience.com/scientists-forced-ai-language-models-to-play-dungeo
Esto no quiere decir que se vaya a estancar, ni que no se pueda mejorar esa capacidad de contexto de otras maneras más baratas, pero sencillo no es.
No tengo problema en hablar de este tema, pero está siendo una conversación un poco rara.
No entiendo las conclusiones del artículo.
Pero ese aumento de contexto está limitado por VRAM ( memoria RAM de la tarjeta gráfica ), con lo cual es un aumento bastante acotado, y especialmente caro, lo cual restringe bastante la progresión en este sentido.
(Gates dijo que no fue él btw)
No hay limitaciones en este aspecto, ya hemos pasado por esto antes.
"Overall, the team found that the chatbots performed well, though they did struggle with long-term tasks"
cualquier que haga uso intensivo de la ia para tareas más allá de "dame 10 nombres originales para un perro", sabe del problema obvio del contexto, del elefante en la habitación, algo que ahora parece baladí pero que como no logre solucionarse va a hacer estallar la burbuja de la ia de forma estrepitosa
Jugar: Entretenerse, divertirse tomando parte en uno de los juegos sometidos a reglas, medie o no en él interés
A veces es muy pasivo y espera a que le digas qué hacer, ofreciendo solo sugerencias. Otras, pone el turbo y te planta un texto enorme de lo que ha ocurrido, sin entender que es jugador y debe decir "intento X" y ver qué sicen los dados.
Se lo inventa todo y no es capaz de recordar los stats/habilidades que tiene.
Y un largo etc.