Experimento con un PNJ basado en ChatGPT. Usando Whisper de OpenAI para la conversión de voz a texto, GPT3.5-Turbo para el "cerebro" del NPC, y ElvenLabs para la conversión de texto a voz.
#6:
Yo estoy muy ilusionado con el futuro de los videojuegos y este tema. Pensad que esto lo está haciendo un notas en su tiempo libre. Imaginad lo que podría hacer un equipo de desarrollo profesional, bajo la batuta de Microsoft, como Bethesda u Obsidian.
#3:
Para quienes no pillen el inglés: el jugador habla directamente con el barman de la taberna, le pregunta dónde encontrar aventuras, sobre las personas que le rodean, etc. El barman sabe ubicar y reconocer a cada persona de la taberna y explica al jugador quiénes son y si aceptarían o no al jugador en una nueva aventura. Todo en una conversación normal y corriente.
#14:
#6 Imagino enchufarme vía matrix a un Baldurs Gate 2 de una vastedad inabarcable, y me acojona lo tentador de la perspectiva.
#9:
#8 conseguir mundos 100% vivos. Imagina un skyrim en el que cada personaje te puede dar información según le hables tú con lenguaje natural y no con mensajes prestablecidos.
Para los rpg es una gozada.
#10:
#8 por ejemplo estas en un juego de mundo abierto y puedes charlar con la gente no jugable de cualquier trma, volver al dia siguiente y preguntarle como le ha ido en esa cosa pendiente que tenia, volver cada dia a hablar con el y que vaya aumentando sus pensamientos, recuerdos, al final serian como tus vecinos reales, si le cuentas un problema al dia siguiente te preguntan como estas recordando lo anterior... basicamente seria dificil saber si nosotros no somos ya eso...
#48:
Bueno, ahora imaginad el mundillo de la gente solitaria, las cibernovias, y todo eso. ¿A cuántos años estamos de que algo como "Her" se convierta en realidad? Gente que se enamora de un avatar virtual y habla con ella todos los días contándole su vida y diciéndole que la quiere. Parece que las distopías de ciencia ficción sobre las IA están llegando de verdad.
#12:
Se acabó el "yo antes era un aventurero como tú, pero un día me hirieron con una flecha en la rodilla"
#23:
#14 igual ya estás enchufado y aún no te han desconectado
#47:
#1 Yo creo que terminará pasando algo como lo que hizo NVIDIA en su momento, que incluyeron el kit PhysX en los drivers para dar soporte de cálculos de físicas con la GPU.
Inclulirán un GPT entrenado con lo más gordo y genérico y una API para que puedas consultarlo desde tu juego. Y luego cada desarrollador que quiera hacer uso de esto podrá incluir un checkpoint de entrenamiento extra sobre el genérico para darle el lore específico de tu juego.
El problema actual es la cantidad ingente de VRAM que consumen estos modelos, pero cada vez más, los modelos necesitan menos VRAM, son más pequeños y dan mejores resultados.
Tiempo al tiempo.
#33:
#20 Link: Buenos días, mi princesa. ¿Y esa cara?
Princesa Zelda: Tú sabrás.
Link:....
Igual un poco de guión si que sería recomendable...
Yo estoy muy ilusionado con el futuro de los videojuegos y este tema. Pensad que esto lo está haciendo un notas en su tiempo libre. Imaginad lo que podría hacer un equipo de desarrollo profesional, bajo la batuta de Microsoft, como Bethesda u Obsidian.
#14 Y ahora imagina que no eres un héroe, te ha tocado una mala tirada de dados, y te toca pasarte el juego sólo fregando suelos o recogiendo flechas, o siendo un lacayo que limpia establos..
A mi nunca me han gustado los videojuegos que ofrecen demasiadas posibilidades, ni los dungeon crawl de mazmorras aleatorias ni los de mundo libre que tan de moda están. Yo prefiero los videojuegos lineales donde los creadores pensaron un camino, y mi tarea es encontrarlo. No quiero que desarrollen un sandbox en el que me ponga a jugar de maneras que ni los creadores imaginaron. Pero entiendo que lo que se vende hoy en día es lo contrario. El nuevo Zelda ya ni lo jugaré.
#16 A mi tampoco me han gustado los juegos procedimentales, no porque ofrezcan demasiadas posibilidades, sino porque las posibilidades eran todas muy parecidas y sin sentido o conexión, demasiado "simples".
Ahora con la IA eso puede cambiar, se pueden hacer varias posibilidades conectadas y con un trasfondo suficientemente profundo como para ser interesante, y en futuros juegos los guionistas solo se tendrán que centrar en la trama principal y en las secundarias más importantes, la IA podrá hacer un buen relleno a partir de ellas.
#16 Pues yo desde que he jugado a uno donde hay 2-3 historias y puedes ir por donde quieres, aunque luego sigas la historia, no puedo jugar más a uno lineal... ni soy capaz de entender cómo disfrutaba de los CoD y demás... imposible para mí jugarlos ahora...
#62 ¿Y los juegas 2-3 veces para conocer las 2-3 historias? Entonces sí, al final es todo una historia.
Pero si no, ¿qué más te da que existan 2-3 historias si sólo conoces una? A mi sí me importa que existan 2-3, porque me da la sensación de que me pierdo las otras, que igual eran mejores.
#16 Pero imagina un mixto, donde tienes una historia principal marcada y para todos iguales. Pero luego al acabarla digamos que te da varias opciones y a partir de allí se generan nuevos mundos.
También las secundarias sean autogeneradas y paralelas a la principal. Tienes un mixto de lineal y libertad.
Para quienes no pillen el inglés: el jugador habla directamente con el barman de la taberna, le pregunta dónde encontrar aventuras, sobre las personas que le rodean, etc. El barman sabe ubicar y reconocer a cada persona de la taberna y explica al jugador quiénes son y si aceptarían o no al jugador en una nueva aventura. Todo en una conversación normal y corriente.
#3 una pregunta porque del tema desconozco pero al final el chatGPT tirará de una fuente brutal de datos que deduzco que estarán en un servidor, es factible en local? Me refiero, si no, todos los juegos tendrán que tener si o si conexión a dicha red
#68 No, Los modelos de lenguaje se entrenan con una enorme base de datos, pero una vez entrenados en realidad ocupan poco teniendo en cuenta aquello de lo que son capaces. Presupongo que al principio serán servicios desde servidor, sobre todo para usos comerciales, pero viendo como avanzan los modelos open source no creo que pase más de un año o dos para que empecemos a ver resultados locales muy similares/equiparables a los de los grandes modelos. De hecho ya está ocurriendo, hay gente montando modelos pre-entrenados en sus propios ordenadores con resultados bastante aceptables teniendo en cuenta que hablamos de potencia a un nivel "casero".
#70 a mí en local si me interesaría, pero imagino que estaremos hablando de mucho potencial y terabytes, que si alguien monta un SO y un hardware a "medida" me plantearía comprarlo, porque a mí sí me interesa offline
#17 Era una referencia a Skyrim, donde los guardias tenían esa línea de diálogo, y 3 de cada 4 veces (con un margen de error del 1,34%) de las que hablabas con ellos te la soltaban, así sin venir a cuento. Totalmente lo opuesto de lo que se hace en el video meneado, donde la conversación es totalmente única y orgánica, y por supuesto no se repite.
#18 esa frase significa "era un aventurero, pero me case". Por un error se decía demasiado (o era una frase de X que podía decir de forma random y solo decía eso), pero no lo corrigieron por que les hizo gracia (como los momentos "volare" con los gigantes).
#1 Yo creo que terminará pasando algo como lo que hizo NVIDIA en su momento, que incluyeron el kit PhysX en los drivers para dar soporte de cálculos de físicas con la GPU.
Inclulirán un GPT entrenado con lo más gordo y genérico y una API para que puedas consultarlo desde tu juego. Y luego cada desarrollador que quiera hacer uso de esto podrá incluir un checkpoint de entrenamiento extra sobre el genérico para darle el lore específico de tu juego.
El problema actual es la cantidad ingente de VRAM que consumen estos modelos, pero cada vez más, los modelos necesitan menos VRAM, son más pequeños y dan mejores resultados.
#47 Yo he ejecutado un modelo de 13b en RAM y CPU y la verdad que no iba mal del todo. Creo que uno simple de 300m con un LORA adhoc para el juego podría hasta funcionar en la generación actual.
Bueno, ahora imaginad el mundillo de la gente solitaria, las cibernovias, y todo eso. ¿A cuántos años estamos de que algo como "Her" se convierta en realidad? Gente que se enamora de un avatar virtual y habla con ella todos los días contándole su vida y diciéndole que la quiere. Parece que las distopías de ciencia ficción sobre las IA están llegando de verdad.
#4 Personalmente creo que lo de menos son los diálogos (supongo que dependerán de la cantidad y calidad del trasfondo que le proporciones a chatgpt), lo que me sorprende es que los personajes sepan ubicar, identificar y dar contexto a otros personajes.
#35 Eso va a encarecer los Rpg de mundo abierto y obligará a que sea de pago mensual, porque todo eso va a necesitar mucha GPU por usuario en el lado del servidor.
#65 Te corrijo, un RPG donde merecerá la pena pagar, que ya hay un par de ellos donde ya hay pago mensual, pero que este justificado ese pago no hay ninguno.
#35 No es tanto la potencia sino la RAM. Cuando usas un modelo tipo GPT o Stable Difussion, la potencia utilizada en cuanto acálculo por su uso es mínima. Lo que si consumes por un tubo es RAM porque tienes que cargar el modelo en memoria para poder usarlo. Todo ese contexto terminará en la RAM hasta que lo "apagues" o seas capaz de guardar esa información de alguna manera para hacer un "replay" con la misma semilla de origen (el número aleatorio que permite conseguir la misma respuesta con el mismo modelo)., así que #29 no va tampoco tan desencaminado
#35#29#52 No creo que estas cosas vayan a ser procesos "locales". Se producirán en servidores específicos para ello y lo que hace falta es que las latencias (el tiempo entre que tú hablas y te responden) bajen hasta el punto en que sea usable.
#52#60 LLaMA 7B con 7 mil millones de parámetros se puede ejecutar en local consumiendo sólo entre 4 y 6 gigas de ram, el problema es que en máquinas no específicas es lentíiiiisimo. Requiere una potencia de cálculo muy superior al consumo de memoria, cuanto mayor sea el modelo, mayor consumo de RAM, pero también se dispara la capacidad de cómputo necesaria.
#75 Yo sobre todo hablo de lo que más conozco que es Stable Difussion. Lo que consume es sobre todo memoria. La GPU y la CPU van por los suelos por muy grande que pidas que genere la imagen. Los modelos tipo LLaMA los probé pero como mismo dices tu, es lentísimo.
#60 No lo sabemos aún. Evidentemente en un servidor de un MMORPG tiene todo el sentido lo que comentas, pero en un futuro puede que los recursos necesarios para ejecutar algo al nivel del ChatGPT actual sean tan irrisorios que en juegos no online, como los RPG de toda la vida, valga la pena integrar algo como esto.
Esto es sin duda el futuro de los videojuegos. Se acabó encontrarte a los npcs de turno y que te digan siempre las mismas cosas, con un guión preestablecido, con la sensación de dia de la marmota total a la que hacias reruns de tu juego favorito.
Imaginad un zelda o cualquier otro juego de exploración con npcs hablando de manera dinámica y tus respuestas y preguntas adaptándose al contexto. El personaje por ejemplo podría hablarnos de manera mas nerviosa o enfática según lo que hayamos hecho antes. Hasta ahora se hacía de manera muy parca y limitada, 'a mano', pero esto abre límites de una manera bestial.
#29 se guarda en el servidor de la empresa, de vez en cuando ese jugador te va a soltar cosas como pues oye yo los cuchillos los compro el ldil, o este verano me voy a tal hotel de benidorm
#77
NPC: Yo compro el pan en Panadería Paco e hijos.
Héroe: Que dónde coño está el mapa para encontrar la cueva del dragón.
NPC: Paco e hijos, el pan recién hecho cada día.
#8 conseguir mundos 100% vivos. Imagina un skyrim en el que cada personaje te puede dar información según le hables tú con lenguaje natural y no con mensajes prestablecidos.
En las aventuras antiguas tenías libertad para escribir, pero era lento y si decías algo que no podían responder, te llevaban a un no te entiendo o déjame en paz.
Con las opciones preestablecidas se ganó en usabilidad, pero aún así, muchos comandos te llevaban a respuestas estándar de npi.
Piensa en las parrafadas de chatgpt. Las conversaciones pueden ser largas de cojones, al principio pueden hacer gracia, pero luego puede ser tedioso.
#8 por ejemplo estas en un juego de mundo abierto y puedes charlar con la gente no jugable de cualquier trma, volver al dia siguiente y preguntarle como le ha ido en esa cosa pendiente que tenia, volver cada dia a hablar con el y que vaya aumentando sus pensamientos, recuerdos, al final serian como tus vecinos reales, si le cuentas un problema al dia siguiente te preguntan como estas recordando lo anterior... basicamente seria dificil saber si nosotros no somos ya eso...
#11 Ojito que hace poco han sacado esto. https://vandal.elespanol.com/avances/pc/shadows-of-doubt/74085/1
Shadows of Doubt un juego de investigación detectivesca en el que te sueltan en una ciudad autogenerada y resuelves casos autogenerados.
Y cuando digo ciudad me refiero a una ciudad 3d en la que puedes entrar en cada edificio y examinar cada objeto en primera persona. Sistemas para teléfonos, llaves, alarmas, sigilo...
Con un menú en el que relacionas pistas y las usas para interrogar a los npcs y hacer el informe del caso.
Comentarios
Yo estoy muy ilusionado con el futuro de los videojuegos y este tema. Pensad que esto lo está haciendo un notas en su tiempo libre. Imaginad lo que podría hacer un equipo de desarrollo profesional, bajo la batuta de Microsoft, como Bethesda u Obsidian.
#6 Imagino enchufarme vía matrix a un Baldurs Gate 2 de una vastedad inabarcable, y me acojona lo tentador de la perspectiva.
#14 igual ya estás enchufado y aún no te han desconectado
#23
#23 Y se puede resucitar?
#27 tu prueba y nos cuentas
#23 La idea es, a ver si es un NPC
#23 Pues que me desenchufen y me metan en la buena, que está parece una beta de tantos bugs que tiene...
#23 Pues menuda mierda de juego que me he comprado.
#61 lo compró el que hace de protagonista, nosotros somos los npc de relleno
#63 Ah. Pues aún así, menuda mierda de juego.
#64 Los gráficos estan bien.
#86 Eso lo dices porque no has visto la realidad.
#14 Y ahora imagina que no eres un héroe, te ha tocado una mala tirada de dados, y te toca pasarte el juego sólo fregando suelos o recogiendo flechas, o siendo un lacayo que limpia establos..
#57 Podría ser peor, que mi compi se haya quedado sin pergaminos “De la piedra a la carne” en un paseo por la naturaleza entre basiliscos.
Mientras sea currar, hasta limpiando vómitos en la taberna, todo bien.
#6 Salivando con lo que podría ser un Fallout 8
#15 habia entendido Follar8. Perdón. En que estaría pensando.
#15 dale 20 años al Mundo Real (tm)
#6 La generación por procedimientos siempre se ha utilizado en videojuegos, aunque ahora se utilizará para más cosas.
https://es.m.wikipedia.org/wiki/Generaci%C3%B3n_por_procedimientos
A mi nunca me han gustado los videojuegos que ofrecen demasiadas posibilidades, ni los dungeon crawl de mazmorras aleatorias ni los de mundo libre que tan de moda están. Yo prefiero los videojuegos lineales donde los creadores pensaron un camino, y mi tarea es encontrarlo. No quiero que desarrollen un sandbox en el que me ponga a jugar de maneras que ni los creadores imaginaron. Pero entiendo que lo que se vende hoy en día es lo contrario. El nuevo Zelda ya ni lo jugaré.
#16 Una opción tan válida como cualquier otra. Lo bueno es tener muchas opciones y que cada uno pueda disfrutar de lo que le guste...
#28 Pero desgraciadamente hoy en día ya no quedan otras opciones.
#16 A mi tampoco me han gustado los juegos procedimentales, no porque ofrezcan demasiadas posibilidades, sino porque las posibilidades eran todas muy parecidas y sin sentido o conexión, demasiado "simples".
Ahora con la IA eso puede cambiar, se pueden hacer varias posibilidades conectadas y con un trasfondo suficientemente profundo como para ser interesante, y en futuros juegos los guionistas solo se tendrán que centrar en la trama principal y en las secundarias más importantes, la IA podrá hacer un buen relleno a partir de ellas.
#16 Pues yo desde que he jugado a uno donde hay 2-3 historias y puedes ir por donde quieres, aunque luego sigas la historia, no puedo jugar más a uno lineal... ni soy capaz de entender cómo disfrutaba de los CoD y demás... imposible para mí jugarlos ahora...
#62 ¿Y los juegas 2-3 veces para conocer las 2-3 historias? Entonces sí, al final es todo una historia.
Pero si no, ¿qué más te da que existan 2-3 historias si sólo conoces una? A mi sí me importa que existan 2-3, porque me da la sensación de que me pierdo las otras, que igual eran mejores.
#16 Pero imagina un mixto, donde tienes una historia principal marcada y para todos iguales. Pero luego al acabarla digamos que te da varias opciones y a partir de allí se generan nuevos mundos.
También las secundarias sean autogeneradas y paralelas a la principal. Tienes un mixto de lineal y libertad.
#6 ahora más tiempo perdido en mundos virtuales
#6 Mejor me espero a lo que haga Nintendo.
Un saludo.
#6, las posibilidades son infinitas.
Para quienes no pillen el inglés: el jugador habla directamente con el barman de la taberna, le pregunta dónde encontrar aventuras, sobre las personas que le rodean, etc. El barman sabe ubicar y reconocer a cada persona de la taberna y explica al jugador quiénes son y si aceptarían o no al jugador en una nueva aventura. Todo en una conversación normal y corriente.
#3 una pregunta porque del tema desconozco pero al final el chatGPT tirará de una fuente brutal de datos que deduzco que estarán en un servidor, es factible en local? Me refiero, si no, todos los juegos tendrán que tener si o si conexión a dicha red
#68 No, Los modelos de lenguaje se entrenan con una enorme base de datos, pero una vez entrenados en realidad ocupan poco teniendo en cuenta aquello de lo que son capaces. Presupongo que al principio serán servicios desde servidor, sobre todo para usos comerciales, pero viendo como avanzan los modelos open source no creo que pase más de un año o dos para que empecemos a ver resultados locales muy similares/equiparables a los de los grandes modelos. De hecho ya está ocurriendo, hay gente montando modelos pre-entrenados en sus propios ordenadores con resultados bastante aceptables teniendo en cuenta que hablamos de potencia a un nivel "casero".
#70 a mí en local si me interesaría, pero imagino que estaremos hablando de mucho potencial y terabytes, que si alguien monta un SO y un hardware a "medida" me plantearía comprarlo, porque a mí sí me interesa offline
Se acabó el "yo antes era un aventurero como tú, pero un día me hirieron con una flecha en la rodilla"
#12 por qué?
#17 Era una referencia a Skyrim, donde los guardias tenían esa línea de diálogo, y 3 de cada 4 veces (con un margen de error del 1,34%) de las que hablabas con ellos te la soltaban, así sin venir a cuento. Totalmente lo opuesto de lo que se hace en el video meneado, donde la conversación es totalmente única y orgánica, y por supuesto no se repite.
#18 ah ok. Porque no era mala línea de dialogo, con su punto irónico. Pero sí, si la repiten como que pierde su gracia
#18 esa frase significa "era un aventurero, pero me case". Por un error se decía demasiado (o era una frase de X que podía decir de forma random y solo decía eso), pero no lo corrigieron por que les hizo gracia (como los momentos "volare" con los gigantes).
#12 Skyrim
#12 la versión Skyrim del muy español, yo iba a entrar en el Real Madrid pero me fastidie el ligamento de la rodilla
Se veía venir y ya lo están haciendo. Imaginad cuando el desfase en la conversación sea mínimo...
#1 relacionada
Un mod de ‘Skyrim’ integra ChatGPT en los diálogos de los personajes
Un mod de ‘Skyrim’ integra ChatGPT en los diálogos...
hipertextual.com#1 Yo creo que terminará pasando algo como lo que hizo NVIDIA en su momento, que incluyeron el kit PhysX en los drivers para dar soporte de cálculos de físicas con la GPU.
Inclulirán un GPT entrenado con lo más gordo y genérico y una API para que puedas consultarlo desde tu juego. Y luego cada desarrollador que quiera hacer uso de esto podrá incluir un checkpoint de entrenamiento extra sobre el genérico para darle el lore específico de tu juego.
El problema actual es la cantidad ingente de VRAM que consumen estos modelos, pero cada vez más, los modelos necesitan menos VRAM, son más pequeños y dan mejores resultados.
Tiempo al tiempo.
#47 Yo he ejecutado un modelo de 13b en RAM y CPU y la verdad que no iba mal del todo. Creo que uno simple de 300m con un LORA adhoc para el juego podría hasta funcionar en la generación actual.
#47 habrá que comprarse un ssd exclusivo solo para jugar al Skyrim 2
(Es broma ya se que Skyrim 2 no tiene sentido)
Bueno, ahora imaginad el mundillo de la gente solitaria, las cibernovias, y todo eso. ¿A cuántos años estamos de que algo como "Her" se convierta en realidad? Gente que se enamora de un avatar virtual y habla con ella todos los días contándole su vida y diciéndole que la quiere. Parece que las distopías de ciencia ficción sobre las IA están llegando de verdad.
#48 filtra-esta-distribuyendo-torrent-219-gb-llama-llm-inteligencia/c011#c-11
Se filtra y se está distribuyendo en un torrent de...
news.ycombinator.com#48 viendo cómo está el mercado, estoy seguro que es mejor eso que lo que te encuentras por ahí
Se ha "partío" el lomo con los diálogos... jajajaja... que sí, que con el tiempo... 😈
#4 Personalmente creo que lo de menos son los diálogos (supongo que dependerán de la cantidad y calidad del trasfondo que le proporciones a chatgpt), lo que me sorprende es que los personajes sepan ubicar, identificar y dar contexto a otros personajes.
#5 No tengo ni idea de cómo "ven" o analizan las imágenes o la programación subyacente de los personajes, entorno, etc. Ni idea.
#7 sí, ya se nota.
#19 ¿Y no me lo vas a explicar? ¿O simplemente te quieres hacer el "gracioso"?
#37 parece que no, pero el gracioso te has hecho tu
#50 Esto de las gracietas ya me pilla un poco viejuno. Y ni siquiera entiendo tu comentario.
#53 tu sabras
#54 Ni idea de qué me hablas.
#55 pues yo tampoco
#29 el problema no está en guardar tanto dato, el problema está en la potencia necesaria para gestionarlo.
#35 Ese será otro de los problemas, claro. La gestión de la ingente cantidad de información que se generará.
Si cada NPC de cada personaje de cada persona que juegue tiene esta capacidad de aprendizaje...
#35 Eso va a encarecer los Rpg de mundo abierto y obligará a que sea de pago mensual, porque todo eso va a necesitar mucha GPU por usuario en el lado del servidor.
#45 Imagínate eso: un RPG donde tienes que pagar todos los meses para poder jugar.
#65 Te corrijo, un RPG donde merecerá la pena pagar, que ya hay un par de ellos donde ya hay pago mensual, pero que este justificado ese pago no hay ninguno.
#35 No es tanto la potencia sino la RAM. Cuando usas un modelo tipo GPT o Stable Difussion, la potencia utilizada en cuanto acálculo por su uso es mínima. Lo que si consumes por un tubo es RAM porque tienes que cargar el modelo en memoria para poder usarlo. Todo ese contexto terminará en la RAM hasta que lo "apagues" o seas capaz de guardar esa información de alguna manera para hacer un "replay" con la misma semilla de origen (el número aleatorio que permite conseguir la misma respuesta con el mismo modelo)., así que #29 no va tampoco tan desencaminado
#35 #29 #52 No creo que estas cosas vayan a ser procesos "locales". Se producirán en servidores específicos para ello y lo que hace falta es que las latencias (el tiempo entre que tú hablas y te responden) bajen hasta el punto en que sea usable.
#52 #60 LLaMA 7B con 7 mil millones de parámetros se puede ejecutar en local consumiendo sólo entre 4 y 6 gigas de ram, el problema es que en máquinas no específicas es lentíiiiisimo. Requiere una potencia de cálculo muy superior al consumo de memoria, cuanto mayor sea el modelo, mayor consumo de RAM, pero también se dispara la capacidad de cómputo necesaria.
#75 Yo sobre todo hablo de lo que más conozco que es Stable Difussion. Lo que consume es sobre todo memoria. La GPU y la CPU van por los suelos por muy grande que pidas que genere la imagen. Los modelos tipo LLaMA los probé pero como mismo dices tu, es lentísimo.
#60 No lo sabemos aún. Evidentemente en un servidor de un MMORPG tiene todo el sentido lo que comentas, pero en un futuro puede que los recursos necesarios para ejecutar algo al nivel del ChatGPT actual sean tan irrisorios que en juegos no online, como los RPG de toda la vida, valga la pena integrar algo como esto.
Esto se parece bastante a 'Westworld'.
Esto es sin duda el futuro de los videojuegos. Se acabó encontrarte a los npcs de turno y que te digan siempre las mismas cosas, con un guión preestablecido, con la sensación de dia de la marmota total a la que hacias reruns de tu juego favorito.
Imaginad un zelda o cualquier otro juego de exploración con npcs hablando de manera dinámica y tus respuestas y preguntas adaptándose al contexto. El personaje por ejemplo podría hablarnos de manera mas nerviosa o enfática según lo que hayamos hecho antes. Hasta ahora se hacía de manera muy parca y limitada, 'a mano', pero esto abre límites de una manera bestial.
#20 Link: Buenos días, mi princesa. ¿Y esa cara?
Princesa Zelda: Tú sabrás.
Link:....
Igual un poco de guión si que sería recomendable...
Haces esto mismo en la aventura original de Leisure Suit Larry...
Un motor con esto. Como un tanque apuntando a un campanario.
O el Zelda... Buff.
Por no hablar de juego rollo diablo etc.
Un sin fin de posibilidades, debe de dar un regustirrinin
#43 Eso será para la versión pirata, para la oficial será AWS, Azure o similar, dependiendo de quien sea el dueño de la desarrolladora del juego.
#29 En la nube
#40 La nube somos todos...
#29 se guarda en el servidor de la empresa, de vez en cuando ese jugador te va a soltar cosas como pues oye yo los cuchillos los compro el ldil, o este verano me voy a tal hotel de benidorm
#77
NPC: Yo compro el pan en Panadería Paco e hijos.
Héroe: Que dónde coño está el mapa para encontrar la cueva del dragón.
NPC: Paco e hijos, el pan recién hecho cada día.
Me ha impresionado más que ElvenLabs sea capaz de escoger tan acertadamente las inflexiones de voz adecuadas para la conversación.
Por fin Abascal y Ortega Smith van a poder tener un poco más de debate, porque hasta ahora sus respuestas eran muy prototípicas.
El problema que le veo es acotar para que puedas seguir una historia, y en este caso por ejemplo que te pida una misión
Qué exagerados si ni siquiera me puede hacer un vídeo para YouTube
Me parece que mas de uno va a estar sin ducharse mas de un mes cuando salga esto
¿Y todo esto para qué?
#8 conseguir mundos 100% vivos. Imagina un skyrim en el que cada personaje te puede dar información según le hables tú con lenguaje natural y no con mensajes prestablecidos.
Para los rpg es una gozada.
#9 seguro?
En las aventuras antiguas tenías libertad para escribir, pero era lento y si decías algo que no podían responder, te llevaban a un no te entiendo o déjame en paz.
Con las opciones preestablecidas se ganó en usabilidad, pero aún así, muchos comandos te llevaban a respuestas estándar de npi.
Piensa en las parrafadas de chatgpt. Las conversaciones pueden ser largas de cojones, al principio pueden hacer gracia, pero luego puede ser tedioso.
#8 por ejemplo estas en un juego de mundo abierto y puedes charlar con la gente no jugable de cualquier trma, volver al dia siguiente y preguntarle como le ha ido en esa cosa pendiente que tenia, volver cada dia a hablar con el y que vaya aumentando sus pensamientos, recuerdos, al final serian como tus vecinos reales, si le cuentas un problema al dia siguiente te preguntan como estas recordando lo anterior... basicamente seria dificil saber si nosotros no somos ya eso...
#10 Y dónde guardaremos tanto dato?
#8 Aventuras gráficas multiaventura, supongo.
#11 Ojito que hace poco han sacado esto.
https://vandal.elespanol.com/avances/pc/shadows-of-doubt/74085/1
Shadows of Doubt un juego de investigación detectivesca en el que te sueltan en una ciudad autogenerada y resuelves casos autogenerados.
Y cuando digo ciudad me refiero a una ciudad 3d en la que puedes entrar en cada edificio y examinar cada objeto en primera persona. Sistemas para teléfonos, llaves, alarmas, sigilo...
Con un menú en el que relacionas pistas y las usas para interrogar a los npcs y hacer el informe del caso.
Probé la demo y me resultó abrumador.
#8 Para estafar a gente por teléfono. Le veo potencial.
#34 ya se esta usando. Los sms de "soy tu hijo, perdi el movil, mandame whatsap a X numero" los lleva un motor de IA.