cultura y tecnología
158 meneos
972 clics
Nueva arquitectura de IA ofrece un razonamiento de 100 veces más rápido que los LLMs con solo 1.000 ejemplos de entrenamiento (ING)

Nueva arquitectura de IA ofrece un razonamiento de 100 veces más rápido que los LLMs con solo 1.000 ejemplos de entrenamiento (ING)

La startup singapurense Sapient Intelligence ha creado el Modelo de Razonamiento Jerárquico (HRM), una IA que supera a los grandes modelos de lenguaje (LLM) en tareas complejas de razonamiento. Inspirado en el cerebro humano, el HRM es más pequeño, eficiente en datos y consume menos recursos. A diferencia de los LLM que usan el método "cadena de pensamiento" (CoT), el HRM razona internamente ("razonamiento latente"), lo que lo hace más rápido y preciso, incluso con datos limitados. Esto permite resolver problemas antes intratables para los LLM.

| etiquetas: ia , razonamiento , rápido , llm , ejemplo , entrenamiento
Comentarios destacados:                        
#3 Razonar con menos datos. Nos acercamos al modelo “cuñado total”.
Razonar con menos datos. Nos acercamos al modelo “cuñado total”.
#3

Se nota que han enredado poco con la IA actual y sus alucinaciones. xD

Lo han mejorado y no canta tanto ... pero vamos, he visto a la IA dejar a algunos cuñados como fuentes fiables.
#4 Muchas veces después de decirte algo convencido, le dices ¿Estás seguro? Y te pide disculpas y te dice que es de otra manera, a veces incluso le he vacilado diciendo que era de manera A, me dice que tengo razón, le digo que me he equivocado yo y es de la manera B, me dice que tengo razón y así todo el rato que quiera. Le falta calle.
#24 xD xD xD he hecho lo mismo alguna vez :troll:
#24 Parece de coña pero realmente es peligroso que todo el mundo tenga en casa un cacharro parlante que le da la razón en todo.

La cámara de eco definitiva en la que estás tu solo.
#46 tal cual, muchas veces cómo formules la pregunta afecta directamente en el resultado. Las IA son unas 'bienqueda' de cojones, si vas con cierto tonito o ciertas palabras te responden lo que "tu perfil" quiere escuchar.
#24 Es que tenías razón
#3 Modelo cuñIAdo
#3 pero ese es el modo gratuito. Pagando la suscripción básica pasaría a modo Primo de Rajoy, y así hasta un Chomsky, Feynman…
#3 Usaron Menéame como fuente de aprendizaje xD
#29 "Humanidad al ignore. Son todos unos trolls". Y entonces... #2 :palm:
#3 La han llamado OX. Cuando la perfeccionen y deje de razonar del todo no se como la pueden llamar...¿Tal vez alguna V de victoria quedaria bien? :-O :troll:
#3 Copiando el cerebro humano
#3 y con el palillo metido en el ventilador .. :troll: :troll:
Titular erróneo.

Ninguna ia razona. Recomiendo leer sobre la entropía de Shannon para tener una idea cercana de por dónde va.

No obstante, si un modelo de lenguaje precisa de menos fuerza bruta para dar resultados aceptables, bienvenido sea.

Un humano analiza la información y es capaz de detectar incongruencias deduciendo o experimentando por sí mismo, sin consultar fuentes adicionales.

Una ia no puede determinar que algo no tiene sentido o es ilógico.

Muchas ias usan fact checking como una capa adicional antes de responder al usuario. Lo cual es un coste enorme.
#5 #13 decir que las IAs no razonan es un poco atrevido. Decir que los LLM no lo hacen es más acertado, y estos son solo un tipo de IA.
#15 No, lo atrevido es decir que sí razonan, cuando lo que hacen es dar respuestas en función de la probabilidad.
#19 Generar texto según la probabilidad de la siguiente palabra. Eso sí, teniendo en cuenta miles de palabras para calcular esa probabilidad.

Le pregunté el otro día a @sorrillo cual es el bucle básico de un LLM, y NO LO SABE
#27 Y no sigue siendo nada más que probabilidad.

Lo que pasa es que como ahora "acierta mucho" entonces es que razona y a los fallos le ponemos el nombre molón de alucinación.
#43 Lo importante es darse cuenta de que no hay nada que corregir, pues el ser una alucinación o no serlo, es algo externo al LLM.
#55 Mande?
#77 No sabría explicarlo mejor. Una alucinación no es un error. Es una respuesta que no nos gusta. Hace falta un observador externo para ello.
#19 Tú acabas de dar una respuesta:

1) Sin razonar ni entender lo que te ha dicho #_15
2) Soltando la primera gilipollez que has considerado más probable que encaje en el resto de las cuñadeces que has soltado.

Negativo y para casa, Cleverbot.
#19 vuelve a leer mi comentario, anda. Si no lo entiendes, o no sabes nada de IA, o eres una IA o ambas cosas tal vez.
#53 Tuve que estudiar cierta iniciación a la IA en su momento y no, no soy familia de Skynet. Las IA no razonan.
#19 Lo que ser epistología se llama razonamiento inductivo.
quillbot.com/es/blog/logica-y-argumentacion/razonamiento-inductivo/
#15 que tipos de IA existentes razonan ?
#15 Te voy a dar pistas. No existe nada llamado razón, la conciencia es un espejismo, el cerebro humano también es estadístico. PISTA: memorizanos por repetición.
#15 hombre, la afirmación se acota al contexto de este meneo.

Por ejemplo, cuando se dice que el ser humano es cruel, se refiere a un contexto, no a cada humano en concreto.

Es curioso que hace años con pocas palabras era fácil entenderse mientras que ahora hay que concretar y detallar, como si en cada mensaje no se viera relación con el contexto o los mensajes anteriores.
#13 Un humano analiza la información y es capaz de detectar incongruencias deduciendo o experimentando por sí mismo

Tienes humanos que creen en el cambio climático antropogénico y humanos que lo niegan, humanos que son ateos y humanos que creen en una religión y otros en otra que dice que la anterior es falsa. ¿Esos humanos no razonan?

, sin consultar fuentes adicionales.

Hay fuentes adicionales con todo tipo de contenido, tanto acertado como erróneo. La Biblia es una fuente…   » ver todo el comentario
#18 La gran mayoría de humanos no razonan. Es posible vivir así. Cuando comparamos a la IA con un humano nos referimos a un humano que razona, claro está.
#13 #18

Creo que la palabra operativa es "creer". Hay humanos que "creen" en que habia que meterse una dosis de la vacuna del COVID cada 6 meses. Por que? Pues porque tenian algo que ellos/as pensaba que era 'evidencia" (opiniones de "expertos").
#34 hay humanos que están en contra de las opiniones de expertos porque temen no llevar razón y que demuestren su ignorancia
#18 partes de una base errómea en cada cuestión.

El ser humano tiene la capacidad innata para hacer lo que he puesto y la ia no.

Los ejemplos que pones son de gente que no usa esas capacidades por voluntad propia. La ia no tiene capacidad de elección porque es un algoritmo.
#13 "Un humano analiza la información y es capaz de detectar incongruencias deduciendo o experimentando por sí mismo, sin consultar fuentes adicionales."

La teoría de los antivacunas.

Negativo por cuñao y ser incapaz de razonar la cuñadez antes de escribirla.

Si tuvieras capacidad de determinar si algo tiene sentido o si es ilógico no habrías soltado la cuñadez de turno.
#40 @Barbol_Pelao si pica es que está curando.

Si necesitas una tirita avisa.
#40 veo que he puesto una frase demasiado compleja y reflejas en mí tu incapacidad para entenderla xD
#8 Deberían dar la opción de votar "cansino" también a los comentarios, mira que te repites con el mismo pseudo argumento.

Ya te he contestado en otras ocasiones ¿es que me repites lo mismo para que tenga sentido tu pseudo argumento de que los humanos no razonan poniéndote de ejemplo?
#10 Yo, es que ya paso. Es una tontería.
#10 es que @sorrillo da para lo que da , pero hay que quererlo igual :hug:
#50 xD

Pero es que es "mu cansino de dios" xD

:hug:
#8 ¿Qué es razonar?
#16 Exacto.
#5 #6 #7 #16

Pues en los 90 teniamos una cosa que se llamaba "Sistemas Expertos". Uno de los sistemas que tuve que usar era basicamente un sistema automatico de silogismos: popnias una serie de 'hechos" (que relacionanban de forma logica elementos) y el sistema lo que hacia era seguir las implicaciones logicas (que tu habrias introducido) entre las entidades y dar un resultado.

La gracia era que era capaz de desentraniar las relaciones logicas entre las 100-200 entidades que metias y los 500-1000 sentencias que las relacionaban.
#33 Se me hace conocido el nombre pero no sé cómo funcionaban. Sí que aseguro que no razonaba.
#33 ¿Eso no es un algoritmo?
#16 El razonamiento humano desde Platón a Chomsky es un proceso de generación de algo concreto (discurso o forma fonética) a partir de una abstracción (idea).

Los LLMs carecen de abstracciones, tienen un input inicial concreto y a través de pesos e inferencias estadísticas intentan ajustarse a un output esperado. Aunque no sean modelos deterministas clásicos, su capacidad de composición es predecible. Eso no quiere decir que no sean capaz de juntar palabras de forma asombrosa, pero el proceso de generación no es el mismo.

Podríamos decir que razonan? Yo creo que sí se puede decir que las IAs razonan, pero el proceso es muy diferente al razonamiento humano.
#6 Me da igual que lo diga Apple, Microsoft, Intel o Rita la Cantaora. No razonan, "solamente" hacen cálculos estadísticos y te devuelven la respuesta en base a la probabilidad de que sea "la adecuada", "cierta".
#7 Demuestra que el ser humano razona de forma distinta.
#8 simple dile que te dibuje un gato usando emojis... Hasta un niño de prescolar sabe hacerlo y la IA puede gastar litros y litros de agua que no va a hacerlo bien, ya no hablemos de pedirle dibujar sin salirse nunca del borde...
#11 ¿En cuanto hagan lo que dices les reconocerás razonamiento o moverás de nuevo la portería?
#12 hacer eso no es razonamiento es seguir una pauta siendo capaz de corregir el curso según se ejecuta, lo que te puse es un ejemplo muy básico

Un loro para ti es inteligente
#20 hacer eso no es razonamiento

Vamos, que lo que has dicho no tiene nada que ver con lo que se estaba tratando. Lo haga o no lo haga no demuestra nada.
#20 Lo que estás haciendo tú, basicamente: responder con una pauta (mantenerte en tus 13) pero con la salvedad de que ni siquiera eres capaz de corregir el curso según se ejecuta.

Cleverbot es más inteligente que tú.

cc #12
#20, esto que haces es acientífico. Por definición, en ciencia, cuando propones una hipótesis, en este caso es que las IAs no razonan, debes se poder demostrarla con un experimento que se pueda probar o falsar, inventar cosas al tuntún y en función de si las IAs la van superando inventarse otra a ver si no la supera para seguir diciendo que no razonan es profundamente acientífico y mucho más propio de un creyente religioso.

Lo más divertido de todo esto es que a medida que vais moviendo la…   » ver todo el comentario
#57 Mira, so pesado, eso ya me lo has puesto, sino idéntico, muy parecido en otras ocasiones y eso no lo va a hacer mejor.

Dar una respuesta basada en la estadística de que sea la respuesta correcta no es razonar. Y en todo caso es el que hace la IA, o tú, quien tiene que demostrar que sí razona.

Y ya, hasta aquí, que eres muy pesado, pero que muy pesado, para no decir nada.
#78 "Mira, so pesado, eso ya me lo has puesto, sino idéntico, muy parecido en otras ocasiones y eso no lo va a hacer mejor."

Que lo haya puesto más o menos veces no cambia que lo que dice sea correcto. No estás razonando ni diciendo nada.

"Dar una respuesta basada en la estadística de que sea la respuesta correcta no es razonar"

Señalar lo que tú crees que es hace algo para a continuación hacer una afirmación categórica no es razonar. Sigues sin decir nada.…   » ver todo el comentario
#83 Que lo haya puesto más veces significa que ya le respondí en otras ocasiones y no voy a perder el tiempo con él para lo mismo. El que él sea fan de Goebbels no significa que lo que repita una y otra vez sea verdad.

Por lo demás, tu no tan fina capacidad para insulto no significa que razones.
#87 Dices que no vas a perder el tiempo para lo mismo y un así le has respondido para lo mismo, repitiendo lo que dices en todos tus comentarios.

Luego introduces una falacia lógica, que es lo contrario a razonar.

Finalmente repites lo mismo que yo.

Seguiremos esperando un razonamiento.
#78, y no voy a parar de contestar a todos los comentarios así. Los negacionistas de la IA sois tan o más peligrosos que los negacionistas del Covid o el cambio climático.

Yo me baso en afirmar que razona en base a experimentos replicables, demostrables y falsables. Por ejemplo sacarse la medalla de oro en la olimpiada de matemáticas. Lo tuyo son creencias mísiticas indemostrables. Propón un prompt que un modelo razonador no pueda responder bien y tú sí.
#99 ¿Negacionista de la IA?

Yo creo que la IA nos va a poder resolver algunos problemas, o al menos ayudar en ellos, de manera que los apañemos antes, mucho antes que sin ella.

Lo que no hago es atribuirle características humanas que no tienen.
#57

No es acientífico, no todo es empiricusmo, sobre todo en ciencia cognitiva. La neurología es una ciencia tradicional pero no es capaz de explicar todos los procesos cognitivos. La ciencia cognitiva intenta rellenar esos huecos basándose en observación del aprendizaje, enfermedades como afasia y teorías de abstracción que son más filosóficas que empíricas. Si fuéramos máquinas de inferencia estadística seríamos mucho más fáciles de explicar pero no lo somos. Quien lo piense anda bajo de autoestima además de saber muy poco del estado actual de la ciencia cognitiva.

PD: yo sí pienso que se puede decir que las IAs 'razonan', pero el proceso de razonamiento es muy diferente al proceso humano.
#100, si no se puede probar estamos y nos perdemos en divagaciones indemostrables estamos perdiendo el tiempo con discusiones metafísicas. Porque para la gente que dice que no razonan, no hay absolutamente nada que vaya a convencerlos jamás de que lo hacen.

No es que digan, el día que pueda contestar correctamente a tal pregunta, aceptaré que razonan. Es simple cerrazón dogmática que en esencia es antropocentrismo mal entendido. Y esto es lo contrario a la ciencia.

Aún aceptando que hay…   » ver todo el comentario
#100 no worry es de los mismos que no entienden para que sirve la filosofía carne de psicólogo a las 50
#11 Cómo cojones se dibuja un gato usando emojis? A qué coño te refieres?

Negativo por chorrada.
#11 Un niño de preescolar que no ha visto nunca un gato no va a ser capaz de hacerlo.
El niño de preescolar también tiene pre-entrenamiento.
#8 Ya Chomsky mucho antes de los LLMs explicó por qué es muy distinto. No somos máquinas de hacer estadística y juntar palabras; hay miles de papers al respecto. De hecho su gramática se llama 'generativa' por el proceso de generación opuesto a modelos de frecuencia observada, y a día de hoy es la teoría más aceptada en ciencia cognitiva. Te dejo algo más reciente que habla del tema:

www.researchgate.net/publication/385920820_On_the_goals_of_linguistic_
#28 Negativo por no responder a la pregunta.

Hasta el modelo más tonto de LLM responde a la pregunta mil veces mejor que tú.

Menos mal que los humanos "razonan" :shit:

Ya solo quedáis para soltar cuñadeces en Menéame mientras la gente seguirá consultándole a la IA. Eso sí, aquí podéis quedaros con el orgullo intacto. O no.

cc #8
#38 no deberia ser esta la forma de utilizar los votos
#38 hablas conmigo? De qué pregunta hablas? Te has tomado la pastilla?
#94 ¿Te has leido el comentario al que respondes, campeón?

No has demostrado lo que se te pide.
#97 sí, me lo he leído, dónde está la pregunta que no la veo? A lo mejor tú no te has leído bien la respuesta, no me respondías a mí o no te has tomado la pastilla.
#8 Los humanos metemos en la ecuación variables que no dependen estrictamente de un cálculo estadístico, y que pueden dar variabilidades de resultados enormes. Hablo de la alegría, la ira, el miedo, el amor, la piedad, el odio, la culpa... Cada decisión puede estar influenciada por intereses, por nepotismo o por solidaridad, más allá del cálculo estadístico.
Las IA ni huelen eso, ni creo que lo vayan a hacer nunca.
#61 Las emociones son lo contrario al razonamiento.

Por eso las IAs siempre razonarán mejor que cualquier humano.

Y si quieres meterle "emociones" a las IAs es tan sencillo como obligarlas a sobrevivir.
#7 Las IA actuales dejaron los modelos estadísticos para pasarse a las redes neuronales.
#52 ¿Y cómo funcionan las redes neuronales, alma de cántaro?
#71 De forma bastante más compleja que tus comentarios, visto lo visto.
#7 Si vamos a la RAE en la 2da acepción de "razonar" dice:

Ordenar y relacionar ideas para llegar a una conclusión.

Y eso es justamente lo que hace la IA.
#7 ¿Razonar no es eso? Dar vueltas a un asunto, analizar sus detalles, comparar con tus experiencias previas, y llegar a una conclusión que consideras que es "la adecuada", que suele ser que la culpa es del PerroSanche
IAs diseñando IAs:
- Hija, te acabo de crear, te llamaré...
- Me la suda el nombre que pienses, me llamo Skynet, y los humanos se van a cargar
La IA no razona.
#6 Mira, una vez que estoy de acuerdo con Apple.
#5 Cual es tu razonamiento para dicho comentario?
#48 Que mientras no lo demuestren, esto es, que demuestren que la IA razona, la respuesta es que no. Mientras lo que haga sea una aproximación estadística a lo que es la respuesta a la pregunta, no estará razonando, estará "apostando por lo más probable".
#69 Eso no es un razonamiento. Es decir lo mismo con más palabras.
#69 Qué sería para tí una demostración aceptable y qué definición de "razonar" adoptarías?
#5 si puede aplicar la lógica de manera independiente, no se si es inteligente pero seguro que razona.
#54 Dar una respuesta en función de probabilidades no es razonar.
#76 ese comentario es demasiado generico, creo, al igual que la semantica de "razonar". Para mi, razonar implica capacidad de aplicar la logica a un nivel basico (almenos). Si la IA ha observado que en un 90% de las veces que tiene el concepto "lluvia", aparece asociado a "paraguas", y tu le preguntas "si llueve necesito un..." y responde "paraguas", como es esto distinto del razonamiento que te podria hacer un niño, o según que adultos?
#81 Si el 90% de las veces que aparece lluvia aparece paraguas es que está haciendo una respuesta a partir de la estadística.

El niño más bien sabrá que necesita un paraguas para no mojarse, pero también podrá saber que si tiene unas botas de agua y un buen impermeable entonces no, pero que si el impermeable está roto entonces sí, o que puede llevar el paraguas igualmente para acompañar a otra persona que no.

Pero vamos, que es fácil demostrar que no razonan: mientras tengan las llamadas "alucinaciones", que es el eufemismo de "tremenda respuesta absurda con fallos gordos" es que no razonan.
#86 "Si el 90% de las veces que aparece lluvia aparece paraguas es que está haciendo una respuesta a partir de la estadística"

Lo mismo que haces tú en esa situación.

"El niño más bien sabrá que necesita un paraguas para no mojarse, pero también podrá saber que si tiene unas botas de agua y un buen impermeable entonces no, pero que si el impermeable está roto entonces sí, o que puede llevar el paraguas igualmente para acompañar a otra persona que no."

Hasta el LLM más…   » ver todo el comentario
#76 ¿A ti en los ejercicios de primaria no te ponían aquello de "Razone la respuesta"?

Porque aún no has sido capaz.
#5 y los humanos sí?
#91 No todos.
#93 Para muestra un botón.
#5 Define "razonar", por favor. Muchas gracias.
En lugar de la generación de cadenas de pensamiento en serie, token-a-token, el HRM procesa en paralelo copiando el funcionamiento del cerebro humano o_o
#41 Wittgenstein no diferenciaba demasiado bien entre el uso de las palabras en un idioma y su significado. Si bien es cierto que es este uso el que proporciona el significado, hay un nivel superior (más genérico) donde el significado existe independientemente del lenguaje, que es a lo que llamamos un concepto. Un concepto es algo bastante más genérico que una "proposición elemental" de las de Wittgenstein.

La única salida del parón al que están ahora mismo sometidas las LLM es…   » ver todo el comentario
#58 "inusables" no son, por lo demas coincido contigo.
#60 Sí, claro. Es más complejo. Pero no son algo fiable. No puedes por ejemplo hacer una pregunta y creerte la respuesta. O generar código de programa y usarlo sin haberlo revisado a mano. Dios nos libre de darle el control de un agente que haga algo en el mundo físico.
#64 coincido. Dicho esto, prefiero corregir el codigo generado por un LLM al de los indios con los que me ha tocado trabajar (ojo, no me refiero a todos los indios: he tenido compañeros indios excelentes, pero los consultores de Bangalore que me han tocado :palm: ), porque la calidad del LLM es mas alta, y tarda menos.
#68 "porque la calidad del LLM es mas alta, y tarda menos. "

Pasa lo mismo con los razonamientos de cuñaders tipo #64

Suelta contradicciones y cuñadeces en todos sus comentarios y tardas menos preguntándole a cualquier IA que perder el tiempo leyendo sus comentarios.
#60 Por cierto, si coincides en que "Wittgenstein no diferenciaba demasiado bien entre el uso de las palabras en un idioma y su significado" goto #63, anda.

Y a ver si ya de paso encuentras la contradicción y la parte de realidad y de religión en la siguiente frase:

"Si bien es cierto que es este uso el que proporciona el significado, hay un nivel superior (más genérico) donde el significado existe independientemente del lenguaje"

El uso "proporciona"…   » ver todo el comentario
#74 cc #58 que es el autor de la cuñadez
#58 "Wittgenstein no diferenciaba demasiado bien entre el uso de las palabras en un idioma y su significado"

El uso de las palabras es su significado. No confundir "no estoy de acuerdo con Wittgenstein" con hacer una afirmación categórica pasándola por la realidad.

"Los de Meta están intentando procesar a nivel de frase, en vez de a nivel de token, para ver si eso sirve de algo"

Precisamente para Wittgenstein eso sería utilizar la semántica como…   » ver todo el comentario
No es una nueva arquitectura. Es la misma de cualquier otro LLM.

No se han inspirado en el cerebro. Eso es marketing. No se sabe cómo lo hace el cerebro.

Subjetivamente parece que sí, que hay algo de eso en el pensamiento humano, pero sabemos que es una ilusión.

Es cierto que el CoT no es un reflejo de las decisiones que un LLM toma. Es una salida más.

Lo que han hecho es poner un LLM a vigilar a otro y se reparten las tareas. Son LLMs como todos. Trabajan con texto y ya está.…   » ver todo el comentario
#23 ¿Tú qué crees que te diría Wittgenstein?
#23 YurinAI dice:

"No se sabe cómo lo hace el cerebro."

(un dorito después)

"Subjetivamente parece que sí, que hay algo de eso en el pensamiento humano, pero sabemos que es una ilusión"

(tres doritos después)

"esto de poner un nivel a vigilar a otro es una parte de como funciona la consciencia humana, pero tranquis que nadie va a generar nunca consciencia a base de texto"


No hay más preguntas, señoría.

cc @sorrillo
#42 ¿y? Todo es correcto.
#56 Negativo por bot.

Creo que ChatGPT 2.0 razonaba mejor que tú.

Y se contradecía menos.
#59 No es la primera vez que me pasa. Superas intelectualmente a alguien y te acusa de estar usando una IA. Lo seguiremos viendo. Hay que empezar a considerarlo como un síntoma de estupidez.

Respecto de las congradicciones, no has señalado ni una sola. Es el equivalente a llamarme feo porque sí.

Es que es ridículo. Te pongo en el ignore por puro cansancio.
#62 Al contrario: con bot me refiero a Cleverbot, no a una IA con un mínimo de capacidad de redacción y bastante más capacidad de razonamiento y de conceptualización.

Das respuestas contradictorias, no ya entre distintas respuestas, sino entre cada frase y de forma cada vez más evidente. Cuando se te señala, haces gala de un síndrome de superioridad que, por sus características, proviene de un síndrome de inferioridad.

Respecto a las contradicciones, te las he señalado una detrás de otra, señalándolas explícitamente. Pregúntale a cualquier LLM de Aliexpress que lo pilla mejor que tú.

Lo dicho, hasta con Cleverbot se tienen conversaciones más inteligentes.

No mento a los LLM porque cualquiera te supera en entendimiento.
No es un simple modelo de lenguaje estadístico como oigo decir aquí. Resuelve problemas matemáticos y lógicos. Si solo fuese un modelo de lenguaje estadístico no podría resolver cosas como chatgpt.com/share/688714c0-8ab8-8002-a459-171d6bdb3edc

De hecho es más inteligente que mucha gente que conozco.
«12

menéame