edición general
10 meneos
57 clics

Geoffrey Hinton dice que los LLM ya no solo predicen la siguiente palabra  

El premio Nobel de física y uno de los padres de la IA moderna afirma que los nuevos modelos aprenden razonando e identificando contradicciones en su propia lógica. Esta automejora ilimitada "terminará haciéndolos mucho más inteligentes que nosotros".

| etiquetas: nobel , ia , llm
#7 En verdad, la conciencia humana no es nada mas que una maquina. Sin embargo, no sabemos como funciona, ergo, es imposible replicarla.

Lo que sí sabemos es que no se basa en la estadística ni en metodos matemãticos complejos pero deterministas
#13 A lo mejor el razonamiento de un super LLM no consiste en replicar el razonamiento humano. A lo mejor, y digo a lo mejor, se convierte en otro tipo de razonamiento. Incluso más interesante y menos limitado.
#14 El día que una máquina razone, será interesante de observar. Por ahora no tenemos nada de eso. Tenemos salidas producidas por la IA, algunas de ellas, que cuando las lee un humano les asigna características. Puede ser tanto "inteligente" como "sensible", "malvado", o cualquier otra gilipollez que se le ocurra al humano.

Pareidolia. No hay más.
#32 Todo apunta que el día que una máquina muestre capacidad de razonar haya hordas de gente negando que eso haya ocurrido.

A cualquiera que hace 50 años le preguntases que si para programar se necesita razonar te habría afirmado rotundamente que sí, hoy en día la respuesta suele ser distinta, lo que se ha hecho es mover la portería.

En realidad la definición de razonar que aplicamos es que si lo puede hacer una máquina eso no es razonar.
#34 Todo apunta que el día que una máquina muestre capacidad de razonar haya hordas de gente negando que eso haya ocurrido.

Ahora mismo es el caso. Pareidolia y mucha gente negando que eso signifique nada, yo entre ellos.

En realidad la definición de razonar que aplicamos es que si lo puede hacer una máquina eso no es razonar.

Porque si una máquina que no razona puede hacerlo, entonces es posible hacerlo sin razonar.
#51 Como bien nos explicas partes de la premisa que la máquina no razona y por lo tanto todo lo que haga lo hará sin razonar, y partes de la premisa que el humano razona y por lo tanto no es necesario demostrar que lo hace sino que basta con afirmarlo.

Es el concepto de alma con otro nombre.
#13, pero es que estamos hablando de inteligencia, no de consciencia. La consciencia es el mecanismo que ha encontrado la evolución para guiar nuestra intelgencia pero su función es distinta a la de la inteligencia, Albert Einstein era mucho más inteligente que nosotros, pero no tenía porque ser más consciente.
#13 "En verdad, la conciencia humana no es nada mas que una maquina. Sin embargo, no sabemos como funciona"

Pena que no hubieses terminado el comentario ahí. Está bien comprender que no se sabe algo y decirlo abiertamente.

Lo de que es "imposible" replicarla... si Zanahorio no destruye el mundo antes, acabará llegando el día en el que se pueda. No es imposible para nada, solamente aún no tenemos la tecnología para hacerlo. Con la potencia de cálculo suficiente se podrían…   » ver todo el comentario
#13 Una forma de replicar algo es mirar sus outputs y buscar maneras de reproducir eso.
Es el alcalde el que quiere que sean los vecinos el alcalde.
#10 Se tiene que demostrar que está razonando.

Salvo si hablamos de una persona, sobre esas no hace falta demostrar que tengan alma, perdón, no hace falta demostrar que estén razonando.
#35 Ya admitiste que no vas a entrar en razón en ese primer comentario tuyo, repetirlo cada vez que te contestan no hace otra cosa que ensuciar la lista de comentarios.

Yo no respondo a las personas, yo respondo a las ideas, a las ideas que considero merecen respuesta.

Si en un foro público no quieres recibir respuestas tu herramienta es no decir nada.
#37 Y por comentarios como este tuyo es que no quiero discutir con aquellos con los que ya he discutido previamente sobre este tema, contigo como uno de los ejemplos a destacar (hay más, como el que ha subido el meneo).

Cuando la pregunta te pilla en bragas te sales por peteneras y ahora, que no había ninguna pregunta, directamente dices mentiras, pues no he "admitido que no voy a entrar en razón", eso es una mentira tuya. He dicho que no voy a discutir con quien he discutido…   » ver todo el comentario
#47 siempre y cuando sean de gente que aporta en esos comentarios.

El hecho que tengas una lista de "gente" de la que no quieres respuestas te deja en evidencia, deberías atender a las ideas que se expresan y no a quién las dice. Que te estés haciendo una lista negra de aquellos a quienes no vas a contestar digan lo que digan muestra que tu posición es fanática.
#50 Qué asco de mentiroso.
#53 Yo tampoco pretendo demostrar nada, al revés, pido que me lo demuestren y por lo de ahora todo son "buenooo, tal veeez, pareeeceee, que si llegamos al mismo resultadoooo". ¿Si tú y yo decidimos que nos vemos en X lugar, y eso sucede, significa que hemos hecho el mismo recorrido? Ni siquiera hemos salido del mismo lugar.
#54 Totalmente.
#48, como diferencias lo que es razonamiento de lo que no lo es, experimentalmente?
#7, cuando dejaste de creer en la magia?
#8 Cuando descubrí la teoría de la simulación ;)
#22, durante la fase de aprendizaje por refuerzo sí que aprenden razonando ya que aprenden a generar cadenas de razonamiento cada vez mejores para encontrar la solución correcta.
#38 Generan estadísticas, con muchas dimensiones, estadísticas muy complejas, pero razonamiento ninguno.
#43 La razón de usar acepciones distintas es la misma por la que muchos se niegan a usar palabras como razonamiento o inteligencia aplicadas a la IA, la necesidad humana de separarnos del resto, de seguir defendiendo el concepto de alma con otras palabras.
#7 Como ya he dicho en otras ocasiones (lo digo por si las quieres buscar, aunque no te lo recomiendo) las IA tienen eso llamado eufemísticamente "alucinaciones". Digo "eufemísticamente" porque es la manera guay molona de llamarle a las cagadas tremendas. No quiero decir con esto que sea lo único posible, digo que es un ejemplo claro.

Lo primero está en el nombre, que se le puso "inteligencia artificial" porque queda molón y resultón, pero llamarle &…   » ver todo el comentario
Lo que dice este señor es que ahora los procesos estadísticos que utilizan son más complejos.

La IA seguirá sin razonar porque no puede razonar.

Nota a los que ya han discutido conmigo al respecto: ahorrémonos la discusión porque no va a cambiar el resultado.
#4 "los nuevos modelos aprenden razonando e identificando contradicciones en su propia lógica."

lo que dices parece contradecir esto, ¿no?

Tampoco es sea un cualquiera el que haga las declaraciones, lo definen como "uno de los padres de la IA moderna"
#5, estás discutiendo con una eminencia intelectual que deja a Geoffrey Hinton a la altura del betún.
#6 Para ya con la falacia de autoridad.
#5 Como si lo dice Jesucristo resucitado, hacerle caso porque lo diga él es simplemente caer en la falacia de autoridad.

Se tiene que demostrar que está razonando. Que lo que haga se parezca a razonar no significa que esté razonando. Que tú y yo podamos tener una videoconferencia y, por tanto, vernos, no significa lo mismo que vernos en persona.
#5 "los nuevos modelos aprenden razonando e identificando contradicciones en su propia lógica."

Quisiera clarificar. Un modelo (o LLM) no es modificable, ergo no puede aprender nada. A lo que se refieren es a hacerle varias pasadas al contexto (el log de todos los input y outputs) y de ahí deducir cosas.

Una vez escupido el resultado, todo lo deducido, pues como las lágrimas en la lluvia.
#22 A menos que esa charla acabe formando parte de la siguiente fase de entrenamiento de esa IA ya que luego sí puede acabar formando parte de su conocimiento base sobre el que seguir razonando.
#28 Los ejemplos que existen de realimentación de IA a otra IA (o a sí misma) acaban en un descontrol absoluto. El nivel de despitorre no es explicable solamente por información falsa, sino que hay algo que influye muy directamente en el funcionamiento interno de las redes neuronales. No sabemos el qué.

Los casos más gordos son entre IA que pertenecen a la misma saga, por ejemplo dentre dos versiones de ChatGPT. Entre sagas distintas es más limitado.

Ergo des ne. Las IA dependen de que su entrenamiento haya sido escrito por humanos. De ahí la preocupación que existe sobre la contaminación de internet por slop.
#4 ¿Y qué es el "razonamiento" de un ser humano sino un proceso estadístico de su cerebro? ¿Por qué dices que el razonamiento solo se puede dar en sistemas de carbono pero no de silicio? A mí me parece muy egocéntrico pensar que el ser humano es más que una computadora.
#7 ¿Y qué es el "razonamiento" de un ser humano sino un proceso estadístico de su cerebro?

Es la integración de la información en conceptos. Se usan algoritmos (que desconocemos, pero están) para producir nuevos conceptos que a su vez generan una respuesta.

No se parece en lo más mínimo a un proceso estadístico. No se sabe si los humanos usan eso de los procesos estadísticos, pero no lo parece porque no hay ninguna evidencia de tal cosa.
#26 Si no hay evidencia, ¿por qué dices que no se parece lo más mínimo? Eres un ateo de la IA, y yo agnóstico. En eso nos diferenciamos.
#33 Los resultados son distintos. Un humano no produce las alucinaciones que una IA sí.

No me voy a creer nada sólo porque alguien lo diga.
#36 Creo que no tienes ni idea de lo que es una "alucinación". Te lo explico, para que lo entiendas, y dejes de repetir eso: La mal llamada "alucinación" no deja de ser un error estadístico del LLM. Desde hace 2 años, estas "alucinaciones" están desapareciendo, ya que los modelos evolucionan y mejoran. Llegará el día en el que estas "alucinaciones" dejen de existir (tal vez en un año o dos). ¿Seguirás entonces escribiendo estas chorradas?
#39 Creo que no tienes ni idea

Ahí, ahí. Ahora me siento en menéame. Ya casi está. Sólo me falta un strike.
#39 estas "alucinaciones" están desapareciendo, ya que los modelos evolucionan y mejoran. Llegará el día en el que estas "alucinaciones" dejen de existir (tal vez en un año o dos)

No según los tipos que construyen las IA. Dicen que no se podrán eliminar nunca.

Es lógico, pues las alucinaciones esas son parte del funcionamiento normal y correcto de los procesos estadísiticos que usan.
#46, no se pueden eliminar pero se pueden mitigar y es lo que se está haciendo. No hay un límite teórico definido de hasta que punto se pueden llegar a mitigar, pero pueden llegar a ser irrelevantes.
#36 Hay montones de humanos que sueltan mamarrachadas, pero a patadas. Claro que hay humanos que producen alucinaciones.
#40 No. No es lo mismo. Las alucinaciones o gilipolleces humanas son muy distintas, tanto que es necesario considerar que hay dos acepciones distintas de la palabra.
#4 Lo que le he entendido (después de escuchar el video) es que van a usar más proceso para revisar lo que acaban de escribir. Esto ya lo hacen ahora si escoges las opciones de gastar más proceso y tardar más. A veces sí que pillan algún fallo, pero en general sueltan la alucinación igualmente.
#19 Por poner un ejemplo burdo pero realista, si a la IA la entrenas lo suficiente diciéndole que el agua no moja, te acabará diciendo que, oye, que puede ser que moje menos que un meneante.
#21 De la misma forma que si a una persona la educas lo suficiente diciéndole que hay un Dios que todo lo ve y que te juzga para ir al cielo esa persona te acabará diciendo que, oye, que puede ser que haya un Dios que todo lo ve y que te juzga para ir al cielo.
#27 Deberías dejar de ensuciar la lista de comentarios con esas "respuestas", si no tienes nada que aportar simplemente no contestes.
#30 GOTO #4 donde indiqué específicamente que si ya has discutido conmigo al respecto, no lo hagas de nuevo porque no vamos a llegar a ningún lado.

Sin embargo te empeñas en ensuciar la lista de comentarios con esas "respuestas" con las que no aportas nada. Qué cosas. Repito, GOTO #4
#4 Te responde Claude a tu mensaje :troll: :

Tienes un punto interesante. El problema fundamental es que **tampoco comprendemos realmente cómo razona el ser humano**. Durante décadas hemos asumido que el razonamiento humano funciona mediante lógica formal, reglas simbólicas y manipulación consciente de conceptos abstractos. Pero las neurociencias y la psicología cognitiva están revelando algo distinto.

Es muy posible que **nosotros también estemos haciendo reconocimiento de patrones** a

…   » ver todo el comentario
#31 Me has recordado a un examen que tuve hace ya la tira de años, que en una de las preguntas había que usar ecuaciones diofánticas para resolverlo. Eso o, para los datos de aquel problema en concreto, usar las "cuentas de la vieja" y acabar antes. Aquella asignatura que había suspendido el año anterior dos veces porque había que "razonar la respuesta" de repente no sólo aprobé sino que con notable pues pasó a ser tipo test.

Es lo que pasa cuando para resolver otros…   » ver todo el comentario
#42 Ojalá, pero ya estoy curado de espanto en cuanto a las virtudes "bíblicas" del cerebro o del alma humana; creo que el h. sapiens tiene demasiado hype. Creo que somos un "matojo de cables" al final, desafortunadamente. Pero bueno, no puedo demostrar nada ni lo pretendo.
El primer intento que hay de limitarlos para que se acerquen a algo de lógica, que es totalmente insuficiente, y dicen que van a ser superinteligentes. Pero espera, ¿no es lo mismo que decían antes?
vendedor de aceite de serpiente asegura que el aceite de serpiente lo curara todo
#1, dime que no tienes ni puta idea de quien es Geoffrey Hinton sin decirme que no tienes ni puta idea de quien es Geoffrey Hinton.

Me pregunto qué trataba de vender cuando dijo esto: www.meneame.net/story/padrino-ia-premio-nobel-fisica-geoffrey-hinton-d
#3 Tienes razón, es aceite de serpiente filtrado. Una mejora significativa.

menéame