edición general
lovetan

lovetan

En menéame desde diciembre de 2025

6,40 Karma
16K Ranking
0 Enviadas
0 Publicadas
356 Comentarios
0 Notas

Eurovegas: el gran timo [63]

  1. #55 En realidad las robopiliguis de lujo dan el mismo servicio que las otras, sólo que con superficies más brillantes. Si quieres usar lubricante de alta calidad, siempre puedes traer el tuyo.

Geoffrey Hinton dice que los LLM ya no solo predicen la siguiente palabra [72]

  1. #66 Será ridículo, pero a un programador yo le pido que comprenda lo que ha escrito y me justifique como funciona.

    Sí que he tenido programadores que no me saben justificar lo que escriben, antes de la IA debo aclarar, pero fueron a la calle.

    Por supuesto que no existe un programa sin bugs. Pero como mínimo debe tener la intención de funcionar.
  1. #49 Con las preguntas un poco, sólo un poco complicadas es muy fácil de ver, porque no son capaces de subir hasta el nivel de abstracción necesario y dan respuestas basadas en lo que rima o algo así. Se nota claramente que no comprenden los textos que usan.
  1. #64 Pues claro que lo he usado. A veces hasta da la respuesta correcta, pero muchas veces no. No tiene la capacidad de distinguir uno del otro.

Eurovegas: el gran timo [63]

  1. #53 Debes respetar las normas y no nombrar nada que no haya salido en Futurama.

Geoffrey Hinton dice que los LLM ya no solo predicen la siguiente palabra [72]

  1. #62 Yo no he visto programar a ninguna máquina. Lo que hacen es automatizar el copy-paste de stack overflow, y mezclar distintos códigos según se le pida en el prompt, respetando la sintaxis, que eso lo hacen muy bien. La IA no tiene ni la más mínima pista de si ese código funciona ni de qué hace.

La Dra. Gladys West, la matemática cuyo trabajo hizo posible el GPS, fallece a los 95 años [ENG] [35]

  1. #31 Es muy difícil luchar contra la maquinaria de propaganda que amplifica gilipolleces. Es necesario tener un objetivo concreto por el que luchar, o se disipa todo.

Geoffrey Hinton dice que los LLM ya no solo predicen la siguiente palabra [72]

  1. #60 Pues claro que aplica el mismo concepto. El día que yo vea una máquina usar abstracciones para crear conceptos diré que está razonando.

    El trabajo de razonar para nada necesita de un humano.

Eurovegas: el gran timo [63]

  1. #43 ¡robopilinguis!

Geoffrey Hinton dice que los LLM ya no solo predicen la siguiente palabra [72]

  1. #45 Se usan acepciones distintas para designar conceptos distintos.
  1. #34 Todo apunta que el día que una máquina muestre capacidad de razonar haya hordas de gente negando que eso haya ocurrido.

    Ahora mismo es el caso. Pareidolia y mucha gente negando que eso signifique nada, yo entre ellos.

    En realidad la definición de razonar que aplicamos es que si lo puede hacer una máquina eso no es razonar.

    Porque si una máquina que no razona puede hacerlo, entonces es posible hacerlo sin razonar.
  1. #38 Generan estadísticas, con muchas dimensiones, estadísticas muy complejas, pero razonamiento ninguno.
  1. #39 estas "alucinaciones" están desapareciendo, ya que los modelos evolucionan y mejoran. Llegará el día en el que estas "alucinaciones" dejen de existir (tal vez en un año o dos)

    No según los tipos que construyen las IA. Dicen que no se podrán eliminar nunca.

    Es lógico, pues las alucinaciones esas son parte del funcionamiento normal y correcto de los procesos estadísiticos que usan.
  1. #39 Creo que no tienes ni idea

    Ahí, ahí. Ahora me siento en menéame. Ya casi está. Sólo me falta un strike.
  1. #40 No. No es lo mismo. Las alucinaciones o gilipolleces humanas son muy distintas, tanto que es necesario considerar que hay dos acepciones distintas de la palabra.
  1. #28 Los ejemplos que existen de realimentación de IA a otra IA (o a sí misma) acaban en un descontrol absoluto. El nivel de despitorre no es explicable solamente por información falsa, sino que hay algo que influye muy directamente en el funcionamiento interno de las redes neuronales. No sabemos el qué.

    Los casos más gordos son entre IA que pertenecen a la misma saga, por ejemplo dentre dos versiones de ChatGPT. Entre sagas distintas es más limitado.

    Ergo des ne. Las IA dependen de que su entrenamiento haya sido escrito por humanos. De ahí la preocupación que existe sobre la contaminación de internet por slop.
  1. #33 Los resultados son distintos. Un humano no produce las alucinaciones que una IA sí.

    No me voy a creer nada sólo porque alguien lo diga.
  1. #14 El día que una máquina razone, será interesante de observar. Por ahora no tenemos nada de eso. Tenemos salidas producidas por la IA, algunas de ellas, que cuando las lee un humano les asigna características. Puede ser tanto "inteligente" como "sensible", "malvado", o cualquier otra gilipollez que se le ocurra al humano.

    Pareidolia. No hay más.
  1. #13 Una forma de replicar algo es mirar sus outputs y buscar maneras de reproducir eso.
  1. #7 ¿Y qué es el "razonamiento" de un ser humano sino un proceso estadístico de su cerebro?

    Es la integración de la información en conceptos. Se usan algoritmos (que desconocemos, pero están) para producir nuevos conceptos que a su vez generan una respuesta.

    No se parece en lo más mínimo a un proceso estadístico. No se sabe si los humanos usan eso de los procesos estadísticos, pero no lo parece porque no hay ninguna evidencia de tal cosa.
  1. #6 Para ya con la falacia de autoridad.
  1. #5 "los nuevos modelos aprenden razonando e identificando contradicciones en su propia lógica."

    Quisiera clarificar. Un modelo (o LLM) no es modificable, ergo no puede aprender nada. A lo que se refieren es a hacerle varias pasadas al contexto (el log de todos los input y outputs) y de ahí deducir cosas.

    Una vez escupido el resultado, todo lo deducido, pues como las lágrimas en la lluvia.
  1. #4 Lo que le he entendido (después de escuchar el video) es que van a usar más proceso para revisar lo que acaban de escribir. Esto ya lo hacen ahora si escoges las opciones de gastar más proceso y tardar más. A veces sí que pillan algún fallo, pero en general sueltan la alucinación igualmente.
  1. #3 Tienes razón, es aceite de serpiente filtrado. Una mejora significativa.
  1. El primer intento que hay de limitarlos para que se acerquen a algo de lógica, que es totalmente insuficiente, y dicen que van a ser superinteligentes. Pero espera, ¿no es lo mismo que decían antes?

menéame