#55 En realidad las robopiliguis de lujo dan el mismo servicio que las otras, sólo que con superficies más brillantes. Si quieres usar lubricante de alta calidad, siempre puedes traer el tuyo.
#49 Con las preguntas un poco, sólo un poco complicadas es muy fácil de ver, porque no son capaces de subir hasta el nivel de abstracción necesario y dan respuestas basadas en lo que rima o algo así. Se nota claramente que no comprenden los textos que usan.
#62 Yo no he visto programar a ninguna máquina. Lo que hacen es automatizar el copy-paste de stack overflow, y mezclar distintos códigos según se le pida en el prompt, respetando la sintaxis, que eso lo hacen muy bien. La IA no tiene ni la más mínima pista de si ese código funciona ni de qué hace.
#31 Es muy difícil luchar contra la maquinaria de propaganda que amplifica gilipolleces. Es necesario tener un objetivo concreto por el que luchar, o se disipa todo.
#39estas "alucinaciones" están desapareciendo, ya que los modelos evolucionan y mejoran. Llegará el día en el que estas "alucinaciones" dejen de existir (tal vez en un año o dos)
No según los tipos que construyen las IA. Dicen que no se podrán eliminar nunca.
Es lógico, pues las alucinaciones esas son parte del funcionamiento normal y correcto de los procesos estadísiticos que usan.
#40 No. No es lo mismo. Las alucinaciones o gilipolleces humanas son muy distintas, tanto que es necesario considerar que hay dos acepciones distintas de la palabra.
#28 Los ejemplos que existen de realimentación de IA a otra IA (o a sí misma) acaban en un descontrol absoluto. El nivel de despitorre no es explicable solamente por información falsa, sino que hay algo que influye muy directamente en el funcionamiento interno de las redes neuronales. No sabemos el qué.
Los casos más gordos son entre IA que pertenecen a la misma saga, por ejemplo dentre dos versiones de ChatGPT. Entre sagas distintas es más limitado.
Ergo des ne. Las IA dependen de que su entrenamiento haya sido escrito por humanos. De ahí la preocupación que existe sobre la contaminación de internet por slop.
#14 El día que una máquina razone, será interesante de observar. Por ahora no tenemos nada de eso. Tenemos salidas producidas por la IA, algunas de ellas, que cuando las lee un humano les asigna características. Puede ser tanto "inteligente" como "sensible", "malvado", o cualquier otra gilipollez que se le ocurra al humano.
#7¿Y qué es el "razonamiento" de un ser humano sino un proceso estadístico de su cerebro?
Es la integración de la información en conceptos. Se usan algoritmos (que desconocemos, pero están) para producir nuevos conceptos que a su vez generan una respuesta.
No se parece en lo más mínimo a un proceso estadístico. No se sabe si los humanos usan eso de los procesos estadísticos, pero no lo parece porque no hay ninguna evidencia de tal cosa.
#5"los nuevos modelos aprenden razonando e identificando contradicciones en su propia lógica."
Quisiera clarificar. Un modelo (o LLM) no es modificable, ergo no puede aprender nada. A lo que se refieren es a hacerle varias pasadas al contexto (el log de todos los input y outputs) y de ahí deducir cosas.
Una vez escupido el resultado, todo lo deducido, pues como las lágrimas en la lluvia.
#4 Lo que le he entendido (después de escuchar el video) es que van a usar más proceso para revisar lo que acaban de escribir. Esto ya lo hacen ahora si escoges las opciones de gastar más proceso y tardar más. A veces sí que pillan algún fallo, pero en general sueltan la alucinación igualmente.
El primer intento que hay de limitarlos para que se acerquen a algo de lógica, que es totalmente insuficiente, y dicen que van a ser superinteligentes. Pero espera, ¿no es lo mismo que decían antes?