#74 Cuesta de comprender cómo fuiste capaz de hacer una descripción tan detallada de la IA en tus primeros párrafos en # 53 ( www.meneame.net/story/algunos-les-cuesta-entender-ia-no-calculadorta/c ) para luego acabar haciendo afirmaciones tan erróneas como que la IA se sabe de memoria nada, y menos un test estandarizado de inteligencia.
#60Es posible que los significados sean parecidos, pero una red neuronal no sabe nada de significados.
Que sean parecidos es la forma en la que sí sabe de significados, cuando un concepto aplicable a varios ámbitos está a la misma distancia de esos distintos ámbitos eso permite establecer relaciones de significados.
#58Una red neuronal no produce aleatoriedad. Absolutamente nada.
No he afirmado que la produzca, he afirmado que "en esa fase [entrenamiento] hay factores de aleatoriedad que implican que con el mismo conjunto de datos el resultado final pueda ser distinto."
Los LLM se entrenan en paralelo con muchas unidades de procesamiento y la sincronía perfecta requerida para el determinismo ni se busca ni es necesaria, en un entreno una porción de un documento puede procesarse antes que otra y esa variación puede bastar para que el resultado final sea distinto.
El determinismo requiere esfuerzo por parte de quienes entrenan el LLM, tiene sentido dedicarlo a pequeña escala si se quiere depurar o analizar pero ese coste no es razonable a menos que esté plenamente justificado.
#53Toda respuesta que produzca la máquina consiste en la consulta a los datos de su entrenamiento más la aleatoriedad introducida. No puede inventarse nada que no esté en su entrenamiento. En definitiva es una calculadora con una base de datos.
Tan bien que ibas ...
No, no es ninguna base de datos como bien describiste antes de ese párrafo. Y no, la respuesta no consiste en la consulta a los datos de su entrenamiento.
El proceso que has descrito antes de ese párrafo era correcto, tus conclusiones no lo son. El resultado del proceso de entrenamiento es un cerebro digital, con unas neuronas digitales, que tienen una configuración específica que es la que ha dado mejores respuestas a las preguntas que se le hacían durante la fase de entrenamiento. El resultado no es ninguna base de datos, no hay datos en el resultado, lo que hay son unas neuronas digitales con una configuración específica que ha dado mejores resultados que otras configuraciones previas.
En concreto no tiene ninguna capacidad de razonamiento, a ningún nivel
Esa afirmación no está avalada por lo que describiste previamente, nada en tu descripción de cómo es un LLM permite concluir que no tiene capacidad de razonamiento. Necesitas definir el concepto de capacidad de razonamiento de una forma que sea incompatible con la descripción que has hecho de como se entrena un LLM. De lo contrario no puedes sacar esa conclusión que sacas, no está avalada por lo anterior, es una afirmación gratuita por tu parte.
La equivocación consiste en asociarle cualidades humanas que no tiene.
Ha sido diseñado inspirado en la biología, ha sido educado con la cultura humana, responde en términos equiparables a como responden los humanos, sus características emergentes son similares, sí tiene cualidades humanas.
Las alucinaciones son el resultado de su funcionamiento normal. La red neuronal no tiene ninguna comprensión del texto que maneja. Al contrario que un humano, no puede crear conceptos.
Lo entrenamos para que dé las mejores respuestas posibles y a priori las respuestas son mejores con comprensión y con conceptos, para afirmar que no los tiene tienes que demostrarlo, debes dar definiciones de comprensión del texto y de crear conceptos que sean incompatibles con el proceso de entrenamiento de la IA.
Se considera imposible eliminar las alucinaciones de un LLM. A un humano, en cambio, se le puede enseñar conceptos.
El ser humano es víctima de efectos ópticos a pesar de que conozca ese efecto óptico y cómo se produce, seguirá percibiendo profundidad allí donde se le ha enseñado que no la hay. En base a ese ejemplo se puede afirmar que es imposible eliminar las alucinaciones en un humano. Como afirmas que es imposible en un LLM.
#2 Yo también digo que esto es un genocidio. La sutil diferencia es que los gobiernos occidentales no lo apoyan ni hacen la vista gorda. Seguro que hasta alguien como tú o como #15 es capaz de entenderlo.
#7 Igual algun inmigrante...español por ejemplo. Esta gente del sur, que viene de paises con menos recursos...
Era eso lo que querias decir no? Es un gusto que te incluyan en algo asi, verdad?
Solo por indicar que el racismo va en varios sentidos.
#6 Muy de acuerdo. De lo que antes gastaban en licencias, pueden dedicar una parte a mejorar el proyecto y de paso crear una alternativa libre y gratuita que haga un poco de daño a Microsoft, pero sólo por joder, no por altruismo ni nada.
#8 Muchos imbeciles alrededor del mundo esperan que termine su periodo.
Las risas que uno se agarra cuando sabe que eso no pasara segun las leyes democraticas
#8 Yo voy a pillar algún Win10 IoT 2021 LTSC. Actualizaciones de seguridad garantizadas hasta 2032 (fecha para la que espero que ya esté Win12) y además viene limpio de bloatware y demás mierda. Unos 20€