#81 Para cierto tipo de cosas, normalmente se requiere un entrenamiento más específico. No hace falta reentrenar todo el modelo teniendo en cuenta esas particularidades, se hace una "extensión" con el entrenamiento específico, y luego se "instala" ( normalmente es meter ese minimodelo dentro de una carpeta de extensiones ) y se le pide en el prompt que use ese entrenamiento específico para esa parte.
Puedes buscar si existe alguna extensión de este tipo ( LoRA : Low rank adaptation: arxiv.org/abs/2106.09685 ) para ese propósito específico en la IA que estés utilizando.
También puedes ver cómo se entrenan esas extensiones LoRA para poder hacerla tú mismo, aunque puede parecer un poco complicado, si entiendes del tema en cuestión, puede no ser demasiado complicado.
#21 puedes poner un ejemplo? No lo acabo de entender y me interesa este tema. Me refiero a la parte que dices: tragan bastante mal, de momento, niveles bajos de abstracción en el que el resultado global no está muy claro a partir de operaciones simples.
#52 Y esto es lo que tú no has acabado de entender, la IA no ha participado en las mismas condiciones que el resto de equipos. Ni mentira ni mentiro, todo esto que sueltas son fantasías.
#50 En ningún sitio menciona que haya tardado más o menos que los equipos humanos, ni dice si estaba conectada a internet.
Hemos de pasado de "le hemos dado estos problemas a la IA, sin las restricciones del concurso y los ha resuelto todos" a hacer un salto mortal con tirabuzón, y decir que ha ganado a todos. No dice eso.
#46 Como decía, en la noticia no explican bien lo que ha sucedido:
"While the OpenAI team was not limited by the more restrictive Championship environment whose team standings included the number of problems solved, times of submission, and penalty points for rejected submissions, the AI performance was an extraordinary display of problem-solving acumen! The experiment also revealed a side benefit, confirming the extraordinary craftsmanship of the judge team who produced a problem set with little or no ambiguity and excellent test data."
#22 "Yo no conozco a mucha gente que esté en condiciones de replicar el trabajo de Einstein."
Ni yo. Pero lo puse como ejemplo de intuición: a Einstein veía un camino probable y empezó a probar cosas para sostener su hipótesis. Una IA simplemente intenta conseguir un resultado que encaje en ciertos parémetros.
Te lo pongo más fácil: ¿te acuerdas de cuando en matemáticas o física nos daban una ecuación y teníamos que encontrar sus máximos y sus mínimos? ¿y que había momentos donde había varios mínimos, algunos mínimos locales y el mínimo global o absoluto?. La IA se enfanga en los mínimos locales, nosotros viendo una gráfica, vemos el mínimo absoluto rápidamente. A lo mejor la IA ve esos mínimos más rápido o te da la solución con más precisión, pero nosotros podemos ver cuándo hay casos dudosos y analizarlos. La IA soltará una solución y no sabrás por qué, ni si te está encontrando el mínimo absoluto. Y esa solución puede ser correcta (en el sentido de que si, es un mínimo aunque sea local) pero también puede ser que no. Hasta puede que sea una función trampa que nosotros sabemos que no tiene mínimos (porque todos sus puntos son mínimos) o tiende a -infinito o que no tiene soluciones, la IA si no está perfectamente entrenada podría soltar cualquier cosa. Un humano (sincero) diría que no tiene ni puñetera idea. Las IAs no las hemos entrenado para cuando no saben qué hacer. Y ese es el menor de los sesgos que contienen.
#20#26#28 Voy a dejar a un lado la maquetación del artículo, que nada que se pueda llamar "xornal" (para los fodechinchos, periódico) debería ser así de lisérgica.
El propio artículo se contradice, primero asegurando unas afirmaciones y en una de las fotos dice que es presuntamente.
Dicen que hay trabajadores portugueses porque estuvo una furgoneta portuguesa, que no sabemos de dónde son el resto, si esa fuegoneta es de empresa directamente contratada por Feijoo, alguien en su nombre o una subcontrata de alguien local/nacional. Dejando a un lado un turismo que vete a saber de quién es pero diría que no de Feijoo, hay otra furgoneta a la que, vaya, no se le ve la matrícula
Hacen afirmaciones que se sostienen en el aire, no sobre nada sólido. Pero, eh, es contra Feijoo y ahí todo vale.
Los mismos que luego se quejan de los bulos contra Begoña, el hermano, etc., porque "no hay nada", aquí da igual la verdad aunque sea una mierda de artículo doloroso a la vista que mezcla churras con merinas y cuya línea editorial es conocida.
"Sospecha plausible" no, esas cosas se demuestran.
Lo dicho, luego lloraréis los tres cuando el protagonista es otro.
Que, eh, si ha hecho algo mal, que lo pague, pero os diré una cosita que ya he repetido en otros menels sobre esto y no hacéis puto caso porque no os conviene.
Desde al menos 2003 y, salvo la excepción de 2011-2015, la alcaldía de Moaña ha recaído sobre el BNG. ¿Alguno de vosotros se cree que dejarían pasarle la más mínima ilegalidad urbanística a Feijoo?
Lo que quería decir es que esa simulación de razonamiento es independiente del razonamiento que hay dentro de los contenidos con los que ha sido entrenado (el razonamiento del autor del texto que le han embutido). Sí que está "su" secuencia lógica de argumentación, por ejemplo, o el tipo de argumentos que pueda haber a favor y en contra de un tema, pero no el "razonamiento" en sí que hace el GPT, que es lo que decía, creo, #10.
Por otro lado desconozco bastante el tema y puedo estar cagándola perfectamente.
Un LLM no tiene ninguna capacidad de razonamiento. En algunas respuestas lo puede parecer, ya que está copiando de un texto donde se razona, pero copiar no es razonar, incluso a veces copian mal.
Esto no funciona así. Según lo entiendo yo, lo que hace es seguir un algoritmo dinámico que enfrenta el prompt desde diversos ángulos (simula comprender lo que se pide y secuenciar los pasos para una respuesta y luego los va realizando como si fuera un prompt detrás de otro). Efectivamente, es una simulación, pero no parece razonado porque los docus con los que fue entrenado estuvieran razonados, es un algoritmo que va analizando, realizando y sintetizando después, a veces varios bucles
#19 Esos tokens sirven de pista al algoritmo de inspección que es en definitiva quién decide descartar parte de la respuesta o no, y darla por concluida.
Cuando dices "a nivel de API" entiendo que te refieres al algoritmo de inspección.
#29 que pureza racial? Yo soy española de todas mis generaciones anteriores, por lo menos en milseiscientos y pico ya vivían mis antepasados en el pueblo, soy muy morena con los ojos negros, tengo primos rubios, atos, ojos azules, gordos, delgados, pálidos de muerte. De que raza somos?
#22, el trabajo de Einstein se reduce en última instancia a encontrar los patrones matemáticos que permiten modelar el comportamiento de las cosas de acuerdo a nuestras observaciones, no veo yo por qué eventualmente una IA no podría ser capaz de describir por si misma estos fenómenos a partir de las observaciones.
#19 Al menos he puesto algo claro y conciso con el ejemplo de Einstein, e incluso así más abajo he dejado puertas abiertas porque tampoco tenemos claro cómo funciona el cerebro y por lo tanto no podemos comparar. ¿Dónde la has puesto tú? ¿y por qué lo que digo contradice lo que dices?
#5#7#8 Si piensas que lo de Einstein de darle una explicación teórica y desarrollar una prueba matemática para ello al efecto fotoeléctrico a partir de los trabajos de Hertz, Lorentz, Plank, etc. es equivalente al "una IA ha empezado a juntar ecuaciones y ha encontrado una solución que ahora tendremos que analizar para qué sirve, en qué condiciones se ha dado, cómo se interpreta y qué repercusiones tiene", cosas todas que te da el trabajo de Einstein para llegar a su solución final, estás muy errado. La intuición, aunque parta del conocimiento previo (a veces errado y descartable, no siempre correcto), es anterior y bien definida, es un "exploremos este camino concreto porque tengo unas ideas que encajan con una potencial solución al problema y me gustaría comprobarlas". Si no te das cuenta de que la intuición se la estás poniendo al propio prompt de la IA (dirigiendo qué le pides, cómo y con qué restricciones) y por lo tanto, otorgándole a la IA más méritos de los que tiene...
Una intuición no es "juntar cosas y ya está, sin orden ni concierto", es pensar "out of the box" pero con un sentido y un propósito claros y bien definidos. Para empezar, una IA no tiene sentidos o propósitos (para eso están los prompts que les damos los humanos... las IAs se dedican a juntar cosas de manera que cumplan las restricciones que le damos, lo demás le da igual -llámese alucinaciones-).
No me vengas con monsergas filosóficas de "qué es una intuición" y "¿cómo sabes que una máquina no intuye?" cuando tú tampoco sabes lo que es una intuición y no sabes si las máquinas intuyen o no.
La prueba irrefutable es que hasta que no sepamos qué es la consciencia, qué es la intuición, cómo funciona el cerebro, etc. nunca podremos definir con exactitud las capacidades de una IA porque no podremos comparar con exactitud con aquello que pretende emular. Una vez dicho esto, las IAs actuales son, con algunos pocos avances, lo mismo que las redes neuronales que teníamos hace 30 años (que no son más que algoritmos matemáticos simples que se retroalimentan unos a otros con unas reglas fijadas de antemano), lo que ha cambiado es la cantidad de "neuronas", la capacidad de proceso y el acceso ilimitado a datos (nuestros, usados ilegalmente en su mayor parte) por parte de quienes las entrenan.