Aprender cosas y relacionarlas sobre la marcha con conceptos que ya conocemos es algo que solo los humanos somos capaces de hacer. Dos investigadores aseguran que han conseguido que una IA replique este aprendizaje.
#5:
"Si a ChatGPT le envías una foto de un perro y le preguntas qué es, lo que hace es comparar esa foto con miles de millones de imágenes parecidas que ha memorizado y concluye que sí, es un perro. Es un entrenamiento basado en inyectar cantidades ingentes de datos y que el sistema los memorice.[...]"
Empezamos muy mal si demuestran que no saben como funciona ChatGPT como para compararse con éste, a ver si lo que han hecho es lo mismo que ya hace ChatGPT y no lo saben por no entender al primero.
Es la diferencia entre memorizar la solución a un problema matemático, y entender los conceptos para dar con la respuesta sobre la marcha. OpenAI aún no ha logrado esto último
Es ridículo que afirmen que ChatGPT se limita a memorizar soluciones a problemas matemáticos sin aplicar conceptos aprendidos. Como mínimo podían haber dedicado unos minutos a usar ChatGPT para evitar soltar estas afirmaciones de cuñado.
"Si a ChatGPT le envías una foto de un perro y le preguntas qué es, lo que hace es comparar esa foto con miles de millones de imágenes parecidas que ha memorizado y concluye que sí, es un perro. Es un entrenamiento basado en inyectar cantidades ingentes de datos y que el sistema los memorice.[...]"
Empezamos muy mal si demuestran que no saben como funciona ChatGPT como para compararse con éste, a ver si lo que han hecho es lo mismo que ya hace ChatGPT y no lo saben por no entender al primero.
Es la diferencia entre memorizar la solución a un problema matemático, y entender los conceptos para dar con la respuesta sobre la marcha. OpenAI aún no ha logrado esto último
Es ridículo que afirmen que ChatGPT se limita a memorizar soluciones a problemas matemáticos sin aplicar conceptos aprendidos. Como mínimo podían haber dedicado unos minutos a usar ChatGPT para evitar soltar estas afirmaciones de cuñado.
#5 creo que ChatGTP no hace precisamente eso, si no que recive la image del perro y tiene una red neuronal que le dice que es un perro, no compara fotos de perros, de eso se trata esta AI que genera la respuesta con la red neuronal que tenga. Eso tengo entendido.
#6 Recibe con b.
Y chatgpt lo que hace es aprender como es un perro, 4 patas, hocico, cola... Y usando los conceptos que ha aprendido sabe discernir si es un perro o no. No memoriza datos.
#14 Decir que cuando a ChatGPT le envías una imagen de un perro la compara con miles de millones de imágenes de perros es no tener ni idea de como funciona ChatGPT.
¿Tú cuando ves un perro para decidir que es un perro necesitas comparar lo que ves con miles de millones de imágenes de perros? ¿Eso te parece a ti una cuestión de semántica?
#15le envías una imagen de un perro la compara con miles de millones de imágenes de perros. En esencia sí, pero dicho así se presta a la caricatura. ¿A ver esto?: chatGPT codifica en los pesos de su red una representación comprimida y con pérdidas del conjunto de fotos de perros con el que se ha encontrado durante su entrenamiento; si se lleva a un estado determinado (mediante un prompt adecuado por ejemplo), filtra fotos de perros.
¿Tú cuando ves un perro para decidir que es un perro necesitas comparar lo que ves con miles de millones de imágenes de perros? No sé lo que yo hago, tampoco creo que importe para discutir este tema.
#20, me reitero, en el paper no pone nada de lo que pone en el artículo periodístico sobre de que modelos como chatGPT se basan en memorizar ejemplos para luego compararlos.
#1 Pues uno psicopata racista machista sexista homofobo como los que hay en internet, como todos los humanos , vaya preguntas :-þ
En dos dias censurado como todas las ias anteriores que cogieron algo de "personalidad" humana.
Poca confianza me dan los autores porque esto: "Si a ChatGPT le envías una foto de un perro y le preguntas qué es, lo que hace es comparar esa foto con miles de millones de imágenes parecidas que ha memorizado y concluye que sí, es un perro." es literalmente una mentira podrida.
#13, no tengo acceso al paper y por lo tanto no se si hay o no que refutar lo que dice. Pero me reafirmo en que lo que he puesto entre comillado es una cuñadez como una catedral que cualquier estudiante de máster en IA sabe de sobras. No se si es por culpa de la transcripción de los periodistas, de que los autores no se han sabido explicar o de que realmente se están equivocando.
Lo que tiene la ciencia es que no se basa en falacias de autoridad sino en argumentos demostrables.
Igual lo que han encontrado es un humano que razone como una IA. Eso no me sorprendería. Conozco a unos cuantos que no pasarían el test de Turing por que no serían capaces de comprender las preguntas.
Comentarios
"Si a ChatGPT le envías una foto de un perro y le preguntas qué es, lo que hace es comparar esa foto con miles de millones de imágenes parecidas que ha memorizado y concluye que sí, es un perro. Es un entrenamiento basado en inyectar cantidades ingentes de datos y que el sistema los memorice.[...]"
Empezamos muy mal si demuestran que no saben como funciona ChatGPT como para compararse con éste, a ver si lo que han hecho es lo mismo que ya hace ChatGPT y no lo saben por no entender al primero.
Es la diferencia entre memorizar la solución a un problema matemático, y entender los conceptos para dar con la respuesta sobre la marcha. OpenAI aún no ha logrado esto último
Es ridículo que afirmen que ChatGPT se limita a memorizar soluciones a problemas matemáticos sin aplicar conceptos aprendidos. Como mínimo podían haber dedicado unos minutos a usar ChatGPT para evitar soltar estas afirmaciones de cuñado.
#5 creo que ChatGTP no hace precisamente eso, si no que recive la image del perro y tiene una red neuronal que le dice que es un perro, no compara fotos de perros, de eso se trata esta AI que genera la respuesta con la red neuronal que tenga. Eso tengo entendido.
#6 Recibe con b.
Y chatgpt lo que hace es aprender como es un perro, 4 patas, hocico, cola... Y usando los conceptos que ha aprendido sabe discernir si es un perro o no. No memoriza datos.
#5 Venía a decir lo mismo, gracias.
#5 demuestran que no saben como funciona ChatGPT
Saben como funciona dpm, otra cosa es que queramos perdernos en debates semánticos.
#14 Decir que cuando a ChatGPT le envías una imagen de un perro la compara con miles de millones de imágenes de perros es no tener ni idea de como funciona ChatGPT.
¿Tú cuando ves un perro para decidir que es un perro necesitas comparar lo que ves con miles de millones de imágenes de perros? ¿Eso te parece a ti una cuestión de semántica?
#15 le envías una imagen de un perro la compara con miles de millones de imágenes de perros. En esencia sí, pero dicho así se presta a la caricatura. ¿A ver esto?: chatGPT codifica en los pesos de su red una representación comprimida y con pérdidas del conjunto de fotos de perros con el que se ha encontrado durante su entrenamiento; si se lleva a un estado determinado (mediante un prompt adecuado por ejemplo), filtra fotos de perros.
¿Tú cuando ves un perro para decidir que es un perro necesitas comparar lo que ves con miles de millones de imágenes de perros? No sé lo que yo hago, tampoco creo que importe para discutir este tema.
#16 toma, es de acceso libre (arriba a la derecha puede darle a descargar el PDF): https://www.nature.com/articles/s41586-023-06668-3
Para lo demás, igual te interesa lo que pongo en #17
#18, gracias. ¿Conoces a los autores?
#19 No, no los conozco, ¿por que lo preguntas?
#20, me reitero, en el paper no pone nada de lo que pone en el artículo periodístico sobre de que modelos como chatGPT se basan en memorizar ejemplos para luego compararlos.
Ha sido muy complicado, la IA en cuestion razonaba como un gallego.
¿Qué humano?
#1 Pues uno psicopata racista machista sexista homofobo como los que hay en internet, como todos los humanos , vaya preguntas :-þ
En dos dias censurado como todas las ias anteriores que cogieron algo de "personalidad" humana.
#1 El que tengo aquí colgado...
Ahh no perdón, que me he liado.
#1 El que me la aga
Poca confianza me dan los autores porque esto: "Si a ChatGPT le envías una foto de un perro y le preguntas qué es, lo que hace es comparar esa foto con miles de millones de imágenes parecidas que ha memorizado y concluye que sí, es un perro." es literalmente una mentira podrida.
#11 Deberías mandar tu crítica hecha paper a Nature, sería más provechoso que un comentario en mnm
#13, no tengo acceso al paper y por lo tanto no se si hay o no que refutar lo que dice. Pero me reafirmo en que lo que he puesto entre comillado es una cuñadez como una catedral que cualquier estudiante de máster en IA sabe de sobras. No se si es por culpa de la transcripción de los periodistas, de que los autores no se han sabido explicar o de que realmente se están equivocando.
Lo que tiene la ciencia es que no se basa en falacias de autoridad sino en argumentos demostrables.
Igual lo que han encontrado es un humano que razone como una IA. Eso no me sorprendería. Conozco a unos cuantos que no pasarían el test de Turing por que no serían capaces de comprender las preguntas.
Razonar como un humano promedio?
Pues vaya mierda de IA...