La IA aprende como los humanos: con millones de ejemplos. Ajusta miles de millones de parámetros hasta equivocarse lo menos posible. No entiende realmente el mundo, sino que calcula probabilidades basadas en patrones estadísticos. Funciona ahora gracias a tres factores: más datos de Internet, más potencia de cálculo (tarjetas gráficas) y mejores algoritmos. A veces falla porque genera respuestas estadísticas, no consulta hechos verificados. Artículo sin tecnicismos.
|
etiquetas: ia , inteligencia artificial
Bueno, las tontás generadas por la IA tampoco son moco de pavo.
Como cuando te ponías a desbarrar con un par de colegas y unos calimochos...
Desde ese primer ejemplo ya he dejado de leer. Mañana haré otro intento a ver si sólo ha sido un inicio desafortunado.
"improvisar una rima mediocre".
Le pedi a la IA un rima corta y graciosa para una felicitacion y tenia la rima y la gracia en el culo, supongo que porque 'piensa' en ingles y despues al traducir pierde las dos cosas.
Español: detrás de una Q un 90% de las veces hay una U
Inglés: detrás de una Q solamente un 30% de las veces hay una U
Con esto, queda explicado el porqué los LLM no pueden usar la lógica simbólica.
θ
Ese es el nivel...
Las neuronas sí que están organizadas en capas y dentro de cada capa están organizadas por filas. El envío de información a través del axón se realiza por una filla a la vez, y se va avanzando dentro de la capa fila por fila.
Un humano, cuando nace, no se le dice "esto es un gato y ya". Un humano necesito estar al menos 10 años seguidos inmerso en la cultura humana para que pueda aprender eso que tu dices que es inmediato.
Luego, una vez que está entrenado con toda la cultura humana y ha pasado como 10 años en ella, entonces tiene suficientemente desarrollada esa capacidad de pensamiento simbólico.
#8 #19 Eso no es así.
El humano tiene memoria persistente entre sesiones, cosa que no tienen las IA actualmente. Y capacidad para almacenar todo lo que ve durante los primeros 10 años de entrenamiento de su cerebro.
Una vez pasada la fase de entrenamiento, entonces tiene desarrollada la capacidad intelectual.
Y eso mismo pasa en IA. Primero se entrena… » ver todo el comentario
Claro, artista, "esto es lo que una máquina no hace". Pues va a ser que sí lo hace, otra cosa es que no te enteres. Clasificar por conceptos no es magia, es formar representaciones internas a partir de patrones. Un modelo entrenado construye espacios latentes donde "animal", o "mamífero" no son palabras sueltas, sino agrupaciones estadísticas coherentes. Eso, aunque no te cuadre con tu idea romántica del concepto, es clasificación conceptual en… » ver todo el comentario
Lo que te estás saltando es que esa capacidad se apoya en una maquinaria cognitiva previa brutal, no en un milagro simbólico instantáneo. Y precisamente esa abstracción y clasificación de patrones es lo que se intenta modelar en… » ver todo el comentario
Los humanos aprendemos de diferentes formas y en el ejemplo del artículo nos suele bastar con ver unos pocos de cada para distinguirlos, cuando no es suficiente con uno.
Pero si es justo lo que explica el artículo, que la IA busca patrones a partir de repeticiones, pero sin tener comprensión real de lo que está diciendo.
Cuando eras pequeño y aprendiste a distinguir un perro de un gato, nadie te dio una lista de reglas. Nadie te dijo: "si tiene el hocico corto y maúlla, es un gato". Lo que ocurrió fue más simple y más misterioso: te enseñaron miles de ejemplos
¿Tú aprendiste qué era un gato y qué era un perro a partir de miles de ejemplos?
Igual es que soy de campo pero a mí no.
¿Cómo lo aprendiste entonces?
Antes de ver al canguro has visto miles de otros bichos y has hecho la diferenciación con el tema de la bolsita. Idem para cualquier cosa. Si de algo específico (por ejemplo ... un condensador) has visto muy pocos, todos te van a parecer iguales y los vas a confundir con cosas similares.
El sistema de aprendizaje es parecido ... pero es que nuestros sensores (ojos, oidos, tacto, etc) son muy superiores a lo que nos pensamos.
Eso son capacidades aparte, pero nuestro proceso de aprendizaje, en parte es bastante similar.
No te "entrenas" con miles de ejemplos de pqueño, pero uno solo equivale a miles.
El típico ejemplo: cuando ves una foto de algo y cuando lo ves en directo. Y si ya lo puedes tocar, mover, etc .. consigues una burrada más de información (o dicho de otra forma ... lo que pides en Aliexpress y lo que te llega)
¡ Y sin la ayuda de la IA !
pero de cuando en cuando tenemos sorpresas, o efectos ópticos que nos engañan.
Lo que no necesité fue ver miles.
huggingface.co/docs/transformers/tasks/zero_shot_image_classification
Hay mucha gente que está asociando propiedades de las mentes humanas y animales a los modelos basados en Transformers y otras AI. Y eso tiene riesgos porque la hace (a esta gente) fácilmente manipulable por lo que una AI pueda decir.
Los humanos con ver un gato y que te digan que es un gato, ves otro y sabes que es un gato.
Si ignoras la base previa y te quedas con la anécdota del "un gato y listo", el falso arranque es el tuyo, no el del artículo. A ver si piensas un poco antes de sentenciar en la primera línea.
Bueno, pues cuando cojo esta imagen y te digo: "esto es una salamandra". Por supuesto que ya sabes comunicarte previamente, pero no sabes absolutamente nada de reptiles, y te dan otra imagen parecida y sabes que es una salamandra porque yo te lo dije una única vez.
Y… » ver todo el comentario
Esto es lo que una máquina no hace. El clasificar por conceptos.
La prepotencia del ignorante es algo de lo más molesto.
www.tiktok.com/@the_silvestregt/video/7257574094714227974
Y por cierto, existe algo llamado “few-shot learning”, que va justo de aprender con pocos ejemplos una vez tienes una base previa. Pero claro, para entender eso primero hay que asumir que tu cerebro también ha sido “preentrenado” durante años.
¿os acordáis de los gatos a los que les ponían pepinos a escondidas ?
De hecho, la mayorías de los chicos comienzan llamando a los perros y gatos cuando los ven como "miau" o "guau"
Y te pido un favor, no uses ninguna IA. No sea cosa que vayan a aprender de tu nivel de razonamiento.
Se supone que se están desarrollando modelos de razonamiento "real", que combinados con LLMs serán la bomba. Y mientras estén bien programados, no se harán skynet.
#12 #_9
Pero claro, como las redes neuronales no se basan en "es correcto" o "no es correcto", sino en "¿Qué es estadísticamente más probable en base a los patrones que he creado", no puede saber que te esté dando un dato erróneo. Así que te seguirá generando errores.
Por supuesto, en cosas para las cuales hay mucha información, pues acertará casi siempre.
Ejemplo chorra, "Eh, chatGPT, hazme un Hola Mundo en este lenguaje de programación". Ahí no se va a equivocar
Esto es tipico de cuando te da opciones, botones, menus, herramientas. Como hay varias aplicaciones que tienen cierta opcion, infiere que la mia lo tiene. (pe: blender vs fusion vs cad vs freecad)
Ya lo decía Sócrates: sólo sé que no sé nada.
Pregúntale a cualquier IA: ¿cuánto es uno más uno? También os lo podría preguntar a vosotros, y la respuesta de la IA sería la misma respuesta falsa que diríais. Algunos dirían 2,… » ver todo el comentario
Viendo lo que veo a diario, no apostaría mi vida por ello
Es así. Una IA no te miente, Una IA te da la respuesta correcta y a veces los humanos lo llamamos alucinación. Esta es la razón por la que siempre van a tener alucinaciones. No se puede reparar lo que no está fallando.
Os creéis que nuestro pensamiento es algo mágico. Y en realidad somos computadoras muy complejas. Por tanto, para poder hacer otras computadoras tan complejas como nosotros lo único que tenemos que hacer es descubrir los algoritmos con los que funcionamos...
Anold, Xvatsenega
Y así se cierra el círculo. Una IA explicando a humanos como funciona una IA ... para publicitar otra IA que sustituye a humanos.
Publicidad de un "usuario" que no mandaba nada desde hace 10 años..... y ha mandado dos notas de esa empresa de IA .
Piensa mal.... y acertarás
ROT IA. ELI5 como funciona la IA y los LLMs
Imagina que un LLM es como un niño muy listo al que le han leído casi todo Internet, y la IA en general es el conjunto de técnicas para entrenar y usar a ese “niño”.
IA en general (ELI5)
Le das a la máquina muchos ejemplos (fotos, textos, sonidos, datos).
La máquina busca patrones: “cada vez que veo esto, suele pasar esto otro”.
Ajusta sus números internos (pesos de una red neuronal)
… » ver todo el comentario
No puedes preguntarle cosas. La respuesta a todo prompt es una consulta a la base de datos que tiene dentro. Es algo tan sofisticado como poco fiable, pero nunca puede ser una opinión.
Nadie ha dicho que eso sea una opinión. Y cómo funciona la IA ... tampoco es una opinión.
Más bien al revés, generalmente hay que etiquetar y decirle al sistema qué está bien y qué está mal.
Por eso hay empresas que se dedican a etiquetar por ti. Por las horas que cuesta hacerlo y los programadores cobran más que un señor de un país en vías de desarrollo.
pero eso de que se equivoca lo mínimo .... JA JA JA JA JA JA
No sabemos cómo funciona el cerebro, así que afirmar cosas a este respecto es simplemente mentir. Los humanos no necesitan miles de ejemplos para aprender algo.
Creo que los humanos somos bastante más listos y necesitamos menos ejemplos, pero, a pesar de eso, hay que coincidir que tenemos mucha más información que las que distingue un algoritmo.
Un ejemplo básico de "aprendizaje" es el fashion minst, una serie de imagenes de moda en bajisima resolución que el algoritmo aprende a distinguir, el truco es que sí, hay muuuuchas imagenes, pero la información que aporta cada imagen… » ver todo el comentario
Nada de "patrones estadísticos".
Este porcentaje, se irá incrementando, pues, cuando solo las ias creen contenido, habrá que añadir ese 20% ya en la fuente de origen...
Lo llevo diciendo mucho tiempo, las ias hoy en día, son un Google con esteroudes: más info, más potencia, mejores algoritmos