Hace 1 año | Por Diem_25 a news.northeastern.edu
Publicado hace 1 año por Diem_25 a news.northeastern.edu

Un nuevo estudio de investigadores de la Universidad Northeastern, en colaboración con científicos del MIT y la Universidad de Glasgow, investigó qué sucedió cuando a un grupo de aves domesticadas se les enseñó a llamarse entre sí en tabletas y teléfonos inteligentes. Los resultados sugieren que las videollamadas podrían ayudar a los loros a aproximarse a la comunicación de las aves en la naturaleza, mejorando su comportamiento y, probablemente, su bienestar en los hogares de sus dueños.

Comentarios

ahotsa

#1 ¡Qué bueno y solo 23 positivos!

D

#1 Justo la noticia me ha recordado a mis jefes también

r

#1 como mi suegra 😂

W

#7 Espera a que les enseñen a hacerse una cuenta en Meneame. 

Penetrator

#15 Pues yo creo que saldríamos ganando.

inventandonos

#7 Es super interesante, pero la sociabilidad depende de cada especie. Un leopardo, un oso o un hamster no quieren ver ni en pintura a otro salvo en época de apareamiento.
Supongo que depende de la estrategia evolutiva de cada uno y por lo que se ve, el loro es muy social

Ildrain

#33 imagino que el tipo de inteligencia que desarrolla cada especie depende de sus estrategias de supervivencia. El tema es que como parece ser que los loros son una especie social, como nosotros, es más fácil reconocer ese tipo de rasgos en su comportamiento, que igual con otras especies más solitarias no nos canta tanto. Pero aún así, cuando se comprueba que son capaces de reconocerse entre ellos, de aprender, de buscarse y de establecer relaciones... me maravilla

Ildrain

#33 imagino que el tipo de inteligencia que desarrolla cada especie depende de sus estrategias de supervivencia. El tema es que como parece ser que los loros son una especie social, como nosotros, es más fácil reconocer ese tipo de rasgos en su comportamiento, que igual con otras especies más solitarias no nos canta tanto. Pero aún así, cuando se comprueba que son capaces de reconocerse entre ellos, de aprender, de buscarse y de establecer relaciones... me maravilla 😊  

Diem_25

#21 >> "Podría un loro crear la letra de una canción completamente nueva?"
I Understood That Reference:
I Robot, Will Smith

rojo_separatista

#24, a ver, no es perfecto, y obviamente tiene mucho que mejorar pero para mi, llamar "loro estocástico" a esto induce a la confusión de pensar que se limita a repetir de forma literal cosas que ha leído anteriormente.

pitercio

Como sigan así, al final dará pena comérselos.

eltoloco

#13 ¿Podrías diferenciar la transcripcion de un compositor cantando una canción compuesta por él mismo y la de un loro que se la ha aprendido porque su dueño es fan de este cantante y la repite cada mañana? Evidentemente no. ¿Eso hace que el loro sea inteligente o hace que el compositor sea tonto? La respuesta es obvia, la inteligencia está en quien ha compuesto la canción, y el loro simplemente la repite. Eres tú quien está buscando respuestas metafísicas para no aceptar algo tan evidente.

rojo_separatista

#17, podría un loro crear la letra de una canción completamente nueva sobre este debate que estamos teniendo? No.

Podría chatGPT: Sí.

¿Va quedando clara la diferencia o todavía no?

eltoloco

#21 error, ChatGPT no crearía una canción nueva, sino una "canción" (O serie de palabras más bien) que seria un batiburrillo de todas los textos que se han usado en su entrenamiento y que estén relacionados con el input que le metas en la pregunta. El humano si que crea canciones o historias nuevas, aunque estén inspiradas en otras, y la prueba es que remontándote hasta el inicio de la historia, siempre cualquier canción o historia que haya sido tomada como inspiración para la nueva estará hecha por otro humano. Ergo, el humano es fuente de nuevo conocimiento, mientras que la IA solo mezcla el conocimiento que el humano le aporta para su entrenamiento.

rojo_separatista

#47, puedes diferenciar una canción creada por un humano de una que sea lo que tu comentas un batiburrillo de otras canciones humanas? Casi imposible y cada vez será más difícil, ergo, irrelevante a efectos prácticos.

eltoloco

#49 claro que se puede diferenciar. Igual una historia corta y simple que no aporta nada nuevo a la literatura no la diferenciarás, porque no tiene miga, pero por el lado contrario si que la puedes diferenciar claramente, una IA nunca te va a generar un mundo nuevo y complejo al estilo de El Hobbit o Game of Thrones, como mucho te hará una mala copia de una mezcla de los mundos ya existentes. Por lo tanto el día que salga una nueva saga literaria compleja que defina un universo imaginario completamente nuevo sabremos indiscutiblemente que ha sido creado por una mente humana, porque con las IAs existentes actualmente es imposible, como mucho te puedes apoyar en ellas para inspirarte, aunque realmente te estarás inspirando en otros mundos ya existentes que están incluidos en su entrenamiento, por lo tanto te estarás inspirando en creaciones de otros humanos.

rojo_separatista

#51, repito. Puede un loro crear un "batiburrillo" según tú, completamente nuevo, sobre un contexto que no ha visto jamás? Repito spoiler: No.

eltoloco

#52 primero están mezclando cosas. Con las IAs estamos hablando de "loros estocasticos", donde la palabra "loro" es un símil a la capacidad de imitación de los loros.

Segundo estás subestimando la inteligencia de los loros, los loros no solo imitan, sino que en muchas ocasiones entienden el significado de la palabra que imitan, relacionandola con un premio o con una acción, por ejemplo una pipa, coger la bicicleta o meter la moneda en un bote, y en este sentido son infinitamente más inteligentes que ChatGPT o cualquier otra IA conversacional existente o futura siempre que esté basada en modelos estadísticos.

rojo_separatista

#54, en primer lugar, el punto de esta discusión no es discutir sobre las capacidades intelectuales de los loros aunque pueda ser un debate muy interesante. Cuando se le llama loro es para transmitir la idea de que copia y pega sin sentido porque no sabe lo que hace.

En segundo lugar podemos seguir así hasta el infinito. Te lo voy a repetir, si una IA sabe componer un poema sobre un contexto con el que no se ha entrenado es que sabe cuando y cómo utilizar las palabras que ha aprendido sobre durante su entrenamiento. Lo mismo cuando aplica la metodología que toca a un problema de física que no ha visto nunca antes.

Subestimar las capacidades de estas herramientas es la receta perfecta para hacer nada frente a los cambios disruptivos que van a venir.

rojo_separatista

#46, ciertamente es inquietante y desde luego, transmitir la idea al gran público que esto es un corta y pega cutre de otros textos, que nada tiene que ver con las creaciones genuinamente humanas no ayuda en nada a que la gente tome conciencia de los peligros que plantea este nuevo escenario.

Grub

#17 ¿Cuantas canciones has compuesto?
¿Eso te hace tan inteligente como un loro?
¿Has compuesto todas las que conoces?
¿Te sabes la tabla de multiplicar del cinco?
¿La descubriste o "Simplemente" repites?

Si te pregunto que es un ESP32, me contestarás "algo" que has aprendido de otros o inventarás algo o dirás que no lo sabes. Mismas opciones que tendría una IA o un loro (si su dueño es fan de la tecnología).

eltoloco

#10 no soy filosofo, ni linguista, ni nada parecido, esa cuestión mejor para gente que se dedique a ello.

Para mi, en este contexto y como ingeniero, entender quiere decir por ejemplo que si le preguntas sobre que opina de que un loro aprenda a hacer videollamadas, no va a tener ni puñetera idea ni de lo que es un loro, ni de lo que es hacer una videollamada, simplemente va a buscar entre sus datos del resultado del entrenamiento las palabras relacionadas con "loro", "hacer" y "videollamada" y te va a soltar una ristra de palabras relacionadas con un orden concreto, y tú como humano vas a decir "hostia, pues su respuesta tiene sentido" y vas a pensar que el ordenador te ha entendido y que por ello es muy inteligente, cuando realmente su respuesta tiene sentido porque es una mezcla de todos sus datos de entrenamiento relacionados con el input de la pregunta, no porque haya entendido la pregunta ni porque sepa razonar la respuesta.

rojo_separatista

#11, podrías diferenciar la respuesta que te daría un humano ante la misma pregunta? Segundo spoiler: dificilmente.

Lo importante es el output del modelo y todo lo demás tal y como tu dices es filosofía, más específicamente su rama más inútil, la metafísica.

Diem_25

#13 Esta claro que estamos avanzando mucho (pero aun es un "loro estocastico" --se estima que su IQ es del mismo orden de magnitud 50-70 iq points..--), y que estamos ya cerca de una AGI, pero aun queda un poco (y queda algo mas para la "super-inteligencia").

Un ejemplo bastante claro que he visto con GPT-4 es que si le preguntas por ejemplo de donde bajar cosas con copyright dice que: "no puede contestar", "que eso es ilegal..."

Pero si reformulas la pregunta... te responde sin problema

llorencs

#11 La pregunta, es, ¿podríamos nosotros actuar de la misma manera?

Es decir, tenemos las palabras clave "loro", "hacer" y "videollamada" y cogemos lo que conocemos de esas tres palabras clave y le damos la respuesta que consideramos.

Porque, la diferencia es, "comprender". ¿Qué significa comprender?. Si la IA es capaz de analizar correctamente el sentido de la pregunta, y hacia donde darte la respuesta, no se podría considerar que comprende la pregunta?

rojo_separatista

#19, el problema es que mucha gente no se ha dado cuenta que para comprender y razonar no hace falta ni ser un ente consciente, ni tener voluntad o aspiraciones y cuando se imputan estas palabras a un algoritmo les empieza a chirriar todo. La ciencia ficción ha hecho mucho daño pintándonos la IA de una manera demasiado antropocéntrica siempre.

l

#3 Pues yo habia pensado algo parecido con cetaceos. Como se comunican con sonidos no necesitaria camara. Habia pensado en comunicacion remota y con funcion de contestador automatico a ver como reaccconaba o si dejaban fragmentos concretos que se pudieran descrifrar.
Se podrian poner en punto distantes comunicados o en los acuarios, aunque a lo mejor les cuenta como viven en acuarios y deciden vengarse.
Los loros y los corvidos son los pajaros mas inteligente. A lo mejor el planeta de los simios, se vuelve el planeta de los loros.

#23 Ademas no tenemos una prueba para detectar la conciencia o algo que se comporta como ella. No podemos hacernos la prueba a nosotros mismo. A lo mejor la conciencia es una ilusion irreal.

s

#23 No es necesariamente por eso. Un debate antiguo es entre IA simbólicas y modelos estadísticos. Los partidarios de las IAs simbólicas tienden a opinar que los modelos estadísticos puros no son el camino a la Inteligencia Artificial General. Algunos opinan que será necesario combinar los dos enfoques.

s

#19 Pero el tipo de IA que es ChatGPT no analiza el sentido de la pregunta, simplemente recibe una pregunta, y en función del entrenamiento que ha tenido devuelve una respuesta probable a ese tipo de pregunta con palabras similares a esas. Eso es por lo que a preguntas matemáticas de vez en cuando tendía a responder con la forma de resolver correcta, pero con otros datos: claramente, o no había ejemplos en su entrenamiento con los datos de la pregunta, o había muchos más ejemplos con los de la respuesta.

rojo_separatista

#39, los patrones que ha encontrado Alphafold en la forma de plegarse las proteínas no sabemos dónde están, porque estas redes neuronales son tan profundas que la forma en la que interactúan sus decenas de miles de parámetros entre sí son una caja negra inescrutable. Los humanos solo podemos trabajar con el output y el input del modelo, pero no podemos desentrañar lo que pasa dentro realmente.

¿En este caso dónde está este nuevo conocimiento que permite predecir el pliegue de proteínas, si no es en la red neuronal inentendible para nosotros?

eltoloco

#40 no conozco el caso del que estás hablando, así que no voy a opinar sobre ello. Solo decir que parece que ni tú lo conoces, porque primero dices que ha conseguido resolverlo para después decir que no se sabe, por lo tanto lo que extraigo es que a veces acierta y otras veces no, con mayor o menos acierto, como cualquier otro modelo estadístico. Eso no es generar conocimiento, es tirar una respuesta y cruzar los dedos, comprobando después manualmente si el resultado es válido o no. Generar conocimiento sería descubrir un patrón que permita acertar en el 100% de ocasiones, incluso aunque ese patrón esté oculto dentro del modelo entrenado. Discutir sin tener los datos reales sobre todo esto es lo mismo que nada.

rojo_separatista

#62, conozco el caso bastante bien.

A grandes rasgos te diré que el problema del pliegue de las proteínas es un problema fundamental de la biología, al resolverse permite a los biólogos moleculares acelerar sus investigaciones relacionadas con ellas muchísimo. Se sabe que la forma en que se pliegan viene determinada por la secuencia de aminoácidos que la conforman pero es un sistema demasiado complejo para que ningún modelo hasta ahora haya sido capaz de predecir su forma basándose en simulaciones físicas de como interactúan las moléculas que constituyen los aminoácidos que las conforman. La única manera efectiva de determinar su forma era cristalizandolas y midiendo sus propiedades con instrumentos muy específicos pero era un proceso extremadamente caro y delicado. Por eso solo se conocía una pequeñísima parte de la forma del conjunto total de proteínas.

Los investigadores de Google decidieron aproximarse al problema de otra manera, en lugar de intentar saber como interactúan los aminoacidos directamente, decidieron entrenar un modelo de aprendizaje profundo para que lo aprendiera a partir de los pocos miles de proteínas cuya forma era conocida. Para convertir los datos tridimensionales el números construyeron una matriz de distancias entre cada uno de los aminoácidos. Así el modelo recibía un vector (secuencia de aminoácidos) y devolvía una matriz de coste entre cada aminoácido. A partir de esta matriz y mediante el método estadístico podían reconstruir la forma tridimensional de la proteína.

Se comprobó que funcionaba bien para cualquier cadena de aminoácidos y el problema abierto de la predicción de la forma de las proteínas quedó resuelto con una precisión jamás lograda por ningún equipo de investigación.

¿Problema? Que el modelo que recibe el vector y lo convierte en una matriz es una caja negra imposible de descifrar pero que contiene el conocimiento necesario para resolver el problema del pliegue de proteínas.

Es un problema complejo, pero he intentado explicarlo de la forma más entendible posible. En internet tienes cientos de artículos que hablan sobre ello en profundidad.

https://es.m.wikipedia.org/wiki/AlphaFold

eltoloco

#63 me ha bastado leer dos párrafos para comprobar que lo que he supuesto en el comentario #62 era cierto, y por ende que lo acabas de decir tú es falso, y el problema no ha quedado resulto ni funciona para cualquier proteína. Es simplemente una predicción, como cualquier otra IA, y además esta tiene un margen de error muy alto:

En alrededor de dos tercios de las proteínas, AlphaFold 2 obtuvo una puntuación superior a 90 en la prueba de distancia global (GDT), que compara las predicciones de los programas con las estructuras determinadas experimentalmente; una puntuación de 100 denota una coincidencia completa.

Vamos, que ni siquiera es capaz de acertar con todas las proteínas que cuya estructura ha sido determinada manualmente.

rojo_separatista

#68, otro spoiler, todos los modelos descritos por la ciencia predicen la realidad con un margen de confianza determinado. Te crees que no es nuevo conocimiento ser capaz de hacerlo con este grado de precisión?

Ponerme a discutir contigo en plan cuñao sobre lo relevante que ha sido AlphaFold en la biología molecular empieza a ser bastante ridículo. Así que te cito algunas fuentes importantes y me retiro.

‘It will change everything’: DeepMind’s AI makes gigantic leap in solving protein structures
https://www.nature.com/articles/d41586-020-03348-4

AlphaFold: a solution to a 50-year-old grand challenge in biology
https://www.deepmind.com/blog/alphafold-a-solution-to-a-50-year-old-grand-challenge-in-biology

DeepMind’s AlphaFold2 Solves the Long-Stood Protein-Folding Problem
https://www.analyticsinsight.net/deepminds-alphafold2-solves-the-long-stood-protein-folding-problem/

One of the Biggest Problems in Biology Has Finally Been Solved
https://www.scientificamerican.com/article/one-of-the-biggest-problems-in-biology-has-finally-been-solved/

I

#69 El problema del plegamiento de proteínas sigue sin resolverse. AlphaFold consigue mejores predicciones porque encuentra más patrones... Eso sí, no le pidas a la IA que te explique las reglas que sigue para determinar el patrón que propone.

rojo_separatista

#73, esta nueva forma de predecir la forma en que se pliegan las proteínas es nuevo conocimiento o no lo es?

I

#74 No es conocimiento desde el momento en que no puede explicar cómo lo hace y qué reglas aplica.

Es como si construyes una máquina que es capaz de tirar una moneda al aire y que siempre salga lo que predice. ¿es conocimiento?

rojo_separatista

#75, una cosa es el conocimiento de cómo las leyes físicas a la hora de plegar las proteínas y otra es cómo se terminan plegando. El primero está dentro de la red neuronal y no hay forma de extraerlo por ahora, el segundo es el resultado del modelo con las estructuras tridimensionales y dicho conocimiento es extremadamente útil para los biólogos moleculares. Conocimiento que ha creado un algoritmo de inteligencia artificial. Te puedo poner más ejemplos, desde la multiplicación de matrices a la predicción de cómo interactúa el plasma producto de una reacción nuclear, todos generados por algoritmos de IA. roll

DeepMind unveils first AI to discover faster matrix multiplication algorithms
https://venturebeat.com/ai/deepmind-unveils-first-ai-to-discover-faster-matrix-multiplication-algorithms/

Así es como la IA nos está ayudando a superar uno de los mayores desafíos de la fusión nuclear
https://www.xataka.com/energia/asi-como-ia-nos-esta-ayudando-a-superar-uno-mayores-desafios-fusion-nuclear-1

I

#76 nadie dice que las predicciones que hace no sean útiles. Igual de útil que el resultado de una calculadora.

rojo_separatista

#30, #32, alphafold ha conseguido resolver el problema de la predicción del pliegue tridimensional de las proteínas entrenándola a partir de los limitados ejemplos conocidos. Ningún equipo de investigación lo logró utilizando una aproximación basada en modelos de física simulados. Es decir, ha logrado crear conocimiento. Sin alma, sin conciencia de lo que hace y sin voluntad de hacerlo para un fin más elevado. Pero ha logrado algo descubrir patrones, que los humanos no habíamos logrado descubrir antes.

eltoloco

#36 tu mismo lo has dicho, descubrir patrones que ya están ahí, y eso a su vez ha permitido a los investigadores generar nuevo conocimiento. Y es que la IA es simplemente eso: estadistica automatizada, y por lo tanto sus funciones están limitadas a lo que permite hacer la estadística, que se puede resumir en descubrir patrones y repetirlos.

i

Elon Musk y otros preocupados con la IA y al final los que van a terminar dominando el mundo y acabando con la humanidad van a ser los loros.

rojo_separatista

#9, primero deberías definir que es "entender". Spoiler: el alma y la auto-conciencia no pintan nada en todo esto.

s

#10 Crear algún tipo de modelo interno que permita inferir nuevos conocimientos. Por ejemplo, entender el concepto de suma debería permitir responder correctamente a sumas de números que no hayas visto antes, cosa con la que ChatGPT tenía problemas.

eltoloco

#26 hay una diferencia muy clara, y es que el humano puede generar y genera nuevo conocimiento, mientras que ChatGPT no. Y de hecho ninguna AI actual genera nuevo conocimiento, simplemente automatiza tareas. Una IAG si que debería generar nuevo conocimiento, pues realmente entendería los temas a tratar, y eso le permitiría ampliarlos, el problema es que la IAG solo existe de forma teórica y no hay nada real que se le acerque minimamente.

l

#30 Estoy bastante de acuerdo con lo que dices.

Pero ChatGPT ya te puede crear una historia de la nada. Vale que es un batiburrillo de otras cosas que ha "leído" o asimilado durante el entrenamiento.... Pero me puedes asegurar que en el caso de un humano no es prácticamente lo mismo?

Quizás en un futuro poniendo un componente aleatorio en alguna versión del modelo se soluciona eso de la falta de originalidad....

eltoloco

#32 la diferencia entre la historia "nueva" que puede crear un humano y la que puede crear ChatGTP o una IA similar, es que aunque en ambos casos las dos estarán "inspiradas" en mayor o menor medida en otra historia previa (Totalmente en el caso de la IA), esa historia previa siempre la habrá creado otro humano. Por lo tanto remontando al inicio de los tiempos, donde no había ni lengua escrita, evidentemente las primeras historias las crearon los humanos, las fueron transmitiendo primero boca a boca y después por escrito, y sobre ellas o basadas en ellas se han ido creando nuevas. Por lo tanto el humano siempre es la fuente del conocimiento, mientras que la IA en este momento se limita a hacer batiburrillos de historias ya existentes. Es una diferencia abismal.

Lo mismo se puede aplicar a cualquier otro tipo de IA, por ejemplo a las IAs de generación de imágenes. Las imágenes que crea son innegablemente nuevas, no hay otra igual, pero no dejan de ser batiburrillos de las imágenes que usa en su proceso de entrenamiento, que a su vez son imágenes creadas por humanos o directamente fotografías del mundo real. Por lo tanto si a partir de ahora solo generasemos imágenes mediante IA, no aparecerían nuevos estilos de pintura o fotografia. Es más, si a partir del siglo XV solo se hubiesen creado imágenes por IA, no tendríamos el realismo, el impresionismo, el surrealismo, etc, etc.. porque estos estilos son creaciones humanas. Dicho de otra forma, le puedes decir a una IA que te haga un nuevo cuadro de un caballo con estilo impresionista, pero no le puedes decir a una IA que te cree un nuevo estilo.

l

#45 Tu mismo estás diciendo que la única diferencia entre la historia nueva de una IA o un humano, es que ambos están inspirados por historias anteriores creados por humanos.... Vamos, que entre la historia nueva que te puedas inventar tu y una IA, no hay gran diferencia.

Entiendo tu argumento de que algo en el progreso humano ha ido añadiendo "algo nuevo" en cada iteración de "historias nuevas" (y por tanto el origen de la "primera historia"). Pero es lo que te he escrito antes, una semilla aleatoria dentro de un modelo IA podría hacer esa misma función. En tu hipotético ejemplo donde el arte se hiciera solo con IA desde el siglo XV, estás aleatoriedades generarían evolución artística. Habría que ver como serian las corrientes artísticas (mediante interacción entre distintas IAs??), pero evolución podría haber sin problema.

eltoloco

#55 parece que no entiendes como funciona una IA. Una IA no se autoentrena iterativamente, se entrena una sola vez con los datos de entrenamiento y obtienes un modelo que es el que luego hace las predicciones (Textos, imagenes, etc). Para que una IA genere nuevos resultados hay que volver a reentrenarla con nuevos datos de entrenamiento, y meterle como datos de entrenamiento sus propias predicciones es una muy mala decisión, que a la larga resultaria en una IA que hace predicciones absurdas y sin sentido, pues le estás dando como datos de entrenamiento datos que no son reales, sino predicciones que tienen un margen de error, es decir, le estás dando como válidos unos datos que en parte serán erróneos, y luego hará predicciones en base a ellos, con lo que tendrás un mayor porcentaje de predicciones erróneas. Repite el proceso hast ael infinito y acabas con predicciones sin sentido en la mayoría de casos.

En cuanto a lo de "añadir una semilla aleatoria", todas las IAs que están de moda, como ChatGTP o Dall-E, ya tienen aleatoriedad, si no la tuviesen siempre generarían el mismo output para cada input. Además esto no tiene nada que ver con generar nuevo conocimiento, te pongo un ejemplo simple: por mucha aleatoriedad que le metas, si los datos de entrenamiento son Harry Potter y Spiderman, las historias resultantes siempre serán una mezcla de estas dos, cada vez diferentes tomando partes aleatorias de cada una de ellas, pero siempre una mezcla de estas dos al fin y al cabo. No hay generación de historias nuevas.

l

#57 Primero, tengo una idea de como van las IAs (sin ser experto, claro).

" meterle como datos de entrenamiento sus propias predicciones es una muy mala decisión, que a la larga resultaria en una IA que hace predicciones absurdas y sin sentido"

Segundo, justo esto que pones es lo siguiente que se están planteando con chatGPT (o GPT4), que pueda tener conversaciones consigo mismo. De nuevo, estamos hablando de modelos futuros, no del actual; y parece que justo esto de "Una IA no se autoentrena iterativamente" es lo que va a cambiar.

Tercero, igual que mucho del arte moderno de hoy en día no tiene sentido para muchos humanos, lo mismo podría pasar con IAs; "absurdo y sin sentido" aplicado a la originalidad no es un tema baladí (y sí muy subjetivo).

Por ultimo, tu ejemplo de Harry Potter y Spiderman es absurdo. Es como si coges a Tarzan, antes de que aprendiera a hablar, y le pides que te crea una historia; te va a contar algo sobre la selva. Si limitas una inteligencia artificialmente..... Lo estás limitando, obviamente.

Yo dejo ya aquí la conversación, que la calidad de los argumentos (por ambas partes) ya no compensa dedicarle más tiempo.
Muchas gracias por el intercambio de ideas.

eltoloco

#59 me parece evidente que no sabes como funciona una IA.

Sin intención de hacer una falacia de autoridad ni nada parecido, soy ingeniero informático y por ello estudié hace no mucho todos los modelos de inteligencia artificial, incluido los modelos en que se basa ChatGPT, concretamente machine learning y más concretamente redes neuronales. Lo primero de todo es que igual que cualquier otra red neuronal o cualquier otro modelo de machine learning, ChatGPT no se reentrena con su uso, sino que requiere otro proceso de aprendizaje totalmente nuevo (De ahí que en el footer te ponga la versión con la fecha en que ha sido entrenado), añadiendo nuevos datos de entrenamiento o cambiando parametros en el modelo. Pensar que una IA se reentrena automáticamente durante su uso es un error común que comete quien no las ha estudiado. Todavía no existe una IA capaz de hacer esto, precisamente por lo que te he explicado en el comentario anterior, porque eso llevaría a que se incluyan errores en sus datos de entrenamiento. Para evitar esto, los datos de entrenamiento son elegidos y tratados cuidadosamente, o deberían serlo, por un ingeniero de datos, si lo automatizas te cargas la base de un buen entrenamiento.

Dicho esto, que ChatGPT tenga conversaciones consigo mismo es totalmente absurdo, pues para que eso tenga sentido primero debería usar un nuevo modelo con autoentrenamiento, el cual repito no existe, y segundo estaría creando un circulo vicioso de meter datos de entrenamiento erróneos. No debes creerte todo lo que lees en los medios, porque en el 99% de los casos está escrito por "periodistas" que no tienen ni puñetera idea del tema sobre el que están escribiendo, incluso aunque sean "periodistas" aficionados a la materia, como por ejemplo los periodistas del motor o los de webs de tecnología estilo Xataka.

Por ultimo, el ejemplo de Harry Potter y Spiderman es una simplificación para que entiendas el concepto, si sustituyes estas dos historias por todas las obras de literatura existentes el punto es el mismo, por mucho que cada respuesta sea aleatoria, al final siempre será un batiburrillo de sus datos de entrenamiento, nunca creará nada totalmente nuevo.

nilien

#9 Dependiendo del caso, los loros son capaces de entender lo que dicen en mayor o menor grado, incluso cuando repiten lenguaje humano (están los estudios de Irene Pepperberg con el loro Alex, por ejemplo, pero incluso en loros familiares hay casos y casos en los que se la han jugado a sus humanos diciendo según qué cosas en el momento oportuno). Así que la palabra "loro" para describir lo que hacen las IA conversacionales puede inducir a confusión...

(y desde luego que un loro, cognitivamente hablando, sí que está haciendo uso de una inteligencia que en las IA sólo aparece en el nombre, y ya)

s

#9 > De probabilidades bayesianas sí. uy, como la intuición que funciona por debajo de nuestras propias acciones más automatizadas ¿no?

rojo_separatista

#6, osea que ahora los loros pueden aprobar examenes de selectividad con los que no se han entrenado, escribir poemas sobre las noticias más importantes del dia, escribir tratados sobre la relación entre la física cuántica y las tortillas de patatas con los que tampoco se han entrenado o aprender a hablar fluido bengalí con solo un 0.023% de texto bengalí en su corpus de entrenamiento? Curioso cuanto menos.

s

#12 Estoy bastante seguro de que en el entrenamiento de ChatGPT había muchas preguntas similares a las de esos exámenes.

Respecto al bengalí, un 0.023% del entrenamiento de ChatGPT no es precisamente un corpus pequeño en términos absolutos.

rojo_separatista

#81, en todo caso significa que sí está aprendiendo algo, porque el ejercicio no es mismo en ningún caso pero sabe aplicar la solución que ha aprendido en otros casos parecidos, cambiando lo que es necesario para el nuevo contexto.

Lo del bengalí lo mismo, los propios investigadores de google no se lo terminan de explicar. El caso es que ha aprendido a generalizar los conceptos en otros idiomas y si le pides como se hace una tortilla de patatas en bengalí sabe juntar lo que aprendió en español con lo que aprendió en bengalí. No se limita a buscar en ninguna base de datos como hacer una tortilla de patatas en bengalí y lo copia. Y hay que tener en cuenta que no se la entrenó para traducir es una habilidad que ha desarrollado por si mismo para poder realizar mejor la predicción de texto.

Y así hay miles y miles de ejemplos que demuestran que no solo se dedica a juntar textos literales que había leído, sino que tiene cierto grado de comprensión de lo que dice. El problema es que la gente atropomorfiza estas palabras y cuando alguien habla de comprensión automáticamente lo relacionan con la auto-conciencia.

y

¿Están seguros que son loros? ¿No serán cotillas?

Eristoff

#14 Te refieres a las cotorras?

y

#37 También, también.

senador

#37 Cotorras argentinas, el combo perfecto.

senador

Cómo las mamás de parque.

D

#8 Esas no son loros, son cotorras

EDITO: vaya, ya habían hecho el chiste justo un comentario más abajo

cocolisto

Bah,eso ya lo hacen los humanos y signo de inteligencia no parece 😁

Elbaronrojo

- ¡Policía, policía, policía!
- Aquí la policía. Cálmese y cuénteme que sucede.
- El gato del vecino ha entrado en casa.
- Caballero, que somos la policía y estamos para cosas serias.
- Es que soy el loro y me tiene acojonado.

strike5000

Pues que tengan cuidado con esto. Con lo listos que son estos bichos en tres días están ciber acosándose y conectándose a páginas porno.

Rokadas98

Que anden tonteando con los loros, recordad lo que ocurrió con el planeta de los simios.

pablisako

R

Es el primer paso, un ataque global está cerca.

kumo

Seguro que si le ponen canal de Youtube a ese loro tiene más seguidores que el mío lol lol

sotillo

Joder, esto si que es un trabajo molón, seguro que da para trabajar a distancia, con jornada reducida y semana de cuatro dias

llorencs

Anilinkz.to está caída no. Es la que usaba pero ya no puedo acceder a ella

Por suerte encontré alternativas y están en la lista que te ha dado.
#_24

rafaLin

¿Y si "guía del autoestopista galáctico" fue todo una farsa, un ataque de falsa bandera para que desconfiemos de los ratones y no prestemos atención al verdadero plan de los loros?

MoneyTalks

Que será lo siguiente, loroTinder?

d

¡Muy curioso! Unos serios candidatos para ganar el próximo IgNobel.

f

Coño, me veo a los loros usando Tinder.

b

De aquí unos años serán promocionados a Project Manager's