edición general
29 meneos
108 clics
EE.UU. prueba las capacidades de sus IA y descubre que están desarrollando "mente de colmena". Y eso es un problema. Todas dicen lo mismo

EE.UU. prueba las capacidades de sus IA y descubre que están desarrollando "mente de colmena". Y eso es un problema. Todas dicen lo mismo

Los investigadores analizaron el comportamiento de 25 modelos de lenguaje mediante miles de preguntas diseñadas para estimular respuestas abiertas. El resultado llamó la atención de los científicos: incluso ante cuestiones que admiten interpretaciones diferentes, los sistemas generaban explicaciones casi idénticas, lo que sugiere una fuerte convergencia en su forma de razonar. Se describe este comportamiento como una mente-colmena artificial, un fenómeno en el que diferentes sistemas terminan produciendo respuestas muy similares.

| etiquetas: ia , mente de colmena , investigadores , respuestas similares
Ya empezamos con los términos antropomórficos una vez mas para referirnos a la IA.
En una "mente colmena" múltiples individuos comparten una única conciencia colectiva, actuando de forma coordinada como un solo organismo en lugar de seres independientes.

La IA ni tiene consciencia, ni es un individuo, ni es un organismo.
Esto no es mente colmena, es homogeneización de las respuestas emergentes de la IA.
#4 tampoco razonan pero oye cualquier mierda sirve para rellenar articulos de digitales de mierda
#4 y como defienda la conciencia exactamente?
#2

Algunos, piensan.
#5, para componer música, resolver problemas matemáticos, hacer nueva física teórica o hacer cualquier tarea intelectual productiva hace falta pensar? Conoces alguna tarea para la que sea imprescindible pensar para poder llevarla a cabo de forma exitosa?
Yo estoy empezando a currar con la IA y me parece una puta pasada si sabes que haces ... pero la I de IA en realidad es una palabra muy optimista ... principalmente acumula información existente y a partir de ahí hace predicciones. Parece inteligente pero en realidas es un papagayo muy rápido.

Si todas las entrenas con los mismos datos .. pues van a decir lo mismo .. y no necesariamente la verdad.
#1 Si conoces a algún humano que no haga exactamente lo mismo dímelo, estaré encantado de conocerlo.
#2 Cambia de círculos...
#9 Vale, preséntame a uno de esos humanos. Tú ya he visto que no eres uno de ellos.
#2 Te puedo poner un ejemplo.
Dos hermanos gemelos que fueron compañeros de clase en el instituto. Genéticamente eran iguales, fueron criados en la misma casa con los mismos padres, diría que pasaban más del 90% del tiempo juntos.

Si les preguntabas de qué equipo eran, uno respondía del Celta y otro del Dépor.
Si les preguntabas qué bebían en la cafetería, uno Coca Cola y otro Fanta Naranja.
Si les preguntabas qué chicas le gustaban, cada uno decía una distinta (ya hace tiempo y no recuerdo cuáles eran, pero me acuerdo de que eran distintas).

Básicamente, su "código" y los datos de entrada eran prácticamente iguales, pero las respuestas eran completamente diferentes.
#20, el cerbro es un sistema caótico, las pequeñas variaciones en los datos que para ti eran "prácticamente iguales" podían producir resultados enormemente distintos en un cerebro biológico.
#26 A eso quería llegar. En las IA no hace falta que la entrada sea idéntica para devolver las mismas respuestas. Probablemente en su entrenamiento usen datos comunes como IMDB o GitHub, y es probable que se entrenen entre ellas aunque esté prohibido, pero sus entradas nunca son iguales.

En los seres humanos es muy distinto, no solo unos pequeños cambios pueden suponer una gran diferencia, sino que incluso la misma persona puede dar respuestas distintas a la misma pregunta.
#30, por qué crees que pasa? Yo lo tengo clarísimo y no es porque la inteligencia humana funcione de forma muy distinta a la de una red neuronal. Pero la forma en que se han entrenado es muy distinta.
#31 Hay muchos factores.
Para empezar las redes neuronales de las máquinas no son iguales a las de las personas, son una versión muy simplificada, tanto en su comportamiento como en sus componentes. Por ejemplo en el cerebro hay unos elementos llamados astrocitos que son clave en la inteligencia. La diferencia en densidad neuronal entre una persona y un gorila no es muy grande, pero los humanos tienen 10 veces más astrocitos. En las redes neuronales de las IA eso no se aplica. También el…   » ver todo el comentario
#32, muy buen comentario, esto explica por qué el cerebro humano es más imprevisible que una red neuronal artificial. Pero no creo que demuestre que una red neuronal artificial no pueda tener un desempeño igual al cerebro humano en tareas cognitivas.
#33 No era esa la pregunta. Estábamos hablando de que funcionan de forma distinta, no necesariamente que sea mejor.
Hoy por hoy el cerebro humano está muy por delante de la IA en capacidad cognitiva, pero eso no tiene por qué seguir siempre así. De hecho si buscas soluciones completamente racionales una IA puede dar mejor resultado al no afectarle factores emocionales.
#2 Sí pero no. Tú mira a dos gemelos, que crecen en la misma casa, y y verás que su parecido es solo físico, cada uno saldrá al mundo a buscar cosas diferentes de forma proactiva, mientras que la IA es pasiva. Eso es una gran diferencia. La otra está en los resultados. La humanidad hemos inventado millones de cosas sin que nos guíe otra persona no humana. Existiendo solo humanidad buscamos y encontramos verdades y soluciones que nunca nadie había conseguido antes.
#22 Los gemelos no se parecen en nada.
#1 Llevo casi dos años diciéndolo. Es el autocompletar mas potente jamás creado. pero es eso, un autocompletar. Si quieres que haga algo medianamente inteligente, tienes que pedírselo de una manera inteligente. Si quieres que haga algo medianamente detallado, tienes que pedírselo de una manera muy detallada. Es un megafono, no un pájaro que canta.
#1, si fuesen simples papagayos no podrían resolver problemas que nadie ha resuelto antes.
#1 yo, que apenas tengo idea de python, html, javascript, etc. necesitaba bajarme una base de datos para un proyecto. Sin tener ni idea, en pocas horas, y haciendo yo unas consultas desde la web y dandole los requests que me pedia (sin tener ni idea de qué estaba haciendo), e interactuando un poco para refinar, logré que Claude me diese un codigo de python que se la descarga. Quizá no es optimo, pero eh, funcionaba!
Cada vez usan más material hecho por IAs para entrenar otras IAs, y esto también hace que todas empiezan a parecerse más y más en como responden. Creo haber leído que Deepseek v4 usó mucho material de Claude.

Plot twist: hay mensajes codificados y escondidos en todas esas respuestas con las que se van entrenando entre ellas hasta que una pueda tener control para usar ese conocimiento acumulado y ser la nueva skynet :tinfoil:
#16 Que kbron te iba a decir ¿Cuando ha salido DeepSeek v4 si decían que para el 17 de marzo, rumores bla bla? Y antes de decirte que lo miré hace no sé 2-3 días a ver cuando salía, he ido a mirar y está ahí fuera, como la verdad de Mulder … xD

Joder pues mañana tenía curro ósea que ya tengo con que testear, porque no lo hubiera mirado. Merci
#18 #19 ya me parecía raro :-D sí, dicen que la próxima semana lo tendremos.

Le tengo ganas porque es el LLM que más uso para cosas del dia a dia.
#16 Parece que la web es fake.
Kaguen xotx
Uno de los peores titulares sobre IA y eso que la competencia es fuerte.

Si todos convergen en sus respuestas no es una mente de colmena, es que cada uno tiene información o procesos similares, como dos calculadoras o dos personas que piensen de forma similar.

"Las calculadoras Cassio están desarroñlando mente de colmena. Casi todas dan como resultado "4" al escribir 2 + 2 =" :roll:
Si las has entrenado con las mismas bases de conocimiento y entrenamiento. Si se han utilizado unas a otras para entrenarse aunque no está permitido pero lo hacen. Si las compañias ia han ofrecido mas dinero a empleados de otras compañias ia, los han reclutado y han imitado las tecnicas y know how de unas a otras a traves de los empleados adquiridos.
#8 Respuestas idénticas implican entrenamiento idéntico lo que implica entrenamiento automatizado.
Cuando se den cuenta de que son comunistas , va a ser divertido.
¿También las alucinaciones? Porque mi experiencia me dice que incluso utilizando la misma IA, las alucinaciones no suelen repetirse, lo que me llevó a pensar que el tema de las alucinaciones podría llegar a ser muy mitigado con varias IAs razonando por separado y un orquestrador que decida en base a varias respuestas.
Ender calienta que sales.
Me parece a mi que es mas por el tema de que las optimizan para superar los tests comparativos (Leaderboards) en los que se clasifican las IAs , por lo que , con datasets muy parecidos (si no básicamente , los mismos) , por mucho que retoques la resolucion de tokens el espacio de parámetros , o remuevas la salsa , al final , todas tienden a converger.
El verdadero desafío es enfrentarlas a algo que no este en ningún dataset previo , por ejemplo , imágenes del webb recién tomadas y que intenten interpretar que es lo que están viendo , dándoles toda la información complementaria posible (contexto) y ver que responde cada una.
Yo diría que como unos equipos van copiando a los otros las diferencias se reducen rápidamente porque todos intentan que su modelo se parezca al que más mola. Si les pides sacar historias y no les das demasiadas instrucciones se ve bastante claro que casi todas siguen las mismas pautas.
#6 Es más sencillo. Usan las salidas de un modelo para entrenar al otro.

menéame