edición general
54 meneos
459 clics
Absolute Zero, la IA que no necesita a los seres humanos

Absolute Zero, la IA que no necesita a los seres humanos

Una universidad china lanza un exitoso modelo que aprende a razonar sin datos externos, generando y resolviendo sus propias tareas

| etiquetas: absolute zero , ia , seres humanos , china
Ocasión perdida para llamarle Juan Palomo.
#1 o skynet!
#7 El objetivo de la skynet de esta linea temporal va a ser convencerte de que compres mierda que no necesitas, y que votes a retrasados que no se lo merecen.
#9 pero si eso ya ocurre... que seria lo nuevo.?
Aquí está este para desmentirlo

youtube.com/shorts/kkhYHJ1wv8g
Las IA no razonan.
#4 La mayoria de las personas tampoco.
#5 ¿Has hecho encuesta en casa? :troll:
#6 No creo que le haga falta llegar a casa para ver numerosos ejemplos.
#4, si por razonar entiendes como "el accionar inmaterial del alma", obviamente no razonan, si por razonar entiendes simular matemáticamente lo que ocurre dentro de un cerebro biológico a base de impulsos eléctricos y plasticidad neuronal con funciones de activación y parámetros, sí que lo hacen.

Al final es la misma discusión que tuvieron antes Darwin y Galileo. Ellos demostraron que no somos tan distintos de otras estrellas u otros animales. Ahora estamos a punto de demostrar que…   » ver todo el comentario
#11 Sin embargo aún no sabemos cómo funciona exactamente el cerebro, por lo que difícilmente vamos a poder simularlo.
#12, podemos evaluar los resultados.
#11 A mí no me duele. De hecho no habrán sido pocas las veces que he "parametrizado" al usuario como una máquina de hacer 1's y 0's. Eso me la trae al pairo.

Lo que digo es que las IA no razonan. Mientras sigan existiendo lo que los "expertos" llaman cariñosamente "alucinaciones" entonces seguirá siendo OBVIO que no razonan. Que lo que hacen es extraer patrones a partir de cálculos estadísticos y los humanos hacemos bastante más que eso.

La diferencia está en que…   » ver todo el comentario
#16, las halucinaciones, es una forma original que han encontrado los expertos para decir que las redes neuronales se equivocan. Los seres humanos que se equivocan a veces tampoco razonan?
#17 Pues, a ver, has puesto "halucinaciones", así, con "h", así que tú me dirás :troll:

Bromas a un lado, sí, ya sé que ese es el nombre "chachi" para disimular que en realidad lo que hacen es sacar el texto que sería más probable estadísticamente hablando a partir de los datos de su entreno. Y ya.

No hay un razonamiento del contenido, no hay una referencia de qué es qué, qué es aquello de lo que habla y si lo que dice tiene sentido o no.

Claro que los seres…   » ver todo el comentario
#11 No, tampoco lo hacen. Al menos no estos modelos generativos. El funcionamiento de estas IAs no se asemeja al cerebro humano en nada. Y no es una cuestión de orgullo especista.
#11 El número de nodos que corren en una IA es por órdenes de magnitud ridículo en comparación con el número de neuronas que se necesitan para razonar.

Es como pensar que por tener una excavadora, que supera en mucho la capacidad de un operario, te puedes hacer tu propio planeta.
#26, cuantas neuronas utilizamos para razonar?
#4 Lo que tú digas...
Por esa regla de 3 tú tampoco
#14 No, el que no razona eres tú, que has dicho "por esa regla de 3" y no he mencionado ninguna regla.
#4 Sí razonan. Lo que no tienen es experiencia subjetiva de la realidad
#20 Sacar datos basados en probabilidades estadísticas exclusivamente no es razonar.

Los humanos tenemos la manía de asignarle "propiedades humanas" a objetos que no lo tienen, incluso a animales y plantas, y aquí es lo mismo.

Es la "versión intelectual" de la pareidolia.
#20 ¿La tienes tú? Demuéstralo.
#20 No, no razonan. Son modelos estadísticos, carecen de la capacidad de razonamiento y carecen de la experiencia subjetiva porque ni siquiera pueden ser un sujeto.
#20 No hay ninguna razón que permita suponer que razonan. No tienen dentro ninguna capacidad parecida a eso. Si lo hicieran sería una sorpresa absoluta. Los tests realizados demuestran que no razonan ni lo más mínimo. Es tan evidente que cualquiera puede verlo en los prompts habituales.
que aprendan ellas (las IA)
#2 Skynet cada día más cerca, cualquier dia de estos toma conciencia de si misma y la que se va a liar va a ser muy parda... ¡a tomar por culo con los humanos!. Yo solo espero estar enterrado a 2 metros bajo tierra el día que pase eso.
#7 Esto va muy deprisa, a ×1.75.
#7 Una máquina no puede "tomar consciencia" porque carece de los datos necesarios para ello. Tampoco es posible metérselos.
¿Y si entra en un bucle alucinatorio o vortice alucinatorio?
Qué puede salir mal?
Se parece un montón a los algoritmos genéticos de toda la vida. Sí que funciona. Hace décadas que sabemos que funciona.

Pues a mi, stockfish es lo que me da mejor resultado. Mi parcial visión.

menéame