edición general
38 meneos
335 clics
Absolute Zero, la IA que no necesita a los seres humanos

Absolute Zero, la IA que no necesita a los seres humanos

Una universidad china lanza un exitoso modelo que aprende a razonar sin datos externos, generando y resolviendo sus propias tareas

| etiquetas: absolute zero , ia , seres humanos , china
Ocasión perdida para llamarle Juan Palomo.
#1 o skynet!
#7 El objetivo de la skynet de esta linea temporal va a ser convencerte de que compres mierda que no necesitas, y que votes a retrasados que no se lo merecen.
#9 pero si eso ya ocurre... que seria lo nuevo.?
Aquí está este para desmentirlo

youtube.com/shorts/kkhYHJ1wv8g
Las IA no razonan.
#4 La mayoria de las personas tampoco.
#5 ¿Has hecho encuesta en casa? :troll:
#6 No creo que le haga falta llegar a casa para ver numerosos ejemplos.
#4, si por razonar entiendes como "el accionar inmaterial del alma", obviamente no razonan, si por razonar entiendes simular matemáticamente lo que ocurre dentro de un cerebro biológico a base de impulsos eléctricos y plasticidad neuronal con funciones de activación y parámetros, sí que lo hacen.

Al final es la misma discusión que tuvieron antes Darwin y Galileo. Ellos demostraron que no somos tan distintos de otras estrellas u otros animales. Ahora estamos a punto de demostrar que…   » ver todo el comentario
#11 Sin embargo aún no sabemos cómo funciona exactamente el cerebro, por lo que difícilmente vamos a poder simularlo.
#12, podemos evaluar los resultados.
#11 A mí no me duele. De hecho no habrán sido pocas las veces que he "parametrizado" al usuario como una máquina de hacer 1's y 0's. Eso me la trae al pairo.

Lo que digo es que las IA no razonan. Mientras sigan existiendo lo que los "expertos" llaman cariñosamente "alucinaciones" entonces seguirá siendo OBVIO que no razonan. Que lo que hacen es extraer patrones a partir de cálculos estadísticos y los humanos hacemos bastante más que eso.

La diferencia está en que…   » ver todo el comentario
#16, las halucinaciones, es una forma original que han encontrado los expertos para decir que las redes neuronales se equivocan. Los seres humanos que se equivocan a veces tampoco razonan?
#17 Pues, a ver, has puesto "halucinaciones", así, con "h", así que tú me dirás :troll:

Bromas a un lado, sí, ya sé que ese es el nombre "chachi" para disimular que en realidad lo que hacen es sacar el texto que sería más probable estadísticamente hablando a partir de los datos de su entreno. Y ya.

No hay un razonamiento del contenido, no hay una referencia de qué es qué, qué es aquello de lo que habla y si lo que dice tiene sentido o no.

Claro que los seres…   » ver todo el comentario
#11 No, tampoco lo hacen. Al menos no estos modelos generativos. El funcionamiento de estas IAs no se asemeja al cerebro humano en nada. Y no es una cuestión de orgullo especista.
#11 El número de nodos que corren en una IA es por órdenes de magnitud ridículo en comparación con el número de neuronas que se necesitan para razonar.

Es como pensar que por tener una excavadora, que supera en mucho la capacidad de un operario, te puedes hacer tu propio planeta.
#4 Lo que tú digas...
Por esa regla de 3 tú tampoco
#14 No, el que no razona eres tú, que has dicho "por esa regla de 3" y no he mencionado ninguna regla.
#4 Sí razonan. Lo que no tienen es experiencia subjetiva de la realidad
#20 Sacar datos basados en probabilidades estadísticas exclusivamente no es razonar.

Los humanos tenemos la manía de asignarle "propiedades humanas" a objetos que no lo tienen, incluso a animales y plantas, y aquí es lo mismo.

Es la "versión intelectual" de la pareidolia.
#20 ¿La tienes tú? Demuéstralo.
#20 No, no razonan. Son modelos estadísticos, carecen de la capacidad de razonamiento y carecen de la experiencia subjetiva porque ni siquiera pueden ser un sujeto.
que aprendan ellas (las IA)
#2 Skynet cada día más cerca, cualquier dia de estos toma conciencia de si misma y la que se va a liar va a ser muy parda... ¡a tomar por culo con los humanos!. Yo solo espero estar enterrado a 2 metros bajo tierra el día que pase eso.
#7 Esto va muy deprisa, a ×1.75.
¿Y si entra en un bucle alucinatorio o vortice alucinatorio?

menéame