Noticias de ciencia y lo que la rodea
11 meneos
43 clics
Una herramienta llamada AI-Newton puede deducir leyes científicas a partir de datos en bruto [ENG]

Una herramienta llamada AI-Newton puede deducir leyes científicas a partir de datos en bruto [ENG]

El modelo imita el proceso científico humano al construir de forma incremental una base de conocimientos de conceptos y leyes, afirma Yan-Qing Ma, físico de la Universidad de Pekín que ayudó a desarrollar el sistema. Ser capaz de identificar conceptos útiles significa que el sistema puede descubrir potencialmente conocimientos científicos sin necesidad de una programación previa por parte de los humanos, añade Ma. Utiliza regresión simbólica con la que el modelo busca la mejor ecuación matemática para representar los fenómenos físicos.

| etiquetas: ia , ai , newton , bruto , fisica , descubrimiento , leyes , nature , ecuacion
y el nobel de fisica,quimica y más allá es para .......
Lo que describe tiene mucho sentido, pero es tremendamente ambicioso. No sé hasta que punto creermelo.

Por si acaso, no tiene absolutamente nada que ver con la IA generativa.
#2, tienes razón, es un modelo simbólico, no solo no tiene nada que ver con la IA generativa, sino con el Deep Learning. Por eso dudo que pueda lograr resultados muy impresionantes, representar el conocimiento del mundo real simbólicamente es prácticamente imposible.
#4 Todo el conocimiento de la física que tenemos es simbólico. Cada símbolo representa un concepto.

Por ejemplo tomas la permitividad eléctrica del espacio y la permeabilidad magnética, y a partir de esos símbolos conoces la velocidad de la luz.  media
#5, un bebé de 2 años tiene un conocimiento de la física de nuestro universo extremadamente profundo y te aseguro que no ha utilizado ningún símbolo para ello.
#6 Sí que lo ha hecho. No ha hecho otra cosa. Ha ido creando conceptos. Asignar un símbolo a un concepto es lo de menos y sólo sirve para aplicar la lógica formal.
#7, no la comprensión de como tiene que agarrar un objeto, como tiene que caminar, o como tiene que bajarse del sofa no está representada con símbolos sino que son conexiones neuronales dentro del cerebro.
#8 No tenemos ni idea de cómo funciona el cerebro, por lo que eso de las conexiones neuronales es especular.

No son símbolos, son conceptos. Lo que pasa es que en la lógica formal, para poder usar un símbolo necesitas asignarle un concepto.

Este es el problema de la IA generativa. No es capaz de hacer razonamientos porque para ello son necesarios los conceptos, algo que no tiene. Sólo tiene palabras. Aunque le metieras dentro una ontología, no puedes hacer una paralelismo entre eso y los…   » ver todo el comentario
#9, no tenemos ni idea, pero sabemos seguro que no son símbolos, no hay ningún registro en el cerebro de un bebé que guarde la constante de gravitación universal y sin embargo es capaz de predecir muy bien como caen los objetos al suelo.

Respecto a la IA generativa, primero deberíamos saber bién qué es razonar. Lo que observamos es que modelos matemáticos que intentan simular el cerebro biológico muestran comportamientos que si los hace un humano decimos, sin lugar a dudas, que está razonando.
Que no, que la ciencia no se basa en encontrar patrones sino en conectar los chakras cuánticos del subconsciente para que emerjan ideas de la nada absoluta. Esto es irreplicable por un algoritmo que se basa en operar valores de entrada.

menéame