"Todavía no entendemos el lenguaje matemático que está hablando": un nuevo programa de IA, a la que se le mostraron vídeos de fenómenos físicos, identificó variables diferentes a las nuestras.
#6:
#1 Brillante, lucido y sensacional comentario.
#15:
#12: A veces una hipótesis muy buena puede impedir pensar en otras mejores, lo bueno de la IA es que no parte de nuestros prejuicios relativos al Modelo Estándar y a lo mejor consigue ver algo más allá que permita acomodar algún resultado que no termina de encajar en el modelo actual.
#25:
#22 La IA aprende básicamente de tres maneras:
- Por imitación (tú le pasas un conjunto de datos de entrada y un conjunto de datos de lo que deseas que salga; a partir de ahí, se las ingenia para ante entradas nuevas que no son del conjunto de entrenamiento, dar unas salidas adecuadas basándose en lo que se podría esperar por el entrenamiento previo)
- Aprendizaje automático o por objetivos (tú no le pasas salidas deseadas, le defines un problema concreto -un conjunto de reglas, estados de victoria y/o de derrota- y a base de repetir y repetir va aprendiendo por si sola cómo jugar/enfrentarse al problema y poco a poco a ganar o evitar perder)
- Colaborativa o competitivamente (la enfrentas con otra IA de características similares o complementarias, en el primer caso tienen que ayudarse a cumplir un objetivo, en el segundo caso tienen que evitar perder)
En todos los casos, tú tienes que aportarle datos; en el primero, un buen montón de datos para procesar qué quieres que haga. En los otros dos, los datos que aportas son más bien el modelado de un problema; en todos los casos, los datos que le das son los límites dentro de los cuales la IA va a funcionar, las IAs no van a sacarse nada de la manga que no hayan visto antes/se salga del problema que le has fijado (otra cosa es que hayan visto patrones en tus datos que tú no hayas podido ver o que hayas modelado mal el problema).
Lo más normal es que sin querer hayas introducido sesgos que definan el comportamiento de esa IA. Por ejemplo, si quieres clasificar personas rubias, normalmente pones fotos de personas rubias. ¿Qué pasa si una persona negra va teñido de rubio? pues lo normal sería que dentro de todas las fotos de personas rubias que le hayas dado para que se entrenara, no hubiera ninguna persona negra teñida de rubio, así que probablemente no sabría clasificar bien a esta persona. Todo porque para nosotros, las personas rubias son todas blancas, los rubios negros no existen de manera natural. Ya estaríamos sesgando los datos sin darnos cuenta, estaríamos evitando (sub)conscientemente personas con el pelo rubio pero la piel oscura. Esto es una chorrada, pero piensa cosas más graves y lo fácil que es entrenar IAs que cometan errores sólo por enfrentarse a casos dudosos que nosotros tendríamos claros desde el principio.
Lo que modifican las IAs son sus propios parámetros internos, lo hacen con el entrenamiento y es lo que le sirve para "aprender". Pero no pueden hacerlo con los datos y condiciones de entrada, entrenamiento, etc. y esto es lo que hace que sean muy buenas para cosas muy concretas, pero que si las sacas de ahí fallen como una escopeta de feria. Si, cada vez se va en camino de un aprendizaje más generalista, pero por ahora, no puedes poner a la misma IA a jugar al ajedrez y a las damas a la vez (son reglas diferentes, condiciones de victoria diferente, etc. o sea, son problemas distintos), aunque puedas entrenarla individualmente a jugar a uno y luego a otro.
#12:
Poca broma con esto, todavía recuerdo hace algo más de 10 años ver un documental en el que un equipo de investigación puso una IA a tratar de sacar la fórmula del péndulo doble invertido (a través de sus sensores), y no solo la sacó, si no que dedujo y aplicó “por sí misma” la constante de la gravedad...
#18:
#17: No, parten de los datos de los experimentos, no de las fórmulas creadas para modelizarlos, eso es lo que está "deduciendo" esta IA ahora mismo.
#17:
#15 Al contrario, las IAs parten de todos nuestros prejuícios. No sé si sabes que las IAs se aliementan de datos que nosotros aportamos. Nuestros datos. Así que ya vienen con prejuícios de fábrica... simplemente harán las mismas cosas que nosotros, simplemente llegando a conclusiones y buscando relaciones que a nosotros pueden habérsenos escapado por pura potencia de cómputo.
#8:
Lo han alimentado con las obras completas de Más Allá
#7:
#1 Sería mejor asegurarse antes de que da resultados de fiar.
En el caso de la física puede ser una manera inocua de saber si no tiene fallos de fondo. Habría que ver qué calidad tiene el hardware o el software.
En el caso de la biología o medicina aplicada, pues las consecuencias son más serias.
#2:
Quién ha dicho que una IA no pueda ser magufa?
#3:
El nivel de la magufada es esta vez superior a las anteriores.
#10#26 Muchas risas pero eso es exactamente lo que ha pasado. Ahora los científicos no entienden qué es el resultado (llámalo 42 o las variables esas) y tienen que hacer otra IA para que lo explique...
#22 La IA aprende básicamente de tres maneras:
- Por imitación (tú le pasas un conjunto de datos de entrada y un conjunto de datos de lo que deseas que salga; a partir de ahí, se las ingenia para ante entradas nuevas que no son del conjunto de entrenamiento, dar unas salidas adecuadas basándose en lo que se podría esperar por el entrenamiento previo)
- Aprendizaje automático o por objetivos (tú no le pasas salidas deseadas, le defines un problema concreto -un conjunto de reglas, estados de victoria y/o de derrota- y a base de repetir y repetir va aprendiendo por si sola cómo jugar/enfrentarse al problema y poco a poco a ganar o evitar perder)
- Colaborativa o competitivamente (la enfrentas con otra IA de características similares o complementarias, en el primer caso tienen que ayudarse a cumplir un objetivo, en el segundo caso tienen que evitar perder)
En todos los casos, tú tienes que aportarle datos; en el primero, un buen montón de datos para procesar qué quieres que haga. En los otros dos, los datos que aportas son más bien el modelado de un problema; en todos los casos, los datos que le das son los límites dentro de los cuales la IA va a funcionar, las IAs no van a sacarse nada de la manga que no hayan visto antes/se salga del problema que le has fijado (otra cosa es que hayan visto patrones en tus datos que tú no hayas podido ver o que hayas modelado mal el problema).
Lo más normal es que sin querer hayas introducido sesgos que definan el comportamiento de esa IA. Por ejemplo, si quieres clasificar personas rubias, normalmente pones fotos de personas rubias. ¿Qué pasa si una persona negra va teñido de rubio? pues lo normal sería que dentro de todas las fotos de personas rubias que le hayas dado para que se entrenara, no hubiera ninguna persona negra teñida de rubio, así que probablemente no sabría clasificar bien a esta persona. Todo porque para nosotros, las personas rubias son todas blancas, los rubios negros no existen de manera natural. Ya estaríamos sesgando los datos sin darnos cuenta, estaríamos evitando (sub)conscientemente personas con el pelo rubio pero la piel oscura. Esto es una chorrada, pero piensa cosas más graves y lo fácil que es entrenar IAs que cometan errores sólo por enfrentarse a casos dudosos que nosotros tendríamos claros desde el principio.
Lo que modifican las IAs son sus propios parámetros internos, lo hacen con el entrenamiento y es lo que le sirve para "aprender". Pero no pueden hacerlo con los datos y condiciones de entrada, entrenamiento, etc. y esto es lo que hace que sean muy buenas para cosas muy concretas, pero que si las sacas de ahí fallen como una escopeta de feria. Si, cada vez se va en camino de un aprendizaje más generalista, pero por ahora, no puedes poner a la misma IA a jugar al ajedrez y a las damas a la vez (son reglas diferentes, condiciones de victoria diferente, etc. o sea, son problemas distintos), aunque puedas entrenarla individualmente a jugar a uno y luego a otro.
#25 no sé si estás al tanto de los avances de este último año (tal vez más) en IA. Precisamente lo que más me ha roto la mente ha sido cómo las IAs han sido capaces de sacarse cosas de la manga. Cada vez son más capaces de sacar patrones transversales con menos información lo cual les permite deducir conceptos sin habérselos mostrado antes. Creo que tu explicación era válida hasta hace uno o dos años. Hoy en día es difícil de explicar con esa lógica alguno de los resultados que se obtienen de ciertas IAs.
Por otro lado, en este caso concreto se le mostraron a la IA las imágenes en bruto de fenómenos físicos. Dudo mucho que se le hayan podido transmitir los sesgos humanos (o al menos tan superficialmente que resultaría despreciable).
#43 A ver, qué avances ni que ocho cuartos... llevamos más o menos con las mismas tecnologías desde los 80/90. ¿La diferencia, aparte de procesos más eficientes, modelos más completos, etc? pues que hoy en día tenemos una capacidad de almacenamiento obscena y cantidades de memoria brutales y una capacidad de proceso inconcebible respecto a lo que pudiera haber en los 90. Infravaloramos el tamaño, estructura y densidad de las redes neuronales actuales, aparte de la inmensa cantidad de recursos que se les dedican para entrenarlas convenientemente.
No "decuce conceptos" ni se sacan nada de la chorra. Disponen de una cantidad de datos de referencia TAN ASOMBROSAMENTE AMPLIA que consiguen encontrar patrones en esos datos que a nosotros nos sería imposibles de ver (se llama BIG DATA por algo). No sacan nada que no se les haya mostrado antes de una forma u otra, por mucho que pudiera parecerlo. En su defensa, es probable que lo que las personas llamamos imaginación no sea más que experiencia pasada por un filtro creativo, así que en nuestro caso también pasaría así en cierto modo.
Te diré que sesgos han podido cometer: hablas de "Los Fenómenos Físicos", yo te diría "lo que los sensores actuales, con su calibración, limitaciones y sensibilidad, todo ello modelado, fabricado y configurado por humanos, pueden captar de esos fenómenos físicos". Habrá más o menos corrección en esos datos en bruto, pero NO es la realidad (aunque pueda acercársele mucho).
#62 lo tiene claro, a ti te lo pongo más fácil y accesible con un ejemplo chorra pero que espero que te haga entender la situación... ¿puedes sacar la misma información en un vídeo a 320x200 pixels que de uno a 4K? ¿puedes sacar la misma información en un vídeo a 15fps que uno a 120? ¿puedes sacar la misma información de datos digitales que de analógicos?. La respuesta siempre es NO, la naturaleza de la forma en que los datos han sido obtenidos marca claras diferencias entre lo que se puede y no se puede obtener, las limitaciones, los problemas, etc. ya son desviaciones de la pura naturaleza. Tanto la nitidez, como el ruído en la imagen, como lo que pueda ocurrir entre un frame y otro, como el color, la cantidad de realidad que es resumida tras cada pixel... desde que un sensor no capture la misma cantidad de luz que la real o la calibración del color se desvíe un poco o la imagen sea algo borrosa o no tenga la continuidad suficiente... todo eso son sesgos en los datos, se apartan de la realidad y pueden inducir a errores de percepción y a conclusiones erroneas... ¿te suenan los avistamientos ovni, todas esas fotos o vídeos mal hechos donde tú ves lo que quieres ver y no la realidad? pues ya sabes a lo que me refiero, sesgos...
#84 ¿Cuántos millones y millones de melanesios serían ignorados por las IAs sólo por prejuícios de los hombres blancos transladados como sesgos en los datos con los que se alimentarían las IAs? ¿serán los melanesios la última esperanza humana contra las máquinas tras la llegada de skynet?
#25 las IAs pueden encontrar patrones que el ojo "humano" es incapaz de ver por el tsmaño gigantesco de la complejidad.
Los sesgos "inconscientes" no tienen porqué ser malos, ej: prediciendo infartos de corazon sin darte cuenta estás enviando 100 personas con sobre peso y 90 de ellas tuvieron infarto. No es un sesgo malo gordofóbico, es que el sobre peso influye en eso.
También podría darse un caso contrario (sesgo racista? Como en tu ejemplo) pero entonces la ia probablemnebte no funcionaría bien en sus predicciones.
Por otro lado ahora con gpt3 ha sorprendido que la ia ja aprendido mas cosas de las esperadas al aprender a leer y escribir (como programar
#92 No hablamos de ojos y tampoco es exactamente la complejidad como tal, hay cosas que el ojo humano ve sobre la marcha que una máquina aún no es capaz de discernir y entender (por ejemplo, le cuesta muchísimo interpretar los objetos 3D en el espacio).
Aquí hablamos de Teras de datos. Es algo inmanejable e impracticable para un ser humano, simple y llanamente. Y las máquinas tienen muchísimas horas de proceso para ellas solas.
Sobre lo del sesgo, creo que no me has entendido, pero bueno. El problema no era que fuera o no racista, el problema es que toda regla tiene sus excepciones y los prejuícios y generalidades con los que se maneja el ser humano permean. Podía haber puesto lo mismo con pelirrojos y ojos azules (dos excepciones juntas, de color de ojos y de tono de piel y pelo). Simplemente son casos tan raros que ni se te ocurriría que pudieran darse a la vez. Y sin embargo, se dan, y no tenerlos en cuenta implica que ya estás introduciendo errores o sesgos.
Por otro lado ahora con gpt3 ha sorprendido que la ia ja aprendido mas cosas de las esperadas al aprender a leer y escribir (como programar )
Cualquier persona con un poco de inteligencia, maña y acceso a ciertas fuentes de código puede hacer corta y pega de cosas con cierto criterio... programar no se aleja demasiado de juntar cajitas (de hecho, hay muchos lenguajes de programación que tienen sistemas de modelado en cajitas para enseñar a programar). Si hace mucho tiempo que existen los traductores de lenguaje natural y lo hacen francamente muy bien (como el g translator) ¿por qué te sorprende tanto que se pueda hacer lo mismo con un lenguaje de programación? (que por cierto, gp3 trabaja por módulos, un traductor de lenguaje natural a algo intermedio y luego otro que produce código a partir de ese algo intermedio... justo lo que hace cualquier compilador desde que la informática es informática). Sólo hay que elegir bien ese lenguaje intermedio, lo otro ya estaba hecho desde hace tiempo...
Poca broma con esto, todavía recuerdo hace algo más de 10 años ver un documental en el que un equipo de investigación puso una IA a tratar de sacar la fórmula del péndulo doble invertido (a través de sus sensores), y no solo la sacó, si no que dedujo y aplicó “por sí misma” la constante de la gravedad...
#12: A veces una hipótesis muy buena puede impedir pensar en otras mejores, lo bueno de la IA es que no parte de nuestros prejuicios relativos al Modelo Estándar y a lo mejor consigue ver algo más allá que permita acomodar algún resultado que no termina de encajar en el modelo actual.
#15 Al contrario, las IAs parten de todos nuestros prejuícios. No sé si sabes que las IAs se aliementan de datos que nosotros aportamos. Nuestros datos. Así que ya vienen con prejuícios de fábrica... simplemente harán las mismas cosas que nosotros, simplemente llegando a conclusiones y buscando relaciones que a nosotros pueden habérsenos escapado por pura potencia de cómputo.
#45 ¿De qué fórmulas hablas? la IA la entras con datos. Captcha es una forma de dar imágenes válidas y/o validadas estadísticamente por muchas personas a una IA. Si quieres descubrir una nueva física, no le pasas fórmulas hechas por humanos a una IA, le pasas los datos físicos recogidos y es la IA la que describe o modela, y ese modelo es el que comparas con lo que los humanos hayamos construído.
#15 perjuicios si pueden tener, porque los datos de entrada se los proporcionamos nosotros, con descripciones que les damos, etiquetas, el ángulo de las fotos, etc.
Es decir, ya vienen con algo de sesgo.
Vaya, veo que #17 respondió más o menos lo mismo
A mí primero me deberían explicar qué es eso de 4.7 variables cuando éstas deberían ser un número entero. Además, estaría bien saber por qué los científicos consideraron ese número suficientemente correcto, cuando está más cerca de 5 que d 4 (ie, la IA habría usado una variable redundante). Por otro lado, que se usen diferentes variables para atacar el mismo problema es algo que hacemos desde la EGB (por ejemplo, calcular la máxima altura de un movimiento uniformemente acelerado usando velocidad, aceleración, o usando energía cinética, energía potencial).
¿Estamos usando las variables incorrectas y por eso las ecuaciones son tan complicadas? Por supuesto. Por ejemplo, en mecánica celeste, la órbita de un planeta se puede describir* con la simple fórmula a=-u/2h. Pero claro, aquí a=(k^2/u)/1-e^2|, u= G(m1+m2) , h=v^2/2-u/r, que no son obvias y hay que entender a qué se refieren (y por supuesto, si no sabes lo que son, apáñate, que es justo lo que le está pasando a los científicos de la IA).
O sea, que de una nueva manera de entender la física, o una física alternativa, nada de nada. *Véase por ejemplo, Kartunen et al, Fundamental Astronomy, 5th edition, Springer, 2007
Cuando leáis noticias que refieran a "comunicado de prensa de la universidad XX" (como hace este múltiples veces) recordad el ciclo de las notícias científicas exquisitamente descrito por phdcomics (ver imagen adjunta).
#1 Sería mejor asegurarse antes de que da resultados de fiar.
En el caso de la física puede ser una manera inocua de saber si no tiene fallos de fondo. Habría que ver qué calidad tiene el hardware o el software.
En el caso de la biología o medicina aplicada, pues las consecuencias son más serias.
#1 Sin ser un experto pero creo que eso seria un salto cualitativo enorme y esto que se ha conseguido es más sencillo y me voy a intentar explicar con una metáfora deportiva.
Intentar dar una explicación alternativa a un fenómeno físico es como cuando escuchas un partido comentado por periodista cualquiera xx o escuchabas a Andrés montes. Uno te describe la realidad de ese momento siguiendo un Canon concreto y cumple su función, conoces lo que está ocurriendo y ya está. El otro le da una vuelta de tuerca y te lo cuenta bien distinto. Pero en cualquier caso, la información es la misma, no cambia. En cambio, encontrar la cura para el cáncer es en este simil como decir que en un partido de fútbol donde el Barcelona pierde 1-0 podría haber ganado 1-3 si hubiera jugado Messi. Es decir, no metes un elemento diferente en la ecuación con capacidad solo para explicar el 1-0 si no que va más allá, y da la solución para que el resultado cambie.
#1 hay muchisimos modelos de deep leerning ahora mismo entrenandose para infinidad de cosas: buscar nuevos elementos químicos, diseñar nuevos medicamentos, traducir diferentes idiomas,... Y por supuesto algún equipo estará trabajando en buscar soluciones a enfermedades, entre ellas el cáncer.
Es muy sensacionalista. La AI consigue soluciones y son capaces de identificar algunas de las variables que define y usa, pero otras muchas no.
Hay mucho mejores trabajos sobre este tema, difícil entender por qué esto está publicado donde está y el bombo que se le está dando.
#16 y en cualquier caso nuestra física es una modelización del universo, la mejor que hemos sabido encontrar.
Ello no significa que no las haya mejores.
#47 Nadie lo discute. Lo que se discute es la relevancia de este trabajo.
Hace un par de años un grupo de la costa oeste, no recuerdo exactamente que universidad, entrenó una IA para resolver problemas de dinámica de fluidos, que se resuelven con Análisis de Elementos Finitos y tiene una media de cómputo demás de una semana.
La IA encontró la manera de resolverlos en menos de una hora.
Lo que ha hecho esta gente es algo que ni es nuevo ni original. La crítica es al sensacionalismo del "descubrimiento de una nueva física" de esta noticia.
#50 especialmente en física cuestionarse para qué vale algo es ridículo.
Igual sale algo bueno, igual no. Que gracias a la relatividad tengamos GPS es algo inesperado y que ha cambiado el mundo.
Igual ese tipo de trabajos nos encuentra el gravitón o la materia oscura.
Están empezando, paciencia.
#54 La relevancia dentro de su campo. Mi comentario especificaba que lo que han hecho no es nuevo ni original.
Por otro lado, en respuesta a tu último comentario: No, la ciencia no es ni debería ser cómo disparar en la oscuridad, mucho menos si esa ciencia se hace con dinero público. La relatividad es un ejemplo perfecto de ciencia focalizada en un objetivo, el de unificar observaciones que, en su momento, no encajaban.
Cuidado con tomar como verdad absoluta lo que una IA programada por un humano dice... el sesgo es terrible y está condicionada por la entrada de datos.
La inteligencia artificial, cuando se use para todo y por todos, va a ser una revolución al nivel no ya de Internet, o la radio sino a nivel del descubrimiento del fuego.
Lo único malo es que nos va a dejar tan atrás en inteligencia que no vamos a poder explicar nada tampoco. Será como ver trabajar a dios y tener que confiar porque sabes que sabe más que tú, una especie de fe ciega.
#21 Las redes neuronales (este caso) lo único que hacen es almacenar resultados en poca memoria, de modo que lo que almacenan es bastante genérico y por lo tanto aplicable a ejemplos que nunca han visto.
Los inconvenientes graves son dos.
- A veces dan resultados totalmente erróneos de forma imprevisible
- No se sabe como funcionan por dentro. No es posible deducir nada de los parámetros que se autogereran.
Lo ves en este caso en que la IA deduce 2,4 parámetros más pero es imposible saber a qué corresponde eso.
#23 eso le pasa a gente con menos luces con respecto a gente de más...
Hay mil teoremas matemáticos que no entiendo, la mayoría. Un vector es chino para mí... Pero no quiere decir que sea erróneo.
A otras personas sé que le resultan incomprensibles algunas teorías, lógicas o análisis a los que llego yo...
Pero no quiere decir que yo no tenga razón.
A mi me parece increíble, lo que pasa que nos abre un mundo tan Basto y desconocido que da miedo el abismo que es y todo lo que se nos escapa ahí dentro.
Somos como un mono mirando a un humano. Es mi sensación.
Ahora necesitamos una IA que extraiga datos de la caja negra que resulta de la ejecución de otras IA y los presente de forma comprensible. Lo malo es que para entrenar una IA para hacer eso, le vamos a meter tantos sesgos que no servirá para nada. Qué contrariedad, pardiez!
No me parece extraño porque ha podido utilizar como variables el color de los píxeles, los ciclos de reloj en los que cambian o cosas así. En algunos ámbitos de la informática a veces se simulan cosas de la vida real con variables diferentes para ahorrar recursos, y los resultados son parecidos.
Da miedo pensar que una IA pueda hacer avances en investigación de una forma tan rápida en comparación a como lo haría un ser humano.
Pero también da esperanzas el saber que no se rigen por intereses personales, sesgos cognitivos o creencias religiosas para buscar aquello que puede ayudar a mejorar el avance de la civilización
A ver, le podrán dar todo el bombo y platillo que quieran, pero que una IA te dé como resultado que se necesitan 4.7 variables (variables de estado: esto es, el conjunto mínimo de variables para especificar el estado de un sistema) para el caso del péndulo doble, en cuanto son 4, y por definición esas 4 no tienen por qué ser un conjunto único, no sé, no le veo mucho avance. No es que nos haya hecho ver que hacen falta menos variables, o que pueden ser otras variables: sabemos que se pueden escoger diferentes conjuntos de variables, pero sean cuales sean, deben tener (si hablamos de variables de estado), un número N (4 en el caso del péndulo doble). De ahí a hablar de nueva física, pff ...
Chulo, aunque el artículo ignora completamente el hecho de que la física y la matemática que conocemos es una convención ideada por nosotros que encaja en gran parte con el modelo que observamos, pero no necesariamente describe la realidad del mundo.
utilizamos unidades arbitrarias y a veces diferentes tipos de unidades para cosas que son básicamente lo mismo lo que fuerza la existencia de constantes y cambiando estas unidades cambiarían las constantes o desaparecerían y muchas cosas cambiarían su expresión. O podemos utilizar Tau en lugar de Pi en gravedad y cuántica etc y cambiar la forma de las expresiones. O utilizar otra forma de expresar pasos matemáticos uniendo varios en uno o expandiéndolos
O sea.. O sea que hay muchas formas de expresar lo mismo. De hecho al trabajar con las cuerdas para intentar una teoría del todo y generar nuevas herramientas matemáticas se ha descubierto que campos de matemáticas aparentemente no relacionados tienen cosas compartidas o que se idearon varias propuestas para teoría de cuerdas muy diferentes expresadas con matemáticas muy diferentes y Witten probó que todas eran formas de la misma como que cada una era un estado diferente de otra más general y así
Eso ocurre. Y tal vez la red neuronal (me repele decir algoritmos para el tensor flow adaptado) de aprendizaje profundo se ha dado cuenta aunque sin consciencia para entender.
Comentarios
La respuesta es 42.
#10 #26 Muchas risas pero eso es exactamente lo que ha pasado. Ahora los científicos no entienden qué es el resultado (llámalo 42 o las variables esas) y tienen que hacer otra IA para que lo explique...
#30 recuerdo un profesor de mates que solo corregía el resultado, te la podías jugar porque el desarrollo no importaba
#39 más de uno. Generalmente era porque no sabían o eran unos cab***nes
#30 42 es el asterisco en ASCII por lo que el sentido de la vida en ese caso sería "lo que te de la gana"
#41 Desconocemos si Pensamiento Profundo utilizaba ASCII o si el asterisco existía o significaba "cualquier cosa"....por tanto no.
#30 risas ninguna
#10 En francés
#22 La IA aprende básicamente de tres maneras:
- Por imitación (tú le pasas un conjunto de datos de entrada y un conjunto de datos de lo que deseas que salga; a partir de ahí, se las ingenia para ante entradas nuevas que no son del conjunto de entrenamiento, dar unas salidas adecuadas basándose en lo que se podría esperar por el entrenamiento previo)
- Aprendizaje automático o por objetivos (tú no le pasas salidas deseadas, le defines un problema concreto -un conjunto de reglas, estados de victoria y/o de derrota- y a base de repetir y repetir va aprendiendo por si sola cómo jugar/enfrentarse al problema y poco a poco a ganar o evitar perder)
- Colaborativa o competitivamente (la enfrentas con otra IA de características similares o complementarias, en el primer caso tienen que ayudarse a cumplir un objetivo, en el segundo caso tienen que evitar perder)
En todos los casos, tú tienes que aportarle datos; en el primero, un buen montón de datos para procesar qué quieres que haga. En los otros dos, los datos que aportas son más bien el modelado de un problema; en todos los casos, los datos que le das son los límites dentro de los cuales la IA va a funcionar, las IAs no van a sacarse nada de la manga que no hayan visto antes/se salga del problema que le has fijado (otra cosa es que hayan visto patrones en tus datos que tú no hayas podido ver o que hayas modelado mal el problema).
Lo más normal es que sin querer hayas introducido sesgos que definan el comportamiento de esa IA. Por ejemplo, si quieres clasificar personas rubias, normalmente pones fotos de personas rubias. ¿Qué pasa si una persona negra va teñido de rubio? pues lo normal sería que dentro de todas las fotos de personas rubias que le hayas dado para que se entrenara, no hubiera ninguna persona negra teñida de rubio, así que probablemente no sabría clasificar bien a esta persona. Todo porque para nosotros, las personas rubias son todas blancas, los rubios negros no existen de manera natural. Ya estaríamos sesgando los datos sin darnos cuenta, estaríamos evitando (sub)conscientemente personas con el pelo rubio pero la piel oscura. Esto es una chorrada, pero piensa cosas más graves y lo fácil que es entrenar IAs que cometan errores sólo por enfrentarse a casos dudosos que nosotros tendríamos claros desde el principio.
Lo que modifican las IAs son sus propios parámetros internos, lo hacen con el entrenamiento y es lo que le sirve para "aprender". Pero no pueden hacerlo con los datos y condiciones de entrada, entrenamiento, etc. y esto es lo que hace que sean muy buenas para cosas muy concretas, pero que si las sacas de ahí fallen como una escopeta de feria. Si, cada vez se va en camino de un aprendizaje más generalista, pero por ahora, no puedes poner a la misma IA a jugar al ajedrez y a las damas a la vez (son reglas diferentes, condiciones de victoria diferente, etc. o sea, son problemas distintos), aunque puedas entrenarla individualmente a jugar a uno y luego a otro.
#25 no sé si estás al tanto de los avances de este último año (tal vez más) en IA. Precisamente lo que más me ha roto la mente ha sido cómo las IAs han sido capaces de sacarse cosas de la manga. Cada vez son más capaces de sacar patrones transversales con menos información lo cual les permite deducir conceptos sin habérselos mostrado antes. Creo que tu explicación era válida hasta hace uno o dos años. Hoy en día es difícil de explicar con esa lógica alguno de los resultados que se obtienen de ciertas IAs.
Por otro lado, en este caso concreto se le mostraron a la IA las imágenes en bruto de fenómenos físicos. Dudo mucho que se le hayan podido transmitir los sesgos humanos (o al menos tan superficialmente que resultaría despreciable).
#43 MATAR A TOOOOODOS LOS HUMANOS!
#43 A ver, qué avances ni que ocho cuartos... llevamos más o menos con las mismas tecnologías desde los 80/90. ¿La diferencia, aparte de procesos más eficientes, modelos más completos, etc? pues que hoy en día tenemos una capacidad de almacenamiento obscena y cantidades de memoria brutales y una capacidad de proceso inconcebible respecto a lo que pudiera haber en los 90. Infravaloramos el tamaño, estructura y densidad de las redes neuronales actuales, aparte de la inmensa cantidad de recursos que se les dedican para entrenarlas convenientemente.
No "decuce conceptos" ni se sacan nada de la chorra. Disponen de una cantidad de datos de referencia TAN ASOMBROSAMENTE AMPLIA que consiguen encontrar patrones en esos datos que a nosotros nos sería imposibles de ver (se llama BIG DATA por algo). No sacan nada que no se les haya mostrado antes de una forma u otra, por mucho que pudiera parecerlo. En su defensa, es probable que lo que las personas llamamos imaginación no sea más que experiencia pasada por un filtro creativo, así que en nuestro caso también pasaría así en cierto modo.
Te diré que sesgos han podido cometer: hablas de "Los Fenómenos Físicos", yo te diría "lo que los sensores actuales, con su calibración, limitaciones y sensibilidad, todo ello modelado, fabricado y configurado por humanos, pueden captar de esos fenómenos físicos". Habrá más o menos corrección en esos datos en bruto, pero NO es la realidad (aunque pueda acercársele mucho).
#62 lo tiene claro, a ti te lo pongo más fácil y accesible con un ejemplo chorra pero que espero que te haga entender la situación... ¿puedes sacar la misma información en un vídeo a 320x200 pixels que de uno a 4K? ¿puedes sacar la misma información en un vídeo a 15fps que uno a 120? ¿puedes sacar la misma información de datos digitales que de analógicos?. La respuesta siempre es NO, la naturaleza de la forma en que los datos han sido obtenidos marca claras diferencias entre lo que se puede y no se puede obtener, las limitaciones, los problemas, etc. ya son desviaciones de la pura naturaleza. Tanto la nitidez, como el ruído en la imagen, como lo que pueda ocurrir entre un frame y otro, como el color, la cantidad de realidad que es resumida tras cada pixel... desde que un sensor no capture la misma cantidad de luz que la real o la calibración del color se desvíe un poco o la imagen sea algo borrosa o no tenga la continuidad suficiente... todo eso son sesgos en los datos, se apartan de la realidad y pueden inducir a errores de percepción y a conclusiones erroneas... ¿te suenan los avistamientos ovni, todas esas fotos o vídeos mal hechos donde tú ves lo que quieres ver y no la realidad? pues ya sabes a lo que me refiero, sesgos...
#72 frena compañero. Paga la cuenta e infórmate un poco antes de tratar a los demás con esa soberbia. Por mi parte, debate concluido
#91 Vale, infórmame
#25 https://www.infobae.com/salud/ciencia/2017/01/31/el-misterio-detras-de-la-exotica-etnia-que-desafia-la-genetica/
#84 ¿Cuántos millones y millones de melanesios serían ignorados por las IAs sólo por prejuícios de los hombres blancos transladados como sesgos en los datos con los que se alimentarían las IAs? ¿serán los melanesios la última esperanza humana contra las máquinas tras la llegada de skynet?
#25 las IAs pueden encontrar patrones que el ojo "humano" es incapaz de ver por el tsmaño gigantesco de la complejidad.
Los sesgos "inconscientes" no tienen porqué ser malos, ej: prediciendo infartos de corazon sin darte cuenta estás enviando 100 personas con sobre peso y 90 de ellas tuvieron infarto. No es un sesgo malo gordofóbico, es que el sobre peso influye en eso.
También podría darse un caso contrario (sesgo racista? Como en tu ejemplo) pero entonces la ia probablemnebte no funcionaría bien en sus predicciones.
Por otro lado ahora con gpt3 ha sorprendido que la ia ja aprendido mas cosas de las esperadas al aprender a leer y escribir (como programar
#92 No hablamos de ojos y tampoco es exactamente la complejidad como tal, hay cosas que el ojo humano ve sobre la marcha que una máquina aún no es capaz de discernir y entender (por ejemplo, le cuesta muchísimo interpretar los objetos 3D en el espacio).
Aquí hablamos de Teras de datos. Es algo inmanejable e impracticable para un ser humano, simple y llanamente. Y las máquinas tienen muchísimas horas de proceso para ellas solas.
Sobre lo del sesgo, creo que no me has entendido, pero bueno. El problema no era que fuera o no racista, el problema es que toda regla tiene sus excepciones y los prejuícios y generalidades con los que se maneja el ser humano permean. Podía haber puesto lo mismo con pelirrojos y ojos azules (dos excepciones juntas, de color de ojos y de tono de piel y pelo). Simplemente son casos tan raros que ni se te ocurriría que pudieran darse a la vez. Y sin embargo, se dan, y no tenerlos en cuenta implica que ya estás introduciendo errores o sesgos.
Por otro lado ahora con gpt3 ha sorprendido que la ia ja aprendido mas cosas de las esperadas al aprender a leer y escribir (como programar )
Cualquier persona con un poco de inteligencia, maña y acceso a ciertas fuentes de código puede hacer corta y pega de cosas con cierto criterio... programar no se aleja demasiado de juntar cajitas (de hecho, hay muchos lenguajes de programación que tienen sistemas de modelado en cajitas para enseñar a programar). Si hace mucho tiempo que existen los traductores de lenguaje natural y lo hacen francamente muy bien (como el g translator) ¿por qué te sorprende tanto que se pueda hacer lo mismo con un lenguaje de programación? (que por cierto, gp3 trabaja por módulos, un traductor de lenguaje natural a algo intermedio y luego otro que produce código a partir de ese algo intermedio... justo lo que hace cualquier compilador desde que la informática es informática). Sólo hay que elegir bien ese lenguaje intermedio, lo otro ya estaba hecho desde hace tiempo...
Lo han alimentado con las obras completas de Más Allá
Poca broma con esto, todavía recuerdo hace algo más de 10 años ver un documental en el que un equipo de investigación puso una IA a tratar de sacar la fórmula del péndulo doble invertido (a través de sus sensores), y no solo la sacó, si no que dedujo y aplicó “por sí misma” la constante de la gravedad...
#12 Y? No es nada raro. En realidad es algo que no pasaria de un proyectito de fin de semana.
#12: A veces una hipótesis muy buena puede impedir pensar en otras mejores, lo bueno de la IA es que no parte de nuestros prejuicios relativos al Modelo Estándar y a lo mejor consigue ver algo más allá que permita acomodar algún resultado que no termina de encajar en el modelo actual.
#15 Al contrario, las IAs parten de todos nuestros prejuícios. No sé si sabes que las IAs se aliementan de datos que nosotros aportamos. Nuestros datos. Así que ya vienen con prejuícios de fábrica... simplemente harán las mismas cosas que nosotros, simplemente llegando a conclusiones y buscando relaciones que a nosotros pueden habérsenos escapado por pura potencia de cómputo.
#17: No, parten de los datos de los experimentos, no de las fórmulas creadas para modelizarlos, eso es lo que está "deduciendo" esta IA ahora mismo.
#18 ¿Y quién obtiene, criba y selecciona esos datos?. Todo en el proceso está guiado por humanos, así que tiene sesgos humanos.
#19 Pues yo creía que precisamente la IA nombraba los parámetros tu años al uso si no que más bien iba creando los suyos propios.
#19 Pero no las formulas ...
#45 ¿De qué fórmulas hablas? la IA la entras con datos. Captcha es una forma de dar imágenes válidas y/o validadas estadísticamente por muchas personas a una IA. Si quieres descubrir una nueva física, no le pasas fórmulas hechas por humanos a una IA, le pasas los datos físicos recogidos y es la IA la que describe o modela, y ese modelo es el que comparas con lo que los humanos hayamos construído.
#42 goto #71
#71 Es lo que respondías a #18
#17 Lo que describes son los algoritmos y no, no es lo mismo un algoritmo creado por un humano y uno hecho por una IA
#15 perjuicios si pueden tener, porque los datos de entrada se los proporcionamos nosotros, con descripciones que les damos, etiquetas, el ángulo de las fotos, etc.
Es decir, ya vienen con algo de sesgo.
Vaya, veo que #17 respondió más o menos lo mismo
Quién ha dicho que una IA no pueda ser magufa?
#2 es raro que ante la idea de opciones alternativas, siempre nos venga la palabra magufo a la cabeza. Debería hacernos reflexionar.
#66 si por "opciones alternativas" te refieres a pseudociencias sin base científica pues el término le viene como un guante
El nivel de la magufada es esta vez superior a las anteriores.
#3 Es una IA que crea magufadas, mejorará en cada iteración
#5 que le den una cuenta de usuario y juzguemos sus capacidades
#36
A mí primero me deberían explicar qué es eso de 4.7 variables cuando éstas deberían ser un número entero. Además, estaría bien saber por qué los científicos consideraron ese número suficientemente correcto, cuando está más cerca de 5 que d 4 (ie, la IA habría usado una variable redundante). Por otro lado, que se usen diferentes variables para atacar el mismo problema es algo que hacemos desde la EGB (por ejemplo, calcular la máxima altura de un movimiento uniformemente acelerado usando velocidad, aceleración, o usando energía cinética, energía potencial).
¿Estamos usando las variables incorrectas y por eso las ecuaciones son tan complicadas? Por supuesto. Por ejemplo, en mecánica celeste, la órbita de un planeta se puede describir* con la simple fórmula a=-u/2h. Pero claro, aquí a=(k^2/u)/1-e^2|, u= G(m1+m2) , h=v^2/2-u/r, que no son obvias y hay que entender a qué se refieren (y por supuesto, si no sabes lo que son, apáñate, que es justo lo que le está pasando a los científicos de la IA).
O sea, que de una nueva manera de entender la física, o una física alternativa, nada de nada.
*Véase por ejemplo, Kartunen et al, Fundamental Astronomy, 5th edition, Springer, 2007
Cuando leáis noticias que refieran a "comunicado de prensa de la universidad XX" (como hace este múltiples veces) recordad el ciclo de las notícias científicas exquisitamente descrito por phdcomics (ver imagen adjunta).
Más vale que lo pongan a investigar cómo curar el cáncer / enfermedades raras
#1 Brillante, lucido y sensacional comentario.
#6 edit
#6 Sutil ironia?
#13 ¿Mi comentario o el number One?
#82 El tuyo.
#83 Pues si tú no lo sabes yo no te lo voy a decir...
#6 eres un bot?
#48 Cualquier cosa que diga te hará pensar que soy un bot, asi que puede.
#56 es lo que diría un bot
#57 Probablemente. ¿Eres un bot? Son las típicas frases que le dice un bot a otro.
#59 buen intento, felicidades a tu programador
#65 por mi pasa el test de Turing
#65 Si no tienes programador ¿Quién te programa?
¿Te cuento un chiste de bots?
Esto va un bot a otro bot y le dice "Hola" y bucle infinito.
#74 Ja. Ja. Ja.
#81 ssh root@susosus /sbin/reboot
#86 boot prompt: cuál es mi propósito?
#87 Brillante, lucido y sensacional comentario.
#89
#1 Sería mejor asegurarse antes de que da resultados de fiar.
En el caso de la física puede ser una manera inocua de saber si no tiene fallos de fondo. Habría que ver qué calidad tiene el hardware o el software.
En el caso de la biología o medicina aplicada, pues las consecuencias son más serias.
#1 puede que encuentre una cura para el cancer “alternativo”.
#9 o una cura alternativa para el cáncer y la llamaremos ... Homeopatía
#1 Sin ser un experto pero creo que eso seria un salto cualitativo enorme y esto que se ha conseguido es más sencillo y me voy a intentar explicar con una metáfora deportiva.
Intentar dar una explicación alternativa a un fenómeno físico es como cuando escuchas un partido comentado por periodista cualquiera xx o escuchabas a Andrés montes. Uno te describe la realidad de ese momento siguiendo un Canon concreto y cumple su función, conoces lo que está ocurriendo y ya está. El otro le da una vuelta de tuerca y te lo cuenta bien distinto. Pero en cualquier caso, la información es la misma, no cambia. En cambio, encontrar la cura para el cáncer es en este simil como decir que en un partido de fútbol donde el Barcelona pierde 1-0 podría haber ganado 1-3 si hubiera jugado Messi. Es decir, no metes un elemento diferente en la ecuación con capacidad solo para explicar el 1-0 si no que va más allá, y da la solución para que el resultado cambie.
#1 Ya están empleando la IA para detección de cáncer tempranos. Al menos a nivel experimental.
#34 Porque eso es análisis de imagen. Se puede entrenar a una red neuronal para identificar patrones en imágenes como, por ejemplo, tumores.
Lo que ha dicho el compañero no tiene sentido porque las ia se entrenan a partir de patrones conocidos.
#49 si no estoy equivocado, eso también se está haciendo
#1 ponte tú también, que seguro que aportas mucho.
#1 hay muchisimos modelos de deep leerning ahora mismo entrenandose para infinidad de cosas: buscar nuevos elementos químicos, diseñar nuevos medicamentos, traducir diferentes idiomas,... Y por supuesto algún equipo estará trabajando en buscar soluciones a enfermedades, entre ellas el cáncer.
#1 destruyendo la humanidad solucionan eso eh?
#1 AlphaFold En realidad las herramientas se han de hacer poco a poco
Es muy sensacionalista. La AI consigue soluciones y son capaces de identificar algunas de las variables que define y usa, pero otras muchas no.
Hay mucho mejores trabajos sobre este tema, difícil entender por qué esto está publicado donde está y el bombo que se le está dando.
#16 mejor marketing para conseguir mas financiacion, diria yo
#16 y en cualquier caso nuestra física es una modelización del universo, la mejor que hemos sabido encontrar.
Ello no significa que no las haya mejores.
#47 Nadie lo discute. Lo que se discute es la relevancia de este trabajo.
Hace un par de años un grupo de la costa oeste, no recuerdo exactamente que universidad, entrenó una IA para resolver problemas de dinámica de fluidos, que se resuelven con Análisis de Elementos Finitos y tiene una media de cómputo demás de una semana.
La IA encontró la manera de resolverlos en menos de una hora.
Lo que ha hecho esta gente es algo que ni es nuevo ni original. La crítica es al sensacionalismo del "descubrimiento de una nueva física" de esta noticia.
#50 especialmente en física cuestionarse para qué vale algo es ridículo.
Igual sale algo bueno, igual no. Que gracias a la relatividad tengamos GPS es algo inesperado y que ha cambiado el mundo.
Igual ese tipo de trabajos nos encuentra el gravitón o la materia oscura.
Están empezando, paciencia.
#51 ¿Me estás respondiendo a mí o te has confundido al referenciar? Tu comentario no tiene nada que ver con nada que yo haya dicho
#52 hablas de la relevancia del trabajo. Y el trabajo puede ser relevante o no, pero puede ser la primera piedra de otra cosa.
#54 La relevancia dentro de su campo. Mi comentario especificaba que lo que han hecho no es nuevo ni original.
Por otro lado, en respuesta a tu último comentario: No, la ciencia no es ni debería ser cómo disparar en la oscuridad, mucho menos si esa ciencia se hace con dinero público. La relatividad es un ejemplo perfecto de ciencia focalizada en un objetivo, el de unificar observaciones que, en su momento, no encajaban.
#58 no sabemos si es un entretenimiento o una primera fase de algo
De momento hay que jugar con esa tecnología.
Cuidado con tomar como verdad absoluta lo que una IA programada por un humano dice... el sesgo es terrible y está condicionada por la entrada de datos.
La inteligencia artificial, cuando se use para todo y por todos, va a ser una revolución al nivel no ya de Internet, o la radio sino a nivel del descubrimiento del fuego.
Lo único malo es que nos va a dejar tan atrás en inteligencia que no vamos a poder explicar nada tampoco. Será como ver trabajar a dios y tener que confiar porque sabes que sabe más que tú, una especie de fe ciega.
#21 Las redes neuronales (este caso) lo único que hacen es almacenar resultados en poca memoria, de modo que lo que almacenan es bastante genérico y por lo tanto aplicable a ejemplos que nunca han visto.
Los inconvenientes graves son dos.
- A veces dan resultados totalmente erróneos de forma imprevisible
- No se sabe como funcionan por dentro. No es posible deducir nada de los parámetros que se autogereran.
Lo ves en este caso en que la IA deduce 2,4 parámetros más pero es imposible saber a qué corresponde eso.
#23 Pues ponemos una IA que decodifique la lógica de otra IA.
#23 eso le pasa a gente con menos luces con respecto a gente de más...
Hay mil teoremas matemáticos que no entiendo, la mayoría. Un vector es chino para mí... Pero no quiere decir que sea erróneo.
A otras personas sé que le resultan incomprensibles algunas teorías, lógicas o análisis a los que llego yo...
Pero no quiere decir que yo no tenga razón.
A mi me parece increíble, lo que pasa que nos abre un mundo tan Basto y desconocido que da miedo el abismo que es y todo lo que se nos escapa ahí dentro.
Somos como un mono mirando a un humano. Es mi sensación.
Ahora necesitamos una IA que extraiga datos de la caja negra que resulta de la ejecución de otras IA y los presente de forma comprensible. Lo malo es que para entrenar una IA para hacer eso, le vamos a meter tantos sesgos que no servirá para nada. Qué contrariedad, pardiez!
Es un gran avance. 🍃
No me parece extraño porque ha podido utilizar como variables el color de los píxeles, los ciclos de reloj en los que cambian o cosas así. En algunos ámbitos de la informática a veces se simulan cosas de la vida real con variables diferentes para ahorrar recursos, y los resultados son parecidos.
Da miedo pensar que una IA pueda hacer avances en investigación de una forma tan rápida en comparación a como lo haría un ser humano.
Pero también da esperanzas el saber que no se rigen por intereses personales, sesgos cognitivos o creencias religiosas para buscar aquello que puede ayudar a mejorar el avance de la civilización
A ver, le podrán dar todo el bombo y platillo que quieran, pero que una IA te dé como resultado que se necesitan 4.7 variables (variables de estado: esto es, el conjunto mínimo de variables para especificar el estado de un sistema) para el caso del péndulo doble, en cuanto son 4, y por definición esas 4 no tienen por qué ser un conjunto único, no sé, no le veo mucho avance. No es que nos haya hecho ver que hacen falta menos variables, o que pueden ser otras variables: sabemos que se pueden escoger diferentes conjuntos de variables, pero sean cuales sean, deben tener (si hablamos de variables de estado), un número N (4 en el caso del péndulo doble). De ahí a hablar de nueva física, pff ...
Bastante sensacionalista
Igual están haciendo un análisis dmd sin saberlo....
Chulo, aunque el artículo ignora completamente el hecho de que la física y la matemática que conocemos es una convención ideada por nosotros que encaja en gran parte con el modelo que observamos, pero no necesariamente describe la realidad del mundo.
utilizamos unidades arbitrarias y a veces diferentes tipos de unidades para cosas que son básicamente lo mismo lo que fuerza la existencia de constantes y cambiando estas unidades cambiarían las constantes o desaparecerían y muchas cosas cambiarían su expresión. O podemos utilizar Tau en lugar de Pi en gravedad y cuántica etc y cambiar la forma de las expresiones. O utilizar otra forma de expresar pasos matemáticos uniendo varios en uno o expandiéndolos
O sea.. O sea que hay muchas formas de expresar lo mismo. De hecho al trabajar con las cuerdas para intentar una teoría del todo y generar nuevas herramientas matemáticas se ha descubierto que campos de matemáticas aparentemente no relacionados tienen cosas compartidas o que se idearon varias propuestas para teoría de cuerdas muy diferentes expresadas con matemáticas muy diferentes y Witten probó que todas eran formas de la misma como que cada una era un estado diferente de otra más general y así
Eso ocurre. Y tal vez la red neuronal (me repele decir algoritmos para el tensor flow adaptado) de aprendizaje profundo se ha dado cuenta aunque sin consciencia para entender.