Para Demis Hassabis, aficionado al ajedrez y gurú de la inteligencia artificial, el momento en 1997 en que la computadora Deep Blue le ganó al campeón del mundo de ajedrez Garry Kasparov marcó un antes y un después. "Lo que siempre me pareció divertido sobre Deep Blue es que pueda jugar al ejedrez a nivel de campeonato humano pero que no pueda jugar, por ejemplo, al tres en raya". Hassabis es el fundador de DeepMind, una empresa de inteligencia artificial que Google adquirió a principios de este año por unos US$640 millones.
#12:
#8 ¿Tres en raya? Extraño juego, el único movimiento para ganar es no jugar ¿le gustaría una partidita de ajedrez?
#14:
#10 Es mucho más interesante lo que no cuentan. Es que en ese "le ponen a jugar" hay mucho que no están contando, porque se desvelaría que hacen trampa. Lo primero es que tienen que modificar el programa para que sepa qué objetivo tiene que conseguir, si no el algoritmo no podría saber a qué adaptarse.
Dudo mucho que ese mismo programa sea capaz de deducir lo que tiene que hacer si le cambian el juego, ya que es básicamente imposible que la máquina lo adivine por sí misma. Si le ponen un sistema de feedback me lo creo más, pero hay que ponérselo y el feedback por fuerza es diferente para cada juego. Si al final a base de ensayo error e intentos aleatorios acaba "deduciendo" lo que debe hacer en base al feedback, esto no deja de ser un programa que aprende a hacer una tarea a base de ensayo error, cosa que no es nueva ni especialmente llamativa.
El día que hagan un programa, y sin tocarlo en absoluto, sólo a base de feedback visual sin intervención humana, hagan que juegue a absolutamente cualquier cosa que le pongas por delante, ahí sí será inteligente. Pero eso no te lo van a enseñar porque sencillamente está demasiado lejos. Mucho más de lo que te venden.
P.D. ya he trabajado en aplicaciones de I.A.
#1:
El momento en el que la máquina venció a Kasparov:
#10 Es mucho más interesante lo que no cuentan. Es que en ese "le ponen a jugar" hay mucho que no están contando, porque se desvelaría que hacen trampa. Lo primero es que tienen que modificar el programa para que sepa qué objetivo tiene que conseguir, si no el algoritmo no podría saber a qué adaptarse.
Dudo mucho que ese mismo programa sea capaz de deducir lo que tiene que hacer si le cambian el juego, ya que es básicamente imposible que la máquina lo adivine por sí misma. Si le ponen un sistema de feedback me lo creo más, pero hay que ponérselo y el feedback por fuerza es diferente para cada juego. Si al final a base de ensayo error e intentos aleatorios acaba "deduciendo" lo que debe hacer en base al feedback, esto no deja de ser un programa que aprende a hacer una tarea a base de ensayo error, cosa que no es nueva ni especialmente llamativa.
El día que hagan un programa, y sin tocarlo en absoluto, sólo a base de feedback visual sin intervención humana, hagan que juegue a absolutamente cualquier cosa que le pongas por delante, ahí sí será inteligente. Pero eso no te lo van a enseñar porque sencillamente está demasiado lejos. Mucho más de lo que te venden.
#14 muchos juegos clásicos de arcade el sistema de clasificación es evidente así como otras mecánicas, principalmente por aun diseñarse para gente no habituada a los videojuegos, se ensañaba cosas básicas de cómo jugar a los videojuegos en general.
Sería una lectura de pantalla de una lista con especial interés del número que parpadea para ver si va mejor o peor.
#14 Tienes razón. Esto parece reinforcement learning de toda la vida, nada nuevo, y no creo que te lo vendan como tal.
De todas formas los humanos también hacemos "trampa". Cuando le plantas el Space Invaders a una persona y aprende a jugar sin explicarle las reglas, realmente hay muchas cosas culturales que ya sabe de antemano: una nave que dispara, extraterrestres, el juego se llama "invasores del espacio", ¿qué más quieres? Nunca se parte de cero.
Yo creo que ahí está lo más difícil en IA: ¿cómo conseguir un software que sea capaz de aprender todo ese contexto cultural y aplicarlo a la resolución de un problema?
#20 Lo que has llamado "contexto cultural" es la clave para conseguir una IA, y eso tiene problemas muy difíciles de tratar en sí, ya que implicaría que una IA necesitase ser educada (más que nada porque dudo muchísimo que se pueda crear una base de datos semejante desde cero).
#14 Claro, en este caso el objetivo es ganar la mayor cantidad de puntos posibles. Al entrenar la red neural se hace que las jugadas que generan más puntos sean las "recompensas" que refuerzan los circuitos de la red. O sea, exactamente igual que en un cerebro biológico.
#31 O sea, no es exactamente igual que en un cerebro biológico, porque a un cerebro biológico no tienes que ponerle ningún mecanismo que interprete cual es el feedback positivo y cambiarlo en cada juego (que es lo que tienen que hacer aquí sí o sí, si no, la noticia no sería esta sino que han creado una máquina inteligente, ya te lo adelanto).
¿Qué ocurre en un juego que no tenga objetivos claros o simples, o que no tenga puntos?
Ponle a jugar al Metroid, al Monkey Island o al Zelda, a ver qué hace.
El problema es que eso es sólo en el entorno de ese juego. A lo que se aspira es a una inteligencia adaptable a cualquier juego/situación al que nos enfrentemos, y eso no es tan fácil.
Vaya, es que hasta adivina a dónde se van a mover los marcianitos... ahora tiene que venir otro a rediseñar el Space Invaders para intentar que esta computadora no le gane
#2 Con ponerla a aprender de nuevo, bastaría. Por así decirlo: si le pusieras a jugar de nuevo varias horas terminaría por aprender cómo funcionaría ese nuevo sistema
Por eso es inteligencia artificial, no le estás programando que dispare aquí o allá, le programas que absorba información que pueda deducir de sus actos
#23 ya, pero lo bueno es que las dos computadoras trabajaran a la vez, una aprendiendo las evoluciones del juego y el juego aprendiendo las evoluciones del jugador
No es sorpresa, la inteligencia artificial que hoy por hoy conocemos (salvo casos puntuales que se están desarrollando/investigando por ahí) no es realmente "general", es un compendio de analisis de datos y acciones atadas a esos datos. O sea, son formas concretas de resolver problemas concretos, si sacas a una IA de un problema conocido se pierde. Como mucho, resuelve de manera más o menos correcta problemas parecidos. Pero no hay nada que aprenda a resolver problemas nuevos y completamente diferentes o que le haga resolver los mismos problemas pero sin las herramientas adecuadas.
Lo mismo que las calculadoras o los ordenadores: pueden resolver problemas de cálculo a velocidades imposibles para un humano, pero (salvo que haya una verdadera inteligencia detrás que los programe, y "malgastando" enormemente su capacidad de cálculo en construír una lógica diferente a la que usa para poder afrontarlos) es incapaz de resolver problemas tan "simples" para un humano como diferenciar un perro de un gato disfrazado de perro. Y no por otra cosa, sino porque los ordenadores no están diseñados para eso, su diseño está mucho más enfocado al cálculo y son muy ineficientes haciendo otro tipo de cosas (que las pueden hacer, pero a costa de muchos recursos y tiempo).
"Lo que siempre me pareció divertido sobre Deep Blue es que pueda jugar al ejedrez a nivel de campeonato humano pero que no pueda jugar, por ejemplo, al tres en raya"
Y eso hamijos, es la razón por la cual no tenemos inguna máquina inteligente ni nada que se le parezca. Calcular muchas jugadas puede parecer inteligente, pero no lo es. Inteligente sería si le pudieses enseñar a jugar a otras cosas o a defender a alguien en un juicio sin reprogramar nada. Good luck with that.
#8 pues de eso es precisamente de lo que habla el articulo. lo ponen a jugar y tiene que hacer cuantos mas puntos mejor, si mañana le ponen a jugar al tetris por la noche habra aprendido tambien (teoricamente). y asi con todo
#19 Bachiller no tengo. Por eso te pregunto a ti ¡oh, gran sabio! ¿Por qué no se pueden replicar los procesos químicos y eléctricos de la mente? A día de hoy ya lo sé, me refiero al futuro. ¿Acaso es la mente algo ajeno al cerebro como decía Descartes?
Aunque a mi parecer habría otras formas de generar conciencia la más evidente es imitar al cerebro humano.
Creo que la inteligencia necesita de la consciencia*. Lo que hay ahora requiere de la tutorización humana, es decir, el filtro que establece si el resultado del proceso acción-reflexión lo consideramos "inteligente" o no. Y eso es simplemente un truco.
Para entenderlo: hace falta la "fe" en una máquina autónoma para dejarse operar a vida o muertey la "fe" de la máquina, ente inteligente o como lo quieras llamar, en que lo puede hacer asumiendo los riesgos. Cuando ese momento llegue, estaremos hablando de IA. Es un ejemplo extremo, pero creo que para que haya inteligencia, para que existan procesos autónomos de aprendizaje y feedback se requiere de la consciencia propia, de la consciencia de sí mismo, no de la prestada por un ser humano.
#26 Conciencia y autoconciencia creo que se suelen diferenciar cuando se habla de este tema, un perro no está demostrado que tenga autoconciencia pero sí sabemos que tiene conciencia, de hecho nos parece (a mi al menos me lo parece) más inteligente un perro que Deep Blue: es capaz de pensar (aunque de manera "primitiva"), tiene objetivos (externos y autogenerados), emociones... Un chimpancé o un elefante sí tienen autoconciencia, es un gran salto en la evolución de la mente. De momento la IA no creo que se pueda decir que llega ni al nivel del perro en este aspecto.
Joer, no era tan complicado. Lo malo era la rapidez con que se movian al final. Y los ovnis del fondo, que era difícil acertar con tanto bicho delante.
Hemos avanzado muchísimo, pero desde "El libro gordo de petete" llevan anunciando que tendremos robots en nuestras casas haciendo las tareas del hogar. Lavavajillas y thermomux no son el tipo de robots que nos anuncian.
Muchísima gente se niega a admitir que una máquina pueda llegar a ser realmente inteligente o adquirir conciencia pero su única base para defender esa postura es que no lo quieren admitir (por religión o algo similar) o no les entra en la cabeza que esto pueda ocurrir. A nosotros no nos ha creado dios ni la magia, igual que la evolución ha creado nuestro cerebro se puede crear una máquina que lo supere con sus emociones, autoconciencia o todo eso, que son fenómenos que emergen de algo físico y replicable.
#16 La eterna búsqueda de la inteligencia cuando ni siquiera sabemos lo que es, ni los procesos químicos que intervienen en última instancia no solo para que las descargas eléctricas fluyan entre las sinopsis neuronales, sino para ordenar toda esa información. Ni siquiera estamos en disposición de construir una hipótesis mínimamente consistente.
#22 La base para comprender como funciona se va construyendo y avanza muy rápido, desde la inteligencia artificial más rápido que desde las neurociencias creo, cuando confluyan despertará la bestia.
Comentarios
El momento en el que la máquina venció a Kasparov:
Un pene volador interrumpe una reunión de Kasparov [WTF]
Un pene volador interrumpe una reunión de Kasparov...
sharenator.com#10 Es mucho más interesante lo que no cuentan. Es que en ese "le ponen a jugar" hay mucho que no están contando, porque se desvelaría que hacen trampa. Lo primero es que tienen que modificar el programa para que sepa qué objetivo tiene que conseguir, si no el algoritmo no podría saber a qué adaptarse.
Dudo mucho que ese mismo programa sea capaz de deducir lo que tiene que hacer si le cambian el juego, ya que es básicamente imposible que la máquina lo adivine por sí misma. Si le ponen un sistema de feedback me lo creo más, pero hay que ponérselo y el feedback por fuerza es diferente para cada juego. Si al final a base de ensayo error e intentos aleatorios acaba "deduciendo" lo que debe hacer en base al feedback, esto no deja de ser un programa que aprende a hacer una tarea a base de ensayo error, cosa que no es nueva ni especialmente llamativa.
El día que hagan un programa, y sin tocarlo en absoluto, sólo a base de feedback visual sin intervención humana, hagan que juegue a absolutamente cualquier cosa que le pongas por delante, ahí sí será inteligente. Pero eso no te lo van a enseñar porque sencillamente está demasiado lejos. Mucho más de lo que te venden.
P.D. ya he trabajado en aplicaciones de I.A.
#14 muchos juegos clásicos de arcade el sistema de clasificación es evidente así como otras mecánicas, principalmente por aun diseñarse para gente no habituada a los videojuegos, se ensañaba cosas básicas de cómo jugar a los videojuegos en general.
Sería una lectura de pantalla de una lista con especial interés del número que parpadea para ver si va mejor o peor.
#14 Tienes razón. Esto parece reinforcement learning de toda la vida, nada nuevo, y no creo que te lo vendan como tal.
De todas formas los humanos también hacemos "trampa". Cuando le plantas el Space Invaders a una persona y aprende a jugar sin explicarle las reglas, realmente hay muchas cosas culturales que ya sabe de antemano: una nave que dispara, extraterrestres, el juego se llama "invasores del espacio", ¿qué más quieres? Nunca se parte de cero.
Yo creo que ahí está lo más difícil en IA: ¿cómo conseguir un software que sea capaz de aprender todo ese contexto cultural y aplicarlo a la resolución de un problema?
#20 Lo que has llamado "contexto cultural" es la clave para conseguir una IA, y eso tiene problemas muy difíciles de tratar en sí, ya que implicaría que una IA necesitase ser educada (más que nada porque dudo muchísimo que se pueda crear una base de datos semejante desde cero).
#14 Claro, en este caso el objetivo es ganar la mayor cantidad de puntos posibles. Al entrenar la red neural se hace que las jugadas que generan más puntos sean las "recompensas" que refuerzan los circuitos de la red. O sea, exactamente igual que en un cerebro biológico.
#31 O sea, no es exactamente igual que en un cerebro biológico, porque a un cerebro biológico no tienes que ponerle ningún mecanismo que interprete cual es el feedback positivo y cambiarlo en cada juego (que es lo que tienen que hacer aquí sí o sí, si no, la noticia no sería esta sino que han creado una máquina inteligente, ya te lo adelanto).
¿Qué ocurre en un juego que no tenga objetivos claros o simples, o que no tenga puntos?
Ponle a jugar al Metroid, al Monkey Island o al Zelda, a ver qué hace.
Yo dejo a mi novia jugando 8 horas y es igual de mala
El problema es que eso es sólo en el entorno de ese juego. A lo que se aspira es a una inteligencia adaptable a cualquier juego/situación al que nos enfrentemos, y eso no es tan fácil.
Gran trabajo y muy meritorio.
Vaya, es que hasta adivina a dónde se van a mover los marcianitos... ahora tiene que venir otro a rediseñar el Space Invaders para intentar que esta computadora no le gane
#2 Con ponerla a aprender de nuevo, bastaría. Por así decirlo: si le pusieras a jugar de nuevo varias horas terminaría por aprender cómo funcionaría ese nuevo sistema
Por eso es inteligencia artificial, no le estás programando que dispare aquí o allá, le programas que absorba información que pueda deducir de sus actos
#23 ya, pero lo bueno es que las dos computadoras trabajaran a la vez, una aprendiendo las evoluciones del juego y el juego aprendiendo las evoluciones del jugador
#25 Oye, pues es buen punto el que propones, eh?
No es sorpresa, la inteligencia artificial que hoy por hoy conocemos (salvo casos puntuales que se están desarrollando/investigando por ahí) no es realmente "general", es un compendio de analisis de datos y acciones atadas a esos datos. O sea, son formas concretas de resolver problemas concretos, si sacas a una IA de un problema conocido se pierde. Como mucho, resuelve de manera más o menos correcta problemas parecidos. Pero no hay nada que aprenda a resolver problemas nuevos y completamente diferentes o que le haga resolver los mismos problemas pero sin las herramientas adecuadas.
Lo mismo que las calculadoras o los ordenadores: pueden resolver problemas de cálculo a velocidades imposibles para un humano, pero (salvo que haya una verdadera inteligencia detrás que los programe, y "malgastando" enormemente su capacidad de cálculo en construír una lógica diferente a la que usa para poder afrontarlos) es incapaz de resolver problemas tan "simples" para un humano como diferenciar un perro de un gato disfrazado de perro. Y no por otra cosa, sino porque los ordenadores no están diseñados para eso, su diseño está mucho más enfocado al cálculo y son muy ineficientes haciendo otro tipo de cosas (que las pueden hacer, pero a costa de muchos recursos y tiempo).
"Lo que siempre me pareció divertido sobre Deep Blue es que pueda jugar al ejedrez a nivel de campeonato humano pero que no pueda jugar, por ejemplo, al tres en raya"
Y eso hamijos, es la razón por la cual no tenemos inguna máquina inteligente ni nada que se le parezca. Calcular muchas jugadas puede parecer inteligente, pero no lo es. Inteligente sería si le pudieses enseñar a jugar a otras cosas o a defender a alguien en un juicio sin reprogramar nada. Good luck with that.
#8 pues de eso es precisamente de lo que habla el articulo. lo ponen a jugar y tiene que hacer cuantos mas puntos mejor, si mañana le ponen a jugar al tetris por la noche habra aprendido tambien (teoricamente). y asi con todo
#10 El Space Invaders no es uso de inteligencia sino habilidad en el ajuste fino motor.
#10 ¿No era ese el argumento de juegos de guerra? Espero que no le dé por jugar con los rusos también.
#8 ¿Tres en raya? Extraño juego, el único movimiento para ganar es no jugar ¿le gustaría una partidita de ajedrez?
Minuto PI pero vale toda la escena.
#19 Bachiller no tengo. Por eso te pregunto a ti ¡oh, gran sabio! ¿Por qué no se pueden replicar los procesos químicos y eléctricos de la mente? A día de hoy ya lo sé, me refiero al futuro. ¿Acaso es la mente algo ajeno al cerebro como decía Descartes?
Aunque a mi parecer habría otras formas de generar conciencia la más evidente es imitar al cerebro humano.
Más cerca de Skynet...
Creo que la inteligencia necesita de la consciencia*. Lo que hay ahora requiere de la tutorización humana, es decir, el filtro que establece si el resultado del proceso acción-reflexión lo consideramos "inteligente" o no. Y eso es simplemente un truco.
Para entenderlo: hace falta la "fe" en una máquina autónoma para dejarse operar a vida o muertey la "fe" de la máquina, ente inteligente o como lo quieras llamar, en que lo puede hacer asumiendo los riesgos. Cuando ese momento llegue, estaremos hablando de IA. Es un ejemplo extremo, pero creo que para que haya inteligencia, para que existan procesos autónomos de aprendizaje y feedback se requiere de la consciencia propia, de la consciencia de sí mismo, no de la prestada por un ser humano.
http://www.infotechnology.com/comunidad/Cuales-son-los-limites-de-la-inteligencia-artifical-20140801-0002.html
*Conocimiento inmediato que un sujeto tiene de sí mismo, de sus actos y reflexiones.
#26 Conciencia y autoconciencia creo que se suelen diferenciar cuando se habla de este tema, un perro no está demostrado que tenga autoconciencia pero sí sabemos que tiene conciencia, de hecho nos parece (a mi al menos me lo parece) más inteligente un perro que Deep Blue: es capaz de pensar (aunque de manera "primitiva"), tiene objetivos (externos y autogenerados), emociones... Un chimpancé o un elefante sí tienen autoconciencia, es un gran salto en la evolución de la mente. De momento la IA no creo que se pueda decir que llega ni al nivel del perro en este aspecto.
Este tema me supera... me falta memoria ram.
Joer, no era tan complicado. Lo malo era la rapidez con que se movian al final. Y los ovnis del fondo, que era difícil acertar con tanto bicho delante.
Eso es trampa
Hemos avanzado muchísimo, pero desde "El libro gordo de petete" llevan anunciando que tendremos robots en nuestras casas haciendo las tareas del hogar. Lavavajillas y thermomux no son el tipo de robots que nos anuncian.
Muchísima gente se niega a admitir que una máquina pueda llegar a ser realmente inteligente o adquirir conciencia pero su única base para defender esa postura es que no lo quieren admitir (por religión o algo similar) o no les entra en la cabeza que esto pueda ocurrir. A nosotros no nos ha creado dios ni la magia, igual que la evolución ha creado nuestro cerebro se puede crear una máquina que lo supere con sus emociones, autoconciencia o todo eso, que son fenómenos que emergen de algo físico y replicable.
#16 Seguro que eres de los que no tiene ni bachiller, y estas aqui hablando de magufadas. Mezcla peliculas amigo.
#16 La eterna búsqueda de la inteligencia cuando ni siquiera sabemos lo que es, ni los procesos químicos que intervienen en última instancia no solo para que las descargas eléctricas fluyan entre las sinopsis neuronales, sino para ordenar toda esa información. Ni siquiera estamos en disposición de construir una hipótesis mínimamente consistente.
#22 La base para comprender como funciona se va construyendo y avanza muy rápido, desde la inteligencia artificial más rápido que desde las neurociencias creo, cuando confluyan despertará la bestia.
8 horas?