Hace 5 años | Por a.m a eldiario.es
Publicado hace 5 años por a.m a eldiario.es

AlphaStar, la nueva IA de Google DeepMind vence 10-1 a dos jugadores profesionales de StarCraft.

Comentarios

sorrillo

#4 Las IA se entrenan, una vez "diseñada" se la puede entrenar para distintas tareas.

Si cambias la palabra"diseñada" por "entrenada" verás que aplica también al ser humano, el cual se entrena para tareas específicas que luego lleva a cabo.

y

#5 No me parece tan simple.El ser humano puede encontrarse con una tarea para la que no esta entrenado y resolverla. Pero el problema va mucho mas allá.

Aunque se ha hecho todo lo posible por crear un ordenador capaz de realizar tareas similares a las del ser humano, este no ha llegado a tal punto de que haya un aprendizaje, un razonamiento, una percepción, un lenguaje, que exprese emociones (reír, llorar, enojarse etc.), las cuales se consideran esenciales para la inteligencia.

https://www.psicoactiva.com/blog/diferencia-entre-inteligencia-artificial-e-inteligencia-humana/

sorrillo

#6 Ese trozo que citas es a lo que me refería con chutar la pelota hacia adelante.

Estamos usando nuestra inteligencia para buscar las 7 diferencias y coger esas como los pilares de lo que definimos como inteligencia, y luego cuando se va avanzando se siguen buscando diferencias para aplicar la misma regla.

A cualquiera a quien hace un siglo le preguntases si se requiere inteligencia para encontrar tumores en radiografías, una vez explicado lo que son ambas cosas, te diría que claro que se requiere inteligencia. A cualquiera que le preguntases hace un siglo si se requiere inteligencia para conducir un coche te diría que es obvio que sí se requiere inteligencia. Y un largo etcétera.

Ahora resulta que no, que inteligencia es llorar. Pues muy bien,

y

#7 Te lo voy a poner de otra forma, una inteligencia artificial esta limitada por sus propias reglas, las humana no, ya que es capaz de incumplir sus propias reglas.

sorrillo

#10 Ambos estamos limitados por lo que permiten las leyes de la física, más allá de eso no sé si te refieres a las reglas de ficción de Isaac Asimov o a qué exactamente.

Google afirma que su IA ya crea mejores Inteligencias Artificiales que otras creadas por humanos
Fuente: https://www.xataka.com/robotica-e-ia/la-ia-de-google-ya-crea-mejores-inteligencias-artificiales-que-otras-creadas-por-humanos

y

#11 "Ambos estamos limitados por lo que permiten las leyes de la física, más allá de eso no sé si te refieres a las reglas de ficción de Isaac Asimov o a qué exactamente."

Te pondré un ejemplo: Esta inteligencia artificial que juega mejor que los humanos. Si viene alguien que hackea el juego y lo modifica a su favor ya estaría incumpliendo las reglas y como consecuencia ganando a la inteligencia artificial. Eso es incumplir las reglas que en dicha inteligencia artificial no se da.

cc #15 y #17

sorrillo

#24 La IA se adapta si una vez entrenada y en marcha se sigue entrenando con sus propias actuaciones, identificaría que donde antes ganaba ahora no lo hace y seguiría maximizando las estrategias que ahora sí le dan mejores opciones de ganar que antes de esa modificación de las reglas del juego.

De hecho la IA ya ha encontrado "trucos" para ganar que los humanos tras décadas aún no habían encontrado.

A video game-playing AI beat Q*bert in a way no one’s ever seen before
https://www.theverge.com/tldr/2018/2/28/17062338/ai-agent-atari-q-bert-cracked-bug-cheat

Y si la IA encuentra una forma de modificar el juego a su favor lo hará, será el hacker al que te referías y serán los humanos quienes verán vistas cambiadas las reglas.

Y es que a la IA no se le enseñan las reglas del juego, se le pone a jugar indicándole qué elemento le permite identificar si lo hace bien o no (puntos, tiempo antes de morir, etc.). Las reglas del juego las aprende sobre la marcha.

La IA ganó de goleada al mejor jugador de Go del mundo sin que a la IA le hubieran enseñado las reglas, las aprendió jugando, jugando mucho, más partidas de las que ningún humano puede jugar en toda su vida.

DeepMind’s Go-playing AI doesn’t need human help to beat us anymore
https://www.theverge.com/2017/10/18/16495548/deepmind-ai-go-alphago-zero-self-taught

s

#24 Sí. Ya se ha dado en las I.A.
Es una de las cosas sorprendentes de las redes neuronales modernas. INcluso discurrir y utilizar estrategias que a ningún humano se le habían ocurrido o se consideraban que no servirían. Etc...

O simplemente jugadores que conseguían más puntos sin jugar siguiendo las reglas sino habiendo encontrado una estrategía para alcanzar más puntos

Sí. Ya se empieza a dar todas estas cosas que se creía exclusivas de los humanos y las modernas I.A. las empiezan a realizar. Siendo además cajas negras que no se puede saber lo que sucede en su interior mientras procesan y deciden

s

#10 Sus propias reglas en una red neuronal son básicamente las mismas que la de los humanos y también capaces de incumplir las propias reglas
Las redes neuronales no son algoritmos específicos para resolver problemas de forma inamovible sino sistemas que aprenden con las propiedades y defectos que tenemos nosotros y alguno más de momento que nosotros no tenemos... Como desaprender para aprender algo nuevo que no nos pasa

pero estas ideas que siempre se han repetido ya no sirven y ya han sido superadas con las actuales I.A.

Esa es la diferencia entre lo que siempre ha habido y esto nuevo que está apareciendo

Tanto que humanos jugando con ellas casi no pueden imaginar que eso no es otro ser humano y no una máquina. Algo con intuición, con variación, con faroles e intentos de engañar al otro etc... Es una pasada lo que está apareciendo

Cuando las tarjetas gráficas NVIDIA tuvieron suficiente capacidad de proceso en paralelo y además suministraban el CUDA se usó este para insertar redes neuronales en ellas y saltó todo al poder utilizar internet como fuente de información para aprender. Y así ir mejorando los sistemas de I.A. que ahora han cambiado mucho... (se impriman las neuronas o se emulen con python... La red neuronal resultante es otro nivel fuera de los algoritmos rígidos, es una caja negra que no se sabe que sucede en ella en cada momento solo que aprende, imagina, crea, etc)

Trabukero

#10 La gran mayoria de cerebros humanos tambien estan limitados...
Muy pocos entre los millones que hay pueden saltarse esas limitaciones.

P

#7 Es el mismo truquito que se viene utilizando desde hace siglos para demostrar la existencia de los dioses. ¿Llueve? es cosa de los dioses. Ah, que ya sabemos por qué llueve. ¿Es epiléptico? Es cosa de los dioses. Ah, que no... pues entonces lo que es cosa de dioses es el bosón de poggs. Y así hasta el infinito. O patada palante.

s

#6 Y está pareciendo todo eso en las redes neuronales, ya empieza a aflorar claramente, desde capacidad artística y creativa, aprender internamente en procesos internos hasta ser tan hábil como un maestro humano en una materia, razonamientos lógico-matemáticos, expresión de emociones incluso con música al nivel de los humanos etc..

huy huy.. Es que ya se están empezando a dar en las actuales I.A. basadaas en redes neuronales artificiales esas cosas

Trabukero

#6 Que tienen que ver las emociones con la intelegencia?

Las emociones nos hace mas humanos... Pero, al menos en mi opinión, limitan la inteligencia.

D

#16 Te recomiendo leer a Antonio Damasio, quizás cambie tu opinión (un poco desfasada, en mi opinión).
https://es.wikipedia.org/wiki/Ant%C3%B3nio_Dam%C3%A1sio

Puedes empezar por "El error de Descartes":

"El autor propone que el sistema de razonamiento se desarrolló como una extensión del sistema emocional, el cual permitía tomar decisiones no conscientes, imprescindibles para nuestra supervivencia. Y es que las emociones juegan un papel trascendental en las intuiciones. La hipótesis, respaldada por las investigaciones posteriores en pacientes con lesiones en el lóbulo frontal, propone que la razón y la emoción requieren una complementación mutua."

https://escuelaconcerebro.wordpress.com/2011/11/28/el-error-de-descartes/

Trabukero

#21 Nuevamente se me plantea una duda.
Habla de razonamiento intuitivo, la inteligencia no es conocimiento?
Es decir, una persona que posee mas conocimientos que otra, y que por tanto debe adquirirlo seria mas inteligente.
El razonamiento intuitivo, llevado por las emociones, no seria lo contrario a inteligencia?
Razonamiento por conocimiento?

M

#5 ¿Cómo clasificarías a un humano que sabe distinguir tumores cerebrales pero no sabe ni atarse los zapatos, ni siquiera hacer círculos en la arena ni ninguna otra cosa más allá de distinguir tumores cerebrales?

Un niño de un año no sabe hacer nada pero te ve a ti haciendo círculos en la arena y él solo sin saber nada, toma la iniciativa de imitarte para hacer círculos en la arena. Una inteligencia artificial que distinga tumores mejor que cualquier humano, tarea más compleja que hacer círculos, cuando te vea a ti haciendo círculos en la arena, ella seguirá distinguiendo tumores y nada más y ni siquiera se fijará en ti porque una IA solo es un automatismo, mientras que el niño piensa por sí mismo.

sorrillo

#28 ¿Cómo clasificarías a un humano que sabe distinguir tumores cerebrales pero no sabe ni atarse los zapatos, ni siquiera hacer círculos en la arena ni ninguna otra cosa más allá de distinguir tumores cerebrales?

En ningún caso diría que no tiene inteligencia, si no que es una persona especializada. Como quien es un fantástico cirujano pero no tiene ni idea de como tripular un avión.

El cirujano puede aprender a tripular un avión si se entrena para ello, también la IA, en eso estamos.

Con la ventaja que cuando la IA sepa tripular un avión podrá tripular cientos sin tener que aprender cada vez, a diferencia de los cientos de tripulantes humanos que necesitarías.

Alexa, tripula este avión hasta Nueva York.

Un niño de un año no sabe hacer nada pero te ve a ti haciendo círculos en la arena y él solo sin saber nada, toma la iniciativa de imitarte para hacer círculos en la arena.

Está aprendiendo por imitación. Si das las herramientas e incentivos a la IA para aprender a hacer círculos lo aprenderá, igual que el niño.

M

#29 "En ningún caso diría que no tiene inteligencia, si no que es una persona especializada."

Cualquier persona especializada sabe hacer cosas varios rangos inferior a su especialización. Hacer círculos no es tripular un avión y no existe ninguna persona sana que sea cirujana pero no sepa hacer círculos. Es algo impensable que un humano normal no sepa hacer círculos, mientras que una IA programada para distinguir tumores ni siquiera sabe lo que es un círculo.

"Si das las herramientas e incentivos a la IA para aprender a hacer círculos lo aprenderá, igual que el niño"

No, igual que el niño no. Una IA tienes que programarla para que aprenda a imitar a los humanos, si no lo haces y en vez de eso la programas para aprender a conducir o a distinguir tumores, podrá hacerlo mejor que nadie pero no sabrá hacer otra cosa por muy simple que sea. Por contra, un niño sin que tú le digas nada, él solo tiene la iniciativa y la capacidad de imitarte y de hacer cosas fuera de su "rango de programación".

sorrillo

#30 Tienes idealizados los círculos, tampoco son tan importantes para la vida diaria. Yo hace mucho que no hago ninguno y no me impide vivir mi vida.

Tampoco tripulo aviones. Aunque hay quien lo hace.

No, igual que el niño no. Una IA tienes que programarla para que aprenda a imitar a los humanos

No, no la tienes que programar para que aprenda a imitar los humanos, tienes que establecer los incentivos para que entienda como favorable el hacerlo, al igual que al niño se le dan incentivos para que imite y se le dan incentivos para que no imite aquello que no queremos que imite (premios y castigos).

Las IA aprenden una vez establecidos los incentivos, cuando tiene un objetivo al que aspirar.

De lo que muchos no son conscientes es de la cantidad de estímulos a los que se ven inmersos los niños durante todo el día desde su nacimiento, de como sus padres contínuamente le están reforzando las actitudes "positivas" y remarcándole las "negativas" para que aprenda. Son muchos años, pasando por muchas personas y aprendizajes distintos y contínuos, para conseguir que pilote un avión y pueda hacer círculos si se aburre durante el trayecto.

M

#31 No entiendo a qué viene lo de los círculos, si no entiendes que solo es un ejemplo de una tarea básica, será mejor dejarlo aquí.

Sí, si la tienes que programar. Coge esta inteligencia y ponla a conducir, verás que la IA que gana al Starcraft seguirá intentando ganar puntos al Starcraft, con el coche y no sé de qué forma porque un coche no se parece en nada al juego, pero su objetivo seguirá siendo optimizar los puntos de Starcraft. Por contra, un niño de cinco años que malamente juegue al Starcraft, lo pones en un coche y sin que tú le digas nada, entenderá perfectamente el cambio de contexto y no seguirá jugando al Starcraft con el coche.

A una IA le tienes que decir "busca la forma de optimizar la puntuación de Starcraft" y luego le tienes que decir "busca la forma de conducir", mientras que a un niño no le tienes que decir nada porque entenderá perfectamente el cambio de contexto.

No, a un niño no le das ningún incentivo para que imite, el niño imita por naturaleza. Por contra, a una IA le tienes que decir que su función es imitar. Cómo hacerlo de la mejor forma depende de ella pero eres tú el que le marcas los objetivos.

sorrillo

#32 un niño de cinco años que malamente juegue al Starcraft, lo pones en un coche y sin que tú le digas nada, entenderá perfectamente el cambio de contexto y no seguirá jugando al Starcraft con el coche.

¿Sin que tú le digas nada?



La sociedad llevará 5 años enseñándole todos los días lo que es un coche, lo que es un volante, lo que es una pantalla de ordenador, lo que son las personas y por qué es malo hacerles daño, lo que es una carretera y por donde debe pasar y no pasar, lo que es un semáforo y como funciona, lo que ...

Es imposible que un niño de 5 años en nuestra sociedad no sepa un montón de cosas que le hemos ido enseñando entre todos durante todo ese tiempo. Y que hayamos usado montones de incentivos para orientar sus actos y actuaciones. ¡Incluso les hemos enseñado los círculos!

A una IA le tienes que decir "busca la forma de optimizar la puntuación de Starcraft" y luego le tienes que decir "busca la forma de conducir"

No es así. Le debes decir esto son los puntos, muchos puntos = bueno, pocos puntos = malo.

En el caso de la conducción sí hay que enseñarle mucho antes de dejarla conducir de verdad, por eso de no ir matando personas con prueba y error, al igual que a un niño de 5 años no le dejamos conducir un coche y a quien sí le dejamos debe entrenarse en circuitos cerrados y aprobar exámenes.

En un simulador de coche una IA puede aprender atropellando y saliendo de la carretera, basta con indicarle lo que es bueno y lo que es malo, salir de la carretera es malo (eso también se le enseña a un niño antes de conducir un coche).

No, a un niño no le das ningún incentivo para que imite, el niño imita por naturaleza.

Una IA, una vez ya diseñada, también lleva actos a cabo por "naturaleza", eso no es lo relevante. Lo relevante es que cuando uno imita se le dan incentivos para indicarle si ha imitado bien o no y si debe o no imitar tal cosa, eso es el entrenamiento, el aprendizaje, lo cual ocurre en ambos casos.

M

#33 "¿Sin que tú le digas nada?"

Sí.

"La sociedad llevará 5 años enseñándole todos los días lo que es un coche, lo que es un volante, lo que es una pantalla de ordenador"

Y él llevará cinco años dándote la murga con "¿y eso que es?" y "¿por qué x?" sin que tú le hayas enseñado a preguntar. Por contra, una IA ni se inmutará, no tendrá ningún interés en preguntar ni hará nada a no ser que tú le digas "tu objetivo es este" porque una IA es un automatismo mientras que un niño tiene iniciativa propia. Una vez la IA tenga un objetivo, entonces sí, hará cosas por sí misma pero mientras tanto no.

Una IA no sabe salirse de su contexto, sabrá buscar la forma de trampear el juego para ganar más puntos de una forma que a ningún humano se le ocurriría jamás, pero en ningún momento sale de su contexto que es ganar el juego. Por contra, un niño sale de su contexto continuamente.

"Le debes decir esto son los puntos, muchos puntos = bueno, pocos puntos = malo."

Y la IA te dirá, pues vale, me alegro. Hasta que tú le digas "tu objetivo es ganar" y para ello muchos puntos = bueno.


El tema es que una IA que aprende a conducir, solo sabe conducir, no es capaz de hacer ninguna otra tarea básica que un niño de cinco años sí sabe, debes decirle tú a la IA "ahora aprende a hacer esto" o ella nunca contemplará esa idea. Por contra, un niño sí contempla opciones independientes de la tarea principal.


"A una IA, una vez ya diseñada, también lleva actos a cabo por "naturaleza", "

Pues eso, una vez diseñada para jugar, llevará actos a cabo por "naturaleza" pero solo dentro del contexto del objetivo que es ganar el juego, mientras que un niño se sale del contexto continuamente y nadie lo ha diseñado para ello.


" Lo relevante es que cuando uno imita "

Claro, eso mismo, una vez arrancado el proceso de imitar, la IA imitará y según los incentivos que le des, lo hará de una forma u otra pero ¿cómo arrancó el proceso de imitar? Una IA diseñada para detectar tumores nunca te imitará haciendo círculos a no ser que le digas que imite.

Por contra, nadie arranca el proceso de imitar en un niño porque no hay nada que arrancar, lo hace él solo por iniciativa propia.

ContinuumST

#2 "Inteligencia es lo que usamos cuando no sabemos qué hacer". Jean Piaget.

sorrillo

Pero recordad que no es inteligente. Para conducir no se necesita inteligencia, para encontrar tumores en radiografías no se necesita inteligencia, para identificar objetos en fotografías no se necesita inteligencia, para concertar citas llamando por teléfono no se necesita inteligencia, para ganar en juegos de estrategia no se necesita inteligencia.

Seguimos chutando la pelota hacia adelante, la portería es como las de Oliver y Benji.

Pichicaca

#1 Ahora vas y defines "inteligencia".

y

#1Que una maquina haga trabajos específicos para los que ha sido diseñada yo no lo llamaría inteligencia.Esto es como una maquina/ordenador que juega al ajedrez.

Otra cosa es que una maquina pueda resolver y desarrollar cosas para las que no esta específicamente diseñada.

cc #1

Priorat

#4 Es inteligencia porque ha aprendido ella sola, hasta tal punto que muchas veces toma decisiones distintas a las que pensaban que tomaría su diseñador. Es decir, para la tarea encomendada, tiene libre albedrio.

D

#4 Los mejores módulos de ajedrez son imbatibles para cualquier mortal, grandes maestros internacionales y campeón del mundo incluidos.

s

#1 De momento cada I.A. es monotemática y cuando la red neuronal aprende algo nuevo olvida lo que sabe. La nuestra es multifuncional. Parece que nuestro neocortex genera la realidad que vivimos. Es decir a partir de la información de sentidos externos e internos, lo que sabe, emociones etc crea una representación de la realidad colocando cada cosa en su sitio, incluso nuestro yo en él y a sí misma en él como parte también de las cosas de la realidad representadas -y eso- y eso es lo que damos por real. Un reflejo bastante fidedigno con el que coordinar muy bien las diferentes funciones de las redes neuronales como si se viviera en la realidad. Al soñar y entrenar la red ante cosas nuevas no vividas el proceso sigue, crea un relato de cosas sueltas y se ha de desconectar y dormimos porque sería peligroso. Drogas y otras cosas pueden alterar esa simulación en la que vivimos haciendonos creer que estamos fuera del cuerpo, vemos y hablamos con fallecidos o mil cosas que no son ciertas sino alteraciones de esa representación que es realmente donde vivimos

Creo que es un truco precisamente que soluciona los problemas que tienen las i.A. actuales y parece que apunta por ahí muchas cosas y mucho de lo que se va conociendo

Bueno. Cuando se llegue a hacer esto para poder tener multitarea y aprender de la realidad formando parte de la misma la red no como un observador ajeno sino como si fuera parte de la realidad ...

¿qué diantre nos saldrá y en que se convertirán las I.A.?

¿se ha de hacer este paso o solo redes neuronales específicas para tareas específicas que una vez aprendan queden cerradas como de momento parece que se van aplicando? ¿o se hace ese paso?

¿una empatía surgida de la autoconsciencia y luego de la consciencia del otro no generará comportamientos morales o será indiferente si no se le programan emociones y deseos?

¿emociones y deseos acordes a las tareas para las que sea destinadas o como los de los seres vivos para sobrevivir para procrear los genes?

¿y si las tareas son militares y se le hace este paso de integración de redes con la realidad para que sea más efectiva la I.A. en lo militar y las emociones y desos son a medida de esas tareas?

Trabukero

#12 O sea el cerebro crea una especie de realidad virtual... Pero, pregunto... Eso no se puede simular tambien?

De echo, yo siempre he pensado que los juegos de mundo abierto son en realidad una simulacion de una realidad...

s

#18 De eso hablo. De si se hace así como hace el neocortex para ser consciente de las cosas hasta alcanzar la autoconsciencia y la consciencia del otro...

D

Estamos enseñando a una IA como luchar y como ganar batallas.
Skynet y el día del juicio final están más cerca.

D

#8 Y los coches voladores. No te olvides de los coches voladores.

Gry

#8 También podría llegar a la conclusión de que "la única forma de ganar es no jugar".

D

#23 Bueno, si está entrenada para sacar conclusiones ya ha concluido que es capaz de ganar al humano 10 veces por una que somos capaces de ganarle a ella.

parrita710

«Etiquetas»

Paisos_Catalans

Por fin un contrincante a mi altura! espero que no haga trampas como a IA de blizzard!