Hace 4 años | Por freaker a youtube.com
Publicado hace 4 años por freaker a youtube.com

Vemos como diferentes agentes de IA descubren progresivamente formas de esconderse y de buscar cada vez más complejas, mientras juegan a un juego simple como el escondite. En un entorno simulado, los agentes construyen una serie de estrategias y contraestrategias - algunas que los mismo desarrolladores ignoraban que el entorno soportaba.

Comentarios

A

#2 Esto da mucho miedo. En poco seremos nosotros los "observados"

s

#23 Pues a mí no me da miedo....
Esos bichos han iterado millones de veces para conseguir lo que un niño de cinco años sabría a la segunda o tercera vez. Hay una aproximación distinta fundamental al aprendizaje; son tipos de inteligencias no comparables.

Si los seres humanos hubieran tenido que evolucionar a partir de un proceso de aprendizaje tan repetitivo la evolución estaría en los primeros insectos, a lo sumo... Cuando un animal aprende a moverse en el entorno no lo ha hecho porque millones de animales antes que el hayan repetido millones de veces un movimiento, no hubiera dado tiempo material a dicho aprendizaje.
Creo que debe ser fundamentalmente distinto y, por eso, no da demasiado miedo.

y

#32 La genética junto con la selección natural son una forma de inteligencia muy similar a esta. Y sí, en ese caso si han iterado miles de veces (millones, billones...).

Tanto han iterado y tan inteligente se ha vuelto el sistema que ha construido otros sistemas que le permiten iterar virtualmente mucho más rápido (sistemas nervisosos, cerebros y tal), igual que más tarde este sistema de iteración virtual ha acabado construyendo otros sistemas que le permiten iterar de forma virtual igualmente, pero AÚN más rápido (ordenadores y tal) aunque de momento de formas mucho menos complejas.

Así que sí, más o menos es lo mismo. Estás mirando mal la escala.

s

#39 #41 Sinceramente y cuñadeando al máximo... Me temo que el cerebro humano (o el de cualquier animal con cerebro) no sigue un proceso de aprendizaje basado en constantes repeticiones de pequeños procesos... Más bien al contrario, una enorme capacidad de descartes.

Es muchísimo, muchísimo más eficiente aprender a partir de descartes que aprender a partir de ensayo error...

Dudo mucho, realmente, que andemos cerca de cualquier máquina realmente inteligente... Seamos humildes... Los robots de Boston Dynamics saben subir escaleras y poco más. No hay ningún robot en la tierra, ni tan siquiera prototipos, que me lave la ropa, la planche y la guarde...

No hay ningún miserable sistema de asistente virtual o contestador asistido en atención al cliente que no sea una basura infecta!!!

Esto último lo tendremos en breve, sí, pero el estado actual es que no lo tenemos... Y aún me temo que tenga que lavar y planchar por muchos años...

Así que no nos chupemos las pollas todavía... Ni un puto robot plancha, ni un puto asistente funciona y los médicos no curan una puta gripe...

D

#54 #50 eh que yo no he hablado de tiempos, y en tanto avancemos en el conocimiento del cerebro vaya usted a saber como evolucionan las cosas... pero, esto es como cuando se especulaba con el viaje a la Luna en el siglo XIX, que pasará, pasará.

y

#54 Pues sin cuñadear tanto, hay redes neuronales que funcionan por descarte. Descartan que nodos siguen conectados a sus equivalentes en la siguiente capa, o si se conectan a otro nodo incluso.

El cerebro humano descarta, pero también iteran sobre las mismas situaciones para poder descartar (a un nivel abstracto alto quiero decir, cuando te imaginas que podría pasar si hicieras tal cosa). La IA del vídeo está haciendo eso, pero no como lo hace el cerebro, está descartando las versiones que no valen.

Los robots de Boston Dynamics no están basados en redes neuronales, son algoritmos de inteligencia artificial pero bastante concretos y especializados sobre todo en las físicas, para conseguir la estabilidad del robot o la precisión a la hora de coger algo). No son un ejemplo de una inteligencia artificial que esté intentando imitar a los humanos. Son mas parecidos a un robot de limpieza que a una red neuronal, pero extremadamente más complejos. La robótica y la inteligencia artificial no suelen combinarse de momento, porque tener inteligencia artificial en tiempo real exige una cantidad de procesadores que un robot no es capaz de cargar y la latencia que habría si fueran controlados por red (estando los servidores de la IA en algun otro sitio) no les permitiría tomar decisiones de bajo nivel, como la forma de apoyar un pie, a tiempo.

Los contestadores automáticos no son IAs. Y sí, los asistentes virtuales no son muy impresionantes. Irán mejorando, pero no tienen la intención de ser una inteligencia artificial general. Son un puñado de redes neuronales concretas combinadas de forma concreta para conseguir unos objetivos ("ayudarte").

Y nunca tendrás tu robot que plancha si no le sale rentable a quien te lo vaya a vender.

s

#57 ya te digo yo que si lo consiguen se forran por encima de los límites de la avaricia!

D

#9 #13 #20 #27 #32 apelotonar millones de redes especializadas pero más o menos conectadas entre si, como estaría haciendo el cerebro. Luego la cosa de evolucionar es cuestión de computo y energía. Metiéndole caña hacemos cientos de millones de años en segundos. Lo mismo en un femtosegundo la IA pasa de ameba a tener nuestras capacidades y al siguiente femtosegundo es Dios y al siguiente LA SINGULARIDAD.

sagnus

#41 como estaría haciendo el cerebro

¿Dónde has leído que las redes neuronales funcionan como un cerebro? ¿O te refieres únicamente a lo de que están conectadas entre si?

D

#62 En lenguaje cuñado: No que las redes neuronales funcionen como el cerebro. Pero en algún sitio leí que el cerebro estaba formado por "cerebros" más pequeñitos pero conectados, que forman el propio cerebro pero también se ubican en el estómago, corazón, etc, todo eso aparte de las áreas que se activan cuando hacemos cosas determinadas.

luiggi

#41 ejem ... La singularidad estaría en el medio, entre la ameba y Dios, junto con el humano

D

#68 mmm... pero dios es más cognoscible que LA SINGULARIDAD.

luiggi

#69 naa ...

D

#70 que si

d

#32 El problema de esto es el lamarckismo del que hablaba Google en un vídeo interno filtrado (https://www.eldiario.es/tecnologia/interno-Google-extraer-intimos-usuarios_0_772723127.html). Consistía básicamente en recopilar y centralizar todo ese aprendizaje en servidores centrales de manera que todas las IA volcasen ahí sus progresos en tiempo real alimentando así al "cerebro"

Esto puede ser peligroso, en primer lugar porque los tiempos de aprendizaje se reducen exponencialmente al haber N aportadores simultáneos. En segundo lugar porque este conocimiento podría extrapolarse posteriormente a nuevas (y seguramente perversas) ideas para vete a saber qué. Ya sabes, hablamos de Google...

SalsaDeTomate

#2 Es que es una chorrada. Acojonante serán las películas que os montéis en vuestra mente o el hype que hay con la IA

Maddoctor

#37 Ah gracias.

y

#37 Acojonante no será y sí es verdad que hay mucho hype con la IA, pero no es una chorrada. Hemos descubierto como recrear el proceso por el que la materia interactuando entre sí bajo unas reglas aparantemente muy simples ha conseguido convertirse en seres organizados y más tarde inteligentes (al menos como recrearlo a nivel lógico y matemático).

No es la inteligencia de nuestro cerebro pero es una forma de inteligencia. Es la forma de inteligencia que nos convirtió en seres más inteligentes que ella.

SalsaDeTomate

#40 La ciencia lleva avanzando ya siglos, yo no veo nada que se salga de lo normal dentro de esa línea. Todo esto es más consecuencia de la paulatina mejora en el hardware a que haya algo realmente innovador.

y

#75 Si, pero la mejora del hardware permite realizar (y demostrar que son posibles y viables) las cosas innovadoras que se descubrieron hace 50 o 100 años.

y

#18 Pues sí, yo creo que así acabaremos si no nos extinguimos antes. Otra cosa es si seguiremos siendo nosotros (el humano al que le toque, nosotros no creo que lo veamos).

knzio

#13 follar no es mal plan

omegapoint

#13 en realidad podrías crear una IA, como una corteza cerebral superior, que su función sea, que IA's secundarias utilizar en cada momento.

y

#13 El problema más que no sepamos recrearlo es que no sabemos hacerlo tan eficientemente. Con la tecnología que tenemos el gasto en semejante obra de ingeniería y la energía que consumiría lo hacen inviable.


Hay una diferencia notable entre como funciona nuestro cerebro y como funciona ESTA inteligencia artificial (la de el vídeo).

Pero hay otros diseños que si que imitan bastante más a nuestro cerebro. Las redes neuronales pueden combinarse, igualmente pueden hacerse infinitamente más complejas de lo que pueda ser la del vídeo, haciéndolas "profundas" (con muchas capas y muchos nodos), haciendo más complejas las conexiones entre las capas (como las redes convolucionales por ejemplo) y haciendo que compitan entre sí (GAN por ejemplo, redes adversarias que se mejoran la una a la otra compitiendo, como el vídeo pero de forma distinta) o incluso añadir la posiblidad de activar solo determinadas conexiones de distintas capas en cada iteración (que es como en realidad lo hace nuestro cerebro).

La red neuronal de este vídeo combina elementos de machine learning a distintos niveles:

En el primer nivel están las dos redes neuronales que se encarga de hacer "funcionar" a los que se esconden y a los que persigen. Lo más seguro es que sean relativamente profundas, que su entrada de datos sea lo que "ve" el agente (a una resolución relativamente pequeña imagino) o la posición del resto de elementos, incluidos adversarios (lo que lo haría mucho más simple y mucho menos espectacular, la verdad) y la salida la acción que realizan.

En el segundo nivel está el "reinforced learning", que básicamente lo que hace es recompensarles por capturar al enemigo o no ser capturado.

En el tercer nivel está el el "self play", que no es una red neuronal sino otra forma de inteligencia artificial que se encarga de gestionar que versiones de las redes neuronales del primer nivel pasan por el segundo nivel.


Nuestro cerebro es un conjunto de distintas redes neuronales extremadamente complejo con infinidad de capas cuyas conexiones se activan y desactivan. Solo hay que ser capaz de conseguir esa complejidad (en términos realistas de coste y energía).

Trigonometrico

Ahora somos nosotros los que tenemos que ver el juego del escondite como un problema matemático para entender a los ordenadores, y no al revés.

s

Me causo una sonrisa cuando "secuestraron" una rampa y se la llevaron dentro de su escondite para que los "buscadores" no tuvieran que posibilidades de subir por las paredes.

R

#21 ya verás cuando en vez de la rampa se lleven tu insulina

higochungo

#26 No hace falta que se la lleven. Con no hacerle la receta electrónica tendrán suficiente.

karakol

Destruidlo ahora, antes de que sea tarde.

omegapoint

#3 junta esto con un buen sistema de armamento y los robots de boston dynamics.

7

#5 Justo eso lo he pensado muchas veces.
Por lo general vemos todos estos avances en IA por separado, no me explico porque a nadie se le ocurre montar una compañía que aúne todas esas tecnologías y avance en la creación de un ser pseudointeligente con aspecto humano.
Tenemos exoesqueletos, piel y robots de aspecto casi humano, IA que sorprenden. ¿Por qué no juntarlo todo para hacer un humanoide?

Naito

#9 algo así?

J

#3 Sarah Connor, ¿eres tú?
Al menos han tenido la decencia de mostrar el juego del escondite y no una versión gore en el que los que buscan se cargan a los buscados.

D

#34, tú le pones el objetivo y la ia aprende, claro. Si en algún momento la ia decide esconderse, pues si lo aprendió aquí se podrá esconder, y si no, pues lo aprenderá por ella misma y se esconderá igualmente.

p

Me resulta muy curiosos ver que los azules siempre huyen de los rojos y se encierran para no ser descubiertos, utilizando los objetos que tienen a su disposición.
Pero en ningún caso encierran a los rojos para que no los descubran. Cuando hacen triángulos de paredes, podrían hacerlos alrededor del rojo y tener más espacio para ellos.

AubreyDG

La verdad, daba por hecho que llegaría un punto en el que "encerrarían" a los que deben buscar

D

#14, como ya te han dicho, los buscadores no pueden desbloquear bloques. Pero vamos, en general encerrarte tú va a ser mejor por varios motivos:

Primero, puedes aprovechar cualquier pared fija. Con el buscador no puedes hacer eso salvo que esté cerca de una pared fija.

Segundo, en el caso de que haya varios buscadores, si están separados costará más encerrarlos. Sin embargo si hay varios que se tienen que esconder pueden agruparse para hacer más sencillo el esconderse.

Tercero, aún en el caso de que por lo que sea los puntos anteriores en un principio no supongan ventaja para elegir encerrarse uno mismo, hay que tener en cuenta que si te encierras tú puedes elegir el punto exacto por lo que posiblemente puedas minimizar el número de movimientos a realizar que si encierras al otro que va a estar en un punto fijo.

Por último, topológicamente es lo mismo encerrarte tú que encerrar al buscador

CC #7

higochungo

#7 Sí, pero un poco más adelante los buscadores aprender a saltar el muro con una rampa.

y

#7 Si no ha pasado todavía (y no lo han sacado en el vídeo) pasará. Al menos lo intentarán y si sale (o salío) mal pues ya no lo intentarán más, a no ser que estén extremadamente "desesperados" que consideren que esa estrategia vuelve a ser válida.

f

#15 el artículo donde explican el sistema da incluso más miedo...

arn01d

#15 #28 interesante:

"Explotación de rampa (buscadores). En este caso, los buscadores aprenden que si corren hacia una pared con una rampa en el ángulo correcto, pueden lanzarse hacia arriba."

F

Pues no me parecen tan inteligentes, para que no usen rampas ni obstáculos porque leche no encierran a los "buscadores" y así no pueden moverse ellos ni acceder a nada. Y los que van a esconderse no tienen que preocuparse de nada.

squanchy

#12 Necesitan al menos un triángulo para encerrarlos. Los buscadores también pueden mover los bloques. Como sólo son dos los que se esconden, sólo pueden empujar dos lados, quedando el otro libre para que uno de los buscadores empuje.

S

#14 Los bloques se pueden bloquear de modo que los buscadores no los puedan mover.

https://openai.com/blog/emergent-tool-use/

Episodes 458–481 million: Surf Defense Hiders learn to lock all ramps and boxes to prevent box surfing.

Mochuelocomun

#48 te parece poca programación? Premiar o castigar según tú criterio?

y

#51 Si.

Venga, lo edito y me explico: Es verdad que la decisión la tomas tú (la de cuando dar la recompensa), pero la podrías cambiar en cualquier momento, mediante algoritmos o mediante otra IA.

Sin embargo tu no les "explicas" lo que es esconderse y que por eso tienen un premio. Simplemente, si no los encuentran (sin que ellos sepan lo que es encontrar o esconderse) en donde va la recompensa habrá un 1. Y si los encuentran habrá un 0. Y al revés para los adversarios. Son ellos los que se dan cuenta de que si no los encuentran ahí hay un 1.

Mochuelocomun

#52 Sí entiendo lo que dices pero mi punto viene a cuento de hasta que punto podría un IA funcionar sin ninguna intervención humana...

y

#53 Existe el aprendizaje no supervisado. Hay otros tipos de IAs a las que no se les dice que está bien o que está mal, simplemente descubren patrones o los crean. También puedes crear una IA que se encarge de decidir por que se recompensa a las otras IAs.

t

Un poco tramposo cuando los rojos se suben a los bloques y surfean con ellos.

y

#24 Sí, e impresionante también. Han explotado un glitch del entorno 3D para conseguir encontrarlos.

KomidaParaZebras

es una de las demostración más visuales de que nuestro software ya produce "inteligencia". De chorrada nada.
Hoy, esos muñequitos son más inteligentes que muchos niños. Mañana, que muchos adultos. Pasado, que Einstein. Más tarde, una inteligencia que escape a nuestro entender. Y sí, utilizo como medida "días" porque puede llegar a ocurrir en días, horas, minutos, segundos... De hecho, es lo que se busca. Y terminará ocurriendo.

Miedito

sagnus

#27 Hoy, esos muñequitos son más inteligentes que muchos niños

¿Es broma, no? Un niño ha utilizado sus neuronas para aprender a mover sus músculos, a mantener el equilibrio, a andar y correr (como cualquier ser vivo, vamos), y a bastantes funciones motoras más. En esos muñecos las animaciones vienen programadas, las colisiones no producen los mismos "problemas" que en la vida real y que requerirían una respuesta inteligente, han aprendido mediante millones de pruebas cuya recompensa o castigo estaba infinitamente más clara que casi cualquier situación real, y dedicándose únicamente a intentar aprender esa acción, sin recibir estímulos que puedan enseñar infinidad de aspectos tanto de movilidad, como de comportamiento social, como de aprendizaje del lenguaje, etc...

No, no son ni remotamente más inteligentes.

#63 Agree

KomidaParaZebras

#63 no es broma, es solo una simplificación. Hablo, exclusivamente, de la tarea de generar estrategias para esconderse. No hablo del aparato motor, circulatorio, digestivo...
Y un niño viene precedido de millones de años de evolución. Su cerebro es más potente y complejo que cualquier ordenador. Por ahora...

c

Algún día ese código estará en una Cabeza de Metal com las de Black Mirror.

M

#19 Prefiero una referencia mas viejuna como un Terminator t-1000 .

KomidaParaZebras

Vamos a morir todos

inar

#25 Who wants to live forever 🎵 🎶 🎵

y

#25 Eso seguro

e

A lo mejor no deberíamos enseñar a las IA a esconderse.

D

#6, el tema es que no les enseñamos, aprenden solas

Mochuelocomun

#8 Creo Eso no es correcto. En un principio se crea un programa y en ese programa se les dice que el objetivo es esconderse. La decisión no ha sido por tanto de la IA sino del programador.

y

#34 El objetivo no es "esconderse". Simplemente le das una recompensa si no lo encuentran. Y al otro se la das si la encuentra. Pero no existe nada programado que le haga esconderse o atraparlo, simplemente se les premia o castiga.

D

#6 Mis auriculares ya lo hacen solos sin IA no leches .

inar

#6 Mi mando de la tele tambien se esconde. Me estoy acojonando
cc. #29 Consuela ver que no soy el único

ampos

Dios, que fuerte...

inar

#10 Igual Dios es un humano creando IA's, que ahora se está descojonando viendo como sus creaciones hacen evolucionar a unos airgam-boys tinfoil

m

lo que yo creo que es que no tenemos ni puta idea de cómo evolucionará la IA, por lo que es peligrosísima; quizá sea lento pero tb quizá sea cosa de muy poco que alcance (esponencialmente) una inteligencia muy superior a la nuestra

D

Cuando vengan drones asesinos a exterminar a la raza humana y suelten lo de "podéis correr pero no esconderos", ya sabéis a quien coño darles las gracias

D

Estos usan la experiencia para mejorar, no como los NPC, los cuales los llamaran fachas.

D

A ver si llega pronto el día que sustituyan a los poderosos por una AI en el gobierno mundial y dejan en el paro a los putos políticos. Todo funcionaría mucho mejor y sobraría la pasta para temas sociales...

jucargarma

Más fácil, colocas las paredes para encerrar a los rojos y a ver cómo salen...

itomailg_ito

#66 Pero en el video se ve como cogen una rampa y la esconden, eso ya se va fuera de la norma.

itomailg_ito

Serán muy inteligentes, pero cuando podían mover las paredes, yo hubiese puesto las paredes alrededor del que busca, encerrándolo, es más rápido y encima tengo todo el espacio que quiera para mi.

#47 La cosa es esconderse del adversario no encarcelar al adversario