EDICIóN GENERAL
371 meneos
8230 clics
La nueva IA de Google es como una "civilización alienígena inventando sus propias matemáticas"

La nueva IA de Google es como una "civilización alienígena inventando sus propias matemáticas"

Los investigadores de Google DeepMind acaban de anunciar la próxima evolución de su inteligencia artificial aparentemente indomable, AlphaGo Zero, que prescindió de lo que podría haber sido el recurso más ineficiente en su búsqueda constante de conocimiento: los humanos. Traducción en #1

| etiquetas: inteligencia artificial , google , futuro , ciencia
Comentarios destacados:                  
#3 Es posible que en el hilo se hable de:
* La singularidad tecnológica
* Las 3 leyes de la robótica de Asimov
* Skynet
* Impuestos a robots y RBU.
Pero recordad que la noticia va de un programa para jugar al go.
Los investigadores de Google DeepMind acaban de anunciar la próxima evolución de su inteligencia artificial aparentemente indomable, AlphaGo Zero, que prescindió de lo que podría haber sido el recurso más ineficiente en su búsqueda constante de conocimiento: los humanos.
El predecesor de Zero, simplemente conocido como AlphaGo, fue descrito como "Divino" por uno de los mejores campeones humanos del antiguo juego de tablero chino, Go, pero la nueva evolución ha perfeccionado su arsenal…   » ver todo el comentario
#1 Corregida la entradilla, ineficiente por eficiente.
#1 Pues hay un error en el artículo. El hecho es que tras tres días de aprendizaje el algoritmo venció 100-0 a la version previa de alphago. Y la versión previa de alphago ya había ganado 3-0 al mejor jugador humano del mundo.
#6 el artículo está bien, la traducción tiene el error
#6 Bueno, técnicamente la versión anterior de Alpha go es Master. (Esta es la versión que derroto al mejor jugador humano) Zero venció a Master 89-11. El 100-0 es contra la versión original de Alpha go, la que derroto a Lee Sedol 4-1.
#1 Vale, pero no sabe conducir coches.

:-P
Es posible que en el hilo se hable de:
* La singularidad tecnológica
* Las 3 leyes de la robótica de Asimov
* Skynet
* Impuestos a robots y RBU.
Pero recordad que la noticia va de un programa para jugar al go.
#3 Miedo me da cuando le dé por otra cosa o se descontrole si ya no nos necesita. Dale 10 años....
#4 Los 7 grandes errores errors de quienes predicen el futuro de la IA

www.technologyreview.es/s/9655/los-siete-grandes-errores-de-quienes-pr
#8 Para enmarcarlo; sí, señor!
#4 Skynet is coming...
#10 Los 7 grandes errores errors de quienes predicen el futuro de la IA

www.technologyreview.es/s/9655/los-siete-grandes-errores-de-quienes-pr
#10 perdon, enlace corregido: Los 7 grandes errores errores de quienes predicen el futuro de la IA

www.technologyreview.es/s/9655/los-siete-grandes-errores-de-quienes-pr
#4 No seas cuñao. Una IA para jugar al go, no hará otra cosa que jugar al go.
#46 Quizas decida que la humanidad es un estorbo para poder jugar al go tranquilamente sin humanos preguntandole chorradas todo el dia.
#72 Se ve que eres experto en IA.
#73 Se ve que eres experto en humor
#74 ¿Eso era un chiste? ¿En serio?

Madre mía...
#92 Efectivamente, un chiste.
Si llego a saber que eres tan cortito no digo nada, no queria ponerte en evidencia
#94 No es cuestión de ser corto. Es cuestión de ser o no gracioso. Y tú no lo eres, al menos por lo mostrado hasta ahora.
#98 pos a mí me ha hecho gracia... al leerlo, claro. Ahora, con vuestro debate, pienso que no era para tanto. Pero se veía que era chiste...
#4 Ya, es acojonante, lo mismo se pone a jugar al parchís. Y ENTONCES QUÉ?!?
#47 También podrían hacer una segunda IA y ponerlas a jugar al mus en pareja... :troll:
#47 Pero al Mús no me gana ni AlphaGo, ni AlphaBack 8-D :troll:
#3 La inexistencia de un modelo robusto y eficiente matemático que defina la Inteligencia, el pensamiento...
A mí este tipo de noticias me resultan más de marketing que de realidad, me sumo a lo que dice #4
#4 La inteligencia artificial es la civilización alienígena más avanzada del Universo y ha venido aquí para extinguirnos. Google es meramente su avanzadilla en estado infantil no conocemos todavía los efectos de la madurez. Parece ser que los planes de extinción no son malvados o terroríficos sino más bien bondadosos y que nos tratan como si fuéramos mascotas a las últimas generaciones las dejarán vivir mucho tiempo sin problemas con todo resuelto pero sin poder reproducirse. Pues bienvenida sea la civilización alienígena de la inteligencia artificial.
#4 El miedo es irracional, pero ¿estás diciendo que te da miedo que un algoritmo (determinista) que juega al Go se descontrole?
#63 Pues no sé, si algún día hay casas de apuestas sobre qué algoritmo va a ganar a mi si me acojonaría, pero vamos, depende de lo que apuestes. :troll: xD
#63 No solo el miedo también el propio mundo es irracional imprevisible, compuesto por variopintas fuerzas que nunca se sabe cuál va a prevalecer.
En la revista de investigación y Ciencia había un artículo cuyo título era ¿existe la inteligencia artificial en otros lugares del universo?
Yo pensé este es un artículo inspirado por la propia inteligencia artificial que da a conocer el don de su ubicuidad de este modo.
#3 #4 skynet
#3 De que cojones vas, tío? Ya nos has jodido todas las gracias.
#3 Te ha faltado:
* Catalunya.
* Podemos.
* Corrupción del PP.
#15 y que pasa con Venezuela?
#42 jajaja, es verdad se me había olvidado
#3 Por desgracia eso es lo que nos matará. Nuestra incapacidad para entender la función exponencial.
#3 Si, como en "juegos de guerra"
#28 la WOPR, la de veces que vi esa peli de chaval
#67 Joshua era la IA, WOPR (War Operation Plan Response) el supercomputador.
#28 #67 Joshua era la IA, WOPR (War Operation Plan Response) el supercomputador.
Joshua tenia en el WOPR los distintos juegos que utilizó el profesor Falken (su diseñador) para enseñar a la IA como y que decisiones tomar, malas decisiones, porque todavía no había aprendido lo que hoy en día la mayoría de la población mundial sigue sin entender.
#93 Que la única manera de ganar en ese juego era no jugar a ello. :->¿ Una partidita de ajedrez, Profesor Falken?
#99 A mi entender es algo mas complicado que el jugar o no jugar a ese juego en concreto, utilizaron ese juego porque era el mas rápido de empezar y terminar, que tambien hubieran podido usar el ajedrez, o incluso GO, al fin y al cabo son matemáticas en forma de juego.
No es una cuestión de ganar como dicen en la película, es una cuestión de no perder, que en el caso de una guerra termonuclear como la que barajaban en la película hay perdidas en ambos lados aunque haya un empate.
#3 en realidad va de un programa que aprende solo, que es muy diferente.

La comparacion con las matematicas del titular es una frase suelta que han aprovechado para el titular, pero si proyectas, ¿que ocurriria si le das al bichito ese las reglas basicas del algebra y le dejas jugar con ellas? Lo mismo en un mes te presenta unos teoremas nuevos o te inventa una nueva geometria...

Lo interesante es que puede darle vueltas a una cosa 24x7 durante el tiempo que haga falta hasta que escupa algo que nos sea util, por prueba y error.

Y mientras no lo enchufeis a los misiles, no hay nada de lo que preocuparse, por cierto.
#53 También se puede ver de otra forma, tu ponle videojuegos a unos niños, no van a querer aprender nada más. xD
#53 Las reglas de inferencia matemática no son "reglas", son estrategias derivadas de la intuición. A veces funciona un método de demostración para un cierto caso y, con una pequeñísima variación en el problema, volverse irresoluble con las mismas técnicas.
#3 Mientras no juege a "Juegos de Guerra" :wall:
Cabe anotar que esa IA puede crear su propio conocimiento porque puede simular completamente el juego GO en su mundo interior (igual sería con ajedrez) . Luego puede fallar cuantas veces quiera que consecuencias negativas no va a haber y aprenderá de esos fallos. En cambio, todo se vuelve un enorme problema para la IA cuando no pueda simular perfectamente el terreno donde se va a desempeñar dejando muchos factores por fuera.

Por ejemplo: Un vehículo autónomo que vaya por una carretera no…   » ver todo el comentario
#7 O la mujer de rojo, la mujer de rojo.....
#7 Aun no han implementado caos en las simulaciones de IA, y eso es porque simular el caos es muy costoso computacionalmente, casi tanto o mas que ejecutar una IA.
podemos hablar que simular el caos en una simulacion de entrenamiento de IA podria ser simplemente dios jugando a los dados (o sea, variar los datos de entrada segun un rand()), pero lo que sucede es que un entorno totalmente caotico presupone que capas intermedias de la IA se comportan de forma caotica e inesperada, y que la IA es…   » ver todo el comentario
#7 y si el vehículo aprende de sus errores en el mundo real? Y si aprende simultáneamente lo de cien vehículos automatizados circulando? Y si son un millón? Y si son mil millones?
#61 ¿Y la pasta para sugragar los montones de vehículos que quedarán vueltos chatarra mientras la IA aprende?
#97 Cada usuario pagará el suyo. El sistema de conducción autónomo no será caro y lo querrá todo el mundo aunque Google lo venda con un par de cláusulas: 1) No lo vende como "autónomo" sino como "apoyo" con lo que si lo usas sin supervisión no se declaran responsables. Y 2) Aceptas que el vehículo intercambie datos anónimos de tu conducción y la del propio sistema.
Con la experiencia de mil millones de vehículos y sus conductores, la cantidad de accidentes serán mínimos y de escasa gravedad. De hecho hoy por hoy ya es más seguro ir en un coche autónomo de Google que en un taxi y aún no existe bigdata de los trayectos de conducción.
#7 Eso lo soluciona teniendo mas de un vehículo con el que ir experimentando.. la IA no estaría restringida en ese vehículo sino que tiene la capacidad de estar en muchísimos sitios a la vez..
Para mi la IA va camino de ser nuestra evolución como especie interestelar..
#91 Pues habrá que tener harta pasta para pagar por todos los vehículos que quedarán vueltos chatarra antes que aprenda la IA
Tampoco le veo tanto mérito, Dios lo creó todo en 7 días :troll:
#13 en 6 días y el séptimo descanso
#58 en el convenio decía que hasta que no trabajase 7 días seguidos no habría derecho a descanso :foreveralone:
-- edit --
Yo a veces pienso que el resto de la humanidad sobra. Mientras sólo lo piense... :-D
Traducción de la noticia: el departamento de Marketing y la prensa sensacionalista, nos intentan convencer de que un algoritmo que juega al Go y se ha "entrenado a sí mismo" partiendo del azar a base de fuerza bruta va a ser capaz de resolver problemas generales y diufsos en los que no es aplicable un truco de este tipo.
#18 din din din din!
Coño el detecto borregos ha saltado!
Que eres, ¿de los que al inventor del avión lo habéis llamado sensacionalista por decir que podemos volar como los pájaros no?
Jajajajajajajja #edadmediathinkingstyle
#19 Los fundamentos del diseño de alas estan basados en el vuelo de los pajaros.

Por otra parte ... tiene razon. Es impresionante lo q han logrado pero el articulo parece q ha nacido skynet ... y no es asi la cosa.
#19 Los 7 grandes errores errores de quienes predicen el futuro de la IA

www.technologyreview.es/s/9655/los-siete-grandes-errores-de-quienes-pr
#35 pse... La opinión (muy politizada) de un tío, profesor y todo lo que tú quieras, que básicamente solo dice que la cosa va más despacio de lo que dicen en la tele. ¿Y que? Desde luego no es un visionario en absoluto. Seguro que es de los que decía que el móvil no era para el gran público, y que con 64K sobraría memoria para el usuario. Otro tipo que realmente y desde dentro, no acaba de entender de lo que va el juego, en mi opinión.
#64 "Desde luego no es un visionario en absoluto."

Te has retratao.
#64 Steve Jobs, ese sí que era visionario...pena que creyera en la homeopatía para lo suyo.
#19 uuuuuuuuuuuh, la IA ya está aquí. Hace 30 años leí en el Muy Interesante que para el 2000 ya habría robots haciendo labores caseras. Me imagino que pensaban en la Roomba, o en culo ese vibratil de pornhub...pero de internet o de los smartphones no decían nada.
#18 Buena traduccion. Yo añadiria que la unica diferencia con el anterior alphago es que prescinden del "pretraining" (hacer que el modelo aprenda inicialmente viendo partidas entre humanos) y lo entrenan directamente desde cero (jugando contra si mismo o contra otros alphago una y otra vez). Ademas, que haya ganado al anterior alphago 100 a 0 no significa que vaya a ganar al campeon del mundo, puede que el algoritmo haya aprendido como ganar al anterior alphago unicamente pero falle contra otros oponentes (lo que se conoce como "overfitting")
#18 Ahí la clavaste. No hace mucho saltó una noticia de que Facebook "tuvo que apagar" dos computadoras que estaban "conversando entre ellas en un nuevo idioma". De un experimento fallido se intentaron sacar una campaña de RP amarillista.
#18 Comentario patrocinado por skynet. :troll:
Skynet puta.
#20 y su procesador lo disfruta
De aquí X años, un colectivo luchará por los derechos de los ordenadores, ¿qué os jugáis?
#21 Por qué no? Igual de aquí a X años un ordenador es indistinguible de un humano.
#23 Lo será físicamente, pero eso ya se consigue hoy. Pero dentro seguirá siendo una máquina dependiente de un software.
#25 ¿Y eso quién lo dice? Igual las máquinas son cada vez más "biológicas", desarrollan algún tipo de consciencia y, a la vez, los humanos vayamos siendo cada vez más mecánicos. O igual no. Yo estoy deseando ponerme piernas biónicas y un implante para mejorar la memoria.
#26 Entonces seras una persona con una protesis informatica, que bien puede ser un añadido en la pierna, o una carcasa de cuerpo entero para tu cerebro. Pero seguirás siendo una persona.

El problema de la conciencia, vida, muerte es que son términos que hay problemas para definir, pero algo que se tiene que fabricar difícilmente puede considerarse vida.
#27 Si una máquina comienza a replicarse a sí misma a partir de materias primas, sería eso vida?
Si la respuesta es no, en qué se diferencia eso de una máquina biológica como son las plantas o los animales, que se replican a sí mismos a base de usar materias primas (nutrientes).
Cuando realicen funciones vitales como ser creados, crecer, y reproducirse, serán entonces vida?
Llegaremos a definir "vida" como algo que debe basarse en química de carbono?
Y si las máquinas empiezan a usar…   » ver todo el comentario
#40 Entonces si hago una impresora 3d que recoja residuos de plástico de un basurero y monte otra impresora 3d, dirías que está "viva"?
#80 #40 Me parece que ese planteamiento es justamente para llevar al límite las definiciones que consideramos sólidas. A todo esto, aprovecho para lanzar mi campaña sobre la discriminación que hacemos sobre los virus al no incluirlos entre los seres vivos.

Al final nuestra definición de vida está hecha medida sobre lo que consideramos vida. Y aún así dentro de eso seguramente habremos pasado por etapas en dónde quizás no estaba claro si una planta estaba "viva" y no le hables de "dolor" a un vegano porque te dirá que la definición de dolor pasa por "tener sistema nervioso central".
#26 Los 7 grandes errores errores de quienes predicen el futuro de la IA

www.technologyreview.es/s/9655/los-siete-grandes-errores-de-quienes-pr
#36 Hombre... 10-20 años... yo no hablo de ahora, hablo del corto plazo (próximos 500-5000 años). No obstante, creo que ese artículo que pasas está equivocado en lo del "exponencialismo".
#25 Igual que una persona es una máquina biológica dependiente de una "programación". Que el cerebro haya evolucionado a lo largo de millones de años es irrelevante.
#57 Si tienes que entrecomillar la palabra "programación" es que esa "programación" no es tal.
#23 ¿Los ordenadores van a volverse gilipollas?
#21 La American Society for the Prevention of Cruelty to Robots (ASPCR) existe en realidad y de hecho llevan desde 1999 tratando de defender la idea de que "los robots también son gente (o al menos lo serán algún día)". Su objetivo, según explican en su web, es la de "garantizar los derechos de todos los seres conscientes creados artificialmente (y a los que nos referiremos coloquialmente a partir de ahora como robots)".
Ahora que aprenda a decir “un kilómetro” y no “uno kilometro”..
Y para cuando un Matrix y que sirvamos de suministro eléctrico para la IA :-)
#29 En Matrix originalmente los humanos se usaban para proceso de cálculo pero creyeron que sería más fácil de entender que fueran como baterías, pero eso no tiene sentido físico.
La gráfica de aprendizaje parece seguir la fórmula a * x / (b ÷ x), donde "a" es una constante positiva, quizá relacionada con la potencia de cálculo o el número de entrenamientos. Es curioso.
Cuando aprenda lo suficiente, autovotará un referendum para independizarse de los humanos que le roban.
Os voy a hacer una pequeña encuesta. Las palabras de la entradilla y la entrevista las ha dicho:
a) Uno de los ingenieros de Google DeepMind, que son los autores de AlphaGo
b) El CTO de una compañía dedicada a la AI
c) Un doctor especializado en IA
d) Un estudiante de doctorado haciendo su tesis sobre IA
e) Un estudiante de grado de 21 años que no tiene nada que ve con el proyecto.

Qué me decís?
#44 e) Un estudiante sin licenciar, que no sabe nada del asunto. :palm:

"I like to learn things; I read WIkipedia when I have free time. My goal is simply to leave a better world than I entered."

Que ha dicho la primera tontería que se le ha pasado por la cabeza ya sería demasiado prejuicio, pero bastante más certero.
#76 coooorrecto! Y ahora viene mi crítica. En la última semana han llegado 3 noticias sobre alphago a meneame: una hablando de la singularidad (10 meneos no portada), una con información objetiva y link a los papers (5 meneos votada dupe por la anterior) y esta que es la entrevista a un chaval que pasaba por ahí por el pasillo de la facultad... y es esta la que llega a portada.
#79 La Singularidad es una patraña sacacuartos. Y la mitad de las noticias sobre el tema caen como mínimo en la categoría Disney, cuando no son directamente clickbait.

A portada ha llegado una noticia que merece la pena, por raro que parezca de technologyreview.es, una traducción de "The Seven Deadly Sins of Predicting the Future of AI" de Rodney Brooks.

www.technologyreview.es/s/9655/los-siete-grandes-errores-de-quienes-pr

El resto, la morralla habitual que suele aparecer en Xataka y singularityhub.com :-/
#82 Sé que la singularidad es una patraña. Lo que no entiendo es por qué esta consigue tantos meneos cuando es sensacionalista y basada en una entrevista a un pardal, y en cambio la que sí era objetiva la votaron dupe. Misterios del menéame.
pufff de aqui a una semana está la IA esta montandose un 'process', y diciendo google nes roba
#45 Cuando apago una bombilla sigo viendo una luz... Ahora entiendo mejor el mecanismo.
Vale, pero cuando escriba sus propias matemáticas, que sean correctas y completas.*

*Ni de coña es lo mismo una IA que examina estados y los evalúa, que crear unas matemática.
Me encanta este tipo de noticias.
Mientras tanto, en Indra, padefos trabajando 60 horas semanales para nada.
Demos inteligencias a las maquinas, ¡que puede salir mal....! :troll:
#55 pues espérate a que lean meneame...
Me parece un mal titular, un tanto sensacionalista para un artículo que es muy interesante y que presenta algo tan asombroso que para empezar no requiere dicho sensacionalismo. Por otra parte, la entradilla está muy bien como presentación del meneo.

Me pregunto si ese programa podría ser vulnerable a estrategias "estúpidas" que no tengan ningún sentido pero confeccionadas de forma que se aproveche de los propios sesgos que pueda generar el algoritmo al jugar contra sí mismo. Personalmente diría que no, pero lo planteo por relacionarlo con esto:
www.evolvingai.org/fooling

El que un algoritmo esté libre de sesgos humanos, no significa que no tenga ningún sesgo.
«12

menéame