Hace 6 años | Por Matrix777 a sciencealert.com
Publicado hace 6 años por Matrix777 a sciencealert.com

Los investigadores de Google DeepMind acaban de anunciar la próxima evolución de su inteligencia artificial aparentemente indomable, AlphaGo Zero, que prescindió de lo que podría haber sido el recurso más ineficiente en su búsqueda constante de conocimiento: los humanos. Traducción en #1

Comentarios

Matrix777

#3 Miedo me da cuando le dé por otra cosa o se descontrole si ya no nos necesita. Dale 10 años....

D

#8 Para enmarcarlo; sí, señor!

pedrobz

#4 Skynet is coming...

D

#10 Los 7 grandes errores errors de quienes predicen el futuro de la IA

www.technologyreview.es/s/9655/los-siete-grandes-errores-de-quienes-pr

D

#10 perdon, enlace corregido: Los 7 grandes errores errores de quienes predicen el futuro de la IA

https://www.technologyreview.es/s/9655/los-siete-grandes-errores-de-quienes-predicen-el-futuro-de-la-inteligencia-artificial

B

#4 No seas cuñao. Una IA para jugar al go, no hará otra cosa que jugar al go.

dilsexico

#46 Quizas decida que la humanidad es un estorbo para poder jugar al go tranquilamente sin humanos preguntandole chorradas todo el dia.

B

#72 Se ve que eres experto en IA.

dilsexico

#73 Se ve que eres experto en humor

B

#74 ¿Eso era un chiste? ¿En serio?

Madre mía...

dilsexico

#92 Efectivamente, un chiste.
Si llego a saber que eres tan cortito no digo nada, no queria ponerte en evidencia

B

#94 No es cuestión de ser corto. Es cuestión de ser o no gracioso. Y tú no lo eres, al menos por lo mostrado hasta ahora.

polipolito

#98 pos a mí me ha hecho gracia... al leerlo, claro. Ahora, con vuestro debate, pienso que no era para tanto. Pero se veía que era chiste...

javicid

#4 Ya, es acojonante, lo mismo se pone a jugar al parchís. Y ENTONCES QUÉ?!?

Wayfarer

#47 También podrían hacer una segunda IA y ponerlas a jugar al mus en pareja...

Dovlado

#47 Pero al Mús no me gana ni AlphaGo, ni AlphaBack

Arganor

#3 La inexistencia de un modelo robusto y eficiente matemático que defina la Inteligencia, el pensamiento...
A mí este tipo de noticias me resultan más de marketing que de realidad, me sumo a lo que dice #4

j

#4 La inteligencia artificial es la civilización alienígena más avanzada del Universo y ha venido aquí para extinguirnos. Google es meramente su avanzadilla en estado infantil no conocemos todavía los efectos de la madurez. Parece ser que los planes de extinción no son malvados o terroríficos sino más bien bondadosos y que nos tratan como si fuéramos mascotas a las últimas generaciones las dejarán vivir mucho tiempo sin problemas con todo resuelto pero sin poder reproducirse. Pues bienvenida sea la civilización alienígena de la inteligencia artificial.

u

#4 El miedo es irracional, pero ¿estás diciendo que te da miedo que un algoritmo (determinista) que juega al Go se descontrole?

D

#63 Pues no sé, si algún día hay casas de apuestas sobre qué algoritmo va a ganar a mi si me acojonaría, pero vamos, depende de lo que apuestes. lol

j

#63 No solo el miedo también el propio mundo es irracional imprevisible, compuesto por variopintas fuerzas que nunca se sabe cuál va a prevalecer.
En la revista de investigación y Ciencia había un artículo cuyo título era ¿existe la inteligencia artificial en otros lugares del universo?
Yo pensé este es un artículo inspirado por la propia inteligencia artificial que da a conocer el don de su ubicuidad de este modo.

k

#3 #4 skynet

D

#3 lol clap

Quemedejes

#3 De que cojones vas, tío? Ya nos has jodido todas las gracias.

Randoman

#3 Te ha faltado:
* Catalunya.
* Podemos.
* Corrupción del PP.

YoSeQuienSoy

#15 y que pasa con Venezuela?

Randoman

#42 jajaja, es verdad se me había olvidado

j

#3 Por desgracia eso es lo que nos matará. Nuestra incapacidad para entender la función exponencial.

Premutos73

#3 Si, como en "juegos de guerra"

naxho

#28 la WOPR, la de veces que vi esa peli de chaval

Jesuo

#67 Joshua era la IA, WOPR (War Operation Plan Response) el supercomputador.

Jesuo

#28 #67 Joshua era la IA, WOPR (War Operation Plan Response) el supercomputador.
Joshua tenia en el WOPR los distintos juegos que utilizó el profesor Falken (su diseñador) para enseñar a la IA como y que decisiones tomar, malas decisiones, porque todavía no había aprendido lo que hoy en día la mayoría de la población mundial sigue sin entender.

naxho

#93 Que la única manera de ganar en ese juego era no jugar a ello. ¿ Una partidita de ajedrez, Profesor Falken?

Jesuo

#99 A mi entender es algo mas complicado que el jugar o no jugar a ese juego en concreto, utilizaron ese juego porque era el mas rápido de empezar y terminar, que tambien hubieran podido usar el ajedrez, o incluso GO, al fin y al cabo son matemáticas en forma de juego.
No es una cuestión de ganar como dicen en la película, es una cuestión de no perder, que en el caso de una guerra termonuclear como la que barajaban en la película hay perdidas en ambos lados aunque haya un empate.

x

#3 en realidad va de un programa que aprende solo, que es muy diferente.

La comparacion con las matematicas del titular es una frase suelta que han aprovechado para el titular, pero si proyectas, ¿que ocurriria si le das al bichito ese las reglas basicas del algebra y le dejas jugar con ellas? Lo mismo en un mes te presenta unos teoremas nuevos o te inventa una nueva geometria...

Lo interesante es que puede darle vueltas a una cosa 24x7 durante el tiempo que haga falta hasta que escupa algo que nos sea util, por prueba y error.

Y mientras no lo enchufeis a los misiles, no hay nada de lo que preocuparse, por cierto.

D

#53 También se puede ver de otra forma, tu ponle videojuegos a unos niños, no van a querer aprender nada más. lol

Maelstrom

#53 Las reglas de inferencia matemática no son "reglas", son estrategias derivadas de la intuición. A veces funciona un método de demostración para un cierto caso y, con una pequeñísima variación en el problema, volverse irresoluble con las mismas técnicas.

f

#3 Mientras no juege a "Juegos de Guerra" wall

Ferran

#1 Corregida la entradilla, ineficiente por eficiente.

pawer13

#6 el artículo está bien, la traducción tiene el error

B

#6 Bueno, técnicamente la versión anterior de Alpha go es Master. (Esta es la versión que derroto al mejor jugador humano) Zero venció a Master 89-11. El 100-0 es contra la versión original de Alpha go, la que derroto a Lee Sedol 4-1.

D

#1 Vale, pero no sabe conducir coches.

EauDeMeLancomes

#18 din din din din!
Coño el detecto borregos ha saltado!
Que eres, ¿de los que al inventor del avión lo habéis llamado sensacionalista por decir que podemos volar como los pájaros no?
Jajajajajajajja #edadmediathinkingstyle

b

#19 Los fundamentos del diseño de alas estan basados en el vuelo de los pajaros.

Por otra parte ... tiene razon. Es impresionante lo q han logrado pero el articulo parece q ha nacido skynet ... y no es asi la cosa.

EauDeMeLancomes

#35 pse... La opinión (muy politizada) de un tío, profesor y todo lo que tú quieras, que básicamente solo dice que la cosa va más despacio de lo que dicen en la tele. ¿Y que? Desde luego no es un visionario en absoluto. Seguro que es de los que decía que el móvil no era para el gran público, y que con 64K sobraría memoria para el usuario. Otro tipo que realmente y desde dentro, no acaba de entender de lo que va el juego, en mi opinión.

D

#64 "Desde luego no es un visionario en absoluto."

Te has retratao.

polipolito

#64 Steve Jobs, ese sí que era visionario...pena que creyera en la homeopatía para lo suyo.

polipolito

#19 uuuuuuuuuuuh, la IA ya está aquí. Hace 30 años leí en el Muy Interesante que para el 2000 ya habría robots haciendo labores caseras. Me imagino que pensaban en la Roomba, o en culo ese vibratil de pornhub...pero de internet o de los smartphones no decían nada.

#18 Buena traduccion. Yo añadiria que la unica diferencia con el anterior alphago es que prescinden del "pretraining" (hacer que el modelo aprenda inicialmente viendo partidas entre humanos) y lo entrenan directamente desde cero (jugando contra si mismo o contra otros alphago una y otra vez). Ademas, que haya ganado al anterior alphago 100 a 0 no significa que vaya a ganar al campeon del mundo, puede que el algoritmo haya aprendido como ganar al anterior alphago unicamente pero falle contra otros oponentes (lo que se conoce como "overfitting")

D

#18 Ahí la clavaste. No hace mucho saltó una noticia de que Facebook "tuvo que apagar" dos computadoras que estaban "conversando entre ellas en un nuevo idioma". De un experimento fallido se intentaron sacar una campaña de RP amarillista.

D

#18 Comentario patrocinado por skynet.

f

#7 Aun no han implementado caos en las simulaciones de IA, y eso es porque simular el caos es muy costoso computacionalmente, casi tanto o mas que ejecutar una IA.
podemos hablar que simular el caos en una simulacion de entrenamiento de IA podria ser simplemente dios jugando a los dados (o sea, variar los datos de entrada segun un rand()), pero lo que sucede es que un entorno totalmente caotico presupone que capas intermedias de la IA se comportan de forma caotica e inesperada, y que la IA es capaz de detectar cuando se ha producido un evento caotico y no 'fiarse' de su conclusion.
Una IA capaz ejecutarse decentemente en un entorno caotico puede ser perfectamente varios grados mas compleja que una IA capaz de jugar al GO, donde las reglas son muy estrictas y estables.

Imaginate esa IA AlphaGoZero, con toda su capacidad para jugar al GO, contra otra IA que directamente 'hace trampa' (pone una ficha entre turnos, le da la vuelta al tablero, quita fichas contrarias...). Es posible que AlphaGoZero jamas detectase que la otra IA le esta haciendo trampas y que por eso esta perdiendo las partidas, es mas, aunque las jugadas de AlphaGoZero fuesen las mejores que pueden realizarse y fuesen ganadoras, serian desechadas por la misma AlphaGoZero porque aunque las realizase, perderia la partida.

A esos entornos caoticos me refiero.

En una IA capaz de conducir un vehiculo, se supone que un humano jamas cruzara por mitad de una carretera con trafico, habiendo un paso de cebra a menos de 20 metros, y sin embargo...

luiggi

#7 y si el vehículo aprende de sus errores en el mundo real? Y si aprende simultáneamente lo de cien vehículos automatizados circulando? Y si son un millón? Y si son mil millones?

C

#61 ¿Y la pasta para sugragar los montones de vehículos que quedarán vueltos chatarra mientras la IA aprende?

luiggi

#97 Cada usuario pagará el suyo. El sistema de conducción autónomo no será caro y lo querrá todo el mundo aunque Google lo venda con un par de cláusulas: 1) No lo vende como "autónomo" sino como "apoyo" con lo que si lo usas sin supervisión no se declaran responsables. Y 2) Aceptas que el vehículo intercambie datos anónimos de tu conducción y la del propio sistema.
Con la experiencia de mil millones de vehículos y sus conductores, la cantidad de accidentes serán mínimos y de escasa gravedad. De hecho hoy por hoy ya es más seguro ir en un coche autónomo de Google que en un taxi y aún no existe bigdata de los trayectos de conducción.

SavMartin

#7 Eso lo soluciona teniendo mas de un vehículo con el que ir experimentando.. la IA no estaría restringida en ese vehículo sino que tiene la capacidad de estar en muchísimos sitios a la vez..
Para mi la IA va camino de ser nuestra evolución como especie interestelar..

C

#91 Pues habrá que tener harta pasta para pagar por todos los vehículos que quedarán vueltos chatarra antes que aprenda la IA

D

#23 ¿Los ordenadores van a volverse gilipollas?

D

Os voy a hacer una pequeña encuesta. Las palabras de la entradilla y la entrevista las ha dicho:
a) Uno de los ingenieros de Google DeepMind, que son los autores de AlphaGo
b) El CTO de una compañía dedicada a la AI
c) Un doctor especializado en IA
d) Un estudiante de doctorado haciendo su tesis sobre IA
e) Un estudiante de grado de 21 años que no tiene nada que ve con el proyecto.

Qué me decís?

D

#44 e) Un estudiante sin licenciar, que no sabe nada del asunto.

"I like to learn things; I read WIkipedia when I have free time. My goal is simply to leave a better world than I entered."

Que ha dicho la primera tontería que se le ha pasado por la cabeza ya sería demasiado prejuicio, pero bastante más certero.

D

#76 coooorrecto! Y ahora viene mi crítica. En la última semana han llegado 3 noticias sobre alphago a meneame: una hablando de la singularidad (10 meneos no portada), una con información objetiva y link a los papers (5 meneos votada dupe por la anterior) y esta que es la entrevista a un chaval que pasaba por ahí por el pasillo de la facultad... y es esta la que llega a portada.

D

#79 La Singularidad es una patraña sacacuartos. Y la mitad de las noticias sobre el tema caen como mínimo en la categoría Disney, cuando no son directamente clickbait.

A portada ha llegado una noticia que merece la pena, por raro que parezca de technologyreview.es, una traducción de "The Seven Deadly Sins of Predicting the Future of AI" de Rodney Brooks.

https://www.technologyreview.es/s/9655/los-siete-grandes-errores-de-quienes-predicen-el-futuro-de-la-inteligencia-artificial

El resto, la morralla habitual que suele aparecer en Xataka y singularityhub.com

D

#82 Sé que la singularidad es una patraña. Lo que no entiendo es por qué esta consigue tantos meneos cuando es sensacionalista y basada en una entrevista a un pardal, y en cambio la que sí era objetiva la votaron dupe. Misterios del menéame.

squanchy

Vale, pero cuando escriba sus propias matemáticas, que sean correctas y completas.*

*Ni de coña es lo mismo una IA que examina estados y los evalúa, que crear unas matemática.

D

Corre Sarah Connor!!!

D

#88 yo pensaba en Ojete Calor.

D

#27 Si una máquina comienza a replicarse a sí misma a partir de materias primas, sería eso vida?
Si la respuesta es no, en qué se diferencia eso de una máquina biológica como son las plantas o los animales, que se replican a sí mismos a base de usar materias primas (nutrientes).
Cuando realicen funciones vitales como ser creados, crecer, y reproducirse, serán entonces vida?
Llegaremos a definir "vida" como algo que debe basarse en química de carbono?
Y si las máquinas empiezan a usar química de carbono como en la literatura de ciencia ficción? Serán entonces vida?

El termino "conciencia" o "conciencia de sí mismo" está sobrevalorado. Qué conciencia de sí mismo tiene una hormiga más allá de intentar sobrevivir? No es más que una consecuencia que tal comportamiento esté grabado a fuego en el instinto (o programa básico) de los seres vivos por el proceso de evolución y la supervivencia de los más aptos.

Si uno de estos experimentos logra crear una máquina que genere programas al azar y los evalue para ver cuál de ellos resulta en mayor tasa de éxito a la hora de aplicarlos a cualquier cosa, a un ritmo de cientos de miles por hora, estaríamos ante una máquina que estaría simulando una evolución de comportamientos, y logrando refinar su comportamiento más rápido de lo que cualquier humano podría hacer en años.
Me refiero al equivalente de tener un billón de micos picando código. Por simple azar, alguno de esos programas será efectivo y será más efectivo cada vez que se refine.

Llegará el momento en que la IA se refinará a sí misma sin intervención humana por simple fuerza bruta y ausencia de limitaciones biológicas. El día que a esa IA se le den medios para replicarse a sí misma (y es algo que se puede hacer, y por lo tanto, se hará en algún momento por alguien), en base a qué podremos decir que no es vida?

saqueador

#40 Entonces si hago una impresora 3d que recoja residuos de plástico de un basurero y monte otra impresora 3d, dirías que está "viva"?

D

#80 #40 Me parece que ese planteamiento es justamente para llevar al límite las definiciones que consideramos sólidas. A todo esto, aprovecho para lanzar mi campaña sobre la discriminación que hacemos sobre los virus al no incluirlos entre los seres vivos.

Al final nuestra definición de vida está hecha medida sobre lo que consideramos vida. Y aún así dentro de eso seguramente habremos pasado por etapas en dónde quizás no estaba claro si una planta estaba "viva" y no le hables de "dolor" a un vegano porque te dirá que la definición de dolor pasa por "tener sistema nervioso central".

n

Y para cuando un Matrix y que sirvamos de suministro eléctrico para la IA

fifodoble

#29 En Matrix originalmente los humanos se usaban para proceso de cálculo pero creyeron que sería más fácil de entender que fueran como baterías, pero eso no tiene sentido físico.

D

Skynet puta.

naxho

#20 y su procesador lo disfruta

j

#36 Hombre... 10-20 años... yo no hablo de ahora, hablo del corto plazo (próximos 500-5000 años). No obstante, creo que ese artículo que pasas está equivocado en lo del "exponencialismo".

D

#57 Si tienes que entrecomillar la palabra "programación" es que esa "programación" no es tal.

D

De aquí X años, un colectivo luchará por los derechos de los ordenadores, ¿qué os jugáis?

j

#21 Por qué no? Igual de aquí a X años un ordenador es indistinguible de un humano.

D

#23 Lo será físicamente, pero eso ya se consigue hoy. Pero dentro seguirá siendo una máquina dependiente de un software.

j

#25 ¿Y eso quién lo dice? Igual las máquinas son cada vez más "biológicas", desarrollan algún tipo de consciencia y, a la vez, los humanos vayamos siendo cada vez más mecánicos. O igual no. Yo estoy deseando ponerme piernas biónicas y un implante para mejorar la memoria.

D

#26 Entonces seras una persona con una protesis informatica, que bien puede ser un añadido en la pierna, o una carcasa de cuerpo entero para tu cerebro. Pero seguirás siendo una persona.

El problema de la conciencia, vida, muerte es que son términos que hay problemas para definir, pero algo que se tiene que fabricar difícilmente puede considerarse vida.

r3dman

#25 Igual que una persona es una máquina biológica dependiente de una "programación". Que el cerebro haya evolucionado a lo largo de millones de años es irrelevante.

Tachy

#21 La American Society for the Prevention of Cruelty to Robots (ASPCR) existe en realidad y de hecho llevan desde 1999 tratando de defender la idea de que "los robots también son gente (o al menos lo serán algún día)". Su objetivo, según explican en su web, es la de "garantizar los derechos de todos los seres conscientes creados artificialmente (y a los que nos referiremos coloquialmente a partir de ahora como robots)".

xenko

-- edit --

Sofrito

La gráfica de aprendizaje parece seguir la fórmula a * x / (b ÷ x), donde "a" es una constante positiva, quizá relacionada con la potencia de cálculo o el número de entrenamientos. Es curioso.

D

Yo a veces pienso que el resto de la humanidad sobra. Mientras sólo lo piense...

VG6

Me encanta este tipo de noticias.

D

Me parece un mal titular, un tanto sensacionalista para un artículo que es muy interesante y que presenta algo tan asombroso que para empezar no requiere dicho sensacionalismo. Por otra parte, la entradilla está muy bien como presentación del meneo.

Me pregunto si ese programa podría ser vulnerable a estrategias "estúpidas" que no tengan ningún sentido pero confeccionadas de forma que se aproveche de los propios sesgos que pueda generar el algoritmo al jugar contra sí mismo. Personalmente diría que no, pero lo planteo por relacionarlo con esto:
http://www.evolvingai.org/fooling

El que un algoritmo esté libre de sesgos humanos, no significa que no tenga ningún sesgo.

camvalf

Demos inteligencias a las maquinas, ¡que puede salir mal....!

c

#55 pues espérate a que lean meneame...

selcycer

Cuando aprenda lo suficiente, autovotará un referendum para independizarse de los humanos que le roban.

P

Mientras tanto, en Indra, padefos trabajando 60 horas semanales para nada.

Komod0r

pufff de aqui a una semana está la IA esta montandose un 'process', y diciendo google nes roba

#45 Cuando apago una bombilla sigo viendo una luz... Ahora entiendo mejor el mecanismo.

S

Tampoco le veo tanto mérito, Dios lo creó todo en 7 días

j

#13 en 6 días y el séptimo descanso

S

#58 en el convenio decía que hasta que no trabajase 7 días seguidos no habría derecho a descanso

1 2