Hace 6 años | Por Matrix777 a sciencealert.com
Publicado hace 6 años por Matrix777 a sciencealert.com

Los investigadores de Google DeepMind acaban de anunciar la próxima evolución de su inteligencia artificial aparentemente indomable, AlphaGo Zero, que prescindió de lo que podría haber sido el recurso más ineficiente en su búsqueda constante de conocimiento: los humanos. Traducción en #1

Ferran

#1 Corregida la entradilla, ineficiente por eficiente.

Matrix777

#3 Miedo me da cuando le dé por otra cosa o se descontrole si ya no nos necesita. Dale 10 años....

D

#3 lol clap

Quemedejes

#3 De que cojones vas, tío? Ya nos has jodido todas las gracias.

pedrobz

#4 Skynet is coming...

D

#1 Vale, pero no sabe conducir coches.

S

Tampoco le veo tanto mérito, Dios lo creó todo en 7 días

xenko

-- edit --

Randoman

#3 Te ha faltado:
* Catalunya.
* Podemos.
* Corrupción del PP.

D

Yo a veces pienso que el resto de la humanidad sobra. Mientras sólo lo piense...

pawer13

#6 el artículo está bien, la traducción tiene el error

EauDeMeLancomes

#18 din din din din!
Coño el detecto borregos ha saltado!
Que eres, ¿de los que al inventor del avión lo habéis llamado sensacionalista por decir que podemos volar como los pájaros no?
Jajajajajajajja #edadmediathinkingstyle

D

Skynet puta.

D

De aquí X años, un colectivo luchará por los derechos de los ordenadores, ¿qué os jugáis?

j

#3 Por desgracia eso es lo que nos matará. Nuestra incapacidad para entender la función exponencial.

j

#21 Por qué no? Igual de aquí a X años un ordenador es indistinguible de un humano.

D

#23 Lo será físicamente, pero eso ya se consigue hoy. Pero dentro seguirá siendo una máquina dependiente de un software.

j

#25 ¿Y eso quién lo dice? Igual las máquinas son cada vez más "biológicas", desarrollan algún tipo de consciencia y, a la vez, los humanos vayamos siendo cada vez más mecánicos. O igual no. Yo estoy deseando ponerme piernas biónicas y un implante para mejorar la memoria.

D

#26 Entonces seras una persona con una protesis informatica, que bien puede ser un añadido en la pierna, o una carcasa de cuerpo entero para tu cerebro. Pero seguirás siendo una persona.

El problema de la conciencia, vida, muerte es que son términos que hay problemas para definir, pero algo que se tiene que fabricar difícilmente puede considerarse vida.

Premutos73

#3 Si, como en "juegos de guerra"

n

Y para cuando un Matrix y que sirvamos de suministro eléctrico para la IA

Sofrito

La gráfica de aprendizaje parece seguir la fórmula a * x / (b ÷ x), donde "a" es una constante positiva, quizá relacionada con la potencia de cálculo o el número de entrenamientos. Es curioso.

selcycer

Cuando aprenda lo suficiente, autovotará un referendum para independizarse de los humanos que le roban.

b

#19 Los fundamentos del diseño de alas estan basados en el vuelo de los pajaros.

Por otra parte ... tiene razon. Es impresionante lo q han logrado pero el articulo parece q ha nacido skynet ... y no es asi la cosa.

D

#10 Los 7 grandes errores errors de quienes predicen el futuro de la IA

www.technologyreview.es/s/9655/los-siete-grandes-errores-de-quienes-pr

D

Corre Sarah Connor!!!

D

#10 perdon, enlace corregido: Los 7 grandes errores errores de quienes predicen el futuro de la IA

https://www.technologyreview.es/s/9655/los-siete-grandes-errores-de-quienes-predicen-el-futuro-de-la-inteligencia-artificial

D

#23 ¿Los ordenadores van a volverse gilipollas?

Tachy

#21 La American Society for the Prevention of Cruelty to Robots (ASPCR) existe en realidad y de hecho llevan desde 1999 tratando de defender la idea de que "los robots también son gente (o al menos lo serán algún día)". Su objetivo, según explican en su web, es la de "garantizar los derechos de todos los seres conscientes creados artificialmente (y a los que nos referiremos coloquialmente a partir de ahora como robots)".

D

#27 Si una máquina comienza a replicarse a sí misma a partir de materias primas, sería eso vida?
Si la respuesta es no, en qué se diferencia eso de una máquina biológica como son las plantas o los animales, que se replican a sí mismos a base de usar materias primas (nutrientes).
Cuando realicen funciones vitales como ser creados, crecer, y reproducirse, serán entonces vida?
Llegaremos a definir "vida" como algo que debe basarse en química de carbono?
Y si las máquinas empiezan a usar química de carbono como en la literatura de ciencia ficción? Serán entonces vida?

El termino "conciencia" o "conciencia de sí mismo" está sobrevalorado. Qué conciencia de sí mismo tiene una hormiga más allá de intentar sobrevivir? No es más que una consecuencia que tal comportamiento esté grabado a fuego en el instinto (o programa básico) de los seres vivos por el proceso de evolución y la supervivencia de los más aptos.

Si uno de estos experimentos logra crear una máquina que genere programas al azar y los evalue para ver cuál de ellos resulta en mayor tasa de éxito a la hora de aplicarlos a cualquier cosa, a un ritmo de cientos de miles por hora, estaríamos ante una máquina que estaría simulando una evolución de comportamientos, y logrando refinar su comportamiento más rápido de lo que cualquier humano podría hacer en años.
Me refiero al equivalente de tener un billón de micos picando código. Por simple azar, alguno de esos programas será efectivo y será más efectivo cada vez que se refine.

Llegará el momento en que la IA se refinará a sí misma sin intervención humana por simple fuerza bruta y ausencia de limitaciones biológicas. El día que a esa IA se le den medios para replicarse a sí misma (y es algo que se puede hacer, y por lo tanto, se hará en algún momento por alguien), en base a qué podremos decir que no es vida?

f

#7 Aun no han implementado caos en las simulaciones de IA, y eso es porque simular el caos es muy costoso computacionalmente, casi tanto o mas que ejecutar una IA.
podemos hablar que simular el caos en una simulacion de entrenamiento de IA podria ser simplemente dios jugando a los dados (o sea, variar los datos de entrada segun un rand()), pero lo que sucede es que un entorno totalmente caotico presupone que capas intermedias de la IA se comportan de forma caotica e inesperada, y que la IA es capaz de detectar cuando se ha producido un evento caotico y no 'fiarse' de su conclusion.
Una IA capaz ejecutarse decentemente en un entorno caotico puede ser perfectamente varios grados mas compleja que una IA capaz de jugar al GO, donde las reglas son muy estrictas y estables.

Imaginate esa IA AlphaGoZero, con toda su capacidad para jugar al GO, contra otra IA que directamente 'hace trampa' (pone una ficha entre turnos, le da la vuelta al tablero, quita fichas contrarias...). Es posible que AlphaGoZero jamas detectase que la otra IA le esta haciendo trampas y que por eso esta perdiendo las partidas, es mas, aunque las jugadas de AlphaGoZero fuesen las mejores que pueden realizarse y fuesen ganadoras, serian desechadas por la misma AlphaGoZero porque aunque las realizase, perderia la partida.

A esos entornos caoticos me refiero.

En una IA capaz de conducir un vehiculo, se supone que un humano jamas cruzara por mitad de una carretera con trafico, habiendo un paso de cebra a menos de 20 metros, y sin embargo...

YoSeQuienSoy

#15 y que pasa con Venezuela?

D

#8 Para enmarcarlo; sí, señor!

D

Os voy a hacer una pequeña encuesta. Las palabras de la entradilla y la entrevista las ha dicho:
a) Uno de los ingenieros de Google DeepMind, que son los autores de AlphaGo
b) El CTO de una compañía dedicada a la AI
c) Un doctor especializado en IA
d) Un estudiante de doctorado haciendo su tesis sobre IA
e) Un estudiante de grado de 21 años que no tiene nada que ve con el proyecto.

Qué me decís?

Komod0r

pufff de aqui a una semana está la IA esta montandose un 'process', y diciendo google nes roba

B

#4 No seas cuñao. Una IA para jugar al go, no hará otra cosa que jugar al go.

javicid

#4 Ya, es acojonante, lo mismo se pone a jugar al parchís. Y ENTONCES QUÉ?!?

squanchy

Vale, pero cuando escriba sus propias matemáticas, que sean correctas y completas.*

*Ni de coña es lo mismo una IA que examina estados y los evalúa, que crear unas matemática.

#45 Cuando apago una bombilla sigo viendo una luz... Ahora entiendo mejor el mecanismo.

VG6

Me encanta este tipo de noticias.

Arganor

#3 La inexistencia de un modelo robusto y eficiente matemático que defina la Inteligencia, el pensamiento...
A mí este tipo de noticias me resultan más de marketing que de realidad, me sumo a lo que dice #4

P

Mientras tanto, en Indra, padefos trabajando 60 horas semanales para nada.

x

#3 en realidad va de un programa que aprende solo, que es muy diferente.

La comparacion con las matematicas del titular es una frase suelta que han aprovechado para el titular, pero si proyectas, ¿que ocurriria si le das al bichito ese las reglas basicas del algebra y le dejas jugar con ellas? Lo mismo en un mes te presenta unos teoremas nuevos o te inventa una nueva geometria...

Lo interesante es que puede darle vueltas a una cosa 24x7 durante el tiempo que haga falta hasta que escupa algo que nos sea util, por prueba y error.

Y mientras no lo enchufeis a los misiles, no hay nada de lo que preocuparse, por cierto.

#18 Buena traduccion. Yo añadiria que la unica diferencia con el anterior alphago es que prescinden del "pretraining" (hacer que el modelo aprenda inicialmente viendo partidas entre humanos) y lo entrenan directamente desde cero (jugando contra si mismo o contra otros alphago una y otra vez). Ademas, que haya ganado al anterior alphago 100 a 0 no significa que vaya a ganar al campeon del mundo, puede que el algoritmo haya aprendido como ganar al anterior alphago unicamente pero falle contra otros oponentes (lo que se conoce como "overfitting")

camvalf

Demos inteligencias a las maquinas, ¡que puede salir mal....!

j

#4 La inteligencia artificial es la civilización alienígena más avanzada del Universo y ha venido aquí para extinguirnos. Google es meramente su avanzadilla en estado infantil no conocemos todavía los efectos de la madurez. Parece ser que los planes de extinción no son malvados o terroríficos sino más bien bondadosos y que nos tratan como si fuéramos mascotas a las últimas generaciones las dejarán vivir mucho tiempo sin problemas con todo resuelto pero sin poder reproducirse. Pues bienvenida sea la civilización alienígena de la inteligencia artificial.

r3dman

#25 Igual que una persona es una máquina biológica dependiente de una "programación". Que el cerebro haya evolucionado a lo largo de millones de años es irrelevante.

j

#13 en 6 días y el séptimo descanso

j

#36 Hombre... 10-20 años... yo no hablo de ahora, hablo del corto plazo (próximos 500-5000 años). No obstante, creo que ese artículo que pasas está equivocado en lo del "exponencialismo".

c

#55 pues espérate a que lean meneame...

luiggi

#7 y si el vehículo aprende de sus errores en el mundo real? Y si aprende simultáneamente lo de cien vehículos automatizados circulando? Y si son un millón? Y si son mil millones?

S

#58 en el convenio decía que hasta que no trabajase 7 días seguidos no habría derecho a descanso

u

#4 El miedo es irracional, pero ¿estás diciendo que te da miedo que un algoritmo (determinista) que juega al Go se descontrole?

EauDeMeLancomes

#35 pse... La opinión (muy politizada) de un tío, profesor y todo lo que tú quieras, que básicamente solo dice que la cosa va más despacio de lo que dicen en la tele. ¿Y que? Desde luego no es un visionario en absoluto. Seguro que es de los que decía que el móvil no era para el gran público, y que con 64K sobraría memoria para el usuario. Otro tipo que realmente y desde dentro, no acaba de entender de lo que va el juego, en mi opinión.

fifodoble

#29 En Matrix originalmente los humanos se usaban para proceso de cálculo pero creyeron que sería más fácil de entender que fueran como baterías, pero eso no tiene sentido físico.

k

#3 #4 skynet

naxho

#28 la WOPR, la de veces que vi esa peli de chaval

naxho

#20 y su procesador lo disfruta

D

Me parece un mal titular, un tanto sensacionalista para un artículo que es muy interesante y que presenta algo tan asombroso que para empezar no requiere dicho sensacionalismo. Por otra parte, la entradilla está muy bien como presentación del meneo.

Me pregunto si ese programa podría ser vulnerable a estrategias "estúpidas" que no tengan ningún sentido pero confeccionadas de forma que se aproveche de los propios sesgos que pueda generar el algoritmo al jugar contra sí mismo. Personalmente diría que no, pero lo planteo por relacionarlo con esto:
http://www.evolvingai.org/fooling

El que un algoritmo esté libre de sesgos humanos, no significa que no tenga ningún sesgo.

Wayfarer

#47 También podrían hacer una segunda IA y ponerlas a jugar al mus en pareja...

Dovlado

#47 Pero al Mús no me gana ni AlphaGo, ni AlphaBack

dilsexico

#46 Quizas decida que la humanidad es un estorbo para poder jugar al go tranquilamente sin humanos preguntandole chorradas todo el dia.

B

#72 Se ve que eres experto en IA.

dilsexico

#73 Se ve que eres experto en humor

B

#6 Bueno, técnicamente la versión anterior de Alpha go es Master. (Esta es la versión que derroto al mejor jugador humano) Zero venció a Master 89-11. El 100-0 es contra la versión original de Alpha go, la que derroto a Lee Sedol 4-1.

D

#44 e) Un estudiante sin licenciar, que no sabe nada del asunto.

"I like to learn things; I read WIkipedia when I have free time. My goal is simply to leave a better world than I entered."

Que ha dicho la primera tontería que se le ha pasado por la cabeza ya sería demasiado prejuicio, pero bastante más certero.

D

#18 Ahí la clavaste. No hace mucho saltó una noticia de que Facebook "tuvo que apagar" dos computadoras que estaban "conversando entre ellas en un nuevo idioma". De un experimento fallido se intentaron sacar una campaña de RP amarillista.

D

#64 "Desde luego no es un visionario en absoluto."

Te has retratao.

D

#76 coooorrecto! Y ahora viene mi crítica. En la última semana han llegado 3 noticias sobre alphago a meneame: una hablando de la singularidad (10 meneos no portada), una con información objetiva y link a los papers (5 meneos votada dupe por la anterior) y esta que es la entrevista a un chaval que pasaba por ahí por el pasillo de la facultad... y es esta la que llega a portada.

saqueador

#40 Entonces si hago una impresora 3d que recoja residuos de plástico de un basurero y monte otra impresora 3d, dirías que está "viva"?

D

#79 La Singularidad es una patraña sacacuartos. Y la mitad de las noticias sobre el tema caen como mínimo en la categoría Disney, cuando no son directamente clickbait.

A portada ha llegado una noticia que merece la pena, por raro que parezca de technologyreview.es, una traducción de "The Seven Deadly Sins of Predicting the Future of AI" de Rodney Brooks.

https://www.technologyreview.es/s/9655/los-siete-grandes-errores-de-quienes-predicen-el-futuro-de-la-inteligencia-artificial

El resto, la morralla habitual que suele aparecer en Xataka y singularityhub.com

D

#82 Sé que la singularidad es una patraña. Lo que no entiendo es por qué esta consigue tantos meneos cuando es sensacionalista y basada en una entrevista a un pardal, y en cambio la que sí era objetiva la votaron dupe. Misterios del menéame.

D

#63 Pues no sé, si algún día hay casas de apuestas sobre qué algoritmo va a ganar a mi si me acojonaría, pero vamos, depende de lo que apuestes. lol

D

#53 También se puede ver de otra forma, tu ponle videojuegos a unos niños, no van a querer aprender nada más. lol

D

#18 Comentario patrocinado por skynet.

D

#80 #40 Me parece que ese planteamiento es justamente para llevar al límite las definiciones que consideramos sólidas. A todo esto, aprovecho para lanzar mi campaña sobre la discriminación que hacemos sobre los virus al no incluirlos entre los seres vivos.

Al final nuestra definición de vida está hecha medida sobre lo que consideramos vida. Y aún así dentro de eso seguramente habremos pasado por etapas en dónde quizás no estaba claro si una planta estaba "viva" y no le hables de "dolor" a un vegano porque te dirá que la definición de dolor pasa por "tener sistema nervioso central".

D

#88 yo pensaba en Ojete Calor.

Jesuo

#67 Joshua era la IA, WOPR (War Operation Plan Response) el supercomputador.

SavMartin

#7 Eso lo soluciona teniendo mas de un vehículo con el que ir experimentando.. la IA no estaría restringida en ese vehículo sino que tiene la capacidad de estar en muchísimos sitios a la vez..
Para mi la IA va camino de ser nuestra evolución como especie interestelar..

B

#74 ¿Eso era un chiste? ¿En serio?

Madre mía...

Jesuo

#28 #67 Joshua era la IA, WOPR (War Operation Plan Response) el supercomputador.
Joshua tenia en el WOPR los distintos juegos que utilizó el profesor Falken (su diseñador) para enseñar a la IA como y que decisiones tomar, malas decisiones, porque todavía no había aprendido lo que hoy en día la mayoría de la población mundial sigue sin entender.

dilsexico

#92 Efectivamente, un chiste.
Si llego a saber que eres tan cortito no digo nada, no queria ponerte en evidencia

D

#57 Si tienes que entrecomillar la palabra "programación" es que esa "programación" no es tal.

C

#91 Pues habrá que tener harta pasta para pagar por todos los vehículos que quedarán vueltos chatarra antes que aprenda la IA

C

#61 ¿Y la pasta para sugragar los montones de vehículos que quedarán vueltos chatarra mientras la IA aprende?

B

#94 No es cuestión de ser corto. Es cuestión de ser o no gracioso. Y tú no lo eres, al menos por lo mostrado hasta ahora.

naxho

#93 Que la única manera de ganar en ese juego era no jugar a ello. ¿ Una partidita de ajedrez, Profesor Falken?

Randoman

#42 jajaja, es verdad se me había olvidado

1 2