EDICIóN GENERAL
280 meneos
5159 clics
Uno de los fundadores de Google advierte acerca de la IA en el “Renacimiento Tecnológico

Uno de los fundadores de Google advierte acerca de la IA en el “Renacimiento Tecnológico  

El co-fundador de Google, Sergey Brin, en la “Carta de los Fundadores” anual publicada el viernes pasado, ha advertido que la explosión de avances en inteligencia artificial ha comenzado un “Renacimiento Tecnológico” que trae consigo muchos riesgos.

| etiquetas: google , sergey brin , inteligencia artificial
Comentarios destacados:              
#3 Lo de la IA me recuerda a la exploración espacial, apenas habíamos llegado a la Luna y ya se imaginaban bases lunares, explorando el Sistema Solar y forrandose los pioneros de la minería espacial..... Nada de eso ha pasado.

Somos muy malos extrapolando, exageramos demasiado... ¿El futuro de la IA? Enemigos un poco menos idiotas en los videojuegos, reconocer imágenes, conducir vehículos y poco más. Las bases teóricas de la inteligencia como tal, están en pañales, exagero, ni en pañales, a duras penas en espermatozoide.
Muchos riesgos si, lo importante es controlar esos riesgos.
#1 es irónico,no?
"Life 3.0, Being Human in the age of Artificial Intelligence" de Max Tegmark. Aunque existen múltiples e imaginativos escenarios, la Inteligencia artificial, una vez supere a la humana y se retroalimente, será difícilmente controlable.

A partir de ahí todo dependerá con qué objetivo se programó inicialmente y cómo ese objetivo es o no compatible con la vida humana o la vida en general. Llevándolo al absurdo, y usando un ejemplo del libro, si se programa una superinteligencia…   » ver todo el comentario
#4 Jajjajaj, ciertamente alguno de los escenarios extremos que se plantean, creo que a efectos de provocar al lector, son 'ciencia ficción en esteroides'.

Si bien a corto plazo se podrían descartar es difícil establecer qué puede pasar a 100 años vista (algo que verán nuestros nietos, y seguramente con bastante buena salud incluso los niños que nacen ahora). Pensemos que algo tan disruptivo como internet, por ejemplo, solo existe -para el gran público- desde hace poco más de 20 años.

El…   » ver todo el comentario
#4 Por desgracia, no es en absoluto una locura.

El libro que recomienda #2 explica los diferentes escenarios. Pero si quieres un resumen que explica de forma más concreta el riesgo vital al que nos enfrentamos las próximas décadas te recomiendo este texto que ya ha salido en Menéame:

waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html

Analiza de forma muy didáctica por qué la singularidad (que una máquina supere en un tipo de inteligencia a un humano) es peligrosa y por qué no tiene nada que ver con la consciencia de las máquinas o con su maldad.
#2 1x02 de la serie de Philip K Dick xD
#2 de eso hay una película.

Terminator creo que se llama
#2 y Superintelligence de Nick Brostom {0x1f64c}
#48 No lo he leído (aunque lo he tenido en el punto de mira). Tegmark le cita y es una de las principales figuras que acudió a una reunión de investigadores y pensadores que montaron en Puerto Rico hace 3 años (junto a Elon Musk, Tom Dietterich, Andrew McAfee...)
#49 a ver, va muy del palo de asustar :-D pero me resultó interesantísimo leer sobre los posibles escenarios que se pueden plantear y cómo la IA y los humanos podríamos gestionarnos en ellos.
Un pequeño spoiler: casi todo se reduce a lo que ocurre en la peli exmachina porque... somos así.
Lo de la IA me recuerda a la exploración espacial, apenas habíamos llegado a la Luna y ya se imaginaban bases lunares, explorando el Sistema Solar y forrandose los pioneros de la minería espacial..... Nada de eso ha pasado.

Somos muy malos extrapolando, exageramos demasiado... ¿El futuro de la IA? Enemigos un poco menos idiotas en los videojuegos, reconocer imágenes, conducir vehículos y poco más. Las bases teóricas de la inteligencia como tal, están en pañales, exagero, ni en pañales, a duras penas en espermatozoide.
#3 ¿Sabes jugar a Go?
#5 Yo no, pero se distinguir un gato de un perro y una amenaza de una ayuda.
#3 conducir camiones, tractores y barcos, asistencia telefónica, traducción, atención al cliente, documentación, gestión de proyectos y personas, además de simplificar casi todos los trabajos intelectuales actuales con su consiguiente reducción de personal. Nada, minucias. Unos exagerados.

m.youtube.com/watch?t=1s&v=7Pq-S557XQU
#6 eso es una cosa. Los ordenadores siguen siendo infinitamente mejores que nosotros al procesar datos. Con un millón de sensores y muy buenos procesadores da la impresión de que son tan inteligentes como nosotros porque "saben" conducir.
La realidad es que todo lo que pueden hacer es con unas condiciones de contorno determinadas, pero incluso para reconocer una imagen no llegan al 100%, después de haber "aprendido" todas las imágenes de algo que hay en Internet.
En la…   » ver todo el comentario
La realidad es que todo lo que pueden hacer es con unas condiciones de contorno determinadas, pero incluso para reconocer una imagen no llegan al 100%.

#7 Los humanos también somos falibles y tenemos limitaciones, la diferencia es que ellos pueden aprender exponencialmente, nosotros no.
#15. '...ellos pueden aprender exponencialmente...'

Eso no lo tengo tan claro. 2 elevado a 256 es mayor que todos los atomos del universo, y son solo 256 pasos en el mundo de lo exponencial. No hay memoria ni cpu capaz ni de contener ni de procesar eso.
(CC #15 #3 #6)
#19 Quizá la computación cuántica sea la respuesta, un sólo qubit puede contener virtualmente infinitos valores...
#20 por ahora presenta muchos problemas, aunque lo importante es seguir trabajando en ello y que cada investigador crea lo que más le motive para su ambición: los optimistas ver sus sueños hechos realidad y los pesimistas probar que pueden conseguir algo contra todos los indicios.
francis.naukas.com/2016/11/29/el-futuro-de-la-computacion-cuantica/
#15 somos mucho más falibles, por eso no dudo que para conducir o procesar datos serán mucho mejores que nosotros. Pero nuestra forma de razonar y relacionar es difícil de imitar.
La misma ia no es capaz de aprender a conducir y al día siguiente aprender a jugar al ajedrez.
Ojo, que no estoy diciendo que no se pueda conseguir, sólo que ahora mismo no tenemos ni idea de cómo hacerlo.
#22 la IA no es más que un software.
Si hay una para conducir.
, Otra para jugar al ajedrez y otra para cocinar. Es tan sencillo como descargar ese aprendizaje y ale ¡ya se kung fu!

Al igual que un humano un día sabe conducir y al día siguiente no es capaz de ganar a kasparov. Las máquinas podrán descargar el conocimiento de un repositorio y hacerlo posible.

Lo que a nosotros nos lleva horas de teoria y práctica para llegar a un nivel de maestría (infancia, colegio, estudios ) para las maquinas es copiar unos Gb de información en unos minutos.
#43 la vida no son compartimentos estancos. Una vez que consigamos una inteligencia parecida a la nuestra, tendrán mucha ventaja (Neo en Matrix aprendiendo a luchar con un CD), pero llegar a ese punto es realmente difícil y todo el mundo supone que lo vamos a conseguir pronto porque hay mucha gente investigando sobre ello.
Hasta que no venga un genio que invente algo diferente de las capas del deep learning no creo que haya que temer realmente por superinteligencias.
#45 yo tampoco creo que haya que temer a las superinteligencias.

Simplemente me hace gracia leer a la gente que pone como impedimentos de la evolución de las máquinas y la IA los propios problemas humanos, cuando realmente las IA tienen otros problemas muy diferentes y las limitaciones humanas no son uno de ellos.

Ej. He leído aquí un usuario que decía que el coche autónomo no puede conducir con niebla porque es muy difícil, cuando puede llevar infrarrojos y ver mejor que un humano.

Veo…   » ver todo el comentario
#46 sí sí, hay una mezcla de ideas que tiene a mucha gente en confusión.
El problema de la capacidad de computación se sabe el camino que seguir y no tengo duda de que se avanzará mucho. El principal que yo veo es el de algoritmos: el deep learning tiene un alcance limitado y conseguir una inteligencia "humana" se me antoja imposible a corto plazo.
#51 es imposible a corto plazo y a largo plazo.

Nuestra inteligencia tiene mucha base química, no somos igual de inteligentes todos los días, ni siquiera a lo largo del día, depende de hormonas, alimentación, sales minerales, hidratación, cansancio.

Somos seres analógicos xD

Se a lo que te refieres con "inteligencia humana" pero mucho de lo que hace peculiar a nuestra mente, parte de esa química que obviamente una máquina no tendrá. Ni queremos que tenga ¿no?

No será humana, no será las IA de ahora (deep learning), como tu dices, será otra cosa que esta por venir.
#53 muy de acuerdo contigo. Yo solo vengo aquí a bajar los humos de quien cree que en 2050 no van a hacer falta jueces, ingenieros, etc. La mente humana es mucho más compleja que un par de programas de ordenador.
#54 si y no.

No se si en 2050 van a hacer falta jueces o ingenieros, 30 años no son nada y son una eternidad.

Es necesario muy poco para dar un salto cualitativo y cuantitativo.

Hace 30 años le decías a mi padre que tendría en la palma de su mano acceso a casi todo el conocimiento humano (y vídeos de gatitos) en todo momento en cualquier lugar y se habría reído en tu cara.

Con eso no quiero decir que la singularidad (entendida como una inteligencia artificial completa) se de mañana o…   » ver todo el comentario
#56 lo del 2050 me refiero con los conocimientos actuales. Si llega el siguiente von Neumann mañana pues le aplaudiré como no puede ser de otra forma.
Si me puedes dar información sobre cómo se aplican redes neuronales a problemas complejos, como los de los ingenieros, te lo agradecería.
Intento ver las posibilidades dentro de mi campo (estructuras) y, si bien para casos fáciles como edificación en España seguramente se podrán usar, para casos complejos en los que hay que tener un…   » ver todo el comentario
#60 depende del ingeniero, que la ingeniería es muy amplia.

Pero se me ocurre (sin saber demasiado del tema)

Caminos: una máquina con IA es capaz de establecer el recorrido más corto, más seguro, con menos esfuerzo mecánico a la hora de construir la carretera, con menos curvas (o menos cerradas) menor tiempos de desplazamiento, dandole un plano del terreno, población de la zona, hábitos de traslados de los habitantes diarios y estacionales y composición del suelo.

Puede coger toda esa…   » ver todo el comentario
#7 Como explican en este texto la consciencia no tiene nada que ver con el peligro que supone la IA. No es necesaria una IA consciente para que acabe con la especie humana.

waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html
#39 me encanta waitbutwhy. Leí hace mucho tiempo ese artículo y espero con impaciencia cada vez que saca uno nuevo.
Tim reconoce, aunque de forma muy optimista, que no tenemos ni idea de cómo vamos a conseguir un ordenador inteligente:

Second Key to Creating AGI: Making It Smart

This is the icky part. The truth is, no one really knows how to make it smart—we’re still debating how to make a computer human-level intelligent and capable of knowing what a dog and a weird-written B and a mediocre movie is.
#6 traducción no.
#6 Otro, el Lenguage conversacional por ejemplo. Hablar con robots o similar relacionado con la Soledad de los Mayores o el Sexo o El juego.

Amazon Echo - Aleza, Google Home, Apple Home. No es que nos cueste dinero como la exploración a la Luna, es que es un filón de ingresos y rentabilidades.
#3 La foto que ponen es con unas google glass, igual el que la puso quiere decir lo mismo que tú sutilmente :-D.
#3 Por fin, gracias. Estoy cansado de leer que la IA va a reemplazar a los humanos y que el mundo poco más va a ser una secuela de Terminator. Mi opinión es que una IA nunca desarrollará inteligencia de verdad, a menos que se haga algún híbrido con organismos vivos. Y si la desarrollase no sería de aquí a 500 años por lo menos. Y en cuanto a los trabajos, eliminarán algunos que puedan hacerse mecánicamente como conducir y procesar datos, pero poco más.

Lo cual no significa que vaya a haber trabajo para todos después de esto, pero es que ya no lo hay ahora.
#21 Mi opinión es que una IA nunca desarrollará inteligencia de verdad, a menos que se haga algún híbrido con organismos vivos ¿Basas en algo tu opinión? No veo un motivo para esta limitación. ¿Que hay un gran hype al respecto? Cierto, pero llegará
La inteligencia en los animales es algo que necesitó millones de años de evolución, la inteligencia en máquinas se está desarrollando mucho más rápido, pero eso puede significar décadas. Lo único que necesitamos, realmente, es comprender mejor nuestro propio cerebro y eso es algo que, precisamente, estamos haciendo gracias a la tecnología que se realimentará con ese conocimiento.
#37 El motivo que le veo es que una IA siempre tendrá de base los parámetros que se le impusieron en su programación y siempre crecerá en base a ellos, por eso lo veo limitado en ese aspecto. Incluso aunque pudiera alterar esos parámetros siempre lo hará en base a unas reglas, e incluso si puede aprender nuevas reglas lo hará en base a su programación. Nuestro cerebro tiene miles de millones de variables y no creo que alguna vez se puedan cuantificar todas. Veo mucho más lógico que se generen cerebros artificiales combinados con tecnología, pero una IA real, puramente electrónica, lo veo bastante complicado.

Pero sólo es mi humilde opinión :-)
#3 estoy de acuerdo contigo. La teoría de IA como tal apenas ha cambiado desde los 70. La única diferencia es que hoy hay más potencia de computación y más capacidad de almacenamiento de datos. Ahora está empezando a dar sus frutos lo que nos enseñaban en la carrera hace décadas y que tenía mucha menos aplicación práctica que hoy.

Aunque también es cierto que todavía no ha tocado techo. Con la computación cuántica es posible que todavía haya margen para encontrar nuevas aplicaciones.

Mientras tanto, los que están metidos en este tema seguirán alimentando el hype para que siga entrando dinerito.
#3 enemigos un poco menos idiotas? Pero si los bichos del primer Castlevania eran licenciados en comparación con los malos de los videojuegos de hoy.
#3 la diferencia con la exploración espacial es que esta es brutalmente costosa de desarrollar y la IA no. (Aún así hemos aterrizado ya hasta en un cometa) La IA va a desarrollarse en los próximos 20 años mucho más de lo que la informática y la microelectrónica lo han hecho en los últimos 20.
#3 Si, yo creo que pasará algún tiempo más en que nos planteemos problemas con la IA, recuerdo una serie muy vieja Buck Rogers en el siglo XXV donde un robot Twiki transportaba un collar con una inteligencia artificial llamada Theos "una especie de ordenador portatil" el cual fue creado por ordenadores inteligentes, -osea la IA creando IA- y forma parte de un consejo de inteligencia artificial que ayuda a solventar los problemas de los humanos que ellos mismos no ven como lo del cambio climático.
#3 La IA está muy avanzada. Otra cosa es que no sea la IA que esperaban los usuarios partiendo de base de novelas o películas de ciencia ficción. Pero claro, si nos fiamos de lo que esperan los usuarios, los hackers no están avanzados, están en pañales, no son capaces de juankear la CIA en 5 minutos mientras les hacen una mamada y un tío les apunta con un arma.
#3 Hay una diferencia importante. La exploración espacial es cara y peligrosa. Muy cara y muy peligrosa, y se necesitan muchos recursos.
Una IA basada en redes neuronales se puede hacer en un garaje codificando los algoritmos pertinentes en un ordenador de sobremesa...
#3 correcto. Además, lo que se suele llamar IA es en realidad estadística aplicada al análisis de grandes cantidades de datos para optimizar distintos algoritmos predictivos. Que da resultados muy impresionantes, pero seguramente está lejos de una "conciencia artificial", que es lo que se imagina casi todo el mundo.
Permitidme recomendar estos 2 textos (largos y en ingles) sobre el tema, escritos en lenguaje cercano, y que plantea buenas cuestiones al respecto.

waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html

waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
#9 "The movie Back to the Future came out in 1985, and “the past” took place in 1955. In the movie, when Michael J. Fox went back to 1955, he was caught off-guard by the newness of TVs, the prices of soda, the lack of love for shrill electric guitar, and the variation in slang. It was a different world, yes—but if the movie were made today and the past took place in 1985, the movie could have had much more fun with much bigger differences. The character would be in a time before personal…   » ver todo el comentario
Trabajos trabajos y trabajos, le estamos poniendo puente de plata a la IA, cada vez se estandarizan más las estructuras de trabajo, las tomas de decisión seguramente lo que más identifica al ser humano, se analiza sobre estadísticas, variables numéricas y formulas con las que pocos pueden ni entender. Los sentimientos se emplean para manipularnos, con toda facilidad desde los medios de comunicación, redes sociales, y tiendas online. El arte son simplemente unas variables sobre lo aprendido en la historia de la humanidad. Bajemos del pódium, hay nuevo depredador en la escala, con el que no vamos a poder competir.
#11 que una máquina haga mi trabajo es cojonudo, lo preocupante es que el dueño de esa máquina no sea yo, y por tanto el sueldo sea de otro. Por eso me parece tan importante plantar cara a Amazon y otros gigantes.
#28 Fantastico lo suscribo y a los de Aliespres y a los que quieras y como lo haces? Porque por ahora fiscalmente se lo pasan todo por el forro, el deficit de Correos trabajando con esta gente debe ser alucinante, cada vez que me traen algo de estos sitios la cara del transportista es un poema, de estar hasta los huevos, los trabajadores cuando se quejan los echan, asi que ya me diras como se les planta cara?
#32 a corto plazo dando apoyo a las huelgas de sus trabajadores, o incluso haciendo boicot. Y a largo plazo supongo que votando a partidos que tengan alguna intención de modificar las leyes que permiten la evasión de impuestos.
#58 Estoy convencido de que sabes perfectamente que ni una cosa ni la otra van a suceder. Solo nos dejan ir contra la manada, en esas cosas si nos dejan opinar, pero poco más.
#28 Vaya, vaya, tenemos a alguien preguntándose sobre la propiedad de los medios productivos.
#35 quizá va siendo hora de desempolvar esos libros de comunistas...
¿Renacimiento tecnológico?
¿A qué me recuerda a mi eso....?

www.youtube.com/watch?v=L0K6Cb1ZoG4
www.youtube.com/watch?v=jNiO2sTe2wo
#12 Justo estaba poniendo el enlace jaja
creo que un sistema basado en AI nos puede gestionar mucho mejor que nosotros mismos en los ámbitos de la política, justicia, economía, administración y gestión de grandes estructuras sociales en general,

hacen falta sistemas que sean capaces de administrar de forma eficiente y sostenible algo que a las personas desde hace tiempo se nos ha ido de las manos por falta de capacidad y visión colectiva,

el modelo imperante de gestores humanos es un fracaso,

basta ver las desigualdades tan…   » ver todo el comentario
#14 No hay que demonizar a los "gestores humanos", con que no roben ya sería un buen comienzo... Por otra parte, dejar que las máquinas decidan por nosotros no me parece una buena idea; podrían llegar a la conclusión, por ejemplo, de que somos un cáncer para el planeta -lo que no deja de ser cierto- y decidir erradicarnos o algo. :-P
#17 si, pero roban... y mucho, ese es el problema que no se puede separar gestión humana de conductas egoístas,

erradicarnos, para que? si somos una parte mas de un sistema biológico, con capacidades aumentadas se puede diseñar nuestro espacio sostenible, es cuestión de 'buena gestión'
Vaya pajotes se hacen algunos con la ia...

Lo primero de todo es que habrá ias especializadas para cada función y estarán diseñadas por empresas. Eso significa más trabajo para informáticos y jefes vendemotos que no tienen ni puta idea. Y en China además para las masajistas de los programadores.

No es lo mismo una ia para reconocer caras que para regular el tráfico. Los equipos serán diferentes en potencia y más trabajo para informáticos, esta vez de sistemas.

También hará falta frikis…   » ver todo el comentario
Al final, las IA servirán para hacer más y mejor porno, como todos los avances tecnológicos. No he visto avance tecnológico que afecte a la burocracia, como ejemplo de bastión humano.

Ahora (más) en serio, la risión de todo esto va a ser la seguridad de los sensores - IoT - y los datos con los que trabaja la IA que, al fin y al cabo, es lo que controla/afecta a su comportamiento.
Filósofos millonarios izando la bandera del transhumanismo.

menéame