Hace 5 años | Por toniandale a fayerwayer.com
Publicado hace 5 años por toniandale a fayerwayer.com

El co-fundador de Google, Sergey Brin, en la “Carta de los Fundadores” anual publicada el viernes pasado, ha advertido que la explosión de avances en inteligencia artificial ha comenzado un “Renacimiento Tecnológico” que trae consigo muchos riesgos.

Comentarios

D

#3 ¿Sabes jugar a Go?

anv

#5 Yo no, pero se distinguir un gato de un perro y una amenaza de una ayuda.

robustiano

La realidad es que todo lo que pueden hacer es con unas condiciones de contorno determinadas, pero incluso para reconocer una imagen no llegan al 100%.

#7 Los humanos también somos falibles y tenemos limitaciones, la diferencia es que ellos pueden aprender exponencialmente, nosotros no.

frankiegth

#15. '...ellos pueden aprender exponencialmente...'

Eso no lo tengo tan claro. 2 elevado a 256 es mayor que todos los atomos del universo, y son solo 256 pasos en el mundo de lo exponencial. No hay memoria ni cpu capaz ni de contener ni de procesar eso.
(CC #15 #3 #6)

robustiano

#19 Quizá la computación cuántica sea la respuesta, un sólo qubit puede contener virtualmente infinitos valores...

m

#20 por ahora presenta muchos problemas, aunque lo importante es seguir trabajando en ello y que cada investigador crea lo que más le motive para su ambición: los optimistas ver sus sueños hechos realidad y los pesimistas probar que pueden conseguir algo contra todos los indicios.
http://francis.naukas.com/2016/11/29/el-futuro-de-la-computacion-cuantica/

m

#15 somos mucho más falibles, por eso no dudo que para conducir o procesar datos serán mucho mejores que nosotros. Pero nuestra forma de razonar y relacionar es difícil de imitar.
La misma ia no es capaz de aprender a conducir y al día siguiente aprender a jugar al ajedrez.
Ojo, que no estoy diciendo que no se pueda conseguir, sólo que ahora mismo no tenemos ni idea de cómo hacerlo.

omegapoint

#22 la IA no es más que un software.
Si hay una para conducir.
, Otra para jugar al ajedrez y otra para cocinar. Es tan sencillo como descargar ese aprendizaje y ale ¡ya se kung fu!

Al igual que un humano un día sabe conducir y al día siguiente no es capaz de ganar a kasparov. Las máquinas podrán descargar el conocimiento de un repositorio y hacerlo posible.

Lo que a nosotros nos lleva horas de teoria y práctica para llegar a un nivel de maestría (infancia, colegio, estudios ) para las maquinas es copiar unos Gb de información en unos minutos.

m

#43 la vida no son compartimentos estancos. Una vez que consigamos una inteligencia parecida a la nuestra, tendrán mucha ventaja (Neo en Matrix aprendiendo a luchar con un CD), pero llegar a ese punto es realmente difícil y todo el mundo supone que lo vamos a conseguir pronto porque hay mucha gente investigando sobre ello.
Hasta que no venga un genio que invente algo diferente de las capas del deep learning no creo que haya que temer realmente por superinteligencias.

omegapoint

#45 yo tampoco creo que haya que temer a las superinteligencias.

Simplemente me hace gracia leer a la gente que pone como impedimentos de la evolución de las máquinas y la IA los propios problemas humanos, cuando realmente las IA tienen otros problemas muy diferentes y las limitaciones humanas no son uno de ellos.

Ej. He leído aquí un usuario que decía que el coche autónomo no puede conducir con niebla porque es muy difícil, cuando puede llevar infrarrojos y ver mejor que un humano.

Veo usuarios que dicen. Una IA no puede aprender a [cosa] (cambialo por lo que quieras) en 1 día.
Pero en el momento en el que una IA aprenda, el resto de máquinas con capacidad física de [cosa] podran hacerlo.

Es como si un humano aprendiera a tocar la guitarra como Paco de Lucía y minutos después todos los humanos capaces tocar una guitarra lo hicieran como él.

Y la prueba está en que hay fotocopiadoras corriendo emuladores de NES y termostatos de caldera corriendo el primer DOOM.

m

#46 sí sí, hay una mezcla de ideas que tiene a mucha gente en confusión.
El problema de la capacidad de computación se sabe el camino que seguir y no tengo duda de que se avanzará mucho. El principal que yo veo es el de algoritmos: el deep learning tiene un alcance limitado y conseguir una inteligencia "humana" se me antoja imposible a corto plazo.

omegapoint

#51 es imposible a corto plazo y a largo plazo.

Nuestra inteligencia tiene mucha base química, no somos igual de inteligentes todos los días, ni siquiera a lo largo del día, depende de hormonas, alimentación, sales minerales, hidratación, cansancio.

Somos seres analógicos lol

Se a lo que te refieres con "inteligencia humana" pero mucho de lo que hace peculiar a nuestra mente, parte de esa química que obviamente una máquina no tendrá. Ni queremos que tenga ¿no?

No será humana, no será las IA de ahora (deep learning), como tu dices, será otra cosa que esta por venir.

m

#53 muy de acuerdo contigo. Yo solo vengo aquí a bajar los humos de quien cree que en 2050 no van a hacer falta jueces, ingenieros, etc. La mente humana es mucho más compleja que un par de programas de ordenador.

omegapoint

#54 si y no.

No se si en 2050 van a hacer falta jueces o ingenieros, 30 años no son nada y son una eternidad.

Es necesario muy poco para dar un salto cualitativo y cuantitativo.

Hace 30 años le decías a mi padre que tendría en la palma de su mano acceso a casi todo el conocimiento humano (y vídeos de gatitos) en todo momento en cualquier lugar y se habría reído en tu cara.

Con eso no quiero decir que la singularidad (entendida como una inteligencia artificial completa) se de mañana o dentro de 50 o 200 años.

Pero lo que tengo claro es que las redes neuronales han venido para quedarse y tienen capacidades asombrosas, hasta tal punto que si bien necesitaremos ingenieros dentro de 30 años, a lo mejor necesitamos 1000 y no decenas de miles.

Al igual que la revolución industrial se cargo un montón de obreros.

Al igual que la informatización supuso un cambio colosal en la gestión documental, contabilidad, procesos de fabricación, etc. Llevandose por delante un montón de empleos poco especializados.

El deep learning y las redes neuronales se van a llevar por delante muchos procesos y empleos que tienen cierto grado de complejidad.

Quizás no para los procesos deductivos, creativos y de mayor complejidad, pero si muchos, muchos otros. Y antes de 2050.

m

#56 lo del 2050 me refiero con los conocimientos actuales. Si llega el siguiente von Neumann mañana pues le aplaudiré como no puede ser de otra forma.
Si me puedes dar información sobre cómo se aplican redes neuronales a problemas complejos, como los de los ingenieros, te lo agradecería.
Intento ver las posibilidades dentro de mi campo (estructuras) y, si bien para casos fáciles como edificación en España seguramente se podrán usar, para casos complejos en los que hay que tener un conocimiento profundo de mecánica, me parece complicado.
Igualmente, el trabajo de un delineante, por mecánico que parezca, no creo que sea fácil de sustituir.
Según mi punto de vista, donde los datos de entrada y de salida sean bastante determinados es donde ahora mismo se puede avanzar más.

omegapoint

#60 depende del ingeniero, que la ingeniería es muy amplia.

Pero se me ocurre (sin saber demasiado del tema)

Caminos: una máquina con IA es capaz de establecer el recorrido más corto, más seguro, con menos esfuerzo mecánico a la hora de construir la carretera, con menos curvas (o menos cerradas) menor tiempos de desplazamiento, dandole un plano del terreno, población de la zona, hábitos de traslados de los habitantes diarios y estacionales y composición del suelo.

Puede coger toda esa información y construir una red de carreteras eficiente, económicamente mas barata y escalable en el futuro. Puede hacer todos los calculos y variables con una complejidad inviable para los humanos en un tiempo mucho más reducido.

Haces un modelo y puede gestionar que carreteras deben cambiar, cuando y mejorar la eficiencia de la logística de ciudades, paises, incluso el planeta entero.

¿cuantos ingenieros necesitas para diseñar una red global de carreteras eficiente?

Estructuras: que yo sepa se basa en formulas matemáticas, física... todas las construcciones actuales tienen modelos simulados por ordenador. Ya tienes los algoritmos y las reglas para saber si este material en este tipo de estructura va a aguntar cierto peso y el paso de los años.

Una IA puede darle una vuelta de tuerca, puede probar todas las varianzas geométricas de una estructura para aguantar un peso, factores climáticos, rangos de tempareturas, y materiales dados para un caso concreto. Aprender de la prueba-error y llegar a conclusiones más eficientes que las nuestras.

Ficción: quizas una estructura de bloques de hormigón no solidos, sino una microestructura que los haga más ligeros pero igual de resistentes, impresos por ella misma en 3D utilizando menos material y abaratando costes.

En el fondo, son máquinas de pensar, tu les das las reglas del juego, les alimentas con la información necesaria y ellas se encargan de devolver el resultado más eficiente, con el añadido de la capacidad de aprender, cuánto más tiempo pasa y más claras tienen las reglas, mejores resultados ofrecen.

m

#7 Como explican en este texto la consciencia no tiene nada que ver con el peligro que supone la IA. No es necesaria una IA consciente para que acabe con la especie humana.

https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html

m

#39 me encanta waitbutwhy. Leí hace mucho tiempo ese artículo y espero con impaciencia cada vez que saca uno nuevo.
Tim reconoce, aunque de forma muy optimista, que no tenemos ni idea de cómo vamos a conseguir un ordenador inteligente:

Second Key to Creating AGI: Making It Smart

This is the icky part. The truth is, no one really knows how to make it smart—we’re still debating how to make a computer human-level intelligent and capable of knowing what a dog and a weird-written B and a mediocre movie is.

anv

#6 traducción no.

Da40

#6 Otro, el Lenguage conversacional por ejemplo. Hablar con robots o similar relacionado con la Soledad de los Mayores o el Sexo o El juego.

Amazon Echo - Aleza, Google Home, Apple Home. No es que nos cueste dinero como la exploración a la Luna, es que es un filón de ingresos y rentabilidades.

AsVHEn

#3 La foto que ponen es con unas google glass, igual el que la puso quiere decir lo mismo que tú sutilmente .

P

#3 Por fin, gracias. Estoy cansado de leer que la IA va a reemplazar a los humanos y que el mundo poco más va a ser una secuela de Terminator. Mi opinión es que una IA nunca desarrollará inteligencia de verdad, a menos que se haga algún híbrido con organismos vivos. Y si la desarrollase no sería de aquí a 500 años por lo menos. Y en cuanto a los trabajos, eliminarán algunos que puedan hacerse mecánicamente como conducir y procesar datos, pero poco más.

Lo cual no significa que vaya a haber trabajo para todos después de esto, pero es que ya no lo hay ahora.

pawer13

#21 Mi opinión es que una IA nunca desarrollará inteligencia de verdad, a menos que se haga algún híbrido con organismos vivos ¿Basas en algo tu opinión? No veo un motivo para esta limitación. ¿Que hay un gran hype al respecto? Cierto, pero llegará
La inteligencia en los animales es algo que necesitó millones de años de evolución, la inteligencia en máquinas se está desarrollando mucho más rápido, pero eso puede significar décadas. Lo único que necesitamos, realmente, es comprender mejor nuestro propio cerebro y eso es algo que, precisamente, estamos haciendo gracias a la tecnología que se realimentará con ese conocimiento.

P

#37 El motivo que le veo es que una IA siempre tendrá de base los parámetros que se le impusieron en su programación y siempre crecerá en base a ellos, por eso lo veo limitado en ese aspecto. Incluso aunque pudiera alterar esos parámetros siempre lo hará en base a unas reglas, e incluso si puede aprender nuevas reglas lo hará en base a su programación. Nuestro cerebro tiene miles de millones de variables y no creo que alguna vez se puedan cuantificar todas. Veo mucho más lógico que se generen cerebros artificiales combinados con tecnología, pero una IA real, puramente electrónica, lo veo bastante complicado.

Pero sólo es mi humilde opinión

D

#3 estoy de acuerdo contigo. La teoría de IA como tal apenas ha cambiado desde los 70. La única diferencia es que hoy hay más potencia de computación y más capacidad de almacenamiento de datos. Ahora está empezando a dar sus frutos lo que nos enseñaban en la carrera hace décadas y que tenía mucha menos aplicación práctica que hoy.

Aunque también es cierto que todavía no ha tocado techo. Con la computación cuántica es posible que todavía haya margen para encontrar nuevas aplicaciones.

Mientras tanto, los que están metidos en este tema seguirán alimentando el hype para que siga entrando dinerito.

D

#3 enemigos un poco menos idiotas? Pero si los bichos del primer Castlevania eran licenciados en comparación con los malos de los videojuegos de hoy.

EauDeMeLancomes

#3 la diferencia con la exploración espacial es que esta es brutalmente costosa de desarrollar y la IA no. (Aún así hemos aterrizado ya hasta en un cometa) La IA va a desarrollarse en los próximos 20 años mucho más de lo que la informática y la microelectrónica lo han hecho en los últimos 20.

Warrenbuffett

#3 Si, yo creo que pasará algún tiempo más en que nos planteemos problemas con la IA, recuerdo una serie muy vieja Buck Rogers en el siglo XXV donde un robot Twiki transportaba un collar con una inteligencia artificial llamada Theos "una especie de ordenador portatil" el cual fue creado por ordenadores inteligentes, -osea la IA creando IA- y forma parte de un consejo de inteligencia artificial que ayuda a solventar los problemas de los humanos que ellos mismos no ven como lo del cambio climático.

f

#3 La IA está muy avanzada. Otra cosa es que no sea la IA que esperaban los usuarios partiendo de base de novelas o películas de ciencia ficción. Pero claro, si nos fiamos de lo que esperan los usuarios, los hackers no están avanzados, están en pañales, no son capaces de juankear la CIA en 5 minutos mientras les hacen una mamada y un tío les apunta con un arma.

YovoteaKodos

#3 Hay una diferencia importante. La exploración espacial es cara y peligrosa. Muy cara y muy peligrosa, y se necesitan muchos recursos.
Una IA basada en redes neuronales se puede hacer en un garaje codificando los algoritmos pertinentes en un ordenador de sobremesa...

freeCode

#3 correcto. Además, lo que se suele llamar IA es en realidad estadística aplicada al análisis de grandes cantidades de datos para optimizar distintos algoritmos predictivos. Que da resultados muy impresionantes, pero seguramente está lejos de una "conciencia artificial", que es lo que se imagina casi todo el mundo.

RoterHahn

#2 tinfoil

m

#4 Por desgracia, no es en absoluto una locura.

El libro que recomienda #2 explica los diferentes escenarios. Pero si quieres un resumen que explica de forma más concreta el riesgo vital al que nos enfrentamos las próximas décadas te recomiendo este texto que ya ha salido en Menéame:

https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html

Analiza de forma muy didáctica por qué la singularidad (que una máquina supere en un tipo de inteligencia a un humano) es peligrosa y por qué no tiene nada que ver con la consciencia de las máquinas o con su maldad.

Hivenfour_1

#2 1x02 de la serie de Philip K Dick lol

u

#2 de eso hay una película.

Terminator creo que se llama

D

#2 y Superintelligence de Nick Brostom 🙌

Gilbebo

#48 No lo he leído (aunque lo he tenido en el punto de mira). Tegmark le cita y es una de las principales figuras que acudió a una reunión de investigadores y pensadores que montaron en Puerto Rico hace 3 años (junto a Elon Musk, Tom Dietterich, Andrew McAfee...)

D

#49 a ver, va muy del palo de asustar pero me resultó interesantísimo leer sobre los posibles escenarios que se pueden plantear y cómo la IA y los humanos podríamos gestionarnos en ellos.
Un pequeño spoiler: casi todo se reduce a lo que ocurre en la peli exmachina porque... somos así.

D

#9 "The movie Back to the Future came out in 1985, and “the past” took place in 1955. In the movie, when Michael J. Fox went back to 1955, he was caught off-guard by the newness of TVs, the prices of soda, the lack of love for shrill electric guitar, and the variation in slang. It was a different world, yes—but if the movie were made today and the past took place in 1985, the movie could have had much more fun with much bigger differences. The character would be in a time before personal computers, internet, or cell phones—today’s Marty McFly, a teenager born in the late 90s, would be much more out of place in 1985 than the movie’s Marty McFly was in 1955."

Pues no estoy yo tan seguro de eso. Teléfonos móviles, ordenadores e internet: grandes avances, sí. Pero no son tan significativos en la vida diaria. 1985: los aviones son los mismos, los coches son los mismos, y todos a la misma velocidad. Los bares, la música, el cine, la TV, son lo mismo. Las relaciones de amistad o de pareja y el sexo son iguales. La ropa sport es igual, los trajes y vestidos, también. La necesidad de trabajar la misma, la explotación laboral es la misma y el paro también. El sistema judicial es el mismo y las cárceles también. El sistema sanitario y el sistema educativo, lo mismo. Los hipermercados son los mismos y los productos que venden y su publicidad, lo mismo. Tu casa, tu cocina, tu baño, nada ha cambiado. La vida es exactamente igual: con un ordenador en el bolsillo, sí, pero igual. Es tan exactamente igual que para los cincuentones como yo el futuro ha sido realmente decepcionante. Cuando mi abuela nació el avión y la TV estaban sin inventar, eran casi analfabetos, se follaba poco y mal (casado y sin luz) y un coche era una rareza que arremolinaba a los chiquillos para verlo. Cuando murió en los 80 el hombre había ido a la Luna hacía tiempo, se follaba a tontas y a locas hasta en el coche, y astronautas iban y venían con cierta regularidad del espacio. O sea, como hoy.

cdya

Trabajos trabajos y trabajos, le estamos poniendo puente de plata a la IA, cada vez se estandarizan más las estructuras de trabajo, las tomas de decisión seguramente lo que más identifica al ser humano, se analiza sobre estadísticas, variables numéricas y formulas con las que pocos pueden ni entender. Los sentimientos se emplean para manipularnos, con toda facilidad desde los medios de comunicación, redes sociales, y tiendas online. El arte son simplemente unas variables sobre lo aprendido en la historia de la humanidad. Bajemos del pódium, hay nuevo depredador en la escala, con el que no vamos a poder competir.

chemari

#11 que una máquina haga mi trabajo es cojonudo, lo preocupante es que el dueño de esa máquina no sea yo, y por tanto el sueldo sea de otro. Por eso me parece tan importante plantar cara a Amazon y otros gigantes.

cdya

#28 Fantastico lo suscribo y a los de Aliespres y a los que quieras y como lo haces? Porque por ahora fiscalmente se lo pasan todo por el forro, el deficit de Correos trabajando con esta gente debe ser alucinante, cada vez que me traen algo de estos sitios la cara del transportista es un poema, de estar hasta los huevos, los trabajadores cuando se quejan los echan, asi que ya me diras como se les planta cara?

chemari

#32 a corto plazo dando apoyo a las huelgas de sus trabajadores, o incluso haciendo boicot. Y a largo plazo supongo que votando a partidos que tengan alguna intención de modificar las leyes que permiten la evasión de impuestos.

cdya

#58 Estoy convencido de que sabes perfectamente que ni una cosa ni la otra van a suceder. Solo nos dejan ir contra la manada, en esas cosas si nos dejan opinar, pero poco más.

katinka_aäå

#28 Vaya, vaya, tenemos a alguien preguntándose sobre la propiedad de los medios productivos.

chemari

#35 quizá va siendo hora de desempolvar esos libros de comunistas...

osmarco

Muchos riesgos si, lo importante es controlar esos riesgos.

D

#1 Oooh!

D

#1 es irónico,no?

os_c

¿Renacimiento tecnológico?
¿A qué me recuerda a mi eso....?


j

#12 Justo estaba poniendo el enlace jaja

D

Filósofos millonarios izando la bandera del transhumanismo.

x

Al final, las IA servirán para hacer más y mejor porno, como todos los avances tecnológicos. No he visto avance tecnológico que afecte a la burocracia, como ejemplo de bastión humano.

Ahora (más) en serio, la risión de todo esto va a ser la seguridad de los sensores - IoT - y los datos con los que trabaja la IA que, al fin y al cabo, es lo que controla/afecta a su comportamiento.

j

Vaya pajotes se hacen algunos con la ia...

Lo primero de todo es que habrá ias especializadas para cada función y estarán diseñadas por empresas. Eso significa más trabajo para informáticos y jefes vendemotos que no tienen ni puta idea. Y en China además para las masajistas de los programadores.

No es lo mismo una ia para reconocer caras que para regular el tráfico. Los equipos serán diferentes en potencia y más trabajo para informáticos, esta vez de sistemas.

También hará falta frikis telecos para las redes. Y muchos programadores de videojuegos, dibujantes de manga y actrices porno para su ocio.

Dile tú a m. rajoy que le vas a quitar su plaza de registrador para poner una máquina o a un militar franquista que una máquina le va a controlar sus cojones.

Si mantenemos a registradores y notarios, cuyo trabajo es inútil, fácilmente sustituible por un sw y perjudica a la rentabilidad por sus altos costes, ¿cómo vamos a implantar una ia para cosas importantes?

slow_biker

creo que un sistema basado en AI nos puede gestionar mucho mejor que nosotros mismos en los ámbitos de la política, justicia, economía, administración y gestión de grandes estructuras sociales en general,

hacen falta sistemas que sean capaces de administrar de forma eficiente y sostenible algo que a las personas desde hace tiempo se nos ha ido de las manos por falta de capacidad y visión colectiva,

el modelo imperante de gestores humanos es un fracaso,

basta ver las desigualdades tan brutales que existen a todos los niveles y prácticamente en todos los países: guerras, hambrunas, pobreza, desigualdad, sobre explotación de recursos todo en beneficio de unos pocos que para más inri viven infelices en sus burbujas de despilfarro absurdo,

tenemos grandes limitaciones por no decir incapacidad manifiesta de construir un modelo social sostenible por lo que necesitamos apuntar a soluciones creativas de la mano de los recursos digitales.

robustiano

#14 No hay que demonizar a los "gestores humanos", con que no roben ya sería un buen comienzo... Por otra parte, dejar que las máquinas decidan por nosotros no me parece una buena idea; podrían llegar a la conclusión, por ejemplo, de que somos un cáncer para el planeta -lo que no deja de ser cierto- y decidir erradicarnos o algo.

slow_biker

#17 si, pero roban... y mucho, ese es el problema que no se puede separar gestión humana de conductas egoístas,

erradicarnos, para que? si somos una parte mas de un sistema biológico, con capacidades aumentadas se puede diseñar nuestro espacio sostenible, es cuestión de 'buena gestión'