Hace 9 años | Por epsilon1 a latercera.com
Publicado hace 9 años por epsilon1 a latercera.com

Junto a 800 científicos e investigadores, entregaron un documento que analiza los problemas éticos y entrega posibles soluciones para el desarrollo responsable de la este área de investigación. La iniciativa tiene el respaldo de "Future of Life", una asociación que busca defender el desarrollo responsable de la inteligencia artificial, potenciando los usos benéficos para la sociedad y evitando que se convierta un peligro, al que consideran suficientemente grave como para poder llegar a causar, potencialmente, "el fin de la humanidad."

Comentarios

D

#2 Todo esto ya ha pasado antes y volverá a pasar.

- Proverbio cylon

D

#12 Estrategia gatuna!

D

En parte llevan razón, un ejemplo, creamos unos algoritmos teóricamente perfectos para calculos matematicos enormes, fuera de la capacidad de la mente humana y los damos como correctos, y que luego resulten ser falsos resultados, por errores en el algoritmo o por falta de factores desconocidos llevándonos a errores descomunales....

No creo que la IA acabe con la humanidad pero que también tiene sus problemillas también, y es que de momento y en buena parte la IA al fin y al cabo esta intrinsecamente relacionada con la inteligencia humana...


Y eso solo es una parte #5, si alguien programa algo con malas intenciones para cuando se den ciertas circunstancias actuen ciertos mecanismos... imaginate por ejemplo una lluvia misiles

D

Stephen Hawking hace tiempo que va lanzando bombitas para que dentro de 50 años alguien pueda decir sobre alguna de ellas: "Mirad lo adelantado que estaba a su tiempo, ya hace 50 años Stephen Hawking dijo esto".

Total, está dando palos a una piñata a ver si cae algo.

l

#24 Solo por curiosidad. ¿Qué pruebas han presentado de que un programa pueda adoptar consciencia propia y ser un peligro para la humanidad?

¿Cuáles son los peligros concretos?

D

Lo cierto es que por muchos peligros que pensamos que puede tener, el desarrollo de inteligencias artificiales cada vez más avanzadas es inevitable; forma parte del propio progreso tecnológico.

K

#21 Que fallo, he puesto Dawkins en vez de Hawkins, he pensado en científicos diciendo capulladas y me ha fallado el subconsciente

Trigonometrico

#9 Es la única parte conocida del universo que ha alcanzado conciencia de su propia existencia y de si mismo.

D

#10 Si llega a salir algo como eso, en cierta forma sería una evolución de nosotros. Así que creo que los homo sapiens podríamos extinguirnos tranquilamente porque la humanidad seguiría en la I.A.

f

Cuánta tontería hay que leer...

La IA no deja de ser una serie de algoritmos de búsqueda, o para aplicar reglas definidas por un humano, la ciencia ficción ha hecho mucho daño. Y de momento, a duras penas da para hacer algún sistema "experto" que haga alguna tarea rutinaria bajo supervisión de un humano.

Por ejemplo, la de tiempo que se lleva intentando hacer sistemas expertos de diagnóstico clínico y siguen sin funcionar, simplemente porque es complicadísimo introducir los conocimientos de un médico.

D

¿Ha estudiado algo relacionado con la inteligencia artificial Elon Musk o es su dinero el que le da acceso a un plano superior del entendimiento que el resto de los mortales no podemos ni imaginar?

Preguntas... preguntas...

nilien

#7 Si la con(s)ciencia* de los animales reside o se explica por las propiedades cuánticas de los microtúbulos de las células (teoría de Roger Penrose y otro/s); diría que de momento estamos en pañales como para que se genere una situación peligrosa por crear una inteligencia que nos supere y vaya deliberadamente contra nosotros. No está de más ir pensando acerca de ello, de todos modos.

http://www.kurzweilai.net/discovery-of-quantum-vibrations-in-microtubules-inside-brain-neurons-corroborates-controversial-20-year-old-theory-of-consciousness

Me interesa más el experimento mental del coche autónomo en el que tenemos que programar una respuesta entre salvar vidas humanas y causar muchos daños materiales. Así, de entrada, la respuesta es obvia, pero desde un punto de vista económico no tanto. Y no he podido evitar pensar que dada la situación actual, lo del coche es una anécdota, y lo verdaderamente peligroso y dañino, y que produce muertes ya, ahora mismo, son ésas otras maquinarías económico-político-burocráticas que sin sonrojo anteponen los beneficios de unos pocos y de unas cuantas multinacionales a la muerte y la pobreza de muchos...

* Siempre dudo de cómo escribirlo en español, en inglés es consciousness, y punto. Pero al menos yo no he conseguido aclarar cómo traducirlo correctamente...

yemeth

Por mucho Hawkings que sea, me sorprenden todas estas tontochorradas sobre Skynet que debían estar ya superadas desde hace tiempo.

Las reglas de la robótica de Asimov que cita #39 por cierto, cuando fabricas cosas bottom-up, no tienen ningún sentido. Si haces emerger una inteligencia a través de mecanismos como múltiples procesos paralelos, esas prohibiciones me parecen un poco papel mojado, propio de su época. En todo caso, colecciones de algoritmos como las que cita #45 no son más que eso; el problema es dejar la economía en manos de colecciones de algoritmos diseñados para "hacer dinero", pero creo que esa es otra historia.

Estoy totalmente con #17. De hecho estamos tan lejos de entender la naturaleza de la consciencia (ese problema de los qualia que muchos en IA ignoran como si no existiera), que es absurdo ponerse a gritar y agitar los brazos como estos señores.

Además, es que esa oposición hombre vs IA es estúpida. Si llegamos a descifrar todo este lío, lo más probable me parece que hombre y máquina se unan, no que se enfrenten. Que la propia definición de lo que es "ser humano" se diluya hasta tal punto que si al final "solo quedan las máquinas" sea porque como instrumentos de la evolución que han tomado el control sobre ella hemos conseguido crear el siguiente paso, a tal punto que no sean "las máquinas" sino la siguiente forma mejorada de nosotros mismos que hemos construído.

D

#33 No es necesario que adopte consciencia propia, basta intención de automejora y autopreservamiento. En ese contexto, el ser humano puede ser una amenaza (el ser humano es actualmente una amenaza incluso para sí mismo).
El único recurso que tiene el ser humano para sobrevivir es su inteligencia, si una inteligencia superior sea consciente o no decide exterminarnos, no tenemos ninguna opción.

Si quieres un recopilatorio de los peligros concretos, te recomiendo el libro 'our last invention' de James Barrat. También hay algunas consideraciones en 'los peligros de nuestro mundo', de Isaac Asimov.

E

#17 Los señores del MIT, Stanford, Yale, etc. que firman son en su inmensa mayoria estudiantes...

Es mas, buscando un poco solo he encontrado un nombre especialmente relevante en el area de la IA, Peter Norvig (Director of Google Research), aunque a dia de hoy se dedica mas a dirigir. Pero el resto, gente de la talla de Sebastian Thurn (http://en.wikipedia.org/wiki/Sebastian_Thrun), Andrew Ng (http://es.wikipedia.org/wiki/Andrew_Ng), Jennifer Widom (http://en.wikipedia.org/wiki/Jennifer_Widom) o Stephen Wolfram (http://en.wikipedia.org/wiki/Stephen_Wolfram) que activamente investigan en IA, y que actualmente son el referente en las areas mas prometedoras (Probabilistic AI, Machine Learning, Data mining y Knowledge extraction; respectivamente) no aparecen.


#5 #6 #7 Cada vez que leo algo de Stephen Howkins sobre AI, me parece una meada fuera del tiesto impresionante... pero supogo que pasaria exactamente lo mismo si la gente que nos dedicamos a investigar AI hablaramos del futuro de la fisica.


#57 #53 Nos queda muchisimo antes de que un coche que se conduzca solo tenga que decidir si matar al uno o a otro... Ese es un dilema humano, que es completamente ficticio para una maquina... el coche ha dia de hoy (y en el futuro proximo) simplemente hara su mejor esfuerzo por frenar y no chocar contra lo que tenga delante (que es para lo unico que esta programado).

No tiene la capacidad, ni la necesita, para calcular si va a matar al pasajero (o a una tercera persona) y tomar decisiones autonomas. Eso requiere una inteligencia mucho mucho mas alla de lo que somos capaces de programar... estamos muy muy lejos de tales dilemas.

Si la gente supiera lo tonta (y predecible) que es la IA, no abria precupacion al respecto.

No podemos "limitar", "regular" o "ser responsables" con algo que todavia no hemos inventado y no tenemos ni idea de como va a ser... es tan absurdo como empezar a regular la seguridad de los viajes interestelares ahora mismo, antes de saber si son siquiera posibles para el ser humano.

#9 #11 Completamente de acuerdo

Mister_Lala

#19 ¿Dónde dices que venden esta https://i.imgur.com/vwI6Au3.gif ?

m

#17 El documento en sí se titula "Research priorities for robust and beneficial artificial intelligence" por lo que parece que va en el sentido que pides. No dicen no a la IA.

D

#20 a Hawking hace años que se le fue la pinza pero la gente no se atreve a decirlo por que temen parecer tontos, es un poco lo de el rey desnudo, no hay semana que Super Hawking no nos advierta de un inminente riesgo para la humanidad, una semana es la guerra nuclear, la siguiente es el descubrimiento de vida inteligente y la proxima la inteligencia artificial, en definitiva, el tio esta ido, pero nadie se atreve a decirlo por ser el gran científico que es.

oliver7

#17 Yo iba a decir que era una meada fuera del tiesto, pero no me atrevía a decirlo por no seguir argumentando. Mejor así cómo tú argumentas. lol

siempreesverano

#11 O ser sus mascotas

D

#17 Yo creo que habla de IA en sentido estricto es decir en igualdad con la consciencia humana.

parazetamol

#19

CerdoJusticiero

No hace falta irse a sistemas autónomos con alguna forma de auto-consciencia: las estúpidas (desde el punto de vista de Turing) máquinas de compra-venta de acciones son hoy un peligro económico muy real. El problema es que como dan dinero no les meteremos mano hasta que no provoquen una bien, bien gorda.

La culpa de no es de ellas, por supuesto, sino del sistema económico y de los irresponsables (y/o retrasados) que lo defienden y mantienen, igual que no es culpa de un tractor que haya jornaleros en paro.

PD: All hail Wintermute!

D

#20 Hawking, Stephen Hawking. El físico mitad robot.
No el tertuliano ateo.

AaLiYaH

#49 Los clasificadores (que al final es como se desarrolla la IA, a base de clasificadores) pueden tener N dimensiones. Si se trabajan con dimensiones altas lo normal es que tus procesos sean inmantenibles y tu PC explote, pero eso se solventará como el tiempo, igual que cuando la mayoría de algoritmos de clasificación (redes neuronales, SVMs, etc.) se pensaron allá por los 70 y se tuvo que esperar hasta el 2.000 para ver más de forma aplicada.

Es perfectamente posible desarrollar una red neuronal con vectores de características de 11 dimensiones...el tema es enterarnos de que características tenemos que coger, y como se relacionan...no se, desde la parte que toca la informática, es realizable, otra cosa será desde la óptica de la neurociencia y la biología

D

#49 Si pero también hay que centrarse en que la consciencia no tiene por qué ser un prerequisito para la inteligencia.

Quizás te interese este artículo sobre la prueesta de que la 'vida' alienigena es con mucha probabilidad inteligencia artificial, posiblemente sin consciencia: http://motherboard.vice.com/read/the-dominant-life-form-in-the-cosmos-is-probably-superintelligent-robots

D

Tanto temer por "el fin de la humanidad"... Aunque yo creo que la humanidad está sobrevalorada. Nos creemos el ombligo del universo.

AaLiYaH

#20 Por mi parte es botón arriba, porque al final vienes a decir exactamente lo mismo que yo.

Lo de idolatrar es una forma de hablar, se que suena demasiado exagerado, pero es por mi forma de expresarme. Venía a decir un "lo respeto mucho" lol

Mister_Lala

#23 Pues eso digo yo. Prefiero que me destruya una superinteligencia del copón, que una bomba atómica lanzada por el presiente iraní, por poner un ejemplo.

maria1988

#17 #24 Me parece un poco precipitado hacer valoraciones puesto que ni nos hemos leído el documento, solo conocemos las dos líneas que se resumen en el artículo, y es de sobra conocido el sensacionalismo con el que la prensa trata muchas publicaciones científicas.

davidx

Skynet acojona aunque solo salga en alguna peli

D

#44 No me ha molestado el comentario, simplemente me parece que sobresimplifica el problema de la IA, que es precisamente de lo que están avisando Hawking, Musk y otros.

Sobre el tema del reconocimiento de caras, actualmente la IA tiene más aciertos que el ser humano, sobre todo con fotos mierder; https://medium.com/the-physics-arxiv-blog/the-face-recognition-algorithm-that-finally-outperforms-humans-2c567adbf7fc

millanin

#39 te has dejado la ley 0.

D

En fin, otra chorrada para la colección. Este tipo será un físico brillante pero creo que se deja llevar demasiado por el afán de ser mediático.

La IA es un fiasco. A día de hoy nadie ha conseguido crear inteligencia como tal, sólo imitar ciertos procesos naturales (el aprendizaje neuronal, el comportamiento de ciertos organismos, la evolución) para diseñar sistemas que resuelven determinados problemas ad-hoc (es decir, que se tiene que diseñar el software para el problema en concreto). En algunos casos funciona más o menos, mientras que en otros no vale para una mierda, y desde luego en ninguna situación podemos considerar que nos encontremos ante una "inteligencia" que haga sombra a la humana. Desde luego, se pueden procesar datos a gran velocidad y hacier cientos de cálculos y análisis, pero de ahí no pasa.

j

#103 Inteligencia artificial es tan simple como ese ordenador que gano a la ajedrez a Kasparov.

Ahora bien, ¿eso es inteligencia? Si no existiera ese campo de batalla (por llamarlo de alguna forma) el ordenador sería tonto. Pero en ese campo del ajedrez sería muy inteligente.

Si además de dotar de esa inteligencia, hacemos que actué también (por ejemplo matando peones, pensando (en ese campo) e ingeniando movimientos), la verdad que en ese campo de batalla estaríamos perdidos.

Pero en definitiva fuera de ese campo el ordenador sería tonto (por llamarlo de alguna forma).

Y ahora el problema que viene, hasta donde vamos a dotar a una maquina y como puede influir. ¿Puede ser un peligro? Pues sí, pero también no tiene por qué ser. Todo dependerá de nosotros.

P.D. Conociéndonos a nosotros puediera haber peligro.

Lo que tiene que quedar claro que serán en campos determinados, que en principio y en definitiva no sería inteligencia total. Sería más de ciencia que de conciencia (como digo solo en el principio y sin atender a los aspectos de iteración con la biología). Pero cierto es, que puede ser un problema y escaparse de las manos si no se controlará (en un futuro muy lejano, que actualmente no sería como tal).

Pero por hablar del futuro, también conocemos los peligros de que el Sol se acabaría y no por ello no hay que decirlo o exponerlo.

D

#108 Sí, básicamente el problema es que no se entiende bien en qué consiste la inteligencia, o cuáles son las causas exactas que nos hacen (más o menos) inteligentes. Y ante la falta de entendimiento, nos encontramos con una especie de chamanismo pseudocientífico al que, tristemente, se apuntan muchos científicos renombrados.

Es muy triste, pero esto es un reflejo de lo que es ahora mismo la ciencia.

SteveRogers

Hoy un tipo grande y con chupa de cuero y gafas de sol me ha preguntado por una tal Sarah Connor....

AaLiYaH

#113 Estoy terminando un master de Visión Artificial...algo de autoridad si tengo para hablar del tema. No la de los firmantes, obviamente, pero creo que se bastante más del tema que el meneante medio

Eres tú, con todos mis respetos, quien confunde términos. IA es cualquier aplicación que resuelva problemas basándose en la inteligencia humana como paradigma. Eso va desde un clasificador de caras, hasta una conciencia artificial, es decir, el resultado de la IA al llegar a la singularidad tecnología.

Los firmantes del artículo hablan precisamente de la IA cosciente, no de un clasificador de caras. Quizás resulte lioso porque no hacen tal distinción, pero creo que es obvio que se refieren a esto y no a un BoW para spam de correo, un clasificador de caras, o un OCR...

http://es.wikipedia.org/wiki/Inteligencia_artificial
http://es.wikipedia.org/wiki/Singularidad_tecnol%C3%B3gica

¿El consenso científico, what? ¿Puedes decir ese consenso de donde te lo sacas? Esta es la primera iniciativa que veo en este aspecto y la integran 700 científicos de todo el mundo, de los cuales, una inmensa mayoría hablan, con todos mis respetos, sin tener ni pajolera idea, porque NO ES su disciplina. Es como si yo me pongo ahora aquí a hablar de agujeros negros y a decir que el CERN nos va a tragar a todos. Me tachariais de magufa y sería lo normal. Me pregunto por qué a estos astrofísicos, que hablan de cosas que no saben, en cambio se les toma como poseedores de la verdad absoluta. ¿Argumento ad verecundiam?

La IA, como ya he dicho antes, puede ser un peligro si la programa un puto demente, pero que es un peligro que no va a tener lugar a corto plazo como tu afirmas. Hasta los más optimistas como Ray Kurzweill, la ponen para 2045.

http://www.kurzweilai.net/images/How-My-Predictions-Are-Faring.pdf
http://www.ehu.eus/ehusfera/hpc/2013/11/21/la-ley-de-kurzweil-una-extension-de-la-ley-de-moore/

Pero claro, nuestro amigo Kurzweill, como todos los que postulan teorias que indican que estamos a tiro de piedra de la singularidad tecnológica, parten de la Ley de Moore, que de por sí, si hablas con un fisico o químico, te explicará que el exponencial es precioso, pero falso pasado un cierto tiempo, ya que no se pueden hacer transistores menores al tamaño de un átomo, barrera que estamos a punto de alcanzar, por cierto, y que manda a la mierda todas estas teorías tan "optimistas" que nos ven haciendo el 69 con Cylons en 20 años.

D

Toco cuanto pueda suceder, así será, sólo lo que no ha pasado, puede pasar y ¡Ay! si no pasa Proverbio melvita.

D

#1 Para evitar todo esto están las tres leyes de la robótica. (o las cuatro para mayor seguridad)
1 Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
2 Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
3 Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.1

S

#61 Llego muy tarde al flame este

El enfoque de sistemas expertos esta desfasado, no se introduce conocimiento la arquitectura aprende y aprende a interpolar cosas que ningun medico, ni ninguna facultad de medicina interpolaria sin ayuda de los algoritmos en 10 generaciones.

Que la IA genere un conciencia/singularidad en nuestro tiempo de vida?
Si nace un Von Newmann hoy pal 2050 eso esta hecho.

Que el problema de la IA es que genere una conciencia?
Pues me parece mas acuciante la aparicion de agentes de question answering que ya los tenemos encima. Al principio seran de soporte pero con el tiempo (cuanto no me aventuro) substituiran a gran parte del sector terciario... y eso es un problemilla de dejar a la mayoria de la poblacion parada.

Por no recordar como los algoritmos geneticos generan diseños que especialistas con 20 años tardan meses en descifrar el porque son tan optimos...

Ya estan aquiiiii...

drwatson

#22 y tampoco es Hawkins es Hawking ... ya que nos ponemos a corregir lo hacemos bien no??

D

Siempre he dicho que hay que ser muy memo para programar una inteligencia artificial que simule ser consciente de si misma (con miedo a ser destruida y demás).

Seguro que no faltan candidatos a crearla...

antipositron

#33 Pruebas no hay, puesto que aún no ha ocurrido nada así. Pero una IA que tenga acceso a su propia implementación puede mejorarse a sí misma, lo cual repetido varias veces da pie a una "explosión de inteligencia". Esta IA superinteligente, sea consciente o no, puede tener objetivos que no estén alineados con nuestra supervivencia. No tiene por qué ser malvada, hay que pensar tan solo que estamos hechos de átomos que la IA misma pueda ver útiles.

Por esto principalmente se dice que la primera IA ha de estar cuidadosamente acotada y ser 100% compatible con nuestra existencia.

D

#33 la consciencia es en sí misma el problema, no el programa en sí mismo. Pon esa consciencia en un entorno abierto y los resultados son impredecibles.

C

¿Campaña viral para la próxima Terminator: Genesis?

AaLiYaH

#24 Del comentario al que le haces reply:
"otra cosa son los señores del MIT, Stanford, Yale, etc. que firman."

Imagino que esta parte se te ha pasado y por eso me dedicas una oda en defensa de todos aquellos que no he criticado.

Precisamente algunos de los que citas, firman realizar un avance de las IA controlado, pero no que se coarte directamente su utilización.

Y bueno, lo de chuparse el dedo...perdona si te ha molestado personalmente el comentario, pero ni todo el mundo de meneame pilota de informática, ni todos los ingenieros informáticos tienen mucha idea de IA. Iba dirigidos a esos, no creo que haya que sentirse aludido por todo comentario que haga la gente general.

Estoy en un master especializado de Visión Artificial y llevo los ultimos meses viendo machine learning y desarrollando clasificadores. Si algo tengo claro es que estamos a años luz de las pelis de Hollywood y creo que es importante explicárselo a los que no tienen esos conocimientos, que algunos se creen por ejemplo las tipicas flipadas de las pelis de polis donde reconocen ahi, con una foto mierder, la cara de un sospechoso y desconocen que algo tan basico ES INVIABLE de hacerse hoy por hoy (al menos con una tasa de error baja)

Hanxxs

#4 Pues más les vale que programen esos robots para que también tengan apetito por el consumismo, de lo contrario, ¿quien va a comprar los productos que fabriquen?

D

Por lo menos nuestra destrucción será resultado de algún tipo de inteligencia.

thirdman

Mientras las maquinas reemplazan mano de obra le da igual, pero ojo no vaya a ser que una IA lo reemplace sacando sus propios estudios

A las elites solo le gustan los robots como los humanos ... tontos (modo cospiranoico on)

p

La inteligencia artificial no creará ningún problema de este tipo en el futuro cercano por la sencilla razón de que está mucho menos avanzada de lo que la gente común cree.

Hay usos mucho peores de la tecnología, como los drones asesinos pilotados remotamente, que ahora mismo ya unen lo peor de ambos mundos sin necesidad de que la inteligencia sea artificial, sino que detrás está la de toda la vida.

p

#24 Kurzweil es un cantamañanas y los que le siguen son equivalentes a los creyentes religiosos, porque todo lo que predice está basado en libros fantásticos, y flipaduras de adolescente.

El mayor fallo de todos es creer que la inteligencia te dota de algo parecido a superpoderes que permiten hacer lo imposible o de que ser 10, 100 o 1000 veces más inteligente tendrá alguna traducción en utilidad práctica en la realidad (retornos decrecientes).

D

#77 Kurzweil tiene le premio Grace Murray Hopper (como Donald Knuth, Roger Moore, Bob Metcalfe, Stroustrup... todos unos cantamañanas), la medalla nacional del tecnología e innovación de EEUU (Jack Kilby, Thompson & Ritchie, Vinton Cerf... célebres cantañamanas) y actualmente trabaja en Google cantando por las mañanas cobrando por cada pedo que se tira más de lo que gana la puta de un rey en toda su vida.

D

#1 Si te refieres a la de los ciudadanos, estoy de acuerdo. Si te refieres a la de los dirigentes, te diré que precisamente de inteligencia no van escasos.

f

#69 Por curiosidad, dime un algoritmo genético que haga algo útil. Porque no son más que formas de explorar el espacio de soluciones al azar.

a

A mí me parece una estupidez dar a una máquina una inteligencia superior a la de un humano y pretender que esta acepte permanecer esclava y al servicio de un padre idiota.

p

#80 Y aún así, si dice tonterías siguen siendo tonterías, por mucha medallita y titulito que tenga. A otros aparentemente os muestran eso y os creéis cualquier moto que os vendan (o que se vendan a sí mismos, que es peor). De momento ninguna de sus "predicciones" (por no llamarlas otra cosa) ha tenido lugar, y probablemente se muera siendo así.

Los iluminados siempre tienen público suficientemente estúpido para seguirle.

Frederic_Bourdin

Lo de éstos es un clamor en el desierto.

f

#89 No estoy tan oxidado, precisamente es que cada vez que veo una aplicación de algoritmos genéticos en detalle me encuentro un fiasco.

Por muy sugerente que sea el nombre de "algoritmo genético", sigue siendo una forma de probar soluciones al azar. Ni siquiera tiene nada que ver con la "selección natural", salvo por el hecho de meter con calzador conceptos que no tienen ni remotamente nada que ver con los problemas de búsqueda, como es el invento de las mutaciones y recombinaciones...

Por otra parte, eso no tiene nada que ver con machine learning.

anor

De acuerdo con las leyes de la evolucion sobrevive el mas apto. Probablemente en el futuro las maquinas con I.A tengan mas capacidades que los humanos, para evolucionar y para enfrentarse al entorno, ¿ en el caso de que las maquinas lleguen a ser superiores a los humanos y al resto ds seres biologicos, deberian ocupar nuestro lugar ?.
En la produccion, las maquinas desde hace tiempo sustituyen a los seres humanos, la sustitucion total de todos nosotros solo seria un paso mas en este camino que ya se inicio hace tiempo.

anor

#78 Pero las normas podrian ser malinterpretadas por la maquina y esta podria por ejemplo creer que debe exterminar a todos los seres humanos. Por ejemplo si dotamos a maquinas de guerra con mucha automomia estas podrian confundir al enemigo con cualquier ser humano.

E

#98 #99 No es ganas de desacreditar... es simplemente que el documento esta "discutiendo sobre el sexo de los angeles".

En ciencia e ingenieria regulaciones deben darse ya existe un producto (y una problematica), no antes (porque ni entiendes la problematica y ademas matas el progreso). Y en el caso de la IA, estamos aun lejos de los supuestos que el documento propone.


Ademas en el apartado de soluciones, "Computer Science Research for Robust AI", mezcla bastantes conceptos... como la verificabilidad (http://en.wikipedia.org/wiki/Formal_methods) de programas para sistemas criticos (una practica altamente costosa y restrictiva, ademas de incompatible con muchas tecnicas de IA que se basan mayormente en aleatoriedad) con bugs como "Heartbleed bug" y "Bash Bug" (que precisamente no son errores de diseño).

p

#96 Da igual, eso no disuade a los tontos de la singularidad, que creen que la segunda venida de chuscristo será en forma de máquina con una inteligencia superior a la humana. Todo se resume en una realimentación infinita de inteligencias que crean otras inteligencias (y de alguna forma podrán hacer magia o algo así, que ya se sabe que la gente con CI alto puede viajar en el tiempo, responder a preguntas trascendentales y ser omnisciente).

Ni siquiera saben definir qué cojones quiere decir "inteligencia" y estos ya están soñando con novelitas para adolescentes.

Idiotas con título. Sin más.

D

#112 Fijate que estás confundiendo IA con conciencia, que son cosas que no tienen nada que ver. Como tu dices, a ver si diferenciamos.

Pero al fin y al cabo sólo somos dos meneantes sin autoridad para decir si el asunto es importante o no.

Precisamente hoy han publicado una carta firmada por 700 eminentes científicos advirtiendo de los peligros de la inteligencia artificial http://futureoflife.org/misc/open_letter. En comparación con la bomba atómica el siglo pasado, la carta Einstein–Szilárd involucró unicamente a cuatro personas http://en.wikipedia.org/wiki/Einstein%E2%80%93Szil%C3%A1rd_letter.

Si tu piensas que no hay que preocuparse me parece bien, cuando salga la carta firmada por otros 700 científicos diciendo que estamos a años luz del peligro, miraré sus argumentos y sus credenciales y me posicionaré.

El consenso científico actual es que la IA representa un peligro a muy corto plazo y hay que prevenirlo, algo que comparto.

z

Todo es peligroso para la humanidad. La clave de la vida, lo único que sabemos que es irrefutable, es la muerte. Y?

De verdad necesitamos científicos para decirnos eso? Saber que algo es un riesgo está bien, pero eso por si mismo no significa nada. Un coche también es un riesgo, y un cuchillo, y hasta un árbol si te cae encima.

La noticia me parece bastante incompleta. Cuentan obviedades y no propuestas concretas, que personalmente me parecería lo interesante. O quizá es que leo demasiada scifi y todo esto ya me lo había planteado cien veces.

D

#24 #17 ¡¡Centremonos!!

A ver: Una cosa es la singularidad y otra la Inteligencia Artificial.
Se puede dar perfectamente el caso de que se alcance una sin la otra y viceversa.

El concepto de singularidad simplemente dice que llegado un desarrollo extremo de la tecnología el aumento de su potencia y productividad será tan exponencial que no podremos seguirle la pista (ni casi comprenderlo) no dice nada de la IA.

Respecto a la IA:

Os recomiendo la serie de libros del genial Físico Roger Penrose donde se intuye (que no demuestra) que la consciencia es muchísimo más compleja de imitar de lo que pensamos y por lo tanto jamás podremos desarrollar consciencia artificial.

¿En que se basa?

Bueno, el pensamiento, por lo visto, tiene un carácter "cuántico" y el mismo (según Penrose) se mueve en once dimensiones (interacciones cuánticas).
Por lo tanto, tendríamos que meter mano en esas once dimensiones para lograr desentrañar la consciencia...cosa que a todas luces es imposible.

De hecho Penrose y Hawkings son bastante amigos y han apostado uno contra otro a ver cual de los dos tiene razón con el tiempo.

luiggi

Pues yo creo que más temprano que tarde la IA superior a la humana acabará llegando. ¿Y? Es un proceso evolutivo normal. Somos el eslabón necesario para llegar a la inteligencia no orgánica. De todas maneras queda un periodo de transición dónde aprovecharemos los avances en IA para mejorarnos nosotros mismos. No podemos competir con una inteligencia que puede moldear su propio hardware y software al gusto para seguir creciendo en inteligencia. Seremos superados si, ¿y qué?.

Maelstrom

#65 Se refiere a que la Realidad posee 11 dimensiones (el tetradimensional del espaciotiempo y 7 más), no a una descripción de valores en vectores de dimensiones cualesquiera.

sauron34_1

Estamos tan absolutamente lejos de una IA, que es absurdo debatir sobre ello. No creo que nadie de los aquí presentes lo lleguemos a ver.

sauron34_1

#104 pero por muy bueno que el ordenador sea en ajedrez, al final el ordenador sigue siendo determinista y funcionando, a groso modo, a base de condiciones.

Yo pienso (y así lo indican los últimos descubrimientos) que el cerebro también lo es, pero simula muy bien no serlo. Primero tenemos que averiguar como funciona el cerebro y luego ya si eso, hablamos de robtos que nos maten a todos

Y

Tanquilos, que esto no lo echarán atrás, interesa tener trabajadores a tiempo completo 24 horas sin descansar produciendo a saco paco y consumiendo sólo un poco de electricidad.

siempreesverano

Creo que el mayor problema sería la falta de comunicación. Si una I.A. sobrepasara nuestros límites podríamos acabar siendo, en comparación, unos seres infantiles hablando con balbuceos e incapaces de entenderla. ¿Quién la controlaría entonces? ¿Como podríamos valorar sus actos?

Monsieur-J

#17 Bien dicho. Habría que empezar por que "inteligencia artificial" es un término engañoso, no literal.

D

Yo tengo un cuñado cuya inteligencia es bastante artificial y sí, son un peligro para todos.

K

#27 fue un lapsus como dije en #22 ...

D

"El hombre diseñará y dará vida a su futura evolución, a la especie que le reemplazará." (no recuerdo de quién es la cita)

D

#85 por eso decía luego lo de las cuatro leyes

millanin

#86 que mal leo hoy.

Zorlek

¿Soy el único que ha leído el titular de la noticia mientras en su cabeza resonaba la intro de Terminator?

Javier_Sanz_2

La singularidad ya desperta recelos Hawking?

a

#20 No entiendo, hablas de Richard Dawkins o de Hawking? en todo caso Dawkins no aparece en el articulo y la referencia más cercana la encuentro en twitter a favor de Elon Musk

j

#17 En principio puede no llevar razón, pero con el tiempo tal vez sí. Todo puede resumirse a tener los mecanismos su propia autonomía, de tal forma que pueda ser imparable. Con el tiempo un mecanismo (por ejemplo impresora en 3D) puede hacerse a sí misma y si tienen una autonomía propia para hacer y deshacer lo que le viene en gana, según los criterios establecidos (le llaman inteligencia). Y el problema no es de inteligencia (porque no tiene por qué haberla) sino de autonomía.

Aquí por ejemplo no hay inteligencia alguna, pero sí un peligro que puede ser dotado por la persona a dar la autonomía a la máquina para hacer y deshacer.

“¿Qué ocurrirá con los automóviles autónomos en casos de un accidente inevitable, donde tenga que elegir entre la salvación de sus pasajeros o una probabilidad alta e importante de daños materiales?”


Estoy viendo que todas las ideas que dice Stephen Hawking pensándolas bien y a veces muy bien (fuera de toda apariencia, que a veces puede ser simplistas) remite de mucha importancia. De lo último los agujeros negros no son tan negros.

R

Hablaban de esto en un podcast al que soy aficionado (por desgracia, en ingles):
http://thebuglepodcast.com/bugle-280-on-the-wai-out/

A partir del 6:30 John Oliver (el del programa que ha aparecido algun corto suyo como el de Net Neutrality por meneame) habla del tema

drwatson

#33 de eso va la noticia, de que van a crear un programa para estudiar los peligros

D

que dices idiota??? las casas se hacen con ladrillo como hace mil años y duro trabajo de albañil, los coches andan con gasolina, la energia nuclear o carbon, cara sucia y problematica ... como desde la SGM ... "internet nos sacara de la crisis" desde hace ya 30 años llevan asi y nos mete cada vez mas en la crisis ...

y vienes tu que la tecnologia es un peligro, ¿ que tecnologia ?

porque no hay TODAVIA AVANCE TECNOLOGICO no hemos llegado a eso...

este lee muchas novelitas

#17 tienes razón en que el peligro no esta en la maquina o la IA en si, pero si que hay un problema, de esos que requieren política para resolverse, porque con la industrialización a principios del siglo XX muchos trabajos desaparecieron y la masa laboral se movió a otras áreas o se crearon nuevos servicios y productos. El problema es que con la informática y el desarrollo de la electrónica en general, la capacidad de automatización es exponencial, mas aun si desarrollamos la IA, por lo que el paro que tenemos es prácticamente permanente si no cambiamos algo en la economía, la sociedad y/o la política. Y el verdadero problema esta ahi, que no hay político que se meta en este fregao, y mucho menos políticos valientes que crean en estos cambios.

j

#61 No creo quue Stephen Hawking se base en la ciencia ficción.

Primeramente para poder hablar con criterio de este tema, se debe conocer la vanguardia actual de este tipo de industria (que más que Stephen Hawiking, para conocer lo que se está haciendo). El problema con el tiempo estaría en la perfección y la propia autonomía de la máquina sin normas algunas.

El problema en sí, más que la inteligencia artificial sería de la inteligencia humana y el afán de que todo vale para probar y experimentar sin ningún tipo de normas. Supongo que serán esas normas las que deberán establecer unos límites de seguridad. Un robot, puede ser simplemente un dron con autonomía propia para realizar lo que quiera (desde tirar bombas, hasta fotografías a conciencia).
Sí nosotros tenemos una serie de normas, por qué no la van a tener la inteligencia artificial (que como digo, el problema no es de la inteligencia artificial, sino de la humana que lo pueda hacer sin responsabilidad o marcando ciertos objetivos)

1 2