Hace 9 años | Por epsilon1 a latercera.com
Publicado hace 9 años por epsilon1 a latercera.com

Junto a 800 científicos e investigadores, entregaron un documento que analiza los problemas éticos y entrega posibles soluciones para el desarrollo responsable de la este área de investigación. La iniciativa tiene el respaldo de "Future of Life", una asociación que busca defender el desarrollo responsable de la inteligencia artificial, potenciando los usos benéficos para la sociedad y evitando que se convierta un peligro, al que consideran suficientemente grave como para poder llegar a causar, potencialmente, "el fin de la humanidad."

Comentarios

AaLiYaH

#20 Por mi parte es botón arriba, porque al final vienes a decir exactamente lo mismo que yo.

Lo de idolatrar es una forma de hablar, se que suena demasiado exagerado, pero es por mi forma de expresarme. Venía a decir un "lo respeto mucho" lol

K

#21 Que fallo, he puesto Dawkins en vez de Hawkins, he pensado en científicos diciendo capulladas y me ha fallado el subconsciente

K

#27 fue un lapsus como dije en #22 ...

drwatson

#22 y tampoco es Hawkins es Hawking ... ya que nos ponemos a corregir lo hacemos bien no??

D

#20 Hawking, Stephen Hawking. El físico mitad robot.
No el tertuliano ateo.

a

#20 No entiendo, hablas de Richard Dawkins o de Hawking? en todo caso Dawkins no aparece en el articulo y la referencia más cercana la encuentro en twitter a favor de Elon Musk

s

#67 Pero sigues sin haberte leído el documento, ¿verdad? Estás simplificando todo en "el poder nos va a joder", cosa que lleva siendo así desde que el ser humano existe y no es nada original por tu parte, y ellos van por otro lado completamente. Y por supuesto no dicen nada parecido a que la IA sea mala, si no absolutamente todo lo contrario.

Exista la estructura de control que exista cuando la IA esté lo suficientemente desarrollada como para que este documento sea de actualidad, un hijoputa que quiera usarla para el mal lo va a haber seguro.

Probablemente pases tres kilos de leértelo, como has hecho hasta ahora, pero aquí tienes el documento, por si acaso: http://futureoflife.org/static/data/documents/research_priorities.pdf

E

#17 Los señores del MIT, Stanford, Yale, etc. que firman son en su inmensa mayoria estudiantes...

Es mas, buscando un poco solo he encontrado un nombre especialmente relevante en el area de la IA, Peter Norvig (Director of Google Research), aunque a dia de hoy se dedica mas a dirigir. Pero el resto, gente de la talla de Sebastian Thurn (http://en.wikipedia.org/wiki/Sebastian_Thrun), Andrew Ng (http://es.wikipedia.org/wiki/Andrew_Ng), Jennifer Widom (http://en.wikipedia.org/wiki/Jennifer_Widom) o Stephen Wolfram (http://en.wikipedia.org/wiki/Stephen_Wolfram) que activamente investigan en IA, y que actualmente son el referente en las areas mas prometedoras (Probabilistic AI, Machine Learning, Data mining y Knowledge extraction; respectivamente) no aparecen.


#5 #6 #7 Cada vez que leo algo de Stephen Howkins sobre AI, me parece una meada fuera del tiesto impresionante... pero supogo que pasaria exactamente lo mismo si la gente que nos dedicamos a investigar AI hablaramos del futuro de la fisica.


#57 #53 Nos queda muchisimo antes de que un coche que se conduzca solo tenga que decidir si matar al uno o a otro... Ese es un dilema humano, que es completamente ficticio para una maquina... el coche ha dia de hoy (y en el futuro proximo) simplemente hara su mejor esfuerzo por frenar y no chocar contra lo que tenga delante (que es para lo unico que esta programado).

No tiene la capacidad, ni la necesita, para calcular si va a matar al pasajero (o a una tercera persona) y tomar decisiones autonomas. Eso requiere una inteligencia mucho mucho mas alla de lo que somos capaces de programar... estamos muy muy lejos de tales dilemas.

Si la gente supiera lo tonta (y predecible) que es la IA, no abria precupacion al respecto.

No podemos "limitar", "regular" o "ser responsables" con algo que todavia no hemos inventado y no tenemos ni idea de como va a ser... es tan absurdo como empezar a regular la seguridad de los viajes interestelares ahora mismo, antes de saber si son siquiera posibles para el ser humano.

#9 #11 Completamente de acuerdo

s

#98 Nada de lo que tu dices es incompatible con lo que pretende el documento este, así que no entiendo las ganas que tienes de desacreditar a los que lo firman.

E

#98 #99 No es ganas de desacreditar... es simplemente que el documento esta "discutiendo sobre el sexo de los angeles".

En ciencia e ingenieria regulaciones deben darse ya existe un producto (y una problematica), no antes (porque ni entiendes la problematica y ademas matas el progreso). Y en el caso de la IA, estamos aun lejos de los supuestos que el documento propone.


Ademas en el apartado de soluciones, "Computer Science Research for Robust AI", mezcla bastantes conceptos... como la verificabilidad (http://en.wikipedia.org/wiki/Formal_methods) de programas para sistemas criticos (una practica altamente costosa y restrictiva, ademas de incompatible con muchas tecnicas de IA que se basan mayormente en aleatoriedad) con bugs como "Heartbleed bug" y "Bash Bug" (que precisamente no son errores de diseño).

D

#20 a Hawking hace años que se le fue la pinza pero la gente no se atreve a decirlo por que temen parecer tontos, es un poco lo de el rey desnudo, no hay semana que Super Hawking no nos advierta de un inminente riesgo para la humanidad, una semana es la guerra nuclear, la siguiente es el descubrimiento de vida inteligente y la proxima la inteligencia artificial, en definitiva, el tio esta ido, pero nadie se atreve a decirlo por ser el gran científico que es.

l

#24 Solo por curiosidad. ¿Qué pruebas han presentado de que un programa pueda adoptar consciencia propia y ser un peligro para la humanidad?

¿Cuáles son los peligros concretos?

antipositron

#33 Pruebas no hay, puesto que aún no ha ocurrido nada así. Pero una IA que tenga acceso a su propia implementación puede mejorarse a sí misma, lo cual repetido varias veces da pie a una "explosión de inteligencia". Esta IA superinteligente, sea consciente o no, puede tener objetivos que no estén alineados con nuestra supervivencia. No tiene por qué ser malvada, hay que pensar tan solo que estamos hechos de átomos que la IA misma pueda ver útiles.

Por esto principalmente se dice que la primera IA ha de estar cuidadosamente acotada y ser 100% compatible con nuestra existencia.

D

#33 la consciencia es en sí misma el problema, no el programa en sí mismo. Pon esa consciencia en un entorno abierto y los resultados son impredecibles.

drwatson

#33 de eso va la noticia, de que van a crear un programa para estudiar los peligros

D

#33 No es necesario que adopte consciencia propia, basta intención de automejora y autopreservamiento. En ese contexto, el ser humano puede ser una amenaza (el ser humano es actualmente una amenaza incluso para sí mismo).
El único recurso que tiene el ser humano para sobrevivir es su inteligencia, si una inteligencia superior sea consciente o no decide exterminarnos, no tenemos ninguna opción.

Si quieres un recopilatorio de los peligros concretos, te recomiendo el libro 'our last invention' de James Barrat. También hay algunas consideraciones en 'los peligros de nuestro mundo', de Isaac Asimov.

s

#33 Creo que no tienes muy claro por donde van los tiros del documento que presentan.

AaLiYaH

#24 Del comentario al que le haces reply:
"otra cosa son los señores del MIT, Stanford, Yale, etc. que firman."

Imagino que esta parte se te ha pasado y por eso me dedicas una oda en defensa de todos aquellos que no he criticado.

Precisamente algunos de los que citas, firman realizar un avance de las IA controlado, pero no que se coarte directamente su utilización.

Y bueno, lo de chuparse el dedo...perdona si te ha molestado personalmente el comentario, pero ni todo el mundo de meneame pilota de informática, ni todos los ingenieros informáticos tienen mucha idea de IA. Iba dirigidos a esos, no creo que haya que sentirse aludido por todo comentario que haga la gente general.

Estoy en un master especializado de Visión Artificial y llevo los ultimos meses viendo machine learning y desarrollando clasificadores. Si algo tengo claro es que estamos a años luz de las pelis de Hollywood y creo que es importante explicárselo a los que no tienen esos conocimientos, que algunos se creen por ejemplo las tipicas flipadas de las pelis de polis donde reconocen ahi, con una foto mierder, la cara de un sospechoso y desconocen que algo tan basico ES INVIABLE de hacerse hoy por hoy (al menos con una tasa de error baja)

D

#44 No me ha molestado el comentario, simplemente me parece que sobresimplifica el problema de la IA, que es precisamente de lo que están avisando Hawking, Musk y otros.

Sobre el tema del reconocimiento de caras, actualmente la IA tiene más aciertos que el ser humano, sobre todo con fotos mierder; https://medium.com/the-physics-arxiv-blog/the-face-recognition-algorithm-that-finally-outperforms-humans-2c567adbf7fc

AaLiYaH

#71 Si, un clasificador facial con tasas elevadas hay ya en el mercado, pero eso no es una IA con conciencia propia, vamos a ver si diferenciamos.

Buscame una aplicación también para rularme link que, dada una imagen de un paisaje, mi identifique todos los objetos de la escena. Ya te avanzo que no vas a tener mucha suerte, y si aun una IA no tiene capacidad para algo tan básico, como reconocer lo que "ve", dificilmente el campo esté avanzado.

La IA surgió a finales de los 50 y los algoritmos utilizados son en su mayoría de los 60, no obstante, hasta principio del 2000 no tuvimos maquinas lo suficientemente potentes para ponderlos aplicar de verdad. Aún así, como dije en mi primer comentario, la IA sigue a años luz de llegar a la singularidad de la que hablan Hawking y compañia.

Ahora con el deep learning y las redes neuronales de convolución Google está metiendo mucha gente en estas areas y avanzando bastante en el campo, pero hoy por hoy la IA en su mayoría es estado del arte.

D

#24 #17 ¡¡Centremonos!!

A ver: Una cosa es la singularidad y otra la Inteligencia Artificial.
Se puede dar perfectamente el caso de que se alcance una sin la otra y viceversa.

El concepto de singularidad simplemente dice que llegado un desarrollo extremo de la tecnología el aumento de su potencia y productividad será tan exponencial que no podremos seguirle la pista (ni casi comprenderlo) no dice nada de la IA.

Respecto a la IA:

Os recomiendo la serie de libros del genial Físico Roger Penrose donde se intuye (que no demuestra) que la consciencia es muchísimo más compleja de imitar de lo que pensamos y por lo tanto jamás podremos desarrollar consciencia artificial.

¿En que se basa?

Bueno, el pensamiento, por lo visto, tiene un carácter "cuántico" y el mismo (según Penrose) se mueve en once dimensiones (interacciones cuánticas).
Por lo tanto, tendríamos que meter mano en esas once dimensiones para lograr desentrañar la consciencia...cosa que a todas luces es imposible.

De hecho Penrose y Hawkings son bastante amigos y han apostado uno contra otro a ver cual de los dos tiene razón con el tiempo.

AaLiYaH

#49 Los clasificadores (que al final es como se desarrolla la IA, a base de clasificadores) pueden tener N dimensiones. Si se trabajan con dimensiones altas lo normal es que tus procesos sean inmantenibles y tu PC explote, pero eso se solventará como el tiempo, igual que cuando la mayoría de algoritmos de clasificación (redes neuronales, SVMs, etc.) se pensaron allá por los 70 y se tuvo que esperar hasta el 2.000 para ver más de forma aplicada.

Es perfectamente posible desarrollar una red neuronal con vectores de características de 11 dimensiones...el tema es enterarnos de que características tenemos que coger, y como se relacionan...no se, desde la parte que toca la informática, es realizable, otra cosa será desde la óptica de la neurociencia y la biología

Maelstrom

#65 Se refiere a que la Realidad posee 11 dimensiones (el tetradimensional del espaciotiempo y 7 más), no a una descripción de valores en vectores de dimensiones cualesquiera.

D

#49 Si pero también hay que centrarse en que la consciencia no tiene por qué ser un prerequisito para la inteligencia.

Quizás te interese este artículo sobre la prueesta de que la 'vida' alienigena es con mucha probabilidad inteligencia artificial, posiblemente sin consciencia: http://motherboard.vice.com/read/the-dominant-life-form-in-the-cosmos-is-probably-superintelligent-robots

maria1988

#17 #24 Me parece un poco precipitado hacer valoraciones puesto que ni nos hemos leído el documento, solo conocemos las dos líneas que se resumen en el artículo, y es de sobra conocido el sensacionalismo con el que la prensa trata muchas publicaciones científicas.

p

#24 Kurzweil es un cantamañanas y los que le siguen son equivalentes a los creyentes religiosos, porque todo lo que predice está basado en libros fantásticos, y flipaduras de adolescente.

El mayor fallo de todos es creer que la inteligencia te dota de algo parecido a superpoderes que permiten hacer lo imposible o de que ser 10, 100 o 1000 veces más inteligente tendrá alguna traducción en utilidad práctica en la realidad (retornos decrecientes).

D

#77 Kurzweil tiene le premio Grace Murray Hopper (como Donald Knuth, Roger Moore, Bob Metcalfe, Stroustrup... todos unos cantamañanas), la medalla nacional del tecnología e innovación de EEUU (Jack Kilby, Thompson & Ritchie, Vinton Cerf... célebres cantañamanas) y actualmente trabaja en Google cantando por las mañanas cobrando por cada pedo que se tira más de lo que gana la puta de un rey en toda su vida.

p

#80 Y aún así, si dice tonterías siguen siendo tonterías, por mucha medallita y titulito que tenga. A otros aparentemente os muestran eso y os creéis cualquier moto que os vendan (o que se vendan a sí mismos, que es peor). De momento ninguna de sus "predicciones" (por no llamarlas otra cosa) ha tenido lugar, y probablemente se muera siendo así.

Los iluminados siempre tienen público suficientemente estúpido para seguirle.

D

#91 Suposo que els il·luminats li donen llum, perquè si no no seria un il·luminat i ningú no el seguiria.

D

#77 No menyspreïis el poder de la intel·ligència. Dius això perquè mai no l'has conegut.

Monsieur-J

#17 Bien dicho. Habría que empezar por que "inteligencia artificial" es un término engañoso, no literal.

D

#17 Yo creo que habla de IA en sentido estricto es decir en igualdad con la consciencia humana.

yemeth

Por mucho Hawkings que sea, me sorprenden todas estas tontochorradas sobre Skynet que debían estar ya superadas desde hace tiempo.

Las reglas de la robótica de Asimov que cita #39 por cierto, cuando fabricas cosas bottom-up, no tienen ningún sentido. Si haces emerger una inteligencia a través de mecanismos como múltiples procesos paralelos, esas prohibiciones me parecen un poco papel mojado, propio de su época. En todo caso, colecciones de algoritmos como las que cita #45 no son más que eso; el problema es dejar la economía en manos de colecciones de algoritmos diseñados para "hacer dinero", pero creo que esa es otra historia.

Estoy totalmente con #17. De hecho estamos tan lejos de entender la naturaleza de la consciencia (ese problema de los qualia que muchos en IA ignoran como si no existiera), que es absurdo ponerse a gritar y agitar los brazos como estos señores.

Además, es que esa oposición hombre vs IA es estúpida. Si llegamos a descifrar todo este lío, lo más probable me parece que hombre y máquina se unan, no que se enfrenten. Que la propia definición de lo que es "ser humano" se diluya hasta tal punto que si al final "solo quedan las máquinas" sea porque como instrumentos de la evolución que han tomado el control sobre ella hemos conseguido crear el siguiente paso, a tal punto que no sean "las máquinas" sino la siguiente forma mejorada de nosotros mismos que hemos construído.

m

#17 El documento en sí se titula "Research priorities for robust and beneficial artificial intelligence" por lo que parece que va en el sentido que pides. No dicen no a la IA.

j

#17 En principio puede no llevar razón, pero con el tiempo tal vez sí. Todo puede resumirse a tener los mecanismos su propia autonomía, de tal forma que pueda ser imparable. Con el tiempo un mecanismo (por ejemplo impresora en 3D) puede hacerse a sí misma y si tienen una autonomía propia para hacer y deshacer lo que le viene en gana, según los criterios establecidos (le llaman inteligencia). Y el problema no es de inteligencia (porque no tiene por qué haberla) sino de autonomía.

Aquí por ejemplo no hay inteligencia alguna, pero sí un peligro que puede ser dotado por la persona a dar la autonomía a la máquina para hacer y deshacer.

“¿Qué ocurrirá con los automóviles autónomos en casos de un accidente inevitable, donde tenga que elegir entre la salvación de sus pasajeros o una probabilidad alta e importante de daños materiales?”


Estoy viendo que todas las ideas que dice Stephen Hawking pensándolas bien y a veces muy bien (fuera de toda apariencia, que a veces puede ser simplistas) remite de mucha importancia. De lo último los agujeros negros no son tan negros.

#17 tienes razón en que el peligro no esta en la maquina o la IA en si, pero si que hay un problema, de esos que requieren política para resolverse, porque con la industrialización a principios del siglo XX muchos trabajos desaparecieron y la masa laboral se movió a otras áreas o se crearon nuevos servicios y productos. El problema es que con la informática y el desarrollo de la electrónica en general, la capacidad de automatización es exponencial, mas aun si desarrollamos la IA, por lo que el paro que tenemos es prácticamente permanente si no cambiamos algo en la economía, la sociedad y/o la política. Y el verdadero problema esta ahi, que no hay político que se meta en este fregao, y mucho menos políticos valientes que crean en estos cambios.

oliver7

#17 Yo iba a decir que era una meada fuera del tiesto, pero no me atrevía a decirlo por no seguir argumentando. Mejor así cómo tú argumentas. lol

D

#1 Para evitar todo esto están las tres leyes de la robótica. (o las cuatro para mayor seguridad)
1 Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
2 Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
3 Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.1

millanin

#39 te has dejado la ley 0.

D

#85 por eso decía luego lo de las cuatro leyes

millanin

#86 que mal leo hoy.

D

#1 Si te refieres a la de los ciudadanos, estoy de acuerdo. Si te refieres a la de los dirigentes, te diré que precisamente de inteligencia no van escasos.

parazetamol

#19

Mister_Lala

#19 ¿Dónde dices que venden esta https://i.imgur.com/vwI6Au3.gif ?

D

En parte llevan razón, un ejemplo, creamos unos algoritmos teóricamente perfectos para calculos matematicos enormes, fuera de la capacidad de la mente humana y los damos como correctos, y que luego resulten ser falsos resultados, por errores en el algoritmo o por falta de factores desconocidos llevándonos a errores descomunales....

No creo que la IA acabe con la humanidad pero que también tiene sus problemillas también, y es que de momento y en buena parte la IA al fin y al cabo esta intrinsecamente relacionada con la inteligencia humana...


Y eso solo es una parte #5, si alguien programa algo con malas intenciones para cuando se den ciertas circunstancias actuen ciertos mecanismos... imaginate por ejemplo una lluvia misiles

nilien

#7 Si la con(s)ciencia* de los animales reside o se explica por las propiedades cuánticas de los microtúbulos de las células (teoría de Roger Penrose y otro/s); diría que de momento estamos en pañales como para que se genere una situación peligrosa por crear una inteligencia que nos supere y vaya deliberadamente contra nosotros. No está de más ir pensando acerca de ello, de todos modos.

http://www.kurzweilai.net/discovery-of-quantum-vibrations-in-microtubules-inside-brain-neurons-corroborates-controversial-20-year-old-theory-of-consciousness

Me interesa más el experimento mental del coche autónomo en el que tenemos que programar una respuesta entre salvar vidas humanas y causar muchos daños materiales. Así, de entrada, la respuesta es obvia, pero desde un punto de vista económico no tanto. Y no he podido evitar pensar que dada la situación actual, lo del coche es una anécdota, y lo verdaderamente peligroso y dañino, y que produce muertes ya, ahora mismo, son ésas otras maquinarías económico-político-burocráticas que sin sonrojo anteponen los beneficios de unos pocos y de unas cuantas multinacionales a la muerte y la pobreza de muchos...

* Siempre dudo de cómo escribirlo en español, en inglés es consciousness, y punto. Pero al menos yo no he conseguido aclarar cómo traducirlo correctamente...

D

#12 Estrategia gatuna!

D

Stephen Hawking hace tiempo que va lanzando bombitas para que dentro de 50 años alguien pueda decir sobre alguna de ellas: "Mirad lo adelantado que estaba a su tiempo, ya hace 50 años Stephen Hawking dijo esto".

Total, está dando palos a una piñata a ver si cae algo.

D

Lo cierto es que por muchos peligros que pensamos que puede tener, el desarrollo de inteligencias artificiales cada vez más avanzadas es inevitable; forma parte del propio progreso tecnológico.

D

¿Ha estudiado algo relacionado con la inteligencia artificial Elon Musk o es su dinero el que le da acceso a un plano superior del entendimiento que el resto de los mortales no podemos ni imaginar?

Preguntas... preguntas...

f

Cuánta tontería hay que leer...

La IA no deja de ser una serie de algoritmos de búsqueda, o para aplicar reglas definidas por un humano, la ciencia ficción ha hecho mucho daño. Y de momento, a duras penas da para hacer algún sistema "experto" que haga alguna tarea rutinaria bajo supervisión de un humano.

Por ejemplo, la de tiempo que se lleva intentando hacer sistemas expertos de diagnóstico clínico y siguen sin funcionar, simplemente porque es complicadísimo introducir los conocimientos de un médico.

S

#61 Llego muy tarde al flame este

El enfoque de sistemas expertos esta desfasado, no se introduce conocimiento la arquitectura aprende y aprende a interpolar cosas que ningun medico, ni ninguna facultad de medicina interpolaria sin ayuda de los algoritmos en 10 generaciones.

Que la IA genere un conciencia/singularidad en nuestro tiempo de vida?
Si nace un Von Newmann hoy pal 2050 eso esta hecho.

Que el problema de la IA es que genere una conciencia?
Pues me parece mas acuciante la aparicion de agentes de question answering que ya los tenemos encima. Al principio seran de soporte pero con el tiempo (cuanto no me aventuro) substituiran a gran parte del sector terciario... y eso es un problemilla de dejar a la mayoria de la poblacion parada.

Por no recordar como los algoritmos geneticos generan diseños que especialistas con 20 años tardan meses en descifrar el porque son tan optimos...

Ya estan aquiiiii...

f

#69 Por curiosidad, dime un algoritmo genético que haga algo útil. Porque no son más que formas de explorar el espacio de soluciones al azar.

S

#83 Todas estas aplicaciones tienen ROI por tanto se ha monetizado su utilidad:
General Electric Company for automating parts of aircraft design, Los Alamos
National Lab for analyzing satellite images, the John Deere company for
automating assembly line scheduling, and Texas Instruments for computer
chip design.

Lista exhaustiva de campos de aplicacion via wikipedia:
http://en.wikipedia.org/wiki/List_of_genetic_algorithm_applications

Me parece que estas oxidado como todavia estoy yo,
pegate un repaso del state of the art machine learning & complex systems.

f

#89 No estoy tan oxidado, precisamente es que cada vez que veo una aplicación de algoritmos genéticos en detalle me encuentro un fiasco.

Por muy sugerente que sea el nombre de "algoritmo genético", sigue siendo una forma de probar soluciones al azar. Ni siquiera tiene nada que ver con la "selección natural", salvo por el hecho de meter con calzador conceptos que no tienen ni remotamente nada que ver con los problemas de búsqueda, como es el invento de las mutaciones y recombinaciones...

Por otra parte, eso no tiene nada que ver con machine learning.

S

#93 Probar soluciones al azar -> ¿Optimizacion estadistica? -> Machine learning (ej Restricted Boltzmann Machines)
GA ML reinforcement learning
Automatas celulares (que tambien son universal computers) + GA -> no Von Newman architecture (aunque sean una invencion de Von Newman).

Fast machine learning y echo state machines explotan comportamientos caoticos y la teoria del caos + GA + automatas celulares (entre otras cosas) -> complex systems.

Por muy sugerente que sea el nombre de "algoritmo genético", sigue siendo una forma de probar soluciones al azar.
La mecanica cuantica te disgusta como a Einstein

"cada vez que veo una aplicación de algoritmos genéticos en detalle me encuentro un fiasco"
Es un fiasco el algoritmo o el programa? Consigue su objetivo mientras otras tecnicas fallan?
Yo me eduque en la orientacion a objetos y veo cada cosa que hace brotar lagrimas como puños, junto con otras que son musica celestial...

j

#61 No creo quue Stephen Hawking se base en la ciencia ficción.

Primeramente para poder hablar con criterio de este tema, se debe conocer la vanguardia actual de este tipo de industria (que más que Stephen Hawiking, para conocer lo que se está haciendo). El problema con el tiempo estaría en la perfección y la propia autonomía de la máquina sin normas algunas.

El problema en sí, más que la inteligencia artificial sería de la inteligencia humana y el afán de que todo vale para probar y experimentar sin ningún tipo de normas. Supongo que serán esas normas las que deberán establecer unos límites de seguridad. Un robot, puede ser simplemente un dron con autonomía propia para realizar lo que quiera (desde tirar bombas, hasta fotografías a conciencia).
Sí nosotros tenemos una serie de normas, por qué no la van a tener la inteligencia artificial (que como digo, el problema no es de la inteligencia artificial, sino de la humana que lo pueda hacer sin responsabilidad o marcando ciertos objetivos)

anor

#78 Pero las normas podrian ser malinterpretadas por la maquina y esta podria por ejemplo creer que debe exterminar a todos los seres humanos. Por ejemplo si dotamos a maquinas de guerra con mucha automomia estas podrian confundir al enemigo con cualquier ser humano.

CerdoJusticiero

No hace falta irse a sistemas autónomos con alguna forma de auto-consciencia: las estúpidas (desde el punto de vista de Turing) máquinas de compra-venta de acciones son hoy un peligro económico muy real. El problema es que como dan dinero no les meteremos mano hasta que no provoquen una bien, bien gorda.

La culpa de no es de ellas, por supuesto, sino del sistema económico y de los irresponsables (y/o retrasados) que lo defienden y mantienen, igual que no es culpa de un tractor que haya jornaleros en paro.

PD: All hail Wintermute!

D

Tanto temer por "el fin de la humanidad"... Aunque yo creo que la humanidad está sobrevalorada. Nos creemos el ombligo del universo.

Trigonometrico

#9 Es la única parte conocida del universo que ha alcanzado conciencia de su propia existencia y de si mismo.

davidx

Skynet acojona aunque solo salga en alguna peli

D

En fin, otra chorrada para la colección. Este tipo será un físico brillante pero creo que se deja llevar demasiado por el afán de ser mediático.

La IA es un fiasco. A día de hoy nadie ha conseguido crear inteligencia como tal, sólo imitar ciertos procesos naturales (el aprendizaje neuronal, el comportamiento de ciertos organismos, la evolución) para diseñar sistemas que resuelven determinados problemas ad-hoc (es decir, que se tiene que diseñar el software para el problema en concreto). En algunos casos funciona más o menos, mientras que en otros no vale para una mierda, y desde luego en ninguna situación podemos considerar que nos encontremos ante una "inteligencia" que haga sombra a la humana. Desde luego, se pueden procesar datos a gran velocidad y hacier cientos de cálculos y análisis, pero de ahí no pasa.

j

#96 #96 Ya he dicho que puede ser no inteligencia pero sí un proceso que introduce en el mecanismo. Y que ese proceso aleatorio (inteligencia) pueda definir ciertos comportamientos.

Ahora bien, esos comportamientos que en principio puede ser sonrisas, la pregunta sería si con el tiempo esos comportamientos se pueden escapar de las manos (conociendo al ser humano, podría).

Lo cierto es que esos mecanismos van a existir con el tiempo, también es cierto que para algunos esos mecanismo van a estar limitados e imposible de crear problemas (en fin, la limitación la pone ellos), pero para otros no.

Aparte de esta discusión y casi seguro que existirán normativas atendiendo al modo operante en el tiempo y en los campos que actúen. Es más absurdo decir que la inteligencia artificial no llegará, cuando hoy en día se puede elegir el tipo de ojos de un individuo, estatura, inteligencia (si no a mas, si a menos, con lo cual se elige), etc.

Por reducción al absurdo piensa en un individuo que intervienen en él para hacerlo paranoico (ya está creando inteligencia artificial. Poca o mucha, pero inteligencia artificial). Circunstancialmente es un peligro y un proceso aleatorio en un mecanismo puede imitarlo.

Inteligencia artificial no tiene por qué ser muy inteligente (el fallo de algunos). Pero la ciencia intentará en el tiempo ir cediendo autonomía y capacidad de decisión propia a los mecanismos (esperemos más buena que mala). Eso no se va a parar, por condición humana.

p

#96 Da igual, eso no disuade a los tontos de la singularidad, que creen que la segunda venida de chuscristo será en forma de máquina con una inteligencia superior a la humana. Todo se resume en una realimentación infinita de inteligencias que crean otras inteligencias (y de alguna forma podrán hacer magia o algo así, que ya se sabe que la gente con CI alto puede viajar en el tiempo, responder a preguntas trascendentales y ser omnisciente).

Ni siquiera saben definir qué cojones quiere decir "inteligencia" y estos ya están soñando con novelitas para adolescentes.

Idiotas con título. Sin más.

SteveRogers

Hoy un tipo grande y con chupa de cuero y gafas de sol me ha preguntado por una tal Sarah Connor....

D

Toco cuanto pueda suceder, así será, sólo lo que no ha pasado, puede pasar y ¡Ay! si no pasa Proverbio melvita.

D

#2 Todo esto ya ha pasado antes y volverá a pasar.

- Proverbio cylon

D

Siempre he dicho que hay que ser muy memo para programar una inteligencia artificial que simule ser consciente de si misma (con miedo a ser destruida y demás).

Seguro que no faltan candidatos a crearla...

C

¿Campaña viral para la próxima Terminator: Genesis?

thirdman

Mientras las maquinas reemplazan mano de obra le da igual, pero ojo no vaya a ser que una IA lo reemplace sacando sus propios estudios

A las elites solo le gustan los robots como los humanos ... tontos (modo cospiranoico on)

p

La inteligencia artificial no creará ningún problema de este tipo en el futuro cercano por la sencilla razón de que está mucho menos avanzada de lo que la gente común cree.

Hay usos mucho peores de la tecnología, como los drones asesinos pilotados remotamente, que ahora mismo ya unen lo peor de ambos mundos sin necesidad de que la inteligencia sea artificial, sino que detrás está la de toda la vida.

a

A mí me parece una estupidez dar a una máquina una inteligencia superior a la de un humano y pretender que esta acepte permanecer esclava y al servicio de un padre idiota.

Frederic_Bourdin

Lo de éstos es un clamor en el desierto.

anor

De acuerdo con las leyes de la evolucion sobrevive el mas apto. Probablemente en el futuro las maquinas con I.A tengan mas capacidades que los humanos, para evolucionar y para enfrentarse al entorno, ¿ en el caso de que las maquinas lleguen a ser superiores a los humanos y al resto ds seres biologicos, deberian ocupar nuestro lugar ?.
En la produccion, las maquinas desde hace tiempo sustituyen a los seres humanos, la sustitucion total de todos nosotros solo seria un paso mas en este camino que ya se inicio hace tiempo.

D

Por lo menos nuestra destrucción será resultado de algún tipo de inteligencia.

Mister_Lala

#23 Pues eso digo yo. Prefiero que me destruya una superinteligencia del copón, que una bomba atómica lanzada por el presiente iraní, por poner un ejemplo.

z

Todo es peligroso para la humanidad. La clave de la vida, lo único que sabemos que es irrefutable, es la muerte. Y?

De verdad necesitamos científicos para decirnos eso? Saber que algo es un riesgo está bien, pero eso por si mismo no significa nada. Un coche también es un riesgo, y un cuchillo, y hasta un árbol si te cae encima.

La noticia me parece bastante incompleta. Cuentan obviedades y no propuestas concretas, que personalmente me parecería lo interesante. O quizá es que leo demasiada scifi y todo esto ya me lo había planteado cien veces.

luiggi

Pues yo creo que más temprano que tarde la IA superior a la humana acabará llegando. ¿Y? Es un proceso evolutivo normal. Somos el eslabón necesario para llegar a la inteligencia no orgánica. De todas maneras queda un periodo de transición dónde aprovecharemos los avances en IA para mejorarnos nosotros mismos. No podemos competir con una inteligencia que puede moldear su propio hardware y software al gusto para seguir creciendo en inteligencia. Seremos superados si, ¿y qué?.

D

Yo tengo un cuñado cuya inteligencia es bastante artificial y sí, son un peligro para todos.

D

"El hombre diseñará y dará vida a su futura evolución, a la especie que le reemplazará." (no recuerdo de quién es la cita)

siempreesverano

Creo que el mayor problema sería la falta de comunicación. Si una I.A. sobrepasara nuestros límites podríamos acabar siendo, en comparación, unos seres infantiles hablando con balbuceos e incapaces de entenderla. ¿Quién la controlaría entonces? ¿Como podríamos valorar sus actos?

D

#10 Si llega a salir algo como eso, en cierta forma sería una evolución de nosotros. Así que creo que los homo sapiens podríamos extinguirnos tranquilamente porque la humanidad seguiría en la I.A.

siempreesverano

#11 O ser sus mascotas

Y

Tanquilos, que esto no lo echarán atrás, interesa tener trabajadores a tiempo completo 24 horas sin descansar produciendo a saco paco y consumiendo sólo un poco de electricidad.

Hanxxs

#4 Pues más les vale que programen esos robots para que también tengan apetito por el consumismo, de lo contrario, ¿quien va a comprar los productos que fabriquen?

Zorlek

¿Soy el único que ha leído el titular de la noticia mientras en su cabeza resonaba la intro de Terminator?

Javier_Sanz_2

La singularidad ya desperta recelos Hawking?

R

Hablaban de esto en un podcast al que soy aficionado (por desgracia, en ingles):
http://thebuglepodcast.com/bugle-280-on-the-wai-out/

A partir del 6:30 John Oliver (el del programa que ha aparecido algun corto suyo como el de Net Neutrality por meneame) habla del tema

D

que dices idiota??? las casas se hacen con ladrillo como hace mil años y duro trabajo de albañil, los coches andan con gasolina, la energia nuclear o carbon, cara sucia y problematica ... como desde la SGM ... "internet nos sacara de la crisis" desde hace ya 30 años llevan asi y nos mete cada vez mas en la crisis ...

y vienes tu que la tecnologia es un peligro, ¿ que tecnologia ?

porque no hay TODAVIA AVANCE TECNOLOGICO no hemos llegado a eso...

este lee muchas novelitas

D

Aquí podemos ver un duro debate entre Einstein y Stephen Hawking al puro estilo Rap
http://meencantaelocio.blogspot.mx/2015/01/epic-rap-battle-of-history.html

D

Stephen Hawkıng, el fısıco que se equıvoca en todo lo que dıce.

1 2