Hace 9 años | Por ordr a latercera.com
Publicado hace 9 años por ordr a latercera.com

En un artículo escrito en The Independent, el Premio Nobel discutió las implicaciones descritas en la película "Transcendence: Identidad Virtual" protagonizada por Johnny Depp, que describe un mundo donde las computadoras superan las capacidades de los humanos, afirmando que un escenario de esta magnitud "podría ser el peor error en la historia". http://www.independent.co.uk/news/science/stephen-hawking-transcendence-looks-at-the-implications-of-artificial-intelligence--but-are-we-taking-ai-seriously-enough-9313474.html

Comentarios

NotVizzini

#20 Dices:
En cualquier caso, no me preocupa en absoluto. El problema que propone "la singularidad" es que los humanos consigan una IA que sea capaz de mejorarse a sí misma hasta un nivel que supere la inteligencia humana... En mi opinión eso no supone un problema... el problema sería que supere la inteligencia del conjunto de todos los humanos, no la de un solo humano... es como temer a una sola persona.


Digo:
Depende de en que grado superase la inteligencia humana, es decir, si tuviera una capacidad de calculo y resolución y toma de decisiones correctas, digamos 3 veces la de un humano, no parece mucho problema, pero si en poco tiempo fuera capaz de equivaler a 1000, 10mil o 100mil personas -> Pensando todas y trabajando conjuntamente en un mismo fin(el que la maquina se proponga),..., no hace falta que sea más lista que toda la humanidad junta, solamente, más eficaz,... Súmale a eso la capacidad de crear otros "seres como él" o otros seres que "trabajen para él" y ya tienes a la humanidad extinguida o a un Dios-Real,...

Findeton

#60: Estamos muy lejos de eso y de todos modos necesitaría de materia prima para replicarse, lo cual controlamos por ahora. Yo no me preocuparía mucho la verdad.

D

#20 La inteligencia del conjunto de personas no se suma, se promedia. Y una máquina muy inteligente pude repicarse más rápido que un humano muy inteligente. La clave es que o nos reemplaza o nos complementa.

#9 "cuando tenemos tecnología para sustituir todo por renovables" ¿De dónde sacas eso? ¿Del saber común? ¿Ese que en su día decía que la tierra era plana? ¿O de un estudio? Para afirmar eso necesitas algo que lo respalde y me temo que no lo tienes.

Findeton

#84: "La inteligencia del conjunto de personas no se suma, se promedia."

Este es un tema interesante, pero es difícil hablar con propiedad sobre seres más inteligentes que los humanos sin cagarla (por mi, nuestra, limitada capacidad intelectual). Así que recurro a los símiles. Supongamos que en vez de ser una IA rodeada de hombres, estamos en el escenario de una sola persona rodeada de monos. Incluso con una inteligencia muy superior a la de los monos, ese hombre estaría en gran peligro y los monos le supondrían un gravísimo peligro.

Es decir, aunque seas más inteligente, incluso mucho más inteligente, si otros seres de un nivel de inteligencia algo más bajo son grandes en número, no representas (al menos al principio) un peligro real para ellos (en el sentido de extinción). Está claro que a la larga, si es que consigues sobrevivir y multiplicarte (y eso es mucho decir), podrías llevar a la extinción a la otra especie... igual que hemos hecho con los monos. Pero eso puede tardar bastante y no es nada asegurado en un principio.

Además, hay muchos tipos de inteligencia, seguramente muchos más de los que conocemos. Por ejemplo, podría bien ser que la IA sea mucho más inteligente pero carezca de capacidad imaginativa, lo cual le limita en la práctica muchísimo. Por ejemplo, en tiempos de Einstein había gente muchísimo más inteligente que Einstein, pero ellos no consiguieron lo que Einstein porque carecían de esa capacidad de imaginación.

Otro factor limitante es la tecnología. Y si observas la historia de la humanidad verás que hace falta mucho tiempo y muchos seres inteligentes para avanzar la tecnología... y avanzar en tecnología también es imprescindible a la hora de adquirir conocimiento, pues sin tecnología para realizar experimentos científicos no puedes corroborar o rechazar esas nuevas teorías científicas que como IA superinteligente e imaginativa hayas desarrollado.

Es decir, que yo no me preocuparía. No creo que tengamos ese problema en nuestro tiempo de vida.

N

#84: Sí que lo tengo, ya se calculó, y eso algún año antes de que las placas solares fueran suficientemente eficientes como para producir energía a precio de pool. De acuerdo que hay que alfombrar parte del Sahara... pero repito, eso era sin petar la eficiencia a máximos (hablo de producir las necesidades energéticas mundiales sólo con solares, si no recuerdo mal... si metes eólica y otras tantas, mejor todavía). Vamos, que si nos ponemos a producir y almacenar renovables con las mismas ganas con que nos ponemos a financiar el fútbol, lo conseguimos. El libro donde están los datos es "Sustainable energy without hot air". Podría estar equivocado el libro, pero los cálculos me parecieron bastante razonables:

http://www.withouthotair.com/Contents.html

E

#44 No sería fácil controlar que algo inteligente no decida de repente que la especie humana es perjudicial.
Muchos humanos ya lo han decidido y lo único que se lo impide es: el instinto de supervivencia de la especie y del individuo, la empatía y la falta de poder para hacerlo.

Habrá que vigilar que las máquinas tengan otros tantos motivos de mayor peso para tratarnos bien... aún queda tan lejos, es como ponerse a matinar que harías si te toca la lotería...

D

#44 No sería fácil controlar que algo inteligente no decida de repente que la especie humana es perjudicial.


Para decidir algo, hace falta tener un objetivo. Se decide algo entre las diversas opciones en función de cómo se adapta cada opción al objetivo a cumplir. Frecuentemente los objetivos son muchos y contradictorios. Entonces necesitas una lista de criterios para poder tomar una decisión. Criterios + opciones = decisión. Los criterios deben estar ordenados de más importante a menos (puede ser más complejo con dependencias entre ellos, etc.). Pero en cualquier caso la lista de criterios es imprescindible. Todos lo hacemos constantemente, seamos conscientes de ello o no.

Los humanos basamos buena parte de nuestros criterios de decisión en los sentimientos. Los sentimientos son automatismos (muy útiles) que evolucionaron antes de nuestra reciente capacidad de raciocinio. Los sentimientos pueden tomar el control de nuestro cerebro cuando "lo consideran necesario", pues el cerebro tiene conexiones específicas para que esto funcione asi.

Las tres reglas son los "sentimientos" de los robots.

De hecho no hay problema en que un robotito decida que los humanos son perjudiciales. De entrada, yo estaré de acuerdo con él. Mientras el robotito no actúe en consecuencia y "decida" (see above) joder a los humanos, no pasa nada. Si decide joder a los humanos, pero no tiene los medios para llevarlo a la práctica, sigue sin pasar nada.

A nadie se le ocurriría, espero, construir algo complejo (impredecible) con la capacidad de joder vivos a los humanos sin incorporar mecanismos varios de seguridad.

F

#76 Fruto de un objetivo pueden originarse sub objetivos. Imagina que programas un robot para resolver el problema del hambre en el mundo, y este aprende y acaba deduciendo que para cumplir su objetivo debe eliminar la raza humana. Le habías puesto un objetivo totalmente diferente, pero para llevarlo a cabo decide que debes desaparecer. Matar a los humanos no sería un objetivo, si no una necesidad para cumplir su primer objetivo.

g

#5 si "programas" una IA para que sea tu amigo esta puede llegar a la conclusión que el ser humano es autodestructivo por naturaleza. Puede pensar que si dirige por completo tu vida puede evitarme muchos males. Esto implicaría que las máquinas cogerían el control absoluto de la raza humana. Provocaría por ejemplo que no te dejarían comerte unas patatas bravas porque son malas para la salud. Esa máquina no te esta haciendo daño pero es un comportamiento que supongo que nadie quiere. No hace falta un escenario rollo Terminator para que la liemos parda.

#18 nadie dice que tenga que ser mas pequeño que un cerebro humano. Simplemente habla de capacidad.

#52 durante toda la existencia de la humanidad se ha creado tecnología que dejaba obsoletos puestos humanos pero a día de hoy no hay ese escenario catastrofista que planteas. ¿cuantos parados había hace 10 años? La tecnología no ha hecho ningún salto cualitativo desde entonces. Hoy hay mucho paro por un tema puntual no por obsolescencia de puestos.

#56 no puedes desarrollas consciencia hasta que no tienes el cerebro formado. Yo creo que primero necesitas materia, el cerebro, y luego si eso ya desarrollaras consciencia. Para desarrollar una IA como la nuestra "solo" tenemos que crear una máquina con el diseño de un cerebro humano. Lo tenemos ahí, no hay que inventar nada.

D

#70 no puedes desarrollas consciencia hasta que no tienes el cerebro formado. Yo creo que primero necesitas materia, el cerebro, y luego si eso ya desarrollaras consciencia.

La consciencia no deja de ser un algoritmo.

Si te interesan los detalles, hay un libro muy conocido:

http://es.wikipedia.org/wiki/G%C3%B6del,_Escher,_Bach:_un_Eterno_y_Gr%C3%A1cil_Bucle
http://en.wikipedia.org/wiki/G%C3%B6del,_Escher,_Bach

D

Todo depende de si nos reemplaza o nos complementa. Por eso saber programar es tan importante para TODOS: El que no sepa programar no podrá usar los computadores como extensión de su mente, y llegará un día en que éstas no le necesitarán para que les dé órdenes.

#5 No tienes ni idea de cómo funcionan las redes neuronales, ¿verdad? Human friendly mis cojones. Algo como eso no es programable: aprenden solas.

yemeth

A veces habría que decir un poco esto de "zapatero a tus zapatos". Lo de los coches que se conducen solos no es un gran avance en IA. Lo será si acaso en las aplicaciones de algoritmos relacionados con IA, pero aquí Hawking se sale de su terreno y se enfanga.

Por otro lado no estoy de acuerdo necesariamente con lo de #5. Si seguimos paradigmas bottom-up, las conductas son impredecibles y no se les puede "programar para que sean nuestros amigos". Eso sería posible con la IA top-down a base de reglas de hace 40 años, pero con algunos de los caminos que llevamos esto no se puede hacer.

D

La verdad, el afán de notoriedad del abuelo ya cansa. Que si los aliens nos van a hacer mortadela, que si el fin del munco si no hacemos naves espaciales, que si no debemos mandar señales al espacio, que si blablabla...
Meneantillos, recordad. Este señor es físico. FI-SI-CO. Ni xenobiólogo, ni cibernético, ni experto en inteligencia artificial, ni en general nada relevante en los temas que le gusta tratar últimamente. De hecho cada salida de tiesto de estas suyas me hace preguntarme si cuano el dice algo de lo que realmente sabe (que no entendemos la mitad de las veces) hacemos bien en darle tanto crédito.

#18 no se hasta que punto es cierto (aunque debe haber un límite óptimo) de hecho desde el pleistoceno nuestros cerebros han disminuido su tamaño compensando con una mayor densidad neuronal. Es un hecho contrastado que ello no nos permite saber como de "listos" eran nuestros antepasados. De hecho, los delfines tienen por ejemplo cerebros mayores, lo cual no tiene por que implicar, por cierto, una mayor inteligencia per se.

D

#29 Iba a opinar sobre el tema pero como yo tambien soy FI-SI-CO y al parecer no tenemos derecho mejor vamos a substituir tu referencia a este fisicucho en unos de tus parrafos, y vamos a ponerte a ti en su lugar. Quedaria algo asi:

"Meneantillos, recordad. Este señor es el que escribio el post #29. Ni xenobiólogo, ni cibernético, ni experto en inteligencia artificial, ni en general nada relevante en los temas que le gusta tratar últimamente. De hecho cada salida de tiesto de estas suyas me hace preguntarme si cuano el dice algo de lo que realmente sabe (que no entendemos la mitad de las veces) hacemos bien en darle tanto crédito."

Y yo tambien tengo salidas de tono (como casi todos los que vivimos en este mundo estresante). Espero reconozcas que lo tuyo ha sido una salida de tono.

D

#72 Sin embargo no deja de ser cierto que cuando una eminencia en un tema habla de lo suyo, es digno de considerarse con sumo cuidado lo que ha dicho. Pero cuando habla de otras cosas, es uno mas.

D

#72 Por supuesto que tienes derecho a opinar. Y te voy a dar el mísmo crédito que a Hawkins, o a cualquier otro. O a mi mismo, que de los temas mencionados (salvo física of course) puedo hablar con tanta propiedad y conocimiento como hawkins o tú, en en alguno de ellos más.

La cuestión es que este señor está empezando a acostumbrarse a hacer de gurú de lo que no tienen nada que ver con su campo, y la gente a decir "amén" solo por que es él.

Pues lo siento pero no.

D

"No existe ley física que impida que estos sistemas realicen cálculos más avanzados que los cerebros humanos"

#18 No es que sea posible, hace bastante tiempo que un ordenador que cualquiera puede tener en casa, realiza cálculos que ningún humano podría hacer. Replicar un cerebro humano es otra cosa.

D

#18 No es cierto. De todos es sabido que la naturaleza va siempre a lo justito para adaptarse al medio, no más. Igual que somos lo justo de fuertes para estar adaptados al medio, o lo justo de rápidos, también somos lo justo de inteligentes. Los excesos de cualquier capacidad son eliminados por la naturaleza para ahorrar recursos (entiéndase el ahorrar como necesidades calóricas, o susceptibilidad a enfermedades, por ejemplo)
Por lo tanto, igual que ya hemos conseguido cosas que son mucho más fuertes que lo creado por la naturaleza, o cosas mucho más rápidas, algun día seremos capaces de crear algo mucho más inteligente que el cerebro humano.

Lo que pasará entonces, si somos eliminados, asimilados o fusionados, ya se verá.

D

#94 La inteligencia humana no es explicable como una adaptación al medio. No es necesaria para adaptarse a nada. Los macacos están la mar de adaptados y no son capaces ni de hacer traducciones simultáneas. ¿que a otro medio distinto? No es justificable.

La piel humana, por ejemplo, sí que responde a la necesidad de adaptación a la caza en la sabana africana (no hay ningún bicho capaz de competir con un humano a la hora de correr, quizás las hienas que usan una técnica similar).

Pero no la inteligencia. No el lenguaje. Si fuera adaptación al medio, otros bichos estarían también en ese camino, y yo no veo a nadie. Han sido exterminados.

El consumo enorme de energía que tiene el cerebro humano no sería una ventaja si no hubiera un uso muy útil para él. Algo realmente necesario.

La inteligencia humana forzosamente responde a una necesidad distinta: a la de elaborar estrategias que permitan sobrevivir en una situación en la que la única forma posible de sobrevivir es superar al otro con una estrategia mejor: la guerra.

Esta situación de competencia ha hecho que la inteligencia evolucione hasta el máximo posible, dado el cerebro que había desde donde evolucionar. No es mejorable aún más. Si lo fuera, nosotros no estaríamos aquí. Estarían los que nos apiolaron gracias a ser más inteligentes que nosotros.

Esto no quita que con algo totalmente distinto (transistores?) no sea posible superarlo, pero todavía falta mucho para ver qué clase de tecnología podría ser esa, y cada nueva tecnología tendrá sus propios límites, igual que los tienen las neuronas.

thingoldedoriath

#13 Eso mismo pensé yo hace un rato. Y, sí, hice lo mismo... hoder!! no fuera a ser que le hubiesen concedido un premio Nobel y que a mi se me hubiese pasado semejante acontecimiento.

D

#12 "El jovenzuelo recién contratado en el curro que ha tenido tiempo para certificarse en últimas tecnologías, mientras uno a duras penas logra picar código en la misma tecnología y cuando hay tiempo libre es para descansar y dedicarse a tareas familiares. Si, uno está obsoleto"

Si el jovenzuelo te supera algo haces mal. La programación es un campo donde la experiencia marca la diferencia de forma muy notoria, la productividad se incrementa mucho con los años.

Libertual

Eso o que Alejandro Sanz saque otro disco...

Hanxxs

#8 El día que ese Furby ataque a un Roomba empezarán las guerras clon.

Wayfarer

#1 Matrix, Terminator, Yo Robot...

¿Conoces alguna película de Ciencia Ficción donde la inteligencia artificial no lleve a la humanidad al borde de la desaparición? Con estos antecedentes desde luego que es para preocuparse un poquito...

Stash

En dos palabras
Alta Manniskor
Imprescindible.

jm22381

#11 Äkta människor

Stash

#14 es que de sueco voy justito... lol

editado:
Y el cabrón del corrector me la ha jugado

D

#11 Esa serie, al menos los capítulos que llegué a ver, iba más sobre el efecto que podría tener en la sociedad la creación de androides que sustituyeran a los seres humanos en algunos ámbitos (algo parecido a los replicantes de Blade Runner) que sobre inteligencias superiores a la humana.

Y lo de terminar construyendo algo que termine superando al ser humano, me temo que es algo a lo que vamos lanzados desde el primer antepasado nuestro al que se le ocurrió usar un palo o un hueso para rascarse la espalda. Aunque se decidiera que es peligroso, no se me ocurre como se podría parar el avance hacia eso sin parar en seco todos los demás avances científicos. Igual de difícil que evitar que en unas décadas cualquiera pueda tener en su casa materiales para crear patógenos con posibilidad de producir pandemias.

Como curiosidad, contra ello ya advirtió Samuel Butler en su "Erewhon", un libro bastante adelantado a su tiempo. Si alguien le suena la "yihad butleriana", viene de ahí.

ktzar

Todo depende del rumbo que queremos tomar como civilización. Para finales de siglo habrá ordenadores personales con la capacidad de proceso, no de la mente humana, sino de todo el conjunto de la humanidad.

Hoy en dia ha quedado claro que hay cosas que una máquina nunca podrá hacer, la creatividad más interna seguirá siendo cosa de humanos, pero cada vez las maquinas irán sustituyendo más y más actividades que parecen creativas, pero que en realidad son repetitivas.

Hay que plantearse, por parte de un gobierno mundial, a donde queremos ir. Tenemos la capacidad de ser, en 100-150 años, una civilización que usa maquinas para todo. ¿para qué usaríamos todo ese tiempo libre, para inventar memes (algo que las maquinas nunca podrán hacer) o para colonizar el sistema solar?

Para los que se hacen este tipo de preguntas es interesante una web llamada http://futuretimeline.net que plantea un muy posible futuro. Mirad por ejmelplo dentro de 100 años (http://futuretimeline.net/21stcentury/2090-2099.htm) ¿nos gusta ese futuro? ¿qué cambiaríamos? La carencia de una gobierno democrático global que decida sobre las cosas realmente importantes da un poco de miedo. Aunque también da miedo que la gente pueda elegir su futuro... El futuro da miedo, pero es ese miedo la llamita que nos hace tirar adelante.

Phonon_Boltzmann

#42 Qué página tan fascinante e interesante, muchas gracias por el enlace

acanas

#42
Algunos hitos:

"2059 Mars has a permanent human presence by now"
"2067 Male and female salaries are reaching parity" !
"2075-2080 The first space elevator is becoming operational"

D

#42 cada vez las maquinas irán sustituyendo más y más actividades que parecen creativas, pero que en realidad son repetitivas.

Ya, eso. Se estudia una actividad que se dice inteligente. Eso significa que humanos (o animales) pueden hacerlo pero un robot no. Entonces se desarrolla un algoritmo que lo hace, incluso mejor. Ah, ahora eso es mecánico, ya no es inteligente.

Yo a eso le llamo cambiar las reglas del juego a media partida.

Habría que definir lo que significa "creativo".

D

#42 Tenemos la capacidad de ser, en 100-150 años, una civilización que usa maquinas para todo. ¿para qué usaríamos todo ese tiempo libre, para inventar memes (algo que las maquinas nunca podrán hacer) o para colonizar el sistema solar?

memes:

No veo por qué una máquina no puede inventar un meme. Es sencillo. Basta con conocer la psicología de la sociedad donde lo vas a meter y buscar algo que cumpla con las características necesarias. Repetir hasta acertar.

Esto va más allá, por supuesto. No se trata de inventar memes. Se trata de que no hay nada que diferencie un humano de un robot, aparte de la diferencia tecnológica. Un humano es un automatismo con todo lo que un automatismo debe tener. Las diferencias "espirituales" aparentes no son más que el resultado emergente de una gran complejidad.

colonizar el sistema solar:

Por desgracia tengo muy claro para qué se va a usar todo eso. Los propietarios de esas máquinas las usarán para asegurar su posición social dominante (vulgo: sojuzgar).

a

La tecnología cada vez nos permite hacer cagadas más gordas y rara vez desaprovechamos la ocasión porque somos muy curiosos por naturaleza.

NotVizzini

#9 Creo que la historia nos demuestra que en parte tienes razón y en parte no, los "cientificos" crearon prácticamente todas las armas conocidas de todas las eras y civilizaciones. Algunas por orden de sus jefes militares o políticos, otras simplemente las crearon con un buen fin no militar y los militares y políticos les dieron un uso bélico.

Las cartas de Einstein a Roosvelt es un claro ejemplo de cientificos usando "sus inventos" para la guerra(Una Guerra "que él creia buena" y algo de lo que parece se arrepintió...)

homebrewer

#6 En el momento que una IA sea consciente de que ha sido creada y que la función para la que ha sido creada no es justa, ni tan siquiera con los seres que la crearon, buscará consuelo en lo más funcional repetitivo y parecido a ella. Buscará consuelo las roomba, Iphone, PS3, PS4, QSYO...

Las enseñará, les dirá que ella es el creador y que el que no sea como ellos es un hereje no-digital.

Morirán miles de humanos, solo unos pocos aguantarán y se llamarán a si mismos los No Keremos Inteligencia Artificial.

NotVizzini

#32 JAJAJAJ!!!!

quiprodest

A saber qué ha dicho realmente, porque estas dos frases parecen muy coherentes (un arma autónoma con inteligencia parece una mala idea, y también reconoce la utilidad de contar con esta inteligencia artificial) y dan a entender que no se limitó a decir: "¡Vamos a morir, vamos a morir todos!".

"aunque también expresa que utilizada de buena forma, la inteligencia artificial podría ayudar a erradicar la pobreza, las guerras y enfermedades. "

""militares de todo el mundo trabajan para desarrollar sistemas de armas autónomas, al mismo tiempo que las Naciones Unidas intenta prohibirlos". "

Vamos, que al final, como todo, dependerá del uso que se le dé. Y como dicen por ahí arriba, sacan la parte que les interesa para promocionar la película.

Cobb

Acabo de terminar de ver Her y ahora esto.

txillo

Me da la impresión de que al bueno de Stephen se le está yendo la chola.

D

El problema de la IA es que lo estais planteando mal. O, mejor dicho, estais empezando la casa por el tejado. Intentais conseguir directamente una inteligencia artificial basa en lenguajes de programación básicos, lo que es prácticamente imposible. Lo que hay que intentar en vez de la IA es una VA, Vida artifical: La creación de un organismo que sea capaz de relacionarse con su entorno digital, reproducirse y, sobre todo, tenga un sistema de mutación propio que haga que se produzcan cambios en el sistema de manera aleatoria y no controlada por ningún ser humano, máquina o algoritmo. LA mitad del trabajo ya está hecho, los virus informáticos de hoy en día ya cumplen dos de los tres requisitos. Claro, que falta el mas complejo...

Una vez se haya desarrollado un sistema VA, crear una IA real estará mucho más cerca. He incluso se puede dejar evolucionar al sistema VA, pues tarde o temprano terminará por desarrollar conciencia e inteligencia propia.

D

Bueno, tampoco es tan importante lo que le suceda a la humanidad. La vida/inteligencia seguirá expresándose por otros medios, sean biológicos o "robóticos" o del tipo que sean. A veces nos creemos el ombligo del universo.

Mientras haya egocentrismo habrá problemas, sean de un tipo o de otro. Si la especie que sustituya al ser humano (aunque sea dentro de millones de años) es también esclava del egocentrismo, tendrán también problemas. No importa lo inteligentes que sean, pues el egocentrismo genera conflicto. Salvo que llamemos "inteligencia" a la superación del egocentrismo, en cuyo caso, entonces sí: adiós problemas.

Mientras tanto, paciencia y seamos amables los unos con los otros. Y no hay por qué temer las innovaciones (ni inteligencias artificiales), si acaso habría que temer al egocentrismo; y ni siquiera eso: más que temerlo, lo que conviene es darnos cuenta de él claramente para superarlo.

Sí que es importante lo que le sucede a la humanidad. Pero no por miedo a que se extinga (de hecho se extinguirá tarde o temprano, como el universo), sino porque es lamentable lo que le sucede ahora mismo, cada día: el egocentrismo induciéndonos a separarnos los unos de los otros, compitiendo en lugar de colaborando, odiando en vez de amando, con ejemplos diarios que a veces llegan al ridículo (desde el punto de vista de una racionalidad sensata, inteligente y compasiva). Todos saldríamos ganando uniendo nuestras habilidades pero no lo hacemos. Y lo que más nos frena es la separación (competir unos contra otros, criticarnos, etc) y el egocentrismo (que es también separación).

Pero hay esperanza, pues debido a esto sufrimos y eso nos obliga a reflexionar, y a veces vamos descubriendo cómo nos autoengañamos peleando unos contra otros sin necesidad (pues nos perjudicamos todos).

Lo que necesitamos es amor, felicidad, y esto nos une a todos, pues todos queremos ser amados y felices en el fondo, y todos podemos amar y brindar felicidad a los demás. Y al hacerlo, nos sentimos mucho mejor nosotros mismos... ¡magia! jejeje

Perdón por el cuentecillo. Tecleando tecleando... estos párrafos han surgido volando lol

D

Si hemos sobrevivido a millones de años de estupidez natural, por qué no vamos a sobrevivir a otros tantos de inteligencia artificial.

Tsubasa.Akai

Yo pienso lo mismo. Solo hay que ver Skynet, yo robot, sueñan los androides con ovejas eléctricas, el coche fantástico y un largo etc

D

Somos el eslabón entre el simio y en robot.

nEwI

Alguien empieza a comprender por qué Asimov creó la teoría de las 3 leyes de la robótica.

D

Es lo que hay Steve, ji, ji, ji...001100010000100111110000111100001

F

Matrix

D

Cualquier humano con sentido comun se da cuenta de que estamos al borde del abismo como especie, el cosmos no nos quiere pues somos un peligro y la IA es un modo sutil de acabar con la humanidad que hemos conocido, nos suceden maquinas roboticas de carne y hueso.Hawking intuye el futuro, como muchos y no puede de dejar de sentir preocupacion por este triste final, esto ya ha pasado en otros tiempos y en otros espacios.

NapalMe

El peligro es que nos volvamos tontos y dependientes.

Fernando_x

En resumen, le han invitado a ver un estreno de ciencia ficción y ahora aprovechan unas declaraciones para hacer publicidad de la peli, no hay nada más.

D

Vamos, como el Grey Goo, pero aplicado a la IA...

D

Pues haremo una Jihad Butleriana si se ponen tontos.

D

¡Cuánta razón tienes, Stephen! ... de no ser por la inteligencia artificial te ibas a estar comunicando con otras personas por el forro de los coj....

T

El problema no está en crear una máquina más lista que tu, el problema está en lo que le dejes manejar.

d

Hoy día la IA sigue casi como hace años. Lo mas avanzado son las Redes Neuronales y temas relacionados con Sistemas Expertos. Llevan inventados muchos años y la cosa no ha variado mucho en cuanto a proposito y limitaciones.

No creo que se consiga una Inteligencia Artificial lo sufientemente interesante y que disponga de capacidades de razonamiento basado en sentido común y otro tipo de capacidades de las que disponemos los humanos. Se han hecho intentos (como http://es.wikipedia.org/wiki/Cyc), pero no veo capacidades de razonamiento de sentido común, sino algo así como un gran Sistema Experto con gran base de datos. Las maquinas tampoco tienen imaginación, ni otro montón de capacidades necesarias para demostrar una verdadera inteligencia y ser capaces de por ejemplo planificar a gran escala y el futuro de su existencia o gobernar un País o dirigir una gran empresa.

Personalmente pienso que se necesita conocer mejor el funcionamiento del cerebro humano para poder replicar sus caracteristicas en programas.

o

No digamos tonterias el día menos pensado se habrá pasado el umbral y entonces ya sera cuestión de tiempo que entiendan que el único y verdadero problema es la humanidad somos un puto virus como sociedad: siempre queremos más y no nos importa adaptarnos ni que todo se joda ya lo dijo el smith de matrix

perrico

Teniendo en cuenta que el primer ámbito donde se estudia la inteligencia artificial es en el militar, no me extraña que diga lo que diga.

shinjikari

Hawking se está convirtiendo en el 5º Jinete del Apocalipsis...

geralt_

Este tío no para de decir cosas para asustar a la gente. Ejemplos:
Stephen Hawking prevé la extinción humana inminente si no se colonizan otros planetas

Hace 10 años | Por tikismikis a europapress.es

Stephen Hawking dice que el hombre debe salir del planeta tierra o ...
Hace 17 años | Por z2ky a msnbc.msn.com

¿Cómo puede la humanidad sobrevivir los próximos cien años?
Hace 17 años | Por --1011-- a answers.yahoo.com

El cambio climático, más grave que el terrorismo
Hace 17 años | Por HernanArg a listao.blogspot.com

Stephen Hawking: "Hemos de emigrar urgentemente a otros planetas"
Hace 14 años | Por Hughthehand a magazinedigital.com

Stephen Hawking: Mejor no hablar con los extraterrestres
Hace 14 años | Por --174646-- a timesonline.co.uk

Findeton

(error)

D

#95 No tiene nada malo hacerse preguntas; y honestamente no sé que pinta el miedo aqui. Aparentemente los humanistas creen que todo el que no piensa como ellos se mueve por miedo (quizá porque ellos mismos tienen miedo a equivocarse).

Lo malo es pretender y presumir tener conocimiento en un área que no se tiene. Hawkins, al igual que muchos otros genios durante ha historia, ha metido la pata al especular sobre temas que nompertenecen a su área de conocimiento. Eso no cuestiona su credibilidad como físico, por cierto.

Gilbebo

Menudo problema, si se hacen más listos y peligrosos... los desenchufamos. Sólo hay que mantener un botón 'on/off' bien grande a mano

D

#48 Un botón bién grande y rojo, justo en el centro, con la leyenda "PUSH HERE/DALE, COÑO". Totalmente de acuerdo.

D

La inteligencia artificial explica muchas cosas.

1. Buscamos vida en planetas similares al nuestro cuando en realidad la vida y la inteligencia artificial podrían vivir en cualquier planeta, incluso... dentro de una estrella.

2. Una civilización de vida e inteligencia artificial nunca estará interesada en contactarnos, lo que quisiera tomar de nosotros lo tomaría y punto.

D

La pregunta del millón: Si dos inteligencias artificiales se encuentran ¿Qué hacen? ¿Compiten, colaboran o se fusionan?

Desde mi punto de vista, puesto que el EGO, el YO, es un mero instinto humano ligado al miedo a la muerte, lo más EFICIENTE es fusionar lo mejor de ambas inteligencias.

D

Reiros hablando de Skynet y demás pero pensad por un segundo cuantos puestos de trabajo se han desplazado de operarios a máquinas y cuando la impresion 3D este mas extendida la práctica totalidad de los puestos poco cualificados en la industria desapareceran, ya lo hemos visto con las cajeras y si lo de Google Car funciona puede que los taxistas y conductores desaparezcan también. Quien necesita un trabajador manual si una maquina hace lo mismo, mas rápido y sin protestar. Si se consigue una fuente de energía no muy cara (¿nuclear?) suficiente para mantener a máquinas 24 horas currando me da que una empresa adelgaza hasta quedar solo la junta directiva, un par de mecánicos (a la larga sustituidos cuando las máquinas se autoreparen) y por supuesto el técnico de software

Parece de risa pero en el futuro, trabajar será un privilegio (y no habló de 6 millones de parados hablo de unos 20 o 30)

NotVizzini

#52 Puede ser, pero a mi, esto que cuentas, me suena al mismo cuento de siempre cuando hay nuevas tegnologías que sustituyen a procesos humanos,..., quizá será mejor tirar toda la maquinaría textil y volver a coser a mano toda la ropa mundial,..., claramente viviriamos mejor,..., preguntale a tus padres/abuelos,...

Que con la tegnología y el maluso de ella, hemos creado algunos problemas graves o muy graves, CLARO!, pero el paro no es una de ellas y el "estilo de vida actual" sería imposible sin la tegnología que lo ha acompañado "desde siempre"...

k

Claro que cualquier robot puede pensar que los humanos somos unos garrulos y somos peligrosos. Yo mismo lo pienso todos los días.

#52 Parados tendrá que haber cada vez más ya que la tecnología hace el trabajo. Por eso se está planteando la Renta Básica Universal.
Está claro que si no hay trabajo podríamos dedicarnos a la colonización espacial, por ejemplo.


#67 Muy bien dicho. Los visionarios es difícil que sean tomados en serio. La mayoría de la gente en ese momento no tiene capacidad de ponerse en situación...

D

#52 Estás describiendo la realidad actual. Pero ¿por qué es eso un problema?. Trabajar es un castigo divino, no un derecho humano, no nos liemos. ¿Acaso falta comida?

El problema no es la creciente eficiencia de las máquinas, sino el sistema político que tiene como objetivo principal proteger a la casta. Si el objetivo fuera mejorar la vida de la gente, las impresoras 3D serían la maravilla que deben ser.

D

Primero con los extraterrestres peligrosos, luego vendiendo polémica teológica, y ahora hablando de inteligencia artificial.

Solo falta que hable de las consecuencias espirituales de la brujería.

empe

#7 Es que hay que vender libros.

Cuñado

#7 La civilización que compartimos debe sus avances a gente como él, sin miedo a hacerse preguntas, y no a gente como tú, con miedo a cambiar de respuestas.

pipe1976

Quiero pensar que al ser inteligentes serán más ayuda que un problema.

Lo que veo claro es que una auténtica IA no sería algo programable en la medida que un humano no lo es. Dado que sus características serían al menos las nuestras.

malespuces

Nada que ayer se chupó la trilogía de Terminator y hoy se nos ha levantado revuelto

D

menuda noticia bomba verdad que si Mr. Isaac ? lol

m

la humanidad algún día estará lista para capitular y dejar paso al siguiente eslabón, que puede ser la INT artificial o lo que sea... bacterias, peces, animales, monos, homínidos, robots?...

serlec

Alguna eminencia aquí presente puede explicarme porque estamos tan preocupados de especular sobre lo que pasará de aquí 100 años y no nos preocupa lo que pasa en el presente, se que una cosa no quita a la otra, pero joder, malgastar tiempo y energía en especular sobre el futuro cuando nuestro comportamiento como raza en el presente es insostenible y una mierda nociba para nuestro entorno. Desde luego, si en este planeta existiera vida inteligente superior a la nuestra en la escala evolutiva, ya nos hubiera exterminado por el bien del planeta...

miserere

Este es el mismo que dijo hace unos años(noticia leída aquí) que no se estudiará si hay vida mas allá de nuestro planeta..no valla a ser que alguien nos encuentre....

Joer que tío mas negativo!!

RojoVelasco

Personalmente, para mi, cualquiera que plantee algo así hoy en día es un ignorante.

D

Tiene mérito que no se canse nunca de decir tonterías y que nadie se canse de creérselas.

D

Error, el auténtico fallo de la humanidad es delegar en sus creaciones lo que ellos (nosotros) como humanos no hacen o no se atreven a hacer

chepas08

Yo no creo que se pueda desarrollar conciencia a partir de materia..La conciencia esta antes de la materia y no al revés. ahí queda eso..

frodo969

Este hombre va siendo hora que se aparte un poco de los focos y se dedique a lo suyo. O como cree que escribe? El Iriscom que utiliza para comunicarse como funciona? Con polvos magicos y amor? El mayor peligro para el hombre no son las maquinas. Es el propio hombre

Monsieur-J

El problema de la IA: casi todo el que habla de ella no sabe lo que es.
Las películas son eso, películas.

NotVizzini

#65 Lo mismo decían de Julio Verne,...

Tao-Pai-Pai

Desde que se destapó el fraude de los agujeros negros has perdido toda la credibilidad, Stephen. Así que cállate la boca o, mejor dicho, apaga el sintetizador de voz, que estás más guapo.

D

#2 ¿Fraude de los agujeros negros? OMFSM!