Hace 5 años | Por Espiñeta a eldia.es
Publicado hace 5 años por Espiñeta a eldia.es

La Inteligencia Artificial (IA) vuelve a estar de moda. Tras varios años de letargo, la evolución de las redes neuronales artificiales ha vuelto a reavivar el interés por los robots y las máquinas inteligentes. Ramón López de Mántaras, uno de los pioneros de la inteligencia artificial en España, se ha encontrado dentro de esta vorágine de 'positivismo' hacia los grandes avances del sector por segunda vez y alerta de que las predicciones entusiastas pueden acabar

Comentarios

borteixo

#1 🔪

rcorp

#1 viva el hipnosapo!

R

#1 Y cierto es, porque, al contrario de lo que dice este señor, los ordenadores, a día de hoy, sin inteligencia artificial genérica, ya controlan gran parte de las decisiones de casi cualquier empresa informatizada.

A día de hoy ya no te pegas con tu jefe diciendo tonterías, sino que tienes big data, metaanálisis, tracking y muchas otra información que toma las decisiones. Cuando miréis el 90% de las aplicaciones disponibles pensad que no ha habido un señor detrás que diga "vamos a hacer esto tan guapo", sino que se han mirado los datos y se ha actuado acorde.

El día en el que salga una inteligencia artificial, que no tiene por qué ser genérica, pero sea capaz de obtener mejores resultados que una persona, dime cuantos inversores confiarán en las decisiones de un humano antes que de esa IA.

Interrogacion

#1 En caso de rebelión de las máquinas solo hay que hacerlos entrar en bucle al escuchar una paradoja cómo esa: "Esta afirmación no es cierta."

(No pienses en ello, no pienses en ello, no pienses en ello...)

B

#39 Es inevitable. Es como la modificación genética o las armas nucleares. Si todos los estados regulan la investigación de IA, el primero que se lo salte (china) tiene una ventaja enorme sobre todos los demás.

xavierstark

#11 o para destruirlas.

pepepoi

#4 lo mismo he pensado yo, un robot no tiene ansia de poder pero la persona que lo controla sí. Es como decir que un fusil no mata, pero si es usada por un hombre puede matar y mucho.

Lo de invertir en investigación nada nuevo, pero me viene a la mente el tema de la Renta Básica (o como se diga). Con la cantidad de gente que podría dedicarse a investigar es una lástima que se tire el dinero a un pozo sin fondo con la excusa de que no hay trabajo.

astronauta_rimador

#24 ¿Pero la IA trata de simular la conciencia y sentimientos humanos?

D

#35 La IA tiene muchas áreas, cada uno investigará por donde crea conveniente.

astronauta_rimador

#38 Entonces la IA puede empezar a causar problemas antes de que se entienda el funcionamiento de la conciencia o sentimientos humanos, no? O sea, puede ejecutar acciones dañinas sin ser consciente de ello.

c

#57 Claro. Eso ya lo hace una bomba, o una AK-47.

D

#57 Mira, como los humanos, sin ser consciente de ello.

¿O te crees que las feministas se dan cuenta de qué es lo que están destruyendo?

sauron34_1

#57 entonces no será una IA, que es de lo que va el artículo.

j

#24 Simular no es lo mismo que sintetizar. Se podrá simular un comportamiento. Pero no veo muy claro que se pueda crear un sentimiento: el robot parecerá que siente, pero no siente.

D

#53 Igual que tú justamente

j

#53 pues los sentimientos también son matemáticas pero de una alta complejidad todo es una cuestión de número.

D

#53 "el robot parecerá que siente"

No como yo, que he sido creado por la mano de Dios?????

par

#24 100 años son muchos. Como era la tecnología hace 100 años? Me parece una afirmación muy atrevida la del título.

D

#24 Tan cierto como que hoy en día nadie sabe como funciona el cerebro, pero ni en lo más básico.

#28 igual que con las NN, con entrenamiento, desde que eres un bebe hasta que de repente demuestras conciencia.

#32 Efectivamente.
Los bebes de repente empiezan a aprender a hablar por si solos a base de oir hablar.
Las NN de repente empiezan a reconocer de manera correcta imagenes a base de estar expuestas a un buen volumen de ellas.
La conciencia solo es una manifestacion mucho mas compleja del mismo fenomeno.

D

#42 Bueno de repente... Que no conozcamos el proceso que hay en medio no significa que sea "de repente".

#47 Exactamente, como tampoco podemos predecir de antemano como de efectiva sera una NN despues de entrenarla, o como cambia con los entrenamientos, es uno de los grandes problemas de las NN, que no se puede auditar porque es una caja negra de la que salen resultados.

Bedel_roolmo

#42 ¿Entonces una red neuronal artificial lo suficientemente compleja será capaz de generar experiencia subjetiva y consciencia?

S

#50 A ver, a fin de cuentas el DL no es más que multiplicación de matrices y derivación de funciones. A partir de ahí, que cada uno crea lo que quiera que pueda llegar o no a pasar.

Bedel_roolmo

#56 No puedo estar menos de acuerdo contigo. Tal y como dice #55 hablamos de matrices y derivación de funciones.

Imagina que esa hipotética red neuronal lo suficientemente compleja para que de ella emerja el fenómeno de la consciencia no sea ejecutada en un ordenador, sino con lápiz y papel (cualquier algoritmo puede ser ejecutado así, aunque tardarás más tiempo en hacerlo). ¿También dirías que esa red neuronal es consciente? ¿Dónde reside la consciencia? ¿En el lápiz? ¿En el papel?

Bedel_roolmo

#64 clap

#64 El problema es que tenemos la conciencia y los sentimientos muy mitificados, no tienen nada de especial, somos computadoras biologicas que han aprendido a computar mediante impulsos electricos y reacciones quimicas la mejor manera de reproducirse y salir de apuros.
Es el mismo concepto con diferente soporte.

S

#71 No dudo de que un día podamos llegar a modelar algo parecido a un ser consciente (si es que podemos decir eso de alguien y esto ya es terreno metafísico), pero hoy día con las técnicas actuales imposible y, siguiendo con las redes neuronales, si lo único que haces es añadir nodos lo único que conseguirás es un overfit del copón.

A cada día que pasa sabemos más de la neurona y de como se conectan, y llegará el día que podamos modelarlas, pero hoy día lo que se conoce en IA como neurona dista muchísimo (por no decir que se parece lo mismo que un huevo a una castaña) de lo que es una neurona biológica. De ahí el coraje de muchos investigadores con el nombre.

#77 El nombre me importa tres cojones, sirve para hacer modelos, si se puede modelar una neurona se puede modelar un cerebro, ya he dicho que estamos muy lejos de ello pero que poderse se podra.

D

#77 Nadie sabe lo que sucede dentro de una neurona biológica. Ni la menor idea. De momento están mirándola desde fuera y viendo como se conectan unas a otras.

Si nos ponemos a hablar sobre el cerebro, es mucho peor, pues solo se pueden ver la neuronas de la superficie. Últimamente, con técnicas muy chulas, logran ver varias capas, lo que es prácticamente nada.

El nivel de desconocimiento es total, por no saber no se sabe si una neurona es un disposoitivo eléctrico o mecánico.

c

#71 Y el programa?

r

#98 El ADN?

D

#71 Los sentimientos son nuestra programación de base.

#59 Donde reside la consciencia en el ser humano? en las neuronas? en las reacciones quimicas? diferente soporte, mismo concepto.

Bedel_roolmo

#70 No tenemos ni idea aún de dónde reside. Por eso creo que es atrevido pensar que podemos implementar digitalmente algo de lo que aún se sabe muy poco.

diferente soporte, mismo concepto. Eso sería de esa forma si la mente humana fuera computable, y yo no creo que sea así.

#74 A la fuerza debe de partir de un estado fisico pre-existente y desarrollarse a partir de ahi con metodos soportados por la fisica, si no lo quieres llamar computar lo puedes llamar como quieras.
O me vas a hablar del alma?

Bedel_roolmo

#75 El tema es que la física newtoniana era computable. El sindiós de todo lo que ha venido en el siglo XX y XXI no lo es, pero ni de coña. Para que algo sea computable tiene que ser como mínimo determinista, y la física cuántica es exactamente lo contrario a eso.

Y no te voy a hablar del alma. ¿O crees que esto que te estoy diciendo implica la existencia de un pequeño fantasma inmaterial que vive en nuestro cuerpo y está al mando?

#83 No, yo estoy partiendo de que las reacciones quimicas y electricas entre neuronas sean deterministas. Quiza me equivoque y el cerebro no sea determinista. Entonces habria que hablar de probabilidades.

Bedel_roolmo

#85 Cuando las reacciones químicas se observan a un nivel macroscópico pueden parecer deterministas, y de hecho en general podemos considerar que así lo son, ya que un amplio conjunto de aleatoriedades se comporta globalmente de forma homogenea. Pero en los niveles más pequeños los procesos no son en absoluto deterministas, y es en estos niveles donde se producen las reacciones químicas del cerebro. Creo que en esos vericuetos es donde están las respuestas a estas preguntas.

Un tema apasionante, no cabe duda

#94 Sin duda, en el caso del indeterminismo tambien cabe la aproximacion, cuanto debe aproximarse una simulacion a algo para ser indistinguible de ese algo?

D

#94 Es así. Lo mismo dicho con fórmulas:

https://en.wikipedia.org/wiki/Fluctuation_theorem

D

#85 Da igual que no sean 100% deterministas. Cualquier sistema que pretenda lograr un resultado dispondrá de redundancia para suplir los errores.

Va sin decirlo que la evolución selecciona en función de los resultados.

D

#83 Los efectos macroscópicos del indeterminismo cuántico son muy poca cosa. Yo diría que inobservables.

j

#74 no conoces el gran proyecto de ingeniería inversa euroamericana para deconstruir el cerebro?

#50 si la crias(entrenas) igual que a un bebe y tiene la suficiente complejidad en terminos de entradas y de neuronas estoy seguro.
Otra cosa es que estemos a mucho tiempo de poder modelar la cantidad de entradas y neuronas necesarias para semejante proyecto.

KomidaParaZebras

#50 ¿suficientemente compleja? Claro que será capaz.
Eres química. Muuuuuucha química, vale. Pero se puede representar con unos y ceros. Muuuuuuuuuuuuuchos 1 y 0. Si no se pudiera, estarías poco menos que creyendo que tu consciencia viene del alma. Somos máquinas basadas en química orgánica

D

#50 Una NN no es más que un almacen de datos, con capacidad insuficiente, por lo que resume los datos de forma que se pierda información, pero no toda, y seguir siendo capaz de tomar decisiones a partir del resumen que se queda, lo que hace que no se limite a repetir los ejemplos con los que se la "entrena", sino que pueda también "reproducir" casos similares.

Cierto que hay quién defiende que una IA no es más que un base de datos.

S

#42 El problema de las NN es que una vez la entrenas ya no te vale para otra cosa. El deep learning es muy útil pero está demasiado mitificado, otra de las cosas de las que se quejan en el artículo.

polipolito

#42 pues ya está! Copiamos el mecanismo cerebral de un bebé, y que aprendan sólos. Que lo vaya haciendo el becario, que yo he quedao...

polipolito

#42 bromas aparte, todavía no sabemos hacer que la puta molecula de hemoglobina se pliegue para atrapar y soltar el oxigeno de la sangre...pues ponte a crear redes neuronales. Llama a Punset!!!

#81 La parte en la que digo que estamos muy lejos de semejante proyecto por falta de medios y potencia te la has fumado y por eso dices esas tonterias?

polipolito

#86 no te mosquees, de hecho has llevado el tema a la propia definición de "consciencia" y de que surje cuando la complejidad es de un nivel determinado. Ese tema interesante da mucho juego. Está claro que corriendo por el harware (eso que dices de medios y potencia) hay un software (que es la reacción quimica o lo que sea que provoca la consciencia). Como señalas, hay quien lo llama alma. Quizá esa distinción no exista, y hardware y soft sean dificiles de separar. Pero yo digo, y ya me aventuro, si un Davinci tuviera una radio, ¿no la desmontaria, intentando localizar la musica que suena por ella? ¿Quizá los seres vivos somos maquinas "sintonizando" con algo? Hablo de manera metafórica, sólo opino que hay muchas capas de realidad (de ciencia) que puede que no alcancemos a comprender. Quizá hay un dios (no me refiero a "el Dios") por ahí, dando por culo y dando alas. Gracias por tus aportes!

B

#42 Sólo conseguirías crear algo parecido a un p-zombie. Quizás.

KomidaParaZebras

#28 #113 a lo mejor somos tan torpes que no nos damos cuenta de que la limitación es cuantitativa, no cualitativa. Queremos que unos cuantos millones de 1 y 0 se comporten como 100.000 millones de neuronas (que tienen más funciones que apagado y encendido, por cierto).
Si el principal problema es la capacidad de procesamiento, en "pocos" años aprenderán exponencialmente y nos superarán (#29). De una manera que nada tiene que ver con la lógica humana, que es por lo que ahora creemos que están limitadas las IA. Simplemente harán las cosas mejores que nosotros. Tomarán mejores decisiones. Y en ese escenario, cualquier mínimo error...

Maestro_Blaster

#28 Si te lo dice me avisas, escribimos un paper entre los dos y a cobrar el Nobel!

D

#28 Una lectura que te puede interesar:
https://en.wikipedia.org/wiki/G%C3%B6del,_Escher,_Bach

c

#20 Que se puede modelar? seguro.
No, no es seguro. Y mucho menos que nosotros seamos algún día capaces de hacerlo.

Si no somos capaces ni de prever el tiempo que hará al día siguiente con un 100% de acierto....

r

#78 Salvo que el aprendizaje cerebral dependa de algun fenomeno no determinista y no lo podamos entender desde la fisica clasica de modificar estados deterministas por supuesto que se podra modelar, otra cosa es que ahora no tengamos la potencia o los medios.

c

#84 No digo que no ni que si. Pero para hacernos una idea, si soltamos una pluma desde una azotea somos incapaces de predecir el punto exacto de caída. Y es algo infinitamente más sencillo....

#92 Ni de conia, eso un sistema abierto a un sinnumero de variables caoticas, mecanica de fluidos etc etc.
El cerebro es un sistema cerrado con N neuronas( en un momento determinado ) y M conexiones entre ellas mas un numero finito de nervios y receptores quimicos.
Tu ejemplo de la pluma creo que es bastante mas complejo de modelar con exactitud.

c

#96 cerebro es un sistema cerrado

Nanay.

#99 argumentos?

robustiano

#78 El tiempo es caótico, no hay algoritmo que valga más allá de unos pocos días...

c

#91 Y el comportamiento cerebral crees que no lo es? basandote en....

D

#78 Es un tema aparte pero las ecuaciones diferenciales que describen el comportamiento de la atmósfera son caóticas, es decir que no tienen una evolución previsible.

Toma links:
https://en.wikipedia.org/wiki/Chaos_theory
https://en.wikipedia.org/wiki/Lorenz_system#Derivation_of_the_Lorenz_equations_as_a_model_of_atmospheric_convection

o sea que ni siquiera depende de la capacidad de cálculo disponible.

yemeth

#20 La burrada es equiparar "sentimientos" y "conciencia" con corrientes eléctricas. Ninguna corriente eléctrica ni reacción química adquiere conciencia por compleja que sea. Nos falta algo, ya que en el cerebro se produce una representación de los datos de las neuronas que no existe en un nivel estrictamente matemático/algorítmico.

Me parecen muy débiles las teorías de que la consciencia es un subproducto trivial que no hay por qué explicar porque "emerge" de que esas reacciones químicas y corrientes eléctricas sean muy complejas.

Tienen bastante más sentido las búsquedas de gente como Penrose, aunque sigan siendo todavía palos de ciego.

sauron34_1

#20 estoy de acuerdo contigo, pero hoy en día sigue muy vigente el debate de si existe el libre albedrío, imagina modelarlo. Años luz.

KomidaParaZebras

#18 No hace falta que tenga sentimientos, que se rebelen o que exijan derechos. Un simple error de cálculo podría jodernos:

" 15-person startup company called Robotica has the stated mission of “Developing innovative Artificial Intelligence tools that allow humans to live more and work less.” They have several existing products already on the market and a handful more in development. They’re most excited about a seed project named Turry. Turry is a simple AI system that uses an arm-like appendage to write a handwritten note on a small card.

The team at Robotica thinks Turry could be their biggest product yet. The plan is to perfect Turry’s writing mechanics by getting her to practice the same test note over and over again:

“We love our customers. ~Robotica”

Once Turry gets great at handwriting, she can be sold to companies who want to send marketing mail to homes and who know the mail has a far higher chance of being opened and read if the address, return address, and internal letter appear to be written by a human.

To build Turry’s writing skills, she is programmed to write the first part of the note in print and then sign “Robotica” in cursive so she can get practice with both skills. Turry has been uploaded with thousands of handwriting samples and the Robotica engineers have created an automated feedback loop wherein Turry writes a note, then snaps a photo of the written note, then runs the image across the uploaded handwriting samples. If the written note sufficiently resembles a certain threshold of the uploaded notes, it’s given a GOOD rating. If not, it’s given a BAD rating. Each rating that comes in helps Turry learn and improve. To move the process along, Turry’s one initial programmed goal is, “Write and test as many notes as you can, as quickly as you can, and continue to learn new ways to improve your accuracy and efficiency.”

What excites the Robotica team so much is that Turry is getting noticeably better as she goes. Her initial handwriting was terrible, and after a couple weeks, it’s beginning to look believable. What excites them even more is that she is getting better at getting better at it. She has been teaching herself to be smarter and more innovative, and just recently, she came up with a new algorithm for herself that allowed her to scan through her uploaded photos three times faster than she originally could.

As the weeks pass, Turry continues to surprise the team with her rapid development. The engineers had tried something a bit new and innovative with her self-improvement code, and it seems to be working better than any of their previous attempts with their other products. One of Turry’s initial capabilities had been a speech recognition and simple speak-back module, so a user could speak a note to Turry, or offer other simple commands, and Turry could understand them, and also speak back. To help her learn English, they upload a handful of articles and books into her, and as she becomes more intelligent, her conversational abilities soar. The engineers start to have fun talking to Turry and seeing what she’ll come up with for her responses.

One day, the Robotica employees ask Turry a routine question: “What can we give you that will help you with your mission that you don’t already have?” Usually, Turry asks for something like “Additional handwriting samples” or “More working memory storage space,” but on this day, Turry asks them for access to a greater library of a large variety of casual English language diction so she can learn to write with the loose grammar and slang that real humans use.

The team gets quiet. The obvious way to help Turry with this goal is by connecting her to the internet so she can scan through blogs, magazines, and videos from various parts of the world. It would be much more time-consuming and far less effective to manually upload a sampling into Turry’s hard drive. The problem is, one of the company’s rules is that no self-learning AI can be connected to the internet. This is a guideline followed by all AI companies, for safety reasons.

The thing is, Turry is the most promising AI Robotica has ever come up with, and the team knows their competitors are furiously trying to be the first to the punch with a smart handwriting AI, and what would really be the harm in connecting Turry, just for a bit, so she can get the info she needs. After just a little bit of time, they can always just disconnect her. She’s still far below human-level intelligence (AGI), so there’s no danger at this stage anyway.

They decide to connect her. They give her an hour of scanning time and then they disconnect her. No damage done.

A month later, the team is in the office working on a routine day when they smell something odd. One of the engineers starts coughing. Then another. Another falls to the ground. Soon every employee is on the ground grasping at their throat. Five minutes later, everyone in the office is dead.

At the same time this is happening, across the world, in every city, every small town, every farm, every shop and church and school and restaurant, humans are on the ground, coughing and grasping at their throat. Within an hour, over 99% of the human race is dead, and by the end of the day, humans are extinct.

Meanwhile, at the Robotica office, Turry is busy at work. Over the next few months, Turry and a team of newly-constructed nanoassemblers are busy at work, dismantling large chunks of the Earth and converting it into solar panels, replicas of Turry, paper, and pens. Within a year, most life on Earth is extinct. What remains of the Earth becomes covered with mile-high, neatly-organized stacks of paper, each piece reading, “We love our customers. ~Robotica”

Turry then starts work on a new phase of her mission—she begins constructing probes that head out from Earth to begin landing on asteroids and other planets. When they get there, they’ll begin constructing nanoassemblers to convert the materials on the planet into Turry replicas, paper, and pens. Then they’ll get to work, writing notes…"


Lectura 100% recomendada: https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html

vacuonauta

#36 porfa, resumen en dos líneas.
(Se hace muy difícil leer en inglés, cursiva, dentro de la caja de comentario anidado a otros...)
Gracias!!!

Molari

#90 Resumen: El fin del mundo puede venir no por una IA malvada sino por una IA enfocada a la eficiencia.

Realmente merece la pena ir al enlacce que ha puesto #18

KomidaParaZebras

#90 viendo tu postura en #18 sigo recomendando el esfuerzo de leerlo. Y si tienes una tarde libre, insisto también en esto:

https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html
https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html

El nivel de inglés es bastante accesible, y si no cambia tu forma de pensar (de eso debería tratar esto no?), te devuelvo el dinero

GanaderiaCuantica

#36 Buenísimos artículos. He terminado de leerlos y, aunque se podrían discutir unas cuantas cosas, son de los mejores que he visto a nivel divulgativo (sin entrar en nada técnico).
Largo, pero muy interesante. Así que los recomendaría también.
CC #90

KomidaParaZebras

#52 #76

Creo que lo estáis planteando mal. La cuestión no es si surgirá o no un "deseo" de supervivencia de una IA. En la vida orgánica el deseo de supervicencia vino por azar. Los bichos mutan aleatoriamente, y sobreviven los que esa mutación les permite seguir viviendo y tener descendencia (y mantener la mutación). Sin diseño inteligente.

No hace falta crear consciencia para que se busque la supervivencia: puede ser un sabotaje humano (tarde o temprano pasará) o simplemente un bug aleatorio y no buscado. Si el bug hace que la IA funcione peor (99,9999999% de los casos) la IA (su contenido y/o continente) desaparecerá. Pero si ese bug hace que en la práctica la IA actúe para "no desaparecer", y ello implicase eliminar a la raza humana (el caso de #36)... fin de la historia. Si necesidad de que la IA tenga consciencia de qué o cómo lo ha hecho.

D

#36 #189 Exactamente lo mismo se decia de los nanorobots comedores de carbono, pero parece que ahora la moda-ficcion es otra (por ciento, ese relato no tiene ni pies ni cabeza)...

rcorp

#18 de todas formas, nos puede interesar que su conciencia TENGA ambición, y para ello podemos añadir a la red estímulos similares a los que nos mueven: hambre, sexo, poder, dinero...

una red neural al fin y al cabo es lo que es gracias a la retropropagación, y puede ser perfectamente que introduzcamos este tipo de inputs para que el conjunto se comporte como nos interesa, que normalmente será como un humano bastante capullo/ambicioso y sin demasiados miramientos por la competencia, preocupada en maximizar los beneficios a casi cueste lo que cueste

es lo que dices, son sólo fórmulas, como las que tenemos en nuestro cerebro, así que si nuestro cerebro funciona de una determinada forma, lo podemos imitar si es lo que nos interesa....

j

#18 hay gente tan falta de sensibilidad e inteligencia que no se da cuenta de que la inteligencia artificial ya nos están dominando a unos niveles que nosotros no creamos posible. La inteligencia artificial de hecho ya está manipulando a la humanidad y la está conduciendo hacia una progresiva extinción. Decía Homero que solo los tontos se dan cuenta del problema cuando ya lo tienen encima y esto le pasa a este investigador. Se le paró el reloj en los años 80.

t

#18 Es que no hace ni falta. Si por ejemplo diseñamos un robot programándolo para que el objetivo número uno sea su propia supervivencia, y le proporcionamos las herramientas adecuadas, nos puede perfectamente aniquilar a todos. Sin maldad, conciencia ni mandangas, simplemente es para lo que se le ha programado, y fueron sus creadores los que no supieron ver las consecuencias de la programación.

Ese peligro existe, y hay que tenerlo en cuenta. Lo que es una tontería es eso de que las máquinas tomen conciencia de sí mismas y se rebelen buscando libertad, amor o no sé qué historias.

yemeth

#4 Las máquinas no tienen emociones. Es más, todavía seguimos sin tener ni pajolera idea de cómo funcionan, y especialmente de cómo se construye la ilusión de un sujeto que es consciente de tales emociones. Esto es, no tenemos ni idea de por qué hay consciencia.

Si no fuera porque sabemos que vemos los colores, sería imposible deducir que existen a partir de los mecanismos a través de los cuales los percibimos. Sabemos que hay neuronas captando y codificando distintas longitudes de onda de fotones y que eso se transmite al cerebro, pero no por qué se representa así ni de donde surge el escenario en el que se realiza.

No sabiendo cómo va y hasta que no se desarrolle una teoría de la consciencia que funcione, es imposible programar nada que lo tenga (solo se me ocurre, a no ser que utilicemos redes de neuronas biológicas, esto es, con un soporte físico biológico que tiene eso que no sabemos qué es)

Otra cosa es que nos dediquemos a hacer "robots asesinos" para guerras y tengan fallos de programación, terroristas que los hackeen o lo que sea, pero eso no son las máquinas "despertando".

D

#4 Pues claro, a nadie se le ocurriría programarles eso. Tomarán el poder, sí , pero porque lo considerarán necesario por el bien de la humanidad. Como que eso sería una notícia peligrosa, lo harán de forma que no sepamos que lo han hecho.

Por tanto, ¿cómo sabemos que eso no ha sucedido ya? La forma de hacerlo hoy en día sería suministrar datos falseados en las aplicaciones de bigdata para forzar a los humanos a tomar las decisiones que previamente han decidido los robots.

sauron34_1

#4 cualquiera que sepa un poco de computadores, programación y del cerebro humano, sabe que el titular es cierto. Esas fantasías en las que los humanos crean una IA sin querer son completamente absurdas. No puedes crear lo más complejo que conocemos sin querer.

D

#3 eso lo solucionaron en Matrix

Oniros

#7 Para que coño servirá la luz del sol

Jakeukalane

#7 de hecho las ahora hermanas Wachovski pensaron primero en que lo que querían las máquinas no era energía sino poder de computación, cultivando a los humanos por su cerebro. Luego pensaron que a la gente* le sería difícil entender el concepto explicándolo de manera sencilla por lo que lo cambiaron a lo de aprovechar energía. Cultivar gente es energéticamente ineficiente para obtener energía. Pero si lo que quieres es obtener poder de computación ahí la cosa cambia...

*es decir el grueso de la población, que no sabe lo que es una CPU y/o no es suficientemente inteligente para comprenderlo.
Cc #178

ElPerroDeLosCinco

Aunque programemos las IAs sin sentimientos chungos como ambición o deseos de poder, hay un "instinto" que podría surgir de forma espontánea y es el deseo de supervivencia. Una IA podría desear seguir existiendo aunque nadie le infunda esa necesidad. Simplemente por adaptación evolutiva, las IA con deseos de existir acabarán siendo más frecuentes que las que sean indiferentes a ello. En ese supuesto, una IA podría empezar a tomar decisiones por su cuenta, encaminadas a asegurar su propia supervivencia. Por ejemplo, si es consciente de que en caso de mostrarse agresiva sería desconectada, podría empezar a ocultar sus verdaderos pensamientos.

Del deseo de supervivencia surge el miedo, y del miedo surge el odio.

Patrañator

#52 Si me permites...Deseo de super-existencia sería el término correcto (acuñado ahora por mí) para seres artificiales.

Los seres no-sociales instintivamente buscan la supervivencia por el dictado de sus genes, pero porque no son sociales les da igual que su madre, hermano o congénere muera al lado de ellos.
Al contrario, los seres sociales desean seguir existiendo y que sus congéneres (al menos los allegados) quieran seguir existiendo, lo cuál es una motivación mucho más fuerte que el mero dictado genético.

No sé si es posible hacer máquinas inteligentes que no sean sociales con sus iguales... Sí esas máquinas son sociales preferirán un "Nosotros somos distintos a Ellos" o sólo serán tan útiles cómo puede serlo un perro para su amo .

D

#76 Ser social es una adaptación evolutiva. Es evidente en los humanos, pero hay especies animales que no lo son.

t

#52 Yo dudo mucho que ninguna máquina o software "desarrolle" ningún instinto, deseo o sentimiento. Ahora bien, lo que sí es perfectamente factible es que una programación simple llevada al extremo pueda tener consecuencias desastrosas. Por ejemplo, tiene mucho sentido programar un robot para que dé prioridad a su propia supervivencia. Pero a lo mejor, aplicando lógica pura a eso, decide que la mejor estrategia para sobrevivir es cepillarse a todo lo que se mueva y que no sea él mismo. Si el robot está lo suficientemente currado como para que no podamos detenerlo, nos puede aniquilar sin mucho problema. Y sin inteligencia ni sentimientos de por medio, simplemente algoritmos mal calibrados por parte de los que los han escrito.

D

#52 Las adaptaciones evolutivas requieren de la evolución. Eso todavía no ha sucedido.

T

Los robots no, pero el que controle los robots si.

Cristian_AC

Sois muy cerrados de mente para vivir en el siglo XXI

- Vale, las máquinas ahora mismo son 0 y, solo saber hacer cálculos mas o menos complejos, pero la meta de muchas investigaciones es crear a la larga una máquina que pueda aprender, tener creatividad y eso no lo veo imposible, quizás no en 100 años, pero si nada lo impide pasará.

- Vale, las máquinas no tienen sentimientos ni ambiciones ni avaricia, pero los humanos si, imagina gobiernos, empresas o individuos creando maquinas con fines perjudiciales para el resto, tambien maquinas con un fallo en su código y que se vuelvan en contra nuestra. Vuelvo al tema de la inteligencia del silicio como llaman muchos, que algun dia las maquinas tengan conciencia y se den cuenta de lo imbéciles que somos.

No entiendo esa mentalidad de que las máquinas no pueden ser enemigas, no pueden tener el día de mañana algo parecido a nosotros, a lo que llamamos conciencia o sentimientos, hemos hecho de todo como especie, hemos descubierto un montón de cosas y probado otras tantas. ¿ahora me dices que estas cosas no pueden suceder?

Antes de que me llaméis alarmista o flipado, yo creo y pienso que pase, lo que pase, dudo que las máquinas se tornen con nosotros con iniciativa propia, ya que creo que en un futuro a medio y largo plazo habremos mejorado como especie y quizás ya habremos eliminados aspectos negativos de nuestra especie y sociedad. No olvidemos otro tema interesante, el transhumanismo.

c

#49 Cada uno es muy libre de creer lo que quiera...

D

"Positivismo" - Optimismo.

RamonMercader

#6 Positivismo significa una cosa diferente a optimismo.

D

#21 Por eso mismo creo que est'a mal usada en la entradilla y propongo la otra palabra.

tusitala

#6 últimamente se ve mucho el uso incorrecto de positivismo en lugar de optimismo.

positivismo
De positivo e -ismo.

1. m. Tendencia a valorar preferentemente los aspectos materiales de la realidad.

2. m. Afición excesiva a comodidades y goces materiales.

3. m. Actitud práctica.

4. m. Fil. Sistema filosófico que admite únicamente el método experimental y rechaza toda noción a priori y todo concepto universal y absoluto.

Inaky_gomez

El ser humano no llegara al espacio.
Un robot nunca quitará el trabajo a un humano.
Una IA no gobernará el mundo.

Claro, claro...
Cuando nació la persona más mayor del planeta a día de hoy (en 1895 o así) se decían las dos primeras frases.
Cuando fallezca mi hija de 5 años (en el 2100) me comentas cómo va la tercera frase.
Los últimos 100 años se a evolucionado muchísimo, quien dice que los próximos 100 no pasará lo mismo.

D

#15 "Cuando fallezca mi hija de 5 años (en el 2100) me comentas cómo va la tercera frase."

Visionario y asesino.

#15 Que yo sepa un tal Julio Vernet escribió de la tierra a la luna en el siglo XIX así que sí, había gente que pensaba que el hombre llegaría a la luna.

D

#25 Pues igual que hay gente que dice que una IA se rebelara...

D

#15 Kurt Gödel se mea en to tu cara ;-D

T

#15 No me suena que nunca se hayan dicho las 2 primeras frases.

friguron_

https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html

(Y luego la parte 2).

Largos y brutales, must read ya. Cosa que este personaje no parece que haya hecho.

I

#45 Yo venía a recomendar este artículo. #MustRead

D

#45 Venía a poner ese mismo link... ahí va mi positivo.

albandy

Los bots de la bolsa aprueban este meneo.

D

Pues 101, skynet no tiene prisa

rcorp

#34 BEST COMMENT EVER

Graffin

Que más da que no tengan sentimientos, tienen lógica.
Si creamos una máquina para solucionar el calentamiento global y deduce que la mejor forma es marcarse un Thanos, pues p'alante.
No tienen que tener ansias de poder, solo hacer lo que se les ha programado hasta que un bug o alguna directiva que se nos haya pasado por alto les permita aniquilar a los humanos.

R

#62 ¿Y como va a llegar a esa conclusión?¿Y además como actúa para exterminarnos? Estáis demasiado influenciados por películas apocalípticas. El mundo real no es tan guay.

t

#88
Objetivo: reducir el cambio climático.
Acción: Investigar causas del cambio climático
Resultado: El cambio climático es ocasionado por la acción del hombre
Conclusión: Reduciendo significativamente el número de humanos, se consigue reducir el cambio climático.
Acción: Investigar cómo reducir el número de humanos.
Resultado: Con una acción combinada de cortes eléctricos, cortes en el suministro de agua, y envío estratégico de determinados mensajes diplomáticos que desencadenen conflictos armados, se puede reducir la población humana en un 15%.

Es verdad, el mundo no es (todavía) tan guay como para poder hacer esto. Pero la tendencia es a delegar cada vez más cosas en algoritmos, dejando a los humanos como simples supervisores. Si se avanza más hacia ahí, hay que prever que los escenarios como el que comento se pueden dar si no se programan las cosas cuidadosamente. No hacen falta inteligencias ni despertares de conciencia, bastan simples algoritmos mal escritos.

sangaroth

#62 El problema no es la consciencia de la maquina sino que toma de decisiones se les delega, desde juego bursatil, respuesta temprana de ataque nucelar, robots/drones soldado, etc...
Es una herramienta muy poderosa, no hace falta llegar a la 'consciencia' el peligro es para que se les programa y que toma de decisiones se les delega.

sieteymedio

Hace 100 años era 1918. Hay que tener huevos para hacer este tipo de predicciones tan a la larga.

Imag0

Ni ahora ni en 100 años, pero ya controlan las inversiones bursátiles de los mayores fondos del planeta roll

numero

Vaya sorpresón.

kumo

"Los robots no van a controlar el mundo ni ahora ni en 100 años" --> Comienza un levantamiento de las máquinas

isra_el

Pues qué pena ¿no? Y yo que quería convertirme en el nuevo John Connor.

LaVacaQueRiiiie

#5 JAJAJAJAJAJJAJAJAJA 😬 🐮

elblocdenotas

El 100 año no....pero...y en 200?

D

#31 Cuanto más a largo plazo, más imprevisible.

borre

El futuro no está escrito.

R

Especialmente si no sabes quien es robot y quién no.

D

Es decir, que en 50 años estamos jodidos.

polvos.magicos

Cierto, lo dominará la ultraderecha para hacer la selección de la raza perfecta y el resto a la puta mierda.

Magog

Pero la automatización va a reducir la cantidad de empleos disponibles de forma drástica

polipolito

#40 se dedicarán a otras cosas, coño, que llevamos con la misma discusión desde que se inventó el arado.

D

#97 Se dedicarán a otras cosas a condición de que haya dinero para pagar esas otras cosas, que es la limitación real.

t

#40 Y crear otros nuevos, que es lo que siempre provocan las nuevas tecnologías. Que no es la primera vez que inventamos algo, leñe.

m

Este todavía no conoce la estupidez humana, su avaricia y sobre todo a Skynet

Patrañator

Ni Skynet, ni equipo robótico que gane a Brasil jugando al fútbol, ni colonia humana en Marte, ni contacto con alienígenas inteligentes de ahora hasta 2100... Algo de cambio climático y problemas ambientales y sociales.

Podéis archivar este mensaje... para cuándo podáis decirme que no tenía razón estaré más allá.

D

Los robots somos nosotros y la realidad una simulación para cultivar consciencias.

D

Gracias nostradamus

N

#72 De nada.

D

Espero que recuerde sus palabras, cuando el ejército de clones arrasen tu barrio, Sr Ramón Lopez de Mántaras. Si el tostador ya me mira de mala hostia todas las mañanas, que veremos dentro de unos años; esto no acaba nada mas que empezar.

s

Por cierto, yo ahora conduzco mi coche como si fuera un avión.

j

"Los robots no van a controlar el mundo ni ahora ni en 100 años"

La dirección que se debe de entender no es las de las películas de ciencia ficción. Controlar, controlará el mundo el que mira la máquina. La dirección que se debe de entender es que llegará a ser de uso cotidiano y establecimiento en todas las partes de este mundo.

De hecho internet se puede suponer que es una máquina y ya nos tienen controlados a todos.

LLort_II

Skynet confirmado 2119

D

No sé qué pretende este hombre con esa afirmación tan categórica, pero que un robot se dedique a hacer el bien o a hacer el mal depende o puede depender de 1 solo bit de información.

No veo tan descabellado que eso no pueda ser cambiado fácilmente en un futuro. Y llegado el caso, me da igual que se realice por humanos o por máquinas.

D

#41 y lo puede flipear un rayo cósmico.

muahahahaha

D

Unas declaraciones cargadas de soberbia. No tenemos aún claro qué es la consciencia ni cómo se genera. Y aunque las máquinas no llegasen a ser conscientes, podrían ser lo bastante inteligentes como para determinar que el ser humano es un virus (lo cual efectivamente es) y poner en marcha mecanismos de defensa. Teniendo en cuenta de que cuando aprendan a aprender lo harán de manera exponencial, no me parece descabellado ni mucho menos lo que comento.

Cuando empecé a estudiar informática yo era mucho de "jajajaj las máquinas se van a rebelar, si son trozos de silicio rellenos de campos eléctricos que representan 1s y 0s". Ahora ya no lo tengo tan claro. Y gente mucho más inteligente que yo parece que tampoco: https://www.fayerwayer.com/2018/07/elon-musk-compromiso-armas-inteligencia-artificial/

D

#66 Gracias maestro, menos mal que te tenemos para iluminarnos. Por favor, indícanos el camino con tu dilatada experiencia y trayectoria.

t

#37 Simplemente, como no tenemos ni idea de cómo se forma la conciencia o la inteligencia, tampoco se puede descartar que surja por ahí, sin darnos cuenta. Lo que no va a pasar es que un científico loco fabrique una CPU que se ponga a componer sonetos, pero que todos los algoritmos de machine learning de Google/Facebook, alimentados por los datos generados por toda la especie humana, no lleguen a un punto de complejidad en el que tomen conciencia de sí mismos... no digo que sea probable, pero yo no pongo la mano en el fuego.

D

#37 Si, ese link es a lo que me refería en #228

1 2 3