Hace 5 años | Por Espiñeta a eldia.es
Publicado hace 5 años por Espiñeta a eldia.es

La Inteligencia Artificial (IA) vuelve a estar de moda. Tras varios años de letargo, la evolución de las redes neuronales artificiales ha vuelto a reavivar el interés por los robots y las máquinas inteligentes. Ramón López de Mántaras, uno de los pioneros de la inteligencia artificial en España, se ha encontrado dentro de esta vorágine de 'positivismo' hacia los grandes avances del sector por segunda vez y alerta de que las predicciones entusiastas pueden acabar

Comentarios

D

#3 eso lo solucionaron en Matrix

R

#1 Y cierto es, porque, al contrario de lo que dice este señor, los ordenadores, a día de hoy, sin inteligencia artificial genérica, ya controlan gran parte de las decisiones de casi cualquier empresa informatizada.

A día de hoy ya no te pegas con tu jefe diciendo tonterías, sino que tienes big data, metaanálisis, tracking y muchas otra información que toma las decisiones. Cuando miréis el 90% de las aplicaciones disponibles pensad que no ha habido un señor detrás que diga "vamos a hacer esto tan guapo", sino que se han mirado los datos y se ha actuado acorde.

El día en el que salga una inteligencia artificial, que no tiene por qué ser genérica, pero sea capaz de obtener mejores resultados que una persona, dime cuantos inversores confiarán en las decisiones de un humano antes que de esa IA.

Molari

#90 Resumen: El fin del mundo puede venir no por una IA malvada sino por una IA enfocada a la eficiencia.

Realmente merece la pena ir al enlacce que ha puesto #18

yemeth

#20 La burrada es equiparar "sentimientos" y "conciencia" con corrientes eléctricas. Ninguna corriente eléctrica ni reacción química adquiere conciencia por compleja que sea. Nos falta algo, ya que en el cerebro se produce una representación de los datos de las neuronas que no existe en un nivel estrictamente matemático/algorítmico.

Me parecen muy débiles las teorías de que la consciencia es un subproducto trivial que no hay por qué explicar porque "emerge" de que esas reacciones químicas y corrientes eléctricas sean muy complejas.

Tienen bastante más sentido las búsquedas de gente como Penrose, aunque sigan siendo todavía palos de ciego.

KomidaParaZebras

#18 No hace falta que tenga sentimientos, que se rebelen o que exijan derechos. Un simple error de cálculo podría jodernos:

" 15-person startup company called Robotica has the stated mission of “Developing innovative Artificial Intelligence tools that allow humans to live more and work less.” They have several existing products already on the market and a handful more in development. They’re most excited about a seed project named Turry. Turry is a simple AI system that uses an arm-like appendage to write a handwritten note on a small card.

The team at Robotica thinks Turry could be their biggest product yet. The plan is to perfect Turry’s writing mechanics by getting her to practice the same test note over and over again:

“We love our customers. ~Robotica”

Once Turry gets great at handwriting, she can be sold to companies who want to send marketing mail to homes and who know the mail has a far higher chance of being opened and read if the address, return address, and internal letter appear to be written by a human.

To build Turry’s writing skills, she is programmed to write the first part of the note in print and then sign “Robotica” in cursive so she can get practice with both skills. Turry has been uploaded with thousands of handwriting samples and the Robotica engineers have created an automated feedback loop wherein Turry writes a note, then snaps a photo of the written note, then runs the image across the uploaded handwriting samples. If the written note sufficiently resembles a certain threshold of the uploaded notes, it’s given a GOOD rating. If not, it’s given a BAD rating. Each rating that comes in helps Turry learn and improve. To move the process along, Turry’s one initial programmed goal is, “Write and test as many notes as you can, as quickly as you can, and continue to learn new ways to improve your accuracy and efficiency.”

What excites the Robotica team so much is that Turry is getting noticeably better as she goes. Her initial handwriting was terrible, and after a couple weeks, it’s beginning to look believable. What excites them even more is that she is getting better at getting better at it. She has been teaching herself to be smarter and more innovative, and just recently, she came up with a new algorithm for herself that allowed her to scan through her uploaded photos three times faster than she originally could.

As the weeks pass, Turry continues to surprise the team with her rapid development. The engineers had tried something a bit new and innovative with her self-improvement code, and it seems to be working better than any of their previous attempts with their other products. One of Turry’s initial capabilities had been a speech recognition and simple speak-back module, so a user could speak a note to Turry, or offer other simple commands, and Turry could understand them, and also speak back. To help her learn English, they upload a handful of articles and books into her, and as she becomes more intelligent, her conversational abilities soar. The engineers start to have fun talking to Turry and seeing what she’ll come up with for her responses.

One day, the Robotica employees ask Turry a routine question: “What can we give you that will help you with your mission that you don’t already have?” Usually, Turry asks for something like “Additional handwriting samples” or “More working memory storage space,” but on this day, Turry asks them for access to a greater library of a large variety of casual English language diction so she can learn to write with the loose grammar and slang that real humans use.

The team gets quiet. The obvious way to help Turry with this goal is by connecting her to the internet so she can scan through blogs, magazines, and videos from various parts of the world. It would be much more time-consuming and far less effective to manually upload a sampling into Turry’s hard drive. The problem is, one of the company’s rules is that no self-learning AI can be connected to the internet. This is a guideline followed by all AI companies, for safety reasons.

The thing is, Turry is the most promising AI Robotica has ever come up with, and the team knows their competitors are furiously trying to be the first to the punch with a smart handwriting AI, and what would really be the harm in connecting Turry, just for a bit, so she can get the info she needs. After just a little bit of time, they can always just disconnect her. She’s still far below human-level intelligence (AGI), so there’s no danger at this stage anyway.

They decide to connect her. They give her an hour of scanning time and then they disconnect her. No damage done.

A month later, the team is in the office working on a routine day when they smell something odd. One of the engineers starts coughing. Then another. Another falls to the ground. Soon every employee is on the ground grasping at their throat. Five minutes later, everyone in the office is dead.

At the same time this is happening, across the world, in every city, every small town, every farm, every shop and church and school and restaurant, humans are on the ground, coughing and grasping at their throat. Within an hour, over 99% of the human race is dead, and by the end of the day, humans are extinct.

Meanwhile, at the Robotica office, Turry is busy at work. Over the next few months, Turry and a team of newly-constructed nanoassemblers are busy at work, dismantling large chunks of the Earth and converting it into solar panels, replicas of Turry, paper, and pens. Within a year, most life on Earth is extinct. What remains of the Earth becomes covered with mile-high, neatly-organized stacks of paper, each piece reading, “We love our customers. ~Robotica”

Turry then starts work on a new phase of her mission—she begins constructing probes that head out from Earth to begin landing on asteroids and other planets. When they get there, they’ll begin constructing nanoassemblers to convert the materials on the planet into Turry replicas, paper, and pens. Then they’ll get to work, writing notes…"


Lectura 100% recomendada: https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html

borteixo

#1 🔪

ElPerroDeLosCinco

Aunque programemos las IAs sin sentimientos chungos como ambición o deseos de poder, hay un "instinto" que podría surgir de forma espontánea y es el deseo de supervivencia. Una IA podría desear seguir existiendo aunque nadie le infunda esa necesidad. Simplemente por adaptación evolutiva, las IA con deseos de existir acabarán siendo más frecuentes que las que sean indiferentes a ello. En ese supuesto, una IA podría empezar a tomar decisiones por su cuenta, encaminadas a asegurar su propia supervivencia. Por ejemplo, si es consciente de que en caso de mostrarse agresiva sería desconectada, podría empezar a ocultar sus verdaderos pensamientos.

Del deseo de supervivencia surge el miedo, y del miedo surge el odio.

r

#78 Salvo que el aprendizaje cerebral dependa de algun fenomeno no determinista y no lo podamos entender desde la fisica clasica de modificar estados deterministas por supuesto que se podra modelar, otra cosa es que ahora no tengamos la potencia o los medios.

T

Los robots no, pero el que controle los robots si.

Cristian_AC

Sois muy cerrados de mente para vivir en el siglo XXI

- Vale, las máquinas ahora mismo son 0 y, solo saber hacer cálculos mas o menos complejos, pero la meta de muchas investigaciones es crear a la larga una máquina que pueda aprender, tener creatividad y eso no lo veo imposible, quizás no en 100 años, pero si nada lo impide pasará.

- Vale, las máquinas no tienen sentimientos ni ambiciones ni avaricia, pero los humanos si, imagina gobiernos, empresas o individuos creando maquinas con fines perjudiciales para el resto, tambien maquinas con un fallo en su código y que se vuelvan en contra nuestra. Vuelvo al tema de la inteligencia del silicio como llaman muchos, que algun dia las maquinas tengan conciencia y se den cuenta de lo imbéciles que somos.

No entiendo esa mentalidad de que las máquinas no pueden ser enemigas, no pueden tener el día de mañana algo parecido a nosotros, a lo que llamamos conciencia o sentimientos, hemos hecho de todo como especie, hemos descubierto un montón de cosas y probado otras tantas. ¿ahora me dices que estas cosas no pueden suceder?

Antes de que me llaméis alarmista o flipado, yo creo y pienso que pase, lo que pase, dudo que las máquinas se tornen con nosotros con iniciativa propia, ya que creo que en un futuro a medio y largo plazo habremos mejorado como especie y quizás ya habremos eliminados aspectos negativos de nuestra especie y sociedad. No olvidemos otro tema interesante, el transhumanismo.

#64 El problema es que tenemos la conciencia y los sentimientos muy mitificados, no tienen nada de especial, somos computadoras biologicas que han aprendido a computar mediante impulsos electricos y reacciones quimicas la mejor manera de reproducirse y salir de apuros.
Es el mismo concepto con diferente soporte.

#47 Exactamente, como tampoco podemos predecir de antemano como de efectiva sera una NN despues de entrenarla, o como cambia con los entrenamientos, es uno de los grandes problemas de las NN, que no se puede auditar porque es una caja negra de la que salen resultados.

Bedel_roolmo

#56 No puedo estar menos de acuerdo contigo. Tal y como dice #55 hablamos de matrices y derivación de funciones.

Imagina que esa hipotética red neuronal lo suficientemente compleja para que de ella emerja el fenómeno de la consciencia no sea ejecutada en un ordenador, sino con lápiz y papel (cualquier algoritmo puede ser ejecutado así, aunque tardarás más tiempo en hacerlo). ¿También dirías que esa red neuronal es consciente? ¿Dónde reside la consciencia? ¿En el lápiz? ¿En el papel?

D

"Positivismo" - Optimismo.

D

#35 La IA tiene muchas áreas, cada uno investigará por donde crea conveniente.

Inaky_gomez

El ser humano no llegara al espacio.
Un robot nunca quitará el trabajo a un humano.
Una IA no gobernará el mundo.

Claro, claro...
Cuando nació la persona más mayor del planeta a día de hoy (en 1895 o así) se decían las dos primeras frases.
Cuando fallezca mi hija de 5 años (en el 2100) me comentas cómo va la tercera frase.
Los últimos 100 años se a evolucionado muchísimo, quien dice que los próximos 100 no pasará lo mismo.

friguron_

https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html

(Y luego la parte 2).

Largos y brutales, must read ya. Cosa que este personaje no parece que haya hecho.

D

#238 La computación cuántica está por demostrar que funcione. De funcionar no es capaz de hacer lo mismo que un PC normal y corriente, solo vale para acelerar determinados algoritmos, si funcionara.

El cerebro humano ha crecido hasta el máximo de su capacidad. No puede ser más grande sin que la longitud de conexiones entre las neuronas lo ralentizase. Si se hace más pequeño tendría menos neuronas y pierde capacidad. Si pones neuronas más pequeñas, las sinapsis se vuelven más lentas (los bichos más rápidos que nosotros tienen neuronas gordas). Si pones neuronas más grandes, tienes menos neuronas a no ser que lo hagas más grande, con lo que se aplica lo de la longitud de las sinapsis.

Vamos, que está optimizado. Por este lado no se puede crecer. Con otra tecnología quizás, pero las tecnologías actualmente conocidas o supuestas son todas muy inferiores.

#15 Que yo sepa un tal Julio Vernet escribió de la tierra a la luna en el siglo XIX así que sí, había gente que pensaba que el hombre llegaría a la luna.

polipolito

#40 se dedicarán a otras cosas, coño, que llevamos con la misma discusión desde que se inventó el arado.

t

#37 Simplemente, como no tenemos ni idea de cómo se forma la conciencia o la inteligencia, tampoco se puede descartar que surja por ahí, sin darnos cuenta. Lo que no va a pasar es que un científico loco fabrique una CPU que se ponga a componer sonetos, pero que todos los algoritmos de machine learning de Google/Facebook, alimentados por los datos generados por toda la especie humana, no lleguen a un punto de complejidad en el que tomen conciencia de sí mismos... no digo que sea probable, pero yo no pongo la mano en el fuego.

albandy

Los bots de la bolsa aprueban este meneo.

astronauta_rimador

#38 Entonces la IA puede empezar a causar problemas antes de que se entienda el funcionamiento de la conciencia o sentimientos humanos, no? O sea, puede ejecutar acciones dañinas sin ser consciente de ello.

S

#71 No dudo de que un día podamos llegar a modelar algo parecido a un ser consciente (si es que podemos decir eso de alguien y esto ya es terreno metafísico), pero hoy día con las técnicas actuales imposible y, siguiendo con las redes neuronales, si lo único que haces es añadir nodos lo único que conseguirás es un overfit del copón.

A cada día que pasa sabemos más de la neurona y de como se conectan, y llegará el día que podamos modelarlas, pero hoy día lo que se conoce en IA como neurona dista muchísimo (por no decir que se parece lo mismo que un huevo a una castaña) de lo que es una neurona biológica. De ahí el coraje de muchos investigadores con el nombre.

c

#20 Que se puede modelar? seguro.
No, no es seguro. Y mucho menos que nosotros seamos algún día capaces de hacerlo.

Si no somos capaces ni de prever el tiempo que hará al día siguiente con un 100% de acierto....

RamonMercader

#6 Positivismo significa una cosa diferente a optimismo.

D

Pues 101, skynet no tiene prisa

robustiano

#78 El tiempo es caótico, no hay algoritmo que valga más allá de unos pocos días...

sangaroth

#62 El problema no es la consciencia de la maquina sino que toma de decisiones se les delega, desde juego bursatil, respuesta temprana de ataque nucelar, robots/drones soldado, etc...
Es una herramienta muy poderosa, no hace falta llegar a la 'consciencia' el peligro es para que se les programa y que toma de decisiones se les delega.

T

#15 No me suena que nunca se hayan dicho las 2 primeras frases.

#32 Efectivamente.
Los bebes de repente empiezan a aprender a hablar por si solos a base de oir hablar.
Las NN de repente empiezan a reconocer de manera correcta imagenes a base de estar expuestas a un buen volumen de ellas.
La conciencia solo es una manifestacion mucho mas compleja del mismo fenomeno.

D

#45 Venía a poner ese mismo link... ahí va mi positivo.

yemeth

#4 Las máquinas no tienen emociones. Es más, todavía seguimos sin tener ni pajolera idea de cómo funcionan, y especialmente de cómo se construye la ilusión de un sujeto que es consciente de tales emociones. Esto es, no tenemos ni idea de por qué hay consciencia.

Si no fuera porque sabemos que vemos los colores, sería imposible deducir que existen a partir de los mecanismos a través de los cuales los percibimos. Sabemos que hay neuronas captando y codificando distintas longitudes de onda de fotones y que eso se transmite al cerebro, pero no por qué se representa así ni de donde surge el escenario en el que se realiza.

No sabiendo cómo va y hasta que no se desarrolle una teoría de la consciencia que funcione, es imposible programar nada que lo tenga (solo se me ocurre, a no ser que utilicemos redes de neuronas biológicas, esto es, con un soporte físico biológico que tiene eso que no sabemos qué es)

Otra cosa es que nos dediquemos a hacer "robots asesinos" para guerras y tengan fallos de programación, terroristas que los hackeen o lo que sea, pero eso no son las máquinas "despertando".

Maestro_Blaster

#107 Método de discusión en España:

- Esto es así.

- No, mira, yo son licenciado en Esto, con más de 10 años de experiencia en el tema y con varios articulos publicados en Estismo. Y Esto no es así, es asá.

- Ya esta el listo que todo lo sabe. Cállate un rato anda.

Bedel_roolmo

#126 Bravísimo. Explicar la consciencia como un subproducto de unas reacciones químicas es igual que explicar que un coche funciona porque giras la llave y arranca.

Y viva Penrose.

Bedel_roolmo

#135 Me meto aunque no me estás respondiendo a mi.

No creo que el tema sea que "haya algo más", sino que no tenemos ni puta idea de qué es lo que hay. No sabemos qué es la consciencia, no sabemos qué es el tiempo, no sabemos qué es la materia, no sabemos qué es la energía. Y sin embargo con las limitadas teorías del cosmos de que disponemos por ahora creemos que ya podemos explicar todo, pecando de una enorme soberbia epistémica.

Estamos intentando recrear Las Meninas de Velazquez con piezas de lego.

yemeth

#135 Los mecanicistas pensáis que todo lo que no sea algorítmica es religión y no va por ahí. Precisamente lo que planteaba Penrose respecto a los microtúbulos es un intento de buscar cuál es el soporte físico de la conciencia para tratar de entenderla. Eso es lo que me parece interesante por su parte.

Que hay algo que todavía no hemos desentrañado te puede resultar obvio a través de la filosofía y no de la religión, lamentablemente se desprecia el tipo de cuestionamiento de la filosofía y así nos va en temas como este. El rollo de las corrientes eléctricas y reacciones químicas está explicando el nivel que muy entre comillas podríamos tratar como lo "nouménico", el cómo funciona. Lo cual es extremadamente útil, pero resulta que el verdadero problema es lo fenoménico, es la representación que se hace de los datos en sí.

Creo que plantear que cualquier explicación que se salga del reduccionismo de la consciencia a matemática pura es "mística" no es más que evitar enfrentarse al problema.

#156 Mis afirmaciones son transmitidas como impulsos eléctricos tanto dentro del cerebro como cuando se transmite por Internet o se almacena en un servidor. Pero el servidor de Menéame no se monta una representación con colorines de los mensajes, no construye una experiencia subjetiva a partir de ellos. Solo almacena y transmite. Y aunque montáramos un bot seguiría sin hacerlo. Yo todavía tengo que leer un libro que "lo desmonte" más allá de dar excusas para nuestra ignorancia actual.

Bedel_roolmo

#156 Los impulsos electroquímicos pueden explicar perfectamente el comportamiento de los seres biológicos, pero no sé de qué forma podrían explicar el fenómeno de la consciencia que se da en muchos de ellos como los humanos. No he leído aún el libro de Dennett, pero me extrañaría que diera explicación a este fenómeno, porque de ser así sería merecedor de todos los premios Nobel en fila india.

Acido

#161

A ver que te parece esta explicación sencilla:

¿Qué es la "consciencia"?

Antes que nada, hay verificar que se habla de lo mismo...

Preguntando a Google:

FILOSOFÍA
Conciencia (conocimiento de la propia existencia).

Es decir, según esa definición, "consciencia" es lo mismo que "conciencia" y es el conocimiento de la propia existencia... También se llama "autoconciencia".

Bien, aclarado ese punto. Lo que estás diciendo es que eso, el conocimiento de uno mismo te parece poco menos que un misterio inexplicable, que sería merecedor de todos los premios Nobel.

Pues a mi no me parece para tanto...
El ser humano tiene sentidos: ojos para ver, oídos que oyen, tacto, olfato, etc... que le permiten conocer "el mundo". ¿Puedes conocer una manzana? Puedes verla, puedes tocarla, olerla...
¿Puedes conocerte a ti mismo? Puedes verte en un espejo, tocarte, olerte, oír tu voz y oír los sonidos que se producen como consecuencia de tus actos...

Para mi, la autoconciencia no se diferencia demasiado de la inteligencia en general, es solamente una consecuencia de una inteligencia suficientemente potente y unos sentidos o sensores que permitan percibir aspectos de uno mismo.

Cuando uno es niño puede ver la imagen suya en un espejo o en un lago, y compararla con las imágenes de otras personas y animales. Lógicamente, en poco tiempo es capaz de darse cuenta de que esa imagen es la imagen de "uno mismo", del propio cuerpo. Cuando yo me muevo, la imagen del espejo se mueve, etc... Y al comparar con otros no es difícil observar que tenemos una forma del cuerpo similar, unos órganos similares: ojos, boca, manos, pies... y, entonces, aún antes de saber hablar, aún antes de ponerle un "nombre" sabemos que pertenecemos al mismo grupo o categoría que otros humanos que vemos. Eso sería descubrir o conocer que "yo soy humano"... y, por supuesto, así todo el conocimiento de uno mismo: soy humano, soy pequeño, como los pequeños que hay en otras familias, tengo pelo negro, tengo ojos azules...
Ya está, ya tengo conocimiento de mi mismo, ya tengo eso que llaman "conciencia".

No era para tanto ¿no?

Esto que expliqué, con palabras más rimbombantes se suele decir como que "la conciencia es un fenómeno emergente, simplemente surge de un cierto nivel de inteligencia".

Supuestamente, un animal más mecánico, que no se para a pensar mucho creo que no "ataría cabos" ni pondría mucha atención en si la imagen que ve es "él mismo" ni en organizar demasiado la información que le llega por los sentidos. Muchos animales no se reconocen en el espejo... y se suele decir que no tienen "autoconciencia".


cc #156

t

#291 Sí, pero no todo es tan sencillo como desenchufar un cable y ya está. Intenta desenchufar Google, a ver si lo consigues.

rcorp

#1 viva el hipnosapo!

Graffin

Que más da que no tengan sentimientos, tienen lógica.
Si creamos una máquina para solucionar el calentamiento global y deduce que la mejor forma es marcarse un Thanos, pues p'alante.
No tienen que tener ansias de poder, solo hacer lo que se les ha programado hasta que un bug o alguna directiva que se nos haya pasado por alto les permita aniquilar a los humanos.

I

#45 Yo venía a recomendar este artículo. #MustRead

r

#160 Estoy en desacuerdo contigo, de todas maneras un apunte, yo no he dicho que el argumento de Penrose sea mistico/religioso. De hecho he dicho que el argumento de Penrose se basa en lo que hay a nivel cuantico, atomos y procesos, no "algo mas".
Si creo que la consciencia es resultado directo de procesos fisicos y por lo tanto puramente matematico, ojo, la matematica tambien nos habla de probabilidades e indefiniciones.

Bedel_roolmo

#173 Entiendo. No puedo decirte mucho más porque no me lo he leído, pero lo haré en cuanto pueda.

D

#175 Además es bastante ameno desde mi punto de vista, porque estos libros tienen el riesgo de convertirse en un ladrillo si se van por las ramas demasiado abstractas. Incluso al final del libro propone posibles experimentos para poner a prueba sus afirmaciones.

D

#21 Por eso mismo creo que est'a mal usada en la entradilla y propongo la otra palabra.

Bedel_roolmo

#42 ¿Entonces una red neuronal artificial lo suficientemente compleja será capaz de generar experiencia subjetiva y consciencia?

Maestro_Blaster

#28 Si te lo dice me avisas, escribimos un paper entre los dos y a cobrar el Nobel!

Oniros

#7 Para que coño servirá la luz del sol

Bedel_roolmo

#191 Los procesos químicos son, como mínimo, continuos y estocásticos. Y la computación es discreta y determinista, y por muchos unos y ceros que quieras utilizar eso no va a cambiar. Asumir que la mente no es computable no implica creer que existe un alma, no veo la relación.

#160 lo explica muy bien.

tusitala

#6 últimamente se ve mucho el uso incorrecto de positivismo en lugar de optimismo.

positivismo
De positivo e -ismo.

1. m. Tendencia a valorar preferentemente los aspectos materiales de la realidad.

2. m. Afición excesiva a comodidades y goces materiales.

3. m. Actitud práctica.

4. m. Fil. Sistema filosófico que admite únicamente el método experimental y rechaza toda noción a priori y todo concepto universal y absoluto.

GanaderiaCuantica

#36 Buenísimos artículos. He terminado de leerlos y, aunque se podrían discutir unas cuantas cosas, son de los mejores que he visto a nivel divulgativo (sin entrar en nada técnico).
Largo, pero muy interesante. Así que los recomendaría también.
CC #90

sieteymedio

Hace 100 años era 1918. Hay que tener huevos para hacer este tipo de predicciones tan a la larga.

#59 Donde reside la consciencia en el ser humano? en las neuronas? en las reacciones quimicas? diferente soporte, mismo concepto.

#74 A la fuerza debe de partir de un estado fisico pre-existente y desarrollarse a partir de ahi con metodos soportados por la fisica, si no lo quieres llamar computar lo puedes llamar como quieras.
O me vas a hablar del alma?

#83 No, yo estoy partiendo de que las reacciones quimicas y electricas entre neuronas sean deterministas. Quiza me equivoque y el cerebro no sea determinista. Entonces habria que hablar de probabilidades.

Imag0

Ni ahora ni en 100 años, pero ya controlan las inversiones bursátiles de los mayores fondos del planeta roll

numero

Vaya sorpresón.

polipolito

#86 no te mosquees, de hecho has llevado el tema a la propia definición de "consciencia" y de que surje cuando la complejidad es de un nivel determinado. Ese tema interesante da mucho juego. Está claro que corriendo por el harware (eso que dices de medios y potencia) hay un software (que es la reacción quimica o lo que sea que provoca la consciencia). Como señalas, hay quien lo llama alma. Quizá esa distinción no exista, y hardware y soft sean dificiles de separar. Pero yo digo, y ya me aventuro, si un Davinci tuviera una radio, ¿no la desmontaria, intentando localizar la musica que suena por ella? ¿Quizá los seres vivos somos maquinas "sintonizando" con algo? Hablo de manera metafórica, sólo opino que hay muchas capas de realidad (de ciencia) que puede que no alcancemos a comprender. Quizá hay un dios (no me refiero a "el Dios") por ahí, dando por culo y dando alas. Gracias por tus aportes!

#122 No lo gobierna de manera absoluta, logicamente las experiencias vivias, el crecimiento y la crianza modelan la personalidad, pero todos los bebes nacen con su personalidad propia, y todo bebe parte de una celula con un ADN unico.

B

#39 Es inevitable. Es como la modificación genética o las armas nucleares. Si todos los estados regulan la investigación de IA, el primero que se lo salte (china) tiene una ventaja enorme sobre todos los demás.

D

#83 Los efectos macroscópicos del indeterminismo cuántico son muy poca cosa. Yo diría que inobservables.

D

#190 en "pocos" años aprenderán exponencialmente y nos superarán

Un montón de yanquis ricos afirmaban hace un tiempo haberse creido esa tontería.

Solo diré que en la práctica no hay nada exponencial que dure demasiado.

D

#286 Lo incluyes en el antivirus.

S

#50 A ver, a fin de cuentas el DL no es más que multiplicación de matrices y derivación de funciones. A partir de ahí, que cada uno crea lo que quiera que pueda llegar o no a pasar.

D

#94 Es así. Lo mismo dicho con fórmulas:

https://en.wikipedia.org/wiki/Fluctuation_theorem

N

#72 De nada.

Jakeukalane

#7 de hecho las ahora hermanas Wachovski pensaron primero en que lo que querían las máquinas no era energía sino poder de computación, cultivando a los humanos por su cerebro. Luego pensaron que a la gente* le sería difícil entender el concepto explicándolo de manera sencilla por lo que lo cambiaron a lo de aprovechar energía. Cultivar gente es energéticamente ineficiente para obtener energía. Pero si lo que quieres es obtener poder de computación ahí la cosa cambia...

*es decir el grueso de la población, que no sabe lo que es una CPU y/o no es suficientemente inteligente para comprenderlo.
Cc #178

D

#28 Una lectura que te puede interesar:
https://en.wikipedia.org/wiki/G%C3%B6del,_Escher,_Bach

isra_el

Pues qué pena ¿no? Y yo que quería convertirme en el nuevo John Connor.

kumo

"Los robots no van a controlar el mundo ni ahora ni en 100 años" --> Comienza un levantamiento de las máquinas

astronauta_rimador

#24 ¿Pero la IA trata de simular la conciencia y sentimientos humanos?

D

#25 Pues igual que hay gente que dice que una IA se rebelara...

D

#251 Pues usa el bueno y no esa birria

ElPerroDeLosCinco

#244 Todo evoluciona, porque a todo le aplica la selección natural, no solo a los seres vivos. Las IAs más aptas para "sobrevivir" tendrán más probabilidades de durar, ser mantenidas y copiadas. Las que no tengan este "instinto" será más fácil que dejen de ser mantenidas, o sean reemplazadas por otras versiones.

elblocdenotas

El 100 año no....pero...y en 200?

c

#96 cerebro es un sistema cerrado

Nanay.

#99 argumentos?

spit_fire

Eso es lo que Skynet quiere que creamos. Atrapadle.

borre

El futuro no está escrito.

#28 igual que con las NN, con entrenamiento, desde que eres un bebe hasta que de repente demuestras conciencia.

R

Especialmente si no sabes quien es robot y quién no.

D

Es decir, que en 50 años estamos jodidos.

D

#42 Bueno de repente... Que no conozcamos el proceso que hay en medio no significa que sea "de repente".

1 2 3