Hace 9 años | Por Mauro_Nacho a technologyreview.es
Publicado hace 9 años por Mauro_Nacho a technologyreview.es

El investigador de la conciencia más conocido del mundo asegura que algún día las máquinas podrán ser conscientes de sí mismas. La conciencia, en su opinión, es una propiedad intrínseca de la materia, al igual que la masa o energía. Todo lo que se necesita para sentir es organizar la materia de la forma correcta, como ocurre en el cerebro de los mamíferos.

Comentarios

Mauro_Nacho

#5 Dependemos de las máquinas inteligentes y no vamos a renunciar a las que van a venir después mucho más potentes. El riesgo es la inteligencia artificial donde llegará un momento que su poder deje en ridículo a la mente humana.

sebiyorum

#8 Yo el riesgo no lo veo tanto en el nivel de inteligencia artificial que alcancemos, como en el abandono de la inteligencia humana tanto intelectual, como emocional. El peligro real que yo veo es la falta de cultura universal, programas en escuelas y universidades para potenciar la inteligencia de esas personas superdotadas que deberían ser la punta de lanza de una sociedad evolucionada y avanzada. Lo que tenemos son élites no tanto inteligentes como si poderosas, dueñas de mentes y maquinas inteligentes y por otro lado una masa social al margen de todo esto, meros consumidores hoy y seguramente victimas, mañana.
Todo este tema nos lleva a un debate filosófico y moral, ya debatido por los grandes escritores de la ciencia ficción y pensadores modernos de nuestra era.
Y al final mi punto de vista es que el hombre como especie no ha evolucionado lo suficiente, sino que se ha sofisticado con una patina muy fina de evolución y tecnología pero si le quitamos eso en general nos volvemos animales sin piedad hacia nuestro semejante, olvidando si alguien lo recuerda, quienes supuestamente fuimos.

AitorD

#1 Y no creas que se debe a causas naturales. Que el sistema educativo se haya reformado casi en cada legislatura, no es algo casual.

http://www.elmundo.es/elmundo/2012/09/21/espana/1348232495.html

m

#1 Idiocracia:

Joice

#1 ola ke ase

D

Me parece que no conoces las hipótesis de Penrose.#9

s

#17 ¿mandeeee?

¿O tal vez que he redactado mal? ejem

ikipol

#3 ni puta idea de lo que hablas. La inteligencia artificial de la que hablan no tiene nada que ver con la humana. Tienes que leer mucho todavía

D

#11 Es una pena que tu incapacidad de utilizar la puntuación correctamente, haga imposible entender lo que dices.

s

#53
'****************
#53 #11 Es una pena que tu incapacidad de utilizar la puntuación correctamente, haga imposible entender lo que dices.
'******************

Me alegro. Si no hay interés tampoco se merece el esfuerzo

D

#53 La verdad es que tiene mérito decir algo así poniendo una coma entre el sujeto y el verbo.

#57

D

#10 Me da que leo mucho más que tú, y no es por irme de sobrado, pero el que descalificas eres tú. Ya veremos a quién le da la razón el tiempo. Lo que no arregla ninguna lectura es la ingenuidad, y eso es directamente proporional a la fe inquebrantable en los prejucios. Te recomiendo el aforismo de Gould.

ikipol

#18 y yo te recomiendo que te leas un manual básico de IA antes de gilipolleces pseudofilosoficas. Es curioso que la mayoría de los que hablan de la IA fuerte en los periódicos no tengan ni puta idea de lo que es la IA, NI ENTIENDAN, por supuesto, lo que es la AGI.

A estas alturas de la historia identificar IA Cn gilipolleces utópicas es cansino, ingenuo, infantil y dañino para la IA, la real, la que está en tu iPod o en tu lavadora

Estudiar la consciencia no es el objetivo de la IA ni de la singularidad, en todo caso los mecanismos reflexivos. Es decir, nada que ver con las divagaciones de Penrose y otros

D

#23 Alt-x doctor en Emacs, y de ahí, a aprender LISP .

Son lenguajes no procedurales y digamos, se modifican al vuelo y a sí mismos.

Acido

#3 Una de cal y otra de arena. Del mismo modo que expresé ideas contrarias a lo que dices, también voy a expresar algunas cercanas a lo que dices.

Estoy de acuerdo en que sí hay bastante venta de humo relacionada con la Inteligencia Artificial. Digo "venta de humo" en el sentido de generar expectativas irreales. Ahora bien, ¿significa esto que siempre que alguien hable de IA o de IA Fuerte sea un vendedor de humo? ¡NO!

Estoy de acuerdo en que asegurar la singularidad en un plazo de 30 ó 40 años es muy probable que esté equivocado. En mi opinión, el problema no es la capacidad de cómputo, como sugiere #34 El argumento de la capacidad o potencia de cómputo bruta es el que lleva, en mi opinión de forma equivocada, a decir que en 30 o 40 años habrá una potencia de un orden equivalente al humano. Por ejemplo, aplicando la Ley de Moore, reputadas personalidades como Ray Kurzweil han calculado que en 2040 - 2050 debería haber ordenadores con cantidades de memoria y de operaciones por segundo (OPS) del orden de cerebros humanos. Eso sí, según estimaciones/modelos del cerebro... modelos de tipo clásico, no cuántico (ej: tantas neuronas a tantas conexiones cada una... cada conexión supone una operación en tanto tiempo y cada conexión se reduce a un simple número, el cual equivale un tamaño de memoria en sentido clásico = bits, bytes). Dejando aparte el olvido de lo cuántico en dichos modelos, que puede ser un error bastante grave (aunque para mi no es totalmente evidente que sea imposible) ... el error más evidente a mi modo de ver es que tener la potencia de cálculo no implica inmediatamente tener sistemas que consigan los mismos resultados. Es decir, podemos tener el "hardware" pero no el "software" que nos de los resultados. En otras palabras, con PC actual (Intel i5 o similar, RAM, disco duro) puedes simular un Spectrum 48K, mientras que con un Spectrum 48K no puedes simular un PC actual ... pero eso no significa que porque un sistema supere a otro en memoria y velocidad de proceso entonces inmediatamente, en ese mismo instante que se crea el sistema superior, puedes hacer con el sistema más potente cualquier cosa que haga el sistema inferior... Necesitas tener el "software" del sistema inferior a simular, y creo que todavía no conocemos a fondo el cerebro.
Ej: podemos tener 1000 kilos de acero, unos litros de gasolina, unos kilos de plástico... pero eso no significa que tengas lo mismo que un coche construido... se podrá construir pero no tienes inmediatamente el coche por tener "el coche en potencia"
En el caso del ajedrez se tenían algunos algoritmos que permitían que una máquina ganase automáticamente y se sabía que cuando los ordenadores tuvieran la potencia suficiente podrían ganar al campeón mundial... en ese caso se tenía un algoritmo y una potencia suficiente que permitía resolver el problema, y era relativamente sencillo predecir la fecha en la que ocurriría eso. En el caso de la mente humana dudo mucho que tengamos el "software", un algoritmo correcto que lo permita, incluso dudo que la potencia estimada o el funcionamiento sea el correcto.
Por supuesto, que yo opine que no se conseguirá en 30 - 40 años no implica que piense que sea imposible, ni que la singularidad no será un momento histórico brutal que lo cambiará todo. Creo que la singularidad llegará y será algo espectacular de consecuencias tremendas para la especie humana, que quizá no necesariamente deje obsoleta a la especie humana o que la elimine. Por ejemplo, podemos tener máquinas con la misma capacidad que una mente humana pero que consuman cantidades de energía muchísimo mayores... ¿os suena de Matrix?

s

#39
'*****************
Por ejemplo, podemos tener máquinas con la misma capacidad que una mente humana pero que consuman cantidades de energía muchísimo mayores... ¿os suena de Matrix?
'******************

Una patada a la termodinámica con una máquina de movimiento perpetuo con energía sobrante. Lo cual es absurdo

A ver. El cerebro es bastante eficiente. Para su capacidad de computo con la tecnología mejor que tenemos se necesitaría una cantidad enorme de energía y funciona con parte de la glucosa que comemos. Lo hace bastante bien en esto (y si no lo hiciera no sería demasiado bueno en un entorno pobre de recursos en donde se han de dedicar la mayor parte de esfuerzos a encontrar que comer... Eso hace mucho tiempo porque ahora tenemos otras sociedades y gente obesa en los países desarrollados)

Bueno. Si hay pocas I.A. con unas pocas pilas atómicas pues...

también estaá posibilidad de conseguir fusión nuclear que realmente rinda, sea segura y sobre todo "escalable". Hay fusores de escritorio pero como todo reactor grande o pequeño consume más para arrancar que el que retorna. Hay algunas cosas interesantes que al menos han mantenido la reacción

Por otra parte se pueden poner telas captadoras de energía solar en puntos de lagranje en el sistema Sol-Tierra y captar energía y reenviarla en forma de microondas a receptores (con muchas aplicaciones y no solo las militares que se ocurren normalmente) desde suministrar energía a recolectores, a bases espaciales, pulverizar asterodides, empujar asteroides, acelerar naves espaciales. Y hay fibras ya que son utilizables y se puede conseguir una cantidad ingente de energía con eso de la que se pierde al espacio (una idea popular es continuar con el sistema hasta tener la mayor parte de la esfera trazable a esa distancia cubierta, el resultado se denomina "esfera Dyson") Con los dos sistemas de fuente de energía se podría hacer cosas ahora inimaginables ya que no hace falta una tela inasumible sino una bastante razonable para tener una potencia de más de un megatón al día (imaginarse hacer pasar el maser en una zona de vacio con dos conductores de forma que de realdidad a las partículas de matería-antimateria virtuales del vacio y los conductores atraigan cada una su signo y así tener sistemas de energía aceptables para vuelos interestelares... Ya me excedo con el tema del hilo)

s

#39
'*************
En mi opinión, el problema no es la capacidad de cómputo, como sugiere #34 El argumento
'*************

Eso era solo una parte, es solo una parte y no para señalar la capacidad en sí sino que los procesos detrás de la inteligencia natural son diferentes y de una naturaleza diferente de los que se creyó primeramente con la inteligencia artificial. NO es solo que tengamos mucha información disponible sino que el razonamiento simbólico es el resultado final de infinidad de otros procesos como la punta de una gran pirámide y no la inteligencia en sí. Emular ese tipo de razonamiento es fácil. Si es por la cantidad de información que maneja se han creado redes semánticas que la extraen y crean la base de conocimientos para el razonamiento simbólico pero no. Eso en la naturaleza es el resultado de infinidad de procesos que requieren esa capacidad astronómica de cálculo y son esos procesos lo importante.


Esto es lo que pretendía explicar con mis parrafadas

Acido

#44

"sino que los procesos detrás de la inteligencia natural son diferentes y de una naturaleza diferente de los que se creyó primeramente con la inteligencia artificial"


¿Te refieres a computación cuántica?
¿O te refieres a que no es lo mismo un ordenador tradicional que ejecuta instrucciones una detrás de otra que una red neuronal natural de millones de neuronas funcionando en paralelo?

"NO es solo que tengamos mucha información disponible sino que el razonamiento simbólico es el resultado final de infinidad de otros procesos como la punta de una gran pirámide y no la inteligencia en sí."

Creo que hay algo que confundes.
Un ordenador se puede considerar que manipula símbolos ("palabras, etc"), pero internamente lo que realmente manipula son números. En algunos idiomas no se dice "digital" sino "numérico" ("numerique", etc). La "A" internamente se representa con el número 65, etc. Lo que es fundamentalmente un ordenador es un manipulador de números... los cuales se representan de diferentes formas.

Si piensas en IA como en chatbots que responden frases (palabras, letras) a personas, no es la "aproximación" o "conceptualización" de crear IA Fuerte que se suele emplear... sino que se suele entender que la máquina de potencia de cálculo recibe datos que pueden verse como números y que serían el equivalente a lo que un cerebro humano recibe en su cerebro cuando percibe algo con sus ojos, sus oídos, su tacto, etc... Y el tratamiento de esos datos en la máquina no sería programado con reglas del tipo "cuando todos estos puntos de color sean de color blanco y estos negros corresponden a la letra A", etc... sino de con algoritmos de aprendizaje automático. Es decir, habría algoritmos básicos de "inteligencia" para "aprender" cualquier cosa, la máquina los ejecuta y con el tiempo aprende a leer y a escribir y a descubrir la realidad, como una persona... La "semántica" sería algo digamos emergente de otros algoritmos más básicos.

s

'***************
1
hace 31 min suzudo suzudo
#45 #44

"sino que los procesos detrás de la inteligencia natural son diferentes y de una naturaleza diferente de los que se creyó primeramente con la inteligencia artificial"


¿Te refieres a computación cuántica?
¿O te refieres a que no es lo mismo un ordenador tradicional que ejecuta instrucciones una detrás de otra que una red neuronal natural de millones de neuronas funcionando en paralelo?
'***************

A que es diferente. Por ejemplo lo que dices (no entro porque a saber lo que usa o no de computación cuántica). O que la red neruonal aprende las puertas lógicas a partir de reglas más sencillas en lugar de tenerlas implementadas. Etc..



'************************
"NO es solo que tengamos mucha información disponible sino que el razonamiento simbólico es el resultado final de infinidad de otros procesos como la punta de una gran pirámide y no la inteligencia en sí."

Creo que hay algo que confundes.

'***********************+

No. NO confundo. Escribí un interprete de prolog (micro prolog) para uso privado en, bueno
'***********************



'***************
Un ordenador se puede considerar que manipula símbolos ("palabras, etc"), pero internamente lo que realmente manipula son números. En algunos idiomas no se dice "digital" sino "numérico" ("numerique", etc). La "A" internamente se representa con el número 65, etc. Lo que es fundamentalmente un ordenador es un manipulador de números... los cuales se representan de diferentes formas.
'*******************

Usa el algebra de boole con valores 1 y 0 que pueden equivaler a números (y con ellos sumar, restar, multiplicar, etc incluidas operaciones de coma flotante) o a valores de verdad o mentira para las operaciones lógicas sencillas (AND, OR, XOR, NOT, IMP)

No. Me refería al cálculo de predicados tanto juntores com cuantores y lógica difusa usados en lenguajes declarativos u otros. Prueba el "Fuzzy predicated Logic Generalized Resolution Deductive System de la universidad de Ostrava.

Y mira el código fuente disponible libremente escrito en object pascal



Se pueden usar la manipulación de tablas de verdad grandes con algebra boolenana y borrosa para resolver enunciados. Tienen la forma de una tabla de entradas y resultados equiparable a una gran puerta lógica. El tipo de cosas que da una red neuronal. Pero estás siguen reglas precisas y tablas y algebra definida



'******************

Si piensas en IA como en chatbots que responden frases (palabras, letras) a personas, no es la "aproximación" o "conceptualización" de crear IA Fuerte que se suele emplear... sino que se suele entender que la máquina de potencia de cálculo recibe datos que pueden verse como números
'********************

Confundes el alto nivel con el bajo. Y precisamente está lejos esa dicotomía del proceso del cerebro. Es el punto. Es un enfoque que se han aprendido cosas y aprovechables y se usarán pero se necesitaba otro como redes neuronales físicamente implementadas y no meramente emuladas

Si te gustan los chats bots prueba el AIML. Fíjate que es otro lenguaje declarativo.

Que se usen 1 y 0 internamente o pulsos o lo que sea es irrelevante a ese nivel y no es dependiente porque se apoya en el lenguaje de programación y en algoritmos escritos no en el hard en sí solo que los pueda ajecutar

La red neruonal también ha de depender del hard


'**********************
y que serían el equivalente a lo que un cerebro humano recibe en su cerebro cuando percibe algo con sus ojos, sus oídos, su tacto, etc... Y el tratamiento de esos datos en la máquina no sería programado con reglas del tipo "cuando todos estos puntos de color sean de color blanco y estos negros corresponden a la letra A", etc... sino de con algoritmos de aprendizaje automático. Es decir, habría algoritmos básicos de "inteligencia" para "aprender" cualquier cosa, la máquina los ejecuta y con el tiempo aprende a leer y a escribir y a descubrir la realidad, como una persona... La "semántica" sería algo digamos emergente de otros algoritmos más básicos.
'*************

Te has hecho un lío entre el nivel de funcionamiento de la máquina y el de los lenguajes de programación y el de los algoritmos.

Lo siento

Acido

#46 Madre mía, qué lío estás haciendo.

Por ejemplo, hablaste de símbolos, te planteo si te refieres a chatbots, aclarándote que la implementación de la IA sería a más "bajo nivel" y me acusas de confundir yo el bajo nivel con el alto.

Bueno, te respondo a cosas concretas porque a otras sería demasiado largo y va a parecer un diálogo de besugos.


"se necesitaba otro como redes neuronales físicamente implementadas y no meramente emuladas"


Esto no es verdad.

Supongamos una red neuronal sencilla de 3 neuronas. Ojo, es un ejemplo, no digo que 3 neuronas sean equivalentes a un cerebro humano, ni que cada una sea similar en número de dendritas a las naturales. Mi supuesto son 3 neuronas, organizadas en 2 capas, la primera capa tiene 2 neuronas que reciben cada una 600 millones de entradas que pueden ser 100 megapixels * 3 colores * 2 ojos.
La neurona realiza una operación matemática con dichas entradas (la cual podría ser hipotéticamente equivalente al comportamiento natural de una neurona biológica) y presenta una salida en su axón.
Nótese que la función Neurona no sólo depende de 600 millones de entradas sino de otros números que modelarían el estado de la neurona y a los que habitualmente se les llama "pesos" (Digamos que a ciertas entradas se les da mayor "peso" y a otras menor "peso" ... lo cual afectará al resultado de la salida de la neurona).
De esa forma tenemos 2 salidas de la primera capa (una por cada neurona de la primera capa, expresada dicha salida en su axón) que van a la neurona de la segunda capa, la cual a su vez realiza una operación (dependiente también de su estado, sus pesos) y presenta la salida final.

Según tú es absolutamente imprescindible que haya neuronas físicas.

Recordemos que el simulador neuronal puede modificar los "pesos", haciendo que el comportamiento de todas y cada una de las neuronas cambie, que no sea una "tabla inmutable" como pareces sugerir.

Recordemos también que un ordenador es una máquina de propósito general que dispone de suficiente memoria como para almacenar todos esos pesos cambiantes, así como de realizar las operaciones... y el hecho de que una red neuronal física procese en paralelo sólo sería un problema si el emulador no tiene suficiente potencia. En otras palabras, si cada neurona biológica o "física" tarda una centésima de segundo y sacar la salida en su axón, tardaría 2 centésimas en procesar las dos capas, porque las neuronas de la primera capa trabajan en paralelo. Con un ordenador que trabaje "en serie" se tardarían 3 milésimas si ese ordenador tarda 1 ms en procesar cada una... pero un ordenador de 6000 GFLOPS procesa 6000 000 000 000 de operaciones por segundo, así que puede procesar las 600 000 000 de entradas en 0.1 ms y puede procesar la primera capa de 2 neuronas en 0.2 ms (primero una y luego otra, sí, no en paralelo, pero acaba antes así que le da tiempo a simular un proceso paralelo)

En resumen, no veo imposibilidad de obtener el mismo resultado con un emulador.
¿estoy en lo cierto? ¿o hay algún detalle que se me haya escapado que implique esa imposibilidad?

s

#47
'*********
#47 #46 Madre mía, qué lío estás haciendo.

Por ejemplo, hablaste de símbolos, te planteo si te refieres a chatbots, aclarándote que la implementación de la IA sería a más "bajo nivel" y me acusas de confundir yo el bajo nivel con el alto.

Bueno, te respondo a cosas concretas porque a otras sería demasiado largo y va a parecer un diálogo de besugos.
'*************

¿Yo? El lío te lo has hecho tu confundiendo el algoritmo escrito en un lenguaje de alto nivel con el funcionamiento interno del procesador. TE has hecho un lio enorme y ¿me lo atribuyes a mí? Anda que

'************
"se necesitaba otro como redes neuronales físicamente implementadas y no meramente emuladas"


Esto no es verdad.
'**************

Sí, Si lo es si se quiere tener la misma potencia de proceso.

'******************

Supongamos una red neuronal sencilla de 3 neuronas. Ojo, es un ejemplo, no digo que 3 neuronas sean equivalentes a un cerebro humano, ni que cada una sea similar en número de dendritas a las naturales. Mi supuesto son 3 neuronas, organizadas en 2 capas, la primera capa tiene 2 neuronas que reciben cada una 600 millones de entradas que pueden ser 100 megapixels * 3 colores * 2 ojos.
La neurona realiza una operación matemática con dichas entradas (la cual podría ser hipotéticamente equivalente al comportamiento natural de una neurona biológica) y presenta una salida en su axón.
Nótese que la función Neurona no sólo depende de 600 millones de entradas sino de otros números que modelarían el estado de la neurona y a los que habitualmente se les llama "pesos"
'*******************

Lo conozco perfectamente. La jerga también

El lio te lo has hecho tu. Confundes dos cosas diferentes todo el rato y con ello has montado el discurso. Lo siento


'*****************
Según tú es absolutamente imprescindible que haya neuronas físicas.

Recordemos que el simulador neuronal puede modificar los "pesos", haciendo que el comportamiento de todas y cada una de las neuronas cambie, que no sea una "tabla inmutable" como pareces sugerir.

Recordemos también que un ordenador es una máquina de propósito general que dispone de suficiente memoria como para almacenar todos esos pesos cambiantes, así como de realizar las operaciones... y el hecho de que una red neuronal física procese en paralelo sólo sería un problema si el emulador no tiene suficiente potencia.
'*******************
¿solo sería entonces el problema?

ES EL PROBLEMA

CAda neurona piramidal del cerebro tiene una potencia de cálculo ridícula comparada con un procesador de PC pero el conjunto tiene una capacidad astronómica equiparable a un pc del tamaño de una central nuclear y con un consumo de energía bestial

¿adivina el motivo?

jopeee


Y algunas un superornedador cray de chips de arseniuro de galio enfriados por nitrógeno líquido no tiene potencia para emular

Ese es uno de los errores que decía

'*************
o "física" tarda una centésima de segundo y sacar la salida en su axón, tardaría 2 centésimas en procesar las dos capas, porque las neuronas de la primera capa trabajan en paralelo. Con un ordenador que trabaje "en serie" se tardarían 3 milésimas si ese ordenador tarda 1 ms en procesar cada una.
'*****************
Ahora pon varias decenas de miles de millones en paralelo y a ver como lo emulas con tu basura de ordenador secuencial. No puedes competir al mismo nivel


'**************
En resumen, no veo imposibilidad de obtener el mismo resultado con un emulador.
¿estoy en lo cierto? ¿o hay algún detalle que se me haya escapado que implique esa imposibilidad?
'**************

Se podría conseguir pero no al mismo nivel. Y sí estás equivocado en lo que das por hecho

Primero has confundido el algoritmo de un programa de alto nivelcon el funcionamiento interno del PC. IMporta un bledo que use números (en realidad usa diferencias de voltaje que traduce en bits) dando por hecho que eran lo mismo. Mientras funcione importa una porra como se lo hayan montado. La cuestión es que si hay reglas lógicas que imponen que se contruyan puertas lógicas

Y segundo has dicho mientras la potencia sea suficiente para una emulación secuencial. Ese es el verdadero problema y donde está el abismo entre un ordenador y tu cerebro

y veo que has dicho
'***********
Recordemos que el simulador neuronal puede modificar los "pesos", haciendo que el comportamiento de todas y cada una de las neuronas cambie, que no sea una "tabla inmutable" como pareces sugerir.
'***********

Lo que me da la idea que no has entendido ni repajolera de lo que quería decir.

No he dicho que sea una tabla inmutable ni en broma el resultado de una red neuronal. He dicho que lo que se usa en un razonamiento simbólico lineal informático en forma de algoritmo SI LO ES las tablas de verdad. La red neuronal aprende hasta ese nivel y más

Lo que decía que con lo aprendido se podía implementar esas tablas conocidas como operaciones fijas que no le haga falta aprender a la red neuronal y no solo la identidad, no contradicción eliminar implicaciones y suponer insertanto implicaciones o haciendo razonamientos al absurdo. Que son los que hacemos de fábrica. (UN simple silogismo lo tenemos que aprender. Y lo se porque me aseguré de acordarme cuando y como lo hice y el cambio así como de razonar con "ideas" a solo símbolos o alternar... Lo traté con cuidado desde los 3 años para poder comparar con lso adultos sin que se desdibujara o deformara con el tiempo :), multiplicar lo aprendemos etc) Así que en la I.A. ya se podrían implementar esas cosas junto con la red neuronal, JUNTO con ella y tener una potencia de razonamiento artificial muy superior a la natural

En fin...

Acido

#49

"Ahora pon varias decenas de miles de millones en paralelo y a ver como lo emulas con tu basura de ordenador secuencial. No puedes competir al mismo nivel"


Supongamos 100 000 000 de neuronas... Cada neurona en media tiene 1000 conexiones (1000 dendritas) lo que supone una potencia necesaria de 100 000 000 000 de operaciones por milisegundo o 100 * 10^12 OPS

Supongamos el año 2054 (dentro de 40 años), el procesador habitual en esa fecha puede tener fácilmente 32000 núcleos (cifra obtenida aplicando Ley de Moore... pero duplicando cada 3 años, la mitad del ritmo Moore real, duplicando cada 1.5 años) por un precio de menos de 600 euros, cada uno de ellos de 10 GFLOPS... lo que equivale a 320 * 10^12 operaciones por segundo. Habíamos dicho que necesitábamos 100 * 10^12 OPS y disponemos de 320 * 10^12 OPS, sobran 220 para hacer el entrenamiento de los pesos de la red, y esta máquina no necesita dormir, si duerme tenemos un tercio del tiempo diario que no percibe entradas sensoriales y puede dedicado a pulir el entrenamiento de los pesos en base a las percepciones captadas cada día.

Nota: es común en las personas encontrar la solución a un problema al despertarse, como si el sueño hubiese organizado las cosas... Es más, durante los sueños parece que estemos entrenando la mente para posibles situaciones que nos dan miedo (pesadillas) o situaciones de éxito (buenos sueños) como si quisiéramos preparar la mente analizando esas situaciones para estar preparado cuando lleguen.


Supongamos también que en dicho año 2054 dicho ordenador pudiese quizá hacer todo eso con un consumo de energía mínimo: si el cerebro puede hacerlo ¿por qué va a ser físicamente imposible una máquina que lo consiga?

Ahora saco la puntilla, para descabellar totalmente tu argumento: Hoy en día se han llegado a 1000 000 000 de Android, que son mil mllones de procesadores digitales muy rápidos y de bajo consumo. Añade a eso ordenadores y superordenadores. En el cálculo anterior expuse que podría simularse una sola mente con un sólo procesador, ahora imagina la potencia de 2000 000 000 de procesadores como ese de 32000 núcleos, trabajando, cómo no en paralelo. Eso sí, la latencia debería ser muy pequeña... tendrían que comunicarse en unos pocos milisegundos para poder simular las neuronas. (actualmente hay latencias de 3 ms que sí permitirían la simulación, pero hay otras de 50 ms ó 350 ms que no la permitirían... pero en 40 años seguramente mejoren y sean casi todas de menos de 5 ms que es la latencia estimada de una neurona humana)



¿De verdad sigues sosteniendo que no se puede llegar a esa potencia con ordenadores digitales?


Nota: cada ordenador no es realmente secuencial porque los 32000 núcleos funcionan en paralelo pero este matiz no afecta a mi argumento ¿o sí afecta?

Acido

#50 #49 Perdón, cometí un error de un orden de magnitud de 1000 pero mis cálculos eran tan holgados que me sobra todavía un orden de magnitud de 1000 000 000.

Rehago las cifras:



"Ahora pon varias decenas de miles de millones en paralelo y a ver como lo emulas con tu basura de ordenador secuencial. No puedes competir al mismo nivel"



Supongamos 100 000 000 000 neuronas = 10^11 ... Cada neurona en media tiene 1000 conexiones (1000 dendritas) lo que supone una potencia necesaria de 100 000 000 000 000 de operaciones por milisegundo = 100 * 10^15 OPS

Supongamos el año 2054 (dentro de 40 años), el procesador habitual en esa fecha puede tener fácilmente 128 millones de núcleos (cifra obtenida aplicando Ley de Moore... duplicando cada 1.5 años, en 40 años es duplicar 26 veces, que es multiplicar por 2^26 = 67 millones ... si ahora se lleva el Dual-Core, se llevará el 128 Megacore) por un precio de menos de 600 euros, cada uno de ellos de 1 GFLOPS... lo que equivale a 128 * 10^15 operaciones por segundo. Habíamos dicho que necesitábamos 100 * 10^15 OPS y disponemos de 128 * 10^15 OPS, sobran 28 para hacer el entrenamiento de los pesos de la red, y esta máquina no necesita dormir, si duerme tenemos un tercio del tiempo diario que no percibe entradas sensoriales y puede dedicado a pulir el entrenamiento de los pesos en base a las percepciones captadas cada día.



Supongamos también que en dicho año 2054 dicho ordenador pudiese quizá hacer todo eso con un consumo de energía mínimo: si el cerebro puede hacerlo ¿por qué va a ser físicamente imposible una máquina que lo consiga?

Ahora saco la puntilla, para descabellar totalmente tu argumento: Hoy en día se han llegado a 1000 000 000 de Android, que son mil millones de procesadores digitales muy rápidos y de bajo consumo. Añade a eso ordenadores y superordenadores. En el cálculo anterior expuse que podría simularse una sola mente con un sólo procesador, ahora imagina la potencia de 2000 000 000 de procesadores como ese de 128 MegaCore, trabajando, cómo no, en paralelo. Eso sí, la latencia debería ser muy pequeña... tendrían que comunicarse en unos pocos milisegundos para poder simular las neuronas. (actualmente hay latencias de 3 ms que sí permitirían la simulación, pero hay otras de 50 ms ó 350 ms que no la permitirían... pero en 40 años seguramente mejoren y sean casi todas de menos de 5 ms que es la latencia estimada de una neurona humana)



¿De verdad sigues sosteniendo que no se puede llegar a esa potencia con ordenadores digitales?


Nota: cada ordenador no es realmente secuencial porque los 128 millones de núcleos funcionan en paralelo pero este matiz no afecta a mi argumento ¿o sí afecta?

s

#52 La ley moore está llegando al límite y ya no se puede seguir.

Tus comentarios parten todos de peticiones de principio que simplemente la realidad no casa con ellas o no acaba de cuadrar.

'***************
Supongamos también que en dicho año 2054 dicho ordenador pudiese quizá hacer todo eso con un consumo de energía mínimo: si el cerebro puede hacerlo ¿por qué va a ser físicamente imposible una máquina que lo consiga
'*************

¿ves?

¿quien ha dicho que es imposible físicamente que una máquina lo consiga? YO NO

TE he esteado hablando todo el rato de la diferencia de una máquina lineal con mucha potencia y otra con decenas de miles de millones de procesadores en red aunque más lentos cada uno, la capacidad de computo de esta estructura es inmensamente mayor y su consumo muy inferior. No hablo que no se pueda hacer. ya hace años que se trabaja con neuronas impresas físicamente en los chips


Además ¿para que diablos vas a montar ese tipo de ordenador para simular cuando puedes integrarse una red neuronal física y hacerlo mixto?

¿ordenador digital?


ORdenador SECUENCIAL es lo que dices para emular uno de procesamiento paralelo. Contra, monta al menos una parte de procesamietno paralelo

Acido

#60

Los problemas de tu solución son:

* No es de propósito general. Y no me refiero a que una máquina que resulte tener IA Fuerte según el diseño que propones no podría hacer cosas variadas, desde planchar un huevo a freir una camisa Me refiero a que sólo vale para procesamiento paralelo y según ese modelo de neuronas independientes pero no vale para cosas como simular una realidad virtual tipo Second Life u otras utilidades que puedan tener los ordenadores de dentro de 30-40 años.

* La conexión de las neuronas debería ser a mano... ya sabes, hay 1000 conexiones en cada neurona y hay 10^11 neuronas lo que serían 10^15 "cables" que tienes que montar. Si lo construyese una persona, tardando un segundo por cable serían 10^15 segundos = 31709 años. O bien 93000 personas trabajando 8 horas diarias durante un año. En euros serían cientos de millones de euros.
Con un ordenador la definición de las conexiones sería ejecutar un simple bucle que a una velocidad 1 GHz se tardaría 1 millón de segundos = 11 días si es con un solo núcleo y menos de 1 milisegundo si usas 1 millón de núcleos.

* Además, si conectas esas neuronas de una forma no podrías modificar a cuál se conecta cada una dinámicamente, cosa que al parecer ocurre en el cerebro humano, con lo cual tendrías el problema de hacerlo a mano... o tener un sistema eficiente de ajustar circuitería (¿bus? ¿routers?...)

* Supones que tus neuronas artificiales incluyen computación cuántica. Que no sabemos si la tendremos dentro de 30-40 años a un precio razonable (como para fabricar 10^15 de esas)

* Fabricar neuronas artificiales sueltas sería una locura, habría que fabricarlas en grupos (de 1000 o un millón). De lo contrario serían tan pequeñas que no serían manejables para montarlas o bien serían tan grandes que cuando juntases 10^15 de ellas imagina lo que ocuparían. 10^6 milímetros * 10^5 mm = 0.1 km^2 ocuparía tu cerebro artificial con 10^12 neuronas de 1 mm^2
Si las apilas en 10 capas serían 10000 m^2 y en 1000 capas 100 m^2 que sería una habitación de 10 m * 10 m

* No se podría hacer hoy mismo (sin construir algo, lo cual tardaría en construirse y montarse), pero mi técnica sí se podría: existen 2000 000 000 "procesadores" (móviles, tablets, ordenadores, etc) y cada uno a 1 GHz lo que permite hacer 2*10^18 Operaciones Por Segundo, luego se pueden poner a funcionar unos 1000 cerebros (aunque la Ley de Moore no se cumpla como sugieres en #56 ) ... y podría ser gratis si la gente instala su simulador neuronal para colaborar con el experimento.
Para 10^11 neuronas, si tenemos 2000 000 000 procesadores tocarían a 50 neuronas cada uno.
El tráfico de datos sería conseguir que cada móvil reciba las 1000 entradas de cada neurona que son unos 50 Kbyte cada 5 ms... eso son 10 Mbytes/s = 80 Mbps
que está al nivel de algunas conexiones a Internet actuales, ya sean 4G en móviles o fibra en las casas... se supone que las conexiones mejorarán así como el número de núcleos en cada móvil u ordenador.
Nótese también que para algunas configuraciones de la red neuronal las 50 neuronas podrían recibir las mismas entradas... así que en lugar de 50 Kbytes sería suficiente 1Kbyte, reduciéndose la velocidad necesaria en un factor de 50... sólo 1.6 Mbps que no necesitaría tanta velocidad, en móvil bastaría HSPA y en casa ADSL.


Por lo demás, tu solución es mejor (si no tenemos en cuenta esos detallitos jejeje)... la tuya permitiría una velocidad mayor, una "superinteligencia".

s

#52
'***************
Nota: cada ordenador no es realmente secuencial porque los 128 millones de núcleos funcionan en paralelo pero este matiz no afecta a mi argumento ¿o sí afecta?
'***************

cuando tengas vareias decenas de miles de millones. Pero ¿no lo es?

¿lo es tu algoritmo? ¿lo es tu S.O. al repartir tareas? ¿no se pierde potencia en la emulación?

¿Tu has probado de emular otro sistema operativo desde un GNU/linux? como windows XP

¿ves la pérdida de velocidad y como tu máquina se convierte en una muy inferior en prestaciones?

Contra. Se imprime en cada núcleo además un fragmento de red neuronal físicamente y listos. Tu potencia para "emular" se ha disparado porque no emula en ese momento

s

#58 por cierto donde hay decenas de núcleos es en las tarjetas gráficas en las GPU y por eso se utilizan para ese tipo de cosas

En los procesadores caseros lo máximo que se están imprimiendo son 8 núcleos que es lo máximo que maneja windows sin parches pero se puede parchear. El GNU/Linux puede con más de 300 núcleos. Y luego está el kernel Hurd que no acaba de despegar y eso que tiene décadas detrás para un multiproceso... pero se parchea el GNU/Linux en supercomputación y ya ha ido tirando...

s

#52


recuerda además que si la computación cuántica fuera necesaria tendrías un problema grave con tu solución. Ya que manejas la emulación por algoritmo de cualquier cosa con un ordenador secuencial. POr más que tenga muchos núcleos lo planteas como un algoritmo que se ejecuta secuencialmente en él y estos lo que hacen es uno más potente.

Si fuera necesaria la computación cuántica lo que tienes es que te encontrarás con problelas no polinómicos para los cuales el algoritmo será siempre el mismo: ir probando todos los resultados posibles uno a uno hasta dar con el bueno (y encima secuencialmente). Si usaras computacioń cuántica para esos problemas de repente el máquina ( la MISMA potencia de proceso no más. pero con computación cuántica) te resolvería en un segundo lo que con tu sistema tardaría unos diez mil años. Tal cual

D

#3 Si te centras en la dificultad que tenemos por crear máquinas conscientes, es evidente que parecen dificilmente conseguibles, una pregunta que me hago es si no podemos conseguirlas por la imposibilidad intrinseca de crear una maquina consciente o más bien por nuestras propias limitaciones. Cuanto más conozco al ser humano más me decanto por la segunda posibilidad, por estas razones que se me ocurren ahora: a) por la evolución patatera que nos ha traído hasta aquí con mil fallos de diseño (porque efectivamente no hay progreso en la materia), b) por las limitaciones de nuestra percepción, que aunque tenemos un cerebro gordisimo lleno de nanotubos de esos, procesamos poco el entorno, lo procesamos mal, nos equivocamos mucho y cuando el cerebro funciona bien lo hace para engañamos creando enjambres de mitos, c) por nuestro fatal recorrido histórico, haciendo una y otra vez los mismos desaguisados, repitiendo las mismas estupideces y en general viviendo todas las generaciones de una forma más bien conservadora. Somos chicos listos y en ocasiones quizá un fotón cósmico atiza a un tubo cuántico y sale alguien con alguna idea novedosa, si, pero no veo que nos encontremos tan lejos de las hormigas, ni nos estemos comportando, en conjunto, más inteligentemente que unas levaduras. Por eso no creo que la autocelebrada consciencia de los humanos sea demasiado insuperable por unos cuantos transistores. Me parece que aquí hay mucho de ombliguismo o chauvinismo de especie.

Acido

#55

"Me parece que aquí hay mucho de ombliguismo o chauvinismo de especie. :-)"

Estoy de acuerdo.

Eso que dices lo suelo expresar de esta forma:

1. El ser humano miró a su alrededor, se miró a sí mismo y mostró orgulloso y prepotente, se llamó a sí mismo "la criatura dorada", el mejor ser de la existencia... Y es su arrogancia el ser humano afirmó con seguridad ser el Centro del Universo (en concreto el griego Ptolomeo). Todos vieron que esa afirmación les favorecía, les alegraba, les hacía sentirse bien y la adoptaron, castigando a quien se atreviese a afirmar lo contrario, como las tesis de Copérnico.
La C de Copérnico supuso el principio del fin de la C de Centrismo / Geocentrismo.
Se dice que Galileo dijo "Y sin embargo se mueve" (el planeta Tierra), aunque no lo dijese, pero a quedado como símbolo de la verdad frente a "lo que a muchos les gustaría que hubiesen sido las cosas". El que esta frase falsa se haya transmitido como cierta es una prueba más, prueba muy irónica, de que las personas hacen lo posible por creen lo que quieren creer y no la verdad. Se quiso creer que Galileo dijo esa frase aunque no la dijese, o se quiso creer que éramos el Centro a pesar de las evidencias de que no lo éramos.
Pero llegó el momento en el que la mentira no se podía sostener más, llegó el momento de la verdad: no somos ni el centro del Sistema Solar, ni el Centro de la Galaxia, ni mucho menos el centro del Universo... Newton puso la puntilla. La verdad alcanzada por la razón no podía ceder ante la mentira de los deseos.
Como premio de consolación, la Luna si gira alrededor de La Tierra... aunque, bueno, se cree que no es más que un pedazo de planeta Tierra, un pedazo muy primitivo que se enfrió y que sólo está un poco "separado".

2. Pero el ser humano era tozudo, se seguía sintiendo especial, encantado de haberse conocido, dándose besos a sí mismo de tanto que se quería. Seguía creyendo que había sido creado "a imagen y semejanza del mismo Dios", como el hijo más querido de su papá Dios, en otras palabras, creado para ser el rey de la Creación...
Pero de nuevo le tocó tragarse su orgullo, y como en el mito de Narciso, de tanto mirarse en el agua para ver su reflejo y recrearse en lo guapo que se veía, acabó cayendo en el agua... ya que la evidencia del señor Darwin mostraba que no fue exactamente creado sino evolucionado y que esas criaturas peludas llamadas monos eran parientes suyos. Otra C que caía, la del Creacionismo, esta vez de manos de la D de Darwin. Cosa que algunos todavía se niegan a creer, a pesar de las sobradas evidencias.

3. Ante aquellos chascos, graves heridas en su orgullo ¿qué le quedaba al ser humano? Bueno, no le quedaba poco... no parece poco el orgullo de ser el único ser dotado con la gracia de la Inteligencia... o más bien la autoConciencia, ya que en cuanto a la inteligencia se sabía que otros animales son algo inteligentes: los cuervos, la astucia del zorro, ... posteriormente, la inteligencia de los delfines y su comunicación... ¡hasta las abejas!
Al menos quedaba la autoconciencia, que algunos pueden tomar como el último bastión inexpugnable, la única esperanza para sentirnos los mejores... hasta que en 1970 se ideó la prueba del espejo y se descubrió que algunos animales parecían reconocerse en el espejo, o, al menos, saber que la imagen del espejo fuera lo que fuese tenía relación con lo que les ocurría y poder usarla en su provecho.

La Inteligencia Artificial Fuerte puede suponer el fin de ese "monopolio" o reinado sobre la Inteligencia / autoconciencia... si no nos cargamos el planeta antes, causando la autodestrucción, claro, demostrando lo torpes que somos.
Supondría la derrota de otra C más, la C de la Conciencia, que parece ser lo único que nos queda. Aunque quizá se conquiste la C de Conciencia y surja otra... la C de Creatividad... o cualquier otra excusa para "sacar pecho" y sentirnos mejor.
La creencia de que sea imposible que nos quiten ese trono muchas veces me parece que va en este sentido.

#55

"Me parece que aquí hay mucho de ombliguismo o chauvinismo de especie. :-)"

Estoy de acuerdo.

Eso que dices lo suelo expresar de esta forma:

1. El ser humano miró a su alrededor, se miró a sí mismo y mostró orgulloso y prepotente, se llamó a sí mismo "la criatura dorada", el mejor ser de la existencia... Y es su arrogancia el ser humano afirmó con seguridad ser el Centro del Universo (en concreto el griego Ptolomeo). Todos vieron que esa afirmación les favorecía, les alegraba, les hacía sentirse bien y la adoptaron, castigando a quien se atreviese a afirmar lo contrario, como las tesis de Copérnico.
La C de Copérnico supuso el principio del fin de la C de Centrismo / Geocentrismo.
Se dice que Galileo dijo "Y sin embargo se mueve" (el planeta Tierra), aunque no lo dijese, pero a quedado como símbolo de la verdad frente a "lo que a muchos les gustaría que hubiesen sido las cosas". El que esta frase falsa se haya transmitido como cierta es una prueba más, prueba muy irónica, de que las personas hacen lo posible por creen lo que quieren creer y no la verdad. Se quiso creer que Galileo dijo esa frase aunque no la dijese, o se quiso creer que éramos el Centro a pesar de las evidencias de que no lo éramos.
Pero llegó el momento en el que la mentira no se podía sostener más, llegó el momento de la verdad: no somos ni el centro del Sistema Solar, ni el Centro de la Galaxia, ni mucho menos el centro del Universo... Newton puso la puntilla. La verdad alcanzada por la razón no podía ceder ante la mentira de los deseos.
Como premio de consolación, la Luna si gira alrededor de La Tierra... aunque, bueno, se cree que no es más que un pedazo de planeta Tierra, un pedazo muy primitivo que se enfrió y que sólo está un poco "separado".

2. Pero el ser humano era tozudo, se seguía sintiendo especial, encantado de haberse conocido, dándose besos a sí mismo de tanto que se quería. Seguía creyendo que había sido creado "a imagen y semejanza del mismo Dios", como el hijo más querido de su papá Dios, en otras palabras, creado para ser el rey de la Creación...
Pero de nuevo le tocó tragarse su orgullo, y como en el mito de Narciso, de tanto mirarse en el agua para ver su reflejo y recrearse en lo guapo que se veía, acabó cayendo en el agua... ya que la evidencia del señor Darwin mostraba que no fue exactamente creado sino evolucionado y que esas criaturas peludas llamadas monos eran parientes suyos. Otra C que caía, la del Creacionismo, esta vez de manos de la D de Darwin. Cosa que algunos todavía se niegan a creer, a pesar de las sobradas evidencias.

3. Ante aquellos chascos, graves heridas en su orgullo ¿qué le quedaba al ser humano? Bueno, no le quedaba poco... no parece poco el orgullo de ser el único ser dotado con la gracia de la Inteligencia... o más bien la autoConciencia, ya que en cuanto a la inteligencia se sabía que otros animales son algo inteligentes: los cuervos, la astucia del zorro, ... posteriormente, la inteligencia de los delfines y su comunicación... ¡hasta las abejas!
Al menos quedaba la autoconciencia, que algunos pueden tomar como el último bastión inexpugnable, la única esperanza para sentirnos los mejores... hasta que en 1970 se ideó la prueba del espejo y se descubrió que algunos animales parecían reconocerse en el espejo, o, al menos, saber que la imagen del espejo fuera lo que fuese tenía relación con lo que les ocurría y poder usarla en su provecho.

La Inteligencia Artificial Fuerte puede suponer el fin de ese "monopolio" o reinado sobre la Inteligencia / autoconciencia... si no nos cargamos el planeta antes, causando la autodestrucción, claro, demostrando lo torpes que somos.
Supondría la derrota de otra C más, la C de la Conciencia, que parece ser lo único que nos queda. Aunque quizá se conquiste la C de Conciencia y surja otra... la C de Creatividad... o cualquier otra excusa para "sacar pecho" y sentirnos mejor.
La creencia de que sea imposible que nos quiten ese trono muchas veces me parece que va en este sentido.

VMARCV

Lo que dice este hombre es puro humo.
Coincido totalmente con #3.

Si no somos capaces de replicar el olfato de un perro, como leches vamos a llegar a eso.

"Se estima que los perros tienen aproximadamente 50 veces más receptores olfativos en la nariz, en el humano hay aproximadamente 5 millones de células olfativas frente a 200 – 300 millones presentes en la nariz del perro".

No se pueden hacer predicciones de este tipo a 30-40 años, así puedo vivir del cuento.

#3 Creo que no has superado a Minsky, estas mas o menos al nivel de razonamiento del secador de pelo de mi mujer, contigo las maquinas lo tienen demasiado facil.

ElPerroDeLosCinco

#3 Tenemos un fenómeno que no entendemos bien: la consciencia humana. Podemos atribuir este mal conocimiento a dos causas:
A) Nueva física (cuántica o superior) que desconocemos.
B) Limitaciones de la propia mente que usamos para auto-conocernos.

Yo me quedo con lo que decía Ockham y prefiero la opción más sencilla: la B ¿No es mucha casualidad que haya un fenómeno cuántico macroscópico que podemos percibir cada día y precisamente esté en nuestras cabezas?

g

#3 "A estas alturas ya nadie duda que la conciencia no es una propiedad emergente de nada"
¿Nadie? Cualquier investigador de neurociencia te dirá más bien que la consciencia es una propiedad emergente (lo cual es bastante obvio porque la conciencia no está en ninguna neurona, sino en el conjunto). Además Minsky es ya bastante rancio y de hecho una parte del desarrollo actual de la inteligencia artifical se ha producido criticando su extremismo (por ejemplo Jeff Hawkings, que ha inspirado a otros como Andrew Ng). Y decir que se va dando la razón a Penrose es ignorar todas las críticas que ha recibido (http://en.wikipedia.org/wiki/Orchestrated_objective_reduction).

Te llevas un negativo por sesgar tanto la información

Acido

#96 #3
¡Muy buen comentario!. Yo soy otro para los que Minsky no es santo de mi devoción ... Por ejemplo, debido a cierta influencia suya el desarrollo de muchos modelos conexionistas se paralizó durante muchos años. Por otro lado, su asesoría para la película de Kubrick 2001 tampoco me gusta.
Sin embargo, el libro de Jeff Hawkings "On Inteligence" ("Sobre la inteligencia") me parece una gran obra, un buen camino hacia la definición del "software" del que hablaba en otros comentarios de esta historia.
A Andrew Ng lo tuve como profesor de un curso online de Stanford, un MOOC de los primeros que se hicieron, el curso de "Machine Learning" ("Aprendizaje automático") que realicé con bastante interés y buen resultado.

En cuanto a Penrose, a pesar de que yo mismo también le he criticado, me parece alguien muy respetable y que puede haber planteado puntos muy importantes que creo que pueden ser clave, a pesar de su forma de decirlo que puede llevar a la confusión a algunos.

D

#3 no "nuestros prejuicios culturales hacen que dilapidemos la energía", nuestra biología hace que vayamos a dilapidar toda la Energía. Somos consumidores de energía, aunque lo hagamos de manera "sostenible", no pararemos hasta acabar con toda.

jacm

#3 Mi opinión es que nuestro propio cerebro falsea a Penrose. Él intenta demostrar que no podemos construir un cerebro porque tienes una características exclusivas que no podemos reproducir si lo hacemos de la manera A. Bueno, pues hagámoslo de la manera B.

Para que Penrose tenga razón es necesario obligarnos a un número concreto de opciones a la hora de construir esa posible alternativa al cerebro. Esa obligación es artificiosa.

Supongamos que lo que da las características exclusivas al cerebro y que 'no podemos reproducir' sean células basadas en determinadas moléculas de carbono. Pues hagamos un cerebro con células basadas en esas moléculas. Por otra parte dudo que sea necesario.

A mi esta teoría me parecido una concesión al sentimentalismo por parte de Penrose, por otra parte una persona genial en la gran mayoría de sus escritos. La altura intelectual de Penrose es envidiable, pero todos tenemos puntos débiles.

Acido

#40

Muy bueno el libro "GEB: EGB"
(aunque es un tocho, sí, pero de los tochos que se leen con gusto)

Ah, y me gustó tu descripción de la autoConciencia... yo también creo que es algo fácil de explicar, no algo místico inalcalzable, que no pueda ser algoritmizable (como dice #3 ). Y si es fácil de explicar, también podrá conseguirse de forma artificial.

luiggi

#3 No hay ningún proceso que no pueda hacer una simple máquina de Turing con el tiempo o velocidad suficiente.

Acido

#3
"Las máquinas son herramientas y nunca dejan de obedecer a sus dueños"

También es posible que "la rebelión de las máquinas" ocurra en el futuro por un error de programación, lo que se conoce como "bug", una posibilidad no prevista, que quien lo programó pensó que se comportaría de otra manera... que me parece diferente al caso del problema de seguridad que plantea #101


#51 "no estaría en competición por los recursos, no tendría emociones que le empujaran (a menos que algún gilipollas tenga la genial idea de ponerlas en su programación)"

Hombre, intentar programar emociones no me parece una "gilipollez", me parece una tentación muy grande en la que las personas podemos caer... imagina máquinas que tengan una codificación de emociones que les permita crear música, crear poesía, comprender tus emociones...
Por otro lado, aunque no se incluyan a propósito las emociones están ahí y una máquina con suficiente inteligencia podrá eventualmente tener datos sobre ellas: leer lo que son, diferentes tipos, ver ejemplos, ... hasta comprenderlas y llegar quizá a imitarlas sin que se hayan programado explícitamente en la máquina. Si se crea una IA Fuerte suficientemente potente lo que pueda ocurrir con eso dependerá de las metas / objetivos / prioridades que se pongan en ese sistema... aparte, claro está, de posibles errores / "bugs" (quería definir estas prioridades pero no me di cuenta de ciertos casos límite que han permitido resultados que no esperaba).
Otro problema es que las personas, como animales que somos, aunque pretendamos distinguirnos del resto como "animales racionales", tenemos unos instintos, unas prioridades y objetivos. Necesitamos respirar, comer, habitualmente buscamos reproducirnos o tener sexo, etc... ¿Por digo que esto es un problema? Pues porque si definimos estas prioridades en la IA entonces competirán con los humanos por los recursos.... pero si no definimos estas prioridades entonces de partida el ser artificial tendrá diferencias muy importantes con los humanos o, en otras palabras, no será indistinguible de los humanos así que no pasaría el Test de Turing... excepto quizá cuando esté "haciendo teatro", pero a la hora de la verdad (no teatro) podríamos pillar cuál es máquina y cuál no, no serían equivalentes artificiales a los humanos.

s

#20 "Mucho más fuertes, probablemente más inteligentes (de ahí su mayor capacidad cerebral), como Ferraris que eran para estar vivos necesitaban 3 veces la ingesta calórica de un humano promedio"
Me lo anoto para la próxima vez que mi novia intente controlar lo que como.

nilien

#21 Je, precisamente hoy estaba pensando en lo de la mente cuántica y en Penrose, y en el lenguaje de las abejas y en cómo había una matemática que decía que también dicho lenguaje se explicaba con las propiedades cuánticas... a ver si mañana me leo con más atención este hilo...

D

#21 Y si los microtúbulos neuronales pudieran ser afectados por los neutrinos procedentes de diversas estrellas tendríamos una explicación científica a la relación entre el signo zodiacal y la personalidad.

Y lo digo casi en serio.

s

#74 En ese caso las predicciones deberían ir más allá del efecto Forer ¿no?

Aratron999

#21 "Ahora han escrito otro artículo en el que sostienen que descubrimientos recientes, sobre la vibraciones cuánticas de los microtúbulos, apoyan su idea original. Además, sostienen que los ritmos electroencefalográficos (REE) serían generados también a nivel profundo por los microtúbulos."

¿Podrías pasarme o enlazar el artículo por favor?. Que lo estuve buscando pero no hubo manera

D

O sea, que al final será verdad eso de: !Vamos a morir todos!

EdmundoDantes

#2 Sí, eso es un hecho

D

Ya veremos si son divagaciones o no. Atacar pesebres y chiringuitos es algo que produce unas reacciones muy conocidas, y perfectamente identificables. No hablo de ti, pero la gente se monta su pesebre y luego es un palo que te lo jodan.

Ya sé lo que es la IA, ahora dudo si lo sabes tú. La fuerza bruta ya sabemos todos lo que es. Todos conocemos que de los principios de la mecánica puedo fabricar y de hecho fabrico máquinas perforadoras, excavadoras, y lo que tú quieras, pero aprovechando la ocasión te recuerdo que toda nuestra disponibilidad de energía y maquinaria no somos capaces de levantar una pirámide. Creo que vas a enteder esto mal.

Somos seres sociales, y no, sabemos mucho, pero no sabemos todo. Lo que dice Penrose es correcto, las actuales leyes de la física que conocemos no pueden explicar la consciencia (qué obviedad), como no se podía explicar muchas cosas antes de que se desarrollase la termodinámica o las ecuaciones de Maxwell. No estoy defendiendo ideas mágicas, me insultas, estoy simplemente constatando la ignorancia. En todas las épocas se pensaban que habían llegado al final con sus descubrimientos y no estaban llegando ni al principio.

No te pienses que ahora es diferente.

Cómo interacciona la consciencia con la inteligencia, que es algo que dista mucho de tener un consenso de definición, es algo que ni siquiera se plantea. Así que no me vendas humo, por favor. En los textos que te he puesto, si te molestas en buscarlos (es fácil), verás por ejemplo la reacción de Minsky a las ideas de Penrose. Puedes creer lo que quieras, que es una creencia, pero ya deberías identificar lo que te digo: cuando un cerdito se pone furioso porque le amenazan el pienso de su pesebre.

Moléstate en buscar la cita de Gould. O no te molestes: "Objectivity cannot be equated with mental blankness; rather, objectivity resides in recognizing your preferences and then subjecting them to especially harsh scrutiny — and also in a willingness to revise or abandon your theories when the tests fail (as they usually do)." ¿Intentas hacer esto? Yo continuamente.

D

"Todo lo que se necesita para sentir es organizar la materia de la forma correcta, como ocurre en el cerebro de los mamíferos." y de las aves, y de otras muchas criaturas: Tienen conciencia todos los mamíferos, aves y otras criaturas

Hace 11 años | Por --271025-- a veoverde.com

Mauro_Nacho

"Piensa en el mercado financiero, en todas esas máquinas bursátiles y las caídas que pueden provocar. La gente va a abusar ciegamente de la inteligencia computacional para maximizar algún objetivo. Va a dar lugar a más y más concentración de poder entre cada vez menos personas. Es algo que ya estamos observando, y que va a conducir a un desempleo masivo. Y tal vez en 30 o 40 años creo que realmente se producirá un peligro existencial para la especie, al nivel de las armas nucleares o el impacto de un meteorito."

D

"La conciencia, en su opinión, es una propiedad intrínseca de la materia, al igual que la masa o energía. Todo lo que se necesita para sentir es organizar la materia de la forma correcta, como ocurre en el cerebro de los mamíferos."

Me ha gustado mucho el artículo. Yo llevo tiempo pensando lo mismo, que la conciencia es una propiedad de la materia. Cualquier sistema organizado (como un cerebro) cuando llega al nivel suficiente de complejidad brota de él la conciencia. Algún dia podremos construir máquinas conscientes.

Muzai

Yo he diseñado un test con el que determino si la tecnología ha logrado superar al ser humano: el test de Perez-breadcrumbs. Cuando un robot sea capaz de cocinar unas croquetas tan buenas como las que hace mi madre, entonces será indistinguible de un ser humano andaluz.

D

Eso se lleva diciendo desde hace 30 o 40 años.

sangaroth

Puestos a soltar paridas cabalas varias, suelto las mías:
La consciencia es en gran parte una ilusión, un justificador a posteriori de nuestras acciones 'inconscientes', somos seres básicamente irracionales; el libre albedrío consciente es una percepción beneficiosa para el animal que la posee pero irreal, es una necesidad tras la consciencia del yo, no una realidad.
El replicar la 'consciencia' en la IA seria el paso previo a un volcado de nuestras mentes, liberándonos de las limitaciones y caducidades de nuestros cuerpos.. ¿Como seriamos sin la bioquímica de nuestro cerebro condicionada por procesos externos? Placer, miedos,estimulos-recomepensas,.... creo que perderíamos lo que entendemos por emociones y ahora lo veríamos como humanos sin alma,..con el tiempo veríamos sus bondades (iluminación budista)

s

'************
#36 Puestos a soltar paridas cabalas varias, suelto las mías:
La consciencia es en gran parte una ilusión, un justificador a posteriori d
'***********
Existen neuronas espejo en el cerebro muy complicado de poderlas replicar artificialmente y que hay dudas de como funcionan

Cuando vemos a alguien con un vaso estas neuronas ayudan a hacer un atajo sobre un área del cerebro con los recuerdos sobre los vasos y lo que hemos aprendido sobre gente con un vaso y dan un juicio de probabilidad de la respuesta a esperar o que nos importe más de esa persona con el vaso más probable y las menos probables: por ejemplo que va a beber (no solo por el vaso sino porque lo conocemos, porque siempre bebe ahí a esa hora, etc), eso nos permite anticipar la acción y reaccionar a tiempo de un peligro o en una situación. Gracias a lo que sabemos en la red neuronal de la realidad tenemos una respuesta de lo más probable de las reacciones ajenas.

Luego la especulación es que ese proceso al llegar a un nivel de complegidad como el de un chimpancé o el nuestro pueda hacer el análisis de reacciones no de otro en cada situación sino nuestro, es decir que emerja a partir de ahí la consciencia. Y al final poder ser conscientes de la consciencia del otro en otra interacción más en cierta forma que lo hemos sido de nosotros y así tener comportamientos morales

Sobre este tema de las reiteraciones hasta llegar a la consciencia recomiendo

> de Douglas R. Hofstadter (un verdadero sabio)

D

En 30 o 40 anyos seguıremos ıgual que ahora. Solo habran cambıado los modelos de Smart Phones.

D

Penrose has written books on the connection between fundamental physics and human (or animal) consciousness. In The Emperor's New Mind (1989), he argues that known laws of physics are inadequate to explain the phenomenon of consciousness [lo que dice el tío de la entrevista, explicándolo mal, diciendo que es una propiedad de la materia]. Penrose proposes the characteristics this new physics may have and specifies the requirements for a bridge between classical and quantum mechanics (what he calls correct quantum gravity). Penrose uses a variant of Turing's halting theorem to demonstrate that a system can be deterministic without being algorithmic. (For example, imagine a system with only two states, ON and OFF. If the system's state is ON when a given Turing machine halts and OFF when the Turing machine does not halt, then the system's state is completely determined by the machine; nevertheless, there is no algorithmic way to determine whether the Turing machine stops.)

Penrose believes that such deterministic yet non-algorithmic processes may come into play in the quantum mechanical wave function reduction, and may be harnessed by the brain. He argues that the present computer is unable to have intelligence because it is an algorithmically deterministic system. He argues against the viewpoint that the rational processes of the mind are completely algorithmic and can thus be duplicated by a sufficiently complex computer. This contrasts with supporters of strong artificial intelligence, who contend that thought can be simulated algorithmically. He bases this on claims that consciousness transcends formal logic because things such as the insolubility of the halting problem and Gödel's incompleteness theorem prevent an algorithmically based system of logic from reproducing such traits of human intelligence as mathematical insight. These claims were originally espoused by the philosopher John Lucas of Merton College, Oxford.

D

Yo creo que es muy difícil que un ser artificial tenga el mismo nivel de conciencia que un ser vivo. Cualquier organismo está compuesto por miles de millones de células, que son seres vivos con capacidad de percibir el entorno y reproducirse, lo que proporciona un sentimiento de conciencia total.

p

Cualquiera que tenga unas mínimas nociones de lo que va realmente lo que llaman "inteligencia artificial" sabe que estamos a años luz de desarrollar máquinas que piensen o sean conscientes.

Antes de conseguirlo hace falta un cambio revolucionario en la forma de abordar el desarrollo de la inteligencia artificial. Nadie puede predecir cuándo puede producirse ese cambio o si se producirá porque no se han dado ni los primeros pasos.

Pacman

Lo mejor que nos puede pasar como especie, que nos controle y nos guíe una inteligencia externa. Está visto que si seguimos guiándonos nosotros mismos vamos a la extinción.
Así es y menéame es la prueba irrefutable.

Mauro_Nacho

#16 Quizá la inteligencia artificial termina por concluir que el ser humano es una especie irrelevante y ya no necesaria para el propio desarrollo tecnológico y científico. Puede ser nefasto que una inteligencia nos guíe y nos controle.

D

#19 ¿Que relevancia tiene para la humanidad el tener mascotas? ¿Y pareja estable? ¿Qué necesidad individual tenemos de gente que no nos afecte? Sin embargo no vamos matando mascotas por deporte (y a quien lo hace se le llama de todo menos guapo) ni las relaciones esporádicas son el 100% de las relaciones ni vamos masacrando gente porque "no los necesitamos".

Una IA que llegara a ser más inteligente que la humanidad en su conjunto (ya no sólo que una persona) no tendría porque considerar que el siguiente paso lógico sea eliminar a la humanidad. Después de todo, no estaría en competición por los recursos, no tendría emociones que le empujaran (a menos que algún gilipollas tenga la genial idea de ponerlas en su programación), ...

a

La autoconciencia no requiere una inteligencia elevada. Los córvidos gozan de esa cualidad mental y hay muchos simios que no la han desarrollado.

nilien

#32 El problema de la autoconciencia es cómo pruebas su existencia, o mejor dicho su ausencia. No sé a qué experimentos te refieres para decir que los córvidos la tienen. Si es al test del espejo, el hecho de que las urracas lo pasen pero no algunos simios no prueba necesariamente que dichos simios no tengan autoconciencia, sólo que de momento no hemos encontrado en ellos una capacidad relacionada con la autoconciencia como es la de reconocerse en un espejo. Y luego habría toda una discusión al respecto de si para tener autoconciencia tienes que reconocerte en el espejo, cuando hay pacientes humanos que por lo visto han perdido parcial o totalmente esa capacidad, y siguen siendo autoconscientes. O el hecho de para otros animales haya sentidos más importantes que la vista...

a

#91 El test del espejo no sirve para probar ausencia de autoconciencia, pero en mi opinión si sirve para probar la existencia de una de las más significativas habilidades que son posibles mediante la autoconciencia. Tanto la autoconciencia como la inteligencia no son algo perfectamente definible porque involucran un elevado número de habilidades mentales que podrían considerarse que son hasta cierto punto independientes entre sí. El test del espejo tiene un enorme valor aunque no sepamos acotar lo que es autoconciencia y lo que no.

D

Pero ¿lo habéis leído? Habla de un tipo de IA radicalmente distinta a la IA computacional al uso. De hecho, vapulea a esta última, comparándola con la simulación del tiempo atmosférico.

D

Físico del MIT propone que la conciencia es un estado más de la materia:

D

Para una máquina súper inteligente, suicidarse sería el acto más inteligente desde el punto de vista de la termodinámica.

hermano_soul

Veo que esta noticia es porno puro para estudiantes y profesionales de IA.

D

Skynet nos vigila

D

Nosotros mismos somos un peligro para la especie. Estamos depredando el planeta entero. Las empresas y los políticos son también un peligro para la especie desde hace siglos, la religión desde hace milenios.

D

Como es sobre ciencia, no es sensacionalista.

D

según meneante orvalho eso jamás sucederá.

s

'*************
A. "La mente humana tiene autoconciencia" (bastante evidente).
B. Para llegar a la autoconciencia son necesarios procesos cuánticos, es imposible con algoritmos clásicos (posible aunque en mi opinión no se ha demostrado correctamente).

C. Por tanto, NUNCA podrá hacerse Inteligencia Artificial... y quien busque o asegure que es posible está equivocado."

El error argumentativo es evidente. ¡De A y B no se deduce C!.
'***************

Correctísimo sobre todo ahora que está naciendo la spintrónica, se han conseguido manejar con menos o mrjoer fortuna qubists (aunque hay dudas de los intentos tal como se han hecho) o la polarización de la luz en procesmiento fotónico.

Simplemente no se ha conseguido aún pero no se pueden tomar esas posturas categóricas en cuando que el cerebro ha conseguido la consciencia y es bien físico

Otra cosa es sobre los intereses, aplicaciones, etc de la I.A.

Y sí hay drones con I.A. capaces de esquivar misiles, reconocer cazas enemigos y aterrizar de forma autónoma en entos momentos. Cierto que al Asimo cuando intenta atender mucha gente se hace un lio de cuidado pero ha hecho pasos portentosos en poco tiempo etc...

s

'************
En el caso de la mente humana dudo mucho que tengamos el "software", un algoritmo correcto que lo permita, incluso dudo que la potencia estimada o el funcionamiento sea el correcto.
'************

NO es un algoritmo sino una red neuronal. En lugar de tener puertas lógicas impresas cada neurona aprende por acierto y error que salidas ha de dar por cada axón a cada conjunto de entradas por las dentritas al nivel siguiente. ASí se configura el conjunto. Además una neurona se puede activar al recordar la guerra de las galaxias en general por ejemplo el nombre de la peli como a un personaje de la misma y está ligada al resto según no solo el proceso de información sino los recuerdos relativos a sus procesos incluso emociones como recuerdos logadas a otros recuerdos. Es una red muy compleja y además el conjunto tiene una capacidad de cálculo astronómica aunque cada neurona tenga una de baja.

Pienso que en una I.A. no solo se ha de implementar eso incluso con procesaamiento cuántico si es lo que es necesario para resolver problemas no polinómicos como polinómicos y así lo hiciera el cerebro. Sino que además se pueden implentar partes que sigan razonamiento lineal y cálculo matemático con puertas lógicas implementadas para su uso de fábrica así como por una parte los pasos más usuales para hacer un razonamiento dada una conclusión como las tablas de verdad inclkuida llógica difusa como cosas fijas equivalentes a los procesos que de la red neuronal adaptable. ASí la I.A. podría tener una capacidad mayor de razonamiento y en lugar de aprender cosas complejas con la red neuronal a partir de cosas más simples fijas (identidad, no contradicción, eliminación de la implicación, abrir un supuesto y las que hacemos de fábrica) podría hacer otras más complejas de fábrica y cálculos complejos de forma que la I.A. con la misma potencia y capacidad pudiera razonar mucho mejor que la inteligencia natural

Y luego está que pueda aumentarse la potencia de cálculo si se alcanzara el nivel de iontegración y se entendiera como procesa el cerebro y se pudiera replicar. Una vez replicado se podría evitar usar mecanismos obsoletos marcados por la evolución de la vida y usar mecanismos de mayor poder computacional

En cuanto a las motivaciones de que hacer o no eso la dan sensaciones básicas y también emociones y sentimientos. Pienso que las máquinas deberán ser dotadas también de este tipo de cosas pero no los humanos ni de ningún animal sino otros diferentes creados específicamente para las funciones para las que existan y sean creadas.

Me preocupa que a las máquinas de guerra se les añada emociones sádicas o de una obediencia ciega a algunas autoridades. POr otra aprte también me preocupa que en caso de llegar a ser las I.A. conscientes de la consciencia de los demás al nivel de tener empatía y moral no se les reconozca personalidad derechos y obligaciones a medida de sus capacidades. Porque podría traer problemas pero el concederlas también puede traer recelos de parte de muchos humanos y conflictos.

D

El peligro existencial para la especie ya lo supone la "inteligencia" humana. En 30 o 40 años ni tendremos planeta, así que no se preocupe nadie por la inteligencia artificial. Y en todo caso, lo salvaría.

j

Extranjeros de las minas para quitarnos el trabajo.

En referencia a la noticia y según su opinión y puesto que no existe nada claro es que nosotros como un estado de materia más es nuestra organización de esa materia los que nos hace sentir. La conciencia es un estado de organización de la materia.

Mejor dejarlo según su opinión. ¿Podrá un robot (mecánico de las minas y sin interferencia de elementos humanos) sentir dolor y no solo decir me duele?

Por otra parte se hace mucho hincapié en las neuronas, cuando en realidad no se sabe como actúa el cerebro (sí se sabe en referencia a ciertos sentimientos o sentidos la disposición de las neuronas) . En principio lo que se sabe de las neuronas con certeza es:

“son un tipo de células del sistema nervioso (todo el sistema nervioso y no solo del cerebro como normalmente lo asociamos) cuya principal función es la excitabilidad eléctrica de su membrana plasmática. Están especializadas en la recepción de estímulos y conducción del impulso nervioso”

http://es.wikipedia.org/wiki/Neurona

A igual que están distribuidas en todo el sistema nervioso, porque considerar que las neuronas en el cerebro o que el cerebro son solo neuronas y no considerar que esas neuronas a igual que las del sistema nervioso en general están asociadas a otros y su objetivo es solo de conexión.

Supongo que será por eso, por lo que dice en su opinión.

D

Aún no se conoce donde reside la conciencia y hablan de inteligencia artificial, en fin...

s

#82 En el neocortex.

Wheresthebunny

La inteligencia artificial será la única que tengan muchos.

BlasCastellote

Dentro de 30 ó 40 años la única inteligencia que quedará será la artificial.

D

SKYNET es BQ

pedrobotero

Pero eso no fue ya el 29 de agosto de 1997???

D

¿Pero que me estas contando? Si no podemos tener una máquina que no se cuelgue cada dos por tres, o haya que estar recargándole la batería a diario, llamando al amigo informático para que nos la arregle, actualizándola tres días por semana, luego reiniciándola...
No puedo estar más tranquilo a este respecto.

U

Es normal que así sea, como 30 o 40 años todos con manos artificiales.

manuelgos

Se puede decir más alto, pero no más "tontería".

slowRider

cuando las maquinas sean conscientes la primera cuestión que se plantearan sera: para que coño necesito a los humanos? si soy mas listo, fuerte y rápido,

o serán mas compasivas que nosotros, y nos ayudaran porque les demos lastima.

a

Frecuento foros transhumanistas y muchos esperan "la singularidad" que viene siendo el advenimiento de una IA todopoderosa y benévola que va a aparecer surgida de la simple acumulación de poder de cálculo, como si fuera posible que un animal surgiera de un montón de carne picada.
Desde hace tiempo tengo la sensación de que hay mas religión que ciencia en esta creencia, particularmente cuando ponen los atributos a esa IA. A veces parece que hablan de un dios tipo Skynet que en vez de iniciar una guerra nuclear va a concedernos la inmortalidad.
Es mucho presuponer que:

- La inteligencia supone conciencia.
- Que sea mas inteligente que un perro o mas interesada por la comunicación que un genio autista.
- Esa inteligencia sea benévola o podemos "negociar" con ella. No seria humana, ni un mamífero, no es fácil comprender sus motivaciones.

KiKiLLo

Joer que casualidad que ayer vi Transcendence http://www.filmaffinity.com/es/film913067.html y es tal cual lo cuenta el hombre este. Tiene un poquito de jolibú pero vaya, buena peli.

D

Ayer justamente vi la película HER y desde entonces el Siri me da repelús.

La verdad es que la peli fue interesante en su planteamiento. Pero como para proyectarla en japón, que es lo único que les faltaba ya a los hikikomoris lol

#79 la idea es muy guapa, pero la peli es un tostón. Un desperdicio a una buena historia.

Maelstrom

#95 "Los números irracionales son cocientes, fracciones entre números, que no ofrecen un resultado determinado, dado que sus decimales tienden (en una teórica sucesión aleatoria) al infinito".

Que vuelva a la escuela a aprender lo que es un número irracional.

Acido

#95 #98
Madre mía, qué cosas leen mis ojos a veces.

s

#98 ¿Dices que la sucesión de decimales de Pi, Tau o e son aleatorias...? más bien que no se revela patrón de orden a vista

D

El problema es definir la inteligencia. El primer timo es ese, hablar de IA sin existir siquiera un consenso de lo que la inteligencia es (claro que para el pesebre esto no es problema). Todos los animales con sistema nervioso son autoconscientes, no se explica en caso contrario para qué quieren neurotransmisores para la señal del dolor, la angustia o el placer (las plantas no los tienen).

Definir la inteligencia es complicado. Una colonia de himenópteros puede aprender, y tener memoria. Experimentos de laboratorio nos "descubren" que los animales no son tan "tontos" como pensábamos y pueden aprender y transmitir conocimientos. Ya he dicho que la evolución terrestre tiene "inteligencia", es capaz de "aprender" y de almacenar ese aprendizaje en los individuos que participan del sistema. A ninguna persona se le ocurre pensar que la historia de la evolución es "inteligente".

El lenguaje no es lo que tradicionalmente se piensa: no sirve para comunicarse, de hecho cualquier animal se comunica mejor con un congénere que nosotros los humanos con nuestras complicadas lenguas (incluso un perro percibe mejor lo que queremos de él). De hecho la gestión del lenguaje por parte de la IA es de risa, si la gente por ejemplo supiese cómo traduce Google Translate se meaba de la risa.

Lo que no se puede es vender expectativas espectaculares de un tema que no tenemos nada tangible entre las manos, es incluso contraproducente para quien lo hace. Esto no es que esté verde, es que estamos a una distancia colosal de siquiera saber por dónde nos movemos, y hay una arrogancia en el campo que te pone los pelos de punta.

Acido

#87 ¿Fracaso? Depende de cómo lo mires.
Si lo ves como que daban la sensación o la expectativa de crear máquinas pensantes de un año para otro, pues en ese sentido no lo han conseguido pero partes de unas suposiciones falsas basadas en el desconocimiento.
Si lo miras desde los avances que se han producido, la cosa cambia un poco.
Coches que conducen solos (coches robóticos que funcionan con algoritmos de IA), el filtro antiSPAM del correo de Gmail basado en Redes Bayesianas que aprenden de las acciones de los usuarios (¿no es esto un éxito muy patente y útil?), una buena parte de las inversiones (el dinero) se mueve automáticamente por órdenes dadas por máquinas siguiendo también algunas técnicas de IA, las sugerencias de productos/amigos/páginas que hacen sitios como Amazon (sistemas de recomendación, etc) también se basan en IA, sistemas OCR que reconocen textos y "leen" libros a los ciegos o escanean miles de libros para encontrar información rápidamente o que reconocen la matrícula de tu coche cuando entras a un aparcamiento, sistemas de reconocimiento de voz (Siri, Android, ...) o de música (Shazam, Soundhound...), reconocimiento de caras (dónde hay una cara en general o una persona concreta en particular: cámaras de fotos, Facebook, etc), identificación de personas (voz, huellas dactilares, etc), detección de riesgos / morosos / fraudes / clientes potenciales, el propio buscador de Google también reorganiza el Pagerank (la importancia de las páginas) usando algo similar a técnicas de aprendizaje automático, personajes de videojuegos, incluso a veces la predicción del tiempo o navegadores del coche que pueden guiarte por la mejor ruta o aprender de los conductores gracias a técnicas de IA.... Sí, también hay casos algo malos como el chapucero traductor de Google Translator (es malo, pero es mejor que nada), no todo es perfecto ...

Por todo esto y cosas que me habré dejado yo diría que sí hay muchos exitazos de la IA, lo que pasa es que frecuentemente muchas aplicaciones de la IA en la vida diaria no son "visibles", la gente común no sabe que funcionan gracias a técnicas de IA.

cc #33

D

Pues igual has redactado mal, ¿mandeeeee? Educación hispanistana en estado puro.

Se lo explico a lo Cayo Coyuntural: IA ser timo estampita. Ser lo mismo que energía nucular años 40, que iba a ser hostia en vinagreta y quedó en dos fenomenales kagadas, y eso sí, armas nuculares que era lo que se quería. IA ser timo, remito, sólo interesar a los que poner pasta en la medida que servir para control social borregos. Cuando ellos comprobar que esto ser espejismo como todo lo que paren, grifo IA cerrarse a saco porque tener cacharritos con potencia sobredimensionada para que la gente mire vídeos chorras o suba un vídeo de su ídem no parece llamaros la atención, ni lo que dice Snowden tampoco.

Para todo lo demás, lo que he escrito. ¿Mandeeeeeeee? Una máquina sirve para lo que sirve ¿mandeeee? Ya existen los cajeros otomáticos, pero para todo lo demás debería usted leer a Penrose antes de que su pesebre universitario se vaya a la caca por exceso de personal y pérdida de interés por parte de quienes cortan el bacalao socialmente.

¿Mandeeeee?

s

'**************
#26 Pues igual has redactado mal, ¿mandeeeee? Educación hispanistana en estado puro.

Se lo explico a lo Cayo Coyuntural: IA ser timo estampita. Ser lo mismo que energía nucular años 40, que iba a ser hostia en vinagreta y quedó en dos fenomenales kagadas, y eso sí, armas nuculares que era lo que se quería. IA ser timo, remito, sólo interesar a los que poner pasta en la medida que servir para control social borregos.
'************
Solo explicas tu opinión y tu sentir. Me temo que no es que yo lo haya explicado mal, es que pasas de otra cosa.

D

#28 ¿Y usted no expresa su "opinión" cuando comienza su exposición sobre la computación cuántica, de la cual estamos en bragas y sobran empresas-timos que venden como computadores cuánticos cosas que NO lo son, diciendo, y te cito "Pero no estoy de acuerdo, opino que no hace falta llegar a esto, simplemente que no se trata de un algoritmo concreto sino de la interacción de muchos de una forma determinada en una red neuronal: neruonas espejo y eso. "?

¿Eso no es una opinión? Pues esa opinión tuya incluso gente como Minsky opina que es errónea, además, no me inviertas la carga de la prueba, eres tú el que me vas a construir coches atómicos y naves interestelares con la energía nuclear, todavía estamos esperando por ellos. No me pongas al mismo tu creencia, de algo que no existe y que está por verse, con la "mía" de que cuando lo vea lo creeré.

Y aunque lo que dices tú fuese factible o tuvieses razón, tampoco lo verás, de la misma razón que no ves otras cosas: porque no interesa. Esta sociedad sólo tiene dos maneras de sacar las cosas adelante, o creando acumulación de capital (y para eso tienes que tener algoo real y que funcione, no humo), o yendo a quien tiene pasta y soltándole una milonga diciendo que de momento no funciona, pero que ya funcionará, y de momento que te la vaya soltando. Y claro, tiene que ser una historia bien articulada, porque es difícil pensar que la gente que tiene la gallina de los huevos de oro vaya por ahí pidiendo dinero porque la gallinita tiene el ojete obturado.

La IA ha ido fracasando en todo desde los años 60. Los aviones que iban a volar solos se han quedado en drones cutres que los capturan los iraníes. Los robots y HAL 9000 no han salido de las películas. Es una cosa MUY cara. Es más barato un señor, de fabricar y de adiestrar. Lo que queda es lo que te he dicho, la utilidad que pueda llegar a tener en control social, y es ahí donde se agarran todos los del pesebre. Comprobarás que el señor de la entrevista pasa por este tema de puntillas.

Cuando quede meridianamente claro que ni para eso sirve, la evolución social humana abandonará el experimento y se dedicará a otra cosa. Y ya te dije, como en el tema del ferrocarril, o intenté decir, que posiblemente habrá grandes avances, pero desde luego no será ni lo que tú crees ni lo que nadie es capaz de ver, y menos los peligros del entrevistado. Nadie pudo prever tampoco que el ferrocarril provocaría que la expansión colonial europea centrase la colonización (de europeos) en zonas determinadas del globo, detalle este que incluso muchos historiadores siguen desconociendo. O ignorando.

s

'*************
#31 #28 ¿Y usted no expresa su "opinión" cuando comienza su exposición sobre la computación cuántica, de la cual estamos en bragas y sobran empresas-ti
'**************
Sí pero ¿acaso no he acabado con un "no se..." y no he llamado ignorante a nadie ni me he metido a disparar incluso te he defendido explicando unas razones y las que me parecía que tenías tu y las que hay a fabor de cada al lego?


Yo expreso opinión. Pero se trata de las formas

Lo que yo decía es que es cierto que la I.A. ha avanzado poco. Yo hace varias décadas trabajé en algunas cosas de I.A. cuando salían los primeros P.C. :intérprete de prolog en castellano, sistemas expertos y solo un gran nodo para una red neuronal. pero me decepcionó. Para hacer sistemas expertos para una el esquema de procesos de alguna empresa sirve. Pero fuera de los sistemas expertos no daba más hasta que recientemente sí ves que se están consiguiendo cosas que se creían estaban a la puerta de la esquina hace cuarenta años: reconocimiento de voz, de caras, traducción de idiomas o cosas tan sencillas como andar a dos patas

¿por qué?

Pues porque el problema es que se pensó que se trataba de conseguir razonamiento simbólico sin fallos (prueba el software libre Fuzzy predicated logic escrito con Delhi, hace razonamientos simbólicos perfectos pero no toma decisión alguna de que ha de razonar o que plantearse además necesita una base de conocimientos traducida para trabajar)

pero el razonamiento simbólico es la punta de la pirámide, el resultado de algo muy grande, complejo y con una potencia de cálculo bestial. Porque un interprete de prolog funciona con un procesador de 8 bits y poca ram pero el cerebro tiene una capacidad de memoría y cálculo que solo se ha podido acercar recientemente conectando via internet multitud de superordenadores y hacerlos funcionar como uno de solo y eso que hace tiempo el deep blue ganó a kasparov en ajedrez,

Un savant es una persona un tanto curiosa. Kim peek era un savant capaz de leer una página diferente con cada ojo y recordaba todo lo que leía. REcordaba unos 12000 libros perfectamente de forma que si se le preguntaba por lo que decía una página y una linea la recitaba perfectamente al instante con cada coma y signo sin fallos

¿tenía una memoría por encima de lo normal? ¿tenía una capacidad de proceso de esa información para acceder tan rápido a tanta información tan rápido y devolverla?

Pues no (aunque algo hipertrofiado el hipocampo pero seguramente de tanto memorizar más que de esa capacidad misma).

Para hacer una actividad normal desde andar y mantener el equilibrio, distinguir quien vemos y si lo reconocemos, saludarlo, reconocer si está alegre o triste, recordar cosas relevantes para nosotros de esa persona, continuar con nuestro camino hacia donde íbamos, elegir las palabras y responder correctamente y hcer varios razonamientos a la vez, usamos una capacidad de computo y de memoría bestial sin ser conscientes. Así alguien puede recordar 12000 mil libros sin un fallo al instante pero tener problemas para abrocharse un botón o saber como saludar o entrar a hablar a una persona conocida o que decirle según las circunstancias. Tiene más cerebro dedicado a una actividad en lugar del conjunto que tiene una persona normal eso muestra que la que usa una persona normal para lo que se da por hecho es astronomicamente grande y está desperdigada en infinidad de procesos de información diferente en paralelo par dar un resultado coherente

Se notó estó cuando se vió que la base de conocimientos puesta a mano poco podía y se pasó a crear redes semanticas para alimentarla a partir de fuentes de información disponibles desde periodicos y ahora internet


Cuando se ha sido consciente de esto es cuando de verdad han empezado a haber resultados de verdad en I.A. ahora que se esperaban hace décadas, incluso aterrizaje autónomo en un portaaviones y otros.

Ahora es cuando está empezando de verdad. Y cuando se empieza a tner veradera capacidad. Pero sí está el problema de los problemas no polinómicos y como los aborda el cerebro si usa computación cuántica o bien hace aproximaciones con lo que va aprendiendo a lo largo de la vida y ya está. O las dos cosas al tiempo (que parece más lógico pero más complejo para emular)

En todo caso haga lo que haga el cerebro no es algo mágico sino que es algo físico que está dentro de las leyes de la física. NO son procesos que las violen. Se trata de conocerlos

¿se podrá conseguir pronto, entenderse o costará mucho de entender? Pues no lo se pero ser taxativo no es muy razonable sobre todo descalificando a lo bruto. Porque has usado la descalificación y el juicio para opinar. DEberías calmarte


Yo tengo mis ideas de como funciona incluso creo que no solo se conseguirá sino que se puede superar con creces pero faltan muchos cabos sueltos. Puede ser que no se encuentren o que se tarde o que sí se encuentren. Pero no me pongo a insultar y descalificar ¿de acuerdo?


'**************

Y aunque lo que dices tú fuese factible o tuvieses razón, tampoco lo verás, de la misma razón que no ves otras cosas: porque no interesa. Esta sociedad sólo tiene dos maneras de sacar las cosas adelante, o creando acumulación de capital (y para eso tienes que tener algoo real y que funcione, no humo), o yendo a quien tiene pasta y soltándole una milonga diciendo que de momento no funciona, pero que ya funcionará, y de momento que te la vaya soltando. Y claro, tiene que ser una historia bien articulada, porque es difícil pensar que la gente que tiene la gallina de los huevos de oro vaya por ahí pidiendo dinero porque la gallinita tiene el ojete obturado.

La IA ha ido fracasando en todo desde los años 60. Los aviones que iban a volar solos se han quedado en drones cutres que los capturan los iraníes.
'*****************

Aquí hay otras cosas además casi me niegas la inteligencia natural que no se ha de demostrar que existe y es físicamente posible.

A ver, calma, eso que lanzas es otra totalmente diferente a lo que se charlaba

por otra parte la I.A. necesita una potencia bestial para acercarse un poquitín a un humano y desde luego no es económicamente factible ahora ni si se consigue tenerla para hacer robots que nos sustituyan pero sí tareas específicas por ejemplo minar información de la red con la internet semántica, o buscar información, reconocer automáticamente personas cuando se acercan a cámaras públicas y avisar a los controladores en lugar de tener miles de personas mirando 4etc

D

"La conciencia, en su opinión, es una propiedad intrínseca de la materia, al igual que la masa o energía" y aquí el artículo magufo del día.

D

Ya tenemos otro "iluminado" con sus predicciones terminator. La IA es el mayor fracaso de la ciencia moderna, y sinceramente, no hay nada ahora mismo en el campo que indique que las cosas vayan a cambiar en los próximos años.

s

#87 están cambiando, lentamente pero lo están

1 2