Por primera vez en la historia, un robot ha pasado un acertijo de inteligencia en el que tres robots se sientan juntos y a dos de ellos se les da una simbólica "píldora para atontar" con la que no tienen permitido hablar. El tercero, al ser el único que responde, se da cuenta de que a él no se la han dado y en ese momento toma conciencia de si mismo.
#4:
Titular alternativo: robot es programado para superar un test.
#11:
#9 No se si es lo que buscas pero te lo explico: Han programado a 3 robots para decirles que a dos de ellos les han dado una pildora con la cual no pueden hablar. Y les preguntan a quienes se la han dado. Entonces uno de los robots responde... "No lo se", y a continuación concluye... "Ahora lo se, a mi no me la has dado", porque entiende que al poder hablar significa que a él no se la han dado. La pregunta es... ¿Programación pura y dura o el robot realmente ha comprendido lo que pasaba?. El experimento es interesante en ese sentido.
Bringsjord doesn’t believe that any of the artificial creatures
featured in the present paper are actually self-conscious.
He has explained repeatedly [e.g., see [14], [15]] that genuine
phenomenal consciousness [16] is impossible for a
mere machine to have, and true self-consciousness would
require phenomenal consciousness.
Bringsjord doesn’t believe that any of the artificial creatures
featured in the present paper are actually self-conscious.
He has explained repeatedly [e.g., see [14], [15]] that genuine
phenomenal consciousness [16] is impossible for a
mere machine to have, and true self-consciousness would
require phenomenal consciousness.
#12 No estoy de acuerdo con lo de sensacionalismo, creo que abre la interminable reflexión filosófica sobre los límites de lo que para nosotros toma o no tiene vida o conciencia de sí mismo (que el autor declara directamente querer evitar para poder avanzar en este campo sin la losa de esa eterna divagación). Por supuesto, el robot ha pasado el test deduciendo su respuesta dentro de una estructura lógica pre establecido, pero es la primera vez que pasa y me sigue pareciendo histórico. O qué esperas? que se lleve las manos a la cabeza y diga "ostiaputa que movidaaaaaaa..." no me jodas
Nonetheless, the logicomathematical
structure and form of self-consciouness can be
ascertained and specified, and these specifications can then
be processed computationally in such a way as to meet clear
tests of mental ability and skill. This test-based approach,
dubbed Psychometric AI, thankfully, avoids endless philosophizing
in favor of determinate engineering aimed at building
AIs that can pass determinate tests. In short, computing
machines, AIs, robots, and so on are all “zombies,” but these
zombies can be engineered to pass tests. A not-small body
of work lays out and establishes this position; e.g., [14],
[17], [18], [19], [5], [4]. Some of Bringsjord’s co-authors in
the present case may well reject his position, but no matter:
engineering to tests is fortunately engineering, not a matter
of metaphysics.
#16#17 no he dicho en ningún caso que no sea interesante. Pero decir que tiene "consciencia de si mismo". Yo mas bien diría que es consciencia de una determinada situación.
Es mas , la única diferencia entre ese test y otro test siendo otro robot el que analiza a esos 3 (1 observador , 2 mudos y el que habla) es que el robot identifica una de esas partes como suya.
Puede que la idea de consciencia parta simplemente de identificarnos a través de una re alimentación de nuestras propias respuestas (inicialmente solo instintivas), pero creo que en cualquier caso esto tiene un nivel de complejidad distinto.
#16 Coleguilla, un matiz. Eso que nosotros llamamos conciencia no son las respuesta a un test que, por otro lado, acaba de demostrar que sirve para poco.
Por cierto, ¿cómo se sabe que el robot ha deducido? ¿No incluyen inducción o abducción?
#12 Eso es mas una cuestión filosofica que una cuestión técnica. Porque está delimitando la idea de la conciencia y la auto-consciencia. ¿Como se que yo soy yo?, ¿Como tomo conciencia de mi mismo?, si simplificamos el concepto de la conciencia y aceptamos que son cuestiones biológicas, podemos reproducir un ser artificial que tome conciencia de sí mismo como nosotros la tomamos. Pero si declaramos que una máquina es imposible que tenga autoconsciencia, estamos entrando en conceptos abstractos y no analizables, estamos aceptando que la conciencia y la auto-consciencia pertenecen al ambito fuera de la biologia y que la ciencia no puede reproducirlas. Con lo cual pregunto yo... ¿Es cierto que estamos hablando de planos no aplicables por la ciencia?. Entonces entramos en el terreno de la fe, y la fe, como la filosofia, no es una ciencia, y tiene la validez que queramos darle cada uno.
Sinceramente, o explican mejor el tema o a mi me parece una "simple" programación. De ahí a que el robot haya tomado conciencia de si mismo... Quizás han simplificando tanto la explicación para que llegue mejor a la gente, que realmente no se pilla bien donde está el "avance" en lo que se refiere a Inteligencia Artificial.
#9 No se si es lo que buscas pero te lo explico: Han programado a 3 robots para decirles que a dos de ellos les han dado una pildora con la cual no pueden hablar. Y les preguntan a quienes se la han dado. Entonces uno de los robots responde... "No lo se", y a continuación concluye... "Ahora lo se, a mi no me la has dado", porque entiende que al poder hablar significa que a él no se la han dado. La pregunta es... ¿Programación pura y dura o el robot realmente ha comprendido lo que pasaba?. El experimento es interesante en ese sentido.
#9 Te digo lo que he entendido yo, por si te sirve:
Silenciaron a 2 de los 3 robots.
Cuando al robot no silenciado le preguntaron si sabía qué dos robots estaban silenciados, respondió "No lo sé.". Entonces pasaron dos cosas: la primera, que cayó en la cuenta de que si había 2 robots silenciados, sólo uno podía hablar. Por otro lado, y esto es lo importante a mi entender, reconoció su propia voz, por lo que si él era el robot que podía hablar, significaba que los robots que habían recibido la "píldora" de silencio eran los otros dos, y por eso corrigió su respuesta. Esto implica que en algún momento tuvo que ser consciente de su propia existencia para llegar a esa conclusión.
A partir de aquí, y sin ver el código, ya depende de lo escéptico que seas.
A todos los incrédulos, vasta verle la cara que se le quedó al robot para saber que efectivamente tomó consciencia, si hubiera tenido internet a mano la hubiera liado a base de bien
Eso se puede hacer por inferencia lógica, bastante lejos de tomar conciencia de sí mismo. Ya me veré el paper cuando tenga tiempo, porque sin saber los detalles ténicos se puede aventurar poco.
When the robots were asked to answer which two had been given the pill, all of them tried to respond: “I don’t know.” Since only one was actually able to utter the words, it heard its own voice and recognized it wasn't among the two who had been silenced. That robot then responded: “Sorry, I know now. I was able to prove that I was not given a dumbing pill.”
Este tipo de tests serán válidos cuando el no se sepa previamente a que tests se está enfrentando. De otra manera se programa de cara a pasar ese test en particular y claro, alguno lo terminan pasando.
Comentarios
Titular alternativo: robot es programado para superar un test.
#5 #4 #1 #6 #9 Aquí tenéis el paper: http://kryten.mm.rpi.edu/SBringsjord_etal_self-con_robots_kg4_0601151615NY.pdf
#7 Bien, gracias por el documento:
Bringsjord doesn’t believe that any of the artificial creatures
featured in the present paper are actually self-conscious.
He has explained repeatedly [e.g., see [14], [15]] that genuine
phenomenal consciousness [16] is impossible for a
mere machine to have, and true self-consciousness would
require phenomenal consciousness.
Vamos, sensacionalista es poco.
#12 No estoy de acuerdo con lo de sensacionalismo, creo que abre la interminable reflexión filosófica sobre los límites de lo que para nosotros toma o no tiene vida o conciencia de sí mismo (que el autor declara directamente querer evitar para poder avanzar en este campo sin la losa de esa eterna divagación). Por supuesto, el robot ha pasado el test deduciendo su respuesta dentro de una estructura lógica pre establecido, pero es la primera vez que pasa y me sigue pareciendo histórico. O qué esperas? que se lleve las manos a la cabeza y diga "ostiaputa que movidaaaaaaa..." no me jodas
Nonetheless, the logicomathematical
structure and form of self-consciouness can be
ascertained and specified, and these specifications can then
be processed computationally in such a way as to meet clear
tests of mental ability and skill. This test-based approach,
dubbed Psychometric AI, thankfully, avoids endless philosophizing
in favor of determinate engineering aimed at building
AIs that can pass determinate tests. In short, computing
machines, AIs, robots, and so on are all “zombies,” but these
zombies can be engineered to pass tests. A not-small body
of work lays out and establishes this position; e.g., [14],
[17], [18], [19], [5], [4]. Some of Bringsjord’s co-authors in
the present case may well reject his position, but no matter:
engineering to tests is fortunately engineering, not a matter
of metaphysics.
#16 De acuerdo contigo, aunque me hubiese gustado que de verdad se llevase las manos a la cabeza
#16 #17 no he dicho en ningún caso que no sea interesante. Pero decir que tiene "consciencia de si mismo". Yo mas bien diría que es consciencia de una determinada situación.
Es mas , la única diferencia entre ese test y otro test siendo otro robot el que analiza a esos 3 (1 observador , 2 mudos y el que habla) es que el robot identifica una de esas partes como suya.
Puede que la idea de consciencia parta simplemente de identificarnos a través de una re alimentación de nuestras propias respuestas (inicialmente solo instintivas), pero creo que en cualquier caso esto tiene un nivel de complejidad distinto.
#16 Coleguilla, un matiz. Eso que nosotros llamamos conciencia no son las respuesta a un test que, por otro lado, acaba de demostrar que sirve para poco.
Por cierto, ¿cómo se sabe que el robot ha deducido? ¿No incluyen inducción o abducción?
#16 abrir una reflexión está muy lejos de lo que dice el titular, hijo
#12 Eso es mas una cuestión filosofica que una cuestión técnica. Porque está delimitando la idea de la conciencia y la auto-consciencia. ¿Como se que yo soy yo?, ¿Como tomo conciencia de mi mismo?, si simplificamos el concepto de la conciencia y aceptamos que son cuestiones biológicas, podemos reproducir un ser artificial que tome conciencia de sí mismo como nosotros la tomamos. Pero si declaramos que una máquina es imposible que tenga autoconsciencia, estamos entrando en conceptos abstractos y no analizables, estamos aceptando que la conciencia y la auto-consciencia pertenecen al ambito fuera de la biologia y que la ciencia no puede reproducirlas. Con lo cual pregunto yo... ¿Es cierto que estamos hablando de planos no aplicables por la ciencia?. Entonces entramos en el terreno de la fe, y la fe, como la filosofia, no es una ciencia, y tiene la validez que queramos darle cada uno.
Sinceramente, o explican mejor el tema o a mi me parece una "simple" programación. De ahí a que el robot haya tomado conciencia de si mismo... Quizás han simplificando tanto la explicación para que llegue mejor a la gente, que realmente no se pilla bien donde está el "avance" en lo que se refiere a Inteligencia Artificial.
#9 No se si es lo que buscas pero te lo explico: Han programado a 3 robots para decirles que a dos de ellos les han dado una pildora con la cual no pueden hablar. Y les preguntan a quienes se la han dado. Entonces uno de los robots responde... "No lo se", y a continuación concluye... "Ahora lo se, a mi no me la has dado", porque entiende que al poder hablar significa que a él no se la han dado. La pregunta es... ¿Programación pura y dura o el robot realmente ha comprendido lo que pasaba?. El experimento es interesante en ese sentido.
#9 Te digo lo que he entendido yo, por si te sirve:
Silenciaron a 2 de los 3 robots.
Cuando al robot no silenciado le preguntaron si sabía qué dos robots estaban silenciados, respondió "No lo sé.". Entonces pasaron dos cosas: la primera, que cayó en la cuenta de que si había 2 robots silenciados, sólo uno podía hablar. Por otro lado, y esto es lo importante a mi entender, reconoció su propia voz, por lo que si él era el robot que podía hablar, significaba que los robots que habían recibido la "píldora" de silencio eran los otros dos, y por eso corrigió su respuesta. Esto implica que en algún momento tuvo que ser consciente de su propia existencia para llegar a esa conclusión.
A partir de aquí, y sin ver el código, ya depende de lo escéptico que seas.
Edito: #11, por 1 minuto...
Por fin disponemos de un robot más inteligente que Rajoy
#1 Mi sobrino tiene un chupete. El mecanismo ya es más complicado que la mente de Rajoy
Es un experimento bastante curioso e interesante. Merece la pena leer el artículo y ver el video.
A todos los incrédulos, vasta verle la cara que se le quedó al robot para saber que efectivamente tomó consciencia, si hubiera tenido internet a mano la hubiera liado a base de bien
Yo solo digo que todo son risas hasta que Skynet se revela y vuelan las bombas.
Eso se puede hacer por inferencia lógica, bastante lejos de tomar conciencia de sí mismo. Ya me veré el paper cuando tenga tiempo, porque sin saber los detalles ténicos se puede aventurar poco.
No es por ser aguafiestas, pero tengo serias dudas sobre esto, aunque no sabría expresarlo de forma adecuada el porque tengo esa sensación.
Joder, si parece que mueve la mano para verse a si mismo... da yuyu
When the robots were asked to answer which two had been given the pill, all of them tried to respond: “I don’t know.” Since only one was actually able to utter the words, it heard its own voice and recognized it wasn't among the two who had been silenced. That robot then responded: “Sorry, I know now. I was able to prove that I was not given a dumbing pill.”
Hasta los huevos del puto sensacionalismo con la IA.
Lo que demuestra la utilidad de esos test de conciencia
¿Y lo majo y educado que es el robot?
¿Y como era el test de complicado?
bool answer(string question) return true;
else
return new Random();
">
No es un precipitado no?
#2 Pues sí.
Este tipo de tests serán válidos cuando el no se sepa previamente a que tests se está enfrentando. De otra manera se programa de cara a pasar ese test en particular y claro, alguno lo terminan pasando.
Y... esto es el fin del mundo tal y como lo conocemos. Por enésima vez.