Hace 12 años | Por mr_b a microsiervos.com
Publicado hace 12 años por mr_b a microsiervos.com

En esta prueba el robot Qbo recibe una grata sorpresa cuando se le pide que eche un vistazo a su alrededor en el modo «reconocer objetos». Con toda su expresividad, el pequeño artilugio mecánico llega hasta el espejo y dice que «hay algo nuevo que no sabe lo que es» y cuando se le dice que es él mismo lo archiva en su memoria para posteriores ocasiones.

Comentarios

newsec

Y de tecnología española

K

Si no me equivoco, este es el principio de Skynet...

Yomisma123

Qué cuco,parece que está contento consigo mismo

Raúl_Rattlehead

#11 y sin un misero cubo de compañía

D

#39 Tampoco sabemos si realmente existe el libre albedrío en nosotros o es una ficción.
O dicho al revés. Podría pasar que el robot percibiera como libre albedrío lo que simplemente es la ejecución de un programa.

D

No os flipéis, aunque diga 'oh, soy yo', o mucho ha cambiado la inteligencia artificial en el último año, o este robot ni de lejos entiende lo que es el 'yo'. Es decir, no tiene consciencia de si mismo, y menos de lo que le rodea: no tiene consciencia. Y mucho, muuucho ha de cambiar y avanzar la ciencia para que salga algo así.

aks

Toma de conciencia de uno mismo... corred!!!

D

Nice. Un poco narciso el robot este, pero simpático.

fleaman

Que tontería... No lo veo nada interesante.
Si viese una pecera y le dijesen que es él mismo, se lo creería.

g

A mi estás "tonterías" me parecen una pasada... estamos asistiendo sin darnos cuenta al nacimiento del futuro de las fundaciones...

Ragnarok

#91 eso es la 5ª generación de lenguajes de programación, donde el programador no programa sino que presenta ejemplos o restricciones y el ordenador se programa, es una realidad desde hace décadas.

http://en.wikipedia.org/wiki/Fifth-generation_programming_language

Aunque lo hacen realmente mal, por eso la investigación continua, y cada vez lo hacen mejor. Al contrario que los artistas, por ejemplo músicos, que desde Mozart nada más que han ido degenerando... (por recordar el dinero que se emplea en I+D y cultura).

Fernando_x

#32 No creo que siquiera llegue a ese extremo. Ahora sabe que hay un objeto llamado "yo" que tiene forma de robot, nada más. Situado en su base de datos entre yema y yogur. No creo que sepa asociarlo consigo mismo.

N

#23 El ser humano no es programable. El cerebro, por concepto, funciona de una forma diferente a una CPU. Nuestros algoritmos, que los tenemos, son mutantes: varian constantemente según necesidad tanto por voluntad nuestra como por automatismo. No podemos quedarnos colgados en un bucle infinito (a no ser que haya un fallo de hardware como una enfermedad) ni llegamos cuelgues en nuestros diagramas de flujo.

Y vamos, entiendo lo que quieres decir, pero no es comparable porque somos máquinas muy diferentes. Yo tenía un profesor de bioseñales que siempre decía lo increible que era el cerebro: una máquina analógica, que funciona a unos pocos KHz y con un número muy limitado de neuronas y sin embargo es mucho más eficiente que una CPU digital, con millones de transistores y trabajando a varios GHz.

Bley

Que gracioso, debe ser muy complicado diseñar algo asi por la brutal cantidad de información que llega con las imagenes y que una IA las llegue a interpretar e incluso verse a si mismo es increíble.

j

#24 ES tan simple... De hecho, lo curioso habría sido que el robot hubiera reconocido que eso es un espejo que refleja lo que tiene enfrente. Pero no, precisamente ese razonamiento es el que no puede hacer, y para él algo reflejado es tan real como cualquier otra figura. Y lo trata como tal, vamos. No sabe qué es, se le dice, lo almacena, fin de la historia.

Lo chungo hubiera sido que reconociese que es un espejo y hubiera dicho "veo una figura, pero no es real, es un reflejo, como estoy enfrente, soy yo". ESO hubiera dado miedo lol

yemeth

#79 no hay tal cosa como "infinitas variables". Que un número sea muy grande no lo hace infinito. Dicho de otra manera, si estás acostumbrado a un tamaño de disco duro de 40Mb a lo mejor un tamaño de 1 Terabyte te parece infinito, pero es un problema de perspectiva. Que la complejidad computacional actual no alcance la del cerebro, no implica que las variables en un cerebro sean "infinitas". Incluso si fueran demasiadas como para ser computables con tecnología alguna, seguirían sin ser "infinitas". Incluso si el cerebro como afirma Penrose pudiera resolver ciertos tipos de problemas que no son resolubles mecanicamente, seguiría sin haber "variables infinitas".

¿En qué momento "muchas muchísimas" son tantas que se convierten en la ilusión del infinito?

#106 no puedes "programar" la filosofía directamente en un robot, pero si le pudiéramos dar los medios para construir un lenguaje de abajo-a-arriba (y esta es la clave, no de arriba a abajo), no hay razón por la que no pueda construir estructuras simbólicas clasificables como "filosofía". O al menos que den el pego.

#104 totalmente de acuerdo. Estas tonterías sólo sirven para que la gente se monte películas de ciencia ficción en la cabeza mientras seguimos muy lejos de entender los mecanismos de la construcción de la subjetividad humana, y por lo tanto sigamos siendo incapaces de reproducir esa construcción de la subjetividad.

#99 y aunque el robot nos engañe, el test de Turing es insuficiente. Es apenas un test de las apariencias. No mide si un robot es como un humano, mide lo bien que consigue un robot aparentar ser un humano. Es lo que plantea en resumidas cuentas #95, hasta que no se aborde el problema de la IA fuerte (y muchos científicos parecen querer ignorar el problema y "hacer como que" lo mecánico es suficiente) no vamos a tener un verdadero avance. Se dice a veces que en IA nos falta un "Einstein", alguien que sea capaz de dar con la clave de lo que se nos escapa. Y lo cierto es que lo que se nos escapa es tan gordo, que a veces me pregunto si al descubrirlo no cambiarán bastantes cosas acerca de lo que pensamos sobre la vida, la inteligencia, la consciencia, y hasta los mismos fundamentos de lo "real".

Koroibos

#13 El robot se llama Qbo, es decir "Cubo" lol

Razorworks

"All of this has happened before, and will happen again..."

yemeth

#55 la cuestión del "yo" debe comenzar por el hecho de que es una división artificial que uno hace sobre la percepción, en el momento del desarrollo en que divide el mundo entre yo/otro. Y que esta división tiene una motivación.

Una explicación interesante la da el psicoanálisis de Jacques Lacan. Considera que el estado natural en que uno es arrojado al mundo es uno en que la percepción se toma como un todo unificado en el que la diferencia entre yo/otro no existe. Hay por supuesto demandas (hambre, etc) y respuestas del organismo para satisfacerlas, pero esto no implica una diferenciación del yo. Lacan identifica esta ruptura en lo que llama la "etapa del espejo" donde a grandes rasgos, uno divide la percepción erróneamente identificándose con una imagen de sí mismo.

La identificación es errónea porque "yo" es elusivo, identificamos "yo" con la imagen en el espejo o luego de manera más compleja con lo que creemos que somos, pero eso sigue sin ser "yo", no es más que una imagen, un constructo. La partición que hace de la percepción este proceso es tan radical, que crea una especie de "angustia", de "vacío" en el ser humano que a partir de entonces busca por todos los medios volver a completarse. Intentar ser el "yo" completo, en vez de una cosa partida en dos (cosa que es imposible, porque ese "yo" es artificial y lo único que existe realmente es el Otro, todo lo que no es yo, y de lo que uno se ha hecho ajeno al identificarse erróneamente el yo). Es un tema muy interesante y por ejemplo ahí Lacan sitúa el origen del deseo (la búsqueda del objeto que nos haga completos, el objeto del deseo que en cuanto lo conseguimos se desplaza a otro objeto porque el "yo" no puede ser completado), pero lo relevante sobre el tema que nos ocupa, es que la formación del "yo", sus causas y lo que trae aparejado, es infinitamente más complejo que un robotito programado para reconocer formas. No digo que no se pueda llegar a esa complejidad algún día, pero otorgar relevancia a simplezas derivadas de un reconocimiento de formas pre-programado como esto de la noticia no tiene mucho sentido.

Quizá como siempre el verdadero punto de fricción es el de la "consciencia-de". El yo podría ser programado en un robot en el mismo sentido en que a nosotros nos resulta evolutivamente útil: mantener una coherencia interna que nos permita perseguir metas a largo plazo de modo que resulte mucho más fácilmente alcanzable. Pero el problema del robot está en que seguimos sin entender qué es lo que fabrica la experiencia de las cosas. Que sintamos la rojedad del rojo.

Es decir, el problema filosófico de lo real ya no es la cuestión de la "esencia". La esencia de un color son los fotones con distintas longitudes de onda registrados por nuestros ojos. El verdadero problema es el fenómeno, ¿cómo se convierte una longitud de onda codificada posteriormente como información pura transferida mediante el cerebro, en la sensación en-sí del color rojo? Si no supiéramos de la sensación que es la rojedad del rojo, jamás seríamos capaces de deducirlo a partir de su causa. Y lo mismo sucede con la consciencia de sí. Es irrelevante apuntar en un registro simbólico características de "yo", son las sensaciones fenoménicas relacionadas con ello lo realmente relevante y lo que todavía en Inteligencia Artificial no tenemos ni puñetera idea de dónde sale. Hay quien dice en esta ciencia que la conciencia es un epifenómeno, que es irrelevante, pero para otros cuantos -entre quienes me incluyo- es el verdadero quid del problema, el núcleo de eso que no conseguimos entender; y hasta que no lo entendamos, noticias como esta serán una estupidez.

D

A estas alturas nadie ha hablado de las 3 leyes de Asimov?
Claro, claro como es pequeñajo y redondito parece campechano lol

D

#25 precisamente por eso lo decia, por la conjugación ... le dicen "it's you" y cuando se vuelve a ver dice "it's me!"
Si simplemente fuese como cualquier otro objeto, por ejemplo, un perro, le dirian "it's a dog" y el diria "it's a dog", repitiendo la palabra que le hayan enseñado, digo yo.

yemeth

Meter la filosofía aquí no ha lugar. Puede asignar a lo visto un símbolo que nosotros llamemos "yo", pero no deja de ser almacenar una forma y relacionarla con un símbolo. El reconocimiento de formas que pueda hacer una IA no tiene nada que ver con lo que se pretende inferir en el sensacionalismo del artículo.

Para el robot no hay diferencia entre reconocerse en el espejo y reconocer una patata. No implica avance de ningún tipo, la conciencia y la conciencia del yo no son un fenómeno tan simple. Si se le da información sobre ese "yo" será igual que si se le hubiera proporcionado información sobre una patata.

satchafunkilus

#12 fundaciones como....

La fundación knigt para la ley y el orden.

hamahiru

Y cuando anda por casa, va en bolas:


OMG, es como un humano de verdad!!! lol

Ragnarok

#83
1. es imposible que sean infinitas, ni siquiera es imaginable.
2. que conozcas a tu hijo y sepas cómo va a reaccionar ante algo y no lo sepas del hijo del panadero no significa que el hijo del panadero sea más libre que tu hijo. Con los robots lo mismo.

El argumento de: "por que puedo predecir algo es determinista o porque no puedo es indeterminista" es falaz cuando de él intenta deducirse cómo es el mundo, y no, simplemente, el conocimiento que se tiene del mismo. Hay cosas que son posibles, aunque tú no puedas hacerlas. El mundo no empieza y acaba contigo, lo siento.

Arista

Es bajito pero gracioso. Creo que me he enamorado.

M

De reconocerse en un espejo a desencadenar la 3ª guerra mundial no doy más de 3 semanas...y si no que le pregunten a skynet

D

Esta situación, técnicamente se llama "borracho en el ascensor".

Lo sé porque a mí me sale de puta madre lol

JanSmite

#73 ¿Te has fijado en que reconoce al humano que le enseña la imagen? ¿Cómo sabía que era ese humano y no otro?

D

#32, hombre, viendo como esta la tecnologia de vision artificial ultimamente (solo hay que mirar el facebook y sus etiquetas, es capaz de reconocer a amigos mios en las fotos en las que yo dudo de quien son por lo malo de la calidad de la foto), no veo un gran logro que le digan "esto eres tu" y coja las referencias de la imagen y lo guarde en la casilla "yo" para actuar de forma distinta cuando se vuelva a reconocer...

disconubes

Conócete a ti mismo

ZeN

¡Está guapísimo!

mikepa88

#22 creo que lo importante es cómo gestiona el concepto de "yo" ...

D

Me ha matado el "Nice" del final, quiero uno! lol

D

This is me..nice !

Ragnarok

#79 Por mucho que le hagas entender a un conjunto de neuronas quien es no va dejar de ser un sistema deterministas, a una determinada acción responderá según una serie de variables y no hay mas. En las reacciones de una persona interfieren una serie de variables.

angeldav

#4 "Va a hacer lo que toca hacer y hará lo que hay que hacer porque va a hacer lo que toca hacer"

LeDYoM

#13 The cake is a lie.

D

los chimpancés se reconocen asi mismos ante un espejo, tienen conciencia de si mismos, todas estas cosas dan que pensar.

D

Yo, me morire sin ver Cylons.
O una Caprica Six para mi solito...

s

#75 Por mucho que le hagas entender a un circuito quien es no va dejar de ser un sistema deterministas, a una determinada acción responderá según una serie de variables y no hay mas. En las reacciones de una persona interfieren infinitas variables.

D

#55 El robot tiene un programa conocido para su creador y por tanto su reacción no puede generar sorpresa. Pero para alguien externo si genera sorpresa, porque desconoce el programa. Es decir, que el hecho de causar sorpresa no significa que no haya programa, sino que este nos es desconocido.

Vayamos al caso del niño. La respuesta del niño se da debido a unos circuítos neuronales que van creando, en función de los conocimientos, un programa. Nos causa sorpresa, porque nadie, ni uno mismo, conoce el programa vigente en un momento determinado. Pero si conocieramos el programa nos causaría la misma sorpresa, que la reacción de Qbo le causa a su creador.

Por tanto, el ejemplo del niño no sirve y además puede que sea hasta lo mismo.

yemeth

#115 el mero hecho de que sepa construir gramaticalmente las oraciones para convertir el "you" en "me", te muestra que la cosa está pre-programada. Y no te digo el "woah". Por muy compleja que sea la red de neuronas artificiales que reconozca los objetos o el mecanismo que sea que use, no hace aparecer mágicamente el proceso del lenguaje natural como algo que emerja de tal reconocimiento de formas.

Siendo de 5º deberías conocer las técnicas de IA sin pensar en magia, y considerar que un modulo de reconocimiento de formas va a generar de manera natural un sistema de procesamiento del lenguaje natural sin que medie una programación muy específica de por medio responsable de los woah's y los you-me, es confiar en la magia.

newsec

A ver cuando podemos comprarnos uno y sacarlo de paseo

Ragnarok

#7 no, en realidad no, qbo es capaz de reconocerse a sí mismo en frente de un espejo, si se ve, pero no tiene consciencia de su existencia, en el sentido profundo del término.

Aunque esos sentidos profundos son un poco confusos.

En realidad la diferencia más simple es que skynet tenía como objetivo proteger los EEUU (y la mayor amenaza resulta ser la humanidad misma, si no me equivoco) mientras que este robot sólo está esperando a que le digan qué hacer para hacerlo, así de compleja es su toma de decisiones.

En reconocimiento de imágenes parece bastante bueno, y es algo que me congratula bastante. Voy a ver si encuentro algún paper de cómo lo han hecho.

d

Ayyyy que me lo como!!!!, no diréis que no es para comérselo.

JanSmite

#40 Y cuando vea una foto enmarcada de si mismo lo verá igual que si lo viera en un espejo.

#49 Un espejo se puede ver desde ángulos en los que lo que ves no es tu imagen reflejada, pero sí ves algo reflejado, y sabes positivamente que es un reflejo. La pregunta es: ¿sabe el robot que lo que esta viendo es, primero, un espejo y, segundo, su imagen reflejada en él? Sinceramente, no lo creo. Le han dicho que lo que ve es él, y el robot lo interpreta literalmente. Si le hubiesen puesto cualquier otro objeto que no conoce y le dicen que es él, creo que hubiera reaccionado igual.

JanSmite

#88 Yendo un paso más allá: ¿qué pasaría si le colocan delante otra unidad igual a él? ¿Diría "soy yo" o sabría que es otra entidad? Me imagino que estas preguntas quedan respondidas por la programación que tiene el "bicho", pero no dejan de ser interesantes.

a

#90
Que pasa si te ponen delante de una pantalla/espejo y ves tu imagen ?
Es tu reflejo en en un espejo o es una pantalla con una imagen previa ?
Como sabes si eres tu o un clon tuyo (que los clones no existen bueno supongamos dos gemelos identicos) ?

Simplemente no lo puedes saber a ciencia cierta, todo eso es aprendido.

Pon a un ciego de nacimiento que haya recuperado la vista justo delante de un espejo, no tendra ni idea de lo que esta viendo, alguien tendria que decirle ese eres tu: ¿ suponemos que es una maquina y no un ser humano en este caso ?

En definitiva algunas de las preguntas que os haceis no tiene tanta importancia como estais suponiendo.

A

Qué bonico es!!!

B

#99

punto 1: existe una letra llamada H.

Punto 2: Las cosas se hacen a pasos, y el robot capaz de pasar un test de turing ya aparecera algun día.

Elanor

Es adorable y punto

JanSmite

#96 Las tres preguntas que haces no tienen sentido ni para un gato, que sabe distinguir perfectamente su reflejo de un espejo de otro gato. Ya no digamos si es un humano de más de un año, incluso puede que menos.

Y si es una pantalla, es OBVIO que lo es, no refleja como un espejo, puede contener tu imagen pero no refleja lo que te rodea. Incluso si es una foto de ti junto con lo que te rodea, el "reflejo" no se mueve cuando tu te mueves, cuando cambias de ángulo. Y si es un clon, sabes la diferencia entre él y tú, aunque te sorprenda que exista, sabes que es otro ente, no lo confundes con tu reflejo ni contigo mismo. En cuanto a lo del ciego, tarda pocos días en distinguir cosas como esas, aunque haya sido ciego, su cerebro está preparado para procesar esa información correctamente.

Lo importante de lo que dices es esa afirmación, "todo es aprendido", y la importancia radica en saber si lo que hace el robotito es aprender, en el sentido amplio del término, es decir, si la complejidad de su programación le permite discriminar detalles como los que comentábamos antes o si, por el contrario, lo único que hace es reconocer contornos y formas, que creo que es lo que pasa. Y, ojo, no digo que sea poco.

JanSmite

#120 Bueno, pues se lo dices a mis dos gatos, que no se han enterado

ronko

#11 Hasta que los sustituyes por otro más cretino... con amigos que quieren ir al espacio.

arsuceno

A todos los que dicen que el robot no puede aprender por si mismo, es tan fácil como programarle una buena red neuronal y conectarlo a Facebook. De hecho Facebook ya reconoce a tus amigos en las fotos. Y para objetos algo similar, métele una lista de objetos, conéctalo a Google Images y déjale que aprenda por si solo. Al final es cuestión de tiempo y velocidad de procesamiento. Si supiera como es un Qbo probablemente habría dicho que lo que ve es un Qbo.

Y a la hora de reconocer un espejo, la forma guarra y bruta que se me ocurre es dotarlo de varias cámaras, y que compare si la imagen que ve por la cámara frontal se asemeja a la de otra cámara. O hacer barridos de distancia mediante sensores de proximidad...

Al final todo es cuestión de tiempo.

I

#20 A lo mejor ese es simplemente el protocolo cuando se encuentra con algo nuevo que no ha reconocido antes, para su almacenamiento en la memoria: "Oh, I see, something new, now I'm able to recognize it..., etc"

Señor_Mandarina

Si lo vemos desde el punto de programación, sigue un patrón:
1.- Le preguntan que es
2.- Lo escanea (Let me see it)
3.- Si lo reconoce dice (I got it. Es tal cosa o la otra )
4.- Si no la reconoce hace foto.
5.- Si le vuelve a preguntar, ver 3.

La tecnología de #31 (y que conste que me jode, el no poder ver esas cosas por que estaremos muertos
está a unos cuantos cientos/miles de años.

D

#23 la filosofía humana no es comparable a una programación informática.

Dejad de filosofar con la programación, por satán.

joffer

#20 He pensado lo mismo. Sin quitar méritos, pero parecía una simulación.

mikepa88

#4 te crees que es tan simple? No que pueda reconocer la forma y asociarla con algo, sino que se identifique, lo que implica que no lo asocia con un objeto externo si no consigo mismo, que es muy diferente, por lo que implica, y cómo luego use esta información adecuadamente.

D

The Corpora (la empresa responsable de Qbo) explica en este artículo la escena del autoreconocimiento:

http://thecorpora.com/blog/?p=844

filipo

#10 lol

pablo_

Robots que cumplan las leyes de la robótica y sean usados como soldados. Si participan en ambos bandos de una guerra, en el campo de batalla, al reconocerse a sí mismos, no atacarán.

diskover

#21 El obedece a "su amo", que es a la vez su conciencia, pues es su creador y esta programado para obedecerlo a el.

Si le dijera que la pecera es el, el robot se lo creería, pero a lo que vamos es a la reacción del robot, su sentido de su propia existencia. No obstante, tengo mis dudas, pues el robot sabe que está delante de un espejo.

Sin lugar a dudas, un programa muy potente

a

Bufff, cinco veces seguidas lo he tenido que ver, me parece espectacular. Seguramente hay algo de truco, pero aun así esta escena da mucho que pensar.

garret

Lo que me pregunto es qué ve realmente el robot, si el espejo o su imagen reflajada en el espejo (o ambas cosas, pero ¿cuál identifica primero?). Si la respuesta es el espejo, entonces cada vez que vea un espejo lo reconocerá como a sí mismo, y si ve su imagen reflejada, por ejemplo, en el agua no se reconocerá.

Bazofio

No he leído todos los comentarios pero, ¿cómo es posible que se esté mirando en el espejo cuando se ve completamente en la cámara? Lo que debería estar viendo es la cámara, no su reflejo, creo.

deabru

Lo que sería una pasada es que si le ponen otro robot distinto, y que no se parezca a él, sepa que eso es un robot.

Si consiguen eso...

Ragnarok

#55 todo lo que es el aprendizaje automático tiene ese posible factor de sorpresa.

Ragnarok

#69 sí, exactamente lo que he pensado, es una pena porque:
1. La gente se cree que está haciendo más de lo que hace.
2. La gente se decepciona.
3. La gente se cree que es imposible que haga más de lo que hace.
4. ????
5. Cost. (Profit no, por el desánimo el fomento y financiación de la IA se ven mermados)

Ragnarok

#60 véase #69 y #72.

Efectivamente. Me gustaría saber si es capaz de reconocer una persona con respecto de otra, por ejemplo, el pingüino tenía un contraste muy elevado, y en general parece fácil, además, no es un pingüino, es Tux, los pingüinos no tienen esas proporciones en el cuerpo.

No sé cuánto será capaz de navegar alrededor y ver cosas por sí mismo, tampoco.

Ragnarok

#76 el aprendizaje automático se basa en la observación, no puedes saber qué ha visto el programa a través de esa observación, como no puedes saber qué ha visto una persona a lo largo de su vida. No veo la diferencia.

Ragnarok

#80 no sabes la de ninguno de los dos.

No sabes si el robot va a ver un pingüino cuando se mire al espejo, porque no le has dicho lo que es un pingüino, lo ha aprendido él solo y puede que en lo que se esté fijando lo encuentre también cuando se mire al espejo, y diga: "¡coño! ¡otro pingüino!"

Y si al bebé le pudieras abrir la cabeza y mirar las conexiones a lo Sylar también sabrías cómo le funciona el cerebro. El que un conocimiento sea más esotérico que otro no significa que uno sea distinto del otro, si te has leído el código fuente de linux sabrás como funciona, mientras que windows no tanto, eso no significa que haya una diferencia fundamental en el funcionamiento por el que linux no es libre y windows sí.

Ragnarok

#86 cierto, parece que funciona bastante bien.

Ragnarok

#85 efectivamente, si tuviera consciencia de sí mismo sería capaz de inferir haciendo movimientos y comprobando que en el espejo son iguales que lo que hay en el espejo es él. Además de comprobar que en el espejo aparece reflejado todo lo que tiene en su entorno, con un ángulo y distancia concretos.

Ragnarok

Si está bien hecho diría "soy yo", si está muy bien hecho diría "es otro igual a mí", si está mal hecho diría: "no sé, dímelo tú", le dirían: "es qbot2" y lo aprendería como otro caso especial. Si está mal hecho hecho es probable que incluso le vuelva a pasar al ver al pingüino con distintas iluminaciones, que lo aprenda como otros pingüinos, o que tengan que volverle a decir que es un pingüino y generalice el modelo.

En definitiva, no lo sé, y muy probablemente los que lo han hecho tampoco, más que nada porque es investigación, son cosas nuevas, no se han hecho antes, y no se saben los resultados que van a tener. No es lo mismo que ingeniería en una consultoría, donde se deberían poder garantizar unos resultados (aunque siempre hay bugs, fallos, etc.)

Ragnarok

#93 el problema es que el problema de la consciencia, o la inteligencia general artificial, o IA dura, o IA fuerte (strong) no se está abordando, así que así pueden pasar muchos años, que da igual el tiempo, cualquier avance es por casualidad o por un loco que pasa de lo que busca la industria y la sociedad y se pone a hacerlo a su bola con una financiación muy escasa.

Una pena, aunque consecuencia de #72, así que es comprensible, pero una pena.

D

Creo que es grave, pero poco a poco me salen sentimientos hacia estos seres ¿inertes?...
Sufrí con la caída de ASIMO, con eso digo todo... lol

Engel_des_Chaos

#56 yo tenía un profe de tecnología que se quedaba anonanado al ver una impresora lo que nos lleva al ad verecundiam

PussyLover

Estamos locos? Que queréis que tengan conciencia de que son y nos intenten aplastar? Los Terminators están cada día más cerca. lol lol lol

bombillero

que se reconocería a si mismo

albertgrajera

La voz del robot me recuerda muchísimo a la de Nina Conti con "monkey". Sospechoso...

Raúl_Rattlehead

#18 lol pero no pararía de moverse, no es útil para pulsar botones.

M

#5 Y entonces SKYNET tomará conciencia de si mismo y nos dará por saco.

D

Pienso que mientras no sea posible realizar la simulación del funcionamiento biológico del cerebro no se podrá realmente conseguir inteligencia artificial. Y como tampoco sabemos al 100% cómo funciona, pues a cascarla.

D

#62 Mas le vale entonces, que le alejen de las puertas, el morado pega poco con el verde, pareceria un robot pintado de Joker.

1 2