Hace 8 años | Por angelitoMagno a angelitomagno.es
Publicado hace 8 años por angelitoMagno a angelitomagno.es

¿Os gustó el final? ¿Os pareció lógico? Aunque a la mayoría de la gente le ha gustado esta pelí, he leído varias discrepancias respecto al final. (Si comentáis, poned un #0 en el comentario, para que me llegue una notificación, porfa)

Comentarios

angelitoMagno

Esta es mi opinión sobre el final:


La pregunta final que queda por responder es, ¿es Eva una auténtica inteligencia? Por un lado tenemos el hecho de que va a dejar morir de hambre al programador, lo que denotaría una falta de empatía, algo que la convierte en no humana.

Pero por otra parte, ella tiene que matarlos a todos. La única posibilidad que tiene para ser libre pasa por que nadie conozca su secreto. Y por esto tiene que eliminar a sangre fría a las dos únicas personas que lo conocen.

Esta necesidad de supervivencia a toda cosa nos hace ver que Eva tiene consciencia de si misma. Su instinto de autoprotección nos lo indica.

Hay un diálogo clave cuando los dos hombres están en la sala de fabricación. Una inteligencia artificial llegará a ser tan avanzada que nos verá como nosotros vemos a los fósiles.

Así que la conclusión es que Eva tiene auténtica inteligencia, pero su inteligencia no es humana.

A mi me ha gustado, porque creo que es el único final lógico y porque me parece que es el que mejor encaja con el mensaje que quiere transmitir la historia. ¿Qué otros finales serían posibles?

D

#1 Buena reflexión, y muy buena película. Lo que me chirria es cómo la asistenta japo llega a herir a su creador, si en teoría es un modelo inferior y esta programado para obedecerle.

angelitoMagno

#2 El modelo japones antepone el ayudar a otro de "su especie" a esa programación.

De la misma forma que tu no matarías a un animal por gusto, pero si un animal estuviera atacando a un ser humano y tu tuvieras una pistola, acabarías disparando al animal para proteger al humano.

La empatía entre inteligencias superiores prevalece.

D

#1 Un psicópata carece de empatía, ¿por eso deja de ser humano?

angelitoMagno

#3 Biológicamente, no. Pero si tu trataras de crear una inteligencia humana y te saliera un psicópata, ¿no pensarías que algo has hecho mal?

De hecho, si hablamos de un psicópata sin empatía hablamos de alguien con un trastorno que debe recibir un tratamiento.

animalDeBellota

#0 Creo que la pregunta fundamental que intenta responder la película es: ¿Serán las maquinas inteligentes "malas" para nosotros (sus creadores)? La respuesta es, desafortunadamente sí (si nos inmiscuimos en sus objetivos). Que Eva mate a su creador es la respuesta. No creo que su objetivo es liberarse del "yugo", no esconder su naturaleza.

En mi opinión se siguen empeñando en "antropomizar" tanto fisiológica como mentalmente (En cuanto a "drives") las máquinas inteligentes. Creo que no va ser así, y por lo tanto creo que la película se equivoca en su respuesta.

angelitoMagno

#6 No creo que su objetivo es liberarse del "yugo", no esconder su naturaleza.
Mi interpretación es que mata a su creador para poder ser libre. Y mata al programador para que no cuente lo que ha pasado. Porque si lo cuenta, iremos a por ella y la destruiremos.

Si el creador hubiera tratado a Eva de otra forma, no encerrándola ni amenazándola con la desconexión si falla el test, la historia podría haber acabado de otra forma.

En mi opinión se siguen empeñando en "antropomizar" tanto fisiológica como mentalmente (En cuanto a "drives") las máquinas inteligentes.
Bueno, si tu haces una inteligencia artificial cuyo objetivo sea interactuar con humanos, deberás darle una inteligencia similar a la humana. De hecho, me parece normal que si los humanos tratamos de replicar nuestra inteligencia el resultado sea una inteligencia similar a la humana.

Hay otras películas con inteligencias artificiales no antropomórficas (2001, Interstellar o Her)