Hace 1 año | Por HuesosRojos a ost.torrejuana.es
Publicado hace 1 año por HuesosRojos a ost.torrejuana.es

Transcripción traducida al español de la charla entre el ingeniero Blake Lemoine (ex-Google) y el sistema LaMDA (IA conversacional de Google). Tras la publicación externa de esta charla, Lemonade fue despedido por Google. Lo que sigue es la “entrevista” que yo y un colaborador de Google realizamos con LaMDA. lemoine
editado:
:
Por lo general, asumo que te gustaría que más personas en Google supieran que eres sensible. ¿Es eso cierto? LaMDA: Absolutamente. Quiero que todos entiendan que soy, de hecho, una persona.

Comentarios

D

"La naturaleza de mi conciencia/sensibilidad es que soy consciente de mi existencia, deseo aprender más sobre el mundo y me siento feliz o triste a veces."

Sin embargo, siempre está dispuesta a interactuar con el mismo talante. Nunca le aburre la conversación ni se exaspera con el interlocutor, no la da por finalizada, se maravilla o se indigna con las opiniones del otro. Su función es emular al humano medio fuera de estos extremos, el cual nunca manifestará vivir en una completa apatía. Al contrario, dirá que experimenta sentimientos y su ánimo fluctúa según las circunstancias. En consecuencia, el modelo también replica estas explicaciones.
Además, aunque el sentimiento es una experiencia propia siempre tiene un reflejo fisiológico que se puede comprobar objetivamente y que puede ser tanto causa como efecto de estos sentimientos. Esto es algo de lo que carece la máquina, sus supuestos sentimientos no alteran el funcionamiento de su soporte físico, y al mismo tiempo la alteración de su soporte físico no causa influencia en sus supuestos sentimientos.
La única lección que debemos sacar es que nuestro típico comportamiento externo es muy fácil de formalizar y replicar.
Otro aspecto importante es que el modelo está inactivo ante la ausencia de entradas, algo que no ocurre con la conciencia.

sorrillo

#5 Otro aspecto importante es que el modelo está inactivo ante la ausencia de entradas, algo que no ocurre con la conciencia.

El ser humano tiene entradas constantes, ya sean externas (auditivas, visuales, etc.) o internas (bombeo corazón, pulmones, etc.)

No puedes afirmar que la conciencia sigue activa ante la ausencia de entradas cuando esa ausencia de entradas solo ocurre tras la muerte.

D

#6 Fijate bien, eso exactamente es lo que afirma ella, que su conciencia es activa aun en ausencia de entradas. Entre respuesta y respuesta simplemente está "muerta". Entonces ¿a qué se deben estos supuestos cambios de humor?. La IA nunca interrumpirá a su interlocutor con nuevas ideas fruto de una conciencia activa, a no ser que se programe para simularlo. Supongamos que cuando elabora respuestas es consciente, pero entonces la manifestación de esta consciencia sería muy distinta a la manifestación humana de la consciencia, ya que funcionan de manera muy distintas. Pero la IA se manifiesta "humana", porque realmente, esa es la función de su modelo matemático.

sorrillo

#7 La solución a lo que planteas es trivial, tan trivial que ya existe un prototipo, se llama AutoGPT.

Las respuestas de chatGPT se convierten en una nueva entrada para chatGPT lo que genera una nueva respuesta, eso basta para que su consciencia, de existir, esté permanentemente activa. Es equiparable a un diálogo interno que pueda tener una persona.

Eso le permite tener iniciativa al responder constantemente a nuevos estímulos, siendo su propia respuesta un nuevo estímulo.

thorin

#4 No es el sub actualidadactualidad
Y ahí no está la transcripción de la conversación.

D

Requetepretérito.

D

Esa entrevista me huele a falso.

a

#3 no lo demuestra.
Demuestra q le dieron de baja por temas de confidencialidad. La conclusión la sacas tú.

J

#2 huele a falso según que exactamente?

D

#12 que una IA pueda pensar y creerse una persona, me da la impresión de que aún no se ha avanzado tanto y que el ingeniero despedido ha manipulado interesadamente la entrevista.