Hace 1 mes | Por Chitauri a hackernoon.com
Publicado hace 1 mes por Chitauri a hackernoon.com

¿Puede un modelo de lenguaje de IA volverse lo suficientemente consciente de sí mismo como para darse cuenta de cuándo se está evaluando? Una anécdota fascinante de las pruebas internas de Anthropic en su buque insignia Modelo Claude 3 Opus (publicado ayer) sugiere que esto puede ser posible y, de ser cierto, las implicaciones serían descabelladas. https://twitter.com/AISafetyMemes/status/1764894816226386004

Comentarios

rojo_separatista

#5, te paso una de las mejores ponencias sobre el tema que he visto, además en castellano.

rojo_separatista

Señalar que que diga que es consciente no significa que lo sea. Igual que a fecha de hoy la ciencia no ha encontrado la forma de demostrar que los demás son conscientes como tú aunque lo afirmen.

almoss

#4 ¿Existe alguna definición objetiva, a día de hoy, para lo que es la consciencia? Pregunto desde el desconocimiento

cenutrios_unidos

Me temo que hasta que no veamos a esta IA moderando MNM, esta afirmación es falsa.

gustavocarra

#2 Muy hábil disimulando tu verdadera naturaleza