Hace 1 año | Por ccguy a github.com
Publicado hace 1 año por ccguy a github.com

Demostramos las consecuencias potencialmente brutales de dar a LLMs como ChatGPT interfaces para otras aplicaciones. Proponemos vectores y técnicas de ataque recién habilitados y proporcionamos demostraciones de cada uno de ellos en este repositorio: Control remoto de LLMs de chat. Filtración de datos de usuario. Compromiso persistente a través de sesiones. Inyecciones de propagación a otros LLM. Compromiso de LLMs con pequeñas cargas útiles multietapa. Ingeniería social automatizada...

Comentarios

KoLoRo

#4 A mandar.

ccguy

#2 Yo también paso por caja. Es que es un peligro para muchas cosas todavía, sí, y que ojo con los plugins porque te la lían (como se puede ver) también, pero que para un montón de tareas ahorra muchísimo más de lo que cuesta... ninguna duda.

Ferran

#1 Tú te lo pierdes.

Yo les di hasta los datos de mi tarjeta de débito y 24€ mensuales.

Nunca tuve una secretaria más barata, eficiente y rápida para redactarme cosas.

Rima

Yo sentí curiosidad por probarlo, me pidieron el número de teléfono y los mande a tomar por culo.

c

¿Lo podéis explicar como para un niño de 9 años?

h

#5 Los 9 son los nuevos 5

KoLoRo

#7 Todos mienten en su edad... He ido a lo seguro para que lo entendiera bien.

Shinu

#1 Haces bien, porque en cuanto lo pruebes vas a pensar que cómo podías vivir antes sin eso. Es mejor no probarlo.