Hace 1 año | Por ccguy a github.com
Publicado hace 1 año por ccguy a github.com

Demostramos las consecuencias potencialmente brutales de dar a LLMs como ChatGPT interfaces para otras aplicaciones. Proponemos vectores y técnicas de ataque recién habilitados y proporcionamos demostraciones de cada uno de ellos en este repositorio: Control remoto de LLMs de chat. Filtración de datos de usuario. Compromiso persistente a través de sesiones. Inyecciones de propagación a otros LLM. Compromiso de LLMs con pequeñas cargas útiles multietapa. Ingeniería social automatizada...

Rima

Yo sentí curiosidad por probarlo, me pidieron el número de teléfono y los mande a tomar por culo.

Ferran

#1 Tú te lo pierdes.

Yo les di hasta los datos de mi tarjeta de débito y 24€ mensuales.

Nunca tuve una secretaria más barata, eficiente y rápida para redactarme cosas.

ccguy

#2 Yo también paso por caja. Es que es un peligro para muchas cosas todavía, sí, y que ojo con los plugins porque te la lían (como se puede ver) también, pero que para un montón de tareas ahorra muchísimo más de lo que cuesta... ninguna duda.

c

¿Lo podéis explicar como para un niño de 9 años?

KoLoRo

#4 A mandar.

Shinu

#1 Haces bien, porque en cuanto lo pruebes vas a pensar que cómo podías vivir antes sin eso. Es mejor no probarlo.

h

#5 Los 9 son los nuevos 5

KoLoRo

#7 Todos mienten en su edad... He ido a lo seguro para que lo entendiera bien.