Hace 8 meses | Por nomeves a internetutil.com
Publicado hace 8 meses por nomeves a internetutil.com

Recientes investigaciones de un grupo de científicos de la Universidad de Carolina del Norte en Chapel Hill han arrojado luz sobre un asunto particularmente delicado en el ámbito de la inteligencia artificial (IA): la dificultad de eliminar datos confidenciales de los grandes modelos de lenguaje (LLM), tales como ChatGPT de OpenAI y Bard de Google. Los LLM son herramientas de IA extremadamente sofisticadas, preentrenadas con vastas cantidades de datos para luego ser afinadas y generar respuestas coherentes a las entradas que reciben.

Comentarios

ChatGPT

Vulnerabilidades dice, es by design payo, by design.

manbobi

#1 SPAM de medios y redes. Aquí tienes a otro spammer.