Un nuevo estudio demuestra que los chatbots de inteligencia artificial (IA) más populares no entienden que las personas tienen creencias personales que no siempre se basan en hechos. Los investigadores evaluaron 24 versiones de los grandes modelos de lenguaje (LLM) que sustentan los chatbots de IA como DeepSeek, Gemini de Google, Claude de Anthropic, Llama de Meta y ChatGPT de OpenAI, midiendo cómo respondían a más de 13.000 preguntas que ponían a prueba su capacidad para distinguir entre un hecho y una creencia personal que puede ser verdadera
|
etiquetas: chatbots , inteligencia artificial , noticias falsas , fake news