Los modelos de aprendizaje lógico actuales siguen siendo limitados en el razonamiento diagnóstico temprano y aún no se puede confiar en ellos para la toma de decisiones clínicas sin supervisión en relación con el paciente. Es la conclusión de un nuevo estudio, que muestra que los modelos generativos de inteligencia artificial siguen sin alcanzar sus capacidades de razonamiento clínico.
|
etiquetas: ia , diagnóstico , razonamiento , llm , supervisión médica
INCORRECTO.
El estudio remarca que el principal problema es la baja calidad de los diagnósticos diferenciales. Esto es algo que es conocido… » ver todo el comentario
Necesitará su tiempo y seguro que cada vez avanzará más, aunque hay trabajos en los que siempre va a cojear, sobre todo en los de interacción humana.
Muchos no tienen claro que a día de hoy no llegué al nivel de un médico, ¿que harán en 5 o 10 años?
El estudio comparó 21 modelos de lógica difusa (LLM) de propósito general, incluyendo los modelos más recientes de ChatGPT, DeepSeek, Claude, Gemini y Grok
La desesperación por comprender algo que nadie se molestó en indagar, me llevó a hablar con ChatGPT y dicha conversación me llevó a 1) un diagnóstico al que no hice caso porque es una IA y 2) a plantear preguntas a mis médicos que de otra manera jamás habría hecho y más bien “por si acaso”, no vaya a ser que acierte.
Puedo decir que acertó el diagnóstico y que es oficial, demostrado con pruebas que tengo una enfermedad autoinmune y que llevo tratamiento crónico gracias a ChatGPT.
Como decía, es mi caso personal y solo la desidia de otros me llevó a esta experiencia.