Hace 1 año | Por Califa79 a cronicalibre.com
Publicado hace 1 año por Califa79 a cronicalibre.com

La Inteligencia artificial llega también en el sector de la salud. Chat GPT será una herramienta clave en la formación especializada, ayudará al diagnóstico a través de la descripción de síntomas y permitirá analizar datos para identificar patrones y tendencias en la salud y en la enfermedad. El 76% de los médicos ven el potencial y un 39% la usaría en investigación, diagnóstico y tratamiento, según una encuesta en una plataforma médica. Los pacientes tendrán mayor control en el seguimiento de su enfermedad.

Comentarios

VotaAotros

#4 Pues yo no me hice ginecólogo para esto... wall

skaworld

#5 Ginecólogo meneante? Eso es una quimera, no engañas a nadie

D

#5 Yo le he creado un caso clínico de ampuloma y me lo ha enfocado como una colangitis pese a que le he dicho que está afebril, que el murphy es negativo y que lleva meses con un cuadro constitucional.

Ahora mismo me parece más un consultor que un sustituto.

E

#8 Yo le he ido metiendo de rato en rato los casos del NEJM. En alguna ocasión ha llegado a ser sorprendentemente específico, pero no ha sido lo habitual. En alguna ocasión ha pasado por alto posibilidades relevantes.

Malinke

Pero antes de aceptar el resultado, que lo mire una persona humana.

VotaAotros

#1 ¿Hay alguna persona que no sea humana? Pregunto...

Malinke

#7 jaja, pues créete tú que lo pensé cuando lo puse y le di una explicación de la que ahora no me acuerdo y que pudo ser una tontería.

p

#1 Es para realizar triaje, pero esto va a tardar mucho en ser aceptado socialmente, aunque cometa menos fallos que un ser humano. Y el gran problema serán los falsos negativos.

Malinke

#10 ayer en un envío #xpell retrató varias deficiencias de las IA que si lo hacen en diagnósticos médicos, sería más problemático que en lo que él se dedicaba. Evidentemente desearía que sobre el tema médico nos superara sin ningún problema.

rojo_separatista

#14, yo me fijaría más en métricas objetivas que en comentarios subjetivos de un meneante. Lo hace mejor que los humanos? Pues adelante. Lo hace peor? Pues todavía no.

De momento los resultados de GPT-4 en la mayoría de exámenes de acreditación profesionales de EEUU están bastante por encima de la mayoría de humanos que se presentan.

i

#1 o no. Yo igual me fío más de la inteligencia artificial que de muchos médicos

mecha

#1 Como programador, he probado la herramienta y, aunque aveces da resultados muy interesantes, comete fallos gravísimos.
Y lo peor que le veo de momento es que si no sabe algo se lo inventa totalmente. Prueba a pedirle un imposible, que en lugar de decir que no se puede, se inventa una respuesta. También pasa que cuando te da una respuesta y le dices que está mal, cambia algo y se queda tan tranquilo. Prueba a hacerlo con una respuesta válida y veras que la cambia a una errónea.

jobar

¿Y cuando haya errores de diagnóstico quién se hace responsable de los daños?

C

#2 El paciente...como siempre!!!  :P

mecha

#3 hay cosas que no cambian nunca...

skaworld

#2 Hasta donde tengo entendido lo que se plantea es como herramienta, no como substituto.

Amos que a ti te sacan una radiografia del nabo, y si todo aparenta ser normal, pos nada, pero si hay algo raro por minimo que sea pasa al doctor nabo y este ya evalua si hay que amputar o que.

¿Resultado? El doctor nabo es mas eficiente porque no pierde el tiempo mirando muchas fotopollas.

Amos creo que van por ahi los tiros

jobar

#4 Aún así sigue siendo interesante quién sería el responsable de un fallo.

i

#13 nadie,.como siempre.

Jesulisto

En resumen: Vamos a morir todos.

Brill

Ayuso vota positivo.

k

Si los techbros que venden ChatGPT no advierten de que NO SIRVE para diagnosticar, para mi tendrán las manos manchadas de sangre.

Justo por esto urge regular para qué cosas puede y no puede usarse esta tecnología. Si el fallo tuviera consecuencias legales para el proveedor, y bien gordas, otro gallo cantaría.

D

publirreportaje.