Hace 3 años | Por --651690-- a agenciasinc.es
Publicado hace 3 años por --651690-- a agenciasinc.es

Usando un algoritmo de inteligencia artificial, dos estudiantes de ingeniería en Madrid han desarrollado un modelo que reconoce una infección por coronavirus con hasta un 97 % de precisión en radiografías torácicas. La herramienta está disponible on line para ayudar a los profesionales sanitarios en su diagnóstico de pacientes.

Comentarios

D

#1 esos porcentajes de donde los sacas?

D

#19 perdona no era para tí el comentario, era por #7, que me llama la atención lo que dice

noexisto

#19 había intuido esa explicación con la notica y otros comentarios, pero el tuyo me lo ha aclarado aún más. Gracias!

eldarel

#25 De nada
Ventajas de estar empezando en esto... que sólo puedes explicar las ideas básicas.

noexisto

#27 cuanto más se sabe de un tema más difícil resulta simplificar porque conoces casi todas las excepciones y temas relacionados que cambian la explicación (eso solo se suele ver al final donde descubres que tus primeros conocimientos no son ciertos y que solo servían para que te hicieras una idea )

D

#19 muy buena explicación, pero no entiendo tu último apunte: Aquí es donde hace falta una base brutal de estadística.

Te refieres a la base de aprendizaje?

eldarel

#32 Para enseñar bien, hay que preparar bien los datos para evitar sesgos. Ése es el terreno de la estadística.

D

#33 Gracias.
preparar bien los datos, es donde se me va el 80% de mi tiempo.

F

#32 Creo que se refiere a identificar por qué el modelo ha aprendido lo que ha aprendido y cómo. El modelo lo único que hace es fijarse en ejemplos positivos y negativos e identificar las características que las diferencian y que son útiles para discriminar entre lo que es positivo y lo que es negativo.

Por ejemplo, imagina que quiero hacer un detector de tiburones en base a imágenes. Lo que haré es entrenar un modelo al que le paso un montón de fotos de tiburones etiquetados como casos positivos, y otro montón de otros peces (no tiburones) etiquetados como casos negativos. El modelo aprenderá por sí solo que para identificar tiburones es útil fijarse en la forma del morro, los ojos, las aletas, la dentadura, etc... En eso consiste la "magia" del aprendizaje supervisado.

Hasta aquí bien. Pero ahora imagina que todos los tiburones que le he enseñado al modelo son tiburones blancos. Si le paso la foto de un tiburón martillo, es posible que no la sepa identificar como tiburón porque nunca ha visto uno y la forma del morro le parece que no es de tiburón. Esto implica que el modelo no es suficientemente general, particularmente porque tu conjunto de datos de entrenamiento está sesgado (solo las incluido un tipo específico de tiburones).

Esto puede pasar con cualquier problema y modelo. En el caso del Covid, si solo entrenas al modelo con radiografías de niños (otro sesgo) puede que luego no sepa predecir bien en adultos. El mayor engorro de entrenar modelos supervisados es asegurarse de que los datos sean suficientemente representativos de la distribución de datos sobre la cual el modelo deberá hacer predicciones. Si el problema es muy complejo puede que estés introduciendo sesgos difícilmente identificables, que sólo podrías descubrir con un buen análisis estadístico como dice #19.

F

#19 Buena explicación.

eldarel

#17 En mi época, en ingeniería se daba un cuatrimestre de estadística. En mi opinión, bastante justo para hacer estas cosas como para publicar un paper... claro que yo siempre fui algo zoquete

Curioso el porcentaje de test

j

#20 nah, no te preocupes, lo interesante es que aquí no dicen que publiquen ningún paper, solo han hecho la web con su modelo y los periodistas le han dado publicidad...

#17 no me he leído el artículo, pero si solo dan la matriz de confusión para conjunto de test como muestras en ese enlace yo esto lo cogería con pinzas. Mínimo validación cruzada con varios lanzamientos, que haya una media y desviación típica del recall y precision. Lo demás puede dar pie a sospechar de haber seleccionado el conjunto de test a propósito y que sea puro overfitting como bien dices

sotanez

#17 Es posible que después de tanta prueba y error tuneando el modelo hayan hecho overfitting con el set de validación inadvertidamente. Estaría bien saber si dejaron en la recámara un tercer set de test.

sotanez

#35 De momento ha pencado tres de cuatro que le he pasado: tres normales y una con neumonía, y la que ha acertado con un 40% de probabilidad a la clase verdadera. Si buscáis "torax x-ray" en Google imágenes salen muchas radiografías, y te las puede dividir entre normales, neumonía, covid, cáncer de pulmón. etc.

j

#35 interesante, como no he trabajado con redes neuronales de esta parte no se mucho, pero supongo que hablas de subdividir los datos de entrenamiento en unos para entrenar y otros para ver la calidad del modelo en ese punto del training (lo que sería al final del epoch)

Al final supongo que estaría bien saber que han hecho para que no sea una caja negra en una caja negra

sotanez

#38 No soy un experto, pero es básicamente eso. Dividir en tres sets de datos: entrenamiento, validación y test. Solo el set de entrenamiento se usa para entrenar el modelo. El problema de tener solo dos sets (entrenamiento y validación) es que estos modelos se magrean mucho para conseguir buenos resultados: que si pruebo con una capa más, que si luego la tasa de aprendizaje, que si ahora meto más o menos regularización, que si cambio todas o algunas de las capas de activación por otro tipo...

Cuando has entrenado el modelo 100 veces con pequeñas variaciones y te salen buenos resultados de validación es posible que el modelo esté bien, pero también es posible que hayas conseguido sin querer una versión de tu modelo que funciona bien con este set de validación en concreto. En definitiva: a base de optimizar el modelo para un set de validación concreto, has terminado haciendo overfitting del set de validación, incluso aunque este set no se haya usado realmente para entrenar el modelo. El set de test se deja para el final, cuando crees que tienes un buen modelo.

vacuonauta

#15 seguro???

Para mí un 97% de precisión significa que se es A dice A y si es B dice B el 97% de las veces.

Algo que solo acierta con las A no tiene por qué ser nada preciso: dice que todo es A y ya.

F

#41 Lo que tú describes es la sensitividad: la capacidad del modelo de descubrir los casos positivos (las As) e identificarlas como tales. La precisión es que si el modelo dice que es Covid, realmente es Covid el 97% de las veces. La precisión se calcula como los aciertos del modelo dividido entre los aciertos + los fallos. Para acertar o fallar el modelo tiene que hacer intentos. Si solo hace un intento y acierta, la precisión será del 100%.

La sensitividad, por otra parte, se calcula como aciertos del modelo dividido entre aciertos + falsos negativos (casos de Covid que el modelo no ha detectado como positivos). Así, si el modelo solo detecta un caso de cada 10 y no se pronuncia para el resto, acertará en ese caso pero habrá dejado de detectar 9. Su sensitividad será bajísima. En inglés se le llama Recall https://en.m.wikipedia.org/wiki/Precision_and_recall

El F1-score es la media armónica entre precisión y recall. Es mucho más fiable que dar solo la precisión. https://en.m.wikipedia.org/wiki/F1_score

sorrillo

relacionada:

La IA médica de Google era súper precisa en el laboratorio. La vida real es una historia diferente
La IA médica de Google era súper precisa en el laboratorio. La vida real es una historia diferente

Hace 3 años | Por ccguy a technologyreview.com

JaVinci

Pues un 97 por ciento es mucho... muy bien invento, sí señor. Todos mis respetos a estos estudiantes.

D

#3 El invento es lo del 97%.

D

#3 En realidad depende del contexto. Un 97% puede ser un autentico desastre. En general, por lo que se de estos sistemas , alcanzar cifras en torno al 95% no suele ser un problema si hay suficientes datos y potencia de calculo. El problema suele plantearse cuando se pretende pasar del 99%. He hecho cursos en donde alcanzar un 97% en detección de objetos podría llevar dos horas de entrenamiento de una red neuronal, pero pasar del 99 al 99,3 % podía suponer varias semanas.

D

#7 O incluso llevar a un retroceso en los resultados si las muestras aportadas están mal diagnosticadas.

D

#7 No creo que sea un problema, porque probablemente un 99% ya sea bastante mejor de lo que lo puede hacer un radiólogo, que al fin y al cabo, somos humanos, y no tenemos una vista perfecta.

D

Muchos profesionales sanitarios no saben "leer" una radiografía, de ahí las herramientas, o la consulta a un radiólogo.

z

Y los asintomáticos?

Katsumi

Bueno, el invento está chulo, pero personalmente prefiero que me metan la cosa esa por la tocha que andar radiándome

aunotrovago

Lo mío son tetas y barriga, no llega al digno nombre de tórax y abdomen.

D

#2

Kasterot

#11 no se ve nada en una radiografía, nunca

Kasterot

La mítica radiografía que te hacen cuándo vas con lumbalgia , se te hace un dos por uno y no detecta ninguno

Zapp

#4 explícate por favor , fui en diciembre con lumbalgia y me hicieron radiografía

D

Si no hay más remedio pues bueno, pero si no, me quedo con la pcr mil veces antes

D

Pues.... en mi caso lo ha clavado. Estoy con coronavirus (confirmado con PCR y prueba serológica) y tengo diagnosticada a mayores una neumonía (consecuencia del COVID). He subido la placa que me hicieron en el hospital y los resultados son:

- Coronavirus 90'56%
- Neumonia 9'36%
- Sano 6'17%
- No válido 5'48%

r

Ése 97% es para los casos respiratorios, no? porque también hay casos no-respiratorios...

D

Teniendo en cuenta que cuaquier medico haria lo mismo de un vistazo no le veo el sentido.

Álvaro_Díaz

Madre mía la que se ha liado, menos mal que al principio era más inofensivo este virus que una gripe común...

biodi

Yo lo probé hace 1 mes con placas de pacientes en dialisis y el porcentaje de falsos positivos era del 90%, así que...