EDICIóN GENERAL
279 meneos
1925 clics
Radiografías de tórax para detectar la COVID-19

Radiografías de tórax para detectar la COVID-19

Usando un algoritmo de inteligencia artificial, dos estudiantes de ingeniería en Madrid han desarrollado un modelo que reconoce una infección por coronavirus con hasta un 97 % de precisión en radiografías torácicas. La herramienta está disponible on line para ayudar a los profesionales sanitarios en su diagnóstico de pacientes.

| etiquetas: radiografía , tórax , covid19
120 159 0 K 363 cultura
120 159 0 K 363 cultura
En un master nosotros entrenamos un modelo de predicción de melanoma, pero de ahí a que se pueda utilizar como herramienta diagnóstica hay un trecho.
Espero que algún estadístico haya validado el muestreo y los sets de test y validación.
#1 esos porcentajes de donde los sacas?
#13 ¿De dónde los saca la noticia?

En Inteligencia Artificial al principio se usan "cartas marcadas".

En este caso las 8000 radiografías que han usado, que viene no sólo la imagen, si no el diagnóstico realizado por un experto (imagino que en este caso serían los resultados proporcionados por radiólogos y neumólogos).

Se extrae un subconjunto de esas ccartas marcadas" y se usan para entrenar un modelo de Inteligencia Neuronal.
Aquí se enseñó diciendo qué radiografías son…   » ver todo el comentario
#19 perdona no era para tí el comentario, era por #7, que me llama la atención lo que dice
#19 había intuido esa explicación con la notica y otros comentarios, pero el tuyo me lo ha aclarado aún más. Gracias!
#25 De nada ;)
Ventajas de estar empezando en esto... que sólo puedes explicar las ideas básicas.
#27 cuanto más se sabe de un tema más difícil resulta simplificar porque conoces casi todas las excepciones y temas relacionados que cambian la explicación (eso solo se suele ver al final donde descubres que tus primeros conocimientos no son ciertos y que solo servían para que te hicieras una idea :troll:)
#19 muy buena explicación, pero no entiendo tu último apunte: Aquí es donde hace falta una base brutal de estadística.

Te refieres a la base de aprendizaje?
#32 Para enseñar bien, hay que preparar bien los datos para evitar sesgos. Ése es el terreno de la estadística.
#33 Gracias.
preparar bien los datos, es donde se me va el 80% de mi tiempo. :palm:
#32 Creo que se refiere a identificar por qué el modelo ha aprendido lo que ha aprendido y cómo. El modelo lo único que hace es fijarse en ejemplos positivos y negativos e identificar las características que las diferencian y que son útiles para discriminar entre lo que es positivo y lo que es negativo.

Por ejemplo, imagina que quiero hacer un detector de tiburones en base a imágenes. Lo que haré es entrenar un modelo al que le paso un montón de fotos de tiburones etiquetados como casos…   » ver todo el comentario
#19 Buena explicación.
#1 De hecho aunque dice los sets de datos son oficiales, a mi el resultado me suena a overfitting.

La matriz de confusión me parece muy perfecta. Solo confunde una radiografia de covid con sana y ninguna con neumonia... Yo creo que si publican las layers que lleva el modelo tiene tantas que que se ve que es puro overfitting y no serían los primeros "estudiantes" que publican un modelo con ese defecto
www.coronavirusxray.com/model.html
:roll: :roll: :shit: :shit:
#17 En mi época, en ingeniería se daba un cuatrimestre de estadística. En mi opinión, bastante justo para hacer estas cosas como para publicar un paper... claro que yo siempre fui algo zoquete :-(

Curioso el porcentaje de test ;)
#20 nah, no te preocupes, lo interesante es que aquí no dicen que publiquen ningún paper, solo han hecho la web con su modelo y los periodistas le han dado publicidad...
#17 no me he leído el artículo, pero si solo dan la matriz de confusión para conjunto de test como muestras en ese enlace yo esto lo cogería con pinzas. Mínimo validación cruzada con varios lanzamientos, que haya una media y desviación típica del recall y precision. Lo demás puede dar pie a sospechar de haber seleccionado el conjunto de test a propósito y que sea puro overfitting como bien dices
#17 Es posible que después de tanta prueba y error tuneando el modelo hayan hecho overfitting con el set de validación inadvertidamente. Estaría bien saber si dejaron en la recámara un tercer set de test.
#35 De momento ha pencado tres de cuatro que le he pasado: tres normales y una con neumonía, y la que ha acertado con un 40% de probabilidad a la clase verdadera. Si buscáis "torax x-ray" en Google imágenes salen muchas radiografías, y te las puede dividir entre normales, neumonía, covid, cáncer de pulmón. etc.
#35 interesante, como no he trabajado con redes neuronales de esta parte no se mucho, pero supongo que hablas de subdividir los datos de entrenamiento en unos para entrenar y otros para ver la calidad del modelo en ese punto del training (lo que sería al final del epoch)

Al final supongo que estaría bien saber que han hecho para que no sea una caja negra en una caja negra
#38 No soy un experto, pero es básicamente eso. Dividir en tres sets de datos: entrenamiento, validación y test. Solo el set de entrenamiento se usa para entrenar el modelo. El problema de tener solo dos sets (entrenamiento y validación) es que estos modelos se magrean mucho para conseguir buenos resultados: que si pruebo con una capa más, que si luego la tasa de aprendizaje, que si ahora meto más o menos regularización, que si cambio todas o algunas de las capas de activación por otro tipo...…   » ver todo el comentario
#7 Es más, una precisión del 97% solo te dice que lo que el modelo predice como Covid, realmente es Covid el 97% de las veces. Es decir, tiene una tasa de falsos positivos del 3%.

Lo que no te dicen es cual es la sensitividad del modelo, es decir, su capacidad de detectar positivos reales. Podrías tener un modelo que de 100 casos solo detecta 10, pero esos 10 son todos positivos reales. Tu precisión sería del 100%, pero te habrías dejado por detectar 90 positivos. Tu sensitividad sería del 10%, que es una porquería.

Para casos como estos es mejor saber el par precisión-sensitividad, o el F1-score que los da agregados.
#15 seguro???

Para mí un 97% de precisión significa que se es A dice A y si es B dice B el 97% de las veces.

Algo que solo acierta con las A no tiene por qué ser nada preciso: dice que todo es A y ya.
#41 Lo que tú describes es la sensitividad: la capacidad del modelo de descubrir los casos positivos (las As) e identificarlas como tales. La precisión es que si el modelo dice que es Covid, realmente es Covid el 97% de las veces. La precisión se calcula como los aciertos del modelo dividido entre los aciertos + los fallos. Para acertar o fallar el modelo tiene que hacer intentos. Si solo hace un intento y acierta, la precisión será del 100%.

La sensitividad, por otra parte, se calcula como…   » ver todo el comentario
Yo soy Data Scientist desde hace 5 años o así, tengo una pequeña empresa con la que nos ganamos la vida principalmente haciendo modelos predictivos. Al estallar la pandemia allá por marzo, estuvimos viendo formas de ayudar, participamos en varias hackatones, y una de las primeras cosas que se nos ocurrió fue crear un modelo de este tipo, especialmente atractivo en un contexto en el que los tests eran muy escasos. Para ello partimos de este dataset que estaba recopilando un chico de una…   » ver todo el comentario
relacionada:

La IA médica de Google era súper precisa en el laboratorio. La vida real es una historia diferente
www.meneame.net/story/ia-medica-google-era-super-precisa-laboratorio-v
Pues un 97 por ciento es mucho... muy bien invento, sí señor. Todos mis respetos a estos estudiantes. :hug: :hug:
#3 El invento es lo del 97%.
#3 En realidad depende del contexto. Un 97% puede ser un autentico desastre. En general, por lo que se de estos sistemas , alcanzar cifras en torno al 95% no suele ser un problema si hay suficientes datos y potencia de calculo. El problema suele plantearse cuando se pretende pasar del 99%. He hecho cursos en donde alcanzar un 97% en detección de objetos podría llevar dos horas de entrenamiento de una red neuronal, pero pasar del 99 al 99,3 % podía suponer varias semanas.
#7 O incluso llevar a un retroceso en los resultados si las muestras aportadas están mal diagnosticadas.
#7 No creo que sea un problema, porque probablemente un 99% ya sea bastante mejor de lo que lo puede hacer un radiólogo, que al fin y al cabo, somos humanos, y no tenemos una vista perfecta.
Muchos profesionales sanitarios no saben "leer" una radiografía, de ahí las herramientas, o la consulta a un radiólogo.
Y los asintomáticos?
Bueno, el invento está chulo, pero personalmente prefiero que me metan la cosa esa por la tocha que andar radiándome
Lo mío son tetas y barriga, no llega al digno nombre de tórax y abdomen.
#11 no se ve nada en una radiografía, nunca
La mítica radiografía que te hacen cuándo vas con lumbalgia , se te hace un dos por uno y no detecta ninguno
#4 explícate por favor , fui en diciembre con lumbalgia y me hicieron radiografía
Si no hay más remedio pues bueno, pero si no, me quedo con la pcr mil veces antes
Pues.... en mi caso lo ha clavado. Estoy con coronavirus (confirmado con PCR y prueba serológica) y tengo diagnosticada a mayores una neumonía (consecuencia del COVID). He subido la placa que me hicieron en el hospital y los resultados son:

- Coronavirus 90'56%
- Neumonia 9'36%
- Sano 6'17%
- No válido 5'48%
Ése 97% es para los casos respiratorios, no? porque también hay casos no-respiratorios...
Teniendo en cuenta que cuaquier medico haria lo mismo de un vistazo no le veo el sentido.
Madre mía la que se ha liado, menos mal que al principio era más inofensivo este virus que una gripe común...
Yo lo probé hace 1 mes con placas de pacientes en dialisis y el porcentaje de falsos positivos era del 90%, así que...
comentarios cerrados

menéame