Hace 6 años | Por --546793-- a es.engadget.com
Publicado hace 6 años por --546793-- a es.engadget.com

Una inteligencia artificial detecta la enfermedad del Alzheimer diez años antes de que se manifiesten los primeros síntomas.

Comentarios

w

#2" Lamentablemente la investigación italiana se ha quedado en este punto, por lo que de momento solo ha manejado una base datos de un centro específico de la región"
Me temo que de momento va a ser que no

Arganor

#28 No es un tocho, es un texto que suma y es más que necesario como aclaración al artículo
¿Viste el estadounidense? ¿Qué opinas?
¡ Muchas gracias !

p

#45 Muchas gracias por el aporte! La verdad es que no lo conocía... y eso que el artículo original está en scietific reports, un pedazo de revista de la familia de Nature y encima open access...

Sobre el trabajo en si, muy muy interesante, en serio. Según he podido ver por encima, a diferencia del artículo de esta entrada en meneame, lo que han usado es un algoritmo, que en machine learning entra dentro del tipo no supervisionado, para encontrar subgrupos (también llamados clusters) dentro un grupo de pacientes con deterioro cognitivo leve que desarrollaron Alzheimer en un periodo máximo a 5 años. Básicamente, en un aprendizaje de tipo no supervisionado, te olvidas de cualquier etiqueta ( enfermo, sano, etc..) y te concentras en estudiar la estructura que tiene el grupo de personas que coges en base a unas variables que escoges. Por ejemplo, si cogemos un grupo de personas al azar en la sociedad, no importa que sean sanos o enfermos, y decidimos estudiar la estructura de este grupo según la altura por ejemplo, agruparíamos los sujetos de pequeña altura por un lado y los de mayor altura por otro. En el caso del artículo estadounidense, cogen un gran número de variables, que van desde lo clínico a lo genético pasando por medidas de imagen estructural del cerebro. Lo más interesante es que, usando estas variables, encuentran dos subgrupos dentro de aquel gran grupo de pacientes con deterioro cognitivo, uno con un deterioro mucho mas rápido hasta llegar a Alzheimer. Además, también señalan a unas cuantas variables en particular como marcadores que debamos mirar para saber si van a tener un futuro deterioro más rápido. Las aplicaciones clínicas de saber esto son altísimas.

Por otro lado, el artículo que has recomendado es complementario a este otro que tenemos aquí en meneame. Es importante mencionar que no todos los sujetos que presentan deterioro cognitivo leve tienen por qué acabar desarrollando Alzheimer. Por tanto, es aquí donde radica la importancia del trabajo del grupo de Bari, ya que te identifica quiénes van a acabar desarrollando el Alzheimer en el futuro. Una vez identificados quiénes van a acabar en Alzheimer, puedes usar los resultados del artículo de los estadounidenses para saber si dicho cámino va a ser más rápido o lento. Son muy importante todas estas conclusiones porque permiten aplicar un tratamiento personalizado al paciente según las previsiones de severidad de la enfermedad.

h

#28 Nada que perdonar! Estos comentarios (cada vez más escasos) que aportan más que la propia noticia son la razón por la que aún sigo aquí!

mikeoptiko

#28 gracias de verdad por dedicar parte de tu tiempo en aportar y añadir más información, y encima bien explicado (hasta yo lo he entendido).

V

#1 Te habrás quedado a gusto con semejante afirmación... Como bien ha compartido #28 hay un artículo (https://arxiv.org/pdf/1709.02369.pdf) en el que se explica con detalle como se ha realizado este experimento, luego cualquier informático con un mínimo conocimiento de aprendizaje automático podría recrearlo. En este tipo de problemas lo más difícil de conseguir son las imágenes MRI para entrenar el método. El problema reside en que un 85% de acierto no es que sea una medida muy precisa.

D

#55 Pues si, me quedé a gusto.

E

Y esto lo han inventado hace 10 años, u hoy y hay que esperar 10 años para ver que es verdad que acierta?

a

#4 no have falta, puede analizar imágenes de una base de datos de cerebros de pacientes

Acido

#4

Como explica el artículo, han usado imágenes que tenían almacenadas.

Del artículo:

"Después de dicho aprendizaje, probaron el algoritmo haciéndolo procesar exploraciones del cerebro de 148 sujetos. Del total, 48 fueron escaneos de personas con la enfermedad, mientras que otro 48 pertenecían a personas que sufrían un deterioro cognitivo leve y que finalmente desarrollaron la enfermedad del Alzheimer."


Es decir, para el estudio usaron imágenes de RMN (resonancia magnética nuclear) de los cerebros de diferentes pacientes...
Al menos en 48 de esas imágenes fueron tomadas hace 10 años o más y a día de hoy se sabe que dichos pacientes enfermaron, supuestamente unos 10 años después de tomarles la imagen. Seguramente cuando les tomaron esas imágenes no sabían si enfermarían o no de Alzheimer. Esas imágenes se pueden haber tomado de forma rutinaria, para hacer estudios como este, o pueden haberse tomado para estudiar otras enfermedades (ej: para ver si tenían un tumor cerebral, etc).

De estas 48 el sistema acertó en 40 ocasiones, ya que dice el artículo que en el caso de leve deterioro para el diagnóstico precoz acierta el 84% de las veces y 48*0.84 = 40.32
Aunque aquí debe haber un fallo porque 40/48 = 0.8333333 y eso es un 83% (más cerca del 83% que del 84%)
Y si fuesen 41 los que acertó serían 41/48 = 0.854166666 y eso es un 85%

cc #11

reithor

Las aseguradoras ya se han comprado tres.

nadal.batle

#5 Para eso va a servir, sin tratamiento solo sirve para descartar ciudadanos improductivos.

Acido

#16 ¿Por qué dices que no hay tratamiento?

cc #5

nadal.batle

#27 Por que no hay nada que funcione de momento. Mi suegra tiene lo tiene.

Acido

#47 #41
Que no haya cura no es lo mismo que no exista ningún tratamiento.

Por otro lado, creo que no es lo mismo tomar medidas cuando se ha desarrollado la enfermedad que tomar ciertas medidas 10 años antes de los primeros síntomas.
Me extrañó que por aquí se dijera que no hay tratamiento cuando el artículo y algún comentario destacaba que era importante detectarlo a tiempo ¿por qué iba a ser tan importante detectarlo a tiempo si no se pudiese tomar ninguna medida / tratamiento?
Entonces hice una búsqueda en Google y vi que sí hay algunos tratamientos... ¿que no curan? de acuerdo, pero hay tratamientos. La gripe tampoco se cura con ninguna medicina, pero puedes evitar los dolores y demás... hay tratamiento.

reithor

#51 Tratamientos experimentales cuya eficacia no está científicamente demostrada a los niveles de fiabilidad mínimos exigibles. ¿Te imaginas que el paracetamol sólo quitara los síntomas de la gripe en un 40% de los casos?

p

#53 #51 Tratamiento puede sin más referirse a mitigar o ralentizar el deterioro mediante la ejecución temprana de ejercicios de estimulación cognitiva.

reithor

#27 Porque no lo hay. Hay medicamentos experimentales que ralentizan los síntomas en algunos casos, o eso dicen, puede que sea por estadística que en esos casos van más lentos. Pero no hay cura.

D

Supongo que será el proyecto que tenía Teresa Basile para su doctorado... pensaba que se esperaría al menos a que publicase el paper antes de darle bombo... pero el paper no está todavía.
Si alguno quiere hacer la prueba, incluso sin concimientos, de hacer un clasificador similar, y gratis, puede ir a https://www.customvision.ai . Básicamente subes grupos de fotos y los categorizas (podéis hacer la prueba subiendo 30 fotos de peras, 30 de limones y 30 de kiwis). Y ya está, entrena y aprende, y te genera una API para poder subir fotos y que dé la respuesta y la fiabilidad de la misma.
Si queréis hacer la prueba con lo del alzheimer, necesitáis las imágenes de las resonancias... las podéis pedir en http://adni.loni.usc.edu/

D

#13 Qué utiliza por debajo?

D

#33 Convolutional Neural Networks. Tenéis un artículo muy bueno en menéame que las explica, y yo hoy subí uno (un fracaso total por cierto...) que os permite jugar con ellas en vuestra navegador, e incluso sacar una foto a cualquier cosa y que la red te diga lo que ve.

D

#33 Y bueno, si lo que buscas es una respuesta más específica (he visto tu respuesta en otro comentario, así que supongo que sabes lo que es una CNN), creo que usa Inception v3, pero no estoy seguro del todo, hablo de memoria.

RoterHahn

Desaparezcamos como especie y dejemos paso a la IA.

xenko

#8 eso está pasando ya.

pedrobz

#8 "Desaparezcamos"... Pues da ejemplo empezando tu primero (o no vuelvas a usar la primera persona del plural para algunas frases)

RoterHahn

#18 Ya voy de camino. Paso a paso, dia a dia me voy oxidando en este planeta. Pero el proceso durara unos cuantos años todavia.

D

#39 ¿Perdona? ¿Podrías desarrollar eso de que el deep learning no implica aprendizaje?

Acuantavese

#40 No he dicho eso. Computer vision no implica aprendizaje ni Deep learning

D

#42 Año 1995: mi práctica de sistemas conexionistas era hacer una red multiperceptrón para identificar jarrones en fotos y para cada pixel decir si hay jarrón o no. Matlab y C++.
Año 2012: la competición de Imagenet es vencida por una CNN en lugar de una VGG. Aunque las VGG también eran deep learning, el hito es que que se pasa de un error del 25.8% al 15.3% en un año nada más, y las técnicas posteriores haven que el error baje hasta el 2.99% del 2016.
Noviembre del 2015: google hace la primera release de tensorflow. Se empieza a disparar el interés por las redes CNN para computer vision. La cantidad de frameworks de deep learning se empieza a disparar: theano, caffe, pytorch, caffe2,... más las satélites como keras.

No sé qué decirte, yo diría que, al menos en honor a las noches que no dormí por la puta práctica, podrías admitir que al menos en 1995 ya eran deep learning... o haberte venido a echarme una mano.

Acuantavese

#43 Año 1993, asignatura de IA en la universidad, a la que asistí con la máxima ilusión. Al final del curso, una decepción
En los últimos 30 años en que hemos avanzado en el campo de la IA? Que hemos logrado en cuanto a aprendizaje?
La disponibilidad de frameworks va a facilitar el avance, pero centrémonos en lo que queremos conseguir, ya que el 99% de las noticias que hablan de IA dan verguenza ajena
El año pasado una muy gran empresa que no puedo nombrar, implementó una IA para dar asistencia a turistas en las islas Canarias, al cabo el año se tuvo que desmontar porque empezo a mandar a los turistas a casas de putas. Requeria mas supervisión que el trabajo que ahorraba
Personalmente no me gusta incluir las palabras inteligencia ni aprendizaje (desasistido) cuando hablo de esto temas
Un saludo

D

#49 Esto... pásate por aquí anda: menéame AI (Artificial Intelligence)

La framework javascript para hacerlo la he programado yo, si necesitas info te podría enviar el link a github por privado. Como verás, los 3 últimos ejercicios son de computer vision, el MNIST y CIFAR-10 que se dan en la universidad, pero entrenados directamente en navegador sin usar GPU... así que no va fino, pero para hacer demos mola (además que la intención de la framework no es entrenar en navegador, sino en backend con tensorflow, y subir el modelo a navegador para que ejecute). Es deep learning, puedes desplegar el campo "Topología" y hacer cambios o implementar tu propia red, y ejecutarla.
Y si vas al último ejemplo, que ya no es en navegador, sino que ataca a un tensorflow con una Resnet (Inception v4) para los tags, y una yolo para detectar caras, con regression para la edad y classification para el género, verás algo más completo. La descripción de las fotos no está en tensorflow, es un servicio de microsoft.

Acuantavese

#50 Creo que estamos discutiendo desde distintos niveles, pero gracias por la info

Acido

#40 #42 Yo sí entendí lo que dijo #39 : que Computer Vision no implica aprendizaje
y que Computer Vision tampoco implica Deep Learning, esto mucho menos que lo anterior.
(y no que Deep Learning no implique aprendizaje ya que Learning como todo el mundo sabe es aprendizaje)

La última frase parece la más clara, porque puede haber técnicas de Computer Vision que no tengan nada que ver con Deep Learning.
Por cierto, tanto usar terminología en inglés y en castellano se dice Visión Artificial, en lugar de Computer Vision.
Y, bueno, Visión Artificial son todo el conjunto de técnicas de procesado de imagen natural... vamos, que no es una imagen escaneada de un texto sino imágenes de formas, con sus sombras, colores, su ruido (especialmente si hay poca luz y la imagen sale muy manchada), su estructura tridimensional, un objeto que tapa a otro, etc.

Dicho todo eso, es cierto que muchas veces el campo de la Visión Artificial se ocupa de detección de objetos / formas (¿hay una rueda / una cara en la imagen o no la hay?), de clasificación (¿es un limón o es una manzana?), de posicionamiento (¿dónde está el coche que tenemos que esquivar para no chocarnos? ¿dónde está la pieza de la fábrica que debe coger el brazo robótico?), etc ... y para estos problemas muchas veces se emplea aprendizaje, es decir, en lugar de pensar montones de reglas complicadas le damos ejemplos a un sistema que aprende, ya sea a diferenciar un objeto o localizar dónde está situado. etc. dando cada vez mejores resultados.
Sin embargo, no todas las técnicas de aprendizaje son Deep Learning. Tienes K-Means, tienes SVM (Support Vector Machines), tienes Regresión Logística, etc... y, por supuesto, también tienes Deep Learning, típicamente con Redes Neuronales, especialmente en los últimos años que cada vez dan mayores éxitos.

En concreto, en el estudio al que se refiere el artículo meneado
https://arxiv.org/pdf/1709.02369v1.pdf
parece ser que usan algo llamado Multiplex Networks (abreviado como Multiplexes) pero por lo que he visto no son Redes Neuronales sino más bien unas redes estadísticas multidimensionales en varias capas, algo similar a Redes Bayesianas... y si no me equivoco, al ser estructuras en varias capas y que aprenden se podrían llamar "Deep Learning" a pesar de no ser Redes Neuronales multicapa.

D

#56 Hola, leído el abstract. Pues este equipo es otro del que yo pensaba... en la Universidad de Bari, en el departamento de computación, hay un equipo haciendo lo mismo dirigido por Nicola di Mauro. El abstract que tú mandas es del departamento de física. Parece que la propia universidad no sabe que lleva el mismo proyecto con dos enfoques...
K-Means en Computer Vision se usa más para búsqueda de grupos similares, no clasificación ni regresión, y con SVM estoy trabajando ahora mismo pero en un proyecto que no es de clasificación, sino de devolver la probabilidad de que dos firmas sean de la misma persona. Linear SVM se puede usar para deep learning por cierto... pero hoy en día, con los resultados que dan las resnet, sería de tontos. Y bueno, Logistic Regression y Bayes, como clasificadores, van canelita en rama para NLP. Y el bayes classifier no, pero el logistic regression classifier guarda pesos de las features, así que va aprendiendo.

Pero que da igual, que todas ellas son Inteligencia Artificial. El término IA no se limita al aprendizaje, los sistemas expertos son IA, incluso la heurística es IA.

En el caso del artículo, no conocía las Multiplex Networks.. primera vez que las veo, no tienen el concepto de perceptrón como tal, pero sí la activación y es multicapa. Pero vamos, que seguiría siendo AI igualmente...

p

#56 #57 Perdonad que me meta en vuestra conversación... Esto de las multiplex network no tiene nada que ver con aprendizaje, en el sentido de que no son neural networks que se usan para hacer machine learning...

Estas networks o redes se usan para definir las features que posteriormente usan en el algoritmo de clasificación (un Random Forest, que seguramente lo conozcáis de sobra). Básicamente, al elegir el tamaño óptimo en el que dividir la imagen estructural que obtienen del cerebro de los sujetos, encuentran una división optima del cerebro en 549 regiones pequeñitas, cada una de las cuales presenta un patrón de nivel de materia gris. Comparando cómo de similares son dichos patrones de materia gris entre las 549 regiones, se llega a un network o red, cuyas nodos son las 549 regiones y las interacciones (links or edges) son la similaridad entre las regiones. Se puede visualizar como una matrix 549 x 549. Son a estas networks más o menos a las que llaman multiplex networks. Cada sujeto tiene su network (matrix), del cual definen las features que después usan para entrenar el algoritmo (un Random Forest) para clasificar etiquetas de sujetos ( Sano versus Alzheimer, Sano versus Deterioro cognitivo leve)

Acido

#57


en la Universidad de Bari, en el departamento de computación, hay un equipo haciendo lo mismo dirigido por Nicola di Mauro. El abstract que tú mandas es del departamento de física. Parece que la propia universidad no sabe que lleva el mismo proyecto con dos enfoques...


Yo estudié teleco en madrid, y aprendí Redes Neuronales Artificiales en un laboratorio perteneciente a un departamento llamado SSR (Señales, Sistemas y Radiocomunicaciones). Luego me enteré que casi todos los departamentos hacían algo de eso... Y los veía como muy separados, cada uno haciendo sus cosas por su cuenta sin mucha interacción con los demás. Aunque es cierto, que una vez se organizaron unas conferencias sobre RNA o Inteligencia Artificial en general donde participaron gente de diversos departamentos, pero ni con esas, me daba la impresión de que charlaban un poco y luego cada uno a lo suyo sin organizar proyectos en común o algo así.

Por ejemplo, el Departamento de Matemáticas, desde el punto de vista del estudio de los algoritmos y las propiedades básicas de las Redes Neuronales tenía cierto interés: problemas de optimización o aproximación (encontrar una función matemática sencilla, de bajo cómputo o cómputo rápido que permita aproximar un objeto matemático como una función complicada... u optimizar en general). Otro departamento, el de Ingeniería Electrónica se enfocaba en el uso menos teórico y más práctico de implementación de algoritmos en microprocesadores, para cosas como Reconocimiento de Voz... aunque para esto solía usar más los Modelos Ocultos de Markov, más que las Redes Neuronales. Ej: hacer un reconocedor de voz real, que sea rápido, y con buen acierto, programando chips de Intel, habitualmente con uso muy directo de recursos de la máquina, etc... Este departamento también tenía una especial relación con la robótica, y quizá ahí podrían usar ciertas redes neuronales para cierta autonomía de los robots...
El departamento de Biotecnología pues quizá un interés por la relación entre las neuronas biológicas y los modelos computacionales artificiciales, pero también el amplio uso que se puede dar para diagnosticar enfermedades, etc.

Y el Departamento de Ingeniería Telemática, aunque enfocado bastante en Internet, sistemas operativos y similares también tenía una especial dedicación al software...

En fin, en este caso es posible que haya algo de eso de ir cada uno a su bola o puede que un mismo problema lo enfoquen de diversas formas, diferentes métodos, para evaluar diferentes acercamientos a un problema y comparar resultados. Puede que incluso compitan en plan "yo saqué un 84% de acierto con una anticipación de 10 años... a ver si consigues mejorarlo". O quizá incluso pueden colaborar haciendo mezclas entre los métodos de unos y otros: uno consigue detectar las regiones y parámetros más representativos, y otro puede optimizar el sistema que de los mejores resultados con esos datos clave o el sistema que de el resultado de forma más rápida.



"K-Means en Computer Vision se usa más para búsqueda de grupos similares, no clasificación ni regresión, "


Es que organizar en grupos similares es una forma de clasificar...
Por ejemplo, puedes obtener la moda del color en cada imagen... es decir, el color que más aparece en cada imagen, descartando quizá algunos colores como el blanco y el negro. Y luego puedes hacer grupos según el color sea rojo, o sea amarillo o sea azul, o sea verde, naranja o violeta.

Es solamente un ejemplo... pueden hacerse muchas cosas.


" así que va aprendiendo.

Pero que da igual, que todas ellas son Inteligencia Artificial. El término IA no se limita al aprendizaje, los sistemas expertos son IA, incluso la heurística es IA.

En el caso del artículo, no conocía las Multiplex Networks.. primera vez que las veo, no tienen el concepto de perceptrón como tal, pero sí la activación y es multicapa. Pero vamos, que seguiría siendo AI igualmente..."



Bueno, algoritmo que dada una imagen te de un diagnóstico médico o predicción es IA, pero no toda la IA conlleva aprendizaje, ni toda IA con aprendizaje (machine learning) tiene que ser obligatoriamente Deep Learning ni tampoco usar perceptrones.

A eso es a lo que me refería, que dijiste: va de imágenes / Computer Vision y, por tanto, es Deep Learning... pues mira, no, una cosa no implica necesariamente la otra. En muchos casos es así, pero no siempre.
Puede ser Computer Vision con K-Means, como el ejemplo que dije de los colores ... sin Deep Learning, etc.

j

Ahora solo faltaría que las inteligencias artificiales también puedan tener Alzheimer.

pedrobz

#10 Ellas ya tienen algo peor, Windows.

janatxan

Las I.A.s las programan las personas que, en este caso, les dan los parámetros necesarios y procedimientos para "diagnosticar" la enfermedad en ese lapso de tiempo, no? Entonces el método ya existía, sin la necesidad de la IA, o acaso la IA ha inventado un método nuevo para diagnosticar, en cuyo caso ha superado a la inteligencia humana, hito histórico que no se anuncia como tal, mi no entender.

j

#12 Pues como los ordenadores. Ya se podía sumar con un ábaco. ¿Qué necesidad de un ordenador que hace varios millones de operaciones por segundo para resolver una ecuación en derivadas parciales o una integral cuando puedes hacerla en casa con un ábaco en varios miles de años?

Acuantavese

#12 En realidad esto no es IA, como en el 99% de estas noticias.
En este caso se trata de un sistema experto

D

#24 No. Es Computer Vision, con lo cual es Deep Learning. No es un sistema experto. Aunque lo fuera, los sistemas expertos son parte de la Inteligencia Artificial.

Acuantavese

#31 No. computer vision no implica aprendizaje, mucho menos deep learning, aunque puede ser un input para el mismo. Y por otro lado, un sistema experto no aprende, por lo tanto, aunque entra dentro de la IA, no deja de ser una base de datos con reglas

D

#12 A veces se habla de IA para cosas que como tal no son IA lo que puede llevar a confusión, pero en este caso es correcto.

En este caso se habla de algoritmos de aprendizaje automático, que por simplificar intentan aprender por su cuenta las correlaciones estadísticas que puedan haber. El problema es que eso supone que el proceso es una gran caja negra ya que realmente no sabes qué ha aprendido tu algoritmo.

Esos algoritmos en general no son nuevos, lo que puede ser novedosa es aplicarlo a un problema concreto (cómo adaptar un problema para que funcione con dicho algoritmo, o adaptar el algoritmo para que funcione mejor con el problema).

E

#12 No. La IA es un algoritmo capaz de ir "aprendiendo" a partir de unas muestras y a menudo un resultado esperado, de forma que la persona que ha dirigido ese aprendizaje no comprende los criterios de las decisiones tomadas (más allá de una serie de parámetros, lógicamente, de igual modo que podrías entender los cambios de estado en una neurona pero no el funcionamiento de la consciencia).

De algún modo, y si es cierto que es una IA, sí ha inventado un método propio, con las limitaciones de su arquitectura.

Si es un hito histórico... pues lo será pero hace ya mucho. Hace décadas que existen distintos métodos para crear máquinas que aprenden a resolver un problema por sí mismas.

Ya saben leer texto manuscrito, transcribir dictados, identificar objetos en imagen, distinguir personas, enfermedades en muestras/imágenes, tipo de suelo en fotos aéreas... en algunos casos pueden superar en fiabilidad a un humano. Todas estas cosas que he mencionado serían inasumibles de tener que programarlas de forma explicita, aunque se puede ayudar algo a la máquina en algunos casos.

D

Yo mientras no sirva para curarlo prefiero no saberlo

D

#14 No te preocupes, si al final lo olvidarás.

D

¿ y si luego no lo desarrolla ? siempre acierta ?

Acido

#6

Si has leído el artículo dice:

"El programa de IA fue capaz de esta forma de diagnosticar Alzheimer el 86% de las veces y, más importante aún, también encontró un leve deterioro cognitivo en el 84% de los casos, demostrando ser una herramienta potencialmente eficaz para el diagnóstico precoz."

Es decir, no siempre acierta. Aunque quizá lo que dice el artículo no es exactamente lo que preguntas (como comentaré más adelante), pero a tu segunda pregunta referente a si acierta siempre, ya ves que no.

Tanto los diagnósticos humanos como los automatizados tienen un porcentaje de error.
Ya hay muchos casos en los que el sistema automático obtiene mejores resultados (mejor tasa de acierto) que los humanos que hacen la misma tarea... En concreto, cuando se trata de imágenes (en este caso son imágenes de cerebros en las que hay que encontrar ciertas irregularidades) estos últimos años las máquinas están superando a los humanos.

En RESUMEN: no acierta siempre, pero la alternativa es peor.
Mejor tener una herramienta que acierte el 84% de las veces, que unos médicos que acierten el 70%, por ejemplo.


Respecto a los fallos, comentar que hay de varios tipos:
* Falsos positivos: el sistema concluye que es positivo cuando no lo es...
Creo que es a lo que te refieres con tu pregunta: ¿Y si luego no lo desarrolla?
El sistema diagnostica que una persona dentro de 10 años desarrollará Alzheimer y en caso de un falso positivo no es verdad que lo desarrollaría...
¿Qué ocurre?
Según dice el artículo en esta enfermedad el diagnóstico precoz es muy importante, es decir, que en caso de alguien vaya a enfermar saberlo con anterioridad ayudaría mucho porque supongo que se le aplicaría un tratamiento que retrasaría o disminuiría los efectos futuros.
Desconozco los tratamientos de Alzheimer.... supongo que en el caso mejor, cuando es falso positivo y se aplica un tratamiento, pues sería solamente un gasto de dinero innecesario y el paciente sano con ese tratamiento estaría igual que si no hubiese hecho el tratamiento. En el caso peor podría ocurrir que aparte de haber gastado dinero en el tratamiento el paciente esté peor que sin ese tratamiento que no necesitaba. Aún así dudo que los efectos negativos o "secundarios" sean muy malos.

* Falsos negativos: el sistema concluye que es negativo cuando era positivo.
El sistema predice que no va a desarrollar Alzheimer antes de 10 años y luego sí lo desarrolla.
¿Qué ocurre en este caso?
Pues como se predice que no tendrá la enfermedad no se aplicaría ningún tratamiento... y luego habrá un enfermo que si se hubiese tratado no estaría enfermo o no estaría tan grave...
Según el artículo esto ocurriría en el 16% de los casos, ya que el 84% de los que sí desarrollan la enfermedad los detecta 10 años antes... y hasta el 100% queda ese 16% que se supone que serían los falsos negativos.

J

La muestra realizada es con muy pocos sujetos. Parece insuficiente incluso para realizar el entrenamiento de la IA no digo que no sea posible pero los datos de buenos resultados parecen un poco forzados intencionadamente

D

#25 A mí también me parece muy poco espacio muestral, por no decir que rara vez se ven estudios en los que el test data tenga más del doble de datos que el train data. Aun así, hay que tener en cuenta que de una imagen se sacan varias usando técnicas de data augmentation, que de una única imagen haces variaciones (crop, flip, giros...) con lo cual generas bastantes inputs diferentes por cada imagen. En este caso, además, hay que tener en cuenta que lo que hacen por dentro es aprender las features de la imagen, al comparar objetos muy similares las features generales no se aprenden, porque no aportan (son iguales en todos los objetos). Aquí compara cerebros, al final muchas feautres como la forma y demás se descartan... diría.

D

Bieeeeen, ahora los ricos podrán detectar su alzheimer con 10 años de antelación

nadal.batle

#3 Los billetes de 500

pedrobz

#15 O los Teslas

D

#17 O los dinosaurios.

perrico

#1 Y sufrir de la angustia 10 años más. No existe nada que frene esa enfermedad a día de hoy.

D

#44 Seguro que ayuda a aumentar las donaciones a las investigaciones