EDICIóN GENERAL
495 meneos
3501 clics
La inteligencia artificial es capaz de detectar Alzheimer diez años antes de los primeros síntomas

La inteligencia artificial es capaz de detectar Alzheimer diez años antes de los primeros síntomas

Una inteligencia artificial detecta la enfermedad del Alzheimer diez años antes de que se manifiesten los primeros síntomas.

| etiquetas: inteligencia artificial , alzheimer
Comentarios destacados:            
#7 La idea es interesante pero para el sistema de aprendizaje han utilizado 67 imágenes, es un entrenamiento del sistema experto inadecuado o con un margen de error superior a cualquier muestra en una población estadística. Aún así me parece que la técnica es particularmente llamativa por lo poco correlativo que puede ser, no obstante, falta información.

Es más interesante el de los EEUU, porque cruza datos, tiene más información y en definitiva es más relevante.

"Para ello, se aplicó un algoritmo de agrupamiento de capas múltiples para analizar decenas de puntos de datos de un estudio de los EE. UU. llamado Iniciativa Neuroimagen de la Enfermedad de Alzheimer, que incluye pruebas de cognición, escáneres cerebrales y biomarcadores del líquido cefalorraquídeo. Se tomaron muestras de 562 personas con deterioro cognitivo leve y se hizo un seguimiento de hasta cinco años."


www.weforum.org/es/agenda/2017/08/la-inteligencia-artificial-puede-det
#1 Estas tecnologías empiezan siendo sólo para ricos, pero terminan por permearse al resto de la sociedad. Como los móviles, o los ordenadores, o...
#3 Los billetes de 500
#15 O los Teslas
#17 O los dinosaurios.
#1 Y sufrir de la angustia 10 años más. No existe nada que frene esa enfermedad a día de hoy.
#1 Te habrás quedado a gusto con semejante afirmación... Como bien ha compartido #28 hay un artículo (arxiv.org/pdf/1709.02369.pdf) en el que se explica con detalle como se ha realizado este experimento, luego cualquier informático con un mínimo conocimiento de aprendizaje automático podría recrearlo. En este tipo de problemas lo más difícil de conseguir son las imágenes MRI para entrenar el método. El problema reside en que un 85% de acierto no es que sea una medida muy precisa.
Sería una noticia excelente; los tratamientos probados hasta ahora -por Pfizer, Johnson & Johnson y otros- han fracasado al aplicarse a cerebros ya destruidos por la enfermedad. Adelantar el diagnóstico sería clave (por ejemplo se habla de contraerla con 35-50 y no manifestarse los síntomas hasta los 60 o más).
El Alzheimer ya se detecta unos 15 o 20 años antes de que se produzca,llevamos varios años con biomarcadores que ya están validados y cuya sensibilidad y especificidad son altos (90 y 85 por cien respectivamente para el PET de amiloide,los biomarcadores en líquido cefalorraquídeo también son cifras altas pero depende más del centro). Es decir el diagnóstico precoz ya somos más que capaces de realizarlo,pero no se hace de rutina por no haber un tratamiento,sí se hace dentro del contexto de ensayos clinicos para probar medicaciones.y ahora mismo #2 muchos de esos ensayos son en pacientes(o mejor dicho sujetos) preclínicos (con biomarcadores positivos pero Sin clínica cognitiva de ningún tipo)
#2" Lamentablemente la investigación italiana se ha quedado en este punto, por lo que de momento solo ha manejado una base datos de un centro específico de la región"
Me temo que de momento va a ser que no
Y esto lo han inventado hace 10 años, u hoy y hay que esperar 10 años para ver que es verdad que acierta?
#4 no have falta, puede analizar imágenes de una base de datos de cerebros de pacientes
#4

Como explica el artículo, han usado imágenes que tenían almacenadas.

Del artículo:

"Después de dicho aprendizaje, probaron el algoritmo haciéndolo procesar exploraciones del cerebro de 148 sujetos. Del total, 48 fueron escaneos de personas con la enfermedad, mientras que otro 48 pertenecían a personas que sufrían un deterioro cognitivo leve y que finalmente desarrollaron la enfermedad del Alzheimer."


Es decir, para el estudio usaron imágenes de RMN (resonancia…   » ver todo el comentario
Las aseguradoras ya se han comprado tres.
#5 Para eso va a servir, sin tratamiento solo sirve para descartar ciudadanos improductivos.
#16 ¿Por qué dices que no hay tratamiento?

cc #5
#27 Por que no hay nada que funcione de momento. Mi suegra tiene lo tiene.
#47 #41
Que no haya cura no es lo mismo que no exista ningún tratamiento.

Por otro lado, creo que no es lo mismo tomar medidas cuando se ha desarrollado la enfermedad que tomar ciertas medidas 10 años antes de los primeros síntomas.
Me extrañó que por aquí se dijera que no hay tratamiento cuando el artículo y algún comentario destacaba que era importante detectarlo a tiempo ¿por qué iba a ser tan importante detectarlo a tiempo si no se pudiese tomar ninguna medida / tratamiento?
Entonces hice una búsqueda en Google y vi que sí hay algunos tratamientos... ¿que no curan? de acuerdo, pero hay tratamientos. La gripe tampoco se cura con ninguna medicina, pero puedes evitar los dolores y demás... hay tratamiento.
#51 Tratamientos experimentales cuya eficacia no está científicamente demostrada a los niveles de fiabilidad mínimos exigibles. ¿Te imaginas que el paracetamol sólo quitara los síntomas de la gripe en un 40% de los casos?
#53 #51 Tratamiento puede sin más referirse a mitigar o ralentizar el deterioro mediante la ejecución temprana de ejercicios de estimulación cognitiva.
#27 Porque no lo hay. Hay medicamentos experimentales que ralentizan los síntomas en algunos casos, o eso dicen, puede que sea por estadística que en esos casos van más lentos. Pero no hay cura.
¿ y si luego no lo desarrolla ? siempre acierta ?
#6

Si has leído el artículo dice:

"El programa de IA fue capaz de esta forma de diagnosticar Alzheimer el 86% de las veces y, más importante aún, también encontró un leve deterioro cognitivo en el 84% de los casos, demostrando ser una herramienta potencialmente eficaz para el diagnóstico precoz."

Es decir, no siempre acierta. Aunque quizá lo que dice el artículo no es exactamente lo que preguntas (como comentaré más adelante), pero a tu segunda pregunta referente a…   » ver todo el comentario
La idea es interesante pero para el sistema de aprendizaje han utilizado 67 imágenes, es un entrenamiento del sistema experto inadecuado o con un margen de error superior a cualquier muestra en una población estadística. Aún así me parece que la técnica es particularmente llamativa por lo poco correlativo que puede ser, no obstante, falta información.

Es más interesante el de los EEUU, porque cruza datos, tiene más información y en definitiva es más relevante.

"Para ello, se aplicó

…   » ver todo el comentario
#7 Conozco el trabajo de este grupo. El artículo aquí compartido, desgraciadamente, no explica del todo claro lo que han hecho. Básicamente, como primero paso, han usado 67 imágenes como validation set para fijar un parámetro, que ellos llaman patch size, que optimiza el tamaño que han de tener las regiones, que contienen el nivel de materia gris del cerebro, para que capte al máximo la atrofia producida por el Alzheimer con respecto al cerebro sano.

Después, una vez fijado este parámetro…   » ver todo el comentario
#28 No es un tocho, es un texto que suma y es más que necesario como aclaración al artículo
¿Viste el estadounidense? ¿Qué opinas?
¡ Muchas gracias !
#45 Muchas gracias por el aporte! La verdad es que no lo conocía... y eso que el artículo original está en scietific reports, un pedazo de revista de la familia de Nature y encima open access...

Sobre el trabajo en si, muy muy interesante, en serio. Según he podido ver por encima, a diferencia del artículo de esta entrada en meneame, lo que han usado es un algoritmo, que en machine learning entra dentro del tipo no supervisionado, para encontrar subgrupos (también llamados clusters) dentro un…   » ver todo el comentario
#28 Nada que perdonar! Estos comentarios (cada vez más escasos) que aportan más que la propia noticia son la razón por la que aún sigo aquí! :-)
#28 gracias de verdad por dedicar parte de tu tiempo en aportar y añadir más información, y encima bien explicado (hasta yo lo he entendido).
Desaparezcamos como especie y dejemos paso a la IA.
#8 eso está pasando ya.
#8 "Desaparezcamos"... Pues da ejemplo empezando tu primero :troll: (o no vuelvas a usar la primera persona del plural para algunas frases)
#18 Ya voy de camino. Paso a paso, dia a dia me voy oxidando en este planeta. Pero el proceso durara unos cuantos años todavia. :-D
Ahora solo faltaría que las inteligencias artificiales también puedan tener Alzheimer.
#10 Ellas ya tienen algo peor, Windows.
Las I.A.s las programan las personas que, en este caso, les dan los parámetros necesarios y procedimientos para "diagnosticar" la enfermedad en ese lapso de tiempo, no? Entonces el método ya existía, sin la necesidad de la IA, o acaso la IA ha inventado un método nuevo para diagnosticar, en cuyo caso ha superado a la inteligencia humana, hito histórico que no se anuncia como tal, mi no entender.
#12 Pues como los ordenadores. Ya se podía sumar con un ábaco. ¿Qué necesidad de un ordenador que hace varios millones de operaciones por segundo para resolver una ecuación en derivadas parciales o una integral cuando puedes hacerla en casa con un ábaco en varios miles de años?
#12 En realidad esto no es IA, como en el 99% de estas noticias.
En este caso se trata de un sistema experto
#24 No. Es Computer Vision, con lo cual es Deep Learning. No es un sistema experto. Aunque lo fuera, los sistemas expertos son parte de la Inteligencia Artificial.
#31 No. computer vision no implica aprendizaje, mucho menos deep learning, aunque puede ser un input para el mismo. Y por otro lado, un sistema experto no aprende, por lo tanto, aunque entra dentro de la IA, no deja de ser una base de datos con reglas
#39 ¿Perdona? ¿Podrías desarrollar eso de que el deep learning no implica aprendizaje?
#40 No he dicho eso. Computer vision no implica aprendizaje ni Deep learning
#42 Año 1995: mi práctica de sistemas conexionistas era hacer una red multiperceptrón para identificar jarrones en fotos y para cada pixel decir si hay jarrón o no. Matlab y C++.
Año 2012: la competición de Imagenet es vencida por una CNN en lugar de una VGG. Aunque las VGG también eran deep learning, el hito es que que se pasa de un error del 25.8% al 15.3% en un año nada más, y las técnicas posteriores haven que el error baje hasta el 2.99% del 2016.
Noviembre del 2015: google hace la primera…   » ver todo el comentario
#43 Año 1993, asignatura de IA en la universidad, a la que asistí con la máxima ilusión. Al final del curso, una decepción
En los últimos 30 años en que hemos avanzado en el campo de la IA? Que hemos logrado en cuanto a aprendizaje?
La disponibilidad de frameworks va a facilitar el avance, pero centrémonos en lo que queremos conseguir, ya que el 99% de las noticias que hablan de IA dan verguenza ajena
El año pasado una muy gran empresa que no puedo nombrar, implementó una IA para dar asistencia…   » ver todo el comentario
#49 Esto... pásate por aquí anda: www.meneame.net/m/Artículos/meneame-ai-artificial-intelligence

La framework javascript para hacerlo la he programado yo, si necesitas info te podría enviar el link a github por privado. Como verás, los 3 últimos ejercicios son de computer vision, el MNIST y CIFAR-10 que se dan en la universidad, pero entrenados directamente en navegador sin usar GPU... así que no va fino, pero para hacer demos mola (además que la intención de la framework no es…   » ver todo el comentario
#50 Creo que estamos discutiendo desde distintos niveles, pero gracias por la info
#40 #42 Yo sí entendí lo que dijo #39 : que Computer Vision no implica aprendizaje
y que Computer Vision tampoco implica Deep Learning, esto mucho menos que lo anterior.
(y no que Deep Learning no implique aprendizaje ya que Learning como todo el mundo sabe es aprendizaje)

La última frase parece la más clara, porque puede haber técnicas de Computer Vision que no tengan nada que ver con Deep Learning.
Por cierto, tanto usar terminología en inglés y en castellano se dice Visión Artificial,…   » ver todo el comentario
#56 Hola, leído el abstract. Pues este equipo es otro del que yo pensaba... en la Universidad de Bari, en el departamento de computación, hay un equipo haciendo lo mismo dirigido por Nicola di Mauro. El abstract que tú mandas es del departamento de física. Parece que la propia universidad no sabe que lleva el mismo proyecto con dos enfoques...
K-Means en Computer Vision se usa más para búsqueda de grupos similares, no clasificación ni regresión, y con SVM estoy trabajando ahora mismo pero en un…   » ver todo el comentario
#56 #57 Perdonad que me meta en vuestra conversación... Esto de las multiplex network no tiene nada que ver con aprendizaje, en el sentido de que no son neural networks que se usan para hacer machine learning...

Estas networks o redes se usan para definir las features que posteriormente usan en el algoritmo de clasificación (un Random Forest, que seguramente lo conozcáis de sobra). Básicamente, al elegir el tamaño óptimo en el que dividir la imagen estructural que obtienen del cerebro de…   » ver todo el comentario
#57


en la Universidad de Bari, en el departamento de computación, hay un equipo haciendo lo mismo dirigido por Nicola di Mauro. El abstract que tú mandas es del departamento de física. Parece que la propia universidad no sabe que lleva el mismo proyecto con dos enfoques...


Yo estudié teleco en madrid, y aprendí Redes Neuronales Artificiales en un laboratorio perteneciente a un departamento llamado SSR (Señales, Sistemas y Radiocomunicaciones). Luego me enteré que casi todos los…   » ver todo el comentario
#12 A veces se habla de IA para cosas que como tal no son IA lo que puede llevar a confusión, pero en este caso es correcto.

En este caso se habla de algoritmos de aprendizaje automático, que por simplificar intentan aprender por su cuenta las correlaciones estadísticas que puedan haber. El problema es que eso supone que el proceso es una gran caja negra ya que realmente no sabes qué ha aprendido tu algoritmo.

Esos algoritmos en general no son nuevos, lo que puede ser novedosa es aplicarlo a un problema concreto (cómo adaptar un problema para que funcione con dicho algoritmo, o adaptar el algoritmo para que funcione mejor con el problema).
#12 No. La IA es un algoritmo capaz de ir "aprendiendo" a partir de unas muestras y a menudo un resultado esperado, de forma que la persona que ha dirigido ese aprendizaje no comprende los criterios de las decisiones tomadas (más allá de una serie de parámetros, lógicamente, de igual modo que podrías entender los cambios de estado en una neurona pero no el funcionamiento de la consciencia).

De algún modo, y si es cierto que es una IA, sí ha inventado un método propio, con las…   » ver todo el comentario
Supongo que será el proyecto que tenía Teresa Basile para su doctorado... pensaba que se esperaría al menos a que publicase el paper antes de darle bombo... pero el paper no está todavía.
Si alguno quiere hacer la prueba, incluso sin concimientos, de hacer un clasificador similar, y gratis, puede ir a www.customvision.ai . Básicamente subes grupos de fotos y los categorizas (podéis hacer la prueba subiendo 30 fotos de peras, 30 de limones y 30 de kiwis). Y ya está, entrena y aprende, y te genera una API para poder subir fotos y que dé la respuesta y la fiabilidad de la misma.
Si queréis hacer la prueba con lo del alzheimer, necesitáis las imágenes de las resonancias... las podéis pedir en adni.loni.usc.edu/
#13 Qué utiliza por debajo?
#33 Convolutional Neural Networks. Tenéis un artículo muy bueno en menéame que las explica, y yo hoy subí uno (un fracaso total por cierto...) que os permite jugar con ellas en vuestra navegador, e incluso sacar una foto a cualquier cosa y que la red te diga lo que ve.
#33 Y bueno, si lo que buscas es una respuesta más específica (he visto tu respuesta en otro comentario, así que supongo que sabes lo que es una CNN), creo que usa Inception v3, pero no estoy seguro del todo, hablo de memoria.
Yo mientras no sirva para curarlo prefiero no saberlo
#14 No te preocupes, si al final lo olvidarás. :troll:
La muestra realizada es con muy pocos sujetos. Parece insuficiente incluso para realizar el entrenamiento de la IA no digo que no sea posible pero los datos de buenos resultados parecen un poco forzados intencionadamente
#25 A mí también me parece muy poco espacio muestral, por no decir que rara vez se ven estudios en los que el test data tenga más del doble de datos que el train data. Aun así, hay que tener en cuenta que de una imagen se sacan varias usando técnicas de data augmentation, que de una única imagen haces variaciones (crop, flip, giros...) con lo cual generas bastantes inputs diferentes por cada imagen. En este caso, además, hay que tener en cuenta que lo que hacen por dentro es aprender las features de la imagen, al comparar objetos muy similares las features generales no se aprenden, porque no aportan (son iguales en todos los objetos). Aquí compara cerebros, al final muchas feautres como la forma y demás se descartan... diría.

menéame