Hace 4 años | Por A_D a 20minutos.es
Publicado hace 4 años por A_D a 20minutos.es

El aprendizaje automático está superando a los humanos para predecir la muerte o un ataque al corazón. Ése es el mensaje principal de un estudio que se presenta este domingo en la Conferencia Internacional sobre Cardiología Nuclear y TC Cardiaca. Al analizar repetidamente 85 variables en 950 pacientes con resultados conocidos de seis años, un algoritmo "aprendió" cómo interactúan los datos de imágenes. Luego identificó los patrones que correlacionan las variables con la muerte y el ataque cardiaco con más del 90% de precisión.

Comentarios

D

#7 Y si no, tambien. Ojala pudiera saber el tiempo que me queda para gestionarlo como yo quiera.

s

#26 Te queda un día menos que ayer.

Dramaba

#27 Tic Tac #26, tic tac...

D

#26 Te lo diré con toda exactitud.

Puede que te mueras en décadas y puede que te mueras mañana atropellado por un coche. No hay ninguna garantía. Aprovecha tu tiempo.

f

#15 La razón por la que el aprendizaje automático funciona muy bien (en algunos problemas) es que puede predecir qué va a pasar en el futuro en base a una inmesa cantidad de datos con los que se ha entrenado con anterioridad. Y eso no es "La maquina dice que te va dar un ataque en ese momento dentro de 5 años" sinó "Teniendo en cuenta todos estas variables, y que todos los que las tenian en estos valores la han palmado, andate con ojo".

Nylo

#20 Sí sí, si la teoría es muy bonita. Pero hasta que prediga algo con éxito sólo es una teoría. Acertar el pasado no garantiza acertar el futuro. La de economistas que se habrán arruinado pensando que ya habían descubierto las claves del comportamiento del mercado. Puede haber miles de razones por las que lo que parecía que funcionaba hasta ahora de pronto deja de hacerlo.

f

#21 ya, claro, pero la diferencia es: cuantas variables simultáneas puede tener en la cabeza un economista, y cuantas variables simultáneas puede analizar una computadora? Ademas, hace años que algoritmos de aprendizaje automático funcionan en tu vida (desde el termostato que regula tu casa, a los que te muestran cosas que te pueden interesar en tu sitio favorito de compras, p.ej.) Vamos, que esto es una aplicación exitosa, como tantas otras, de algo que ya funciona.

Nylo

#39 cuantas variables simultáneas puede analizar una computadora?
Poder, puede analizar la h*stia de variables, pero sólo analizará las que tú le hayas facilitado. Y esas pueden ser las variables adecuadas o no. Si yo a un modelo de predicción del clima basado en redes neuronales le pasase la información de la frecuencia de la piratería marítima (esa famosamente correlada con el calentamiento global pese a que obviamente no tiene nada que ver), el ordenador creerá incorrectamente que la piratería es un buen predictor del calentamiento global. La elección de las variables a tener en cuenta no la hace el ordenador, se la das tú, y puede ser errónea, y si lo es, la aparición de cualquier correlación espúrea puede llevar al ordenador a creer lo que no es. E incluso si las variables que le pasas tienen sentido y están relacionadas con lo que se estudia, basta que te hayas dejado sin incluir algún elemento clave para que obtengas predicciones erróneas en el futuro por muy bien que se le dé al modelo explicar el pasado.

hace años que algoritmos de aprendizaje automático funcionan en tu vida
Así es, con un extraordinariamente dispar grado de éxito.

esto es una aplicación exitosa, como tantas otras, de algo que ya funciona
No, esto de momento es una aplicación, sin más, de algo que sabemos que puede funcionar pero que no siempre lo hace. Lo de exitosa vendrá a medida que haga predicciones (del futuro) y éstas resulten correctas. De momento, no consta.

J

#21 Se nota que no sabes del tema de como funcionan los sistemas de aprendizaje.

Nylo

#45 bueno, a ti se te nota que no sabes explicar por qué se supone que estoy equivocado. No pasa nada.

D

#15 si le pasas datos nuevos de los que sabes las consecuencias para la máquina es predecir el futuro.

Nylo

#23 cuando suceda ya se verá. Lo que sucedió en el pasado con esos parámetros no tiene por qué volver a suceder en el futuro con los mismos parámetros. Eso sólo se cumple si resulta que estás mirando a los parámetros correctos, de la forma correcta, y si no te has dejado ninguno. Una red neuronal aprende deprisa, pero lo que aprende puede ser erróneo si no tiene toda la información relevante. Eso es lo difícil.

D

Primero, no entiendo porqué narices no dan el link al artículo original.

Segundo, un AUC de 0.82 es un buen resultado, sí, pero si se ha computado sobre los mismos datos que se usaron para entrenar el modelo, es bastante cuestionable que ese resultado se vaya a mantener cuando se traslada el modelo a la población general. Por el modo en que se cuenta, me da la sensación de que no han hecho una validación externa (habría que ver el paper), lo que limitaría notablemente el valor del trabajo.

Luego, "un algoritmo". Supongo que se refieren al algoritmo de regresión. Estos algoritmos se llevan usando años y años en clínica, no son nada nuevo, hay cientos de miles de estudios publicados que se apoyan en una u otra técnica de regresión (que ahora les ha dado por llamarlas "machine learning", porque suena fashion, pero son formas refinadas de lo mismo, normalmente ni siquiera llegan a usarse redes neuronales nada por el estilo).

Para terminar, ¿una p de 0.0005? ¿Asociada a cuál de los 85 parámetros observados? Porque estos modelos dan un p-valor para cada variable, no un p-valor generalizado. Y aunque esa p es buena, no es tan buena si consideramos el estudio como exploratorio, que es lo que probablemente es, si se están observando tantísimas variables. Los estudios exploratorios requieren que se haga una corrección a posteriori para evitar el riesgo de estar observando un fenómeno aleatorio sin relación real con lo que se estudia, que por azar parece tener relación. Una corrección que muchos se saltan a la torera (porque estropea los "resultados").

sorrillo

#17 pero si se ha computado sobre los mismos datos que se usaron para entrenar el modelo

Lo estándar es que la predicción la haga sobre datos con los que no se ha entrenado, datos que no se han mostrado al sistema hasta que ha finalizado el aprendizaje.

Lo que se hace es segmentar los datos en grupos, unos grupos se utilizan para el entreno y otros para juzgar el resultado del entrenamiento.

A efectos prácticos es indistinguible de recibir datos nuevos con posterioridad.

D

#25 No, eso no es así en estos casos. Eso es estándar cuando se entrenan redes neuronales o modelos de ese estilo, pero en el caso de modelos clásicos (e.g. regresión lineal, logística) se usan todos los datos para el conjunto de entrenamiento. Idealmente, si vas a validar sobre ese mismo conjunto, usas un método de bootstrapping (que consiste en generar nuevos conjuntos de datos a partir de los que ya tienes, tomando aleatoriamente filas, lo que genera repeticiones, y calculando el estadístico, en este caso el AUC, para cada nuevo conjunto; el promedio que obtienes te dice un valor más fiable del estadístico, y la dispersión te da una idea de lo fiable o robusto que es).

En estudios clínicos, por cierto, casi nadie hace esto, aunque es lo que recomiendan en las guías de referencia (el TRIPOD). Lo normal es que se entrene el modelo de regresión con unos datos, y se calcule la AUC con esos mismos datos, lo que conlleva grandes problemas.

Lo ideal es entrenar los datos con una población general, y luego testear el modelo en otras poblaciones, generalmente procedentes de otros estudios (o reclutadas a posteriori).

GanaderiaCuantica

#31 Cuando yo he usado regresión (por entretenimiento, ya que aprendí con un libro sobre esos temas y no profesionalmente) separo antes los datos en 2 grupos: uno para entrenar, y otro para testear. Tengo entendido que siempre se hace así.
Es verdad que en Estadística, sí se usan todos los datos para obtener la recta. Pero en los algoritmos de Machine Learning ( ), hasta donde sé, se separan en 2, precisamente para poder comprobar si funciona.

D

#33 El tema es que en el ámbito de la clínica se da mucho más peso al p-valor que a otros parámetros estadísticos, porque es lo que te dice si la variable en cuestión tiene relación con el fenómeno observado. La realidad es más compleja (si tu modelo es estadísticamente significativo, pero predice fatal, tiene muy poco valor) pero los clínicos son muy cerriles para esto.

Si tú partes en dos tu conjunto de datos, reduces el conjunto de entrenamiento, y eso hace que tu p-valor empeore. Por eso se usa toda la muestra para entrenar el modelo, y luego se valida sobre la misma muestra (idealmente usando bootstrapping o alguna técnica similar). Tiene cierto sentido hacerlo así, porque además no solo se usan modelos de regresión, sino también tests estadísticos que se limitan a comparar diferencias entre medias poblacionales u otros parámetros, donde no hay capacidad predictiva (y ahí sí que se usa toda la población sí o sí).

En algoritmos de machine learning (de los de verdad) sí es más común hacer esto. Entre otras cosas, porque esos algoritmos no llevan un test estadístico asociado (es decir, no hay p-valor) y solo se mide lo bien o mal que predice el algoritmo. Y además estos algoritmos son más propensos al overfitting que los métodos de regresión tradicionales, de modo que hay que comprobar que no está sucediendo esto último.

D

Te gustaría conocer si tienes una gran posibilidad de morir por un ataque al corazón?

skaworld

#3 Ponmelo en la cuenta.

Corvillo

#8 "pÓntelo, pÓnselo..."

MellamoMulo

#1 A Casillas le gusta esta noticia
#2 #3

D

#2 joder, no lo había visto desde esa cruel perspectiva.

D

#4 pues las compañías de seguros hace años que lo vieron. Ya ha seguros de salud que te ofrecen buenos descuentos si aceptas monitorizar tu actividad con sensores.

https://hablemosdeempresas.com/grandes-empresas/seguros-personalizados-gracias-a-iot/

D

#9 Con los vehículos hacen lo mismo: Mapfre tenía el YCAR que si te ponias un localizador GPS te hacian descuentos en cada anualidad. Datos datos datos!

daaetur

#4 ¿No has visto Gattaca?

D

#46 demasiadas veces.

D

#5 Mi comentario no va en ese sentido. Más bien, te gustaría saber algo así?

tusitala

#6 Si puedo hacer algo para cambiar el resultado sí, quiero saberlo, si me voy a morir haga lo que haga no.

Stiller

#2 Hay, hay, hay. Mis hojos sangran.

p

#2 Antes era el angel de la muerte con la guadaña la que te buscaba. De aquí unos años será una aseguradora llamandote por telefono cada dia. Al tiempo.

j

#1 Si te ayuda a poder tratarte para prevenirlo claro que si.

Maelstrom

#1 En realidad aún no va de eso la noticia. Lo que comentas suena a Gattaca y de lo que va la noticia es sobre pacientes (esto hay que tenerlo en cuenta, no se ha hecho sobre personas "sanas") que han sido tratados y con seguimiento durante 6 años.

En cuanto a la predictibilidad de fenómenos semejantes, sospecho de alguna limitación ontológica que lo impida si nos queremos retrotraer a más allá de cierta fecha o tiempo, sea esta limitación algún tipo de caos, o de alguna limitación gnoseológica, sea en este caso algún tipo de aberraciones estadísticas o de problemas combinatorios aún no resueltos (una rama de las matemáticas extraordinariamente difícil y en pañales).

Dentro de esos márgenes temporales sí que los seguros pueden sacar algún tipo de conocimiento a su favor (o al nuestro, si sirve para curarnos).

En cuanto a la pregunta, y obviando todo lo que acabo de decir, mi respuesta es no, no me gustaría conocerlo. Conocer el futuro es una manera de limitar la libertad... Pero, vaya, también de afrontarla.

v

Me ha recordado a la película GATTACA, donde al protagonista le hacen una prueba parecida al nacer, dando ccomo resultado una alta probabilidad de afección cardíaca e imposibilitando cumplir su sueño de ser astronauta.

borteixo

Pues tampoco vendría mal que el smartwatch te sugiriese que te acerques a un centro médico pq es posible que en breve te de un infarto.

Duernu

Anda coño, así que un algoritmo nos quiere en..casillasr? guiño guiño

Liet_Kynes

Eso existe desde el principio de internet De hecho hay un capítulo de IT Crowd en el que se hace coña de las páginas que te decían cuándo te ibas a morir

vviccio

También se pueden usar algoritmos para detectar corrupción en las administraciones pero justamente en ese ámbito no lo usarán y seguirán con papelitos como en el s.XIX.

ElPerroDeLosCinco

#12 Ese algoritmo es más o menos así:

function bool DetectarCorrupcion (clsOrganismo parOrganismo)

woopi

#13 Me recuerda la función aleatoria que siempre devolvía el mismo número... porque se había obtenido con un dado.

vviccio

#13 lol lol Seguro que es más sencillo que detectar infartos, linfomas o melanomas. Lo que pasa es que no hay ningún interés en digitalizar, establecer controles eficaces y fomentar la transparencia en la administraciones.

M

Pero si ya existe House para que más.

f

Creo que mas que medicamente se utilizara por parte de las aseguradoras... puto asco.

p

Un 90% es una mierda. Yo hago uno mejor: Responder siempre que el paciente está vivo. Funciona bien todas las veces menos la última. Cuando palma ya no se hacen más pruebas.