EDICIóN GENERAL
316 meneos
2302 clics
Nvidia quiere revolucionar los escaneos médicos gracias a su nueva IA de reconocimiento de órganos por un dólar

Nvidia quiere revolucionar los escaneos médicos gracias a su nueva IA de reconocimiento de órganos por un dólar

GE Healthcare está informando que en los próximos días estarán actualizando más de 500.000 de sus dispositivos médicos para incorporar la plataforma de IA de Nvidia, que van desde escáneres, MRI, CTs y más. Con esto será posible tener mejores resultados clínicos en la detección de lesiones hepáticas, renales e incluso cerebrales, ya que la velocidad de la información permitirá tener un diagnóstico casi inmediato.

| etiquetas: nvidia , escáneres , ia , reconocimientos médicos , diagnóstico
El titular es confuso, lo que costará un dólar es cada vez que de use el aparato, no el aparato en sí.
Los grandes costes de las máquinas para hacer MRI, CT, etc, son:
- amortización (dependiendo del tipo, cuestan de 50.000 a 400.000€)
- mantenimiento (son contratos anuales de algunos miles de euros)
- su consumo energético (depende mucho del modelo y del tipo de escáner que se realice, pero anda en el orden de decenas de kW).

Como dato adicional importante, en cada paciente se emplea del orden de media hora (sólo con el consumo de electricidad de las máquinas se supera ya 1€ por paciente).…   » ver todo el comentario
#2 En España, gracias a Amancio Ortega, está tó pagao.
#2 Gracias, éste es el tipo de comentarios que enganchan a MNM.
#2 El titular es claramente sensacionalista. Dicho esto, si a los costes que indicas se suma el salario del médico que evalúa los resultados, probablemente suban bastante. Eliminar la necesidad de que alguien lo revise y te diga que todo está bien ahorraría dinero comparándolo con el euro que cuesta que lo haga este sistema.

Si no está todo bien tendrás que visitar al médico igual que antes, para que te ponga un tratamiento, pero para los pacientes sanos puede suponer un ahorro de costes importante. Y de tiempo: de que el médico te de cita para dentro de seis meses a tener los resultados en el momento.

Todo esto aplica si la IA del invento este es capaz de dar un diagnóstico, claro. Leyendo el artículo no me queda claro...
#2 No se de donde sacas esta información pero te equivocas en mas de un orden de magnitud.

-Las máquinas cuestan de 500.000 a 3 millones de euros
- Los mantenimientos anuales son de decenas de miles de euros
- El consumo energético es irrelevante em el total de los costes operacionales.
#11 Yo también creo que no está bien calculado.
Pero lo tuyo... Tiene tela.!
Entre 500mil y 3Millones hay la friolera de DOS millones y medio de € de diferencia y entre " decenas de miles " hay por lo menos 12.000.
El consumo, es el chocolate del loro. Eso sí.
La obsolescencia - obligada - es casi segura antes, mucho antes de 20 yeares.
En lo que estamos de acuerdo es en que es más marketing que otra cosa.
#15 la diferencia de 500k a 3M es de un CT barato frente a una resonancia de última tecnologia.
La obsolecencia no es obligada. La tecnología de hace 10 años es basura comparada con la de hoy.
NO es marketing, son resultados clínicos cada vez mejores
#16 Es marketing. Dentro de 10 años TODO lo que se usa hoy estará totalmente desfasado .. y los que conozco (3t) se contratan con los costes de instalación, formación y mantenimiento por menos de la mitad de 3M.
#18 La tecnología más avanzada a dia de hoy son 5T.
No es marketing, tienes la opción de comprar 1,5T o máquinas de segunda mano si no te preocupa diagnosticar alos pacientes mucho peor.
#21 Bueno, pues ya has visto más que yo... Buá, buá, buà.
Nuestro amado prócer insistía hace nada en que con un 1.5 teníamos de sobra ( si hay que tardar un poco, se tarda ) pero ahora con las donaciones de no me acuerdo Quién( bit.ly/2iZL4lQ ) ya se instala el 3T.
Suertudos los del 5. ( Ya falta menos para el 1000T.! )
#23 cuando tengas que hacerte una prueba te vas a un país del tercer mundo a hacerte el diagnostico con una máquina de hace 20 años. Total, es todo marketing
#2 #11 Alguien sabe cuanto "cuesta" la producción de las máquinas (costes de producción reales?), de "fábrica" vamos, sin contar amortización de inversiones, y alguna cosa más.

Entiendo que aquí hay un Hardware "médico" y otro "Hardware-chip para IA" donde corre el Software-IA de Nvidia, o de otros socios.

El Chip, no creo que cueste mucho (producirlo), pero me interesa saber el coste real de producción de las máquinas (no el precio de venta)

Un saludo.
#19 Las maquinas son plastico y metal, pero las personas que idean estas máquinas ganan bastante bien y merecidamente.
#20 Comparto lo que dices, pero no es lo que preguntaba.

Tenía claro ya, que el I+D, el coste de Desarrollo, y la Investigación es mayor que la Producción material en Tecnología, por eso puse:

"sin contar amortización de inversiones, y alguna cosa más."

Te veía interesado en el tema, de ahí mi pregunta.
#11 Pues más a mi favor; yo tiré por lo bajo para asegurar la comprobación de mi hipótesis (#2) que el coste de postproceso de imágenes en las GPUs, que es de lo que va la noticia, es el chocolate del loro frente al resto (tras una breve búsqueda1 vi más sitios con precios del rango que indiqué, aunque también los vi de 3 millones, pero con un rango por lo bajo me servía)

1 info.blockimaging.com/bid/93368/ge-ct-scanner-cost-price-info
#2 perdón por el negativo, compenso en otro lado.
#2 El coste está bajado artificialmente haciendo dumping. NVidia lo que consigue con esto es información a saco para entrenar su IA y hacerla mejor, ahí es donde está la ganancia. A partir de ahí cerrarán el grifo al resto de hospitales que quieran el producto y a los "primeros" es posible que les sigan dejando el sistema a ese coste.
Xataka como siempre trabajándose bien sus artículos.
Menciona 50.000 GB / día de datos por hospital. Viendo otras fuentes en inglés (por ejemplo esta1), dan datos más razonables.
An average hospital generates 50 petabytes of data annually, GE said, but only 3 percent of that data is analysed, tagged, or made actionable.

1 www.zdnet.com/article/ge-healthcare-turns-to-nvidia-for-ai-boost-in-me
#5 #5 También se ve que no conocen nada más allá de los terabytes...
#5 Gracias por esa fuente.
No sé que pasa, con el Periodismo y los Datos numéricos, es un error eterno, y repetitivo... pasa muchísimo, y en lugar de revisarlo (que hoy día el medio es dinámico) pasan de todo, y a otra cosa (el enésimo artículo nuevo).

Para colmo, pasan los días y suelen quedar sin solucionar, errores de libro (información efímera sin contrastar)

Luego pasa que en lugar de usar Infografías o gráficas para contrastar y comparar datos, dejan datos "en océanos de…   » ver todo el comentario
Xataka=Patrocinado por...
Qué poco rigor, artículo que en vez de despejar dudas te crea muchas más. Acabas más desinformado que informado.
#9 el articulo es mierda
y esta, señores, es la razon por la que nvidia aparecera flotando boca abajo en un rio...
Si acaso será un CAD (computed assisted detection) como ya existen hace decadas que simplemente apuntan al médico las zonas sospechosas.

En todos los países del mundo, legalmente solo un medico puede doagnosticar y estamos muy lejos de que esto cambie.
tu espera que la IA no se invente cosas que realmente no están ahí y te operen de algo que no tienes...
Esperemos que el "coste por uso" baje y se pueda utilizar cada vez tecnología más barata.

Como siempre la Sanidad, cuanto más lejos de Aseguradoras y más cerca de "pago por servicio" mejor, que sino nos la cuelan como en USA, con "Oligopolio" y Omertá de Precios.

Bien por Nvidia, IBM también tenía a Watson (otra cosa es quien se beneficia de esto), seguro que la Sanidad Pública (incluso con todo lo que se invierte en Investigación y Desarrollo), muchas veces no

Beneficios del Capital Vs Desarrollo (esa es la tensión), la pregunta no es uno ni otro, sino cual prevalece.
A General Electric no le hará ni pizca de gracia esta irrupción de Nvidia. Les jode el chiringuito.
Bien, es algo muy novedoso. Aunque el sector ya tenía apoyo de Intel pata el procesamiento de datos, estamos claros de que Nvidia para trabajar en procesamiento gráfico no tiene comparación. Esperemos que todo siga su curso!

menéame