Hace 1 mes | Por me_joneo_pensan... a ludd.es
Publicado hace 1 mes por me_joneo_pensando_en_ti a ludd.es

En el vídeo vemos a una paciente en su casa comenzando una videollamada con una especie de enfermera virtual impulsada por IA llamada Rachel. La “agente de IA” le indica verbalmente a la paciente cómo tomar penicilina. Unos segundos después, Rachel le dice que le transmitirá toda la información que han compartido al médico humano real de la mujer.

D

#7 Podría ser una "característica emergente", y demostrarnos que es inevitable...

Peka

#5 O para asesinar a gente en guerras.

D

#11 Pues sí, aunque la Historia nos demuestra que tomar la decisión de matar gente en la guerra nunca ha sido un problema para los humanos... y no solo en la guerra me temo.

a 9 dólares la hora? Pues sale mas cara que una enfermera de verdad, sobre todo si es en remoto, donde la puedes "alquilar" en cualquier país latino por la mitad

A

#8 justo uno de los proyectos que tengo en mi portfolio es un sistema para verificar y aportar recomendaciones a gente q escribe contratos, en nuestro caso, siempre hay una persona que valora y acepta los cambios. Hay mucho camino por recorrer.

ElTioPaco

#15 pero son conceptos diferentes.

Un programa basado en IA que ayude a alguien con conocimientos es lógico y común, incluso antes de la IA.

Los ingenieros ya no hacen los cálculos a mano sino con programas, y los conductores usan GPS.

Pero algo muy diferente es un programa que haga de ingeniero o un autopilot.

Un programa que aconseje a un sanitario que medicina dar, y que el sanitario a su criterio la use, es diferente a un programa que te prescriba medicinas.

A

#16 por supuesto, para cosas criticas dudo que el factor humano vaya a desaparecer a corto plazo. En teoría, los aviones podrían volar sin piloto pero, volarías en una linea aérea sin pilotos ?

u

Cobra mas que un medico español a la hora....

D

#18 Un médico con el MIR cobra bastante más que eso.

No sé cómo pagarán las horas de guardia de un residente de primer año, pero cuando mi mujer hizo el MIR también cobraba de media más que 9$ la hora.

c

Cuando una IA de estas la cague gravemente, ¿Quien va a ser el responsable?

Para aclarar estas cosas si que es urgente redactar nuevas leyes

c

#5 El que las certifique debería ser el responsable penal y económico de todos los resultados de su actividad

#19 #18 depende de la comunidad autónoma, pero que yo sepa en España nadie está por debajo de 9 €.

lo que yo conozco de guardias son a 12€ las localizadas, a 24€ las presenciales

#20 ni siquiera sé como funciona la responsabilidad en otros casos...

Si un peluquero te electrocuta al usar una plancha de pelo por un defecto en la plancha, ¿de quién es la culpa? ¿del peluquero o del fabricante?
supongo que aquí igual. pero ni idea de como sería el caso del peluquero siquiera...

c

#23 Del peluquero.
Es el responsable de tener en condiciones su instrumental antes de usarlo. Y es el que me ha quemado.

El que no es responsable en ningún caso es la plancha.

Globo_chino

En EEUU crearon a Barrio Sésamo por la poca calidad de la educación infantil.

Nada nuevo.

Globo_chino

#2 En EEUU hay libertad, con poner un mensaje de advertencia vale.

u

#24 en ese caso, el hospital o servicio de salud que lo use será el responsable. pero vaya, es mi extrapolación usando sentido común...

c

#27 Así debería ser.

Pero no las tengo todas conmigo. Precisamente gran parte del negocio pasa por eludir esa responsabilidad

#28 lo pondrá en las condiciones de contratación del seguro médico. seguro con IA y fallos posibles 40€ mes, seguro con persona: 400€

luiggi

Curioso. Precisamente yo creo que de los pocos trabajos que están a salvo de ser sustituidos por una IA están aquellos donde el trato directo con la persona es importante como enfermer@s o maestr@s infantiles.

ankra

#21 si y no. Por qué certificar no es magia, no es decir esto funciona con la mano en el corazón o que el se haga responsable.

Se tiene que reunir mucha gente que sabe del tema y crear un procedimiento para demostrar que eso hace lo que dice con una probabilidad de error aceptable (y como actuar en esos casos).

El certificador comprueba que todo funciona como dice la documentación y que está cumple los standares

systembd

#12 Para los humanos, siempre ha sido un problema la primera vez. Con los drones podemos saltarnos esas "reticencias morales".

b

#1 ChatGPT alucina porque toma como base "el todo". Pero si a un LLM le das como base por ejemplo un vademécum con los fármacos y sus dosis, no va a alucinar.

¿Tu respondes igual a un examen teniendo los apuntes delante que sin tenerlos?

xyzzy

Como herramienta PARA MEDICOS me parece cojonuda.
Como reemplazo, pues otro regalito de mierda del capitalismo.

Globo_chino

#30 Estamos hablando de muchos países donde si no tienes un contrato de trabajo no tienes Sanidad, 9€ la hora es un chollo.

b

#2 Siento decirte que nadie certifica eso que comentás. El MIR es el único filtro medianamente real que pueden tener, y anda que no hay médicos ejerciendo sin el MIR.

Nitros

#4 También hay errores humanos donde se aplican mal las dosis. No es cosa solo de la IA.

vazana

#34 con retrieval augmented generation todavía alucinan.

systembd

Siempre van a por los que ya son relativamente baratos. Estoy por crear una IA para reemplazar a los C*Os y ahorrar a los inversores millones de ¥€$

...y, sí. Es una referencia a Ghost in the Shell: SAC.

e

Por lo que veo solamente hace un seguimiento, y la demo deja bastante que desear, pudiendo haber utilizado a una persona mas real, han utilizado un muñeco virtual en el que sus expresiones eran bastante malas, si nvidia quiere impresionar al mundo con algo, con este video no lo han conseguido.

y como siempre, el paciente siempre puede mentir, me he tomado las pastillas, si, todos los días a la hora pautada, mi mujer, que es auxiliar se ha encontrado pacientes que no se las toman, al encontrarse un puñado de pastillas en el cajón de la mesilla de noche

Me parece muy buena idea, como un control a mayores, para mejorar la prestación del servicio, pero por ahora no veo que puedan sustituir a nadie.

b

#14 Mira eso va a ser como el paradigma de los cohetes reutilizados.

Hace 5 años ni loco se subiría un astronauta a un cohete reutilizado, hoy ni loco se sube un astronauta a un cohete que no haya sido probado antes.

Tuatara

#14 Ya. Pero si eso no se reafirma con el voto, te atenderá quien decidan que te atienda.

Prostatron powered by ChatGPT.

b

#39 Porque estamos en pañales y han sido probados con LLM con ventanas de contexto pequeñas que es lo que van a mejorar los LLM de este año.
Espérate a 2025 y veamos si siguen alucinando.

torkato

#7 Transacciones automáticas a suiza

sieteymedio

Gente que dice que "a ver si te crees que los médicos aciertan siempre LOL". La próxima vez que te duela algo, sal a preguntar al primero que veas por la calle.

sieteymedio

#41 ¿Qué son los C*Os?

johel

#7 Eso es extremadamente facil, de hecho todos los dias creamos maquinas "agradecidas con el poder"; las empresas. Las empresas no son seres humanos sino maquinas con engranajes humanos cuyo unico objetivo es hacer dinero y mira como funcionan... algunas venden armas, inician guerras para aumentar sus beneficios o derrocan gobiernos.

dogday

#3 pasa exactamente igual con los humanos.

Lo que pasa es que lo que en una máquina hemos atribuído rápidamente a que se lo inventa - no sé por qué motivo - en un humano lo llamamos incompetencia, falta de capacidad, hijoputismo, saturación, falta de motivación...

#1

s

#38 Por eso se suele aplicar el triple check, tanto medico como farmacia y despues la enfermera que lo aplica verifican que sea correcto.

xkill

#8 la culpa sera del paciente. Ya meteran en el contrato del servicio en letra bien pequeña que va a ser atendido por una IA y que puede fallar y que es responsabilidad del cliente hablar con médico capacitado....

Eso sí, ya se habrán "ahorrado" millones de euros/dólares en enfermeras/médicos y les dara igual.

O

#3 Si es Medical Software hay que validar que dichas alucinaciones no afecten de forma negativa al tratamiento médico, y sobretodo estén en valores de órdenes de magnitud inferiores a los errores típicos de enfermeros humanos.
Si no es así, la FDA nunca aprobará su uso.

N

#15 que es eso de tu portfolio?

p

La que te hace pre colonoscopia, sobre todo esa sabe una mierda.

j

#4 pues hace muchos años (ahora no sé) la información de tráfico la daba un mago de Oz.

Tu hablabas, un operador te entendía y te respondía con una grabación. La mitad de las veces tu preguntabas por el tráfico en una carretera y te respondía con que había un atasco en otra a 100km porque era lo único que tenía registrado.

El usuario no me daba la murga al operador porque pensaba que hablaba con una máquina y el operador podía atender muchas más llamadas.

No descartes que una ia de Oz sea una buena idea. Al menos para el proveedor del servicio.

N

#50 La IA (por ahora) no tiene intencionalidad. Si da un resultado erróneo, es un fallo de cálculo.

D

Eso, carguémonos encima un sector que ya es precario como el de los médicos y enfermeros por unos chat bots…. Esto no deja de ser un paso más del capitalismo para cargarse al proletariado y no hacéis más que aplaudir. Ojalá limiten o prohiban todo esto de las IA que solo traen mentiras y humo

M

#13 Había un artículo por ahí de que muchos "robots" actuales (los repartidores y tal) era gente desde el tercer mundo teletrabajando.

Me parece que está enfocado para ser utilizado como un agente de ventas más para las farmacéuticas que otra cosa. "Tómate estas pastillas y estas otras, y estas otras que ahora te digo, puedes comenzar lo antes posible? las acciones de Pfizer están cayendo y necesitamos mejorar los datos de este cuatrimestre, gracias"

dogday

#57 ni tiene intencionalidad ni inventiva.

Y los humanos también tienen fallos de cálculo. Por supuesto mucho antes que las IAs.

kolme

#34 Los LLM alucinan en todas sus variantes actuales sin excepción, por un motivo muy sencillo.

Dicho súper resumidamente, un LLM es un modelo de predicción de texto. Según lo que ha "aprendido", intenta buscar el texto que sigue a lo que se le ha entrado.

El problema de esto, es que el modelo no sabe decir "no lo sé". Va a darte la "respuesta" que el sistema piense que sea la más probable. Y si no sabe la respuesta correcta, se la inventa. Porque es técnicamente incapaz de decir "no lo sé".

trivi

#7 los datos de entrenamiento van a ser casos reales, vendrá así de fábrica

thorin

#50 Pero es que es una máquina, el fin de diseñar una máquina es que virtualmente tenga 0 errores.

Qué bueno, esto hace 2 años no era técnicamente posible, con fallos y todo es un gran avance.

kaysenescal

#17 Ya me lo estoy imaginando.....

thorin

#53 Si, las homologaciones van a ser muy difíciles en países serios.
Y con razón.

Igualmente esto no es más que un anuncio publicitario para vender hardware.

MorrosDeNutria

#14 En oncología y cardiología las IAs están dando muy buenos resultados, eso si, como copiloto. Creo que estamos muy lejos aún de dejar un hospital en manos de la IA

Vaya mundo de inútiles nos quedará si todo se reemplaza con IA

n

#40 correcto. Pero de ahí a lo que dice la noticia hay un trecho gigante.... La IA actualmente es buena para cosas de "puertas para dentro", la interacción con humanos está lejos de ser aceptable.

dogday

#64 eso no lo discuto.

De ahí a atribuirle rasgos humanos como la inventiva... roll

Empezando por el propio nombre. "Inteligencia artificial". Mal comienzo.

Una herramienta más para el control de masas a traves del concepto. Una forma más de infundir miedo.

n

#14 pues yo pienso al revés... Me fio más de una IA para un diagnóstico y como segunda opinión un médico. Me parece un mejor combo y que podría funcionar y solucionar muchos problemas actuales en la sanidad.

#6 Conozco de primera mano al menos 5 errores de diagnóstico cáncer, por colegiados de carne. Uno de ellos fue un diagnóstico erróneo de cáncer, y lo curioso que por el estrés se le puso canoso el pelo.

Mushhhhu

quién no querría dejar en manos de una IA su salud? exacto un tecnooptimista neoliberal

S

#62 Correcto:

Podéis probar por ejemplo a preguntarle a ChatGPT esto: "Si una rana salta cada día 3 metros y cae 1 metro, cuánto tardará en salir de un agujero de 40 metros?"

Te va a decir 20 días, pero tú sabes que tarda 19 días. Se lo corriges y te va a aceptar que estaba equivocado, pero es que ni la lógica ha aplicado, simplemente ha predecido texto, y lo ha hecho mal.

thorin

#69 Ahí tienes razón, no hay que atribuirle rasgos humanos.
Utiliza otra lógica.

Hay estudios que dicen que algunos son más precisos al utilizar amenazas y otras técnicas, que al contrario que los humanos no es especialmente útil la amabilidad.

Lo del control de masas no lo veo. Creo que el mal uso del termino "inteligencia artificial" es sólo marketing. Y esto lo digo cómo lector de Asimov.

dogday

#74 ¿y qué es el marketing si no el control absoluto y definitivo de las masas?

acido303

#29 Lo mismo hay un momento que hay que cambiar las tarifas

thorin

#75 Desde mi perspectiva clásica sólo es vender de manera que haya muchos beneficios.

Pero el control también es marketing para vender a corporaciones y gobiernos, que no dejan de ser los clientes más jugosos.

También es que yo trasteo en temas de IA que se puede ejecutar en tu hardware y es de código abierto (Pero no libre del todo), con lo cual he visto también se puede usar para evitar el control (Si tienes acceso al hardware ).

Por cierto, manda huevos que Musk sea de los que más ha liberado de un llm funcional, y que Zuckerberg apueste (de momento) porque sean de código abierto.

N

Quien a día de hoy no crea que su empleo está amenazado por una ia o por las automatizaciones, que vuelva a pensar, a mi lo que me preocupa es si los gobiernos lo tienen claro o no, porque esto es imparable y los tiempos del desarrollo de las ias no es el periodo de adaptación humano...

S

#50 Efectivamente la IA sí tiene "alucinaciones" pero personalmente no me gusta llamarlo tal, es atribuirle una "cualidad" humana gratuitamente, y por otra parte creo que tiene una connotación subjetiva innecesaria.

El problema es que estamos acostumbrados a los errores humanos y son "comprensibles", pero la IA al ser una caja negra, no sabemos cómo aprende y por qué comete ciertos errores. De la misma forma que ayer había otro artículo en el que no se comprendía totalmente como podía aprender ciertas cosas, por ejemplo extrapolar lo aprendido a otros idiomas, me parece normal que saque conclusiones inesperadas...

S

#40 Sí, aunque añadiría algo, depende del algoritmo pero recuerdo estar en una charla sobre ello, y una de las cosas que mencionaban es que el algoritmo no solo era mejor sino que además era más predecible, o dicho de otra forma reproducible. En ese caso es un algoritmo que se especializa mucho en un problema determinado, mientras que aquí ocurre lo contrario.

trivi

#67 inútiles y pobres

Meinster

#11 Lo bueno es que las víctimas colaterales se reducirían enormemente. Y lo de matar a personas desarmadas con una bandera blanca quizás se podría evitar. Es más, le quitaríamos la parte divertida a matar y quizás se matase menos.

E

#56 bueno, eso es así ya en muchas empresas, con plantillas de respuesta automática total o parcial

Por ejemplo en contratación por teléfono casi siempre es una máquina la que te lee los términos del contrato para grabarte el sí acepto

black_spider

El sector sanitario necesita de una fuerte modernizacion, seguimos atendiendo como en el siglo XIX.

Encuentro que las enfermedades mas frecuentes/leves, se podrian estandarizar e incluso tratar sin necesidad de recurrir a un medico. Dejando pues, la consulta a medicos para casos mas excepcionales/importantes.

No tiene sentido que tenga que ocupar tiempo de un medico para una otitis cuando todos sabemos que el 90% de los casos se va a resumir en recetarme unos antibioticos para el oido y reposo.

La IA podria ser una solucion para esto. Pero fuera de la IA, tambien se podria usar personal semi-cualificado (ej: ciclo formativo) que siguiera un diagrama de flujo estandarizado en el ordenador. El operario teclea los sintomas, sigue un cuestionario y aplica la solucion estandarizada. Si no hay solucion estandarizada porque es algo mas atipico, entonces ahi se escalaria a un medico.

Se haria un uso mucho mas eficiente del tiempo de los medicos, lo que permitiria reducir las listas de espera considerablemente.

Peka

#82 Que hagan guerras de robots solo y que nos dejen en paz los viejos con sus guerras.

MataGigantes

#1 No es complicado, se hace un estudio comparativo de 10.000 consultas y se ve quién tiene mayor porcentaje de acierto en el diagnóstico.
Si la IA con su acceso instantáneo a enormes bases de datos de enfermedades más a todos los los manuales acreditados de medicina existentes; o el médico humano con su cerebro tendente a olvidarse de cosas con el tiempo, que su rendimiento se ve condicionado a fases periódicas de cansancio, estrés, etc..

Y se compara cual tiene mayor porcentaje de acierto en el diagnóstico. Después de ahí ya que cada uno decida si prefiere ser diagnosticado por una IA o por un humano.

l

#58 Misma reacción de algunos cuando se empezaron a utilizar los primeros telares mecánicos.

La realidad es que abarata y hace accesible necesidades básicas al tiempo que permite que se creen oportunidades para nuevas profesiones en actividades nuevas o que antes eran un lujo.

Es muy simple, el día que no sea necesario trabajar será un gran día.

D

#87 no tiene nada que ver, ahora hay una plutocracia fascista (empezando por Elon) controlando todo el tema de IA para hundir a los trabajadores

l

Me llama la atención que la imagen y los gestos de la enfermera virtual no estén más naturalizados utilizando técnicas de IA, aunque sólo fuese para el video, teniendo en cuenta lo importante que es que la información transmitida sea transmitida con confianza.... el efecto WOW hubiese sido bastante mayor

l

#88 Confundes progreso con desigualdad. Luchar contra la desigualdad no es oponerse al progreso

dogday

#77 un rato que te aburras y quieras hacer una buena obra, podrías indicarme por dónde empezar con las IAs que se pueden ejecutar en hardware propio. Es algo que me llama la atención, pero no me atrevo a curiosearlo, pues me parece demasiado espeso el comienzo.

Gracias de antebrazo.

Meinster

#85 Con una inteligencia artificial la guerra se podría hacer de forma más rápida y eficaz. Matando al dirigente enemigo.
Difícilmente alguien decidiría atacar a otro país si sus probabilidades de muerte inmediata fuesen enormes.

D

#62 Técnicamente puede evaluar la probabilidad de una oración a posteriori. Así que pones a un LLM responder, y a otro indicando si la respuesta es plausible. Si no lo es, respondes "no sé".

También puede hacerse en el fine tuning y de hecho se hace.

I

#48 ¿CEOs?

D

#73 Tarda 20 días. En 18 días llega a los 36. En 19 llega a los 38. Y al día 20 sale fuera.

Y GPT-4 lo saca bien.

GPT-4: 1
Humano: 0

sieteymedio

#94 Me imagino, pero ¿por qué censurarlo con un asterisco?

borre

#1 ChatGPT lleva nada y menos. Parece que no sois capaces de ver a largo plazo...

D

#86 Si quisiéramos evaluar las cosas con tanto detalle, también analizaríamos si conviene reducir la duración de las guardias. No todo se optimiza en el capitalismo.

I

#96 Ni idea, los traumas de cada uno habrá que preguntárselos a una IA

S

#95 Tarda 19 días...

1 2