麻豆女优

Programas de inteligencia artificial te ayudan a interpretar tus resultados de laboratorio

A photo of someone's smartphone with a folder full of AI apps: DeepSeek, Claude, ChatGPT, Copilot, Gemini, AI Photo, and Nova.

Cuando Judith Miller se hizo un an谩lisis de sangre rutinario en julio, recibi贸 una alerta en su tel茅fono ese mismo d铆a indicando que sus resultados ya estaban disponibles en l铆nea.

As铆 que, cuando su doctor le escribi贸 al d铆a siguiente para decirle que en general todo estaba bien, Miller le pregunt贸 sobre el nivel elevado de di贸xido de carbono y la brecha ani贸nica baja que aparec铆an en el informe.

Mientras esta residente de Milwaukee, de 76 a帽os, esperaba la respuesta, hizo lo que cada vez m谩s pacientes hacen cuando no logran comunicarse con su m茅dico: ingres贸 sus resultados en Claude y le pidi贸 al asistente de inteligencia artificial (IA) que los evaluara.

鈥淐laude me ayud贸 a entender claramente las anomal铆as鈥, dijo Miller. El modelo de IA no report贸 nada alarmante, as铆 que no se sinti贸 ansiosa mientras esperaba noticias de su doctor, cont贸.

Hoy en d铆a, los pacientes tienen un acceso sin precedentes a sus expedientes m茅dicos, usualmente a trav茅s de portales como MyChart, debido a que la ley federal exige que las organizaciones de salud liberen de inmediato la informaci贸n m茅dica electr贸nica, como las notas de visitas m茅dicas y los resultados de pruebas.

publicado en 2023 encontr贸 que el 96% de los pacientes encuestados quieren acceso inmediato a sus resultados, aunque su proveedor a煤n no los haya revisado.

Y muchos pacientes est谩n utilizando modelos de lenguaje a gran escala (LLM, en ingl茅s), como ChatGPT de OpenAI, Claude de Anthropic y Gemini de Google, para interpretar sus datos m茅dicos. Sin embargo, esta ayuda conlleva ciertos riesgos.

M茅dicos y defensores de pacientes advierten que los chatbots de IA pueden dar respuestas equivocadas y que podr铆a no respetarse la privacidad de la informaci贸n m茅dica.

Pero la mayor铆a de los adultos muestra precauci贸n ante el uso de la IA en temas de salud. El 56% de las personas que usan o interact煤an con esta tecnolog铆a no conf铆a en que la informaci贸n proporcionada por los chatbots de IA sea precisa, seg煤n .

鈥淟os LLM son te贸ricamente muy poderosos y pueden dar excelentes consejos, pero tambi茅n pueden dar recomendaciones terribles dependiendo de c贸mo se les formule la pregunta鈥, dijo Adam Rodman, m茅dico internista del Centro M茅dico Beth Israel Deaconess en Massachusetts y presidente de un grupo que analiza y toma decisiones sobre la inteligencia artificial generativa en la Facultad de Medicina de Harvard.

Justin Honce, neuroradi贸logo de UCHealth en Colorado, dijo que para los pacientes sin formaci贸n m茅dica es muy dif铆cil saber si los chatbots de IA est谩n cometiendo errores.

鈥淒e lo que se trata es de tener precauci贸n al usar los LLM. Con los modelos m谩s recientes, estos riesgos se han ido reduciendo, pero a煤n no se han resuelto del todo鈥, afirm贸 Honce.

Rodman ha notado un aumento en el uso de IA entre sus pacientes en los 煤ltimos seis meses. En un caso, un paciente tom贸 una captura de pantalla de sus resultados de laboratorio en MyChart y los subi贸 a ChatGPT para preparar preguntas antes de su cita. Rodman dijo que le parece positivo que los pacientes le muestren c贸mo usan la IA: eso abre una oportunidad para el di谩logo.

Aproximadamente 1 de cada 7 adultos mayores de 50 a帽os usa IA para obtener informaci贸n de salud, seg煤n una . Entre los adultos menores de 30 a帽os, 1 de cada 4 lo hace, seg煤n el sondeo de 麻豆女优.

Usar internet para defender el derecho a una mejor atenci贸n m茅dica no es algo nuevo.

Tradicionalmente, los pacientes han utilizado sitios web como WebMD, PubMed o Google para buscar investigaciones recientes, y han recurrido a otras personas en redes sociales como Facebook o Reddit. Pero la capacidad de los chatbots de IA para generar recomendaciones personalizadas y ofrecer una segunda opini贸n en un instante s铆 es novedosa.

, directora de comunicaciones e iniciativas para pacientes en OpenNotes 鈥攗n laboratorio acad茅mico de Beth Israel Deaconess que promueve la transparencia en la atenci贸n de salud鈥 se preguntaba qu茅 tan buena era la IA para interpretar informaci贸n, especialmente desde el punto de vista del paciente.

En un estudio de publicado este a帽o, Salmi y sus colegas analizaron la precisi贸n de las respuestas de ChatGPT, Claude y Gemini a preguntas de pacientes sobre un resumen cl铆nico. Los tres modelos de IA tuvieron un buen desempe帽o, pero la manera en que los pacientes formulaban las preguntas influ铆a, explic贸 Salmi.

Por ejemplo, decirle al chatbot que actuara como un m茅dico y hacer una pregunta a la vez mejoraba la precisi贸n de las respuestas.

La privacidad es otra preocupaci贸n, dijo Salmi, por lo que es fundamental eliminar datos personales como el nombre o el n煤mero de Seguro Social antes de usar estas herramientas. La informaci贸n se env铆a directamente a las empresas tecnol贸gicas que desarrollaron los modelos de IA, indic贸 Rodman, quien agreg贸 que no conoce ninguna que cumpla con la ley federal de privacidad ni que tenga en cuenta la seguridad del paciente.

Sam Altman, CEO de OpenAI, advirti贸 en un en agosto sobre los riesgos de ingresar informaci贸n personal en ChatGPT.

鈥淢uchas personas que reci茅n empiezan a usar estos modelos no saben lo que son las alucinaciones鈥, explic贸 Salmi, refiri茅ndose a respuestas que parecen l贸gicas pero que en realidad son incorrectas. Por ejemplo, Whisper 鈥攗na herramienta de transcripci贸n con IA desarrollada por OpenAI y utilizada en hospitales鈥 lleg贸 a incluir un tratamiento m茅dico ficticio en una transcripci贸n, seg煤n .

Usar IA generativa requiere un nuevo tipo de alfabetizaci贸n digital en salud, que implica hacer preguntas de cierta manera, verificar las respuestas con otros modelos de IA, consultar al m茅dico y proteger la privacidad en l铆nea, dijeron Salmi y Dave deBronkart, sobreviviente de c谩ncer y defensor de pacientes, quien sobre el uso de IA por parte de pacientes.

Y los pacientes no son los 煤nicos que usan IA para explicar resultados de las pruebas. ha lanzado un asistente de IA que ayuda a los m茅dicos a redactar interpretaciones de pruebas cl铆nicas y resultados de laboratorio para envi谩rselas a los pacientes. Investigadores en Colorado evaluaron la precisi贸n de res煤menes generados por ChatGPT a partir de 30 informes de radiolog铆a, y tambi茅n analizaron la satisfacci贸n de cuatro pacientes con esos res煤menes. De 118 respuestas v谩lidas, 108 indicaron que los res煤menes ayudaron a aclarar detalles del informe original.

Pero ChatGPT a veces exager贸 o minimiz贸 ciertos hallazgos. Y una peque帽a pero significativa cantidad de respuestas indic贸 que los pacientes quedaron m谩s confundidos despu茅s de leer los res煤menes, coment贸 Honce, quien particip贸 en el .

Mientras tanto, despu茅s de cuatro semanas y un par de mensajes de seguimiento en MyChart, la doctora de Miller orden贸 repetir su an谩lisis de sangre y solicit贸 una prueba adicional que ella misma hab铆a sugerido. Los resultados salieron normales. Miller se sinti贸 aliviada y dijo que gracias a sus consultas con la IA estaba mejor informada.

鈥淓n ese sentido, es una herramienta muy importante鈥, expres贸. 鈥淢e ayuda a organizar mis preguntas, investigar y equilibrar un poco m谩s las cosas鈥.

Exit mobile version