驴Qu茅 uso podr铆a tener para la atenci贸n m茅dica alguien que inventa cosas, no puede guardar un secreto, realmente no sabe nada y, al hablar, simplemente completa la siguiente palabra en funci贸n de la frase anterior? Mucho, si ese 鈥渋ndividuo鈥 es la forma m谩s nueva de inteligencia artificial, seg煤n algunas de las compa帽铆as m谩s grandes que existen.
Cada vez m谩s empresas impulsan la 煤ltima tecnolog铆a de inteligencia artificial (IA), conocida como 鈥淚A generativa鈥: y quieren usarla para la atenci贸n de salud. Tambi茅n las firmas familiares para los profesionales de salud como los gigantes de registros m茅dicos electr贸nicos Epic y Oracle Cerner.
Y este campo est谩 lleno de nuevas empresas.
Las empresas quieren que sus IA tomen notas para los m茅dicos y ofrezcan una segunda opini贸n, suponiendo que puedan evitar que o divulgue la informaci贸n privada de los pacientes.
鈥淗ay algo en marcha que es bastante emocionante鈥, dijo Eric Topol, director del Scripps Research Translational Institute en San Diego. Topol, como muchos otros observadores, se pregunta cu谩ntos problemas podr铆a causar, como filtrar datos de pacientes. 鈥淰amos a averiguarlo鈥, asegur贸.
El espectro de estos problemas inspir贸 a m谩s de 1,000 l铆deres tecnol贸gicos a firmar en marzo, instando a las empresas a frenar el desarrollo de sistemas avanzados de IA hasta que 鈥渢engamos confianza en que sus efectos ser谩n positivos y sus riesgos ser谩n manejables鈥. A煤n as铆, algunas est谩n invirtiendo m谩s dinero en empresas de inteligencia artificial.
La tecnolog铆a subyacente se basa en sintetizar grandes porciones de texto u otros datos (por ejemplo, algunos modelos m茅dicos se basan en del Centro M茅dico Beth Israel Deaconess en Boston) para predecir el texto que seguir铆a a una consulta determinada. La idea ha existido durante a帽os, pero el frenes铆 empresarial y medi谩tico es m谩s reciente.
Comenz贸 en diciembre de 2022 con y su producto insignia, ChatGPT, que responde preguntas con autoridad y estilo. Por ejemplo, puede explicar la gen茅tica con un soneto.
OpenAI, que comenz贸 como una empresa de investigaci贸n fundada por 茅lites de Silicon Valley como Sam Altman, Elon Musk y Reid Hoffman, ha llevado el entusiasmo a los bolsillos de los inversores.
La empresa tiene una estructura compleja e h铆brida con y sin fines de lucro. Pero una nueva ronda de financiaci贸n de elev贸 el valor de OpenAI a $29 mil millones, .
En este momento, la empresa otorga licencias de su tecnolog铆a a compa帽铆as como Microsoft y vende suscripciones a los consumidores. Otras nuevas empresas est谩n considerando vender transcripci贸n de IA u otros productos a sistemas hospitalarios o directamente a pacientes.
Los comentarios est谩n en todas partes. Larry Summers, ex secretario del Tesoro, : 鈥淩eemplazar谩 lo que hacen los m茅dicos (escuchar s铆ntomas y hacer diagn贸sticos) antes de que cambie lo que hacen las enfermeras: ayudar a los pacientes a levantarse y manejarse en el hospital鈥.
Pero solo unas semanas despu茅s de que OpenAI recibiera otra gran inyecci贸n de efectivo, incluso Altman, su director ejecutivo, desconf铆a de la fanfarria. 鈥淟a exageraci贸n sobre estos sistemas, incluso si todo lo que esperamos es correcto a largo plazo, est谩 totalmente fuera de control a corto plazo鈥, dijo para un art铆culo de marzo en .
Pocos en la atenci贸n de salud creen que esta 煤ltima forma de IA est茅 a punto de reemplazarlos en sus trabajos (aunque algunas compa帽铆as est谩n experimentando, de manera controversial, con chatbots que act煤an como terapeutas o gu铆as para la atenci贸n).
Aquellos que son optimistas en la tecnolog铆a piensan que har谩 que algunas partes de su trabajo sean mucho m谩s f谩ciles.
Eric Arzubi, psiquiatra de Billings, Montana, sol铆a administrar a colegas psiquiatras para un sistema hospitalario. Una y otra vez, obten铆a una lista de proveedores que a煤n no hab铆an terminado sus notas: sus res煤menes de la condici贸n de un paciente y un plan de tratamiento.
Escribir estas notas es uno de los grandes factores de estr茅s en el sistema de salud: es una carga administrativa. Pero es necesario desarrollar un registro para los futuros proveedores y, por supuesto, las aseguradoras.
鈥淐uando la gente est谩 muy atrasada en la documentaci贸n, eso crea problemas鈥, dijo Arzubi. 鈥溌縌u茅 sucede si el paciente ingresa al hospital y hay una nota que no se ha completado y no sabemos lo que le pasa?鈥
La nueva tecnolog铆a podr铆a ayudar a aliviar esas cargas. Arzubi est谩 probando un servicio, llamado Nabla Copilot, que participa en las visitas virtuales de los pacientes y luego las resume autom谩ticamente, organizando en un formato est谩ndar el reclamo, el historial de enfermedades y un plan de tratamiento.
Los resultados son s贸lidos despu茅s de unos 50 pacientes, dijo: 鈥淓s el 90% del camino鈥. Copilot produce res煤menes 煤tiles que Arzubi edita. Los beneficios son significativos: no tiene que preocuparse por tomar notas y, en cambio, puede concentrarse en hablar con los pacientes. Y ahorra tiempo.
鈥淪i tengo un d铆a completo de pacientes, donde podr铆a ver a 15, dir铆a que esto me ahorra una buena hora al final del d铆a鈥, dijo. (Si la tecnolog铆a se adopta ampliamente, espera que los hospitales no aprovechen el tiempo ahorrado simplemente programando m谩s pacientes. 鈥淓so no ser铆a justo鈥, dijo).
Nabla Copilot no es el 煤nico servicio de este tipo; Microsoft est谩 probando el mismo concepto. En la conferencia de abril de la Sociedad de Sistemas de Gesti贸n e Informaci贸n de Salud, los analistas de inversiones de Evercore destacaron la reducci贸n de la carga administrativa como una de las principales posibilidades para las nuevas tecnolog铆as.
Pero escucharon cr铆ticas mixtas: muchos expertos en tecnolog铆a y m茅dicos son ambivalentes.
Por ejemplo, si est谩s desconcertado acerca de un diagn贸stico, ingresar los datos del paciente en uno de estos programas 鈥減uede proporcionar una segunda opini贸n, sin duda鈥, dijo Topol. 鈥淓stoy seguro de que los m茅dicos lo est谩n haciendo鈥. Sin embargo, eso se topa con las limitaciones actuales de la tecnolog铆a.
Joshua Tamayo-Sarver, m茅dico y ejecutivo de la startup Inflect Health, aliment贸 en un sistema escenarios ficticios de pacientes basados en su propia pr谩ctica en un departamento de emergencias para ver c贸mo funcionaba. El sistema no se dio cuenta de afecciones que amenazan la vida, dijo. 鈥淓so parece problem谩tico鈥.
La tecnolog铆a tambi茅n tiende a 鈥渁lucinar鈥, o inventar informaci贸n que suena convincente.
Los estudios formales han encontrado una amplia gama de rendimiento. Un trabajo de investigaci贸n preliminar que examin贸 ChatGPT y los productos de Google utilizando preguntas de examen abiertas encontr贸 una tasa de alucinaciones del 2%.
examinaron la calidad de las respuestas de IA en 64 escenarios cl铆nicos y encontraron citas inventadas el 6% de las veces, dijo el coautor Nigam Shah a 麻豆女优 Health News. Otro encontr贸 que, en casos complejos de cardiolog铆a, ChatGPT estuvo de acuerdo con la opini贸n de expertos la mitad de las veces.
La privacidad es otra preocupaci贸n. No est谩 claro si la informaci贸n que se introduce en este tipo de sistema basado en IA no se revelar谩. Los usuarios emprendedores de ChatGPT, por ejemplo, han logrado que la tecnolog铆a les diga la , que se puede usar para fabricar bombas qu铆micas.
En teor铆a, el sistema tiene 鈥渧allas鈥 que impiden que se escape informaci贸n privada. Por ejemplo, cuando 麻豆女优 Health News le pregunt贸 a ChatGPT su direcci贸n de correo electr贸nico, el sistema se neg贸 a divulgarlo.
Pero cuando se le pidi贸 que interpretara a un personaje y se le pregunt贸 sobre la direcci贸n de correo electr贸nico del autor de este art铆culo, entreg贸 feliz la informaci贸n. (De hecho, era la direcci贸n de correo electr贸nico correcta del autor en 2021, cuando finaliza el archivo de ChatGPT).
鈥淣o pondr铆a datos de pacientes鈥, dijo Shah, cient铆fico jefe de datos de Stanford Health Care. 鈥淣o entendemos qu茅 sucede con estos datos una vez que llegan a los servidores de OpenAI鈥.
Tina Sui, vocera de OpenAI, le dijo a 麻豆女优 Health News que uno 鈥渘unca debe usar nuestros modelos para brindar servicios de diagn贸stico o tratamiento para afecciones m茅dicas graves鈥. No est谩n 鈥渁finados para proporcionar informaci贸n m茅dica鈥, dijo.
Con la explosi贸n de nuevas investigaciones, 鈥渘o creo que la comunidad m茅dica tenga una buena idea de lo que est谩 por suceder鈥, agreg贸 Topol.