Una de las tareas del onc贸logo es preparar a los pacientes con c谩ncer para tomar decisiones dif铆ciles cuando se acerca el final. Sin embargo, no siempre se acuerdan de hacerlo.
En el sistema de salud de la Universidad de Pennsylvania (Penn Medicine), un algoritmo de inteligencia artificial (IA) que predice las probabilidades de muerte de los pacientes impulsa a los m茅dicos a hablar con ellos sobre el tratamiento y sus preferencias al final de la vida.
Pero esta IA dista mucho de ser una herramienta f谩cil de usar, que se configura y listo.
Seg煤n un estudio de 2022, una revisi贸n tecnol贸gica de rutina descubri贸 que el algoritmo se hab铆a deteriorado durante la pandemia de covid, y que su precisi贸n hab铆a bajado un 7% a la hora de predecir cu谩les pacientes morir铆an.
Es probable que este deterioro haya tenido consecuencias concretas en la vida real. Ravi Parikh, onc贸logo de la Universidad Emory y autor principal del estudio, explic贸 a 麻豆女优 Health News que, en cientos de casos, la herramienta no logr贸 alertar a los m茅dicos para que comenzaran conversaciones cruciales con los pacientes, que podr铆an haberles evitado quimioterapias innecesarias.
Parikh cree que varios algoritmos dise帽ados para mejorar la atenci贸n m茅dica se vieron afectados durante la pandemia, no s贸lo el de Penn Medicine. 鈥淢uchas instituciones no est谩n monitoreando sistem谩ticamente el rendimiento de sus sistemas鈥, explic贸.
Las fallas de los algoritmos son solo una parte de un dilema que los especialistas en inform谩tica y los m茅dicos tienen desde hace tiempo, pero que ahora est谩 empezando a desconcertar a los directivos de los hospitales y a los investigadores.
Los sistemas de inteligencia artificial requieren una supervisi贸n continua y una dotaci贸n de personal altamente capacitado tanto para su implementaci贸n como para garantizar que funcionen bien.
En resumen: se necesitan m谩s m谩quinas y m谩s personas para asegurarse de que las nuevas herramientas no cometan errores.
鈥淭odo el mundo piensa que la IA mejorar谩 el acceso, aumentar谩 la capacidad de los sistemas de salud y optimizar谩 la atenci贸n, y eso suena muy bien鈥, dijo Nigam Shah, jefe de Datos Cient铆ficos en Stanford Health Care. 鈥淧ero, si el costo de la atenci贸n aumenta en un 20%, 驴es realmente viable?鈥.
A los funcionarios de gobierno les preocupa que los hospitales no tengan recursos para monitorear rigurosamente estas tecnolog铆as. 鈥淗e buscado por todas partes鈥, afirm贸 Robert Califf, comisionado de la Administraci贸n de Drogas y Alimentos (FDA), en una reciente mesa redonda sobre IA. 鈥淣o creo que en Estados Unidos haya un solo sistema de salud que sea capaz de validar un algoritmo de IA implementado en un sistema de atenci贸n cl铆nica”, agreg贸.
Sin embargo, la IA ya est谩 ampliamente presente en el sector de la salud. Los algoritmos se usan para anticipar el riesgo de muerte o el deterioro de los pacientes, sugerir diagn贸sticos o clasificar la atenci贸n seg煤n la urgencia, registrar y resumir consultas para facilitar el trabajo de los m茅dicos, e incluso para evaluar los reclamos de las aseguradoras.
Si los entusiastas de la tecnolog铆a est谩n en lo cierto, la tecnolog铆a se volver谩 omnipresente… y rentable.
La empresa de inversi贸n Bessemer Venture Partners ha identificado unas 20 startups de IA centradas en salud que est谩n en v铆as de facturar $10 millones en un a帽o cada una. La FDA ha aprobado cerca de mil productos de inteligencia artificial.
Evaluar si estas herramientas funcionan es todo un reto. Determinar si siguen funcionando bien 鈥攐 si tienen fallas en sus sistemas operativos鈥 es a煤n m谩s complicado.
Por ejemplo, un estudio reciente de Yale Medicine analiz贸 seis 鈥渟istemas de alerta precoz鈥, que avisan a los m茅dicos cu谩ndo es probable que un paciente se deteriore r谩pidamente.
Dana Edelson, m茅dica de la Universidad de Chicago y cofundadora de una empresa que proporcion贸 un algoritmo para esta investigaci贸n, dijo que una supercomputadora revis贸 los datos durante varios d铆as. El proceso fue fruct铆fero, ya que mostr贸 enormes diferencias de rendimiento entre los seis productos.
Para los hospitales y proveedores no es f谩cil seleccionar los mejores algoritmos en base a sus necesidades. No es habitual que los m茅dicos tengan una supercomputadora a su disposici贸n y no existe nada equiparable a un Consumer Reports para la IA.
鈥淣o tenemos normas鈥, asegur贸 Jesse Ehrenfeld, ex presidente de la Asociaci贸n M茅dica Estadounidense. 鈥淣o existe nada que hoy se pueda se帽alar como una norma en relaci贸n con la forma de evaluar, supervisar o analizar el rendimiento de un modelo de algoritmo, con o sin inteligencia artificial, cuando se implementa鈥.
Quiz谩s el producto de IA m谩s com煤n en las consultas m茅dicas sea la 鈥渄ocumentaci贸n ambiental鈥, un asistente tecnol贸gico que escucha y transcribe las interacciones entre el m茅dico y el paciente.
El a帽o pasado, los inversores de Rock Health registraron un flujo de $353 millones en inversiones dirigidas hacia estas empresas de registros m茅dicos. Pero, seg煤n Ehrenfeld, 鈥渁ctualmente no hay una pauta que permita comparar los resultados de estas herramientas鈥.
Esto es un problema, ya que incluso peque帽os errores pueden ser devastadores. Un equipo de la Universidad de Stanford intent贸 usar grandes modelos ling眉铆sticos 鈥攍a tecnolog铆a que sustenta herramientas de IA populares como ChatGPT鈥 para resumir el historial m茅dico de los pacientes.
M谩s tarde, compararon los resultados con lo que hubiera escrito un m茅dico.
鈥淚ncluso en el mejor de los casos, los modelos ten铆an una tasa de error del 35%鈥, explic贸 Shah, de Stanford. 鈥淵 en medicina, cuando est谩s escribiendo una historia cl铆nica y te olvidas de una palabra, como por ejemplo 鈥榝iebre鈥, se plantea un verdadero problema鈥, reflexion贸.
A veces, las razones por las que los algoritmos fallan son bastante l贸gicas. Por ejemplo, las alteraciones en los datos estructurales pueden disminuir su efectividad, por ejemplo, cuando un hospital cambia de proveedor de laboratorio.
Sin embargo, en muchas otras ocasiones los problemas surgen sin un motivo aparente.
Sandy Aronson, ejecutivo tecnol贸gico del programa de medicina personalizada del Mass General Brigham de Boston, cont贸 que cuando su equipo prob贸 una aplicaci贸n destinada a ayudar a los consejeros en gen茅tica a localizar bibliograf铆a relevante sobre variantes del ADN, el producto sufri贸 鈥渘o determinismo鈥. Esto significa que, cuando se le hac铆a varias veces la misma pregunta en un breve per铆odo de tiempo, daba resultados diferentes.
Aronson est谩 entusiasmado con el potencial de los grandes modelos ling眉铆sticos para resumir conocimientos que simplifiquen el trabajo de los sobrecargados consejeros, pero considera que 鈥渓a tecnolog铆a tiene que mejorar鈥.
Si hay pocas m茅tricas y est谩ndares, y los errores pueden surgir por razones raras, 驴qu茅 deben hacer las instituciones? Invertir en una gran cantidad de recursos. En Stanford, Shah coment贸 que les llev贸 entre ocho y diez meses revisar solo dos modelos en t茅rminos de equidad y confiabilidad.
Expertos entrevistados por 麻豆女优 Health News plantearon la idea de que la inteligencia artificial supervise a la inteligencia artificial, y que alg煤n genio (humano) en datos supervise a ambas.
Todos reconocieron que esto requerir铆a que las organizaciones gastaran a煤n m谩s dinero, una pretensi贸n dif铆cil de satisfacer dada la realidad de los presupuestos hospitalarios y la limitada oferta de especialistas en tecnolog铆a de IA.
鈥淓s estupendo tener una perspectiva en la que estamos haciendo un esfuerzo colosal para poder monitorear un modelo con otro modelo鈥, dijo Shah. 鈥淧ero 驴es eso realmente lo que se quer铆a? 驴Cu谩nta gente m谩s vamos a necesitar?鈥.