Washington intenta ponerse al dÃa con el uso de la inteligencia artificial en el sector de salud
Legisladores y reguladores de Washington han empezado a plantearse cómo regular la inteligencia artificial (IA) en la atención de salud, y la industria de la IA cree que es muy probable que lo hagan mal.
“Es un problema de enormes proporciones”, afirmó Bob Wachter que preside el Departamento de Medicina de la Universidad de California-San Francisco (UCSF). “Existe el riesgo de que se use artillerÃa pesada y regulemos en exceso”.
El impacto de la IA en el sector de salud ya es generalizado. La Administración de Alimentos y Medicamentos (FDA) unos 692 productos de inteligencia artificial.
Los algoritmos ayudan a programar las citas de los pacientes, determinar la dotación de personal en las salas de emergencias e incluso transcribir y resumir las visitas clÃnicas para ahorrarle tiempo a los médicos. También han empezado a ayudar a los radiólogos a leer resonancias magnéticas y radiografÃas. Wachter dijo que a veces consulta una versión de GPT-4, un gran modelo lingüÃstico de la empresa OpenAI, para casos complejos.
El impacto de la IA —y el potencial de futuros cambios— significa que los gobiernos ya deben estar poniéndose al dÃa.
“Los legisladores están terriblemente atrasados”, aseguró en un correo electrónico Michael Yang, gerente de OMERS Ventures, una empresa de capital riesgo. Los colegas de Yang han realizado grandes inversiones en el sector. Rock Health, una compañÃa similar, declaró que financistas han invertido casi $28,000 millones en empresas de salud digital especializadas en inteligencia artificial.
Según Wachter, uno de los problemas a los que se enfrentan los reguladores es que, a diferencia de los medicamentos, que dentro de cinco años tendrán los mismos componentes quÃmicos que hoy, la IA cambia constantemente.
Por eso, la Casa Blanca ha creado una gestión junto con agencias centradas en la salud para elaborar normas que garanticen la transparencia y la privacidad en el uso de la IA en el campo médico. El Congreso también ha mostrado interés. El Comité de Finanzas del Senado tuvo una audiencia el 8 de febrero sobre la IA en la atención de salud.
Junto con la regulación y la legislación, aumenta la actividad de los grupos de presión. Una investigación de CNBC mostró que hubo un en el número de organizaciones que divulgaron actividades de lobby sobre IA en 2023.
La compañÃa TechNet ha lanzado una iniciativa de $25 millones, que incluye la compra de anuncios de televisión, para educar a la audiencia sobre los beneficios de la inteligencia artificial.
“Es muy difÃcil saber cómo regular la IA de manera inteligente, ya que estamos en una fase muy temprana de invención de la tecnologÃa”, dijo en un correo electrónico Bob Kocher, socio de la empresa de capital de riesgo Venrock, que anteriormente trabajó en la administración Obama.
Kocher ha hablado con senadores sobre la regulación de la IA. Destaca algunas de las dificultades a las que se enfrenta el sistema de salud a la hora de adoptar estos productos. Los médicos, que enfrentan riesgos de mala praxis, podrÃan mostrarse recelosos a la hora de utilizar tecnologÃa que no entienden para tomar decisiones clÃnicas.
Un análisis de los datos de la Oficina del Censo de enero, realizado por la consultora Capital Economics, reveló que el 6,1% de las empresas de salud tenÃa previsto utilizar IA en los próximos seis meses, aproximadamente en la mitad de los 14 sectores encuestados.
Como cualquier producto médico, los sistemas de IA pueden plantear riesgos para los pacientes, a veces de forma curiosa. Un ejemplo: pueden inventar cosas.
Wachter recuerda que un colega, a modo de prueba, encargó a GPT-3 de OpenAI que redactara una carta de autorización a una aseguradora para una receta deliberadamente “descabellada”: un anticoagulante para tratar el insomnio de un paciente.
Pero la IA “escribió una carta preciosa”, dijo. El sistema citó “bibliografÃa reciente” de forma tan convincente que la colega de Wachter, por un momento, se preguntó si se le habÃa escapado una nueva lÃnea de investigación. Resultó que el chatbot se lo habÃa inventado.
También existe el riesgo de que la IA agrave los prejuicios ya presentes en el sistema de salud. Históricamente, las personas de color han recibido menos atención que los pacientes blancos no hispanos. Estudios muestran, por ejemplo, que los pacientes negros con fracturas tienen menos probabilidades de recibir analgésicos que los blancos no hispanos. Este sesgo puede quedar grabado cuando la inteligencia artificial se entrena con esos datos y posteriormente actúa.
La investigación sobre la IA desplegada por ha confirmado que eso ya ha ocurrido. Pero el problema está más extendido. Wachter explicó que la UCSF probó un producto para predecir las ausencias en las citas médicas. Los pacientes con pocas probabilidades de acudir a una visita tienen más probabilidades de que se les agende una cita dos veces.
La prueba demostró que las personas de color tenÃan más probabilidades de faltar a la cita. Independientemente de que el resultado fuera exacto o no, “la respuesta ética es preguntarse a qué se debe y si hay algo que se pueda hacer”, dijo Wachter.
Dejando a un lado las exageraciones, es probable que estos riesgos sigan acaparando la atención con el paso del tiempo. Expertos en IA y responsables de la FDA han insistido en la necesidad de algoritmos transparentes, supervisados a largo plazo por seres humanos: reguladores e investigadores externos. Los productos de IA se adaptan y cambian a medida que se incorporan nuevos datos. Y los cientÃficos desarrollarán nuevos productos.
Los formuladores de leyes tendrán que invertir en nuevos sistemas para hacer un seguimiento de la IA a lo largo del tiempo, aseguró la rectora de la Universidad de Chicago, Katherine Baicker, que testificó en la audiencia del Comité de Finanzas. “El mayor avance es aquel en el que aún no hemos pensado”, dijo en una entrevista.