麻豆女优

Washington intenta ponerse al d铆a con el uso de la inteligencia artificial en el sector de salud

Legisladores y reguladores de Washington han empezado a plantearse c贸mo regular la inteligencia artificial (IA) en la atenci贸n de salud, y la industria de la IA cree que es muy probable que lo hagan mal.

鈥淓s un problema de enormes proporciones鈥, afirm贸 Bob Wachter que preside el Departamento de Medicina de la Universidad de California-San Francisco (UCSF). 鈥淓xiste el riesgo de que se use artiller铆a pesada y regulemos en exceso鈥.

El impacto de la IA en el sector de salud ya es generalizado. La Administraci贸n de Alimentos y Medicamentos (FDA) unos 692 productos de inteligencia artificial.

Los algoritmos ayudan a programar las citas de los pacientes, determinar la dotaci贸n de personal en las salas de emergencias e incluso transcribir y resumir las visitas cl铆nicas para ahorrarle tiempo a los m茅dicos. Tambi茅n han empezado a ayudar a los radi贸logos a leer resonancias magn茅ticas y radiograf铆as. Wachter dijo que a veces consulta una versi贸n de GPT-4, un gran modelo ling眉铆stico de la empresa OpenAI, para casos complejos.

El impacto de la IA 鈥攜 el potencial de futuros cambios鈥 significa que los gobiernos ya deben estar poni茅ndose al d铆a.

鈥淟os legisladores est谩n terriblemente atrasados鈥, asegur贸 en un correo electr贸nico Michael Yang, gerente de OMERS Ventures, una empresa de capital riesgo. Los colegas de Yang han realizado grandes inversiones en el sector. Rock Health, una compa帽铆a similar, declar贸 que financistas han invertido casi $28,000 millones en empresas de salud digital especializadas en inteligencia artificial.

Seg煤n Wachter, uno de los problemas a los que se enfrentan los reguladores es que, a diferencia de los medicamentos, que dentro de cinco a帽os tendr谩n los mismos componentes qu铆micos que hoy, la IA cambia constantemente.

Por eso, la Casa Blanca ha creado una gesti贸n junto con agencias centradas en la salud para elaborar normas que garanticen la transparencia y la privacidad en el uso de la IA en el campo m茅dico. El Congreso tambi茅n ha mostrado inter茅s. El Comit茅 de Finanzas del Senado tuvo una audiencia el 8 de febrero sobre la IA en la atenci贸n de salud.

Junto con la regulaci贸n y la legislaci贸n, aumenta la actividad de los grupos de presi贸n. Una investigaci贸n de CNBC mostr贸 que hubo un en el n煤mero de organizaciones que divulgaron actividades de lobby sobre IA en 2023.

La compa帽铆a TechNet ha lanzado una iniciativa de $25 millones, que incluye la compra de anuncios de televisi贸n, para educar a la audiencia sobre los beneficios de la inteligencia artificial.

鈥淓s muy dif铆cil saber c贸mo regular la IA de manera inteligente, ya que estamos en una fase muy temprana de invenci贸n de la tecnolog铆a鈥, dijo en un correo electr贸nico Bob Kocher, socio de la empresa de capital de riesgo Venrock, que anteriormente trabaj贸 en la administraci贸n Obama.

Kocher ha hablado con senadores sobre la regulaci贸n de la IA. Destaca algunas de las dificultades a las que se enfrenta el sistema de salud a la hora de adoptar estos productos. Los m茅dicos, que enfrentan riesgos de mala praxis, podr铆an mostrarse recelosos a la hora de utilizar tecnolog铆a que no entienden para tomar decisiones cl铆nicas.

Un an谩lisis de los datos de la Oficina del Censo de enero, realizado por la consultora Capital Economics, revel贸 que el 6,1% de las empresas de salud ten铆a previsto utilizar IA en los pr贸ximos seis meses, aproximadamente en la mitad de los 14 sectores encuestados.

Como cualquier producto m茅dico, los sistemas de IA pueden plantear riesgos para los pacientes, a veces de forma curiosa. Un ejemplo: pueden inventar cosas.

Wachter recuerda que un colega, a modo de prueba, encarg贸 a GPT-3 de OpenAI que redactara una carta de autorizaci贸n a una aseguradora para una receta deliberadamente 鈥渄escabellada鈥: un anticoagulante para tratar el insomnio de un paciente.

Pero la IA 鈥渆scribi贸 una carta preciosa鈥, dijo. El sistema cit贸 鈥渂ibliograf铆a reciente鈥 de forma tan convincente que la colega de Wachter, por un momento, se pregunt贸 si se le hab铆a escapado una nueva l铆nea de investigaci贸n. Result贸 que el chatbot se lo hab铆a inventado.

Tambi茅n existe el riesgo de que la IA agrave los prejuicios ya presentes en el sistema de salud. Hist贸ricamente, las personas de color han recibido menos atenci贸n que los pacientes blancos no hispanos. Estudios muestran, por ejemplo, que los pacientes negros con fracturas tienen menos probabilidades de recibir analg茅sicos que los blancos no hispanos. Este sesgo puede quedar grabado cuando la inteligencia artificial se entrena con esos datos y posteriormente act煤a.

La investigaci贸n sobre la IA desplegada por ha confirmado que eso ya ha ocurrido. Pero el problema est谩 m谩s extendido. Wachter explic贸 que la UCSF prob贸 un producto para predecir las ausencias en las citas m茅dicas. Los pacientes con pocas probabilidades de acudir a una visita tienen m谩s probabilidades de que se les agende una cita dos veces.

La prueba demostr贸 que las personas de color ten铆an m谩s probabilidades de faltar a la cita. Independientemente de que el resultado fuera exacto o no, 鈥渓a respuesta 茅tica es preguntarse a qu茅 se debe y si hay algo que se pueda hacer鈥, dijo Wachter.

Dejando a un lado las exageraciones, es probable que estos riesgos sigan acaparando la atenci贸n con el paso del tiempo. Expertos en IA y responsables de la FDA han insistido en la necesidad de algoritmos transparentes, supervisados a largo plazo por seres humanos: reguladores e investigadores externos. Los productos de IA se adaptan y cambian a medida que se incorporan nuevos datos. Y los cient铆ficos desarrollar谩n nuevos productos.

Los formuladores de leyes tendr谩n que invertir en nuevos sistemas para hacer un seguimiento de la IA a lo largo del tiempo, asegur贸 la rectora de la Universidad de Chicago, Katherine Baicker, que testific贸 en la audiencia del Comit茅 de Finanzas. 鈥淓l mayor avance es aquel en el que a煤n no hemos pensado鈥, dijo en una entrevista.

Exit mobile version