麻豆女优

Dr. Google conoce a Dr. ChatGPT: la inteligencia artificial empieza a impactar en la salud

Como residente de cuarto a帽o de oftalmolog铆a en la Facultad de Medicina de la Universidad Emory, Riley Lyons es responsable del triaje (la clasificaci贸n r谩pida de pacientes en base a la atenci贸n que necesitan). Cuando llega alguien con un dolor en los ojos, Lyons debe evaluar inmediatamente la urgencia.

Y a menudo se encuentra con que los pacientes ya han 鈥渧isitado鈥 al 鈥渄octor Google鈥. En Internet, dijo Lyons, es probable que vean que 鈥減odr铆an tener muchas cosas terribles en base a sus s铆ntomas鈥.

Por eso, cuando dos colegas oftalm贸logos en Emory se acercaron a Lyons y le propusieron evaluar la precisi贸n del chatbot de inteligencia artificial (IA) ChatGPT para diagnosticar dolencias relacionadas con la vista, no dej贸 escapar la oportunidad.

En junio, Lyons y sus colegas publicaron en medRxiv, un editor en l铆nea de documentos de preimpresi贸n sobre ciencias de la salud, que ChatGPT que revisaban los mismos s铆ntomas, y su rendimiento era mucho mejor que el del comprobador de s铆ntomas del popular sitio web de salud WebMD.

Y, a pesar del conocido problema de 鈥渁lucinaci贸n鈥 que aqueja a ChatGPT 鈥攕u h谩bito de realizar ocasionalmente afirmaciones totalmente falsas鈥, el estudio de Emory se帽alaba que la versi贸n m谩s reciente de ChatGPT no realizaba ninguna afirmaci贸n 鈥渆xtremadamente inexacta鈥 cuando se le present贸 un conjunto est谩ndar de quejas oculares.

La relativa eficacia de ChatGPT, que debut贸 en noviembre de 2022, fue una sorpresa para Lyons y los otros coautores. El motor de inteligencia artificial 鈥渆s sin duda una mejora con respecto a poner algo en la barra de b煤squeda de Google y ver qu茅 se encuentra鈥, afirm贸 el coautor Nieraj Jain, profesor del Centro Oftalmol贸gico Emory especializado en cirug铆a y enfermedades de la retina.

Pero los resultados ponen de relieve un reto al que se enfrenta el sector de salud a la hora de evaluar las promesas y los peligros de la IA generativa, el tipo de inteligencia artificial que utiliza ChatGPT: la precisi贸n de la informaci贸n m茅dica proporcionada por un chatbot puede suponer una mejora con respecto a Google, pero a煤n quedan muchos interrogantes. Especialmente c贸mo integrar en los sistemas de salud esta nueva tecnolog铆a con las mismas normas de seguridad que se aplican para los nuevos f谩rmacos o dispositivos m茅dicos.

La sintaxis fluida, el tono de autoridad y la destreza de la IA generativa han atra铆do a todos los sectores de la sociedad, y algunos comparan su impacto futuro con el de la propia Internet. En salud, las empresas trabajan febrilmente para implantar la IA generativa en 谩mbitos como la radiolog铆a y los historiales m茅dicos.

Sin embargo, en lo que respecta a los chatbots para consumidores, sigue habiendo cautela, a pesar de que la tecnolog铆a ya est谩 ampliamente disponible, y es mejor que muchas alternativas.

Muchos m茅dicos creen que las herramientas m茅dicas basadas en IA deber铆an someterse a un proceso de aprobaci贸n similar al de la Administraci贸n de Drogas y Alimentos (FDA) para los f谩rmacos, pero para eso a煤n faltan a帽os. No est谩 claro c贸mo se aplicar铆a ese r茅gimen a la IA de uso general como ChatGPT.

鈥淣o hay duda de que tenemos problemas de acceso a la atenci贸n de salud, y ya sea una buena idea o no desplegar ChatGPT para cubrir los agujeros o llenar las lagunas en el acceso, va a suceder y ya est谩 sucediendo鈥, dijo Jain. 鈥淟as personas ya han descubierto su utilidad. As铆 que tenemos que entender las posibles ventajas y los inconvenientes鈥.

El estudio de Emory no es el 煤nico que ratifica la relativa precisi贸n de la nueva generaci贸n de chatbots de IA. Un a principios de julio por un grupo dirigido por inform谩ticos de Google afirmaba que las respuestas generadas por Med-PaLM, un chatbot de IA que la empresa construy贸 espec铆ficamente para uso m茅dico, 鈥渟e comparan favorablemente con las respuestas de los m茅dicos鈥.

La IA tambi茅n puede tener mejores modales. Otro estudio, publicado en abril por investigadores de la Universidad de California-San Diego (UCSD) y otras instituciones, se帽alaba incluso que los profesionales de salud calificaban las respuestas de ChatGPT como que las de los m茅dicos humanos.

De hecho, varias empresas se plantean c贸mo podr铆an utilizarse los chatbots para terapias de salud mental, y algunos inversores apuestan por que las personas sanas tambi茅n podr铆an disfrutar chateando e incluso estrechando lazos con un 鈥渁migo鈥 de IA. La empresa detr谩s de Replika, una de las m谩s avanzadas de este g茅nero, comercializa su chatbot como 鈥淓l compa帽ero de IA que se preocupa. Siempre aqu铆 para escuchar y hablar. Siempre a tu lado鈥.

鈥淣ecesitamos que los m茅dicos empiecen a darse cuenta de que estas nuevas herramientas han llegado para quedarse y ofrecen nuevas capacidades tanto a m茅dicos como a pacientes鈥, afirm贸 James Benoit, consultor en IA. Cuando era becario posdoctoral de enfermer铆a en la Universidad de Alberta, en Canad谩, public贸 un estudio en febrero en el que informaba que ChatGPT a los comprobadores de s铆ntomas en l铆nea al evaluar un conjunto de escenarios m茅dicos. 鈥淪on lo bastante precisos como para empezar a merecer cierta consideraci贸n鈥, a帽adi贸.

Aun as铆, incluso los investigadores que han demostrado la relativa fiabilidad de ChatGPT se muestran cautos a la hora de recomendar a los pacientes que conf铆en plenamente en el estado actual de la IA. Para muchos profesionales de la medicina, los chatbots de IA pueden traer problemas. Citan una serie de cuestiones relacionadas con la privacidad, la seguridad, la parcialidad, la responsabilidad, la transparencia y la ausencia actual de regulaciones.

La propuesta de que se deber铆a adoptar la IA porque representa una mejora marginal con respecto al doctor Google es poco convincente, seg煤n estos cr铆ticos.

鈥淩esulta un poco decepcionante que ese sea el nivel, 驴no es cierto?鈥, se帽al贸 Mason Marks, profesor y doctor especializado en derecho de salud de la Universidad Estatal de Florida. Recientemente sobre chatbots de IA y privacidad en el Journal of the American Medical Association. 鈥淣o s茅 hasta qu茅 punto es 煤til decir: 鈥楤ueno, pongamos esta IA conversacional como un remiendo para compensar estos problemas sist茅micos m谩s profundos'鈥, declar贸 a 麻豆女优 Health News.

El mayor peligro, en su opini贸n, es la probabilidad de que los incentivos del mercado den lugar a interfases de IA dise帽adas para dirigir a los pacientes hacia determinados medicamentos o servicios m茅dicos. 鈥淟as empresas podr铆an querer imponer un producto concreto sobre otro鈥, sugiri贸 Marks. 鈥淓l potencial de explotaci贸n de las personas y la comercializaci贸n de los datos no tendr铆a precedentes鈥.

OpenAI, la empresa que desarroll贸 ChatGPT, tambi茅n pidi贸 cautela.

鈥淟os modelos de OpenAI no est谩n afinados para proporcionar informaci贸n m茅dica鈥, dijo un vocero de la compa帽铆a. 鈥淣unca se deber铆an utilizar nuestros modelos para proporcionar servicios de diagn贸stico o tratamiento de afecciones m茅dicas graves鈥.

John Ayers, epidemi贸logo computacional que fue el autor principal del estudio de la UCSD, dijo que, al igual que con otras intervenciones m茅dicas, la atenci贸n debe centrarse en los resultados para los pacientes.

鈥淪i los reguladores dijeran que si quieres proporcionar servicios a los pacientes utilizando un chatbot, tienes que demostrar que los chatbots mejoran los resultados de los pacientes, entonces los ensayos controlados aleatorios se registrar铆an ma帽ana para obtener una gran cantidad de resultados鈥, explic贸 Ayers a quien le gustar铆a ver una actitud de urgencia por parte de los reguladores.

鈥淐ien millones de personas tienen ChatGPT en su tel茅fono鈥, a帽adi贸 Ayers, 鈥測 est谩n haciendo preguntas ahora mismo. La gente va a usar chatbots con o sin nosotros鈥.

Por ahora, no parece que se vaya a someter a la IA a pruebas rigurosas de seguridad y eficacia. , Robert Califf, comisionado de la FDA, describi贸 鈥渓a regulaci贸n de los grandes modelos ling眉铆sticos como cr铆tico para nuestro futuro鈥, pero m谩s all谩 de recomendar que los reguladores fueran 鈥溍iles鈥 en su enfoque, ofreci贸 pocos detalles.

Mientras tanto, la carrera contin煤a.

En julio, The Wall Street Journal inform贸 que la Cl铆nica Mayo para integrar el chatbot Med-PaLM 2 en su sistema. En junio, que se asociaba con una startup de Pasadena, California, HIA Technologies Inc, para ofrecer 鈥渁sistentes de salud digitales鈥 interactivos. Y la actual integraci贸n de la IA tanto en Bing de Microsoft como en Google Search sugiere que el doctor Google ya va camino de ser sustituido por el doctor Chatbot.

Esta historia fue producida por聽麻豆女优 Health News, que publica聽, un servicio editorialmente independiente de la聽.

Exit mobile version