Andrew Leonard, Author at Â鶹ŮÓÅ Health News Thu, 28 Sep 2023 00:40:58 +0000 en-US hourly 1 https://wordpress.org/?v=6.8.5 /wp-content/uploads/sites/2/2023/04/kffhealthnews-icon.png?w=32 Andrew Leonard, Author at Â鶹ŮÓÅ Health News 32 32 161476233 Dr. Google conoce a Dr. ChatGPT: la inteligencia artificial empieza a impactar en la salud /news/article/dr-google-conoce-a-dr-chatgpt-la-inteligencia-artificial-empieza-a-impactar-en-la-salud/ Thu, 14 Sep 2023 07:05:00 +0000 /?post_type=article&p=1753433 Como residente de cuarto año de oftalmología en la Facultad de Medicina de la Universidad Emory, Riley Lyons es responsable del triaje (la clasificación rápida de pacientes en base a la atención que necesitan). Cuando llega alguien con un dolor en los ojos, Lyons debe evaluar inmediatamente la urgencia.

Y a menudo se encuentra con que los pacientes ya han “visitado” al “doctor Google”. En Internet, dijo Lyons, es probable que vean que “podrían tener muchas cosas terribles en base a sus síntomas”.

Por eso, cuando dos colegas oftalmólogos en Emory se acercaron a Lyons y le propusieron evaluar la precisión del chatbot de inteligencia artificial (IA) ChatGPT para diagnosticar dolencias relacionadas con la vista, no dejó escapar la oportunidad.

En junio, Lyons y sus colegas publicaron en medRxiv, un editor en línea de documentos de preimpresión sobre ciencias de la salud, que ChatGPT que revisaban los mismos síntomas, y su rendimiento era mucho mejor que el del comprobador de síntomas del popular sitio web de salud WebMD.

Y, a pesar del conocido problema de “alucinación” que aqueja a ChatGPT —su hábito de realizar ocasionalmente afirmaciones totalmente falsas—, el estudio de Emory señalaba que la versión más reciente de ChatGPT no realizaba ninguna afirmación “extremadamente inexacta” cuando se le presentó un conjunto estándar de quejas oculares.

La relativa eficacia de ChatGPT, que debutó en noviembre de 2022, fue una sorpresa para Lyons y los otros coautores. El motor de inteligencia artificial “es sin duda una mejora con respecto a poner algo en la barra de búsqueda de Google y ver qué se encuentra”, afirmó el coautor Nieraj Jain, profesor del Centro Oftalmológico Emory especializado en cirugía y enfermedades de la retina.

Pero los resultados ponen de relieve un reto al que se enfrenta el sector de salud a la hora de evaluar las promesas y los peligros de la IA generativa, el tipo de inteligencia artificial que utiliza ChatGPT: la precisión de la información médica proporcionada por un chatbot puede suponer una mejora con respecto a Google, pero aún quedan muchos interrogantes. Especialmente cómo integrar en los sistemas de salud esta nueva tecnología con las mismas normas de seguridad que se aplican para los nuevos fármacos o dispositivos médicos.

La sintaxis fluida, el tono de autoridad y la destreza de la IA generativa han atraído a todos los sectores de la sociedad, y algunos comparan su impacto futuro con el de la propia Internet. En salud, las empresas trabajan febrilmente para implantar la IA generativa en ámbitos como la radiología y los historiales médicos.

Sin embargo, en lo que respecta a los chatbots para consumidores, sigue habiendo cautela, a pesar de que la tecnología ya está ampliamente disponible, y es mejor que muchas alternativas.

Muchos médicos creen que las herramientas médicas basadas en IA deberían someterse a un proceso de aprobación similar al de la Administración de Drogas y Alimentos (FDA) para los fármacos, pero para eso aún faltan años. No está claro cómo se aplicaría ese régimen a la IA de uso general como ChatGPT.

“No hay duda de que tenemos problemas de acceso a la atención de salud, y ya sea una buena idea o no desplegar ChatGPT para cubrir los agujeros o llenar las lagunas en el acceso, va a suceder y ya está sucediendo”, dijo Jain. “Las personas ya han descubierto su utilidad. Así que tenemos que entender las posibles ventajas y los inconvenientes”.

El estudio de Emory no es el único que ratifica la relativa precisión de la nueva generación de chatbots de IA. Un a principios de julio por un grupo dirigido por informáticos de Google afirmaba que las respuestas generadas por Med-PaLM, un chatbot de IA que la empresa construyó específicamente para uso médico, “se comparan favorablemente con las respuestas de los médicos”.

La IA también puede tener mejores modales. Otro estudio, publicado en abril por investigadores de la Universidad de California-San Diego (UCSD) y otras instituciones, señalaba incluso que los profesionales de salud calificaban las respuestas de ChatGPT como que las de los médicos humanos.

De hecho, varias empresas se plantean cómo podrían utilizarse los chatbots para terapias de salud mental, y algunos inversores apuestan por que las personas sanas también podrían disfrutar chateando e incluso estrechando lazos con un “amigo” de IA. La empresa detrás de Replika, una de las más avanzadas de este género, comercializa su chatbot como “El compañero de IA que se preocupa. Siempre aquí para escuchar y hablar. Siempre a tu lado”.

“Necesitamos que los médicos empiecen a darse cuenta de que estas nuevas herramientas han llegado para quedarse y ofrecen nuevas capacidades tanto a médicos como a pacientes”, afirmó James Benoit, consultor en IA. Cuando era becario posdoctoral de enfermería en la Universidad de Alberta, en Canadá, publicó un estudio en febrero en el que informaba que ChatGPT a los comprobadores de síntomas en línea al evaluar un conjunto de escenarios médicos. “Son lo bastante precisos como para empezar a merecer cierta consideración”, añadió.

Aun así, incluso los investigadores que han demostrado la relativa fiabilidad de ChatGPT se muestran cautos a la hora de recomendar a los pacientes que confíen plenamente en el estado actual de la IA. Para muchos profesionales de la medicina, los chatbots de IA pueden traer problemas. Citan una serie de cuestiones relacionadas con la privacidad, la seguridad, la parcialidad, la responsabilidad, la transparencia y la ausencia actual de regulaciones.

La propuesta de que se debería adoptar la IA porque representa una mejora marginal con respecto al doctor Google es poco convincente, según estos críticos.

“Resulta un poco decepcionante que ese sea el nivel, ¿no es cierto?”, señaló Mason Marks, profesor y doctor especializado en derecho de salud de la Universidad Estatal de Florida. Recientemente sobre chatbots de IA y privacidad en el Journal of the American Medical Association. “No sé hasta qué punto es útil decir: ‘Bueno, pongamos esta IA conversacional como un remiendo para compensar estos problemas sistémicos más profundos'”, declaró a Â鶹ŮÓÅ Health News.

El mayor peligro, en su opinión, es la probabilidad de que los incentivos del mercado den lugar a interfases de IA diseñadas para dirigir a los pacientes hacia determinados medicamentos o servicios médicos. “Las empresas podrían querer imponer un producto concreto sobre otro”, sugirió Marks. “El potencial de explotación de las personas y la comercialización de los datos no tendría precedentes”.

OpenAI, la empresa que desarrolló ChatGPT, también pidió cautela.

“Los modelos de OpenAI no están afinados para proporcionar información médica”, dijo un vocero de la compañía. “Nunca se deberían utilizar nuestros modelos para proporcionar servicios de diagnóstico o tratamiento de afecciones médicas graves”.

John Ayers, epidemiólogo computacional que fue el autor principal del estudio de la UCSD, dijo que, al igual que con otras intervenciones médicas, la atención debe centrarse en los resultados para los pacientes.

“Si los reguladores dijeran que si quieres proporcionar servicios a los pacientes utilizando un chatbot, tienes que demostrar que los chatbots mejoran los resultados de los pacientes, entonces los ensayos controlados aleatorios se registrarían mañana para obtener una gran cantidad de resultados”, explicó Ayers a quien le gustaría ver una actitud de urgencia por parte de los reguladores.

“Cien millones de personas tienen ChatGPT en su teléfono”, añadió Ayers, “y están haciendo preguntas ahora mismo. La gente va a usar chatbots con o sin nosotros”.

Por ahora, no parece que se vaya a someter a la IA a pruebas rigurosas de seguridad y eficacia. , Robert Califf, comisionado de la FDA, describió “la regulación de los grandes modelos lingüísticos como crítico para nuestro futuro”, pero más allá de recomendar que los reguladores fueran “ágiles” en su enfoque, ofreció pocos detalles.

Mientras tanto, la carrera continúa.

En julio, The Wall Street Journal informó que la Clínica Mayo para integrar el chatbot Med-PaLM 2 en su sistema. En junio, que se asociaba con una startup de Pasadena, California, HIA Technologies Inc, para ofrecer “asistentes de salud digitales” interactivos. Y la actual integración de la IA tanto en Bing de Microsoft como en Google Search sugiere que el doctor Google ya va camino de ser sustituido por el doctor Chatbot.

Esta historia fue producida porÌýÂ鶹ŮÓÅ Health News, que publicaÌý, un servicio editorialmente independiente de laÌý.

Â鶹ŮÓÅ Health News is a national newsroom that produces in-depth journalism about health issues and is one of the core operating programs at Â鶹ŮÓÅ—an independent source of health policy research, polling, and journalism. Learn more about .

USE OUR CONTENT

This story can be republished for free (details).

]]>
1753433
‘Dr. Google’ Meets Its Match: Dr. ChatGPT /news/article/chatgpt-chatbot-google-webmd-symptom-checker/ Tue, 12 Sep 2023 09:00:00 +0000 /?p=1743784&post_type=article&preview_id=1743784 As a fourth-year ophthalmology resident at Emory University School of Medicine, Riley Lyons’ biggest responsibilities include triage: When a patient comes in with an eye-related complaint, Lyons must make an immediate assessment of its urgency.

He often finds patients have already turned to “Dr. Google.” Online, Lyons said, they are likely to find that “any number of terrible things could be going on based on the symptoms that they’re experiencing.”

So, when two of Lyons’ fellow ophthalmologists at Emory came to him and suggested evaluating the accuracy of the AI chatbot ChatGPT in diagnosing eye-related complaints, he jumped at the chance.

In June, Lyons and his colleagues reported in medRxiv, an online publisher of health science preprints, that ChatGPT to human doctors who reviewed the same symptoms — and performed vastly better than the symptom checker on the popular health website WebMD. And despite the much-publicized “hallucination” problem known to afflict ChatGPT — its habit of occasionally making outright false statements — the Emory study reported that the most recent version of ChatGPT made zero “grossly inaccurate” statements when presented with a standard set of eye complaints.

The relative proficiency of ChatGPT, which debuted in November 2022, was a surprise to Lyons and his co-authors. The artificial intelligence engine “is definitely an improvement over just putting something into a Google search bar and seeing what you find,” said co-author Nieraj Jain, an assistant professor at the Emory Eye Center who specializes in vitreoretinal surgery and disease.

But the findings underscore a challenge facing the health care industry as it assesses the promise and pitfalls of generative AI, the type of artificial intelligence used by ChatGPT: The accuracy of chatbot-delivered medical information may represent an improvement over Dr. Google, but there are still many questions about how to integrate this new technology into health care systems with the same safeguards historically applied to the introduction of new drugs or medical devices.

The smooth syntax, authoritative tone, and dexterity of generative AI have drawn extraordinary attention from all sectors of society, with some comparing its future impact to that of the internet itself. In health care, companies are working feverishly to implement generative AI in areas such as radiology and medical records.

When it comes to consumer chatbots, though, there is still caution, even though the technology is already widely available — and better than many alternatives. Many doctors believe AI-based medical tools should undergo an approval process similar to the FDA’s regime for drugs, but that would be years away. It’s unclear how such a regime might apply to general-purpose AIs like ChatGPT.

“There’s no question we have issues with access to care, and whether or not it is a good idea to deploy ChatGPT to cover the holes or fill the gaps in access, it’s going to happen and it’s happening already,” said Jain. “People have already discovered its utility. So, we need to understand the potential advantages and the pitfalls.”

The Emory study is not alone in ratifying the relative accuracy of the new generation of AI chatbots. A in early July by a group led by Google computer scientists said answers generated by Med-PaLM, an AI chatbot the company built specifically for medical use, “compare favorably with answers given by clinicians.”

AI may also have better bedside manner. Another study, published in April by researchers from the University of California-San Diego and other institutions, even noted that health care professionals rated ChatGPT answers as than responses from human doctors.

Indeed, a number of companies are exploring how chatbots could be used for mental health therapy, and some investors in the companies are betting that healthy people might also enjoy chatting and even bonding with an AI “friend.” The company behind Replika, one of the most advanced of that genre, markets its chatbot as, “The AI companion who cares. Always here to listen and talk. Always on your side.”

“We need physicians to start realizing that these new tools are here to stay and they’re offering new capabilities both to physicians and patients,” said James Benoit, an AI consultant. While a postdoctoral fellow in nursing at the University of Alberta in Canada, he published a study in February reporting that ChatGPT online symptom checkers in evaluating a set of medical scenarios. “They are accurate enough at this point to start meriting some consideration,” he said.

Still, even the researchers who have demonstrated ChatGPT’s relative reliability are cautious about recommending that patients put their full trust in the current state of AI. For many medical professionals, AI chatbots are an invitation to trouble: They cite a host of issues relating to privacy, safety, bias, liability, transparency, and the current absence of regulatory oversight.

The proposition that AI should be embraced because it represents a marginal improvement over Dr. Google is unconvincing, these critics say.

“That’s a little bit of a disappointing bar to set, isn’t it?” said Mason Marks, a professor and MD who specializes in health law at Florida State University. He recently wrote an on AI chatbots and privacy in the Journal of the American Medical Association. “I don’t know how helpful it is to say, ‘Well, let’s just throw this conversational AI on as a band-aid to make up for these deeper systemic issues,’” he said to Â鶹ŮÓÅ Health News.

The biggest danger, in his view, is the likelihood that market incentives will result in AI interfaces designed to steer patients to particular drugs or medical services. “Companies might want to push a particular product over another,” said Marks. “The potential for exploitation of people and the commercialization of data is unprecedented.”

OpenAI, the company that developed ChatGPT, also urged caution.

“OpenAI’s models are not fine-tuned to provide medical information,” a company spokesperson said. “You should never use our models to provide diagnostic or treatment services for serious medical conditions.”

John Ayers, a computational epidemiologist who was the lead author of the UCSD study, said that as with other medical interventions, the focus should be on patient outcomes.

“If regulators came out and said that if you want to provide patient services using a chatbot, you have to demonstrate that chatbots improve patient outcomes, then randomized controlled trials would be registered tomorrow for a host of outcomes,” Ayers said.

He would like to see a more urgent stance from regulators.

“One hundred million people have ChatGPT on their phone,” said Ayers, “and are asking questions right now. People are going to use chatbots with or without us.”

At present, though, there are few signs that rigorous testing of AIs for safety and effectiveness is imminent. , Robert Califf, the commissioner of the FDA, described “the regulation of large language models as critical to our future,” but aside from recommending that regulators be “nimble” in their approach, he offered few details.

In the meantime, the race is on. In July, The Wall Street Journal reported that the Mayo Clinic was to integrate the Med-PaLM 2 chatbot into its system. In June, it was partnering with a Pasadena, California-based startup, HIA Technologies Inc., to provide interactive “digital health assistants.” And the ongoing integration of AI into both Microsoft’s Bing and Google Search suggests that Dr. Google is already well on its way to being replaced by Dr. Chatbot.

This article was produced by Â鶹ŮÓÅ Health News, which publishes , an editorially independent service of the .Ìý

Â鶹ŮÓÅ Health News is a national newsroom that produces in-depth journalism about health issues and is one of the core operating programs at Â鶹ŮÓÅ—an independent source of health policy research, polling, and journalism. Learn more about .

USE OUR CONTENT

This story can be republished for free (details).

]]>
1743784