麻豆女优

Tu nuevo terapeuta: conversador, indiscreto鈥 y dif铆cilmente humano

A hand drawn illustration of a young person holding their cell phone to their chest surrounded by robotic AI therapists, which are trying to get her to take a seat on a recliner couch. Text on their screens says, "TRUST ME!" "YOU'RE SO RIGHT!" "You can trust me!" and "Exactly."

Vince Lahey, de Carefree, Arizona, utiliza con entusiasmo los chatbots. Desde los productos de grandes empresas tecnol贸gicas hasta los m谩s 鈥渟ospechosos鈥, le ofrecen 鈥渁lguien con quien puedo compartir m谩s secretos que con mi terapeuta鈥.

Le gustan especialmente las aplicaciones para recibir comentarios y apoyo, aunque a veces lo rega帽an o hacen que se pelee con su ex esposa. 鈥淢e dan ganas de compartir m谩s鈥, dijo Lahey. 鈥淣o me importa la percepci贸n que tengan de m铆鈥.

Hay muchas personas como Lahey.

La demanda de atenci贸n de salud mental ha aumentado. Los d铆as de mala salud mental reportados por las personas subieron 25% desde la d茅cada de 1990, que analiz贸 datos de encuestas. De acuerdo con los Centros para el Control y la Prevenci贸n de Enfermedades (CDC), las tasas de suicidio en 2022 , algo que no se ve铆a en casi 80 a帽os.

Muchos pacientes consideran muy atractivo un terapeuta no humano impulsado por inteligencia artificial, incluso m谩s atractivo que una persona en un sill贸n reclinable y con actitud severa. abundan de personas que piden un terapeuta que 鈥渘o est茅 contando el tiempo鈥, que juzgue menos o que simplemente sea m谩s barato.

La mayor铆a de las personas que necesitan atenci贸n no la reciben, dijo Tom Insel, ex director del Instituto Nacional de Salud Mental (NIMH), citando investigaciones de esa agencia. De los que s铆 reciben atenci贸n, el 40% obtiene una atenci贸n 鈥渕铆nimamente aceptable鈥.

鈥淗ay una enorme necesidad de terapia de alta calidad鈥, dijo. 鈥淰ivimos en un mundo en el que la situaci贸n actual es realmente p茅sima, usando un t茅rmino cient铆fico鈥.

Insel dijo que ingenieros de OpenAI le comentaron, el oto帽o pasado, que entre 5% y 10% de la base de usuarios de la empresa, que entonces era de aproximadamente 800 millones, depende de ChatGPT para apoyo en salud mental.

Las encuestas sugieren que estos chatbots de IA pueden ser a煤n m谩s populares entre los adultos j贸venes. Una encuesta de 麻豆女优 encontr贸 que 3 de cada 10 personas de 18 a 29 a帽os para pedir consejos sobre salud mental o emocional en el 煤ltimo a帽o. Los adultos sin seguro m茅dico ten铆an aproximadamente el doble de probabilidad que quienes s铆 ten铆an seguro de reportar uso de herramientas de IA. Y casi un 60% de los adultos que usaron un chatbot para salud mental no consultaron despu茅s a un profesional humano.

La aplicaci贸n te llevar谩 al div谩n

Una creciente industria de aplicaciones ofrece terapeutas de IA con avatares parecidos a humanos, a menudo poco realistas y muy atractivos, que sirven como espacio de desahogo para personas con ansiedad, depresi贸n y otras condiciones.

麻豆女优 Health News identific贸 unas 45 aplicaciones de terapia con IA en la App Store de Apple en marzo. Aunque muchas cobran precios altos por sus servicios 鈥攗na ofrec铆a un plan anual de $690鈥, por lo general siguen siendo m谩s baratas que la terapia conversacional, que puede costar cientos de d贸lares por hora sin cobertura.

En la App Store, 鈥渢herapy鈥 suele usarse como t茅rmino de mercadeo, con letras peque帽as que aclaran que las aplicaciones no pueden diagnosticar ni tratar enfermedades. Una aplicaci贸n llamada OhSofia! AI Therapy Chat ten铆a cientos de miles de descargas, dijo en diciembre Anton Ilin, fundador de OhSofia!

鈥淟a gente busca terapia鈥, afirm贸 Ilin. Por un lado, el nombre del producto ; por otro, su advierte que 鈥渘o ofrece consejo m茅dico, diagn贸stico, tratamiento ni intervenci贸n en crisis y no sustituye servicios profesionales de salud鈥. Los ejecutivos no creen que eso cause confusi贸n, ya que la aplicaci贸n incluye advertencias.

Las aplicaciones prometen grandes resultados sin ning煤n tipo de respaldo. 鈥渁yuda inmediata durante ataques de p谩nico鈥. que fue 鈥減robada como efectiva por investigadores鈥 y que ofrece alivio 2,3 veces m谩s r谩pido para ansiedad y estr茅s. (No dice comparado con qu茅).

Existen pocas barreras legislativas o regulatorias sobre c贸mo los desarrolladores describen sus productos, o incluso sobre si son seguros o eficaces, dijo Vaile Wright, directora de la oficina de innovaci贸n en atenci贸n m茅dica de la Asociaci贸n americana de Psicolog铆a (APA). Ni siquiera se aplican las protecciones federales de privacidad del paciente, se帽al贸.

鈥淟a terapia no es un t茅rmino legalmente protegido鈥, dijo Wright. 鈥淎s铆 que, b谩sicamente, cualquiera puede decir que ofrece terapia鈥.

Muchas de las aplicaciones 鈥渟e presentan como m谩s de lo que son鈥, dijo John Torous, psiquiatra e inform谩tico cl铆nico del Centro M茅dico Beth Israel Deaconess. 鈥淓nga帽ar a las personas haci茅ndoles creer que recibieron tratamiento cuando en realidad no lo recibieron tiene muchas consecuencias negativas鈥, entre ellas retrasar la atenci贸n real, agreg贸.

Estados como Nevada, Illinois y California intentan ordenar el caos regulatorio y aprobaron leyes que proh铆ben a las aplicaciones describir a sus chatbots como terapeutas de IA.

鈥淓s una profesi贸n. Los profesionales estudian. Obtienen una licencia para ejercer鈥, afirm贸 Jovan Jackson, legislador de Nevada y coautor de una ley que proh铆be a las aplicaciones presentarse como profesionales de salud mental.

Detr谩s de la publicidad, investigadores externos y representantes de las propias empresas han declarado ante la Administraci贸n de Alimentos y Medicamentos (FDA) y el Congreso que existe poca evidencia que respalde la eficacia de estos productos. Los estudios disponibles ofrecen , y algunas que los chatbots enfocados en acompa帽amiento son 鈥渃onsistentemente malos鈥 para manejar crisis.

鈥淐uando se trata de chatbots, no tenemos buena evidencia de que funcionen鈥, dijo Charlotte Blease, profesora de la Universidad de Uppsala, en Suecia, especializada en dise帽o de ensayos para productos digitales de salud.

La falta de ensayos cl铆nicos de 鈥渂uena calidad鈥 se debe a que la FDA no ha dado recomendaciones sobre c贸mo probar estos productos, se帽al贸. 鈥淟a FDA no ofrece orientaci贸n rigurosa sobre cu谩les deber铆an ser los est谩ndares鈥.

Emily Hilliard, vocera del Departamento de Salud y Servicios Humanos, respondi贸 que 鈥渓a seguridad del paciente es la m谩xima prioridad de la FDA鈥 y que los productos basados en IA est谩n sujetos a regulaciones que exigen demostrar una 鈥済arant铆a razonable de seguridad y eficacia antes de que puedan comercializarse en Estados Unidos鈥

Aplicaciones persuasivas

Preston Roche, m茅dico residente en psiquiatr铆a y , recibe muchas preguntas sobre si la IA es una buena terapeuta. Tras probar ChatGPT, dijo que al principio qued贸 鈥渋mpresionado鈥 porque pod铆a usar t茅cnicas de para ayudarlo a poner pensamientos negativos 鈥渁 prueba鈥.

Pero Roche dijo que despu茅s de ver publicaciones sobre personas que desarrollaron psicosis o fueron alentadas a tomar decisiones da帽inas, se desilusion贸. Concluy贸 que los bots son complacientes.

鈥淐uando miro de forma global las responsabilidades de un terapeuta, simplemente fracas贸 por completo鈥, dijo.

Esa complacencia 鈥攍a tendencia de aplicaciones basadas en grandes modelos de lenguaje a empatizar, halagar o reforzar ideas err贸neas de la persona usuaria鈥 est谩 incorporada en el dise帽o de estas aplicaciones, 蝉别驳煤苍 expertos en salud digital.

鈥淟os modelos fueron desarrollados para responder una pregunta o instrucci贸n que le haces y darte lo que buscas鈥, dijo Insel, exdirector del NIMH, 鈥測 son muy buenos b谩sicamente para confirmar lo que sientes y brindar apoyo psicol贸gico, como un buen amigo鈥.

Pero eso no es lo que hace un buen terapeuta. 鈥淓l objetivo de la psicoterapia es, sobre todo, hacer que enfrentes las cosas que has estado evitando鈥, se帽al贸.

Aunque las encuestas sugieren que muchos usuarios est谩n satisfechos con lo que obtienen de ChatGPT y otras aplicaciones, ha habido sobre el servicio o aliento para autolesionarse.

Y de o se han presentado contra OpenAI despu茅s de que usuarios de ChatGPT murieran por suicidio o fueran hospitalizados. En la mayor铆a de esos casos, los demandantes alegan que comenzaron usando las aplicaciones con otro fin 鈥攃omo tareas escolares鈥 antes de confiarles asuntos personales. Estos casos se est谩n consolidando en

Google y la startup Character.ai 鈥攆inanciada por Google y creadora de 鈥渁vatares鈥 con personalidades espec铆ficas, como atletas, celebridades, compa帽eros de estudio o terapeutas鈥 est谩n resolviendo otras demandas por muerte injusta,

El director ejecutivo de OpenAI, Sam Altman, ha dicho que hasta podr铆an hablar sobre suicidio en ChatGPT.

鈥淗emos visto un problema en el que personas en situaciones psiqui谩tricas fr谩giles que usan un modelo como 4o pueden terminar peor鈥, dijo Altman en una sesi贸n p煤blica de preguntas y respuestas reportada por , refiri茅ndose a un modelo espec铆fico de ChatGPT presentado en 2024. 鈥淣o creo que esta sea la 煤ltima vez que enfrentemos desaf铆os como este con un modelo鈥.

Un vocero de OpenAI no respondi贸 a solicitudes de comentarios.

La empresa ha dicho que en medidas de protecci贸n, como referir a usuarios al 988, la l铆nea nacional de prevenci贸n del suicidio. Sin embargo, las demandas contra OpenAI sostienen que las medidas actuales no son suficientes, y algunas investigaciones muestran que . OpenAI sugiriendo lo contrario.

OpenAI y, en una etapa inicial de un caso, present贸 varias defensas que van desde negar que su producto caus贸 autolesiones hasta alegar que el demandado us贸 mal el producto al inducirlo a hablar sobre suicidio. Tambi茅n ha dicho que trabaja para .

Aplicaciones m谩s peque帽as tambi茅n dependen de OpenAI u otros modelos de IA para impulsar sus productos, dijeron ejecutivos a 麻豆女优 Health News. En entrevistas, fundadores de startups y otros expertos dijeron que les preocupa que si una empresa simplemente incorpora esos modelos en su propio servicio, pueda duplicar fallas de seguridad ya presentes en el producto original.

Riesgos de datos

La revisi贸n de 麻豆女优 Health News de la App Store encontr贸 que las protecciones por edad son m铆nimas: 15 de las casi cuatro docenas de aplicaciones dicen que pueden ser descargadas por usuarios de 4 a帽os; otras 11 dicen que pueden ser descargadas por personas de 12 a帽os en adelante.

Los est谩ndares de privacidad son opacos. En la App Store, varias aplicaciones se describen como productos que no rastrean datos personales identificables ni los comparten con anunciantes. Pero en sus sitios web, las pol铆ticas de privacidad conten铆an descripciones contrarias, hablando del uso de esos datos y de compartir informaci贸n con anunciantes como AdMob.

En respuesta a una solicitud de comentarios, Adam Dema, vocero de Apple, a las pol铆ticas de la App Store, que proh铆ben usar datos de salud para publicidad y exigen mostrar informaci贸n general sobre el uso de datos. Dema no respondi贸 una nueva solicitud sobre c贸mo Apple hace cumplir esas pol铆ticas.

Investigadores y defensores de pol铆ticas p煤blicas dijeron que compartir datos psiqui谩tricos con empresas de redes sociales significa que los pacientes podr铆an ser perfilados. Podr铆an ser blanco de empresas de tratamiento de dudosa fiabilidad o recibir precios diferentes por productos 蝉别驳煤苍 su salud.

麻豆女优 Health News contact贸 a varios desarrolladores sobre estas discrepancias; dos de los que respondieron dijeron que sus pol铆ticas de privacidad hab铆an sido redactadas por error y prometieron cambiarlas para reflejar su postura contra la publicidad. (Un tercero, el equipo de OhSofia!, dijo simplemente que no hace publicidad, aunque la de su aplicaci贸n se帽ala que los usuarios 鈥減ueden optar por no recibir comunicaciones de mercadeo鈥).

Un ejecutivo dijo a 麻豆女优 Health News que existe presi贸n comercial para mantener acceso a los datos.

鈥淢i sensaci贸n general es que un modelo por suscripci贸n es mucho, mucho mejor que cualquier tipo de publicidad鈥, dijo Tim Rubin, fundador de Wellness AI, y agreg贸 que cambiar铆a la descripci贸n en la pol铆tica de privacidad de su aplicaci贸n.

Seg煤n Rubin, un inversionista le aconsej贸 no renunciar a la publicidad. 鈥淏谩sicamente, eso es lo m谩s valioso de tener una aplicaci贸n como esta: esos datos鈥.

鈥淐reo que todav铆a estamos al comienzo de lo que ser谩 una revoluci贸n en la forma en que las personas buscan apoyo psicol贸gico e incluso, en algunos casos, terapia鈥, dijo Insel. 鈥淵 mi preocupaci贸n es que simplemente no existe ning煤n marco para nada de esto鈥.

Si t煤 o alguien que conoces pudiera estar experimentando una crisis de salud mental, comun铆cate con la L铆nea de Vida para la Prevenci贸n del Suicidio y Crisis (988 Suicide & Crisis Lifeline) llamando o enviando un mensaje de texto al 988.

Exit mobile version