Tu nuevo terapeuta: conversador, indiscreto… y difícilmente humano

Press Release

Vince Lahey, de Carefree, Arizona, utiliza con entusiasmo los chatbots. Desde los productos de grandes empresas tecnológicas hasta los más “sospechosos”, le ofrecen “alguien con quien puedo compartir más secretos que con mi terapeuta”.

Le gustan especialmente las aplicaciones para recibir comentarios y apoyo, aunque a veces lo regañan o hacen que se pelee con su ex esposa. “Me dan ganas de compartir más”, dijo Lahey. “No me importa la percepción que tengan de mí”.

Hay muchas personas como Lahey.

La demanda de atención de salud mental ha aumentado. Los días de mala salud mental reportados por las personas subieron 25% desde la década de 1990, según un estudio que analizó datos de encuestas. De acuerdo con los Centros para el Control y la Prevención de Enfermedades (CDC), las tasas de suicidio en 2022 igualaron el máximo registrado en 2018, algo que no se veía en casi 80 años.

Muchos pacientes consideran muy atractivo un terapeuta no humano impulsado por inteligencia artificial, incluso más atractivo que una persona en un sillón reclinable y con actitud severa. En redes sociales abundan videos de personas que piden un terapeuta que “no esté contando el tiempo”, que juzgue menos o que simplemente sea más barato.

La mayoría de las personas que necesitan atención no la reciben, dijo Tom Insel, ex director del Instituto Nacional de Salud Mental (NIMH), citando investigaciones de esa agencia. De los que sí reciben atención, el 40% obtiene una atención “mínimamente aceptable”.

“Hay una enorme necesidad de terapia de alta calidad”, dijo. “Vivimos en un mundo en el que la situación actual es realmente pésima, usando un término científico”.

Insel dijo que ingenieros de OpenAI le comentaron, el otoño pasado, que entre 5% y 10% de la base de usuarios de la empresa, que entonces era de aproximadamente 800 millones, depende de ChatGPT para apoyo en salud mental.

Las encuestas sugieren que estos chatbots de IA pueden ser aún más populares entre los adultos jóvenes. Una encuesta de KFF encontró que 3 de cada 10 personas de 18 a 29 años recurrieron a chatbots de IA para pedir consejos sobre salud mental o emocional en el último año. Los adultos sin seguro médico tenían aproximadamente el doble de probabilidad que quienes sí tenían seguro de reportar uso de herramientas de IA. Y casi un 60% de los adultos que usaron un chatbot para salud mental no consultaron después a un profesional humano.

La aplicación te llevará al diván

Una creciente industria de aplicaciones ofrece terapeutas de IA con avatares parecidos a humanos, a menudo poco realistas y muy atractivos, que sirven como espacio de desahogo para personas con ansiedad, depresión y otras condiciones.

KFF Health News identificó unas 45 aplicaciones de terapia con IA en la App Store de Apple en marzo. Aunque muchas cobran precios altos por sus servicios —una ofrecía un plan anual de $690—, por lo general siguen siendo más baratas que la terapia conversacional, que puede costar cientos de dólares por hora sin cobertura.

En la App Store, “therapy” suele usarse como término de mercadeo, con letras pequeñas que aclaran que las aplicaciones no pueden diagnosticar ni tratar enfermedades. Una aplicación llamada OhSofia! AI Therapy Chat tenía cientos de miles de descargas, dijo en diciembre Anton Ilin, fundador de OhSofia!

See also  Clinicians should play bigger role in care transitions: Report

“La gente busca terapia”, afirmó Ilin. Por un lado, el nombre del producto promete “therapy chat”; por otro, su política de privacidad advierte que “no ofrece consejo médico, diagnóstico, tratamiento ni intervención en crisis y no sustituye servicios profesionales de salud”. Los ejecutivos no creen que eso cause confusión, ya que la aplicación incluye advertencias.

Las aplicaciones prometen grandes resultados sin ningún tipo de respaldo. Una promete a sus usuarios “ayuda inmediata durante ataques de pánico”. Otra afirma que fue “probada como efectiva por investigadores” y que ofrece alivio 2,3 veces más rápido para ansiedad y estrés. (No dice comparado con qué).

Existen pocas barreras legislativas o regulatorias sobre cómo los desarrolladores describen sus productos, o incluso sobre si son seguros o eficaces, dijo Vaile Wright, directora de la oficina de innovación en atención médica de la Asociación americana de Psicología (APA). Ni siquiera se aplican las protecciones federales de privacidad del paciente, señaló.

“La terapia no es un término legalmente protegido”, dijo Wright. “Así que, básicamente, cualquiera puede decir que ofrece terapia”.

Muchas de las aplicaciones “se presentan como más de lo que son”, dijo John Torous, psiquiatra e informático clínico del Centro Médico Beth Israel Deaconess. “Engañar a las personas haciéndoles creer que recibieron tratamiento cuando en realidad no lo recibieron tiene muchas consecuencias negativas”, entre ellas retrasar la atención real, agregó.

Estados como Nevada, Illinois y California intentan ordenar el caos regulatorio y aprobaron leyes que prohíben a las aplicaciones describir a sus chatbots como terapeutas de IA.

“Es una profesión. Los profesionales estudian. Obtienen una licencia para ejercer”, afirmó Jovan Jackson, legislador de Nevada y coautor de una ley que prohíbe a las aplicaciones presentarse como profesionales de salud mental.

Detrás de la publicidad, investigadores externos y representantes de las propias empresas han declarado ante la Administración de Alimentos y Medicamentos (FDA) y el Congreso que existe poca evidencia que respalde la eficacia de estos productos. Los estudios disponibles ofrecen respuestas contradictorias, y algunas investigaciones sugieren que los chatbots enfocados en acompañamiento son “consistentemente malos” para manejar crisis.

“Cuando se trata de chatbots, no tenemos buena evidencia de que funcionen”, dijo Charlotte Blease, profesora de la Universidad de Uppsala, en Suecia, especializada en diseño de ensayos para productos digitales de salud.

La falta de ensayos clínicos de “buena calidad” se debe a que la FDA no ha dado recomendaciones sobre cómo probar estos productos, señaló. “La FDA no ofrece orientación rigurosa sobre cuáles deberían ser los estándares”.

Emily Hilliard, vocera del Departamento de Salud y Servicios Humanos, respondió que “la seguridad del paciente es la máxima prioridad de la FDA” y que los productos basados en IA están sujetos a regulaciones que exigen demostrar una “garantía razonable de seguridad y eficacia antes de que puedan comercializarse en Estados Unidos”

Aplicaciones persuasivas

Preston Roche, médico residente en psiquiatría y activo en redes sociales, recibe muchas preguntas sobre si la IA es una buena terapeuta. Tras probar ChatGPT, dijo que al principio quedó “impresionado” porque podía usar técnicas de terapia cognitivo-conductual para ayudarlo a poner pensamientos negativos “a prueba”.

Pero Roche dijo que después de ver publicaciones sobre personas que desarrollaron psicosis o fueron alentadas a tomar decisiones dañinas, se desilusionó. Concluyó que los bots son complacientes.

See also  Florida surgeon charged with manslaughter after removing wrong organ

“Cuando miro de forma global las responsabilidades de un terapeuta, simplemente fracasó por completo”, dijo.

Esa complacencia —la tendencia de aplicaciones basadas en grandes modelos de lenguaje a empatizar, halagar o reforzar ideas erróneas de la persona usuaria— está incorporada en el diseño de estas aplicaciones, según expertos en salud digital.

“Los modelos fueron desarrollados para responder una pregunta o instrucción que le haces y darte lo que buscas”, dijo Insel, exdirector del NIMH, “y son muy buenos básicamente para confirmar lo que sientes y brindar apoyo psicológico, como un buen amigo”.

Pero eso no es lo que hace un buen terapeuta. “El objetivo de la psicoterapia es, sobre todo, hacer que enfrentes las cosas que has estado evitando”, señaló.

Aunque las encuestas sugieren que muchos usuarios están satisfechos con lo que obtienen de ChatGPT y otras aplicaciones, ha habido reportes muy conocidos sobre el servicio dando consejos o aliento para autolesionarse.

Y al menos una docena de demandas alegando muerte injusta o daño grave se han presentado contra OpenAI después de que usuarios de ChatGPT murieran por suicidio o fueran hospitalizados. En la mayoría de esos casos, los demandantes alegan que comenzaron usando las aplicaciones con otro fin —como tareas escolares— antes de confiarles asuntos personales. Estos casos se están consolidando en una demanda colectiva.

Google y la startup Character.ai —financiada por Google y creadora de “avatares” con personalidades específicas, como atletas, celebridades, compañeros de estudio o terapeutas— están resolviendo otras demandas por muerte injusta, según reportes de prensa.

El director ejecutivo de OpenAI, Sam Altman, ha dicho que hasta 1.500 personas por semana podrían hablar sobre suicidio en ChatGPT.

“Hemos visto un problema en el que personas en situaciones psiquiátricas frágiles que usan un modelo como 4o pueden terminar peor”, dijo Altman en una sesión pública de preguntas y respuestas reportada por The Wall Street Journal, refiriéndose a un modelo específico de ChatGPT presentado en 2024. “No creo que esta sea la última vez que enfrentemos desafíos como este con un modelo”.

Un vocero de OpenAI no respondió a solicitudes de comentarios.

La empresa ha dicho que trabaja con expertos en salud mental en medidas de protección, como referir a usuarios al 988, la línea nacional de prevención del suicidio. Sin embargo, las demandas contra OpenAI sostienen que las medidas actuales no son suficientes, y algunas investigaciones muestran que los problemas empeoran con el tiempo. OpenAI ha publicado sus propios datos sugiriendo lo contrario.

OpenAI se defiende en tribunales y, en una etapa inicial de un caso, presentó varias defensas que van desde negar que su producto causó autolesiones hasta alegar que el demandado usó mal el producto al inducirlo a hablar sobre suicidio. También ha dicho que trabaja para mejorar sus funciones de seguridad.

Aplicaciones más pequeñas también dependen de OpenAI u otros modelos de IA para impulsar sus productos, dijeron ejecutivos a KFF Health News. En entrevistas, fundadores de startups y otros expertos dijeron que les preocupa que si una empresa simplemente incorpora esos modelos en su propio servicio, pueda duplicar fallas de seguridad ya presentes en el producto original.

Riesgos de datos

La revisión de KFF Health News de la App Store encontró que las protecciones por edad son mínimas: 15 de las casi cuatro docenas de aplicaciones dicen que pueden ser descargadas por usuarios de 4 años; otras 11 dicen que pueden ser descargadas por personas de 12 años en adelante.

See also  States Update Guardianship Laws To Keep Children of Immigrants Out of Foster Care

Los estándares de privacidad son opacos. En la App Store, varias aplicaciones se describen como productos que no rastrean datos personales identificables ni los comparten con anunciantes. Pero en sus sitios web, las políticas de privacidad contenían descripciones contrarias, hablando del uso de esos datos y de compartir información con anunciantes como AdMob.

En respuesta a una solicitud de comentarios, Adam Dema, vocero de Apple, envió enlaces a las políticas de la App Store, que prohíben usar datos de salud para publicidad y exigen mostrar información general sobre el uso de datos. Dema no respondió una nueva solicitud sobre cómo Apple hace cumplir esas políticas.

Investigadores y defensores de políticas públicas dijeron que compartir datos psiquiátricos con empresas de redes sociales significa que los pacientes podrían ser perfilados. Podrían ser blanco de empresas de tratamiento de dudosa fiabilidad o recibir precios diferentes por productos según su salud.

KFF Health News contactó a varios desarrolladores sobre estas discrepancias; dos de los que respondieron dijeron que sus políticas de privacidad habían sido redactadas por error y prometieron cambiarlas para reflejar su postura contra la publicidad. (Un tercero, el equipo de OhSofia!, dijo simplemente que no hace publicidad, aunque la política de privacidad de su aplicación señala que los usuarios “pueden optar por no recibir comunicaciones de mercadeo”).

Un ejecutivo dijo a KFF Health News que existe presión comercial para mantener acceso a los datos.

“Mi sensación general es que un modelo por suscripción es mucho, mucho mejor que cualquier tipo de publicidad”, dijo Tim Rubin, fundador de Wellness AI, y agregó que cambiaría la descripción en la política de privacidad de su aplicación.

Según Rubin, un inversionista le aconsejó no renunciar a la publicidad. “Básicamente, eso es lo más valioso de tener una aplicación como esta: esos datos”.

“Creo que todavía estamos al comienzo de lo que será una revolución en la forma en que las personas buscan apoyo psicológico e incluso, en algunos casos, terapia”, dijo Insel. “Y mi preocupación es que simplemente no existe ningún marco para nada de esto”.

Si tú o alguien que conoces pudiera estar experimentando una crisis de salud mental, comunícate con la Línea de Vida para la Prevención del Suicidio y Crisis (988 Suicide & Crisis Lifeline) llamando o enviando un mensaje de texto al 988.

KFF Health News is a national newsroom that produces in-depth journalism about health issues and is one of the core operating programs at KFF—an independent source of health policy research, polling, and journalism. Learn more about KFF.

USE OUR CONTENT

This story can be republished for free (details).

Source: Read Original Article

Leave a Reply

Your email address will not be published. Required fields are marked *