Javascript is not enabled.

Javascript must be enabled to use this site. Please enable Javascript in your browser and try again.

Skip to content
Content starts here
CLOSE ×
Buscar
Leaving AARP.org Website

You are now leaving AARP.org and going to a website that is not operated by AARP. A different privacy policy and terms of service will apply.

La inteligencia artificial podría ser tu próximo terapeuta si te sientes solo, deprimido o ansioso

Los expertos opinan que la inteligencia artificial puede cumplir una función de apoyo para resolver los problemas de salud mental del país.


spinner image Un hombre se acuesta en un sofá hablando con un robot terapeuta
Getty Images

Cuando te despiertas abrumado en mitad de la noche por la pérdida reciente de un ser querido, tu nuevo psicólogo podría ser un chatbot de inteligencia artificial (IA).

Estos chatbots ofrecen consejos y sugieren técnicas para mejorar el estado de ánimo. Y es casi como si estuvieras intercambiando mensajes de texto con un terapeuta humano.

spinner image Image Alt Attribute

¡ÚLTIMA OPORTUNIDAD! - Únete a AARP a precios del 2024; las tarifas aumentan en el 2025.

Obtén acceso inmediato a productos exclusivos para socios y cientos de descuentos, una segunda membresía gratis y una suscripción a AARP The Magazine.
Únete a AARP

Desahogarte con una aplicación empática que usa inteligencia artificial o un bot de mensajes de texto no es lo mismo que recostarte en un sofá y sincerarte con un psicoterapeuta humano. Ni siquiera se asemeja a llamar a una línea para situaciones de crisis. Pero con las protecciones adecuadas, algunos profesionales de salud mental ven a la IA como una forma de apoyo, al menos para ciertas personas y en determinadas situaciones.

“No creo que [la IA] vaya a reemplazar jamás la terapia o el papel que puede desempeñar un terapeuta”, dice C. Vaile Wright, directora sénior de la Oficina de Innovación en el Cuidado de la Salud de la Asociación Americana de Psicología (APA) en Washington D.C. “Pero pienso que puede satisfacer una necesidad… recordándole a una persona que se siente sola, triste o estresada que aplique técnicas para sobrellevar la situación”.

La inteligencia artificial podría ayudar con la escasez de terapeutas

spinner image Un robot usando inteligencia artificial para dar terapia
Getty Images

En el 2021, casi uno de cada cinco adultos buscó ayuda para un problema de salud mental en Estados Unidos, pero más de la cuarta parte de ellos sintieron que no obtuvieron la ayuda que necesitaban, según una encuesta federal anual realizada por la Administración de Servicios de Abuso de Sustancias y Salud Mental (SAMHSA). Aproximadamente el 15% de los adultos de 50 años o más procuraron esos servicios, y uno de cada siete de estos opinó que no recibió la ayuda que necesitaba.

Globalmente, la Organización Mundial de la Salud (OMS) estimó en el 2019 que alrededor del 14.6% de todos los adultos de 20 años o más tenían algún trastorno de salud mental, una proporción prácticamente equivalente a la observada en los adultos de entre 50 y 69 años. Aproximadamente el 13% de los adultos de 70 años o más tenían problemas de salud mental.

La pandemia generó un aumento de los trastornos de depresión y ansiedad; según la OMS, esos trastornos aumentaron más del 25% en todo el mundo. La mayoría de las personas a quienes les han diagnosticado un trastorno de salud mental, incluso antes de que aumentara la necesidad en el 2020, nunca reciben tratamiento. Otras, en cuyos países se ofrecen pocos servicios o donde hay un estigma asociado con el uso de servicios de salud mental, deciden no obtener tratamiento.

Una encuesta de 3,400 adultos de Estados Unidos realizada en marzo por CVS Health y The Harris Poll en Chicago reveló que el 95% de las personas de 65 años o más opinan que la sociedad debería tomar la salud mental y las enfermedades mentales con más seriedad, dice Taft Parsons III, director psiquiátrico de CVS Health con sede en Woonsocket, Rhode Island. Pero la desaparición del estigma que los adultos mayores de este país a menudo perciben con referencia a la obtención de tratamiento solo causaría un aumento de la necesidad de terapeutas.

“La inteligencia artificial puede aprovecharse para ayudar a los pacientes a superar situaciones estresantes o respaldar la tarea de los médicos de atención primaria en el tratamiento de enfermedades leves, lo cual podría aliviar en algo la presión del sistema de cuidado de la salud”, dice.

ChatGPT no va a reemplazar a Freud... por ahora

Trabajar con un terapeuta digital no significa necesariamente contarles todo a las innovadoras inteligencias artificiales que dominan los titulares noticiosos. Bard, de Google, el nuevo Microsoft Bing y, en particular, ChatGPT de Open AI, cuyo lanzamiento el otoño pasado generó un tsunami de interés en todo lo que tenga que ver con la inteligencia artificial, son lo que se llaman “IA generativas”.

Han sido entrenadas con inmensas cantidades de datos generados por humanos y pueden crear nuevo material basándose en la información que se les ha ingresado, pero no cuentan necesariamente con respaldo clínico. Mientras que ChatGPT y otras herramientas similares pueden ayudar a planificar la boda de tu hijo, escribir cartas de queja o generar código informático, usar sus datos para crear tu psiquiatra o psicoterapeuta personal tal vez no sea uno de sus puntos fuertes, al menos por ahora.

“El problema con esta área es que está completamente desregulada. No hay ningún cuerpo que la supervise y garantice que estos productos de inteligencia artificial sean seguros o eficaces”.

— C. Vaile Wright, Asociación Americana de Psicología (APA)

Nicholas C. Jacobson, profesor adjunto de Ciencias de Datos Biomédicos y Psiquiatría en Dartmouth, en Lebanon, Nuevo Hampshire, ha estado explorando los bots de inteligencia artificial generativa, así como aquellos que utilizan un guion predefinido (basados en reglas), por aproximadamente tres años y medio. Él ve beneficios y peligros potenciales en ambos.

"Esencialmente, lo que hemos encontrado con los trabajos creados a partir de guiones predefinidos es que son algo torpes”, dice. Por otro lado, “es mucho más improbable que se equivoquen. ...Y pueden permitir el acceso a intervenciones que muchas personas no podrían obtener de otra manera, particularmente en un plazo de tiempo breve”.

Jacobson dice que está “muy entusiasmado y muy asustado” por lo que las personas quieren hacer con la inteligencia artificial generativa, especialmente con los bots que probablemente se introduzcan pronto en el mercado. Esa misma opinión se vio reflejada el martes, cuando más de 350 ejecutivos, investigadores e ingenieros que trabajan en IA publicaron una declaración del Center for AI Safety, una organización sin fines de lucro, en la que advierten sobre los riesgos (en inglés) de la tecnología.

Los bots de IA generativa pueden brindar consejos útiles a alguien que necesita ayuda inmediata. Pero como estos bots pueden confundirse fácilmente, también pueden ofrecer información engañosa, sesgada y peligrosa, o consejos que parecen creíbles, pero son erróneos. Eso podría empeorar los problemas de salud mental en personas vulnerables.

Se requiere ‘supervisión rigurosa’

“La única manera en que esta área debería avanzar —y me temo que probablemente no avance de esta manera— es con cautela”, dice Jacobson.

La indicación de la Organización Mundial de la Salud es la “supervisión rigurosa” de las tecnologías de salud basadas en inteligencia artificial, según una declaración que la agencia de las Naciones Unidas emitió a mediados de mayo.

spinner image Red AARP membership card displayed at an angle

¡ÚLTIMA OPORTUNIDAD! - Únete a AARP a precios del 2024; las tarifas aumentan en el 2025.

Obtén acceso instantáneo a productos y a cientos de descuentos exclusivos para socios, una segunda membresía gratis y una suscripción a la revista AARP The Magazine.

“Si bien la OMS es partidaria entusiasta del uso adecuado de tecnologías —incluidos los grandes modelos lingüísticos [LLM], en apoyo del personal de salud, los pacientes, la investigación y la ciencia—, ha manifestado su inquietud por si las precauciones que normalmente se tienen ante toda nueva tecnología, no se aplican sistemáticamente con los grandes modelos lingüísticos”.

Cómo encontrar ayuda humana

Si tú o un ser querido están considerando hacerse daño, acude al centro de crisis u hospital más cercano o llama al 911. 

La Línea de Prevención de Suicidios y Crisis (988) (en inglés), anteriormente llamada Línea Nacional de Prevención del Suicidio, es la línea gratuita del Gobierno federal, disponible las 24 horas del día, todos los días. La Crisis Text Line (línea de mensajes de texto para situaciones de crisis - en inglés-) es una iniciativa sin fines de lucro que también dispone de consejeros a toda hora. Ambos recursos cuentan con voluntarios entrenados en todo el país y son confidenciales; puedes contactarlos de la manera que te resulte más conveniente: 

  • Llama o envía un mensaje de texto al 988. El servicio telefónico del 988 cuenta con intérpretes en más de 240 idiomas.
  • Llama gratuitamente al 800-273-TALK (8255) para acceder a los mismos servicios del número 988. 
  • Las personas con problemas auditivos que utilizan un teléfono TTY deben llamar al 711 y luego al 988
  • Envía un texto con la palabra HOME (o AYUDA en español) al 741741, la línea de mensajes de texto para situaciones de crisis.  
  • En WhatsApp, envía un mensaje a 443-SUP-PORT
  • ·Visita crisistextline.org (en inglés) en tu computadora portátil, selecciona el botón Chat With Us (chatea con nosotros) y permanece en el sitio web. 

Los cientos de profesionales firmantes de la declaración de esta semana, que trabajan con tecnología de IA, dicen que la cautela debería ser una prioridad mundial. Wright, de la Asociación Americana de Psicología, expresa preocupaciones similares:

“El problema con esta área es que está completamente desregulada”, dice. “No hay ningún cuerpo que la supervise y garantice que estos productos de inteligencia artificial sean seguros o eficaces”.

Verifica la fuente del consejo

Antes de recurrir a un bot de IA para terapia, investiga las credenciales y calificaciones de los humanos que lo crearon.

  • ¿Son terapeutas licenciados?
  • ¿Son, ante todo, terapeutas?
  • ¿Cuál la estrategia clínica? ¿Está basada en resultados documentados?
  •  ¿Toda la información se mantiene en forma confidencial?

Presta atención a los descargos de responsabilidad. Cuando un usuario informó recientemente a ChatGPT que se sentía abatido, la respuesta fue: “Lamento escuchar que estás triste. Haré todo lo posible por ayudarte. Recuerda que soy un modelo de lenguaje de inteligencia artificial, por lo que puedo ofrecer algunas sugerencias y apoyo, pero es importante que hables con amigos, familiares o profesionales para pedir ayuda cuando sea necesario”.

Debes reconocer, además, que no todas las inteligencias artificiales son iguales. La inteligencia artificial generativa y los enfoques basados en guiones que simulan intercambios entre personas son diferentes.

“En medio de algunos ejemplos extremos de IA generativas que se comportan mal, es fácil desestimar la utilidad de todas las tecnologías similares en el cuidado de la salud mental”, escribió en un blog Alison Darcy, una psicóloga clínica educada en Stanford que es también presidenta y fundadora de Woebot Health, con sede en San Francisco. “Se necesita un entendimiento con más matices para evitar la erosión de la confianza del público en una oportunidad que es fundamental para la salud pública”. El “agente de conversación” de su compañía, basado en IA con respuestas programadas y llamado Woebot, utiliza métodos de tratamiento psicológico con terapia cognitivo-conductual para interactuar con los clientes.

Un recurso valioso que los consumidores pueden consultar antes de evaluar un chatbot de IA es la organización sin fines de lucro One Mind PsyberGuide (en inglés), la cual publica evaluaciones en línea de aplicaciones de salud mental y recursos digitales con base en su credibilidad, la experiencia de los usuarios y la privacidad de la información. El director ejecutivo de la organización es Stephen Schueller, profesor de Psicología en la Universidad de California en Irvine.

¿La terapia con IA da resultados?

La eficacia de la terapia con IA podría depender de la disposición de un paciente a buscar su ayuda. Algunas personas necesitan una conexión humana y tienen objeciones emocionales que les dificultan trabajar con un terapeuta de IA, dice Jeff Hancock, director fundador del Laboratorio de Redes Sociales de Stanford y profesor de Comunicaciones en esa universidad de California.

“Eso sería como tratar de consultar a un terapeuta [humano] en quien no confías”, explica. “¿Sabes qué sucederá? No dará resultado”. Pero Hancock también es consciente de que hay personas que no solo se sienten bien con la inteligencia artificial, sino que han indicado que no se abrirían frente a un ser humano.

“Hay potencial aquí para ayudar realmente a algunas personas que no quieren reunirse con un ser humano y hablar [de sus problemas]”, dice Hancock. Es posible que esas personas se sientan incómodas o intimidadas por un terapeuta humano.

“No hay ninguna garantía de que no recibirás mal asesoramiento de un terapeuta humano”, dice. Pero los buenos profesionales por lo general están supervisados, orientados y certificados, toman notas cuidadosas y “son responsables de las cosas que dicen y hacen”.

Member Benefit
Entretenimiento

Paramount+

10% de descuento en cualquier plan de Paramount+

See more Entretenimiento offers >

Los bots de inteligencia artificial podrían reducir el costo de la atención para las personas que están en aprietos financieros, dice Jacobson, de Dartmouth. “El estándar en el que pienso... es este: en general, ¿será mejor que no recibir ninguna atención?”.

Tu nivel de comodidad es importante

spinner image Un hombre acostado en un sofá para terapia
Getty Images

Incluso las personas que están dispuestas a usar un terapeuta de IA se sentirán algo extrañas al principio, dice Jo Aggarwal, fundadora y directora ejecutiva de Wysa, con sede en Boston. La empresa produce lo que llama un “consejero de IA”.

“Al principio, a las personas les resulta muy extraño hablarle a una inteligencia artificial”, dice. “La sensación es: ‘¡Oh! ¿No tengo familia? ¿No tengo amigos? ¿Por qué estoy hablando con una inteligencia artificial?’. Después de una sesión, eso mejora”.  

Más de 6 millones de personas en 95 países usan Wysa, que tiene una versión gratuita y una versión prémium. Por un cargo, la aplicación conecta a los usuarios con un consejero humano.

A nivel intelectual, la mayoría de las personas comprenden que no están hablando con un ser humano. Pero igualmente puede crearse un vínculo.

“El hecho de poder interactuar con el bot en cualquier momento que se desea… creo que es importante y [un factor] absolutamente positivo”, dice Hancock. Un bot de IA no te juzgará ni perderá la paciencia contigo, como podría suceder con una persona.

Los bots pueden construir un puente hacia los seres humanos.

De todos modos, Hancock señala los riesgos. Cuando concluye una conversación con un chatbot, la persona puede continuar sintiéndose sola porque no hubo participación de otro ser humano.

“Lo que realmente importa es de qué manera estos sistemas pueden ayudarnos a conectarnos con las personas realmente importantes en nuestra vida”, dice.

Muchos de los usuarios que reflexionan y exploran recuerdos con el chatbot Pi, lanzado a principios de mayo, quieren alguien que sepa escuchar, dice Mustafa Suleyman, director ejecutivo de Inflection AI, la compañía emergente con sede en Palo Alto, California, creadora de Pi. Por el momento, los usuarios de Pi tienden a ser mayores. Suleyman ve a su bot como un compañero amable que brinda apoyo, no como un terapeuta profesional, aunque algún día podría llegar a serlo.

“Hay potencial aquí para ayudar realmente a algunas personas que no quieren reunirse con un ser humano y hablar [de sus problemas]”.

— Jeff Hancock, Laboratorio de Redes Sociales de Stanford

“Algunas personas se han referido al bot como una experiencia de terapia, pero solo en el sentido de que una buena terapia consiste en hacer buenas preguntas, escuchar y aportar buenas reflexiones”, dice. Suleyman también es cofundador de DeepMind, una empresa de IA que Google compró en el 2014, y colaboró en el desarrollo de Google Bard, el bot de IA generativa.

Pi puede detectar tu estado de ánimo, tu tono y tu energía, dice Suleyman. Y si Pi y algunos otros chatbots no tienen noticias tuyas en un par de días, es probable que te busquen en forma proactiva a través de un mensaje de texto, simplemente para saber cómo estás.

Si sacas un tema triste y delicado, como la muerte de tu perro o la enfermedad grave de un amigo, Pi está diseñado para aminorar el paso y expresar solidaridad y comprensión. Si Pi detecta algo realmente preocupante, como la posibilidad de hacerte daño o de lesionar a otros, te instruirá para que busques ayuda profesional, dice Suleyman. Debido a las medidas de privacidad, Pi no sabe quién eres y no puede enviar ayuda directamente.

La aplicación Pi, gratuita hasta el momento, está disponible para iOS y se encuentra en desarrollo para Android. Los usuarios también pueden hablar con Pi a través de una computadora de escritorio y de WhatsApp y, en un futuro, tal vez puedan hacerlo con un altavoz inteligente.

¿En qué momento podría intervenir un ser humano cuando un bot de inteligencia artificial determina que alguien está en un momento de crisis?

“Depende del consentimiento del usuario”, dice Michiel Rauws, fundador y director ejecutivo de Cass, con sede en San Francisco. Su chatbot basado en reglas, diseñado para brindar autoayuda de salud mental, es un beneficio gratuito para empleados o miembros cuando una organización contrata los servicios de su empresa. “Les decimos que hay un consejero de crisis disponible en forma inmediata. ‘¿Deseas hablar con esa persona?’”. Si la respuesta es sí, Rauws dice que el tiempo promedio de respuesta es de aproximadamente 10 segundos.

Los terapeutas humanos también se pueden beneficiar de la inteligencia artificial, dice Hancock, de Stanford. Con la autorización del paciente, un bot de IA puede recolectar y resumir información entre sesiones para ayudar al terapeuta a crear un programa de tratamiento y probar ideas.

“No debemos decir ‘vamos a obligar a las personas a usar la IA y eso va a solucionar la crisis de salud mental que vemos en los adultos mayores que lidian con sentimientos de soledad y en adultos jóvenes que enfrentan ansiedad y depresión intensas’”, dice Hancock. Pero “eso no significa que esto equivale a decir, ‘no, la IA nunca va a dar resultados aquí’".

Este artículo, publicado originalmente el 1.o de junio del 2023, ha sido actualizado con una gráfica de los resultados de una encuesta reciente de AARP.