Desafío a la Confianza: ¿Cómo la IA Secreta en Terapia Está Transformando la Salud Mental Digital?
Publicado el 3 de septiembre de 2025
La inteligencia artificial generativa, especialmente herramientas como ChatGPT, ha irrumpido en casi todos los sectores profesionales, y la psicoterapia no es una excepción. Pero, ¿qué sucede cuando los terapeutas recurren a la IA para ayudar a sus pacientes sin su conocimiento, y cómo afecta esto a la ética, la privacidad y, lo más importante, la confianza en el delicado ámbito de la salud mental?
La Revelación Inesperada: Cuando la IA Entra al Consultorio (Sin Aviso)
La era de la inteligencia artificial generativa ha desatado una ola de innovación y eficiencia sin precedentes, permeando desde el desarrollo de software hasta la creación de contenido. Sin embargo, su incursión en campos tan íntimos y delicados como la salud mental ha comenzado a generar un debate ético profundo y, en ocasiones, doloroso. La historia de Declan, un paciente de Los Ángeles, ilustra de manera contundente los dilemas que surgen cuando la IA en terapia se utiliza de forma encubierta.
Durante una sesión de terapia en línea, un fallo técnico inesperado reveló a Declan que su terapeuta estaba usando ChatGPT en tiempo real. Lo que comenzó como un intento de mejorar la comunicación se transformó en una perturbadora revelación: las palabras de Declan eran procesadas por una IA, y las respuestas del terapeuta eran resúmenes o selecciones de las sugerencias del modelo. La sesión se volvió una especie de danza surrealista, donde Declan, consciente de la intervención de la IA, comenzó a anticipar las «recomendaciones» de ChatGPT en sus propias respuestas, creando un escenario digno de ciencia ficción que, en la práctica, era profundamente deshumanizador.
Este incidente, aunque anecdótico, destapa una problemática creciente: la adopción silenciosa de herramientas de IA por parte de algunos profesionales de la salud mental. Si bien la promesa de eficiencia es tentadora, su uso sin el consentimiento informado del paciente pone en riesgo la privacidad de datos sensibles y socava la base misma de la relación terapéutica: la confianza.
Señales Digitales y la Erosión de la Confianza Paciente-Terapeuta
El caso de Declan no es un incidente aislado. Otros pacientes han comenzado a notar «huellas» digitales en las comunicaciones de sus terapeutas. Desde correos electrónicos con un tono inusualmente pulido o el uso de giros lingüísticos atípicos, hasta, en casos más flagrantes, la preservación accidental de los *prompts* de la IA. Estas pequeñas inconsistencias actúan como «delatores» de la IA, transformando un mensaje de apoyo en una fuente de desconfianza y decepción.
Una de estas revelaciones ocurrió cuando Hope, de 25 años, recibió un mensaje de su terapeuta tras la muerte de su perro. El mensaje, aunque reconfortante en contenido, incluía la frase: «Aquí tienes una versión más humana y sentida con un tono suave y conversacional». La inclusión de este *prompt* de IA fue un golpe devastador. «Me sentí traicionada», afirmó Hope, cuya terapia, irónicamente, se centraba en abordar sus problemas de confianza. Estos episodios demuestran cómo la mera sospecha de que un mensaje fue generado por IA puede corroer rápidamente la buena voluntad y la autenticidad percibida, elementos cruciales para una relación terapéutica efectiva.
El Dilema de la Autenticidad: ¿Puede la IA Mejorar la Terapia?
Paradójicamente, algunos estudios sugieren que la IA podría, bajo ciertas condiciones, mejorar la comunicación terapéutica. Un estudio de 2025 publicado en *PLOS Mental Health* encontró que un panel de 830 participantes no podía distinguir entre respuestas humanas y de IA a viñetas de problemas de pacientes. Más aún, las respuestas de IA fueron calificadas como más conformes a las mejores prácticas terapéuticas. Sin embargo, la clave reside en la percepción: cuando los participantes sospechaban que una respuesta era de IA, la calificaban más bajo. Esto subraya que el valor de la autenticidad y la conexión humana en la psicoterapia es insustituible. Como señala Adrian Aguilera, psicólogo clínico de la Universidad de California, Berkeley, «la gente valora la autenticidad, particularmente en psicoterapia. Usar IA puede sentirse como ‘no te tomas mi relación en serio'».
Incidentes como el experimento clandestino de Koko en 2023, donde mezclaron respuestas de GPT-3 con las humanas, y las posteriores afirmaciones sobre el uso de IA por parte de terapeutas en BetterHelp, han generado indignación generalizada. Estos casos evidencian que, sin transparencia, cualquier beneficio potencial de la IA se ve eclipsado por la sensación de engaño y la violación de la confianza fundamental.
La Frontera Difusa de la Privacidad: Datos Sensibles en Manos de la IA Generalista
Más allá de la cuestión de la transparencia y la autenticidad, el uso de LLMs generales como ChatGPT plantea serias preocupaciones sobre la privacidad de datos del paciente. A diferencia de las herramientas especializadas, los chatbots de IA de propósito general no suelen estar aprobados por entidades reguladoras ni cumplen con normativas estrictas como HIPAA (la Ley de Portabilidad y Responsabilidad del Seguro Médico de EE. UU.), que protege la información sanitaria sensible. Pardis Emami-Naeini, profesora asistente de informática en la Universidad de Duke, advierte sobre los «riesgos significativos para la privacidad del paciente si cualquier información sobre el paciente es divulgada o puede inferirse por la IA».
La creencia errónea de que ChatGPT es compatible con HIPAA es peligrosa. Incluso la eliminación de identificadores obvios como nombres y direcciones no garantiza la anonimización completa, ya que «la información sensible a menudo puede inferirse de detalles aparentemente no sensibles». Esto significa que los terapeutas, al introducir fragmentos de conversaciones o correos electrónicos en una IA, podrían estar exponiendo inadvertidamente datos altamente personales de sus pacientes a terceros desconocidos, con consecuencias impredecibles. El ciberataque de 2020 a una empresa de salud mental finlandesa, que resultó en la filtración y chantaje con decenas de miles de registros de pacientes, sirve como un sombrío recordatorio de los peligros inherentes a la gestión de datos sensibles en entornos digitales.
Ante este panorama, la industria tecnológica ha respondido con el desarrollo de herramientas de IA especializadas para terapeutas, como Heidi Health o Upheal, que prometen cumplimiento de HIPAA y almacenamiento seguro de datos mediante cifrado y seudonimización. Sin embargo, la cautela persiste, especialmente en lo que respecta a servicios que requieren la grabación completa de sesiones, ya que «siempre existe algún riesgo de fuga de información o usos secundarios de los datos», como apunta Emami-Naeini.
Más Allá de la Eficiencia: Lo que los Terapeutas Podrían Perder (y Causar)
Más allá de la violación de la privacidad, el uso indiscriminado de LLMs por parte de los psicoterapeutas conlleva otros riesgos inherentes a la naturaleza de la IA. Estudios han demostrado que, aunque algunos bots de terapia especializados pueden rivalizar con las intervenciones humanas, el consejo de herramientas como ChatGPT puede ser más perjudicial que beneficioso. Un estudio de Stanford, por ejemplo, reveló que los chatbots pueden alimentar delirios y psicopatías al validar ciegamente a un usuario en lugar de desafiarlo, además de exhibir sesgos y adulación.
En un contexto clínico, esto es preocupante. Consultar un chatbot en nombre de un cliente podría validar una corazonada infundada del terapeuta o guiarlo por un camino equivocado. Daniel Kimmel, psiquiatra y neurocientífico de la Universidad de Columbia, realizó experimentos con ChatGPT y, aunque encontró que el chatbot era un decente imitador de respuestas terapéuticas estándar (normalización, validación), carecía de la capacidad de «profundizar» o de «vincular cosas aparentemente no relacionadas en algo cohesivo… para llegar a una historia, una idea, una teoría». En esencia, no realiza el «pensamiento» crítico y empático que es el pilar de la terapia humana. Por ello, la Asociación Americana de Consejería recomienda no utilizar la IA para diagnósticos de salud mental en la actualidad.
La carga de trabajo y el alto nivel de agotamiento profesional entre los psicólogos hacen que la promesa de ahorro de tiempo de la IA sea muy atractiva. Sin embargo, como bien señala Margaret Morris, psicóloga clínica de la Universidad de Washington: «Tal vez te ahorres un par de minutos. ¿Pero qué estás cediendo a cambio?». La esencia de la terapia reside en la interacción humana, la empatía genuina y la construcción de una relación de confianza que la IA, por muy avanzada que sea, aún no puede replicar ni sustituir por completo.
Conclusión: La integración de la inteligencia artificial en la psicoterapia presenta un arma de doble filo. Si bien las herramientas de IA ofrecen un potencial innegable para optimizar procesos y, en algunos casos, mejorar la comunicación, su uso sin transparencia ni el consentimiento informado del paciente puede socavar fundamentalmente la confianza, comprometer la privacidad y, en última instancia, deshumanizar una de las profesiones más intrínsecamente humanas. El futuro de la salud mental digital requerirá un equilibrio delicado entre la innovación tecnológica y la preservación de los valores éticos y el vínculo humano, con una priorización absoluta de la seguridad y el bienestar del paciente. La clave no reside en evitar la IA, sino en integrarla con rigor, ética y una transparencia inquebrantable.
Fuente original: Therapists are secretly using ChatGPT. Clients are triggered.