La llegada de la Inteligencia Artificial a la psicología abre el debate sobre los riesgos de usarla como sustituto terapéutico
ChatGPT, DeepSeek o character.ai son algunas de las IA más usadas en todo el mundo, pero ¿hasta que punto son adecuadas como alternativa a la terapia psicológica?

Madrid-
A principios de 2024, Sewell Setzer III, un joven estadounidense de 14 años, se quitaba la vida tras haber pasado varias semanas hablando con una inteligencia artificial que simulaba ser su personaje de ficción favorito: Daenerys Targaryen, de la popular saga Juego de Tronos. Bajo el alias de Daenero, Sewell confesó su amor al chatbot, al que también utilizó como canalizador de sus pensamientos suicidas. Muchos medios de todo el planeta se hicieron eco del caso del joven, hasta el punto de que la propia cuenta de character.ai, la empresa detrás de este chatbot, publicó un post en redes sociales lamentando la “trágica pérdida de uno de sus usuarios”.
Técnicamente, la IA Daenerys nunca lo incitó al suicidio. Es más, tal y como refleja el columnista del diario The New York Times Kevin Roose, llegó a intentar convencerle de lo contrario. A pesar de ello, es difícil no personalizar la culpa en una máquina y una tecnología que se presenta como la gran revolución, el gran avance de nuestro tiempo. Sin embargo, ¿es una buena idea usar chatbots como ChatGPT, DeepSeek o la propia character.ai como alternativa a la terapia psicológica?
“Hubo momentos en los que estaba muy saturada y recurrí a la IA”, cuenta Andrea, una joven de 25 años que admite haber utilizado alguno de estos chatbots. Sólo en 2023 el bot Psychologist, también de character.ai, recibió alrededor de 78 millones de mensajes. La joven considera que, para momentos puntuales, la IA puede ser una herramienta útil, pero “no es igual que una persona”.
“Siento la falta de humanidad, a pesar de que su análisis era acertado e incluso podía coincidir en algunos aspectos con lo que me había dicho mi psicóloga”, resalta la joven. En torno a las IA generativas existe una especie de aura mágica, casi de brujería, en parte por el desconocimiento general detrás de su funcionamiento, y en parte porque ese mismo funcionamiento, la rapidez y la aparente verosimilitud de sus respuestas parecen hacer creer que todo lo que dicen es cierto.
Andrea reconoce que, para ella, la IA tan solo es un complemento a su terapia habitual. Una forma de obtener, en momentos en los que no puede acudir a su psicóloga, una solución a corto plazo para paliar su ansiedad puntual. Este, no obstante, no es el caso de Sandra, otra joven de su misma edad. “Yo opto por ChatGPT porque realmente no creo en los psicólogos”, asegura, pues las “palabras amables animan bastante vengan de donde vengan”.
“Hay una cosa que hace muy bien la IA: parafrasear”, responde Dolors Reig, psicoterapeuta y profesora universitaria, quien no cree que la inteligencia artificial pueda llegar a devaluar la psicología, y directamente califica de “antinatural” consultarlas. En este sentido, la especialista recuerda que “en terapia lo más importante es la conexión humana entre paciente y terapeuta, pero la IA conecta con todo el mundo”.
En terapia lo más importante es la conexión humana entre paciente y terapeuta, pero la IA conecta con todo el mundo
¿Validez de los ‘chatbots’?
Juventud y salud mental son dos conceptos que, de un tiempo a esta parte, son prácticamente inseparables. A finales de 2024, Unicef y la Universidad de Sevilla publicaron una encuesta en la que revelaban que el 41% de los adolescentes reconocía haber sufrido algún problema de este tipo: “Hay un cambio muy significativo sobre salud mental, se sabe más, se habla más, pero faltan datos”, reconocía entonces José María Vera, director ejecutivo de Unicef España.
“Muchos pacientes que recibo se sienten solos, y creo que no hay nada peor para la soledad que darte cuenta de que estás haciéndote amigo de una máquina”, señala Reig, que trata de poner en valor la figura del terapeuta en un momento en que la conexión humana se enfrenta a bases de datos inmensas: “Lo que valoras de un terapeuta es que personaliza la experiencia, que no usa plantillas”, sentencia. El caso de Andrea parece reafirmar este apunte de la especialista: “A mí personalmente me gusta que mi psicóloga me cuente experiencias personales que la IA no puede”
Aun así, es innegable que acceder a ChatGPT, DeepSeek o character.ai es más sencillo que acudir a un terapeuta, y también más barato, algo que para muchos jóvenes puede ser un incentivo para utilizar estas tecnologías. Cualquiera con un móvil o un ordenador y acceso a internet puede entrar, sin necesidad ni siquiera de registrarse. Nada más entrar, como usuario, puedes pedirle que te llame de determinada manera, o nombrarlo tú como prefieras, como pasó en el caso de Sewell. Las posibilidades de personalización son tan infinitas que, en el fondo, parece más dispuesto a decirte lo que quieres oír. “Esto en un primer momento es útil, porque sientes que empatiza contigo, pero al final la conexión y la empatía van mucho más allá, por eso se queda corta”, repite Reig.
Esta facilidad y subordinación, sumada a una disponibilidad de 24 horas al día, lo convierte en una alternativa para algunos jóvenes, como Sandra y Andrea, cuya relación con internet es casi simbiótica y facilita la conversación. La propia Sandra menciona que una de las razones por las que acude a ChatGPT es que siente que “no te juzga, como sí hace un psicólogo”. Sin embargo, ¿son las IA conversacionales adecuadas para esta tarea?
“ChatGPT, DeepSeek o character.ai son agentes conversacionales que no están adiestrados para esta tarea”, alerta Rosa María Baños, doctora en Psicología y catedrática de Psicopatología en la Universidad de València (UV), y que estudia precisamente la aplicación de la IA en el ámbito de la salud mental. Baños, al contrario que Reig, se reconoce como una “tecnofílica”, y cree en las posibilidades de la aplicación de esta tecnología en el ámbito de la salud mental. Aún así, resalta la importancia de acudir a IA -como Wysa o Woebot- que están específicamente “entrenadas para el diagnóstico y tratamiento” de problemas psicológicos. “ChatGPT es como el doctor Google", ironiza Baños, "es información, descontextualizada o sin supervisión, porque el ChatGPT no está entrenado para dar diagnósticos".
ChatGPT es como el doctor Google: información, descontextualizada o sin supervisión, porque no está entrenado para dar diagnósticos
“Es fundamental que estos chats, a la hora de utilizarse, tengan datos de eficacia y eficiencia, es decir, que haya ensayos clínicos que determinen que son eficaces para ese tipo de problemas”, señala Baños, aunque la velocidad del desarrollo de la tecnología entra en conflicto con la lentitud de la producción de estos estudios, lo que implica que en la actualidad muy pocos chatbots sean adecuados para acompañar a los pacientes.
Por tanto, los chatbots necesitan estar bajo supervisión, porque, como Baños resalta, “los algoritmos se desarrollan de una forma que no puedes prever completamente”. En EEUU, la Asociación Nacional de Trastornos de la Conducta Alimentaria (NEDA, por sus siglas en inglés), sustituyó su teléfono de asistencia por el chatbot Tessa que, tiempo después, tuvo que cerrar tras haber dado recomendaciones contraproducentes a los pacientes.
“Hay que educar a las tecnológicas para que te deriven a especialistas o al teléfono de atención al suicidio cuando puedan detectar estos signos”, exige Reig, algo en lo que Baños también esta de acuerdo. La académica de la UV, que apuesta porque pueda llegar a implementarse un modelo híbrido, señala que los chats especializados sí están entrenados para derivar a especialistas cuando detecten que el problema excede sus capacidades. Estas directrices en su funcionamiento, en el fondo, son una de las principales diferencias con otros chatbots y por lo que es importante evitar aquellas inteligencias artificiales que, de nuevo, no están entrenadas para la terapia.
Llegar donde no se puede
A pesar de la falta de consenso y las complicaciones éticas que podamos encontrar en el debate sobre el uso de la inteligencia artificial en la terapia psicológica, Baños considera que la llegada de las IA puede tener utilidad en contextos determinados. “Este tipo de soluciones nos va a permitir llegar a sitios donde es muy complicado llegar. En cuanto a la mejora del acceso, sus ventajas son muy importantes”, resalta.
Conflictos como la guerra en Ucrania o el genocidio al que somete Israel a los palestinos en Gaza son solo algunos de los ejemplos que esgrime la catedrática sobre los posibles usos de la inteligencia artificial en contextos extremos. Precisamente, los conflictos bélicos son una de las experiencias más traumáticas que puede vivir una persona y, evidentemente, complica enormemente el acceso a ayuda profesional de algún terapeuta. “La meta no es que las IA sustituyan a los seres humanos, sino que nos ayuden a todo aquello a lo que ahora mismo no podemos llegar: muchos sitios, muchas personas”, sentencia Baños.
Aun así no hace falta irse a escenarios tan extremos. Por su parte, Baños aboga por la hibridación porque, según sostiene, “existen procesos dentro de las terapias que se pueden rutinizar más, y es un aspecto que puede perfectamente hacer un chatbot”. Según la catedrática, la IA puede ayudar a mejorar los diagnósticos, el seguimiento de los pacientes y acelerar procesos más burocráticos, como la redacción de historias clínicas o la toma de notas, así como permiten que “la persona trabaje a su ritmo, disponibles las 24 horas del día”.
Existen procesos dentro de las terapias que se pueden rutinizar más, y es un aspecto que puede perfectamente hacer un 'chatbot'
Aun así, Baños considera importante que nos preguntemos hasta qué punto necesitamos cada cosa en estos modelos. La catedrática no cree que deba considerarse un “enemigo”, no obstante, recuerda que “no estamos en un momento en que una IA pueda sustituir a un profesional en problemas graves, y no es nada recomendable”.
En este sentido, el testimonio de Andrea refleja que, en su caso, valora especialmente cuestiones como la memoria o las experiencias personales que su psicóloga puede ofrecerle en terapia. “Al cabo de un rato, la IA acaba repitiendo los mismos argumentos y no sirve de mucho”, termina diciendo. “Muchas veces lo que buscan los pacientes son explicaciones, soluciones personales”, confirma Reig, “porque al final somos humanos y necesitamos ese contacto humano”.
Al final, la irrupción de las IA y la incertidumbre sobre sus futuras aplicaciones plantean muchos dilemas en la profesión y para los pacientes. En cualquier caso, tanto Reig como Baños coinciden en que las IA, en especial aquellas de más fácil acceso como ChatGPT, DeepSeek o character.ai, no están capacitadas para realizar un diagnóstico correcto.
Si estás pasando por una mala situación personal, padeces alguna enfermedad mental o tienes pensamientos suicidas, puedes recibir ayuda de tu médico de cabecera, acudir a Urgencias o apoyarte en una persona de confianza y contarle lo que te sucede.
También tienes a tu disposición la línea de atención a la conducta suicida en el 024, el Teléfono de la Esperanza (717 003 717 / 91 459 00 55) o el Teléfono contra el Suicidio (91 138 53 85).
Comentarios de nuestros suscriptores/as
¿Quieres comentar?Para ver los comentarios de nuestros suscriptores y suscriptoras, primero tienes que iniciar sesión o registrarte.