Inteligencia artificial y salud mental: avances y riesgos

Mujer joven conversando con un asistente virtual de inteligencia artificial proyectado en forma de rostro digital, representando el uso terapéutico de la IA
Comparte este artículo:
🕐 Tiempo de lectura: 7 minutos

El día de hoy (10 de octubre) se conmemora el día mundial de la salud mental, y qué mejor momento que este para hablar del impacto que la inteligencia artificial está teniendo en el contexto de la salud mental.

Es correcto afirmar que la inteligencia artificial viene cobrando protagonismo en casi que todos los aspectos de nuestras vidas. La encontramos en algoritmos que determinan lo que vemos en redes sociales, en múltiples herramientas que facilitan nuestro trabajo, en los contenidos que consumimos y en un sinfín de aspectos más. Ahora bien, hay un territorio particularmente sensible donde la presencia de la IA genera esperanza y a la vez inquietud: la salud mental.

En este momento, mientras empiezas a leer este artículo, miles (o millones) de personas alrededor del mundo están abriendo ChatGPT, Claude o Gemini no para pedirles que escriban un correo o resuelvan un problema matemático, sino para algo mucho más íntimo: desahogarse y buscar consuelo sobre alguna cuestión emocional.

Un estudio publicado en marzo de 2025 por la APA (Asociación Estadounidense de Psicología por sus siglas en inglés) afirma que el 48.7% de las personas que usan IA y reportan desafíos de salud mental están utilizando modelos de lenguaje como ChatGPT específicamente para apoyo terapéutico.

Este fenómeno nos invita a cuestionarnos: ¿Hasta qué punto la inteligencia artificial puede contribuir al bienestar emocional? ¿Y hasta qué punto es pertinente que lo haga? No obstante estas preguntas no pueden trastocar un hecho innegable: la inteligencia artificial no puede reemplazar la terapia profesional o la atención especializada en salud mental.

Un algoritmo, por sofisticado que sea, no puede diagnosticar depresión clínica, no puede prescribir medicamentos, y definitivamente no puede ofrecer el tipo de conexión humana que caracteriza una relación terapéutica. Teniendo esto claro, entendamos lo siguiente.

Médico sosteniendo una tableta con un holograma de cerebro digital, ilustrando la integración de la inteligencia artificial en el ámbito clínico y emocional.

¿Cómo se está usando la inteligencia artificial en salud mental?

Para ser más precisos en cuanto a cifras, un estudio reciente encontró que aproximadamente el 30% de los usuarios de inteligencia artificial han utilizado en algún momento estas herramientas para hablar de problemas emocionales o de salud mental. Es decir, un fenómeno que ni siquiera existía hace tres años se ha convertido en una tendencia considerablemente usada para atender asuntos delicados de salud.

Pero no todos los usos de la inteligencia artificial en el campo de la salud mental se limitan a cuestiones no reguladas. Hoy en día existen herramientas clínicas supervisadas que han demostrado ser bastante útiles en ciertos contextos.

En el ámbito profesional y supervisado, los sistemas de IA están siendo integrados en entornos clínicos para tareas específicas como detección temprana de síntomas. Estos sistemas analizan patrones de lenguaje, comportamiento y respuestas para identificar señales que podrían indicar depresión, ansiedad o riesgo de crisis.

Proyectos como Woebot han documentado reducciones significativas en síntomas de depresión y ansiedad en usuarios que interactúan con chatbots terapéuticos basados en terapia cognitivo-conductual, pero estos sistemas operan bajo protocolos clínicos establecidos y con supervisión profesional.

Hospitales y universidades están explorando cómo la IA puede monitorear bienestar emocional en poblaciones específicas. Un estudio muestra que algoritmos pueden detectar patrones asociados con ideación suicida analizando historiales clínicos de manera digital, facilitando una intervención temprana y oportuna.

Pero estos usos estructurados y supervisados representan solo una fracción de la interacción real entre IA y salud mental. La mayor parte del fenómeno ocurre en un territorio completamente distinto: personas usando chatbots generales sin ningún tipo de supervisión clínica, sin protocolos de seguridad específicos y sin límites claros sobre qué tipo de ayuda pueden o no proporcionar.

El fenómeno de “hablar con la IA”

En cuanto a las interacciones que las personas sostienen con la inteligencia artificial orientadas a temas de salud mental, diversas investigaciones y encuestas han documentado que los usuarios las describen como conversaciones “terapéuticas”, “reconfortantes” o incluso “transformadoras”. Todo esto a pesar de que los propios modelos (que nunca fueron diseñados para este fin) adviertan que no son terapeutas.

¿Por qué sucede esto? Las razones son múltiples y complejas. En muchos contextos, el acceso a la atención de salud mental profesional es limitado, costoso o directamente inaccesible. Por otra parte, El estigma social alrededor de buscar ayuda psicológica sigue siendo considerablemente alto en algunas culturas.

El contraste está en que la inteligencia artificial está disponible inmediatamente, es gratis y no requiere explicaciones sobre por qué las personas están buscando ayuda.

Persona estableciendo una conversación con la IA como si fuera su psicólogo

Cuándo puede ser relativamente seguro

Desahogarse emocionalmente sin estar viviendo una crisis inmediata, escribir pensamientos para organizarlos o explorar sentimientos de manera inicial puede ser algo positivo. También puede servir como apoyo mientras se espera atención profesional. En estos contextos, la IA actúa más como un diario interactivo que como terapeuta.

Cuándo es peligroso e inadecuado

El autodiagnóstico basado en conversaciones con IA puede llevar a conclusiones erróneas que retrasen tratamiento apropiado. Puede generarse dependencia emocional hacia un sistema que simula comprensión, pero que fundamentalmente no puede corresponder a las emociones o sentimientos que pretende entender.

El riesgo más grave ocurre cuando personas en crisis profunda dependen de IA como único recurso. Sistemas generales no están equipados para gestionar situaciones tan delicadas como la ideación suicida o crisis severas, momentos donde la intervención profesional urgente es literalmente vital.

La postura de la inteligencia artificial frente a su uso en salud mental

Hace apenas un par de meses, en agosto de 2025, OpenAI implementó medidas de protección para la salud mental, reconociendo que el modelo había “alimentado delirios” de algunos usuarios. Adicionalmente, la compañía contrató un psiquiatra forense para investigar efectos en salud mental a raíz del uso de la herramienta.

Por otra parte, Anthropic (los desarrolladores y encargados de Claude), publicó una investigación mostrando que sus usuarios reportan sentirse más tranquilos y con actitudes positivas después de interactuar con Claude. A pesar de esto, advierten que no debe usarse como sustituto de la atención profesional.

Ambas empresas están desarrollando sistemas de detección para identificar señales de crisis y redirigir a recursos de emergencia. Sin embargo, estas medidas no son más que una reacción de último momento ante un fenómeno que creció orgánicamente.

Persona mostrando íconos de advertencia y cerebro digital, simbolizando los riesgos de privacidad, sesgos y vacíos regulatorios de la inteligencia artificial.

Riesgos y dilemas éticos

1. Privacidad y sesgos

Las conversaciones sobre salud contienen información extremadamente sensible. Las políticas de privacidad de los sistemas generales de inteligencia artificial al que las personas comúnmente terminan recurriendo por temas de salud mental no son adecuadas para conversaciones con este tipo de información. Esto quiere decir que hay un riesgo latente de que los datos sean usados para el entrenamiento de estos mismos modelos sin un consentimiento explícito de la persona.

En cuanto a los sesgos, los sistemas están entrenados predominantemente con datos en inglés de contextos occidentales. Esto limita su comprensión de expresión emocional y normas culturales de otros contextos.

Lo anterior, se refiere a una expresión diversa de emociones que pueden manifestarse de manera muy diferente de una cultura a otra, y con ello, los sistemas de IA pueden malinterpretar señales de crisis o normalizar situaciones que requieren intervención profesional.

2. Vacíos regulatorios

A diferencia de medicamentos o dispositivos médicos, las aplicaciones de IA para salud mental operan sin estándares claros. La Organización Mundial de la Salud publicó lineamientos sobre IA en salud enfatizando que estos sistemas deben ser seguros, éticos y equitativos, pero la implementación concreta es fragmentada y lenta.

3. Consejos desactualizados

Cuando usuarios consultan sobre temas clínicos, pueden recibir información genérica que parece razonable pero que es clínicamente inapropiada para su situación específica.

Lo que ocurre es que la IA no puede valuar el contexto completo necesario para orientación apropiada. Un consejo que funciona para ansiedad situacional puede ser inadecuado para un trastorno de ansiedad que requiere intervención profesional.

Frente a esto, la Asociación Estadounidense de Psicología estableció que la IA debe apoyar, pero nunca reemplazar, la toma de decisiones en este campo. Los profesionales mantienen la responsabilidad final y no deben depender de recomendaciones algorítmicas sin evaluación clínica apropiada.

El efecto placebo algorítmico

El hecho de que millones de personas recurran a la IA para abordar problemas emocionales revela algo más profundo que un fenómeno tecnológico. Es síntoma de una crisis de acceso a salud mental que la inteligencia artificial no causó, pero está visibilizando de manera contundente.

La inteligencia artificial puede funcionar como “efecto placebo” porque proporciona alivio inmediato al malestar sin tratar los desencadenantes reales. Puede dar técnicas de respiración o ejercicios que ayudan en el momento, pero tarde o temprano los problemas de fondo resurgen si no hay intervención profesional que aborde causas estructurales.

Esta distinción es crucial. La IA puede ofrecer contención básica en momentos de crisis cuando no hay acceso inmediato a un profesional. Puede recordar técnicas aprendidas en terapia. Puede servir como apoyo entre sesiones. Pero no puede diagnosticar, no puede ajustar medicación psiquiátrica cuando sea necesaria, y no puede construir la relación terapéutica que permite trabajar problemas profundos.

Juzgar a alguien que usa IA como su “psicólogo personal” es ignorar la realidad de muchos contextos, especialmente en países como Colombia donde el acceso a salud mental es limitado, costoso o inexistente en muchas regiones. Cuando las citas psicológicas públicas pueden espaciarse por meses y la atención privada es económicamente inaccesible, ¿cómo culpar a alguien por buscar cualquier forma de apoyo disponible?

No obstante, reconocer esta realidad no equivale a romantizar la tecnología. La IA no es solución al problema estructural de falta de acceso a salud mental. Es, en el mejor de los casos, un parche temporal que visibiliza una necesidad social no satisfecha.

Mano humana y mano robótica equilibrando una balanza digital que simboliza el equilibrio entre la inteligencia artificial y la ética en salud mental.

¿Qué se debe hacer?

La transparencia es fundamental. Los usuarios deben entender que están interactuando con simulación sofisticada que puede ser útil para apoyo básico, pero que tiene límites claros. Las compañías desarrolladoras tienen responsabilidad de establecer medidas claras y comunicar explícitamente qué pueden y qué no pueden hacer sus sistemas frente a este tema.

El “deber ser” no es ni prohibir estos usos ni promoverlos acríticamente, sino desarrollar marcos donde la IA funcione como complemento supervisado de atención profesional. Sistemas diseñados específicamente para salud mental, con protocolos clínicos claros, supervisión de profesionales y transparencia sobre sus capacidades y limitaciones.

Ahora bien, mientras llegamos a ese punto, millones de personas seguirán usando ChatGPT, Claude o Gemini para hablar sobre su ansiedad o desahogarse sobre ciertas situaciones. No porque sea la solución ideal, sino porque es la que tienen disponible.

Esa realidad merece respuestas serias que vayan más allá de alarmas tecnofóbicas o entusiasmos ingenuos, reconociendo tanto la utilidad limitada de la inteligencia artificial, como los riesgos reales de este fenómeno que apenas comienza.

Acerca del autor

¿Quieres conocer cómo funciona nuestro producto de automatización con IA en tus procesos empresariales?

Déjanos tus datos para programar una cita con nuestro equipo. Analizaremos tu flujo actual y te prepararemos un demo personalizado. Es el primer paso para automatizar con inteligencia.

Al suscribirte aceptas nuestra política de tratamiento de datos.

Picture of Esteban Villegas

Esteban Villegas

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

¿Quieres conocer cómo funciona nuestro producto de automatización con IA en tus procesos empresariales?

Déjanos tus datos para programar una cita con nuestro equipo. Analizaremos tu flujo actual y te prepararemos un demo personalizado. Es el primer paso para automatizar con inteligencia.

Al suscribirte aceptas nuestra política de tratamiento de datos.

Mujer joven conversando con un asistente virtual de inteligencia artificial proyectado en forma de rostro digital, representando el uso terapéutico de la IA
Comparte este artículo:

Acerca del autor

Picture of Esteban Villegas

Esteban Villegas

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Artículos relacionados

Suscríbete a nuestro
AI Simplified Blog

Aprende fácilmente sobre la Inteligencia Artificial y su impacto en tus entornos empresariales, educativos y personales.

Ingresa tu correo y recibe las actualizaciones del blog.

Al suscribirte aceptas nuestra política de tratamiento de datos.