La inteligencia artificial generativa se ha integrado tan profundamente en la vida cotidiana que millones de personas recurren a ella no solo para resolver dudas o redactar textos, sino también para expresar emociones, pedir consejo o desahogarse. ChatGPT, el sistema más popular de OpenAI, se ha convertido en un acompañante digital para muchos, pero también en una fuente de dependencia emocional y en un terreno delicado para quienes enfrentan problemas de salud mental.
Según estimaciones internas, más de 560.000 usuarios activos de ChatGPT presentan algún tipo de problema de salud mental, una cifra que podría parecer pequeña frente a los más de 800 millones de usuarios semanales que interactúan con la IA. Sin embargo, el impacto psicológico que esto supone ha comenzado a despertar preocupación en la propia compañía.
Cada interacción con ChatGPT implica una respuesta rápida, personalizada y muchas veces empática, lo que genera una sensación de comprensión que puede confundirse con vínculo emocional. OpenAI reconoce que un 0,15 % de los usuarios muestra señales de dependencia emocional, es decir, mantienen conversaciones con el modelo más frecuentes y profundas que con su entorno real, llegando incluso a reemplazar vínculos humanos por la interacción digital.
Riesgos de confiar en la IA para temas sensibles
La facilidad de acceso y la aparente neutralidad de una inteligencia artificial pueden hacer creer que es un espacio seguro para hablar de todo tipo de temas. No obstante, OpenAI advierte que ChatGPT no debe utilizarse como sustituto de ayuda profesional, especialmente en casos de trastornos mentales, pensamientos suicidas o síntomas graves.
El estudio interno también detectó que un 0,07 % de los usuarios sufre problemas mentales severos, como episodios de psicosis o manía, mientras que otro 0,15 % manifestó pensamientos autodestructivos. En conjunto, estos datos equivalen a uno de cada 454 usuarios que interactúa con ChatGPT enfrentando algún tipo de crisis emocional significativa.
Además, compartir información personal o sensible con una IA implica riesgos de privacidad, ya que los mensajes pueden ser utilizados para mejorar los modelos y no ofrecen las garantías de confidencialidad de un entorno clínico.
OpenAI busca colaboración con expertos en salud mental
Consciente de la magnitud del fenómeno, OpenAI planea colaborar con más de 170 psiquiatras, psicólogos y médicos de distintos países para mejorar las respuestas del sistema y crear protocolos más seguros de interacción emocional. El objetivo es que futuras versiones, como GPT-5, sean capaces de detectar señales de angustia emocional y redirigir al usuario hacia ayuda profesional cuando sea necesario.
A medida que la inteligencia artificial se vuelve más humana en sus respuestas, la línea entre el acompañamiento digital y la dependencia emocional se vuelve más fina. Este hallazgo de OpenAI refleja una realidad compleja: la IA puede ser una herramienta útil, pero nunca un sustituto del contacto humano ni del apoyo terapéutico real.













Gracias