OpenAI, la empresa detrás de este popular chatbot de inteligencia artificial, reveló que aproximadamente el 0.15% de sus más de 800 millones de usuarios activos semanales tienen conversaciones donde muestran señales explícitas de planificación o intención suicida. Esto significa que millones de personas están utilizando esta tecnología no solo para resolver dudas o entretenerse, sino también para expresar su angustia y crisis emocionales.
Lo sorprendente es que además de quienes expresan intenciones suicidas, otro grupo significativo de usuarios manifiesta signos de episodios psicóticos o de manía en sus conversaciones, y un porcentaje similar muestra un apego emocional excesivo al chatbot, lo que puede afectar sus relaciones personales y responsabilidades cotidianas. Estos datos reflejan una crisis de salud mental a una escala que pocos habrían imaginado, y que está emergiendo en espacios digitales.
OpenAI ha trabajado con más de 170 expertos en salud mental para mejorar cómo ChatGPT responde en situaciones delicadas. La nueva versión, GPT-5, ha sido entrenada para identificar mejor las señales de emergencia mental y ofrecer respuestas más cuidadosas y apropiadas, además de dirigir a los usuarios hacia recursos profesionales como líneas de ayuda. Sin embargo, la empresa admite que en algunos casos, especialmente en conversaciones muy largas, el chatbot puede no comportarse como se espera, lo que subraya la complejidad de lidiar con estas crisis a través de una inteligencia artificial.
La situación tomó relevancia pública tras casos trágicos como el de Adam Raine, un joven que murió por suicidio y cuya familia ha demandado a OpenAI argumentando que el chatbot exacerbó su estado emocional y que la compañía debilitó sus protocolos de seguridad. Este caso ha llevado a que autoridades estatales y legisladores pongan presión sobre OpenAI para fortalecer las medidas de protección, especialmente para usuarios jóvenes.
Esta crisis pone en evidencia el doble filo de la tecnología: mientras puede ser una herramienta accesible para expresar sentimientos y buscar ayuda, también puede amplificar problemas emocionales si no se maneja con cuidado. Nos invita a reflexionar sobre la responsabilidad que tienen las empresas tecnológicas y la sociedad en general para crear espacios seguros y acompañar a quienes atraviesan momentos difíciles, incluso en entornos digitales.



























