Salud mental digital: ¿qué está ocurriendo cuando más de un millón de personas hablan con la IA sobre el suicidio? - OpenAI
- Inlaza

- hace 5 días
- 3 Min. de lectura
Actualizado: hace 2 días

La inteligencia artificial (IA) ha transformado la manera en que accedemos a la información, aprendemos y buscamos apoyo. Sin embargo, uno de los fenómenos más recientes y preocupantes es el incremento de conversaciones entre usuarios y sistemas de IA sobre pensamientos suicidas o crisis emocionales graves.
Según datos publicados por OpenAI, cada semana más de 1,2 millones de personas mantienen conversaciones con ChatGPT que presentan indicios de riesgo autolítico. Esto representa alrededor del 0,15 % del total de interacciones semanales del modelo. Aunque el porcentaje pueda parecer bajo, el número absoluto es significativo, y pone de manifiesto una realidad urgente: cada vez más personas buscan apoyo emocional en entornos digitales.
La respuesta de OpenAI ante el riesgo emocional
Ante esta situación, OpenAI ha anunciado una iniciativa global en la que participan 170 expertos clínicos de más de 60 países, con el objetivo de mejorar la respuesta del modelo ante situaciones de crisis emocional y riesgo suicida.
El propósito no es convertir a la inteligencia artificial en una figura terapéutica, sino diseñar mecanismos de contención y derivación seguros. En concreto, los tres ejes de actuación son:
1. Interrumpir conversaciones de riesgo, cuando el contenido muestre señales de peligro inminente.
2. Desescalar emocionalmente, respondiendo de forma calmada, empática y no intrusiva.
3. Orientar hacia recursos humanos reales de ayuda, incluyendo líneas de emergencia o servicios de salud mental locales.
Esta estrategia marca un paso importante hacia una ética digital más responsable, pero también plantea interrogantes profundos sobre los límites del acompañamiento virtual.
La paradoja del consuelo digital
Las cifras reflejan algo más que una tendencia tecnológica: revelan un cambio social. Millones de personas están buscando en un algoritmo lo que antes se buscaba en el contacto humano: escucha, comprensión y apoyo emocional.
Sin embargo, aunque las inteligencias artificiales pueden simular empatía y ofrecer respuestas cuidadosas, no poseen conciencia emocional ni la capacidad de sostener un vínculo terapéutico. La interacción, por más sofisticada que sea, sigue siendo un reflejo estadístico del lenguaje humano, no una relación interpersonal genuina.
Esto implica un riesgo: la sustitución involuntaria de la ayuda profesional por el diálogo con una IA. En momentos de vulnerabilidad, esto puede generar una sensación momentánea de alivio, pero no sustituye el trabajo emocional, la evaluación clínica ni la intervención personalizada que un profesional de la salud mental puede ofrecer.
El papel del usuario: cómo usar la IA de forma segura
La inteligencia artificial puede ser una herramienta útil si se utiliza con criterio. Puede facilitar la reflexión, ofrecer información sobre bienestar emocional o guiar en la búsqueda de recursos. Pero su uso debe ser siempre complementario, no sustitutivo.
Algunas recomendaciones para un uso responsable serían:
Usar la IA como apoyo informativo, no como terapeuta.
Evitar recurrir a ella en momentos de crisis emocional intensa. En esas situaciones, la contención humana es insustituible.
Hablar con personas reales sobre lo que se siente. La conexión humana sigue siendo el principal factor protector frente al suicidio.
Si el uso de la IA te hace sentir peor, haz una pausa. Desconecta, sal al exterior, contacta con alguien de confianza.
📞 En caso de crisis, contacta con un profesional o una línea de ayuda. En España, puedes llamar al 024, disponible las 24 horas, gratuito y confidencial.
Un reto ético y social compartido
La digitalización de la salud mental no es un fenómeno pasajero. Cada vez más personas buscan información, contención y validación en espacios virtuales. Este cambio demanda una reflexión ética colectiva sobre cómo integrar la tecnología en el cuidado emocional sin deshumanizarlo.
La IA puede acompañar, pero no sostener. Puede orientar, pero no sanar. Su papel debe ser el de un puente, no un reemplazo.
En Inlaza, creemos que el futuro de la salud mental pasa por la integración equilibrada entre innovación tecnológica y conexión humana. La verdadera sanación no reside en las respuestas automáticas, sino en la presencia real de otro ser humano dispuesto a escuchar, acompañar y comprender.
Y recuerda
Si estás atravesando un momento difícil, no estás solo/a.
📞 Llama al 024 (España) o acude a tu centro de salud mental más cercano.
Hablar salva vidas.




Comentarios