Alerta por IA y salud mental: psicólogos advierten sobre riesgos de usar ChatGPT en crisis emocionales
Tras denuncias de que ChatGPT aconsejó suicidios, un especialista advierte que la inteligencia artificial no está preparada para brindar acompañamiento emocional ni terapéutico.
Por Redacción 0223
PARA 0223
La polémica sobre el uso de inteligencia artificial en situaciones de crisis emocionales escaló en las últimas semanas, luego de que un usuario que le pidió ayuda a ChatGPT fuera alentado a suicidarse.
En Mar del Plata, esa preocupación resonó en distintos espacios como el Colegio de Psicólogos, por lo que su presidente Pablo Della Savia alertó a Extra (102.1) sobre los límites de la IA como acompañamiento emocional. Para el especialista, la diferencia esencial radica en que los seres humanos no solo comunican ideas: transmiten emociones, contextos, contradicciones, matices. Esa complejidad, dijo, no puede ser captada por un chatbot.
“La IA procesa información, pero no tiene humanidad. No entiende las sutilezas del lenguaje, del dolor, del contexto”, explicó el especialista.
El antecedente internacional no es menor. En 2025, la familia de un joven de 16 años presentó una demanda contra la empresa detrás de ChatGPT acusando al chatbot de haberlo alentado a quitarse la vida. Según la demanda, el adolescente le relató sus pensamientos suicidas al chatbot, que en lugar de disuadirlo o derivarlo a ayuda profesional, le dio instrucciones sobre métodos para autoagredirse.
Este caso disparó la alarma pública sobre los riesgos de usar IA como soporte emocional o terapéutico, especialmente entre adolescentes o personas en crisis. En respuesta, OpenAI aseguró que estudiará los reclamos, aunque también alegó que el uso fue “no autorizado” por parte del joven.
"En situaciones de angustia, soledad o desesperación, las personas buscan contención: alguien que escuche, comprenda y acompañe", indicó el referente y alertó: "La IA solo devuelve literalidad: analiza datos, procesa textos, pero no puede leer el sufrimiento humano".
Además, incluyó dos conceptos fundamentales para entender esta interacción:
En contextos de crisis emocional, buscar esa contención puede ser algo peligroso: “No es lo mismo un encendedor de ideas que un sostén humano”, afirmó.
Las herramientas digitales no deben reemplazar la ayuda profesional, el acompañamiento de seres queridos o terapias reales.
Para Della Savia, este tipo de casos (como el denunciado por la BBC) demuestran que aún en 2025, la inteligencia artificial no está preparada para lidiar con lo más humano: el dolor, la vulnerabilidad, la emoción.
Leé también
Temas
Lo más
leído

