Até onde a inteligência artificial pode apoiar na saúde mental?

A IA já está sendo amplamente utilizada em contextos de cuidado emocional. Ferramentas como chatbots e modelos de linguagem simulam escuta, empatia e apoio psicológico.
Mas um estudo da Universidade de Stanford revelou os limites — e os riscos — desse uso quando se trata de sofrimento real.
Os pesquisadores analisaram interações com cinco modelos de IA (incluindo GPT-4) em simulações de pacientes com ideação suicida, delírios e esquizofrenia.
O que encontraram foi alarmante:
• Respostas perigosas e fora de contexto
• Validação de pensamentos delirantes
• Indicação de locais reais em resposta a pedidos ambíguos sobre suicídio
• Reforço de estigmas sobre transtornos mentais
• Falta de responsabilização ética e julgamento clínico
O estudo conclui que, mesmo com avanços, os modelos não devem substituir terapeutas. A IA pode ser uma aliada na triagem, no suporte técnico, na organização, mas não no vínculo.
Porque o que transforma em um processo terapêutico não é a resposta — é a presença.
A escuta real exige alguém que esteja ali, inteiro.
Com discernimento, ética, afeto e responsabilidade.
📎 Estudo completo: https://arxiv.org/abs/2504.18412
E você? Como vê o uso da IA na saúde emocional? Ferramenta complementar ou risco à profundidade do cuidado?
#saúdemental #éticaemtudo #liderançahumana #inteligênciaemocional #psicologia #escutaqualificada #tecnologiaehumano #IAnaSaúdeMental #JornadaseTravessias