A IA já está sendo amplamente utilizada em contextos de cuidado emocional. Ferramentas como chatbots e modelos de linguagem simulam escuta, empatia e apoio psicológico.

Mas um estudo da Universidade de Stanford revelou os limites — e os riscos — desse uso quando se trata de sofrimento real.


Os pesquisadores analisaram interações com cinco modelos de IA (incluindo GPT-4) em simulações de pacientes com ideação suicida, delírios e esquizofrenia.

O que encontraram foi alarmante:

•⁠  ⁠Respostas perigosas e fora de contexto

•⁠  ⁠Validação de pensamentos delirantes

•⁠  ⁠Indicação de locais reais em resposta a pedidos ambíguos sobre suicídio

•⁠  ⁠Reforço de estigmas sobre transtornos mentais

•⁠  ⁠Falta de responsabilização ética e julgamento clínico


O estudo conclui que, mesmo com avanços, os modelos não devem substituir terapeutas. A IA pode ser uma aliada na triagem, no suporte técnico, na organização, mas não no vínculo.

Porque o que transforma em um processo terapêutico não é a resposta — é a presença.

A escuta real exige alguém que esteja ali, inteiro.

Com discernimento, ética, afeto e responsabilidade.


📎 Estudo completo: https://arxiv.org/abs/2504.18412

E você? Como vê o uso da IA na saúde emocional? Ferramenta complementar ou risco à profundidade do cuidado?

#saúdemental #éticaemtudo #liderançahumana #inteligênciaemocional #psicologia #escutaqualificada #tecnologiaehumano #IAnaSaúdeMental #JornadaseTravessias