Segundo levantamento da Sentio University (2025), 8,7% dos usuários de IA (inteligência artificial) que relatam problemas de saúde mental recorrem ao ChatGPT como suporte terapêutico. A tendência preocupa especialistas, especialmente em um cenário como o do Brasil, onde 18 milhões de pessoas, ou 9,3% da população, sofrem com transtorno de ansiedade, de acordo com a OMS.
Para a psicóloga e docente da Estácio, Sydennya Lima, o alerta central é a incapacidade da tecnologia de compreender a complexidade do sofrimento humano. “A IA pode até apresentar conceitos e aspectos do que seria um quadro depressivo ou ansioso, mas não dispõe de habilidades de escuta, avaliação e compreensão da dimensão e complexidade da subjetividade humana. A empatia e o vínculo terapêutico são imprescindíveis nesse processo”, afirma.
Entre os perigos dessa autoterapia digital estão a ausência de triagem profissional, diagnósticos incorretos, respostas padronizadas e a incapacidade de intervir adequadamente em crises.
“Para uma pessoa que tem risco de suicídio, por exemplo, é preciso avaliar o grau de risco, até mesmo um profissional treinado e com experiência pode ter dificuldades em analisar o caso, muitas vezes o paciente pode estar resistente e apresentar rigidez cognitiva, por vezes sendo necessário acionar uma rede de apoio ou o serviço de urgência. Sem uma preparação para acolher e avaliar essa demanda, a situação pode se agravar. A inteligência artificial pode não detectar sinais e sintomas relevantes ou deixar passar informações importantes, o que pode resultar em agravamento do quadro”, alerta a especialista.
Outro ponto sensível é a chamada “empatia simulada”: respostas ajustadas para agradar, mas sem base técnica ou intervenção clínica real. Além disso, há a vulnerabilidade dos dados pessoais inseridos nessas plataformas, que podem estar sujeitos a vazamentos.
‘’O Conselho Federal de Psicologia orienta que, ao utilizar essas plataformas, precisamos adotar diretrizes e critérios compatíveis com o exercício legal da nossa profissão. Além disso, precisamos estar atentos aos preceitos técnicos que respeitem o bem-estar de cada indivíduo, mantendo uma postura crítica sempre avaliando os riscos e benefícios do uso de tecnologias, garantindo que os princípios éticos estejam sendo seguidos. Principalmente se a IA escolhida garante a segurança dos dados”, explica a psicóloga.
Apesar das limitações, Sydennya reconhece que a IA pode ser aliada dos psicólogos quando usada com supervisão. “Ela pode auxiliar em análises de dados, padronização de protocolos, desenvolvimento de aplicativos para monitoramento de humor e sono, e em outras questões burocráticas como agendamento e transcrição de dados”. Entretanto, o acompanhamento profissional é essencial e não pode ser substituído.
Siga o Acorda Cidade no Google Notícias e receba os principais destaques do dia. Participe também dos nossos canais no WhatsApp e YouTube e grupo de Telegram.