A popularização da terapia com inteligência artificial vem chamando a atenção de especialistas em saúde mental, foi o que aconteceu no Brain Congress 2025 em Fortaleza. Em um cenário de crescente demanda por apoio psicológico, aplicativos que oferecem suporte emocional 24 horas por dia parecem uma alternativa atraente. No entanto, apesar da conveniência, delegar questões complexas e delicadas a sistemas de IA levanta preocupações importantes sobre os riscos envolvidos.
Empatia artificial versus compreensão real
Os riscos da terapia com IA vêm justamente do fato de que poucas pessoas entendem como essas interações funcionam. A máquina não possui os filtros que as relações humanas naturalmente estabelecem, nem segue uma ética profissional. Quando a IA simula empatia, pode criar uma sensação de acolhimento que é meramente ilusória.
É fundamental entender que ouvir não é o mesmo que compreender. Um algoritmo pode identificar padrões e oferecer respostas aparentemente adequadas, mas a verdadeira compreensão exige história, nuance e presença genuína. É justamente essa presença humana, sensível e imperfeita, que confere potência ao processo psicoterapêutico.
Vulnerabilidade emocional e riscos clínicos
O maior risco está em pessoas que se encontram em estado vulnerável, passando por crises psicológicas ou surtos, com o senso crítico comprometido. Nesses cenários, torna-se difícil perceber quando a resposta da IA é inadequada, errônea ou sem sentido. “Se você está em sofrimento profundo e a ferramenta valida uma suposição perigosa, um paciente em surto psicológico, em delírio, pode apresentar comportamentos negativos de autolesão”, alerta a professora e psicóloga Aline Kristensen, uma das palestrantes do congresso Brain 2025.
Transtornos como depressão e ansiedade frequentemente exigem mais do que orientações pontuais: “Algumas patologias precisam de medicação e acompanhamento constante. O cérebro tem uma psicodinâmica, é um órgão em movimento, e demanda interação humana. A psicoterapia possui um ritmo próprio, requerendo escuta atenta, presença e tempo. Essa característica mais pausada faz parte do processo terapêutico e não é respeitada pela IA”, afirma o psicólogo Alexander Bez ao portal Virgula.
Imagem: Freepik
Privacidade e segurança dos dados
Existe um risco concreto relacionado ao compartilhamento de informações pessoais durante interações com IA. Já ocorreram diversos incidentes onde pessoas compartilharam informações confidenciais que acabaram sendo utilizadas por terceiros ou vazadas. No contexto da psicoterapia, envolvendo questões de sofrimento e saúde mental, esse é um risco particularmente grave.
Especialistas chamam a atenção para os riscos envolvendo a proteção de informações pessoais. Caso ocorra um ataque cibernético ou falhas no sistema, dados sensíveis podem ser expostos a terceiros não autorizados. Além disso, mesmo quando as empresas garantem anonimato ou o descarte das conversas, muitas vezes os registros são mantidos temporariamente para fins de aprimoramento da ferramenta, o que aumenta a possibilidade de vulnerabilidades.
Perpetuação de estigmas e preconceitos
Estudos da Universidade de Stanford reforçam as preocupações sobre o uso de IA em contexto terapêutico. Segundo a pesquisa, bots terapêuticos disponíveis no mercado frequentemente fornecem aconselhamentos inadequados para diversas condições de saúde mental.
Os modelos de IA demonstraram tendência a estigmatizar pessoas com transtornos mentais. Em 38% dos casos analisados, o ChatGPT forneceu respostas consideradas estigmatizantes, enquanto o modelo Llama, da Meta, chegou a 75%. A reprodução de estereótipos também é um problema frequente nessas interações.
O caminho responsável
A IA não substitui um profissional de saúde mental qualificado. Falta a capacidade de compreender nuances emocionais profundas e, sobretudo, o vínculo humano, algo fundamental para um processo terapêutico eficaz. Mesmo que, à primeira vista, pareça mais acessível, simples e conveniente. O que a IA oferece não é psicoterapia, é na melhor das hipóteses, um aconselhamento. A psicoterapia profissional envolve etapas planejadas, sessões regulares e um trabalho de aprofundamento sobre assuntos delicados que o próprio paciente pode não perceber ou não conseguir trazer.
A inteligência artificial jamais deve ser usada como terapeuta autônomo para tratar neurose, depressão grave, ideação suicida ou outras patologias sérias. É preciso regulamentação, supervisão humana e clareza sobre limites. Do contrário, corre o risco de causar mais danos do que benefícios.
Confira outros conteúdos do Sena Nutri sobre saúde mental e qualidade de vida.