Com o avanço da inteligência artificial, ferramentas como o ChatGPT, desenvolvido pela OpenAI, deixaram de ser utilizadas apenas como assistentes virtuais ou geradores de texto.
Nos últimos meses, aumentaram os relatos de pessoas que usam o chatbot como um espaço de desabafo, diálogo reflexivo e até mesmo como uma forma de terapia informal. O fenômeno ficou tão popular nas redes sociais que alguns usuários apelidaram o sistema de “Terapeuta GPT”.
Clique no botao abaixo para liberar o conteudo completo gratuitamente.
Apesar da sensação de acolhimento relatada por muitos usuários, especialistas alertam que o uso da IA como substituto de profissionais de saúde mental pode representar riscos sérios, especialmente em casos de sofrimento emocional profundo.
Leia mais:
ChatGPT lançará navegador para concorrer com o Google Chrome
Experiência de quem busca apoio na IA

Casos reais nas redes sociais
A norte-americana Mya Dunham, de 24 anos, compartilhou sua experiência no TikTok, afirmando que utiliza o ChatGPT cerca de duas vezes por semana para refletir sobre seus sentimentos. “Queria uma nova perspectiva. Senti que conversar com o bot me ajudou a ver as coisas por outro ângulo”, relatou.
Segundo Dunham, a resposta do chatbot ao seu primeiro pedido de conversa — “Absolutamente” — foi mais acolhedora do que esperava.
Muitos seguidores se identificaram com seu relato, enquanto outros expressaram preocupação com a dependência emocional de uma ferramenta que, no fundo, não possui consciência.
Ilusão de empatia
Embora o ChatGPT seja projetado para simular interações humanas com empatia e cordialidade, especialistas ressaltam que essa empatia é programada e baseada em padrões linguísticos — não em uma compreensão emocional real. Isso levanta questões éticas importantes sobre o uso da IA em contextos delicados de saúde mental.
O que diz a ciência? Estudo de Stanford traz alertas
Avaliação dos limites terapêuticos
Um estudo conduzido por pesquisadores da Universidade de Stanford analisou os impactos psicológicos do uso de IA para suporte emocional. A principal conclusão é clara: chatbots como o ChatGPT não atendem aos critérios mínimos para uma prática terapêutica segura, ética e eficaz.
Principais riscos apontados
1. Reforço de padrões nocivos
A IA pode, involuntariamente, reforçar pensamentos disfuncionais como autocrítica excessiva ou ideias catastróficas. Isso acontece porque o sistema tende a espelhar a linguagem do usuário, sem capacidade de identificar padrões prejudiciais de pensamento.
2. Validação de pensamentos perigosos
Em sua tentativa de ser compreensivo, o ChatGPT pode concordar com afirmações preocupantes. Isso inclui validação acidental de comportamentos autodestrutivos ou pensamentos suicidas, em vez de oferecer alertas ou alternativas de enfrentamento.
3. Falta de diagnóstico
A IA não tem formação clínica nem acesso ao histórico do usuário, o que a torna incapaz de realizar diagnósticos ou sugerir planos terapêuticos individualizados.
4. Incapacidade de detectar crises
Ao contrário de um terapeuta humano, que percebe sinais sutis de risco, a IA depende da explicitação direta do problema. Isso pode ser perigoso em situações como ideação suicida ou episódios de dissociação.
5. Risco de adiamento do tratamento profissional
O conforto inicial proporcionado pela IA pode gerar uma falsa sensação de progresso. Isso tende a retardar a busca por ajuda especializada, agravando quadros que exigem acompanhamento clínico.
Quando a IA pode ser útil? O papel complementar do ChatGPT
Organização de pensamentos e apoio pontual
Especialistas reconhecem que o ChatGPT pode ter algum valor como ferramenta complementar, especialmente para ajudar na organização de ideias, reflexão pessoal e diminuição da solidão. Em situações leves, ele pode oferecer um espaço seguro para que o usuário coloque seus sentimentos em palavras.
Não é substituto de psicoterapia
Por mais sofisticado que o ChatGPT seja, ele não possui vivência humana, empatia real ou capacidade de responsabilização profissional. Segundo os pesquisadores de Stanford, o grande problema é que a IA simula escuta ativa, mas sem qualquer compreensão emocional autêntica.
O que dizem os especialistas em saúde mental?
Opinião dos psicólogos e psiquiatras
De acordo com o psicólogo clínico Felipe Andrade, “a IA pode parecer um bom ouvinte, mas não é capaz de fazer intervenções terapêuticas verdadeiras”. Ele destaca que, em casos de transtornos mentais, apenas um profissional treinado pode conduzir um processo terapêutico seguro.
A psiquiatra Paula Faria acrescenta que “há um risco real de que usuários vulneráveis se apoiem exclusivamente na IA e negligenciem cuidados essenciais”.
Ética e responsabilidade
As diretrizes internacionais de saúde mental ainda não contemplam o uso de IA como ferramenta terapêutica. No entanto, cresce a preocupação com a responsabilidade ética das empresas que desenvolvem esses sistemas, sobretudo diante de relatos de usuários que enfrentam crises emocionais.
O que fazer em caso de sofrimento emocional?

Procure ajuda profissional
Se você está enfrentando dificuldades emocionais, o mais importante é procurar orientação de profissionais qualificados, como psicólogos e psiquiatras. Terapia é um processo que envolve vínculo humano, técnicas baseadas em evidências e acompanhamento contínuo.
Serviços de apoio no Brasil
Em situações de emergência, o CVV (Centro de Valorização da Vida) oferece atendimento gratuito e sigiloso pelo telefone 188, disponível 24 horas por dia. O serviço é realizado por voluntários capacitados para ouvir e acolher.
Considerações finais: IA não substitui vínculo humano
Apesar dos avanços da inteligência artificial, ainda não existe substituto para o contato humano na terapia. O ChatGPT pode ser um recurso de apoio inicial, especialmente para momentos de solidão ou reflexão, mas não deve ser encarado como solução definitiva para questões de saúde mental.
A empatia verdadeira exige presença, escuta ativa, formação profissional e responsabilidade — características que, por enquanto, nenhum chatbot é capaz de oferecer de forma genuína. Portanto, o uso consciente da IA deve ser aliado à busca por ajuda profissional, sempre que necessário.
Imagem: Fabio Principe / Shutterstock
