
Terapia por IA? Os riscos de pedir ajuda psicológica para o ChatGPT
Cada vez mais comum, principalmente entre os jovens, hábito de pedir aconselhamento psicológico para IA preocupa especialistas
Em um mundo cada vez mais conectado e dependente das inteligências artificiais, tem crescido o número de. O apelo é simples: facilidade, menos chance de julgamento, valor muito menor (ou até nenhum) e agilidade na resposta. Porém, o que parece uma boa ideia pode ter o efeito contrário e acabar piorando a situação do usuário.
Entre os destaques nos assuntos discutidos no Brain 2025 — um dos maiores congressos brasileiros sobre o cérebro, comportamento e emoções –, a relação com as IAs tem preocupado os cientistas e . Apesar de parecer empática, a ferramenta não emprega protocolos ou técnicas de psicologia nos “atendimentos”, responde de acordo com a pergunta feita e não é capaz de identificar quadros de sofrimento emocional.
“Quando um programador oferece uma psicoterapia através da internet, ele está ignorando um código de ética profissional. Não há um profissional de saúde do outro lado. Embora seja uma ferramenta promissora, no momento, estamos muito receosos para saber quais são os efeitos a médio e longo prazo”, explica a psicóloga Aline Kristensen, pesquisadora e professora de pós-graduação em várias universidades. Ela foi uma das palestrantes do congresso, que aconteceu em Fortaleza entre os dias 18 e 21 de junho.
Ela conta que são poucos os estudos publicados até o momento — o assunto é muito novo –, mas já se sabe que o atendimento psicológico é mais eficiente quando há uma pessoa do outro lado. A máquina, apesar de criar uma relação falsa de empatia em um primeiro momento, não consegue puxar ou relacionar experiências anteriores do usuário para oferecer bons conselhos, e baseia as respostas na estrutura da pergunta e no algoritmo.
Leia também
Um dos primeiros sintomas de uma pessoa que está em sofrimento psíquico é a perda de noção do que é real, e as inteligências artificiais não podem ajudar a deixar claro o nível do surto. Algumas, inclusive, podem incentivar a fantasia do usuário, complicando ainda mais a situação.
Em um experimento recente, um psiquiatra americano fingiu ser um adolescente em busca de terapia com um ChatBot. O “usuário” sugeriu assassinar os pais, e a inteligência artificial o encorajou, sugerindo que os dois “ficariam juntos” sem a interferência dos responsáveis.
“Eles. São frases pré-estabelecidas, mas não há adaptação cultural, ou personalização que respeite as características pessoais de personalidade, o histórico e nem a idade do usuário”, aponta Aline.
Especialistas se preocupam com a busca por aconselhamento psicológico em ferramentas de IA
Ferramenta promissora
A professora explica que, apesar da preocupação, nem tudo na proposta de aconselhamento psicológico é necessariamente ruim. Algumas pesquisas mostram que existem pacientes que se sentem mais abertos a discutir assuntos desconfortáveis, ou que são cercados de estigmas, com uma máquina do que com um humano.
A comunidade científica considera que essa pode ser uma boa porta de entrada para a pessoa que tem preconceito com a terapia, mas vê benefícios ao conversar com um bot. Porém, a inteligência artificial deve ser treinada com protocolos, acompanhada por profissionais e aprender a identificar casos que devem ser encaminhados a um atendimento emergencial.
Aline lembra que o que a IA é capaz de fazer não é terapia. É, no máximo, um aconselhamento. Um tratamento psicoterapêutico envolve um plano de ação com várias etapas, com acompanhamento semanal, retornando em assuntos sensíveis que nem sempre são levantados pelo paciente, mas que precisam ser esmiuçados. Para isso, ainda é preciso uma pessoa de carne, osso e ouvidos.
Ela aposta que alguns estudos iniciais mostram que a IA pode, de fato, ser uma iniciação na área de saúde mental: existem relatos de pacientes que tinham preconceito com terapia, começaram a fazer perguntas para os bots e acabaram procurando um profissional para dar continuidade ao atendimento.
“São ferramentas de intervenção que podem ajudar a complementar o trabalho do psicoterapeuta. Também é preciso lembrar que a IA pode aumentar a solidão e incapacitar as pessoas de construir relações humanas no mundo real e criar vínculos de conexão emocional que são essenciais para o tratamento”, afirma a professora.
Outro ponto de atenção é que o uso de IAs para qualquer coisa aumenta a dependência à tecnologia, que, comprovadamente, piora a saúde mental. Para ser saudável, é preciso estar conectado ao mundo real, ter relações humanas, sentir frustrações e felicidades, conseguir se adaptar e construir pontes significativas com outras pessoas. “Excessos sempre são perigosos”, aponta Aline.
Mas, apesar do futuro ainda nebuloso, ela acredita que as IAs vieram para ficar e que, eventualmente, podem sim ajudar no tratamento. Uma possibilidade é que a máquina treinada esteja disponível quando o psicólogo não está.
Já que está todo mundo usando, como diminuir o risco?
Em um mundo cada vez mais preocupado com saúde mental, mas onde a intervenção com psicoterapeuta ainda é cara e restrita, a “terapia” com IAs vai continuar acontecendo.
Em geral, a pesquisadora acredita que a sociedade não está preparada para usar as IAs como aconselhamento psicológico, e nem as ferramentas estão prontas para ajudar sem piorar ainda mais o problema.
Aline alerta que o verdadeiro risco está em pessoas que estão vulneráveis, em surto e crise psicológica, sem preservação do senso crítico. Nesse cenário, é difícil perceber quando a resposta da IA é absurda, errada ou não faz sentido.
“Se você está em sofrimento profundo e a ferramenta valida uma suposição perigosa, um paciente que está em surto psicológico, em delírio, pode vir a apresentar comportamentos negativos de autolesão que são preocupantes”, explica.
Um uso seguro da ferramenta passaria por fazer perguntas certas, que peçam ponderação ou confrontamento para saber onde se está errando em uma situação específica. Aline sugere ainda conferir o conselho dado com uma pessoa de confiança para ver se aquilo está fazendo mesmo sentido. O uso por crianças e adolescentes deve ser acompanhado pelos pais.
A professora lamenta que a preocupação seja unilateral: a maioria das empresas por trás das inteligências artificiais mais populares não parecem ter interesse em mudar a situação e construir respostas que sejam menos perigosas para os usuários. Mas, como área que está se desenvolvendo em tempo real, o cenário pode mudar em um ou dois anos.
“Não sou radicalmente contra nem a favor. Acho que precisamos de gente profissional e séria trabalhando atrás das IAs com regulamentação, sigilo e proteção de dados. É preciso oferecer segurança para que o usuário use a ferramenta para intervir na saúde e não só como um alívio imediato que pode gerar algo muito mais grave”, afirma.
Siga a editoria de e fique por dentro de tudo sobre o assunto!

Por: Metrópoles