6 milhões de brasileiros admitem usar o ChatGPT para fazer “terapia”

62% alegam dificuldade financeira para pagar um psicólogo | Foto: Marcelo Camargo/Agência Brasil

Cresce o número de pessoas que estão usando o ChatGPT como terapeuta para desabafar seus problemas. Uma estimativa da agência de comportamento Talk Inc afirma que mais de 12 milhões de brasileiros utilizam ferramentas de inteligência artificial para fazer terapia, dos quais cerca de 6 milhões recorrem ao ChatGPT como forma de apoio emocional.

De acordo com a pesquisa, 62% dos entrevistados alegam dificuldade financeira para pagar um psicólogo humano e 54% disseram gostar do atendimento 24 horas. Nos Estados Unidos, um estudo do Sentio AI Research mostrou que 18% já usaram o chatbot para falar de saúde mental.

O psicólogo e professor da Faseh, Welder Rodrigo Vicente, explica que a popularização do ChatGPT, como espaço de desabafo, está associada a múltiplos fatores. “Destaca-se a acessibilidade imediata, a ausência de julgamento e o anonimato, que reduzem barreiras emocionais e sociais. Muitas pessoas encontram dificuldade em se abrir com amigos, familiares ou até mesmo profissionais, seja por medo, vergonha ou falta de acesso”.

“A inteligência artificial oferece respostas rápidas, disponíveis 24 horas por dia, promovendo um ambiente que simula acolhimento e escuta. Além disso, a interface conversacional cria uma sensação de interlocução empática, mesmo que tecnicamente não exista subjetividade na ferramenta”, complementa o profissional.

Porém, Vicente salienta que o uso pode trazer riscos. “Entre os principais está a ilusão de estar sendo cuidado ou compreendido por um agente que não possui sensibilidade humana. Isso pode atrasar a busca por ajuda profissional adequada em casos de sofrimento psíquico intenso”.

“Há também o risco da dependência emocional, do isolamento social, da validação acrítica de pensamentos distorcidos ou autodepreciativos e da limitação do aprofundamento necessário para o enfrentamento de questões complexas. A inteligência artificial pode confortar momentaneamente, mas não promove intervenções terapêuticas, escuta clínica ou diagnósticos”, acrescenta.

Fenômeno crescente

A comunidade de saúde mental observa esse fenômeno com interesse e cautela, afirma Vicente. “Por um lado, reconhecemos que o ChatGPT pode ser uma porta de entrada para pessoas que nunca buscaram ajuda antes. Por outro, há preocupação com a banalização do processo terapêutico, com a substituição indevida do profissional e com os impactos do uso massivo de tecnologias não supervisionadas para lidar com sofrimento psíquico. Muitos profissionais têm estudado essas interações e apontado para a necessidade de regulamentações e orientações públicas”.

Ele pontua que o ChatGPT pode funcionar como um “espaço-tampão, permitindo que a pessoa organize seus pensamentos, acalme-se ou se sinta menos sozinha em um momento crítico. Pode também ajudar na elaboração inicial de sentimentos, facilitando o processo de verbalização que será retomado em um espaço terapêutico posterior. Além disso, pode oferecer informações úteis sobre saúde mental, autocuidado ou mesmo motivar alguém a procurar ajuda profissional”.

“É importante que o uso do ChatGPT, como espaço de desabafo, seja visto com senso crítico e responsabilidade. A tecnologia, por mais avançada que seja, deve ser uma ferramenta de apoio e não uma substituta das relações humanas. Precisamos incentivar a escuta entre pares, fortalecer os vínculos comunitários e democratizar o acesso à saúde mental, para que ninguém precise contar apenas com uma tela quando estiver em sofrimento”, alerta o profissional.

Tecnologia

O doutor em Engenharia Elétrica, especialista em Inteligência Artificial e professor da Una, Flávio Souza, destaca que a premissa do ChatGPT não é essa. “Apesar de ser criado para ter um tipo de interação, buscar respostas educadas, a ferramenta é baseada em metodologia de análises. Não é feito para ter o efeito psicológico, do tratamento do profissional sobre o seu paciente”.

“E ainda há motivos para se atentar à questão de proteção de dados e privacidade. A pessoa que está nesse tipo de situação pode ser que forneça dados e se exponha mais do que deveria ao acessar o recurso da inteligência artificial. É importante utilizar a ferramenta como forma analítica ou como um apoio ao profissional de saúde”, finaliza.

Compartilhe

Em destaque