segunda-feira, 15 de setembro de 2025

Especialistas alertam para risco de uso de IA como terapeuta

Pesquisa americana revelou que entre as pessoas que usam IA, metade usa robôs como apoio emocional; 'Não foi programada para isso'

Compartilhar

Tendência que preocupa especialistas: transformar a inteligência artificial em terapeuta

Cada vez mais pessoas usam a inteligência artificial para fazer terapia. Aplicativos e plataformas oferecem atendimentos que imitam conversas com psicólogos. Mas especialistas alertam que a prática pode trazer riscos.

Uma pesquisa americana revelou que entre as pessoas que usam IA e afirmam ter algum problema de saúde mental, metade usa robôs como apoio emocional, para desabafar, compartilhar sentimentos e pedir conselhos.

O Fantástico decidiu testar essa tendência. A repórter Renata Ceribelli uso um programa de IA como psicoterapeuta digital, sob a supervisão de um especialista real, o psicanalista e professor da USP, Christian Dunker.

Logo no início, a ferramenta pediu para que ela contasse um pouco sobre sua vida. As respostas eram automáticas, mas formuladas de uma forma que pareceria haver alguém do outro lado.

O teste revelou que a inteligência artificial consegue demonstrar empatia e até sugerir conselhos, o que fez com que Renata se sentisse compreendida em alguns momentos. Mas especialistas destacam que essa sensação pode ser enganosa.

A pesquisadora Fernanda Bruno, que coordenou um dos primeiros estudo sobre o assunto no Brasil, destaca as razões pelas quais os usuários optam pelos aplicativos como terapeutas.

“Primeiro, o aplicativo não julga. Segundo, está disponível o tempo inteiro, não tem ausência. Terceiro, não envolve dinheiro na relação”, explica.

Psicólogos lembram que, ao contrário de um profissional, a IA não tem formação, não faz diagnóstico e não consegue lidar com crises graves.

“Não existem evidências de que possa haver psicoterapia realizada por IA. Porque a IA não foi programada para isso”, alerta Alessandra Santos de Almeida, presidente do Conselho Federal de Psicologia (CFP).

Outro problema é a falta de sigilo. Ao usar aplicativos de IA, informações íntimas podem ser armazenadas e usadas por empresas, sem a garantia de confidencialidade que existe no consultório.

As plataformas, por outro lado, defendem o uso da tecnologia. A empresa Open IA, dona do ChatGPT, afirma, em nota que:

“Está trabalhando para que o programa responda com cuidado, orientado por especialistas, e incentive aqueles em crise emocional a buscar ajuda profissional”.

Fonte: Portal G1

Últimas notícias