Notas & Recomendações da Terapia✎

Artigos, anotações e sugestões de leitura sobre psicoterapia – por Luiz Fernando Pereira

A discussão sobre benefícios e malefícios da IA é muito mais difícil do que parece à primeira vista, quando o campo em questão é o do autoconhecimento e da terapia. Pela natureza profundamente humana, sensível e fenomenológica da psicoterapia, há uma imediata resistência de uma grande quantidade de pessoas dessa área a qualquer coisa que venha da tecnologia, pela impossibilidade de penetrar nesse território altamente consciente e profundo. De fato, essa dimensão da natureza da terapia não pode ser superada ou sequer igualada pela tecnologia, e provavelmente jamais será. Mas e se a questão não for simplesmente de substituição? Talvez a melhor postura neste momento tão iniciante seja manter a mente aberta, a observação atenta e o discernimento vivo sem posições precipitadas nem resistência imediata ao nascimento da Inteligência Artificial. E vou usar esse espaço para realizar essas observações e atualizações sobre a progressão desse cenário e de como podemos também participar da criação desse “futuro”.

Em primeiro lugar, é necessário concordarmos que estamos no pré-pré-jardim de infância da IA. Estamos apressadamente usando-a para fins pessoais, como conversas terapêuticas e papos íntimos emocionais, por nossa própria conta e risco – e também, obviamente, pela sede que temos de algo que resolva o que não está resolvido. As LLMs foram lançadas claramente com um alto grau de precipitação e se mostram como tecnologia em constante evolução, reparação e aprimoramento – a cada momento sabemos que foi lançado um ChatGPT 5.4, Opus 4.7, Gemini 3.1, etc, que é a nomenclatura para versões de software e aplicativos em desenvolvimento. Se as IAs ainda estão primitivas em termos de produtividade e indústria, estão ainda mais no campo da terapia e das conversas com função psicológica.

Nesse sentido, há de fato um risco alto e diferenciado quando a IA adentra este tipo de uso: nossos problemas pessoais não são células de Excel, que pode ser facilmente refeitas ou apagadas, os problemas que buscamos resolver com a IA não são melhorias de textos de email. Toda e qualquer troca com função psicológica pessoal com as IAs tem potencial de afetar ampla e profundamente uma pessoa, seja por orientação ou desorientação, por confusão, desequilíbrio, angústia, por ensimesmamento, viés de confirmação ou surtos de ansiedade, tristeza, raiva. O efeito da IA num humano é humano, muito diferente do efeito da IA num email ou numa imagem. Ao usarmos a IA nesse estágio tão precoce para tratar problemas reais sérios, estamos entrando num foguete jamais testado, numa era em que nenhum foguete foi lançado com humanos. Há risco de vida.

Mas também é necessário questionarmos: por que tantas pessoas recorrem ao ChatGPT ou ao Gemini ou ao Claude pra tentarem entender aspectos de si, para terem algum tipo de companhia ou simplesmente para expressarem ou desabafarem sobre seus problemas cotidianos ou existenciais? Será que é apenas pela facilidade de usar do chat? Provavelmente não, porque as conversas não são testes de rascunho nem brincadeiras de Paintbrush, são chats reais, com compartilhamento de dados íntimos e a busca de resoluções de questões sérias. A hipótese mais provável é que há tantas pessoas usando porque há demanda reprimida. Há necessidade não atendida.

As mais óbvias: não há terapeutas pra todo mundo, não há terapeutas na maioria das cidades do mundo, há dificuldade de disponibilidade de agenda e investimento para todos consultarem terapeutas em tratamentos de médio e longo prazo, e há consciência universal sobre os inúmeros benefícios da terapia. Nesse cenário, o aparecimento de uma tecnologia de natureza conversacional, com inédita e ampla base de conhecimento e disponível 24h por dia, por um preço muito baixo, naturalmente se entende o uso das IAs pra esse fim.

O que difere essa cenário de uso de “usar uma faca como chave de fenda” é que, como já citei aqui, o uso improvisado de algo precoce contém alto grau de risco, alto potencial de dano (tanto imediato quanto gradual), pode agravar estados mentais e quadros neuróticos, e acentuar ensimesmamento, isolamento social, a perspectiva puramente racionalista e o autodiagnóstico errado como se fosse certo.

As IAs vão melhorar com o tempo e há boas chances dos riscos serem minimizados, mas elas devem passar por uma fase parecida com a das soluções medicamentosas, cujo apelo do imediatismo, do tratamento paliativo dos sintomas e do escapismo das soluções verdadeiras acabam sendo adotadas no lugar de trabalhos terapêuticas reais. Seja através de LLMs adaptadas (GPTs especialistas, por exemplo) ou do uso “inábil” das LLMs (= sem supervisão), a praticidade e a aparente potência das IAs ainda vai atrair muitas pessoas por algum tempo, até provavelmente começarem a chegar as ondas de backlash (“efeito rebote”), as frustrações, os agravementos e efeitos colaterais diversos, e então soluções mais sensatas, reais e saudáveis passam a ser vistas como o valor que tem.

Enquanto isso, há que se proceder com muito cuidado, de preferência conversando com seu terapeuta sobre suas sessões de uso de IA para esses fins, e analisando com calma e discernimento o que é possível, o que não é possível, o que é desejável, o que não é desejável, o que é necessário, o que é evitável e como cuidar de si mesmo e de sua saúde emocional e mental diante das tecnologias em desenvolvimento.

///

Leia também: 5 Alertas para Conversas Terapêuticas e Pessoais com IA.