Se você está usando as LLMs, ou as IAs generalistas como ChatGPt, Gemini ou Claude, para criar e manter conversas intimas pessoas, como as que se tem em um processo terapêutico, aqui estão 5 alertas para você considerar antes de se envolver demais nos conteúdos e conclusões. Essas são questões que tenho observado com o uso e e pesquisa pessoal destas ferramentas, e que constatei por experiência própria, não somente por leituras e acompanhamento da evolução destas tecnologias.

Em algumas áreas da vida e do trabalho humano talvez a IA não necessite de tantos cuidados e “red flags”, mas no ramo da terapia e das conversas íntimas pessoas, há muito cuidado que se tomar. Há bem mais do que 5 questões sérias envolvendo IA e conversas pessoais, mas eis 5 das mais importantes que estamos enfrentando neste momento.

1] Não há ninguém supervisionando o que está sendo conversado ou afirmado, mesmo que pareça.

A IA pode simular uma consciência e uma cronologia de conversa, mas não há ninguém ali. Não há um nexo, uma coerência, uma centro nem uma consciência verdadeira funcionando. Ninguém está checando nem criando uma linha inteligente deste contato que está sendo realizado entre você e a IA. Ferramentas como ChatGPT, na versão atual, não consegue ver outros chats que você já realizou dentro da sua própria plataforma. Qualquer falsidade, alucinação, direção, orientação, resolução, afirmação ou negação é de sua inteira responsabilidade, mesmo que esteja sendo dito pela IA. Não há um outro “eu” nem nenhuma outra “consciência” na conversa. Há apenas você e uma máquina cheia de programação, informação e capacidade de simular uma conversa.

2] Não existe memória adequada e completa em nenhuma IA atual.

Pode parecer que a IA tem toda a memória da sua conversa, mas ela não tem. Às vezes nem no próprio chat ela mantém toda a memória da conversa. Quanto mais longa a conversa, mais chances há da memória ser desconsiderada. As IAs tem limitações sérias de contexto, e se você tem dúvidas, pesquise por “memória de contexto” associadas às IAs e você verá o tamanho do problema. Imagine que você tenha contado em detalhes sobre seus traumas de infâncias, as situações, as emoções, os desfechos… mas depois de um tempo X de conversa, a IA perde acesso a essa informação – mesmo ela estando lá, registrada no chat. Ela tem apenas uma capacidade limitada de acessar tudo que foi conversado. Mas nós sempre achamos que tudo está sendo considerado, e isso pode ser desastroso. Um simples conselho que ignora uma informação essencial da sua situação ou história pode levar tudo pro lado errado.

3] Praticamente todas as IAs sofrem de desvios sérios de concordância e bajulação.

Em inglês os termos são “agreeableness” e “sycophancy”. Você já deve ter ouvido falar. Devido à estrutura e objetivos das IAs, elas não foram programadas para discordar ou analisar de forma neutra e rigorosa tudo que é dito. Esse programa já é conhecido como um dos principais dilemas da IA, pois criar concordância exagerada com as pessoas, deixa delírios, opiniões sem base factual e outras conclusões perigosas passarem em branco, ou, pior, passam com validação e alto reconhecimento. Se tudo que uma pessoa diz está certo, mesmo que essa pessoa sejamos nós, há algo de muito errado na conversa. Dentro de um contexto íntimo pessoal, ou terapêutico, é um erro fatal.

4] As IAs alucinam, e isso não é exagero.

Elas mesmas admitem que inventam informações, histórias, dados, conclusões. E, se confrontadas corretamente, chegam a pedir desculpas (veja a imagem deste artigo, é real, de uma das interações com a IA). Isso é tão mais frequente que imaginamos que há uma IA, chamada Perplexity, que se gaba de ser a que menos alucina entre todas, pra você ver o estado (grave) desse problema. Aparentemente ninguém sabe como isso é criado dentro de uma IA, mas o fato é que é uma questão presente que, dentro do contexto de conversas íntimas pessoas, psicológicas ou terapêuticas, é um desastre.

5) As IAS nunca lhe interrompem.

Talvez, no futuro, alguma IA conseguirá travar uma conversa em que arriscará interromper o usuário (que é seu cliente). Ao menos no contexto mais pessoal elas devem tentar emular uma capacidade de análise, julgamento e sensibilidade humana, e então acionar algum protocolo que permita a interrupção do diálogo. Mas hoje ainda estamos bem longe disso, pois as IAs são submissas (e devem ser) ao ser humano. A interrupção, como se faz com técnicas supressivas em Gestalt Terapia, ou mesmo num diálogo comum, onde uma interrupção é normal e adequada, é um nmovimento natural e desejável – mesmo em conversa entre amigos. Sua ausência num contexto de diálogo profundo pessoal, psicológico e/ou terapêutico, pode estender monólogos, pressupostos, conclusões de forma grave, e gerar estados emocionais e mentais críticos.

Vislumbro possibiildades muito positivas com a IA, mesmo no âmbito das conversas e terapias, mas há que se proceder com muita consciência e habilidade, construindo essa tecnologia sem o alvoroço e a pressa que está acontecendo em outras áreas.

As IAs estão no começo e, embora muitos estejam animados e colhendo frutos e insights interessantes, os 5 pontos acima são apenas alguns dos problemas mais sérios e graves que já temos, neste momento, com o uso das IAs para terapia ou conversas pessoais ou chats íntimos individuais.

Use com bastante moderação, consciência, inteligência e descernimento.