Veja 7 pontos de discussão sobre os limites da IA no contexto psicoterapêutico
Pergunta de um leitor:
“Um tema muito em alta, é o uso da Inteligência Artificial. Normalmente, o mais citado é o ChatGPT. As pessoas estão usando a IA com uma espécie de life advisor, encarando de modo personificado a IA, como um amigo conselheiro. E acham que podem usar essa ferramenta como uma modo de fazer terapia, sem precisar recorrer a um psicólogo para resolver seus conflitos amorosos e conjugais — usam para paquerar, conquistar, escrever mensagens para conversar nos apps… A IA pode de fato substituir terapia com um psicólogo?”
Resposta: A IA, na tentativa de ajudar as pessoas a se conhecer melhor, pode ter seu valor, mas não substitui o terapeuta em função de uma série de limitações que ainda apresenta.
Em primeiro lugar, as informações obtidas através de questões formuladas à IA são em linguagem verbal. Não podemos esquecer que o ser humano também comunica suas emoções através de gestos, olhares, expressões faciais ou corporais. Esses meios de comunicação não são captados pela IA. Apenas por um ser humano. Assim, a análise feita pela IA é baseada em uma só fonte de informação: o que o paciente diz verbalmente sobre si mesmo. Pelo menos por enquanto.
Outra questão, é algo essencial na terapia tradicional: o sigilo. Não é possível saber para que fins serão usados os dados do paciente obtidos pela IA. Mesmo porque existem hackers, deep web e outras “maldades” que podem desvirtuar a boa intenção de quem criou o “terapeuta virtual”.
Embora a IA possa ajudar uma pessoa ouvindo seus desabafos e acolhendo-os ou, muitas vezes, dando algum feedback, pelo número de terapeutas virtuais existentes, o “paciente” pode mudar de “terapeuta virtual” toda vez que obtiver um feedback que não lhe agrada, e registrar apenas o que lhe agrada saber, construindo assim uma falsa imagem de si mesmo. Afinal, as “consultas” não são pagas e ele pode usar e abusar…
Em relação a pessoas muito comprometidas psicologicamente, a IA pode criar uma dependência patológica, chegando até a uma confusão do real com o virtual. A pessoa pode acreditar que a IA é uma pessoa com sentimentos e relacionar-se com ela até beirar o patético. Vide o que acontece na onda dos “bebês reborn” tão comentada, onde bonecos hiper-realistas recebem tratamento de humanos como se realmente tivessem as mesmas necessidades de humanos!
Essas, e muitas outras questões, devem ser levantadas antes de trocar uma terapia de verdade, com uma pessoa que estudou e se especializou na função de desenvolver o autoconhecimento, por um aplicativo que se baseou em amostras. Afinal, cada um de nós é um ser único, e não um número estatístico.
7 pontos de discussão sobre os limites da IA no contexto terapêutico
1. Falar do contato visual transmitindo informações que a IA não consegue
2. Falar da troca afetiva entre paciente e terapeuta, conforto emocional
3. Falar daquilo que a IA não consegue enxergar
4. Sigilo da terapia não mantido
5. O paciente pode escolher a IA que mais lhe agrada — como a IA lida com a fuga?
6. Confundir é acreditar que IA é uma pessoa com sentimentos – como ocorre na relação com o bebê reborn
7. Perigo do vício pela facilidade de acesso
Atenção!
Esta resposta (texto) não substitui uma consulta ou acompanhamento de uma psicóloga e não se caracteriza como sendo um atendimento.
