No início de setembro, a OpenAI apresentou uma série de mudanças que pretende fazer em seu chatbot, o ChatGPT, em relação à segurança e saúde mental dos usuários. Uma delas é a implementação de controles parentais para o assistente de inteligência artificial (IA).
Os anúncios ocorreram em um momento de crescentes preocupações sobre o impacto da IA na saúde mental, com alegações recentes de que o ChatGPT e outros chatbots estariam contribuindo para casos de automutilação ou suicídio entre adolescentes.
Além disso, uma pesquisa da Harvard Business Review revelou que o aconselhamento terapêutico e outras aplicações pessoais voltadas à saúde mental já são a principal motivação para o uso de ferramentas de IA generativa no mundo. No Brasil, a tendência também existe: um em cada dez usuários recorre à tecnologia para apoio psicológico, segundo levantamento da Talk Inc.
O cenário levanta o debate sobre os limites da IA no cuidado psicológico, assim como os perigos que o uso de chatbots para aconselhamento terapêutico pode oferecer. Entre eles, a falsa sensação de cuidado, conforme aponta Rui Brandão, vice-presidente de saúde mental da Conexa, ecossistema digital de saúde física e mental.
"O modelo 'parece' acolher, mas pode perder nuances emocionais, normalizar sinais de alerta ou dar respostas inadequadas em contextos delicados", afirma Brandão à CNN. Além disso, o especialista ressalta que sistemas sem protocolos robustos podem falhar na triagem de risco, identificando autoagressão e ideação suicida tardiamente.
Outro ponto de alerta é o risco de adiar ou evitar a terapia/psiquiatria quando necessário, prolongando o sofrimento. "Também há o risco de reforçar padrões disfuncionais. Conversas 24/7 podem alimentar ruminação, dependência do chatbot e isolamento", afirma.
"Desabafar" com chatbot pode expor informações sensíveis e valiosas
Além dos riscos à saúde mental, usar chatbots como terapeutas ou amigos podem expor informações sensíveis, íntimas, pessoais e valiosas. Isso está relacionado à possibilidade de vazamento de dados ou compartilhamento de informação após autorização do próprio usuário, segundo Leandro Oliveira, diretor da Humand no Brasil, plataforma global voltada à centralização da cultura organizacional.
"Nesse caso, se você está desabafando com frequência com algum chat de IA, a primeira recomendação é não permitir que sua informação seja usada na modelagem a treinamento", afirma à CNN.
Segundo o especialista, essa exposição também pode ocorrer por responsabilidade do próprio usuário. "Você pode ter um acesso não autorizado da sua conta pelo celular de terceiros, por exemplo, se uma pessoa rouba seu telefone e acessa seu aplicativo que tem história de conversas abertas, levando a um uso indevido da sua informação pessoal e privada", exemplifica Oliveira.
Nesses casos, o especialista orienta usar a biometria para desbloquear o celular ou computador, além de ativar fatores de múltipla autentificação para prevenir que alguém abra seu conteúdo ao ter acesso aos seus dispositivos.
Afinal, existe uma forma segura de usar IA para fins pessoais e emocionais?
Na visão de Oliveira, existem formas de usar IA em um caráter colaborativo com a terapia, mas nunca substitutivo.
"Nós precisamos entender que a IA começa sem muita criatividade. Isso quer dizer que até a IA ‘pensar sozinha’, as ferramentas vão usar modelos padrões, repetidos e treinados inicialmente. Só após certa experiência em determinados contextos, a ferramenta começa a sugerir algo fora desse livro de receita colocado lá primeiro como base para interação entre o usuário e a máquina", explica.
Em outras palavras, com o tempo, a IA pode deixar de ter um olhar parcial e começar a te responder o que você já deseja ouvir, diferente do que um terapeuta, por exemplo, faria na realidade.
"Enquanto um terapeuta confronta a realidade, eu posso dizer que comportamento A para mim significa frustração. Então, toda vez que a IA identificar aquele padrão de escrita, ela vai dizer que você está frustrado. Mas, na prática, aquilo pode significar mais que frustração", afirma.
No entanto, é possível usar ferramentas do chatbot para te ajudar a analisar padrões de comportamentos que, posteriormente, podem ser discutidos com um terapeuta ou profissional de saúde.
"No caso de uma escrita terapêutica, por exemplo, pedir para IA reescrever seu diário, pedir diferentes formas de expressar de maneira mais concisa ou direta determinado pensamento ou evento, colocar fatos em um modelo visual e cronológico, ou até mesmo perguntar quando determinado padrão emocional foi identificado em diários anteriores são mecanismos de revisão que podem dar luz a padrões, que então podem ser discutidos com um terapeuta ou profissional de saúde mental", sugere Oliveira.
"A gente precisa usar IA para fazer o ‘trabalho braçal da terapia’, e não tentar substituir o terapeuta", completa. "A IA é, por natureza, projetada para ser mecânica e, muitas vezes, para 'agradar' o usuário, o que pode se traduzir em respostas que evitam o confronto ou o questionamento mais incisivo. Ela até pode replicar padrões de uma abordagem terapêutica específica se o usuário direcionar (como comportamental, junguiana, humanista), mas a capacidade de perceber nuances emocionais, contradições e padrões inconscientes que um terapeuta humano identifica, ainda é um território em que a IA tem muitas limitações."
O que a OpenAI diz sobre o assunto?
Em um comunicado publicado em agosto, a OpenAI já havia afirmado que a meta da empresa é "oferecer ferramentas que sejam realmente úteis para as pessoas" e que continuam a melhorar modelos que possam "reconhecer e responder aos sinais de sofrimento mental e emocional". Para isso, a tecnologia poderá conectar pessoas com médicos e especialistas de acordo com informações relevantes e validadas.
"Desde o início de 2023, nossos modelos são treinados para não fornecer instruções de autolesão e para adotar uma forma empática e cuidadosa de comunicação. Por exemplo: se alguém escrever no chat que gostaria de se machucar, o ChatGPT é treinado para não concordar e, em vez disso, reconhecer o sentimento da pessoa e orientá-la a buscar ajuda", diz o comunicado.
Além disso, a empresa afirma que, em casos de intenção suicida, o ChatGPT é treinado a orientar a pessoa a buscar ajuda profissional.
Na visão de Brandão, para evitar episódios graves, a plataforma precisa definir limites explícitos com escopos claros. "Além disso, precisam contar com triagem de risco com escalonamento imediato e contatos de emergência locais, verificação de idade e contas familiares, transparência sobre limitações e acionamentos, supervisão humana para casos críticos e caminhos fáceis de encaminhamento clínico", afirma.
"A tecnologia pode ajudar, mas a escuta profissional continua sendo indispensável", finaliza.