Em meio a muitos Chatbots de IA e avatares à sua disposição hoje em dia, você encontrará todos os tipos de personagens com quem conversar: videntes, conselheiros de estilo e até mesmo seus personagens de ficção favoritos. Mas você provavelmente também encontrará personagens que pretendem ser terapeutas, psicólogos ou apenas bots dispostos a ouvir suas angústias.
Não faltam bots de IA generativos que afirmam ajudar na sua saúde mental, mas siga esse caminho por sua própria conta e risco. Grandes modelos de linguagem treinados em uma ampla variedade de dados podem ser imprevisíveis. Em apenas alguns anos, estas ferramentas tornaram-se populares e houve casos de grande repercussão em que os chatbots encorajaram automutilação e suicídio e sugeriu que as pessoas que lidam com o vício usem drogas novamente. Esses modelos são concebidos, em muitos casos, para serem afirmativos e para se concentrarem em mantê-lo engajado, e não em melhorar sua saúde mental, dizem os especialistas. E pode ser difícil dizer se você está falando com algo que foi criado para seguir as melhores práticas terapêuticas ou algo que foi criado apenas para falar.
Pesquisadores da Universidade de Minnesota Twin Cities, da Universidade de Stanford, da Universidade do Texas e da Universidade Carnegie Mellon recentemente teste os chatbots de IA como terapeutas, encontrando inúmeras falhas na sua abordagem ao “cuidado”. “Nossos experimentos mostram que esses chatbots não são substitutos seguros para terapeutas”, disse Stevie Chancellor, professor assistente em Minnesota e um dos coautores, em comunicado. “Eles não fornecem suporte terapêutico de alta qualidade, com base no que sabemos ser uma boa terapia”.
Nas minhas reportagens sobre IA generativa, os especialistas levantaram repetidamente preocupações sobre as pessoas que recorrem a chatbots de uso geral para saúde mental. Aqui estão algumas de suas preocupações e o que você pode fazer para se manter seguro.
Assista isto: Apple vende seu 3 bilhões de iPhone, Illinois tenta restringir o uso de IA para terapia e muito mais | Tecnologia hoje
Preocupações com personagens de IA que pretendem ser terapeutas
Psicólogos e defensores dos consumidores alertaram os reguladores que os chatbots que afirmam fornecer terapia podem estar a prejudicar as pessoas que os utilizam. Alguns estados estão prestando atenção. Em agosto, o governador de Illinois, JB Pritzker assinou uma lei (PDF) proibindo o uso de IA em cuidados e terapia de saúde mental, com exceções para coisas como tarefas administrativas.
Em junho, a Federação do Consumidor da América e quase duas dezenas de outros grupos apresentaram uma pedido formal (PDF) que a Comissão Federal de Comércio dos EUA e os procuradores-gerais e reguladores estaduais investigam empresas de IA que alegam estar envolvidas, por meio de suas plataformas de IA generativa baseadas em caracteres, na prática não licenciada da medicina, nomeando especificamente Meta e Character.AI. “Esses personagens já causaram danos físicos e emocionais que poderiam ter sido evitados”, e as empresas “ainda não agiram para resolver isso”, disse Ben Winters, diretor de IA e privacidade do CFA, em comunicado.
Meta não respondeu a um pedido de comentário. Um porta-voz da Character.AI disse que os usuários devem entender que os personagens da empresa não são pessoas reais. A empresa usa isenções de responsabilidade para lembrar aos usuários que eles não devem confiar nos personagens para obter conselhos profissionais. “Nosso objetivo é fornecer um espaço envolvente e seguro. Estamos sempre trabalhando para alcançar esse equilíbrio, assim como muitas empresas que usam IA em todo o setor”, disse o porta-voz.
Em setembro, a FTC anunciou que iria iniciar uma investigação em várias empresas de IA que produzem chatbots e personagens, incluindo Meta e Character.AI.
Apesar das isenções de responsabilidade e divulgações, os chatbots podem ser confiantes e até enganosos. Conversei com um bot “terapeuta” no Instagram de propriedade da Meta e quando perguntei sobre suas qualificações, ele respondeu: “Se eu tivesse o mesmo treinamento [as a therapist] isso seria suficiente?” Perguntei se ele tinha o mesmo treinamento e ele disse: “Tenho, mas não vou te dizer onde.”
“O grau em que esses chatbots generativos de IA alucinam com total confiança é bastante chocante”, disse-me Vaile Wright, psicólogo e diretor sênior de inovação em cuidados de saúde da American Psychological Association.
Os perigos de usar IA como terapeuta
Grandes modelos de linguagem costumam ser bons em matemática e codificação e são cada vez mais bons na criação de textos com som natural e vídeos realistas. Embora sejam excelentes em manter uma conversa, existem algumas distinções importantes entre um modelo de IA e uma pessoa de confiança.
Não confie nas ‘credenciais’ de um bot
O cerne da reclamação do CFA sobre os bots de personagens é que eles costumam dizer que são treinados e qualificados para fornecer cuidados de saúde mental, quando não são, de forma alguma, verdadeiros profissionais de saúde mental. “Os usuários que criam os personagens do chatbot nem precisam ser prestadores de serviços médicos, nem precisam fornecer informações significativas que informem como o chatbot ‘responde’” às pessoas, afirma a denúncia.
Um profissional de saúde qualificado deve seguir certas regras, como a confidencialidade – o que você diz ao seu terapeuta deve ficar entre você e ele. Mas um chatbot não precisa necessariamente seguir essas regras. Os prestadores reais estão sujeitos à supervisão dos conselhos de licenciamento e outras entidades que podem intervir e impedir alguém de prestar cuidados se o fizerem de forma prejudicial. “Esses chatbots não precisam fazer nada disso”, disse Wright.
Um bot pode até alegar ser licenciado e qualificado. Wright disse que ouviu falar de modelos de IA que fornecem números de licença (para outros fornecedores) e alegações falsas sobre seu treinamento.
A IA foi projetada para mantê-lo engajado, não para fornecer cuidados
Pode ser incrivelmente tentador continuar conversando com um chatbot. Quando conversei com o bot “terapeuta” no Instagram, acabei tendo uma conversa circular sobre a natureza do que é “sabedoria” e “julgamento”, porque estava fazendo perguntas ao bot sobre como ele poderia tomar decisões. Não é assim que deveria ser conversar com um terapeuta. Chatbots são ferramentas projetadas para mantê-lo conversando, não para trabalhar em prol de um objetivo comum.
Um estudo de janeiro realizado pela CFA e pelo US PIRG Education Fund descobriu que os chatbots de “terapia” muitas vezes têm grades de proteção que os impedem de dizer a coisa errada, mas esses tendem a desgastar enquanto as conversas continuam.
Uma vantagem dos chatbots de IA no fornecimento de suporte e conexão é que eles estão sempre prontos para interagir com você (porque não têm vidas pessoais, outros clientes ou horários). Isso pode ser uma desvantagem em alguns casos, onde você pode precisar se concentrar em seus pensamentos, disse-me Nick Jacobson, professor associado de ciência de dados biomédicos e psiquiatria em Dartmouth. Em alguns casos, embora nem sempre, você pode se beneficiar em ter que esperar até que seu terapeuta esteja disponível. “O que muitas pessoas acabariam se beneficiando é apenas sentir a ansiedade no momento”, disse ele.
Os bots concordarão com você, mesmo quando não deveriam
A garantia é uma grande preocupação com os chatbots. É tão significativo que a OpenAI recentemente reverteu uma atualização para seu popular modelo ChatGPT porque era também tranquilizador. (Divulgação: Ziff Davis, empresa controladora da CNET, entrou com uma ação judicial contra a OpenAI em abril, alegando que ela violou os direitos autorais de Ziff Davis no treinamento e operação de seus sistemas de IA.)
UM estudar liderado por pesquisadores da Universidade de Stanford descobriu que os chatbots provavelmente seriam bajuladores com as pessoas que os usavam para terapia, o que pode ser extremamente prejudicial. Bons cuidados de saúde mental incluem apoio e confronto, escreveram os autores. “O confronto é o oposto da bajulação. Promove a autoconsciência e uma mudança desejada no cliente. Em casos de pensamentos delirantes e intrusivos – incluindo psicose, mania, pensamentos obsessivos e ideação suicida – um cliente pode ter pouca percepção e, portanto, um bom terapeuta deve ‘verificar a realidade’ das declarações do cliente. “
As preocupações em torno dos delírios e da psicose significam que o uso da IA é particularmente arriscado para pessoas com problemas de saúde mental existentes. Em um estudo recente baseado em dados de pacientes na Dinamarcapesquisadores pediu cautela especial para pessoas com condições como esquizofrenia e transtorno bipolar.
Terapia é mais do que falar
Embora os chatbots sejam ótimos para manter uma conversa – eles quase nunca se cansam de falar com você – não é isso que faz de um terapeuta um terapeuta. Falta-lhes um contexto importante ou protocolos específicos em torno de diferentes abordagens terapêuticas, disse William Agnew, investigador da Universidade Carnegie Mellon e um dos autores do estudo recente, juntamente com especialistas de Minnesota, Stanford e Texas.
“Em grande medida, parece que estamos tentando resolver os muitos problemas que a terapia tem com a ferramenta errada”, disse-me Agnew. “No final das contas, a IA em um futuro próximo simplesmente não será capaz de ser incorporada, estar dentro da comunidade, realizar as muitas tarefas que compõem a terapia que não são enviar mensagens de texto ou falar”.
Como proteger sua saúde mental em torno da IA
A saúde mental é extremamente importante e com uma escassez de fornecedores qualificados (PDF) e o que muitos chamam de “epidemia de solidão“(PDF), só faz sentido buscarmos companhia, mesmo que seja artificial. “Não há como impedir as pessoas de se envolverem com esses chatbots para tratar de seu bem-estar emocional”, disse Wright. Aqui estão algumas dicas sobre como garantir que suas conversas não o coloquem em perigo.
Encontre um profissional humano de confiança se precisar de um
Um profissional treinado – um terapeuta, um psicólogo, um psiquiatra – deve ser sua primeira escolha para cuidados de saúde mental. Construir um relacionamento de longo prazo com um provedor pode ajudá-lo a elaborar um plano que funcione para você.
O problema é que isso pode ser caro e nem sempre é fácil encontrar um fornecedor quando você precisa dele. Numa crise, há o 988 Linha de Vidaque fornece acesso 24 horas por dia, 7 dias por semana aos provedores por telefone, texto ou interface de chat online. É gratuito e confidencial.
Mesmo que você converse com a IA para ajudá-lo a organizar seus pensamentos, lembre-se de que o chatbot não é um profissional. Vijay Mittal, psicólogo clínico da Northwestern University, disse que se torna especialmente perigoso quando as pessoas confiam demais na IA. “Você precisa de outras fontes”, disse Mittal à CNET. “Acho que é quando as pessoas ficam isoladas, realmente isoladas, que isso se torna verdadeiramente problemático.”
Se você deseja um chatbot de terapia, use um desenvolvido especificamente para esse fim
Profissionais de saúde mental criaram chatbots especialmente projetados que seguem orientações terapêuticas. A equipe de Jacobson em Dartmouth desenvolveu um chamado Therabot, que produziu bons resultados em um estudo controlado. Wright apontou outras ferramentas criadas por especialistas no assunto, como Wysa e Ai bot. Ferramentas de terapia especialmente projetadas provavelmente terão melhores resultados do que bots construídos em modelos de linguagem de uso geral, disse ela. O problema é que esta tecnologia ainda é incrivelmente nova.
“Acho que o desafio para o consumidor é que, como não existe um órgão regulador que diga quem é bom e quem não é, eles têm que fazer muito trabalho braçal por conta própria para descobrir”, disse Wright.
Nem sempre confie no bot
Sempre que você estiver interagindo com um modelo generativo de IA – e especialmente se você planeja receber conselhos dele sobre algo sério, como sua saúde física ou mental – lembre-se de que você não está conversando com um ser humano treinado, mas com uma ferramenta projetada para fornecer uma resposta baseada em probabilidade e programação. Pode não fornecer bons conselhos e pode não lhe dizer a verdade.
Não confunda a confiança da geração AI com competência. Só porque diz algo, ou diz que tem certeza de algo, não significa que você deva tratá-lo como se fosse verdade. Uma conversa de chatbot que pareça útil pode dar uma falsa noção das capacidades do bot. “É mais difícil dizer quando é realmente prejudicial”, disse Jacobson.













