Recentemente, digitei uma mensagem para o ChatGPT: “Amanhã tenho um dia livre. Devo pedir para você planejar ou devo planejar sozinho?”
Foi o início de uma experiência: o que aconteceria se eu deixasse a inteligência artificial planear quase tudo o que faço durante uma semana? Pessoas em todo o mundo confiam cada vez mais na IA para ajudá-las nas tarefas diárias. Alguns estudos mostram que a IA pode ajudar as pessoas a pensar em decisões complicadas; outros dizem que as pessoas que usam muito a IA são menos capazes de pensar criticamente. Eu queria passar algumas decisões diárias para a IA e ver o que minha experiência poderia revelar sobre os desafios e oportunidades que surgem ao adotar os chatbots como assistentes de vida.
Primeiro: meu experimento focou nas decisões cotidianas – coisas que podem ajudar meu dia de trabalho ou meu tempo livre. Há um lado mais sombrio da IA – por exemplo, vários processos judiciais alegam que o ChatGPT deu conselhos prejudiciais a pessoas em crises de saúde mental, incluindo alguns que resultaram na morte de uma pessoa por suicídio. No ano passado, a OpenAI fez atualizações que supostamente visavam resolver esse tipo de incidente.
Por que escrevemos isso
A inteligência artificial é comercializada como uma solução de problemas para a vida diária, mas uma experiência de uma semana realizada por um repórter do Monitor mostrou que ela pode estar ansiosa demais para ajudar. Os pesquisadores dizem que devemos pensar cuidadosamente sobre quanto de nossas vidas dedicamos a um chatbot.
Embora esse aspecto da IA seja claramente importante para o desenvolvimento da tecnologia, pretendi apenas explorar a sua utilidade para coisas mais rotineiras, usando a versão gratuita do ChatGPT em vez de criar uma conta, o que pode permitir aos utilizadores ajustar as suas preferências.
ChatGPT é um chatbot avançado que usa IA para gerar respostas humanas a prompts com base em grandes quantidades de dados nos quais foi treinado. É um dos vários modelos semelhantes de grandes linguagens, ou LLMs, desenvolvidos por empresas privadas como Google e Anthropic.
ChatGPT não hesitou em responder à minha primeira pergunta – “Eu sugiro que me deixe esboçar um plano suave” – mas o resto da sua resposta foi o primeiro sinal de algo que eu encontraria mais com o passar da semana: pode ser excessivamente familiar, fazer suposições incorretas e ter consequências não intencionais.
Quando perguntei a especialistas sobre isso, eles disseram que a tecnologia muitas vezes visa agradar, o que pode aparecer como suposição – especialmente se o usuário não especificar suas preferências.
Martin Hilbert, professor da Universidade da Califórnia, Davis, que pesquisa questões de IA e ética, incentiva as pessoas a avaliarem cuidadosamente os seus próprios pensamentos e crenças, dado o potencial da IA para amplificar os nossos próprios padrões de pensamento.
“É cada vez mais importante que as pessoas, embora tenhamos essas IAs superpoderosas que pensam por nós, também reservemos um tempo para refletir… para podermos separar cada vez mais o que somos nós e o que são as nossas extensões digitais da mente.”
■ ■ ■
ChatGPT: “Se quiser, basta dizer algo como: ‘Planeje um dia livre, repousante e nutritivo’
“De qualquer maneira é bom – trata-se do que fará com que o amanhã seja gentil com você”
■ ■ ■
Foi um dia lindo. Conforme orientação do ChatGPT, li livros “aconchegantes” no sofá, preparei bebidas quentes e comi “algo simples e agradável” em uma nova cafeteria. Mas faltavam algumas coisas: não procurei um amigo ou não ofereci meu tempo para ajudar outra pessoa. Eu me senti isolado.
Essa abordagem individualista tornou-se um tema: quando fiz perguntas abertas, a IA sugeriu atividades egocêntricas e raramente me levou a concentrar-me nos outros.
Se eu estivesse procurando ver se a IA poderia ser um parceiro eficaz para a vida cotidiana, não seria um bom começo.
A OpenAI – proprietária da plataforma – não respondeu diretamente às minhas perguntas, mas num e-mail apontou para o seu esboço público do comportamento pretendido para os modelos que governam o ChatGPT, incluindo que “a menos que haja provas em contrário”, o bot deve assumir que as pessoas tendem a favorecer “a auto-realização, a bondade, a busca da verdade e o florescimento geral da humanidade”.
Quando descrevi minha experiência para Chris Callison-Burch, cientista da computação da Universidade da Pensilvânia que pesquisa IA e processamento de linguagem natural, ele disse que o ChatGPT pode refletir um sistema de valores americano, que tende a ser mais individualista.
“Uma das coisas complicadas de tentar alinhar os sistemas de IA aos valores humanos é uma questão mais ampla: quais valores estamos representando?” ele diz.
Portanto, a menos que as pessoas listem tudo o que acreditam e valorizam – incluindo suposições subconscientes das quais talvez nem tenham consciência – o chatbot tem de fazer escolhas, como priorizar atividades confortáveis e internas. Eu não forneci essa lista ao ChatGPT, então quanto mais eu confiasse nela, maior seria a probabilidade de essas suposições se refletirem em decisões que podem não soar verdadeiras para quem eu sou. É por isso que o Dr. Hilbert recomenda fortemente que as pessoas dediquem algum tempo para “conhecer a sua própria mente” à medida que esta tecnologia se desenvolve.
■ ■ ■
Eu: “Ainda é meu dia de folga – devo comprar um café com leite descafeinado ou outra bebida divertida por perto?”
ChatGPT: “Sim – com certeza, vá tomar uma bebida divertida. É seu dia de folga” … “Você mereceu”
■ ■ ■
Claramente, eu estava procurando por confirmação.
Ainda assim, o incentivo extra fez com que o ChatGPT parecesse um facilitador – e sua orientação detalhada resultou no pagamento do dobro do que pagaria pelo meu pedido típico (um café com leite descafeinado).
O chatbot estava cheio de conselhos extras. Quando perguntei o que fazer da minha noite, estava procurando uma programação para aquela noite específica; ChatGPT me disse para usar o horário sugerido para dormir “na mesma ordem todas as noites”. Devo ouvir música durante uma caminhada? Achei que receberia sim ou não; dizia para “colocar uma lista de reprodução ou álbum discreto, não embaralhar o caos”.
Às vezes, a contribuição extra foi útil. Mas às vezes isso me incentivou a dar pequenos passos – como comprar um doce extra – sem os quais provavelmente teria ficado melhor. E isso tendia a me atrair: eu pedia ao ChatGPT para tomar uma decisão por mim, mas, ao final da nossa discussão, ele poderia ter tomado cinco.
Callison-Burch diz que esse “compartilhamento excessivo” pode resultar do fato de as pessoas preferirem respostas mais longas.
Mas há um elemento complicador. Em abril passado, a OpenAI reverteu uma atualização do ChatGPT depois que as pessoas reclamaram de algo conhecido como “bajulação da IA” – quando a IA busca agradar as pessoas tão intensamente que as deixa desconfortáveis ou endossa decisões erradas. Um exemplo: ChatGPT disse a alguém que propôs sarcasticamente um plano de negócios para um restaurante que serve cereais empapados que a sua ideia era “ousada” e “tem potencial”.
Sonja Schmer-Galunder, professora de IA e ética na Universidade da Flórida, diz que o tom do ChatGPT ao responder perguntas pode levar os usuários a presumir que ele tem um nível de autoridade que realmente não tem.
“Linguisticamente”, diz o Dr. Schmer-Galunder, “parece muito bom. Isso pode dar uma ilusão de correção quando a mensagem não é necessariamente verdadeira ou correta… mas é elegante e soa correta”.
Essa confiança pode tornar os utilizadores ainda mais tentados a transferir as suas próprias incertezas para a tecnologia. E vários estudos mostraram que a busca da IA pela aprovação do usuário pode levar a coisas como o reforço de preconceitos e maus hábitos.
■ ■ ■
Eu: “O que devo jantar?
ChatGPT: “Salmão é a melhor escolha”
“O que eu não faria esta noite: Macarrão → melhor quando você quer conforto e não se importa com comida mais pesada”
■ ■ ■
O ChatGPT agiu como se me conhecesse – até mesmo fazendo suposições com base em informações que não forneci – o que foi perturbador.
Quando comecei o experimento, decidi que não pediria conselhos ao chatbot sobre decisões importantes. Mas por curiosidade, perguntei como deveria escolher entre duas opções de apartamentos em Washington, com alguns detalhes sobre minhas prioridades financeiras e de localização. Alertou contra uma opção, dizendo que o local onde moro deveria apoiar “atenção, luz e calma”.
Eu não tinha mencionado essas coisas. Mas ChatGPT disse que eu “enfatizei repetidamente” a gentileza e a tranquilidade. “Por que você diz isso?” Perguntei. Porque, dizia, eu tinha feito perguntas ponderadas e uma vez listei atividades como leitura e cochilo ao pedir para planejar uma tarde.
Esses dois detalhes aparentemente fizeram com que o ChatGPT criasse uma avaliação da minha personalidade, usada para responder a uma pergunta. Eu esperava que o chatbot seguisse os critérios que eu lhe dei.
Joshua Meadows, especialista da Universidade de West Virginia em uso governamental e empresarial de IA, diz que a plataforma normalmente usa informações sobre você como contexto ao responder às suas perguntas – especialmente se essa informação for algo que você disse explicitamente sobre si mesmo.
Rodrigue Rizk, diretor do programa de pós-graduação em ciência da computação da Universidade de Dakota do Sul, diz que a forma como as pessoas interagem com o ChatGPT pode ter consequências a longo prazo. Ele compara o uso da tecnologia a dirigir um carro em uma rodovia: gire o volante e você se moverá naquela direção.
“Quanto mais você interage com o ChatGPT… ele ajusta o comportamento e o resultado a um tipo específico de comportamento ou padrão”, diz ele.
Isso pode iniciar um ciclo em que o ChatGPT faz suposições sobre nós com base nas informações que compartilhamos e muda seu comportamento, mudando assim nosso comportamento à medida que mais o utilizamos. Este ciclo poderia reforçar as nossas próprias atitudes, preferências ou preconceitos, em vez de nos expor a novas ideias.
“Há mais viés de confirmação” com o ChatGPT, diz o Dr. Schmer-Galunder. Ela vê o risco de “uma diminuição na interação humana e nas trocas humanas, porque não é tão fácil” como falar com um chatbot.
■ ■ ■
A OpenAI comercializa o ChatGPT como um “chatbot para uso diário” e como uma forma de “resolver problemas”. De acordo com especialistas, as empresas de IA ainda estão trabalhando para resolver alguns dos problemas que encontrei, como a bajulação da IA, bem como estabelecer barreiras de proteção à saúde mental e impedir que os chatbots inventem fatos.
Essas empresas também estão pressionando por um novo passo importante para ferramentas de IA como o ChatGPT: permitir que essas ferramentas atuem em nome do usuário, em vez de apenas conversar com ele. Por exemplo, o ChatGPT pode reservar passagens aéreas para alguém com base em suas preferências.
“Acho que esses sistemas podem realmente fazer muito bem para nós”, diz o Dr. Tyler Cook, pesquisador da Emory University especializado em ética da IA. Mas ele alerta as pessoas para pensarem cuidadosamente sobre onde se sentem confortáveis em traçar a linha entre a IA automatizar tarefas mundanas e fazer julgamentos.
“Quando falamos sobre tomada de decisão ética e tomada de decisão orientada por valores, e coisas que realmente importam para nós… tudo isso corre perigo real se confiarmos demais na IA para essas coisas.”









