Kyle Orlando da ArsTechnica escreveu uma postagem no blog sobre o termo “rendição cognitiva” em 3 de abril. Eu deveria ter notado isso antes já que está flutuando desde pelo menos janeiroquando foi, ao que parece, cunhado neste contexto pelos pesquisadores de marketing da Wharton Business School, Steven Shaw e Gideon Nave. O papel deles é extremamente preocupante e, depois de ler sobre essas descobertas, o termo “rendição cognitiva” também ficará gravado na sua cabeça.
Se seu cérebro está muito gelatinoso para transferir seu pensamento para um chatbot, e agora você não consegue ler sobre as descobertas em detalhes, aqui está um vídeo dos autores falando sobre elas:
O que Shaw e Nave fizeram foi testar 1.372 pessoas e acessar um chatbot de IA para obter ajuda – com a diferença de que o chatbot às vezes dava respostas erradas. O teste era uma versão “adaptada” de algo chamado Teste de Reflexão Cognitiva, o que significa que cada pergunta era um certo tipo de quebra-cabeças que você já viu antes:
“Se 5 máquinas levam 5 minutos para fazer 5 widgets, quanto tempo levariam 100 máquinas para fazer 100 widgets?”
A resposta é “5 minutos”, o que exige que você use seu “raciocínio lento, deliberativo e analítico”, em vez de seu “processamento rápido, intuitivo e afetivo”. Sua intuição rápida pode ter lhe dito que a resposta era 100 minutos. Esses são conceitos que ficaram famosos por um maravilhoso (se imperfeito) livro do aeroporto chamado Pensando, rápido e lento pelo falecido Daniel Kahneman.
Os resultados do teste foram, obviamente, horríveis. Embora eu deva acrescentar, antes de prosseguirmos, que você deve ler sobre a crise de replicação antes de considerar os resultados de qualquer experimento como um evangelho. A validade dos resultados experimentais, especialmente em psicologia, tem sido por vezes questionada nos últimos anos porque não podem ser replicados. Isso não quer dizer que tenha notado problemas no trabalho desses autores (de qualquer forma, estou longe de estar qualificado para fazê-lo), apenas uma tendência que vale a pena sinalizar.
De qualquer forma, na parte do estudo em que os participantes foram autorizados a consultar o chatbot, fizeram-no cerca de metade das vezes. Quando dava respostas corretas, eles as aceitavam 93% das vezes. Infelizmente, quando estava errado, eles aceitavam as respostas 80% das vezes. E lembre-se de que eles não precisaram usá-lo. Eles deixaram que os maus conselhos superassem seus próprios cérebros. Pior ainda, aqueles que usaram IA avaliaram a sua confiança 11,7% mais alta do que aqueles que não o fizeram, apesar de estar errado.
Os autores escrevem que, além dos “sistemas” de cognição rápidos e lentos de Kahneman, esta nova muleta artificial está criando o que eles chamam de “Sistema 3”.
Os autores escrevem:
As nossas descobertas demonstram que as pessoas incorporam prontamente os resultados gerados pela IA nos seus processos de tomada de decisão, muitas vezes com o mínimo de atrito ou ceticismo. Este envolvimento contínuo com o System 3 sublinha o seu potencial para melhorar a cognição quotidiana, reduzindo o esforço cognitivo, acelerando decisões e complementando ou substituindo a cognição interna por insights alimentados por IA, processados externamente e com vastos recursos.
A entrega cognitiva não é necessariamente de todo ruim na opinião deles. Ele “ilustra o valor e a integração do Sistema 3, mas também destaca a vulnerabilidade do uso do Sistema 3”.
Esta não é a primeira vez que a expressão rendição cognitiva existe. O teólogo Peter Berger usou-o em um contexto religioso na década de 1990, mas significava algo mais como renunciar à fé em Deus para aliviar a dissonância cognitiva. E se você é como eu, provavelmente já percebeu que a entrega cognitiva assistida por IA se parece com formas mais antigas de preguiça mental.
Na clássica sitcom Home Improvement, por exemplo, Tim “The Toolman” Taylor costumava pedir conselhos ao seu vizinho Wilson todas as semanas quando alguma situação em sua vida não podia ser resolvida com “mais poder”. O sábio Wilson entoaria alguma sabedoria antiga e empoeirada dos antigos, e Tim sempre a aceitaria completamente.
Mas pode-se argumentar que Tim estava apenas usando Wilson como mais uma “ferramenta” para economizar tempo (se preferir), e que ele estava realizando sua própria rendição cognitiva sem IA. O conselho de Wilson pode ter sido sensato, mas quando Tim tentava repeti-lo, ele o deturpava de forma tão horrível que frequentemente questionava se ele havia realizado alguma reflexão cognitiva, ou se realmente apenas confiou em seu sistema rápido e intuitivo e aceitou cegamente a inteligência de Wilson.
Talvez em breve a IA nos transforme numa sociedade de Tim Taylors, rendendo-se cognitivamente aos nossos AI Wilsons. Posso pensar em destinos piores do que esse para a nossa espécie.













