O queimador frontal
/
8 de abril de 2026
Cobrança de dívidas. Decisões de liberdade condicional. Fiscalização dos serviços públicos. Tudo está sendo terceirizado para a IA, com consequências terríveis para os pobres.
As marcas de luxo sempre anunciaram o artesanato dos seus produtos, mas nos últimos meses, a própria arte humana tornou-se a sua estratégia publicitária. A Hermès redesenhou todo o seu site em torno de ilustrações desenhadas à mão pela artista francesa Linda Merad, que disse que a grife queria que os visitantes reconhecessem que “a arte foi feita por um ser humano”. As casas de moda Chanel e Loewe contrataram ilustradores humanos para criarem as suas recentes campanhas nas redes sociais. Durante as férias, a Porsche lançou um anúncio que combinava obras de arte desenhadas à mão com animação 3D – uma escolha que parecia acertada logo após os anúncios de IA generativa da Coca-Cola e do McDonald’s. Em fevereiro passado, a Gucci se tornou um conto de advertência quando atraiu a ira dos fashionistas depois de usar IA em seus anúncios. “Quaisquer marcas de luxo que usaram resíduos de IA não devem ser consideradas[ed] mais luxo”, uma postagem viral lida. Outro afirmou: “O objetivo do luxo é que alguém se importou”.
À medida que a automação e a IA se tornam omnipresentes, o toque humano tornou-se um bem de luxo. De certa forma, isto pode parecer apenas uma continuação de um tema: os ricos recebem um serviço de atendimento ao cliente de luvas brancas, enquanto o resto de nós fica preso a pressionar “1” e “2” e a gritar “fale com um agente” em vazios telefónicos automatizados. Pode parecer apenas mais um sintoma da mais ampla enshittificação da nossa época e da ordem económica plutocrática. E a maioria de nós não gosta disso. Estudos confirmam o ceticismo generalizado: Uma pesquisa Pew de 2025 descobriram que metade dos americanos estava mais preocupada do que entusiasmada com a ascensão da IA, e cerca de 60% disseram que gostariam de ter mais controle sobre o uso da IA em suas próprias vidas.
E, no entanto, são os pobres que estão sujeitos aos seus usos mais importantes. Hoje, os cobradores de dívidas usam IA para perseguir pessoas por telefone, e-mail e chatbots. Os deepfakes de IA estão preparados para piorar as disparidades na justiça criminal. As decisões de liberdade condicional estão sendo tomadas por sistemas de IA. E cada vez mais, as autoridades federais e estaduais estão terceirizando a tomada de decisões e a supervisão dos serviços públicos para máquinas digitais.
Como a TechTonic Justice, uma organização sem fins lucrativos que rastreia tecnologias prejudiciais às comunidades de baixa renda, observou em um Relatório de novembro de 2024os governos empregam IA em programas públicos quando procuram cortar custos sob o pretexto de garantir que apenas as pessoas “certas” recebem serviços. Mas qualquer erro cometido por um sistema automatizado se transforma imediatamente em uma bola de neve: Tais sistemas podem criar “Sofrimento imenso em escalas e velocidades que seriam impossíveis com os métodos centrados no ser humano que os precederam”, descobriram os pesquisadores. Após décadas de austeridade enraizada em políticas anti-negros e anti-pobres, a rede de segurança da América já está desgastada; esses mesmos preconceitos estão agora codificados em ferramentas digitais que, como toda IA, reproduzem os preconceitos dos seus dados de formação e dos seus programadores. Um burocrata humano só pode destruir um determinado número de vidas num dia; algoritmos podem arruinar a vida de dezenas de milhares de pessoas ao mesmo tempo.
Cada estado agora usa IA para determinar a elegibilidade do Medicaid, de acordo com a TechTonic Justice. Para os 73 milhões de pessoas inscritas no programa, os sistemas automatizados decidem cada vez mais se aprovam ou negam tratamentos de saúde. Os quase 14 milhões de americanos que recebem benefícios por invalidez através da Administração da Segurança Social estão sujeitos a decisões moldadas pela IA, que também é utilizada pelo Departamento de Habitação e Desenvolvimento Urbano; na detecção de fraudes para o Programa de Assistência Nutricional Suplementar; e ao fazer previsões de negligência em investigações de bem-estar infantil. Na verdade, em toda a rede de segurança social, as decisões sobre quem é ajudado e quem é negado são cada vez mais deixadas às máquinas. (Logo quando o anúncio da Porsche foi lançado, a administração Trump concedeu discretamente à Palantir um contrato sem licitação para um sistema de IA para procurar supostas fraudes por parte dos destinatários do SNAP.) Na verdade, como relataram os pesquisadores da TechTonic Justice, “todos os 92 milhões de pessoas de baixa renda nos EUA… têm algum aspecto básico de suas vidas decidido pela IA”.
Em 2013, por exemplo, Michigan, sem dinheiro, instituiu um sistema automatizado para erradicar a fraude no seu programa de seguro-desemprego. Durante um período de dois anos, o sistema levantou acusações de fraude contra mais de 60.000 pessoas – mais de cinco vezes o número identificado por relatórios anteriores. investigações lideradas por humanos. Apesar de nenhuma revisão humana destas descobertas, o estado começou a exigir o reembolso; documentos judiciais observaram que “as avaliações punitivas totalizavam regularmente entre US$ 10.000 e US$ 50.000 e às vezes ultrapassavam US$ 187.000”. Três anos depois, o auditor geral de Michigan concluiu que 93% dessas alegações estavam erradas. Nessa altura, milhares de pessoas tinham sofrido detenções, falências e despejos, tendo pelo menos uma pessoa morrido por suicídio. Em 2022, Michigan devia US$ 20 milhões em custos de liquidação aos requerentes que assinaram um contrato ação coletiva.
Problema atual

No Arkansas, um sistema automatizado cortou erroneamente os serviços de enfermagem e outros serviços de assistência domiciliar para cerca de 4.000 pessoas com deficiências graves. Quando as famílias perguntaram por que os serviços haviam sido cortados, disseram-lhes simplesmente que “o computador fez isso”. (Um tribunal decidiu que o estado tinha que parar de usar o sistema.) Em Minnesota e Kentucky, ações judiciais coletivas em andamento alegam negações injustas de cuidados em casos em que as seguradoras IA alistada ignorar as recomendações do médico e negar as reivindicações do Medicare Advantage de pacientes idosos. Em Illinois e no condado de Los Angeles, os sistemas automatizados usados para determinar remoções para o bem-estar infantil foram tão sujeito a erros que ambas as jurisdições descontinuaram seu uso.
O empresa de pesquisa Forrester prevê que a IA e a automação eliminarão 6% de todos os empregos, ou cerca de 10 milhões de cargos, até 2030. Essa perspectiva parece otimista em comparação com um Relatório do Senado de 2025 que previu que cerca de 100 milhões de americanos poderiam perder seus empregos para a IA nos próximos 10 anos. Há uma nova exclusão digital e quanto menos dinheiro você tiver para sair dela, maior será o papel que a IA terá em sua vida.













