Início Tecnologia A rivalidade antrópica do Pentágono ‘deveria ser um alerta para o Congresso’

A rivalidade antrópica do Pentágono ‘deveria ser um alerta para o Congresso’

12
0

A disputa contratual entre o Departamento de Defesa dos EUA e o desenvolvedor de IA Antrópico, que estourou no final de fevereiro, expôs em termos rígidos como as leis e regulamentos não conseguiram acompanhar as capacidades da inteligência artificial.

O Pentágono queria poder usar Claude AI da Antrópico para “todos os fins legais”, enquanto a Antrópico queria proibir os militares de usá-lo para vigilância doméstica em massa ou para sistemas de armas totalmente autônomos. Depois que a Anthropic se recusou a atender às exigências do governo, o presidente Donald Trump e o secretário de Defesa Pete Hegseth disseram que iriam declarar a empresa um “risco da cadeia de suprimentos”, proibindo o uso de seus produtos em contratos de defesa. O Pentágono fez, e a Antrópica entrou com ação na segunda-feira no tribunal federal contestando a designação, chamando-a de um ataque “sem precedentes e ilegal” ao direito da empresa à liberdade de expressão.

Distintivo CNET AI Atlas; clique para ver mais

Funcionários do Pentágono disseram que o problema é discutível porque a lei atual não permite tal vigilânciae não tem planos de usar a ferramenta para sistemas de armas autônomos. Mas as leis e regulamentos não são tão claros, de acordo com especialistas em privacidade e tecnologia. E uma disputa contratual entre uma empresa privada e uma agência federal não é o local para resolvê-la.

“Esta semana expôs um verdadeiro vácuo de governança e deveria ser um alerta para o Congresso”, disse Hamza Chaudhry, líder de IA e segurança nacional do Future of Life Institute.

Leia mais: O Congresso não está se esforçando para regulamentar a IA. Onde isso nos deixa agora?

O resultado imediato da disputa contratual foi o Pentágono em vez disso, fechar um acordo com a OpenAI. O acordo com a OpenAI foi menos claro sobre as limitações do uso dos produtos da empresa para vigilância em massa ou armas autônomas, mas os líderes da OpenAI disseram esta semana que tomaram medidas para fortalecer essas proteções. O CEO Sam Altman disse em um postar no X que o Pentágono afirmou que não seria usado pelas agências de inteligência do departamento.

(Divulgação: Ziff Davis, empresa controladora da CNET, em 2025 entrou com uma ação judicial contra a OpenAI, alegando que ela infringiu os direitos autorais de Ziff Davis no treinamento e operação de seus sistemas de IA.)

Cientista pesquisador da OpenAI, Noam Brown postado em X que ele acreditava que o mundo “não deveria depender da confiança em laboratórios de IA ou agências de inteligência” para garantir coisas como segurança. “Sei que a legislação às vezes pode ser lenta, mas tenho medo de uma ladeira escorregadia onde nos acostumamos a contornar o processo democrático para decisões políticas importantes”, escreveu ele.

A questão é se e como o Congresso lidará com essas questões.

A IA desempenha um papel crescente na vigilância

O grande risco de usar IA para vigilância doméstica não é necessariamente que Claude ou ChatGPT espionem os americanos. É que estas ferramentas serão usadas para transformar dados que o governo já possui, ou que poderia comprar de corretores de dados privados sem a necessidade de um mandado, em informações que de outra forma exigiriam um mandado.

Seus dados pessoais já estão sendo coletados, provavelmente do dispositivo que você está usando para ler isto. Inclui informações sobre seu histórico de navegação, dados de localização e com quem você conversa ou se associa. As empresas privadas, como os desenvolvedores de aplicativos, podem coletar esses dados mesmo que você não perceba e vendê-los a outras empresas ou agências de inteligência. Mas, até recentemente, tem sido difícil para os governos processar tudo isso de uma forma que facilite a vigilância. A IA mudou isso.

O CEO da Anthropic, Dario Amodei, citou especificamente esta situação em um Declaração de 26 de fevereiro detalhando as razões da empresa para manter suas linhas vermelhas. “A IA poderosa torna possível reunir esses dados dispersos e individualmente inócuos em uma imagem abrangente da vida de qualquer pessoa – automaticamente e em grande escala.”

A IA de hoje não está pronta para sistemas de armas

A outra disputa central é que a Anthropic queria impedir que o Pentágono desse a Claude o controle total de um sistema de armas sem um “humano no circuito”. Uma ferramenta de IA usada para ajudar a selecionar alvos como supostamente está acontecendo com Claude durante a guerra dos EUA no Irão – não está fora do alcance da Antrópico ou de qualquer uma das principais empresas de IA, porque uma pessoa está envolvida na verificação e na tomada da decisão. A objeção da empresa foi ao uso de modelos de IA na tomada dessas decisões sem supervisão humana. Amodei escreveu que os modelos de fronteira atuais “simplesmente não são confiáveis ​​o suficiente para alimentar armas totalmente autônomas”.

Greg Nojeim, conselheiro sênior e diretor do projeto de segurança e vigilância do Centro para Democracia e Tecnologia, disse que está claro que os especialistas em IA não acreditam que os modelos estejam prontos para esse tipo de uso, se é que algum dia estarão.

“É impressionante que o Pentágono rejeite esse conselho e insista em poder usar esta ferramenta de IA para matar pessoas sem intervenção humana”, disse ele.

O Departamento de Defesa argumentou que não pode realmente usar armas totalmente autônomas, mas Chaudhry me contou o mais diretiva comumente citada (PDF) sobre esse assunto não os proíbe abertamente. O Departamento de Defesa e Antrópico não respondeu aos pedidos da CNET para comentar esta história.

Independentemente disso, dizem os especialistas, a questão do uso de tais armas não deve ser resolvida por burocratas federais, comandantes militares ou empresas privadas não eleitos. As autoridades eleitas precisam levar isso em conta.

Uma pessoa coloca cartazes protestando contra o uso de IA em armas mortais no National Mall, em Washington. Uma placa diz "Pare os robôs assassinos de Trump" e um deles é um cão-robô com uma arma nas costas e "OpenAI" do seu lado.

Heather Diehl / Imagens Getty

Um ponto de viragem para a regulamentação da IA?

A questão de como regular a IA e quem deve fazê-lo não é novidade. A administração Trump apelou a uma abordagem ligeira ao dizer às empresas de IA o que fazer, apesar das evidências de danos que vão desde chatbots que encorajam o suicídio até à erosão da privacidade pessoal proporcionada pela IA. Os estados tentaram controlar os desenvolvedores de IA para lidar com essas questões, mas enfrentam resistência de um governo federal que pretende decidir como a tecnologia será tratada.

No caso do uso de IA pelos serviços de espionagem militares e federais, a questão de quem deveria regular é clara: o Congresso.

“Não se pode confiar que os líderes não eleitos das empresas do sector privado utilizem um contrato privado para preencher uma lacuna que os legisladores democraticamente eleitos não preencheram legislativamente”, disse Chaudhry. “O que precisamos é de linhas vermelhas estatutárias – regras claras, duradouras e democraticamente promulgadas sobre o que a IA pode ou não ser usada em contextos de segurança nacional, à medida que a IA transforma a segurança nacional.”

Nojeim disse que a vigilância por IA “não é o tipo de conduta que os militares deveriam ser capazes de autoautorizar”. O Congresso considerará a reautorização de parte da Lei de Vigilância de Inteligência Estrangeira no próximo mês e poderá aproveitar essa oportunidade para decidir se as agências de inteligência precisam de mandados ao usar dados adquiridos.

“Idealmente, o Congresso interviria e limitaria a capacidade do governo de comprar dados sobre os americanos e contornar os requisitos de autorização judicial, e idealmente o Congresso estabeleceria as regras sobre como o Departamento de Defesa deveria proteger os americanos contra a vigilância alimentada pela IA e estabelecer regras sobre o uso de armas autônomas que podem matar sem um ser humano no circuito”, disse ele.

O Congresso tem uma série de outras questões regulamentares relacionadas com a IA a considerar, mas o debate sobre a utilização da IA ​​para vigilância e armas autónomas é revelador e poderá estimular uma ação mais rápida.

E quanto aos efeitos a longo prazo desta disputa?

A retaliação do Pentágono contra a Anthropic – a sua declaração oficial esta semana de que a empresa representa um risco para a cadeia de abastecimento – poderá ter um efeito inibidor sobre outras empresas preocupadas com a forma como o governo utilizará a sua tecnologia.

“Isso abre um precedente de que o governo pode retaliar contra uma empresa que impôs limites de segurança ao uso de sua tecnologia porque sabe mais sobre os riscos e a confiabilidade de sua tecnologia do que o governo poderia”, disse Nojeim. “Esse precedente nos tornará menos seguros.”

Antrópico disse quinta-feira que tinha recebido uma carta do Departamento de Defesa designando-a como um risco para a cadeia de abastecimento e que a linguagem da carta era mais restrita do que as amplas ameaças feitas por funcionários da administração na semana anterior. “No que diz respeito aos nossos clientes, aplica-se claramente apenas ao uso de Claude pelos clientes como parte direta de contratos com o Departamento de Guerra, e não a todo o uso de Claude por clientes que têm tais contratos”, disse Amodei em comunicado, usando o nome preferido de Hegseth para o departamento.

Apesar da disputa e da designação como um risco na cadeia de abastecimento, os militares dos EUA continuaram a utilizar as ferramentas da Anthropic, inclusive de forma extensiva durante a actual guerra no Irão. Amodei disse que a Anthropic continuará fornecendo seus modelos de IA aos grupos militares e de segurança nacional “a um custo nominal e com o apoio contínuo de nossos engenheiros” enquanto for permitido.

“A Antrópico tem muito mais em comum com o Departamento de Guerra do que diferenças”, disse Amodei.



fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui