O Google teria assinado um acordo permitindo que o Departamento de Defesa dos EUA usasse seu Modelos de IA para trabalhos classificados, apesar de uma carta aberta de centenas de funcionários instando a empresa a ficar longe de usos militares que, segundo eles, poderiam se tornar perigosos ou impossíveis de supervisionar.
O acordo, relatado na terça-feira pela The Informationpermite que o Pentágono use as ferramentas de IA do Google para “qualquer finalidade governamental legal”, incluindo aplicações militares confidenciais. Google se junta OpenAI e xAI, que também firmaram acordos confidenciais de IA semelhantes com o Pentágono.
O acordo relatado inclui linguagem afirmando que o sistema de IA do Google não se destina à vigilância doméstica em massa ou a armas autônomas sem supervisão humana apropriada. Mas também afirma que o Google não tem o direito de controlar ou vetar decisões operacionais legais do governo, de acordo com relatórios. O Google também ajudará a ajustar as configurações e filtros de segurança a pedido do governo.
Um porta-voz do Google disse à CNET em comunicado enviado por e-mail que a empresa continua comprometida com a posição de que a IA não deve ser usada para vigilância doméstica em massa ou armas autônomas sem supervisão humana, e disse que fornecer acesso API a modelos comerciais sob práticas padrão é uma “abordagem responsável” para apoiar a segurança nacional.
O Pentágono se recusou a comentar à CNET.
O acordo cai no meio de uma reação interna. Em um carta aberta dirigida ao CEO Sundar Pichaimais de 600 funcionários do Google pediram à empresa que “se recusasse a disponibilizar nossos sistemas de IA para cargas de trabalho confidenciais”. Os funcionários escreveram que, por trabalharem próximos à tecnologia, têm a responsabilidade de destacar e prevenir seus “usos mais antiéticos e perigosos”.
“Queremos que a IA beneficie a humanidade, e não que seja usada de formas desumanas ou extremamente prejudiciais”, diz a carta. Os funcionários disseram que as suas preocupações incluem armas letais autónomas e vigilância em massa, mas vão além desses exemplos porque o trabalho confidencial pode acontecer sem o conhecimento ou capacidade dos funcionários para o impedir.
A tensão ecoa uma das revoltas internas mais proeminentes do Google. Em 2018, milhares de trabalhadores protestaram contra o Projeto Mavenum programa do Pentágono que envolve análise de imagens de drones por IA. Mais tarde, o Google escolheu não renovar esse contrato.
A postura da empresa em relação à IA militar e de segurança nacional mudou desde então.
No ano passado, a Google retirou uma redação anterior dos seus princípios de IA que dizia que não iria prosseguir tecnologias suscetíveis de causar danos globais, armas, certas tecnologias ou sistemas de vigilância que violassem os direitos humanos amplamente aceites e os princípios do direito internacional.
Em um Postagem de fevereiro no blog atualizando os princípios de IA do GoogleDemis Hassabis, CEO do Google DeepMind, e James Manyika, vice-presidente sênior escreveu que “as democracias devem liderar o desenvolvimento da IA” e que as empresas e os governos devem trabalhar em conjunto para construir uma IA que “proteja as pessoas, promova o crescimento global e apoie a segurança nacional”.
Para os trabalhadores da Google que se opõem ao acordo, a preocupação não é apenas que a IA possa ser utilizada pelos militares, mas que a implantação confidencial elimine a visibilidade habitual sobre como um modelo está a ser utilizado.
“Sinto-me extremamente envergonhado”, escreveu Andreas Kirsch, pesquisador do Google DeepMind, em um postagem pública no X reagindo ao acordo relatado.
A carta aberta dos funcionários do Google termina com um apelo direto ao CEO do Google: “Hoje, pedimos a você, Sundar, que aja de acordo com os valores sobre os quais esta empresa foi construída e recuse cargas de trabalho confidenciais”.













