A administração Trump apresentou na sexta-feira uma quadro legislativo por uma política singular para IA nos Estados Unidos. A estrutura centralizaria o poder em Washington, anulando as leis estaduais de IA, potencialmente minando a recente onda de esforços dos estados para regular o uso e o desenvolvimento da tecnologia.
“Este quadro só poderá ter sucesso se for aplicado uniformemente em todos os Estados Unidos”, lê-se numa declaração da Casa Branca sobre o quadro. “Uma colcha de retalhos de leis estaduais conflitantes prejudicaria a inovação americana e nossa capacidade de liderar na corrida global da IA.”
A estrutura descreve sete objetivos principais que priorizam a inovação e o dimensionamento da IA, e propõe uma abordagem federal centralizada que substituiria regulamentações estaduais mais rigorosas. Ele atribui uma responsabilidade significativa aos pais em questões como a segurança infantil e estabelece expectativas relativamente brandas e não vinculativas para a responsabilização da plataforma.
Por exemplo, afirma que o Congresso deveria exigir que as empresas de IA implementem funcionalidades que “reduzam os riscos de exploração sexual e danos a menores”, mas não estabelece quaisquer requisitos claros e aplicáveis.
A estrutura de Trump surge três meses depois de ele ter assinado uma ordem executiva ordenando às agências federais que desafiassem as leis estaduais de IA. A ordem deu ao Departamento de Comércio 90 dias para compilar uma lista de leis estaduais “onerosas” de IA, potencialmente arriscando a elegibilidade dos estados para fundos federais, como subsídios de banda larga. A agência ainda não publicou essa lista.
A ordem também orientou o governo a trabalhar com o Congresso em uma lei uniforme de IA. Essa visão está a ganhar destaque e reflecte a estratégia anterior de Trump em matéria de IA, que se centrava menos em barreiras de protecção e mais na promoção do crescimento das empresas.
O novo quadro propõe uma “norma nacional minimamente onerosa”, ecoando o esforço mais amplo da administração para “remover barreiras obsoletas ou desnecessárias à inovação” e acelerar a adopção da IA em todas as indústrias. Esta é uma abordagem regulamentar pró-crescimento e moderada, defendida por “aceleracionistas”, um dos quais é o czar da IA da Casa Branca e capitalista de risco David Sacks.
Evento Techcrunch
São Francisco, Califórnia
|
13 a 15 de outubro de 2026
Embora o quadro acene para o federalismo, as exclusões para os estados são relativamente estreitas, preservando apenas a sua autoridade sobre leis gerais como fraude e protecção infantil, zoneamento e utilização estatal da IA. Estabelece uma linha dura contra os estados que regulam o próprio desenvolvimento da IA, que afirma ser uma questão “inerentemente interestadual” ligada à segurança nacional e à política externa.
O quadro também procura evitar que os Estados “penalizem[ing] Desenvolvedores de IA por conduta ilegal de terceiros envolvendo seus modelos” – um escudo de responsabilidade fundamental para desenvolvedores.
Faltam nesse quadro quaisquer gestos no sentido de quadros de responsabilidade, supervisão independente ou mecanismos de aplicação para potenciais novos danos causados pela IA. Com efeito, o quadro centralizaria a elaboração de políticas de IA em Washington, ao mesmo tempo que estreitaria o espaço para os estados agirem como reguladores iniciais dos riscos emergentes.
Os críticos dizem que os Estados são as caixas de areia da democracia e têm sido mais rápidos a aprovar leis em torno dos riscos emergentes. Notavelmente, a Lei RAISE de Nova Iorque e a Lei SB-53 da Califórnia procuram garantir que as grandes empresas de IA tenham e cumpram protocolos de segurança documentados publicamente.
“O czar da IA da Casa Branca, David Sacks, continua a fazer as propostas da Big Tech às custas dos americanos normais e trabalhadores”, disse Brendan Steinhauser, CEO da The Alliance for Secure AI. “Esta estrutura federal de IA procura impedir que os estados legislem sobre IA e não fornece nenhum caminho para a responsabilização dos desenvolvedores de IA pelos danos causados por seus produtos.”
Muitos na indústria da IA estão a celebrar esta direção porque lhes dá liberdades mais amplas para “inovar” sem a ameaça de regulamentação.
“Essa estrutura é exatamente o que as startups estão pedindo: um padrão nacional claro para que possam construir com rapidez e escala”, disse Teresa Carlson, presidente do General Catalyst Institute, ao TechCrunch. “Os fundadores não deveriam ter que navegar por uma colcha de retalhos de leis estaduais conflitantes sobre IA que impedem a inovação.”
Segurança infantil, direitos autorais e liberdade de expressão
O quadro foi publicado num momento em que a segurança infantil emergiu como um ponto central no debate sobre a IA. Certos estados agiram agressivamente para aprovar leis destinadas a proteger menores e a atribuir mais responsabilidade às empresas de tecnologia. A proposta da administração aponta numa direção diferente, colocando maior ênfase no controlo parental do que na responsabilização da plataforma.
“Os pais estão mais bem equipados para gerir o ambiente digital e a educação dos seus filhos”, diz o quadro. “A administração está a apelar ao Congresso para fornecer aos pais ferramentas para o fazerem eficazmente, tais como controlos de contas para proteger a privacidade dos seus filhos e gerir a utilização dos seus dispositivos.”
A estrutura também diz que a administração “acredita” que as plataformas de IA devem “implementar recursos para reduzir a potencial exploração sexual de crianças e encorajar a automutilação”. Embora exorte o Congresso a exigir tais salvaguardas e afirme que as leis existentes, incluindo as que proíbem materiais de abuso sexual infantil, devem aplicar-se aos sistemas de IA, a proposta emprega qualificadores como “comercialmente razoável” e não estabelece pré-requisitos claros.
No que diz respeito aos direitos de autor, o quadro tenta encontrar um meio-termo entre proteger os criadores e permitir que os sistemas de IA sejam treinados em obras existentes, citando a necessidade de “utilização justa”. Esse tipo de linguagem reflete os argumentos apresentados pelas empresas de IA ao enfrentarem um número crescente de ações judiciais de direitos autorais sobre seus dados de treinamento.
As principais barreiras de proteção que a estrutura de IA de Trump parece delinear envolvem garantir que “a IA possa buscar a verdade e a precisão sem limitações”. Especificamente, concentra-se na prevenção da censura conduzida pelo governo, em vez da moderação da plataforma em si.
“O Congresso deve impedir o governo dos Estados Unidos de coagir os fornecedores de tecnologia, incluindo os fornecedores de IA, a proibir, obrigar ou alterar conteúdo com base em agendas partidárias ou ideológicas”, diz a estrutura. Também instrui o Congresso a fornecer uma forma para os americanos buscarem reparação legal contra agências governamentais que procuram censurar a expressão em plataformas de IA ou ditar informações fornecidas por uma plataforma de IA.
A estrutura surge no momento em que a Anthropic está processando o governo por supostamente infringir seus direitos da Primeira Emenda, depois que o Departamento de Defesa (DOD) classificou isso como um risco para a cadeia de suprimentos. A Anthropic argumenta que o DOD o está designando como tal em retaliação por não permitir que os militares usassem seus produtos de IA para vigilância em massa dos americanos ou para tomar decisões de direcionamento e disparo de armas letais autônomas. Trump referiu-se à Anthropic e ao seu CEO Dario Amodei como “acordados” e “esquerdistas radicais”.
A linguagem do quadro, que enfatiza a protecção da “expressão ou dissidência política legal”, parece basear-se na ordem executiva anterior de Trump visando a “IA desperta”, que pressionou as agências federais a adoptarem sistemas considerados ideologicamente neutros.
Não está claro o que se qualifica como censura versus moderação de conteúdo padrão, portanto, tal linguagem pode dificultar a coordenação dos reguladores com as plataformas em questões como desinformação, interferência eleitoral ou riscos para a segurança pública.
Samir Jain, vice-presidente de política do Centro para Democracia e Tecnologia, destacou: “[The framework] diz com razão que o governo não deve coagir as empresas de IA a proibir ou alterar conteúdo com base em ‘agendas partidárias ou ideológicas’, mas a Ordem Executiva de ‘IA despertada’ da Administração neste verão faz exatamente isso.”












