Início Tecnologia A administração Trump tem como alvo a legislação estadual sobre IA –...

A administração Trump tem como alvo a legislação estadual sobre IA – mais uma vez. Por que isso importa

29
0

Douglas Rissing / iStock / Getty Images Plus via Getty Images

Siga ZDNET: Adicione-nos como fonte preferencial no Google.


Principais conclusões da ZDNET

  • A nova orientação política da Casa Branca deseja substituir a maioria das leis estaduais de IA.
  • A legislação federal proposta é em grande parte leve, preocupando alguns estados.
  • Os pesquisadores ainda estão insatisfeitos com as abordagens federais à segurança da IA.

Na sexta-feira, a administração Trump divulgou novas orientações políticas para o Congresso sobre como a IA deveria ser regulamentada federalmente, reavivando mais uma vez o apelo para dificultar as leis estaduais de IA.
Depois de uma tentativa fracassada de limitar a legislação estadual sobre IA no verão passado, o governo retomou seus esforços com uma Ordem executiva de dezembro e um consequente Força-tarefa de litígio de IA focado em restringir as leis estaduais que considera que limitariam o desenvolvimento competitivo.

Além disso: 5 maneiras pelas quais regras e regulamentos podem ajudar a orientar sua inovação em IA

Aqui está o que a nova estrutura deseja que o Congresso faça, uma visão geral das leis estaduais de IA mais importantes já em vigor e por que os especialistas acham que elas são importantes.

O que a orientação sugere

De acordo com a abordagem desta administração até agora, a nova orientação – que esperávamos desde o Plano de Acção de IA neste verão – visa manter mínima a regulamentação federal sobre IA, ao mesmo tempo que substitui várias leis estaduais de IA.

Na ausência de regulamentação federal que aborde as preocupações de muitos estados sobre a IA, surgiram projetos de lei locais em todo o país. A administração Trump e as empresas de IA argumentam que as leis estatais criam uma colcha de retalhos regulamentares inconveniente que impede a inovação. Aplicam o mesmo argumento à regulamentação da segurança da IA, especialmente a nível federal, dizendo que esta atrasa o desenvolvimento, prejudica os empregos no sector tecnológico e cede terreno na corrida à IA a países como a China.

Os especialistas com quem conversei discordam que a segurança é a antítese do progresso.

Além disso: o plano de IA de Trump diz muito sobre código aberto – mas aqui está o que ele deixa de fora

A estrutura diz que as leis estaduais não devem “agir de forma contrária à estratégia nacional dos Estados Unidos para alcançar o domínio global da IA”. Isso significa não permitir que os estados “regulam o desenvolvimento da IA, porque é um fenómeno inerentemente interestatal com implicações importantes na política externa e na segurança nacional”.

Também sugere que os estados não deveriam ser autorizados a “penalizar os desenvolvedores de IA pela conduta ilegal de terceiros envolvendo seus modelos”, o que visa a área ainda obscura de responsabilidade em torno do uso indevido de modelos.

Porém, há algum movimento potencial: no nível federal, a estrutura pede ao Congresso que codifique um promessa de empresas de IA para cobrir os crescentes custos de energia dos data centers.

Permitindo algumas proteções estaduais

Ainda assim, certas partes do quadro permitem que as leis estaduais se sobreponham às leis federais, inclusive para a melhoria das competências da força de trabalho com ferramentas de IA e nas escolas.

A estrutura não impediria as leis estaduais de zoneamento que regem onde os centros de dados e outras infraestruturas de IA podem ser construídos, e permitiria que os estados usassem a IA a seu critério para “serviços que fornecem, como aplicação da lei e educação pública”. Na prática, isso poderia significar integrações muito diferentes de IA no policiamento e nas escolas, que variam em todo o país. Dadas as preocupações iniciais sobre a IA no policiamento e as suas potenciais violações dos direitos civis, isso é notável.

Além disso: os modelos abertos de IA da China estão empatados com o Ocidente – eis o que acontece a seguir

A estrutura permitiria que os estados mantivessem leis que combatem a fraude e protegem os consumidores. Também permitiria que os estados aplicassem as suas próprias leis de proteção infantil no que diz respeito à IA, incluindo legislação sobre material de abuso sexual infantil gerado por IA (CSAM) e privacidade.

Limitando a supervisão do estado

A tentativa do Congresso, no verão passado, de proibir os estados de aprovar regulamentos de IA durante 10 anos teria retido fundos de banda larga e infraestrutura de IA dos estados que não os cumprissem. A moratória foi derrotada de forma esmagadora, preservando temporariamente os direitos dos estados de legislar sobre IA no seu território. É em parte por isso que não está claro se este novo apelo por restrições às leis estaduais terá apoio bipartidário.

“Os requisitos federais da HIPAA permitem que os estados aprovem leis estaduais de privacidade de saúde mais rigorosas”, disse à ZDNET a advogada de proteção de dados Lily Li, que fundou a Metaverse Law. “Aqui, não existe nenhuma lei federal de IA que prejudique muitas das leis estaduais, e o Congresso rejeitou esforços anteriores para adicionar a preempção federal de IA à legislação anterior.”

Além disso: a IA acelerará o crescimento do emprego em tecnologia – o ex-presidente da Tesla explica onde e por quê

Em 11 de dezembro, o presidente Trump assinou um ordem executiva declarando uma intenção renovada de centralizar as leis de IA em nível federal para garantir que as empresas dos EUA sejam “livres para inovar sem regulamentações pesadas”. A ordem argumenta que “a regulamentação estatal excessiva frustra este imperativo” ao criar uma colcha de retalhos de leis diferentes, algumas das quais alega “são cada vez mais responsáveis ​​por exigir que as entidades incorporem preconceitos ideológicos nos modelos”.

Em 9 de janeiro, o Departamento de Justiça anunciou uma Força-tarefa de litígio de IA “cuja única responsabilidade será desafiar as leis estaduais de IA” que sejam inconsistentes com uma “estrutura política nacional minimamente onerosa para IA”.

No entanto, Li não espera que a Força-Tarefa de Litígios de IA tenha um impacto substancial na regulamentação estadual, pelo menos na Califórnia (mais sobre a lei desse estado abaixo).

“A força-tarefa de litígio de IA se concentrará em leis que são inconstitucionais sob a cláusula de comércio latente e a Primeira Emenda, anuladas pela lei federal ou de outra forma ilegais”, disse ela à ZDNET. “A 10ª Emenda, no entanto, reserva explicitamente direitos aos estados se não houver lei federal, ou se não houver preempção das leis estaduais por uma lei federal.”

SB-53 e a Lei RAISE

No início deste ano, leis de segurança de IA inéditas na Califórnia e em Nova York – ambos estados bem posicionados para influenciar empresas de tecnologia – entraram em vigor. Aqui está o que duas das leis estaduais de IA mais ambiciosas do país cobrem atualmente.

Califórnia SB-53a nova lei de segurança de IA que entrou em vigor em 1º de janeiro, exige que os desenvolvedores de modelos divulguem como irão mitigar os maiores riscos representados pela IA e relatem incidentes de segurança envolvendo seus modelos (ou enfrentarão multas de até US$ 1 milhão se não o fizerem). Embora não seja tão completa quanto as tentativas anteriores de legislação no estado, a nova lei é praticamente a única num cenário de IA altamente desregulamentado. Mais recentemente, juntou-se a ele o Lei AUMENTARaprovada em Nova York no final de dezembro, que é semelhante à lei da Califórnia.

A Lei RAISE, em comparação, também estabelece requisitos de notificação para incidentes de segurança envolvendo modelos de todos os tamanhos, mas tem um limite máximo de multa de US$ 3 milhões após a primeira violação de uma empresa. Enquanto o SB 53 exige que as empresas notifiquem o estado no prazo de 15 dias após um incidente de segurança, o RAISE exige a notificação no prazo de 72 horas.

Além disso: a Nvidia quer possuir seu data center de IA de ponta a ponta

O SB 1047, uma versão anterior do SB 53, exigiria que os laboratórios de IA testassem com segurança modelos que custam mais de US$ 100 milhões e desenvolvessem um mecanismo de desligamento, ou interruptor de interrupção, para controlá-los caso se comportassem mal. Esse projecto de lei fracassou face aos argumentos de que iria sufocar a criação de emprego e a inovação, uma resposta comum aos esforços de regulamentação, especialmente da actual administração.

SB 53 usa uma mão mais leve. Tal como a Lei RAISE, visa empresas com receitas anuais brutas superiores a 500 milhões de dólares, um limite que isenta muitas pequenas startups de IA dos requisitos de relatórios e documentação da lei.

“É interessante que exista este limite de receita, especialmente porque houve a introdução de muitos modelos de IA mais enxutos que ainda podem envolver muito processamento, mas podem ser implantados por empresas menores”, disse Li à ZDNET. Ela observou que o governador Gavin Newsom vetou o SB-1047, em parte, porque imporia custos inibidores do crescimento às empresas mais pequenas, uma preocupação também partilhada por grupos de lobby.

Além disso: a IA preocupada assumirá seu trabalho remoto? Você está seguro por enquanto, este estudo mostra

“Acho que é mais motivado politicamente do que necessariamente motivado por diferenças no dano potencial ou impacto da IA ​​com base no tamanho da empresa ou no tamanho do modelo”, disse ela sobre o limite.

Comparado ao SB-1047, o SB-53 concentra-se mais na transparência, documentação e relatórios do que nos danos reais. A lei cria requisitos para proteções em torno de riscos catastróficos: ataques cibernéticos, químicos, biológicos, radiológicos e com armas nucleares, lesões corporais, agressões ou situações em que os desenvolvedores perdem o controle de um sistema de IA.

Proteções adicionais – e limites

O SB-53 da Califórnia também exige que as empresas de IA protejam os denunciantes. Isto chamou a atenção de Li, que observou que, ao contrário de outras partes da lei, que estão refletidas na Lei da UE e para as quais muitas empresas já estão preparadas, as proteções aos denunciantes são únicas na tecnologia.

Além disso: por que você pagará mais pela IA em 2026 e três dicas para economizar dinheiro para experimentar

“Realmente não houve muitos casos no espaço de IA, obviamente, porque é novo”, disse Li. “Acho que esta é uma preocupação maior para muitas empresas de tecnologia, porque há muita rotatividade no espaço tecnológico e você não sabe como será o mercado. Isso é outra coisa que preocupa as empresas como parte do processo de demissão.”

Ela acrescentou que os requisitos de relatórios do SB 53 deixam as empresas mais preocupadas com a criação de material que possa ser usado em ações judiciais coletivas.

Gideon Futerman, associado de projetos especiais do Center for AI Safety, não acredita que o SB 53 terá um impacto significativo na pesquisa de segurança.

“Isso não mudará muito o dia a dia, em grande parte porque a Lei de IA da UE já exige essas divulgações”, explicou. “O SB-53 não impõe nenhum novo ônus.”

Além disso: os ataques na nuvem estão ficando mais rápidos e mortíferos – aqui está o seu melhor plano de defesa

Nenhuma das leis exige que os laboratórios de IA tenham seus modelos testados por terceiros, embora a Lei RAISE de Nova York exija auditorias anuais de terceiros no momento da redação. Ainda assim, Futerman considera o SB 53 um progresso.

“Isso mostra que a regulamentação da segurança da IA ​​é possível e tem impulso político. A quantidade de trabalho real de segurança que acontece hoje ainda está muito abaixo do necessário”, disse ele. “As empresas que correm para construir IA superinteligente, embora admitam que estes sistemas podem representar riscos de extinção, ainda não compreendem realmente como funcionam os seus modelos”.

Onde isso deixa a segurança da IA

“O nível de regulamentação do SB-53 não é nada comparado aos perigos, mas é um primeiro passo valioso em termos de transparência e a primeira aplicação em torno do risco catastrófico nos EUA. É aqui que deveríamos estar há anos”, disse Futerman.

Independentemente das regulamentações estaduais e federais, Li disse que a governança já se tornou uma prioridade maior para as empresas de IA, impulsionada pelos seus resultados financeiros. Os clientes empresariais estão a impor responsabilidades aos programadores e os investidores estão a ter em conta a privacidade, a segurança cibernética e a governação nas suas decisões de financiamento.

Além disso: o suposto ‘superapp’ da OpenAI poderia finalmente resolver um dos meus maiores problemas com o ChatGPT

Ainda assim, ela disse que muitas empresas estão apenas passando despercebidas pelos reguladores enquanto podem.

“A transparência por si só não torna os sistemas seguros, mas é um primeiro passo crucial”, disse Futerman. Ele espera que a legislação futura preencha as lacunas restantes na estratégia de segurança nacional.

“Isso inclui fortalecer os controles de exportação e rastreamento de chips, melhorar a inteligência sobre projetos fronteiriços de IA no exterior e coordenar com outras nações as aplicações militares de IA para evitar uma escalada não intencional”, acrescentou.



fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui