Início Tecnologia Anthropic se opõe ao projeto de lei de responsabilidade extrema de IA...

Anthropic se opõe ao projeto de lei de responsabilidade extrema de IA apoiado pela OpenAI

27
0

Antrópico chegou contra uma proposta de lei de Illinois apoiada pela OpenAI que protegeria os laboratórios de IA de responsabilidades se seus sistemas fossem usados ​​para causar danos em grande escala, como vítimas em massa ou mais de US$ 1 bilhão em danos materiais.

A luta pelo projeto de lei, SB 3444, está traçando novas linhas de batalha entre a Anthropic e a OpenAI sobre como as tecnologias de IA devem ser regulamentadas. Embora os especialistas em política de IA digam que a legislação tem apenas uma hipótese remota de se tornar lei, expôs, no entanto, divisões políticas entre dois dos principais laboratórios de IA dos EUA, que poderão tornar-se cada vez mais importantes à medida que as empresas rivais intensificarem a sua actividade de lobby em todo o país.

Nos bastidores, a Anthropic tem pressionado o senador estadual Bill Cunningham, patrocinador do SB 3444, e outros legisladores de Illinois para fazer grandes mudanças no projeto ou eliminá-lo tal como está, de acordo com pessoas familiarizadas com o assunto. Em um e-mail para a WIRED, um porta-voz da Anthropic confirmou a oposição da empresa ao SB 3444 e disse que manteve conversas promissoras com Cunningham sobre o uso do projeto de lei como ponto de partida para futura legislação de IA.

“Nos opomos a este projeto de lei. Uma boa legislação de transparência precisa garantir a segurança pública e a responsabilização das empresas que desenvolvem esta poderosa tecnologia, e não fornecer um cartão para sair da prisão contra qualquer responsabilidade”, disse Cesar Fernandez, chefe de relações governamentais estaduais e locais da Anthropic, em um comunicado. “Sabemos que o senador Cunningham se preocupa profundamente com a segurança da IA ​​e estamos ansiosos para trabalhar com ele em mudanças que, em vez disso, combinem a transparência com a responsabilidade real para mitigar os danos mais graves que os sistemas fronteiriços de IA podem causar.”

Os representantes de Cunningham não responderam a um pedido de comentários. Um porta-voz do governador de Illinois, JB Pritzker, enviou a seguinte declaração: “Embora o Gabinete do Governador monitore e analise os muitos projetos de lei de IA em tramitação na Assembleia Geral, o governador Pritzker não acredita que as grandes empresas de tecnologia devam receber um escudo completo que evite as responsabilidades que deveriam ter para proteger o interesse público.

O cerne do desacordo da OpenAI e da Anthropic sobre o SB 3444 resume-se a quem deve ser responsável no caso de um desastre possibilitado pela IA – um cenário potencial de pesadelo que os legisladores dos EUA só recentemente começaram a enfrentar. Se o SB 3444 fosse aprovado, um laboratório de IA não seria responsável se um mau actor utilizasse o seu modelo de IA para, por exemplo, criar uma arma biológica que matasse centenas de pessoas, desde que o laboratório elaborasse o seu próprio quadro de segurança e o publicasse no seu website.

A OpenAI argumentou que o SB 3444 reduz o risco de danos graves causados ​​por sistemas de IA de fronteira, ao mesmo tempo que “ainda permite que esta tecnologia chegue às mãos das pessoas e empresas – pequenas e grandes – de Illinois”.

O fabricante do ChatGPT afirma que trabalhou com estados como Nova York e Califórnia para criar o que chamamos de abordagem “harmonizada” para regular a IA. “Na ausência de ação federal, continuaremos a trabalhar com os estados – incluindo Illinois – para trabalhar em direção a uma estrutura de segurança consistente”, disse a porta-voz da OpenAI, Liz Bourgeois, em um comunicado. “Esperamos que estas leis estaduais informem uma estrutura nacional que ajude a garantir que os EUA continuem a liderar.”

A Anthropic, por outro lado, argumenta que as empresas que desenvolvem modelos de IA de ponta devem ser responsabilizadas, pelo menos parcialmente, se a sua tecnologia for utilizada para causar danos sociais generalizados.

Alguns especialistas dizem que o projeto desmantelaria as regulamentações existentes destinadas a impedir que as empresas se comportassem mal. “A responsabilidade já existe ao abrigo do direito consuetudinário e proporciona um incentivo poderoso para as empresas de IA tomarem medidas razoáveis ​​para evitar riscos previsíveis dos seus sistemas de IA”, afirma Thomas Woodside, cofundador e consultor político sénior do Secure AI Project, uma organização sem fins lucrativos que ajudou a desenvolver e defender leis de segurança de IA na Califórnia e em Nova Iorque. “O SB 3444 daria o passo extremo de quase eliminar a responsabilidade por danos graves. Mas é uma má ideia enfraquecer a responsabilidade, que na maioria dos estados é a forma mais significativa de responsabilidade legal para empresas de IA que já existe.”

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui