Início Tecnologia Antrópico muda política de segurança em meio a intensa competição de IA

Antrópico muda política de segurança em meio a intensa competição de IA

15
0

Quando a Anthropic foi lançada, anos atrás, a empresa queria uma “corrida para o topo” em toda a indústria em inteligência artificial, em vez de uma corrida para o fundo em busca de clientes e domínio de mercado que levaria inadvertidamente a riscos catastróficos de segurança.

Assim, a Anthropic adotou princípios e políticas de segurança que esperava que os concorrentes também implementassem. Em alguns casos, empresas, incluindo Google e OpenAI, o fizeram, de acordo com a Anthropic. Ainda assim, as esperanças da Anthropic não “deram certo” como a empresa esperava, de acordo com um postagem no blog publicada terça-feira.

A postagem anunciou que a Anthropic, criadora do chatbot de IA Claude, está alterando as principais práticas de segurança para enfrentar o que considera os desafios atuais.

VEJA TAMBÉM:

Aplicativos Claude: como a Anthropic integrará Slack, Canva e muito mais

Especificamente, a Anthropic não interromperá mais automaticamente o desenvolvimento do modelo se ele for considerado perigoso; em vez disso, considerará as ações dos seus concorrentes e se eles lançam modelos com capacidades semelhantes. Anteriormente, a Anthropic comprometeu-se com salvaguardas que reduziriam o risco absoluto dos seus modelos, independentemente de outros desenvolvedores de IA fazerem o mesmo.

“O ambiente político mudou no sentido de dar prioridade à competitividade da IA ​​e ao crescimento económico, enquanto as discussões orientadas para a segurança ainda não ganharam força significativa a nível federal”, escreveu a empresa. “Continuamos convencidos de que o envolvimento eficaz do governo na segurança da IA ​​é necessário e alcançável, e pretendemos continuar a promover um diálogo baseado em evidências, interesses de segurança nacional, competitividade económica e confiança pública. Mas isto está a revelar-se um projecto de longo prazo – e não algo que está a acontecer organicamente à medida que a IA se torna mais capaz ou ultrapassa certos limites.”

Embora a Anthropic tenha afirmado que pretende continuar a liderar em segurança, a sua última decisão reflecte a velocidade vertiginosa a que os concorrentes estão a lançar novos modelos.

A Anthropic também esteve sob intensa pressão esta semana por parte do Departamento de Defesa dos EUA, que está pressionando a empresa permitir que os militares utilizem as suas ferramentas de IA para qualquer fim, incluindo vigilância em massa ou a utilização de armas autónomas sem supervisão humana.

A Anthropic ainda não cedeu a esses pontos nas negociações contratuais com o Departamento de Defesa, supostamente provocando a ira do secretário de Defesa Pete Hegseth, que ameaçou romper o relacionamento da empresa com os militares, Relatórios Axios.

A Anthropic participou de um programa piloto de IA para análise de imagens militares, juntamente com Google, OpenAI e xAI, de acordo com o New York Times. Embora Claude tenha sido o único chatbot a trabalhar nos sistemas confidenciais do governo, um funcionário do Pentágono disse que a Anthropic poderia ser substituída por outra empresa.


Divulgação: Ziff Davis, empresa controladora da Mashable, em abril de 2025 entrou com uma ação contra a OpenAI, alegando que ela infringiu os direitos autorais de Ziff Davis no treinamento e operação de seus sistemas de IA.

Tópicos
Bem Social de Inteligência Artificial

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui