Quando a Anthropic foi lançada, anos atrás, a empresa queria uma “corrida para o topo” em toda a indústria em inteligência artificial, em vez de uma corrida para o fundo em busca de clientes e domínio de mercado que levaria inadvertidamente a riscos catastróficos de segurança.
Assim, a Anthropic adotou princípios e políticas de segurança que esperava que os concorrentes também implementassem. Em alguns casos, empresas, incluindo Google e OpenAI, o fizeram, de acordo com a Anthropic. Ainda assim, as esperanças da Anthropic não “deram certo” como a empresa esperava, de acordo com um postagem no blog publicada terça-feira.
A postagem anunciou que a Anthropic, criadora do chatbot de IA Claude, está alterando as principais práticas de segurança para enfrentar o que considera os desafios atuais.
Aplicativos Claude: como a Anthropic integrará Slack, Canva e muito mais
Especificamente, a Anthropic não interromperá mais automaticamente o desenvolvimento do modelo se ele for considerado perigoso; em vez disso, considerará as ações dos seus concorrentes e se eles lançam modelos com capacidades semelhantes. Anteriormente, a Anthropic comprometeu-se com salvaguardas que reduziriam o risco absoluto dos seus modelos, independentemente de outros desenvolvedores de IA fazerem o mesmo.
Velocidade da luz mashável
“O ambiente político mudou no sentido de dar prioridade à competitividade da IA e ao crescimento económico, enquanto as discussões orientadas para a segurança ainda não ganharam força significativa a nível federal”, escreveu a empresa. “Continuamos convencidos de que o envolvimento eficaz do governo na segurança da IA é necessário e alcançável, e pretendemos continuar a promover um diálogo baseado em evidências, interesses de segurança nacional, competitividade económica e confiança pública. Mas isto está a revelar-se um projecto de longo prazo – e não algo que está a acontecer organicamente à medida que a IA se torna mais capaz ou ultrapassa certos limites.”
Embora a Anthropic tenha afirmado que pretende continuar a liderar em segurança, a sua última decisão reflecte a velocidade vertiginosa a que os concorrentes estão a lançar novos modelos.
A Anthropic também esteve sob intensa pressão esta semana por parte do Departamento de Defesa dos EUA, que está pressionando a empresa permitir que os militares utilizem as suas ferramentas de IA para qualquer fim, incluindo vigilância em massa ou a utilização de armas autónomas sem supervisão humana.
A Anthropic ainda não cedeu a esses pontos nas negociações contratuais com o Departamento de Defesa, supostamente provocando a ira do secretário de Defesa Pete Hegseth, que ameaçou romper o relacionamento da empresa com os militares, Relatórios Axios.
A Anthropic participou de um programa piloto de IA para análise de imagens militares, juntamente com Google, OpenAI e xAI, de acordo com o New York Times. Embora Claude tenha sido o único chatbot a trabalhar nos sistemas confidenciais do governo, um funcionário do Pentágono disse que a Anthropic poderia ser substituída por outra empresa.
Divulgação: Ziff Davis, empresa controladora da Mashable, em abril de 2025 entrou com uma ação contra a OpenAI, alegando que ela infringiu os direitos autorais de Ziff Davis no treinamento e operação de seus sistemas de IA.
Tópicos
Bem Social de Inteligência Artificial













