Início Tecnologia Antrópico dá a Claude Code mais controle, mas o mantém sob controle

Antrópico dá a Claude Code mais controle, mas o mantém sob controle

20
0

Para desenvolvedores que usam IA, a “codificação vibratória” agora se resume a cuidar de cada ação ou arriscar deixar o modelo funcionar sem controle. Antrópico diz sua última atualização para Claude visa eliminar essa escolha, permitindo que a IA decida quais ações são seguras para serem tomadas por conta própria – com alguns limites.

A mudança reflete uma mudança mais ampla em toda a indústria, à medida que as ferramentas de IA são cada vez mais concebidas para agir sem esperar pela aprovação humana. O desafio é equilibrar velocidade e controle: muitas proteções retardam as coisas, enquanto poucas podem tornar os sistemas arriscados e imprevisíveis. O novo “modo automático” da Anthropic, agora em pré-visualização de pesquisa – o que significa que está disponível para teste, mas ainda não é um produto acabado – é sua mais recente tentativa de enfiar a linha na agulha.

O modo automático usa proteções de IA para revisar cada ação antes de sua execução, verificando comportamentos de risco que o usuário não solicitou e sinais de injeção imediata – um tipo de ataque em que instruções maliciosas ficam ocultas no conteúdo que a IA está processando, fazendo com que ela execute ações não intencionais. Quaisquer ações seguras ocorrerão automaticamente, enquanto as arriscadas serão bloqueadas.

É essencialmente uma extensão do comando existente de “pular permissões perigosamente” de Claude Code, que entrega toda a tomada de decisões à IA, mas com uma camada de segurança adicionada no topo.

O recurso se baseia em uma onda de ferramentas de codificação autônomas de empresas como GitHub e OpenAI, que podem executar tarefas em nome de um desenvolvedor. Mas vai um passo além, transferindo a decisão de quando pedir permissão do usuário para a própria IA.

A Anthropic não detalhou os critérios específicos que sua camada de segurança usa para distinguir ações seguras de ações arriscadas – algo que os desenvolvedores provavelmente desejarão entender melhor antes de adotar o recurso amplamente. (O TechCrunch entrou em contato com a empresa para obter mais informações sobre esse assunto.)

O modo automático surge após o lançamento do Claude Code Review pela Anthropic, seu revisor automático de código projetado para detectar bugs antes que eles atinjam a base de código, e Despacho para Coworkque permite aos usuários enviar tarefas a agentes de IA para realizar o trabalho em seu nome.

Evento Techcrunch

São Francisco, Califórnia
|
13 a 15 de outubro de 2026

O modo automático será implementado para usuários corporativos e API nos próximos dias. A empresa afirma que atualmente funciona apenas com Claude Sonnet 4.6 e Opus 4.6 e recomenda o uso do novo recurso em “ambientes isolados” – configurações em sandbox que são mantidas separadas dos sistemas de produção, limitando os danos potenciais se algo der errado.

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui