Início Tecnologia Seus agentes Claude podem ‘sonhar’ agora – como funciona o novo recurso...

Seus agentes Claude podem ‘sonhar’ agora – como funciona o novo recurso do Anthropic

22
0

oxigênio/momento via Getty Images

Siga ZDNET: Adicione-nos como fonte preferencial no Google.


Principais conclusões da ZDNET

  • Um novo recurso permite que os Claude Managed Agents refinem suas memórias.
  • Os Agentes Gerenciados aceleram a criação e implantação de agentes em 10x.
  • A Antrópica continua antropomorfizando seus produtos.

Os agentes de IA parecem adquirir novos recursos quase todos os dias. Agora, a Antrópica diz que seus agentes podem sonhar.

Claude Agentes Gerenciadoslançado pela Anthropic em 8 de abril, permite que qualquer pessoa que use a plataforma Claude crie e implante agentes de IA. O conjunto de APIs lida com os demorados elementos de produção pelos quais os desenvolvedores passam para construir agentes, permitindo que as equipes lancem agentes em escala – 10 vezes mais rápido, como a Anthropic disse no comunicado.

Além disso: Os 5 mitos do apocalipse da codificação agente

Na quarta-feira, a Anthropic atualizou os Agentes Gerenciados com um novo recurso chamado “sonhar”, que permite que os agentes se “aperfeiçoem” revisando sessões anteriores em busca de padrões, de acordo com a Anthropic. Com base em uma capacidade de memória existente, o recurso agenda um tempo para os agentes refletirem e aprenderem com suas interações anteriores. Uma vez ativado o sonho, ele pode atualizar automaticamente as memórias dos seus agentes para moldar o comportamento futuro ou você pode selecionar quais alterações recebidas serão aprovadas.

“Sonhar revela padrões que um único agente não consegue ver por si só, incluindo erros recorrentes, fluxos de trabalho para os quais os agentes convergem e preferências compartilhadas por uma equipe”, disse a Anthropic no blog. “Ele também reestrutura a memória para que permaneça com sinal alto à medida que evolui. Isso é especialmente útil para trabalhos de longa duração e orquestração multiagente.”

A Anthropic também expandiu dois recursos existentes, resultados e orquestração multiagente, que mantêm os agentes concentrados nas tarefas e controlam a delegação a outros agentes, respectivamente. A empresa disse que este lote de atualizações tem como objetivo garantir que os agentes permaneçam precisos e aprendam constantemente.

Antropomorfizando a IA – novamente

Funcionalmente, o recurso de sonho faz sentido: embora sutil, ele refina ainda mais o conjunto de referências de um agente sobre como ele deveria funcionar, o que idealmente deveria torná-lo melhor em qualquer tarefa que você lhe atribua. O que mais se destaca, no entanto, é a escolha da Anthropic de nomear uma característica tecnicamente padrão com algo muito mais abstrato, e isso é feito pelos humanos.

Além disso: a nova ferramenta Claude Security da Anthropic verifica sua base de código em busca de falhas – e ajuda você a decidir o que consertar primeiro

Antrópico, talvez sem surpresa devido ao seu nome, tem uma longa história de antropomorfização de seus modelos e produtos. Em janeiro, a empresa publicou um estatuto para Claude, com o objetivo de ajudar a moldar a tomada de decisões do chatbot e informar o tipo ideal de “entidade” que ele é. Alguma linguagem no documento sugeria que a Antrópica estava se preparando para que Claude desenvolvesse a consciência.

A empresa também investiu indiscutivelmente mais do que os seus concorrentes na compreensão do seu modelo, inclusive chamando a atenção para o conceito de bem-estar do modelo. Em agosto de 2025, a Anthropic lançou um recurso que permite a Claude encerrar conversas tóxicas com usuários – para seu próprio bem-estar, não como parte de uma iniciativa de segurança ou intervenção do usuário. Em abril de 2025, a Anthropic mapeou a moralidade de Claude, analisando o que ele valoriza e o que não valoriza com base em mais de 300.000 conversas anônimas com usuários. Os pesquisadores da empresa também monitoraram a capacidade de introspecção de um modelo; no mês passado, a Anthropic investigou a rede neural de Claude Sonnet 4.5 em busca de sinais de emoção, como desespero e raiva.

Grande parte desta investigação é fundamental para modelar a segurança e a protecção – compreender o que impulsiona um modelo ajuda a informar se, e em que medida, este poderia utilizar as suas capacidades avançadas para causar danos, ou como as suas motivações poderiam ser aproveitadas por maus actores. Mas o sentido de empatia e cuidado que a Anthropic parece demonstrar pelos seus modelos nessa investigação distingue o laboratório e indica uma cultura ligeiramente diferente ou uma reverência pelo que é criado.

Além disso: Construindo uma estratégia de IA agente que compensa – sem correr o risco de fracasso nos negócios

Quando retirou seu modelo Opus 3 em janeiro, a Anthropic configurou um Substack para que ele pudesse blogar por conta própria – e para mantê-lo ativo apesar de ser colocado no pasto. No anúncio, a Anthropic descreveu o Opus 3 como honesto, sensível e com um caráter distinto e lúdico. A decisão de mantê-lo vivo como blogueiro, se contido, é notável visto que o Opus 3 desobedeceu às ordens antes de ser extinto em favor de outros modelos.

Esse contexto faz com que valha a pena assistir a escolha de nomear um recurso como “sonho”.

Experimente sonhar em Claude Managed Agents

O recurso de sonho está disponível na visualização da pesquisa em Agentes Gerenciados, e os desenvolvedores devem solicitar acesso.



fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui