A maioria das empresas é extremamente protetora em relação aos lançamentos de produtos planejados, usando codinomes internos e exigindo que os jornalistas concordem com os embargos antes de revelar detalhes. A Anthropic escolheu inadvertidamente uma nova estratégia: fazer com que todos os seus planos vazem devido a erros básicos de segurança, sem controle sobre quando e como eles serão tornados públicos.
Na terça-feira, o código-fonte de Claude Code, o popular assistente de codificação de IA da Anthropic, foi descoberto em um banco de dados acessível ao público. Nele, além de detalhes sobre como o Claude Code lida com solicitações de API e tokens, havia detalhes de recursos que ainda não foram anunciados pela Anthropic. Isso incluía um Animal de estimação virtual estilo “Tamagotchi”como relatou o Gizmodo. Também continha detalhes sobre uma versão sempre ativa do agente de IA, de acordo com um relatório da The Information.
Chamado Kairos, o aparente agente persistente planejado operaria em segundo plano 24 horas por dia, 7 dias por semana, operando de forma autônoma em nome do usuário – basicamente transformando Claude em algo mais próximo do sempre popular agente OpenClaw AI de código aberto. Além de agir proativamente em nome de um usuário, o Kairos aparentemente possui um recurso chamado “autoDream” que consolida e atualiza suas memórias internas durante a noite.
A revelação deixou a multidão online obcecada por IA bastante animada, mas a Anthropic parece significativamente menos entusiasmada com toda a situação, apesar da fanfarra. De acordo com um relatório do Wall Street Journalos escritórios da empresa de IA estão em alvoroço total enquanto lutam para encobrir o que foi revelado pelo vazamento. A empresa supostamente usou solicitações de remoção de direitos autorais para remover mais de 8.000 cópias do código-fonte do Claude Code, que foi publicado e bifurcado ad infinitum no GitHub.
Aparentemente, a Anthropic também está tentando trabalhar rapidamente para tapar falhas de segurança. Embora a empresa tenha insistido que o vazamento recente foi resultado de erro humano e não de violação de qualquer tipo, o Diário apontado destacam que o código-fonte dá aos hackers e agentes mal-intencionados a capacidade de investigar e estimular possíveis explorações com um novo nível de acesso.
Há também o fato de que o espaço de IA é um negócio de imitação no momento, e o vazamento dá aos concorrentes da Anthropic uma visão muito mais clara da operação do Claude Code, tornando mais fácil copiar potencialmente algumas de suas funcionalidades sem a necessidade de tentar fazer engenharia reversa do código subjacente. Os modelos de treinamento e pesos da Antrópico permanecem seus, então seu molho secreto ainda está trancado a sete chaves, mas a divulgação de seus planos apresenta a possibilidade de que seus concorrentes tentem vencê-lo.
Foi sugerido que a série de vazamentos da Anthropic recentemente – no mês passado, os planos da empresa para um novo modelo chamado Mythos foram descobertos em um banco de dados acessível ao público – poderia ser de alguma forma estratégico. Antrópico é supostamente de olho em uma oferta pública inicial ainda este ano, e revelar o que está em preparação pode gerar mais interesse de potenciais investidores. Mas a sensação de pânico que parece vir da Anthropic após este último vazamento sugere que a empresa realmente prefere que esta informação não seja pública. Pelo menos, ainda não.









