Início Tecnologia A identidade corporativa foi construída para humanos – não para agentes de...

A identidade corporativa foi construída para humanos – não para agentes de IA

17
0

Apresentado por 1Password


A adição de capacidades de agente aos ambientes empresariais está remodelando fundamentalmente o modelo de ameaças ao introduzir uma nova classe de atores nos sistemas de identidade. O problema: os agentes de IA estão agindo em sistemas empresariais confidenciais, fazendo login, buscando dados, chamando ferramentas LLM e executando fluxos de trabalho, muitas vezes sem a visibilidade ou o controle que os sistemas tradicionais de identidade e acesso foram projetados para impor.

As ferramentas de IA e os agentes autônomos estão proliferando nas empresas mais rapidamente do que as equipes de segurança conseguem instrumentalizá-los ou governá-los. Ao mesmo tempo, a maioria dos sistemas de identidade ainda assume usuários estáticos, contas de serviço de longa duração e atribuições grosseiras de funções. Eles não foram projetados para representar autoridade humana delegada, contextos de execução de curta duração ou agentes operando em ciclos de decisão rígidos.

Como resultado, os líderes de TI precisam dar um passo atrás e repensar a própria camada de confiança. Essa mudança não é teórica. NIST Arquitetura Zero Trust (SP 800-207) afirma explicitamente que “todos os assuntos — incluindo aplicativos e entidades não humanas — são considerados não confiáveis ​​até serem autenticados e autorizados”.

Num mundo agente, isso significa que os sistemas de IA devem ter identidades próprias explícitas e verificáveis, e não operar através de credenciais herdadas ou partilhadas.

“As arquiteturas IAM corporativas são construídas para assumir que todas as identidades do sistema são humanas, o que significa que elas contam com comportamento consistente, intenção clara e responsabilidade humana direta para reforçar a confiança”, diz Nancy Wang, CTO da 1Password e Venture Partner da Felicis. “Os sistemas agentic quebram essas suposições. Um agente de IA não é um usuário que você pode treinar ou revisar periodicamente. É um software que pode ser copiado, bifurcado, dimensionado horizontalmente e deixado em execução em ciclos de execução rígidos em vários sistemas. Se continuarmos a tratar os agentes como humanos ou contas de serviço estáticas, perderemos a capacidade de representar claramente para quem eles estão agindo, que autoridade eles possuem e por quanto tempo essa autoridade deve durar.”

Como os agentes de IA transformam ambientes de desenvolvimento em zonas de risco de segurança

Um dos primeiros lugares onde estas suposições de identidade são quebradas é o ambiente de desenvolvimento moderno. O ambiente de desenvolvimento integrado (IDE) evoluiu além de um simples editor para um orquestrador capaz de ler, escrever, executar, buscar e configurar sistemas. Com um agente de IA no centro desse processo, as transições imediatas de injeção não são apenas uma possibilidade abstrata; eles se tornam um risco concreto.

Como os IDEs tradicionais não foram projetados com agentes de IA como componente principal, a adição de recursos de IA pós-venda introduz novos tipos de riscos que os modelos de segurança tradicionais não foram criados para considerar.

Por exemplo, os agentes de IA violam inadvertidamente os limites de confiança. Um README aparentemente inofensivo pode conter diretivas ocultas que induzem um assistente a expor credenciais durante a análise padrão. O conteúdo do projeto proveniente de fontes não confiáveis ​​pode alterar o comportamento do agente de maneiras não intencionais, mesmo quando esse conteúdo não tem nenhuma semelhança óbvia com um prompt.

As fontes de entrada agora vão além dos arquivos que são executados deliberadamente. Documentação, arquivos de configuração, nomes de arquivos e metadados de ferramentas são todos ingeridos pelos agentes como parte de seus processos de tomada de decisão, influenciando a forma como eles interpretam um projeto.

A confiança diminui quando os agentes agem sem intenção ou responsabilidade

Quando você adiciona agentes determinísticos altamente autônomos que operam com privilégios elevados, com capacidade de ler, escrever, executar ou reconfigurar sistemas, a ameaça aumenta. Esses agentes não têm contexto nem capacidade de determinar se uma solicitação de autenticação é legítima, quem delegou essa solicitação ou os limites que devem ser colocados em torno dessa ação.

“Com os agentes, não se pode presumir que eles tenham a capacidade de fazer julgamentos precisos e certamente carecem de um código moral”, diz Wang. “Cada uma de suas ações precisa ser restringida adequadamente, e o acesso a sistemas sensíveis e o que eles podem fazer dentro deles precisa ser definido com mais clareza. A parte complicada é que eles estão continuamente realizando ações, então eles também precisam ser continuamente restringidos.”

Onde o IAM tradicional falha com os agentes

Os sistemas tradicionais de gerenciamento de identidade e acesso operam com base em várias suposições básicas que a IA agente viola:

Os modelos de privilégios estáticos falham com fluxos de trabalho de agentes autônomos: O IAM convencional concede permissões com base em funções que permanecem relativamente estáveis ​​ao longo do tempo. Mas os agentes executam cadeias de ações que exigem diferentes níveis de privilégio em momentos diferentes. O privilégio mínimo não pode mais ser uma configuração do tipo configure e esqueça. Agora ele deve ter escopo dinâmico com cada ação, com expiração automática e mecanismos de atualização.

A responsabilidade humana é dividida para agentes de software: Os sistemas legados assumem que cada identidade remonta a uma pessoa específica que pode ser responsabilizada pelas ações tomadas, mas os agentes confundem completamente essa linha. Agora não está claro quando um agente age, sob cuja autoridade está operando, o que já representa uma tremenda vulnerabilidade. Mas quando esse agente é duplicado, modificado ou deixado em funcionamento muito depois de o seu propósito original ter sido cumprido, o risco multiplica-se.

A detecção baseada em comportamento falha com atividade contínua do agente: Embora os usuários humanos sigam padrões reconhecíveis, como fazer login durante o horário comercial, acessar sistemas familiares e realizar ações alinhadas às suas funções de trabalho, os agentes operam continuamente, em vários sistemas simultaneamente. Isso não apenas multiplica o potencial de danos a um sistema, mas também faz com que fluxos de trabalho legítimos sejam sinalizados como suspeitos pelos sistemas tradicionais de detecção de anomalias.

As identidades dos agentes costumam ser invisíveis para os sistemas IAM tradicionais: Tradicionalmente, as equipes de TI podem mais ou menos configurar e gerenciar identidades que operam em seu ambiente. Mas os agentes podem criar novas identidades dinamicamente, operar por meio de contas de serviço existentes ou aproveitar credenciais de forma que as tornem invisíveis para ferramentas IAM convencionais.

“É todo o contexto, a intenção por trás de um agente, e os sistemas IAM tradicionais não têm capacidade de gerenciar isso”, diz Wang. “Esta convergência de diferentes sistemas torna o desafio mais amplo do que apenas a identidade, exigindo contexto e observabilidade para compreender não apenas quem agiu, mas porquê e como.”

Repensando a arquitetura de segurança para sistemas agentes

Proteger a IA de agência exige repensar a arquitetura de segurança empresarial desde o início. Várias mudanças importantes são necessárias:

Identidade como plano de controle para agentes de IA: Em vez de tratar a identidade como um componente de segurança entre muitos, as organizações devem reconhecê-la como o plano de controlo fundamental para os agentes de IA. Os principais fornecedores de segurança já estão caminhando nessa direção, com a identidade sendo integrada em todas as soluções e pilhas de segurança.

Acesso baseado no contexto como um requisito para IA agente: As políticas devem tornar-se muito mais granulares e específicas, definindo não apenas o que um agente pode aceder, mas sob que condições. Isso significa considerar quem invocou o agente, em qual dispositivo ele está sendo executado, quais restrições de tempo se aplicam e quais ações específicas são permitidas em cada sistema.

Tratamento de credenciais de conhecimento zero para agentes autônomos: Uma abordagem promissora é manter as credenciais totalmente fora da vista dos agentes. Usando técnicas como o preenchimento automático de agentes, as credenciais podem ser injetadas em fluxos de autenticação sem que os agentes as vejam em texto simples, semelhante à forma como os gerenciadores de senhas funcionam para humanos, mas estendidos aos agentes de software.

Requisitos de auditabilidade para agentes de IA: Os registros de auditoria tradicionais que rastreiam chamadas de API e eventos de autenticação são insuficientes. A auditabilidade do agente requer capturar quem é o agente, sob cuja autoridade ele opera, qual escopo de autoridade foi concedido e a cadeia completa de ações tomadas para realizar um fluxo de trabalho. Isso reflete o registro detalhado de atividades usado para funcionários humanos, mas deve ser adaptado para entidades de software que executam centenas de ações por minuto.

Impondo limites de confiança entre humanos, agentes e sistemas: As organizações precisam de limites claros e aplicáveis ​​que definam o que um agente pode fazer quando invocado por uma pessoa específica em um dispositivo específico. Isso requer separar a intenção da execução: entender o que um usuário deseja que um agente realize e o que o agente realmente faz.

O futuro da segurança empresarial em um mundo de agentes

À medida que a IA agente se torna incorporada aos fluxos de trabalho corporativos diários, o desafio de segurança não é se as organizações adotarão agentes; é se os sistemas que governam o acesso podem evoluir para acompanhar o ritmo.

É improvável que o bloqueio da IA ​​no perímetro seja escalonável, mas a extensão dos modelos de identidade legados também não. O que é necessário é uma mudança em direção a sistemas de identidade que possam levar em conta o contexto, a delegação e a responsabilidade em tempo real, tanto entre humanos, máquinas e agentes de IA.

“A função de etapa para agentes em produção não virá apenas de modelos mais inteligentes”, diz Wang. “Isso virá de uma autoridade previsível e de limites de confiança aplicáveis. As empresas precisam de sistemas de identidade que possam representar claramente para quem um agente está agindo, o que está autorizado a fazer e quando essa autoridade expira. Sem isso, a autonomia se torna um risco não gerenciado. Com isso, os agentes se tornam governáveis.”


Artigos patrocinados são conteúdos produzidos por uma empresa que paga pela postagem ou tem relacionamento comercial com a VentureBeat, e estão sempre claramente marcados. Para mais informações, entre em contato vendas@venturebeat.com.

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui