Início Tecnologia A IA tornará a segurança cibernética obsoleta ou o Vale do Silício...

A IA tornará a segurança cibernética obsoleta ou o Vale do Silício está confabulando novamente?

31
0

ValeryBrozhinsky/iStock/Getty Images Plus

Siga ZDNET: Adicione-nos como fonte preferencial no Google.


Principais conclusões da ZDNET

  • As ferramentas Anthropic, OpenAI e Google podem automatizar a depuração de código.
  • Mas a segurança cibernética é um problema demasiado complexo para ser resolvido por estas ferramentas.
  • A maior contribuição da IA ​​pode ser a redução de falhas de software evitáveis.

Você pode confiar nas empresas que estão construindo IA para tornar a tecnologia segura para uso mundial?

Essa é uma das questões mais urgentes que você enfrenta este ano como usuário de IA, e não é uma questão acadêmica. À medida que proliferam as implementações da tecnologia no mundo real, surgem novos tipos de riscos com impacto potencialmente catastrófico, exigindo novas soluções.

Além disso: 10 maneiras pelas quais a IA pode infligir danos sem precedentes em 2026

Para o resgate vêm os principais criadores de modelos de IA, OpenAI, Anthropic e Google. Todos os três oferecem ferramentas que podem mitigar falhas e violações de segurança em LLMs e nos programas de agente construídos sobre eles.

(Divulgação: Ziff Davis, empresa controladora da ZDNET, entrou com uma ação judicial em abril de 2025 contra a OpenAI, alegando que ela violou os direitos autorais de Ziff Davis no treinamento e operação de seus sistemas de IA.)

Os observadores de Wall Street acreditam que existe uma possibilidade real de que as ferramentas das empresas de IA substituam as ofertas tradicionais de segurança cibernética de empresas como Palo Alto Networks, Zscaler e Check Point Software. Um campo relacionado, chamado observabilidade, também está ameaçado, incluindo empresas como a Dynatrace, que vendem ferramentas para detectar falhas de sistemas.

Além disso: Por que os backups criptografados podem falhar em uma era de ransomware impulsionada por IA

A noção de que a maioria ou todos os problemas de software do mundo serão resolvidos pelos criadores de software na fonte, antes que os programas entrem na natureza, é realmente tentadora. Chega de negações de serviço, chega de ransomware, chega de ataques à cadeia de suprimentos se você acertar desde o início.

Só que não é tão simples.

O desafio é maior do que as realizações potenciais de qualquer ferramenta ou abordagem. Os riscos do software, incluindo modelos e agentes de IA, são demasiado vastos para que essas empresas os resolvam por si próprias.

Serão necessárias todas as ferramentas tradicionais de segurança e observabilidade para corrigir o que aflige a IA. Também serão necessárias novas formas de engenharia de dados. Na verdade, a solução pode até exigir uma reformulação fundamental dos próprios programas de IA para abordar as causas profundas do risco.

A IA poderia tornar a segurança cibernética obsoleta?

antrópico-claude-código-segurança-gráfico-2026

Antrópico

As ações das empresas de segurança cibernética foram abaladas recentemente quando a Anthropic revelado Claude Code Security, uma extensão de sua popular ferramenta Claude Code que pode automatizar a escrita de alguns códigos.

A Anthropic disse que o Claude Code Security permitirá que “as equipes encontrem e corrijam problemas de segurança que os métodos tradicionais muitas vezes não percebem”, com um painel que exibe possíveis problemas e propõe patches para resolvê-los.

Além disso: as ameaças de IA vão piorar: 6 maneiras de igualar a tenacidade de seus adversários digitais

A intenção é que um analista humano analise as descobertas e propostas para tomar a decisão final. Claude Code Security está “disponível em uma prévia de pesquisa limitada”.

anthropic-2026-claude-code-security-terminal.png

Uma sessão de terminal com Claude Code Security da Anthropic.

Antrópico

Resultado de mais de um ano de pesquisa em segurança cibernética, Claude Code Security não se limita a policiar códigos feitos com Claude Code. A Anthropic usou a ferramenta para encontrar centenas de vulnerabilidades “que passaram despercebidas por décadas, apesar de anos de revisão de especialistas”.

anthropic-2026-claude-code-security-proposes.png

Antrópico

Da mesma forma, OpenAI em outubro revelado Aardvark, o que a empresa chama de “pesquisador de segurança de agente desenvolvido com GPT-5”. No momento, em versão beta privada, o Aardvark realiza o mesmo tipo de verificação automática de código prometida pela Anthropic. “O Aardvark funciona monitorando commits e alterações nas bases de código, identificando vulnerabilidades, como elas podem ser exploradas e propondo correções”, disse OpenAI.

openai-2026-aardvark-info-gráfico

Como funciona o Aardvark da OpenAI.

Antrópico

Três semanas antes do lançamento do Aardvark, a unidade de pesquisa DeepMind do Google revelado CodeMender, que a empresa chamou de “um novo agente baseado em IA que melhora automaticamente a segurança do código”.

Assim como a ferramenta da Anthropic, o CodeMender não se destina apenas a proteger as criações do Google, mas a ser uma ampla ferramenta de segurança. Em seis meses de desenvolvimento, observou DeepMind, o CodeMender “já havia atualizado 72 correções de segurança para projetos de código aberto, incluindo algumas de até 4,5 milhões de linhas de código”.

Ao contrário do Anthropic e do OpenAI, o DeepMind enfatiza não apenas a proposta de correções, mas também a aplicação automática de correções ao código. Até o momento, o programa está sendo utilizado apenas por pesquisadores da DeepMind. DeepMind enfatizou que “atualmente, todos os patches gerados pelo CodeMender são revisados ​​por pesquisadores humanos antes de serem enviados ao upstream”.

deepmind-2026-codemender-info-gráfico

Como funciona o CodeMender do Google DeepMind.

DeepMind

Todas as três ofertas, concorda a maioria dos observadores, ameaçam imediatamente o papel das ferramentas em categorias como ‘AppSec’, ‘Análise de composição de software’ e ‘Testes estáticos de segurança de aplicativos’. Esse recurso abrange empresas e ferramentas como Snyk, Jfrog, Mend, GitHub Dependabot, Semgrep, Sonatype, Checkmarx e Veracode.

A introdução de Claude Code Security “provocou uma fraqueza renovada em nomes de software de alto crescimento, particularmente em observabilidade e segurança em nuvem”, escreveu William Power, analista de software da empresa de investimentos RW Baird & Co.

Além disso: por que os agentes empresariais de IA podem se tornar a maior ameaça interna

É razoável supor que, como enfatizam Anthropic, OpenAI e DeepMind, você provavelmente desejará trabalhar com ferramentas provenientes dos mesmos fornecedores que estão construindo o código que está proliferando o software baseado em LLM que substituirá cada vez mais os aplicativos empacotados tradicionais.

A tecnologia tem o apelo adicional de estar integrada às plataformas de codificação dessas empresas. Claude Code Security e Aardvark já estão integrados, em formato de visualização, nas ferramentas Claude Code e OpenAI Codex. Embora o CodeMender ainda seja um projeto de pesquisa, está claro que em algum momento ele poderá fazer parte da ferramenta de desenvolvimento AI Studio do Google para Gemini, Imagen e seus outros modelos.

Um problema maior que uma única ferramenta

Por mais úteis que essas ferramentas se mostrem, a segurança cibernética é um campo demasiado amplo e o problema é demasiado grande em termos de âmbito e demasiado profundo nas suas causas profundas, para que as ferramentas de leitura de código tornem os resultados da IA ​​seguros.

No âmbito da varredura do código-fonte, da análise de problemas e da correção ou redesenho, o problema é maior do que uma única parte do código-fonte. O software moderno é conhecido na área como um “artefato”, uma composição de vários arquivos de diversas fontes. Um determinado programa inclui bibliotecas, estruturas e outros elementos que devem funcionar juntos de maneira confiável.

Em uma postagem recente no blog, o CTO e cofundador da JFrog, Yoav Landman, explicou que “o código não é mais o produto final.

Além disso: lançando IA? 5 táticas de segurança que sua empresa não pode errar – e por quê

Dentro do domínio mais amplo da tecnologia, a digitalização e correção de código é uma pequena parte do que as empresas de segurança cibernética, como Palo Alto, Zscaler e Check Point, fazem, ou o que Dynatrace, Splunk e Datadog fazem em observabilidade.

Os firewalls existem em um nível mais básico do que como um aplicativo que protege o perímetro de uma rede de computadores. Seu papel é impedir a entrada de atores mal-intencionados antes que eles cheguem perto de códigos vulneráveis. Da mesma forma, as chamadas ferramentas de segurança de endpoint garantem que os computadores host comprometidos não se tornem plataformas de lançamento para ataques. Enquanto isso, uma ferramenta “Secure Access Service Edge” é um software baseado em nuvem que identifica e autentica usuários em uma rede para que apenas as partes certas interajam com os programas.

Nenhum desses problemas é resolvido com menos erros no código-fonte. Ferramentas como “Gerenciamento de informações e eventos de segurança” (SIEM) ficam acima da rede e dos aplicativos. Essas ferramentas informam ao profissional de segurança o que está acontecendo em uma frota de computadores em tempo real.

Embora seja bom corrigir o código antes de ele ser enviado, o SIEM faz coisas que a digitalização do código nunca fará. A ferramenta mostra à medida que se desenvolvem coisas que exigem atenção urgente porque já estão causando problemas. Se o código estiver com erros, ele pode esperar, e provavelmente deveria esperar. Quando algo potencialmente catastrófico está acontecendo em toda uma rede de computadores, o tempo é essencial.

Além disso: a IA está se envenenando silenciosamente e levando os modelos ao colapso – mas há uma cura

As empresas que vendem SIEM, como Palo Alto e Zscaler, estão empregando IA para acelerar o trabalho realizado pelos profissionais de segurança. No entanto, o software não substituirá a “garganta sufocada” quando as coisas dão errado. Os fornecedores de segurança existem porque têm pessoas que pegam o telefone no meio da noite e trabalham contra o relógio para encontrar e corrigir problemas maiores do que um único código incorreto.

Anthropic e OpenAI geralmente não são conhecidos por atender o telefone, embora a unidade Cloud do Google possa oferecer suas próprias operações de segurança como uma ajuda adicional.

AI, cure-se

A um nível mais profundo, pesquisas recentes mostraram que a fronteira da IA, os sistemas de agente, estão eles próprios infestados de falhas de engenharia e design potencialmente catastróficas.

Pesquisadores do MIT explicaram na semana passada que vários sistemas de agentes de IA comercializados carecem de recursos básicos, como auditorias de segurança publicadas ou meios de encerrar agentes desonestos.

Também: Agentes de IA são rápidos, soltos e fora de controle, segundo estudo do MIT

Pesquisadores liderados pela Northeastern University revelaram recentemente os resultados de extensos esforços da equipe vermelha, onde vários agentes de IA interoperam, principalmente sem uma pessoa no circuito.

Eles descobriram que o “caos” se seguiu: bots tentando desligar outros bots; bots que “compartilhavam” códigos maliciosos entre si para expandir a “superfície de ameaça” do risco cibernético; e bots que reforçaram mutuamente as más práticas de segurança.

Uma maneira de lidar com esse caos é construir novos conjuntos de dados de treinamento de IA coletados em estado selvagem. A empresa de software e serviços Innodata é um fornecedor que ajuda os gigantes da IA ​​a fazer isso.

“Os adversários são extremamente criativos e estão inventando coisas que os modelos treinados em ambientes de laboratório nunca viram antes”, disse Jack Abuhoff, CEO da Innodata, à ZDNET. “O que você faz sobre isso? Você precisa de ataques adversários escalonáveis, semanticamente diversos e de alta qualidade para testar a resistência dos agentes.”

Também: Servidores destruídos e ataques DoS: o que pode acontecer quando os agentes OpenClaw AI interagem

Como a IA e os agentes têm seus próprios defeitos, um analista de ações do Barclays Bank que cobre os fornecedores de segurança cibernética, Saket Kalia, refletiu recentemente: “Se o desenvolvedor do código está oferecendo a ferramenta de segurança do código, isso é como a raposa guardando o galinheiro?”

Usando IA para melhorar o código

A IA será inevitavelmente usada para ajudar a corrigir o código. A maior contribuição que Claude Code Security, Aardvark e CodeMender podem oferecer não é resolver magicamente a segurança cibernética, mas reduzir o incrível número de falhas de software evitáveis.

Em um artigo na edição de novembro da revista acadêmica IEEE Spectrum, intitulada “Trilhões gastos e grandes projetos de software ainda estão falhando”, o cronista de software de longa data Robert N. Charette apontou que US$ 5,6 trilhões são gastos anualmente em TI, mas “as taxas de sucesso de software não melhoraram significativamente nas últimas duas décadas”.

Mesmo para a IA, é um grande desafio. Como escreveu Charette, “há limites rígidos sobre o que a IA pode trazer para a mesa” para resolver a engenharia de software. “Como os profissionais de software sabem, os projetos de TI sofrem de alucinações e delírios de gerenciamento suficientes sem que a IA os acrescente”.



fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui