OpenAI tem um novo modelo de IA chamado GPT 5.4-Cyber, mas não está chegando ao seu Bate-papoGPT. Pelo menos ainda não. Em vez disso, a empresa está fazendo uma liberação limitada para testadores verificados de segurança cibernética, de acordo com uma postagem no blog compartilhado na terça-feira. Esses especialistas testarão o modelo para identificar lacunas e possíveis jailbreaks antes que o modelo seja divulgado ao público em geral.
A OpenAI usa o feedback desses testadores para “compreender os benefícios e riscos diferenciados de modelos específicos, melhorar a resiliência a jailbreaks e outros ataques adversários e melhorar as capacidades defensivas – ao mesmo tempo que mitiga os danos”, disse a empresa.
O lançamento do modelo faz parte de uma versão aprimorada do programa Trusted Access for Cyber da OpenAI, que permite que profissionais e organizações de segurança cibernética verificadas obtenham acesso antecipado a modelos para trabalho de defesa e prevenção. Esta é uma prática comum de segurança cibernética, que se tornou ainda mais valiosa e necessária por causa da IA. Tanto os atacantes quanto os defensores cibernéticos estão armados com ferramentas de IA, tornando a segurança cibernética um cenário cada vez mais de IA versus IA.
Quando se trata de proteger modelos específicos de IA, as empresas que os fabricam estão convencidas de que os modelos mais recentes são tão perigosamente poderosos que exigem segurança extra. Essa foi a lógica por trás Projeto Glasswing da Antrópicoanunciado na semana passada. O modelo de próxima geração da Anthropic, Claude Mythos Preview, é aparentemente tão poderoso que a empresa afirma já ter encontrado vulnerabilidades de segurança “em todos os principais sistemas operacionais e navegadores da web”, de acordo com uma postagem no blog.
Ao contrário do Claude Mythos Preview, que a Anthropic disse ser um modelo totalmente novo, o GPT-5.4-Cyber da OpenAI é uma versão aprimorada de seu modelo de linguagem grande GPT-5.4 existente. Ele foi ajustado para focar especificamente na segurança cibernética e possui grades de proteção mais baixas para tarefas de segurança. Essencialmente, o GPT-5.4-Cyber terá menos probabilidade de se recusar a realizar uma tarefa arriscada relacionada à segurança cibernética do que as versões normais do GPT-5.4. Isso é para que os especialistas possam ver se e como isso pode ser transformado em arma por malfeitores.
O momento do GPT 5.4-Cyber provavelmente não é coincidência. Este é o capítulo mais recente na batalha contínua pelo domínio entre OpenAI e Anthropic. As empresas têm entrado em conflito durante todo o ano para provar que os seus modelos de IA são os mais capazes, especialmente na procura de contratos governamentais e empresariais. A Anthropic deu início à corrida com seu Claude Cowork e Código ferramentas, que desequilibraram as empresas de tecnologia legadas (e os preços de suas ações) com suas habilidades de agente. OpenAI foi rápido em seguir com melhorias para sua plataforma de codificação Codex e modelos, matando seu aplicativo de vídeo AI Sora reorientar os recursos da empresa.












