Atualize para obter acesso total a todas as notícias premium do Yahoo Finance e obter mais artigos excelentes, como esta visualização gratuita.
É necessário um plano de assinatura Silver ou Gold para acessar artigos de notícias premium.
Os ministros das finanças, os banqueiros centrais e os financiadores expressaram sérias preocupações sobre um novo e poderoso modelo de IA que temem poder minar a segurança dos sistemas financeiros.
O desenvolvimento do modelo Claude Mythos pela Anthropic levou a reuniões de crise, depois de encontrar vulnerabilidades em muitos dos principais sistemas operacionais.
Especialistas dizem que tem potencialmente uma capacidade sem precedentes para identificar e explorar fraquezas de segurança cibernética – embora outros acautelem que são necessários mais testes para compreender adequadamente as suas capacidades.
O ministro das Finanças canadense, François-Philippe Champagne, disse à BBC que o Mythos foi amplamente discutido na reunião do Fundo Monetário Internacional (FMI) em Washington DC esta semana.
“Certamente é suficientemente grave para merecer a atenção de todos os ministros das finanças”, disse ele.
“A diferença é que o Estreito de Ormuz – sabemos onde ele fica e quão grande é… o problema que enfrentamos com o Antrópico é que é o desconhecido, o desconhecido.”
“Isto exige muita atenção para que tenhamos salvaguardas e tenhamos processos em vigor para garantir a resiliência dos nossos sistemas financeiros”, acrescentou.
Mythos é um dos modelos mais recentes da Anthropic desenvolvido como parte de seu sistema mais amplo de IA chamado Claude, um rival do ChatGPT da OpenAI e do Gemini do Google.
Isso foi revelado pela Anthropic no início deste mês, quando desenvolvedores responsáveis por testar modelos de IA e seu desempenho nas chamadas tarefas “desalinhadas” – que vão contra os valores, objetivos e comportamento humanos – disseram que ela era “notavelmente capaz em tarefas de segurança de computadores”.
Citando preocupações de que poderia trazer à tona bugs de software antigos ou encontrar maneiras de explorar facilmente vulnerabilidades do sistema, a Anthropic não lançou o modelo.
Em vez disso, disponibilizou o Mythos para gigantes da tecnologia como Amazon Web Services, CrowdStrikeMicrosoft e Nvidia como parte de uma iniciativa chamada Projeto Glasswing – o que chama de “esforço para proteger o software mais crítico do mundo”.
[NurPhoto via Getty Images]
Na quinta-feira, a Anthropic lançou uma nova versão de um modelo existente, Claude Opus, dizendo que permitiria que as capacidades cibernéticas da Mythos fossem testadas em sistemas menos potentes.
As preocupações levantadas sobre o Mythos podem exceder as conversas sobre modelos anteriores de IA, mas alguns especialistas em segurança cibernética questionaram até que ponto elas são justificadas – especialmente porque o modelo não foi testado pela indústria em geral para ver até que ponto ele realmente é capaz.
O AI Security Institute do Reino Unido teve acesso a uma versão prévia e publicou o único relatório independente sobre as habilidades de segurança cibernética do modelo.
Seus pesquisadores notaram que era uma ferramenta poderosa capaz de encontrar muitas falhas de segurança em ambientes indefesos, mas sugeriram que o Mythos não era dramaticamente melhor que o antecessor de Claude, o Opus 4.
“Nossos testes mostram que o Mythos Preview pode explorar sistemas com postura de segurança fraca, e é provável que mais modelos com esses recursos sejam desenvolvidos”, disseram os autores do relatório.
Também não é a primeira vez que um desenvolvedor de IA afirma que as capacidades de seus modelos significam que eles não deveriam ser lançados – algo que os críticos argumentam ser uma tática para criar entusiasmo.
Em fevereiro de 2019, a OpenAI citou receios semelhantes quando optou por escalonar o lançamento do GPT-2, uma versão anterior dos seus modelos que agora alimenta a sua maior ferramenta, ChatGPT.
Os principais banqueiros deverão ter acesso antecipado ao modelo para testarem os seus sistemas.
O executivo-chefe do Barclays, CS Venkatakrishnan, disse à BBC: “É tão sério que as pessoas precisam se preocupar.
“Temos que entender isso melhor e entender as vulnerabilidades que estão sendo expostas e corrigi-las rapidamente.”
Acrescentou que “isto é o que o novo mundo vai ser” – referindo-se a um sistema financeiro muito mais conectado, com oportunidades e vulnerabilidades.
Embora o desenvolvedor Anthropic tenha dito que o modelo já expôs múltiplas vulnerabilidades de segurança em alguns sistemas operacionais críticos, sistemas financeiros e navegadores da web, governos e bancos estão recebendo acesso antes de seu lançamento público para ajudar a proteger seus próprios sistemas.
O governador do Banco de Inglaterra, Andrew Bailey, disse à BBC que o desenvolvimento tem de ser levado muito a sério: “Temos de analisar com muito cuidado agora o que este último desenvolvimento de IA pode significar para o risco de crime cibernético”.
Ele acrescentou: “A consequência poderia ser o desenvolvimento da IA, da modelagem, que torna mais fácil detectar vulnerabilidades existentes em sistemas de TI centrais e, então, obviamente, os criminosos cibernéticos – os malfeitores – poderiam tentar explorá-las”.
O Tesouro dos EUA confirmou que levantou a questão junto dos seus principais bancos, encorajando-os a testar os seus sistemas, antes de qualquer divulgação pública do Mythos pela Anthropic.
Fontes da indústria financeira indicaram que outra importante empresa de IA dos EUA poderá em breve lançar um modelo igualmente poderoso, mas sem as mesmas salvaguardas.
James Wise, sócio da Balderton Capital, é presidente da unidade Sovereign AI, um fundo de capital de risco que investirá em empresas britânicas de IA, apoiado por 500 milhões de libras de financiamento governamental.
Ele disse que o Mythos é “o primeiro de muitos modelos mais poderosos” que podem expor as vulnerabilidades dos sistemas.
Sua unidade está “investindo em empresas britânicas de IA que estão lidando com isso – empresas que trabalham em segurança e proteção de IA”, disse ele ao programa Today da BBC.
“Esperamos que os modelos que expõem vulnerabilidades sejam também os modelos que irão corrigi-las.”
Reportagem adicional de Liv McMahon, repórter de tecnologia