Início Tecnologia A Antthropic quer contratar um especialista em armas. Não é o que...

A Antthropic quer contratar um especialista em armas. Não é o que você pensa.

24
0

Muitas pessoas viram isso pela primeira vez no X: um anúncio de emprego muito incomum e perturbador. Alguns presumiram que era uma piada. Outros se lembraram da Cyberdyne Systems, a empresa de tecnologia do Exterminador do Futuro franquia que acidentalmente inventa a Skynet.

Mas no LinkedIn, onde falam um idioma diferente, a Anthropic apenas postou uma listagem procurando por um Gerente de Políticas, Armas Químicas e Explosivos de Alto Rendimento. A descrição do trabalho adicionou mais detalhes.

“Esta função oferece uma oportunidade única para moldar a forma como os sistemas de IA lidam com informações sensíveis sobre produtos químicos e explosivos”, dizia. “Você trabalhará com os principais pesquisadores de segurança de IA enquanto enfrenta problemas críticos na prevenção do uso indevido catastrófico. Se você está entusiasmado em usar sua experiência para garantir que os sistemas de IA permaneçam seguros e benéficos, queremos ouvir sua opinião.”

O Mashable entrou em contato com a Anthropic e a empresa forneceu mais contexto.

“Nossas políticas de uso proíbem o uso de produtos ou serviços da Antrópico para desenvolver ou projetar armas”, disse-nos um porta-voz da empresa. “Essa função cabe à equipe de Salvaguardas, responsável por prevenir o uso indevido de nossos modelos.”

O porta-voz enfatizou que a Anthropic proíbe explicitamente que sua IA ou qualquer uma de suas tecnologias seja usada para a criação de armas. Em vez disso, o gestor baseado em Nova Iorque terá a tarefa de criar e aplicar salvaguardas para garantir que as armas sejam não feito com tecnologia da Antrópica.

A empresa busca contratar especialistas em áreas sensíveis que possam garantir que a IA da Anthropic seja mantida longe de mãos nefastas, disse o porta-voz.

VEJA TAMBÉM:

Claude da Anthropic ultrapassa ChatGPT na App Store

A Antrópica recentemente se viu em uma batalha pública com o Departamento de Guerra (também conhecido como Departamento de Defesa). A empresa diz que não está a ceder nas suas exigências de que a sua IA não seja usada para construir armas totalmente autónomas ou para estabelecer vigilância em massa sobre as pessoas.

O secretário de Defesa Pete Hegseth respondeu às condições da Anthropic declarando que a empresa representava um risco na cadeia de abastecimento para a segurança nacional dos Estados Unidos, proibindo o Pentágono de usar a sua tecnologia após uma eliminação progressiva de seis meses. A empresa então entrou com uma ação de acordo com uma nota de 5 de março do CEO da Anthropic, Dario Amodei.

Enquanto isso, alguns no Pentágono estão supostamente achando difícil abandonar ClaudeModelo de IA da Antrópico.

Em fevereiro, Antrópico anunciou uma atualização em sua política de segurança de IAtambém conhecida como Política de Escalabilidade Responsável. A empresa afirmou que foi forçada a repensar as suas políticas de segurança – consideradas por alguns como as mais forte na indústria — devido a vários factores, incluindo a ênfase do governo federal no crescimento económico em detrimento das regulamentações de segurança.

Quem quer que acabe nesse papel de gestor de políticas, então, encontrará-se no centro de um debate explosivo. Sem mencionar, potencialmente, a capacidade de ajudar evitar uma futura ameaça da Skynet.



fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui