Quando os militares dos Estados Unidos capturaram o ex-presidente venezuelano Nicolás Maduro em janeiro, usou uma ferramenta de IA desenvolvido por uma empresa privada dos EUA. Não está claro exatamente o que a ferramenta fez, mas a política da empresa diz que seus produtos não podem ser usados para violência ou para desenvolver armas.
Agora, o Pentágono está considerando cortar relações com essa empresa, a Anthropic, devido à sua insistência nos limites de como os militares usam sua tecnologia, segundo Eixos.
As tensões entre as salvaguardas da IA e a segurança nacional não são novas. Mas vários acontecimentos no último mês trouxeram a questão da segurança da IA – em contextos que vão desde o desenvolvimento de armas à publicidade ética – para o centro das atenções.
Por que escrevemos isso
A inteligência artificial está a desenvolver-se tão rapidamente que alguns membros da indústria temem que as preocupações com a segurança não estejam a receber atenção suficiente. Isto está a suscitar conversas sobre como equilibrar inovação, concorrência e salvaguardas.
“Muitas pessoas que estão envolvidas no campo da IA já pensam na segurança de várias formas há muito tempo”, diz Miranda Bogen, diretora fundadora do Laboratório de Governança de IA do Centro para Democracia e Tecnologia. “Mas agora essas conversas estão acontecendo em um cenário muito mais visível.”
Este mês, investigadores demitiram-se de duas grandes empresas de IA dos EUA, alegando inadequações nas salvaguardas das empresas em questões como a recolha de dados dos consumidores. Em um ensaio de 9 de fevereiro intitulado “Algo grande está acontecendo” o investidor Matt Shumer alertou que a IA não só irá em breve ameaçar em massa os empregos dos americanos, mas também poderá começar a comportar-se de formas que os seus criadores “não podem prever ou controlar”. O ensaio se tornou viral nas redes sociais.
Embora exortem a ações sobre riscos muito reais, muitos especialistas em segurança de IA alertam contra o excesso de medos sobre cenários hipotéticos.
“Estes momentos de atenção pública são valiosos porque criam aberturas para o tipo de debate público sobre IA que é essencial”, escreveu a Dra. Alondra Nelson, ex-membro do Órgão Consultivo de Alto Nível sobre Inteligência Artificial das Nações Unidas, ao Monitor num e-mail enquanto participava numa cimeira global de IA na Índia. “Mas não substituem a deliberação democrática, a regulamentação e a verdadeira responsabilização pública.”
Pressão para competir
Em dezembro, o presidente Donald Trump emitiu uma ordem executiva bloqueando leis estaduais “onerosas” que regulam a IA. Por exemplo, a sua ordem destacou a lei do Colorado que proíbe a “discriminação algorítmica” em áreas como contratação e educação. A ordem do presidente foi apoiada pelos republicanos, que afirmaram que forçar as empresas de IA a cumprir regulamentações excessivas poderia deixar os EUA em desvantagem competitiva em relação à China.
Esse sentimento de competição parece ser central para o afastamento da Antrópico do Pentágono. A Anthropic quer garantir que sua tecnologia não seja usada para conduzir vigilância doméstica ou desenvolver armas que disparem sem intervenção humana.
Mas o Departamento de Defesa, que afirmou no início deste ano que os militares dos EUA “devem aproveitar a sua liderança sobre os nossos adversários na integração [AI]”, quer implantar tecnologia de IA sem levar em conta as políticas individuais das empresas, de acordo com relatórios da Eixos e Reuters.
“Enfrentamos constantemente pressões para deixar de lado o que é mais importante”, escreveu Mrinank Sharma, pesquisador de segurança de IA, em um comunicado publicado publicamente. carta de demissão da Antrópico na semana passada. Ele não se referiu a um evento específico que o levou a renunciar, mas alertou que “nossa sabedoria deve crescer na mesma medida que nossa capacidade de afetar o mundo, para não enfrentarmos as consequências”.
Bogen diz que as políticas concebidas para obrigar os fornecedores de IA a submeter os seus modelos a determinados testes ou a investir em segurança são frequentemente diluídas em requisitos de divulgação ou recomendações não vinculativas.
“Os incentivos são fortemente a favor de avançar rapidamente, mesmo quando há o desejo de colocar barreiras de proteção”, diz ela.
O mundo está “em perigo”?
Aqueles que alertam sobre os perigos da IA têm por vezes utilizado linguagem existencial.
Zoë Hitzig, ex-pesquisadora da OpenAI, citou “profundas reservas” sobre a estratégia da empresa em um editorial ela escreveu para o The New York Times na semana passada, temendo que sua decisão de começar a testar anúncios no ChatGPT “crie um potencial para manipular os usuários de maneiras que não temos as ferramentas para entender, muito menos prevenir”.
A carta de demissão do Sr. Sharma da Anthropic alertou que “o mundo está em perigo”.
Alguns especialistas dizem que tal linguagem é contraproducente.
“Acho que o enquadramento desse ‘ponto sem retorno’ é muito enfraquecedor”, diz o Dr. Bogen.
Ela preocupa-se com o facto de, à medida que as pessoas optam por entregar mais a sua tomada de decisões à IA e aprenderem a utilizar a tecnologia nos seus empregos, estejam a criar dependências que serão cada vez mais difíceis de resolver.
Mas ela diz que as pessoas são, em última análise, responsáveis pelas suas escolhas e ações.
“Acho que nunca chegaremos ao ponto em que seja realmente impossível… tomar decisões sobre como tratar esta nova tecnologia”, diz ela.
Katherine Elkins, investigadora de segurança de IA do Instituto Nacional de Padrões e Tecnologia, diz que espera estar errada sobre alguns dos riscos que vê, como um chatbot de IA potencialmente usando os dados de alguém para manipulá-los. Mas até ter certeza, ela quer que a segurança continue sendo uma prioridade urgente.
“Pessoalmente, achei que é melhor ser cauteloso e dedicar o meu tempo a pensar nos riscos da IA” do que pensar que a tecnologia não irá melhorar.









