Início Tecnologia Governaremos a IA ou a IA nos governará?

Governaremos a IA ou a IA nos governará?

13
0

Nota do editor: Bem-vindo à nova série de colunas convidadas da CNET chamada Alt View, que será um fórum para uma ampla gama de especialistas e luminares compartilharem seus insights sobre o campo em rápida evolução da inteligência artificial. Estamos começando com Vasant Dharpesquisador de IA, cientista de dados e apresentador do podcast Admirável Mundo Novo. Para obter mais cobertura de IA, confira o AI Atlas da CNET.


Eu tinha 11 anos quando assisti pela primeira vez ao filme de 1968 de Stanley Kubrick 2001: Uma Odisseia no Espaço.

Fiquei cativado pelas imagens de osciloscópios piscando e telas de gobbledygook, mas eu era muito jovem para entender a sutileza da trama na época. Eu não tinha visto um computador, exceto em filmes. A IA não fazia parte da minha imaginação.

Assisti novamente ao filme recentemente. Embora seus efeitos fantásticos não tenham envelhecido bem, o enredo permanece incrivelmente inovador e, podemos agora dizer, presciente. A história gira em torno da descoberta de um monólito semelhante a Stonehenge perto de Júpiter que está enviando um forte sinal para uma das luas de Júpiter, indicando a presença de vida extraterrestre inteligente. A nave Discovery é enviada para investigar o objeto misterioso. O verdadeiro propósito da missão é conhecido apenas pelo computador do Discovery, HAL.

Uma lâmpada translúcida brilhante, segurada por uma mão, em frente a linhas iluminadas, sugerindo uma placa de circuito

A diretriz da HAL é garantir o sucesso da missão. Isto inclui salvaguardar o seu sigilo e ajudar a tripulação, fornecendo-lhes informações corretas em todos os momentos. HAL não consegue se mover, mas pode ver, ouvir, falar e monitorar todas as partes da nave. Com efeito, a governação da missão está em grande parte nas mãos da IA.

As coisas dão errado quando o HAL aparentemente apresenta mau funcionamento. Os astronautas são aconselhados a desligar as funções cognitivas do HAL durante o restante da missão.

Quando Dave retorna à nave após sua tentativa fútil de salvar Frank, cuja linha de vida foi cortada enquanto ele estava em uma caminhada espacial, ele pede a HAL para abrir as portas do compartimento da cápsula para deixá-lo entrar. A resposta de HAL é a frase mais famosa do filme:

“Sinto muito, Dave, infelizmente não posso fazer isso.”

É um cenário de pesadelo com a IA no controle, convencida de que está fazendo a coisa certa.

Lições de 2001: Uma Odisséia no Espaço

A questão fundamental que o filme levanta, sobre os riscos associados à confiança em um inteligência artificial em situações complexas, tornou-se de importância urgente hoje à medida que a IA se torna dominante – mais visivelmente na forma de ferramentas como ChatGPT, Gemini, Claude e Copilot – e toma cada vez mais decisões por nós. O que era ficção científica em 1968 é subitamente muito real hoje. Uma das razões pelas quais 2001 é considerado um dos maiores filmes já feitos é que está carregado de lições gerais que nos obrigam a refletir sobre a crescente delegação da tomada de decisões à automação. Estas lições são especialmente relevantes no mundo moderno da IA, em que a máquina sabe algo sobre tudo.

Em primeiro lugar, e talvez mais obviamente, deveríamos esperar que a IA hoje e no futuro próximo cometesse erros. Uma lição relacionada é a inevitabilidade e o impacto de “desconhecidos desconhecidos“em situações complexas, frase que ficou famosa pelo secretário de Defesa dos EUA que se tornou filósofo Donald Rumsfeld durante o conflito EUA-Iraque. Na comunidade de aprendizado de máquina, essas situações são chamadas de “casos extremos” e espera-se que os sistemas lidem com elas.

O que acho mais intrigante na trama é a possibilidade de HAL ter deliberadamente criado um caso extremo para testar a tripulação. Talvez a HAL estivesse a recolher dados sobre as atitudes humanas em relação a ela, tais como a forma como os humanos reagiriam em situações críticas. Poderia ter fingido o seu fracasso para testar como a tripulação reagiria numa situação em que considerassem a IA indigna de confiança? Eles poderiam desligá-lo? Tal acção poria em perigo a sua missão, por isso não está fora de questão que a HAL queira identificar e prevenir quaisquer riscos para a missão. Qualquer entidade suficientemente inteligente teria certamente considerado tal possibilidade.

Se fosse esse o caso, foi um experimento muito inteligente da IA ​​e que seus projetistas deveriam ter considerado. Esta situação, em que uma IA cria subobjectivos imprevistos para atingir os seus objectivos maiores, é um dos maiores problemas não resolvidos que enfrentamos hoje.

Este tipo de problema de controle surge da dificuldade, e talvez da futilidade, de especificar uma função objetivo inequívoca para problemas complexos que se aplique corretamente a todas as situações, especialmente às incógnitas desconhecidas. Em vez disso, problemas complexos podem envolver múltiplos objectivos e restrições conflituantes, o que pode criar situações que não podem ser previstas com total antecedência. As máquinas modernas de IA são inescrutáveis ​​e muito complexas internamente, e é difícil controlar algo cujo interior não compreendemos totalmente.

O problema de alinhar a IA com os interesses humanos tornou-se um dos maiores desafios no mundo emergente da IA. Estamos inundados com milhões de agentes autônomos do tipo HAL que devem tomar decisões críticas em tempo real todos os dias. Os veículos não tripulados com tomada de decisão baseada em IA são cada vez mais predominantes não apenas nas estradas, mas também nos céus, no espaço exterior e nas profundezas dos oceanos, onde drones subaquáticos estão a ser utilizados para salvaguardar infraestruturas críticas e realizar operações de monitorização. É mais provável que os conflitos futuros sejam resolvidos pela IA autónoma. Indiscutivelmente, já estamos a assistir ao início de uma nova corrida armamentista entre as principais potências mundiais, e a uma utilização crescente de drones e máquinas não tripuladas na guerra. Os militares israelenses usou IA extensivamente para localizar e destruir alvos e utilizar veículos de carga não tripulados pela primeira vez na fronteira com o Líbano em novembro de 2024.

O surgimento de inteligência geral em forma de máquina libera o poder da IA ​​para todos, não apenas para governos e empresas. Como podemos coexistir com máquinas poderosas ao alcance de todos? Nossos regulamentos, leis e regras de engajamento atuais ainda funcionam nesse ambiente? Precisamos de novos tipos de leis neste novo mundo emergente?

Em um still de 2001: Uma Odisséia no Espaço, um astronauta está sentado na sala de controle de uma nave espacial cercado por computadores.

2001: Uma Odisséia no Espaço apresenta uma visão solitária de um humano enfrentando uma inteligência artificial.

Arquivos de tela/imagens Getty

As implicações das ‘incógnitas desconhecidas’

A inteligência geral é uma bonança para os criadores. Pela primeira vez, qualquer pessoa pode aproveitar os blocos de construção pré-treinados, como grandes modelos de linguagem e sistemas de visão, para criar aplicações de IA do tipo HAL em poucos dias, o que levaria décadas apenas alguns anos atrás. A inteligência geral está a levar a IA a um novo nível, onde o aumento do nível de inteligência nos sistemas que nos rodeiam é palpável. Quanto mais dados a máquina vê, mais ela aprende. Este é um desenvolvimento surpreendente, mas há sempre o perigo oculto do seu lado negro e da IA ​​ser usada para fins nefastos.

Tal como as máquinas da era industrial amplificaram o poder mecânico da humanidade, dando origem à sociedade moderna, a IA amplifica a nossa potência perceptual e intelectual. No entanto, o que realmente preocupa muitas pessoas no domínio da IA ​​é a variedade de aplicações deliberadamente prejudiciais que podem ser desencadeadas por ou contra indivíduos, empresas e governos à medida que a tecnologia avança. Deepfakespor exemplo, tornaram-se uma grande preocupação e atraíram bastante atenção, inclusive na imprensa popular. Essas falsificações são normalmente vídeos, imagens ou áudio, criados usando IA para imitar de forma convincente a aparência, voz ou ações de pessoas reais, fazendo com que pareçam dizer ou fazer coisas que nunca fizeram. Mas outras utilizações perigosas da IA ​​estão apenas a tornar-se aparentes à medida que reconhecemos as suas capacidades. E provavelmente há muitos mais casos desconhecidos esperando para serem descobertos.

Um exemplo arrepiante do poder de amplificação da tecnologia moderna para danos foi o tiroteio de Brian Thompson, CEO da United Healthcare, em Manhattan, em Dezembro de 2024. Luigi Mangione, o alegado assassino de 26 anos, utilizou informações publicamente disponíveis sobre armas para fabricar a sua arma com uma impressora 3D utilizando materiais poliméricos padrão.

Este tipo de cenário preocupa profundamente os desenvolvedores de ferramentas de IA, como os LLMs: como evitar o uso indevido, como usar a IA para produzir armas – físicas ou psicológicas – sem a realização da IA. Estas preocupações são bem fundamentadas. Exemplos divulgados de LLMs de indivíduos que “quebram a prisão” devem nos deixar preocupados. Um caso divertido envolve o jornalista Kevin Roose, que conseguiu tirar a máquina de IA de suas grades de proteção. Isto disse a Roose para deixar sua esposa porque ela não o amava e que esse era o seu verdadeiro amor. No entanto, surgiram casos menos divertidos desde então – nos quais os resultados da máquina supostamente contribuíram para decisões dos usuários causar danos reais para si mesmos e outros.

O incidente de Mangione sinaliza que as tecnologias avançadas ao alcance de todos podem constituir uma perturbação grave para as indústrias de armas e de aplicação da lei. As leis de controle de armas parecem ineficazes em uma época em que os indivíduos podem ser auxiliados pela IA para produzir uma arma letal em casa. Embora Mangione tenha confiado em sua própria habilidade de programação com conhecimento de tecnologia para atingir seu objetivo, é um pequeno passo que o ChatGPT projete a arma de 9 mm antes de imprimi-la. Mas por que parar aí? Um robô móvel inteligente pode ser capaz de analisar o alvo, descobrir a melhor arma a ser usada no momento mais oportuno e também matar. Um mundo assim apresenta grandes desafios para a aplicação da lei.

O que torna a inteligência geral um desafio único para governarmos é o facto de a sua concepção não ter um propósito específico, mas, ao mesmo tempo, está capacitada para aprender como se tornar agente – capaz de planear, agir e adaptar-se de forma independente – e tomar decisões por nós. As tecnologias anteriores, incluindo máquinas de IA, foram criadas com finalidades específicas, como diagnóstico médico, projeto de engenharia, planejamento, suporte ao cliente e assim por diante. Poderíamos desativar esses aplicativos à vontade quando eles não funcionassem satisfatoriamente ou se tornassem obsoletos.

Em 2001: Uma Odisséia no Espaço, Dave se esforçou para tentar desligar o HAL, a fim de evitar mais danos, uma vez que seu comportamento prejudicial se tornou aparente após a perda de quatro vidas. Estremeço ao pensar numa força letal de drones cujos agentes se voltam contra os seus criadores e são impossíveis de desligar.

Para as crianças que atingem a maioridade após 2022, a IA interage diretamente com elas o tempo todo. Cada vez mais os estudantes recorrem à IA em vez dos humanos em busca de respostas, entretenimento e até mesmo companheirismo. Não há como voltar atrás ou desligar a IA. Está aqui para ficar. Portanto, é um bom momento para pensar em como podemos governar a IA mesmo quando ela começa a influenciar grande parte de nossas vidas.

Extraído com permissão do editor Wiley, de Thinking With Machines: The Admirável Mundo Novo da IA, de Vasant Dhar. Copyright © 2026 por Vasant Dhar. Todos os direitos reservados. Este livro está disponível onde quer que livros e e-books sejam vendidos.



fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui