Início Tecnologia Os AI Doomers que estão brincando com fogo

Os AI Doomers que estão brincando com fogo

24
0

Depois que o ChatGPT da OpenAI entrou em cena no final de 2022, não demorou muito para que a grande maioria dos Estados Unidos começasse a ouvir sobre os avisos. Os executivos das principais empresas de IA disseram-nos que estavam a construir uma nova tecnologia radical que representava riscos iminentes para a sociedade. E não se tratava apenas de segurança digital. A IA tinha o poder de destruir o mundo inteiro.

Desde o início, ficou claro que esses avisos eram tanto uma tática de vendas quanto uma previsão séria de como a IA se comportaria e dos efeitos em cascata que criaria. Os executivos da IA ​​até testemunharam no Congresso para nos dizer como tudo era assustador, praticamente implorando por regulamentação, ao mesmo tempo que vendiam os seus produtos ao governo. Agora, são esses executivos que dizem a todos para se acalmarem.

Chris Lehane, chefe de política global da OpenAI, sentou-se para uma entrevista com o Padrão de São Francisco esta semana, após pelo menos um ataque à casa do CEO Sam Altman.

“Parte da conversa por aí não é necessariamente responsável”, disse Lehane ao Standard. “E quando você expõe alguns desses pensamentos e ideias, eles têm consequências.”

Lehane estava se referindo à pessoa que supostamente jogou um coquetel molotov na casa de Altman há uma semana. Daniel Moreno-Gama, do Texas, de 20 anos, foi acusado de lançar um dispositivo incendiário na casa de Altman antes de ir para a sede da OpenAI, onde bateu nas portas de vidro com uma cadeira.

Moreno-Gama carregava um “documento” anti-IA, segundo a polícia, sugerindo que suas motivações estavam relacionadas a preocupações com inteligência artificial e ameaças existenciais. O Wall Street Journal relatórios que ele havia pedido “Luigi para alguns CEOs de tecnologia”, uma referência a Luigi Mangione, que foi acusado de assassinato por matar o CEO da UnitedHealth.

Um segundo incidente, apenas dois dias depois, no qual duas pessoas supostamente dispararam uma arma perto da casa de Altman, ainda está sob investigação, embora os suspeitos iniciais tenham sido libertado da prisão.

Lehane divide o mundo em dois grupos de pessoas: aqueles que pensam que a IA é a melhor coisa de sempre e que conduzirá inevitavelmente a um mundo de abundância e lazer; e aqueles a quem ele chama de destruidores, que “têm uma visão muito, muito negativa e sombria da humanidade”.

Os chamados destruidores da IA ​​simplesmente não estão sendo vendidos adequadamente sobre os benefícios desta nova tecnologia, argumenta Lehane. “Nosso trabalho na OpenAI e no espaço de IA – e precisamos fazer um trabalho muito melhor – é explicar às pessoas por que… isso será realmente bom para elas, para suas famílias e para a sociedade em geral”, disse Lehane ao Standard.

Mas é difícil levar esse argumento a sério depois de tudo o que caras como Altman têm dito. Também nem começou em 2022. Em 2015, Altman disse“Acho que a IA provavelmente levará ao fim do mundo. Mas, enquanto isso, haverá grandes empresas criadas com aprendizado de máquina sério.”

Como você ouve algo assim de uma pessoa poderosa e simplesmente aceita? Você tem duas opções: pode considerar Altman pouco sério e presumir que a humanidade não deveria fazer nada. Ou você pode acreditar na palavra dos CEOs de tecnologia de que a tecnologia que eles estão construindo pode acabar com o mundo. O que deixa você com a questão do que você pode fazer sobre isso.

Não há destino, mas o que fazemos

Sabemos o que acontece na ficção distópica. Em Terminator 2: Dia do JulgamentoSarah Connor decide que eles precisam matar o pesquisador mais responsável pelo início da Skynet e pela ascensão das máquinas. Ela não consegue fazer isso, mas depois de explicar o que vai acontecer no futuro, a pesquisadora ajuda a ter acesso à tecnologia para que ela seja destruída.

Altman também alertou que a IA poderia ser costumava ser “projetar novos patógenos biológicos” e assinaram uma carta sobre o “risco de extinção”, se a IA não for domesticada. Mas ele também tentou afirmar que os EUA precisam de ser os únicos a desenvolver estas tecnologias potencialmente catastróficas porque deixar isso para adversários geopolíticos acarreta riscos em si.

“Uma AGI superinteligente desalinhada poderia causar danos graves ao mundo; um regime autocrático com uma liderança decisiva em superinteligência também poderia fazer isso”, Altman escreveu em 2023.

Recorri ao produto de Altman, ChatGPT, para perguntar sobre seus comentários sobre ameaças existenciais à humanidade. Especificamente, perguntei se Altman havia falado sobre IA desonesta ou o fim do mundo no podcast de Joe Rogan. Hilariamente, ChatGPT disse que não apareceu no Rogan. Altman, de fato, apareceu em Episódio 2044 da Joe Rogan Experience, lançado pela primeira vez em 6 de outubro de 2023.

Corrigi o ChatGPT e ele fez o agora clichê, ‘você está certo etc, etc.’ As citações que me deu:

  • “Existem riscos… se esta tecnologia der errado, pode dar muito errado.”
  • “O que me preocupa é que percamos o controle dos sistemas…”
  • “Isso pode dar muito, muito errado… como apagar as luzes errado.”

Essa última citação não é precisa, pelo que posso dizer. Não está na transcrição do episódio no YouTube. Mas Altman disse algo muito próximo disso em uma entrevista com o podcast StrictlyVC. “O caso ruim – e acho que é importante dizer isso – é, tipo, o apagamento das luzes para todos nós”, explicou Altman para uma sala cheia de pessoas. Próximo, mas não exato, o que talvez demonstre como os sistemas de IA estão falhando nas pessoas em suas experiências de vida.

O CEO da Anthropic, Dario Amodei, fez declarações semelhantes, dizendo Eixos no início deste ano que, “A humanidade está prestes a receber um poder quase inimaginável e não está profundamente claro se os nossos sistemas sociais, políticos e tecnológicos possuem a maturidade para exercê-lo.” Amodei afirma que “o autoritarismo possibilitado pela IA me aterroriza”.

Amodei também alertou que qualquer pessoa com diploma STEM poderia fazer uma arma biológica com a ajuda de modelos de IA, e ele pediu grades de proteção. Algumas dessas proteções colocaram a Anthropic em apuros, já que o Pentágono colocou a empresa na lista negra e está em processo de expurgar Claude de seus sistemas. Amodei recusou-se a abandonar as proteções que proibiam o uso de Claude para vigilância doméstica em massa e sistemas de armas autônomos.

Se alguém testemunhar que criou uma ferramenta que poderia potencialmente acabar com o mundo, seria de esperar que essa pessoa fosse imediatamente levada algemada. Essa é uma ideia que me foi apresentada em terceira mão há alguns anos, e eu gostaria de saber quem a disse originalmente. Mas é certeiro.

Pense nisso em qualquer outro contexto. Alguém diz que construiu uma arma que pode se tornar desonesta e literalmente acabar com a vida no planeta Terra. O governo federal simplesmente age como se a única solução fossem regulamentações leves que mexem nas bordas? Ou será que os executivos dessa empresa são presos e presos por fazerem ameaças terroristas?

Ameaçar eliminar totalmente os meios de subsistência é uma ameaça à vida humana

Além da ascensão da Skynet, há obviamente a questão premente da demissão de empregos. Muitas empresas citaram a IA como motivo para demissões no ano passado, mesmo que às vezes tenham um incentivo para usar isso como uma desculpa conveniente. Mas não há como negar que a IA é agora suficientemente boa na escrita e noutros trabalhos de colarinho branco para causar algum tipo de perturbação no mercado de trabalho.

Os CEO da IA ​​estão ansiosos por dizer a todos que estas perturbações estão a chegar, insistindo que o governo deve fazer algo sobre isso, ao mesmo tempo que pressionam o mesmo governo para manter o assunto fora do seu alcance. Talvez ninguém exemplifique melhor essa atitude do que Elon Musk, cuja empresa xAI fabrica o chatbot Grok AI.

“Universal HIGH INOME por meio de cheques emitidos pelo governo federal é a melhor maneira de lidar com o desemprego causado pela IA”, escreveu Musk em Sexta-feira. “A IA/robótica produzirá bens e serviços muito superiores ao aumento da oferta monetária, portanto não haverá inflação.”

Já argumentei antes que é ridículo Musk insistir que teremos um mundo de abundância utópica fornecido pelo governo. Durante o tempo de Musk como capanga do presidente Trump, no ano passado, o bilionário ajudou na destruição completa da USAID, cortou o financiamento para programas vitais e criticou pessoas que ele afirmava estarem a explorar o sistema.

Seu chamado Departamento de Eficiência Governamental (DOGE) ajudou a expurgar cerca de 300.000 funcionários federais, e ele assumiu como missão dizer que pessoas indignas não mereciam esmolas do governo. Agora, esse é o cara que diz que você não deveria se preocupar com IA porque o governo vai distribuir dinheiro de graça? Absurdo.

Por que alguém tentaria vender um produto ao público com a ideia de que isso iria tirar seu emprego? Porque a proposta é destinada a investidores, ao governo e às pessoas que compram software empresarial para empresas. Você deve se concentrar em fazer seu avatar parecer um filme do Studio Ghibli.

Uma classe dominante não eleita tomando decisões para todos

Todas as elites da IA ​​estão a vender os seus produtos como algo inevitável. Parte de seu discurso de vendas é que não há nada que você possa fazer para impedir isso. E o público só precisa de aceitar isso enquanto encontra formas de trabalhar num sistema onde a IA provoca perdas de empregos. Estes oligarcas – e são em grande parte oligarcas, competindo para serem os membros favorecidos da classe dominante – não foram eleitos. Mesmo assim, eles ditarão como será sua vida no próximo ano, cinco anos ou 20 anos, se você tiver sorte o suficiente para sobreviver à revolta dos robôs.

O próprio Altman escreveu um postagem no blog há uma semana, após o ataque à sua casa. Ele compartilhou uma foto de seu marido e filho, “na esperança de que isso pudesse dissuadir a próxima pessoa de jogar um coquetel molotov em nossa casa, não importa o que pensem de mim”. E parece que Altman está fazendo o possível para se humanizar e dissuadir mais ataques potenciais.

Aconteça o que acontecer, parece que os executivos da IA ​​se encurralaram. Eles disseram a todos que seu produto tem potencial para destruir tudo. Eles eram os destruidores, se quisermos chamar assim, pelo menos quando era conveniente. E agora parece que estamos a entrar numa era diferente, em que as mesmas pessoas que nos falaram sobre os perigos da IA ​​tentam fazer-nos olhar exclusivamente para o que afirmam ser enormes benefícios para a sociedade; até agora, com pouco para mostrar.

Não está claro como você colocou aquele gênio da destruição de volta na garrafa.

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui