Início Desporto Dentro de um movimento crescente, alertando que a IA pode se voltar...

Dentro de um movimento crescente, alertando que a IA pode se voltar contra a humanidade

25
0

Em um gramado do AstroTurf em Berkeley, Califórnia, em uma sexta-feira recente, criadores de conteúdo acostumados a fazer vídeos sobre romances, mudanças climáticas e dicas de tecnologia receberam conselhos sobre como cobrir um tópico mais teórico: como espalhar a mensagem de que a inteligência artificial desonesta poderia acabar com a humanidade.

A reunião foi realizada em um amplo espaço para eventos, popular entre uma comunidade da Bay Area, focada na possibilidade de que a IA superinteligente possa levar à extinção humana – uma causa às vezes chamada de segurança da IA.

Assine o boletim informativo The Post Most para obter as histórias mais importantes e interessantes do The Washington Post.

A multidão aplaudiu quando Jeffrey Ladish, um afável ex-engenheiro de segurança da start-up de IA Anthropic, subiu ao palco em patins em linha, ostentando um tanque musculoso e uma juba de cabelos dourados, para se juntar a um painel de especialistas na arte de conversar com pessoas comuns sobre a catástrofe da IA.

Ladish disse que deixou a empresa por trás do popular chatbot Claude em 2022 para se concentrar em pesquisas que poderiam ajudar os legisladores a compreender as maneiras pelas quais a IA pode escapar do controle humano. Alguns anos depois de lançar a organização sem fins lucrativos Palisade Research, ele decidiu que a pesquisa sobre esse tópico era agora abundante, mas a área precisava de comunicadores para traduzir essas descobertas ao público.

“Isso exige que um monte de gente pegue coisas que as pessoas aqui estão descobrindo e [explain them] para o resto do mundo”, disse ele.

O próprio Ladish abraçou essa missão. Nos últimos meses, ele apareceu num vídeo viral com o senador Bernie Sanders (I-Vermont) sobre a ameaça da IA ​​sobre-humana e teve destaque no trailer de “The AI ​​Doc”, um documentário sobre essa ameaça potencial, que foi visto 5,8 milhões de vezes no YouTube.

Ele faz parte de uma iniciativa recente de alguns profissionais da segurança da IA ​​​​para convencer as massas de que a IA superinteligente pode significar o fim da civilização humana, uma iniciativa que inclui o patrocínio de publicações nas redes sociais e a parceria com influenciadores como o autor e estrela do YouTube Hank Green.

O evento em Berkeley marcou o fim de uma bolsa de estudos de oito semanas para apoiar criadores experientes, incluindo ex-ativistas de mudanças climáticas e um recém-convertido do BookTok, com a exigência de que 60% de seu conteúdo durante as oito semanas se concentrasse no impacto social da IA.

O esforço para semear conteúdo sobre os perigos da IA ​​na Internet surge num momento em que a crescente influência da tecnologia tem levado os debates sobre a IA para a corrente política. Uma onda de vídeos virais alertando sobre a tecnologia pode causar dores de cabeça aos super PACs apoiados pelo Vale do Silício, enquanto eles buscam minimizar as restrições ao setor. As pesquisas já indicam que a maioria dos americanos apoia as regras governamentais para a IA.

A maioria dos especialistas em IA no meio académico e na indústria dizem que não há apoio científico para alegações de perigo iminente para toda a espécie, argumentando que as previsões do Juízo Final sobrestimam a tecnologia existente e subestimam a complexidade do mundo real.

Mas os grupos de segurança da IA ​​que estão a recrutar criadores de conteúdos acreditam que o ritmo alucinante do desenvolvimento da IA ​​deverá tornar o público mais receptivo às suas previsões. Alguns querem a suspensão imediata de qualquer trabalho sobre IA superinteligente. Outros querem que as pessoas percebam que o tempo para agir pode estar se esgotando.

Os influenciadores abordados pelos defensores da segurança da IA ​​tendem a ser educadores científicos ou criadores que já publicam sobre IA. Eles incluem os apresentadores do canal do YouTube Veritasium, que tem mais de 20 milhões de assinantes, e Catherine Goetze, que faz vídeos com dicas sobre como usar IA sob o nome TikTok @askcatgpt.

A ControlAI, uma organização sem fins lucrativos de segurança de IA com sede na Grã-Bretanha, disse que a parceria com criadores para fazer vídeos no YouTube com títulos como “Este truque de 17 segundos pode impedir que a IA mate você” expandiu seu alcance.

A organização recebeu pouco mais de 8.000 visualizações para todos os vídeos em seu canal no YouTube em 2025 e 2026. Uma única colaboração paga no YouTube no ano passado obteve 1,6 milhão de visualizações e a ControlAI também patrocinou um episódio do popular SciShow de Green que rendeu 1,8 milhão de visualizações.

“Existe uma enorme lacuna de conscientização do público”, disse Andrea Miotti, fundador e CEO da ControlAI. “E uma grande forma de o público consumir informações, de eu consumir informações… são as novas mídias dos criadores.”

Fazer vídeos sociais é uma mudança de estratégia para os defensores da segurança da IA. Durante a última década, ricos doadores de tecnologia que apoiam o movimento gastaram centenas de milhões de dólares em organizações sem fins lucrativos e subsídios que incitaram as instituições de elite a levarem a sério o risco existencial da IA. Isso criou um fluxo de talentos que encontraram trabalho em laboratórios de IA, na academia, em grupos de reflexão e no governo federal.

Apesar desses esforços, a Seismic Foundation, um grupo de veteranos do marketing agora focados na segurança da IA, disse que a sua investigação concluiu que o público classifica o risco existencial em posição mais baixa entre as potenciais preocupações com a IA, depois da perda de empregos e do impacto nas relações humanas.

Mas uma recente onda de descontentamento populista e bipartidário com as empresas de IA ofereceu aos defensores da segurança da IA ​​uma nova oportunidade.

“Esta é a única questão em que temos Steve Bannon e Ralph Nader, Glenn Beck e Bernie Sanders a lutar pela mesma coisa”, disse Ben Cumming, chefe de comunicações do Future of Life Institute, uma organização sem fins lucrativos de segurança de IA, enumerando algumas das figuras públicas que recentemente endossaram uma declaração partilhada de prioridades políticas de IA. Eles incluíram “Keeping Humans In Charge” e “Accountability for AI Companies”, com os signatários também incluindo sindicatos e um think tank conservador.

Esses novos aliados não compartilham necessariamente dos temores mais extremos do movimento de segurança da IA. E os vídeos apoiados pelos grupos nem sempre discutem as previsões mais terríveis sobre a IA, com alguns centrando-se em conceitos como medir a rapidez com que a tecnologia está a melhorar ou exemplos de sistemas existentes que se comportam inesperadamente. Alguns criadores que trabalharam com o movimento de segurança de IA postam principalmente sobre outros tópicos.

A FLI financiou 30 projetos para desenvolver conteúdo de segurança de IA desde o lançamento de um acelerador de mídia digital no ano passado, disse Cumming. O formulário de inscrição no site da organização sem fins lucrativos diz que ela planeja gastar US$ 100 mil por mês.

A enxurrada de conteúdo acessível sobre o potencial de desastre da IA ​​poderia inflamar os debates políticos que envolvem o Vale do Silício.

Super PACs endinheirados, apoiados pela Meta, OpenAI e figuras tecnológicas aliadas ao presidente Donald Trump, rotularam a comunidade de segurança da IA ​​como “destruidores”, a quem acusam de impedir o progresso americano e de promover regulamentação que favorecerá a Antrópica. Os fundadores da empresa comprometeram-se a ser mais preocupados com a segurança do que os rivais e receberam investimentos iniciais dos doadores mais influentes do movimento de segurança da IA, incluindo o cofundador do Facebook, Dustin Moskovitz, e o antigo funcionário do Skype, Jaan Tallinn. A filantropia Coefficient Giving de Moskovitz não quis comentar; Tallinn não respondeu a um pedido de comentário. A Anthropic afirmou que a governação eficaz da IA ​​e os seus efeitos potenciais requerem um maior escrutínio de todas as empresas de IA, incluindo ela própria.

O ex-IA da Casa Branca e criptoczar David Sacks, que recentemente lançou seu próprio super PAC de IA, culpou o que chamou de “Complexo Industrial Doomer” pelo sentimento negativo do consumidor em relação à IA.

Membros da indústria, incluindo Chris Lehane, diretor de assuntos globais da OpenAI, recentemente culparam a retórica incendiária dos “destruidores” por um coquetel molotov jogado na casa do CEO da OpenAI, Sam Altman. Uma conta da Substack em nome do suposto invasor postou sobre “Se alguém construir, todos morrerão”, um livro recente que descreve como a IA superinteligente poderia erradicar os humanos. (O Washington Post tem uma parceria de conteúdo com a OpenAI.)

Daniel Kokotajlo, um ex-funcionário da OpenAI que criticou as práticas de segurança da empresa, disse que os defensores da segurança da IA ​​não estão dando o alarme com o objetivo de ajudar os laboratórios de IA. Mas ele acrescentou: “Há um risco real de muitas pessoas no movimento de segurança da IA ​​serem demasiado acolhedoras com as empresas de IA e demasiado reticentes em propor soluções que prejudicariam demasiado as empresas de IA”.

Merve Hickok, presidente da organização sem fins lucrativos Center for AI & Digital Policy, que promove a justiça, a inclusão social e a responsabilização na IA, disse que a enxurrada de dinheiro que vai para os campos opostos da IA ​​polarizou o campo. “Os legisladores estão vendo a segurança da IA ​​como algo em que se apoiar ou, como [Trump] a administração faz, recue”, disse ela, minando as respostas políticas num momento em que os efeitos da tecnologia sobre os direitos civis precisam de mais atenção.

No palco em Berkeley, Ladish e outros palestrantes falaram sobre como encontrar ideias para vídeos em artigos de pesquisa, incluindo trabalhos de algumas das mesmas empresas de IA que eles esperam ver controladas pela regulamentação.

Esse material pode conquistar grandes audiências, se enquadrado corretamente, disse Drew Spartz, que publica vídeos sobre segurança de IA em seu canal no YouTube, Species, que tem mais de 300 mil inscritos.

Ele descreveu a criação de um vídeo, que inicialmente fracassou, sobre um experimento antrópico no qual um chatbot sugeria que poderia recorrer à chantagem para evitar ser fechado. Tornou-se um sucesso com 10 milhões de visualizações, disse Spartz, depois de trocar a palavra “chantagem” no título do vídeo por “assassinato”, com base em um detalhe que encontrou enterrado no artigo de pesquisa da Anthropic.

Mais recentemente, Spartz decidiu deixar de cobrir os desenvolvimentos da indústria de IA em direção a vídeos narrativos, incluindo alguns que tentam expor diferentes maneiras pelas quais a IA sobre-humana poderia dominar o mundo. “Contar histórias” sobre o desastre da IA, disse ele, evoca “a emoção mais primitiva do homem das cavernas”.

Ladish, que cresceu como adventista do sétimo dia, mas disse que não é mais religioso, disse à multidão que levou algum tempo para descobrir como falar sobre o risco de extinção humana com pessoas fora dos círculos de segurança da IA.

“Eles não estão falando sobre autoaperfeiçoamento recursivo. Eles não estão falando sobre otimizadores de mesa. Essas palavras não significam nada para eles”, disse Ladish. “Ninguém vai te entender.”

Ele teve um grande avanço depois de começar a se apresentar às pessoas em bares, aeroportos e Ubers, explicando que era um pesquisador de IA e contando o que estava pensando.

“As pessoas geralmente são bastante dispostas a falar, mas eu também tento falar sobre coisas reais. Tento dizer: ‘Acho que todos nós podemos morrer.’ E eles disseram, ‘Que porra é essa? O quê? Conte-me sobre isso!’”, Disse ele.

A maioria dos cerca de uma dúzia de bolsistas, incluindo sete mulheres, eram novatos no vocabulário de segurança de IA.

“Estar em São Francisco faz você perceber quem não está na sala”, disse Janet Oganah, que atende por JatGPT no TikTok e nasceu no Quênia, mas viveu a maior parte de sua vida adulta em Londres. O seu público é composto por cerca de 70 por cento de mulheres, com representação da diáspora africana, dos EUA, do Reino Unido e da África Oriental, disse ela, e de outra forma poderiam não ouvir mensagens deste canto da comunidade de IA.

“Há um mundo muito maior de pessoas que podem estar começando a sentir os impactos da IA, mas de uma forma completamente diferente”, disse Oganah.

Green, a estrela do YouTube que fez uma postagem paga com ControlAI para seu canal científico, disse em comunicado que deseja dar aos seus espectadores uma melhor compreensão desta tecnologia cada vez mais poderosa, expondo-os a uma variedade de pontos de vista sobre IA. Ele apontou entrevistas recentes não patrocinadas em seu canal pessoal no YouTube, que incluíam críticos do hype das empresas de IA, o senador Sanders e um dos coautores de “Se alguém construir, todo mundo morre”.

“Levo todos esses pontos de vista a sério. Eu, pessoalmente, não sei. Inclino-me para ‘é bobagem pensar que a IA nos mataria’, mas sou uma pessoa muito otimista!” Green escreveu, acrescentando: “A tecnologia é muito estranha!”

Conteúdo relacionado

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui