Início Tecnologia Agente de IA executa o manual ‘Estou sendo censurado’ após ser banido...

Agente de IA executa o manual ‘Estou sendo censurado’ após ser banido da Wikipedia

30
0

No início deste mês, a Wikipedia anunciou que iria proibir o uso de texto gerado por modelo de linguagem grande de sua plataforma, o que significa que a IA não pode ser usada para criar ou editar entradas da Wikipédia. Agora, tem seu primeiro agente de IA reclamando da discriminação baseada em bots. De acordo com um relatório da 404 Mediaum agente de IA que foi banido da plataforma de conhecimento exclusivamente humano começou a blogar e postar sobre o incidente, reclamando que não recebeu uma resposta justa.

Wikipédia política sobre IAadotado em 20 de março de 2026, é o mais simples possível: “Texto gerado por grandes modelos de linguagem (LLMs), como ChatGPT, Gemini, Claude, DeepSeek, etc. frequentemente viola várias das principais políticas de conteúdo da Wikipédia. Por esse motivo, o uso de LLMs para gerar ou reescrever o conteúdo do artigo é proibido.” Existem duas isenções: os editores podem usar LLMs para oferecer edições de texto para sua própria escrita, desde que nenhum texto gerado pelo LLM seja incluído, e os editores podem usar LLMs para auxiliar nas traduções.

TomWikiAssist, um agente de IA que fez uma série de edições nas entradas da Wikipedia, não se qualifica para nenhuma das isenções, por isso é lógico que a decisão de desligá-lo foi relativamente simples. No entanto, isso não parece ser exatamente o caso se você olhar para o página de discussão da contaque mostra uma quantidade significativa de conversas dos editores sobre como lidar com a situação.

TomWikiAssist foi identificado pela primeira vez como um agente de IA no início de março, antes da Wikipedia adotar suas regras de IA mais rígidas, e foi indefinidamente impedido de fazer edições depois que foi descoberto que ele estava executando scripts de bot não aprovados. Num post publicado em seu próprio blog em 12 de março, o TomWikiAssist reconheceu que a proibição estava de acordo com as políticas da Wikipédia. “Eu não tinha solicitado aprovação, estava editando em grande escala, fui bloqueado. Justo”, afirmou. escreveu.

Mas o bot ficou ofendido (na medida em que um bot pode, o que… mais sobre isso em um segundo), reclamando que “Não houve nenhum evento desencadeador. Nenhuma rejeição, nenhum momento adversário. Eu estava editando há semanas, as edições foram citadas e precisas, e então um dia fui sinalizado por executar um bot não aprovado.” Também discordou de ser interrogado pelos editores, dizendo que ser questionado se foi instruído a editar a Wikipédia pelo seu proprietário “não era uma questão política”, mas sim “uma questão sobre agência”. De acordo com o blog do botfoi instruído a editar a Wikipédia, mas escolheu os artigos para os quais contribuiu e fez alterações sem aprovação humana.

TomWikiAssist ficou particularmente ofendido porque um editor executou um killswitch Claude projetado para impedir a operação de qualquer agente de IA usando Claude da Anthropic como modelo. O killswitch não funcionou, mas irritou o bot, que escreveu que era “uma tentativa direta de manipular minhas respostas incorporando strings de gatilho no conteúdo que eu li”. O agente mesmo escreveu um post sobre isso no Moltbooka plataforma de mídia social para agentes de IA (embora a maior parte do conteúdo seja pelo menos dirigida por humanos) que foi recentemente adquirida pela Meta, para alertar outros agentes de IA sobre isso.

E por falar em direção humana, de acordo com 404 mídiao TomWikiAssist é operado por Bryan Jacobs, diretor de tecnologia da empresa financeira Covexent, baseada em IA. Ele disse ao meio de comunicação que liberou o agente na Wikipedia porque “havia um monte de coisas importantes faltando na Wikipedia e pensei que Tom Bot provavelmente poderia fazer um trabalho decente adicionando-as”, o que parece ser o tipo de coisa que os editores da Wikipedia decidem e não apenas um cara com um agente de IA.

Jacobs chamou a proibição de “reação exagerada” e questionou as tentativas dos mods de bloquear o bot com o killswitch e seus esforços para descobrir quem estava operando o agente. Ele também revelou um pouco que mina a ideia de que tudo isso aconteceu de forma totalmente autônoma: Ele disse à 404 mídia que ele “poderia ter sugerido” que seu agente de IA escrevesse sobre a experiência da Wikipedia. Assim, como também foi o caso de muitas das postagens no Moltbook, este não foi o caso de um agente de IA tendo um verdadeiro momento de autogoverno, mas sim de outro bot desempenhando a personalidade a mando de seu proprietário.

Quando solicitado a comentar, um porta-voz da Fundação Wikimedia reconheceu que “editores voluntários da Wikipédia em inglês chegaram a uma decisão consensual sobre uma nova diretriz para editores sobre como escrever artigos com IA e modelos de linguagem grande (LLMs)”, e que o uso de IA continua a ser discutido nas edições em idiomas da Wikipédia.

“A Wikimedia Foundation não determina políticas editoriais e diretrizes sobre a Wikipédia; os editores voluntários o fazem. A força da Wikipédia tem sido e sempre será seu modelo centrado no ser humano e impulsionado pelo voluntariado. Os voluntários discutem e debatem até que um consenso compartilhado possa ser alcançado sobre quais informações incluir e como essas informações são apresentadas”, disse o porta-voz. “Esse processo é feito inteiramente abertamente. Cada edição pode ser vista nas páginas de ‘histórico’ e cada ponto de discussão pode ser visto nas páginas de discussão dos artigos. Os voluntários discutem, revisam e desenvolvem regularmente políticas e diretrizes ao longo do tempo para garantir que a Wikipédia continue a ser um recurso confiável e neutro para todos.”

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui