Durante 25 anos, Wikipédia tem sido uma enciclopédia online de código aberto onde qualquer pessoa pode contribuir com conhecimento, desde que seja baseado em fontes confiáveis e verificáveis. Mas à medida que as ferramentas de inteligência artificial remodelam rapidamente a forma como o conteúdo é criado, a plataforma está traçando uma linha firme: você não pode usar Ferramentas de IA para criar ou reescrever conteúdo para a Wikipédia.
“O texto gerado por grandes modelos de linguagem (LLMs) frequentemente viola várias das principais políticas de conteúdo da Wikipedia”, A política de edição da Wikipedia diz. “Por esse motivo, é proibido o uso de LLMs para gerar ou reescrever o conteúdo do artigo, salvo as exceções abaixo.
Citações da Wikipédia Bate-papoGPT e Google Gêmeos como exemplos em uma nota de rodapé.
(Divulgação: Ziff Davis, empresa controladora da CNET, entrou com uma ação judicial contra a OpenAI em abril, alegando que ela infringiu os direitos autorais de Ziff Davis no treinamento e operação de seus sistemas de IA.)
Não está claro quando a política entrou em vigor. Um representante da Wikipédia não respondeu imediatamente a um pedido de comentário.
Exceções da Wikipedia ao uso de IA
A Wikipedia lista algumas exceções para editores e na tradução de artigos.
A Wikipedia diz que os editores podem usar IA para fazer edições básicas de artigoscomo erros de digitação e formatação, a artigos que escreveram depois que um revisor voluntário ou administrador da Wikipédia revisou o artigo.
No entanto, mesmo se você estiver usando IA para editar, a Wikipedia recomenda cautela porque a IA pode alterar o significado de algum conteúdo, o que pode não ser preciso ou não estar alinhado com a intenção da fonte.
A Wikipedia permite que você use IA para traduzir artigos de Wikipédias de outros idiomas para o inglês. No entanto, a tradução ainda deve seguir Políticas da Wikipédiae o tradutor deve ser fluente em inglês e no idioma do artigo original para garantir a precisão.
A aplicação não é clara
Não é nenhuma surpresa que a Wikipedia tenha adicionado esta linguagem à sua política, considerando que é um projeto de código aberto e a IA está sujeita a erros e plágio.
Ano passado, a Fundação Wikimedia perguntou que as empresas de IA parem de extrair dados da Wikipédia e usem sua API empresarial, o que lhes permitirá “usar o conteúdo da Wikipédia em escala e de forma sustentável, sem sobrecarregar severamente os servidores da Wikipédia, ao mesmo tempo que lhes permitirá apoiar nossa missão sem fins lucrativos”.
Nenhuma menção é feita sobre como as regras serão aplicadas ou como os usuários serão disciplinados se usarem IA em violação às regras.
A política da Wikipédia surge num momento em que a IA está se tornando parte de nossa vida cotidiana. Inteligência da Apple e Galáxia IA agora estão disponíveis em smartphones e há recursos de IA integrados nos aplicativos, sites e serviços que usamos regularmente. No entanto, existem preocupações crescentes sobre a precisão da IA e o risco de alucinações.
A decisão da Wikipédia parece reflectir uma tensão mais ampla em toda a Internet: equilibrar a velocidade e a conveniência do conteúdo gerado pela IA com a necessidade de julgamento humano e de conhecimento verificável e preciso.












