Início Tecnologia Por dentro do plano de verificação de conteúdo de IA da Microsoft

Por dentro do plano de verificação de conteúdo de IA da Microsoft

11
0

NOVOAgora você pode ouvir os artigos da Fox News!

Role seu mídia social alimente por cinco minutos. Você provavelmente verá algo que parece real, mas parece um pouco estranho.

Talvez seja uma imagem de protesto viral que acaba por ser alterada. Talvez seja um vídeo elegante que promove uma narrativa política. Ou talvez seja um clipe de voz de inteligência artificial que se espalha antes que alguém pare para questioná-lo.

O engano viabilizado pela IA agora permeia a vida cotidiana. E a Microsoft afirma ter um plano técnico para ajudar a verificar a origem do conteúdo online e se ele foi alterado.

Inscreva-se para receber meu relatório CyberGuy GRATUITO
Receba minhas melhores dicas técnicas, alertas de segurança urgentes e ofertas exclusivas diretamente na sua caixa de entrada. Além disso, você terá acesso instantâneo ao meu Ultimate Scam Survival Guide – gratuitamente ao ingressar no meu CYBERGUY.COM boletim informativo.

A proposta da Microsoft anexaria impressões digitais e metadados para ajudar a rastrear a origem do conteúdo online. (YorVen/Getty Images)

Por que o conteúdo gerado por IA parece mais convincente hoje

As ferramentas de IA agora podem gerar imagens hiperrealistas, clonar vozes e criar deepfakes interativos que respondem em tempo real. O que antes exigia um estúdio ou agência de inteligência agora requer uma janela de navegador. Essa mudança muda o que está em jogo.

Não se trata mais de detectar falsificações óbvias. Trata-se de navegar em um mundo digital onde o conteúdo manipulado se mistura à sua rolagem diária. Mesmo quando os espectadores sabem que algo é gerado por IA, eles geralmente se envolvem com isso de qualquer maneira. Os rótulos por si só não impedem automaticamente a crença ou o compartilhamento. Então a Microsoft está propondo algo mais estruturado.

Como funciona o sistema de verificação de conteúdo de IA da Microsoft

Para entender a abordagem da Microsoft, imagine o processo de autenticação de uma pintura famosa. Um proprietário documentaria cuidadosamente sua história e registraria cada mudança de posse. Os especialistas podem adicionar uma marca d’água que as máquinas podem detectar, mas os espectadores não conseguem ver. Eles também poderiam gerar uma assinatura matemática baseada nas pinceladas.

Agora a Microsoft quer trazer a mesma disciplina para o conteúdo digital. A equipe de pesquisa da empresa avaliou 60 combinações diferentes de ferramentas, incluindo rastreamento de metadados, marcas d’água invisíveis e assinaturas criptográficas. Os pesquisadores também testaram esses sistemas em cenários do mundo real, como metadados removidos, alterações sutis de pixels ou adulteração deliberada.

Em vez de decidir o que é verdade, o sistema concentra-se na origem e na alteração. Ele foi projetado para mostrar onde o conteúdo começou e se alguém o alterou ao longo do caminho.

O que a verificação de conteúdo de IA pode ou não provar

Antes de confiar nessas ferramentas, você precisa entender seus limites. Os sistemas de verificação podem sinalizar se alguém alterou o conteúdo, mas não podem julgar a precisão ou interpretar o contexto. Eles também não podem determinar o significado. Por exemplo, um rótulo pode indicar que um vídeo contém elementos gerados por IA. Não explicará se a narrativa mais ampla é enganosa.

Mesmo assim, os especialistas acreditam que a adoção generalizada poderia reduzir o engano em grande escala. Intervenientes altamente qualificados e alguns governos ainda poderão encontrar formas de contornar as salvaguardas. No entanto, padrões de verificação consistentes poderiam reduzir uma parcela significativa de postagens manipuladas. Com o tempo, essa mudança poderá remodelar o ambiente online de formas mensuráveis.

Por que os rótulos de IA criam um dilema comercial para plataformas sociais

É aqui que a tensão se torna real. As plataformas dependem do engajamento. O envolvimento muitas vezes se alimenta de indignação ou choque. E o conteúdo gerado por IA pode impulsionar ambos. Se rótulos claros de IA reduzirem cliques, compartilhamentos ou tempo de exibição, as empresas enfrentarão uma escolha difícil. A transparência pode entrar em conflito com os incentivos empresariais.

POPUPS DE ERRO FALSOS ESTÃO ESPALHANDO MALWARE RAPIDAMENTE

Sinalização fora do Microsoft Campus

Marcas d’água invisíveis e assinaturas criptográficas podem sinalizar quando imagens ou vídeos foram alterados. (Chona Kasinger/Bloomberg via Getty Images)

Auditorias das principais plataformas já mostram rotulagem inconsistente de postagens geradas por IA. Alguns recebem tags. Muitos escapam sem divulgação.

Agora, as regulamentações dos EUA estão intervindo. A Lei de Transparência de IA da Califórnia está definida para exigir uma divulgação mais clara de material gerado por IA, e outros estados estão considerando regras semelhantes. Os legisladores querem salvaguardas mais fortes.

Ainda assim, a implementação é importante. Se as empresas apressarem as ferramentas de verificação ou as aplicarem de forma inconsistente, a confiança do público poderá diminuir ainda mais rapidamente.

O risco de rótulos de IA incorretos e sinalizadores falsos

Os pesquisadores também alertam sobre ataques sociotécnicos. Imagine que alguém tire uma foto real de um evento político tenso e modifique apenas uma pequena parte dela. Um sistema de detecção fraco sinaliza toda a imagem como manipulada por IA.

Agora, uma imagem genuína é tratada como suspeita. Os maus actores poderiam explorar sistemas imperfeitos para desacreditar provas reais. É por isso que a pesquisa da Microsoft enfatiza a combinação do rastreamento de proveniência com marcas d’água e assinaturas criptográficas. A precisão é importante. O exagero poderia minar todo o esforço.

Como se proteger da desinformação gerada pela IA

Embora os padrões do setor evoluam, você ainda precisa de proteções pessoais.

1) Diminua a velocidade antes de compartilhar

Se uma postagem desencadear uma forte reação emocional, faça uma pausa. A manipulação emocional costuma ser intencional.

2) Verifique a fonte original

Vá além de republicações e capturas de tela. Encontre a primeira publicação ou conta.

3) Verifique as principais reivindicações

Procure cobertura de veículos confiáveis ​​antes de aceitar narrativas dramáticas.

4) Verifique imagens e vídeos suspeitos

Use ferramentas de pesquisa reversa de imagens para ver onde uma foto apareceu pela primeira vez. Se a versão mais antiga parecer diferente, alguém pode tê-la alterado.

5) Seja cético em relação a gravações de voz chocantes

As ferramentas de IA podem clonar vozes usando amostras curtas. Se uma gravação fizer afirmações explosivas, aguarde a confirmação de meios de comunicação confiáveis.

6) Evite depender de um único feed

Os algoritmos mostram mais daquilo com que você já está envolvido. Fontes mais amplas reduzem o risco de ficar preso em narrativas manipuladas.

7) Trate os rótulos como sinais, não como veredictos

Uma tag gerada por IA oferece contexto. Não torna automaticamente o conteúdo prejudicial ou falso.

8) Mantenha dispositivos e software atualizados

O conteúdo malicioso de IA às vezes leva a sites de phishing ou malware. Sistemas atualizados reduzem a exposição.

Fortalecer a segurança da conta

Use senhas fortes e exclusivas e um gerenciador de senhas confiável para gerar e armazenar logins complexos para você. Confira os melhores gerenciadores de senhas revisados ​​por especialistas de 2026 em Cyberguy.com. Além disso, habilite a autenticação multifator quando disponível. Nenhum sistema é perfeito. Mas a consciência em camadas torna você um alvo mais difícil.

Uma pessoa usando um telefone celular na frente de um computador

Especialistas dizem que padrões mais rígidos de rotulagem de IA podem reduzir o engano, mas não podem determinar o que é verdade. (iStock)

Faça meu teste: Quão segura é sua segurança online?

Você acha que seus dispositivos e dados estão realmente protegidos? Faça este teste rápido para ver onde estão seus hábitos digitais. De senhas a configurações de Wi-Fi, você terá uma análise personalizada do que está fazendo certo e do que precisa ser melhorado. Faça meu teste aqui: Cyberguy. com.

Principais conclusões de Kurt

O plano de verificação de conteúdo de IA da Microsoft sinaliza que a indústria entende a urgência. A Internet está a mudar de um lugar onde questionamos as fontes para um lugar onde questionamos a própria realidade. As normas técnicas poderiam reduzir a manipulação em grande escala. Mas eles não podem consertar a psicologia humana. As pessoas muitas vezes acreditam no que está de acordo com a sua visão de mundo, mesmo quando os rótulos sugerem cautela. A verificação pode ajudar a restaurar alguma confiança online. No entanto, a confiança não é construída apenas pelo código.

Então aqui está a questão. Se cada postagem no seu feed viesse com uma impressão digital e um rótulo de IA, isso realmente mudaria o que você acredita? Informe-nos escrevendo para nós em Cyberguy. com.

CLIQUE AQUI PARA BAIXAR O APLICATIVO FOX NEWS

Inscreva-se para receber meu relatório CyberGuy GRATUITO
Receba minhas melhores dicas técnicas, alertas de segurança urgentes e ofertas exclusivas diretamente na sua caixa de entrada. Além disso, você terá acesso instantâneo ao meu Ultimate Scam Survival Guide – gratuitamente ao ingressar no meu CYBERGUY.COM boletim informativo.

Direitos autorais 2026 CyberGuy.com. Todos os direitos reservados.

Artigo relacionado

Por que o bug do Microsoft 365 Copilot é importante para a segurança dos dados

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui