Vídeos de propaganda estilo Lego alegados crimes de guerra estão inundando os feeds online, ecoando a própria virada da Casa Branca em direção a clipes enigmáticos e imagens nativas de memes. Isto não é apenas desvio de conteúdo. É uma nova frente na guerra de informação, onde a velocidade, a ambiguidade e o alcance algorítmico são tão importantes como a precisão.
Um meio de comunicação ligado ao Irão, Explosive News, pode, alegadamente, reverter um segmento de Lego sintético de dois minutos em cerca de 24 horas. A velocidade é o ponto. A mídia sintética não precisa durar para sempre; ele só precisa viajar antes que a verificação seja concluída.
No mês passado, a Casa Branca aumentou essa confusão quando publicou dois vídeos vagos de “lançamento em breve”, e depois os removeu depois que investigadores online e pesquisadores de código aberto começaram a dissecá-los.
A revelação acabou sendo anticlimática: um impulso promocional para o aplicativo oficial da Casa Branca. Mas o episódio demonstrou como a comunicação oficial absorveu completamente a estética dos vazamentos, da viralidade e da intriga nativa da plataforma. Mesmo quando as contas oficiais adoptam a estética de uma fuga de informação, questionar se um registo é real ou sintético é o único movimento defensivo que resta.
Real vs. Sintético: o novo atrito
Uma pegada digital zero usada para sinalizar autenticidade. Agora, pode sinalizar o contrário. A ausência de um rastro não significa mais que algo seja original – pode significar que nunca foi capturado por uma lente. O sinal foi invertido. A verdade demora; leads de engajamento.
O tráfego automatizado agora comanda uma estimativa 51 por cento da atividade na Internet, escalando oito vezes mais rápido que o tráfego humano, de acordo com o Relatório de referência sobre o estado do tráfego de IA e ameaças cibernéticas de 2026. Esses sistemas não apenas distribuem conteúdo, eles priorizar baixa qualidade viralidade, garantindo que o registro sintético viaje enquanto a verificação ainda está em dia.
Os investigadores de código aberto ainda estão mantendo a linha, mas estão travando uma guerra de volume. A ascensão de hiperativo Os “supercompartilhadores”, muitas vezes apoiados por verificação paga, acrescentam uma camada de falsa autoridade que a inteligência de código aberto tradicional (OSINT) agora precisa navegar.
“Estamos sempre alcançando alguém que pressiona a republicação sem pensar duas vezes”, diz Maryam Ishani, jornalista da OSINT que cobre o conflito. “O algoritmo prioriza esse reflexo e nossas informações sempre estarão um passo atrás.”
Ao mesmo tempo, o aumento das contas de monitorização da guerra começa a interferir com a própria divulgação de informações. Manisha Ganguly, líder de perícia visual do The Guardian e especialista da OSINT que investiga crimes de guerra, aponta para a falsa certeza criada pela enxurrada de conteúdo agregado no Telegram e no X.
“A verificação de código aberto começa a criar falsas certezas quando deixa de ser um método de investigação – através de viés de confirmação, ou quando OSINT é usado para validar cosmeticamente contas oficiais ou conscientemente mal aplicado para se alinhar com narrativas ideológicas em vez de interrogá-las”, diz Ganguly.
Enquanto isso acontece, o próprio kit de ferramentas de verificação está se tornando mais difícil de acessar. Em 4 de abril, Laboratórios Planetas—um dos fornecedores comerciais de satélites mais confiáveis para o jornalismo de conflito—anunciou que iria reter indefinidamente imagens do Irão e da zona de conflito mais ampla do Médio Oriente, retroactivamente a 9 de Março, na sequência de um pedido do governo dos EUA.
A resposta do secretário da Defesa dos EUA, Pete Hegseth, ao preocupações sobre o atraso foi inequívoco: “O código aberto não é o lugar para determinar o que aconteceu ou não”.
Essa mudança é importante. Quando o acesso à evidência visual primária é restrito, a capacidade de verificar eventos de forma independente diminui. E nessa lacuna cada vez menor, algo mais se expande: a IA generativa não apenas preenche o silêncio – ela compete para definir o que é visto em primeiro lugar.
A IA generativa está cada vez mais difícil de detectar
As plataformas de IA generativa têm aprendido com seus erros. Henk van Ess, treinador investigativo e especialista em verificação, diz que muitos dos sinais clássicos – contagem incorreta de dedos, sinais de protesto distorcidos, texto distorcido – foram em grande parte corrigidos na última geração de modelos. Ferramentas como Imagen 3, Midjourney e Dall·E melhoraram em termos de compreensão imediata, fotorrealismo e renderização de texto em imagem.
Mas o problema mais difícil é o que van Ess chama de híbrido.












