Uma nova investigação de O jornal New York Times revela a rapidez com que o YouTube inunda os feeds com vídeos bizarros gerados por IA destinados aos espectadores mais jovens. Depois de um único vídeo do CoComelon, mais de 40% dos Shorts recomendados em uma sessão de 15 minutos continham recursos visuais sintéticos.
O algoritmo envia conteúdo de canais que afirmam ensinar crianças sobre o alfabeto e os animais. Mas os clipes em si costumam ser absurdos, apresentando rostos distorcidos, partes extras do corpo e texto distorcido. Nenhum funciona por mais de 30 segundos.
Os especialistas dizem que o formato não deixa espaço para repetição ou estrutura narrativa, ambos essenciais para as crianças aprenderem com a mídia. Mesmo assim, os vídeos obtêm milhões de visualizações.
Os criadores, muitos deles operando anonimamente, transformaram as ferramentas de IA em um fluxo de renda confiável. A barreira é baixa, o retorno é alto e a alimentação continua inundando.
O algoritmo prioriza quantidade em vez de qualidade
Os repórteres conduziram a análise durante várias semanas, assistindo a canais populares como CoComelon e Rachel em um navegador privado. Em seguida, eles percorreram os Shorts recomendados do YouTube em intervalos de 15 minutos para ver o que aparecia.
Numa sessão após o vídeo “Wheels on the Bus”, mais de 40% das recomendações mostraram sinais de geração de IA. Alguns clipes traziam o rótulo de “conteúdo alterado ou sintético” do próprio YouTube. Outros exigiram um detector de IA para confirmar porque os visuais eram perfeitos o suficiente para evitar a detecção casual.
Os mesmos vídeos e canais apareceram repetidamente em várias sessões. Isso sugere que o algoritmo aumenta ativamente esse conteúdo em vez de filtrá-lo. Muitas contas produzem esses clipes várias vezes ao dia, otimizados para o máximo de visualizações com o mínimo de esforço.
Por dentro da economia criadora que alimenta o feed
Muitas das contas do YouTube que produzem conteúdo infantil gerado por IA operam anonimamente. Eles não listam informações de contato e oferecem poucos detalhes identificáveis sobre quem os dirige. A barreira à entrada é notavelmente baixa.
Os criadores aprendem sozinhos usando ferramentas prontamente disponíveis, como o Whisk e o Runway do Google, geralmente seguindo tutoriais on-line. Alguns canais apresentam-se como educativos, apresentando animais animados e canções para cantar, destinadas a atrair os pais que procuram conteúdo de aprendizagem para crianças pequenas.
O incentivo financeiro impulsiona a produção rápida. Um vídeo de Halloween com animais assustadores acumulou mais de 370 milhões de visualizações. As contas lançam vários vídeos por dia, otimizados para alcance máximo com esforço mínimo. A fórmula funciona: chame a atenção rapidamente, seja breve e deixe o algoritmo cuidar da distribuição.
O YouTube reage, mas os pais ficam encarregados de policiar o feed
Depois que o Times compartilhou exemplos com o YouTube e solicitou comentários, a plataforma suspendeu todos os cinco canais citados de seu Programa de Parcerias. Essas contas não podem mais gerar receita publicitária nem aparecer no YouTube Kids. A empresa também removeu três vídeos hiperrealistas do aplicativo infantil e retirou um clipe por violar as políticas de segurança infantil.
Mas a resposta foi reativa e não proativa. O YouTube exige que os criadores divulguem conteúdo realista gerado por IA, mas essa regra não se aplica a vídeos animados para crianças. Portanto, o fardo recai sobre os pais, uma tarefa que até os especialistas consideram assustadora à medida que as ferramentas melhoram.
Algumas famílias agora criam suas próprias listas de reprodução de conteúdo examinado ou removem totalmente o aplicativo. A Academia Americana de Pediatria aconselha os pais a evitar conteúdo gerado por IA ou altamente sensacionalista. Detectá-lo continua sendo a parte difícil.












