O YouTube está intensificando sua luta contra um dos usos mais preocupantes da IA: vídeos deepfake que se fazem passar por pessoas reais. A empresa anunciado está expandindo sua tecnologia de detecção de semelhança para um grupo piloto de jornalistas, funcionários do governo e candidatos políticos. É uma medida que visa proteger figuras públicas da falsificação de identidade gerada pela IA.
O recurso funciona como o Content ID para rostos. Os participantes enviam um pequeno vídeo e uma identificação governamental para que o sistema possa saber sua semelhança. Uma vez inscrito, o YouTube verifica os uploads em busca de vídeos gerados por IA que imitem sua aparência. Se tal conteúdo aparecer, o indivíduo poderá revisá-lo e potencialmente solicitar sua remoção.
Um novo escudo contra a personificação da IA
O YouTube introduziu pela primeira vez a detecção de semelhança para criadores no Programa de Parcerias do YouTube no ano passado. A empresa acredita agora que a próxima prioridade é proteger figuras públicas cujas identidades são frequentemente utilizadas em campanhas de desinformação, especialmente em torno de eleições e discurso político.
Deepfakes tornaram-se cada vez mais realistas graças às ferramentas generativas de IA, tornando mais fácil criar vídeos convincentes de pessoas dizendo ou fazendo coisas que nunca fizeram. Na política e no jornalismo, esse risco pode ter consequências graves, desde a desinformação até danos à reputação. No entanto, o sistema não é um simples “botão excluir”. O YouTube afirma que os pedidos de remoção ainda estarão sujeitos às diretrizes existentes de privacidade e moderação, o que significa que alguns vídeos podem permanecer online se forem qualificados como paródia, sátira ou comentário legítimo.
Curiosamente, o YouTube diz que o lançamento original para os criadores não resultou em muitas remoções. A maior parte do conteúdo detectado revelou-se relativamente benigno, embora a empresa espere que a situação seja diferente para figuras públicas e líderes políticos que enfrentam um risco maior de ataques deepfake direcionados.
Por enquanto, o programa permanecerá limitado a indivíduos influentes e não ao público em geral. Mas a expansão sinaliza uma mudança mais ampla em toda a indústria tecnológica: avançar rapidamente para construir barreiras de proteção antes que a mídia gerada pela IA se torne impossível de distinguir da realidade.












