As escolas enfrentam um problema crescente de alunos que usam inteligência artificial para transformar imagens inocentes de colegas de classe em deepfakes sexualmente explícitos.
As consequências da propagação das fotos e vídeos manipulados podem criar um pesadelo para as vítimas.
O desafio para as escolas foi destacado neste outono, quando imagens de nus geradas por IA varreram uma escola secundária da Louisiana. No final, dois meninos foram acusados, mas não antes de uma das vítimas ser expulsa por começar uma briga com um menino que ela acusou de criar imagens dela e de seus amigos.
“Embora a capacidade de alterar imagens esteja disponível há décadas, a ascensão da IA tornou mais fácil para qualquer pessoa alterar ou criar tais imagens com pouco ou nenhum treinamento ou experiência”, disse o xerife da paróquia de Lafourche, Craig Webre, em um comunicado à imprensa. “Este incidente destaca uma preocupação séria que todos os pais devem abordar com seus filhos.”
Aqui estão as principais conclusões de A história da AP sobre o surgimento de imagens de nudez geradas por IA e como as escolas estão respondendo.
Mais estados aprovam leis para lidar com deepfakes
Acredita-se que a acusação decorrente dos deepfakes do ensino médio da Louisiana seja a primeira sob a nova lei do estado, disse o senador estadual republicano Patrick Connick, autor da legislação.
A lei é uma das muitas em todo o país que visam deepfakes. Em 2025, pelo menos metade dos estados legislação promulgada abordando o uso de IA generativa para criar imagens e sons aparentemente realistas, mas fabricados, de acordo com a Conferência Nacional de Legislativos Estaduais. Algumas das leis abordam material simulado de abuso sexual infantil.
Estudantes também foram processados na Flórida e Pensilvânia e expulso em lugares como Califórnia. Um professor da quinta série no Texas também foi acusado de usar IA para criar pornografia infantil de seus alunos.
Deepfakes se tornam mais fáceis de criar conforme a tecnologia evolui
Deepfakes começou como uma forma de humilhar oponentes políticos e jovens estrelas. Até os últimos anos, as pessoas precisavam de algumas habilidades técnicas para se tornarem realistas, disse Sergio Alexander, pesquisador associado da Texas Christian University que escreveu sobre o assunto.
“Agora você pode fazer isso em um aplicativo, baixá-lo nas redes sociais e não precisa ter nenhum conhecimento técnico”, disse ele.
Ele descreveu a extensão do problema como surpreendente. O Centro Nacional para Crianças Desaparecidas e Exploradas disse que o número de imagens de abuso sexual infantil geradas por IA relatadas à sua linha cibernética aumentou de 4.700 em 2023 para 440.000 apenas nos primeiros seis meses de 2025.
Especialistas temem que as escolas não estejam fazendo o suficiente
Sameer Hinduja, codiretor do Centro de Pesquisa sobre Cyberbullying, recomenda que as escolas atualizem suas políticas sobre deepfakes gerados por IA e melhorem sua explicação. Dessa forma, disse ele, “os alunos não pensam que os funcionários, os educadores, estão completamente alheios, o que pode fazer com que sintam que podem agir impunemente”.
Ele disse que muitos pais presumem que as escolas estão abordando o problema, quando não o estão.
“Muitos deles são tão inconscientes e ignorantes”, disse Hinduja, que também é professor na Escola de Criminologia e Justiça Criminal da Florida Atlantic University. “Ouvimos falar da síndrome do avestruz, apenas enterrando a cabeça na areia, esperando que isso não aconteça entre os jovens.”
Trauma causado por deepfakes de IA pode ser particularmente prejudicial
Os deepfakes de IA são diferentes do bullying tradicional porque, em vez de um texto ou boato desagradável, há um vídeo ou imagem que muitas vezes se torna viral e depois continua a ressurgir, criando um ciclo de trauma, disse Alexander.
Muitas vítimas ficam deprimidas e ansiosas, disse ele.
“Eles literalmente fecharam porque parece que não há como provar que isso não é real – porque parece 100% real”, disse ele.
Os pais são incentivados a conversar com os alunos
Os pais podem iniciar a conversa perguntando casualmente aos filhos se eles viram algum vídeo engraçado e falso online, disse Alexander.
Reserve um momento para rir de alguns deles, como o Pé Grande perseguindo os caminhantes, disse ele. A partir daí, os pais podem perguntar aos filhos: “Vocês já pensaram em como seria se você estivesse neste vídeo, mesmo que fosse engraçado?” E então os pais podem perguntar se um colega fez um vídeo falso, mesmo que inócuo.
“Com base nos números, garanto que dirão que conhecem alguém”, disse ele.
Se as crianças encontrarem coisas como deepfakes, elas precisam saber que podem conversar com os pais sem se meterem em problemas, disse Laura Tierney, fundadora e CEO da O Instituto Socialque educa as pessoas sobre o uso responsável das redes sociais e tem ajudado as escolas a desenvolver políticas. Ela disse que muitas crianças temem que seus pais reajam de forma exagerada ou tirem seus telefones.
Ela usa a sigla SHIELD como um roteiro sobre como responder. O “S” significa “pare” e não avance. “H” significa “encontrar-se” com um adulto de confiança. O “I” serve para “informar” quaisquer plataformas de mídia social em que a imagem seja postada. “E” é uma dica para coletar “evidências”, como quem está divulgando a imagem, mas não para baixar nada. O “L” significa “limitar” o acesso às redes sociais. O “D” é um lembrete para “direcionar” as vítimas para ajudar.
“Acho que o fato dessa sigla ter seis etapas mostra que essa questão é realmente complicada”, disse ela.
___
A cobertura educacional da Associated Press recebe apoio financeiro de diversas fundações privadas. A AP é a única responsável por todo o conteúdo. Encontre APs padrões por trabalhar com filantropias, um lista de apoiadores e áreas de cobertura financiadas em AP.org.
Heather Hollingsworth, Associated Press