Se você deseja que um aplicativo criado possa ser baixado da Apple App Store ou da Google Play Store, ele deve passar por uma série de critérios, incluindo padrões de segurança.
Mas um novo relatório na quarta-feira alega que a Apple e o Google quebraram suas próprias regras ao promover aplicativos “nudificar” que são proibidos nas políticas de suas lojas de aplicativos.
O Tech Transparency Project, parte de uma organização sem fins lucrativos de vigilância tecnológica, revelou pela primeira vez em janeiro que as lojas de aplicativos da Apple e do Google tinham mais de 100 aplicativos para nudificar ou despir. São aplicativos com o único propósito de tirar fotos de pessoas, geralmente mulheres, e editá-las para parecerem aquela pessoa sem roupa, criando o que chamamos de imagens íntimas não consensuais. Muitos desses aplicativos usam IA generativa para criar deepfakes.
A Apple removeu alguns dos aplicativos proibidos na época. Mas muitos ainda estão por aí, como evidenciado numa investigação subsequente.
Em abril, a TTP descobriu que a Apple e o Google ainda permitiam que os usuários pesquisassem uma série de palavras-chave preocupantes, incluindo “nudificar”, “despir-se” e “deepnude”. Depois de uma análise profunda dos 10 principais aplicativos em ambas as lojas de aplicativos, a TTP descobriu que 40% dos aplicativos se anunciavam como capazes de “mostrar mulheres nuas ou seminuas”, de acordo com o relatório.
O novo relatório também descobriu que o Google e a Apple realmente promoveram esses aplicativos em suas lojas, aumentando sua visibilidade, com o Google em particular criando “um carrossel de anúncios para alguns dos aplicativos mais sexualmente explícitos encontrados na investigação”.
Leia mais: Como manter as crianças seguras online? A Europa acredita que seu aplicativo de verificação de idade é a resposta
A Apple e o Google têm textos em suas políticas que proíbem aplicativos com “material abertamente sexual ou pornográfico” (Maçã) e “poses sexualmente sugestivas em que o sujeito está nu, desfocado ou minimamente vestido” (Google). E ambos aplicaram essas políticas no passado – principalmente perseguindo aplicativos pornográficos.
Mas a Apple e o Google ganham dinheiro com desenvolvedores de aplicativos veiculando publicidade e participando de assinaturas de aplicativos pagos. A empresa de análise AppMagic descobriu que esses aplicativos “nudificar” foram baixados 483 milhões de vezes e geraram mais de US$ 122 milhões em receita vitalícia.
“Esse fluxo de receita pode ser o motivo pelo qual as duas empresas têm sido menos vigilantes quando se trata de nudificar aplicativos que violam suas políticas”, escreve TTP.
Depois que a notícia foi divulgada esta semana, a Apple disse Notícias da Bloomberg que removeu 15 dos aplicativos relatados. O Google confirmou que removeu sete. A Apple também disse que bloqueou vários dos termos de pesquisa sinalizados pelo TTP em seu relatório. A Apple e o Google não responderam imediatamente aos pedidos de comentários e atualizações da CNET desde quarta-feira.
O conteúdo graficamente sexual não consensual é um problema crescente, em parte devido à IA. Vimos com uma clareza surpreendente como aplicativos com IA podem ser usados para criar esse conteúdo ilegal e abusivo no início do ano, quando os usuários do Grok fizeram 1,4 milhão de deepfakes sexualizados durante um período de nove dias.
Alguns Senadores dos EUA na época pediu à Apple e ao Google que removessem o Grok de suas lojas de aplicativos, mas nenhum deles o removeu.
Soubemos esta semana que a Apple entrou em contato com Grok em particular para expressar suas preocupações sobre seus recursos abusivos de IA e ameaçou removê-lo. Grok ainda está disponível nas lojas de aplicativos da Apple e do Google e ainda está supostamente capaz de criar imagens sexuais abusivas de IAapesar da empresa ditado de outra forma.













