Início Tecnologia XAI de Elon Musk enfrenta processo de pornografia infantil de menores Grok...

XAI de Elon Musk enfrenta processo de pornografia infantil de menores Grok supostamente despido

27
0

A empresa xAI de Elon Musk deveria ser responsabilizada por permitir que seus modelos de IA produzissem imagens sexuais abusivas de menores identificáveis, argumentaram três demandantes anônimos em uma ação movida na segunda-feira no tribunal federal da Califórnia.

Os três demandantes querem abrir uma ação coletiva representando qualquer pessoa que tenha imagens reais deles como menores transformadas em conteúdo sexual por Grok. Eles alegam que a xAI não tomou as precauções básicas usadas por outros laboratórios fronteiriços para evitar que seus modelos de imagem produzissem pornografia representando pessoas reais e menores.

O caso, Jane Doe 1, Jane Doe 2, menor, e Jane Doe 3, menor contra x.AI Corp. e x.AI LLC, foi aberto no Tribunal Distrital dos EUA do Distrito Norte da Califórnia.

Outros geradores de imagens de aprendizagem profunda empregam várias técnicas para impedir a criação de pornografia infantil a partir de fotografias normais. A ação alega que essas normas não foram adotadas pela xAI.

Notavelmente, se um modelo permite a geração de conteúdo nu ou erótico a partir de imagens reais, é virtualmente impossível impedir que ele gere conteúdo sexual com crianças. A promoção pública de Musk da capacidade de Grok de produzir imagens sexuais e retratar pessoas reais em roupas minúsculas aparece fortemente no traje.

A empresa não respondeu a um pedido de comentário do TechCrunch.

Uma demandante, Jane Doe 1, teve fotos de seu retorno ao colégio e anuário alterados por Grok para retratá-la nua. Um informante anônimo que a contatou no Instagram disse que as fotos estavam circulando online e enviou-lhe um link para um servidor Discord com imagens sexualizadas dela e de outros menores que ela reconheceu na escola.

Evento Techcrunch

São Francisco, Califórnia
|
13 a 15 de outubro de 2026

Uma segunda demandante, Jane Doe 2, foi informada por investigadores criminais sobre imagens alteradas e sexualizadas dela, criadas por um aplicativo móvel de terceiros que depende de modelos Grok. Uma terceira, Jane Doe 3, também foi notificada por investigadores criminais que descobriram uma imagem pornográfica alterada dela no telefone de um sujeito que haviam apreendido. Os advogados dos demandantes dizem que, como o uso de terceiros ainda requer código e servidores xAI, a empresa deve ser responsabilizada.

Todos os três demandantes, dois dos quais ainda menores, dizem que estão passando por extrema angústia com a circulação dessas imagens e o que isso pode significar para suas reputações e vida social. Pedem sanções civis ao abrigo de uma série de leis destinadas a proteger as crianças exploradas e a prevenir a negligência empresarial.

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui