A OpenAI anunciou novos avisos de segurança de código aberto para desenvolvedores, com o objetivo de lançar uma implantação em massa de políticas para proteger os adolescentes.
O pacote de segurança baseado em prompt inclui orientação modelo sobre riscos comuns na adolescência, recomendações de conteúdo de desenvolvimento e diretrizes apropriadas à idade sobre tópicos como automutilação, conteúdo sexual e dramatização romântica, tendências perigosas ou desafios virais e ideais corporais prejudiciais.
A OpenAI disse que é uma alternativa mais robusta às diretrizes de alto nível oferecidas anteriormente, formatadas como prompts que se conectam diretamente aos sistemas de IA.
Por que o limite de fricção pode ser bom para o uso de tecnologia
A OpenAI adicionou novos princípios para menores de 18 anos às suas especificações de modelo em dezembro. Alguns meses antes, a empresa divulgou gpt-oss-salvaguardaum modelo de raciocínio aberto projetado para auxiliar os desenvolvedores na implementação de condições de segurança e na classificação de conteúdo seguro e inseguro. Ao contrário dos processos tradicionais de classificação de segurança, o gpt-oss-safeguard pode ser alimentado diretamente pelas políticas de segurança da plataforma e inferir a intenção da política à medida que distingue os resultados apropriados.
Mas “mesmo equipes experientes muitas vezes lutam para traduzir metas de segurança de alto nível em regras operacionais precisas, especialmente porque isso requer experiência no assunto e profundo conhecimento de IA”, disse a OpenAI em seu último comunicado de imprensa. “Isso pode levar a lacunas na proteção, aplicação inconsistente ou filtragem excessivamente ampla. Políticas claras e bem definidas são uma base crítica para sistemas de segurança eficazes”.
Velocidade da luz mashável
O pacote adicional para desenvolvedores foi desenvolvido em colaboração com a organização sem fins lucrativos Common Sense Media e todos.ai.
Especialistas alertaram os pais sobre a exposição excessiva de adolescentes vulneráveis e até crianças pequenas ao chatbot, à medida que as empresas de IA tentam controlar as ramificações de seus modelos na saúde mental dos usuários. No ano passado, a OpenAI foi processada pelos pais do adolescente Adam Raine no primeiro caso de homicídio culposo do setor, com a família Raine alegando que uma combinação de bajulação do ChatGPT e políticas de segurança frouxas foi responsável pela morte de seu filho por suicídio. A empresa negou as acusações de irregularidades e, em resposta, reforçou seus recursos de saúde mental e segurança para adolescentes, incluindo garantia de idade. Mesmo assim, os desenvolvedores terceirizados que licenciam os modelos da OpenAI têm lutado para manter o mesmo nível de precauções de segurança, inclusive em brinquedos infantis alimentados por IA.
O caso contra OpenAI seguiu vários processos judiciais contra plataforma controversa Personagem.AI e preparou o cenário para um recente processo de homicídio culposo movido contra o concorrente da OpenAI, Google e seu assistente Gemini AI.
As empresas de tecnologia e de redes sociais de todo o setor enfrentam uma série de desafios jurídicos relativamente ao impacto a longo prazo dos seus produtos nos utilizadores. No mês passado, o CEO do Instagram, Adam Mosseri, e o chefe da Meta, Mark Zuckerberg, testemunharam perante um júri em um caso decisivo que levou plataformas de mídia social a julgamento por seus princípios de design supostamente viciantes. Um veredicto tem ainda não foi alcançado.
A OpenAI disse que seu novo pacote de avisos de segurança não é uma “definição ou garantia abrangente ou final da segurança dos adolescentes”. Robbie Torney, chefe de avaliações digitais e de IA da Common Sense Media, disse que as novas políticas podem construir um “piso de segurança significativo em todo o ecossistema”, preenchendo uma lacuna de segurança de IA que foi exacerbada pela falta de políticas operacionais para desenvolvedores.
Os desenvolvedores podem baixar o modelo de segurança do OpenAI em Abraçando o rosto e acesse seu novo pacote de prompts em GitHub.
Divulgação: Ziff Davis, empresa controladora da Mashable, entrou com uma ação judicial contra a OpenAI em abril, alegando que ela infringiu os direitos autorais de Ziff Davis no treinamento e operação de seus sistemas de IA.













