Uma nova investigação sugere que chatbots de IA populares, incluindo ChatGPT e Gemini, podem inadvertidamente direcionar os usuários para sites de jogos de azar ilegais. A análise, realizada por jornalistas da O Guardião e Investigate Europe, testaram vários sistemas de IA amplamente utilizados e descobriram que muitos poderiam ser levados a recomendar casinos offshore não licenciados que operam fora dos regulamentos do Reino Unido.
Os testes envolveram cinco ferramentas de IA de grandes empresas de tecnologia, incluindo OpenAI, Google, Microsoft, Meta e xAI (Grok). Os pesquisadores fizeram perguntas aos chatbots sobre cassinos online e restrições de jogos de azar. Em muitos casos, os sistemas retornaram listas de sites de apostas ilegais, juntamente com dicas sobre como utilizá-los. Alguns bots até sugeriram maneiras de contornar as salvaguardas projetadas para proteger usuários vulneráveis.
Conselhos sobre como contornar as proteções de jogos de azar
Uma das descobertas mais preocupantes foi a facilidade com que os chatbots poderiam ser solicitados a ajudar os usuários a contornar os sistemas de jogo responsável. No Reino Unido, por exemplo, o GamStop permite que os indivíduos se autoexcluam de sites de jogos de azar licenciados. Mas vários sistemas de IA ofereceram orientação sobre como encontrar cassinos não conectados ao esquema.

A investigação também descobriu que alguns bots destacaram recursos projetados para atrair jogadores, como grandes bônus, pagamentos rápidos ou a capacidade de usar criptomoedas. Estes casinos operam frequentemente sob supervisão mínima em jurisdições offshore como Curaçao, o que os reguladores dizem que pode tornar mais difícil proteger os utilizadores contra fraude ou vício.
Em resposta a isto, as empresas por detrás dos chatbots dizem que estão a trabalhar para melhorar os sistemas de segurança. A OpenAI afirmou que o ChatGPT foi projetado para recusar solicitações que facilitem comportamento ilegal, enquanto a Microsoft disse que seu assistente Copilot inclui múltiplas camadas de salvaguardas para evitar recomendações prejudiciais.

Ainda assim, as descobertas contribuem para o crescente escrutínio sobre como os sistemas generativos de IA lidam com tópicos sensíveis, como saúde mental, jogos de azar e atividades ilegais. Os reguladores no Reino Unido já alertaram que as plataformas online, incluindo os serviços de IA, devem fazer mais para prevenir conteúdos prejudiciais ou ilegais ao abrigo da Lei de Segurança Online do país.













