Início Tecnologia A pesquisa diz que os chatbots de IA julgam você e nem...

A pesquisa diz que os chatbots de IA julgam você e nem sempre termina bem

28
0

Na última reviravolta na evolução da IA, passamos da fase dos erros simples e passamos para algo muito mais pessoal e problemático. Uma nova pesquisa sugere que os chatbots de IA não estão apenas processando suas solicitações. Em vez disso, eles estão formando perfis psicológicos e julgando você de maneiras que podem influenciar tudo, desde o atendimento ao cliente até as aprovações financeiras.

Um recente estudar publicado pela Universidade Hebraica de Jerusalém (via Explorar tecnologia) revela a lógica oculta por trás de como grandes modelos de linguagem avaliam os usuários humanos. Embora muitas vezes vejamos estes bots como ferramentas neutras, a investigação indica que são treinados para atribuir características como competência, integridade e benevolência aos utilizadores.

A mecânica do julgamento da IA

O cerne da questão reside em como os modelos de IA interpretam certos sinais. O estudo descobriu que, embora os humanos façam julgamentos holísticos, a IA divide as pessoas em componentes, pontuando traços de personalidade como colunas separadas em uma planilha. Isso leva a um estilo de julgamento rígido e de acordo com as regras, que carece de nuances humanas.

Ainda mais preocupante é como esses modelos decidem em quem confiar. Nas simulações envolvendo empréstimo de dinheiro ou contratação de babás, a IA não olhou apenas para os fatos. Formou uma versão de confiança que favoreceu aqueles que pareciam bem-intencionados, mas o fez através de lentes mecânicas.

Viés amplificado e riscos do mundo real

O estudo destaca ainda que esses julgamentos não são aplicados igualmente. Os pesquisadores encontraram preconceitos significativos onde as decisões de IA mudavam com base em características demográficas como idade, religião e sexo. Essas diferenças apareceram mesmo quando todos os outros detalhes da pessoa eram idênticos. Em cenários financeiros, estes preconceitos eram frequentemente mais sistemáticos e mais fortes do que os encontrados em participantes humanos.

O que é mais perturbador é que não existe uma opinião única sobre IA. Os pesquisadores descobriram que diferentes modelos faziam julgamentos totalmente diferentes sobre a mesma pessoa, operando efetivamente com diferentes bússolas morais.

Por que isso é importante

Este julgamento pode levar a uma nova forma de ansiedade digital. Estamos entrando em um momento em que você pode precisar agir de determinada maneira para que a IA obtenha os melhores resultados. Como diferentes modelos podem recompensar ou penalizar a mesma característica, o sistema de IA específico que uma empresa escolhe pode decidir silenciosamente a sua solvabilidade ou o seu próximo emprego.

À medida que avançamos em direção a um mundo mais automatizado, a indústria de IA precisa de mais do que apenas códigos melhores. Precisamos ver esses julgamentos ocultos antes que um assistente digital prejudique acidentalmente sua reputação ou sua conta bancária com base em quem ele pensa que você é. O objetivo da IA ​​deveria ser facilitar a vida, e não adicionar uma camada de perfil que os usuários não solicitaram.

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui