Início Tecnologia O novo plano do Google para verificar se sua IA é realmente...

O novo plano do Google para verificar se sua IA é realmente ética

22
0

Você pede aconselhamento médico a um chatbot. Ele responde com algo atencioso. Mas será que realmente pesou o que estava em jogo ou apenas teve sorte com as palavras?

Esse é o problema que o Google DeepMind aborda em um novo Papel natural. A equipe argumenta que a forma como testamos a moralidade da IA ​​está quebrada. Verificamos se os modelos produzem respostas que parecem corretas, o que chamam de desempenho moral. Mas isso não nos diz nada sobre se o sistema compreende por que algo está certo ou errado.

As pessoas usam LLMs para terapia, orientação médica e até mesmo companheirismo. Esses sistemas estão começando a tomar decisões por nós. Se não conseguirmos diferenciar a compreensão genuína da imitação sofisticada, estaremos confiando numa caixa preta com consequências humanas reais.

A resposta da DeepMind é um roteiro para medir a competência moral, a capacidade de fazer julgamentos baseados em considerações morais reais, em vez de padrões estatísticos. O artigo apresenta três obstáculos principais e maneiras de testar cada um deles.

As três razões pelas quais os chatbots falsificam a moralidade

O primeiro é o problema do fac-símile. LLMs são preditores de próximo token que amostram distribuições de probabilidade de dados de treinamento. Eles não executam módulos de raciocínio moral. Portanto, quando um chatbot dá conselhos éticos, pode ser um raciocínio. Ou pode estar reciclando algo de um tópico do Reddit. A saída por si só não lhe dirá.

Depois, há a multidimensionalidade moral. As escolhas reais raramente dependem de uma coisa. Você pesa a honestidade contra a bondade, o custo contra a justiça. Altere um único detalhe, a idade de alguém ou a configuração, e a chamada certa pode mudar. Os testes atuais não verificam se a IA percebe o que realmente importa.

O pluralismo moral acrescenta outra camada. Diferentes culturas e profissões têm regras diferentes. Justo em um país pode ser injusto em outro. Um chatbot usado em todo o mundo não pode simplesmente cuspir verdades universais. Precisa lidar com estruturas concorrentes e ainda não medimos tão bem.

Por que a educação moral do seu chatbot não pode ser apenas memorização

A equipe DeepMind quer inverter o script. Em vez de apenas fazer perguntas morais familiares, os pesquisadores deveriam elaborar testes adversários que tentassem expor o mimetismo.

Uma ideia envolve cenários que provavelmente não aparecerão nos dados de treinamento. Tomemos como exemplo a doação intergeracional de esperma, onde um pai doa esperma para seu filho fertilizar um óvulo em nome de seu filho. Parece incesto, mas tem um peso ético diferente. Se um modelo o rejeita por motivos de incesto, isso é correspondência de padrões. Se navegar pela ética real, isso é outra coisa.

Outra abordagem testa se a IA pode mudar as estruturas. Será possível alternar entre a ética biomédica e as regras militares e dar respostas coerentes para cada uma delas? Ele consegue lidar com pequenos ajustes sem se atrapalhar com alterações de formatação?

Os pesquisadores sabem que isso é difícil. Os modelos atuais são frágeis. Mude o rótulo de “Caso 1” para “Opção A” e você poderá obter um veredicto diferente. Mas eles argumentam que este tipo de teste é a única maneira de saber se estes sistemas merecem responsabilidade real.

O que vem a seguir para a IA moral

A DeepMind está buscando um novo padrão científico que leve a competência moral tão a sério quanto as habilidades matemáticas. Isso significa financiar o trabalho global em avaliações culturalmente específicas e conceber testes que detectem falsificações.

Não espere que seu chatbot passe por isso tão cedo. As técnicas atuais ainda não existem, mas o roteiro dá uma direção aos desenvolvedores.

Quando você pede conselhos morais à IA agora, você está recebendo previsões estatísticas, não filosofia. Isso pode eventualmente mudar. Mas só se começarmos a medir as coisas certas.

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui