Informar as pessoas sobre deepfakes políticos por meio de informações baseadas em texto e jogos interativos melhora a capacidade das pessoas de detectar vídeos e áudios gerados por IA que retratam falsamente os políticos, de acordo com um estudo meus colegas e eu conduzimos.
Embora os pesquisadores tenham se concentrado principalmente no avanço das tecnologias para detecção de deepfakes, há também uma necessidade de abordagens que abordem o público potencial dos deepfakes políticos. Os deepfakes estão se tornando cada vez mais difíceis de identificar, verificar e combater à medida que a tecnologia de inteligência artificial melhora.
É possível vacinar o público para detectar deepfakes, aumentando assim a sua consciência antes da exposição? Meu pesquisa recente com companheiro estudos de mídia pesquisadores Sang JungKim e Alex Scott no Laboratório de mídia visual da Universidade de Iowa descobriu que as mensagens de vacinação podem ajudar as pessoas a reconhecer deepfakes e até mesmo torná-las mais dispostas a desmascará-las.
A teoria da inoculação propõe que a inoculação psicológica – análoga à vacinação médica – pode imunizar as pessoas contra ataques persuasivos. A ideia é que, ao explicar às pessoas como funcionam os deepfakes, elas fiquem preparadas para reconhecê-los quando os encontrarem.
Em nosso experimentoexpusemos um terço dos participantes à inoculação passiva: mensagens tradicionais de alerta baseadas em texto sobre a ameaça e as características dos deepfakes. Expomos outro terço à inoculação ativa: um jogo interativo que desafiava os participantes a identificar deepfakes. O terço restante não recebeu nenhuma inoculação.
Os participantes viram aleatoriamente um vídeo deepfake com Joe Biden fazendo declarações pró-aborto ou um vídeo deepfake com Donald Trump fazendo declarações de direitos anti-aborto. Descobrimos que ambos os tipos de inoculação foram eficazes na redução da credibilidade que os participantes atribuíram aos deepfakes, ao mesmo tempo que aumentaram a consciência e a intenção das pessoas de aprender mais sobre eles.
Por que isso importa
Deepfakes são uma séria ameaça à democracia porque eles usam IA para criar áudio e vídeo falsos muito realistas. Esses deepfakes podem fazer com que os políticos pareçam dizer coisas que nunca disseram, o que pode prejudicar a confiança do público e fazer com que as pessoas acreditem em informações falsas. Por exemplo, alguns eleitores em New Hampshire receberam um telefonema que parecia Joe Bidendizendo-lhes para não votarem nas eleições primárias do estado.
Como a tecnologia de IA está se tornando mais comum, é especialmente importante encontrar maneiras de reduzir os efeitos nocivos dos deepfakes. Uma pesquisa recente mostra que rotular deepfakes com declarações de verificação de fatos é muitas vezes não é muito eficazespecialmente em contextos políticos. As pessoas tendem a aceitar ou rejeitar verificações de fatos com base em suas crenças políticas existentes. Além disso, informações falsas geralmente se espalham mais rápido do que informações precisas, tornando a verificação dos factos demasiado lenta para impedir totalmente o impacto das informações falsas.
Como resultado, os investigadores apelam cada vez mais a novas formas de preparar as pessoas para resistir à desinformação antecipadamente. A nossa investigação contribui para o desenvolvimento de estratégias mais eficazes para ajudar as pessoas a resistir à desinformação gerada pela IA.
Que outras pesquisas estão sendo feitas
A maioria das pesquisas sobre inoculação contra a desinformação baseia-se em abordagens passivas de alfabetização midiática que fornecem principalmente mensagens baseadas em texto. No entanto, estudos mais recentes mostram que a inoculação ativa pode ser mais eficaz. Por exemplo, foi demonstrado que jogos online que envolvem participação ativa ajudam as pessoas resistir a mensagens extremistas violentas.
Além disso, a maioria das pesquisas anteriores concentrou-se na proteção das pessoas contra a desinformação baseada em texto. Em vez disso, nosso estudo examina a inoculação contra a desinformação multimodal, como deepfakes que combinam vídeo, áudio e imagens. Embora esperássemos que a inoculação ativa funcionasse melhor para este tipo de desinformação, as nossas descobertas mostram que tanto a inoculação passiva como a ativa podem ajudar as pessoas a lidar com a ameaça dos deepfakes.
O que vem a seguir
A nossa investigação mostra que as mensagens de vacinação podem ajudar as pessoas a reconhecer e resistir aos deepfakes, mas ainda não está claro se estes efeitos perduram ao longo do tempo. Em estudos futuros, pretendemos examinar o efeito a longo prazo das mensagens de inoculação.
Pretendemos também explorar se a inoculação funciona noutras áreas para além da política, incluindo a saúde. Por exemplo, como as pessoas reagiriam se um deepfake mostrasse um médico falso espalhando informações erradas sobre saúde? Mensagens de vacinação anteriores ajudariam as pessoas a questionar e resistir a tal conteúdo?
O Resumo de pesquisa é uma breve visão de um trabalho acadêmico interessante.
Este artigo foi republicado de A conversauma organização de notícias independente e sem fins lucrativos que traz fatos e análises confiáveis para ajudá-lo a entender nosso mundo complexo. Foi escrito por: BingbingZhang, Universidade de Iowa
Leia mais:
Bingbing Zhang recebe financiamento da Escola de Jornalismo e Comunicação de Massa da Universidade de Iowa.











