Início Tecnologia Pesquisadores dizem que a IA está homogeneizando a expressão e o pensamento...

Pesquisadores dizem que a IA está homogeneizando a expressão e o pensamento humanos

22
0

Tem havido uma sensação crescente de que, desde que grandes modelos de linguagem como o ChatGPT se tornaram acessíveis ao público e mais amplamente utilizados, as pessoas começaram a escrever e a soar mais como conteúdo gerado por IA. (É claro que a IA está apenas fazendo uma impressão de um amálgama de material criado pelo homem, então há aqui uma clara ideia do ovo e da galinha.) Agora há evidências que apoiam essa suspeita furtiva. Em um papel publicado quarta-feira na revista Trends in Cognitive Sciencespesquisadores da Universidade do Sul da Califórnia alertaram que o uso de LLMs corre o risco de enfraquecer o pensamento e a criatividade humanos.

A equipe de pesquisadores analisou mais de 130 estudos para entender melhor como grandes modelos linguísticos afetam a diversidade cognitiva, examinando pesquisas em diversos campos, da linguística à ciência da computação. A equipe descobriu que, apesar de os modelos de IA extrairem de um enorme banco de dados de informações, eles produzem consistentemente resultados menos variados do que o pensamento humano.

Isso ocorre em parte porque, embora esses modelos possam ser treinados com base em um suprimento aparentemente infinito de pensamentos e ideias produzidos pelo homem, eles não são capazes de realmente processar todo esse material de uma forma que considere a diversidade de opiniões disponíveis. Em vez disso, os LLMs tendem a favorecer padrões consistentes que podem identificar nos dados de treinamento, o que é parte do motivo pelo qual algumas críticas aos modelos se referem a eles como uma espécie de preenchimento automático glorificado.

“Como os LLMs são treinados para capturar e reproduzir regularidades estatísticas em seus dados de treinamento, que muitas vezes representam línguas e ideologias dominantes, seus resultados muitas vezes refletem uma fatia estreita e distorcida da experiência humana”, disse o autor e cientista da computação Zhivar Sourati, da Universidade do Sul da Califórnia, em um comunicado.

Alguns LLMs até anunciam esse fato. OpenAI declara explicitamente que o ChatGPT é “inclinado para as visões ocidentais”, por exemplo, e o xAI tem, obviamente, ajustou seu chatbot Grok para refletir as opiniões do CEO Elon Musk em mais de uma ocasião.

O resultado da interação com modelos que favorecem significativamente certas perspectivas, porém, é que os humanos começam a internalizar e refletir essas perspectivas. Isso pode ser tão simples quanto uma pessoa usar um chatbot para aprimorar sua escrita e remover algumas de suas escolhas estilísticas, mas pesquisas anteriores mostraram que interagir com LLMs pode realmente mudar a maneira como as pessoas pensam para estar mais alinhadas com as informações fornecidas a elas por um chatbot. Os LLMs também usam o raciocínio em cadeia de pensamento, que reflete uma forma linear de pensamento. Eles são incapazes de estilos de raciocínio mais abstratos que podem exigir saltos lógicos que não são óbvios, mas podem ser muito eficazes.

Talvez uma das observações mais interessantes que os investigadores fizeram foi que, embora os indivíduos que utilizam LLMs para gerar ideias produzam frequentemente mais volume (embora com menos criatividade), grupos de pessoas na verdade produzem menos ideias quando utilizam LLMs em comparação com quando são simplesmente encarregados de colaborar e trocar ideias uns com os outros. Basicamente, a utilização do modelo prende as pessoas a uma forma particular de pensar e reduz a diversidade de perspetivas que, de outra forma, poderiam surgir da discussão e da partilha de experiências.

Já faz algum tempo que é bem compreendido que a diversidade de pensamentos e experiências produz melhores resultados para grupos e organizações. Isto é verdade no que diz respeito aos LLMs, que são essencialmente encorajados a procurar o pensamento consensual em vez da diversidade. Também não espere que esse problema seja corrigido tão cedo, considerando que a administração Trump emitiu uma ordem executiva punindo efetivamente qualquer empresa que crie um modelo de IA que promova a diversidade.

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui