IAs de linguagem estão tornando as pessoas mais parecidas entre si, aponta estudo

Desde que ferramentas como o ChatGPT se tornaram de acesso público, cresceu a percepção de que as pessoas passaram a escrever de forma mais uniforme, com estruturas de frase e escolhas de vocabulário que soam cada vez mais parecidas. Essa impressão ganhou respaldo científico com a publicação de um artigo no periódico Trends in Cognitive Sciences, assinado por pesquisadores da Universidade do Sul da Califórnia (USC). A conclusão central: o uso de grandes modelos de linguagem (LLMs, na sigla em inglês) achata o pensamento humano e reduz a diversidade de expressão.

A equipe revisou mais de 130 estudos de áreas como linguística, ciência da computação e psicologia cognitiva para mapear como essas ferramentas afetam a forma como as pessoas pensam e se comunicam. O resultado é paradoxal: embora os modelos sejam treinados em volumes gigantescos de texto humano, eles produzem saídas sistematicamente menos variadas do que o pensamento humano em estado natural. O motivo está na própria arquitetura dessas ferramentas, elas identificam e reforçam padrões estatísticos no conjunto de dados de treinamento, o que as leva a favorecer estruturas recorrentes em vez de refletir a amplitude de perspectivas disponíveis naquele material.

“Como os LLMs são treinados para capturar e reproduzir regularidades estatísticas nos dados de treinamento, que frequentemente representam línguas e ideologias dominantes, seus resultados costumam espelhar uma fatia estreita e distorcida da experiência humana“, afirmou Zhivar Sourati, cientista da computação da USC e um dos autores do estudo. Não é um problema que as próprias empresas escondem: a OpenAI afirma explicitamente em sua página de suporte que o ChatGPT é “tendencioso em direção a visões ocidentais”. A xAI, empresa de Elon Musk, ajustou o comportamento do seu chatbot Grok em mais de uma ocasião para que ele refletisse as posições pessoais do CEO.

O problema não para na saída do modelo, ele migra para quem usa. Pesquisas anteriores já indicam que interagir com chatbots é capaz de deslocar a forma como as pessoas pensam, alinhando suas opiniões às perspectivas fornecidas pela ferramenta. Isso pode ocorrer de maneira sutil, como quando alguém usa um chatbot para “polir” um texto e, no processo, apaga suas próprias escolhas estilísticas. Também tem a ver com a estrutura de raciocínio dos modelos: LLMs operam por cadeia de pensamento linear, sem capacidade para saltos lógicos abstratos, aqueles que não são óbvios, mas frequentemente produzem ideias originais.

Uma das observações mais reveladoras do estudo diz respeito ao trabalho em grupo. Indivíduos que usam LLMs para gerar ideias sozinhos tendem a produzir mais volume, porém com menos originalidade. Já grupos que utilizam essas ferramentas colaborativamente produzem menos ideias do que grupos que simplesmente trocam experiências entre si, sem mediação algorítmica. A ferramenta funciona como um funil: ela concentra o pensamento coletivo em torno de um eixo central, eliminando a fricção criativa que normalmente emerge do confronto de perspectivas diferentes.

O estudo da USC não propõe que as pessoas abandonem essas ferramentas, mas levanta uma questão de calibração: quanto do que você escreve, pensa ou decide passou pelo filtro de uma ferramenta que foi construída para soar como a média?

Leia mais

Esportes
Aluna da Fatec Esportes é talento do boxe brasileiro
Tecnologia
Desmontagem revela que o MacBook Neo é o sonho de qualquer técnico de informática: reparo fácil
Variedades
A “Pérola do Atlântico” abriga a única praia da América do Sul com 16 anos seguidos de selo internacional
Variedades
Rochas de plástico chegam a ninhos de tartarugas em ilha brasileira
Esportes
Kimi Antonelli conquista China em estreia de sonho para Mercedes
Tecnologia
LG lança no Brasil monitor curvo de 40 polegadas com resolução 5K e Thunderbolt 5

Mais lidas hoje