Após meses de debates internos, a enciclopédia online mais acessada do mundo decidiu banir oficialmente a criação ou reescrita de artigos utilizando inteligência artificial generativa. A medida, que já foi integrada ao guia oficial da plataforma, surge como uma resposta direta à tendência das IAs de violarem as regras fundamentais de conteúdo da Wikipedia, como a verificação de fontes e a neutralidade.
O “olhar clínico” contra o texto sintético
A nova política não é um banimento cego. Os editores ainda podem usar modelos de linguagem (LLMs) para correções gramaticais básicas, desde que a IA não adicione conteúdo próprio, ou para auxiliar na tradução de artigos entre idiomas, contanto que o editor domine ambas as línguas para garantir a precisão.
O grande desafio, no entanto, é a identificação. A Wikipedia reconhece que o estilo de escrita de alguns humanos pode se assemelhar ao de uma IA. Por isso, a orientação é que os editores não se baseiem apenas em “pistas linguísticas”, mas analisem o histórico de edições e a conformidade técnica dos fatos apresentados.
WikiProject AI Cleanup: A resistência humana
Para colocar a regra em prática, a comunidade criou o WikiProject AI Cleanup, uma iniciativa dedicada exclusivamente a caçar e deletar conteúdos gerados por máquinas que “poluem” a base de dados. Desde o início de 2026, os editores notaram uma enxurrada de artigos mal escritos e com referências inventadas, o que forçou a implementação de um sistema de “exclusão rápida” para esses casos.
Wikipedia perde 8% dos visitantes por causa da IA — e o problema é maior do que parece
25 anos de conhecimento humano
Com 65 milhões de artigos e 15 bilhões de visualizações mensais, a Wikipedia entende que sua maior força é a curadoria humana. Em um cenário onde a internet está sendo inundada por conteúdos gerados em massa por algoritmos, a enciclopédia dobra a aposta na inteligência biológica para garantir que o conhecimento continue sendo, acima de tudo, verdadeiro.



