Editores voluntários da Wikipédia possuem um grupo dedicado a identificar alucinações ou qualquer outro tipo de desinformação gerada por IA nos artigos do site. O WikiProject AI Cleanup, como é chamado, é descrito como “uma colaboração para combater o problema crescente de conteúdos feitos por IA sem fontes e mal-escritos na Wikipédia”.

  • Clique e siga o no WhatsApp
  • Como saber se uma foto foi criada por Inteligência Artificial

O coletivo reforça que a ideia não é combater a IA generativa na plataforma, mas manter apenas exemplos construtivos com uso da tecnologia e remover qualquer outro material que possa ser prejudicial para o conhecimento dos leitores. A iniciativa foi criada no final do ano passado e já tem 57 participantes.

O trabalho começou quando um dos fundadores usou frases comuns em textos feitos pelo ChatGPT para identificar artigos gerados por IA na plataforma. “Descobrir as frases comuns nos permitiu identificar rapidamente alguns exemplos gritantes de artigos gerados, os quais quisemos formalizar em um projeto organizado para juntar todas as nossas técnicas e descobertas”, explica a pessoa fundadora do projeto, Ilyas Lebleu, ao site 404 Media.


Entre no Canal do WhatsApp do e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.

Grupo de editores pretende fiscalizar uso de IA em artigos da Wikipédia (Imagem: Luke Chesser/Unsplash)

Objetivos do grupo

O WikiProject AI Cleanup traça três diretrizes principais:

  • Identificar qualquer texto gerado por Ia e apurar se seguem as políticas da Wikipédia — conteúdos imprecisos ou sem fontes são removidos;
  • Identificar imagens geradas por IA e garantir o uso apropriado;
  • Ajudar e monitorar editores que usam IA no dia a dia e podem não detectar problemas nestas ferramentas de escrita.

O grupo menciona que algumas ferramentas de detecção automáticas, como o GPTZero, não são 100% confiáveis e não devem ser usadas, o que reforça a necessidade de um trabalho manual dos colaboradores voluntários. 

Para facilitar o trabalho de editores, o coletivo cita alguns casos comuns de uso de IA que podem passar despercebidos na análise. Um exemplo é um artigo sobre um vilarejo no Irã com uma descrição genérica de uma zona rural com muitas fazendas e gado, quando na verdade está localizado em uma área montanhosa e árida. 

Os colaboradores também alertam para os problemas na hora de mencionar as fontes em textos gerados por IA — alguns artigos podem trazer informações corretas, mas inventam fontes inexistentes (as chamadas alucinações) — e verbetes inteiramente falsos. 

A Wikipédia manteve no ar um artigo sobre uma suposta fortaleza chamada Amberlisihar do Império Otomano: com mais de duas mil palavras, a página trazia detalhes sobre o local e personagens reais, mas o lugar nunca existiu. O falso antigo, inteiramente criado por inteligência artificial, ficou no ar de janeiro de 2023 até dezembro do mesmo ano.

Cuidados com imagens

O coletivo tem uma abordagem parecida com imagens geradas por IA na plataforma. Caso a imagem seja relevante para o tema, ela é mantida no acervo — um exemplo é o artigo sobre a exposição Willy Wonka Experience, que viralizou no começo do ano por entregar muito menos do que o prometido e usar a tecnologia.

Porém, quando uma imagem não contribui para a página ou tenta substituir algo que já existe, os arquivos podem ser removidos. 

Pessoas interessadas podem se inscrever no projeto pelo link en.wikipedia.org/wiki/Wikipedia:WikiProject_AI_Cleanup

VÍDEO: TESTAMOS A CALCULADORA COM IA DA APPLE

 

LEIA TAMBÉM:

  • Meta AI chega ao Brasil após liberação de treinamento com dados pessoais
  • Hiperpersonalização: consumidores do Brasil veem IA mudando relação com empresas
  • OpenAI lança ChatGPT Canva para editar textos e códigos gerados por IA

Leia mais matérias no ItechNews .