O Google pode ser um bom site de buscas, mas ainda deixa muito a desejar em alguns casos: vários sites se utilizam de técnicas diversas para aparecerem nas primeiras páginas dos resultados de busca sem ter um conteúdo tão relevante. Nesse caso trata-se de uma espécie de “spam em sites de busca”, um conteúdo que não deveria estar ali. Normalmente são sites com conteúdo de baixa qualidade, ou até mesmo sem conteúdo: apenas links e publicidade, ou textos roubados de outros sites.
Em meio a tantas críticas recentes, Matt Cutts emitiu um comunicado sobre as ações recentes do grupo.
Segundo ele o spam nas páginas de resultados em inglês é menos da metade do que era há 5 anos, um resultado bastante expressivo – e é ainda melhor em outros idiomas. Todavia vários sites de spam continuam prejudicando as buscas, quase sempre tentando ganhar dinheiro com cliques dos usuários, que por sua vez ficam sem o conteúdo que procuravam ou precisam refinar mais os resultados. O Google não é perfeito, e a situação tende a parecer pior do que realmente é porque as pessoas esperam que o Google seja perfeito, exigindo demais do buscador; o que é impossível.
Segundo o Google um sistema em aprimoramento promete identificar mais rapidamente spam de conteúdo em páginas, incluindo repetição de palavras chave ou frases. Outro tema recorrente são os sites hackeados: sites que usam versões vulneráveis de alguns CMS estão entre os preferidos. Os invasores inserem links ocultos (ou até mesmo visíveis) em páginas alheias numa tentativa de aumentar o Page Rank, já que quanto mais links para um site, em geral, melhor posicionado nos buscadores ele fica.
Fora os sites invadidos em 2010 perceberam uma grande quantidade de sites de baixa qualidade, além de sites que copiam os outros. Normalmente quem tem site ou blog já passou por isso: algumas vezes o plagiador até indexa melhor do que o conteúdo original – o que coloca em pauta a credibilidade do Google para os produtores de conteúdo.
Sem dar detalhes técnicos, o post no blog do Google diz que estão trabalhando constantemente para consertar isso, testando recursos para identificar sites com pouco conteúdo original e muita cópia.
Entre as medidas tomadas está um pedido maior de feedback: por meio de uma extensão para Chrome fica mais fácil reportar páginas de spam nas buscas. É difícil imaginar um usuário comum reportar spam no buscador, mas a extensão facilita a vida de quem vive denunciando os outros – especialmente aqueles que já se sentiram prejudicados por alguém que pratica black hat SEO e se dá bem. Não há garantias de que os sites denunciados tenham suas posições nas buscas realmente alteradas, mas espera-se que pelo menos uma análise em tais sites seja feita.
Por fim Matt Cutts reforça a posição do Google em não apoiar sites só porque eles usam o sistema de publicidade do grupo, o AdWords/AdSense. A posição na área de resultados orgânicos (busca comum, não paga) não tem ligação com o fato de um site ter ou não publicidade do Google. Bom, pelo menos é o que eles afirmam.
Deixe seu comentário