Análise sobre Google Panda

Analisamos as repercussões provocadas em decorrência da atualização do algoritmo de Google Panda, em agosto de 2011, uma nova ordem na classificação das webs que alterou significativamente o trabalho do SEO.

Por Miguel Angel Alvarez - Tradução de Celeste Veiga


Publicado em: 26/10/11
Valorize este artigo:
Durante os primeiros meses de 2011 se colocou em produção o novo algoritmo de classificação dos resultados das buscas por parte de Google. Esse novo modelo de ponderação de resultados foi incorporado na Espanha e em outros países onde Google oferece buscas no último 12 de agosto. Esta atualização não se trata de um pequeno ajuste, mas de um novo enfoque que botou por terra muita da engenharia de posicionamento em buscadores que até o momento estava dando bons resultados.

Passaram-se poucos dias desde essa atualização e embora ainda seja cedo para tirar conclusões, podemos encontrar já muita coisa escrita no idioma inglês sobre o tema, dado que nos Estados Unidos o algoritmo leva uns meses em funcionamento. Depois de analisar os resultados de buscas que nos afetam diretamente e de ler um pouco aqui e acolá , decidi aportar minhas conclusões sobre este mundinho do SEO.

Além disso, este artigo pretende abrir uma via de comunicação com os leitores de CriarWeb.com, para que possam relatar suas próprias visões e experiências, com o objetivo de que todos possamos aprender um pouco mais sobre o assunto e buscar maneiras de melhorar nossos negócios na Web.

Por quê se atualiza o buscador

Atualizar-se ou morrer. Essa frase está presente a maioria das empresas que triunfaram no mundo atual. Google não deixa de ser uma delas. Depois de haver recebido críticas no passado a cerca da qualidade de seus resultados, decidiu reformular o algoritmo de classificação de resultados das buscas. A pesar de todos os sucessos colhidos até o momento, era hora de oferecer algo melhor e assim distanciar-se um pouco mais dos que querem chegar a ser seus competidores.

Porém, o motivo mais importante desta atualização é realizar uma nova classificação das páginas, eliminando muitas que não são consideradas de qualidade. No Google estão conscientes de sua "responsabilidade para criar um ecosistema web saudável" e há que considerar que, ao longo dos últimos anos, centenas ou milhares de pessoas se dedicaram a fazer engenharia inversa dos algoritmos do buscador, com o objetivo de posicionar páginas. Sua preocupação não era criar um conteúdo rico, mas averiguar as regras que o motor de Google usa e utilizá-las em seu benefício.

Desse modo, mediante SEO, se posicionaram nos primeiros resultados muitas webs que realmente não valiam a pena. Numerosas empresas, em busca de dinheiro rápido, se dedicaram a fazer o que se chamam as "fábricas de conteúdo", ou seja, páginas de conteúdo pouco valioso e criadas maciçamente, que unicamente buscam a rentabilidade mediante a publicação de anúncios.

Teoricamente, Panda vinha acabar com o nicho de mercado das fábricas de conteúdo e a bonificar os criadores de conteúdo "de qualidade". Obviamente, é uma tarefa que não resulta fácil e menos ainda se forem as máquinas as que decidam que conteúdos são de qualidade e quais são prescindíveis. No tenho dúvidas de que em muitos casos Google terá acertado ao classificar conteúdos, mas infelizmente nenhuma mudança é do agrado de todos. Na verdade, devido a esta atualização nos encontramos ante uma situação em que muitas pessoas se viram prejudicadas sem justificativa pelas mudanças das posições de suas páginas web.

Como é o novo algoritmo de Google, Panda

A novidade no momento é a criação de um sistema de aprendizagem, pela qual o algoritmo de Google é capaz de decidir se um site é ou não de qualidade e melhorar com base a novos dados que se aportem. Claro que, exceto os engenheiros de Google, ninguém sabe exatamente como está feito, mas através de uma entrevista a Amit Singhal e Matt Cutts realizada em Wired, podemos conhecer algo mais em primeira mão.

Através do novo algoritmo conseguem separar o trigo do joio e de um conjunto de sites saber quais são bonitos, atrativos, rigorosos, completos, etc. e quais são o contrário. Os melhores sites são elevados entre os resultados e os piores sites são rebaixados. É um sistema inteiramente automático e baseado em software, mas claro, eles próprios sabem que não é tarefa fácil que um algoritmo consiga acertar sempre ao classificar a qualidade das páginas web.

Por isso, no Google se fizeram una série de perguntas do tipo: você pensa que este site é uma autoridade? Você se sentiria cômodo dando a seus filhos um medicamento prescrito por este site? Veria com bons olhos a publicação destes artigos em uma revista? etc. Todas elas foram entregues a pessoas externas e as respostas comparadas com os resultados de seu algoritmo. Ao perceberem que suas máquinas eram capazes de classificar as páginas de uma maneira muito similar a como o faziam as pessoas, decidiram que estavam no bom caminho.

Paralelamente através da extensão "Site Blocker" de Chrome, tinham uma série de webs que as pessoas estavam bloqueando dos resultados de Google e, embora afirmem que essa informação não chegou a ser utilizada para seu algoritmo, a compararam com os resultados e observaram que em 84% das ocasiões, os sites bloqueados concordam com aqueles sites que o algoritmo julga de má qualidade.

No blog oficial de Google publicaram a lista de perguntas completa utilizada para saber se um site é ou não de qualidade e as que nós nos podemos fazer sobre nossos sites para saber se serão bem considerados. Pode-se obter essa lista de perguntas no artigoMais recomendações para construir sites de alta qualidade.

Entre os critérios que podemos encontrar destacam elementos como:

  • Dispor de conteúdo contrastado
  • Inspirar a confiança do usuario
  • Conter textos gramatical e ortograficamente corretos
  • Não ter conteúdo duplicado dentro do mesmo site, ou conteúdo muito similar
  • Apresentar informação original, que não tenha sido copiada
  • Não abusar da publicidade, etc.
Todos estes critérios são, sem dúvida, indicadores de um site de qualidade, ou de um site produzido em massa sem muito controle e portanto é excelente que Google se preocupe em valorizá-los. O pessoal de Google não comenta como realizou exatamente esses algoritmos, mas dizem que ao comparar sites bons e ruins encontraram diversos indicadores, como luzes verdes ou vermelhas, que são comuns aos sites com alta ou baixa qualidade. Portanto só se trata de tentar buscar esses indicadores entre toda a massa de sites da web. De um lado ficam os sites importantes, como Wikipedia ou o New York Times e do outro sites que não eram tão bons como as mencionadas fábricas de conteúdo.

No entanto, no fundo é tudo matemática e algorítmica e como eles mesmos sabem, não é tarefa fácil. Por isso, na prática, muitas pessoas poderíamos responder positivamente a essas perguntas e nem por isso nos vermos beneficiados nas buscas. Na verdade, como nos Estados Unidos Google Panda já leva rodando desde princípios de 2011, existem alguns casos destacados de webs aparentemente de qualidade que foram praticamente apagadas do mapa nas buscas.

O novo trabalho do SEO

Devido a Google Panda, o trabalho das pessoas que se dedicam a posicionar páginas web, os chamados SEO, mudaram para sempre. Anteriormente os SEO se dedicavam a escrever conteúdo atendendo a uma serie de regras. Criar um título e uns cabeçalhos representativos, utilizar determinadas palavras chave várias vezes nos textos ou imagens, conseguir bons links e coisas do tipo. Agora tudo isso não vai melhorar necessariamente a posição de uma página web, a coisa é mais profunda . Vendo um vídeo publicado em SEOmoz encontramos alguns dados interessantes sobre o que dizem os expertos que agora contam. Entre as coisas mais interessantes que nos explicam encontramos uma afirmação que considero chave "O trabalho que antes vinham realizando as pessoas que se dedicam a promover conteúdos evoluiu de SEO até Estratega para a Web". Ou seja, todas as pequenas normas que se utilizavam para promover um conteúdo agora são simplesmente uma parte do trabalho e a grande tarefa do SEO seria a de definir uma estratégia para procurar que um web site mereça ser visitado e onde seus visitantes o percebam como de qualidade.

Tudo isto significa que qualquer coisa que possamos fazer com um web site para melhorá-lo, desde o ponto de vista da experiência de usuário, contará para melhorar as posições no Google. A continuação vamos dar uma serie de ideias sobre os pontos destacados em diversos meios.

O conteúdo é o rei:
Esta frase, que vimos ouvindo há 15 anos ou mais, cada dia se reafirma entre os que nos dedicamos a publicar na Internet. Porém ademais, com estas atualizações se reinventa a si mesma, dando um passo à frente e destacando que tipo de conteúdo é o que de verdade reina nas buscas. Porém, um conteúdo de qualidade não significa apenas estar bem redigido, mas sim aportar algo mais que outros artigos publicados, ser original, convenientemente contrastado, etc.

Redes sociais:
Existem novos fatores chave para classificar a qualidade de um site e o exemplo mais claro são as redes sociais. Inclusive neste sentido vimos que Google apresentou recentemente novas ferramentas sociais como o botão +1. Ou seja, o movimento que nossos sites provoquem entre seus usuários também será levado em conta. Eles pensam, se este site tivesse um bom conteúdo, estaria sendo constantemente compartido em redes como Twitter, Facebook ou Google+. Obviamente, não se sabe até que ponto esses fatores afetam a posição de uma página no Google, mas o que se sabe é que utilizam diversos padrões que os ajudam a saber se o tipo de participação do usuario responde a um comportamento natural ou artificial.

Tempo de carregamento:
O tempo de carregamento também nos poderá classificar melhor ou pior entre os resultados, pois para Google a satisfação do usuario significa não só que encontre a informação que estava buscando, mas que ademais seja entregue rapidamente. Neste sentido Google vem trabalhando juntamente com os webmasters de todo o mundo e aportando ferramentas como Page Speed, que ajudam a localizar as mudanças que podem auxiliar mais positivamente a velocidade de carregamento de um site.

Interfaces de usuario amigáveis:
Não me perguntem como Google avalia uma interface de usuario atrativa ou amigável para o usuário, mas por suas declarações, agora isso também é levado em conta. Detalhes interessantes que se podem cuidar são dispor de algumas fotos representativas acompanhando os textos, não carregar a web com demasiados espaços publicitários, não obrigar o usuário a ler uma informação curta acudindo a diversas páginas diferentes, etc. Porém, atenção, segundo informam, não vale cuidar de uma parte de nosso website e ter outras que não se ajustam aos níveis de qualidade desejáveis. Nesse caso, o algoritmo pode detectar parâmetros negativos em uma seção e baixar no ranking global de uma página.

Métricas estatísticas:
Ademais, estão sendo levados em conta outros dados sobre o comportamento dos usuários que acessam os web sites. Devemos ter em mente que Google tem muito mais informação sobre nossos sites do que imaginamos e que pode utilizá-la a nosso favor ou contra . Por exemplo, se um usuario entra em um website através do buscador e em seguida volta para o Google e clica no resultado seguinte das buscas, entendem que esse resultado não lhe interessou. Ademais, através de seu serviço Analytics, ainda podem saber muito mais sobre as páginas que o implementam, como a porcentagem de rebote ou abandono, o número de páginas consultadas por usuário. Todos esses dados podem ajudar o buscador, mas o certo é que nem sempre são um indicador exato da qualidade do site e depende de vários fatores, como o tipo de conteúdo que se ofereça, o tipo de usuário que entra para consultar uma web, etc.

De todo o modo, ainda é cedo para poder afirmar categoricamente: implemente tal mudança e obterá tal resultado. Todos estes critérios que se assinalaram aqui e em diversos outros foros afins ao SEO, surgem como meras suposições por causa da pouca informação que ainda se tem no momento de publicar este artigo de CriarWeb.com. Além disso, de acordo com os sites que administremos, há discrepâncias entre o que se expõe e a variação das estatísticas nos últimos dias. Por exemplo, há sites onde nunca utilizamos redes sociais e onde obtivemos um considerável incremento de tráfico. Por outra parte, sites que praticamente não têm publicidade, sofreram mais atrasos que outros que estão mais explorados.

Beneficiados e prejudicados pelo algoritmo

Na prática, depois de Panda, os sites foram reordenados dando como resultado algumas mudanças no tráfego, com Google como origem, que oscila entre 10% e 30%. Como é lógico, existem tanto beneficiados quanto prejudicados por esta ação.

Depois de tudo, parece que os grandes prejudicados pelo novo algoritmo de Google, são as chamadas fábricas de conteúdo. Páginas onde há pouco controle sobre a informação que se publica ou onde existe pouco ou nenhum dado que mereça a pena sobre os temas tratados. Também páginas onde os próprios usuários eram os que fabricavam os conteúdos e onde o nível de qualidade dos textos não era revisado com rigor.

Uma das possíveis razões desta caça às bruxas às fábricas de conteúdo, cujo modelo de negócio está baseado na publicidade e onde Adsense é o principal cliente, é que -depois de tudo- eram competidores diretos de publicidade no Google. Google lhes enviava muito tráfego e eles colocavam anúncios fornecidos pelo próprio buscador, ficando com uma parte considerável do bolo de rendimentos publicitários que Adwords arrecadava. Claro que ninguém confirmou oficialmente esta suposição, mas o certo é que Google não necessita dessas fábricas de conteúdo para posicionar seus anúncios, pois tem muitas outras webs afiliadas que dispõem de um conteúdo mais completo e melhor preparado.

Na prática, outras páginas que estão sofrendo bastante retrocesso são as lojas online, que utilizavam os mesmos textos para descrever os produtos que muitos de seus competidores. Na maioria dos casos os produtos eram descritos com as mesmas palavras utilizadas pelos distribuidores ou fabricantes dos mesmos e pouco ou nada acrescentavam além disso.

Outro tipo de páginas que se viram rebaixadas no ranking são as webs de opinião, onde havia simplesmente uma base de dados de produtos imensa e onde os próprios usuários eram os que escreviam os poucos textos originais com que contavam. Essas páginas utilizam tradicionalmente muitas técnicas de SEO para posicionar seus produtos com a esperança de que apareçam no buscador e cheguem usuários que comecem a escrever sobre diferentes assuntos. Não é que todas essas técnicas tenham deixado de funcionar, mas sim de que já não contam tanto como um conteúdo de qualidade, criado com rigor jornalístico.

Segundo dizem, Panda é um algoritmo que potencia os proprietários das marcas e os organismos oficiais. Entre os beneficiados estão todos aqueles entes que conformam a fonte original da informação. Ou seja, meios de comunicação, sites com conteúdo original e bem preparados, organismos oficiais e páginas que oferecem informação em primeira mão. Por exemplo, se se busca um modelo de câmera de fotos encontraremos, entre os primeiros postos, revisões detalhadas do produto e a própria página do website da marca da câmera.

Eu prefiro a análise de Panda como um impulsor do jornalismo na Rede, dado que agora se dá maior importância àqueles textos criados por pessoas capacitadas e com vontade de escrever corretamente e aportar algo mais ao universo web.

Agora , os que certamente sabem se foram ou não penalizados por esta mudança do buscador, são os próprios editores das webs. Consultados vários colegas encontramos que os sites que oferecem um conteúdo de um nível razoavelmente bom, se mantiveram e inclusive melhoraram na última semana. Assinalo este ponto porque circulam pela Internet artigos que falam de beneficiados e prejudicados e que colocam as estatísticas de Alexa como prova dessas mudanças no tráfego. Neste caso tenho que dizer que Alexa nem sempre oferece dados confiáveis e que entre os sites que manejamos em nossa empresa há discrepâncias sérias entre os dados que aparecem ali e os de Google Analytics. Sites que Alexa diz que melhoraram na realidade pioraram e viceversa.

Porém nem sempre o Panda tem a razão

Na prática, nem tudo que reluz é ouro, ainda há caminho por diante para que Panda posicione corretamente os conteúdos dentro de seus resultados. Prova disso é a quantidade de webmasters e editores de conteúdo que se queixam de haver sido prejudicados nas posições do buscador.

Não é difícil encontrar pessoas que afirmam serem produtores de conteúdo original e que foram penalizados pelo novo algoritmo injustamente. Pessoas que dizem ser autores de artigos e cujos textos foram copiados por outras webs, afirmam que os plágios aparecem nas primeiras posições, quando seu próprio website foi relegado ao esquecimento.

Consultado nosso amigo e colaborador Luis Zuluaga, que se dedica profissionalmente a oferecer serviços SEO, tem registros de clientes que melhoraram e que pioraram seus resultados por causa de Panda. Em muitos casos, opina que os retrocessos, em torno de 20 a 30 posições, não atendem a uma justificativa real. Segundo Luis, os critérios que Google afirma estar utilizando -como a porcentagem de rebote-, nem sempre significam uma medida real da qualidade de um site. Por exemplo, muitas vezes busca algo como "seletores jquery Criarweb" porque sabe que esse tema está bem tratado neste site, lê a informação e depois segue com seu trabalho. Ou seja, não consulta novas páginas do site e se produz um "rebote", mas isso não significa especificamente que o que leu em CriarWeb.com não tivesse suficiente qualidade para responder à sua dúvida.

Pessoalmente analisei as buscas mais típicas que afetam os conteúdos de CriarWeb.com e, às vezes, Panda melhorou e em outras não. Por exemplo, devido a nosso Manual de Mootools (um documento muito trabalhado e completo) nas buscas aparecíamos antes da própria web do framework. Agora aparece antes a página de Mootools, a Wikipedia e outras fontes oficiais. Depois já se encontra nosso manual de Mootools. Creio que é uma mudança para melhor de Google. Nossa posição piorou um pouco, mas realmente a busca oferece resultados melhores.

Porém, infelizmente nem sempre é assim. Para algumas buscas chave no nosso negócio editorial fomos menosprezados e de maneira equivocada disseram que nossos sites têm conteúdos não originais ou websites com pouca qualidade. Por exemplo, temos um manual de jQuery que possui uma profundidade incomparável à de outros sites que ficaram na nossa frente. Temos uma seção dedicada a PHP que tem centenas de artigos classificados em dezenas de manuais, que tampouco saíram beneficiados e onde aparecem algumas webs de procedência totalmente ilícita que se dedicam simplesmente a copiar textos aparecidos em outras páginas web.

Ou seja, a nosso modo de ver, Panda oferece as duas caras da moeda. Às vezes melhorou a classificação dos resultados e em outras piorou significativamente, jogando areia (páginas de má qualidade) nos sites que verdadeiramente aportam algo. Porém, sem dúvida, os websites oficiais foram potenciados, porque quase sempre se encontram entre os primeiros resultados.

Conclusão: adaptar-se a esta nova ordem

Apesar das críticas que Panda recebeu, todas as declarações oficiais por parte do pessoal do Google afirmam estarem muito contentes com os resultados deste novo algoritmo, de modo que dificilmente darão um passo atrás. O que se espera são revisões pontuais que ajudem o sistema de aprendizagem de Panda, com novos dados com os que medir a qualidade dos websites. Prova disso é que, ao longo dos últimos meses, surgiram revisões de Panda nos Estados Unidos, onde vem funcionando desde o princípio do ano.

Espera-se que pouco a pouco se afinem os processos de ordenação do algoritmo e que os prejudicados injustamente por Panda possam recuperar terreno depois de futuras revisões pois, em decorrência da nova ordem no buscador, há bastantes webs que foram prejudicadas injustamente. Trata-se de realizar as modificações que possamos para melhorar a qualidade dos sites, ainda que às vezes esse conceito seja um pouco subjetivo. Depois de tudo, páginas estadunidenses que haviam realizado diversas modificações para ajustar seus parâmetros de qualidade, melhoraram de novo seu tráfego vindo do Google. Por isso, caso o Panda tenha tratado você mal, não perca a esperança de fazer as pazes com ele e voltar a estar bem posicionado no Google.





Comentários do artigo
Foi enviado 1 comentário ao artigo
1 comentário não revisado
0 comentários revisados

Usuários :    login / registro

Manuais relacionados
Categorias relacionadas
O autor

Home | Sobre nós | Copyright | Anuncie | Entrar em contato