Posts Recentes:

Atingido pelo algoritmo central? 5 fatores a serem considerados


Muitos fatores podem afetar as classificações após uma atualização do algoritmo principal. Nem sempre se trata da utilidade do conteúdo; há outros fatores que podem influenciar o motivo pelo qual o algoritmo mudou e afetou negativamente a classificação do seu site.

Se você se perguntar: “Antes, isso era classificado, por que não é classificado agora?” então alguns desses fatores podem ser algo a considerar.

1. Perdas algorítmicas não são necessariamente persistentes

Os sites atingidos pela atualização do algoritmo principal (que inclui a parte de Conteúdo Útil) não têm um aviso permanente contra eles. Nos últimos dez anos, o Google lançou algoritmos e sistemas complicados que podem levar meses entre os ciclos de atualização, deixando os sites afetados incapazes de encontrar um caminho rápido de volta aos resultados de pesquisa. Embora essa não seja uma marca permanente, parece que um site adquiriu uma maldição que o marca permanentemente como inútil e permanentemente excluído.

John Mueller, do Google, respondeu a uma pergunta onde confirmou que ser pego em uma atualização do algoritmo principal não é persistente e, com trabalho, um site pode se recuperar de ser atingido por uma atualização.

Alguém perguntou no X (antigo Twitter):

“Um site atingido por HCU pode voltar a crescer em termos de tráfego se melhorar em qualidade? Muitos temem que, independentemente da quantidade de melhorias que fizermos, um site atingido pela HCU terá para sempre um classificador atribuído a ele que o impedirá de crescer novamente.”

John Mueller respondeu:

“Sim, os sites podem crescer novamente após serem afetados pelo “HCU” (bem, atualização principal agora). Isso não é permanente. Pode exigir muito trabalho, tempo e talvez ciclos de atualização, e/mas um site diferente – atualizado – também será diferente na pesquisa.

2. Recuperar não é a palavra certa

Muitas pessoas pensam na recuperação de uma atualização como uma redefinição das classificações para que os sites recuperem posições para um estado anterior. A resposta de John Mueller no X sugere que os editores podem entender os efeitos algorítmicos como algo que requer o ajuste de um site para se adequar a uma web em evolução, incluindo as expectativas do usuário.

Mueller twittou:

“Mudanças permanentes não são muito úteis num mundo dinâmico, então sim. No entanto, “recuperar” implica voltar ao que era antes, e IMO isso é sempre irrealista, uma vez que o mundo, as expectativas dos usuários e o resto da web continuam a mudar. Nunca é “como antes”.

Esta afirmação parece implicar que, até certo ponto, as atualizações algorítmicas refletem as expectativas dos usuários em relação ao que esperam ver nos resultados da pesquisa. Uma maneira de entender isso é com o exemplo do Medic Update do Google de alguns anos atrás. Essa atualização refletiu um realinhamento dos resultados da pesquisa com o que os usuários esperam ver ao fazer determinadas consultas. Após a atualização do Medic, as consultas de pesquisa sobre tópicos médicos exigiram resultados de pesquisa com abordagem científica. Sites que refletiam remédios populares e não científicos não se enquadravam nessa definição atualizada de relevância.

Existem variações sutis nesse realinhamento dos resultados da pesquisa que vão diretamente para a resposta à pergunta: o que os usuários querem dizer quando fazem uma consulta de pesquisa? Às vezes, relevância significa sites informativos, enquanto para outras consultas pode significar que sites de avaliação são o que os usuários esperam ver.

Portanto, se o seu site for atingido por uma atualização de algoritmo principal, revise as SERPs e tente determinar o que as novas SERPs significam em termos de relevância e autoavalie se o seu site atende a essa nova definição de relevância.

Voltando à resposta de Mueller, não existe “voltar ao estado de antes” e isso pode dever-se ao facto de ter havido uma mudança subtil na relevância. Às vezes, a correção é sutil. Às vezes, voltar aos resultados do mecanismo de pesquisa (SERPs) requer uma grande mudança no site para que ele atenda às expectativas do usuário.

3. Limites e fórmulas de classificação

Outro ponto interessante discutido por Mueller é a diferença entre uma avaliação algorítmica contínua e os efeitos mais persistentes de um sistema de classificação que requer um ciclo de atualização antes que um site possa se recuperar.

Alguém perguntou:

“A questão simples é se você precisa esperar por uma nova atualização principal para se recuperar da HCU. Um simples “sim” ou “não, você pode se recuperar a qualquer momento” seria suficiente.”

John Mueller respondeu:

“É porque nem todas as mudanças exigem outro ciclo de atualização. Na prática, presumo que efeitos mais fortes exigirão outra atualização. As atualizações principais podem incluir muitas coisas.”

Em seguida, continuei com estes comentários interessantes:

“Por exemplo, uma fórmula de classificação + alguns limites poderiam ser atualizados. Os efeitos da fórmula atualizada são, na sua maioria, contínuos e as alterações aos limiares requerem muitas vezes outra atualização para serem ajustadas.

…(“limiares” é uma simplificação para quaisquer números que precisem de muito trabalho e dados para serem recalculados, reavaliados, revisados)”

O que foi dito acima significa que existem dois tipos de efeitos que podem atingir um site. Aquele que faz parte de uma fórmula de classificação continuamente atualizada que pode refletir rapidamente as alterações feitas em um site. Costumavam ser chamadas de atualizações contínuas, em que o algoritmo principal pode fazer avaliações relativamente instantâneas sobre um site e aumentar ou rebaixar as classificações.

O outro tipo de problema algorítmico é aquele que requer um recálculo massivo. É assim que o HCU e até mesmo os algoritmos Penguin costumavam ser até serem incorporados ao algoritmo central. Eram como cálculos massivos que pareciam atribuir pontuações que só eram atualizadas no ciclo seguinte.

4. A mudança na Web e nos usuários

Em outra conversa recente no X, John Mueller afirmou que a chave para o sucesso é acompanhar o que os usuários esperam.

Ele twittou:

“… não existe um segredo único para o sucesso online duradouro. Mesmo que você encontre algo que funcione agora, a web, os desejos dos usuários e a forma como eles interagem com os sites mudam. É realmente difícil fazer coisas boas, populares e persistentes.”

Essa declaração oferece estes conceitos que você deve ter em mente para ter sucesso online:

  • A Internet
  • Desejos do usuário
  • Como os usuários interagem com sites
  • popularidade não é persistente

Esses não são fatores de algoritmo. Mas podem ser coisas que o Google capta em termos de compreensão do que os usuários esperam ver quando fazem uma consulta de pesquisa.

O que os usuários esperam ver é minha definição preferida de relevância. Isso tem praticamente nada a ver com “relevância semântica” e mais com o que os próprios usuários esperam. Isso é algo que alguns SEOs e editores tropeçam. Eles se concentram muito no significado das palavras e frases e esquecem que o que realmente importa é o que elas significam para os usuários.

Mueller postou algo semelhante em uma resposta sobre por que um site ocupa o primeiro lugar em um país e não tem um desempenho tão bom em outro. Ele disse que o que os usuários esperam ver em resposta a uma consulta pode ser diferente de país para país. A questão é que não se trata de semântica, entidades e outros aspectos técnicos, mas muitas vezes a relevância da classificação de pesquisa tem muito a ver com os usuários.

Ele twittou:

“É normal que os resultados da pesquisa variem nos países. Os usuários são diferentes, as expectativas podem variar e a web também é muito diferente.”

Esse insight pode ser útil para alguns editores que perderam classificações em uma atualização do algoritmo principal. Pode ser que as expectativas dos usuários tenham mudado e o algoritmo esteja refletindo essas expectativas.

5. Sinal de nível de página

O SearchLiaison do Google afirmou que o componente Conteúdo Útil do algoritmo principal é geralmente um sinal no nível da página, mas que também existem sinais em todo o site. Seu tweet citou as Perguntas frequentes sobre atualização de conteúdo útil que diz:

“Os principais sistemas de classificação do Google avaliam a utilidade do conteúdo no nível da página ou em todo o site?

Nossos principais sistemas de classificação são projetados principalmente para funcionar no nível da página, usando uma variedade de sinais e sistemas para compreender a utilidade de páginas individuais. Temos alguns sinais em todo o site que também são considerados.”

Mantenha a mente aberta

É frustrante perder classificações em uma atualização do algoritmo principal. Trabalho com SEO há cerca de 25 anos e audito sites desde 2004. Ajudar os proprietários de sites a identificar por que seus sites não são mais classificados me ensinou que é útil manter a mente aberta sobre o que está afetando as classificações.

O algoritmo principal tem muitos sinais, alguns dos quais dizem respeito à utilidade, enquanto outros são relevantes para os usuários, relevância para consultas do site e também simplesmente qualidade do site. Portanto, pode ser útil não ficar pensando que um site perdeu classificações por causa de uma coisa, porque pode ser outra coisa ou até mesmo vários fatores.

Imagem em destaque por Shutterstock/Benny Marty

Últimas

Assine

spot_img

Veja Também

spot_img

O satélite de inspeção de lixo espacial da Astroscale tira uma foto em close de um estágio de foguete descartado

Astroescala O satélite de observação de lixo espacial aproximou-se do estágio superior de um foguete descartado que está flutuando ao redor da Terra...

Snap visualiza seu modelo de imagem em tempo real que pode gerar experiências de AR

Na Augmented World Expo na terça-feira, o Snap apresentou uma versão inicial de seu modelo de difusão de imagens em tempo real no...