O algoritmo do Google é famoso por suas constantes mudanças. E, nesse post, tratarei sobre algumas das mais importantes e que impactaram uma grande quantidade de sites.

Além disso, você entenderá sobre os fatores que a plataforma leva em consideração para aceitar mostrar seu conteúdo aos pesquisadores no mecanismo. Também verá as diferenças e conceitos de siglas e outras denominações relativas ao sistema do Google que costumam ser confundidas por algumas outras fontes na web.


O que é algoritmo do Google

Os tão famosos algoritmos do Google são, na verdade, “sistemas de classificação”, como a própria plataforma intitula. Esse sistema organiza o conteúdo que está na web em páginas de busca para facilitar a vida do usuário.

Mas não somente isso. Pois o Google sempre deixou claro que o objetivo do seu mecanismo de busca é o de entregar sites com conteúdo que tragam uma experiência de qualidade ao leitor no mundo digital.

O que é algoritmo do Google
Os algoritmos do Google são chamados também de sistemas de classificação. Foto: Pexels

Mas se você acredita que essa organização chegou com o Google está bastante enganado(a)! Antes dele existir, aqui no Brasil, podíamos usar o AltaVista ou o Cadê, por exemplo, durante os anos 90.

Além destes, o pessoal da TI (Tecnologia da Informação) mais antenado comprava livros gigantes, com milhares de páginas, com uma lista (que parecia infinita) de endereços, URLs (Uniform Resource Locator, traduzido como “localizador uniforme de recursos”, ou seja, os endereços dos sites) de sites espalhados pelo mundo da web. Parece inacreditável, mas eles se orgulhavam de carregar aquelas “obras” pelos andares das empresas.


De quanto em quanto tempo o Google atualiza seu algoritmo

Pode parecer exagero, mas não é! O Google faz atualizações semanais ou até mesmo diárias no seu sistema de busca, mas nem sempre sequer percebemos que algo mudou.

A plataforma mesmo nos conta que são realizadas milhares de experiências e que muitas delas podem ser lançadas em um mesmo ano se forem aprovadas:


Dados desses experimentos passam por uma avaliação minuciosa por engenheiros experientes e analistas de pesquisas, assim como outros especialistas jurídicos e de privacidade, que determinam se a mudança será aprovada para lançamento. Em 2022, fizemos mais de 800.000 experimentos que resultaram em mais de 4.000 melhorias na Busca.

Fonte: Google

Já aquelas atualizações que podem prejudicar determinado conteúdo chegando a tomar colocações dos sites nas páginas de busca são realizadas, normalmente, de duas a três vezes por ano e são conhecidas como Core Updates, ou “atualizações principais” em português.

Aposto que quem não sabe inglês achou que era um nome muito complexo. Eu sempre lamentarei tanta nomenclatura importada…

Por outro lado, essas mesmas mudanças, que podem prejudicar alguns, podem ajudar outros a adquirir uma boa colocação no Google. Afinal, se alguém cai, deixa sua vaga para outro tomar seu lugar, claro. E, para isso, de acordo com a própria plataforma, o grande segredo é colocar sempre em foco a boa experiência e o conteúdo de valor para o usuário, o leitor.

Hummingbird, uma das atualizações mais famosas do algoritmo
“Hummingbird” foi uma das atualizações do algoritmo mais perceptíveis pelos proprietários de sites. Foto: Pexels

 

Nesse sentido, as atualizações dos algoritmos são uma “mão na roda” para os usuários. Pois retiram milhares de sites das primeiras páginas do mecanismo de busca (ou até mesmo de todas, dependendo do caso) que seriam inúteis e lhes tirariam muito tempo durante uma pesquisa.


Uma passagem pelas alterações mais famosas do Google

Entre as diversas mudanças nos algoritmos do mecanismo de busca mais utilizado no mundo tivemos aquelas que impactaram com mais força os sites existentes na web. E que geraram as maiores dores de cabeça aos desenvolvedores.

Eu destaco quatro delas que aconteceram entre 2011 e 2015, mas que, ao meu ver, foram as mais impactantes daquela década.


As atualizações que mais atingiram os sites entre 2010 e 2020

2011 – “Panda”

Eu realmente não consegui, mesmo após incansável busca de mais de duas semanas no próprio mecanismo de pesquisa, encontrar o nome “panda” no conteúdo da marca Google.

Em contrapartida, o site Search Engine Journal afirma que o nome inicialmente teria sido “Farmer” (pois a atualização era uma resposta às fazendas de conteúdo que inundavam a web na época). Mas que acabou ficando conhecida, dentro do Google, como Panda. E que esse era o nome do engenheiro que criou a principal descoberta do algoritmo.

A atualização Panda surgiu para desqualificar conteúdos pobres criados somente com o objetivo de se classificarem nos motores de busca. Ela funcionou penalizando páginas com informações gerais e limitadas ou mesmo sem qualquer informação útil. Ou seja, trata-se de um algoritmo que objetiva a alta qualidade de conteúdo.

Grande parte dos sites prejudicados foram aqueles que promoviam afiliações, por exemplo, com links diversos para outras páginas e com anúncios excessivos.

A partir dessa mudança, o conteúdo melhor classificado seria aquele otimizado e original.

2012 – “Penguin”

Diferente do nome “Panda”, essa atualização – conhecida como Pinguim – consta com esta mesma denominação no blog oficial do Google. E existe também uma patente que algumas fontes relacionam ao surgimento do novo sistema.

O Google Pinguim foi lançado para analisar os backlinks, aqueles links externos que citam outros sites. E se eles eram originais ou comprados para enganar os mecanismos de busca.

Assim, os sites com conteúdo muito artificial ou com conteúdo duplicado perderam relevância nas páginas de busca.

2013 – “Hummingbird”
Diferente do Panda e do Pinguim, o Beija-Flor, ou o “Hummingbird” em inglês, consta na linha do tempo das pesquisas no blog da plataforma.

Entretanto, descobrir maiores informações sobre essa atualização também não foi uma tarefa muito fácil. Mas podemos conferir algo a respeito nessa entrevista com a participação de Matt Cutts, mais precisamente na marca de 1h20min deste vídeo (conteúdo em inglês). Naquela época, o engenheiro era chefe e porta-voz da equipe de web spam do Google.

No vídeo, Cutts explica que o Beija-flor é, na realidade, uma revisão completa do algoritmo de pesquisa fundamental. E que sua finalidade é aprimorar a correspondência entre as consultas dos usuários e os resultados, especialmente para consultas em linguagem natural. Isso é importante porque as consultas tendem a ser mais extensas, com um aumento no número de palavras, e, ocasionalmente, a relevância de tais palavras varia. Ou seja, algumas destas palavras são importantes e outras não.

Nesse sentido, o “Hummingbird” priorizou sites que respondiam a perguntas longas e mais complexas, consultas que se pareciam com uma conversa. Com isso, vemos que ele trouxe as bases para a pesquisa por voz.


2015 – “RankBrain”

E, por último, destaco a quarta atualização de algoritmos do Google. O “RankBrain”, o qual podemos traduzir como “Cérebro Classificado”, também consta na linha de tempo da plataforma.

A intenção dessa atualização era que o mecanismo encontrasse palavras com significados semelhantes mostrando aos usuários, então, páginas relevantes mesmo que elas não incluíssem palavras exatas da busca realizada.

Confira no infográfico a seguir, criado por mim exclusivamente para o Marketing de Fato, um resumo destas quatro alterações principais do algoritmo:

Essas quatro mudanças no sistema de busca do Google impactaram milhares de sites. Alguns perderam colocações importantes nas SERPs (páginas de resultados dos motores de busca). Entre estes, talvez, muitos até mesmo com conteúdo de qualidade.

Por outro lado, na sua grande maioria, ficaram quase “cancelados” outros tantos que não traziam nenhum benefício ao pesquisador na web.

Isso comprova a busca do Google pela entrega de conteúdo de qualidade aos usuários. E que isso deverá vir na frente da busca incessante dos criadores de conteúdo em alcançar a primeira colocação nas SERPs.



E-E-A-T e o algoritmo

“O objetivo dos sistemas de classificação do Google é recompensar conteúdo original e de alta qualidade que demonstre qualidades do que chamamos de E-E-A-T.”


Fonte: Google https://developers.google.com/search/blog/2023/02/google-search-and-ai-content?hl=pt-br

De acordo com o Google, seu sistema automatizado leva em conta vários fatores para classificar conteúdo de qualidade. Em uma das etapas, o conteúdo passa por uma identificação de relevância. É quando o sistema prioriza os mais úteis. Para fazer isto, existe uma combinação de fatores conhecidos como E-E-A-T: Experiência, Conhecimento, Autoridade e Confiabilidade.

Antes, a sigla era E-A-T somente. O segundo “E”, de “Experiência” foi adicionado pelo Google no final de 2022.
E a plataforma indica que o principal fator deles é o da confiabilidade.

E-E-A-T
Os fatores E-E-A-T visam identificar a relevância do conteúdo apresentado pelos sites. Foto: Freepick

 

Se você quiser conhecer todas as diretrizes para a classificação de qualidade de pesquisa, o Google disponibilizou um arquivo (em inglês), que existe desde 2019 e tem sido atualizado frequentemente desde então, com mais de 170 páginas, direcionadas aos desenvolvedores de sites a esse respeito, onde explica detalhadamente a sigla.

Diferente das atualizações dos algoritmos, o E-E-A-T não é apresentado com um fator de classificação. Mas os mecanismos do Google darão mais chances a um conteúdo de qualidade que esteja alinhado a estes fatores.

E isso conta especialmente para temas relacionados a YMYL (Seu Dinheiro ou sua Vida em português). Ou seja, se seu site tratar de assuntos sobre saúde, finanças pessoais, segurança ou bem-estar social das pessoas, os cuidados com o E-E-A-T terão de ser redobrados.

Mas os demais sites não ficam de fora e são qualificados também. Então, essas diretrizes são, sim, muito importantes para garantir que estamos criando conteúdo de qualidade para os visitantes. E, consequentemente, sempre que fazemos isso, nos enquadramos no conjunto de páginas de qualidade para o mecanismo de busca, para o algoritmo.



E os Core Web Vitals – o que são?

Como o próprio Google costuma afirmar, é de grande importância para os mecanismos de busca entregar a melhor experiência aos usuários.

Dentro dessa perspectiva, em 2020, ele lançou o Core Web Vitals, ou “Principais Métricas da Web” em português.

Conforme o Google, anos antes disso, seu sistema de pesquisa havia adicionado critérios relacionados à experiência do usuário (como a velocidade do carregamento de página e a compatibilidade com dispositivos móveis, por exemplo) como fatores para os resultados da classificação.

E o Core Web Vitals foi inserido nas alterações do algoritmo com métricas relacionadas à velocidade, à capacidade de resposta e à estabilidade visual. A partir disso, os desenvolvedores dos sites poderiam avaliar a experiência de seus visitantes.

Core Web Vitals
Core Web Vitals é um conjunto de métricas que avaliam a experiência do usuário em um site. Foto: Freepick

Então, além das atualizações do sistema de busca convencionais, temos também as Principais Métricas da Web para seguirmos a fim de conseguirmos entregar nosso conteúdo para quem pesquisá-lo no mecanismo.

Claro que precisamos nos preocupar com a qualidade de experiência do usuário (UX) em qualquer site que construirmos. Entretanto, o que tem acontecido com alguns desenvolvedores é uma grande cobrança do Google para que aprimoremos os códigos dos sites enquanto outros produtos da marca não o fazem. Por exemplo, um dos mais comuns avisos do Google Search Console (uma ferramenta da marca para análise do desempenho do site no mecanismo de busca) é quanto ao tamanho da fonte utilizada no site e quanto ao espaço de clique em torno dos botões.

Mas levante a mão quem nunca tentou ampliar a visibilidade para conseguir ler um comentário na íntegra em um vídeo no YouTube (que é do Google) no seu smartphone e, ao invés de abrir o link “… Ler mais”, abriu o campo de responder ao comentarista?

Isso acontece comigo diariamente!

Enquanto isso, quando o Google Search Console afirma algo parecido para os sites que eu administro, e eu testo o referido site mobile, não encontro essa mesma dificuldade. E a fonte está em tamanho bastante razoável para a leitura.

E se nada fazemos a esse respeito, corremos um grande risco de termos nossas páginas ou mesmo o site inteiro sem indexação. Ou seja, sem aparecer na web para os mecanismos de busca.


Como conseguir a qualidade exigida pelos robôs

A grande questão não é alcançar a qualidade exigida pelos mecanismos de busca na internet. Mas sim, entregar o conteúdo de maior valor possível ao leitor. E o Google repete isso incansavelmente e em grande parte do material que ele disponibiliza para os desenvolvedores. E estes “desenvolvedores” incluem não somente os responsáveis pela programação dos sites, mas também, e especialmente, aqueles que produzem seus conteúdos.

E é simples assim mesmo.

Qualidade de conteúdo versus robôs
Nós (ainda) não somos robôs, então, foque em produzir conteúdo para o visitante do seu site e não para mecanismos de busca na internet. Foto: Freepick

Ok. Mas como eu posso entregar um “conteúdo de valor” para os visitantes do meu site?

Aqui vão algumas dicas minhas para isso:

1. Conheça seu público o mais detalhadamente possível a fim de saber quais soluções ele está buscando para determinado problema. Afinal, ninguém pesquisa na web por nada;
2. Dedique-se a escrever sobre aquilo em que você é especialista. E, se você não for, contrate um escritor que seja;
3. Se for utilizar, use a Inteligência Artificial com parcimônia. Nunca esqueça de que tudo o que essa IA tem em seu banco de dados é algo que já tem autoria em outro site na internet;
4. Facilite a comunicação. Ninguém curte um texto pomposo ou complicado demais, mesmo sendo um assunto que exija formalidade;
5. Você pode aliar SEO – Search Engine Optimization – tranquilamente ao seu conteúdo, mas o foco deverá estar sempre sobre o seu leitor, seu visitante;
6. Pense em tornar o visual do seu conteúdo interessante e atraente também, afinal, um bloco grande de texto é sempre mais complicado de “digerir” do que ilustrado por imagens ou infográficos, por exemplo.
7. Não esqueça de verificar constantemente se o seu site ou blog está mantendo a qualidade de interação, de experiência durante o uso, para seus usuários. Isso inclui uma razoável velocidade de abertura do site e de suas páginas, interatividade facilitada e estabilidade do conteúdo. Afinal ninguém espera muitos segundos para um site ou página abrir, curte anúncios piscando em volta ou em cima do conteúdo ou gosta de tentar clicar em um botão e ele mudar de lugar naquele mesmo momento.


A Inteligência artificial pode prejudicar sua marca

Como coloquei no item três das dicas para construir um conteúdo valioso para seu público agora há pouco, dependendo da forma que você utilizar a IA generativa, isso pode ser um “tiro no pé” por dois motivos.

Primeiro, porque temos de parar de fingir que estamos “criando” algo ao utilizarmos esses mecanismos. Pois, ali, absolutamente nada é novo. Todo o serviço é alimentado por informações publicadas na web. Ou seja, basicamente, se copiarmos o que ele gera de conteúdo, estaremos plagiando alguém. E, no caso de alguns deles, como é o caso do ChatGPT, por exemplo, nem mesmo sabemos quem estamos plagiando, já que as fontes não nos são reveladas.

E qual a consequência disso? No final das contas, você não estará contribuindo em nada para o consumidor do seu conteúdo. Tudo o que ele verá já está divulgado em outro ou em vários pontos da web.

O segundo motivo diz respeito à penalização dos mecanismos de busca, que, facilmente, podem identificar conteúdo duplicado ou sem valor para os leitores. E quando isso acontece, sabemos que perdemos indexações, posições nas páginas de busca. Mesmo que o Google afirme não ser contra o conteúdo gerado por IA, ele prefere a originalidade.

Inteligência Artificial
Se você não souber usar a Inteligência Artificial, ela poderá prejudicar sua marca. Foto: Freepick

Por isso, priorize a criação de materiais exclusivos e que sejam úteis de verdade para quem os consome. E use a IA somente como inspiração para aqueles dias em que não sabemos por onde começar. E só para isso.


Aposte na parceria com especialistas

Outra dica para gerarmos um bom conteúdo é a de contratar especialistas para escreverem para você se o assunto não é da sua área de atuação ou conhecimento mais profundo.

Para que você consiga entregar um conteúdo valioso, que realmente possa adicionar algo de positivo para o seu público, a solução é sempre contar com a autoria especializada. Ou seja, utilizarmos a verdadeira criação de conteúdo gerada por pessoas.

Mas não qualquer pessoa, pois o público (e, por consequência os mecanismos de busca) procura por conteúdo embasado, de qualidade. Para isso, estabelecer parcerias com especialistas na área do seu negócio é crucial.

Não basta que o escritor da matéria do blog da sua empresa goste de carros. Ele tem de ter expertise no assunto. E, para termos experiência e adquirimos bagagem em qualquer tema, precisamos de muita “estrada” para podermos falar a respeito. Nesse sentido, um “heavy user” com menos de 10 anos de experiência na utilização de redes sociais apenas não poderá ajudar sua marca com criação de conteúdo sobre esse assunto.

Conte com a ajuda de especialistas
Se você não é especialista no assunto sobre o qual precisa escrever, busque pela parceria com um. Foto: Freepick


Os algoritmos funcionam de verdade para os usuários?

Afinal, na prática, todas essas atualizações no sistema de busca do Google funcionam para nós, meros usuários? Sim e não.

Para aqueles pesquisadores do Google constantes e mais antigos, pudemos perceber que muitas das atualizações realmente funcionaram. Desde o Panda, por exemplo, vimos desaparecerem sites que não agregavam nada às pesquisas de qualquer pessoa.

Entretanto, existe ainda muito conteúdo pesquisado que não conseguimos encontrar nos mecanismos de busca do Google. Ou simplesmente nos é mostrado como não existente ou nos são apresentados apenas alguns poucos resultados na página de busca, que não contêm informações que nos ajudem.

Se levarmos em conta os milhões de sites existentes, fica difícil entender como isso pode acontecer ainda hoje em dia. Minha explicação mais plausível? Os robozinhos do Google não indexam alguns conteúdos que seriam importantes para o usuário, mas que não se enquadram em todas as milhares de limitações impostas pelos algoritmos.

Talvez eu prefira, afinal de contas, me deparar com uma página péssima em experiência de uso, com fonte pequena e botões próximos do conteúdo dificultando o clique, mas que me entregue a informação que eu preciso. Pois nem todo mundo é um expert em desenvolvimento de códigos de sites, mas é especialista em determinado assunto e tem muito conhecimento para distribuir ao mundo.

Funcionamento do algoritmo no YouTube
Está na hora do próprio Google melhorar nossa experiência a respeito da margem de clique nos comentários do YouTube, por exemplo. Foto: Marketing de Fato

Além disso, é bastante comum nos depararmos com sites grandes e conhecidos, mas que apresentam anúncios cobrindo os textos (como não ficar brava com isso?!) e em quantidades absurdamente “incomodativas”. E estão lá: nas primeiras colocações nas SERPs Google.

Então, talvez os robôs ainda precisem mesmo destes aprendizados constantes feitos pelas equipes da plataforma. Especialmente aqueles que não priorizem os ganhos em Google Ads ao invés experiência do usuário.

No final de tudo isso, até que ponto a plataforma iria para proteger seus ganhos em detrimento da usabilidade dos sites pelos usuários?
Nunca saberemos.


Visto tudo isso, lembremos sempre que o consumidor, tanto do seu serviço e produto quanto do seu conteúdo, deve vir antes de qualquer robô de mecanismos de busca. Nossas criações são para o público, não para as máquinas.

Portanto, eu acredito que assim como no seu site, bem como na publicidade e no marketing de fato, o consumidor deve sempre ser o foco principal. As necessidades e os desejos dele devem vir em primeiro lugar. Sem isso, qualquer oferta, tanto uma venda quanto um conteúdo ligado a uma necessidade ou desejo, que poderia ser atraente, perde o seu motivo real de existência. Não pode e nem converterá como o esperado.

Então, aposte em um conteúdo exclusivo e personalizado. Não somente porque as mudanças no algoritmo do mecanismo de busca mais famoso do mundo pedem isso, mas porque você já entendeu que marketing tem de ser de verdade.


Falando em alterações do algoritmo do Google, fique por dentro de uma das alterações principais de 2023 nesse vídeo no canal Marketing de Fato no YouTube. E aproveite para se inscrever, caso ainda o não tenha feito, para acompanhar meu trabalho por lá também.

 

Deixe uma resposta

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.