Deze week publiceerde Rand Fishkin, eigenaar van SparkToro en oprichter van Moz, een artikel dat de SEO-wereld flink heeft opgeschud. Via een anoniem contactpersoon heeft hij een enorme hoeveelheid interne documentatie van Google in handen gekregen vol met – zo lijkt het – ranking factoren die worden gebruikt door het Search-team van Google. De gelekte documenten bevestigen veel dingen die door SEO-specialisten al lang werden vermoed, en laten ook zien dat prominente Googlers over bepaalde zaken jarenlang hebben gelogen tegenover de SEO-community. De meest interessante bevindingen hebben we in deze blog voor je samengevat.
Voordat we in alle nieuwe informatie gaan duiken is het goed om even kort uit te leggen om wat voor lek het gaat. De documentatie omvat meer dan 2.500 pagina's uit Google's interne 'Content API Warehouse' met daarin meer dan 14.000 attributen. Wat het vooral laat zien is wat voor informatie Google allemaal verzamelt van webpagina's en uit het klikgedrag van zoekers. Hierdoor biedt het een uniek inkijkje in factoren die Google belangrijk lijkt te vinden bij het opstellen van haar zoekresultaten. De lek is één van de grootste ooit vanuit Google Search en is inmiddels door Google ook bestempeld als authentiek.
Benieuwd hoe jouw website beter vindbaar kan worden? Vraag een gratis groeiscan aan.
De belangrijkste vraag is nu natuurlijk: wat kunnen we van de documentatie leren? En staan er dingen in die ons anders naar onze SEO-werkwijze doen kijken? Hieronder vind je de belangrijkste bevindingen.
Ondanks wat Google al die jaren zelf heeft beweerd, lijkt het wel degelijk klikgedrag te analyseren en te gebruiken bij het opstellen van de zoekresultaten. Dankzij de antitrust rechtszaak die het Amerikaanse ministerie van justitie een tijdje geleden tegen Google aanspande wisten we dit eigenlijk al, maar de gelekte documenten lijken het ook daadwerkelijk te bevestigen.
Waar het op neerkomt is dat Google klikgedrag naar en op je website analyseert en meeweegt in haar algoritme. Met behulp van een systeem genaamd Navboost wordt onder andere beoordeeld of een klik kwalitatief is, bijvoorbeeld door te kijken naar hoe lang iemand je website bezoekt nadat hij ernaartoe heeft geklikt. Goed inspelen op de juiste zoekintentie en een duidelijke navigatie op je website is dus essentieel.
Uit de documenten blijkt ook dat Google hiervoor informatie gebruikt die het vanuit haar browser Chrome verzamelt. Zo lijkt het aantal interne klikken op pagina's bepalend voor het bepalen van sitelinks.
Op het gebied van content zijn er meerdere interessante conclusies te trekken. Zo is het als SEO-specialist soms fijn om bevestigd te zien dat bepaalde 'klassieke' rankingfactoren nog steeds belangrijk zijn. Als het gaat om je page titles kijkt Google namelijk of deze overeenkomen met de zoekopdracht van een zoeker. Wij blijven de belangrijkste keywords dus vooraan zetten.
Daarnaast lijkt Google te houden van 'frisse' content. Om de zoekresultaten zoveel mogelijk up-to-date te houden beoordelen ze zorgvuldig de datum waarop bepaalde content is gepubliceerd.
Zoals we allemaal wel weten is het met hele korte content een stuk lastiger ranken dan normaal. Toch is het zeker niet onmogelijk: Google lijkt hierbij te kijken naar hoe origineel deze content is.
Tot slot nog iets onverwachts: Google analyseert de fontgrootte van je content. Het dikgedrukt maken van je belangrijkste zoekwoorden lijkt dus ineens niet meer zo'n gedateerde SEO-techniek.
De meeste marketeers gebruiken voor het bepalen van de autoriteit van een website een metric als Domain Authority van Moz of Domain Rating van Ahrefs. Google heeft zelf altijd ontkend zoiets te gebruiken in haar algoritme, maar de gelekte documentatie suggereert het tegenovergestelde. Hoe het precies werkt weten we uiteraard niet, maar Google lijkt een attribuut te gebruiken genaamd 'siteAuthority.'
Wat verder nog opvalt qua backlinks: Google gebruikt een soort systeem om links te classificeren. Als SEO-specialisten zeggen we altijd dat niet elke link evenveel waard is en dat lijkt dus ook echt zo te zijn. Ook hier wordt klikgedrag voor gebruikt: links op pagina's met veel klikken worden in een hogere 'klasse' geplaatst. Hetzelfde geldt voor links op pagina's met 'fresh' content.
Eén van de bevindingen van Rand Fishkin is dat E-E-A-T wellicht toch niet zo'n belangrijke ranking factor is als we de laatste jaren met zijn allen zijn gaan denken. In de documentatie wordt er namelijk maar relatief weinig over gesproken. Wel is het zo dat Google de auteurs van content nauwkeurig registreert
Daarnaast wordt zogenaamde Your Money Your Life-content (gevoelige onderwerpen uit bijvoorbeeld de financiële en medische sector) anders beoordeeld dan reguliere content. Sterker nog, de documentatie laat zien Google tijdens evenementen als de coronacrisis en belangrijke verkiezingen whitelists heeft gebruikt om bepaalde betrouwbare websites handmatig een boost te geven.
Een ander interessante conclusie uit de documentatie is dat Google verschillende algoritmische degradaties gebruikt. Voldoet je pagina aan één van de onderstaande attributen, dan lijkt dat dus slecht voor je vindbaarheid te zijn:
Een laatste interessant punt is dat Google's algoritme het moeilijk maakt voor nieuwe websites om goed te ranken. In de SEO-wereld wordt bijvoorbeeld al lang gesproken over de zogenaamde 'sandbox.' Google zou nieuwe websites hier een bepaalde periode in plaatsen, wat ervoor zorgt dat ze niet goed kunnen ranken. Google heeft het bestaan van een sandbox altijd ontkend, maar de documentatie suggereert dat er wel degelijk iets dergelijks wordt gebruikt. Ook is er een classifier voor 'kleine persoonlijke websites.' Het lijkt er dus op dat het ook voor dit soort websites lastiger is om goed te ranken.
Hoe interessant al het bovenstaande ook is, het is wel nodig om er een aantal kanttekeningen bij te zetten. We weten nu een stuk meer over wat voor data Google verzamelt en welke factoren ze belangrijk lijken te vinden, maar de documentatie vertelt ons niks over in hoeverre ieder punt meeweegt in het totaal. We hebben dus geen idee hoe belangrijk ieder attribuut is ten opzichte van de rest. Bovendien is het onmogelijk om te verifiëren of alle attributen ook daadwerkelijk in het algoritme wordt gebruikt.
https://ipullrank.com/google-algo-leak