Skip links

Googlebot

« Back to Glossary Index

Wat is de Googlebot?

Googlebot is de naam die wordt gegeven aan de webcrawlers van Google die informatie verzamelen voor verschillende Google-services, waaronder hun zoekindex. Het heeft twee hoofdversies: Googlebot Desktop en Googlebot Smartphone. Met de mobile-first indexering werd Googlebot Smartphone de primaire crawler die de zoekindex van Google aandrijft.

Dus, hoe werkt Googlebot?

Googlebot crawlt voortdurend het web om nieuwe pagina’s te ontdekken, verzendt de pagina’s voor verwerking om ze toe te voegen aan de zoekindex en crawlt pagina’s opnieuw om te zoeken naar nieuwe/bijgewerkte informatie. Tijdens dit proces volgt Googlebot strikt de regels in robots.txt bestanden en richtlijnen voor crawlers op pagina’s en links.

Waarom is de Googlebot belangrijk voor SEO?

Googlebot is een van de belangrijkste tools die de hele Google-zoekmachine aandrijven. Zonder dat zou de hele zoekopdracht (en dus SEO) niet bestaan. Als Googlebot een website niet crawlt, wordt deze niet geïndexeerd en zichtbaar in de resultaten. SEO-professionals en webmasters moeten dus begrijpen hoe Googlebot werkt. Bovendien is het belangrijk om ervoor te zorgen dat de crawler de site op de juiste manier opent zonder problemen met de crawlbaarheid of vindbaarheid. Praktische tips voor een crawlvriendelijke websiteAls u wilt dat Googlebot uw website correct crawlt en de pagina’s geïndexeerd krijgt, moet u ervoor zorgen dat bepaalde dingen op hun plaats zijn. Omdat het geen eenmalige gebeurtenis is, vindt u hieronder enkele van de best practices die u regelmatig moet volgen om een crawlvriendelijke website te onderhouden.

1. Controleer uw robots.txt bestand

Met het Robots.txt bestand op de website kunt u bepalen wat er wordt gecrawld. Het communiceert met bots met behulp van crawlerrichtlijnen. U moet ervoor zorgen dat uw robots.txt bestand Googlebot niet toestaat om de pagina’s/gedeelten van uw website te crawlen die u wilt indexeren. Zoek vervolgens naar eventuele fouten in het bestand met behulp van robots.txt testtools. U moet ervoor zorgen dat de robots.txt toegankelijk is voor Googlebot, d.w.z. dat deze niet wordt geblokkeerd op serverniveau.

2. Verzend de sitemap

Het verzenden van sitemaps is de eenvoudigste manier om Google te laten weten welke pagina’s u wilt crawlen en indexeren. Het maken van sitemaps is niet lastig als u een populaire SEO-plug-in op WordPress gebruikt, zoals Yoast of Rank math. Ze maken automatisch sitemaps voor u, die u kunt indienen. De gegenereerde URL ziet er als volgt uit: yourdomainname.com/sitemap_index.htmlTo handmatig een sitemap-URL indient, moet u Google Search Console bezoeken en op ‘Sitemaps’ klikken onder het gedeelte ‘Index’ in het hoofdmenu.

3. Gebruik de crawlerrichtlijnen verstandig

Zoals het robots.txt bestand zijn er richtlijnen op paginaniveau die crawlers laten weten welke pagina’s wel (of niet) mogen worden gecrawld. U moet er dus voor zorgen dat de pagina’s die u wilt laten indexeren geen “noindex” -instructie hebben. Zorg er ook voor dat ze geen “nofollow” -richtlijn hebben als u wilt dat hun uitgaande links ook worden gecrawld.

4. Zorg voor interne links tussen pagina’s

Een andere eenvoudige manier om een pagina sneller te laten indexeren, is door deze te koppelen aan een andere pagina die al is geïndexeerd. Aangezien Googlebot pagina’s opnieuw crawlt, wordt de interne link gevonden en snel gecrawld. Afgezien van crawlen, geeft interne links het zogenaamde “link juice” door aan de pagina’s, waardoor hun PageRank toeneemt.





This website uses cookies to improve your web experience.