We plaatsen een cookie voor Google Analytics om onze website te verbeteren

Met een cookie kun je advertenties personaliseren. Wij hanteren echter de strikte regels van de Autoriteit Persoonsgegevens. Surfgedrag houden we niet bij en we achtervolgen je ook niet met reclame.

Crawler traps: die moet je niet hebben!

Een trage website, een overbelaste server en een slechte indexering van Google: allemaal nare gevolgen van crawler traps die je zeker niet wilt hebben. In dit artikel leggen we je uit wat crawler traps zijn en hoe je ze tegengaat. Zeer belangrijk als je een goed presenteerde website wilt.  

Wat zijn crawler traps?

Waarom zijn crawler traps zo vervelend?

1. Een overbelaste server 
Door crawler traps ontvangt de server constant aanvraag van dezelfde of onnodige pagina’s, waardoor de server overbelast raakt. Dit kan een website vertragen en in extreme gevallen zelfs tot downtime leiden.  

2. Een slechte SEO-score 
Belangrijke pagina’s worden niet door zoekmachines geïndexeerd, doordat crawlers vastlopen in de ‘trap’. Denk nog eens aan Alex in de doolhof. Je algehele SEO-score kan hieronder lijden. Een echte boosdoener dus, soms zonder dat je het doorhebt.  

3. Blacklist 
Soms bevat een website dusdanig veel crawler traps, dat een zoekmachine de site op een blacklist zet. Je site wordt dan als spam beschouwd en volledig uitgesloten van zoekmachines.  
 
4. Slechte gebruikerservaring  
Veel gebruikers raken al gefrustreerd als een pagina niet binnen 2 seconden is geladen. Crawler traps zorgen voor trage laadtijden en/of oneindige scrollopties. Dit kan leiden tot hoge bouncerates en een negatieve ervaring.  

Hoe ontstaan crawler traps?

Crawler traps ontstaan op verschillende manieren. We noemen een aantal van de meest voorkomende oorzaken voor je op, zodat je hiermee aan de slag kunt.  
 
1. Dynamische URL’s  
Met dynamische URL’s kunnen er oneindig veel varianten ontstaan. Dit zijn vaak kleine variaties, bijvoorbeeld door filters in een webshop. Dan krijg je bijvoorbeeld: 

/producten/categorie=broeken&kleur=blauw 
/producten/categorie=broeken&kleur=blauw&sorteren=prijs 
/producten/categorie=broeken&kleur=blauw&sorteren=naam 
/producten/categorie=broeken&kleur=blauw&sorteren=collectie 

Je begrijpt ‘m inmiddels wel. Uiteindelijk zijn er zo’n duizenden combinaties die naar dezelfde pagina verwijzen. Toch worden al die pagina’s door een crawler als een aparte pagina gezien. 

2. Oneindig scrollen 
Sommige websites hebben kalenders of andere datumsystemen waarbij je eindeloos kunt doorscrollen. Denk aan evenementenoverzichten of foto-archieven. Dan krijg je het volgende effect: 

/evenementen/agenda/2024/9 
/evenementen/agenda/2024/10 
/evenementen/agenda/2024/11 
... 
/evenementen/agenda/3024/12 

Vaak gaan robots kijken op datums ver in de toekomst of ver in het verleden. Robot Alex raakt daarvan in de war. Niet best, dus.  

3. Session ID’s in URL 
Er worden wel eens session ID’s op websites gebruikt. Deze session ID’s worden aan een URL toegevoegd, zodat, zonder cookies, alle stappen van een gebruiker op een website worden bijgehouden. Zo kan een bezoeker worden herkend bij elke klik. Als je een webshop hebt, kun je op deze manier bijhouden of iemand iets in het winkelwagentje heeft gedaan, en je marketingmails daarop aanpassen. Klinkt dus heel handig, maar het is tegelijkertijd gevoelig voor crawler traps. Je hebt dan wederom vele URL’s, die allemaal naar dezelfde pagina leiden.  

/webshop/kaarsen/sessionid=56788hdskf 
/webshop/kaarsen/sessionid=bfhdh291 
/webshop/kaarsen/sessionid=hd926djs 

4. Incorrecte redirects 
Het gebeurt wel eens dat een redirect niet goed wordt ingesteld, waardoor pagina A verwijst naar pagina B, en pagina B weer verwijst naar pagina A. Een beetje te vergelijken met als je vroeger iets aan je vader vroeg, en hij je dan naar je moeder stuurde. En je moeder dan weer ‘vraag maar aan pa’ zei. Robot Alex wordt dus van het kastje naar de muur gestuurd, en dat frustreert hem nog al.  

5. Oneindige links. 
Een onjuiste instelling in de code van links op de website kan ervoor zorgen dat Alex niet snapt dat het slechts om 1 pagina gaat.  Door te linken naar contact in plaats van /contact denkt ons robotje dat de link continu kan worden gevolgd. 

<a href="contact">Contact</a> 
 
https://www.voorbeeld.nl/contact  
https://www.voorbeeld.nl/contact/contact 
https://www.voorbeeld.nl/contact/contact/contact

Hoe voorkom ik crawler traps?

Crawler traps voorkomen, kan lastig zijn. Gelukkig zijn er methodes en tools die je kunnen helpen.  
 
1. Google Search Console  
In Google Search Console heb je een optie om crawlstatistieken te bekijken. Zo kun je zien of Google vaak vastloopt bij het crawlen op jouw website. Als er veel zogeheten ‘crawl errors’ zijn, gaat er iets mis.  
 
2. Plugins  
Er zijn verschillende SEO-plugins die je helpen om crawler traps te voorkomen. Deze plugins helpen je op pagina’s met specifieke URL-parameters uit te sluiten van crawlen, zoals pagina’s met session ID’s of categorieënpagina’s. Voorbeelden van zulke plugins zijn Rank Math en Yoast. Met deze plugins kun je ervoor zorgen dat bepaalde delen van je website niet worden geïndexeerd. 

3. Robots.txt en Noindex Tags 
Een andere simpele manier om crawler traps tegen te gaan, is robots.txt-bestanden en noindex-tags. Met robots.txt kun je zoekmachines verzoeken om bepaalde pagina’s niet te crawlen, zoals zoekresultaatpagina’s met veel parameters. Met noindex of nofollow tags, laat je zoekmachines weten dat bepaalde pagina’s niet geïndexeerd moeten worden, of dat links op deze pagina’s niet gevolgd hoeven te worden. 

Tot slot

Je weet nu wat crawler traps zijn en hoe je ze kunt tegengaan. Kom je er niet uit? Geen probleem! Het is ook ingewikkeld. Neem gerust contact op met support voor advies. We helpen je graag op weg.   

Deel dit blog
Antagonist
Antagonist

De vertrouwde thuisbasis voor meer dan 100.000 websites. Eenvoud, kwaliteit en service. Complete webhosting, waarin je alles vindt voor de start van jouw online succes!

Artikelen: 56

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Sterren Webhosting: 5 sterren uit 5.830 reviews

60.000+ webhostingpakketten actief
Bij de beste webhosters in MT1000 en Emerce 100