SEO best practices: websitefilters

8 augustus 2018

Om gebruikers op een website makkelijker te laten vinden wat ze zoeken, wordt er regelmatig gebruik gemaakt van filters. Filters kunnen echter wat addertjes onder het gras met zich meebrengen op het gebied van SEO. Het is daarom zaak rekening te houden met een aantal belangrijke aandachtspunten als het gaat om het gebruik van filters.

Waarom een filter gebruiken?

Wil je het een bezoeker op je website makkelijker maken om te vinden wat hij of zij zoekt, dan kun je gebruik maken van filters. Filters bieden bezoekers een optie om te filteren op een specifiek aspect van de gewenste producten of diensten. Binnen de e-commerce zien we veelal filters op bijvoorbeeld een kleur, merk, maat, type of prijs. De filter voegt zo extra waarde toe aan je categorie en zorgt ervoor dat een bezoeker sneller over zal gaan tot een aankoop.

Het gebruik van filters wordt meestal vormgegeven door een parameter in de URL. Dit kan er als volgt uitzien:

https://www.example.com/schoenen/?kleur=bruin

In het bovenstaande voorbeeld filter je binnen de categorie schoenen op de kleur bruin. De bovenstaande URL toont middels de parameter (?kleur=) dezelfde content als op https://www.example.com/schoenen/ zou staan. Hier krijgen we dus duplicate content waar dit niet gewenst is. In veel gevallen wordt de parameter daarom geblokkeerd in de robots.txt omdat deze niet relevant is voor de Google index. Googlebot zal deze URL dan niet kunnen crawlen en zal de URL ook niet in haar index tonen. Er zijn echter meerdere manieren om filters toe te passen en wel relevant te maken voor de Google index.

In de robots.txt blokkeer je de parameter voor alle bots/spiders op de volgende manier:

# Crawlers Setup

User-agent: *

# Paths (no clean URLs)

Disallow: /*?kleur=

Disallow: /*&kleur=

Filters volgbaar maken

Waarom zou je een filter toch volgbaar willen maken? Er zijn filters die een zoekwoordencombinatie vormen waar wel degelijk zoekvolume op zit. In dat geval kan je er voor kiezen om de filter volgbaar te maken en de gefilterde pagina te voorzien van unieke content. In het voorgaande voorbeeld ontstaat er een combinatie van zoekwoorden die ‘bruine schoenen’ vormt. Als blijkt dat hier veel zoekvolume op zit, zou je deze filter volgbaar kunnen maken. De gefilterde URL zal dan niet middels een parameter gevormd worden maar ziet er als volgt uit:

https://www.example.com/schoenen/bruin/

Op deze pagina kan er dan content worden toegevoegd die gericht is op het zoekwoord ‘bruine schoenen’. De gefilterde URL moet dan niet geblokkeerd worden in de robots.txt maar juist zo ingericht te worden dat deze ook in de Google index zal worden opgenomen. Hiervoor dient deze pagina over een zelfverwijzende canonical-tag te beschikken en dienen de meta robots op INDEX/FOLLOW te staan ingesteld.

Filters negatief voor SEO?

Te veel volgbare filters kunnen ervoor zorgen dat er honderden of duizenden pagina’s geïndexeerd mogen worden. Het voorkomen van oneindig veel combinaties is dus erg belangrijk om de filters positief in plaats van negatief te laten uitpakken voor je SEO.

Het maken van ontzettend veel combinaties kan leiden tot een explosie van URL’s die de Googlebot dient te crawlen en indexeren. Dit gaat ten koste van het crawlbudget dat Googlebot voor je website heeft weggelegd. Met zo veel te crawlen en indexeren pagina’s kan het zijn dat de Googlebot door haar crawlbudget heen is voordat het de belangrijkste URL’s heeft kunnen beoordelen. Hoe meer onbelangrijke pagina’s Googlebot moet crawlen en indexeren, des te meer dit ten koste kan gaan van je belangrijkste pagina’s. Enkele filters dienen dus te worden uitgesloten van indexatie.

Filters uitsluiten van indexatie

Het uitsluiten van indexatie voor filters kan op verschillende manieren. De onderstaande lichten we per onderdeel toe. Het gaat om de volgende vormen van uitsluiten:

  1. Canonical-tags
  2. Txt
  3. Noindex, follow/nofollow

1.     Uitsluiten met canonical-tags

Een canonical-tag is een HTML-attribuut die aangeeft van welke originele pagina de huidige pagina afkomstig is. Met een rel=canonical geef je simpelweg aan wat de originele pagina is. De canonical-tag geeft binnen gefilterde pagina’s, die over dezelfde content beschikken als de categoriepagina, aan dat de content gekopieerd is en de filter puur een functie voor de gebruiker is. Google zal de canonical-tag herkennen en de waarde van de gefilterde pagina herleiden naar de oorspronkelijke pagina. Een canonical-tag voor een gefilterde pagina kan er als volgt uitzien op https://www.example.com/schoenen/?kleur=bruin:

<link rel=”canonical” href=” https://www.example.com/schoenen/” />

Met de bovenstaande canonical-tag geef je aan dat de pagina https://www.example.com/schoenen/?kleur=bruin een kopie is van de oorspronkelijke pagina, namelijk https://www.example.com/schoenen/.

Nadelen:

Google kan er voor kiezen om de canonical-tag te negeren. De canonical-tag is namelijk een aanbeveling en geen harde regel.

Bron

2.     Robots.txt

De robots.txt is een bestand waarin delen van de website, bots of spiders (user agents) geblokkeerd kunnen worden. Zo kun je aangeven welke bots en spiders welke delen van de website wel of niet mogen crawlen. Met dit bestand kun je het crawlbudget efficiënter verdelen.

Een filter kun je binnen de robots.txt blokkeren voor bots en spiders om deze te crawlen. Hierdoor zal een zoekmachine deze filter ook niet zo snel opnemen in haar index. Het blokkeren van delen van je website is wel erg foutgevoelig, hierdoor wordt deze methode niet veel meer gebruikt.

Nadelen:

Met een robots.txt bestand geef je veel informatie weg over je website. Daarnaast beïnvloedt het bestand alleen de crawling en niet de indexatie. Daarnaast is deze methode erg foutgevoelig.

3.     Noindex, follow/nofollow

Gefilterde pagina’s kunnen ook uitgesloten worden van de Google index door de meta robots tags. Zo kan je de meta robots tag voor een gefilterde pagina zetten op noindex, nofollow of op noindex. In beide gevallen wordt de gefilterde URL uitgesloten van de index. Het verschil tussen de follow of nofollow-tag hangt van de gelinkte pagina’s. Als je wil dat Googlebot de interne linkstructuur op deze pagina’s volgt, kies je voor een follow-tag. Zo niet, dan kies je voor de nofollow-tag.

Nadelen:

Bij een nofollow-tag wordt er geen linkwaarde doorgegeven aan gekoppelde pagina’s. De kans op fouten is erg groot en deze kunnen grote gevolgen hebben voor je organische positie.

Welke filter kies je?

Om te bepalen welke filters je wel wilt volgen en welke niet, zijn er twee belangrijke stappen te ondernemen alvorens je filters kan toepassen:

  1. In kaart brengen welke filters je volgbaar wil maken
  2. In kaart brengen of het CMS dit toelaat en met de webbouwer overleggen welke stappen hiervoor te ondernemen

Gebruik geen combinatie van uitsluitingen

Het uitsluiten van filters kan grote gevolgen hebben voor gekoppelde pagina’s. Het is dus zaak dat het uitsluiten zeer zorgvuldig geïmplementeerd wordt. Hieronder één van de don’ts voor het uitsluiten van filters.

Don’ts

Combineer noindex met een canonical-tag naar de ‘schone’ URL

Deze combi geeft eigenlijk aan dat een gefilterde pagina niet relevant is voor de Google index. Met de canonical-tag verwijs je terug naar de ‘schone’ categorie. Google ziet de pagina’s namelijk als gelijk en zal de categorie dan ook niet relevant vinden. Kies er dus één, niet twee.

Meer weten over filters?

Neem dan contact met ons op. We praten je graag bij over de laatste ontwikkelingen in SEO.

Plaats een Reactie

We are part of Happy Horizon