Helias Marketing

url parameters

URL Parameters[SEO Gids]

url parameters seo

Op een SEO-vriendelijke manier omgaan met URL parameters

URL parameters, perfect voor het tracken van data en het toevoegen van extra functionaliteit aan je website, maar rampzalig ten opzichte van zoekmachine optimalisatie.

In deze gids vind je hoe je op een SEO-vriendelijke manier kunt omgaan met de URL parameters van je website.

SEO checklist 2021 tips

Wat zijn URL parameters?

URL-parameters (ook wel “querystrings” genoemd) zijn een toevoeging aan een URL om de inhoud op een webpagina te sorteren en specifiek te maken, en worden daarnaast ingezet om data bij te houden zoals bijvoorbeeld websiteverkeer.

De paramaters worden aan het einde van een URL toegevoegd, en bestaan uit een ‘key’ en een waarde’. De parameters dienen als een soort variabelen van een URL en worden ingeleid door een vraagteken.

parameters seo

URL Variabelen

URL staat voor Uniform Resource Locator en dient als een adres/locatie voor een web document.
Het webadres bestaat uit verschillende delen:

  • Protocol: het systeem dat wordt gebruikt om tekst en informatie over het web te verzenden. HTTP (hypertext transfer protocol) and HTTPS (HTTP secure).
  • Domeinnaam: de naam van de website zoals: Facebook, Wikipedia, Youtube, Marktplaats
  • Top level domain (TLD): De classificatie van de domeinnaam, vaak gerelateerd aan de geografische locatie zoals: .nl of .com
  • Path: geeft de specifieke locatie op de website aan zoals bijvoorbeeld een subfolder,categorie, of landingspagina

Het ‘path’ van de URL zorgt er uiteindelijk voor dat we op de specifieke bestemmingspagina arriveren.

URL parameters worden toegevoegd achter het ‘path’ van een URL, altijd startend met een vraagteken, en dienen als verschillende versies of variabelen van een specifieke URL.

Voorbeelden van URL parameters

URL parameters zorgen voor een minimale of zelfs helemaal geen wijzigingen aan de inhoud van de pagina, maar bieden de mogelijkheid om verschillende versies van een pagina te weergeven, zonder hiervoor verschillende URLs te hanteren.

De parameters zijn een soort variabelen van een URL. Denk bijvoorbeeld aan:

  • Verschillende soorten kleuren/maten/gewicht van producten in een e-commerce store
  • Pagination door comments op een blog pagina
  • UTM’s voor het tracken van data zoals een affiliate link bijvoorbeeld.

Stel je bezit een E-commerce store die T-shirts verkoopt in 6 verschillende kleuren.

In plaats van 6 verschillende URLs om de verschillende kleuren aan te duiden, worden er parameters aan de URL toegevoegd, waardoor de verschillende kleuren alsnog van elkaar worden onderscheiden.

Voorbeelden van de meest gebruikte URL parameters zijn:

  • Tracking:  ?utm_source=google, ?sessionid=abc
  • Product filter:  ?type=shirt, colour=red or ?price-range=10-50
  • Identificeren: ?product=large-red-shirt, categoryid=7382 or itemid=109
  • Pagination  ?page=8, ?p=6 or viewItems=10-60

De SEO Risico's van URL parameters

  • Verspillen crawl-budget
  • Duplicate content
  • Keyword cannibalization

In de meeste gevallen zorgen URL parameters nauwelijks of zelfs helemaal niet, voor veranderingen op de desbetreffende webpagina. Denk bijvoorbeeld aan een pagina met een tracking code, die wordt ingezet om data te verzamelen, over het gedrag van een bezoeker op je webpagina.

Bij iedere websitebezoeker worden automatisch unieke parameters gegenereerd waarbij de waarde steeds veranderd.

Voorbeeld:

Bezoeker 1: utm_source=google, ?sessionid=1

Bezoeker 2: utm_source=google, ?sessionid=2

Bezoeker 3: utm_source=google, ?sessionid=3

De URL parameters zorgen dan ook al snel voor een enorm aantal verschillende URLs, met ieder exact dezelfde inhoud.

Niet alleen zit je binnen de kortste keren op een gigantisch aantal verschillende URLs, waardoor je crawl-budget aan het verspillen bent, en zorg je daarnaast ook nog eens voor het overbelasten van de server, maar deze verschillende URL parameters worden ook nog eens door Google beschouwd als duplicate content en ze zorgen voor keyword cannibalization.

Want aangezien Google deze verschillende url parameters beschouwd als unieke pagina’s, die allemaal over identieke of vrijwel identieke content beschikken(duplicate content), en tegelijkertijd dezelfde keywords centraal hebben staan op de pagina, weet Google niet goed welke pagina moet worden weergeven in de zoekresultaten pagina’s, waardoor ze elkaar tegenwerken.

Daarnaast beschikken URL parameters over een minder aansprekende URL, sterker nog, het ziet eruit als spam en onbetrouwbaar, waardoor het ten koste gaat van de click through rate.

Kortom: Wanneer we geen technische SEO toepassingen verrichten, zullen URL parameters een enorm negatieve SEO-impact met zich mee brengen, en zullen ze de posities in de zoekmachines nadelig beïnvloeden.

Technische SEO oplossingen voor parameters

Gelukkig kun je er met een aantal technische SEO oplossingen voor zorgen dat de verschillende URL parameters op je website, geen negatieve invloed hebben op je rankings in Google.

Allereerst is het belangrijk om te weten welke verschillende URL parameters er op de website aanwezig zijn, creëer desnoods een compleet overzicht van de verschillende parameters zodat het duidelijk is waar je op moet letten.

Maar hoe vinden we deze parameters eenvoudig?

Screaming Frog Crawler

Met de veelzijdige SEO-tool: screaming frog, kun je een website-crawl starten, en vervolgens alle URLs op je website, inclusief de parameters terugvinden.

 

screaming frog

Log Files Analyse

Het analyseren van de log files heeft als doel om het gedrag van crawlers zoals bijvoorbeeld de Googlebot, op je website te bestuderen, en indien nodig de instructies voor deze crawlers aan te passen, om betere SEO resultaten te behalen.

In dit geval analyseer je de log files specifiek om te kijken of de Googlebot ook URLs met parameters crawl, en welke dat dan zijn.

Om eenvoudig de log files van je website te analyseren, kun je gebruik maken van de SEO-tool die Semrush hiervoor ter beschikking stelt.

Log Files ophalen

Voor je gebruik kunt maken van de log files analyzer, moeten deze bestanden eerst worden verzameld en opgeslagen.

Log Files worden opgeslagen op een webserver, en je hebt dan ook toegang nodig tot de server.

  • Dit kan via het controlepaneel van je hostingprovider. Sommige hostingplatforms beschikken over een ingebouwde bestandsbeheerder. Zoek naar: ‘bestandsbeheer’
  • FTP gebruiken: Open een FTP-client, stel een nieuwe verbinding met de server in en autoriseer vervolgens met je naam en login. Nadat je een map met de serverbestanden hebt ingevoerd, kun je de log files verkrijgen.

Dit zijn de drie meest populaire typen HTTP-servers en locaties waar log files te vinden zijn:

Apache: /var/log/access_log
Nginx: logs/access.log
Windows: C:\Windows\System32\LogFiles

Canonical Tag

Nu je op de hoogte bent van de aanwezige URLs met parameters, en weet of de Googlebot deze URLs wel of niet meeneemt tijdens het crawl-proces, kun je op zoek gaan naar de geschikte oplossing om ervoor te zorgen dat deze URLs geen negatieve impact hebben op je SEO.

Om duplicate content en keyword cannibalization tegen te gaan, kan een canonical-tag worden toegevoegd aan de broncode van een webpagina.

canonical url tag

Deze canonieke-tag verwijst naar de voorkeurs-url wanneer identieke of vrijwel identieke pagina’s op je website zorgen voor verwarring bij de zoekmachines tijdens het rangschikken, en waardoor je op een SEO-vriendelijke manier complicaties omtrent duplicate content voorkomt.

De canonical-tag is echter minder geschikt bij bijvoorbeeld pagination parameters waarbij de inhoud van de verschillende URL-parameters teveel verschilt om als dubbele content te worden gerekend, gezien de verschillende aanwezige comments op de webpagina.

Pas deze methode dan ook enkel toe wanneer er sprake is van dubbele content.

 

Je kunt zowel een zelf-verwijzende canonical-tag aanbrengen op de desbetreffende pagina zelf, en daarnaast een verwijzende canonieke-tag aanbrengen op de webpagina met dubbele inhoud.

Meta Robots Noindex Tag

Door een meta robots noindex tag toe te voegen aan iedere URL met parameters die zorgt voor SEO-complicaties, worden deze URLs uitgesloten van indexering, en door Google eveneens minder vaak gecrawld.

Deze technische SEO techniek werkt uitstekend tegen duplicate content, maar zal de pagina niet weerhouden van crawlen, waardoor er alsnog crawl-budget verloren gaat, en/of servers onnodig belast kunnen worden.

meta robots

Robots.txt-bestand

In het robots.txt-bestand, wat zich bevindt in de hoofdmap van je website, kun je instructies toevoegen hoe crawlers pagina’s of delen van je website, moeten crawlen.

Door het vraagteken toe te voegen achter de ‘Disallow’ functie, sluit je iedere URL die een vraagteken bevat, uit van crawlen. Het vraagteken is de inleiding voor een URL parameter.

robots txt bestanden

Het voordeel van deze methode is dat je crawl-budget goed wordt besteed, dat duplicate content wordt opgelost, en dat deze functie geschikt is voor alle typen URL-parameters.

Het enige nadeel is echter dat de verschillende parameter URLs nog altijd kunnen worden geïndexeerd, en dus ook nog altijd keyword cannibalization kunnen veroorzaken.

Geef een reactie