Helias Marketing

Technische SEO

Technische SEO [Complete Gids]

technische seo

Technische SEO Strategie 2021

De techniek van een website is één van de fundamenten binnen zoekmachine optimalisatie.

Al heb je de beste content en de meeste backlinks, als de techniek van je website niet in orde is zal je niet ranken in de zoekmachines.

In deze complete technische SEO gids leer je stap voor stap hoe je de techniek van je website optimaliseert, voor de ultieme toename van je organische bezoekers!

Wat is technische SEO?

Technische SEO is het proces waarbij de techniek van een website wordt geoptimaliseerd, zodat zoekmachines webpagina’s kunnen crawlen, indexeren, renderen, en interpreteren.

Het doel van technische SEO is om de vindbaarheid van je website te verbeteren in zoekmachines zoals Google, zodat je meer organische bezoekers op je website ontvangt.

Waarom is technische SEO belangrijk?

Technische SEO is een fundamenteel onderdeel binnen zoekmachine optimalisatie, omdat de techniek van een website de posities in de zoekmachines beïnvloedt.

Een website met kritische technische fouten zal zelfs met de meest perfecte content en een uitstekende off-page SEO, geen resultaten behalen in de zoekmachines.

Het is dan ook cruciaal om de techniek van een website te optimaliseren voor hogere posities in de zoekmachines.

website techniek

Website Techniek

In dit hoofdstuk vind je de basis-elementen van de techniek van een website, die belangrijk zijn om te weten wanneer je bezig bent met SEO.

Hoe werken websites?

Voor we starten met de inhoud van technische SEO, is het allereerst belangrijk om de basis te kennen van hoe de techniek van een website nu precies werkt.

Het critical rendering path, ofwel het proces dat plaats vindt vanaf het moment dat een gebruiker een URL invoert in de browser tot dat de website op het beeld van de gebruiker verschijnt, heeft effect op de page loading speed ofwel de laadtijd van je webpagina, en het correct inladen van HTML, CSS en JavaScript bestanden.

Het proces speelt dan ook een prominente rol in technische SEO en heeft effect op je posities in de zoekmachines.

De samenstelling van een website

Een website wordt samengesteld vanuit verschillende programmeertalen(code), waarvan de 3 meest voorkomende zijn:

  • HTML: geeft de structuur van een webpagina aan. De HTML-code beschrijft waaruit een pagina is opgebouwd, zoals kopteksten, afbeeldingen, links
  • CSS: verzorgt het uiterlijk van de website, zoals bijvoorbeeld het lettertype, dikgedrukte of juist onderstreepte tekst, de kleur van de achtergrond.
  • JavaScript: voegt functionaliteit toe aan de website, het zorgt ervoor dat actie kan worden ondernomen op een webpagina. Denk bijvoorbeeld aan een zoekfunctie of een contactformulier.

Domein Naam Servers (DNS)

Domein Naam Servers (DNS) helpen het internet om webadressen zoals heliasmarketing.com te begrijpen. Het internet gebruikt namelijk een serie van getallen om webadressen van elkaar te onderscheiden. Deze getallen staan beter bekend als Internet Protocol Adressen(IP).

seo sitecheckup

Critical Rendering Path

Omdat webadressen de gebruiker meer inzicht geven over de inhoud van de webpagina en omdat ze eenvoudiger te onthouden zijn dan een adres bestaande uit getallen, gebruiken we DNS om deze getallen om te zetten in leesbare namen.

Het proces dat plaats vind vanaf het moment dat een gebruiker een webadres invoert in de browser, of wanneer gebruik wordt gemaakt van een link om naar een andere pagina te navigeren, bestaat uit 6 stappen

  1. User requests domain: De webpagina wordt opgevraagd door de gebruiker. Dit kan door het webadres in te voeren in de browser, of door online op een link te klikken die navigeert naar het webadres.
  2. Browser Request:  De browser verzoekt de server om de code te sturen waarmee de webpagina is opgebouwd, zoals HTML, CSS en JavaScript.
  3. Server stuurt de bestanden: Zodra de server het verzoek voor de website heeft ontvangen, worden de bestanden verzonden, en moeten ze vervolgens in de browser worden samengesteld. 
  4. Browser voegt de bestanden van de webpagina samen:
    De browser heeft de bestanden ontvangen en voegt deze nu samen, zodat de gebruiker deze in de browser kan zien. Terwijl de browser alle bestanden analyseert en vervolgens organiseert, wordt een Document Object Model (DOM) gemaakt.
  5. Laatste browser verzoeken: De browser toont alleen een webpagina nadat alle benodigde code van de pagina is gedownload, ontleed en uitgevoerd, dus als de browser op dit moment aanvullende code nodig heeft om uw website te tonen, zal een laatste verzoek aan de server worden gedaan.
  6. Website verschijnt in browser: Nadat alle bestanden gereed zijn wordt de website in de browser van de gebruiker weergeven.

Wat is de DOM?

De DOM is een object-georiënteerde weergave van een webpagina, die wordt opgemaakt nadat de browser alle bestanden heeft ontvangen van de server. 

Voorkom het uitsluiten van CSS- en JavaScript-bestanden om bijvoorbeeld crawlbudget te besparen, omdat dit ervoor zorgt dat zoekmachines je pagina’s onvoldoende kunnen begrijpen, wat nadelig is voor je SEO-prestaties.

document object model

Hoe werkt een browser request?

Wanneer je browser toegang vraagt tot een webpagina, stuurt het een verzoek naar de server. Dit verzoek wordt vervolgens beantwoord door de server met 3 verschillende elementen:

  • HTTP Status Code: de status-code bestaande uit 3 cijfers.
  • HTTP Headers: deze headers informeren de webbrowser hoe te handelen tijdens de interactie met de website.
  • HTTP Body: de body bestaande uit HTML, CSS en JavaScript wordt gebruikt om de pagina in je browser te weergeven.  

HTTP Status Code

HTTP-status-codes zijn driecijferige codes die een server op verzoek van een browser of een zoekmachine retourneert.

HTTP staat voor Hypertext Transfer Protocol.
Het is het protocol dat door zoekmachines,browsers en servers wordt gebruikt om te communiceren en om gegevens uit te wisselen. De HTTP status codes maken deel uit van het communicatieproces.

HTTP status codes bestaan uit 5 verschillende soorten met ieder meerdere varianten:

  • HTTP 1xx: de server heeft het verzoek begrepen en denkt na over het verzoek
  • HTTP 2xx: het verzoek is succesvol verlopen
  • HTTP 3xx: het verzoek is ontvangen, maar er is sprake van een redirect
  • HTTP 4xx: ongeldig verzoek, De pagina is niet gevonden, bijv. een verkeerde URL ingevoerd
  • HTTP 5xx: geldig verzoek dat niet kan worden beantwoord. Bijvoorbeeld door overbelasting van de server of de website die wegens onderhoud uit de lucht is.

De meest voorkomende status-codes in de wereld van SEO zijn:

  • 200: OK
  • 301: permanente redirect
  • 302: tijdelijke redirect
  • 404: Niet Gevonden
  • 410: Pagina verwijderd
  • 503: Service niet beschikbaar

HTTP Status Code 200

De ideale status code voor een goed functionerende pagina. Alles loopt perfect, bezoekers en crawlers kunnen de pagina doorlopen en linkwaarde wordt overgedragen.

HTTP Status Code 301

Een 301 redirect verwijst gebruikers door van URL A naar URL B. Het adres is dus gewijzigd, en je wordt doorverwezen naar een nieuw adres.

Het geeft aan zoekmachines aan dat het om een permanente verhuizing gaat.
301 redirects dragen ongeveer 95-99% van de linkwaarde over naar de nieuwe URL.

HTTP Status Code 302

302 redirects verwijzen de gebruiker eveneens door van URL A naar URL B, maar geven aan zoekmachines aan dat het hier gaat om een tijdelijke verhuizing. Dit kan betekenen dat er geen linkwaarde wordt overgedragen.

HTTP Status Code 404

De 404 status code geeft aan dat de pagina niet is gevonden. Het webadres is bijvoorbeeld verkeerd ingevoerd of de pagina bestaat niet.

HTTP Status Code 410

De pagina heeft wel bestaan, maar is door de website-eigenaar verwijderd zonder doorverwijzing naar een nieuwe URL. De pagina kan dus niet worden weergeven

Zoekmachines verwijderen de pagina’s met een 410 status code snel uit de index

HTTP Status Code 503

De HTTP status code 503 geeft aan dat de server tijdelijk niet beschikbaar is.
Dit kan komen door gepland onderhoud of wanneer de server overbelast is.

crawlen en indexeren

Crawlen, Indexeren en het oplossen van Crawl-Errors

In dit hoofdstuk gaan we dieper in op de technische leer van crawlen en indexeren en het oplossen van crawl fouten die de SEO van je website op een negatieve manier beïnvloeden.

Hoe werkt crawlen?

Zoekmachines crawlen miljarden webpagina’s per dag. Crawlers krijgen de instructie om zoveel mogelijk verschillende URLs te crawlen om nieuwe content op het internet te vinden.

Tijdens dit crawl-proces worden hyperlinks gebruikt om van pagina naar pagina(interne links) of van website naar website(externe links) te navigeren.

Het is dan ook belangrijk dat de pagina’s op je website goed vindbaar zijn voor zoekmachine crawlers.

  • Zorg dat je interne links aanbrengt naar iedere webpagina
  • Zorg dat iedere webpagina binnen maximaal 3 klikken bereikt kan worden vanuit je homepagina

Daarnaast kunnen zoekmachines je webpagina’s crawlen door een sitemap in te dienen. Dit is een speciaal document met een lijst van alle belangrijke webpagina’s die je opstelt voor zoekmachines.

In een sitemap voeg je dan ook enkel de webpagina’s toe die over voldoende kwaliteit beschikken om te worden geïndexeerd zodat ze kunnen worden vertoond in de zoekresultaten pagina’s van zoekmachines.

XML Sitemap

XML-sitemaps zijn erg handig voor zoekmachines, omdat het een overzicht biedt van alle
beschikbare webpagina’s. Zo kunnen zoekmachine-crawlers snel nieuwe inhoud op je website vinden.

  • Houd je sitemap up-to-date
  • Voeg enkel pagina’s toe die je wilt laten indexeren
  • Verwijs naar je sitemap vanuit je robots.txt-bestand
  • Voeg niet meer dan 50.000 URL’s toe aan een sitemap

XML Sitemap maken met SEO-Plugin

Als je gebruik maakt van een WordPress website dan kun je heel eenvoudig een XML sitemap aanmaken met Rank Math.

1 – Installeer de SEO plugin: Rank Math

plugin downloaden

2 – Open vervolgens het ‘Dashboard’ van de SEO plugin, en activeer je sitemap.

sitemap aanmaken

3 – Navigeer naar ‘Sitemap settings’ en kopieer de link van je Sitemap

rank math sitemap

4 – Voeg de link van je Sitemap toe in Google Search Console

sitemap toevoegen aan google search console

Robots.txt-bestand

Met een robots.txt-bestand kun je controle uit oefenen op het gedrag van zoekmachine-crawlers.
Het robots.txt-bestand bevat richtlijnen voor zoekmachines, zoals bijvoorbeeld welke delen van je website wel en niet gecrawld moeten worden.

Zoekmachines controleren regelmatig het robots.txt-bestand van een website om te zien of er instructies zijn voor het crawlen van de website. Deze instructies noemen we “directives”.

Als er geen robots.txt-bestand aanwezig is of als het bestand geen richtlijnen bevat, zullen zoekmachines de hele website crawlen.

robots.txt-bestand

Robots.txt-Bestand

Bekijk onze Ultieme SEO Gids over het Robots.txt-bestand.

Crawl-budget

Iedere website heeft een verschillend crawl-budget. Dit is een combinatie van hoe vaak Google je website wilt crawlen en in welke mate je website dit toestaat.

Populaire webpagina’s en paginas die vaak veranderen zullen vaker gecrawld worden dan andere pagina’s. Als crawlers complicaties ondervinden tijdens het crawlen van je website, dan zullen zij het crawlproces vertragen of zelfs stoppen tot de situatie is verbeterd.

Het is dan ook essentieel dat enkel de belangrijkste pagina’s op je website worden gecrawld en het crawl-budget niet verloren gaat aan webpagina’s met een negatieve SEO-impact.

Bekijk je crawl activiteit in de Google Search Console Crawl Stats report.

crawl statistieken

Canonicalization

Nadat webpagina’s zijn gecrawld worden ze verzonden naar de indexeerder.

De indexeerder ontvangt de content van webpagina’s van de crawlers, en probeert deze vervolgens te begrijpen door de inhoud te analyseren inclusief de aanwezige links.

Als er meerdere versies van een webpagina zijn, zal Google bepalen welke hij opslaat in de index,
dit proces noemen we canonicalization.

De canonical-URL kun je dan ook beschouwen als de hoofd-URL, en zal door Google worden vertoond in de zoekresultaten op basis van een relevante zoekopdracht.

Signalen om de canonical-URL te bepalen:

  • canonical tags
  • interne links
  • redirects
  • sitemap URL’s

Met de URL inspectie tool in Google Search Console kun je eenvoudig terugvinden welke versie Google heeft geïndexeerd.

url inspectie tool

Vanaf het moment dat een URL is geïndexeerd, kan deze worden weergeven in de zoekresultaten.

Canonical-Tag

De Canonical-tag wordt gebruikt om zoekmachines instructies te geven over welke versie van een webpagina moet worden weergeven in de zoekmachines.

Wanneer meerdere webpagina’s over vrijwel identieke inhoud beschikken kan dit negatieve gevolgen hebben voor de SEO van je website.

Pagina’s met dubbele of soortgelijke inhoud noemen we duplicate content pagina’s.

Omdat Google een hekel heeft aan duplicate content, aangezien iedere pagina uniek en waardevol voor de bezoeker moet zijn. Daarnaast indexeert Google slechts één versie van je pagina.

Met een canonical-tag verwijzen we naar de primaire URL die we willen laten indexeren, zodat het voor Google duidelijk is welke pagina kan worden vertoond op basis van relevante zoekopdrachten.

  • Verwijs met een canonical-tag naar de primaire URL vanuit alle pagina’s met dubbele inhoud.
  • Voeg een zelfbenoemende canonical-tag toe aan de primaire URL.
canonical link

Robots Meta Directives

Robots Meta Directives zijn stukjes code die zoekmachine-crawlers instructies geven over hoe een pagina moet worden gecrawld en geïndexeerd.

Terwijl het Robots.txt-bestand instructies geeft aan zoekmachines over het crawlen op website niveau, bieden robots meta directives meer duidelijke instructies voor het crawlen en indexeren van individuele webpagina’s.

Er zijn hoofdzakelijk twee verschillende soorten robots meta directives: de meta robots tag and the x-robots-tag. Iedere instructie die je kunt toevoegen met een robots meta tag, kun je eveneens toepassen met een x-robots-tag.

Meta Robots-Tags

Meta robots tags geven crawlers instructies over hoe pagina´s gecrawld en geïndexeerd moeten worden, en hoe snippets moeten worden weergegeven in de SERPs.

Meta robots tags worden toegevoegd in de < head > sectie van een webpagina.

robots noindex tag

De meest voorkomende meta robots tag is de noindex-tag, die instructies geeft aan zoekmachine crawlers om een pagina uit te sluiten van indexering, zodat deze niet wordt weergeven in de zoekresultaten.

meta tags

Vanuit een SEO-perspectief is het namelijk lang niet wenselijk om alle URL’s te laten indexeren, omdat sommige webpagina’s simpelweg geen waarde toevoegen aan de gebruiker.

Het uitsluiten van thin content pages (pagina’s met een lage kwaliteit), bevordert dan ook de SEO van je website.

Denk bijvoorbeeld aan:

  • Winkelmand pagina’s
  • Bedankt pagina’s
  • Login pagina’s

Daarnaast wil je eveneens pagina’s met gevoelige inhoud uitsluiten van indexatie zoals bijvoorbeeld:

  • Admin pagina’s
  • Membership pagina’s

Omdat het uitsluiten van de URL in een robots.tx-bestand, geen garantie geeft dat de URL ook niet wordt geïndexeerd, gebruiken we in deze gevallen een meta robots-noindex-tag.

De instructies in een robots.txt-bestand voorkomen dan wel dat de specifieke URL wordt gecrawld, maar in dit geval kan de webpagina nog steeds worden geïndexeerd wanneer interne of externe links naar de webpagina verwijzen.

meta robots tags

WordPress Canonical-Tag & Meta Robots Noindex

Naast de HTML-codes die je kunt toevoegen in de < head > van een webpagina, kunnen WordPress website-eigenaren heel eenvoudig de canonical-tag en de meta robots-tag implementeren door middel van de SEO-plugin Rank Math.

  • Installeer Rank Math
  • Bewerk de webpagina in je pagebuilder. In onderstaand voorbeeld is Elementor gebruikt.
  • Navigeer naar “SEO” –> “Advanced”
wordpress meta robots

X-Robots-Tag

Je kunt dezelfde instructies doorgeven aan crawlers door de X-Robots-Tag toe te voegen in de HTTP-header. Deze tag wordt vaak gebruikt om te voorkomen dat niet-HTML content zoals PDF-bestanden of afbeeldingen worden geïndexeerd.

Je kunt met de X-Robots-tag namelijk in tegenstelling tot de robots meta tag, individuele elementen op een webpagina, zoals bijvoorbeeld een afbeelding of een video uitsluiten van indexering. 

Daarnaast kun je ook niet-HTML elementen uitsluiten met een X-Robots-Tag.

Als je gebruik maakt van de Apache web server, kun je de snippet in onderstaande afbeelding toevoegen aan je .htaccess bestand of httpd.conf bestand, om de noindex, nofollow X-Robots-tag toe te voegen aan de HTTP response voor al je PDF files, zodat ze worden uitgesloten van indexering.

noindex x robots

Om de X-Robots-tag toe te voegen op een nginx web server, kun je de website’s .conf file. bewerken.
De snippet in onderstaande afbeelding sluit alle PDF files op de website uit van indexering:

nginx web server

Vermijd tegenstrijdige robots directives

  • Vermijd het gebruik van zowel meta robots-tags als X-Robots-Tag-richtlijnen om dezelfde instructies door te geven.
  • Combineer noindex-richtlijnen niet met canonical-tags
  • Pas de noindex-richtlijn niet toe op gepagineerde pagina’s
  • Neem geen pagina’s met noindex-instructies op in de XML-sitemap
SEO crawl fouten

Crawl Fouten

Foutmeldingen tijdens het crawlen noemen we: crawl errors.

Gedurende het crawl-proces op je website kunnen technische fouten optreden die het onmogelijk maken voor de Google-bots om jouw webpagina te crawlen.

Opgetreden crawl-fouten vinden we terug in het dekkingsrapport van Google Search Console

crawl errors

Dekkingsrapport Google Search Console

Om te kijken of je website crawl fouten bevat die onze posities in de zoekresultaten beïnvloeden kunnen we het dekkingsrapport bekijken via Google Search Console. 

dekkingsrapport google search console

Zorg dat je de pagina’s met foutmeldingen, en de geldige pagina’s met waarschuwingen verbeterd. Deze technische fouten beïnvloeden namelijk de posities in de zoekmachines.

4xx Crawl-errors

Bij 4xx-codes is er sprake van een foutmelding die de toegang van de SEO-bots tot een pagina op je website ontneemt.

In veruit de meeste situaties betreft het een 404-code, die aangeeft dat de toegepaste hyperlink geen bestaande webpagina bevat. 

Dit kan gebeuren door een URL-typefout, een pagina die je hebt verwijderd, of een redirect die je hebt aangepast.

Indien zoekmachines en gebruikers een 404 pagina vertoond krijgen hebben zij dus geen toegang tot de gewenste webpagina.

Kortom: De link die vermeldt staat op je website navigeert niet naar een geldige webpagina en kan dus niet worden bezocht.

404 fouten die bijvoorbeeld worden veroorzaakt door de website zelf omdat de URL van een link op de website verkeerd is ingevoerd zorgen voor een negatieve gebruikerservaring en kunnen je SEO-prestaties dan ook negatief beïnvloeden.

wat is een 404 pagina

Fix 404 fouten

Gelukkig is het eenvoudig om een 404 foutmelding op te lossen. Volg onderstaande 4 stappen om de foutmelding succesvol te verhelpen op je website

1 – Start met een site audit

2 – Navigeer naar: ‘All issues’

404 page

3 – Klik op ‘404 page’ waar de foutmelding genoteerd staat

broken links

In de eerste kolom die in bovenstaand voorbeeld in het groen gemarkeerd is, zien we de webpagina met de aanwezige 404-foutmelding. De incorrecte hyperlink is aanwezig op deze pagina.

De tweede kolom in het rood gemarkeerd, geeft de foutieve URL aan. Het adres dat niet klopt en dus moet worden aangepast.

4 – Navigeer naar de pagina onder: ‘first found at’ , en pas het aantal foutieve URL’s op deze pagina aan door de link te verwijderen of de link aan te passen.

*Pro Tip: Klik op de pagina met de foutieve link en klik vervolgens op “All inlinks“. Kopieer de ankertekst van de foutieve link.

404 error fix

*Navigeer vervolgens naar de webpagina met de foutieve link in je webbrowser, klik op “Ctrl+F” en plak de ankertekst in de zoekbalk. Je kunt op deze manier heel eenvoudig de foutieve link vinden op de pagina.

ankertekst 404

5xx Foutcode

Een 5xx foutmelding betreft een serverfout. Dit betekend dat de server waarop de webpagina draait, niet heeft voldaan aan het verzoek van de zoekmachine om toegang te krijgen tot de gewenste pagina.

Zoekmachine-crawlers zullen in het geval van deze status-code het crawl-proces vertragen, wat leidt tot minder crawl-budget voor je website.

Als deze status-code vaker voor komt tijdens het crawl-proces, kan dit zelfs leiden tot verwijdering van je webpagina uit de Google index. De pagina zal dan niet langer vertoond worden in de SERPs na een zoekopdracht.

Hoe los je een 5xx foutmelding op?

neem contact op met je hostingprovider of je webdeveloper.

Je server is mogelijk overbelast of verkeerd geconfigureerd. Houd er ook rekening mee dat dit een tijdelijk probleem kan zijn, bijv. wanneer de crawl plaatsvond tijdens wat onderhoud op de server van je website.

URL gemarkeerd als No-index

Dit zijn de URL’s die vermeldt staan in je sitemap, maar worden geblokkeerd door bijvoorbeeld een meta robots noindex tag.

De meta-robots tag is een HTML code die we aanbrengen in de <head> sectie van een webpagina om zoekmachines instructies te geven over het indexeren en crawlen van een webpagina.

Wanneer met een noindex-tag is aangegeven dat we de pagina willen uitsluiten van indexering, maar de URL zich wel in de opgegeven sitemap bevindt, geeft dit tegenstrijdige signalen.

No-Index foutmelding oplossen

Bepaal allereerst of je de pagina wilt laten vertonen in de zoekresultaten of dat het een bewuste keuze is om de pagina niet te laten vertonen.

1 – Je wilt de pagina in de zoekresultaten laten verschijnen, haal in dit geval de No-index tag uit de HTML code van je pagina.

2 – Je wilt de pagina niet in de zoekresultaten laten verschijnen, haal in dit geval de pagina uit de ingeleverde sitemap.

Pagina's in Sitemap uitsluiten met SEO-plugin

Je kunt eenvoudig bepaalde pagina’s, afbeeldingen, en zelfs bepaalde elementen uitsluiten in je Sitemap via de SEO-plugin: RankMath

1 – Navigeer naar “sitemap settings” en vul per pagina die je wilt uitsluiten het ID-nummer in. Voeg een komma toe tussen de ID-nummers om meerdere pagina’s toe te voegen.

sitemap pagina verwijderen

2– Het ID-nummer van een webpagina vind je terug in je browser, wanneer je een WordPress pagina bewerkt via je pagebuilder.

seo plugin sitemap

301 Redirects

Wanneer je het webadres(URL) van een pagina verandert, of een pagina verwijdert is het belangrijk dat we eerst stil staan bij de gevolgen. De URL die we wensen te veranderen bevind zich namelijk nog:

  • Als interne link op je webpagina’s
  • Als zoekresultaat in Google
  • Als backlink op externe websites

Om te voorkomen dat gebruikers in bovenstaande situaties op een 404 pagina terecht komen en we hierdoor bezoekers op onze website mislopen brengen we 301 redirects aan op onze website.

Een 301 redirect is een omleiding van het ene webadres naar het andere.

Als je bijvoorbeeld navigeert naar het web adres:

redirect

Dan wordt je automatisch omgeleid naar de pagina met het webadres:

seo voor dummies

Dit is omdat wij destijds een groot aantal pagina’s hebben verwijdert, en de inhoud van al die pagina’s hebben gebruikt om één ultieme pagina te creëren, en om te voorkomen dat pagerank verloren ging, en dat gebruikers via Google op 404 pagina’s zouden eindigen, hebben wij deze pagina’s omgeleid met een 301 Redirect.

301 Redirect tips

  • Een 301 Redirect is een omleiding, het vertraagd dan ook het bezoek aan je webpagina. Wanneer je een pagina verwijdert of het webadres wijzigt, zorg dan dat je alle interne links op je pagina’s aanpast naar het nieuwe webadres
  • 301 Redirect je HTTP adressen naar een veilige HTTP’s verbinding
  • Voorkom dat je 301 redirect naar een pagina met aanwezige 301 Redirects

301 Redirect toepassen met WordPress SEO plugin

  • Installeer de SEO plugin: Rank Math
rank math installeren
  • Ga naar het Rank Math ‘Dashboard’ en activeer de re-directions settings
redirects rankmath
  • Vul het webadres van je oude pagina in bij: Source URL’s –> vul je nieuwe webadres in bij destination URL –> kies voor 301 permanent move —> status activate –> add redirection
hoe voeg ik een 301 redirect toe
serps analyse seo strategie

Technische SEO Audit

Leer hoe je een technische SEO audit uitvoert en technische fouten op je website kunt oplossen.

Hoewel er al een aantal hoofdstukken op zitten gaat de complete technische SEO Gids nu pas echt beginnen!

In dit hoofdstuk ga ik je van stap tot stap uitleggen hoe we onze webpagina’s optimaliseren voor technische SEO, en hoe we foutmeldingen en technische fouten op onze website verhelpen.

We beginnen allereerst met een technische SEO audit. De hoogwaardige SEO tool van Ahrefs zorgt ervoor dat jij direct op de hoogte wordt gebracht van alle technische fouten op je website die we vervolgens 1 voor 1 gaan oplossen.

technical SEO site audit

Optimaliseren Technische Fouten

De site audit geeft ons een compleet beeld van alle technische fouten op onze website, en nu is het de kunst om deze technische fouten te verbeteren.

Omdat niet alle fouten even belangrijk zijn vind je in dit hoofdstuk de optimalisatie technieken terug voor de technische fouten die de grootste impact hebben op onze positie binnen de zoekmachine.

Orphan pages

Een orphan page kan niet bezocht worden via de navigatie op je website omdat een orphan page geen inkomende interne links heeft. Een orphan page is dus nauwelijks te vinden voor de zoekmachines en wordt door Google beoordeeld als een slechte user experience.

Zorg dat je relevante interne links aanbrengt naar de desbetreffende Orphan pages zodat de pagina’s weer eenvoudig te bereiken zijn. Orphan pages zorgen voor een negatieve SEO-impact en moeten dan ook zo snel mogelijk worden opgelost.

In de Ahrefs site audit kun je de ‘Orphan pages’ op je website terugvinden door te klikken op: ‘All issues’

wat is een orphan page

Redirect Chains

Een redirect chain ontstaat wanneer een pagina met een redirect linkt naar een andere pagina met een redirect. We veroorzaken in dit geval dus eigenlijk een kettingreactie van verschillende redirects die we naar elkaar toe linken.

Redirect chains beïnvloeden je Google rankings, de snelheid van je pagina, en hebben invloed op het crawl budget. Zorg dat je de URL van de desbetreffende redirects aanpast om deze redirect chains simpel te voorkomen.

Hoewel je 301 Redirects kunt toepassen om bijvoorbeeld 404 pagina’s in Google te vermijden, is het belangrijk dat we op onze website zelf geen redirected links gebruiken. Zorg dan ook dat je na aanpassing of verwijdering van een URL, alle interne links op de website eveneens aanpast.

Redirect Chains oplossen

  • Je kunt de redirect chains op je website terugvinden in het rapport van je site audit:
redirect chains
  • Klik op de aanwezige redirect chain om een overzicht te vinden van alle redirect chains op je website.
301 redirect e1618060495648
  • In de kolom: Redirect Chain URL’s vind je de omgeleide URL terug. We zien dat de groen omlijnde URL een omleiding is en verder navigeert naar het onderstaande adres.
  • In eerste instantie zou je denken dat beide URL’s identiek zijn. Er mis echter een: / achter de hyperlink, en dit is dan ook de oorzaak van de redirect chain.
  • Klik op de groen omlijnde URL om te vinden op welke pagina de omgeleide URL vermeldt staat.
redirect loop

Navigeer naar de groen omlijnde pagina en verander de omgeleide URL naar de correcte variant met de slash aan het uiteinde.

pagespeed seo

Page Speed Optimization

Het optimaliseren van je paginasnelheid is een belangrijk onderdeel binnen technische SEO dat zowel invloed heeft op je organische prestaties in de zoekmachine als op je conversie percentage.

In dit hoofdstuk delen wij de belangrijkste technieken waarmee je de paginasnelheid eenvoudig kunt verbeteren.

Page Speed Optimalisatie

Volgens Think With Google neemt de kans met 90% toe dat een bezoeker een webpagina direct verlaat wanneer de pagina niet in één seconde, maar in 5 seconde geladen worden.

De kans dat de gebruiker een pagina vroegtijdig verlaat neemt met maar liefst 32% toe wanneer de webpagina niet binnen 1 seconde, maar in 3 seconde volledig is geladen. 

Reden genoeg dus om de paginasnelheid van jouw website te optimaliseren!

website snelheid verbeteren

Wat is PageSpeed?

Met page load speed wordt de totale tijd bedoeld die een webpagina nodig heeft om in zijn geheel te laden en dus volledig zichtbaar is voor de gebruiker.

De snelheid van je webpagina kan dan ook als officiële Google rankfactor je positie binnen de zoekresultaten van Google beïnvloeden omdat Google webpagina’s die niet aan de gewenste laadtijden voldoen bestraft.

Maak gebruik van de volgende page speed tools om te kijken of jouw webpagina’s aan de richtlijnen voldoen:

Test je huidige website snelheid

Je kunt de huidige snelheid per pagina op je website testen via onderstaande tools:

Vul je URL in en je ontvangt een compleet overzicht van je paginasnelheid + optimalisatie tips 

pagespeed seo e1618076739474

Daarnaast kun je in Google Search Console onder het kopje: ‘site vitaliteit’ de pagina’s terugvinden die niet aan de richtlijnen van Google voldoen.

page speed checklist

Afbeeldingen Optimaliseren

Afbeeldingen op je pagina kunnen een grote impact hebben op je pagina snelheid. 

Zorg dat je afbeeldingen in de correcte dimensies op je pagina worden aangebracht en comprimeer je afbeeldingen voor je ze upload in WordPress.

Met TinyPNG kun je eenvoudig je afbeeldingen comprimeren en hiermee enorm verlichten.

compress images

Verminder het aantal plugins

De meeste WordPress website-eigenaren installeren een enorm aantal plugins om de functionaliteit te vergroten of het design te verbeteren. 

Plugins gaan echter gepaard met extra CSS, JavaScript en HTML-bestanden waardoor je pagina’s steeds langzamer laden. Door het aantal plugins te reduceren en enkel de hoognodige plugins te gebruiken zal je laadtijd verbeteren.

Gebruik Browser Caching

Optimaliseer caching op je website om de pagina snelheid aanzienlijk te verbeteren. Een bezoeker die je website voor de tweede keer bezoekt krijgt namelijk een cached version voorgeschoteld.

Tijdens het eerste bezoek worden de bestanden die geladen zijn zoals CSS en JavaScript bestanden namelijk opgeslagen zodat deze tijdens het volgende bezoek niet opnieuw moeten worden geladen.

Gebruik één van onderstaande caching plugins:

 

Optimaliseer JavaScript en CSS bestanden

JavaScript en CSS-bestanden kunnen enorm zwaar wegen tijdens het laden van je pagina. Een veel voorkomend probleem bij langzame webpagina’s is namelijk dat er enorm veel en grote CSS en JavaScript bestanden moeten worden geladen.

Optimaliseer je JavaScript en CSS-bestanden door:

  • CSS & JS-bestanden te verkleinen
  • CSS & JS-bestanden te optimaliseren
  • CSS & JS-bestanden te combineren

Gelukkig zijn er een aantal goede WordPress plugins voor die dit eenvoudig voor je kunnen realiseren:

CSS optimaliseren e1618080679469
optimaliseer javascript bestanden

Scripts uitgesteld laden

Veel van jullie zullen tijdens het checken van je paginasnelheid door een page speed tool de melding verminder ‘render blocking scripts’ tegenkomen.

Render blocking scripts zijn statische JavaScript bestanden die geladen worden bij het presenteren van je pagina aan de gebruiker. Wanneer de browser deze bestanden gedurende het laden tegen komt, stopt de browser met het laden van de rest van de pagina tot de JavaScript bestanden volledig geladen zijn.

Door JavaScript bestanden uitgesteld te laden kan de pagina al gepresenteerd worden waardoor je webpagina sneller kan worden geladen.

Gebruik onderstaande plugins om je JavaScript bestanden uitgesteld te laden:

javascript uitgesteld laden

Gebruik LazyLoad

LazyLoad is een optimalisatie techniek waarbij enkel het zichtbare deel van de webpagina wordt geladen zodat dat deze direct kan worden gepresenteerd, en vervolgens tijdens het scrollen van de gebruiker wordt de rest geladen.

Omdat je enkel een deel van de pagina inlaad en vervolgens presenteert bespaar je in de laadtijd van je pagina.

Installeer één van de volgende plugins om Lazyload te activeren op jouw website:

Kies voor goede website hosting

Een goede web host kan een enorme impact hebben op je paginasnelheid. Je kunt alle technieken perfect uitvoeren, maar als je over een slechte web hosting beschikt zal de laadtijd als nog een probleem vormen.

Fix redirect chains

Redirect chains hebben een enorme impact op je page speed. Fix de redirect chains op je website door bovenstaande instructies te volgen.

redirect chain optimalisatie

Plaats Content above-the-fold

Geef tijdens het creëren van je webpagina de voorkeur aan content above-the-fold. Wanneer een webpagina wordt gepresenteerd aan de gebruiker noemen we de content die zichtbaar is zonder te scrollen de ‘content above the fold’.

Wanneer jij start met grote afbeeldingen op je pagina moeten deze dus eerst volledig worden ingeladen waardoor je pagina langzamer wordt geladen.

above the fold content

Gebruik een Content Delivery Network (CDN)

content delivery network

Een content delivery network zorgt ervoor dat je website verbinding maakt met de dichtstbijzijnde server. 

Een CDN is een netwerk van servers verspreid over de hele wereld. De bezoeker van je website ontvangt je website vanaf de snelste server op dat moment waardoor de pagina sneller wordt geladen.

Verkort het Critical Rendering Path met Async

Async is het verkorten van het critical rendering path door scripts op “async” te zetten wanneer ze niet direct nodig zijn om ingeladen te worden.

Zo is het voor het correct weergeven van de webpagina aan de gebruiker enkel belangrijk om de content above the fold in te laden. Dit is het zichtbare deel van de webpagina, zonder dat je hiervoor hoeft te scrollen.

Door enkel de scripts in the laden die nodig zijn voor de content above the fold, kan de pagina sneller worden geladen.

Async zorgt ervoor dat de scripts verder worden ingeladen nadat de pagina is weergeven. Als de DOM het samenstellen van de pagina iedere keer moet pauzeren wanneer de browser
een script ophaalt, beter bekend als render blocking scripts, kan dit de page loading speed ernstig vertragen.

Het verkorten van het critical rendering path zorgt voor snellere laadtijden en minder complicaties tijdens het inladen.

rich results

Core Web Vitals

Om de gebruiksvriendelijkheid van een website te meten gebruikt Google een aantal graadmeters waaronder de core web vitals. Google heeft al aangekondigd dat user experience een steeds grote rol zal innemen binnen SEO en ook de Core Web Vitals zijn inmiddels een officiële Google Rankfactor.

Wat zijn de Core Web Vitals?

De core web vitals bestaan uit 3 verschillende metingen van paginasnelheid en gebruikersinteractie om de gebruikerservaring van webpagina’s te kunnen beoordelen.

  • Largest Contentful Paint (LCP)
  • First Input Delay (FID)
  • Cumulative Layout Shifting (CLS)

De core web vitals ontvangen ieder een individuele beoordelingsscore die aan de richtlijnen van Google moet voldoen.

page experience

Largest Contentful Paint

De LCP meet de laadtijd die een pagina nodig heeft om zichtbaar gepresenteerd te worden aan je bezoeker, waarbij de bezoeker ook daadwerkelijk de mogelijkheid heeft om een actie te ondernemen op je pagina.

Google hanteert een richtlijn voor de LCP van maximaal 2,5 seconde, en het is dus voor jouw website belangrijk dat iedere pagina aan deze richtlijn voldoet.

In Google Search Console kun je onder het kopje: ‘Site Vitaliteit‘ terugvinden of jouw webpagina’s aan de richtlijnen van Google voor de core web vitals voldoen. De core web vitals worden zowel voor mobiel als desktop afzonderlijk gemeten en dienen dus voor beide geoptimaliseerd te worden.

largest paintful content
  • Verwijder onnodige plugins
  • Uitgesteld laden van scripts
  • Optimaliseer CSS & JS bestanden
  • Optimaliseer afbeeldingen
  • Lazy Loading

First Input Delay

De First Input Delay meet de tijd die nodig is om een actie te kunnen ondernemen op je pagina. Denk hierbij aan een bezoeker die een contactformulier invult en als laatste de verzendknop indrukt om het formulier in te sturen.

De tijd die nodig is vanaf het moment dat de bezoeker de knop indrukt tot dat de actie ook daadwerkelijk is uitgevoerd kennen we als de FID(First Input Delay).

De richtlijn die Google hanteert voor een goede FID score is maximaal 100 ms.

  • Verwijder onnodige plugins
  • Uitgesteld laden JavaScript
  • Minify JS-bestanden
  • Voeg JS-bestanden samen
  • Browser Caching
first input delay

Cumulative Layout Shift

De CLS meet het aantal bewegende elementen tijdens het laden van je pagina. Wanneer de bezoeker over je webpagina scrolt en bewegende elementen ervoor zorgen dat de bezoeker hierin wordt gehinderd, heb je te maken met een negatieve CLS.

Omtrent de user experience van je webpagina is het belangrijk dat deze stabiel wordt geladen voor je bezoeker en dat geen last wordt ondervonden tijdens het scrollen over je pagina.

Google hanteert een richtlijn van maximaal 0,1 voor een goede CLS score op je pagina.

  • Laad afbeeldingen in de juiste afmetingen
  • Zorg voor ruimte tussen je content
  • Content above the fold
  • Breng wijzigingen lay-out in je WordPress thema aan
cumulative layout shift