hoofdstuk-7-technische-seoDe technische optimalisatie van een website wordt vaak onderschat. Het technisch aspect maakt het voor veel bedrijf lastig om te bepalen of het de investering waard is om dit te verbeteren. Dit terwijl de techniek van de website ontzettend belangrijk is. Zie de techniek van een website als de fundering van een huis. Zonder optimale fundering is een huis niet leefbaar. Hetzelfde geldt voor de techniek van een website. In grote lijnen bestaat zoekmachine optimalisatie uit drie pijlers:

  1. Techniek
  2. Content
  3. Verkrijgen van autoriteit

Een optimale technische fundering zorgt ervoor dat crawlers van zoekmachines pagina’s van een website eenvoudig kunnen crawlen en indexeren. De crawler van een zoekmachine, zie de crawler als een spin die pagina’s binnen een website afloopt, crawlt niet alle links op een website. In andere woorden, de crawler heeft een bepaald limiet (dit wordt ook wel het crawl budget genoemd). Je wil altijd dat de crawler de meest relevante pagina’s crawlt en niet onbelangrijke pagina’s. Bij de technische optimalisatieslag houd je rekening met dit soort aspecten. Uiteindelijk is het doel om een optimale fundering van de website te creëren en de crawlers van de zoekmachines waar mogelijk de goede richting op te sturen. Hieronder worden een aantal technische punten beschreven die je zelf kan oppakken.

Robots.txt

Met behulp van het robots.txt bestand is het mogelijk om aan te geven welke pagina’s de crawlers van zoekmachines wel/niet kunnen crawlen. Het geeft als het ware een toestemming tot het crawlen van een pagina. Het voordeel van een robots.txt is dat je niet relevante pagina’s kan uitsluiten en er op deze manier voor zorgt dat de crawlers alleen relevante pagina’s crawlen. Op deze manier houd je controle over het crawlbudget.

Meer uitgebreide informatie lees je hier ‘Robots.txt bestand optimaliseren: hoe werkt het in de praktijk’.

Laadtijd verbeteren

Laad je website niet binnen enkele seconden de belangrijkste content in? Dan is de kans groot dat bezoekers direct weer van je website verdwijnen en nooit meer terugkomen. De laadtijd is een belangrijk punt om te verbeteren, dit geldt al helemaal voor webshops. Dit klinkt als een ingewikkelde klus maar gelukkig zijn er meerdere tools waarmee je al een heel eind komt. Deze tools tonen een bepaalde score op het gebied van de laadtijd en geven je tevens een eenvoudige uitleg hoe je deze punten kan oplossen.

Wil je de laadtijd verbeteren? Neem dan eens een kijkje bij de Google Pagespeed Tool of Pingdom Website Speed Test.

XML sitemap

Zie de XML sitemap als een inhoudsopgave van een boek. Bij een inhoudsopgave van een boek zie je in een oogopslag de indeling van een boek. Een XML sitemap werkt hetzelfde. Het is een bestand waar alle URL’s van de website in worden vernoemd. Stel je bent druk bezig met content optimalisatie en je hebt ervoor gezorgd dat nieuwe content automatisch wordt opgenomen in de sitemap. Als de zoekmachine de XML sitemap crawlt ziet het in een keer alle nieuwe pagina’s. Voordeel hiervan is dat de nieuwe pagina’s sneller worden en opgepikt en uiteindelijk worden getoond in de zoekmachines.

Het is geen gemiste kans als je niet gebruikt maakt van een sitemap. Maak je op dit moment al wel gebruik van een sitemap? tip: Controleer of je de sitemap hebt ingeschakeld bij Google Search Console.

Mobielvriendelijke website

hoofdstuk-7-technische-optimalisatie-van-de-websiteDe afgelopen jaren is het aantal bezoekers dat een website bezoeker via een smartphone of tablet aanzienlijk gestegen. Bij sommige websites overstijgt het aantal mobile gebruikers zelfs het aantal desktopgebruikers.

Voor de zoekmachines zijn mobielvriendelijke websites belangrijk. De zoekmachines willen een optimale user experience bieden. Dit is de reden dat er op 21 april 2015 in Google een update is geweest waarbij websites met een mobielvriendelijke website een streepje voor hebben. Niemand weet wat de daadwerkelijk invloed op de SEO rankings van mobielvriendelijke website is. Wel is het vrij logisch dat websites met een mobielvriendelijke een betere user experience bieden dan websites zonder een mobielvriendelijke websites.

In een tijdperk waarbij we altijd online zijn en meer en meer gebruikmaken van smartphones en tablets is het hebben van een mobielvriendelijke website een ‘must’. Wil je controleren hoe goed je website op dit moment scoort? Gebruik dan de mobile friendly test tool van Google.

Meer uitgebreide informatie voor het optimaliseren van de mobile experience lees je in dit artikel over ‘Mobile Optimization’.

Meta robots (geavanceerd)

De meta robots tag kan je gebruiken om de activiteiten van de crawlers per pagina te controleren. Er zijn verschillende manieren om de meta robots tag te gebruiken:

  1. Index & noindex
    De index of noindex tags zijn een signaal naar de zoekmachines waarbij er wordt aangegeven of een pagina gecrawld moet worden en tevens in de index moet worden geplaatst. Als je voor ‘noindex’ kiest, wordt de pagina niet geïndexeerd in de zoekmachine. Crawlers gaan er standaard van uit dat er toestemming is om een page te indexeren. In het algemeen is het niet nodig om de ‘index’ tag op te nemen.
  2. Follow & nofollow
    De follow of nofollow tag geeft aan of de crawler de links op de pagina moet crawlen. Stel je kiest voor de ‘nofollow’ tag dan zal een crawler de links op een pagina niet crawlen en dus ook niet gebruiken om te indexeren. Ook hier geldt dat alle pagina’s standaard op ‘follow’ staan.

Voorbeeld: <META NAME=”ROBOTS” CONTENT=”NOINDEX, NOFOLLOW”>

Dit zijn de twee belangrijkste type tags. In deze blogpost van Yoast tref je alle andere tags.

Duplicate content

Duplicate content zorgt voor veel websites voor een remming van de online zichtbaarheid. Duplicate content is vaktaal als je op pagina’s dezelfde content hebt staan. In de meeste gevallen ontstaat duplicate content doordat een pagina met een zelfde stuk content op meerdere manieren bereikbaar is voor de zoekmachines. We leggen het uit aan de hand van een simpel voorbeeld:

Stel je bent een online aanbieder van voetbalschoenen en je verkoopt slechts één rode voetbalschoen. De URL’s zien er als volgt uit:
technische-seo-voor-beginners-simpel-en-helder-uitgelegd
Bovenstaande URL’s bevatten allemaal dezelfde content. Op het oog lijkt het geen probleem aangezien het slechts één product omvat. Voor de crawlers van de zoekmachines is het echter onduidelijk wat in dit geval de beste pagina is.

Zoekmachines hebben er baat bij dat de gebruiker geen dubbele pagina’s te zien krijgt. Pagina’s met dubbele inhoud zorgen voor een slechte user experience. Dat is de reden dat de zoekmachines bovenstaande drie voorbeelden lager waarderen in vergelijking met als er slechts één relevante pagina aanwezig is.

Bij webshops komt duplicate content het meeste voor. Gelukkig is er een oplossing: de canonical tag! Als het voor de zoekmachines duidelijk wordt dat er slechts één relevante pagina is dan zullen de overige drie pagina’s niet meer met elkaar concurreren, maar ook een sterke signaal geven op het gebied van relevantie en populariteit in het algemeen. Het opschonen van duplicate content heeft altijd een positieve impact op de waarde van je website.

Canonical tags

De canonical tag is een mogelijkheid om bij de zoekmachines aan te tonen dat er meerdere versies van een pagina bestaan, maar dat er één pagina is die Google kan oppikken. We leggen het uit aan de hand van een voorbeeld:
Stel we pakken het voorbeeld van de voetbalschoenen webwinkel erbij. Er wordt slechts één rode voetbalschoen verkocht. De URL’s zien er weer als volgt uit:

  1.     https://www.voetbalschoenen-winkel.nl/zwarte-voetbalschoen-product
  2.     https://www.voetbalschoenen-winkel.nl/zwarte-voetbalschoen-product?printvoorbeeld
  3.     https://www.voetbalschoenen-winkel.nl/merknaam/zwarte-voetbalschoen-product

Optie 1 = de URL die de zoekmachine mag tonen in de zoekresultaten.
Optie 2 & 3 = zijn duplicaten en het is niet nodig om deze URL’s te tonen in de zoekmachines

Door een canonical tag toe te voegen bij voorbeeld 2 en voorbeeld 3 weet de crawler dat voorbeeld 2 en voorbeeld 3 weliswaar voor duplicaten zorgen, maar dat voorbeeld 1 de belangrijkste pagina is en dat deze pagina geïndexeerd mag worden. Bij voorbeeld 2 en voorbeeld 3 voeg je in deze situatie de volgende canonical tag toe:

technische-seo-voor-beginners-v2
Nu begrijpt de crawler dat voorbeelden 2 en 3 kopieën zijn van voorbeeld 1. In dit artikel op Moz lees je meer over het effect van een canonical tag.