Technische SEO: 2 fouten die ook jij maakt (en hoe je dit recht kunt zetten)
2 mei 2019 
in SEO

Technische SEO: 2 fouten die ook jij maakt (en hoe je dit recht kunt zetten)

Wanneer het op de technische SEO aankomt laten veel specialisten het afweten. Het is dan ook het meest ingewikkelde onderdeel van de zoekmachine optimalisatie.

Je kunt het zo ingewikkeld maken als je zelf wilt. Als SEO specialist kom ik dagelijks onderliggende problematiek in websites tegen. In dit artikel neem ik je mee in een aantal van de meest voorkomende problemen en hoe je deze kunt oplossen.

Sitemaps

Een XML-sitemap is een pagina waarop een lijst met alle pagina’s van de website te vinden is. Bijna iedere website heeft twee verschillende XML-sitemaps: één voor de bezoeker en één voor Google. Het optimaliseren van deze XML-sitemaps is erg belangrijk voor de vindbaarheid in Google.

Een geoptimaliseerde XML-sitemap bespaart de crawler van Google tijd en crawlbudget bij het indexeren van de website. Een belangrijke regel hierbij is het zoveel mogelijk toevoegen van statuscodes die beginnen met een 2. Wanneer een sitemap veel re-directs en foutieve URL’s bevat is zorgt dit voor een verspilling van crawl budget.

Het is mogelijk om de hoogte van de ‘crawl-waste’ te testen binnen de Google Search Console. Crawl-waste is de hoeveelheid crawl budget die de Googlebot per pagina nodig heeft om deze te indexeren. Dit kan worden gedaan door meerdere sitemaps aan de Google Search Console toe te voegen. Je kunt dan vinden hoeveel pagina’s zijn gecrawld en hoeveel er daadwerkelijk zijn geïndexeerd.

Wanneer het verschil hiertussen erg groot is, dan kun je concluderen dat er sprake is van crawl-waste. Nader onderzoek kan uitwijzen welke URL’s dit voornamelijk veroorzaken. Ik gebruik hier de tool ‘Screaming Frog’ voor. Met deze tool ga ik op zoek naar pagina’s binnen de website die een statuscode buiten de 2xx heeft.

Na het correct oplossen van de verschillende statuscodes kan de sitemap opnieuw worden getest in de Google Search Console. Blijf de Google Search Console checken om dit probleem op de lange termijn te weren. Foutieve statuscodes of onnodige re-directs sluipen er bij veel verschillende aanpassingen op de websites in. Dit maakt dat veel websites hier last van hebben zonder dat de website eigenaren dit doorhebben.

Het besparen van crawl-budget en daarmee tegengaan van crawl-waste zorgt voor een snellere indexatie van nieuwe content. Wanneer Google nieuwe content op jouw website aantreft zal hij deze sneller indexeren waardoor veranderingen sneller worden opgenomen. Dit is met name een voordeel voor sites die vaak nieuws publiceren.

Gepagineerde content

Gepagineerde content komt voornamelijk voor bij webshops en is ook een factor die bijdraagt aan de crawl-waste van een website. Dit komt doordat het ervoor zorgt dat Google onnodige pagina’s moet crawlen en indexeren.

Een voorbeeld is een webshop die shirts verkoopt. De webshop heeft talloze shirts in één categorie, deze shirts kun je verspreidt vinden over 179 pagina’s. Deze pagina’s hebben content die vindbaar is rondom één zoekwoord: “T-shirts”. Het is echter wenselijk om hiervoor één sterke pagina binnen een website te hebben.

Wanneer hier niets aan wordt gedaan ontstaan er meerdere problemen. Aan de ene kant wordt er onnodig crawl-budget gebruikt. Aan de andere moet Google nu kiezen welke pagina er dient te ranken op het zoekwoord “T-shirts”. Dit aan Google overlaten veroorzaakt in veel gevallen onwenselijke rankings doordat de verkeerde pagina’s omhoogkomen voor het zoekwoord.

Wat kun je hieraan doen? Een aantal optimalisaties kunnen worden gemaakt om dit probleem tegen te gaan:

  1. Ten eerste kunnen er meer producten worden getoond op een enkele pagina. Zalando laat bijvoorbeeld wel 87 producten zien op één enkele heren t-shirts pagina https://www.zalando.nl/herenkleding-shirts. Dit zorgt ervoor dat het totale aantal pagina’s wordt gereduceerd.
  2. Maak geen gebruik van de rel=”next” & rel=”prev” tag. Dit fabeltje wordt door veel SEO’ers verspreidt maar is recentelijk ontkracht door John Mueller.
  3. Een ‘toon alles’ pagina is een mooie pagina om te worden gevonden voor het generieke zoekwoord. Voor “T-shirt” is het handig om een pagina te maken waar alle t-shirts worden getoond.
  4. Geef een no-index aan de pagina’s die voor dubbele content / zoekwoord kannibalisatie kunnen zorgen. Dit zijn de gepagineerde pagina’s zoals https://www.zalando.nl/herenkleding-shirts/p?=2
  5. Geef een canonieke URL naar de algemene pagina over dit onderwerp. Zalando heeft in dit geval een canonieke URL gegeven naar https://zalando.nl/herenkleding-shirts/. Hiermee laat je aan Google weten welke pagina moet worden gevonden op dit onderwerp.

technische-SEO-noindex

Conclusie

Zorg er met de XML-sitemap voor dat deze zo “schoon” mogelijk is. Dit bespaart crawl-budget waardoor Google veranderingen in jouw website sneller oppikt en meeneemt in de index.

Het tegengaan van gepagineerde content zorgt voor minder duplicate content en zoekwoord kannibalisatie. Daarbij kun je het heft in eigen handen nemen en bepalen welke pagina’s voor welke zoekwoorden omhoog moeten komen.

Over de schrijver
Ik ben een ervaren freelance SEO specialist werkzaam voor een breed scala aan bedrijven. Van Nederlandse A-merken tot internationale webshops tot de bakker om de hoek. Ik houd van alles wat betrekking heeft tot zoekmachine optimalisatie: Technische SEO, SEO content, internationale SEO en linkbuilding.
Danielle Bakker

Door

Danielle Bakker

op 2 May 2019

Welkom bij het team gastbloggers Ralf! Dankjewel voor de tips!

Nigel

Door

Nigel

op 19 May 2019

Duidelijk artikel Ralf! Goede tips!

Jasper Voorn

Door

Jasper Voorn

op 16 July 2019

Dankjewel voor de tips! Ze kwamen precies op het juiste moment.

Kiri

Door

Kiri

op 19 July 2019

Fijn artikel en duidelijk uitgelegd! Dankjewel voor de tips!

Reactie plaatsen