Winnen in Google?
SEO BoekOntvang het boek

Page content

article content

De 10 belangrijkste SEO ontwikkelingen in 2015

We naderen al weer het einde van het jaar 2014. Kortom, de hoogste tijd om te kijken wat het jaar 2015 qua SEO ontwikkelingen zal brengen en hoe wij hier als Online marketeers op in kunnen spelen. Laat maar komen dat nieuwe jaar!

Bij het samenstellen van deze lijst is gekeken naar huidige ontwikkelingen, eigen ervaringen, recentelijke Google patenten en een goede dosis inschattingsvermogen. Hierdoor is een lijst gekomen waar je de 10 belangrijkste SEO ontwikkelingen in 2015 ziet.

SEO ontwikkelingen in 2015

Schema

Schema is een samenwerkingsverband tussen onder andere Google, Yahoo, Bing en Yandex sinds 2011. Schema schrijft standaarden voor om rich snippets in de zoekresultaten te tonen. De bekendste voorbeelden hiervan zijn producten, reviews en personen. Meer weten over hoe je dit kan implementeren? Searchenginewatch schreef er een artikel over. Rich snippets verhogen de click-through ratio en helpen om je te onderscheiden van concurrenten in de zoekresultaten.

HTTPS

Marketingmedhttps

Google claimt het beste voor te hebben met het wereldwijde web. Daarom zijn ze in Sillicon Valley een groot voorstander van goed beveiligde websites en moedigen ze iedereen aan om hun website met SSL te beveiligen. Momenteel is het nog niet het geval, maar in de nabije toekomst beweerd Google beveiligde websites hoger te ranken dan websites zonder SSL certificaat. Deze certificaten zijn bij de meeste hosting partijen vanaf een euro of 10 per maand te verkrijgen. In 2015 zal het hebben van een SSL certificaat als ranking factor mee gaan tellen.

Mobile firstmobileSERP

Het aandeel van mobiele bezoekers blijft maar toenemen. Recentelijk is Google begonnen met het laten zien of een website mobile friendly is in de zoekresultaten. Google streeft er naar om bezoekers een zo goed mogelijk resultaat te bieden. Een website die niet goed zichtbaar is op mobiel is geen positieve ervaring voor de gebruiker en het is dus in Googles eigen bestwil om dit resultaat niet te tonen.

Bij het ontwikkelen van een nieuwe website of het verbeteren van een huidige website is het daarom belangrijk om mobile altijd in gedachte te houden. Responsive design heeft hierbij voorkeur boven een aparte mobiele website. Behalve laptops, tablets en mobiele telefoons zullen we binnenkort mogelijk ook rekening moeten houden met wearables zoals een Smartwatch. Ik betwijfel of 2015 het jaar van de doorbraak van de Smartwatch gaat worden, maar wees er klaar voor.

Dwell Time

Google neemt meer en meer signalen mee in haar algoritme. Het bestaat al even maar er wordt steeds meer gesproken over “Dwell time”.

Dwell time is de tijd tussen het moment dat iemand op een website in de zoekresultaten klikt voordat deze terugkeert.

Een korte ‘Dwell time’ zou er op kunnen wijzen dat iemand niet heeft kunnen vinden waar hij of zij naar op zoek was. Veel SEO’ers zijn van mening dat dit tegenwoordig meegenomen wordt in het algoritme van zoekmachines.

Semantiek, zoekwoorden en relaties

Slechts enkele jaren geleden kon je als SEO’er met een website nog prima scoren in zoekmachines door je puur te focussen op een enkel zoekwoord op een pagina met de volgende elementen:

Het resultaat was dat pagina’s heel specifiek op letterlijk 1 term geoptimaliseerd werden, waardoor de zoekresultaten er soms als volgt uit zagen:

Vraag hierbij is, hoe waardevol is dit voor de gebruiker van de zoekmachine? Want elk van deze pagina’s geeft dezelfde informatie maar de pagina is puur op een andere zoekterm geoptimaliseerd (laminaat leggen, laminaatvloer (zelf) leggen, laminaat zelf leggen) zodat zoveel mogelijk mensen hun weg naar de website weten te vinden. In bovenstaand voorbeeld zou een enkele pagina voldoende moeten zijn.

Tegenwoordig beginnen zoekmachine steeds beter onderlinge verbanden tussen woorden en zinnen te herkennen. Op Moz is hier een uitmuntend artikel over geschreven. Zoekmachines willen graag ook synoniemen en gerelateerde termen in een tekst voorbij zien komen. Benieuwd naar wat voor soort woorden dit zijn? Zelf gebruik ik deze tool maar ook Googles eigen Adwords tool geeft hier inzicht in.

Keywords-relationships

Google probeert zelf antwoord te geven op je vraag

Al jaren geleden is Google begonnen met het leveren van directe antwoorden op vragen. Bekende voorbeelden hiervan zijn het oplossen van rekensommen of het vertalen van kilogram naar LBS. Maar hier houdt Google niet op. Tegenwoordig toont Google in haar “Knowledge Graph” fragmenten van websites die antwoord geven op een vraag die iemand in Google stelt.

Voorbeeld van de Knowledge Graph die hier informatie van Wikipedia haalt.

KnowledgeGraph

Vooral websites met veel content met als verdienmodel advertenties kunnen hier “hinder” van ondervinden. Immers, wanneer iemand het antwoord op zijn of haar vraag al in Google vindt hoeft deze persoon niet meer naar jouw website door te klikken.

Zoekresultaten worden persoonlijker

Het zal steeds lastiger worden om een algemene nummer 1 positie op een bepaald zoekwoord te behalen. Zoekresultaten hangen steeds meer af van een groot aantal persoonlijke factoren zoals je actuele locatie, je zoekhistorie en je device waarmee je een zoekopdracht geeft. Google probeert hiermee iedereen een zo relevant mogelijk antwoord te geven.

Schaalbare tactieken werken niet meer

2014 was ook het jaar dat Google actie ondernam tegen gastbloggen. Of nouja, linkbuilders die gebruikte voor de verkeerde doeleinden. Het benaderen van tientallen websites om te vragen of je een ‘uniek’ artikel voor ze kan schrijven, dat uiteindelijk van hoogstens matige kwaliteit is en volgestopt is met enkele links naar de website van de schrijver met gerichte anchor texts met als enige doel om daarmee hoger in de zoekresultaten te komen. Nou, daar had Google helemaal genoeg van en Matt Cutts verklaarde begin 2014 gastbloggen DOOD.

Wil dit zeggen dat je helemaal niet moet gastbloggen? Nee! Wat het wel aangeeft is dat zodra een SEO tactiek schaalbaar wordt Google ingrijpt. Google zal ook in 2015 haar ogen open houden voor nieuwe SEO tactieken en zorgen dat het niet uit de hand gaat lopen.

Negative SEO

“There is no such thing as bad publicity” luid het gezegde. Voor SEO geld dit echter niet helemaal. Je wilt als webmaster niet links vanaf elke domein krijgen naar jouw website. Het is ontzettend belangrijk om je met je website in de juiste ‘kringen’ van het internet te bevinden. Zodra er door veel lage kwaliteit websites (spam, nofollow links, “adult content”, lage pagerank websites etc) gelinked wordt naar jouw website denkt Google automatisch dat jouw website ook van lage kwaliteit is. Nee, de dagen van het kopen van honderden forum links voor $7,99 en er op vooruit gaan zijn voorbij. Het is zelfs zo erg dat webmasters er voor kunnen kiezen om links te ‘disavowen’ met Google Webmaster Tools om aan te tonen dat je het niet wenst om naar jouw website gelinked te worden door bepaalde domeinen.

Negative SEO zal meer bekendheid krijgen in 2015 en is iets om rekening mee te houden. Tot nu toe leid het slechts tot enkele lachwekkende pogingen tot afpersing, maar wie weet wat 2015 ons brengt op dit gebied.

Keyword data verdwijnt compleet

Verraad, zo voelt het. Google is de afgelopen jaren stapsgewijs begonnen om de keywords waarop mensen naar een website zijn gekomen te verbergen in Google Analytics. 2015 zal waarschijnlijk het laatste jaar zijn dat we überhaupt nog enige keyword informatie krijgen. As we speak is al bijna 90% van de keywords in Google Analytics gemarkeerd als “not provided’. Het is dus tijd voor ons als online marketeers om creatief te zijn en alternatieven te bedenken!

Scheurtjes in de marktpositie van Google

Onlangs heeft het Europese Parlement gestemd over het openbreken van Google. De gedachte luid dat het bedrijf te machtig is om zowel de zoekmachine als haar andere activiteiten (zoals advertenties) binnen hetzelfde bedrijf te houden omdat het risico op machtsmisbruik ontstaat.

Hoe machtig is Google in Europa? In oktober 2014 had Google een marktaandeel van 92,38% van de zoekmarkt in Europa in handen. De kans dat Google daadwerkelijk het bedrijf op moet breken is echter klein. De EU wil graag even haar tanden laten zien en hoopt dat Google concessies zal doen om andere zoekmachines en adverteerders meer kansen te bieden op haar platform.

Voorlopig zal Google nog veruit grootste partij zijn en blijven in Europa, dus het is logisch om bij het optimaliseren vooralsnog voornamelijk van de wensen van Google uit te gaan, maar houd de alternatieven in de gaten.

Zoekmachines zijn constant in ontwikkelingen maar zijn juist daarom ontzettend interessant. Zal 2015 toch het jaar worden dat ‘Social Signals” echt meegenomen gaan worden? Zal het belang van links gaan afnemen? Ik benieuwd naar wat jij denkt dat er in 2015 gaat veranderen!

Comment Section

8 reacties op “De 10 belangrijkste SEO ontwikkelingen in 2015


Door Niels Vos op 12 december 2014

Dag Martijn,

Leuk artikel en veel onderdelen worden waarschijnlijk steeds belangrijker in 2015.

Quote:
“Zodra er door veel lage kwaliteit websites (spam, nofollow links, “adult content”, lage pagerank websites etc) gelinked wordt naar jouw website denkt Google automatisch dat jouw website ook van lage kwaliteit is.”

Kwaliteit is natuurlijk belangrijk, maar ik denk dat er wel al een stuk verder gekeken wordt dan alleen kwalitatieve linkjes van betrouwbare websites die in dezelfde branche zitten.

Ik zie dagelijks honderden links binnenkomen van diverse websites in verschillende branches, de links hebben verschillende posities op de websites en de pagina’s hebben verschillende DA waardes. Je bent dus positieve links aan het inbouwen om de rest op te vangen zonder dat je de zoekmachine wilt beïnvloeden.

Maar het lijkt dus dat Google veel meer aan het meten is, waaronder de hoeveelheid plaatsingen en het ritme van de plaatsingen, betrouwbaarheid van de pagina’s, legitieme ondernemingen, inkomend verkeer, bouncepercentage etc…

Ik denk nog steeds dat de sleutel voor een succesvolle long term linkbuild-campagne, je de zoekmachine niet wil beïnvloeden met diverse termen/strings, maar ervoor wilt zorgen dat je plausibel verkeer genereert met een zo laag mogelijk bouncepercentage.

Zoals Josh Bachynski al zei: Google is zelfs de positiviteit aan het meten op diverse fora/blogs over jouw website.

Met vriendelijke groet,
N.Vos





Door Jan-Willem Bobbink op 13 december 2014

Hallo Martijn,

Op Google+ liet ik al even kort mijn mening vallen over dit artikel:

Dit zijn verwachte ontwikkelingen voor 2015 volgens de auteur. Volgens mij zijn dit ontwikkelingen die allang plaats gevonden hebben.

Daarnaast worden er allerlei zaken door elkaar gehaald of volledig foutief geïnterpreteerd. . Schema.org zijn standaarden voor rich snippets? SSL certificaat als ranking factor? Niet tonen van websites die niet mobile friendly zijn? Dwell time iets van dit jaar? Knowledge Graph haalt informatie uit Wikipedia? Volgens mij komt die data uit Freebase maar ik kan het fout hebben. Keyword data verdwijnt? Hoe zit het met WMT dan?

Ik ben niet zo snel iemand die alles aangrijpt om maar commentaar te hebben, maar dit artikel is echt van belachelijke kwaliteit. Ik geef graag constructief advies maar heb geen idee waar ik hier moet beginnen.

Waarop jij met een uitgebreide reactie kwam:

Ik stel het op prijs dat je de tijd genomen hebt om het artikel te lezen en feedback te geven op de inhoud. Ik hoop dat je mij toestaat om het een en ander toe te lichten.

Allereerst, het klopt dat er ook al oudere en huidige ontwikkelingen benoemd worden. Echter, mijn verwachting is dat het belang/de weging van deze onderdelen toe zullen nemen.

Schema.org zijn standaarden voor rich snippets?
– Ik weet niet precies wat je hiermee bedoelt. Twijfel je over de correctheid van deze uitspraak of bedoel je iets anders? Meer info over Schema & rich snippets hier: https://support.google.com/webmasters/answer/1211158?hl=en

SSL certificaat als ranking factor?
– Wat bedoel je hiermee? Vrij groot nieuws geweest. Zie http://googlewebmastercentral.blogspot.nl/2014/08/https-as-ranking-signal.html
Echt grote verschillen zijn er nog niet merkbaar voor het wel of niet gebruiken. Ik acht de kans echter groot dat dit wel toe zal nemen.

Niet tonen van websites die niet mobile friendly zijn?
– Ik heb niet gezegd dat Google dit niet meer doet. Ik heb slechts gezegd dat het in Googles bestwil is om niet mobile friendly websites niet te tonen. Google experimenteert momenteel met het duidelijk maken aan gebruikers dat een website niet goed werkt op een mobile device. Is het onwaarschijnlijk dat dit ook een steeds belangrijkere ranking signal wordt in de mobile SERPS?

Dwell time iets van dit jaar?
– Misschien was ik niet duidelijk genoeg door te zeggen “Het bestaat al even” en een link naar een artikel uit 2012 te plaatsen. De reden dat ik het toch in dit overzicht heb gezet is dat ik zelf een steeds duidelijker verband zie tussen rankings en bounce rates (natuurlijk niet hetzelfde als dwell time, maar vaak zit er ook een verband tussen die twee).

Knowledge Graph haalt informatie uit Wikipedia? Volgens mij komt die data uit Freebase maar ik kan het fout hebben.
– Freebase is een deel van de Knowledge Graph contributies, maar niet alles. http://en.wikipedia.org/wiki/Freebase
Wellicht had ik hier ook nog wat meer kunnen toelichten over de answer box ontwikkelingen.

Keyword data verdwijnt? Hoe zit het met WMT dan?
– Google WMT geeft inderdaad keyword data weer. Zelf was ik echter meer fan van Google Analytics data. De reden was dat je het succes van een zoekterm kon controleren, bijvoorbeeld de conversies. WMT geeft alleen de vertoningen, CTR en gemiddelde positie van de keywords weer. Daarnaast zijn er soms twijfels over hoe accuraat GWMT eigenlijk is.

En daar wil ik graag aan toevoegen:

Dit is bij uitstek om dit soort zaken dan ook wat uitgebreider te bespreken. Altijd leuk om discussies over interpretatie te hebben, dat maakt het SEO vak leuk!

Schema.org: dit is een samenwerking tussen de zoekmachines zoals je zelf aan geeft. Door samen te werken worden er uniforme markup vocabulair ontwikkeld. Een aantal van deze syntaxes word gebruikt door zoekmachines, maar dat is slechts een heel klein gedeelte. Dankzij deze standaarden is het bijvoorbeeld veel makkelijker om software onderling te laten communiceren, eenvoudiger content uit te lezen etcetera. Wat mij betreft veel te kort af om te zeggen dat Schema.org enkel standaarden voor Rich Snippets voor schrijft. Dat is hetgeen de meeste marketeers zien, maar gelukkig is er meer 🙂

SSL: ik ben zelf niet zo’n fan van het achter Google aan lopen. Er zit namelijk altijd een addertje onder het gras. Door een HTTPS + SPDY setup te gebruiken zijn websites een stuk sneller te maken, wat weer minder crawling budget kost = minder kosten voor Google. Waarom ik hierover een opmerking is het volgende: is een HTTPS zinvol voor alle websites? Sowieso enkel op pagina’s waar data gedeeld word en ook bij de veiligheid van HTTPS kunnen vraagtekens gezet worden. Waarom zou de bakker op de hoek een SSL certificaat moeten aanschaffen wat geen enkele meerwaarde biedt en zeer waarschijnlijk de website ook nog trager maakt omdat er geen budget is voor een fatsoenlijke integratie?

Mobile first: ik lees die opmerking als: beter voor Google, dus tonen ze het resultaat niet als de website niet mobile friendly is. Gelukkig zijn het twee aparte indices die onafhankelijk doorgerekend worden. Is er een probleem als je nu niet meteen je website mobile friendly maakt? Nee, dat heeft geen enkele invloed op je rankings in de desktop index. Ook hier geldt weer, is dit relevant voor alle websites? Wat heeft een affiliate website aan mobile visitors waarbij de cookie op het mobiele device blijft staan en de sale dus niet getrekt word als men via desktop vervolgens aanschaft? Enige positieve aan dit verhaal is het feit dat webbureaus nu makkelijk geld kunnen verdienen als ze goed zijn in het opzetten van responsive websites.

Smartwatch en alle andere devices is wel heel interessant. Zeker in combinatie met Voice Search en Hummingbird vereist dit straks een andere aanpak dan de standaard keyword research om je pagina inhoud te bepalen. Responsive website op je smartwatch word wel een uitdaging.

Dwell time: ja, dit concept is zeker (al een tijdje :)) aanwezig, zou ook heel gek zijn als Google dit niet gebruikt aangezien dit makkelijk te meten is voor Google. Kan de link niet meer vinden, maar in de JavaScript van Google zelf zijn ook referenties terug te vinden van het tracken van data op het moment dat een bezoeker terug keert naar de oorspronkelijk zoekresultaat pagina. Bounce rate kan Google niet meten, bezoekers kunnen namelijk gewoon hun tabblad of browser sluiten en gelukkig voor ons heeft niet iedere website Google Analytics geïnstalleerd.

Knowledge Graph: Freebase is inderdaad begonnen op basis van de corpus van Wikipedia maar draait nu zelfstandig. Iedereen die met de KG heeft lopen testen beamen dat Wikipedia slechts als identificatie van entiteiten is en uit één van mijn laatste test blijkt dat zelfs ook niet meer nodig te zijn om opgenomen te worden in de Knowledge cards. Kijk bijvoorbeeld naar slide 17 van http://www.slideshare.net/11internet/future-of-search-and-links-the-igaming-summit-malta-sigma2014 waar mijn leeftijd 108 is. De enige plek waar die informatie te vinden is, is Freebase, niet Wikipedia. De volgende stap zijn inderdaad bronnen gebruiken die minder makkelijk te veriferen zijn, zoals nu vaak random websites komen boven drijven op specifieke vragen. Door goede pagina’s te creeren kun je via de Answer Cards flink veel traffic extra genereren.

Keyword data: ik ben zelf volgens mij degene die de knuppel in het hoenderhok heeft gegooid met betrekking tot de validiteit van WMT data. Voor mensen die daar niet bekend mij zijn, zie http://www.notprovided.eu/why-not-use-googles-wmt-data/

Gelukkig zijn er steeds meer mogelijkheden met betrekking tot machine learning, waaronder de prediction API die getraind kan worden om op basis van historische datasets zoekwoorden te koppelen aan specifieke URLs. Er zijn verschillende aanbieders van commerciële oplossingen hiervoor. Voor de bakker op de hoek is er inderdaad minder data beschikbaar, dat kun je compenseren met het inleven in je gebruikers. Komt de bezoeker op de pagina die hij of zij wilt en welke zoekwoorden combinaties en de daaruitvolgende content kan je daar voor inzetten?


Door Martijn Van den Berg op 14 december 2014

Hoi Jan-Willem,

Leuk dat je de tijd hebt genomen om een uitgebreid en kwalitatief sterk verhaal neer te zetten.
Er staan nieuwe dingen in voor mij waar ik mij nog in wil verdiepen, erg nuttig dus.

Mooie slides overigens over de future of search and links. Lijkt mij voor iedereen hier ook het bekijken waard!


Door Johan Kuurman op 12 januari 2015

Afgelopen week heb ik een erg goede training gehad van Alain Sadon daar kwam onder andere het fenomeen “Dwell Time” kort aanbod.

Een kort bezoek aan de website zou er op kunnen duiden dat deze niet relevant genoeg was. Maar wat nou als deze bezoeker direct dat stukje informatie heeft gevonden en daardoor snel terugkomt in de zoekresultaten? Of wanneer iemand na het gevonden stukje informatie de website eigenlijk wegklikt?

Ik denk dat het voor Google een erg lastige klus zou worden om automaitsch (via timers als meewegende factor) te bepalen of een website relevant genoeg is of niet.

Als een bezoeker Google nou gebruikt als vergelijkingsportal? En daardoor aan het pogosticking is?

Wat zou volgens jullie een acceptabele “weigeringspercentage” zijn voor bijvoorbeeld een webshop?


Door Martijn op 13 januari 2015

Hoi Johan. Het is inderdaad mogelijk dat iemand direct gevonden heeft op een website wat hij of zij nodig heeft en al snel weer weg is. Waarschijnlijk zal deze persoon dan echter niet meer terugkeren naar de zoekresultaten in Google, wat denk ik ook een ‘positief’ signaal is. Interessante vraag en ik ben benieuwd wat anderen denken!

Bedoel je met weigeringspercentage de bounce rate? Een bounce rate tussen de 40 en 60% is niet raar voor webshops over het algemeen.

Plaats een reactie