Auteur: Erwan

Top 13 Google Spambeleid technieken

Auteur: Erwan Vrignaud
Leestijd: 23 minuten

Het spambeleid van Google helpt gebruikers te beschermen tegen misleiding, fraude, phishing en andere zaken die het daglicht niet kunnen verdragen. Dit beleid is van toepassing op al hun content en dan moet je denken aan webpagina´s, video´s, nieuwscontent of ander materiaal dat Google op internet vindt. Al dit materiaal moet voldoen aan hun richtlijnen omtrent Spambeleid. Dit wordt voornamelijk gecontroleerd via geautomatiseerde systemen en wanneer het nodig is kan er ook een menselijke beoordeling aan te pas komen. Wanneer er zonder twijfel sprake is van het schenden van het spambeleid zal deze controleur overgaan tot handmatige actie. Dit heeft in de regel als resultaat dat de website lager zal scoren in hun zoekmachine of zelf volledig wordt verbannen uit het netwerk van Google.

Er vinden vandaag de dag helaas vele vormen van onethisch gedrag plaats op allerlei websites en soms is een website/eigenaar niet zelf de persoon die dit geïnitieerd heeft. Door niet of te laat beveiliging updates te installeren, zwakke hosting en/of niet de juiste beschermingsmaatregelen te volgen kunnen kwaadwillende jouw website infecteren zonder dat je het door hebt. Maar als Google dit dan constateert kan dit ernstige gevolgen hebben en voordat je erachter bent wat er is gebeurd en dit is hersteld en je website weer zoals vanouds wordt weergegeven in Google, ben je maanden of langer verder. Beter is dus het voorkomen dat het zover komt en in dit artikel vertel ik je wat de 13 meest voorkomende zaken zijn die vallen onder het spambeleid van Google.

1. Cloaking

Er is sprake van Cloaking wanneer er een verschil is tussen wat je aan een bezoeker laat zien en aan de Googlebot. Het kan verschillende redenen hebben, maar er bestaat geen enkele (!) reden die cloaking rechtvaardigt. Google moet te allen tijde dezelfde content voorgeschoteld krijgen als jouw bezoekers. Geen uitzondering.
Voorbeelden van cloaking zijn:
• Een pagina over films weergeven aan zoekmachines terwijl een pagina over medicijnen wordt weergegeven aan gebruikers
• Het verschijnen van tekst of zoekwoorden in een pagina wanneer Google jouw website bezoekt, maar niet als een gebruiker jouw website bezoekt
Als jouw website technologieën gebruikt die zoekmachines soms moeilijk kunnen indexeren, zoals JavaScript of afbeeldingen, zorg er dan voor dat je de aanbevelingen opvolgt zodat je niet (per ongeluk) content camoufleert.

Als je een betaalmuur gebruikt, wordt dit niet beschouwd als verhullend zolang Google maar de volledige content kan zien van wat zich achter de betaalmuur afspeelt, net als de persoon die toegang heeft tot dit materiaal.
Als jouw site wordt gehackt, komt het vaak voor dat de hacker cloaking gebruikt omdat het dan moeilijker wordt de hack te detecteren. Ben je gehackt of vermoed je dit? Ga vooral niet zelf zitten stoeien en schakel een professional in. Voor advies kun je contact met mij opnemen.

Voorbeeld van melding van Google wanneer een website niet veilig is

2. Doorways

Doorways zijn websites of pagina’s die speciaal zijn gemaakt om te ranken op bepaalde zoektermen of nauwe varianten van die zoektermen. Ze leiden gebruikers naar tussenliggende pagina’s die niet zo relevant zijn als de eindbestemming. Voorbeelden van doorways zijn:
• Het hebben van meerdere websites met kleine variaties in de URL en startpagina om het bereik voor een specifieke zoekopdrachten te maximaliseren
• Het hebben van meerdere domeinnamen of pagina’s die zijn getarget op specifieke regio’s of steden die gebruikers naar één pagina leiden
• Pagina’s die alleen zijn ontworpen om bezoekers speciaal naar het bruikbare of relevante deel van jouw website(s) te leiden
• Sterk vergelijkbare pagina’s die zeer nauw met elkaar zijn verweven en geen onderdeel zijn van een duidelijk gedefinieerde hiërarchie

3. Gehackte content

Gehackte content is alle content die zonder toestemming van de eigenaar op een site terecht is gekomen vanwege kwetsbaarheden in de beveiliging van die website. Gehackte content laat op zijn minst content zien die voor de bezoeker totaal niet interessant is en niet zelden zelfs ronduit schadelijk is voor de bezoeker. Voorbeelden zijn:
• Code-injectie: wanneer hackers toegang krijgen tot jouw website, kunnen ze schadelijke code injecteren in bestaande pagina’s op jouw website. Dit is vaak kwaadaardig JavaScript dat rechtstreeks in de website of in iframes is geïnjecteerd.
• Pagina-injectie: vanwege beveiligingsfouten kunnen hackers nieuwe pagina’s aan jouw website toevoegen die spam of schadelijke content bevatten. Deze pagina’s zijn vaak bedoeld om zoekmachines te manipuleren of om via phishing belangrijke gegevens van een bezoeker te ontfutselen. Jouw bestaande pagina’s vertonen mogelijk geen tekenen van hacking, maar de toegevoegde webpagina’s zijn dat vaak wel en schaden hiermee zowel de bezoekers als de zoekmachines.
• Content injectie: hackers kunnen ook heel subtiel bestaande webpagina’s op jouw website manipuleren. Hun doel is om content aan jouw website toe te voegen die zoekmachines kunnen zien, maar die voor jou en jouw bezoekers moeilijk te herkennen is. Dit kan door het toevoegen van verbogen links en tekst in een webpagina met behulp van CSS of HTML, of het kan gaan om complexere wijzigingen zoals cloaking.
• Omleidingen: wanneer hackers schadelijke codes op jouw website plaatsen die sommige gebruikers doorleidt naar schadelijke of spamachtige pagina’s spreken we van omleidingen. Het soort omleiding is afhankelijk van de verwijzer, user agent of het apparaat. Als jij bijvoorbeeld op een URL in de zoekresultaten van Google klikt, kun je worden omgeleid naar een verdachte pagina, maar er is geen omleiding wanneer je dezelfde URL rechtstreeks vanuit een browser bezoekt.

4. Verborgen teksten en links

Met verborgen teksten of verborgen links wordt bedoeld alle content die speciaal is ontworpen om zoekmachines te manipuleren en verder geen enkele toegevoegde waarde heeft voor bezoekers.
Voorbeelden van verborgen tekst of links die het beleid schenden zijn:
• Witte tekst gebruiken op een witte achtergrond
• Tekst achter een afbeelding verbergen
• CSS gebruiken om tekst buiten het scherm te plaatsen
• De tekengrootte of dekking instellen op 0
• Een koppeling verbergen door slechts één klein teken te koppelen (bijvoorbeeld een koppelteken in het midden van een alinea)

Er zijn tegenwoordig veel moderne webdesign elementen die content op een dynamische manier weergeven en verbergen om de gebruikerservaring te verbeteren. Deze elementen zijn niet in strijd met het beleid:
• Content op accordeon of met tabbladen die schakelt tussen verbergen en weergeven van extra content
• Diavoorstelling of schuifregelaar die tussen verschillende afbeeldingen of tekstparagrafen wordt geschakeld
• Knopinfo of vergelijkbare tekst waarin extra inhoud wordt weergegeven wanneer gebruikers interactie hebben met een element
• Tekst die alleen toegankelijk is voor schermlezers en bedoeld is om de ervaring te verbeteren voor gebruikers van schermlezers

5. Keyword stuffing

Keyword stuffing verwijst naar de techniek waarmee webpagina’s vol worden gepropt met zoekwoorden in een poging om rankings in de zoekresultaten van Google te manipuleren. Vaak verschijnen deze trefwoorden in een lijst of groep, onnatuurlijk of uit de context. Voorbeelden van keyword stuffing zijn:
• Lijsten met zoekwoorden in allerlei varianten zonder substantiële toegevoegde waarde
• Tekstblokken met een lijst van steden en regio’s waarvoor een webpagina probeert te rangschikken
• Dezelfde woorden of zinnen zo vaak herhalen dat het onnatuurlijk klinkt.

6. Malware en kwaadaardig gedrag

Google controleert websites om te zien of ze malware of ongewenste software gebruiken die bezoekers negatief beïnvloedt en/of schadelijk voor hen is.
Malware is elke software of applicatie die speciaal is ontworpen om schade toe te brengen aan een computer, een mobiel apparaat of de gebruiker ervan. Malware gedraagt zich kwaadaardig, zoals het installeren van software zonder toestemming van de gebruiker en/of het installeren van schadelijke software zoals virussen. Website-eigenaren realiseren zich soms niet dat hun gedownloade bestanden als malware worden beschouwd, deze bestanden worden vaak per ongeluk gehost.
Ongewenste software is een uitvoerbaar bestand of mobiele applicatie die is ontworpen met het doel misleidende handelingen uit te voeren waar geen toestemming voor is gegeven. Een voorbeeld is het periodiek vertonen van advertenties of het ongevraagd geven van meldingen. Een voorbeeld van ongewenste melding is: ‘Dit aandeel is vandaag met 17% gestegen!’. Nog minder “gewenst” zijn bestanden of applicaties die privé- en/of persoonlijke informatie opnemen zonder dit van tevoren kenbaar te maken.

Als je eigenaar bent van een gehackte website kan Google deze melding geven

7. Link spam

Links zijn voor Google als een belangrijk signaal bij het bepalen van de domein autoriteit van een website. Links die bedoeld zijn om de positie in de zoekresultaten van Google te manipuleren, kunnen worden beschouwd als linkspam. Dit omvat elk techniek die links van of naar jouw website manipuleert. Enkele voorbeelden:
• Links kopen of verkopen voor rangschikkingsdoeleinden
• Geld uitkeren voor links of berichten die links bevatten
• Goederen of diensten ruilen voor links
• Iemand een product sturen in ruil voor het schrijven over dit product en/of het opnemen van een link
• Onnatuurlijke linkuitwisselingen (“link naar mij en ik zal naar jou terug linken”) of cross-linking met partnerpagina’s
• Het gebruiken van geautomatiseerde programma’s of services die links naar jouw website sturen
• Advertenties of native advertising waarbij betaling wordt ontvangen voor artikelen die links bevatten, of links met geoptimaliseerde ankertekst in artikelen, gastberichten of persberichten.

Bijvoorbeeld:
‘Wanneer je een elektrische fiets koopt zul je in de praktijk veel meer gaan fietsen. Deze kunt je kopen bij verschillende dealers.’

• Links naar webpagina’s van lage kwaliteit
• Zoekwoordrijke, verborgen of laagwaardige links die zijn verstopt in widgets
• Wijd verspreide links in de voetteksten of sjablonen
• Forumreacties met links in het bericht of de handtekening, bijvoorbeeld:
Dit artikel was zeer nuttig! Nu weet ik waar ik op moet letten. Robert elektronicaeindhoven.nl
• Links waar voor is betaald niet classificeren met een rel=”nofollow” of rel=”gesponsord” labelwaarde.

8. Machinaal gegenereerd verkeer

Dit omschrijft al het webverkeer wat op onnatuurlijke wijze, vaak machinaal wordt gegenereerd. Het doel is om zoekmachines te misleiden of informatie te ontfutselen. Voorbeelden zijn:
• Geautomatiseerde zoekopdrachten verzenden naar Google
• Scraping van rangschikkingsresultaten of andere vormen van geautomatiseerde toegang tot zoekmachines zonder uitdrukkelijke toestemming

9. Misleidende functionaliteit

Website-eigenaren moeten websites maken met content van goede kwaliteit en functionaliteit die overeenkomt met de verwachting die wordt gewekt op de site. Er is sprake van misleidende functionaliteit wanneer er opzettelijk functies of services worden aangeboden die niet functioneel zijn op de website, of een ander doel vertegenwoordigen dan de bezoeker redelijkerwijs mag verwachten. Voorbeelden van misleidende functionaliteiten zijn:
• Een website die beweert concertkaarten te verkopen van een populaire artiest maar deze in werkelijkheid helemaal niet heeft
• Een website die functionaliteiten aanbiedt zoals het comprimeren van audiobestanden maar bezoekers doorverwijst naar misleidende advertenties om bijvoorbeeld Bitcoins te kopen

10. Geschraapte content

Met geschraapte content wordt verstaan alle content die op een website is geplaatst maar niet door de website-eigenaar zelf is gecreëerd. Deze “geschraapte” content is vaak identiek aan het origineel omdat deze zonder enige wijziging op een andere website wordt geplaatst. Dit geeft een gebruiker geen toegevoegde waarde, want als iedereen dit gaat doen kom je dezelfde content overal op verschillende website tegen. De regel hier geldt: degene die de content als eerste heeft geschreven zal leidend zijn in de rangschikking van zoekmachines. In vele gevallen is de originele content auteursrechtelijk beschermd en is het kopiëren daarvan in strijd met het auteursrecht. Wanneer er regelmatig verwijderingsverzoeken bij Google worden ingediend kan dit resulteren in penalty’s met lage rangschikking tot gevolg.
Voorbeelden van scraping zijn:
• Websites die content van andere sites kopiëren en publiceren zonder nieuwe content toe te voegen
• Websites die content van andere websites kopiëren, deze slechts in geringe mate wijzigen en publiceren
• Websites die voornamelijk als doel hebben content zoals video’s, afbeeldingen of andere media te kopiëren zonder enige toegevoegde waarde voor de bezoeker

Het schrapen van content kan op verschillende kanalen worden uitgevoerd

11. Stiekeme omleidingen

Met stiekeme omleidingen wordt een redirect bedoelt die de bezoeker naar een andere url leiden dan deze verwacht. Dit leidt ertoe dat bezoekers andere content voorgeschoteld dan verwacht en dit wordt gedaan om de bezoeker en/of de zoekmachine te misleiden. Voorbeelden van stiekeme omleidingen zijn:
• Een bezoeker op een website verleiden op een button te klikken voor korting en deze wordt doorgeleid naar een pornosite
• Zoekmachines één type content tonen terwijl gebruikers worden omgeleid naar iets aanzienlijk anders
• Desktopgebruikers een normale pagina laten zien terwijl mobiele gebruikers worden omgeleid naar een andere spamwebsite

Hoewel stiekeme omleiding een vorm van spam is, zijn er veel legitieme redenen om de ene URL naar de andere door te leiden. Voorbeelden van legitieme omleidingen zijn:
• Jouw website is verhuisd naar een ander domein en je verwijst de oude url door naar de nieuwe
• Meerdere pagina’s samenvoegen tot één
• Gebruikers omleiden naar een interne pagina zodra ze zijn ingelogd
Een omleiding is eigenlijk altijd in orde als de bezoekers en/of de zoekmachine niet voor onverwachte verassingen komen te staan die mogelijk schadelijk is. Het moet overeenkomen met de verwachting.

12. Automatisch gegenereerde spam

Automatisch gegenereerde spam is content die via software automatisch is gegenereerd zonder iets origineels te produceren wat van meerwaarde is voor de bezoeker. Dit kan een één op één kopie zijn van tekst van een andere website of teksten die volgens AI software zoals ChatGPT zijn gegenereerd. Google heeft tegenwoordig door wanneer teksten volledig geautomatiseerd zijn gecreëerd en zal dit niet hoog waarderen in hun zoekresultaten. Het doel is om alleen maar te zorgen voor zoveel mogelijk content om zoekmachines en bezoekers het idee te geven van autoriteit. Voorbeelden van automatisch gegenereerde spamcontent zijn:
• Een tekst die door automatische vertaling grammaticaal slecht in elkaar zit
• Een tekst die voor de lezer nergens op slaat maar wel relevante zoekwoorden bevat
• Een tekst die is gegenereerd via een geautomatiseerd proces zonder rekening te houden met kwaliteit of gebruikerservaring
• Een tekst die is gegenereerd door scraping in de zoekresultaten
• Content van verschillende webpagina’s combineren zonder er iets nieuws aan toe te voegen

13. Dunne affiliate pagina’s

Met dunne affiliate pagina’s worden pagina’s bedoelt pagina’s waarop productomschrijvingen en/of reviews te zien zijn die één op één zijn gekopieerd van een andere website zonder dat er iets aan is toegevoegd. Dunne affiliate pagina’s worden voornamelijk gemaakt met één doel; zoveel mogelijk pagina’s creëren waar geen enkele energie in is gestoken om maar zoveel mogelijk producten onder de aandacht te brengen. Er is niets mis met veel producten te willen verkopen, maar je moet je eigen “winkel” inrichten en niet afkijken hoe je buurman deze heeft ingericht en het dan precies zo doen. In een winkelstraat zouden bezoekers ook snel verveeld raken want dit biedt geen meerwaarde. Dit wil Google voorkomen en dat doen ze door deze pagina’s uit te sluiten van deelname in de SERP’s (Search Engine Result Page). Deze websites zijn vaak replica’s met identieke content over verschillende domeinen en talen. Goede affiliate pagina’s laten mogelijk dezelfde producten zien maar in een totaal andere omgeving, originele teksten, extra features zoals beoordelingsvideo’s en/of gebruikersinstructies.

Conclusie

Het is cruciaal waakzaam te blijven en ervoor te zorgen dat je goed op de hoogte bent van de SPAM richtlijnen van Google. Gezond verstand is hier leidend, het kom zelden voor dat een webdeveloper goede intenties heeft en vervolgens toch wordt gestraft door Google wegens het schenden van hun SPAM-beleid. Het kan wel zijn dat de eigenaar zich niet bewust is dat zijn/haar website het beleid schendt, maar dan is er wel op zijn minst sprake van onvoldoende waakzaamheid. Door op de hoogte te zijn van de regels en te zorgen voor maximale veiligheid voor je website zoals goede SSL certificaten en sterke wachtwoorden, is de kans dat je het SPAM-beleid schendt klein. Heb je hier vragen over, neem contact op!

Contactformulier

"*" geeft vereiste velden aan

Reacties
Dit veld is bedoeld voor validatiedoeleinden en moet niet worden gewijzigd.

Lees meer

Wat is Schema Markup?

Auteur: Erwan Vrignaud
Leestijd: 12 minuten

Schema markup, wat je kunt zien op Schema.org, is een vorm van microdata die, eenmaal toegevoegd aan een webpagina, een uitgebreide beschrijving (rich snippet), creëert die wordt weergegeven in de zoekresultaten van zoekmachines. Het is ontworpen voor zoekmachines in 2011.
Schema markup is belangrijk omdat het zoekmachines helpt de content beter te interpreteren en te koppelen met een zoekopdracht met betere resultaten voor bezoekers als resultaat.

Waarom is dit belangrijk voor je SEO? Deze rich snippets zorgen er voor dat jouw webpagina’s beter zichtbaar zijn in de SERP’s (Search Engine Result Page) door hier onder de naam van de website en de url extra informatie te plaatsen. Van deze verbeterde zichtbaarheid is aangetoond dat het de CTR (Click Through Rate) verhogen. Het is een van de eenvoudigste manieren om grote effecten te behalen in SEO.

Welke type Rich Results snippets bestaan er?

Artikel
Een nieuws-, sport- of blogartikel dat wordt weergegeven met verschillende uitgebreide functies, zoals de titel van het artikel en afbeeldingen die net iets groter zijn dan miniatuurafbeeldingen.

Boeken
Presentaties van boeken in de zoekresultaten die gebruikers rechtstreeks kunnen kopen.

Broodkruimel
Navigatie die de positie van de pagina in de sitehiërarchie aangeeft.

Carrousel
Uitgebreide resultaten van een website die in een opeenvolgende lijst of galerij worden weergegeven. Deze functie moet worden gecombineerd met een van de volgende opties: Recept , Cursus , Restaurant , Film .

Een voorbeeld van de Carousel snippet met gerechten

Cursus
Onderwijscursussen die onder elkaar verschijnen in een specifieke lijst. Cursussen kunnen de cursustitel, aanbieder en een korte beschrijving bevatten.

Dataset
Grote datasets die verschijnen in Google Dataset Search.

Vragen en antwoorden over onderwijs
Onderwijs gerelateerde vragen en antwoorden gepresenteerd in kaartvormen waarmee leerlingen meer informatie kunnen ontdekken in Google Zoeken.

Beoordeling van werkgever
Een evaluatie van een wervingsorganisatie, samengesteld uit veel gebruikers, die wordt weergegeven tijdens het zoeken naar vacatures op Google.

Geschat salaris
Informatie over salarisschattingen, zoals salarisschalen en regio-gebaseerde salarisgemiddelden voor functietypen, weergegeven tijdens het zoeken naar vacatures op Google.

Evenement
Een interactief, rich result dat een lijst toont met georganiseerde evenementen, zoals concerten of kunstfestivals, die bezoekers op een bepaalde datum en plaats kunnen bijwonen.

Feiten controleren
Een samengevatte versie van de evaluatie door een geloofwaardige website volgens vele bezoekers.

FAQ
Een pagina met veel gestelde vragen (FAQ) bevat een lijst met vragen en antwoorden over een bepaald onderwerp.

 

De ‘veelgestelde vragen’ snippet

Thuisactiviteiten
Een interactief rich result waarbij mensen online activiteiten kunnen ontdekken die ze vanuit thuis kunnen verrichten.

Hoe
Een instructie die bezoekers helpt met een reeks stappen te doorlopen om een taak succesvol te voltooien. Vaak in combinatie met video, afbeeldingen en tekst.

Metagegevens van afbeeldingen
Wanneer metagegevens voor afbeeldingen zijn toegevoegd in een website, kan Google Afbeeldingen meer details over de afbeelding zelf weergeven, zoals wie de maker is, hoe mensen een afbeelding kunnen gebruiken en andere informatie.

Vacatures
Een interactief rich result waarmee werkzoekenden een baan kunnen vinden. De zoekervaring op Google kan logo’s, recensies, beoordelingen en vacaturegegevens bevatten.

Leervideo
Help leerlingen en docenten educatieve video’s te ontdekken en te bekijken door gestructureerde leer-videogegevens toe te voegen aan jouw educatieve video’s.

Lokaal bedrijf
Bedrijfsgegevens die worden weergegeven in het Google-kennispaneel, inclusief openingstijden, beoordelingen, routebeschrijvingen en acties om afspraken te boeken of artikelen te bestellen.

Logo
Het logo van jouw organisatie in de zoekresultaten en het Google-kennispaneel.

Het Logo van jouw bedrijf kun je ook als snippet invoegen

Wiskundige oplossingen
Help studenten, docenten en anderen met wiskunde vraagstukken door gestructureerde gegevens toe te voegen om het type wiskundeproblemen aan te geven en stapsgewijze instructies voor specifieke wiskundeproblemen te omschrijven.

Film
Met de filmcarrousel kunnen bezoekers lijsten met films op Google Zoeken verkennen (bijvoorbeeld ‘beste films van Al Pacino’). Je kan details over de films opgeven, zoals de titel van elke film, informatie over de regisseur en afbeeldingen.

Praktijk problemen
Help leerlingen, docenten en ouders met onderwijs door gestructureerde gegevens toe te voegen aan jouw praktijk problemen in wiskunde- en natuurwetenschappenvakken.

Product
Informatie over een product, inclusief prijs, beschikbaarheid en recensies.

Vraag en antwoord
Vraag- en antwoordpagina’s zijn webpagina’s die gegevens bevatten in de vorm van vraag en antwoord, wat bestaat uit één vraag direct gevolgd door het antwoord.

Recept
Recepten die worden weergegeven als individueel uitgebreid resultaat of als onderdeel van een gastcarrousel.

Recensiefragment
Een kort fragment uit een recensie of een beoordeling van een recensiewebsite, meestal een gemiddelde van de gecombineerde beoordelingsscores van recensenten. Een recensiefragment kan gaan over Boek , Recept , Film , Product , Software-app en Lokaal bedrijf .

Zoekvak voor sitelinks
Een zoekvak dat zich richt op jouw website wanneer deze als zoekresultaat wordt weergegeven.

Vooral de sitelink-snippet neem veel ruimte in en moet je zeker gebruiken

Software-app
Informatie over een software-app, inclusief beoordelingsinformatie, een beschrijving van de app en een link naar de app.

Spraak
Sta zoekmachines en andere applicaties toe om nieuwsinhoud te identificeren en voor te lezen op apparaten met Google Assistent met behulp van tekst-naar-spraak (TTS).

Abonnements- en betaalmuurinhoud
Geef de content op jouw website waarvoor een betaalmuur geldt aan, zodat Google content van een betaalmuur kan onderscheiden. Dit om cloaking te voorkomen, wat in strijd is met het spambeleid.

Video
Video-informatie in zoekresultaten, met de optie om direct de video af te spelen, videosegmenten op te geven en content live te streamen.

Microdata gebruiken

Microdata is een set tags die tot doel heeft om aantekeningen te maken bij HTML elementen met tags geschikt voor zoekmachines. Microdata is een veelgebruikt omdat het zo gemakkelijk te gebruiken is. Het enige nadeel van het gebruik van microdata is dat je elk afzonderlijk item in de hoofdtekst van jouw webpagina moet markeren. Hier liggen fouten op de loer. Voordat je begint met het toevoegen van een schema aan jouw webpagina’s, moet je het kiezen uit bovenstaande lijst en bepalen hoe je deze wilt taggen.

Wil je dit in je broncode toevoegen, dan kun je de codes opvragen direct op deze pagina van Google:

Als je niet in de broncode zelf wilt gaan rommelen zijn er verschillende PlugIns voor WordPress die dit automatisch voor je doen zoals de Schema & Structured Data for WP & AMP

Schema & Structured Data for WP & AMP

Eenmaal geïnstalleerd en de instellingen goed uitgevoerd doet deze (gratis) PlugIn al wonderen.

Heb je hier vragen over of kun je hulp gebruiken? Neem dan contact op!

Contactformulier

"*" geeft vereiste velden aan

Reacties
Dit veld is bedoeld voor validatiedoeleinden en moet niet worden gewijzigd.

Lees meer

Wat is Paginering?

Auteur: Erwan Vrignaud
Leestijd: 17 minuten

Paginering staat voor het proces waarbij veel content op de pagina wordt opgesplitst in meerdere pagina’s. Het is bedacht om de gebruiksvriendelijkheid van een website te vergroten. Maar hier zitten wat haken en ogen aan en wanneer dit niet goed wordt uitgevoerd kan dit veel nadelige effecten hebben.

Paginering wordt vaak gebruikt om een enorme hoeveelheid artikelen op te splitsen, foto galerijen onder te brengen in overzichtelijke blokken en onderwerpen in forums overzichtelijker te maken. Voor grote websites is het een absolute must hier goed over na te denken hier wel of niet iets meet te doen. En als er gebruik van gemaakt gaat worden, hoe dit goed aan te pakken zodat de UX (User Experience) niet wordt benadeeld en er geen negatieve SEO-effecten optreden.

Het is een uitdaging om ervoor te zorgen dat zoekmachines de relatie tussen deze URL’s begrijpen, zodat ze het meest relevante pagina’s indexeren. Paginering is een proces wat in de loop der jaren enorm is geëvolueerd en in dit artikel leg ik uit hoe je dit het beste aan kunt pakken. En er gaan nogal wat fabels rond over dit fenomeen wat ik ook zal beschrijven. De grootste mythe is wel dat paginering een rangschikkings-indicatie is voor zoekmachines, wat niet het geval is. Althans niet direct, mogelijk wel indirect. Een zoekmachine zal het een zorg zijn hoe je de content op je pagina’s indeelt, zolang bezoekers maar kunnen vinden wat ze zoeken. Maar wanneer Google ziet dat bezoekers daar moeite mee hebben wordt het een ander verhaal. Dat meet Google af aan de UX (User Experience) en dat heeft wel invloed op je organische posities.

Je hebt waarschijnlijk ooit gehoord dat paginering slecht is voor SEO. In de meeste gevallen is dit te wijten aan een gebrek aan correcte paginering, in plaats van het bestaan van paginering zelf. Wat zijn voorbeelden van onjuiste paginering en andere mythes?

Paginering die dubbele content veroorzaakt
Wat wel eens voorkomt is een combinatie van de “Alles weergeven”-tag als gepagineerde pagina’s zonder een correct “rel=canonical” of als je een page=1 hebt gemaakt naast je hoofdpagina. Met standaard templates van WordPress is dit nagenoeg uitgesloten, maar met custom made websites moet je hier voor oppassen. Voor de rest kan er niet zo snel wat fout gaan. Zelfs als jouw H1
en metatags precies hetzelfde zijn, maar de content op de pagina’s verschillen, zien zoekmachines het niet als dubbele content.

Paginering creëert lage content pagina’s
Dit is correct wanneer je een artikel of fotogalerij over meerdere pagina’s hebt verdeeld om bijvoorbeeld advertentie-inkomsten te genereren door het aantal paginaweergaven te verhogen. Deze truc zorgt inderdaad voor lage content pagina’s en moet worden vermeden. Ik ben sowieso geen voorstander van trucs om zoekmachines om de tuin te leiden, de algoritmes zijn in de meeste gevallen slimmer dan wij. Wees voorzichtig en bescheiden met het plaatsen van automatische banneradvertenties zodat ze niet de leeservaring (UX) negatief beïnvloeden.

 

Bij webshopsplatforms is het vaak mogelijk Paginering in te stellen

Paginering verlaagt rangschikkingssignalen
Er wordt beweerd dat door paginering het aantal interne of externe links wordt vermeervoudigd. Als er op een artikelpagina een link staat naar de fabrikant en dit artikel is beschikbaar in 10 verschillende kleuren en 10 verschillende afmetingen en 10 verschillende – wat dan ook – en op iedere pagina staat een link, dan zou je ineens tientallen, dezelfde links op je website hebben wat nadelig zou zijn. Dit is onjuist. Wanneer er namelijk de (rel=”prev”) en (rel=”next”) tags worden toegepast op de gepagineerde pagina’s, begrijpt Google wat er aan de hand is. Geen probleem.

Paginering maakt gebruik van crawlbudget
Iedere pagina die gecrawld moet worden gaat verloren van je crawlbudget. Je doet er dus verstandig aan overbodige pagina’s uit te sluiten van indexering. Alleen de hoofdpagina is voldoende, zoals één artikel, en alle varianten van dat artikel hoeven niet apart geïndexeerd te worden. Dit kun je eenvoudig instellen met een “no-index” tag zodat je jouw crawlbudget kunt behouden voor meer
belangrijkere pagina’s.

Hoe beheer je paginering?

Gebruik het liefst de (rel=”next”) & (rel=”prev”) tags om de relatie tussen de url’s te markeren. Dit is voor zoekmachines volkomen duidelijk. Google beveelt deze optie aan en merkt op dat ze deze opmaak gezien wordt als een sterke hint dat je wilt dat jouw pagina’s worden behandeld als een logische sequentie. Hierdoor worden de koppelingseigenschappen geconsolideerd en worden de bezoekers meestal naar de eerste pagina gestuurd. Houd er rekening mee dat deze (rel=”next” / “prev”) dus als aanbevelingen worden behandeld en niet per sé als richtlijnen. Ze zullen niet altijd voorkomen dat gepagineerde pagina’s toch worden weergegeven in de zoekresultaten. Maar wanneer je dit doet wordt een duidelijke relatie tussen de pagina’s aangegeven, zodat zoekmachines niet iedere pagina apart hoeven te indexeren, wat mogelijk leidt tot dubbele content.

Gepagineerde paginatitels en metabeschrijvingen wijzigen

Wanneer de (rel=”next”) en (rel=”prev”) ervoor moeten zorgen dat in de meeste gevallen alleen de hoofdpagina wordt weergegeven in de SERP (Search Engine Result Page), kun je dit ook voorkomen door geen dubbele metatekst en titletags te gebruiken. Ook wanneer je tientallen varianten hebt van één en hetzelfde artikel is het verstandig dit te wijzigen zodat in de metatekst de variabele wordt opgenomen. Goede webshop platforms doen dit automatisch want als je dit handmatig moet doen ben je wel even bezig.

Neem geen gepagineerde pagina’s op in je XML-sitemaps

Hoewel de (rel=”next” / “prev”) pagina’s technisch indexeerbaar zijn, hebben ze geen SEO-prioriteit en wil je hier je crawlbudget niet aan verspillen. Zodoende horen ze niet thuis in jouw XML-sitemap. Het is altijd waardevol om duidelijke richtlijnen te geven aan crawlers hoe ze jouw content moeten indexeren en weergeven in hun resultaten. Laat je dit na dan neem je een serieus risico op SEO gebied.

Waarom zou je überhaupt gepagineerde pagina’s instellen?

Laten we het zo simpel mogelijk houden: als je jouw content op één URL kan aanbieden met een
goede gebruikerservaring, dan is het absoluut niet nodig. Maar als je dat niet kan omdat je bijvoorbeeld een webshop hebt met duizenden artikelen, dan is het verstandig deze te pagineren met de rel=”next” / “prev”. Simpelweg alles weergeven is niet de beste optie omdat het
geen goede gebruikerservaring biedt. Maar zorg er in ieder geval voor dat je niet zowel de rel=”next” / “prev” als de View All versie gebruikt want dit leidt tot verwarring voor de zoekmachine crawlers.

Canonicaliseren naar de eerste pagina

Een veelgemaakte fout is om de rel=”canonical” van alle gepagineerde resultaten door te wijzen naar de hoofdpagina. Het idee hierachter is dat de hoofdpagina de hoogste autoriteit heeft maar dit is onnatuurlijk en volkomen overbodig wanneer er de attributen rel=”next” en rel=”prev” zijn gebruikt.
Dit kan juist tot de foute conclusie van zoekmachines leiden dat jouw website maar één pagina heeft.
De Googlebot indexeert dan geen pagina’s die verderop in je hiërarchie voorkomen en dit leidt er toe dat deze pagina’s niet de erkenning krijgen die ze verdienen. Voorkom te allen tijde dat pagina’s buiten de index vallen door onjuiste paginering. Google is hier heel duidelijk over; elke pagina binnen een gepagineerde serie moeten een zelf verwijzende canonieke versie hebben.

 

Ook in WordPress is Paginering eenvoudig in te stellen

Noindex Gepagineerde pagina’s

Een ouderwetse manier om pagineringsproblemen op te lossen was om een robots noindex
-tag te gebruiken om te voorkomen dat gepagineerde content wordt geïndexeerd door zoekmachines. Vertrouw nooit alleen op de noindex-tag bij paginering, dit is inferieur SEO advies.
Gebruik altijd de rel=”next” / “prev” tag. Soms maken SEO specialisten het echt bont en gebruiken een combinatie van noindex en de rel=”next” / “prev” tag, dit is totaal zinloos en zelfs schadelijk omdat Google dan ook de mogelijke links niet zal volgen op de pagina’s. Noindex mag alleen gebruikt worden voor pagina’s die absoluut geen enkele meerwaarde biedt aan bezoekers zoals inlogpagina’s voor developers of betaal-bedankpagina’s die verschijnen nadat er een betaling succesvol is afgerond.

Paginering & Oneindig scrollen

Een recentere vorm van pagineringsverwerking is oneindig scrollen, waarbij content vooraf wordt opgehaald en rechtstreeks wordt toegevoegd aan de huidige pagina van de bezoeker terwijl deze naar beneden scrolt. Gebruikers kunnen dit mogelijk waarderen, maar Google doet zit zeer zeker niet. Wanneer de pagina eenmaal is geladen ziet de Googlebot de content niet meer die naderhand wordt bijgevoegd en wordt deze dus ook niet geïndexeerd. Een goede oplossing is de pagina op te delen in een gepagineerde reeks die altijd toegankelijk is, zelfs als JavaScript is uitgeschakeld. Terwijl de bezoeker scrolt, gebruikt u JavaScript om de URL in het adres aan te passen naar het element op de gepagineerde pagina. Hierdoor pas je de beste SEO techniek toe met dezelfde gebruikerservaring.

Crawlen van paginering ontmoedigen of blokkeren

Sommige SEO experts raden aan om het probleem van paginering te vermijden door simpelweg Google te blokkeren voor het crawlen van gepagineerde URL’s. Dan is het wel van cruciaal belang om een goed geoptimaliseerde XML sitemap te hebben om ervoor te zorgen dat pagina’s die via paginering zijn gekoppeld wel worden geïndexeerd.

Er zijn drie manieren om dit te doen:

  • De niet aan te raden manier: een nofollow tag toevoegen aan alle links die verwijzen naar gepagineerde pagina’s.
  • De betere manier: gebruik een robot.txt om indexering te verbieden.
  • De beste manier: stel de paginaparameter in op ‘paginering’ en hiermee geef je op de juiste manier door aan Google om geen URL’s’ te crawlen.

 

Door een van deze methoden te gebruiken ontmoedig je zoekmachines gepagineerde URL’s te crawlen. Hiermee voorkom je dat zoekmachines rangschikkingssignalen samenvoegen van
gepagineerde pagina’s. Ook voorkom je dat interne links van gepagineerde pagina’s worden doorgegeven aan de bestemmingspagina’s. Door een keuze te maken welke pagina’s wel en niet moeten worden geïndexeerd ga je spaarzamer om met je crawlbudget en dat zal in de toekomst een steeds grotere rol van betekenis gaan spelen. Wanneer je prioriteit wilt geven aan crawlbudget kun je dat het beste instellen in Search Console met behulp van pagineringsafhandeling.

Monitoring van Paginering instellingen

Natuurlijk wil je weten als alles goed staat ingesteld of het ook het gewenste effect heeft. Hoe pak je dit het beste aan? Verzamel eerst benchmarkgegevens om te begrijpen hoe jouw huidige paginerings instellingen in de praktijk hebben uitgepakt.

Goede bronnen zijn:
– Serverlogbestanden voor het aantal gepagineerde paginacrawls
– Inzicht in het aantal gepagineerde pagina’s dat Google heeft geïndexeerd
– Google Search Console Search Analytics-rapport gefilterd op pagina’s
– Google Analytics-bestemmingspaginarapport gefilterd op gepagineerde URL’s

Belangrijk hierin is om periodieke controles uit te voeren en dit goed in de gaten te houden. Er worden vaak werkzaamheden uitgevoerd op een website en fouten sluipen er razendsnel in. Door dit op orde te hebben zul je op de langere termijn betere resultaten bereiken in zoekmachines omdat je meer controle hebt naar welke pagina’s bezoekers geleid worden. Heb je hier vragen over of kun je hulp gebruiken? Neem dan contact op!

Contactformulier

"*" geeft vereiste velden aan

Reacties
Dit veld is bedoeld voor validatiedoeleinden en moet niet worden gewijzigd.

Lees meer

Hoe voorkom je duplicate content?

Auteur: Erwan Vrignaud
Lesstijd: 17 minuten

Een van de lastigste zaken met betrekking tot content is het feit dat veel relevante content in je website goed is voor je prestaties in zoekmachines, maar dat je zoveel mogelijk duplicate content (sterk vergelijkbare teksten) moet zien te voorkomen. Het is alsof je een Italiaans restaurant hebt en je menukaart mag niet te vaak pasta bevatten, ondoenlijk. En toch valt het in de praktijk mee. Als we de metafoor van het Italiaans restaurant gebruiken; zorg voor een duidelijk onderscheid in de pasta gerechten. Ga dus niet vijf soorten ‘Spaghetti met tomatensaus’ op je kaart zetten met het enige onderscheid de kruiden die zijn gebruikt. Dit wordt dan door zoekmachines te snel gezien als duplicate content omdat de verschillen minimaal zijn. Maar wanneer je 5 verschillende soorten spaghetti gerechten aanbiedt moet je deze apart vermelden; tomatensaus, knoflooksaus, truffelsaus, champignonsaus en kaassaus, ik noem maar wat. Dat zijn de verschillen dusdanig dat zoekmachines dit wel weer apart gaan labelen. Maar wanneer zien zoekmachines het nou als duplicate en wanneer niet? In dit artikel help ik je beter onderscheid te maken en hoe je duplicate content kunt voorkoen.

Meer content is niet per sé beter

Vaak heb ik gehoord dat men van mening is ‘Hoe meer content hoe beter’ en is dit in praktijk gebracht door enorme hoeveelheden content te plaatsen op hun website. Dit is absoluut niet waar en kan zelfs schadelijk zijn wanneer Google jouw website gaat zien als een SPAMMY-website. Dan heb je er dus enorm veel tijd en energie in gestoken om het tegengestelde te bereiken als wat je voor ogen had, je website zal slechter presteren in de SERP’s (Search Engine Result Page). Goed teksten schrijven is één ding, zorgen dat het voor zoekmachines zoals Google helder is waar het over gaat is een ander ding.

Er zijn twee soorten duplicate content en beide kunnen een probleem zijn:

Onsite duplicatie. Dat is wanneer dezelfde content wordt gedupliceerd op twee of meer unieke URL’s van jouw site. Dit is in de regel makkelijk te verhelpen door dit goed in kaart te brengen en de duplicate content aan te passen of te verwijderen. Na verwijderen nooit vergeten de url die je wilt verwijderen permanent door te leiden naar de andere pagina.

Offsite duplicatie. Dat is wanneer twee of meer websites exact dezelfde content in huis hebben. Dit is iets dat vaak kan niet direct kan worden verholpen, maar wanneer er contact gelegd kan worden met de eigenaren van andere websites is het handig te vragen of ze wellicht andere content van je zouden willen plaatsen. In goed overleg is veel mogelijk.

Met unieke content val je op, ook voor zoekmachines

Waarom is dubbele content een probleem?

De beste manier om uit te leggen waarom dubbele content zo schadelijk is, is door het om te draaien: waarom is unieke content zo goed?

Unieke content is een van de beste manieren om jezelf te onderscheiden van andere websites. Wanneer de content op jouw website absoluut uniek is maak je gebruik van een bewezen marketingconcept, namelijk: het onderscheiden vermogen. In het voorbeeld van het Italiaans restaurant, wanneer je spaghetti aanbiedt met sausen die nergens anders te krijgen zijn, bijvoorbeeld spaghetti met zwarte truffelsaus, dit is (al ben ik ben geen culinair expert) hoogstwaarschijnlijk zeer zeldzaam vanwege de extreem hoge prijs van zwarte truffel, dan ben je onderscheidend en met dit uniek gerecht val je zeker op. Zo ook met zeer unieke content op jouw website.

Zoekmachines laten in hun resultaten url’s zien van verschillende websites die allemaal relevant zijn voor de bezoekers. Zoekmachines laten niet snel meerdere url’s zien van hetzelfde domein. Wanneer je dus op jouw website vaak over hetzelfde onderwerp schrijft, dan kiest Google een pagina uit en zal de rest negeren. Daar gaat je werk!

Of het nu onsite of offsite is, alle dubbele content concurreert met elkaar en het laatste wat je wilt is de concurrentie aan te gaan met jezelf. Maar wanneer je echt waardevolle en unieke content plaatst die op geen enkele andere url beschikbaar is, dan krijgt deze pagina maximale autoriteit. We gaan nu kijken hoe we dit probleem op kunnen lossen.

Offsite dubbele content
Offsite duplicatie komt vooral voor onder deze drie omstandigheden:

1. Content van anderen die je opnieuw hebt gepubliceerd op jouw eigen site. Dit komt het meeste voor in de vorm van generieke productbeschrijvingen die door de fabrikant geleverd is.

2. Jouw content die opnieuw is gepubliceerd op websites van anderen met of zonder jouw toestemming. Dit is komt het meeste voor bij nieuwsberichten, blogberichten en content die een hoge attentiewaarde bevatten.

3. Content die door zogenaamde scrapers automatisch van je website is gekopieerd en op allerlei andere sites wordt gepubliceerd. Dit zijn zonder meer de grootste overtreders in duplicaat content creatie. Spammers en cowboys die een verdienmodel hebben gecreëerd door, uiteraard tegen betaling, content te leveren die ze simpelweg van andere website hebben geript. En het vaak ook nog verkopen als unieke content. Of ze gebruiken de content om verkeer te genereren naar hun eigen site om bezoekers te laten klikken op hun advertenties. Helaas kun je hier niet veel aan doen, behalve een rapport in te dienen over auteursrechtschending bij Google in de hoop dat het wordt verwijderd uit hun zoekresultaten. Wanneer je vaak nieuwe content publiceert zou je hier zomaar een dagtaak aan kunnen hebben. Ondoenlijk. De beste manier om hier mee om te gaan, is door het te negeren, in de hoop dat Google kan het verschil ziet tussen de oorspronkelijke auteur en de ripper. Al worden de algoritmes van Google hier steeds beter in doordat ze bijvoorbeeld kunnen zien wie het eerste de content heeft geplaatst en zo dus weet dat iedereen die deze content daarna plaatst een ripper moet zijn, helemaal flawless zijn deze technieken helaas nog niet. Zo weten rippers soms hoe ze deze techniek kunnen omzeilen met trucs die ik hier natuurlijk niet ga vermelden. Een goede truc om deze rippers een hak te zetten is het al dan niet plaatsen van verborgen hyperlinks zodat zowel bezoekers als zoekmachines zien waar de content vandaan komt. Automatische ripsoftware heeft dit vaak niet in de gaten. Je kan ook proberen een canonieke tag terug te voegen naar de bronpagina (sowieso een goede strategie) zodat wanneer schrapers deze code kopiëren, Google in de tag kan lezen dat jij de originele schrijver bent.

Publicatie van artikelen

Wanneer een artikel van jou gepubliceerd wordt op een andere website zal de website eigenaar wellicht eisen dat je deze content nergens anders meer plaats. De reden is dat de website eigenaar weet dat de content op zijn website ook uniek moet blijven. Google is namelijk vaak in staat te zien wie de auteur van het artikel is en wanneer deze content (zelfs later) dan op de website van de auteur zelf wordt geplaats, is het zeer aannemelijk dat deze hoger in de zoekresultaten zal rangschikken. Maar ook dit is beperkt waar want er zijn meer variabelen die hiermee verband houden. Zolang de content maar niet op te veel verschillende websites belandt is er eigenlijk niet zo veel aan de hand. Het blijft dubbele content maar wanneer de relatie tussen de zoekintentie en de doelgroep van een bezoeker maar verschillend genoeg is, hoeft dit geen probleem te zijn. Voorbeeld; stel je verkoopt een nieuw type zaklamp die zeer specifieke eigenschappen heeft zoals een zeer brede lichtbundel. Als er twee keer dezelfde content wordt gelanceerd, maar de ene website gaat over nachtwandelingen in de natuur en de ander over hulpmiddelen voor ambulancepersoneel, dan is er zo’n groot verschil in zoekintentie en doelgroep, dat het elkaar niet zal bijten. Maar wanneer het onderwerp zeer specifiek is en voornamelijk gericht op één en dezelfde doelgroep, dan dien je wel voorzichtiger te zijn. Bij twijfel zal Google altijd kiezen om de url van de auteur prioriteit te geven.

Voor webshop vaak een enorme uitdaging om ervoor te zorgen uniek te zijn met hun artikelen

Dubbele content voor webshops

Veel online retailers verkopen exact dezelfde artikelen als duizenden andere winkels. In de meeste gevallen zijn de productbeschrijvingen verstrekt door de fabrikant, die vervolgens klakkeloos wordt geüpload in de database van de webshop en zo wordt gepresenteerd op de artikelpagina’s. Uiteraard verschillen de lay-outs van de pagina’s, maar zal het grootste deel van de content van de artikelpagina’s (de artikelbeschrijvingen) identiek zijn. Als je dit vermenigvuldigt over miljoenen verschillende artikelen met honderdduizenden websites die deze artikelen verkopen, dan is de conclusie snel te trekken dat er niet bepaald sprake is van originele content.

Hoe maakt een zoekmachine onderscheid tussen de ene of de andere webshop wanneer een zoekopdracht wordt ingevoerd? Puur op contentanalyse kan dat dus niet. Dat betekent dat de
zoekmachine naar andere signalen kijkt om te beslissen welke webshop voorrang zal krijgen. Een van deze belangrijke signalen zijn links. Hoe meer relevante links, hoe hoger de autoriteit van de webshop. Maar tegen grote webshop als Bol.com en Amazon is dit natuurlijk een verloren zaak. Dat wil niet zeggen dat je hier geen focus op moet hebben. Linkbuilding blijft een cruciaal onderdeel van SEO, mits wel correct uitgevoerd.

Een eenvoudigere manier voor webshops om onderscheidend te zijn is door de moeite te nemen om
unieke omschrijvingen te maken voor ieder artikel . Afhankelijk van het aantal artikelen die je aanbiedt kan dit een hele uitdaging zijn, maar uiteindelijk zal dit de geïnvesteerde tijd meer dan waard zijn.

Elke pagina met unieke content krijgt gegarandeerd meer waarde toegekend door Google dan sterk vergelijkbare of zelfs dubbele content. Het is misschien niet genoeg om je concurrentie te overtreffen, maar het is zeker de beste strategie om op te vallen voor zowel Google als bezoekers.

Onsite dubbele content

Technisch gezien behandelt Google alle dubbele content hetzelfde, of het nou op jouw website is of op die van anderen. Maar onsite dubbele content is kwalijker dan offsite omdat je zelf dit makkelijk kunt voorkomen en/of achteraf kunt oplossen. Dit negeren is niet slim. Het wordt meestal veroorzaakt door een slechte website-architectuur en/of ontwikkeling. Een sterke website-architectuur is de basis voor een sterke website. Het is cruciaal om de procedures te volgen die het voor zoekmachines makkelijk maken de website te indexeren. Dit negeren resulteert gegarandeerd in slechte resultaten in de SERP’s (Search Engine Result Page).

Laten we nu eens kijken veelvoorkomende problemen met betrekking tot dubbele content en hoe dit op te lossen.

• Het probleem: duplicatie van productcategorisatie

Veel te veel e-commercesites hebben last van dit soort duplicatie. Dit wordt vaak veroorzaakt door content management systemen waarmee producten per categorie worden geordend waarbij
één product in meerdere categorieën worden getagt.

Dit op zichzelf is niet slecht (en kan waardevol zijn voor de bezoeker), maar het systeem
genereert daarbij een unieke URL voor elke categorie waarin dit product voorkomt.

Als voorbeeld nemen we een bedrijf wat gespecialiseerd is in het vervangen van dakgoten. Op de website wordt verteld waarom EPDM (een soort rubber wat alle weersomstandigheden kan weerstaan) het beste is om te gebruiken. Maar deze belangrijke content staat op drie verschillende pagina’s:

Home > nieuwe dakgoot > epdm
Home > materiaalsoorten > epdm
Home > renovatie dakgoot > epdm

Dus dezelfde content is bereikbaar via drie verschillende url’s. Hoe los je dit het beste op? De beste manier is om de url waar het meeste verkeer naar toe gaat, of als de website nieuw wordt opgeleverd te bepalen welke url het belangrijkst is, deze de canonieke tag mee te geven. Zoekmachines herkennen dan weliswaar nog steeds dezelfde content, maar jij geeft aan welke dan het beste vertoont kan worden in de zoekresultaten. Dit is overigens geen garantie dat Google dit opvolgt, het is een aanbeveling waar Google rekening mee houdt.

Dus twee dingen zijn hier van belang:

1. Zorg dat de content van een pagina nooit voorkomt op andere pagina’s binnen hetzelfde domein
2. Zorg dat de content van een pagina überhaupt nooit voorkomt op een ander domein (een andere website)

Ik heb websites gezien tot tien verschillende URL’s hadden over hetzelfde artikel. Wanneer je dan 500 artikelen hebt, is het totaal aantal url’s ineens gegroeid tot 5.000 en daarvan zijn er dus 4.500 dubbel. Niet waardevol voor zoekmachines en niet interessant voor bezoekers, die denken dan al gauw: ‘Hé, die pagina had ik toch al gezien?’ en zijn mogelijk weer vertrokken. Probleem.

Als de website van de grootste concurrent in bovengenoemd voorbeeld ook 5.000 links zou hebben maar deze verwijzen allemaal door naar dezelfde pagina i.p.v. verschillende, dan is het niet moeilijk te begrijpen dat deze concurrent een vele betere algehele ranking zal krijgen. Zoekmachines beperken hun crawlbandbreedte zodat ze deze het beste kunnen besteden aan het indexeren van unieke en waardevolle content. Wanneer jouw site veel dubbele pagina’s heeft is er een sterke kans dat de zoekmachine stopt met crawlen voordat hij zelfs maar een fractie van jouw content heeft geïndexeerd. Het resultaat is dat honderden waardevolle pagina’s niet beschikbaar zullen zijn in de zoekresultaten.

De canonical tag is de meest gebruikte oplossing voor duplicate content

De twee beste oplossing:

1. de canonical tag

Omdat het niet altijd mogelijk is te vermijden dat meerdere verschillende url’s dezelfde content bevatten, is er een goede oplossing dit probleem op te lossen. De meest effectieve is de belangrijkste pagina te markeren met een canonieke tag (hierboven al even vermeld). Dit is vergelijkbaar met het selecteren van een hoofdcategorie en in WordPress is dit zeer eenvoudig mogelijk door in de Yoast PlugIn de pagina dit label te geven. Hiermee geef je aan Google door dat dit de belangrijkste pagina is gerelateerd aan dit onderwerp / artikel. Mocht je handmatig de code toe willen voegen in html dan ziet dat er als volgt uit:

<link rel=”canoniek” href=”https://www.home > nieuwe dakgoot > epdm” />

2. de no-index tag

In plaats van een canonieke tag te gebruiken om door te verwijzen naar de hoofdpagina is het beter de overige pagina’s te labelen met een noindex-metatag om ze op deze manier helemaal uit de index van zoekmachines te houden. Deze pagina’s kun je dan zien als weeskinderen omdat ze nooit vertoont zullen worden in zoekmachines, maar ze kunnen nog steeds wel bereikt worden door interne links. Wanneer deze ontbreken, dan heb je een boot die alleen ronddobbert in de grote oceaan en nooit land zal bereiken. Dan moet je deze pagina’s verwijderen en permanent doorleiden naar de hoofdpagina. Dit negeren maakt op den duur je website onnodig groot en zwaar voor je server wat weer effect heeft op o.a. je snelheid.

De canonieke tag is ontworpen om de paginawaarde en autoriteit over te dragen naar de hoofdpagina, maar omdat deze pagina’s toch geen unieke content bevatten kun je ze beter labelen met de no-index tag. Je doet daar zoekmachines een groot plezier mee.

Een veel voorkomende uitspraak van SEO “specialisten” is dat je penalty’s zou krijgen voor dubbele content. Dit is nonsens, dat is niet het geval. De pagina’s worden simpelweg genegeerd door zoekmachines maar dit kan wel als nadelig effect hebben dan belangrijke pagina’s wellicht ook worden genegeerd. Dus geen strafpunten, maar ook zeker geen bonuspunten. Google bestraft weliswaar niet dubbele content, maar dat betekent niet dat er geen nadelige gevolgen zijn die daardoor kunnen optreden.

Conclusie

Het beste advies dat ik kan geven is er voor te zorgen dat je website geen dubbele content bevat. Simpel zat. Het is misschien even wat werk dit grondig door te nemen, maar eenmaal gedaan zal het grote winst betekenen in organische prestaties. Uiteindelijk wil je een website bouwen die bekend staat om zijn sterke en unieke content en die content de best mogelijke waarde mee te geven voor je publiek en zoekmachines. Heb je hier vragen over of kun je hier hulp bij gebruiken? Neem contact op!

Lees meer
Maak je website sneller.

10 tips om jouw website sneller te maken

Auteur: Erwan Vrignaud
Leestijd: 17 minuten

Iedereen weet het tegenwoordig wel, maar in de praktijk blijkt maar al te vaak dat veel websites vandaag de dag nog steeds veel te traag zijn, vooral de mobiele versies. Sinds 2018 hanteert Google het Mobile First concept hanteert, wat wil zeggen dat de algehele prestaties van je mobiele website zwaarder wegen dan die van de desktop versie. Paginasnelheid is dus een kritische factor in digitale marketing van vandaag. Het heeft een aanzienlijke impact op:

• Hoelang bezoekers op jouw site blijven
• Hoeveel conversies er worden verricht
• De ranking factor in zoekmachines
• De positionering in de organische zoekresultaten

Er is een bijna oneindig aantal zaken waar je jouw dagen mee kunt vullen als digitale marketeers en er is nooit genoeg tijd om ze allemaal te doen. Met als resultaat dat sommige zaken op een laag pitje worden gezet. Maar de snelheid van je website moet in je top 3 staan, ook al is dat wellicht niet het spannendste om te doen. Volgens een onderzoek van Amazon is er een verschil van 100ms, een tijdseenheid die een mens niet eens kan waarnemen, genoeg om hun omzet met 1% te verminderen. Walmart vond vergelijkbare resultaten. Als die kleine tijdseenheid zoveel directe impact heeft op de verkoop, wat soort impact denk je dat een extra seconde of meer zal hebben? Daarom geef ik je 10 tips die helpen jouw website sneller te maken:

1. Vergeet goedkope webhosting

Uiteraard wil je geld besparen daar waar het kan. Maar geld besparen op hosting is zelden een goed idee want het resultaat is bijna altijd een trage website. Wat zij doen om dit goedkoop aan te bieden is zoveel mogelijk websites op één server te proppen waardoor de server continue tegen zijn grenzen aan loopt. Je kunt het vergelijken met een auto, stop je deze helemaal vol met passagiers en bagage, dan zal hij heel wat minder vlot accelereren dan wanneer er alleen een bestuurder in zit. Zo werkt het met servers precies zo. Jouw website zal wel keurig vertoond worden (de auto zal altijd rijden), maar jouw website wordt zo traag geladen dat de kans op afhakers groot is. En Google weet dat dus en zal jouw website zeker niet aanbevelen (hoog in hun posities plaatsen).
Een vaak gehoord argument is dan ook: ‘Je merkt er amper iets van!’. En dat is een foute aanname. Jij vindt het misschien niet zo erg, maar bezoekers raken tegenwoordig gewend aan webpagina’s die meteen laden, in een fractie van een seconde. En wanneer ze dan op jouw website iedere keer secondes moeten wachten zijn ze simpelweg vertrokken. En jouw websites is jouw trots dus ben je veel flexibeler dan een buitenstaander. Deze zal zich in eerste instantie ergeren aan de traagheid. Resultaat is echt altijd hetzelfde, ze gaan weg voordat ze een conversie hebben verricht. Vergeet dus goedkope hosting, het valt onder de Engelse uitdrukking: ‘Penny wise, pound foolish’, dat wat je denkt te besparen zal je een veelvoud aan omzet kosten.

2. Beperk HTTP-oproepen

Elk bestand dat nodig is om een webpagina weer te geven en te laten functioneren, zoals HTML, CSS, JavaScript, afbeeldingen en lettertypen, vereisen een apart HTTP verzoek. Hoe meer verzoeken er worden gedaan, hoe langzamer die pagina wordt geladen. Zelfs in de Google Page Speed test tool waarschuwt Google voor ‘Beperk niet-gebruikte css’ met daarachter de tijd die daarmee bespaard kan worden. Vaak meer dan 1 seconde. Een webdeveloper kan dit opzoeken in de broncode en deze verwijderen. Het werkt in grote lijnen als volgt: de meeste thema’s laden een of meer CSS-bestanden en JavaScript-bestanden. Sommige, zoals Jquery of FontAwesome, worden meestal op afstand geladen van een andere server, wat de laadtijd drastisch verhoogt.
Dit wordt nog problematischer als je kijkt naar de extra CSS- en JavaScript bestanden die zijn toegevoegd door plug-ins. Verwijder dus plug-ins die je niet gebruikt, daarmee bespaar je al flink in HTTP-verzoeken van slapende CSS en JavaScript-bestanden. Wanneer je je al realiseert dat elke afbeeldingen op een pagina om een apart HTTP-verzoek vraagt dan begrijp je al dat ook onnodige (kleine) afbeeldingen moeten worden geëlimineerd.

Voeg JavaScript- en CSS bestanden samen tot één bestand. Verminder of elimineer plug-ins die hun eigen JavaScript en /of CSS-bestanden laden. In sommige gevallen, zoals bij Gravity Forms, heb je de optie om deze uit te schakelen wanneer ze worden geladen. Gebruik CSS-sprite voor veelgebruikte afbeeldingen. Gebruik een lettertype zoals FontAwesome of Ionic Icons in plaats van meerdere verschillende lettertypes of losse afbeeldingen zodat er maar één bestand geladen hoeft te worden.

3. Neem de Trailing Slash op

Het weglaten van de achterste schuine streep op links (van externe websites) die naar jouw website verwijzen, hebben een negatieve invloed op de snelheid. Wanneer iemand een URL bezoekt zonder de schuine streep, zal de webserver zoeken naar een bestand met die naam. Als er geen bestand met die naam wordt gevonden zal deze worden behandeld als een map met daarin het standaardbestand. Met andere woorden; door de achterste schuine streep weg te laten, dwing je de server om een onnodige 301-omleiding uit te voeren. Vertragingen van milliseconden zullen jou niet opvallen, maar voor zoekmachines is elke milliseconde er een teveel.

Voorbeelden wanneer dit fout is ingesteld:

https://www.mediaexpert.nu
https://www.mediaexpert.nu/over-mij

Voorbeelden wanneer dit goed is ingesteld:

https://www.mediaexpert.nu/
https://www.mediaexpert.nu/over-mij/

4. Compressie inschakelen

Het inschakelen van GZIP-compressie kan de tijd die nodig is om jouw HTML-, CSS- of JavaScript-bestanden te downloaden aanzienlijk verkorten. Dit komt doordat ze worden gedownload als veel kleinere, gecomprimeerde bestanden, die vervolgens gedecomprimeerd zodra ze in de browser komen. Jouw bezoekers hoeven niets extra’s te doen omdat alle moderne browsers GZIP ondersteunen en automatisch verwerken.

Het comprimeren van html script kan met behulp van gratis tools

5. Browsercaching inschakelen

Wanneer browsercaching is ingeschakeld, zijn de elementen van een webpagina opgeslagen in de browser van jouw bezoekers. Hiermee kan hun browser, de volgende keer dat ze jouw website bezoeken, de pagina laden zonder dat je nog een HTTP-verzoek naar de server hoeft te sturen. Zodra de eerste pagina is geladen en de elementen zijn opgeslagen in de cache van de gebruiker, hoeven alleen de nieuwe elementen te worden gedownload op volgende pagina’s. Dit kan het totaal aantal bestanden die moeten worden gedownload tijdens een gemiddelde browsersessie drastisch verminderen.

6. Verklein CSS- en JavaScript-bestanden

Het verkleinen van jouw CSS- en JavaScript-bestanden verwijdert onnodige witruimte en opmerkingen en hiermee wordt de tijd die het kost om deze te downloaden bespaart. Gelukkig hoeft dit niet handmatig te worden uitgevoerd, want er zijn verschillende tools online beschikbaar om een bestand om te zetten in een gecomprimeerde versie van datzelfde bestand. Er zijn ook verschillende plug-ins beschikbaar voor WordPress die de CSS- en JavaScript links in jouw websiteheader vervangen door bestanden met een gecomprimeerde versie ervan. De uitvoering van de originele bestanden blijven ongewijzigd, inclusief populaire caching-plug-ins zoals:

W3 Totaal Cache
WP Super Cache
WP Rocket

Het kan wat moeite kosten om de instellingen precies goed te krijgen, omdat het comprimeren soms CSS en JavaScript-bestanden ongeldig maken, dus als je denkt helemaal klaar te zijn is uitvoerig testen een must.

7. Geef prioriteit aan content boven de vouw

Jouw website kan voor de bezoeker sneller worden geladen als deze zo is gecodeerd dat content boven de vouw (content die zichtbaar is voordat een bezoeker scrolt) prioriteit krijgt. Dit betekent dat je er voor zorgt dat alle elementen die boven de vouw verschijnen zo dicht mogelijk bij het begin van de HTML-code worden geplaatst zodat deze als eerste wordt geladen. Het is ook van cruciaal belang om interne CSS en JavaScript te gebruiken in plaats van een externe CSS-bestand.

8. Afbeeldingen optimaliseren

De meest voorkomende fout is wel dat afbeeldingsbestanden niet de juiste indeling hebben (WebP i.p.v. jpg) en onnodig groot zijn. Een foto hoeft geen 3.000 bij 5.000 pixels te zijn om goed vertoond te worden op een desktop scherm van 1.920 bij 1.080 pixels. En vaak wordt een volledige foto gebruikt terwijl maar de helft zichtbaar is op de website zelf, bijvoorbeeld omdat deze in een header geplaats wordt en de boven- en onderkant automatisch worden weggesneden. Door te zorgen dat de foto’s de meest moderne indeling hebben en het juiste formaat kan er aanzienlijk veel bespaard worden. Er zijn verschillende WP Plug-ins zoals Converter for Media die dit automatisch doen.

Breng eenvoudig de grootte van een afbeelding terug van 824 Kb naar 38 Kb

9. Videobestanden optimaliseren

Zorg voor de juiste bestandsindeling van jouw video, namelijk MP4. Deze kan verder worden geoptimaliseerd door middel van de beste compressietechnieken en software als Camtasia of Movavi doen dit voor je. Overweeg om jouw video’s te uploaden naar YouTube of Vimeo in plaats van ze lokaal te plaatsen en hun iframe-insluitcode gebruiken. En zelfs dat levert maar beperkte winst op, om alle media op jouw website echt te optimaliseren moet je de media worden gepresenteerd in de juiste grootte op basis van de schermgrootte van de bezoeker in plaats van simpelweg het formaat ervan wijzigen.

Er zijn twee manieren om dit voor elkaar te krijgen:

1. Mediabestanden binnen de HTML van jouw website kunnen worden weergegeven met behulp van src set waarmee de browser kan het juiste formaat kan selecteren op basis van de schermgrootte van het apparaat dat de bezoeker gebruikt.

2. Mediabestanden worden geplaatst via CSS (meestal als achtergrondafbeeldingen), en deze worden gepresenteerd met behulp van mediaquery’s om het juiste formaat te selecteren op basis van de schermgrootte van het apparaat dat een bezoeker gebruikt.

10. Gebruik Caching & CDN’s

Caching stelt jouw webserver in staat om met een statische kopie van jouw webpagina’s te werken zodat deze sneller wordt geleverd aan de browser. Een CDN maakt gebruik van servers op verschillende locaties overal op de wereld, zodat de browser van een bezoeker die zich het dichtst bij deze server begeeft de content zeer snel kan laden. Dit verbetert de paginasnelheid drastisch.

Conclusie

Wanneer al bovenstaande tips zijn opgevolgd moet je een enorme winst in snelheid kunnen realiseren. De eenvoudigste manier om dit zeker te weten is, voor je deze tips gaat uitvoeren, een test te doen met Google PageSpeed en de waardes die worden gemeten te noteren. Vergeet niet deze waardes van zowel mobiel als desktop te noteren. Nadat alles is afgehandeld zul je gegarandeerd een flink verschil zien en zal Google dit gaan belonen met betere positionering in hun zoekmachine. Heb je hier vragen over, of kun je hier hulp bij gebruiken, neem dan contact op!

Lees meer

10 tips om jouw website navigatie te verbeteren

Auteur: Erwan Vrignaud
Leestijd: 20 minuten

Wanneer jouw website bestaat uit een one-pager is dit artikel niet voor jou van toepassing. Een one-pager is sowieso nooit een goed idee, maar dat is een andere discussie. In dit artikel leg ik uit waarom het belangrijk is de navigatie in jouw website te optimaliseren en hoe dit te doen. Dit is belangrijk voor zowel de zoekmachines als de gebruikers. Beide kunnen dan snel en effectief door je website “wandelen” en beiden wil je natuurlijk tevreden stemmen. Het resultaat laat zich raden: meer bezoekers die langere tijd op je website doorbrengen met als resultaat een verhoogde kans op conversies.

Wat is websitenavigatie?

Website navigatie (interne link architectuur) zijn de links binnen jouw website die jouw pagina’s met elkaar verbinden. Het primaire doel van websitenavigatie is om gebruikers te helpen gemakkelijk pagina’s op jouw site te vinden. Zoekmachines gebruiken de websitenavigatie om nieuwe pagina’s te ontdekken en te indexeren. Links helpen zoekmachines om de content beter te begrijpen
en de context van de bestemmingspagina, evenals de relaties tussen pagina’s. Wat belangrijk is te realiseren is dat bezoekers op de eerste plaats komen. Ga geen trucs uithalen om zoekmachines te manipuleren maar houd de focus puur en alleen op de bezoeker. De trucs hebben geen zin of kunnen zelfs schadelijk zijn voor je ranking en de daarbij behorende organische posities. Dus maak de navigatie eenvoudig. Optimaliseer jouw website om te zoeken zonder de UX (User Experience) te schaden.

Met deze 10 belangrijke tips help ik je de navigatie van jouw website te optimaliseren:

1. Zorg voor een duidelijke hiërarchie

Een boek heeft in de regel een duidelijke hiërarchie, namelijk: titel – hoofdstukken – alinea’s – kanttekeningen. Als je in de Albert Heijn loopt, volg je ook een bepaalde hiërarchie: je start bij de groente en fruit, komt dan langs het vlees, wandelt langs het brood, melk, chips, frisdranken enz. en wat het voorbeeld van de supermarkt zo sterk maakt is dat je heel gemakkelijk van de ene gang naar de andere loopt en weet waar (bijna) alles te vinden is. De gangen zijn zo opgesplitst dat wanneer je je realiseert dat je wat vergeten bent, je snel een korte route kunt lopen om weer terug te gaan naar een eerder punt. De wandelgangen zijn bij geen enkele supermarkt ononderbroken. Ook bij een boek kun je in het overzicht van alle hoofdstukken in één oogopslag zien waar je moet zijn als je iets terug wilt lezen of vooruit wilt springen. Dit moet bij jouw website ook zo ingedeeld zijn. Je mag een bezoeker niet lang laten zoeken naar de content, grote kans dat de zoektocht dan eindigt in het verlaten van je website.

Er zijn contenthiërarchieën om het proces van het vinden van jouw content te vereenvoudigen.
Wanneer jouw website een grote hoeveelheid content bevat, moet deze worden opgesplitst in
enkele brede categorieën. En vanuit de breedte leidt je jouw bezoekers door een steeds smallere “tunnel” totdat hij/zij uitkomt waar hij/zij naar op zoek is. Het navigeren moet gemakkelijk en snel gaan. Door contenthiërarchieën te gebruiken worden jouw pagina’s geordend op een manier die logisch is voor de gebruiker en de zoekintentie snel wordt bevredigd.

2. Maak gebruik van categorieën

Door content te categoriseren en structuurhiërarchieën te maken worden silo’s gecreëerd met clusters van nauw verwante onderwerpen. Zoekmachines volgen deze structuur, ook via externe links van andere websites die dus doorverwijzen naar pagina’s op jouw website. Sommige pagina’s zijn populairder dan andere. Dat zijn vooral pagina’s die meer externe links en verkeer ontvangen dan anderen en daardoor ook een betere positie krijgen in de organische posities van Google.
Wanneer content te geïsoleerd is en geen links en verkeer ontvang, kan dit nooit goed presteren, zelfs als jouw andere pagina’s wel goed presteren. Door goed gebruik te maken van contenthiërarchieën kunnen belangrijke pagina’s die zich diep in jouw website bevinden veel beter gevonden worden. Dit noemen we horizontaal koppelen, oftewel cross-linking. Alle pagina’s horen ten slotte bij dezelfde website en met cross-linking worden ze beter met elkaar verbonden.

Wikipedia maakt optimaal gebruik van het linken tussen categorieën (rood onderstreepte woorden leiden naar andere pagina’s)

3. Creëer links tussen categorieën

Zorg er voor dat in de content hyperlinks worden gebruikt die belangrijke zoekwoorden markeren en met één klik doorverwijzen naar de pagina die de categorie omschrijft. Bij Wikipedia zie je overal blauwe woorden in de tekst staan, hier is deze techniek zeer goed gehandhaafd. Voor WordPress zijn er automatische PlugIns waarmee je dit proces automatisch kunt voltooien. Voor het publiceren van een pagina hoef je alleen maar de woorden in te voeren die betrekking hebben met deze pagina en al deze woorden zullen overal op de website automatisch gehyperlinkt worden naar deze pagina. Een kind kan de was doen en zeer belangrijk om maximaal bereik te behalen met je website.

4. Creëer links tussen product en content

Bedrijven die meer dan één product of dienst verkopen doen er verstandig aan content te maken die een product of dienst omschrijven en deze content aan het product of dienst te koppelen. Deze content moet makkelijk deelbaar zijn, zoals een blogpost, al dan niet op een andere website. Verkoop je TV toestellen die hoog zijn aangeschreven? Zorg er voor dat de productpagina’s worden gelinkt naar de reviewsites die dit model omschrijven. Of lever de tekst inclusief link aan de reviewsite die deze dan in hun overzicht opnemen. Blogposts zijn zeer effectief omdat ze meer verkeer leiden naar jouw productpagina’s. Vaak wordt er wel vergeten de productpagina ook terug te linken naar deze blogpagina. Horizontaal linken noemen we dat.

5. Menuopties op de productpagina

Productpagina’s moeten ook teruglinken naar gerelateerde contentmarketing pagina’s. Dit kunnen blogposts, veelgestelde vragen en producthandleidingen zijn. Door meerdere opties constant te gebruiken op alle productpagina’s, leren bezoekers snel hoe de structuur van jouw website in elkaar zit en zullen ze ook sneller bij andere producten uitkomen. Als je kijkt naar een grote webwinkel als Bol.com, dan hebben ze, hoe gevarieerd hun aanbod ook is, wel overal dezelfde opties zoals reviews, productspecificaties, bezorgopties, etc. Zorg dat je zoveel mogelijk relevantie informatie biedt over dit product, al dan niet doorgelinkt naar andere pagina’s.

Wees voorzichtig met JavaScript

6. Gebruik zo min mogelijk JavaScript effecten voor jouw website navigatie

Javascript wordt nog regelmatig gebruikt vanwege de sterke grafische resultaten die hiermee bereikt kunnen worden. En toch valt dit sterk af te raden omdat zoekmachines dit script maar moeilijk kunnen lezen en daardoor niet goed inzichtelijk krijgen waar de pagina’s over gaan. Dit geldt met name voor interne links, deze gaan vaak volledig verloren wanneer de zoekmachines jouw website crawlen. SEO-specialisten zijn verdeeld over de vraag of het gebruik van JavaScript gebruikt mag worden. Er zijn specialisten die adviseren dat JavaScript helemaal niet te gebruiken terwijl andere zeggen dat het cruciaal is voor de beste UX (User Experience). Ik zou de middenweg kiezen: gebruik het zo min mogelijk.

7. Maak geen gebruik van trackingparameters in de url

In het verleden werd er vaak gebruik gemaakt van trackingsparameters in url’s om bezoekers te volgen. Dit is vandaag de dag niet meer nodig omdat tools zoals Google Analytics het gedrag van bezoekers over de hele website volgen. Het gevaar van deze trackingsparameters is dat dit problemen geeft wanneer doorverwezen wordt naar verschillende URL’s met exact dezelfde content. Dit kan het beste worden vermeden door het gebruik van canonieke tags die bij meerdere pagina’s met identieke content aangeven welke pagina het belangrijkst is.

8. Gebruik de juiste codevolgorde

De top-bar navigatie en de linker zijbalk komen in de broncode vaak vóór de hoofdcontent. De navigatie elementen in deze menu’s hebben vaak korte ankertekst. Ze hebben de neiging om
minder zoekwoordgericht en meer ontwerpgericht zijn. Links binnen de hoofdcontent van een pagina heeft meer de neiging om zoekwoordgericht te zijn, met omringende content die ondersteuning biedt voor het keyword. Deze zijn ook flexibeler in lengte, met langere en meer specifieke ankertekst. Deze langere tekst vergroot de verscheidenheid aan zoekwoorden waarvoor een pagina mogelijk kan rangschikken. Maar vanwege de eerste link-prioriteit worden deze links worden vaak over het hoofd gezien door te zoekmachines. Overweeg dus prioriteit te geven aan de content in het menu aan de zijkant en het menu boven. CSS kan worden gebruikt om de leesrichting te regelen, van links naar rechts of van rechts naar links om de navigatie in de zijbalk te laden na de hoofdcontent. De navigatie op de bovenste balk kan worden bediend met absolute positionering.

9. Voor zéér grote websites

Voor grote websites (met honderdduizenden of miljoenen pagina’s), kan websitenavigatie een enorme uitdaging zijn. De natuurlijke navigatie binnen gecategoriseerde menu’s linken over het algemeen naar alle pagina’s van de site en een XML-sitemap kan helpen bij het indexeren van deze pagina’s. Maar wanneer er geen gebruik wordt gemaakt van cross-linking tussen de contentsilo’s wordt er afstand gecreëerd tussen de pagina’s. Op een grote site kan het moeilijk zijn om alle mogelijke verbanden te leggen tussen productpagina’s en de bijbehorende marketingpagina’s. Mogelijk ontvangen ze hierdoor niet de benodigde doorverwijzing van andere relevante pagina’s. Daarbij zijn andere kwesties zoals linkprioriteit en problemen met JavaScript vaak moeilijk te detecteren over miljoenen pagina’s. Er zijn drie oplossingen om dit te ondervangen:
1. Delegeer naar verschillende afdelingen – Grote bedrijven hebben verhoudingsgewijs grote websites met meerdere medewerkers over verschillende afdelingen. Deze afdelingen
komen overeen met de verschillende onderdelen van de website. Zorg ervoor dat iedereen betrokken is bij het onderhouden van de verschillende websitesecties en dat er een consistente SEO aanpak is. Voorkom dat iedereen een andere koers vaart wat gegarandeerd leidt tot een onsamenhangend geheel. Bij webshops is dit nog belangrijker. Zorg dat er een afdeling is die hier speciaal op controleert.
2. Gebruik tools of bouw tools – Automatisering maakt handmatige processen altijd schaalbaarder.
Voor kleine websites zijn er allerlei PlugIns die je helpen, voor grote, handgemaakte websites zullen er meestal tool moeten worden ontwikkeld. Dit is de investering vaak meer dan waard. Met een eenmalige investering kun je heel wat manuren besparen. Tools als Screaming Frog kunnen je hier ook goed mee helpen.
3. Gebruik een gefaseerde aanpak – Grote websites hebben niet altijd grote teams beschikbaar
om het werk van het optimaliseren van alle pagina’s te verspreiden. Als er een gebrek is aan
mankracht kun je dus eigen tools maken om dit proces te vergemakkelijken. Mochten dit geen optie zijn, overweeg dan een gefaseerde aanpak. Dit houdt in dat er aan één sectie tegelijk wordt gewerkt met een optimalisatieschema. Dit is een proces kan dagen in beslag nemen maar zal zeker zijn vruchten zal afwerpen. Begin altijd met de belangrijkste pagina’s en werk van hier naar beneden.

10 Zet de bezoeker altijd op de eerste plaats

Dit kan ik niet vaak genoeg herhalen; vergeet zoekmachines en leg de focus altijd op je bezoeker. Natuurlijk is dit wat kort door de bocht, maar wanneer de bezoeker optimaal wordt bediend komt dit vaak helemaal overeen met de richtlijnen van zoekmachines. De algoritmes van zoekmachines willen namelijk ook dat de bezoeker zo goed mogelijk wordt bediend. Natuurlijk moet de technische kant ook worden gemonitord, maar ga niet proberen trucs uit te halen om betere resultaten te behalen in zoekmachines, dit werkt in de meeste gevallen averechts. De filosofie moet altijd zijn het beste voor je bezoeker te willen. Breng in geen geval de UX (User Experience) in gevaar. Schijf dus blogs om je bezoeker extra te informeren en tegelijkertijd zullen zoekmachines deze informatie koppelen aan nieuwe bezoekers. Zorg wel voor relevante teksten van hoge kwaliteit. Ga dus niet lukraak enorme lappen tekst plaatsen, ook dit heeft geen enkele zin of kan zelfs je website schade toebrengen.

Conclusie

Het fenomeen website navigatie wordt nog wel eens voor lief genomen terwijl dit een cruciaal element is in iedere website. Als dit niet op orde is zullen zowel bezoekers als zoekmachines niet het volledige potentieel van de content kunnen benutten wat serieuze gevolgen heeft voor zowel organische posities als de gebruikerservaring, met als resultaat minder pageviews met de daar bijbehorende conversies. De grote winst zit hem er in dat dit eigenlijk maar één keer goed hoeft te worden opgezet en dan hoef je daarna hier geen aandacht meer aan te besteden. Hoogstens een periodieke controle. Heb je hier vragen over of kun je hier hulp bij gebruiken? Neem dan contact op!

Lees meer

8 tips om jouw crawlbudget te optimaliseren

Auteur: Erwan Vrignaud
Leestijd: 17 minuten

Iedereen denkt bij SEO aan een scala van technieken, maar het crawlbudget is een vrij nieuw fenomeen wat pas recent bij menig marketeer op hun to do lijstje is komen te staan. Het fenomeen crawlbudget is door Google in het leven geroepen om selectiever websites te kunnen indexeren vanwege de enorme hoeveelheid data die ze tegenwoordig moeten verwerken. En helaas ook veel troep wordt er iedere dag weer op websites geplaatst waarvan de makers denken dat het een toegevoegde waarde is voor zoekmachines of bezoekers, maar dat is vandaag de dag dus absoluut achterhaald. De algoritmes van Google worden steeds beter en effectiever in het negeren van content die niet relevant is en voornamelijk is ontworpen om zoekmachines te verleiden of misleiden. Is jouw website aangemerkt als een website die ook deze techniek gebruikt? Dan kun je daar allerminst blij mee zijn, het heeft gevolgen op je posities in de zoekresultaten. Zorg dus dat je website in orde is en als Google bij jou op bezoek komt alleen maar relevante pagina’s aantreft.

Hoe kun je dit het beste aanpakken? In dit artikel geef ik je 8 tips waarmee je kunt zorgen dat jouw crawlbudget zo goed mogelijk wordt ingezet.

Wat is het crawlbudget?

Zoekmachines gebruiken bots, ze worden ook wel spiders genoemd, om webpagina’s te indexeren. De twee bekendste bots zijn natuurlijk de Googlebot die nieuwe pagina’s ontdekt en toevoegt aan de Google Index, of de Bingbot, de bot van Microsoft. Veel SEO-tools gebruiken ook hun spiders om informatie te verzamelen en deze (al dan niet tegen betaling) toegankelijk te maken voor bezoekers. Vele platformen concurreren met elkaar, de ene is betrouwbaarder dan de andere. Tijdens het indexeren (crawlen) wordt informatie verzameld over deze website en worden deze informatie opgeslagen in hun database. Ook worden de inkomende links gedetecteerd. Dit is een indicatie van hoe andere websites een specifiek domein waarderen. Simpel voorbeeld: een grote website zoals nu.nl zal door veel andere kleinere websites worden “aanbevolen” doordat die kleinere websites links plaatsen naar artikelen die op nu.nl staan. Je kent ze wel, midden in een tekst staan dan zoiets als ‘Lees hier het laatste nieuws over XXXX (onderwerp)’ en door daar op te klikken word je doorverwezen naar nul.nl. Wanneer dit vaak genoeg gebeurt ziet Google dit als een belangrijke website. Maar een zzp’er die tuinier is en een kleine website heeft waar verder weinig activiteit is, daar zullen weinig tot geen links naar toe gaan. Een minder belangrijke website dus.

Het aantal keren dat een bot van een zoekmachine jouw website crawlt In een bepaalde periode is wat we het crawlbudget noemen. Aangezien Google iedere dag miljarden pagina’s moet indexeren kun je er dus van uitgaan dat Google niet iedere dag jouw website zal komen bezoeken. Gemiddeld gesproken indexeert Google jouw website iedere paar dagen tot een week. In Search Console van Google kun je zien wanneer Google voor het laatst bij je op bezoek is geweest. Je kan dit terug vinden bij Instellingen -> Crawlstatistieken. Hoe vaak Google langs komt hangt af van verschillende factoren zoals het crawlbudget.

Het verschil tussen SEO en crawlbudgetoptimalisatie

Al zijn beide onderwerpen nauw met elkaar verweven, SEO is een overkoepelende term die alle werkzaamheden bevat die er voor zorgen dat je website beter gepositioneerd wordt in zoekmachines en een zo goed mogelijke ervaring biedt aan gebruikers. Crawlbudgetoptimalisatie is alleen gericht op de zoekmachines om er voor te zorgen dat ze geen “tijd en energie” verspillen als ze jouw website bezoeken.

Hoe kun je dit zo goed mogelijk aanpakken? Ik ga je nu 8 tips geven die je zeker zullen helpen:

1. Zorg ervoor dat jouw pagina’s crawlbaar zijn
Jouw pagina is crawlbaar als spiders van zoekmachines deze kunnen vinden en volgen via de links in jouw website. Zorg er voor dat de .htacces en robots.txt bestanden niet jouw belangrijke pagina’s blokkeren, tenzij je dit per sé wel wilt. Het is overigens ook weer niet de garantie dat Google deze pagina’s dan overslaat, het is van jou een aanbeveling, maar Google kan deze mogelijk toch crawlen. Dit gebeurt vaak als inkomende links verwijzen naar een pagina die door jou is aangemerkt als ‘no-follow’. In dit geval moet je handmatig blokkeren dat de pagina geïndexeerd met behulp van de no-index robots meta tag of de X-Robots-Tag HTTP-header. Let er op dat tekst ook gelezen kan worden door zoekmachines. Maar al te vaak kom ik teksten tegen die verwerkt zijn in een afbeelding en dan worden ze niet gelezen. Tip: kun je de tekst met je muis selecteren? Dan wordt deze gelezen, zo niet, dan wordt de tekst niet herkend.

Robots.txt bestanden zorgen ervoor dat zoekmachines deze pagina’s overslaan

2. Pas op met rich media-bestanden
Rich-media bestanden zijn bestanden die vaak worden toegepast in advertenties om nog beter de aandacht van de bezoeker te trekken. Het betreft vaak een mix van audio, video of beeldbestanden die meerdere functionaliteiten hebben. Media bestanden kun je opsplitsen in twee hoofdcategorieën:

Standaard media: niet bewegende afbeeldingen met een grootte van max. 200kB met één klik-actie naar één bestemming
Rich media: al dan niet bewegende afbeeldingen die meerdere indelingen gebruiken (zoals video) met in de regel een grootte van meer dan 200kB met opties van verschillende vormen van interactie.

Vroeger had Google moeite met het lezen van JavaScript, Flash en HTML maar tegenwoordig is dat geen probleem meer. Maar als Google ze kan lezen betekent dat niet dat alle andere zoekmachines ze wel kunnen lezen. Wees hier dus selectief in.

3. Vermijd onnodige omleidingen
Elke URL waarnaar je omleidt verspilt een beetje van jouw crawlbudget. Als jouw website een flinke hoeveelheid omleidingen heeft, zoals de bekende 301 en 302 omleidingen, ben je mogelijk door je crawlbudget heen voordat Google alle bestemmingspagina’s überhaupt heeft bereikt. En dan worden de pagina’s waar het om draait dus niet meer geïndexeerd. Houd als stelregel aan: als het kan zo min mogelijk en niet vaker dan twee achter elkaar.

4. Repareer gebroken links
Vele experts (ook van Google zelf) hebben hier de nodige uitlatingen over gemaakt. Deze variëren van dat een gebroken link geen enkel effect heeft op organische ranking in de SERP (Search Engine Result Page) tot dat het funest zou zijn. Mijn advies is gebroken links wel degelijk op te sporen en te repareren en wel om de volgende 2 belangrijke redenen:
1. Ze belemmeren de pagina van jouw website te bereiken en dan kan deze ook simpelweg niet geïndexeerd worden.
2. Tegenwoordig is de UX-formule (User Experience) een steeds zwaarder wegende factor geworden, waardoor het niet meer dan logisch is dat als ook een bezoeker een link niet kan volgen dit toch zeker effect heeft voor je rankings.

5. Gebruik geen dynamische URL’s
Dynamische url’s gebruiken speciale tekens (#%&^) en parameters en moeten worden vermeden omdat ze niet omschrijven waar de pagina over gaat. Hierdoor verspilt Google dus hun crawlbudget en zal deze pagina niet opnemen in hun zoekresultaten en minder vaak tot mogelijk niet meer opnieuw indexeren. Als je wilt weten of jouw url’s crawlbaar zijn kun je dit nakijken in Google Search Console: Instellingen -> crawlstatistieken.

Dynamische url’s hebben voor zoekmachines geen toegevoegde waarde

6. Je xml-sitemap opschonen
XML-sitemaps helpen de spiderbots van zoekmachines doordat het de content op jouw website hiërarchisch in kaart brengt. Probeer de sitemap up-to-date te houden en verwijder url’s die niet ter zake doen zoals; account logins, privicay disclamers, alle pagina’s met een 400 status, onnodige omleidingen, niet-canonieke pagina’s en geblokkeerde pagina’s. De eenvoudigste manier om jouw sitemap op te schonen, is door een tool te gebruiken zoals Screaming Frog. Deze brengt helder in kaart alle url’s die niet in orde zijn.

7. Zorg voor externe links
Linkbuilding is nog steeds een belangrijk onderdeel en het is de vraag of dit ooit zal verdwijnen. Het is vaker aangetoond dat relevante links zorgen voor een toename aan websitebezoeken. Belangrijk hier is te realiseren dat het beter is om één link te ontvangen van een gedegen website met een hoge autoriteit dan 100 websites met een lage autoriteit. Google hanteert hier wel een strikt beleid: het betalen voor links is niet toegestaan. Wees hier dus voorzichtig mee want vandaag de dag zijn de algoritmes steeds beter in het herkennen van betaalde links.

8. Maak interne links
Al speelt interne linkbuilding geen substantiële rol in de crawlsnelheid, dat betekent niet dat je kan het helemaal negeren. Een goed onderhouden sitestructuur maakt jouw content gemakkelijk vindbaar voor zoekbots zonder jouw crawlbudget te verspillen. Een goed georganiseerde interne koppelingsstructuur verbetert ook de UX (User Experience) doordat een bezoeker veel sneller kan schakelen in jouw website. De UX is tegenwoordig een steeds belangrijkere ranking factor en zoekmachines zien wanneer de UX hoog is, namelijk, er wordt een lange tijd op jouw website doorgebracht en er worden verschillende pagina’s bezocht die niet alleen via het hoofdmenu zijn bereikt. Hoe langer een bezoeker doorbrengt op jouw site, hoe beter.

Conclusie
Aangezien veel zoekmachines tegen hun grenzen aanlopen omtrent dataopslag en energie om alle content wereldwijd continue te indexeren, zal het crawlbudget een steeds grotere rol gaan spelen. Zorg dat je hier nu goed mee leert om te gaan en je zal er op de lange termijn de vruchten van plukken. Hoe makkelijker het is voor Google om jouw website te crawlen, hoe beter dit beloond wordt door betere posities in de SERP’s (Search Engine Result Page). Tegelijkertijd verbeter je hiermee ook de UX wat er voor zorgt dat een bezoeker langere tijd op je website doorbrengt. Vind je het lastig hoe je dit aan moet pakken? Neem contact op voor advies!

Lees meer

Hoe gebruik je een XML Sitemap?

Auteur: Erwan Vrignaud
Leestijd: 23 minuten

Naarmate het web evolueert, evolueert ook Google en de daarbij behorende SEO richtlijnen. Wat gisteren gold als de beste tactiek, kan vandaag de dag alweer achterhaald zijn. Dit geldt vooral voor sitemaps, die bijna net zo oud zijn als SEO zelf.

Ik denk dat alle experts het er inmiddels over eens zijn dat het indienen van een sitemap cruciaal is uit SEO oogpunt. Maar hoe je deze het beste in kan dienen zodat ze jouw KPI’s (Key Performance Indicators) het beste dienen, dat is toch echt next level. In dit artikel vertel ik je er alles over.

Wat is een XML-sitemap?

In eenvoudige bewoordingen is een XML-sitemap een lijst met de URL’s van jouw website. Het fungeert als een routekaart om zoekmachines te vertellen welke content beschikbaar is en hoe deze te bereiken.

In onderstaand voorbeeld vindt een zoekmachine al mijn pagina’s met één bezoek aan het XML-sitemapbestand.

Door aan de url ‘sitemap_index.xml’ toe te voegen zie je de sitemap van iedere website

Op sommige websites zal een zoekmachine door meerdere interne links moeten springen om een bepaalde pagina te bereiken. Door het gebruik van een XML-Sitemap help je zoekmachines sneller de website te indexeren. Dit is vooral belangrijk voor websites die:

• Duizenden pagina’s en/of een diepe website-architectuur hebben
• Er regelmatig nieuwe pagina’s worden toegevoegd
• Regelmatig de bestaande content wordt gewijzigd
• Interne links niet altijd 100% werken of pagina’s (al dan niet tijdelijk) soms ontbreken
• Een gedegen extern linkprofiel ontbreekt

In een Sitmap kan je ook aangeven bepaalde pagina’s juist niet beschikbaar te stellen voor indexatie. Hierdoor kunnen zoekmachines sneller en efficiënter crawlen. Denk aan pagina’s als inlogpagina’s, bedankpagina’s en pagina’s louter voor intern gebruik. Het gebruik van een Sitemap zorgt er voor dat zoekmachines alleen de relevante pagina’s van jouw website indexeert. Ook al kunnen zoekmachines technisch gezien al jouw URL’s vinden zonder de Sitemap, door hier wel gebruik van te maken geef je duidelijk aan welke pagina’s worden beschouwd als hoogwaardige bestemmingspagina’s.

Hoewel er geen garantie is dat het gebruik van een XML-sitemap er voor zorgt dat jouw pagina’s gecrawld, geïndexeerd of gerangschikt worden, vergroot het zeker wel de kans.

XML Sitemap Formaat

Een XML Sitmap is opgebouwd uit meerdere tags en dan ben je natuurlijk nieuwsgierig naar welke tags dan belangrijk zijn. Welke moet je gebruiken en welke metadata is belangrijk?

Loc (ook bekend als Locatie) Tag: deze verplichte tag bevat de absolute, canonieke versie van de URL-locatie. Voor internationale websites is dit ook waar je de hreflang kan weergeven. Door het kenmerk xhtml:link te gebruiken om de taal en regio aan te geven voor elke URL, verminder je de laadtijd van deze pagina
Lastmod (ook bekend als Laatst gewijzigd) Tag: een optionele, maar sterk aanbevolen tag die wordt gebruikt om de datum en tijd van het bestand weer te geven wanneer deze voor het laatst is gewijzigd. Deze Lastmod is vooral van cruciaal belang voor content websites, omdat deze helpt Google te begrijpen dat jij de oorspronkelijke uitgever bent. Stel dat iemand anders jouw tekst kopieert en op een andere website plaatst, dan herkend Google dit en weet dat jij het origineel hebt geplaatst. Jij zal dan altijd boven degene gepositioneerd worden in hun resultaten.
Changefreq (ook bekend als Change Frequency) Tag: In het verleden gaf deze optionele tag aan hoe vaak content in een URL zou naar verwachting zou veranderen in zoekmachines. Tegenwoordig een achterhaalde tag en biedt niet veel meerwaarde als de Lastmod goed wordt gebruikt.
Priority Tag: Deze optionele tag verteld zoekmachines hoe belangrijk de pagina is ten opzichte van jouw andere URL’s op een schaal tussen 0,0 en 1,0. Echter is ook deze wat achterhaald en ziet Google dit louter als hint en biedt dit ook niet echt meerwaarde.

Soorten sitemaps

Er zijn veel verschillende soorten sitemaps. Welke zijn nou de belangrijkste?

XML-sitemapindex. De meest gebruikte, echter kent deze een aantal beperkingen:
– Maximaal 50.000 URL’s
– Maximale bestandsgrootte van 50 MB
Wanneer je een van beide limieten overschrijdt, moet je jouw URL’s splitsen in meerdere XML-sitemaps. Die sitemaps kunnen op hun beurt weer worden gecombineerd tot één XML-sitemap
indexbestand, vaak sitemap-index genoemd (.xml). Dus een sitemap voor sitemaps. Voor uitzonderlijk grote websites kun je meerdere sitemapindexbestanden maken.

Bijvoorbeeld:
sitemap-index-categorieën.xml
sitemap-index-artikelen.xml
sitemap-index-specificaties.xml

Om het zoekmachines makkelijk te maken jouw sitemaps te indexeren moet je ze periodiek indienen. Bij Google dien je dit te koppelen via Google Search Console en bij Bing via hun Webmaster hulpprogramma. Geef de URL(‘s) van jouw sitemapindex op in het robots.txt bestand. Hierna zijn ze beschikbaar voor indexatie voor deze twee grote zoekmachines.

XML-afbeeldingssitemap. Deze zijn ontworpen om de indexering van afbeeldingen te verbeteren. In hedendaagse SEO zijn afbeeldingen echter ingebed in de content van de pagina en worden deze samen met de pagina-URL gecrawld. Bovendien is het de beste manier om JSON-LD-schema.org/ te gebruiken om afbeeldingseigenschappen door te geven aan zoekmachines omdat het meer kenmerken biedt dan alleen een XML-sitemap voor afbeeldingen. Hierdoor is een XML-afbeeldingsitemap voor de meeste websites niet nodig. Het dan toch opnemen van een afbeeldingssitemap verspilt alleen jouw crawlbudget. Het moet wel gebruikt worden voor websites die afbeeldingen als voornaamste element hebben voor hun bedrijfsmodel, zoals stockfoto- of grote e-commerce websites. Dit maakt dat deze foto’s beter zichtbaar zullen zijn in Google Afbeeldingen.

XML-videositemap. Hier geldt hetzelfde als voor afbeeldingen, alleen gebruiken als video’s van cruciaal belang zijn voor jouw bedrijf. Zo niet, dan is een videositemap overbodig.

Google Nieuws-sitemap. Alleen websites die zijn geregistreerd bij Google Nieuws mogen deze sitemap gebruiken. Als dat het geval is, neem dan de artikelen op die in de afgelopen twee dagen zijn gepubliceerd, tot een limiet van 1.000 URL’s per sitemap. Update deze sitemap met nieuwe artikelen zodra ze zijn gepubliceerd.
• Mobiele sitemap. Dit is voor de meeste websites niet nodig. In het verleden had dit wel nut voor “telefoonpagina’s” en dat zijn nog compactere webpagina’s dan de indeling voor Smartphones. Het is nu achterhaald, tenzij je unieke URL’s hebt die speciaal hiervoor zijn ontworpen. Voor hedendaagse telefoons zal een mobiele sitemap zal geen voordeel hebben.

HTML-sitemap. XML sitemaps zorgen voor de behoeften van zoekmachines. HTML-sitemaps
zijn ontworpen om menselijke gebruikers te helpen bij het vinden van content. De vraag is alleen; als je een correcte site hiërarchie hebt met logische interne links, heb je dan wel een HTML-sitemap nodig? Controleer de paginaweergaven van jouw HTML-sitemap in Google Analytics. De kans is groot dat deze erg laag is. Zo niet, dan is het een goede indicatie om jouw websitenavigatie te verbeteren.

In Google Search Console kun je controleren of de sitemap is ingediend

Dynamische XML-sitemap

Statische sitemaps zijn eenvoudig te maken met behulp van online software zoals Screaming Frog. Het probleem is dat zodra je een pagina maakt of verwijdert, jouw sitemap alweer is verouderd. Zodra je de content van een pagina wijzigt, wordt de sitemap niet automatisch bijgewerkt. Dus tenzij je een grondige reden hebt dit handmatig iedere keer te doen, dient het sterk de aanbeveling dynamische XML-sitemaps te gebruiken. De server houdt alle wijzigingen in de website bij en past dit aan in de sitemap.

Een dynamische XML-sitemap kun je op twee manieren maken:
1. Vraag jouw developer om een aangepast script te coderen die de wijzigingen doorzet
2. Installer een PlugIn zoals Yoast SEO die dit automatisch voor je doet. Dit kan alleen met WordPress websites.

Dynamische XML-sitemaps zijn tegenwoordig de meest gangbare sitemaps en deze zijn zeer gebruiksvriendelijk. Eigenlijk heb je er geen omkijken naar. Wel af en toe in Google Search Console controleren of ze daadwerkelijk worden geüpload, zo ja, dan is alles in orde. Mobiele en HTML-sitemaps worden nagenoeg niet meer gebruikt. Gebruik afbeeldings-, video- en Google Nieuws-sitemaps alleen als deze noodzakelijk zijn omdat ze de essentie van jouw website zijn.

XML Sitemap Indexatie

En dan rest de vraag natuurlijk; hoe gebruik je een XML-sitemap optimaal voor de beste SEO resultaten? Het meest voor de hand liggende antwoord is: neem alleen SEO-relevante pagina’s op in XML-sitemaps. Want een XML-sitemap is simpelweg een lijst met pagina’s die je aanbeveelt om te worden gecrawld, wat niet noodzakelijkerwijs betekent dat iedere pagina belangrijk is. Doordat Google werkt met een “crawlbudget” zullen mogelijk niet alle pagina’s bezocht worden. En om te voorkomen dat Google de meest belangrijke pagina’s mogelijk overslaat, dien je aan te geven welke pagina’s het belangrijkst zijn.

De XML-sitemap geeft aan dat de opgenomen URL’s beschouwt moeten worden als belangrijk en hiermee vertel je zoekmachines; “Ik zou het erg op prijs stellen als je bij het indexeren deze pagina’s voorrang geeft. Je helpt zo zoekmachines hun crawlbudget effectief te gebruiken. Dus door alleen SEO-relevante pagina’s op te nemen, help je zoekmachines jouw website sneller en efficiënter te indexeren.

Ook is het van belang sommige pagina’s uitdrukkelijk uit te sluiten van indexering:

• Niet-canonieke pagina’s
• Dubbele pagina’s
• Gepagineerde pagina’s
• URL’s op basis van parameters of sessie-id’s
• Pagina’s met zoekresultaten voor sites
• Pagina’s met reacties van bezoekers
• Deel via e-mail-URL’s
• URL’s gegenereerd door filters bij bijvoorbeeld webshops
• Pagina’s met archivering
• Eventuele omleidingen (bijvoorbeeld de 301 en 308)
• Ontbrekende pagina’s (4xx) of serverfoutpagina’s
• Andere foutmeldingen (5xx)
• Pagina’s die zijn geblokkeerd door robots.txt
• Pagina’s met no-index
• Resourcepagina’s die toegankelijk zijn via een lead gen-formulier (bijv. white paper
PDF’s)
• Hulpprogramma’s uitsluitend voor gebruikers zoals; inlogpagina, neem contact met ons op, privacybeleid, account, etc.

Wanneer jouw website 1.000 pagina’s heeft en 400 van die pagina’s zijn voor zoekmachines irrelevant, dan markeer je die 400 pagina’s in een XML-sitemap en daarmee geef je aan dat zoekmachines zich vooral op de overige 600 pagina’s moeten richten. Wanneer Google die 600 pagina’s crawlt worden deze algoritmisch gelabeld. Dan krijgen er bijvoorbeeld 200 het A-label, 200 het B-label en 200 het C-label. Wanneer je geen pagina’s gaat prioriteren heb je kans dat er 600 pagina’s het D- of E-label krijgen en dat moet je zien te voorkomen. Google ziet liever een website met minder maar meer relevante pagina’s dan een website met veel en irrelevante pagina’s. De laatste optie zal zorgen voor lagere positionering in de SERP’s (Search Engine Result Page).

Onthoud dat Google een .xml sitemap ziet als aanbeveling en niet noodzakelijkerwijs dit opvolgt. Pagina’s die in de sitemap ontbreken kunnen toch wel degelijk geïndexeerd worden. Als het om SEO gaat is de algehele kwaliteit van jouw website een belangrijke factor. In Search Console geeft Google de technische kant van de website aan. Foutmeldingen dienen te worden opgevolgd.

In Search Console is met betrekking tot de sitemap niet zo heel veel terug te vinden. Voornaamste is dat je kunt zien wanneer de laatste keer de indexering is geweest. Dat op zichzelf is natuurlijk een belangrijk gegeven. Ook kun je terug vinden welke pagina’s niet zijn geïndexeerd. Wanneer een foutmelding hiervan de oorzaak is, dient de fout te worden hersteld. Zorg er in ieder geval voor dat de pagina niet per ongeluk wordt geblokkeerd door een robot.txt bestand. Dan is er vaak in de PlugIn van Yoast het vakje met ‘Disallow’ aangevinkt. Dan geef je dus specifiek zoekmachines de opdracht deze pagina niet te indexeren. Als er geen foutmelding is kan Google er zelf voor hebben gekozen deze pagina’s niet te indexeren. Hier zijn verschillende redenen voor:

Serverfout (5xx)
Jouw server geeft een foutcode op die begint met een 5. Dit kan van alles zijn en moet vanaf de bron (server) worden gecontroleerd.

Omleidingsfout
Google trof tijdens de indexering een fout in de omleiding:
• Een omleiding die te lang was
• Omleidingen die naar elkaar verwijzen (lus)
• Een omleidings-URL die de maximale URL-lengte heeft overschreden
• Een omleiding met een onjuiste of lege URL
Met Chrome DevTools (F12) kun je vaak zien waar de fout zit.

URL geblokkeerd door robots.txt
Deze pagina is geblokkeerd door het robots.txt-bestand op jouw website. Ook dit wordt weergegeven in Search Console bij Paginafunctionaliteit. Wanneer een pagina is geblokkeerd door een robot.txt bestand kan mogelijk Google nog steeds de pagina indexeren. De beste manier om te voorkomen dat Google te pagina crawlt is door het gebruik van een noindex.

URL gemarkeerd als ‘noindex’
Dit is dus de correcte manier om te voorkomen dat Google deze pagina indexeert. Tenzij je natuurlijk wilt dat deze geïndexeerd wordt. Dan dien je deze status te verwijderen.

404 foutmelding
Een 404 melding wil zeggen dat de server doorgeeft dat er iets fout gaat en deze pagina niet geladen kan worden. Dit kan een verkeerd ingestelde link zijn, verwijderde pagina of verhuisde pagina zonder doorverwijzing.

Soft 404
Een soft 404 is niet echt een 404 maar een “mogelijke” 404. Google vermoed dit dus. De server geeft door dat alles OK is maar Google vermoed dat er toch iets fout gaat. Dit kan door meerdere redenen komen zoals het ontbreken van content (bijna lege pagina) of een sterk afwijkende pagina.

401 code (geblokkeerd wegens ongeautoriseerd verzoek)
Deze pagina wordt geblokkeerd omdat autorisatie vereist is om deze pagina te bezoeken. Je kunt de autorisatie verwijderen of zo instellen dat Google wel toestemming heeft deze te bezoeken maar “gewone” bezoekers niet.

Gecrawld – momenteel niet geïndexeerd
De pagina is recent door Google gecrawld maar niet geïndexeerd. De pagina zal mogelijk in de toekomst wel geïndexeerd worden. Reden voor website eigenaren onbekend. Geen actie vereist.

Ontdekt – momenteel niet geïndexeerd
De pagina is gevonden door Google, maar bewust nog niet gecrawld. Dit kan zijn omdat Google signalen oppikte dat de site overbelast zou raken. Google zal binnenkort opnieuw een poging wagen. Geen actie vereist.

Alternatieve pagina met de juiste canonieke tag
Een canonieke tag verwijst een pagina door naar de canonieke pagina, oftewel de pagina die als meest relevant gezien moet worden wanneer er een of meerdere pagina’s content bevatten die veel op elkaar lijken.

Dupliceren zonder door de gebruiker geselecteerde canoniek
Deze pagina is nagenoeg een kopie van een andere pagina en daarom heeft Google besloten deze niet meer de indexeren. Ook is er geen canonieke tag ingesteld. Google zal deze pagina niet meer vertonen in de zoekresultaten. Dit is bewust zo gedaan om er voor te zorgen dat Google niet meerdere url’s vertoond met nagenoeg dezelfde content.

Dupliceren, Google heeft een andere canoniek gekozen dan de gebruiker
Op deze pagina is een canonieke tag geplaatst, echter denkt Google dat een andere pagina meer geschikt is.

Pagina met omleiding
Deze pagina wordt doorverwezen naar een andere pagina, zodoende heeft het geen zin deze te indexeren. De bestemmingspagina kan wel worden geïndexeerd.

Geïndexeerd, hoewel geblokkeerd door robots.txt
Ondanks dat deze pagina is geblokkeerd door een robot.txt bestand is deze toch geïndexeerd. In sommige gevallen kan Google deze blokkade negeren. Dit gebeurt met name wanneer deze pagina (vaak) bezocht wordt door derden. Dan wil Google wel weten wat de inhoud van deze pagina is. Door het robot.txt bestand zal in de zoekresultaten geen of beperkte informatie worden vertoond.

Pagina geïndexeerd zonder inhoud
Deze pagina wordt geïndexeerd door Google maar Google herkend om wat voor reden dan ook de content niet. Er kan sprake zijn van camouflage of een format die Google niet herkend. Het is belangrijk dat er een gezonde verhouding is tussen de goedgekeurde pagina’s en pagina’s met een foutmelding. De regel is dat niet meer dan 20% van de pagina’s een foutmelding mogen hebben. Websites met nul foutmeldingen kom ik zelden tegen.

De gratis PlugIn van Yoast genereerd automatisch jouw sitemap

Sitemap Checklist

Loop zo nu en dan deze checklist na om zeker te weten dat de sitemap in orde is:

  • Een sitemapindexbestand gebruiken
  • Comprimeer sitemapbestanden met gzip
  • Gebruik afbeeldings-, video- en Google-nieuwssitemaps alleen als indexatie
  • Controleer dat jouw belangrijkste pagina’s geïndexeerd worden
  • Zorg ervoor dat de XML-sitemaps dynamisch gegenereerd worden
  • Zorg er voor dat alle URL’s in één sitemap worden opgenomen
  • Verzoek tot indexering zowel naar Google als Bing versturen
  • Google Search Console gebruiken om fouten op te lossen
  • Alle fouten en waarschuwingen oplossen
  • Bereken het indexatiepercentage van ingediende pagina’s (min. 80% goedgekeurd)
  • Oorzaken van uitsluiting voor ingediende pagina’s aanpakken

 

Door deze checklist zo nu en dan na te lopen ben je verzekerd van een correct ingediende en werkende .xml sitemap. Heb je hier vragen over? Neem contact op!

 

Lees meer

Hoe ziet een SEO vriendelijke URL-structuur er uit?

Auteur: Erwan Vrignaud
Leestijd: 21 minuten

De URL van je website is het eerste wat Google en je bezoekers te zien krijgen. En vreemd genoeg krijgt dit maar al te vaak weinig aandacht in SEO land. Waarom is het belangrijk hier ook op te letten? En hoe ziet een ideale URL er dan uit?

URL’s zijn de bouwstenen van een effectieve site hiërarchie, die worden doorgegeven
via jouw domein en gebruikers doorverwijzen naar de gewenste bestemmingen. Soms zijn URL’s naderhand lastig te corrigeren, dus denk hier van tevoren goed over na hoe je je website in gaat richten. Naderhand corrigeren kan resulteren in een enorme hoeveelheid pagina’s die allemaal doorverwezen worden en met pech verwijzen ze naar elkaar door. Je hebt dan te maken met ‘redirect-loops’ en dit is schadelijk voor je organische posities want noch Google, noch jouw websitebezoekers zullen ze waarderen.

Het is de moeite dit meteen vanaf het begin goed te krijgen. Voor een correcte URL-structuur moet je een mix van bruikbaarheids- en toegankelijkheidsfactoren in kaart brengen.
Hoewel er geen one-size-fits-all aanpak is, zijn er enkele regels die je kunt volgen om het beste effect te bereiken met jouw URL’s.

Door het volgen van de volgende 12 stappen heb je de meeste kans op succes:

1. Gebruik belangrijke zoekwoorden in je URL

Iedere URL dient een doel, of het nu is om een bezoeker te informeren of iets te verkopen, het doel moet al duidelijk zijn in de URL. Je wilt dat deze pagina op de meest effectieve manier door zoekmachines wordt geïndexeerd en door de juiste bezoekers wordt bezocht. Het gebruik van de juiste zoekwoorden is dan cruciaal. Het meest belangrijke zoekwoord moet altijd vooraan de url staan, gevolgd door de steeds minder belangrijke woorden.

Laten we als voorbeeld nemen dat jij handzeep verkoopt. De ideale url ziet er dan als volgt uit:
https://jouwwebsite.nl/handzeep

En zelfs dit voorbeeld is al niet zo makkelijk als het lijkt. Want wordt er het meest gezocht op “handzeep” aan elkaar geschreven of juist los van elkaar? Want als dat het geval is kun je de url beter zo inrichten:
https://jouwwebsite.nl/hand-zeep

Spaties kunnen in een URL niet gebruikt worden, voor een spatie wordt in de regel een verbindingsstreepje (-) gebruikt. Is dit dan zo belangrijk? Niet als jij de enige bent die handzeep verkoopt. Maar als jouw concurrent wel zo’n streepje gebruikt heb je kans dat als een bezoeker deze woorden los in een zoekmachine invoert, jouw URL onder die van jouw concurrent komt te staan. En dat wil je voorkomen natuurlijk.

Je kan zelf als leek al onderzoek doen door het zoekwoord simpelweg in de zoekbalk van Google in te voeren, de variant die bovenaan komt te staan is degene die het meest gebruikt wordt. Beter is om de Zoekwoordplanner in Google Ads te gebruiken, maar daarvoor moet je wel een Google Ads account hebben.

2. Bouw een URL-structuur die toekomst bestendig is

De grootste uitdaging waar iedere webdeveloper voor komt te staan is toch wel het definiëren van een URL-hiërarchie die jarenlang stand kan houden. Je wilt dit niet ieder jaar weer helemaal om moeten gooien omdat dit een nogal arbeidsintensief proces is en wijzigingen in URL’s zijn in de regel niet bevorderlijk voor jouw organische posities.

Maar al te vaak eindigen websites met een labyrint van subdomeinen en conflicterende paden met alle gevolgen van dien. Dit is slecht vanuit het perspectief van een bezoeker en verwarrend voor Google over hoe je jouw productaanbod categoriseert.

Een fout voorbeeld hiervan is:
https://jouwwebsite.nl/toiletartikelen/flacons/ecologisch/hand-zeep

Veel te lang met allemaal irrelevante “tussenlagen” waardoor zowel zoekmachines als een bezoeker het spoor bijster raken.

Houd het zo kort mogelijk, dus: https://jouwwebsite.nl/hand-zeep

Al zou dit ook nog goed zijn: https://jouwwebsite.nl/toiletartikelen/hand-zeep

Het eerste deel van de URL na de domeinnaam omschrijft idealiter naar de categorie, het tweede deel naar de subcategorie en het laatste deel naar het product. Je ziet ook regelmatig dat hierna een productnummer komt, dat mag want dat is voor zoekmachines verder geen interessante informatie. Het is beter om niet het productnummer meteen na het domeinnaam laten komen.

Het gaat vaak fout en dit is vooral het geval wanneer nieuwe producten automatisch, rechtstreeks op de website worden geplaatst zonder dat daar verder aandacht aan is besteed. Het van essentieel belang om de structuur van je website van tevoren goed in te richten. Verschillende teams binnen jouw bedrijf moeten hier goed overleg plegen om de ideale structuur op te zetten. Want vaak moeten subcategorieën en artikelen opnieuw worden gerangschikt om alles goed op te zetten.

3. Vermijd overbodige woorden en tekens

Een belangrijke vuistregel is dat een bezoeker alleen al door te kijken naar de url meteen weet waar jouw pagina over gaat. Overbodige woorden als “en” of “de” zijn slechts afleidingen en vreemde tekens als “% # *” moeten al helemaal worden vermeden. Als een bezoeker het niet snapt, dan snapt Google het in de regel ook niet. Vermijd een onnodige herhaling van zoekwoorden binnen dezelfde URL.

Fout: www.beddengoedxl.nl/hoeslaken/hoeslaken-katoen/hoeslaken-zwart

Goed: www.beddengoedxl.nl/hoeslaken/hoeslaken-zwart

Door met productnummers te werken kan ieder artikel zijn eigen aparte URL krijgen. Er is hier twee keer het woord “hoeslaken” gebruikt, maar dat is niet erg omdat de één de rubriek omschrijft en de ander het artikel. Wanneer je dan een variant van het artikel wil laten zien moet je niet voor een derde keer hetzelfde zoekwoord gebruiken.

4. Hoofdletters
Deze is simpel, gebruik geen hoofdletters. Al zal Google weten wat de bedoeling is, het is niet gebruikelijk en ziet er vaak slordig uit.

5. Hashing
Deze worden wel eens gebruikt om gebruikers naar een specifieke sectie te sturen van een pagina, maar voor zoekmachines en bezoekers is uit de code niets op te maken. Je kan beter dit kenbaar maken via een aparte URL.

6. Woordscheidingstekens
Gebruik altijd koppeltekens ( – ) om woorden binnen dezelfde URL te scheiden. Underscores worden gezien om twee woorden samen te voegen wat tot onjuiste informatie leidt. Onderstrepingstekens in URL’s worden niet herkend door Google, een URL die “over_ons” bevat, ziet er voor Google uit als “overons”. Een URL die “over-ons” bevat, wordt geïnterpreteerd als “over ons”. Wanneer een bezoeker op zoek is naar informatie over jouw bedrijf zal Google mogelijk niet de match kunnen maken met deze pagina. Gebruik underscores dus zo min mogelijk.

7. URL-lengte
Na 115 tekens kapt Google jouw URL af in de pagina’s met zoekresultaten. Een goede vuistregel is om URL’s zo kort mogelijk te houden zonder essentiële informatie weg te laten.

8. Pas op met dynamische URL-tekenreeksen
Wanneer een grote webshop als Bol.com of Amazon hun enorme hoeveelheden artikelen willen categoriseren dan kom je er eigenlijk niet onderuit gebruik te maken van volledig geautomatiseerde processen. Dit hoeft geen probleem te zijn, zolang de toegevoegde (dynamische) code maar als toevoeging wordt gebruikt en niet het hoofddeel bevat.

Fout: www.beddengoedxl.nl/cid=59392383?hoeslaken-zwart

Goed: www.beddengoedxl.nl/hoeslaken/hoeslaken-zwart/59392383

De foute variant maakt de URL ook erg lelijk en gaat in tegen de regels zoals hierboven omschreven. Gebruik dus indien mogelijk statische URL’s die een logische mappenstructuur aanhoudt met omschrijvende zoekwoorden.

Hoewel zoekmachines geen probleem hebben met crawlen of indexeren van beide varianten is het om SEO technische redenen beter om statische URL’s te gebruiken in plaats van dynamische. Het belangrijkste punt is dat statische URL’s jouw gekozen zoekwoorden bevatten en veel gebruiksvriendelijker zijn omdat een bezoeker meteen kan zien waar een pagina over gaat.

9. Absolute of relatieve URL’s?
Een absolute URL is een URL waar elk onderdeel wordt gebruikt, een relatieve URL is een URL waar maar een deel ervan wordt gebruikt.

Voorbeeld absolute URL: www.beddengoedxl.nl/hoeslaken/hoeslaken-zwart/59392383

Voorbeeld relatieve URL: /wp-content/wasinstructies.pdf

Relatieve URL’s worden meestal gebruikt als er verwezen wordt naar een bestand dat kan worden gedownload binnen het subdomein. Het gevaar zit hem er in dat als de url “los” wordt gebruikt, deze dus niet werkt. Stel je kopieert de URL om hem via e-mail of whatsapp door te sturen, dan werkt de link dus niet. Uit SEO oogpunt is het beter om absolute URL’s te gebruiken in plaats van relatieve.

10. Het gebruik van Parameters
URL parameters bevatten extra informatie die details omschrijven waar een pagina over gaat. Deze worden het meest ingezet bij webshops die gebruik maken van filters. Als een artikel bijvoorbeeld leverbaar is in verschillende kleuren zal een parameter automatisch de kleur die in het filter op de website is geselecteerd door de bezoeker in de URL plaatsen. Ga bewust hier mee om want wanneer alle paramaters doorverwijzen naar URL’s met dezelfde content kan dit tot resultaat hebben dat zoekmachines dit zien als duplicate content. Als dit vaak voorkomt zal Google mogelijk niet het hele domein crawlen en URL’s die veel op elkaar lijken gaan met elkaar concurreren in de zoekresultaten wat een negatief resultaat heeft op je ranking.

11. Maak gebruik van Canonical Tags
Met een Canonical Tag vertel je Google wat de belangrijkste pagina is wanneer er meerdere pagina’s bestaan met nagenoeg dezelfde content. Het komt bij grote websites en met name bij retailers vaak voor dat er meerdere pagina’s bestaan met nagenoeg dezelfde content. Als je geen gebruik maakt van Canonical Tags zal Google zelf een pagina uitkiezen en de rest indexeren als Duplicate Content. Met een Cononical Tag vertel je dus aan Google welke pagina over dit onderwerp / artikel het belangrijkste is.

Laat ik het uitleggen naar aanleiding van dit voorbeeld. We nemen twee pagina’s:

www.beddengoedxl.nl/hoeslaken/wasinstructies

www.beddengoedxl.nl/hoeslaken/veelgestelde-vragen/wasinstructies

We bepalen hier dat de eerste de belangrijkste is en plaatsen hier dus de zelfverwijzende canonical tag in de broncode toe. De URL komt er dan als volgt uit te zien:

<link rel=”canonical” href=”www.beddengoedxl.nl/hoeslaken/wasinstructies/” />.

De andere (minder belangrijke pagina) gaat doorverwijzen naar de versie hierboven en krijgt dan ook deze tag toegevoegd.

De canonieke tag mag alleen worden toegepast met het doel zoekmachines te helpen beslissen over jouw canonieke URL. Wil je pagina’s van je website doorverwijzen, gebruik dan omleidingen. Voor gepagineerde content kunt je het beste gebruik maken van rel=”next” en rel=”prev” tags. Met deze tags geef je aan dat er een relatie is tussen meerdere pagina’s. Dit wordt veel gebruikt wanneer er sprake is van hetzelfde artikel wat verkrijgbaar is in verschillende uitvoeringen. Een canonical tag zorgt er voor dat de SEO-waarde van meerdere pagina’s worden samengevoegd tot één URL. Dit heeft een zelfversterkend effect.

12. Een XML Sitemap maken
Wanneer alles in orde is met jouw pagina’s en structuur van jouw URL’s, wil je er zeker van zijn dat zoekmachines weten hoe jouw website in elkaar zit. En daar zijn sitemaps voor ontwikkeld, met name XML-sitemaps. Een XML Sitemap is iets anders als een HTML sitemap. De de eerste is ontworpen voor zoekmachines, terwijl de laatste is ontworpen voor menselijke gebruikers. Wat is nu precies een XML Sitemap? Simpel gezegd; het is een lijst van jouw URL’s van jouw website site’s die je indient bij de zoekmachines.

Dit heeft twee grote voordelen:

1. Dit helpt zoekmachines de pagina’s van jouw website gemakkelijker te crawlen.
2. Zoekmachines gebruiken de sitemap als referentie om canonieke URL’s te kiezen.

Omdat zoekmachines geen duplicate content willen tonen in hun resultaten kunnen ze in de XML Sitemap meteen zien welke als canonical zijn gemarkeerd. Een van de criteria die zoekmachines gebruiken om een canonieke URL voor verschillende webpagina’s te kiezen, is of dit wordt vermeld in de sitemap van jouw website. Je maakt het op deze manier makkelijker voor zoekmachines hun werk te doen. Het dient aan te bevelen alleen pagina’s in de XML sitemap op te nemen die moeten worden weergegeven in de zoekresultaten. De volledige structuur van je website mogen aan bod komen in de HTML Sitemap.

Conclusie
Het opvolgen van al deze instructies zal leiden tot betere positionering in de SERP’s (Search Engine Result Pages). Wanneer dit niet wordt opgevolgd leidt dit in de regel tot een verwarde structuur met een inconsistente logica. Het op orde hebben van je URL hiërarchie is essentieel voor goede prestaties. De filosofie is simpel: wanneer jouw grootste concurrent het wel op orde heeft en jij niet, dan zal je zeker het onderspit delven. En dat wil je natuurlijk vermijden. Erg ingewikkeld is het allemaal niet, zeker omdat er sterke Plug-Ins zijn zoals de Yoast SEO tool die je hebt bij het instellen van cononical tags en ook de XML Sitemap wordt in de regel automatisch gegenereerd. Kuin je hier hup bij gebruiken? Neem dan contact op!

 

 

Lees meer

2023 Technische SEO en Hosting

Auteur: Erwan Vrignaud
Leestijd: 18 minuten

SEO (search Engine Optimization) heft altijd als doel gehad het genereren van verkeer van hoge kwaliteit in de organische resultaten van zoekmachines. Het doel is altijd hetzelfde geweest, relevante bezoekers naar een website leiden die een meerwaarde heeft voor zowel de bezoeker en de website eigenaar. Zolang er zoekmachines bestaan zal SEO een noodzaak blijven. Maar er zijn veel dingen veranderd zoals technieken om zoekmachines te manipuleren die vandaag de dag geen enkele toegevoegde waarde meer hebben en zelfs tot penalty’s leiden.

Er zijn vier belangrijke onderwerpen waar we ons op moeten richten:

Prestaties: Het begint natuurlijk met de technische kant van de website, zoals de snelheid en voorkomen van fouten. Een 404 melding is een absolute no-go maar er zijn nog tal van andere kleine foutjes die er gaandeweg insluipen en leiden tot minder goede ranking in zoekmachines. Als de prestatie van een website ondermaats is, heeft de rest eigenlijk al geen zin meer. Eerst moet het fundament op orde zijn, daarna ga je een huis bouwen.

Structuur: de sitehiërarchie en URL-structuur moet zo zijn opgebouwd dat zoekmachines eenvoudig de meest relevante pagina’s kan vinden om deze vervolgens op te nemen in hun database. De interne link structuur moet hierop zijn ingericht en mag geen fouten bevatten.

Content: het is essentieel dat content gecrawld en geïndexeerd kan worden door alle grote zoekmachines. Hiervoor zijn ook technische zaken van belang zoals het gebruik te maken van logbestanden zoals .xml sitemaps en structured data om het voor zoekmachines makkelijker te maken snel en efficiënt websites te crawlen.

Conversie: het allerbelangrijkste wat een bezoeker vaak moet doen op een website is het maken van een conversie. Dit geldt in mindere zin voor informatieve websites, maar voor webshops (en alle andere website die een commerciële inslag hebben) is dit cruciaal. De website moet zo zijn ingericht dat de bezoekers op het juiste moment het meest gebruiksvriendelijke conversievenster onder ogen krijgt. Dit wordt wel Conversie Optimalisatie genoemd.

De term “zoekmachine optimalisatie” is eigenlijk ook niet de beste term omdat het impliceert dat we ons moeten focussen op zoekmachines terwijl de focus moet liggen op de bezoeker. Wanneer de match tussen de bezoeker en de website maximaal is, is het hoogste doel bereikt. We kunnen dan eigenlijk beter spreken van “website optimalisatie”.

Wat houdt technische SEO nou in?

SEO werk omvat:
• Het optimaliseren van de site voor je bezoekers.
• Zorgen voor toegankelijkheid van de content voor alle belangrijke zoekmachines en
sociale netwerken.
• Content creëren die aansluit bij juiste doelgroep en zoveel mogelijk bezoekers trekt.

Het is de uitdaging om er voor de consument te zijn, waar ze ook naar op zoek zijn en wat hun behoeftes ook zijn. Deze behoeftes veranderen continu en jouw website moet hier naadloos op aansluiten.

Sinds het stijgen van mobiel internetverkeer worden Accelerated Mobile Pages (AMP) en Progressive Web Apps (PWA’s) steeds belangrijker.

Accelerated Mobile Pages (AMP)
Deze term is door Google in het leven geroepen en is een benaming voor webpagina’s die speciaal zijn ontwikkeld om zo goed mogelijk te presteren op mobiele apparaten. Deze pagina’s zijn in de regel een gestripte HTML versie van de desktop-versie waar met name de tekst en afbeeldingen zijn overgezet en de rest achterwege blijft. Hierdoor wordt de pagina extra snel geladen op een mobiel apparaat en is de pagina makkelijker leesbaar door het achterwege blijven van “storende” elementen zoals javascripts, niet noodzakelijke lettertypes en frames.

De Progressive Web App (PWA)
De PWA is een recente ontwikkeling is staat voor een mix tussen een website en mobiele app. De grote winst zit hem in het feit dat een PWA zowel als website en als app kan fungeren. Ze hoeven dus niet los van elkaar ontwikkeld te worden wat ook de nodige kosten met zich mee brengt. De beperking is dan weer dat je op beide platformen mogelijk tekort schiet. Je kunt het vergelijken met de vier-seizoenen banden voor een auto. Je kunt er in alle omstandigheden mee rijden, maar de prestaties zullen niet zo goed zijn als wanneer je zomerbanden en winterbanden met elkaar afwisselt.

Bovenstaande voorbeelden geven aan dat Google het “Mobile-first”-concept hanteert wat inhoudt dat hoe een website presteert op een mobiel apparaat het belangrijkste is. Dit negeren is funest voor je ranking in alle zoekmachines. De website ervaring, in het Engels User Experience (UX) wordt steeds belangrijker en dan dus met name op mobiele apparaten.

In de SEO wereld spreken we van drie soorten technieken; black hat, gray hat en white hat. Wat houdt dit in?

1. White Hat
De techniek die zoveel mogelijk moet worden gehanteerd, namelijk het simpelweg opvolgen van de richtlijnen van Google. En hoe paradoxaal het ook mogen klinken; eigenlijk moet je helemaal niet bezig zijn met hoe zoekmachines jouw website indexeren. Je moet je focussen op de bezoeker. Wees wel op de hoogte van de algehele richtlijnen en technische vereisten, maar haal geen trucs uit want Google (en andere zoekmachines) zijn vaak slimmer dan jij en ik. Zorg simpelweg voor maximale relevantie tussen jouw en je bezoeker en dat is het beste. Er zijn vele manieren om de relevantie te verhogen en alle legale manieren vallen onder White Hat.

2. Gray Hat
Dit zijn dan technieken waar Google niet per sé op tegen is, maar waar je enorm mee moet oppassen. Een goed voorbeeld is linkbuilding. Het is niet toegestaan om te betalen voor een link, dit is tegen de richtlijnen van Google. Maar wanneer “betaal” je voor een link? Als je op een nieuwsplatvorm als nu.nl een artikel publiceert weet Google niet of hiervoor is betaald of niet. Dat is dus een grijs gebied. Maar komen er een enorme hoop links van een platvorm waarvan het voor Google allang duidelijk is dat hier voor betaald wordt, dat valt onder Black Hat technieken en leidt dit wel degelijk tot penalty’s.

3. Black hat
Dit is alles waarvan je eigenlijk zelf ook al van vermoed dat het niet in orde is. Allerlei technieken die in de begindagen van Google misschien wel nut hadden, maar nu feilloos door Google worden herkend en stevig worden bestraft. Een goed voorbeeld is teksten plaatsen op je website die dezelfde kleur hebben als je achtergrond. Voor een bezoeker dus niet zichtbaar, maar wel als tekst indexeerbaar voor Google. Ook zaken als cloacking is absoluut not done. Hier klikt een bezoeker bijvoorbeeld op een link en komt ergens anders uit dan wat de link suggereert, vaak naar een compleet andere website. De beste manier om je website totaal de vernieling in te helpen. Nooit doen dus.

Black Hat SEO, begin er niet aan

Het op orde hebben van het fundament van je website is slechts het absolute minimum. Als je echt wil je winnen van je concurrentie, dan moet je verder gaan dan de basis. Een van de meest onderschatte elementen is de hosting. Voor velen “onzichtbaar” maar voor zoekmachines is dit zeer zeker niet het geval. Trage of niet SEO-vriendelijke hosting is natuurlijk funest en in de SEO wereld feitelijk het minste besproken onderwerp. En dat is onterecht. Dit wordt steeds belangrijker aangezien Google steeds strengere eisen stelt. Echt een punt om bij stil te staan anno 2023.

Het belang van SEO vriendelijke hosting

Los van de bekende zaken die op orde moeten zijn als backlinks, content, sitemaps en robots.txt bestanden moet je je ook richten op nieuwe ontwikkelingen als voice search, featured snippets en de mobile-first index.

En juist in deze woelige strijd wordt één factor vaak over het hoofd gezien terwijl juist deze een enorme invloed heeft op de uptime van jouw site en jouw paginasnelheid. En dit is o zo belangrijk voor positieve organische prestaties. En dan heb ik het dus over de hosting.

De hostingpartij die je kiest bepaalt in hoge mate de site-ervaring van bezoekers op jouw website. En dan maakt het niet uit waar deze bezoekers vandaan komen, via de organische resultaten of via de betaalde advertenties. Als je serverfouten, pagina time-outs en een hoge bouncerate (bezoeker die maar één pagina bekijkt en dan jouw website weer verlaat) wilt voorkomen, dan is een solide webhosting partij cruciaal. Ikzelf werk met Superoir uit Helmond en zij staan bekend om hun betrouwbare hosting en vriendelijke en professionele klantenondersteuning.

Kies voor een hostingpartij die jouw organische inspanningen ondersteunt in plaats van ze te belemmeren.

5 belangrijke punten voor SEO vriendelijke hosting

1. Hoge uptime-garantie

De uptime-garantie van jouw hosting is misschien wel de belangrijkste factor of ze SEO-vriendelijk zijn. Uptime verwijst naar het percentage van de tijd dat jouw site online en toegankelijk is. Hoe hoger de uptime, hoe kleiner de kans dat bezoekers jouw website willen bezoeken en onverrichter zaken weer afhaken omdat je website simpelweg uit de lucht is. En wanneer je website vaak of lang uit de lucht is, heeft dit zeer zeker consequenties voor jouw organische posities in zoekmachines. De
betere hostingpartijen bieden hoge uptime-garanties. Kies voor de beste resultaten met een uptime van ten minste 99,5% garantie . Dat betekent dat je dan maximaal 35,5 uur downtime per jaar hebt, wat heel netjes is.

Wees op je hoede voor elke hostingpartij die 100 procent uptime claimt. Er is altijd wat wel ietwat
downtime en dat is geen ramp. Het is alleen belangrijk deze periode zo kort mogelijk te houden. Hoe korter de downtime, hoe minder schadelijke SEO effecten.

2. Virtual Private Server (VPS)

Hoewel uptime verwijst naar de periode dat jouw website toegankelijk is voor bezoekers, bepaalt de locatie van de server hoe snel deze voor hen toegankelijk is. Met een VPS (Virtual Private Server) of dedicated serverhosting wordt jouw website ergens op een fysieke server in een datacenter ondergebracht in tegenstelling tot cloud hosting, waarbij jouw website is ondergebracht in de cloud. Door een VPS te combineren met een CDN (Content Delivery Network) wordt het maximale bereikt.

3. Content Delivery Network (CDN)

Met CDN wordt gebruikt gemaakt van meerdere servers op verschillende locaties wereldwijd en is er altijd wel een server dichtbij daar waar een bezoeker aanklopt om jouw website te bezoeken. Je wilt zo dicht mogelijk bij de meerderheid van jouw websitebezoekers gestationeerd zijn, hoe verder weg jouw server staat, hoe langer het duurt voordat jouw website is geladen.

Dus simpel samengevat zorgt een VPS voor maximale prestaties vanaf de server zelf en kan hierdoor de website zeer snel aanleveren. Komt echter de boeker uit een ander werelddeel, dan heeft een VPS daar geen oplossing voor omdat het altijd de afstand moet overbruggen. Een CDN zorgt dus door meerdere servers gepositioneerd te hebben dat er altijd eentje dichtbij bevindt waardoor de fysieke afstand flink is gereduceerd en de laadtijd aanzienlijk verbetert.

Let er wel op dat als je alleen in Nederland opereert en jouw hostingpartij bevindt zich in een ander continent. dit waarschijnlijk ook van invloed is op zoekmachines. Ga in dat geval dus alleen in zee met een Nederlandse aanbieder.

4. Automatische back-ups: als er ooit iets misgaat, wil je een back-up van je website die je snel kunt herstellen. Kijk of jouw hostingpartij deze service verleent.

5. SSL beveiliging (Secure Socket Layer): HTTPS is al jaren een ranking factor. Je zal hoogstwaarschijnlijk al zijn overgestapt van HTTP naar HTTPS. Zo niet, zorg er dan met spoed voor dat jouw host SSL ondersteunt. De meeste doen dit gratis.

Hoe weet je welke hosting partij de beste is?

Pas op met het maken van een keuze op basis van reviews. Hosting is net als stroom, je vindt het doodnormaal dat het er altijd is en zal daar ook niet zo snel een positieve review over schrijven. Maar als je urenlang zonder zit, dan ga je klagen. Volkomen normaal, maar daardoor zijn reviews over hostingpartijen nogal eenzijdig “gekleurd”. Een restaurant met uitzonderlijk goed eten krijgt veel goede reviews, een hostingpartij die je website jarenlang 24/7 in de lucht houdt niet.

Een betere optie is dan te Googelen en platvormen te vinden met publicaties van onderzoeken naar hostingpartijen met de laagste downtime en snelste reactietijd. Service is cruciaal en wordt vaak in de beoordeling meegenomen. Zorg dat de bron gedegen en betrouwbaar is.

Conclusie

Door te zorgen dat jouw website technisch 100% op orde is in combinatie met een goede en SEO vriendelijke hostingpartij heb je al veel gewonnen. Laat dit het eerste zijn waar je mee aan de slag gaat, want als dit niet op orde is heeft de rest ook geen zin. Je kunt met een Formule1 auto op het circuit verschijnen, maar als deze door een mankement niet harder gaat dan 50 km/u zul je de race nooit winnen. Heb je hulp nodig om dit voor elkaar te boksen? Heb je vragen, neem dan contact op!

 

 

 

 

 

 

Lees meer