Naar
boven
Logo Karel Geenen

Hoger in de zoekmachines met een sitemap?

Google sitemapElke website zou een sitemap moeten hebben. Maar de ene sitemap is de andere niet ;-). Allereerst kunnen we twee verschillende sitemaps onderscheiden:

  • Voor de zoekmachines;
  • Voor de bezoekers van je website.

Een sitemap voor je bezoekers bestaat uit een pagina waarop alle, voor de bezoeker, interessante links op staan. Zodoende kunnen bezoekers via één pagina op alle voor hen interessante pagina’s komen. Een sitemap voor bezoekers is dus te vergelijken met een inhoudsopgave van een boek.

Een sitemap voor de zoekmachines is echter heel wat anders. Deze “pagina”, die niet zichtbaar is voor je bezoekers, bevat meestal dezelfde links als de sitemap voor je bezoekers. Het doel van deze sitemap is ervoor zorgen dat alle pagina’s binnen je website ook door de zoekmachines worden gevonden (en worden geïndexeerd!).

Een tijdje geleden heb ik een video gemaakt over hoe je een sitemap voor de zoekmachines moet maken. In deze video wordt ook uitgelegd hoe je deze sitemap moet aanmelden bij Google. Bekijk hier de video over het maken van een sitemap.

Google hecht veel waarde aan je sitemap. Ik kan dat alleen maar beamen. Een tijdje geleden heeft Google een aantal vragen beantwoord met betrekking tot de sitemap. Deze vragen en antwoorden kun je op de volgende pagina vinden: Google FAQ over de sitemap.

Er staat op die pagina een interessante vraag (en antwoord):

Zorgt een sitemap voor een hogere positie binnen de zoekresultaten?
Een sitemap is niet van invloed op je positie binnen de zoekresultaten. Het zorgt er echter wel voor dat er meer pagina’s van je website worden geïndexeerd. Meer pagina’s in de index van Google betekent natuurlijk ook meer kans op bezoekers van de zoekmachine.

Zorg dus dat je gebruik maakt van een sitemap op je website, voor de bezoekers én voor de zoekmachines!

Update:
Alvorens je een sitemap gaat toevoegen is het wel belangrijk dat de interne structuur van de website goed is. Hierin hebben Dave, Sint en Erik-Jan volkomen gelijk (zie de reacties onderaan dit artikel). Overigens heeft Dave gereageerd met het volgende artikel: wat doe ik als mijn naviagatiestructuur suckt.

Update 20-1-2008:
Erik-Jan van Netters.nl heeft ondertussen ook gereageerd met dit artikel over sitemaps.

Zelf leren hoe je hoger in Google scoort?

Bekijk cursus nu!

Over de auteur:

Dit artikel is geschreven door .

Karel Geenen
Karel Geenen is de eigenaar van deze weblog, en tevens eigenaar van Yargon, een zoekmachine marketing bedrijf gericht op het MKB.
28 reacties op "Hoger in de zoekmachines met een sitemap?"
  • Erik-Jan zegt:
    17 jan, 2008 om 13:55

    Dit artikel is feitelijk juist, maar het insinueert wel dat het nut van een sitemap voor een zoekmachine groot is. Dat is echter voor de meeste sites onzin. Sterker nog, ik gebruik de Google Sitemap eigenlijk nooit, omdat je enorm veel controlepunten over de natuurlijke indexatie en linkjuice van je site kwijt raakt.

    Mijn advies: Dit artikel lezen en er niks mee doen.

    Reageren
  • Karel Geenen zegt:
    17 jan, 2008 om 13:58

    @Erik-Jan

    Daar ben ik het niet mee eens ;-)

    Je kiest toch zelf welke pagina’s je opneemt in de sitemap? Hoezo heb je dan geen controle??

    Reageren
  • Erik-Jan zegt:
    17 jan, 2008 om 14:16

    Het probleem is dat een pagina die in een sitemap staat snel geindexeerd wordt. Van de pagina die er in staan, weet je dus niet of deze door een goede site structuur of door de Sitemap geïndexeerd wordt. Je verliest dus een controlepunt.

    Reageren
  • Karel Geenen zegt:
    17 jan, 2008 om 14:20

    Dat is waar.

    Maar bij het bouwen van een site maak je toch direct gebruik van een goede sitestructuur?

    En het feit dat doormiddel van een sitemap pagina’s snel worden geïndexeerd is in mijn ogen een pluspunt…

    Reageren
  • dave zegt:
    17 jan, 2008 om 14:31

    Moet me bij Erik-Jan aansluiten…geen sitemaps voor mij.

    Als een sitemap het middel is om pagina’s in je site te vinden, dan zit je met een ‘constructueel’ probleem binnen je site . Meer pagina’s in google’s index met verder geen inkomende links zijn prachtig voer voor de SI…

    Dave

    Reageren
  • Erik-Jan zegt:
    17 jan, 2008 om 14:49

    @Karel: Als ik een site heb met 5.000+ pagina’s en redelijk wat tussenniveaus én te weinig linkwaarde, kan mijn site structuur theoretisch zo goed lijken, maar hoef ik hem nog niet eens geïndexeerd te krijgen…

    Reageren
  • Erik-Jan zegt:
    17 jan, 2008 om 14:50

    En snelle indexatie heb je helemaal niks aan als die dingen te weinig linkwaarde hebben.

    Reageren
  • Sint zegt:
    17 jan, 2008 om 15:30

    Ik sluit me ook aan bij Erik-Jan, maar wil het wel wat nuanceren.

    Sitemaps hebben wel degelijk meerwaarde bij bepaalde sites:

    - Sites met exotische navigatiemiddelen (bijv. JavaScript) waarbij het geen optie is deze om te zetten naar ‘echte’ HTML-links;

    - Sites met zeer grote hoeveelheden pagina’s (meer dan 10.000).

    - Sites waarbij updatefrequentie belangrijk is (bijv. een nieuwssite). Google heeft hiervoor ook de speciale Google news-sitemaps.

    Vooral bij de laatste twee is het belangrijk in de sitemap een datum op te nemen zodat het voor zoekmachines duidelijk is welke pagina’s zijn geupdate of zijn toegevoegd, zodat dit sneller wordt bijgewerkt dan via natuurlijke spidering.

    Reageren
  • Erik-Jan zegt:
    17 jan, 2008 om 15:42

    @Sint: Helemaal bij eens, zeker bij je derde punt. Ik miste echter die nuancering in de blog van Karel. En omdat ik altijd zoveel enthousiasme merk over de sitemaps om volkomen de verkeerde redenen, wilde ik even duidelijk maken dat een Google sitemap voor de meeste lezers van deze blog juist geen goed idee is.

    Reageren
  • Oeroek zegt:
    17 jan, 2008 om 15:44

    Wat ik niet snap is wat nu het probleem met een sitemap is. Je offert een controlepunt op maar krijgt er snellere indexatie voor terug. het lijkt me subjectief voor welke van de twee je kiest.

    Het probleem zit dan blijkbaar in het punt van Erik-Jan dat je link-juice kwijtraakt. en dat snap ik niet helemaal.

    Nu heb ik bij http://www.je-eigen-bedrijf.nl net een sitemap toegevoegd.

    Deze verdeelt de linkjuice in beginsel over alle artikelen. twee kliks ben je overal. Om bepaalde pagina’s te versterken ben ik bezig met interne links bepaalde hubs of themapagina’s te versterken.

    Het doel is enkele paginas laten scoren en vooral veel op de long tail te zitten.

    Doet mijn sitemap me hier nu kwaad en vooral wat is he tprobleem dan?

    Reageren
  • Erik-Jan zegt:
    17 jan, 2008 om 15:46

    @Oeroek: Ik probeer er dit weekend een wat langere blog aan te wijden :) Maar voor jouw site met minder dan 100 pagina’s is een sitemap niet nodig en zelfs wat onhandig.

    Reageren
  • Ralph zegt:
    17 jan, 2008 om 14:35

    Ik heb een google-account, maar ik zie geen bedrijfscentrum te zien?????

    Reageren
  • Sint zegt:
    17 jan, 2008 om 15:56

    Voor natuurlijke indexatie is niet alleen belangrijk dat er links naar een pagina zijn, niet elke keer dat een link wordt aangetroffen wordt deze gespiderd. Zoekmachines kijken ook naar de karakteristieken van een pagina, zoals de gemiddelde updatefrequentie en het totale aantal links om te bepalen of een pagina alweer gespiderd hoeft te worden.

    Met een sitemap vertel je Google dat een pagina bestaat of is geupdate, waardoor je controle krijgt over de indexatie van nieuwe en ge-update pagina.

    Voor een relatief statische informatieve website met een bescheiden aantal pagina’s is een sitemap inderdaad minder nodig.

    Reageren
  • Erik-Jan zegt:
    17 jan, 2008 om 15:59

    @Sint: Heb je bewijzen voor de stelling dat niet alle links gevolgd worden (grote hoeveelheden links op een pagina, nofollows, robots.txt of Javascript links uigesloten uiteraard).

    Reageren
  • Sint zegt:
    17 jan, 2008 om 16:47

    Als alle links altijd direct gevolgd zouden worden zou dat betekenen dat zoekmachines geen individuele pagina’s kan spideren, maar slechts de gehele website. Dit is niet erg waarschijnlijk voor sites met miljoenen pagina’s die tientallen keren per dag een bezoekje krijgen van Googlebot.

    Je mag er vanuit gaan dat de technologie inmiddels zo ver gevorderd is dat spiders in staat zijn prioriteiten te stellen en zich te concentreren op de meest interessante pagina’s qua updatefrequentie.

    Niet voor niks kun je ook in het Webmaster Central instellen hoe grondig Google te werk moet gaan met het indexeren van je website.

    Reageren
  • Tim Huijbers zegt:
    17 jan, 2008 om 18:12

    @Sint

    Ik had ergens een mooi voorbeeld (schematisch) met een spider die oppervlakkig scant (pagina’s update, voorpagina’s opnieuw indexeert) en een spider die dieper gaat. De frequentie van deze bots verschilt natuurlijk. De eerste zal vaker komen, de laatste minder vaak.

    Ergens vanuit gaan doe ik maar niet meer in SE land :) (‘een aanname is bij voorbaat fout’ , of hoe ging die gezegde ook alweer;))

    Reageren
  • Jaap zegt:
    17 jan, 2008 om 22:14

    Google zou slechts aan de eerste links op een site waarde hechten.
    Het getal 100 heb ik gelezen, maar hier heb ik geen achtergrondinformatie over.
    Wel is het zo dat een hogere link een hogere waardering krijgt.

    Het getal 100 is wellicht niet juist.
    Dat er een getal is zou ik denken…..

    Dit is geen goed nieuws voor linkfarms.

    Ik ben zelf niet zo bezig met site maps, een goede navigatie voor je bezoekers vind ik veel belangrijker.

    Sitemaps zoudenbelangrijk zijn….
    Google pagerank zou belengrijk zijn………

    Voor mij tellen enkel target visitors.

    Reageren
  • Fil zegt:
    18 jan, 2008 om 04:25

    En wat is dan wel de eerste link ? Zoekrobots en mensen interpreteren een webpagina op een verschillende manier.

    De eerste link op de meeste paginas is (als we de linkerbovenhoek als referenciepunt nemen) een verwijzing naar “root”, meestal plichtsgetrouw “Home” genoemd. (Hmmm)

    De volgorde waarin links op een pagina staan is totaal niet belangrijk. Hoewel de plaats waar de link staat op de pagina wel belangrijk kan zijn.

    Meer dan 25 links op een pagina is (voor de meeste websites) geen goed idee.

    Onderzoek toont aan dat de meeste bezoekers nooit gebruik maken van een sitemap. (enkele websites uitgezonderd)

    Een xml sitemap kan een goed idee zijn als je weet wat je doet.

    Dan nog deze tip : wees niet het slaafje van Google. Bezoekers hoeven niet noodzakelijk via een of andere zoekmachine je site te vinden. Er zijn nog vele andere interessante manieren om bezoekers te krijgen (en te houden). Manieren waar je meer controle over hebt. Vooral op lange termijn.

    Reageren
  • Sint zegt:
    18 jan, 2008 om 11:47

    In alle drukte van mijn dagelijkse activiteiten kwam mijn argumentatie gister niet zo goed uit de verf. Natuurlijk mag je in SEO-land niet varen op aannames, vandaar dat ik het nog even anders zal formuleren om aan te tonen dat het is gebaseerd op algemeen geaccepteerde en aangetoonde basisprincipes.

    Crawlers plaatsen aangetroffen paginalinks in een wachtrij om ook gespiderd te worden.

    In een wereld waar sites niet dagelijks vereerd werden met een bezoekje en zoekresultaten weinig actueel waren, was het maken van onderscheid tussen statische en actuele pagina’s niet erg belangrijk.

    In de huidige situatie waarbij de opbrengst van crawlers zich continu vertaalt in zoekresultaten moeten crawlers echter wel prioriteiten stellen. Anders zouden crawlers veel tijd kwijt zijn aan statische pagina’s en ook onnodig verkeer genereren.

    Bij een grote nieuwssite (bijvoorbeeld nu.nl) zal Google de voorpagina misschien wel elk halfuur willen crawlen op zoek naar nieuwe pagina’s (nieuwsberichten). Als bij elke crawl ook alle pagina’s waar naar gelinkt wordt meegenomen zouden moeten worden, zouden elk halfuur tienduizenden pagina’s gespiderd worden waarvan 99% niet gewijzigd is.

    Ik probeer een algemeen beeld te schetsen, voor de details zou je eigenlijk loggegevens moeten analyseren en op het internet moeten zoeken naar andere publicaties over dit onderwerp.

    Om het even te betrekken op de discussie over het nut van sitemaps:

    Crawlers werken normaal gesproken pull-based: ze spideren websites op bepaalde tijdstippen (als ze links naar een pagina tegenkomen). Wanneer je een nieuwe pagina toevoegt ben je afhankelijk van de snelheid waarmee een crawler toevallig jouw website met een bezoekje vereert.

    Als je een sitemap toevoegt heb je de mogelijkheid om te pushen; jij vertelt de zoekmachine dat er nieuwe pagina’s zijn, of, wanneer je ook de updatedatum invoegt, dat bestaande pagina’s zijn geupdate.
    Hoe snel dit tot een crawl zal leiden van de betreffende pagina’s zal in de praktijk afhangen van meerdere factoren zoals de autoriteit van je site, maar feit blijft dat je de zoekmachine informatie geeft waar hij zelf normaal niet over kan beschikken. En dat jullie in de basis een gezamenlijk belang hebben om nieuwe en gewijzigde pagina’s snel te laten indexeren.

    Enige tijd geleden besteedde ik in mijn weblog ook al eens aandacht aan het sneller laten indexeren van nieuwsberichten, weblogposts e.d.:
    http://www.smedingconcepts.nl/weblog/2007/08/24/vijf-tips-om-nieuwe-pagina-s-snel-in-google-te-krijgen/

    Reageren
  • Kees zegt:
    19 jan, 2008 om 04:10

    Goede topics,
    hou er ook rekening mee dat links indexeren op een sitemap soms maanden kan duren bij zoekmachines omdat er teveel links opstaan.

    Groetjes,
    Kees

    Reageren
  • Gratis tag zegt:
    22 jan, 2008 om 13:46

    Hoger in de zoekmachines door een sitemap kan ik me niet voorstellen. Als je navigatie goed in elkaar zit, moet een robot overal goed bij kunnen komen.

    Wat betreft de Google Sitemaps, kleven daar meerdere nadelen aan. Zoals eerder gezegd indexeert Google alle links, maar kan vervolgens geen of geen goede relevantie bepalen t.o.v. andere sites.

    Iets waaraan ik me irriteer, is het feit dat Google Sitemaps alleen overweg kan met interne pagina’s, terwijl ik ook subdomeinen wil kunnen opnemen. Google verplicht me nu voor elk subdomein een aparte sitemap.xml aan te maken.

    Aan de andere kant is het bijv. handig om productpagina’s o.i.d. snel in de index te laten komen. Ik denk dat het per situatie verschillend is.

    Reageren
  • Sint zegt:
    23 jan, 2008 om 12:04

    @Gratis tag: De conclusie die wij met zijn allen hier trekken is dat sitemaps in zeer specifieke gevallen zorgen dat meer pagina’s worden geïndexeerd dan zonder sitemap. In andere gevallen kunnen sitemaps er voor zorgen dat gemuteerde of nieuwe pagina’s sneller worden geïndexeerd.

    Verder bestaat een site die meerdere subdomeinen omvat eigenlijk uit meerdere aparte sites met elk een eigen doelstelling. Veel webmasters (jij vast ook) gebruiken subdomeinen als een soort van directories, meestal omdat ze denken dat dit voordelen oplevert voor de positie in zoekmachines.
    De reden dat je in sitemaps enkel pagina’s mag opgeven binnen hetzelfde (sub)domein is een veiligheidsoverweging. Niet altijd behoren de subdomeinen binnen een domein toe aan dezelfde eigenaar.

    Reageren
  • Angelique zegt:
    12 aug, 2008 om 15:23

    Hallo allemaal,

    Helaas ben ik nog redelijk onbekend met het uitvoeren van dit soort optimalisatie tips. Ik weet wel dat het ook als gebruiker heel prettig is zo’n uitgebreid overzicht gelijk bij de link in de resultaten pagina te zien. Maar hoe weet ik nu of de site van mijn bedrijf een sitemap voor de SE heeft gemaakt en hoe kan ik deze wijzigen als er oude/foute informatie in staat?

    Groet

    Angelique

    Reageren
  • Gerard bloeddrukmeter specialist zegt:
    11 sep, 2008 om 13:47

    Sitemap is een prima hulpmiddel. Meld je je site gewoon aan dan duurt het maanden, met een sitemap gaat het veel sneller. Ik heb ook het idee dat als je de sitemap even opnieuw aanmeld het nog een keer sneller gaat. Alsof google dan ook nog even komt indexeren.

    Reageren
  • Peter Moonen zegt:
    18 sep, 2008 om 02:41

    DIt is een mooi artikel, sitemaps waren vroeger alleen voor zoekmachines maar zijn nu ook erg belangrijk voor bezoekers om de juiste pagina’s te vinden.

    Reageren
  • Erwin zegt:
    25 mrt, 2009 om 16:35

    Vraag over sitemaps voor de bezoeker:

    Sitemaps zijn vanuit SEO oogpunt (en niet vanuit indexatie oogpunt) toch ook belangrijk voor de score van je trefwoorden?

    Ik ga er dan vanuit dat je belangrijke trefwoorden ook in je menu’s gebruikt.

    Laat je Google dan niet weten dat deze trefwoorden belangrijk zijn?

    Groet – Erwin

    Reageren
    • Karel Geenen zegt:
      26 mrt, 2009 om 10:35

      Het is altijd verstandig om als gelinkte tekst je hoofdzoekwoord voor die betreffende pagina te gebruiken.

  • mazda occasion zegt:
    01 dec, 2009 om 01:46

    misschien een beetje offtopic maar toch:
    mijn nieuwe website heeft een sitemap.xml en een robots.txt alleen nu geeft google aan dat ie er niet goed op staat in webmastertools. nu zegt google dat m’n robots.txt niet toegankelijk is en dat ik het moet aanpassen of verwijderen en dat er urls niet bereikbaar zijn? terwijl ze toch echt tevinden zijn. Heeft dit misschien te maken met de cache van de site? En moet er perse een robots.txt in? Want google mag van mij alles indexeren, behalve natuurlijk ‘prive’ documenten.

    Reageren

Reageren