Naar
boven

Webwinkeliers: voorkom duplicate content dankzij Google (verbeterde tool)

Ruim een week geleden is er een bericht verschenen op de Google Webmaster Central Blog waarin ze hun nieuwe URL paramater tool introduceren.

Dankzij deze verbeterde tool wordt het nog eenvoudiger om duplicate content “uit te schakelen”, zodat de Googlebot optimaal door je website kan lopen.

Nieuwsgierig? Lees dan mijn verkorte uitleg hieronder of lees het originele artikel (Engels).

Duplicate content

Bijna elke webwinkelier (en vaak ook “gewone” webmasters) krijgen ermee te maken: onpage duplicate content.

Dit betekent dat bepaalde content van je website via verschillende URL’s te benaderen is. Een korte voorbeeldvideo (klik rechtsonder even op het “groot venster icoontje”:

(Webwinkel in dit voorbeeld JimmyandJill.com)

Zoals je in de bovenstaande video dus kunt zien zijn er verschillende URL’s (110 in dit geval) die allemaal naar dezelfde pagina verwijzen. De content verandert niet, er wordt alleen af en toe wat weggelaten. Dat noemen we dus onpage duplicate content en de kans is groot dat jouw webwinkel (of website) hier ook mee te maken heeft.

Oplossing van Google voor onpage duplicate content

Google kent dit probleem ook en probeert daar zelf ook oplossingen voor te verzinnen. Maar zoals je in het voorbeeld hebt kunnen zien lukt dit nog niet altijd. We zien immers nog 110 geïndexeerde duplicate URL’s.

Vandaar dat Google een tool heeft waarmee je zelf kunt aangeven welke parameters wat betekenen, en wat Google daar dan mee moet doen. Deze vind je in je Google webmasters tools account.

De tool bestond al eerder maar is nu dus verder uitgebreid en een stuk gebruiksvriendelijker geworden.

Wanneer je inlogt in je webmaster tools account vind je links in het menu, onder siteconfiguratie, URL-Parameters:

Daarna kun je kiezen voor “Parameter toevoegen”, en krijg je het volgende scherm:

Korte uitleg van de opties

Hieronder een korte uitleg voor de opties die je hebt. Wil je meer info, ga dan zelf naar dit scherm en klik met je muis op de vraagtekens bij de verschillende opties.

Hoe is deze parameter van invloed op de pagina-inhoud?

Hier kun je aangeven wat de parameter doet. Sorteren? Pagineren? ”¦?

Welke URLS’s met deze parameter moet Googlebot crawlen?

Laat Googlebot beslissen: Wanneer je niet zeker wat de parameter doet kies je deze optie om problemen te voorkomen.

Elke URL: Wanneer elke waarde volgens jou unieke content weergeeft kies je deze optie. Met andere woorden, alle pagina’s met deze parameters worden dan gecrawld.

Alleen URL’s met waarde: Bijna hetzelfde als de voorgaande optie alleen kies je in dit geval welke waardes er gecrawld mogen worden.

Geen URL’s: Kies je deze optie dan zal Google geen enkele URL met de opgegeven parameter crawlen (en dus waarschijnlijk ook niet indexeren). In het voorbeeld van de video hierboven zouden we deze optie moeten kiezen.

Waarschuwing!

Dit is een krachtige maar gevaarlijke tool. Ga dus niet zomaar wat aanmodderen. Weet je niet precies wat je in moet vullen vraag dan de hulp van een professional! De gevolgen bij verkeerd gebruik zouden wel eens desastreus kunnen zijn”¦

Meer leren over zoekmachine optimalisatie? Klik hier voor onze gratis e-mailcursus!

Met onze hulp bovenaan in Google?

Bekijk onze cursus zoekmachine optimalisatie, onze dienst of vul onderstaand formulier in:


Over de auteur:

Dit artikel is geschreven door .

Karel Geenen
Karel Geenen is medeoprichter van KG Online Marketing. Hierbinnen vallen dit weblog, onze Academy met online marketing cursussen en het Bureau voor online marketing diensten.
9 reacties op "Webwinkeliers: voorkom duplicate content dankzij Google (verbeterde tool)"
  • Sander zegt:
    03 Aug, 2011 om 11:51

    Goed artikel! ik ga dit zelf even bij veel klanten nakijken want de meeste mensen hebben hier geen idee van.

    Reageren
  • Gijs Heerkens zegt:
    03 Aug, 2011 om 15:11

    Wat is het voordeel van dit ten opzichte van de canonical URL? In mijn webshop gebruik ik deze voor de categoriepagina’s, bijvoorbeeld: http://accessoires.groovygadgets.nl/zonnebrillen, wat ook goed werkt in mijn ogen.

    Reageren
  • Bart zegt:
    04 Aug, 2011 om 06:29

    Bedankt voor de uitleg van duplicate content tool van Google.
    We gaan hier zeker mee aan de slag.

    Reageren
  • Bjorn van der Neut zegt:
    04 Aug, 2011 om 09:21

    Ik mis alleen in je uitleg van de opties de volgende onderdelen:

    – Parameter
    – Verandert deze parameter de pagina-inhoud die de gebruiker te zien krijgt?
    – Laat Googlebot beslissen

    Reageren
    • Karel Geenen zegt:
      04 Aug, 2011 om 09:36

      Wanneer je inlogt op je GWT account staan er overal vraagtekentjes bij. Daar wordt de exacte uitleg gegeven. De eerste twee behoeven volgens mij geen uitleg, dat is wat er staat.

  • Guido zegt:
    15 Aug, 2011 om 20:54

    Ik gebruik disallow in robots.txt;

    Disallow: /*sort
    Disallow: /*categories
    Disallow: /*language
    Disallow: /*disp

    Dit heeft naar mijn idee hetzelfde resultaat?…

    Reageren
  • janis zegt:
    27 Aug, 2011 om 12:28

    in plaats weg te halen of te blokkeren..

    is veel beter, wanneer een filter toegepast wordt ook de titel en omschrijving aan te passen met de keywoord filters van de webpagina. dit doe ik eigenlijk al jaren, is goed voor de ranking.

    Reageren
  • Katrien zegt:
    29 Sep, 2011 om 14:38

    Heel leuk artikel.
    Ik ga de tool zeker eens van dichterbij bekijken. Op mijn website heb ik ook een duplicate content probleem. Maar dan met verschillende talen. Elke url bestaat in 12 talen, ook als parameter.

    Heeft deze google tool optie volgens jou meer zin dan een canonical of 301 redirect? Tips zijn altijd welkom.

    Reageren
  • Luuk zegt:
    09 Okt, 2011 om 16:34

    Ik ben opzoek naar hulp voor de instellingen van deze tool. Heeft iemand suggesties?

    Reageren

Reageren