Naar
boven

Duplicate content: problemen en oplossingen | deel 3

Je moet op heel wat zaken letten als het gaat om duplicate content.

In deel 1 heb ik uitgelegd wat duplicate content precies is en wat de gevolgen ervan kunnen zijn, in deel 2 lees je hoe je duplicate content opspoort en vervolgens oplost.

In het laatste deel van deze artikelserie geef ik je nog wat praktische tips en adviezen om duplicate content te vermijden.

Schrijf unieke en waardevolle content

In het post-Panda en post-Pinguïn SEO-landschap is het belangrijker dan ooit om unieke en waardevolle content te schrijven. Google slaagt er steeds beter in om de wensen van gebruikers te vertalen in zijn zoekresultaten.

Gebruikers zijn voornamelijk geïnteresseerd in unieke, waardevolle informatie die hen helpt vragen te beantwoorden en problemen op te lossen. Schrijf dus content waar mensen echt wat aan hebben en kopieer niet zomaar stukken uit andere artikelen.

Ga slim te werk bij on-page optimalisatie

De eerste stap in het SEO-werk voor je website is het doen van een uitgebreid zoekwoordonderzoek.

Aan de hand van je gevonden zoekwoorden ga je vervolgens aan de slag met on-page optimalisatie door het schrijven van gerichte SEO-teksten. Google is nog niet in staat om de betekenis van zoekwoorden echt te begrijpen.

Wat je dus vaak ziet, is dat websites voor allerlei variaties op zoekwoorden aparte pagina’s aanmaken om op al die variaties te kunnen ranken.

Een website die autoverzekeringen verkoopt, maakt dan bijvoorbeeld verschillende pagina’s aan voor de zoekwoorden “goedkope autoverzekering”, “goedkope automobielverzekering”, “voordelige autoverzekering”, “voordelige automobielverzekering” enz.

Google wil niet dat je extra pagina’s, subdomeinen of domeinen met vrijwel identieke inhoud maakt. Zorg er dan ook voor dat je zoveel mogelijk van die zoekwoordvariaties verwerkt op één pagina. Dit is goed mogelijk voor zoekwoorden waar niet al te veel concurrentie op zit en die dezelfde zoekintentie van gebruikers hebben.

Zit er veel concurrentie op de zoekwoorden en/of is de zoekintentie niet helemaal hetzelfde? Maak dan aparte pagina’s aan, maar zorg dat je unieke content schrijft voor elk van die pagina’s.

Het kost je natuurlijk meer tijd en geld, maar als je dezelfde tekst elke keer kopieert en alleen de zoekwoorden verandert, worden de pagina’s als duplicate content aangemerkt en zijn ze toch niet zichtbaar in de zoekresultaten.

Als je heel veel van dit soort pagina’s met vrijwel dezelfde inhoud op je site aanmaakt, loop je bovendien het risico op een site-wide penalty.

Zorg dat je interne links op orde zijn

Veel webmasters die duplicate content op hun domein hebben aangepakt met behulp van 301-redirects en canonical tags, vergeten nogal eens de interne links op de site na te lopen en aan te passen. Als veel interne links nog steeds naar de niet-canonieke pagina’s verwijzen, geeft dit verwarrende signalen af aan Googlebot. Zorg er dus altijd voor dat al je interne links naar canonieke pagina’s verwijzen.

Tips voor affiliate websites

Het is een bekend probleem voor veel affiliate websites: hoe rank je in Google?

De meeste affiliate sites nemen alle productomschrijvingen en promotieteksten rechtstreeks over van de leverancier. Google ziet dit als duplicate content en toont alleen de content van de leverancier, waardoor de affiliates nauwelijks zichtbaar zijn in Google.

De manier om dit op te lossen is om unieke content te schrijven voor alle producten die je aanbiedt. Bij grote websites betekent dit een behoorlijke investering. Maar als je als affiliate geld wilt verdienen aan verkopen en leads, zul je meestal toch door de zure appel heen moeten bijten.

Een andere, gratis manier om unieke content toe te voegen aan je productomschrijvingen, is om gebruikers tekst te laten toe voegen door “user generated reviews”.

Als je gebruikers recensies en ervaringen achter kunnen laten op je site, wordt meteen unieke content aan de pagina toegevoegd waardoor je op termijn weer zichtbaar wordt in Google.

Content aanbieden aan andere sites

Heb je een artikel geschreven en wil je dit voor plaatsing aan een andere site aanbieden? Zorg er dan voor dat de site die het artikel plaatst een link terug opneemt naar het oorspronkelijke artikel. Op die manier is Google in de meeste gevallen in staat om vast te stellen dat het artikel op jouw site het origineel is, zodat jouw site ook wordt weergegeven in de zoekresultaten.

Wil je er absoluut zeker van zijn dat Google het artikel op jouw site ziet als origineel? Dan kun je:

1. Het artikel pas aanbieden wanneer Google het artikel op jouw site al heeft geïndexeerd;

2. Verzoeken dat de overnemende site een canonical tag aan de pagina toevoegt met verwijzing naar jouw site;

en/of

3. Verzoeken dat de overnemende site een robots noindex-metatag op de pagina zet.

Verstandig omgaan met duplicate content

Als het goed is heb je nu alle tips en tools in handen om verstandig om te gaan met duplicate content. Heb je nog toevoegingen, opmerkingen, vragen? Laat hieronder dan een reactie achter!

PS: Veel webmasters doen nogal eens paniekerig over duplicate content en denken dat Google bij het minste of geringste klaarstaat om een straf uit te delen.

Sommigen zijn zelfs bang dat ze al een penalty van Google aan de broek krijgen als ze elke dag hetzelfde broodje eten!

In de praktijk valt dat allemaal best mee. Bekijk onderstaande video van Matt Cutts en je kunt weer rustig gaan slapen:

Meer leren over zoekmachine optimalisatie? Klik hier voor onze gratis e-mailcursus!

Met onze hulp bovenaan in Google?

Bekijk onze cursus zoekmachine optimalisatie, onze dienst of vul onderstaand formulier in:


Over de auteur:

Dit artikel is geschreven door .

Michiel Brand
Michiel Brand is tekstschrijver en SEO-specialist. Met sterke SEO-webcontent maakt hij websites beter vindbaar in zoekmachines en zorgt hij voor hogere conversie.
14 reacties op "Duplicate content: problemen en oplossingen | deel 3"
  • echte naam of pseudoniem aub zegt:
    12 Mei, 2014 om 14:29

    Een vraagje, sinds 2 weken zie ik via google webmaster tools een daling in de indexeringsstatus van de website. Zo gingen we van 4500 url naar 2000 op dit moment. Is deze daling normaal?

    edit: geen zoekwoorden in naamveld aub

    Reageren
    • Michiel Brand zegt:
      13 Mei, 2014 om 13:58

      Dat is zeker een flinke daling. Ik zou proberen te achterhalen waar dit precies aan zou kunnen liggen. Kijk hiervoor uitvoerig rond in GWT en let bijvoorbeeld op: heeft Googlebot crawlfouten ondervonden? Heb je veel 404’s die Google uit de index heeft verwijderd? Blokkeert je robots.txt Googlebot van bepaalde mappen op je site?

  • Nicolas zegt:
    13 Mei, 2014 om 16:07

    De vermoedelijke boosdoener zal liggen bij het aantal zoekwoorden (3000) die ik in maart heb verwijderd. Dat leverde de nodige 404 errors op die ik via google webmastertools handmatig uit de cache van Google probeer te halen (via URL verwijderen)..

    Echter, dit werkt niet goed. Heb je opties tot een verbetering, want ondanks dat draait de website vrij goed (800 tot 1000 bezoekers per dag).

    Reageren
    • Michiel Brand zegt:
      13 Mei, 2014 om 17:55

      Dat komt dan inderdaad door je 404’s. Die worden in GWT gedurende een bepaalde periode weergegeven als crawlfouten en na enige tijd verdwijnen ze vanzelf uit de Google-index en worden de pagina’s ook niet meer gecrawld. Handmatig verwijderen is dus in principe niet nodig, tenzij de pagina’s gevoelige info bevatten die je zsm uit de Google-index verwijderd wilt hebben.

  • Arne van Elk zegt:
    14 Mei, 2014 om 11:36

    Een mooi drieluik over duplicate content, dank daarvoor Michiel! Een paar opmerkingen:

    * Het advies “Schrijf unieke en waardevolle content” is lastig op te volgen wanneer je een webshop met bijv. honderden pagina’s sportschoenen hebt. Uniek betekent dan een net iets andere woordvolgorde, waardevol voor de gebruiker is het allerminst. Dat is helaas wat SEO-teksten toch vaak zijn: tekst voor de zoekmachine, niet voor de klant. En eveneens helaas werkt het vaak nog ook (qua SEO).

    * Content aanbieden aan andere sites: het toevoegen van rel=author markup aan het artikel op je eigen website helpt ook bij het Google duidelijk maken welke versie origineel is. Niet te gebruiken voor productpagina’s natuurlijk, maar bijv. wel voor blogposts. Wel kan het lastig zijn om een passend persoon te vinden die binnen de organisatie ook naar buiten toe gezien wil worden als een deskundige op een bepaald vlak.

    * Zorg dat je interne links op orde zijn: heel goed punt, denk ik een vaak voorkomend probleem. Ook best lastig te achterhalen als je het over grote aantallen hebt …

    Reageren
    • Michiel Brand zegt:
      15 Mei, 2014 om 15:27

      Dank voor je reactie en opmerkingen Arne!

      * Ben het met je eens dat waardevolle en unieke content lastig is voor webshops met honderden productpagina’s. Als je goed vindbaar wilt zijn met je site, zul je daar echter toch in moeten investeren. Veel affiliate websites hebben moeite om te ranken in zoekmachines, omdat ze alle productomschrijvingen rechtstreeks van de leverancier overnemen. Vaak proberen ze nog de teksten dan iets te herschrijven en een andere woordvolgorde door te voeren, maar daar fop je Google tegenwoordig niet zo eenvoudig meer mee. Er is veel software op de markt om artikelen te “spinnen”, herschrijven zodat Google ze als uniek aanmerkt. Google wordt echter steeds slimmer en vist die gespinde artikelen er steeds beter uit.

      Dat geluid hoor ik wel vaker, dat SEO-teksten teksten voor zoekmachines zijn en niet voor de klant. Zo hoeft het echter zeker niet te zijn. Een goede SEO-tekstschrijver schrijft in eerste instantie voor de klant. Het is prima mogelijk om klantgerichte, unieke, waardevolle teksten te schrijven die zich eveneens goed richten op zoekwoorden. In het verleden was er wel een tweedeling, in de tijd dat je nog in Google kon ranken door het zoekwoord zo vaak mogelijk op een pagina te vermelden. Keyword density is echter allang geen issue meer: sterker nog, als je het zoekwoord te vaak noemt, word je afgestraft door Google. Soms zie je nog SEO-teksten die krakkemikkig zijn geschreven en toch ranken in Google, omdat ze op de juiste manier een zoekwoord targeten. Maar ja, veel heb je toch niet aan die teksten, want als ze slecht geschreven zijn, haal je er geen klanten mee binnen. En dat is uiteindelijk hetgeen waar het om draait: de klant en niet de zoekmachine.

      * De rel=author-markup laat Google zien wie het artikel geschreven heeft, maar geeft geen uitsluitsel over het origineel als het gaat om duplicate content. Als het artikel op de gastblog-site teruglinkt naar de site van de auteur, is dat wel een goede indicatie dat daar ook het oorspronkelijke artikel staat. Soms zie je bij gastblogs een ander probleem qua auteurschap en dat is dat de gastblogsite een algemene author markup in het template heeft staan als gevolg waarvan gastblogartikelen door Google worden beschouwd als geschreven door de gastblogsite.

      * Dat kan inderdaad een flinke klus zijn bij een grote site! Het belangrijkste is dat je alle 301’s goed hebt verzorgd, een interne linkstructuur die op orde is, is een bonus.

  • Dave zegt:
    14 Mei, 2014 om 11:57

    Ik heb 1 vraag mbt tot dit artikel.
    Wanneer je een inhoudsopgave hebt wordt dan elk stuk tekst waarnaar een link vanuit de inhoudsopgave verwijst nogmaals apart geïndexeerd? En zo ja, wordt dit dan ook als duplicate content gezien? Ik weet het niet zeker maar volgens mij ziet Google dit niet als duplicate content omdat het allemaal wijst naar dezelfde URL …

    Reageren
    • Michiel Brand zegt:
      15 Mei, 2014 om 15:30

      Van duplicate content is inderdaad alleen sprake als (vrijwel) identieke tekst bereikbaar is via verschillende URL’s.

  • Sascha zegt:
    20 Mei, 2014 om 21:15

    Hoi, een vraag. Hoe kan je het beste omgaan met artikelen die een op een op sites geplaatst worden van (in dit geval) 100 franchise bedrijven. Dus het moederbedrijf schrijft een artikel en plaatst dit ook door bij alle aangesloten bedrijven (zit ook in 1 CMS).
    Dank

    Reageren
    • Michiel Brand zegt:
      20 Mei, 2014 om 21:44

      Dat levert duplicate content op. Google zal dan 1 artikel tonen in de zoekresultaten en de andere negeren. Als het belangrijk is welke site wordt getoond in de zoekresultaten met het artikel, kun je canonical tags toevoegen aan de artikelen die op de overige sites worden geplaatst.

  • Arne van Elk zegt:
    20 Mei, 2014 om 22:06

    Hoi Michiel, nog even over rel=author markup bij contentsyndicatie: stel dat je de andere sites zo ver krijgt dat zij de rel=author markup meenemen (ik bedoel naar het Google+ profiel van de oorspronkelijke auteur), wat zou dat dan betekenen voor hoe Google er naar kijkt? Denk dat je gelijk hebt dat het niet helpt om Google duidelijk te maken wat de oorspronkelijke versie is …

    Ik baseerde me overigens op dit artikel:
    http://www.virante.org/blog/2013/06/14/relauthor-or-relpublisher-which-should-i-use/

    waar staat: “Possible protection against being outranked in Google Search by those who scrape your content and republish it on their own sites.”

    Maar dat is idd een andere situatie (scraping). Toch denk ik dat het daar wel kan helpen want de mensen achter het scrapen zullen niet zo snel de moeite nemen gedurende langere tijd een Google+ profiel op te bouwen en de juiste markup toe te voegen.

    Reageren
    • Michiel Brand zegt:
      20 Mei, 2014 om 22:36

      rel=author stelt Google in staat om te bepalen wie de auteur (als persoon en niet als site) is van het artikel. Uiteindelijk wordt dit van belang als Author Rank wordt geïmplementeerd en het geeft verder een persoonlijke tint aan content op het web.
      Toevoegen van author-markup aan je eigen artikelen zorgt ervoor dat er geen misverstand over kan bestaan welke persoon het auteursrecht op het artikel heeft. Scrape-sites schrapen/kopiëren volledig automatisch content van andere websites en worden in de meeste gevallen sowieso niet in Google-zoekresultaten getoond met al hun duplicate content, outranken zou dus geen issue moeten zijn.

  • Nico Oudshoorn zegt:
    04 Okt, 2014 om 20:52

    Wij hebben via htaccess user friendly urls gedefinieerd. Diverse friendly urls verwijzen naar pagina’s met dezelfde inhoud. Artikelen die in verschillende categorieën voorkomen. Via de omzetting in htaccess verwijzen deze friendly urls echter naar dezelfde pagina. Is daarmee de duplicate content voorkomen?

    Reageren
    • Michiel Brand zegt:
      05 Okt, 2014 om 16:17

      Dank voor je reactie Nico. Er is sprake van duplicate content als (vrijwel) identieke tekst bereikbaar is via verschillende URL†™s. Als op jullie site meerdere URL’s verwijzen naar dezelfde pagina, is dus sprake van duplicate content.

Reageren