Double Content kann ein Problem sein

Etwas vom Wichtigsten bei der Optimierung seiner Website für Suchmaschinen (nicht nur für Google) ist die Vermeidung von doppelten Inhalten. Seiteninhalte, die in der eigenen oder auch auf externen Sites mehrfach vorkommen, können bei den Suchmaschinen zu vielfältigen Problemen führen, die sich dann in einem schlechten Ranking niederschlagen. Hierfür kann es verschiedene Gründe geben:

  • Ein CMS, das die gleichen Inhalte unter verschiedenen URLs zur Verfügung stellt.
  • Gleiche Webseiten, die unter verschiedenen Domains aufgeschaltet sind.
  • Webseiten oder Teile von Webseiten, die für Affiliate Programme verwendet werden.
  • Inhalte der eigenen Seiten werden für fremde Seiten, ungeachtet des Copyrights, übernommen.

Dies führt z.B bei Google zu folgenden Problemen:

  • Wenn Google Duplicate Content auf der gleichen Website feststellt, werden die Seiten mit den gleichen Inhalten im Index zu einer Gruppe zusammengefasst und Google legt eine Seite als wichtigste fest. Diese Seite wird nun sämtliche Eigenschaften (Linkpopularität etc), auch der anderen Seiten mit den gleichen Inhalten, übernehmen. Das unschöne daran ist, dass die Seite die Google bestimmt, nicht die Seite sein muss, die man gerne hätte.
    Wenn nun also der Double Content zwingend nötig ist, sollte man auch eine saubere, von Google indexierte, Sitemap haben. Mit ihr lässt es sich steuern, welche Version der Seite einem wichtig ist und ob sie von Google indexiert werden soll oder nicht.
  • Bei Double Content auf verschiedenen, eigenen, Domainadressen (z.B. Velo.ch und Fahrrad.ch) lässt sich das Problem einfach entschärfen, indem man entweder die Texte anders formuliert oder aber, die schlechter indexierte Domain auf die besser indexierte umleitet. Sie machen sich dabei noch eine Freude, da Sie ab diesem Moment nur noch eine Website warten müssen.
  • Schwieriger wird es, wenn Sie feststellen, dass Ihr Text auf fremden Websites erschienen ist. Google wird wird zwar festgestellt haben, dass der Original Text auf Ihrer Website zuerst erschienen ist und diesen dann auch besser bewerten als den kopierten. Aber wie sieht es aus, wenn Ihr Text eine Zeit lang vom Web genommen wird und dann wieder publiziert wird? Es kann dann gut passieren, dass Ihr originaler Text von Google als Kopie bewertet wird.
    In solchen Fällen empfiehlt es sich, den Betreiber der fremden Site darauf aufmerksam zu machen, dass er Ihr Copyright verletzt und er den kopierten Text von seiner Website nehmen soll. Dieser Anspruch lässt sich auch juristisch durchsetzen.

Weitere Informationen zu diesem Thema finden Sie unter folgenden Links:

Google Webmaster-Zentrale

Philognosie – Schlechte Platzierungen durch Double Content vermeiden

Copyscape – Ein Online-Tool zur Auffindung von Double Content

Weiterempfehlen

image description

Kommentieren

19 Kommentare

image description
  1. Produktfotografie | 25.11.2010 21:25

    Danke für die Tipps auch bezüglich Bot-Traps. Dies habe ich bis jetzt vollkommen vernachlässigt.

  2. Bastian Niemann | 30.05.2010 10:28

    Habe mir alles hier zu Herzen genommen – PR wieder auf 2 gestiegen, ein Teil der unterseiten auf 1, arbeite an mehr… Danke für diese Hinweise.

  3. Bastian Niemann | 8.02.2010 13:14

    also mein PR ist wohl durch DC von 3 auf 1 gesunken,
    die Zahl der Kunden gottseidank nicht…

    Was trage ich in htaccess denn genau ein, die home/index – URL der fremden Website?

  4. proxy-sperre | 6.01.2009 10:54

    Hallo Sport Fitness,

    deine Aussage ist nicht richtig

    Probleme hatte ich dagegen mit dem anderen Anbieter, der die htaccess nutzt, da sie damit für andere Webmaster-Zwecke komplett nutzlos geworden ist (muss ja für den automatischen Update dieses Anbieters überschreibbar sein).

    Die Proxysperre nutzt nur den Bereich innerhalb der htaccess der als Proxysperre makiert ist.
    Außerhalb dieses Bereiches können selbstverständlich eigene Einträge gemacht werden die die Proxysperre nicht überschreibt.

    Der Vorteil der Proxysperre ist das nicht wie bei den anderen Anbietern
    das Script auf jeder Unterseite eingebunden werden muß.
    Denn Proxysperre regelt das mit lediglich einer htaccess Datei

    Weitere Infos
    http://proxy-sperre.de

  5. Yves Moret | 18.09.2008 11:42

    Vielen Dank für die technisch fundierten Kommentare. Ich denke das zeigt deutlich, dass das Double-Content Problem nicht zu unterschätzen ist.

  6. Sport Fitness Training Blog | 18.09.2008 10:12

    @Gerd: Ich muss Dir etwas widersprechen, mir hat es letztes Jahr damit auch eine Domain abgeschossen, die bereits seit 2001 online ist. Also gilt das leider nicht nur für junge Seiten/Domains.
    Bei einer anderen Domain hat mir Anfang diesen Jahres ein besonders großer neuseeländischer Proxy komplett alle über 60 Unterseiten indeziert und Google mir bereits nach 1 Woche 80% der Domain aus dem Index geworfen. Als ich den Proxy eliminierte kamen die Seiten wieder in den Index. Domain ist seitdem aber Schrott.
    Mit dem page-restrictor (Bot-Trap) habe ich keine schlechten Erfahrungen. Er läuft bei mir auf fast allen Domains. Probleme hatte ich dagegen mit dem anderen Anbieter, der die htaccess nutzt, da sie damit für andere Webmaster-Zwecke komplett nutzlos geworden ist (muss ja für den automatischen Update dieses Anbieters überschreibbar sein).
    Ansonsten bzw. trotz allem hilft nur ständig prüfen, z.B. über copyscape und manuell in die htaccess eintragen.

  7. Gerd-E. by SEO-News | 18.09.2008 09:59

    Gerade bei jungen Seiten kann ein starker Proxi (fast) tödlich sein. Die Sperrung über die htaccess ist möglich, der Einbau einer Proxy-Sperre, Bot-Trap hat für mich noch etwas „mysteriöses“ an sich. Es gibt noch einen „Anbieter“, der ähnlich wie Bot-Trap, über die htaccess arbeitet und die IP überprüft.
    Mit einer dieser Techniken kann man sich den Ärger von Hals halten 🙂

  8. Sport Fitness Training Blog | 18.09.2008 09:03

    IP vom Proxy ermitteln und dann in der eigenen htaccess einen disallow auf die IP setzen (und ausprobieren, denn manchmal muss man auch ne größere range sperren).
    Man kann aber auch ein Programm installieren, das gibt es hier: http://www.bot-trap.de/home/
    😉

  9. Yves Moret | 18.09.2008 07:36

    @Gerd-E
    Nach direktem Kontakt mit @Sport-Fitness muss ich dem auch zustimmen. Habe es allerdings noch nie so erlebt.
    Wie hast du den DC auf den Proxis eliminiert? Man lernt ja nie aus. 😉

  10. Gerd-E. by SEO-News | 17.09.2008 22:42

    Ich habe zumindest auch schon mal Probleme mitDC und Proxis gehabt, das könnte so etwa ein gutes Jahr her sein. Da gebe ich @Sport Fitness recht.
    Diese Quelle von Duplicate Content läßt sich jedoch (verhälnismäßig) leicht eleminieren.

  11. Sport Fitness Training Blog | 17.09.2008 08:55

    Ging gerade an Dich raus über Dein Kontaktformular. Wir können uns gerne per eMail weiter unterhalten.

  12. Yves Moret | 17.09.2008 08:31

    @Sport Fitness Training Blog
    Hast du ein Beispiel? Würde gerne mal einen Blick darauf werfen.

  13. Sport Fitness Training Blog | 17.09.2008 08:23

    Sorry, aber Google macht es sich so einfach. Mir sind letztes Jahr mehrere Domains deswegen abgeflogen. Und Mehrwert, gibt es bei Proxies überhaupt keinen. Die speichern 1:1 alle Webseiten einer Domain zwischen und da sie das mit sehr vielen Domains machen, haben sie selbst tausende von indezierten Unterseiten. Dagegen kann keine normale Domain „anstinken“. Vielleicht hat das Google mittlerweile im Griff, nur letztes Jahr nicht und meine Domains konnte ich wegwerfen, sie sind schlicht und ergreifend Schrott.

  14. Yves Moret | 17.09.2008 07:41

    Ich sehe es auch wie Rubin. Google wird es sich sicherlich nicht einfach machen. Eines der Probleme wird sein, dass Google vielleicht in den kopierten Seiten einen Mehrwert erkennt. Dieser muss nicht nur in der kopierten Seite stecken, sondern die ganze Site kann auch einen Mehrwert darstellen.
    Aber eben, Google wäre ja nicht Google, wenn alles Glasklar ersichtlich wäre.

  15. Rubin | 16.09.2008 20:55

    So einfach wird es sich Google auch nicht machen und den Text der stärkeren Seite als Originaltext werten. Google hat da bestimmt X andere Instrumente um den Originaltext zu erkennen.

  16. Sport Fitness Training Blog | 16.09.2008 19:19

    Google wertet leider immer die stärkere Domain als Original und die schwächere als die Kopie, egal wer länger da war. Mir sind letztens Jahr einige Domains aus dem Grund komplett abgek…
    Proxies hatten mir die Seiten rausgezogen, google hat die Proxy-meine-seiten indeziert und meine Originale abgeschossen. So waren auf meinen Positionen auf einmal die Proxies. Seitdem nie wieder erholt. Nett, was?

  17. Hugo | 16.09.2008 09:10

    Die Sache mit dem Double Content ist extrem heikel. Oftmals merkt man nicht, dass seine Inhalte kopiert werden und kann dann nur hoffen, dass Google checkt, dass nicht meine sonder die andere Site eine Kopie ist.
    Am besten lässt man das von einem Spezialisten analysieren, ich glaube das ist das Geld wert.

  18. Yves Moret | 16.09.2008 09:37

    Vielen Dank für die Kommentare. Suchmaschinenoptimierung ist ein komplexes Gebiet und für Laien, die nicht erst Lehrgeld zahlen wollen, empfiehlt es sich unbedingt, einen Spezialisten zu Rate zu ziehen.
    Da Google nicht gerne über ihre Suchmaschinenalgorythmen redet, bleibt einem fast kein anderer Weg, als durch Erfahrungen reicher zu werden. Auch wenn Google aus dem Nähkästchen plaudert, kann die Sache in einer Woche vielleicht schon wieder anders aussehen.

    Hat vielleicht schon jemand Erfahrungen gemacht mit eigenem Content auf fremden Websites?

  19. Mogius | 16.09.2008 08:13

    Endlich sagt Google einmal deutlich und konkret was Double Content ist und was nicht. Bis jetzt brodelte die Gerüchteküche gewaltig bei diesem Thema und jeder SEO meinte, dass er genau wisse was Google mag. Von mir aus kann Google noch viel mehr aus dem Nähkästchen plaudern.

Kommentar schreiben

Please copy the string 0HYaVT to the field below: