Archiv verlassen und diese Seite im Standarddesign anzeigen : Shopwiki klaut mir meine Artikelbeschreibungen - was kann ich machen?
Hallo,
einige Artikel sind auf der Webseite Shopwiki gelistet. Ein Anruf und eine Email mit Fristsetzung unsere Artikel + Beschreibung dort zu entfernen hat nichts gebracht.
Nun die pflegen die Artikel auch nicht mit Hand dort ein. Also was machen?
Kann ich meine htacces so anpassen das deren Boot nicht mehr in den Shop kommt und bei Google Webmastertools um löschung der Seiten bitten?
Ich finde es äußerst ärgerlich eigene Artikelbeschreibungen zu schreiben und diese dann bei Shopwiki zu finden.
Wie löst Ihr das?
die verwenden deine texte und bilder? abmahnen
Die sitzen in den USA - keine Chance & Gelder. Daher suche ich alternativen.
Zum Beispiel so:
##Block Shopwiki
Order deny,allow
deny from 38.98.120.84
deny from 209.51.162.219
deny from 67.152.29.130
deny from 8.11.2.9
deny from 8.11.2.10
deny from 209.51.162.220
deny from 38.98.120.94
deny from 65.46.75.190
Die IP's habe ich hier gefunden:
Shopwiki IP list: How to block spam bot | my-whiteboard (http://www.my-whiteboard.com/shopwiki-ip-list-how-to-block-spam-bot/)
Wenn du etwas recherchierst findest du sicher noch aktuellere Adressen.
Auch eine Möglichkeit wäre es mal zu versuchen denen eine sinnfreie Beschreibung anhand der IP Adresse unterzujubeln. Ein paar sehr unanständige Wörter mit rein, und schauen was passiert.
Oder wenn es sich um Produktbeschreibungen handelt, dann könnte man aus anderen Produkten die Werte wild zusammenwürfeln. Natürlich auch da ein paar unanständige Begriffe mit rein.
mmm
da steht ja auch der Bot
ShopWiki/1.0 ( +ShopWiki Merchant Helpline: ShopWiki Robots and Crawlers (http://www.shopwiki.com/wiki/Help:Bot))
man müßte einfach einen Filter einbauen, der den Bot einfach woanders hinleitet, somit wäre es egal, welche IP er hat.
Am besten wäre natürlich eine Seite, auf der Steht:
Shopwiki copy my content without authorization
Nachtrag:
Schau mal hier: ShopWiki Merchant Helpline: ShopWiki Robots and Crawlers (http://www.shopwiki.com/wiki/Help:Bot)
Inbesondere dieser Teil:
If you would like us to not crawl your site, please add this to your robots.txt:
User-agent: ShopWiki
Disallow: /
After you add this, you will no longer receive traffic from ShopWiki once we remove your products from our index. Some webmasters think this will enable them to get Goggle SERPs, if that is your objective, please contact us. It often is not the case. Please email James at jk@shopwiki.com for an explanation as to the dynamics of google from our testing
Es sei jetzt dahin gestellt, was besser ist, sich ärgern und den Rechtsweg einschlagen, oder doch einfach die Zeilen in die robot.txt einfügen...
Bleibt zu hoffen, dass die sich auch an die robots.txt-Restriktionen halten. Vielen SuMas geht die robots.txt ja bekanntlich am Ar*** vorbei. Deshalb bevorzuge ich .htaccess
Am besten wäre natürlich eine Seite, auf der Steht:
if (preg_match("@Shopwiki@", $_SERVER['HTTP_USER_AGENT'])) $variable = 'I am a thief.';
Man könnte auch mit header ( "HTTP/1.1 404 Not Found") was machen
oder Buchstaben verändern str_replace('e', 'ei',$var) etc
jay-ar
Powered by vBulletin® Version 4.2.2 Copyright ©2024 Adduco Digital e.K. und vBulletin Solutions, Inc. Alle Rechte vorbehalten.