scabringtneuevorgabenfürdenonline handel

Noindex in der Robots.txt nicht mehr unterstützt

Mit 1. September verabschiedete sich ein echter Klassiker. Um einheitliche Web-Standards zu schaffen, ignoriert der Google-Bot künftig einige Anweisungen in der Robots.txt. Dazu zählen Nofollow, Crawl-delay und, von besonderer Wichtigkeit, Noindex. Dieser einfache Befehl verhinderte die Aufnahme von gewissen Seiten und Bereichen einer Website in den Suchindex. Allerdings gibt es weiterhin Alternativen, um diese Anweisungen …

Noindex in der Robots.txt nicht mehr unterstützt Weiterlesen »