• Jetzt anmelden. Es dauert nur 2 Minuten und ist kostenlos!

robots.txt Dateien ausschließen

Status
Für weitere Antworten geschlossen.
IMHO schließt robots.txt Dateien und Verzeichnisse aus. Somit schließt die Angabe einer Datei auch alle möglichen Varianten von Parametern hinter der Datei aus. D.h. in deinem Fall musst Du einfach nur die Datei angeben und schon sind auch alle Parameter hinter den Dateien betroffen.
 
Das steht ja auch in dem von mir verlinkten Artikel so drin. Gouvernator hat wohl nicht so weit gelesen.

User-agent: *
Disallow: /index
Disallow: /temp/

Würde dazu führen, daß alle Urls die mit /index anfangen nicht indexiert werden, auch z.B. /index.html oder /indexed-files/datei.html statt einfach nur das Verzeichnis /index/, wohingegen bei Disallow: /temp/ wirklich nur die Dateien im Verzeichnis /temp/ ausgeschlossen werden.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben