Sitemap.xml-Datei
Mit der Sitemap.xml findet sich der Suchroboter schnell und gut auf einer Website zurecht.
- sitemap.xml erstellen (über Plug-in oder Online-Tool)
- FTP-Upload in Root-Verzeichnis des Servers
- sitemap.xml in Webmaster Tools hochladen
Möglichkeiten der .htaccess:
- Dateien passwortschützen
- einstellen, wie auf Fehlermeldungen reagiert werden soll
- umschreiben / abkürzen von Permalinks
- Request-Umleitung = www-Klärung
- Einrichten der .htaccess-Datei im Editor mit Code, der auf Response 301 (Request-Umleitung) reagiert und bei Bedarf weiteren Codes.
- FTP-Upload in Root-Verzeichnis des Servers
robots.txt-Datei
= Zutrittsberechtigung für den Suchroboter, wird als erste ausgelesen
- Einrichten der robots.txt-Datei im Editor mit Code, der User-Agent, Allow / Disallow definiert
- FTP-Upload in Root-Verzeichnis des Servers
Anzeige der Crawling-Fehler:
Liste mit Erklärung der Fehler findet sich in Wikipedia
Ziel: keine Fehler!
Linkliste zu Tag 12
Spider Simulator (Alternative zu SEOquake)
Online-Generator für xml-Sitemaps
Filezilla (FTP-Uploader)
SEO Yoast (SEO Plug-In für WordPress)
Wikipedia Erklärung .htaccess
Response 301 für .htaccess
Wikipedia Liste HTTP-Statuscode
Keine Kommentare:
Kommentar veröffentlichen