Donnerstag, 20. Februar 2014

OM Tag 12

Google Webmaster Tools

Sitemap.xml-Datei
Mit der Sitemap.xml findet sich der Suchroboter schnell und gut auf einer Website zurecht.
  1. sitemap.xml erstellen (über Plug-in oder Online-Tool)
  2. FTP-Upload in Root-Verzeichnis des Servers
  3. sitemap.xml in Webmaster Tools hochladen
.htaccess-Datei
Möglichkeiten der .htaccess:
  • Dateien passwortschützen
  • einstellen, wie auf Fehlermeldungen reagiert werden soll
  • umschreiben / abkürzen von Permalinks
  • Request-Umleitung = www-Klärung
  1. Einrichten der .htaccess-Datei im Editor mit Code, der auf Response 301 (Request-Umleitung) reagiert und bei Bedarf weiteren Codes.
  2. FTP-Upload in Root-Verzeichnis des Servers

robots.txt-Datei
= Zutrittsberechtigung für den Suchroboter, wird als erste ausgelesen
  1. Einrichten der robots.txt-Datei im Editor mit Code, der User-Agent, Allow / Disallow definiert
  2. FTP-Upload in Root-Verzeichnis des Servers
Google Webmaster Tools Dashboard
Anzeige der Crawling-Fehler:
Liste mit Erklärung der Fehler findet sich in Wikipedia
Ziel: keine Fehler!

Linkliste zu Tag 12
Spider Simulator (Alternative zu SEOquake)
Online-Generator für xml-Sitemaps
Filezilla (FTP-Uploader)
SEO Yoast (SEO Plug-In für WordPress)
Wikipedia Erklärung .htaccess
Response 301 für .htaccess
Wikipedia Liste HTTP-Statuscode

Keine Kommentare:

Kommentar veröffentlichen