Donnerstag, 4. Juli 2013

Kursprotokoll Tag 11

Zum Thema Suchmaschinenoptimierung Offsite haben wir heute die Google-Webmaster-Tools kennen gelernt.

  • Das Webmaster Tool durchleuchtet die damit verknüpften Websites auf ihre technische Funktionalität:
  • Laufen alle Funktionen einwandfrei? robot.txt, sitemap.xml, .htaccess?
  • Gibt es fehler beim Laden der Seite?
  • Malware?
  • Crawling Fehler?
  • Über welche Keywords wurde meine Seite gefunden/aufgerufen?
  • Wie kann ich meine Seite optimal im SERP anzeigen? Stichw. Rich Snippets

robots.txt

Die robots.txt-Datei beinhaltet Befehle für den Crawler, die zwingend befolgt werden müssen. Es wird vorgegeben, welche Seiten der Crawler indizieren darf und welche nicht.

Die robots.txt-Datei wird im Editor erstellt und auf dem Root-Verzeichnis des Webservers ablegt.

sitemap.xml

Die Sitemap.xml-Datei dient einzig dem Crawler. Dadurch kann eine (besonders große) Website schneller ausgelesen werden. Die Seite kann vollständig gecrawlt werden und hat damit bessere Chancen für eine gute Positionierung in der organischen Suche.

.htaccess

Die .htaccess-Datei bietet vielfältige Einstellungsmöglichkeiten, um die Sicherheit einer Website zu erhöhen. In diesem Kurs sind wir nur auf die Umleitungsmöglichkeit eingegangen:
Wichtig zu wissen:
es gibt 2 Arten der Umleitung:  die 301er und die 302er.
Den entsprechenden Code dazu findet ihr auf Ralf Wendas Blog

Keine Kommentare:

Kommentar veröffentlichen