Suchmaschinen

Suchmaschinen sind gigantische Datenbanken. Über Webcrawler werden die Daten erfasst, d. h. die Webcrawler erfassen und analysieren automatisch Webseiten im World Wide Web.

Dann erfolgt eine Auswertung der Webseiten im Hinblick auf: Inhalt und Relevanz für bestimmte Suchbegriffe. Aus diesem Ranking ergibt sich die Reihenfolge der Suchergebnisse auf der SERP (Search Engine Result Page).

Der Algorithmus für dieses Ranking ist nicht bekannt und wird von den Suchmaschinenbetreibern des Öfteren geändert. Dies ist u. a. eine Maßnahme um Manipulationen an den Suchergebnisse vorzubeugen.

Die Webcrawler der Suchmaschinen können mit Hilfe des Meta-Tags „robots“, in den Meta-Daten, bedingt gesteuert werden. Alle Angaben an dieser Stelle sind jedoch nur Richtinformationen und die Suchmaschinen behalten sich die Indizierung der Webseite vor.

Ein sauberer Quelltext (valider HTML Code) erleichtert den Suchmaschinen die Indizierung der Webseite. Hier ist die Trennung von Layout und Inhalt eine wichtige Voraussetzung. Dies wird durch den Einsatz von Cascading Style Sheets (CSS) erreicht.

Mit einer optimierten Webseite steigt oft die Möglichkeit in Suchmaschinen unter den relevanten Suchbegriffen gefunden zu werden.