Freitag, 25. Mai 2012

Was es bei Google zu beachten gilt


Vereinfacht ausgedrückt ist die Websuche wie ein großes Buch mit einem umfangreichen Index, in dem genau verzeichnet ist, was sich wo befindet. Sobald eine Google-Suche ausgeführt wird, durchsuchen die Google-Programme den Index und bestimmen die relevantesten Suchergebnisse, die angezeigt („zurückgegeben“) werden.
Es gibt drei Hauptprozesse, die ausgeführt werden müssen, um die Suchergebnisse zurückzugeben:

1. Crawling
Crawling bezeichnet den Prozess, durch den der Googlebot neue und aktualisierte Seiten ermittelt, damit sie dem Google-Index hinzugefügt werden.

2. Indizierung
Googlebot verarbeitet jede der gecrawlten Seiten und stellt einen umfangreichen Index aller Wörter zusammen, die auf den Seiten ermittelt wurden, sowie deren Position auf jeder Seite.

3. Bereitstellen der Ergebnisse
Gibt ein Nutzer eine Suchanfrage ein, durchsuchen Computer den Index nach übereinstimmenden Seiten und geben die Ergebnisse zurück, die laut Google am relevantesten für den Nutzer sind. Die Relevanz wird mithilfe von über 200 Faktoren ermittelt. Einer dieser Faktoren ist der PageRank. Dieser entspricht der Relevanz einer Seite. Er wird auf Grundlage von Links, die auf die jeweilige Seite verweisen, gemessen. Demnach erhöht jeder Link auf andere Websites den PageRank der eigenen Website.

Damit eine Website ein vorteilhaftes Ranking in den Suchergebnisseiten erzielt, sollten bestimmte Richtlinien für Webmaster eingehalten werden. Diese seien hier kurz zusammengefasst.

Richtlinien zur Gestaltung und zum Content

-         Website mit klar strukturiertem Aufbau und Textlinks
-         Sitemap mit Links zu den wichtigen Teilen der Website
-    Anzahl der auf einer Seite vorhandenen Links beschränken 

Technische Richtlinien

-         zur Überprüfung der Website einen Textbrowser verwenden
-         sicherstellen, dass der Webserver den HTTP-Header „If-Modified-Since“ unterstützt. Darüber wird mitgeteilt, ob der Website-Inhalt seit dem letzten Crawling geändert wurde
-         Datei „robots.txt“ auf dem Webserver nutzen. Diese Datei teilt Crawlern mit, welche Verzeichnisse durchsucht werden dürfen und welche gesperrt sind. 

Qualitätsrichtlinien

-         Tricks vermeiden, die das Suchmaschinen-Ranking verbessern sollen.
-         nicht an Linktauschprogrammenteilnehmen, die dazu dienen, das Ranking zu verbessern.
-         ausschließlich autorisierte Software verwenden
-         verborgenen Text oder verborgene Links vermeiden
-         keine automatischen Suchanfragen an Google senden
-         keine Seiten mit irrelevanten Suchbegriffen hochladen
-         keine doppelten Seiten, Sub-Domains oder Domains, die denselben Content haben.

Lesen Sie hier den ausführlichen Artikel


Keine Kommentare:

Kommentar veröffentlichen