Technische Optimierungsmöglichkeiten für Ihre

Transcription

Technische Optimierungsmöglichkeiten für Ihre
Technische Optimierungsmöglichkeiten für Ihre Webseiten
Sie haben an Ihrer Webseite in Sachen Suchmaschinen-Optimierung schon einiges
getan: Der Quelltext Ihrer Homepage sieht gut aus, die Inhalte sind informativ. Sie
haben Ihre Seite bei diversen Suchmaschinen erfolgreich angemeldet und auch die
wichtigsten Kataloge Ihrer Branche sind mit Beschreibungen und mit Links zu Ihrem
Auftritt versorgt. Jenseits hiervon gibt es noch ein paar technische Kniffe, die Sie
kennen sollten, um Ihr Suchmaschinen-Marketing abzurunden und laufend
kontrollieren zu können.
Google Webmastertools – Sitemaps und robots-Dateien einsetzen
Zur Kontrolle der Position Ihrer Webseite bei google.de gibt es die google–Webmastertools,
die Sie kostenlos nutzen können (siehe http://www.google.de/webmasters/ ). Sie benötigen
hierfür ein google%Konto, mit dem Sie Zugriff auf eine Reihe von gesperrten Bereichen
erhalten. Nach dem Login in die Webmastertools finden Sie eine Liste der von Ihnen
verwalteten Seiten, zu denen Sie diverse Auswertungen anschauen können.
Eine der interessantesten Möglichkeiten, den Inhalt Ihrer Webseite im google%Index zu
verwalten ist hierbei der Einsatz einer google%Sitemap. Mit der Sitemap teilen Sie google.de
genau mit, welche Seiten zur Ihrer Homepage gehören und welche Bedeutung Sie der
einzelnen Seite beimessen. Ob google.de bei der Bewertung der Inhalte diese Zuweisung
berücksichtigt oder nicht, ist nicht umittelbar erkennbar. Ist allerdings eine Sitemap%Datei
vorhanden, dann wird diese in der Regel sehr kurzfristig von google.de ausgewertet und
auch regelmäßig auf Aktualisierungen überprüft.
Wenn Sie die Sitemap erstellen und diese für Ihre Homepage anmelden möchten, müssen Sie
das Format der google%Sitemap genau einhalten und diese als Datei mit dem Namen
„sitemap.xml“ in das Wurzelverzeichnis Ihres Webservers ablegen. Die Sitemap lässt sich in
einem einfachen Text%Editor wie zum Beispiel WordPad erstellen. Kopieren Sie hierfür das
Beispiel und passen Sie es Ihrem Inhalt an. Wesentlich ist, dass Sie für jede einzelne Seite
Ihrer Homepage, die Sie dort auflisten, einen Datensatz in der Sitemap befüllen (Datensatz
befindet sich zwischen <url> und </url>), in dem die URL der Datei angegeben ist (Angabe
zwischen <loc> und </loc>, wann diese Datei zuletzt aktualisiert wurde (zwischen
<lastmod> und </lastmod>), wie dicht der voraussichtliche Änderungsturnus ist
(zwischen <changefreq> und </changefreq> und wie hoch die Bedeutung der Seite im
Zusammenhang Ihres Internet%Auftritts bewertet wird (<priority> und </priority>. Hierbei
ist ein Wert von 0.5 als durchschnittlich anzusehen; der Wert 1.0 weist Seiten mit
herausragender Bedeutung (im Beispiel die Startseite) aus.
Beispiel für eine sitemap.xml
<?xml version="1.0" encoding="UTF-8" ?>
<urlset xmlns="http://www.google.com/schemas/sitemap/0.84">
<url>
<loc>http://www.tops.net/default.htm</loc>
<lastmod>2007-07-29</lastmod>
<changefreq>weekly</changefreq>
<priority>1.0</priority>
</url>
<url>
<loc>http://www.tops.net/datenschutz.htm</loc>
<lastmod>2007-05-08</lastmod>
<changefreq>monthly</changefreq>
<priority>0.7</priority>
</url>
<url>
<loc>http://www.tops.net/partner.htm</loc>
<lastmod>2007-05-31</lastmod>
<changefreq>monthly</changefreq>
<priority>0.5</priority>
</url>
</urlset>
Ist das erledigt, melden Sie über die google%Webmastertools für die betreffende Homepage
die Sitemap zur Prüfung an. Unter „Typ auswählen“ geben Sie „Allgemeine Web%Sitemap
hinzufügen“ an.
War Ihr Versuch erfolgreich, dann zeigt Ihnen das Tool nach ein paar Tagen dieses Ergebnis:
Das Gegenteil einer Sitemap ist die robots%Datei. Mit Hilfe der robots%Datei legen Sie
nämlich fest, welche Bereiche Ihrer Homepage nicht für die Öffentlichkeit bestimmt sind.
Auch hier handelt es sich um eine schlichte Text%Datei, die im Wurzelverzeichnis Ihrer
Homepage abgelegt wird und in der aufgelistet ist, welche Verzeichnisse und Dateien die
Crawler und Robots der Suchmaschinen der Verschlagwortung nicht berücksichtigen sollen.
Mit „User%Agent: *“ legen Sie fest, dass der Inhalt Ihrer Webseite für alle Suchmaschinen
zugänglich sein soll. „Disallow“ leitet jeweils ein, welche Verzeichnisse von der
Verschlagwortung ausgeschlossen sein sollen. Geben Sie jede Anweisung in einer eigenen
Zeile an. Sie können selbstverständlich auch einzelne Dateien angeben. Unter
http://www.goldmann.de/robots%suchmaschine%steuern_tipp_459.html finden Sie eine
ausführliche Beschreibung, wie Sie die Angaben gestalten müssen.
2
web by step lucie prinz + tamas lanyi gbr
muehlenweg 31
53619 rheinbreitbach
Tel.: 02224 - 77 97 66
Fax: 02224 - 77 97 99
Internet: www.web-by-step.de
Beispiel für die robots.txt
User-agent: *
Disallow:
Disallow:
Disallow:
Disallow:
Disallow:
Disallow:
Disallow:
Disallow:
/admin/
/agb/
/ma/
/service/
/inc/
/scripte/kontakt.asp
/temp/
/txt/
Die google%Webmastertools bieten auch für die robots.txt eine aussagekräftige Auswertung:
Homepages mit mehreren Domainnamen
Ein Problem stellt die Verwendung mehrerer Domainnamen für ein und dieselbe Webseite
dar. Nicht die Tatsache, dass und wie viele Domains zum gleichen Ziel führen, ist hierbei
ausschlaggebend, sondern die Art und Weise, wie das technisch erreicht wird: Wird etwa auf
der Startseite eines Webauftritts erst nach dem Laden der Seite eine automatische
Weiterleitung (zum Beispiel über das Meta%Element refresh mit: <meta http%equiv="refresh"
content="0; URL=http://www.domainname2.de>) aktiviert, so stellt das für die
Suchmaschine im Zweifel eine missbräuchliche Nutzung dar, die zum Ausschluss der
Webseite aus dem Index führen kann. Bei www.seitwert.de können Sie Ihre Domain auf
solche Probleme prüfen: Nach der Auswertung Ihre Domain durch dieses Tool erhalten Sie
unter der Rubrik „technische Details“ Hinweise darauf.
Wenn Sie mehrere Domains oder zum Beispiel Schreibweisen mit oder ohne vorangestelltem
„www“ für die Adressierung Ihrer Homepage verwenden, sollten Sie Ihren Webmaster oder
Provider bitten, diese Weiterleitungen als so genannte „301 Weiterleitung“ (Permant
Redirect) einzurichten.
3
web by step lucie prinz + tamas lanyi gbr
muehlenweg 31
53619 rheinbreitbach
Tel.: 02224 - 77 97 66
Fax: 02224 - 77 97 99
Internet: www.web-by-step.de
Die ideale Verzeichnistiefe
Für Suchmaschinen sollte es eigentlich egal sein, wie Sie die Seiten auf Ihrem Webserver
strukturieren. Oftmals werden aber im Vertrauen darauf, dass das nichts ausmacht, viele
Rubriken ineinander verschachtelt, so dass die eigentlichen Inhaltsseiten schnell auf der
fünften oder sechsten Ebene im Verzeichnisbaum landen. google.de aber zieht die Position
einer Datei im Verzeichnisbaum sehr wohl als Kriterium für die Relevanz einer Datei heran.
Bei http://web%coach.org/webdesign%suchmaschinen.php kommt man zu dem gleichen
Schluss:
Achten Sie darauf, dass die Inhaltsseiten nicht weiter als bis zu dritten Ebene verschachtelt
sind.
Legen Sie am besten nur funktional sinnvolle Unterverzeichnisse fest, in denen etwa die
Grafiken und Scripte oder auch die Administration Ihrer Homepage oder andere
Sprachversionen hinterlegt werden. Die eigentlichen Seiten können Sie ohne Probleme direkt
im Wurzelverzeichnis ablegen.
Checkliste:
• Konto bei google anlegen, um die Webmaster%Tools nutzen zu können
• sitemap.xml und robots.txt erstellen auf in das Wurzelverzeichnis Ihres Webservers
kopieren.
• Unter http://www.seitwert.de prüfen, wie die technische Aufbereitung Ihrer Homepage
bewertet wird. Bei Verwendung von mehreren Domains oder Domainvarianten darauf
achten, dass die Weiterleitungen auf die Hauptdomain als Permanent Redirect
eingerichtet wurden.
• Wenn Sie eine Webseite neu anlegen achten Sie darauf, dass relevante Inhaltseiten
nicht tiefer als in der dritten Verzeichnisebene abgelegt sind. Bei bestehenden Seiten
können Sie das nach und nach abändern.
Autorin: Lucie Prinz, web by step
Copyright: web by step 2008
4
web by step lucie prinz + tamas lanyi gbr
muehlenweg 31
53619 rheinbreitbach
Tel.: 02224 - 77 97 66
Fax: 02224 - 77 97 99
Internet: www.web-by-step.de