1 Titel 2 Inhaltsverzeichnis

Transcription

1 Titel 2 Inhaltsverzeichnis
OnPage_Optimierung_-_Wenn_der_Quellcode_die_Entscheidung_bringt
1 Titel
Name des Autors / der Autoren: Jurgita Kavaliauskaite, Philipp Klockow, Sebastian Petersen
Titel der Arbeit:
OnPage Optimierung - Wenn der Quellcode die Entscheidung bringt
Hochschule und Studienort:
FOM Hamburg
2 Inhaltsverzeichnis
Inhaltsverzeichnis
• 1 Titel
• 2 Inhaltsverzeichnis
♦ 2.1
Abkürzungsverzeichnis
♦ 2.2
Abbildungsverzeichnis
♦ 2.3
Tabellenverzeichnis
• 3 Einleitung
♦ 3.1 Ziele
♦ 3.2 Zeitraum
• 4 Messbarkeit
♦ 4.1 Pagerank
◊ 4.1.1
Bedeutung
◊ 4.1.2
Berechnung
◊ 4.1.3
Einflussaktoren
◊ 4.1.4
Ranking
◊ 4.1.5
Trusted Site
♦ 4.2 Alexa Traffic
Rank
◊ 4.2.1
Bedeutung
◊ 4.2.2
Berechnung
♦ 4.3 Seitwert
◊ 4.3.1
Anwendung
◊ 4.3.2
Kriterien
◊ 4.3.3
Seiten-Optimierung
♦ 4.4 Social
Bookmarks
2 Inhaltsverzeichnis
1
OnPage_Optimierung_-_Wenn_der_Quellcode_die_Entscheidung_bringt
◊ 4.4.1
Community
◊ 4.4.2
Möglichkeiten
◊ 4.4.3
Seiten-Optimierung
• 5 Quellcode
♦ 5.1 Sprachen
◊ 5.1.1 HTML
◊ 5.1.2 CSS
◊ 5.1.3 Java
Script
◊ 5.1.4
sprachliche
Grenzen
♦ 5.2
Optimierungspotenziale
◊ 5.2.1 Head
⋅ 5.2.1.1
Titel
⋅ 5.2.1.2
Meta
⋅ 5.2.1.3
Link
◊ 5.2.2 Body
⋅ 5.2.2.1
Überschriften
⋅ 5.2.2.2
Bilder
⋅ 5.2.2.3
Links
⋅ 5.2.2.4
Div
◊ 5.2.3 Page
⋅ 5.2.3.1
Architektur
⋅ 5.2.3.2
Aktualität
⋅ 5.2.3.3
URL
⋅ 5.2.3.4
Keywords
⋅ 5.2.3.5
Sitemap
⋅ 5.2.3.6
Ladezeiten
◊ 5.2.4
Domain
• 6 Strategien
♦ 6.1 Seitenstruktur
Inhaltsverzeichnis
2
OnPage_Optimierung_-_Wenn_der_Quellcode_die_Entscheidung_bringt
◊ 6.1.1
Bedürfnisse
◊ 6.1.2
Auffindbarkeit
◊ 6.1.3
Sackgassen
◊ 6.1.4
Orientierung
◊ 6.1.5 Index
von A-Z
◊ 6.1.6
Navigationsleisten
◊ 6.1.7
Text-Link-Navigation
◊ 6.1.8
Barrierefreiheit
♦ 6.2 Navigation
◊ 6.2.1 Pop
Up
◊ 6.2.2
Seiteninterne
Suchfunktion
◊ 6.2.3
Frames
♦ 6.3 Dateityp und
dynamische Seiten
◊ 6.3.1
Session ID
◊ 6.3.2
URL-Rewrite
• 7 Vergleich On-Page vs.
Off-Page
♦ 7.1 Gewichtung
♦ 7.2 Schnittpunkte
◊ 7.2.1
Webhosting
◊ 7.2.2
Domain
⋅ 7.2.2.1
Domainalter
• 8 Ausblick
♦ 8.1
Suchmaschinenfaktoren
♦ 8.2 OnPage
Verbesserungen
• 9 Literatur- und
Quellenverzeichnis
♦ 9.1 Literatur
♦ 9.2 Einzelnachweis
♦ 9.3 Weblinks
Inhaltsverzeichnis
3
OnPage_Optimierung_-_Wenn_der_Quellcode_die_Entscheidung_bringt
2.1 Abkürzungsverzeichnis
Abkürzung
Bedeutung
Erklärung
AJAX
?Asynchronous
JavaScript and
XML?
?Programmiersprache für die Webseitendarstellung?
ASP
?Active Server
Pages ?
?Programmiersprache für die serverseitige Implementierung von
Webseiten?
CMS
?Conten
?Ermöglich die gemeinsame Erstellung und Verwaltung von Text
Management System und Multimedia Inhalten?
?
CPU
?Central Processing
Unit ?
?Recheneinheit des Computer zur Verarbeitung Befehlen und zur
Ausführung von Programmen?
CSS
?Cascading Style
Sheets?
?Deklarative Stylesheet-Sprache für strukturierte Dokumente?
DNS
?Domain Name
System?
?Verteilte Datenbank, die den Namensraum im Internet verwaltet?
DOM
?Docment Object
Model?
?Programmierschnittstelle für den Zugriff auf HTML- und
XML-Dokumente?
DSL
?Digital Subscriber
Line?
?Internetübertragungsstandart auf Basis von Kupferleitung im
Telefonnetz mit einer Übertragunsrate von bis zu 500Mbit/s?
HTML
?HyperText Markup ?Seitenbeschreibungssprache nach W3C?
Language?
ISDN
?Integrated Services
Digital Network?
?Internationaler Standard für ein digitales
Telekommunikationsnetz?
PHP
?PHP: Hypertext
Preprocessor?
?Programmiersprache für die serverseitige Implementierung von
Webseiten?
PR
?PR: PageRank?
?PageRank?
SEO
?SEO: Search
Engine Optimizer?
?Suchmaschinen-Optimierung?
TLD
?Top Level
Domain?
?Höchste Ebene der Namensauflösung im Internet?
URL
?Uniform Resource
Locator?
?Identifizieren und lokalisieren eine Ressource?
W3C
?World Wide Web
Consortium?
?Gremium zur Standartisierung des World Wide Web?
WWW
?World Wide Web?
?Bezeichnung für das Internet?
XHTML
?Extensible
HyperText Markup
?W3C Standard für die Erweiterung von HTML?
2.1 Abkürzungsverzeichnis
4
OnPage_Optimierung_-_Wenn_der_Quellcode_die_Entscheidung_bringt
Language?
XML
? Extensible Markup ?Auszeichnungssprache zur Darstellung hierarchisch strukturierter
Language?
Datensätze?
2.2 Abbildungsverzeichnis
Abb.-Nr
Abbildung
Abb. 1:
Visualisierung des PageRanks
Abb. 2
Beispiel:PageRank-Berechnung
Abb. 3
Google-Symbolleiste mit PageRank
Abb. 4
Alexa-Symbolleiste
Abb. 5
Seitwert: FOM.de
Abb. 6
del.ico.us
Abb. 7
Mister Wong
Abb. 8
JavaScript Fehlermeldung durch fehlerhafte
Implementation einer externen Libary
Abb. 9
Untitled Document Ergebnisse in der
Suchmaschine Google
Abb. 10
Google Adwords: Keyword-Tool
Abb. 11
Funktionsweise Frames
2.3 Tabellenverzeichnis
Tabelle Nr
Bezeichnung
1
Zu erreichender PageRank
2
Der Top 5 der Besten aus 462155
WebSeiten laut Seitwert
3
Teilfaktoren
4
Ladezeitenüberprüfung der gesamten Seite
5
Verkaufpreise für Domains aller Top Level
Klassen
3 Einleitung
3 Einleitung
5
OnPage_Optimierung_-_Wenn_der_Quellcode_die_Entscheidung_bringt
3.1 Ziele
Der vorrangige Grund von Websiteoptimierung ist es, die Website im World Wide Web präsent zu machen und
die Benutzer oder gar zukünftigen Kunden auf das Angebot einer Internetpräsents zu aufmerksam zu machen.
Dabei ist es unerheblich, mit welcher Thematik sich das Angebot beschäftigt oder welche Artikel in einem Shop
angeboten werden, maßgebend ist es, die Zielgruppe zu kennen und den Käufer für seine Offerten zu
interessieren. Dabei spielt nicht nur der technische Hintergrund mit in die Optimierung ein, sondern auch
Marketing stellt einen wesentlichen Bestandteil der zielgruppenoptimierten Lösung dar.
Kennt man seinen Kunden, dann muss man als Verkäufer / Anbieter wissen, welche Interesse und Beweggründe
die Zielgruppe leitet und welche technischen und fachlichen Möglichkeiten zu Verfügung stehen. Es ist dabei
nicht zielführend, an der Kundengruppe vorbei die Usability zu optimieren, wenn der potenzielle Kunde durch
den Einsatz neuartiger Techniken verschreckt oder gar überfordert wird.
Vor der Optimierung eines Webangebotes muss eine detailliert Auswertung der bekannten Faktoren erfolgen, um
auf dieser Basis die Webpräsents in Richtung des Kunden zu entwickeln. ?Nicht der Kunde wird sich dem Web
anpassen, sondern das Web muss sich dem Kunden nähern.?
Strategische Maßnahmen können dabei sein: [1]
• Erscheinungsbild und Usability der Webseite
• Durchschnittliche Zugriffzahlen
♦ Herkunft
♦ Verweildauer
♦ Interessen (Themenbezug)
• Ranking der Website bei Suchmaschinen
• Konformität der eingesetzten Technik mit Standarts
• Ladezeiten
• Barrierefreiheit
Zielsetzung für eine erfolgreiche Umsetzung der strategischen Maßnahmen ist die Sichtbarkeit und die
Zufriedenheit des Kunden, dabei spielt die OnPage Optimierung auch in den Bereich der
Suchmaschinenoptimierung mit hinein. Eine technologisch aktuelle Präsents bedeutet nicht, dass diese auch von
den Crawlern bevorzugt besucht oder geratet wird. Der Indizierungsdienst soll sich in die Lage eines
Suchmaschinennutzers versetzen und die wesentlichen Informationen auswerten, um die Suchergebnisse den
Anforderungen entsprechend optimal zu positionieren und dem Kunden zu präsentieren.
Daher ist es unerheblich, ob die Seiten für Suchmaschinen optimiert wurden, sondern maßgebend ist, dass ein
Kunde mit Ihnen agieren kann, in diese Rolle versetzen sich auch Suchmaschinen und passen sich den
Anforderungen permanent an. Technische Details haben an dieser Stelle eine definierte Bedeutung und müssen in
Ihren Standard auch eingehalten und optimiert werden, doch ist nicht die Suchmaschine schlussendlich die
Personen, gleich ob natürlich oder juristisch, welche sich finanziell mit dem Betreiber arrangiert, sondern der
Kunde als natürliche Person.
3.2 Zeitraum
Die Optimierung einer Website besteht in der nachhaltigen Festigung und eines langsamen Ausbaus der
Sichtbarkeit in den Suchmaschinen. Es ist kurzfristig nicht zu erwarten, dass Top Keywords wie z.B. ?Sex?,
?Fussball? oder ?Handyvertrag? für eine neue, nahezu unbekannte Seite in den ersten Positionen anzeigen wird.
3.1 Ziele
6
OnPage_Optimierung_-_Wenn_der_Quellcode_die_Entscheidung_bringt
Wichtig für ein Webprojekt ist immer die nachhaltige Sicherung des errungenen Status durch aktive Pflege von
Inhalt und Links. Die Überflutung von Portalen, Foren und Linklisten in der Offpage Optimierung mag vielleicht
beim nächsten Pagerank Update gute Positionen erwirken, bringt aber nach der Feststellung von Link Spaming
und Duplicate Content weniger, wenn die Seite aus den Indexen gebannt wurde.
Eine Seite muss mit Leben gefüllt sein und sich stetig weiter entwickeln, die gewonnen Erkenntnisse in dem
Nutzerverhalten müssen für einen weiteren Ausbau auf diesem Gebiet genutzt und angewandt werden, dann
erkennen auch Suchmaschinen, welchen Nutzen die User haben und werden die Seite zu den betreffenden
Keywords besser listen.
Ein einfaches Beispiel soll das deutlich machen. Eine Seite verkauft Sportschuhe für verschiedene Sportarten und
möchte sich auf Laufschuhe und somit dem Suchbegriff ?Laufschuh? spezialisieren. Die Benutzer kommen aber
laut den benutzen Analysetool viel öfter über die Suchbegriffe ?Fussballschuh? und ?Basketballschuh? auf die
Seite und der Absatz ist in diesem Marktsegment auf der Seite wesentlich höher. Der Betreiber hat jetzt zwei
Alternativen, zum einen könnte er sein Webangebot und alle Texte und Suchbegriffe auf das Schlagwort
?Laufschuh? optimieren, dadurch würde der Umsatz für Besucher aller anderen Suchbegriffe stark einbrechen,
oder er findet sich mit dem Schicksal ab und nutzt die Bekanntheit seiner Seite für die gut ausgebauten und
gelisteten Suchbegriffe. Eine Erweiterung auf den Begriff ?Laufschuh? steht dem in nichts nach und kann
trotzdem versucht werden.
Die historisch gewachsenen und manchmal auch ungewollten Randerscheinungen können nicht immer kalkuliert
werden, haben aber oft den Nebeneffekt, dass Seiten auf Suchbegriffe optimiert wurden, die überhaupt nicht
bedacht worden sind. Langfristig muss sich für jede Webseite immer zeigen, mit welchen Begriffen die Benutzer
eine Seite assoziieren.
Je nach Schlagwort und dessen Verbreitung im Index können sich verschiedene Zeiträume für ein gutes Listening
ergeben. Bei untypischen oder sehr langen Wörtern mit wenig Konkurrenz im Index kann das Wort schon beim
nächsten Update der Suchmaschine an den obersten Positionen liegen. Derweilen sind Suchbegriffe mit großer
Verbreitung und guten Zugriffzahlen hart umkämpft und nur durch hohen finanziellen und individuellen Aufwand
zu erreichen. Zusätzlich bedarf es viel Zeit, bis der Vertrauensstatus eines Internetangebotes gegenüber der
Suchmaschine so stark gefestigt ist, dass die gewünschten Suchbegriffe auch dauerhaft auf den oberen
Platzierungen für die Seite angezeigt werden. Bisweilen kann es Jahre dauern und zusätzlich darf nicht vergessen
werden, dass die Konkurrenz auch sehr erpicht darauf ist, Ihre Platzierungen zu halten und ebenso energisch
daran ist.
4 Messbarkeit
4.1 Pagerank
4.1.1 Bedeutung
Im Zuge der Entwicklung des World Wide Web wurden verschiedene Methoden zur Bewertung von Webseiten
entwickelt. Eine davon ist der PageRank-Algorithmus. Der Name bezieht sich nicht auf "Page" im Sinne einer
Web-Page, sondern auf den Namen des Entwicklers Larry Page. Diese Methode nimmt eine objektive Bewertung
der Wichtigkeit von Websites vor. Der PR ist ein wichtiger und wesentlicher Faktor für den Erfolg der
Suchmaschine Google. PR ist ein Markenname von Google[2] .
4 Messbarkeit
7
OnPage_Optimierung_-_Wenn_der_Quellcode_die_Entscheidung_bringt
Abbildung 1: Visualisierung des PageRanks
Der PR ist ein Wert, der sich für jedes Webdokument anhand der darauf verweisenden Links errechnen lässt. Der
Algorithmus berechnet die Wahrscheinlichkeit, dass ein zufälliger Nutzer, der Zufalls-Surfer genannt wird,
zufällig eine Seite besucht. Die Wahrscheinlichkeit, dass der Zufalls-Surfer nun einen bestimmten Link verfolgt,
ergibt sich aus der Anzahl aller ausgehenden Links auf der Seite, auf der er sich befindet. So ist diese Anzahl in
der Berechnung des PR mit dabei.
In der Abbildung 1[3] erhält Webdokument A den höchsten PR, da es insgesamt vier Links von anderen
Webdokumenten erhält: hohe Gewichtung.
C erhält 2 Links: auch hohe Gewichtung.
E erhält 1 Link: geringe Gewichtung.
B, F und D erhalten keinen Link: geringe Gewichtung.
4.1.2 Berechnung
Der PR wird anhand einer relativ einfachen Mathematischen Formel errechnet[4]:
PR(A) = (1 − d) + d(PR(T1) / C(T1) + ....PR(Tn) / C(Tn))
Hierbei gilt:
PR(A)
A
d
PR(T1)
C(T1)
PR(TN)/C(Tn)
-
der PageRank des Web-Dokumentes A.
das Dokument für den der PageRank Wert ermittelt wird.
ein Dämpfungsfaktor zwischen 0 und 1 (gewöhnlich auf ~ 0,85 gesetzt).
der PageRank Wert des Dokuments T1, welches Dokument A verlinkt.
die Anzahl der ausgehenden Links auf Dokument T1.
bedeutet, dass der Verweiswert für jede Seite die auf A.
Das PR-Verfahren bewertet nicht Websites als Ganzes, sondern basiert auf der Beziehung einzelner Webseiten
zueinander. Der PR wird iterativ errechnet. Der PR der Seiten T1, die auf eine Seite A verlinken, fließt nicht
gleichmäßig in den PR von Seite A ein. Der PR einer der Seiten T wird anhand der Anzahl C(T) der von Seite T
ausgehenden Links gewichtet. Das bedeutet, dass je mehr ausgehende Links eine Seite T hat, umso weniger PR
gibt sie an Seite A weiter. Der anhand der Anzahl an ausgehenden Links gewichtete PR der Seiten T1 wird
addiert. Dies hat zur Folge, dass jeder zusätzliche eingehende Link für eine Seite A den PR dieser Seite A erhöht.
Schließlich wird die Summe der gewichteten PR der Seiten T1 mit dem Dämpfungsfaktor d, der üblicherweise auf
0,85 liegt, multipliziert[5].
4.1.1 Bedeutung
8
OnPage_Optimierung_-_Wenn_der_Quellcode_die_Entscheidung_bringt
Abbildung 2: Beispiel:PageRank-Berechnung
An Hand eines Beispiels (Abbildung 2) soll das Verfahren PR-Berechnung verdeutlich werden[6].:
PR(A) = (1 − d) + d(PR(T1) / C(T1) + PR(T2) / C(T2) + PR(T3) / C(T3))
PR(A) = 0,15 + 0,85 * (1 / 3 + 1 / 1 + 1 / 4)
PR(A) = 1,5
4.1.3 Einflussaktoren
Für die Berechnung des PR werden noch folgende potentielle Einflussfaktoren betrachtet:
• Die Stärke der Hervorhebung eines Verweises.
• Die Position eines Verweises innerhalb des Dokuments..
• Die Distanz zwischen Webseiten. Oben platzierte Links werden häufiger wahrgenommen als tiefer
liegende.
• Die Bedeutung eines verweisenden Dokuments.
• Die Aktualität eines verweisenden Dokuments. PR bevorzugt ältere Seiten stärker.
Welche dieser Faktoren tatsächlich in das PR-Verfahren miteinbezogen wurden, ist schwer zu beantworten. Die
Implementierung würde zunächst auf bessere Annäherung des Zufalls-Zurfer Modells an tatsächliches
Nutzerverhalten abzielen. Durch die Einbeziehung von Hervorhebung und Position eines Verweises wird
berücksichtigt, dass ein Benutzer nicht völlig unüberlegt einen Verweis anklickt, sondern unabhängig vom
Ankertext eher deutlich erkennbare und unmittelbar sichtbare Verweise verfolgt. Durch die anderen Faktoren
könnte Google eine weit größere Flexibilität in der Bestimmung der Bedeutung eines eingehenden Links für eine
Webseite erreichen[7].
4.1.4 Ranking
Abbildung 3: Google-Symbolleiste mit PageRank
Das Ranking nimmt für viele Webseitenbetreiber eine immer größere Rolle ein. Es ist wichtig, den aktuellen PR
der eigenen Webseite zu wissen, um auf eine Top-Positionen zu bleiben.
Die Google-Symbolleiste ist ein Browser-Plug-In für den Microsoft Internet Explorer und Firefox, welches
komfortabel Suchergebnisse bietet. Zu der angebotenen Funktionalität zählt die Darstellung des PR der aktuell
besuchten Webseite (Abbildung 3). Die Google-Symboleiste zeigt den PR einer Seite auf einer Skala von 0 bis 10
4.1.2 Berechnung
9
OnPage_Optimierung_-_Wenn_der_Quellcode_die_Entscheidung_bringt
an (höchster Wert ist 10), wobei 10 nur die absolute Elite wie Google.com bekommen. Einen Wert von 0 haben
die Seiten, die noch nicht im Index sind. Die meisten Seiten erhalten ein PR von 3-7.
Die Tabelle 1 zeigt wie viele eingehende Links mit dem entsprechendem PR benötigt werden, um einen
gewünschten PR zu erreichen.[8]
Pagerank der
eingehenden Links
Zu
2
erreichender
3
Pagerank
4
5
6
7
8
9
10
1
101
555
3055
16803
92414
0.5 million
2.8 million
2
18
101
555
3055
16803
92414
0.5
million
15 million
2.8
million
84 million 15 million
3
4
5
6
7
8
9
10
3
18
101
555
3055
16803
92414
1
3
18
101
555
3055
16803
1
1
3
18
101
555
3055
1
1
1
3
18
101
555
1
1
1
1
3
18
101
1
1
1
1
1
3
18
1
1
1
1
1
1
3
1
1
1
1
1
1
1
0.5
92414 16803 3055 555
million
2.8
0.5 92414 16803 3055
million million
101
18
3
555
100
18
Tabelle 1
4.1.5 Trusted Site
Für einen Webentwickler ist es sehr wichtig, nicht nur eingehende Links von einer Webseite mit hohem PR zu
bekommen, sondern auch einen hohen TrustRank zu besitzen. Der TrustRank-Algorithmus dient zur
Identifikation von vertrauensvollen Webseiten. Dieses Verfahren nutzt einen Bewertungsalgorithmus, um die
Qualität von Webseiten zu bewerten. Diesen könnte man als Weiterentwicklung des PageRank-Algorithmus
ansehen. Das Ziel ist Spamseiten zu bekämpfen und gute Seiten auf den oberen Positionen der Suchergebnisse zu
platzieren. Dabei kann leider, im Gegensatz zum PageRank, nicht völlig auf den menschlichen Eingriff verzichtet
werden. Diese Technologie wurde von zwei Stanford-Wissenschaftlern in Kooperation mit einem Yahoo
Mitarbeiter entwickelt und wurde von Google im Jahre 2005 patentiert[9].
Beim TrustRank-Algorithmus wird ein Pool an potenziell vertrauenswürdigen Seiten erstellt. Diese Seiten werden
von Experten geprüft und erhalten eine Vertrauensmarke, mit der sie als vertrauenswürdige Seite eingestuft
werden. Ist eine Seite vertrauenswürdig, erhält sie den Wert 1, handelt es sich um eine Spamseite, erhält sie den
Wert 0. Eine unterbewertete Seite erhält den Wert 0,5.
Demzufolge gilt:
• Webseiten, die zu einer Spamseite verlinken, gelten auch als nicht vertrauenswürdig.
• Webseiten, die zu einer vertrauenswürdigen Seite verlinken, gelten als vertrauenswürdig.
4.1.4 Ranking
10
OnPage_Optimierung_-_Wenn_der_Quellcode_die_Entscheidung_bringt
4.2 Alexa Traffic Rank
4.2.1 Bedeutung
Alexa Traffic-Rank ist ein Alexa.com Service, der Daten über Webseitenzugriffe der Web-Benutzer sammelt und
diese als Statistiken darstellt. Alexa wurde von Brewster Kahle gegründet und 1999 von amazon.com aufgekauft.
Somit ist Alexa ein Tochterunternehmen von amazon.com.
Inzwischen hat der Alexa Rank eine hohe Bedeutung erreicht und spielt eine große Rolle für den Erfolg einer
Webseite. Webmaster und CEO`s nutzen diesen Dienst mehr und mehr, um eine grobe Vorstellung über den
Traffic einer Webseite zu erhalten. Auf diese Weise hat sich Alexa Rank neben Google PR zu einem weiteren
Indikator entwickelt.
4.2.2 Berechnung
Mit dem Alexa Traffic Rank werden die festgestellten Besucherzahlen ausgewertet und die meistbesuchten
100.000 Domains ermittelt. Alexa sammelt Daten über Webseitenzugriffe durch Web-Benutzer. Die Alexa
Software wertet die Qualität, den Datenverkehr und die Links einer bestimmten Webseite. Alexa Rank bewertet
die Webseiten:
a) über den direkten Zugriff,
b) oder über Zugriff über ähnliche Seiten.
Abbildung 4: Alexa-Symbolleiste
Der Traffic Rank basiert auf den Daten aller Benutzer der Alexa Symbolleiste. Die Daten werden über 3 Monate
gesammelt und später ausgewertet. Die Alexa Symbolleiste ist ein Browser-Plugin für die Internet Explorer und
Firefox Nutzer. Sie bietet neben einer Suchleiste für die Alexa Suchmaschine auch detaillierte
Seiteninformationen aus dem Alexa Rank für die gewählte Webseite.
Abbildung 4 stellt die Alexa-Symbolleiste in einem Browser dar.
4.3 Seitwert
4.3.1 Anwendung
Seitwert ist eine Webplattform für eine unabhängige Webseitenbewertung von deutschsprachigen Webseiten.
Diese Webplattform analysiert und bewertet Webseiten zur objektiven Bewertung der Popularität von
Webangeboten und ermöglicht es jedem Webseitenbetreiber, die Bewertung seiner Website anhand verschiedener
Kriterien einzusehen.
4.2 Alexa Traffic Rank
11
OnPage_Optimierung_-_Wenn_der_Quellcode_die_Entscheidung_bringt
Seitwert misst dabei verschiedene Kriterien: Gewichtung bei den Suchmaschinen von Google und Yahoo,
Zugriffszahlen nach Alexa, Social Bookmarks und Website-Charakteristika wie Anzahl der Meta-Tags oder
Wikipedia-Referenzierung. Diese Kriterien werden zu einem gemeinsamen Index zusammengeführt und
vorgestellt. Das Seitwert-Ranking stellt eine Momentaufnahme dar.
Tabelle 2: Der Top 5 der Besten aus 462155 WebSeiten sind laut Seitwert:
(Stand vom 08.01.2010).
Platz
1.
2.
3.
4.
5.
Tabelle 2
Domainname
heise.de
xing.com
amazon.de
spiegel.de
google.com/ig
Seitwert
85,12
80,94
76,19
74,18
73,47
Seitwert führt Special-Rankings für bestimmte WebSeiten-Kategorien z.B. für:
• Fußball-Bundesliga,
• Buchverlage,
• oder Zeitungswebseiten.
4.3.2 Kriterien
Abbildung 5:Seitwert: FOM.de [10]
Der Seitwert setzt sich aus sechs verschiedenen Kriterien zusammen und ergibt als Ergebnis eine Zahl zwischen
0.00 und 100,00.
Die Kriterien sind[11]:
• `Gewichtung bei Google:
4.3.1 Anwendung
12
OnPage_Optimierung_-_Wenn_der_Quellcode_die_Entscheidung_bringt
Hier werden Google-spezifische Faktoren, wie der Google PageRank und die Platzierung in den Suchergebnissen
berücksichtigt.
• Externe Wertungen:
Die über den Dienst Alexa ermittelten Zugriffszahlen einer Domain werden hier verwendet.
• Social Bookmarks:
Die Anzahl der Bookmarks bei del.icio.us, Mister Wong und Linkarena wird mit einbezogen.
• Technische Details:
Der Quellcode und einige andere seiteninterne Faktoren werden analysiert und bewertet.
• Gewichtung bei Yahoo:
Analog zu den Google-Faktoren werden hier Rückschlüsse aus den Yahoo-Suchergebnissen gezogen.
• Sonstige Faktoren:
Zusätzliche Dinge, wie das Domainalter oder die Einträge in Wikipedia werden hier berücksichtigt.
4.3.3 Seiten-Optimierung
Webplatform Seitwert.de ermöglicht die Analyse und Bewertung der WebSeiten. Anhand der Bewertungen, die
aus sechs verschiedene Kriterien zusammengesetzt werden, wird dem Webseiteninhaber gezeigt, wo
Optimierungsbedarf für die Webseite noch vorhanden ist. Im Großen und Ganzen ist Seitwert sehr hilfreich für
alle Webentwickler, die Wert auf Rankingwerte und Wiederfindung der Webseite in Yahoo und Google legen.
Wenn man alle Seitwert-Kriterien erfühlt, werden die Besucherzahlen der Webseite steigen. Die Eintragung in
den Social Bookmark-Dienst und Wikipedia sorgen für mehr Besucher auf der Webseite und auch höheres PK.
4.4 Social Bookmarks
4.4.1 Community
Social Bookmarks gehören in den Bereich Social-Media, zu dem z.B. auch Wikipedia, Sociale Tagging,
Auskunftsportale, Bewertungsportale, Soziale Netzwerke, Weblogs und Social Networks gehören. Mit Social
Bookmarks bezeichnet man Dienste, bei denen sich Nutzer anmelden und Ihre Bookmarks (Lesezeichnen oder
Favoriten) online platzieren können. Für den einzelnen Nutzer bringt eine solcher Dienst den Vorteil, dass er nicht
mehr an die Bookmarks-Sammlung seines lokalen Browser gebunden ist und von überall Zugriff hat. Bei Social
Bookmark-Diensten benötigt man einfach nur einen Internetzugang und kann von jedem beliebigen PC,
Notebook, Handy auf seine Seiten zugreifen. Bookmarks-Dienste werden inzwischen von vielen mit wachsender
Beliebtheit genutzt. Hier werden Internetpräsenzen nicht von den Computeralgorithmen bewertet, sondern durch
die inhaltlichen Tags der menschlichen Konsumenten. Die meisten Social Bookmark-Dienste bieten an, die
gesammelte Links zu den vorgeschlagenen Worten der Community zur Verfügung zu stellen. So können viele
andere Nutzer leichter Hinweise auf interessante Webseiten zu ähnlichen Themen finden. Manche Experten sehen
4.3.2 Kriterien
13
OnPage_Optimierung_-_Wenn_der_Quellcode_die_Entscheidung_bringt
in den Bookmarks-Diensten eine zukünftige ernsthafte Konkurrenz zu den klassischen Suchmaschinen[12].
4.4.2 Möglichkeiten
Abbildung 6: del.ico.us[13]
Abbildung 7: Mister Wong[14]
Die bekanntesten Beispiele der Bookmark-Dienste sind im englischsprachigen Raum zu finden: del.ico.us und
digg.com. In Deutschland gibt es auch deutschsprachige Dienste wie:
• Mister Wong,
• Linkarena,
• Oneview und anderen.
Mister Wong ist der bekannteste und größte deutsche Bookmark Dienst. Die Seite startete 2006 und hat
inzwischen über 8 Millionen Lesezeichen.
Del.icio.us wurde 2003 gestartet und ist mit Abstand der größte Bookmark Dienst der Welt. Der Dienst gilt als
eine der Ersten der Social-Bookmarking-Anwendungen und ist bis heute einer der meist genutzten in diesem
Bereich.
Die Social Bookmarks Nutzer können eigene Lesezeichen:
• Online verwalten,
• hinzufügen und löschen,
• kommentieren und bewerten,
• kategorisieren oder mit Schlagwörtern versehen,
• Tags vorschlagen,
• Nutzer-Gruppen erstellen und abonnieren,
• Tag-Werkzeuge nutzen,
• Vorschaubilder für jeden Verweis ansehen,
• eine Buddyliste erstellen ? ein Netzwerk mit anderen Nutzern,
• Kontakt mit anderen Nutzern durch ein internes Mailsystem aufnehmen,
• ein Benutzerprofil mit weiteren Kontaktinformationen erstellen,
• ein öffentliches Profil eingeben,
• Ergebnisse nach Aktualität und Beliebtheit sortieren.
Eine Linksammlung hat häufig viel größere Relevanz als die Ergebnislisten klassischer Suchmaschinen. Bei
Google erscheinen neue Seiten ziemlich weit hinten oder stehen gar nicht im Index, selbst wenn sie relativ häufig
besucht sind. Neue, potenziel gewichtige Seiten werden schneller gelistet als in klassischen Suchmaschinen.
4.4.1 Community
14
OnPage_Optimierung_-_Wenn_der_Quellcode_die_Entscheidung_bringt
4.4.3 Seiten-Optimierung
Für die Offpage-Optimierung können Social Bookmarks interessant sein:
• Sie eignen sich hervorragend zur Generierung von eingehenden Links.
• Höhere Vernetzung für Webseiten.
• Social Bookmarking mehr Popularität verhelfen und damit die Besucherzahlen steigern.
Das Verlinken verschiedener Social Bookmarking-Dienste auf der eigenen Webseite bietet Besuchern die
Möglichkeit, diese Webseite mit wenigen Klicks bei ihrem bevorzugten Social Bookmark-Dienst als Lesezeichen
anzulegen, und erhöht damit die Wahrscheinlichkeit, dass die eigene Webseite verlinkt wird.
5 Quellcode
5.1 Sprachen
5.1.1 HTML
Die Anfang der 90er Jahre entwickelte Hypertext Markup Language macht die visuelle und multimediale
Darstellung auf einem Client (Browser) erst möglich, dabei werden die Tags von jedem Browser nach einem
vorgeschribenen Verfahren interpretiert. Durch die Interpretation der einzelnen Attribute durch unterschiedliche
Interpretationsverhalten kann die Darstellung je nach verwendetem Browser unterschiedlichen Verhalten
unterliegen[15]. Die Konformität einer HTML Syntax wird dabei von einem Konsortium der W3 festgelegt und
stetig in verschiedenen Versionen erweitert. Die aktuelle Version liegt bei 4.01, eine Erweiterung auf HTML 5.0
ist in der Erarbeitung soll innerhalb der nächsten Zeit folgen. Ein Working Draft ist seit April 2009 verfügbar und
wird stetig durch die W3 erweitert. Die aktuellste Version steht seit August 2009 zur Verfügung und lässt auf ein
kurzfristiges Erscheinen der neuen HTML Version mit der direkten Integration von XHTML
erwarten[16].Zeitweilig wurde auch XHTML als Ersatz für HTML auf Basis von XML Attributen angedacht,
konnte sich aber in der Masse nicht durchsetzen[17].
Die Struktur unterteilt sich innerhalb des Plain Text Dokumentes in HEAD für die Darstellung für Suchmaschinen
und Browser und den BODY, welcher die eigentlichen Nutzinformationen für den Webseitenbesucher enthält.
5.1.2 CSS
Entwickelt 1994 von Håkon Wium Lie auf Basis seiner Doktorarbeit, gehörte das Cascading Style Sheets zu einer
von vielen für die Optimierung der Webdarstellung entwickelten deklarativen Sprache zur Beschreibung von
Seiten. Der entscheidende Vorteil, weshalb sich CSS gegenüber anderen Sprachen durchgesetzt hat ist, dass
kaskadierende Elemente sich gegenseitig hicharchisch überschreiben können und regelbasierte Einstellungen sich
über mehrere Stylesheets und Integrationsmöglichkeiten hinweg erstrecken. Seit der ersten Entwicklung für den
Browser Argo sind hat sich CSS in zwei Versionen weiterentwickelt und kann mittlerweile nicht nur Webseiten
sondern auch für Medienausgaben auf Druckern, TV Geräten oder in Blindenschrift verwendet werden.
Im Hauptsächlichen dient die Beschreibungssprache der Verschlankung von Designelemente in einer Website,
mit Hilfe von Klassen können dabei die Vererbungen zwischen den Ebenen definiert und Klassifiziert werden[18].
5 Quellcode
15
OnPage_Optimierung_-_Wenn_der_Quellcode_die_Entscheidung_bringt
Dabei interpretiert nicht jeder Browser alle CSS Eigenschaften gleich oder kennt diese auch, sondern neuartigere
Spezifika oder Eigenkreationen der jeweiligen Hersteller werden nicht als Standart auf allen Plattform gleich oder
überhaupt dargestellt[19]. Die einfachste und für den Einsatz von CSS effektivste Möglichkeit ist die Nutzung zum
Aufbau rekursiver Navigationslisten über XHTML oder Listenelementen, deren Vererbung über Ebenestufen
hinweg zur Übersichtlichkeit überschrieben oder erweitert werden muss [20].
5.1.3 Java Script
Abbildung 8: JavaScript Fehlermeldung durch fehlerhafte Implementation einer externen Libary.
Die Implementierung von JavaScript bringt die Optimierung einer Webseite in Bezug auf ein gutes Rating für
Suchmaschinen schnelle an die Grenzen ihrer Umsetzbarkeit. JavaScript ist nicht gleich Java, die als
Programmiersprache von SunMicrossystems vertrieben wird. Zwar besteht eine sytaktive Ähnlichkeit und auch
sind viele Befehle identisch oder lassen eine Verwandheit aufgrund ihrer Verwendung und Ausgabe erahnen,
doch beruht die Namensgleichheit auf einer Marketingmaßnahme von Netscape und Sun, welche ursprünglich
den Namen LiveScript für das Produkt verwenden wollten[21].
Die in der Webseite eingebetteten JavaScript Codefragmente werden auf dem Client ausgeführt und nutzen
dessen JavaScript-Interpreters mit dem von einem Webbrowser definierten Docment Object Model (DOM), daher
ist es für Webentwickler auf reletiv schwierig, alle Eventualitäten für den Plattformunabhängigen Betrieb zu
beachten, weil alle Versionen und mögliche Browsertypen vor der auslieferung einer neuen Version getestet
werden müssen. Zudem kann JavaScript aus Sicherheitsgründen auf einem Cleint auch deaktivert sein[22].
Suchmaschinen besitzen in ihren Crawler Engines meist kein JavaScript Model bzw. nur eine rudimentäre
Implementierung, da Webseiten standartisiert im HTML dargestellt werden, sollte bei einer Optimierung der Seite
auf JavaScript zur Darstellung von Inhalten verzichtet werden. Der optimalste Einsatzbereich liegt in der Nutzung
zur clientseitigen Validierung von Benutzereingaben und zur Ausgabe von Informations- und Fehlerkontexten auf
der Internetseite. Zudem muss der Code vor Laufzeitfehlern geschützt werden, um Java eigene Fehler zu
unterbinden und trotzdem den regulären Betrieb der Seite zu gewährleisten.
5.1.4 sprachliche Grenzen
Nach der Verwendung von HTML als statische Interpretersprache für Internetseiten haben sich auch weitere
Programmier- und Designsprachen im Internet durchgesetzt. Insbesondere die Thematik Flash des namhaften
Herstellers Adobe besitzt für die Visualisierung von Internetauftritten eine enorme Bedeutung. Gerade aus dem
Hintergrund heraus, dass mit Hilfe von Flash Seiten wie eigenständige Anwendungen betrieben werden können,
sowie multimediale Inhalte eine wesentlich effektiver Darstellung erfahren, machen sie gerade in der Verbreitung
des Web 2.0 interessant. Für die Anzeige einer Flashseite ist aber immer ein Flashplayer auf dem Client
erforderlich und nicht jeder Webseitenbesucher besitzt auch diesen in der neusten Version. Zwar sind in den
Playern schon automatische Updateroutinen implementiert, diese benötigen aber immer die Zustimmung des
Nutzers.
5.1.2 CSS
16
OnPage_Optimierung_-_Wenn_der_Quellcode_die_Entscheidung_bringt
Adobe Flash ist nicht erst seit kurzem auf dem Markt, sondern existiert schon seit 1997, damals noch von der
Firma Micromedia vertrieben, diese wurde 2005 von Adobe aufgekauft und Flash als zusätzliches Produkt ins
Portfolio integriert. Heut noch werden Flashauftritte meist stiefmütterlich behandelt und in Bezug auf den Einsatz
von Flash eher abgeraten, um ein gutes Ranking in den Suchmaschinen nicht zu verhindern. Mittlerweile
existieren schon einige Suchmaschinen, welche in der Lage sind, reine Flashauftritte zu indizieren und sie mit
vergleichbaren HTML Seiten zu raten. Einer der ersten Betreiber mit einer Flashengine war die norwegische
Suchmaschine-Hersteller FAST, welcher in der Implementierung Alltheweb erfolgreich auf Flashpräsentzen
zugreifen konnte. Auch Google ist inzwische in der Lage, Flashseiten zu indizieren und den Inhalt, sowie
enthaltene Links zu analysieren. Trotzdem weißt Google darauf hin, dass der Crawler bei der Verarbeitung und
genauen Darstellung Schwierigkeiten haben kann und ein Ergebnis möglicherweise verfälscht ist[23].
Zusätzlich zu Flash hat auch AJAX in den Bereich der Internetseiten mit interaktiven Inhalten Einzug gehalten,
dabei basiert AJAX auf einer Kombination von serverseitigen Scripten (z.B. Ruby, ASP oder PHP) und einer
clientseitigen Implementierung (z.B. JavaScript). AJAX bedeutet in diesem Zusammenhang "Asynchronous
JavaScript and XML" und bewirkt, dass Seiteninhalte erst bei einem aktiven Eingriff des Clients / Nutzer vom
Server nachgeladen werden, dabei besteht der Vorteil im schnellen Aufbau der Seiten mit geringen
Informationen, sofern der User weitere Informationen auf der Seite benötigt, kann AJAX diese beim Server
anfragen und nachladen. Für Suchmaschinen ergibt sich aber nur eine verringerte Informationsdarstellung, da
diese nicht mit der Seite interagieren werden, wie es ein realer Benutzer tun würde. Aus diesem Grund müssen
suchmaschinenrelevante Informationen bereits bei der ersten Ausführung geladen werden. Zudem besitzt AJAX
einige Probleme in der Usability, sofern die Latenzen zwischen Client und Server zu hoch sind, werden Aufrufe
abgebrochen und dem Benutzer als Fehler angezeigt. Weiterhin sind asynchrone Events wesentlich
problematischer in einer Anwendung zu implentieren und werden nicht von jedem Webserver unterstützt, dadurch
muss der Client permanent an den Server pollen, obwohl ggf. keine Anfrage vorliegt.
5.2 Optimierungspotenziale
5.2.1 Head
<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN" "http://www.w3.org/TR/html4/loose.dtd"
<head>
<meta http-equiv="Content-Type" content="text/html; charset=UTF-8">
<title>Seiten-Titel</title>
<meta name="..." content="...">
<link rel="stylesheet" href="style.css" type="text/css">
<link rel="shortcut icon" href="favicon.ico">
</head>
5.2.1.1 Titel
5.1.4 sprachliche Grenzen
17
OnPage_Optimierung_-_Wenn_der_Quellcode_die_Entscheidung_bringt
Abbildung 9: Untitled Document Ergebnisse in der Suchmaschine Google
Innerhalb des Titels einer HTML Dokumentes wird die erste grobe Beschreibung einer jeden Seiten angegeben,
ein fataler Fehler wäre es an dieser Stelle jeder Seite den gleichen oder gar einen aussagelosen Titel zu vergeben.
In den Anfängen der Webseitenprogrammierung haben viele Websitebetreiber ihre Internetseiten mit Designern
wie Frontpage oder gar Word erstellt, ist bei der Bearbeitung der Templates nicht auf die zusätzlichen
Einstellungen geachtet worden, wurde jedes Dokument mit dem Titel ?Untitled Document? abgespeichert.
Neben der Usability für den Suchmaschinennutzer, kann auch die gezielte Verschlagwortung mit den im Inhalt
vorkommenden Keywords für ein besseres Ranking auf den Suchmaschinenseiten sorgen. Ein kurzer
aussagekräftiger Satz oder sinnvolle Wortkombinationen von 5-8 Wörtern sind optimale Richtwerte für den Titel
einer Seite. Zusätzlich sollte für jede Seite einer Web-Präsents ein eigener Titel mit jeweils angepasstem
thematischem Bezug auf den Content eingesetzt werden. Gerade bei der Optimierung auf Schlagworte muss die
Nutzerfreundlichkeit im Vordergrund stehen und nicht als reine Keywordansammlung genutzt werden. Die
Suchmaschinen messen diesem Tag enorme Bedeutung zu, den kein anderes Item ist in der Lage, innerhalb von
maximal 80 Zeichen eine Seite so genau wie möglich zu beschreiben. Daher muss der SEO qualifiziert und
umsichtig einen hohen Nutzwert für die physischen Nutzer erzeugen.
5.2.1.2 Meta
Über die im Head befindlichen Meta-Tags können technischen Besuchern einer Website zusätzliche
Informationen über die dargestellten Inhalte mitgeteilt, welche später von der Suchmaschine verarbeitet und den
physischen Benutzern als Zusammenfassung in den Suchergebnissen mitgeteilt werden. Das Feld Meta kann für
verschiedene Informationen genutzt werden, neben der Sprache ist ebenfalls ein Beschreibung, sowie eine
detaillierte Aufschlüsselung von Autor, Änderungsdatum und Zielgruppe möglich. Jede Information erhält dafür
einen separaten Meta-Tag. Nicht immer sind diese Informationen hilfreich, bei Überbeanspruchung oder
fehlerhaften Eingaben können Suchmaschinen solche Informationen auch abstrafen oder die Seiten sogar aus dem
Index bannen.
In den Anfängen der Suchmaschinen wurden Meta-Tags und Content ausschließlich für die
Suchergebnisverarbeitung verwendet, dadurch konnte mit Keyword-Stuffing der Suchmaschine ein anderer
Eindruck der Website, was den inhaltlichen Charakter angeht, gegeben werden, als dies in Wirklichkeit
vorzufinden war. Mittlerweile werden Meta-Informationen genauestens gegen den Inhalt der Website geprüft,
diese müssen inhaltlich identisch mit den Body Informationen übereinstimmen.
Die wichtigsten Informationen, welche mit Meta Tags übergeben werden sollten sind:
Keywords
<meta name="keywords" content="onpage, optimierung, suchmaschine, html, quellcode" />
Maximale Länge: 255 Zeichen
Verwendet als Verschlagwortung der Seite.
Beschreibung:
<meta name="description" content="OnPage Optimierung ist die Bereinigung von
Fehlern und die optimierte Nutzung von HTML" />
5.2.1.1 Titel
18
OnPage_Optimierung_-_Wenn_der_Quellcode_die_Entscheidung_bringt
Maximale Länge: 180 Zeichen
Verwendet als Vorschautext in den Suchergebnissen.
Seitentitel:
<meta name="title" content="OnPage Optimierung" />
Maximale Länge: ca. 80 - 120 Zeichen Verwendet als Seitenüberschrift (alternative zum Seitentitel) in
Suchergebnissen
Weitere Meta-Tags können den Inhalt zusätzlich ergänzen, werden aber von einigen Crawler nicht oder nur
untergeordnet betrachtet. Diese optionalen Tags ergänzen und unterstreichen zusätzlich die Inhalte auf der
Webseite oder unterstützen die Reputation des Autors.
Thema:
<meta name="page-topic" content="Suchmaschinen" />
Maximale Länge: 1-2 Wörter
Es ist darauf zu achten, dass eine bekannte Thematik verwendet wird, die im allgemeinen Wortgebrauch auch
genutzt wird. Dieser zusätzliche Meta-Tag kann in der Verwendung von Verzeichnisdiensten genutzt werden, die
eine grobe Klassifizierung der Seite über das Page-Topic vornehmen können.
Autor:
<meta name="author" content="Max Mustermann" />
Maximale Länge: 255 Zeichen
Möchte der Autor des Inhaltes unbedingt seine Namensnennung oder die Referenzierung seines Namens auf den
Inhalt bekunden, kann er diesen im Meta-Tag mit erwähnen, sodass eine Suchmaschine bei der Anfrage seines
Namens, auch Suchergebnisse mit diesem deklarierten Tag mit ausgibt.
Herausgeber:
<meta name="publisher" content="Muster Firma GmbH" />
Maximale Länge: 255 Zeichen
Dieser Tag ist gleichbedeutend mit dem Autor, bezieht sich aber nicht auf die natürliche, sondern die juristische
Person der Veröffentlichung. Bei Einzelpersonen kann der Inhalt aber identisch sein.
5.2.1.2 Meta
19
OnPage_Optimierung_-_Wenn_der_Quellcode_die_Entscheidung_bringt
Copyright:
<meta name="copyright" content="Muster Firma GmbH" />
Maximale Länge: 255 Zeichen
Der urheberrechtliche Gegenstand kann, sofern dieser nicht im Impressum explizit für die Inhalte definiert wurde,
auch im Meta Bereich zusätzlich oder eigenständig angegeben werden. In den meisten Fällen ist dieser aber mit
dem Herausgeber und / oder dem Autor identisch.
Robots:
<meta name="robots" content="index, follow" />
Maximale Länge: 1 - 2 Wörter
Alle seriösen Crawler achten auf die zusätzlichen Robot Tags, welche ihnen Hinweise geben, ob der Inhalt
indiziert werden soll (index / noindex) und allen Links auf der Seite auch gefolgt werden darf (follow / nofollow).
Wird dies in Bezug auf Dublicate Content oder anderen ergebnisschädigenden Inhalten genutzt, dann kann dieser
Tag auf einzelne Seiten angewendet, eine Abwertung verhindern.
Revisit:
<meta name="revisit-after" content="2 days" />
Maximale Länge: Zeitangabe
Der revisit gibt einer Suchmaschine an, wann es sich für den Crawler lohnen könnte, diese Seite erneut zu
besuchen, um weiteren Inhalt aufzunehmen. In der Regel handeln die Crawler autark, sofern ihnen nichts anderes
mitgeteilt wird. Ist eine Seite permanenten Änderungen unterzogen, dann lohnt es sich, den Interval relativ kurz
zu wählen. Ist eine Seite als statisch zu betrachten, kann der Tag außer acht werden. Sofern der Intervall zu kurz
gewählt wurde und der Inhalt sich nicht permanent ändert, kann der Crawler auch eine Abwertung der Seite als
Suchergebnis vornehmen, da keine nennenswerten Änderungen erfolgt sind.
Meta-Tags und Bezeichnerinformationen haben keinen Anspruch auf Vollständigkeit. Quelle: Meta-Bezeicher[24]
5.2.1.3 Link
Die Verwendung von link im Header einer Webseite bezeichnet zumeist das Einbinden externen Inhalten, wie
z.B. CSS in eine Seite. Dabei verknüpft der Befehl den Inhalt der aufgerufenen Seite direkt in den Kontent der
anzuzeigenden Seite. Dem Link selbst wird wenig Potenzial zugemutet, trotzdem spielt die Richtigkeit und
konventionskonformen Integration in die Seite mit in die Bewertung der HTML Syntax mit hinein.
<LINK REL=StyleSheet HREF="style.css" TYPE="text/css" MEDIA=screen />
Zudem können die Linkage für die Darstellung unterschiedlicher Designs einer Webseite genutzt werden.
5.2.1.3 Link
20
OnPage_Optimierung_-_Wenn_der_Quellcode_die_Entscheidung_bringt
5.2.2 Body
Für den Besucher einer Internetpräsents sind alle relevaten Informationen ausschließlich innerhalb des Body Tags
definiert, nur dieser Inhalt wird effektiv in dem jeweiligen Browser sichtbar dargestellt.
5.2.2.1 Überschriften
Das Tagging von Überschriften nicht nur mit CSS, sondern auch mit den in HTML unterstützen Tags bietet neben
den Suchmaschinen auch Randgruppen bei der Internetnutzung bessere Orientierung bei der Navigation auf einer
Internetseite. Auf die Tags stützend arbeiten Audio-Visualisierungs Programme für sehbehinderte Menschen eine
Internetseite anhand der Überschriften ab und geben den Benutzer einen groben Überblick über den Inhalt. In
Hinblick auf barrierefreie Interseiten sind alle Tags von H1 bis H6 zwingend erforderlich, um dem körperlich
beeinträchtigten Benutzer die Wiedergabe einer Seite überhaupt möglich zu machen.
Für Suchmaschinen bieten die Überschriften eine mögliche Einordnung des Inhalts in ein Genre, zusätzlich
vergleicht die Engine die verwendeten Keyword, mit dem Titel, dem Inhalt und natürlich mit den Überschriften.
Abhängig von der Gewichtung der Überschrift in HTML, wobei Eins
<h1></h1>
die höchste und Sechs
<h6></h6>
die kleinste Gewichtung besitzt, werden diese Wörter auch bei der Indizierung und den daraus möglicherweise
folgenden Suchmaschinenranking berücksichtigt.
Natürlich ist es möglich, seine Überschrift auch durch Designanpassungen über das CSS gleichartig darzustellen,
der SEO würde dadurch aber ein mächtiges Werkzeug für die Keywordzuordnung verlieren.
Beispiel:
<h1>Fundament</h1>
Einleitung
<h2>Stahl</h2>
Erklärung
<h3>V2A-Stahl</h3>
Inhalt
<h3>V4A-Stahl</h3>
Inhalt
<h2>Beton</h2>
Erklärung
<h3>Trockenfundament</h3>
Inhalt
<h3>Naßfundament</h3>
Inhalt
5.2.2.2 Bilder
Jede Website, gleich ob kommerziell oder privat, sollte der Inhalt mit Bilder aufwerten, dies macht den Text der
Website zusätzlich interessant und untermauert die Aussagen, zusätzlich bietet es dem menschlichen Auge
5.2.2 Body
21
OnPage_Optimierung_-_Wenn_der_Quellcode_die_Entscheidung_bringt
Abwechslung bei der Betrachtung und dies verhindert eine schnellere Übermüdung. Aber nicht nur das
menschliche Auge interessiert sich für Bilder, sondern auch Suchmaschinen haben sich auf diesen zusätzlichen
Inhalt spezialisiert.
Ein Bild wird auf einer Website mit dem Tag <img /> dargestellt, hinzu kommen weitere Parameter, welche den
Pfad des Bilder, Darstellungsstyle, Größe und Meta-Informationen enthalten. Gerade hier können einer
Suchmaschine wesentlich mehr Informationen übergeben werden, als es den Besuchern der Website zu zumuten
wäre. Laut W3C-Standart muss jedes Bild zusätzlich mit einen alt (Alternativ) Tag deklariert werden, dieser
übernimmt die Bilddarstellung in Textform, wenn das Image aufgrund technischer Probleme nicht geladen
werden kann. Außerdem kann dem Bild ein title-Tag mitgegeben werden, welcher beim positionieren des
Mauszeigers auf das Bild sichtbar wird. Die Suchmaschinen indizieren diese Tags und verarbeiten die
Informationen gezielt für die Bildersuchen.
Schlechte Taggestaltung:
<img src=?http://www.fremde-website.de/abc...xyz/34523.jpg? />
Das Bild würde bei einem Aufruf im HTML zwar dargestellt werden, jedoch ist diese Verwendung nicht W3C
konform oder für eine optimierte Suchmaschinenindizierung geeignet.
Gute Taggestalltung:
<img src="/img/kraftwerke/atomkraftwerk_kruemmel.jpg"
alt="Atomkraftwerk Kr&uumlmmel aus der Luftaufnahme"
title="Das Kraftwerk Kr&uumlmmel versorgt neben 2 weiteren Atomkraftwerken die Hansestadt Hamburg mit
class="img-style" />
Das eingebundene Bild verweist über den Root-Pfad (/) und einem sprechenden Pfadnamen auf das Bild. Der
alt-Tag sorgt für eine textliche Darstellung, sofern das Bild nicht geladen werden kann. Zu beachten ist, dass alle
Umlaute immer HTML konform dargestellt werden sollten. Ebenso beschreibt eine Titelangabe das Bild mit
weiteren Erläuterungen. Das Attribute class kann im CSS später für eine Designanpassung genutzt werden.
Neben den rein technischen Mitteln zur Indizierungsoptimierung kommen auch noch fachliche Finessen hinzu.
Ein Bild sollte immer einen sprechenden Dateinamen besitzen, dieser kann aus mehreren Wörtern bestehen, die
einzelnen Wörter sollten aber durch einen Unterstrich getrennt sein. Ebenso wichtig ist es, dass der Pfad eines
Bildes weder zu lang (Siehe URL), noch auf einen anderen Server verweist. Der Hintergrund ist, dass
Suchmaschinen wissen sollten, dass die indizierten Bilder dem Websitebetreiber gehören oder zumindest einen
Quellenverweis besitzt. Gerade das Thema Traffic-Diebstahl wird durch die Suchmaschinen seit kurzem ebenfalls
berücksichtigt. Kaum ein Websitebetreiber müsste sonst Inhalt von fremden Websites einbinden wenn er für den
Inhalt eine ausdrückliche Genehmigung besitzt.
5.2.2.3 Links
Mit dem Tag <a> wird im HTML ein Link auf eine interne oder externe Webseite definiert, zusätzlich können
einem Link weitere suchmaschinenrelevante Informationen übergebenen werden. Dies ist vor allem in der
Offpage-Optimierung von Bedeutung, besitzt aber auch Relevants im internen Linkbuilding, um den
Suchmaschinen alle Seiten, auch diejenigen, welche tief in der Präsents versteckt sind, zu offerieren.
Ein nutzbarer Link, gleich ob dieser für die Onpage- oder Offpage-Optimierung genutzt wird, sollte neben dem
Verweis auf die Seite, ebenfalls ein Titel und einen aussagekräftigen Namen besitzen, welcher in einem kausalen
Zusammenhang mit dem Inhalt auf die verweisende Seite steht. Ebenfalls relevant ist immer die URL auf die
5.2.2.2 Bilder
22
OnPage_Optimierung_-_Wenn_der_Quellcode_die_Entscheidung_bringt
verwiesen wird, hier können zusätzlich Keywords versteckt werden, die auf der verweisenden Seite im Inhalt
erscheinen.
Beispiel ineffektiver Link-Verwertung[25]:
<a href="http://www.xyz.de/936DA01F-9ABD-4d9d-80C7-02AF85C822A8.php">http://www.xyz.de</a>
Bei internen Verlinkung sollte nicht auf den gesamten Domainstamm verwiesen werden, sondern die URL als
relativer Pfad in Bezug auf die Domain genutzt werden. Zudem sollte bei der Angabe der Einzelseiten nicht der
reale Dateiname genutzt, sondern eine Link-Translation über htaccess genutzt werden.
Beispiel effektiver Link-Verwertung:
<a href="/fundament/beton.html" title="Einsatzmöglichkeiten von Stahlbeton zur Fundamenterstellung">
V2A-Stahl und Beton im Fundamentbau
</a>
5.2.2.4 Div
Für die Strukturierung und optimale Positionierung von Elemente stehen einem Entwickler in HTML
verschiedene Tags zur Verfügung, in den Anfängen der HTML Programmierung wurden vor allem tables
verwendet, um innerhalb von Zeilen und Spalten alle Objekte an Ihren Anzeigeort richtig zu positionieren. Der
Nachteil von Tabellen ist, dass diese erst im Browser angezeigt werden, wenn alle Zeilen und Spalten geladen
wurden, gerade bei größeren Tabellen verzögert sich dadurch die Visualiserung der Seite um einige Sekunden.
Durch die Verwendung von DIV Tags lassen sich einzelne Elemente bereits darstellen, bevor die Webseite
vollständig geladen wurde. In Kombination mit einer modernen serverseitigen Scriptsprache können auch größere
Seiten mit vielen Berechnen sequenziel verarbeitet werden, bevor alle Elemente geladen wurden, bzw. noch in der
Verarbeitung sind.
Beispiel:
<div>
Anzeige des Layouts einer Seite
</div>
<?php
// Pushen der Seite zum Browser
flush();
for($INT_VAR_I = 0; $INT_VAR_I < 1000; $INT_VAR_I++){
/*
Hier wird eine große Datenmenge verarbeitet und das Resultet je Zeile an den Browser
*/
echo "<div>Resultat:</div>";
flush();
}
?>
<div>
Anzeige des Footers
</div>
5.2.2.3 Links
23
OnPage_Optimierung_-_Wenn_der_Quellcode_die_Entscheidung_bringt
Insbesondere bei langsamen oder extrem großen Operation durch die Verarbeitung auf der Serverseite kann durch
den Befehl flush() schon ein Vorresultat übertragen werden. Würde in diesem Beispiel eine Tabelle verwendet
werden, bei der jedes Resultat lediglich eine Zeile ist, wird die Tabelle erst nach der Abarbeitung der gesamten
for-Schleife eingezeigt werden.
5.2.3 Page
5.2.3.1 Architektur
Neben den reinen SEO Optimierungen muss eine Seite auch den Benutzern und deren Nutzungsverhalten
entsprechen. Eine einfache und übersichtliche Gestaltung ist dabei genauso wichtig, wie das Erreichen aller
Inhalte mit wenigen Mausklicks. Suchmaschinen brechen die Indizierung nach etwa der 10 Link-Ebene und
indizieren alle tiefer gehenden Seiten nicht mehr. Die Suchmaschinen Google und Yahoo! bedienen sich dabei
des Verfahrens der Tiefensuche und verfolgen einen Link bis zur angegebenen maximalen Ebene oder beenden
die Suche, wenn keine tieferen Links mehr verfügbar sind. Die Gefahr bei großen Projekten bestehlt in der Racall
Rate (Vollständigkeit) der Indizierung. Können nicht alle Inhalte mit 10 Ebenen abgedeckt werden, müssen diese
über eine, in der oberen Ebene platzierten Sitemap, eingetragen werden. Der Link selbst erfährt dabei aber immer
eine Abwertung durch den Crawler. Bewährt haben sich bei großen Projekten daher Linklisten mit ähnlichem
Inhalt je Artikel, welche dynamisch auf andere Artikel im ähnlichen Kontext verweisen.
Ein Seitenbesucher, dem der Inahlt präsentiert werden soll, wird sich nicht dies Gedult nehmen wie eine
Suchmaschine und sich durch ein verworendes Menu klicken oder die XML-Sitemap öffnen. Daher sollte eine
Seite ähnlich einer Dateistruktur aufgebaut werden, dessen Überschriften genau erkennen lassen, welche
möglichen Inhalte sich in der tieferen Ebene ergeben werden, dabei gilt: "Vom Groben ins Feine"[26]. Zudem
sollte sich der Benutzer nicht in der Granularität verlaufen und eventuelle Zwischenseiten ohne Inhalt vorfinden,
bis dieser das eigentlich zu erwartende Ergebnis vorfindet.
Ein Beispiel für den Aufbau wäre:
--> Bau
------> Haus
---------> Fundament
------------> Betonfundament
---------------> Stahlbewährung
Zusätzlich zur reinen Strukturierung des Inhaltes ist auch die Anordnung von Navigation, Suchbox und
Toolboxen für eine optimierte Usability erfolgsentscheidend für die Präsents. Der Benutzer geht mit einer
gewissen Erwartung auf die Seite und kennt von anderen Seiten eine vorgegebene Struktur von Menu und Links,
dabei sollte sich an diesen Erwartungen und dem gewohnten Umfeld des Benutzers gehalten und nicht diesem
eine im ersten Moment verwirrende und unbekannte Struktur auferlegt werden. Der Weltmarktführer im Bereich
Webseitensuche und Betrieb hat für Webseitenbetreiber den Websiteoptimizer entwickelt, welcher die Präsents
analysiert und ggf. auf Schwachstellen in der Anzeige und Benutzerfreundlichkeit hinweist. Für Betreiber von
Onlineshop können die optimalen Positionen von Artikelhighlights für Verkaufsschlager gefunden werden bzw.
an welcher Position eventuelle Informationen entfernt werden können, weil diese z.B. nicht im direkten Blickfeld
des Besuchers sind.
Google Website Optimizer[27]
5.2.2.4 Div
24
OnPage_Optimierung_-_Wenn_der_Quellcode_die_Entscheidung_bringt
5.2.3.2 Aktualität
Eine Internetseite lebt von Inhalten, und Suchmaschinen sind permanent auf der Suche nach neuen Inhalten,
gerade größere Portal sind von Indizierungsdiensten wie Google, Yahoo und Co. so gut besucht, dass
Informationen schon kurz nach der Veröffentlichung auf der Seite gelistet werden. Auch für ?normale?
Webauftritte ist eine regelmäßige Aktualisierung der Inhalte unabdingbar, um sich der Suchmaschine als
interessante und qualifizierte Informationsquelle zu präsentieren, zusätzlich sorgen neue Artikel für ein besseres
Ranking.
Seit der Nutzung von Blogs haben sich Kommentarfunktionen und Track- / Pingback zu einem effektiven Mittel
für neue Inhalte etabliert, während es vor dem Web 2.0 meist eine eigenständige Seite für Kommentare und
Feedback gab, wurde in der Blogszene auf die Kommentierung jedes einzelnen Artikel gesetzt. Somit kann der
Betreiber des Blogs sich sicher sein, dass sich sein Artikel schnell mit zusätzlichem Inhalt aus der Blogszene füllt,
ohne dass er selbst aktiv eingreifen muss. Durch Trackback und Pingback werden die Kommentare durch einen
Backlink belohnt und gerne von anderen Bloggern eingetragen. In Folge dessen kann der Inhalt der Kommentare,
zumeist themenbezogen, einen wesentlich höheren Anteil am Gesamtinhalt besitzt, als der ursprüngliche Text des
Autors[28].
Suchmaschinen haben einen festen Rhythmus, in dem sie eine Webseite besuchen; wird festgestellt, dass sich der
Inhalt oft ändert, sogar permanent aktualisiert, dann kommt der Crawler auch wesentlich öfter auf die Seite. Zwar
kann der Besuchsintervall eines Crawlers aktiv über Meta-Tags gesteuert werden, doch muss der Crawler sich
nicht an die Richtlinie halten, sondern kann selbstständig entscheiden, ob es sich für die Suchmaschine lohnt,
öfter auf die Seite zu schauen. In der Regel besucht ein Crawler ein und dieselbe Unterseite etwa ein Mal die
Woche. Startseiten werden wesentlich öfter von einem Betreiber aktualisiert und sind somit auch interessanter für
die Suchmaschine, was zu täglichen oder zumindest kürzeren Besuchsintervallen führt.
Der Meta für den Aktualisierungsintervall lautet:
<meta name="revisit-after" content="7 days">
Wird die Seite nur selten aktualisiert, sollte der Intervall wesentlich größer gewählt werden, um den Crawler nicht
zu verärgern.
5.2.3.3 URL
Der Aufbau einer suchmaschinenfreundlichen URL kann sich aus den jeweiligen Belangen, technischen
Möglichkeiten und fachlichen Anforderungen ergeben. In der Regel bezeichnet eine optimierte URL aber die
Anzeige des absoluten Pfades eines Inhaltes im World Wide Web (WWW), welche einen thematischen Bezug
zum darzustellenden Inhalt besitzt. Für den Aufruf der Seiten müssen die Optimierung der URL und die
technische Umsetzbarkeit zu eindeutigen Referenzierung des Inhaltes in Einklang gebracht werden. In der SEO
Szene haben sich Übersetzung von fachliche zu technischen URL verschiedene Erweiterungen für die
Webserverplattformen entwickelt. Im Bereich der Apache Webserver ist die Open Source Lösung mod_rewrite
auf Basis von Htaccess Mappinglisten am weitesten verbreitet. In den Implementierungen werden dabei
eindeutige inhaltliche Spezifikationen der jeweiligen Seite im Browser der Nutzer als URL angezeigt, die
Mapping Table übersetzt diese dann in eine technische Anforderung an den Webserver, welcher im Code den
Inhalt in der Datenbank referenziert[29].
RewriteEngine On
RewriteRule "default/DE/Unternehmen/Presse.html" index.php?TID=a58ff2 [L]
RewriteRule "default/DE/Unternehmen/Jobs.html" index.php?TID=u45hf2 [L]
5.2.3.2 Aktualität
25
OnPage_Optimierung_-_Wenn_der_Quellcode_die_Entscheidung_bringt
Das schon 1997 entwickelte mod_rewrite Module für den Apache übersetzt anhand von fixen oder dynamischen
RewriteRules den URL String aus dem Browseraufruf über Bedingungen aus eine technische Anforderung an den
Webserver [30].
5.2.3.4 Keywords
Abbildung 10: Google Adwords: Keyword-Tool
Die Verschlagwortung einer Webseite gibt genau jene Wörter wieder, von welchen sich der Betreiber erhofft,
dass potentielle Besucher diese in der Suchmaschine eingeben und welche die Webseite am besten zu beschreiben
scheinen. Inspirationen können dabei die Internetauftritt von Mitbewerbern geben, welche sich thematisch in
einem equivalenten Bezug befinden. Bei der Findung von Suchbegriffen für ein Internetprojekt kann auch auf
Synonyme zu einem Wort zurückgegriffen werden, es ist wichtig, dass verwendete Schlagworte sich im Text
wieder finden und in einem kausalen und definierten Zusammenhang zum Onlineangebot stehen. Ein
vorgelagertes Brainstorming und die Befragung von Dritten kann den Umfang möglicher Wortkombinationen und
effektiver Schlüsselbegriffe für gute Suchmaschinenplatzierungen einzelner Worte- und Wortkombinationen stark
verbesseren[31]. Mit Hilfe von automatisierten Programmen z.B. vom Weltmarktführer Google zum Auffinden
von Wortkombinationen und Synonymen kann bei der Findung von geeigneten Wortgruppen helfen. Zudem
werden die monatlichen Suchanfragen über die Suchmaschine Google angezeigt, um einen Eindruck über das
möglich Potential der Keywords zu erhalten[32].
Zudem ist die Häufigkeit der verwendeten Schlüsselwörter inhalb des Textes der Seite von Bedeutung, jedes im
META Tag eingetragene Keyword muss auch im Body vorkommen und sollte im Verhältnis zu anderen Worten
eine erkennbare Pregnantz besitzen aber nicht den Text inhaltlich überfluten[33]. In der Literatur wird von einer
Normalverteilung zwischen 1 bis 3 mal je 100 Worte ausgegangen, dabei ist jede Seite auf ein, maximal auf zwei
einschlägige Keywords zu optimieren. Der häufigste Fehler ist es, ein einzelnes Dokument auf der
Internetpräsents auf alle angegebenen Schlüsselwörter optimieren zu wollen[34].
Für eine optimale Positionierung der Internetseite ist eine Spezialisierung der Präsents auf einen Themenbereich
und die Festlegung von wenigen Hauptschlüsselworten für die gesamte Internetpräsents der effektivste Weg gute
Positionen in den Suchmaschinen zu erlangen. Weiterhin sollten die Unterseiten mit tiefgreifenderen Bezug auf
spezifische Schlüsselworte in Kombination der Hautworte im Text sowie im META Tag aufgebaut werden[35].
5.2.3.3 URL
26
OnPage_Optimierung_-_Wenn_der_Quellcode_die_Entscheidung_bringt
5.2.3.5 Sitemap
Die Architektur einer Webseite ist maßgebend für den Erfolg eines Internetauftritts, zum einen muss der Besucher
sich auf der Seite zurecht finden können, andererseits muss ein Crawler in der Lage sein, innerhalb weniger
Verlinkungen auf alle angebotenen Seiten der Webpräsents zu gelangen. Ein Crawler durchsucht eine Webseite
bis zur einer maximalen Linktiefe von etwa 10 Unterseiten, danach wird die Durchsuchung weiterer Seiten mit
tieferer Verlinkung abgebrochen. Somit muss der Webseitenbetreiber sicher stellen können, dass der Crawler
auch alle Seiten auf Anhieb finden kann und nicht nur einen geringen Teil des Webpräsents indiziert. Gerade bei
großen Internetauftritten oder Foren stellt dies ein Problem, dass zwar viel Inhalt vorhanden ist, dieser aber nicht
von der Suchmaschine indiziert wurde, weil er zu tief in der Struktur der Seite versteckt ist.
Um diesem Umstand zu entgehen, gibt es verschiedene Ansätzen, zum einen wird über eine auf der Präsents
verankerte Sitemap versucht, alle Seiten oder Unterseiten ab einem Startpunkt in einer Baumstruktur mit direkter
Verlinkung zu listen. Seit der Einführung von Google Webmaster können Sitemaps auch von der Internetseite
getrennt erstellt werden, dazu wird standartmäßig im Root eine definierte XML Datei mit allen Seiten einer
Internetpräsents hinterlegt, sofern der Betreiber die Seite bei Google Webmaster Tools registriert hat, kann der
Pfad zum XML auch frei angepasst werden, muss sich aber in einem Unterverzeichnis der Domain befinden.
Durch die Einbindung eines XML statt eines dynamischen HTML werden zum einen die Besucher einer Webseite
nicht mit spröder Suchmaschinenoptimierung verunsichert, zum anderen können dem XML weitere Daten
mitgegeben werden, wann z.B. die jeweilige Seite zuletzt aktualisiert wurde oder mit welcher Gewichtung die
Seite in die Gewichtung der Unterseiten eingehen soll.
<?xml version="1.0" encoding="UTF-8" ?>
<urlset xmlns="http://www.google.com/schemas/sitemap/0.84">
<url>
<loc>http://winfwiki.wi-fom.de/</loc>
<lastmod>2009-10-08</lastmod>
<changefreq>dayly</changefreq>
<priority>1.0</priority>
</url>
<url>
<loc>http://winfwiki.wi-fom.de/opensearch_desc.php</loc>
<lastmod>2009-10-08</lastmod>
<changefreq>weekly</changefreq>
<priority>0.5</priority>
</url>
</urlset>
Insbesondere in größeren Projekten ist zu beachten, dass eine Sitemap nicht mehr als 50.000 Links (Seiten)
beinhalten sollte, da nach dem Erreichen dieses Limits die meisten Crawler die verarbeitet teilweise oder gar ganz
abbrechen. Daher empfielt es sich beim Überschreiten dieser natürlichen Grenze die Darstellung auf mehrere
Sitemaps aufzuteilen, aber auch hier ist eine Limitierung auf maximal 1.000 Sitemaps vorhanden. Insgesamt
können somit über die XML Dateien maximal 50 Millionen Seiten dargestellt werden[36].
5.2.3.6 Ladezeiten
In Zeiten einer flächendeckenden Nutzbarkeit von DSL könnte ein Webseitenbetreiber davon ausgehen, dass die
Ladezeiten für einen Nutzer unerheblich sind. Aus Sicht des Nutzers ist dies auch so, denn das Bottleneck liegt
nicht am Anschluss, sondern beim Anbieter. Viele Webseiten haben sich durch die Erweiterung der Leitung
überproportional aufgebläht und wesentlich zu viele Informationen und Widgets in die Seite integriert ohne dabei
zu bedenken, dass die eigene Infrastruktur ebenfalls in der Lage sein muss, den gestiegenen Anforderungen
entgegen zu kommen.
5.2.3.5 Sitemap
27
OnPage_Optimierung_-_Wenn_der_Quellcode_die_Entscheidung_bringt
Maßgebend für den Prozess zwischen Aufruf und Darstellung der Internetseite ist nicht mehr die
Übertragungsrate, sondern die Performance des Server und der Seite. Viele Projekte basieren auf aktiven
Scriptsprachen, die neben der reinen Informationsdarstellung auch zusätzlich Informationen und Features
bereitstellen, die nicht permanent genutzt werden. Neben Fotos spielen vor allem Cross-Promotion eine wichtige
Rolle, der Benutzer sucht eine Information und erhält zusätzlich weitere, thematisch passende Angebote mit
angezeigt. Hierbei darf nicht außer Acht gelassen werden, dass jeder Aufruf Rechenzeit beansprucht, welche sich
negativ auf die Ladezeiten auswirkt.
Die Zeit für den Aufruf einer Seite kann in verschiedenen Teilfaktoren zerlegt werden.
Aktion
DNS-Lookup
Host Verbindung
Anfrageverarbeitung
Datentransfer
Anzeigeverarbeitung
Tabelle 3
Beteiligte
Provider
Client/Provider
Server
Provider/Server
Client
Einfluss
Nein
Nein
Ja
Ja
Bedingt
Den größten Einfluss und damit auch das höchste Optimierungspotenzial besitzt die Verarbeitung der Anfrage,
nicht selten kommt es vor, dass eine Website 10 Sekunden oder länger für die Auswertung und Verarbeitung
benötigt. Zum Teil kann dies auf temporäre Engpässe aufgrund einer großen Anzahl gleichzeitiger Anfragen
zurückzuführen sein, aber in den meisten Fällen ist es schlicht weg eine nicht optimierte Programmierung. Die
Verwendung von Schleifen und Verbindungen auf andere Server während der Programmcode-Abarbeitung ist
teilweise eine unnötige Verschwendung von Ressourcen und Zeit und führt im schlimmsten Fall zum
clientseitigen Abbruch der Anfrage. Während der Entwicklung des Quellcodes ist eine permanten Einbeziehung
der Qualitätssicherung oder zumindest eines Beauftragten in der Programmierung unabdingbar. Ein stetiger
Code-Review und die Splittung von Codesegmenten in Teilabschnitte zur Messung von Performance Engpässen
machen eine Fehlerbehebung wesentlich einfacher. In der modernen Entwicklung werden für die Seite und für die
Teilabschnitte Ladezeiten Breakpoint gesetzt, um die Veränderungen und die derzeitigen Zeiten für die
Codeabarbeitung im Auge zu behalten.
Die Anforderungen an die Ladezeiten betragen im Mittel (Immer in Betrachtung zur angebotenen Darstellung
abhängig) etwa 0,1 ? 0,5 Sekunden, Zeiten die darüber liegen sind heutzutage für die reine Inhaltsdarstellung
nicht mehr akzeptabel. Hinzu kommen immer noch die Ladezeiten für alle andere kaum oder gar nicht
beeinflussbaren Faktoren.
Bezieht man die Ladezeitenoptimierung auf die clientseitige Darstellung ist es immer systemabhängig, mit
welcher Geschwindigkeit die Inhalte im Browser geladen werden können, es ist aber unumstritten, dass
Scriptsprachen wie Java Script und VisualBasic Script immer einen negativen Einfluss haben. Ebenfalls nicht von
der Hand zu weisen ist die Verwendung von Flash oder ActiveX Programmen, die zum Teil auch auf den Clients
installiert werden müssen, um überhaupt dargestellt zu werden. Die Verwendung von Animationen belastet
zusätzlich den Browser und somit die CPU eines Clients, was bei älterer Hardware auch zum Absturz der
Browseranwendung oder des gesamten Computers führen kann.
Ladezeitenüberprüfung der gesamten Seite (Beispiel winfwiki.wi-fom.de [37])
Serverplattform: Apache
Seitengroesse (Gesamt):
5.2.3.6 Ladezeiten
59.134 Bytes
28
OnPage_Optimierung_-_Wenn_der_Quellcode_die_Entscheidung_bringt
Anzahl der berücksichtigten Elemente:
Theoretische Ladezeit fuer Modem / ISDN (56-64 kbs):
Theoretische Ladezeit fuer DSL1000 (1024 kbs):
Theoretische Ladezeit fuer DSL2000 (2048 kbs):
Theoretische Ladezeit fuer DSL3000 (3064 kbs):
Theoretische Ladezeit fuer DSL6000 (6128 kbs):
Gesamtwertung (im Schulnotensystem): 1,3 (sehr gut)
Tabelle 4
8
7,88 s
0,46 s
0,23 s
0,15 s
0,08 s
5.2.4 Domain
Die Domain einer Webseite identifiziert das Projekt eindeutig im World Wide Web, keinen Domainnamen kann
es auf der Welt unter normalen Bedingungen ein zweites Mal geben, so muss ein der Betreiber einer Interseite
sich schon bei der Bestellung seiner Domain im Klaren sein, welcher Informationen er später auf Ihnen
präsentieren möchten, wenn die Domain in die Keyword Strategie passen soll. Die Gewichtung des
Domainnamens auf den Inhalt der Seite ist relativ hoch, gerade deshalb werden für prägnante Namen mit dem
richtigen Keyword Summen im Millionenbereich gezahlt.
Platz
Domainname
Preis
Jahr
1.
sex.com
14.000.000,- $
2006
2.
fund.com
9.999.950,- $
2008
3.
porn.com
9.500.000,- $
2007
4.
diamond.com
7.500.000,- $
2006
5.
business.com
7.500.000,- $
1999
6.
beer.com
7.000.000,- $
1999
7.
casino.com
5.500.000,- $
2003
8.
ssseenontv.com
5.100.000,- $
2000
9.
toys.com
5.100.000,- $
2009
10.
korea.com
5.000.000,- $
2000
Tabelle 5 Verkaufpreise für Domains aller Top Level Klassen, es ist erkennbar, dass gerade Internationale
Domains auf dem Markt sehr begehrt sind. Quelle: Patent Kinetics [38]
Neben Keywordoptimierung spielt auch die Länge einer Domain eine wichtige Rolle im Zusammenhang mehr
Besucher auf die Internetseite zu bekommen. Je länger der Domainname, desto mehr muss sich ein potentieller
Kunde merken können und schnell können sich beim Eintippen Fehler ergeben. In der deutschsprachigen
Leveldomain (.de) sind mind. 3 Zeichen vorgesehen, in der internationalen Endung .com können Domains schon
mit 2 Zeichen registriert werden, daher ist es nicht verwunderlich, dass die kurzen und leicht zu merkenden
Namen schnell vergriffen und hoch gehandelt werden.
Mit dem Domainnamen muss sich die Webseite identifizieren können und der Besucher, wie auch die
Suchmaschinen eine Referenz bilden können, dabei ist es im ersten Moment egal, ob eine nationale (.de / .at / .dk
5.2.4 Domain
29
OnPage_Optimierung_-_Wenn_der_Quellcode_die_Entscheidung_bringt
/ etc.) oder internationale (.com / .net) Domain für einen Webauftritt gewählt wird. Versucht ein Betreiber sich auf
einen definierten Sprachraum zu beschränken, ist es aber immer vorteilhafter, auch die Domainendung des
entsprechenden Landes zu wählen. Grundsätzlich sollte zu lange Domainnamen vermieden werden, auch wenn
sich für den Betrachter ggf. ein Sinn ergibt (z.B: www.hier-gibs-essen-kostenlos.de), werden Suchmaschinen den
Sinn nicht unbedingt erkennen, da z.B. Bindestriche bei den meisten Crawlern ignoriert und die Einzelwörter in
einem Wort zusammengeführt werden.
6 Strategien
6.1 Seitenstruktur
Die Seitenstruktur ist ein grundlegender Bestandteil zur erfolgreichen Platzierung einer Webpräsenz. Sie sollte
sowohl für die Benutzer als auch für die Suchmaschinen geeignet sein und versuchen die teilweise voneinander
abweichenden Ansprüche miteinander in Einklang bringen. Grundsätzlich sollten alle Seiten in einer logischen
Hierarchie zueinander stehen und für den Benutzer leicht zu durchschauen sein. Bereits bei der Planung ist es
empfehlenswert sich zu folgenden Punkten ein schlüssiges Konzept zu überlegen, um ein gutes Ergebnis zu
erzielen.
6.1.1 Bedürfnisse
Um eine gute Orientierung für den Menschen zu gewährleisten, ist es notwendig eine klar gegliederte Webpräsens
zu erstellen. Aber auch die Suchmaschinen beziehen die Seitenstruktur in Ihren Bewertungsindex mit ein. Dies
geschieht unter anderem dadurch, dass die Verzeichnistiefe zusätzlich zur Bewertung des Inhalts mit einfließt.
Umso tiefer ein Dokument in der Verzeichnisstruktur liegt, umso weniger wird es von einer Suchmaschine
gewichtet. Dies liegt darin begründet, dass grundsätzlich von einer niedrigeren Wiederbesuchsfrequenz
auszugehen ist, da das Dokument aufwendiger zu finden ist. Deshalb sollten wichtige Dokumente immer in einer
flachen Hierachieebene positioniert werden[39].
6.1.2 Auffindbarkeit
Da Suchfunktionen die in Webseiten eingebunden sind zum größten Teil nur von Menschen genutzt werden
können, ist es für die Suchmaschinenoptimierung wichtig eine Navigation derart aufzubauen, dass auch ohne die
Suchfunktion jede relevante Information leicht zu finden ist. Daher ist es von großer Bedeutung eine entsprechend
übersichtliche Navigation zu erstellen. Im Abschnitt Navigation wird auf diesen Aspekt detaillierte
eingegangen[40].
6.1.3 Sackgassen
Am Ende einer Verlinkungskette sollte es grundsätzlich nicht nötig sein, dass der Besucher den zurück Button
seines Webbrowser benutzt. Es sollte wenigstens die Möglichkeit geben, einen Link auf die Startseite der
Webpräsenz zu nutzen, um sich auf dieser neu zu orientieren können nachdem man sich verirrt hat oder nach
weiteren Inhalten sucht. Außerdem ist eine solche Navigationsmöglichkeit für den Fall sehr wichtig, dass man
durch einen Suchmaschineneintrag direkt auf die Seite gelangt ist und der Nutzer den weiteren Inhalt der
Webpräsenz betrachten möchte.
6 Strategien
30
OnPage_Optimierung_-_Wenn_der_Quellcode_die_Entscheidung_bringt
6.1.4 Orientierung
Die Voraussetzung für eine angenehme Orientierung ist, dass man jederzeit weiß wo man sich relativ zum
Startpunkt befindet. Eine Möglichkeit dafür ist die sogenannte Breadcrumb-Navigation (Brotkrumen). Bei dieser
sind die einzelnen Gliederungspunkte jederzeit leicht ersichtlich.
Zum Beispiel: Startseite > Produkte > Optische Laufwerke > Modell X > Firmware Y
Dadurch ist die Notwendigkeit die zurück Funktion des Browser zu nutzen deutlich minimiert und außerdem ist
eine präzise Beschreibung der Inhalte der einzelnen Gliederungspunkte zu erwarten, welches einen großen
Mehrwert sowohl für die Menschen als auch die Suchmaschinen-Crawler darstellt.[41]
6.1.5 Index von A-Z
Dieser Webseiten Index enthält eine alphabetische Auflistung von verlinkten Stichwörtern. Hierbei geht es nicht
darum die Verweisstruktur der Seite darzustellen, wie zum Beispiel bei den Sitemaps. Der Index soll helfen die
Seiten aufzufinden, auf denen das gesuchte Stichwort vorkommt. Wobei es durchaus möglich ist, dass bei
mehreren Stichwörtern auf die gleiche Seite verlinkt wird. Besonders bei großen Webpräsenzen mit thematisch
unterschiedlichen Gebieten kann ein Index eine gute Orientierungshilfe darstellen.
6.1.6 Navigationsleisten
Die am häufigsten anzutreffende Form der Navigation ist die horizontale Reiternavigation am oberen Bereich der
Webseite oder die vertikale Navigationsleiste im linken Bereich der Webseite. Teilweise gibt es Kombinationen
aus beiden Navigationsleisten, wobei die eine die Hauptnavigation darstellt und die andere
Unternavigationspunkte präsentiert.[42]
6.1.7 Text-Link-Navigation
Eine Text-Link Navigation beschreibt die Wiederholung der Hauptnavigation in reiner Textform meistens am
unteren Rand der Webpräsenz. Diese Form der Navigation ist sehr vorteilhaft. Bei einer Navigation die in einem
Grafikformat gestaltet wurde und die Links aus Bildern bestehen, kann eine Suchmaschine keinen Verweistext
erkennen. Außerdem sind diese Textlinks aus dem eben genannten Grund auch die Grundlage für eine
Barrierefreie Navigation[43].
6.1.8 Barrierefreiheit
Webseiten sollen auch für Menschen mit Behinderungen grundsätzlich uneingeschränkt nutzbar sein. Seit April
2002 ist diese auch im Gesetz zur Gleichstellung von Menschen mit Behinderungen in Paragraph 11 über die
barrierefreie Informationstechnik zumindest für gewerbliche Anbieter empfohlen[44]. Anwendungen wie z.B.
Blindows[45] können Text-Links im Gegensatz zu Grafik-Links für blinde Internet User vorlesen. Somit stellt eine
Suchmaschinenoptimierung teilweise auch eine Optimierung auf barrierefreiheit dar und eine barrierefreiheit
Optimierung teilweise auch eine Suchmaschinenoptimierung dar.
6.1.4 Orientierung
31
OnPage_Optimierung_-_Wenn_der_Quellcode_die_Entscheidung_bringt
6.2 Navigation
Warum eine übersichtliche und wohl strukturiert Navigation wichtig ist, wurde bereits in den vorangegangenen
Abschnitten erläutert. Allerdings ist nicht nur die Struktur entscheidend, sondern auch womit diese Struktur
umgesetzt wird. Problematisch sind in diesem Zusammenhang clientseitige Script-Sprachen wie zum Beispiel
Java Applets, Java Script und Flash. Ein Browser benötigt für die genannten Script-Sprachen ein zusätzliches
Plug In und Suchmaschinen haben häufig Schwierigkeiten diese Script-Sprachen überhaupt zu interpretieren, da
Verweise denen die Bots folgen könnten schlichtweg nicht existieren. Wenn aus besonderen Gründen eine
Navigation doch in den genannten Script-Sprachen erstellt werden muss, dann sollte sichergestellt sein, dass eine
alternative Text ?Link-Navigation z.B .am unteren Rand der Seite existiert dem ein Bot dann folgen kann.
Außerdem sollte dies allein schon aus dem Grund geschehen, den Inhalt der Webseite möglichst barrierenfrei zu
gestalten damit auch möglichst vielen Menschen zugänglich zu machen[46].
6.2.1 Pop Up
Pop Up?s basieren immer auf clientseitigen Scripten. Wird ein Pop Up zur Einblendung von z.B. Werbung
verwendet, ist es eher nachrangig ob eine Suchmaschine den Inhalt der Werbung erfasst oder nicht. Anders
verhält es sich wenn wichtige Ankündigungen z.B. über ein anstehendes Event oder Betriebsurlaub über einen
gewissen Zeitraum angekündigt wird. Solche Informationen sollten nach Möglichkeit direkt in das Webangebot
mit aufgenommen werden. Hierfür bietet sich eine zentrale Stelle auf der Startseite an. Erschwerend kommt noch
hinzu das heutzutage viele Browser über ein Plug In mit Pop Up Blockern ausgestattet sind. Diese Nutzer würden
die Informationen selbst dann nicht zu Gesicht bekommen, wenn Sie die Webseite direkt besuchen.
6.2.2 Seiteninterne Suchfunktion
Seit ca. 2007 können auch Suchmaschinen die Suchfunktion einer Webseite nutzen um themenrelevante Begriffe
auf der betreffenden Webseite zu nutzen. Allerdings ist auch hier wieder auf die Art der Realisierung zu achten.
Eine Suchfunktion die ausschließlich über eine Scriptsprache bedienfähig ist, kann von den Suchmaschinen nicht
benutz werden. Das klassische Verfahren über POST/GET-HTML ist dort zurzeit die beste Variante. Weiterhin
sollten die Suchergebnisse derart gestaltet sein, dass eine Suchmaschinen-Crawler die Möglichkeit hat die
vorgefundenen Links auszuwerten[47].
6.2.3 Frames
Die Realisierung von Webangeboten über Frames befindet sich deutlich auf dem Rückzug. Dies resultiert daraus,
dass Frames den meisten Suchmaschinen erhebliche Schwierigkeiten bereiten und daher kaum oder nur fehlerhaft
von diesen erfasst werden. Begründet liegt dies in dem abweichenden Aufbau im Gegensatz zu ?normalen?
HTML- Webseiten. Bei HTML-Webseiten enthält eine Datei den Inhalt einer Seite, zumeist bestehend aus Text
und Grafiken. Bei Frames wird ein so genanntes Frameset benutzt. Dieses Frameset bestimmt die Aufteilung der
einzelnen Frames in dem Frameset und welche HTML-Dokumente in den Frames angezeigt werden.
6.2 Navigation
32
OnPage_Optimierung_-_Wenn_der_Quellcode_die_Entscheidung_bringt
Abbildung 11: Funktionsweise Frames
Google selber äußert sich zu Frames so:
"Google unterstützt Frames und iframes so weit wie möglich. Frames können Probleme bei Suchmaschinen
verursachen, da sie nicht dem Grundmodell des Internets entsprechen. Nach diesem Modell steht üblicherweise
eine Seite für nur eine URL. Auf Seiten, die Frames oder iframes verwenden, werden mehrere URLs (eine für
jeden Frame) auf einer einzigen Seite angezeigt. Google versucht Content mit Frames der Webseite zuzuordnen,
die die Frames enthält, übernimmt dafür jedoch keine Gewährleistung." [48]
6.3 Dateityp und dynamische Seiten
Eine grundlegende Frage bei der Gestaltung einer Webseite ist die nach dem zu wählenden Dateityp.
Suchmaschinen basieren in erster Linie auf der Auswertung von Textelementen und deren enthaltenen
Stichwörtern. Das ist der Grund warum HTML Dokumente das am weitesten verbreitete Format für Webseiten
darstellt. Allerdings muss auch bei HTML zwischen statischen und dynamischen HTML unterschieden werden.
Der Unterschied besteht in der Aufbereitung der Daten durch den Webserver. Während bei statischem HTML der
Inhalt in einer Textdatei auf dem Webserver abgelegt wird und bei Aufruf über http (=Hypertext Transfer
Protocol) unverändert an den Browser übermittelt wird, bereitet der Webserver bei dynamisch generiertem HTML
die Webseiten nach vordefinierten Regeln auf und übergibt sie dann an den Client (Browser). Besonders bei
Content-Management-Systemen (CMS) und Shopsystemen kommt dynamische HTML zum, Einsatz. Dynamisch
generierte Seiten bieten einige Vorteile gegenüber statischen Seiten, da das Layout nur einmalig gestaltet werden
muss und die sich veränderten Daten können dann direkt aus einer Datenbank geladen werden. Die Verwendung
einer Datenbank bieten dann auch noch weitere Vorteil, wie z.B. bei einem Shopsystem die Anzeige des
Bestandes eines Artikels in Echtzeit. Allerdings beinhalten gerade diese Eigenschaften auch gewisse Nachteile
bezogen auf die Erfassung der Inhalte durch Suchmaschinen. Seiteninhalte könne sich sehr schnell ändern und
schon bei der Erfassung nicht mehr aktuell sein. Das führt zu ungenauen Suchmaschinenergebnissen. Abhängig
von der Programmierung einer solchen Webseite ist es möglich, das sich URL?s ändern und ein erneuter Aufruf
der gleiche URL einige Zeit später nicht mehr zu demselben Ergebnis führt. Dies geschieht zB bei der
Verwendung von Session IDs (siehe Abschnitt Session ID).
Dynamische Webseiten bestimmen den Inhalt der anzuzeigenden Webseite durch übergebene Parameter beim
Aufruf, die dann häufig auch in der URL übergeben werden.
z.B. http://www.webseite.de/artikel.php?id=14&viewmode=3D
Suchmaschinen könne die Anzahl der übergebene Parameter aufgrund der Sonderzeichen differenzieren und
entscheiden dann ob eine Webseite mit in den Index aufgenommen wird oder nicht. Seiten mit zu vielen
Parametern werden häufiger von der Indexierung ausgeschlossen um die Integrität des Datenbestands zu sichern.
6.2.3 Frames
33
OnPage_Optimierung_-_Wenn_der_Quellcode_die_Entscheidung_bringt
Eine Möglichkeit dieses Problem zu umgehen ist der Einsatz der URL-Rewrite Technik (siehe Abschnitt
URL-Rewrite). Die Suchmaschine würde diese URL dann nutzen ohne zu merken, dass es sich um eine
dynamisch generierte Seite handelt und sie entsprechen in den Index aufnehmen. Inzwischen können
Suchmaschinen auch andere Formate wie PDF, MS Office Formate und ähnliche Textformate auswerten. Die
Suche nach Bildern ist auch auf dem Vormarsch, allerdings werden hier hauptsächlich die Beschreibungen und
Bildernamen durchsucht und nicht der Inhalt des Bildes selbst. Das Durchsuchen von Flash Dateien mit der
FAST-Technologie ist seit 2008 für die meisten Suchmaschinen verfügbar, somit können auch Texte und
Hyperlinks aus Flash Dokumenten indexiert werden.[49]
6.3.1 Session ID
Session ID?s werden vom Webserver bei dem Aufruf einer Seite vergeben und dienen der Wiedererkennung eines
Besuchers von einer Seite zur nächten. Ist eine solche Session ID nach einer gewissen Zeit abgelaufen und wird
erneut aufgerufen kommt es zu Schwierigkeiten. Daher ist der Einsatz von Session ID?s ein Ausschlusskriterium
für die Aufnahme einer Webseite durch Suchmaschinen.[50]
6.3.2 URL-Rewrite
Diese Technik übersetzt zwischen der Anfrage des Clients (Browser) und dem Server. Somit würde die aus
dynamischem HTML generierte URL aus Beispiel Nr. 1 für den Client wie eine aus statischem HTML generierte
URL (Beispiel Nr. 2) erscheinen und somit deutlich eher in den Suchmaschinenindex aufgenommen werden:
1. http://www.webseite.de/artikel.php?id=14&viewmode=3D
2. http://www.webseite.de/artikel14.html
7 Vergleich On-Page vs. Off-Page
7.1 Gewichtung
Die Auswirkungen von On-Page und Off-Page Optimierung sind wechselseitig. Der schwerwiegendste Teil der
Optimierung unter Berücksichtigung der genannten Punkte ist sicherlich die On-Page Optimierung, da die
Relevanzbewertung eines Dokuments auf der Hypertext Bewertung basiert. Allerdings ist eine reine On-Page
Optimierung nutzlos, wenn grundsätzliche Off-Page Voraussetzungen nicht erfüllt sind. Ist dies der Fall, ist eine
Off-Page Optimierung unumgänglich[51]
7.2 Schnittpunkte
7.2.1 Webhosting
Nach erfolgreicher On-Page Optimierung müssen die Inhalte nun auch für das www zugänglich gemacht werden.
Dies geschieht Normalerweise über einen gemieteten Webserver. Hier gibt es allerdings große Unterschiede.
7 Vergleich On-Page vs. Off-Page
34
OnPage_Optimierung_-_Wenn_der_Quellcode_die_Entscheidung_bringt
Wird ein einfaches Webhosting Paket verwendet, handelt es sich technisch gesehen meisten um einen virtuellen
Webserver. D.h. andere Webpräsenzen benutzen den gleichen Server für Ihre Webangebote. Ist nun der genutzte
IP Bereich aufgrund einer anderen Webpräsenz, die auf dem gleichen Server liegt oder den gleichen IP Bereich
nutzt gesperrt, so ist auch die eigenen Webpräsenz aufgrund des genutzten IP-Bereichs gesperrt und wird nicht
von den Suchmaschinen indexiert. Tritt dieser Fall ein, nützt auch die Beste On-Page optimierung nichts, da sie
nicht zum tragen kommt. Abhilfe schaffen hier so genannte Root-Server oder Manged Server. Bei diesen
Angeboten wird auf einem Server nur eine Webpräsenz gehostet und eine eigene IP Adresse zugeteilt. Allerdings
sind diese Lösungen auch deutlich kostenintensiver.[52]
7.2.2 Domain
Domains sollte grundsätzlich einfach und prägnant sein, damit potentielle Kunden sich diese gut merken können
und die Fehleranfälligkeit bei der Eingabe der URL in den Browser minimiert wird. Allerdings fließt der
Domainname auch in die Bewertungs der Suchmaschinen mit ein. Der Domainname sollte hier auch in einem
Zusammenhang zu den Schlüsselwörtern stehen auf die die Seite optimiert wird[53].
7.2.2.1 Domainalter
Ein weiteres Kriterium ist das Domainalter. Umso länger eine Domain registriert ist, umso besser sind die
Chancen bei den Suchmaschinen ein gutes Ranking zu erreichen. Dies geschieht, da davon ausgegangen wird das
sich ältere Domains bereits etabliert haben und neuere Domains sich erst noch etablieren müssen. Wird eine
vorhandene Domain gekauft, ist darauf zu achten das diese nicht schon aus dem Index einer Suchmaschine
entfernt wurde. z.B. aufgrund von Spam Versuchen eines Vorbesitzers. Die erneute Aufnahme in den
Suchmaschinenindex ist zwar möglich, erfordert aber zusätzlichen Aufwand.[54]
8 Ausblick
8.1 Suchmaschinenfaktoren
Um zukünftig noch bessere Suchergebnisse zu erzielen wird die Entwicklung von verschiedenen Technologien
vorangetrieben. Künstliche Intelligenz und semantische Technologien sollen dabei helfen die Inhalte besser zu
verstehen und einordnen zu können um treffendere Suchergebnisse liefern zu können. Außerdem sollen zukünftig
Bilder und Videos durchsuchbar gemacht werden um die vorhandene Inhalte indexieren zu können. Ein weiteres
Entwicklungsfeld ist das Verständnis von natürlicher Sprache und deren Übersetzung. Somit sind nicht nur
Inhalte der eigenen Sprache verfügbar, sondern auch anderssprachige Inhalte womit die verfügbare Datenbasis
um ein vielfaches erweitert werden würde. Zukünftig soll es auch möglich sein, anstelle von einzelnen
Stichwörtern nach ganzen Sätzen zu suchen und passende Antworten darauf zu erhalten "Das Ziel wäre eine
Suchmaschine, mit der man sich normal unterhalten kann und die dabei aus dem gesamten Wissen der Welt
schöpfen kann", sagte Thomas Hofmann, technischer Direktor von Googles Suche in Europa[55].
8.2 OnPage Verbesserungen
Die OnPage Optimierung ist der entscheidene Faktor für den Erfolg einer Internetseite, neben einem hohen Anteil
an qualitativen und ausgebauten Inhalten mit Texten ab 300 Wörtern sind auf die Validität des HTMLs, sowie die
8 Ausblick
35
OnPage_Optimierung_-_Wenn_der_Quellcode_die_Entscheidung_bringt
Strukturierung der Seite ein Garant für die Akzeptanz der Suchmaschinen. Der Betreiber möchte zwar nicht
zwangsläufig nur Suchmaschinen auf der Seite als Besucher verbuchen, sondern die kaufkräftigen Kunden
anlocken, aber ohne den vorherigen Besuch und einer guten Beurteilung durch den Crawler würde sich dieser
Erfolg nicht einstellen.
Den wichtigste Faktor stellt dabei die Zeit, nur über ein langfristiges seriöses Erscheinungsbild und die Bildung
eines Jahre andauernde Prozesses des Trust Building werden die Suchmaschinen gute Ratings und somit Top Ten
Platzierung für Suchbegriffe geben. Für einen schnellen Erfolg empfielt es sich auch Offline für die Präsens tätig
zu werden und an jeder erdenklichen Stelle (Flyer, Auto, Radio oder TV) mit Werbemaßnahmen mit der Domain
aktiv in Erscheinung zu treten. Zudem unterstützt dieser Prozess die OffPage Optimierung durch die Erstellung
neuer externer Links.
In Zukunft werden die Kriterien der W3 Organisation weiter verfeinert und mit der Einführung des HTML 5
Standard zudem weitere Möglichkeiten einer Interaktiven Kommunikation zwischen Webseite und Kunden
geschaffen. In diesen Bereichen werden die praktischen Umsetzungen weitere Standartisierung für konforme
HTML Implementierungen schaffen. Außerdem kann von einer Erweiterung zur Beurteilung des Trust Level
ausgegangen werden, insbesondere die Umsetzung von Sicherheitsmaßnahmen zum Schutz von persönlichen
Daten in Scripten aber auch über die verschlüsselte Kommunikation werden zunehmend in den Fokus von
Crawler und Suchmaschinenbetreibern kommen und als wesentlicher Bestandteil in die Beurteilung einfließen.
9 Literatur- und Quellenverzeichnis
9.1 Literatur
• Infopark: Web-Strategie erfolgreich planen und umsetzen In: Infopark , 2009, (PDF; 5,1 MB).
• Böckenförde, Thomas: Die Ermittlung im Netz, 1.Auflage, Mohr Siebeck Verlag, Tübingen, 2003.
• Dirnbauer, Kurt: Usability - Grundlagen, Beispiele, Trends, 1.Auflage, code it, Mattersburg, 2000.
• Erlhofer, Sebastian : Suchmaschinen-Optimierung, 4. aktualisierte und erweiterte Auflage, Galileo Press,
Bonn, 2008.
• Flanagan, Da : JavaScript Das umfassende Referenzwerk, 3. Auflage, O'Reilly Verlag, Köln, 2007.
• Glöggler, Michael: Suchmaschinen im Internet, Springer-Verlag, Berlin, Heidelberg, New York, 2003.
• Gutheim, Philipp: Der Webdesign-Praxisguide Professionelle Konzeption von der Planung bis zur
Promotion, Springer Verlag, Berlin, 2008
• Hübener, Markus: Suchmaschinenoptimierung kompakt, Springer-Verlag, Berlin, Heidelberg, 2009.
• Jerkovic, John I.: SEO Warrior, O'Reilly Media Inc., Sebastpol, 2010.
• Koch, Daniel: Suchmaschinenoptimierung - Website-Marketing für Entwickler,1.Auflage (e-book),
Addison-Wesley Verlag, München, 2007.
• Levene, Mark: An Introduction to Search Engines and Web Navigation, Addison Wesley, Edingburgh
Gate, 2005.
• Meiert, Jens & Helmdach, Ingo: Webdesign mit CSS Designer-Techniken für kreative und moderne
Webseiten, 2. Auflage, O'Reilly Verlag, Köln, 2007.
• Seibert, Björn & Hoffmann, Manuela: Professionelles Webdesign mit (X)HTML und CSS, 1. Auflage,
Galileo Press, Köln, 2006.
• Tröscher, Malvin: Ansätze zur Umsatzsteigerung eines Online-Reiseshops durch Optimierung des
Online-Marketings, GRIN Verlag, München, 2007.
• von Bischopinck, Yvonne & Ceyp, Prof. Dr. Michael: Suchmaschinen-Marking Konzept, Umsetzung und
Controlling, Springer Verlag, Berlin, 2007.
9 Literatur- und Quellenverzeichnis
36
OnPage_Optimierung_-_Wenn_der_Quellcode_die_Entscheidung_bringt
• Wimmeroth, Ulrich & Brochhagen, Thomas: Google Dirty Tricks, Data Becker, Düsseldorf, 2003.
9.2 Einzelnachweis
1. ? infopark - Web-Strategie und Website-Optimierung (infopark.de | Stand 10.10.2009 12:54 Uhr)
2. ? Vgl. Wimmeroth, Ulrich & Brochhagen, Thomas: Google Dirty Tricks, Data Becker, Düsseldorf, 2003,
S. 12
3. ? Vgl. Wimmeroth, Ulrich & Brochhagen, Thomas: Google Dirty Tricks, Data Becker, Düsseldorf, 2003,
S. 18f
4. ? Vgl. Hübener, Markus: Suchmaschinenoptimierung kompakt, Springer-Verlag, Berlin, Heidelberg,
2009, S. 18f
5. ? Vgl. Erlhofer, Sebastian : Suchmaschinen-Optimierung, 4. aktualisierte und erweiterte Auflage, Galileo
Press, Bonn, 2008, S. 132ff
6. ? Vgl. Hübener, Markus: Suchmaschinenoptimierung kompakt, Springer-Verlag, Berlin, Heidelberg,
2009, S. 18
7. ? efactory.de|Stand 10.01.2010 20:32 Uhr)
8. ? BERAZ.DEsign (beraz.de | Stand 10.10.2009 22:23 Uhr)
9. ? Vgl. Erlhofer, Sebastian : Suchmaschinen-Optimierung, 4. aktualisierte und erweiterte Auflage, Galileo
Press, Bonn, 2008, S. 413f
10. ? Seitwert von FOM.de (seitwert.de | Stand 30.12.2010 20:25 Uhr)
11. ? faq.php FAQ, (seitwert.de Stand | 30.12.2009 18:45 Uhr)
12. ? Vgl. Hübener, Markus: Suchmaschinenoptimierung kompakt, Springer-Verlag, Berlin, Heidelberg,
2009, S. 59
13. ? del.ico.us Stand 10.01.2010 17:43
14. ? mister-wong.de Stand 10.01.2010 17:23 Uhr
15. ? Vgl. Böckenförde, Thomas: Die Ermittlung im Netz, 2003, Mohr Siebeck Verlag, Tübingen, S. 45
16. ? http://www.w3.org/TR/html5/ w3.org: HTML 5, 2009
17. ? http://de.wikipedia.org/wiki/Hypertext_Markup_Language de.wikipedia.org: Hypertext Markup
Language, 2009
18. ? Vgl. Seibert, Björn & Hoffmann, Manuela: Professionelles Webdesign mit (X)HTML und CSS, 1.
Auflage, Galileo Press, Bonn, 2006, S. 20ff
19. ? Vgl. Ritter, Maik: Browserkompatibilität, 2009, css4you.de, 22.11.2009 15:17
20. ? Vgl. Meiert, Jens & Helmdach, Ingo: Webdesign mit CSS Designer-Techniken für kreative und moderne
Webseiten, 2. Auflage, O'Reilly Verlag, Köln, 2007, S. 67
21. ? Vgl. Flanagan, David: JavaScript Das umfassende Referenzwerk, 3. Auflage, O'Reilly Verlag, Köln,
2007, S. 2
22. ? Vgl. Flanagan, David: JavaScript Das umfassende Referenzwerk, 3. Auflage, O'Reilly Verlag, Köln,
2007, S. 4
23. ? Vgl. Koch, Daniel: Suchmaschinen-Optimierung Website-Marketing für Entwickler, Addison-Wesley
Verlag, München, 2007, S. 190
24. ? Web-Werbeagentur latz://new.media (latz-new-media.de | Stand 10.10.2009 00:59 Uhr)
25. ? Globally Unique Identifier (wikipedia.org| Stand 06.11.2009 22:10Uhr)
26. ? Site Check: Aufbau einer Datei-Struktur, site-check.cc, 10.10.2009 19:33
27. ? Google Website Optimizer (google.com | Stand 10.10.2009 22:15 Uhr)
28. ? SW-Guide: Was ist ein Trackback, sw-guide.de, 20.11.2009 21:24
29. ? Wetsch, Bruno: biz directory - Suchmaschinenfreundliche URLs, modrewrite.de, 20.11.2009 20:17
30. ? Engelschall, Ralf S.: Module mod_rewrite URL Rewriting Engine, httpd.apache.org, 20.11.2009 20:17
31. ? Vgl. Tröscher, Malvin: Ansätze zur Umsatzsteigerung eines Online-Reiseshops durch Optimierung des
Online-Marketings, 2007, GRIN Verlag, München, S. 40f
9.1 Literatur
37
OnPage_Optimierung_-_Wenn_der_Quellcode_die_Entscheidung_bringt
32. ? Google Adwords Keyword-Tool
33. ? Vgl. von Bischopinck, Yvonne & Ceyp, Prof. Dr. Michael: Suchmaschinen-Marking Konzept,
Umsetzung und Controlling, 2007, Springer Verlag, Berlin, S. 312
34. ? Vgl. Gutheim, Philipp: Der Webdesign-Praxisguide Professionelle Konzeption von der Planung bis zur
Promotion, 2008, Springer Verlag, Berlin, S. 198
35. ? Vgl. Koch, Daniel: Suchmaschinen-Optimierung Website-Marketing für Entwickler, 2007,
Addison-Wesley Verlag, München, S. 135
36. ? Vgl. Jerkovic, John I.: SEO Warrior, 2010, O'Reilly Media Inc., Sebastpol, S. 203f
37. ? Topsubmit - Externe Ladezeiten Überprüfung (webtool.topsubmit.de | Stand 10.10.2009 14:29 Uhr)
38. ? Patent Kinetics (patentkinetics.com | Stand 09.10.2009)
39. ? Vgl. Erlhofer, Sebastian: Suchmaschinen-Optimierung, Galileo Press, Bonn, 2008, S. 225 f
40. ? Vgl. Erlhofer, Sebastian: Suchmaschinen-Optimierung, Galileo Press, Bonn, 2008, S. 232
41. ? Vgl. Levene, Mark: An Introduction to Search Engines and Web Navigation, Addison Wesley,
Edingburgh Gate, 2005, S. 166 f
42. ? Vgl. Dirnbauer, Kurt: Usability - Grundlagen, Beispiele, Trends, code it, Mattersburg, 2000, S. 38 f
43. ? Vgl. Erlhofer, Sebastian: Suchmaschinen-Optimierung, Galileo Press, Bonn, 2008, S. 228
44. ? Gesetz zur Gleichstellung behinderter Menschen §11, juris.de, 07.01.2010 20:43
45. ? Funktionsbeschreibung Blindows, baum.de, 16.12.2009 19:13
46. ? Vgl. Erlhofer, Sebastian: Suchmaschinen-Optimierung, Galileo Press, Bonn, 2008, S. 229 f
47. ? Vgl. Erlhofer, Sebastian: Suchmaschinen-Optimierung, Galileo Press, Bonn, 2008, S. 232
48. ? Google (Webmaster Fragen und Antworten auf google.de | Stand 06.01.2010 14:35 Uhr)
49. ? Vgl. Erlhofer, Sebastian: Suchmaschinen-Optimierung, Galileo Press, Bonn, 2008, S. 240 f
50. ? Vgl. Erlhofer, Sebastian: Suchmaschinen-Optimierung, Galileo Press, Bonn, 2008, S. 243
51. ? Vgl. Erlhofer, Sebastian: Suchmaschinen-Optimierung, Galileo Press, Bonn, 2008, S. 273 f
52. ? Vgl. Erlhofer, Sebastian: Suchmaschinen-Optimierung, Galileo Press, Bonn, 2008, S. 273 f
53. ? Vgl. Koch, Daniel: Suchmaschinenoptimierung - Website-Marketing für Entwickler, Addison-Wesley
Verlag, München, 2007, S. 111
54. ? Vgl. Erlhofer, Sebastian: Suchmaschinen-Optimierung, Galileo Press, Bonn, 2008, S. 278 f
55. ? Wie wir morgen im Web suchen, stern.de, 08.01.2010 19:00
9.3 Weblinks
W3C - HTML und CSS Validierung
Google AdWords: Keyword-Tool
Google Analytics
9.2 Einzelnachweis
38