Diplomarbeit fuer Vortragsthema 15 (e-hoi)

Transcription

Diplomarbeit fuer Vortragsthema 15 (e-hoi)
Otto-von-Guericke-Universität Magdeburg
Thema:
Analyse und Optimierung des indexbasierten Suchmaschinen-Marketings
am Beispiel einer touristischen Online-Plattform.
Diplomarbeit
Arbeitsgruppe Information Retrieval
Themensteller:
Betreuer:
Jan Lammers, e-hoi GmbH & Co.KG, Frankfurt am Main
Professor (Jun.-Prof.) Andreas Nürnberger
vorgelegt von:
Oleksander Bazalukov
Friedrichsring 49
63069 Offenbach am Main
069-98664114
E-Mail: [email protected]
Abgabetermin:
13. März 2007
II
Inhaltsverzeichnis
Inhaltsverzeichnis ............................................................................................................. II
Verzeichnis der Abkürzungen und Akronyme ............................................................... IV
Symbolverzeichnis............................................................................................................V
Abbildungsverzeichnis ................................................................................................... VI
Tabellenverzeichnis ......................................................................................................VIII
1 Einführung ....................................................................................................................1
2 Suchdienste im Internet ................................................................................................3
2.1 Bedeutung der Suchdienste für das Internet........................................................3
2.2 Ein Überblick von Suchdiensten im Internet ......................................................3
2.2.1 Kataloge und Verzeichnisse....................................................................4
2.2.2 „Klassische“ Suchmaschinen ..................................................................7
2.2.3 Meta-Suchdiensten..................................................................................9
2.3 Suchmaschinen-Markt in Deutschland..............................................................11
3 Suchmaschinen-Marketing als ein wichtiger Baustein des Unternehmen-Marketings17
3.1 Historische Entwicklung ..................................................................................17
3.2 Definition und Formen des Suchmaschinenmarketings...................................19
3.3 Bedeutung von Suchmaschinen für ein Online-Unternehmen ..........................23
4 Indexierung von Dokumenten und Rankingverfahren der Suchmaschine .................25
4.1 Indexierung von Dokumenten ...........................................................................25
4.2 Funktionweise der Suchmaschinen an Beispiel Google....................................26
4.3 Informationsstatistische Verfahren des Suchmaschinen-Rankings...................28
4.3.1 Textstatische Verfahren ........................................................................28
4.3.2 Nutzungsstatistische Verfahren.............................................................31
4.4 Linktopologische Rankingverfahren der Suchmaschinen.................................32
4.4.1 Konzept der Link-Popularität................................................................33
4.4.2 PageRank-Verfahren.............................................................................34
4.4.3 HITS-Verfahren ....................................................................................38
4.4.4 Hilltop-Verfahren..................................................................................40
5 Verfahren zur Optimierung der Indexierung und des Rankings von Web-Seiten......42
5.1 OnPage Suchmaschinen-Optimierung ..............................................................42
5.1.1 Auswahl der Suchbegriffe.....................................................................42
5.1.2 Optimierung der Struktur der Web-Seite ..............................................43
5.1.3 URLs-Design ........................................................................................45
5.1.4 Optimierung der Meta-Informationen...................................................47
5.1.5 Optimierung der Inhalten der Seite .......................................................49
5.1.6 Auslagerung der JavaScripts und Styles in externe Dateien.................51
5.2 OffPage Suchmaschinen-Optimierung..............................................................52
III
5.3
Spam-Techniken bei der Optimierung von Web-Seiten ...................................54
6 Analyse der Web-Seite www.e-hoi.de und die Durchführung der notwendigen
Optimierungsmaßnahmen...........................................................................................59
6.1 Stammdaten der Seite ehoi.de und Auszug der Statistiken ...............................59
6.2 Auswahl der Suchbegriffen und Ermittlung ihrer Positionen in Google ..........61
6.3 Erstellung eines neuen Bereiches für die Reiseziele .........................................63
6.4 Optimierung der Seiten-Struktur .......................................................................66
6.5 Optimierung der URLs und Header-Informationen ..........................................69
6.6 Optimierung der Inhalten ..................................................................................72
6.7 Auslagerung der QuelleCodes...........................................................................75
6.8 Analyse und Durchführung der OffPage Maßnahmen......................................77
7 Controlling der Ergebnisse .........................................................................................79
8 Zusammenfassung ......................................................................................................84
A Suchbegriffanalyse bei der wichtigsten Suchmaschienen ..........................................86
Literaturverzeichnis .........................................................................................................95
IV
Verzeichnis der Abkürzungen und Akronyme
AOL
API
bzw.
ca.
CSS
d.h.
DocID
EDV
etc.
GmbH
HTML
ID
IDF
i.d.R.
IP
IRS
ISAPI
Kb
Mb
MSN
o. b. d. A.
o. Jg.
o. O.
o. V.
PHP
PR
pt
SEM
SEO
SQL
TF
UK
URL
US
WWW
XML
z.B
z.Z.
American Online
Application Programmer Interface
beziehungsweise
zirka
Cascading Style Sheets
daß heißt
Document Identification
Elektronische Datenverarbeitung
und so weiter
Gesellschaft mit der begrenzten Haftung
HyperText Markup Language
Identification
Inverse Document Frequency
in der Regel
Internet Protocol
Information-Retrieval-Systeme
Internet Server API
Kilobyte
Megabyte
Microsoft Network
ohne Beschränkung der Allgemeinheit
ohne Jahrgang
ohne Ort
ohne Verfasser
PHP Hypertext Preprocessor
Page Rank
Point
Search Engine Marketing
Search Engine Optimization
Structured Query Language
Term Frequency
United Kingdom
Uniform Resource Locator
United States
World Wide Web
Extensible Markup Language
zum Beispiel
zur Zeit
V
Symbolverzeichnis
%
a
Ap
C(T)
d
ft
h
Hp
log
ND
PR(T)
t
Prozent
Anzahl
Authority-Gewicht des Dokumentes P
Gesamtanzahl der Links des Dokumentes T
Dämpfungsfaktor
Anzahl der Dokumenten, die den Suchbegriff t enthalten
Häufigkeit
Hub-Gewicht des Dokumentes P
Logarithmus
Anzahl der Dokumenten
PageRank Dokumentes T
Term
VI
Abbildungsverzeichnis
Abb. 2.1 Beispiel für eine Katalog-Striktur.......................................................................5
Abb. 2.2 Ein Beispiel für die Archetiktur einer Suchmaschine.........................................8
Abb. 2.3 Suchmaschinen-Markt in USA (Clay 2006).....................................................13
Abb. 2.4 Beziehungsgeflecht der Suchmaschinen in Deutschland (Karzauninkat 2004)14
Abb. 2.5 Suchmaschinen-Marktanteile in Deutschland ..................................................15
Abb. 3.1 EyeTracking Study ..........................................................................................22
Abb. 3.2 Klick-Wahrscheinlichkeit nach EyeTracking Study ........................................22
Abb. 4.1 Architektur der Suchmaschine Google.............................................................27
Abb. 4.2 Ein Beispiel für die Eigenschaften des PageRanks ..........................................36
Abb. 4.3 Hubs- und Authorities-Beziehungen beim HITS-Verfahren............................39
Abb. 5.1 Ein Beispiel für eine flach strukturierte Seite...................................................44
Abb. 5.2 Ein Beispiel für eine tief strukturierte Seite .....................................................44
Abb. 5.3 Ein Beispiel für die Surfase- und Deep-Web ...................................................46
Abb. 5.4 Vermietung von Backlinks im Internet-Auktionshaus eBay ............................54
Abb. 5.5 Ein Beispiel für die Crosslinking-Struktur .......................................................57
Abb. 6.1 Ergebnisse des Google Trends nach dem Vergleich der Wörter "Kreuzfahrt"
und "Kreuzfahrten".......................................................................................62
Abb. 6.2 Die Ergebnisse der Abfrage der Omniture-Datenbank durch den Online-Tool
der Seite www.ranking-check.de nach dem Wort "kreuzfahrten"...............64
Abb. 6.3 Ein Beispiel für eine Reiseziel-Seite von www.e-hoi.de..................................65
Abb. 6.4 Ein Beispiel für die Integration der zusätzlichen Verlinkungen auf einer SchiffSeite von www.e-hoi.de................................................................................67
Abb. 6.5 Ein Beispiel für die Integration der zusätzlichen Verlinkungen auf der SucheSeite von www.e-hoi.de................................................................................68
Abb. 6.6 Ein Beispiel für die Anzeige der Suchphrase "Afrika Kreuzfahrten" in der
Ergebnissliste der Suchmaschine Google.....................................................72
Abb. 6.7 Ein Beispiel für die Anzeige der Überschriften h1, h2, h3 und h4 nach HTMLFormatierungen ohne CSS............................................................................73
Abb. 6.8 Ein Beispiel für die Anzeige des Überschriftes h1 nach CSS-Formatierung ...73
Abb. 6.9 Ein Beispiel für die Optimierung der Inhalten einer Reiseziel-Seite von
www.e-hoi.de................................................................................................74
Abb. 6.10 Ein Beispiel für die Anzeige des Buttons "GO" auf einer Seite von www.ehoi.de ............................................................................................................75
Abb. 7.1 Statistik für die Einstiegseiten aus dem Bereich „Schiffe“ der Präsenz e-hoi.de79
Abb. 7.2 Statistik für die Einstiegseiten aus dem Bereich „Reedereien“ der Präsenz ehoi.de ............................................................................................................80
VII
Abb. 7.3 Statistik für die Einstiegseiten aus dem Bereich „Routen“ der Präsenz e-hoi.de80
Abb. 7.4 Statistik für die Einstiegseiten aus dem Bereich „Reiseziele“ der Präsenz ehoi.de ............................................................................................................81
Abb. 7.5 Statistik für die Buchungsanfragen...................................................................81
VIII
Tabellenverzeichnis
Tab. 4.1 Iterative Berechnung des PageRankings ...........................................................37
Tab. 5.1 Auswahl an Tags zur Hervorhebung von Termen mittels HTML ....................50
Tab. 6.1 Stammdaten der Web-Präsenz www.e-hoi.de...................................................59
Tab. 6.2 Besucher-Statistik der www.e-hoi.de (Aug.2005-Aug.2006) ...........................60
Tab. 6.3 Ein Beispiel für die Positionen der Suchbegriffe in der Ergebnissen wichtiger
Suchmaschinen .............................................................................................62
Tab. 6.4 Titel und Meta-Informatioene nach der Optimierung der wichtigen Seiten der
www.e-hoi.de................................................................................................71
Tab. 7.1 Besucher-Statistik der www.e-hoi.de (Aug.2005-Jan.2007).............................79
Tab. 7.2 Ein Beispiel für des Vergleich der Positionen der Suchbegriffe in der
Ergebnissen wichtiger Suchmaschinen im August 2006 und Januar 2007 ..82
1
1 Einführung
Insgesamt nutzten Verbraucher vor ca. jedem zweiten
Online-Kauf eine Suchmaschine zur Entscheidungsfindung.
Im Falle der Tourismus-Branche nutzten sogar
nahezu drei von vier Käufern zuvor eine Suchmaschine. 1
Die rasant wachsenden Informationen im Internet haben dazu geführt, dass
Suchmaschinen zu einem unverzichtbaren Instrument zur Bewältigung dieser
Informationsflut werden. Beim Auffinden von Informationen entscheiden
Suchmaschinen darüber, welche Informationen für Nutzer zugänglich sind und welche
verborgen bleiben.
Aufgrund der steigenden Nutzung der Suchmaschinen
hat auch die
Suchmaschinenoptimierung zunehmend an Bedeutung gewonnen. Der Begriff lässt sich
wie folgt definieren:
„Im allgemeinen Sprachgebrauch bedeutet Suchmaschinen-Optimierung,
die Inhalte und Struktur einer Seite derart gezielt zu verändern, dass sie
bei den Suchmaschinen eine obere Rangposition erhält.“ 2
Jede Web-Präsenz hat das grundsätzliche Ziel, die Besucherzahlen zu maximieren. Vor
allem bei kommerziellen Web-Seiten entscheiden die Besucherströme oftmals über den
Erfolg oder Misserfolg des Unternehmens. Wenn die Produkte über das Internet
verkauft werden, sind starke Besucherzahlen gleichbedeutend mit höhen Umsätzen.
Somit ist es für die Betreiber der Web-Seiten wichtig in Suchmaschinen gefunden zu
werden.
Das Ziel dieser Arbeit ist die Erforschung des Suchmaschinen-Marktes und –
Mechanismen, Methoden für die Suchmaschinenoptimierung von Web-Seiten und der
Einsatz gewonnener Erkentnisse für die Optimierung der Web-Präsenz der e-hoi GmbH,
einer Online-Buchungsplattform für die Kreuzfahrten. Es soll herausgestellt werden,
welche OnPage Einflussfaktoren existieren und mit welchen Maßnahmen das Ranking
der Seite bezüglich relevanter Suchbegriffe verbessert werden kann.
Zunächst wird einführend auf das Themengebiet der Suchdienste und des
Suchmaschinenmarktes in Deutschland eingegangen, wobei wichtige Zusammenhänge
1
2
Vgl. DoubleClick Inc (2005), S. 3 ff
Erlhofer (2005a), S. 167
2
erläutert und für das Verständnis der Arbeit notwendige Begriffe definiert werden.
Darüber hinaus wird das Suchmaschinen-Marketing und seine Bedeutung für ein
Unternehmrn unter die Lupe genommen. Weiterhin wird näher zu den
Suchmechanismen, Rankingfaktoren und Optimierungsmethoden bei den
Suchmaschinen eingegangen. Anhand dieses Basiswissens werden konkrete
Möglichkeiten der OnPage-Optimierung für die Web-Seiten aufgezeigt und für die
Web-Präsenz der e-hoi GmbH umgesetzt. Anschliessend ist eine Effizienz der
durchgeführten Optimierungen zu bewerten.
3
2 Suchdienste im Internet
2.1 Bedeutung der Suchdienste für das Internet
Man kann das Internet als ein hypertextbasiertes System betrachten - die vorhandenen
Informationen sind über verschiedene Web-Seiten verteilt. Alle Seiten sind mit der
Hilfe der Hyperlinks miteinander verbunden. Die Unterschiede zu vielen anderen
Hypertextsystemen sind, dass die Informationen und Inhalte des WWW sich nicht auf
einem zentralen Datei- bzw. Datenbanksystem befinden, sondern auf weltweit verteilten
Servern gespeichert. 3 Um auf diese Inhalte gezielt zuzugreifen, benötigt man sehr oft
spezielle Navigationsinstrumente. Die Internet-Suchdienste haben diese Aufgabe
vollständig übernommen. Da ein zentrales Verzeichnis oder eine Registratur aller
Internetinhalte nicht existiert, man ohne Hilfe der Suchdiensten nicht die notwendige
Informationen im Internet finden kann. Man kann wohl sagen, dass ohne das Angebot
der Suchdienstleistungsanbieter das Internet aufgrund der nichtzentralisierten
Organisation nutzlos und wertlos wäre. Wenn man als Internet-Nutzer die elektronische
Adresse des Zielservers nicht kennt, ist das Internet für ihn nicht mehr als eine riesige
unsystematische Bibliothek ohne Ordnung, wo ein benötigtes Buch einfach nicht zu
finden ist. Die Aufgabe von Suchdiensten ist, Ordnung in dieses Chaos zu bringen, was
Angesichts der enorm umfangreichen und ständig schnell wachsenden Datenbestände
des Internets eine gigantische Herausforderung ist. Die Suchdienste des Internet stellen
mittlerweile neben traditionellen Medien wie Zeitungen und Fernsehen und klassischen
Informationsdiensten, wie etwa Bibliotheken, zunehmend das zentrale Hilfsmittel zur
Befriedigung von Informationsbedürfnissen dar.
2.2 Ein Überblick von Suchdiensten im Internet
Um mit der Datenflut im Internet fertig zu werden, braucht man die Hilfsmittel, die bei
der Informationsbeschaffung zur Seite stehen. Sehr selten kennt man gerade die richtige
Adresse einer Webseite, welche die gewünschte Information enthält und das ziellose
Surfen ist in den meisten Fällen nicht erfolgreich. Unter allen Rechnern im Internet gibt
es Server, die ein Angebot speziell für die Informationsbeschaffung zur Verfügung
stellen. Solche Werkzeuge für den Informationszugriff nennt man Informationsdienste.
Man behandelt die drei wichtigsten Typen von Informationssystemen: 4
3
4
vgl. Meinel & Sack (2004), S.195,ff
vgl. Glöggler (2003), S. 1
4
• Katalogsysteme kann man mit einem Branchentelefonbuch vergleichen. Die
einzelnen Einträge sind in vorgegebene Kategorien eingeteilt. Die Kategorien sind
häufig hierarchisch geordnet.
• Suchsysteme (auch Information-Retrieval-Systeme oder Suchmaschinen genannt)
stellen Funktionen zur Dokumentensuche bereit. Bei einer Suchanfrage liefert eine
Suchmaschine eine Liste von Dokumenten, welche die gewünschte Information
enthalten sollen.
• Meta-Suchsysteme sind keine eigenen Suchsysteme. Vielmehr bedienen die
Metasucher mehrere Suchmaschinen gleichzeitig und erhalten so eine sehr hohe
Anzahl an gefundenen Seiten. Dabei sind Sie so "intelligent", dass sie doppelt
gefundene Seiten filtern und nur einmal anzeigen.
• Die Push-Systeme bieten einen anderen Service an. Während Benutzer von Suchoder Katalogsystemen bei jedem Informationsbedürfnis die Dokumente beim
Informationssystem holen müssen (man spricht auch von „Pull-Systemen“),
versorgen Push-Systeme ihre Benutzer aktiv und fortlaufend mit aktuellen
Informationen. Für jeden Benutzer existiert ein so genanntes Profil. Das Profil
beschreibt das Informationsbedürfnis eines Benutzers, so wie die Anfrage bei einem
Suchsystem. Neu im Internet auftauchende Dokumente werden automatisch mit allen
gespeicherten Profilen verglichen und bei genügend guter Übereinstimmung dem
Benutzer zugestellt.
2.2.1 Kataloge und Verzeichnisse
Die Katalogsysteme bringen eine gewisse Struktur und Ordnung in die
Dokumentenmenge. Die Funktionsweise eines Katalogsystems ist ähnlich dem einer
Bibliothek oder einem Telefonbuch - alle Einträge sind nach Kategorien sortiert - ein
Katalogsystem unterstützt den indirekten Zugriff auf Dokumente via Kategorien.
5
Abb. 2.1 Beispiel für eine Katalog-Striktur
Ein Katalogsystem ist nichts anderes als eine Hierarchie von Kategorien 5. Ganz
erscheinen dann die allgemeinen Kategorien und je weiter man hinuntersteigt, desto
spezifischer sind die Einträge. Jede Kategorie verfügt immer über einen Namen und
kann eine oder mehrere Unterkategorien besitzen. Neben der streng hierarchischen
Gliederung gibt es auch sehr oft die Querverweise, die in eine andere Teilhierarchie mit
Dokumenten zu einem verwandten Thema führen können und die Suche nach
Dokumenten erleichtern. Es kann auch vorkommen, dass ein Dokument in mehreren
Kategorien auftaucht. In der Regel existieren zu jedem Eintrag ein Titel und eine kurze
Zusammenfassung oder Beschreibung.
Die typische Recherche in einem Katalogdienst läuft genauso ab, wie man es von einer
Bibliothek her kennt. Man beginnt bei einer der allgemeinen Kategorien und geht so
lange weiter, bis eine geeignete Unterkategorie gefunden wird, wo die gesuchten
Informationen zur Verfügung stehen.
Der Aufbau von Verzeichnissen und Katalogen kann verschiedenen Ansätzen folgen.
Sehr verbreitet ist der Aufbau der Rubriken durch die Betreiber selbst. Bei diesem
Verfahren ist häufig auch das Anmelden eigener Web Seiten durch die Benutzer für die
Aufnahme in den Katalog erwünscht. Das klassische Beispiel dafür ist Yahoo.com,
einer der ersten intellektuell erzeugten Kataloge.
Eine ganz andere Verfahrensweise ist die Erstellung eines Verzeichnisses durch eine
Nutzergruppe. Dabei können z.B. einzelne Nutzer auf freiwilliger Basis für den Inhalt
einer Katalog-Rubrik verantwortlich sein. Die Links, Beschreibungen und weitere
5
vgl. Erlhofer (2005a), S. 15
6
Informationen werden manuell gesammelt und zur Verfügung gestellt. Als Beispiel
dafür können sog. Community-Sites und Expertenforen genannt werden.
Eine weitere Unterscheidung liegt vor, wenn sowohl die Vorschläge als auch die
Bewertung der Einträge von freiwilligen Nutzern erfolgen. Die Qualitätssicherung der
Beiträge in Form vorgeschlagener Links übernehmen dann die für jeweils eine oder
mehrere Rubriken verantwortlichen .
Die Kataloge können in hierarchische und nichthierarchische Webverzeichnisse
unterteilt werden. In hierarchischen Katalogen werden die Kategorien und Einträge in
einer eindeutigen Ordnung sortiert. Ein Eintrag befindet sich dabei oft nur in einer
bestimmten Kategorie und ist deswegen schwer zu finden. Dabei hilft das gegenseitige
Querverweisen von Kategorien. Ein Beispiel für ein sehr hierarchisches Webverzeichnis
ist das Open Directory Project (www.dmoz.org). Nichthierarchische Verzeichnisse
bestehen dagegen aus einer netzwerkartigen Struktur, mit deren Knoten die Einträge
(Links) verknüpft werden. Dadurch sind die Einträge und Kategorien leichter zu finden,
eine assoziative Suche ist eher möglich (Beispiele siehe unten Themennetzwerke).
Auch können die Kataloge und Verzeichnisse sich zwischen kommerziellen und
nichtkommerziellen
unterscheiden.
Durch
das
Geschäftsmodell
vieler
Katalogenbetreiber besteht die Gefahr einer eingeschränkten Objektivität - die
Erhöhung der Ranghöhe in einem Verzeichnis für die eigene Webseite wird zur offiziell
angebotenen Dienstleistung. Der Benutzer kann kaum unterscheiden, welche
Suchergebnisse im Katalog sich einen hohen Rang durch hohe Relevanz "verdient"
haben und bei welchen ein hoher Rang "erkauft" wurde.
Der wohl wichtigste Vorteil von Katalogen ist, dass sie fast immer redaktionell betreut
sind – jede Quelle wird persönlich gesichtet und deren thematische Zuordnung
überprüft. Außerdem besteht auch die Möglichkeit, dass die Erfasser zu dem Dokument
eine kurze Bewertung angeben. Das alles erhöht die Qualität der Suchergebnisse. Ein
weiterer Vorteil der Katalogdiensten ist, dass, wenn ein Informationsbedürfnis durch
eine Kategorie abgedeckt wird, die Suche auf diese Kategorie beschränkt werden kann.
Alternativ zur hierarchischen Suche kann bei einigen Webverzeichnissen zusätzlich
auch mit einer dazugehörigen Suchmaschine nach dem passenden Begriff gesucht
werden. Aber zu bedenke dabei ist, dass diese Suchfunktion nur die katalogisierten
Schlagwörter erfasst oder die Texten im Titel und Beschreibung, nicht aber die
verwendeten Begriffe in den letztendlich gesuchten Dokumenten. Zu den Nachteilen
zählt man auch die relativ kleineren Bestände von Dokumenten und längere
Aktualisierungszeiten 6 (z.B. die Zeit, nach der ein Dokument in ein berühmtes Katalog
6
vgl. Erlhofer (2005a), S. 16
7
DMOZ erfasst wird, kann bei mehreren Monaten liegen). Ein weiteres Problem besteht
beim Einordnen von Dokumenten in die Kategorien des Katalogdienstes. Die optimale
Zuordnung ist oft unklar. In vielen Fällen empfehlen verschiedene Personen für das
gleiche Dokument unterschiedliche Kategorien. Bei großen Datenbeständen besteht
auch die Gefahr, dass nicht mehr existierende Webseiten referenziert werden, und dass
die Wiederauffindbarkeit relevanter Webseiten darunter leidet. Um diese Probleme zu
lösen, werden bei modernen Verzeichnissen die verschiedenen maschinellen und
manuellen Mechanismen und Mittel eingesetzt, wie manuelle Bewertungssysteme
(Voting), automatische Bewertungssysteme (Ranking), Robots zum Überprüfen und
Entfernen von nicht mehr existierenden Links oder die Auswertungen des
Klickverhaltens der Benutzer.
2.2.2
„Klassische“ Suchmaschinen
Die zunächst unübersehbare Menge von Informationen im Internet begründete den
Bedarf für Programme, die alle wichtigen für eine mögliche Suche relevanten
Informationen in Datenbanken speichern, um später über die Eingabe von Wörtern oder
Phrasen relevante Dokumente finden zu können. Für diese Aufgaben wurden die
Suchroboter entwickelt, die das ganze Web durchsuchen und die über das Verfolgen
von Links gefundenen Dokumente indizieren. Die Ergebnisse einer Suche sind sehr
stark davon abhängig, bis zu welcher Tiefe die Dokumente durchsucht und die Links
verfolgt werden. Manche Suchmaschinen indizieren nur die Meta-Informationen im
Head der Dokumente, manche indizieren nur die Überschriften der einzelnen
Textabschnitte, die andere dagegen werten das gesamte Dokument aus.
Eine Suchmaschine ist ein Programm oder Schnittstelle zum Recherchen von
Dokumentmengen, die auf einem, mehreren Computern oder einem Computernetzwerk,
wie zum Beispiel WWW, gespeichert sind. Nach der Eingabe des Suchbegriffs liefert
die Suchmaschine eine Liste von dazugehörigen relevanten Ergebnissen, meistens mit
dem Titel und kurzem Auszug aus dem Dokument.
Die größten klassischen Suchmaschinen wie Google, Yahoo oder MSN indizieren die
Seiten mittels einer schlagwort-basierten Volltextsuche. Zusätzlich wird versucht, über
komplizierte Ranking Funktionen eine Gewichtung bezüglich eines Schlagwortes
herzuleiten. Im Prinzip
Stichwortverzeichnis auf.
bauen
diese
Suchmaschinen
ein
gigantisches
Da Information im Internet kein statisches Gebilde darstellt, müssen die Datenbanken
von Suchmaschinen ständig aktualisiert werden. Roboter, Spiders, Crawlers, Wanderer
8
und Worms sind die Programme, die das WWW ständig auf neu hinzugekommene,
abgeänderte oder gelöschte Dokumente untersuchen. Eine zu untersuchende Seite wird
geladen und einer Inhaltserschließung unterzogen. Danach werden alle von dieser Seite
Verweise verfolgt und die referenzierten Dokumente nach gleichem Prinzip geladen und
untersucht. Es wird von einem maschinellen bzw. roboterbasierten Verfahren
gesprochen. Indizierungsprogramme analysieren die gesammelten Informationen und
aktualisieren Index und Datenbestand der Datenbank der jeweiligen Suchmaschine.
Anhand dieser Mechanismen garantieren die Suchdienste eine Datenbank auf
aktuellstem Stand. Die Suchmaschinendatenbank besteht aus einem Index, dem
Dokumentenbestand und weiteren Informationen über diese Dokumente (z.B Datum,
Sprache etc.).
Abb. 2.2 Ein Beispiel für die Archetiktur einer Suchmaschine
Die Bearbeitung einer Suchanfrage kann man als ein einfacher Zugriff auf eine IndexDatenbank ansehen. Der Benuutzer gibt in einem Suchformular die Begriffe ein, welche
dann mit der Datenbank abgeglichen werden und die sortierend nach Relevanz
Ergebnisse dem Nutzer wieder zurückgeschickt werden. Jedes im Index abgespeicherte
Wort verweist auf ein oder mehrere Dokumente. Wird ein Suchbegriff eingegeben, so
durchsucht der Suchalgorithmus die Wortliste und gibt die referenzierten Dokumente
zurück.
Dabei sind noch viele Problemfelder offen. Die klassischen Suchmaschinen können
nicht die Synonyme in ihre Suche einbeziehen. Keine. So können leider eventuell
relevante für Nutzer Informationen nicht angezeigt werden. Die bekanntesten
9
Suchmaschinen machen aber in dieser Richtung schon einige Vorschritte. Ein weiteres
Problem ist die Ignoranz von Mehrdeutigkeiten (Homonymen). Das klassisches Beispiel
dafür ist das Wort „Java“, bei der Suche nach dem bekommt man fast ausschließlich die
Ergebnisse zur Programmiersprache und nicht zu einer beliebten Urlaubsinsel. Worte
können auch in verschiedenen Variationen auftreten, zum Beispiel „Finanzen“ und
„finanziell“. Klassische Suchmaschinen ignorieren zum größten Teil jegliche
Wortformvariationen. Sinnverwandte Begriffe werden von Suchmaschinen ebenso
wenig wie Synonyme erkannt. Das Semantik Web stellt einen interessanten
Lösungsansatz dar, um die oben genannten Probleme zu lösen und eine effiziente Suche
im Web zu realisieren.
Es sind die vier wichtigsten Aufgaben einer Suchmaschine: Dokumentenbeschaffung,
Indexierung, Aktualisierung und die Anfragenbearbeitung.
Die Beschaffung von neuen Dokumenten wird entweder maschinell durch Roboter oder
manuell durch die Anmeldung der Seite von Nutzern in jeweiligen Suchmaschinen
gemacht.
Die Indizierung der Seiten kann nach drei verschiedenen Strategien durchführt werden.
Bei der Volltext-Indizierung, was die meisten Suchmaschinen anbieten, werden
inhaltsbedeutende Begriffe aus der gesamten HTML-Seite indiziert. Nach TeilindexEinsatz indizieren die Suchmaschinen meistens nur URL, Titel und Überschriften oder
auch die ersten Zeilen der Seite. Und es gibt auch die Suchmaschienen, die nur die
spezielle inhaltsbeschreibenden Bereiche indizieren, wie die META-Tags der Seite.
Bei den Aktualisierungsverfahren von einzelnen Suchmaschinen gibt es große
Unterschiede nach Art und der Zeit. Meist ist es einfach zeitabhängig - die Angaben für
die zeitliche Aktualisierung einzelner Web-Seiten bei den Suchmaschinen können
zwischen einem Tag und sechs Wochen schwanken. Oft hängt es auch von der
Zugriffshäufigkeit auf das Dokument ab.
Funktionalität bei der Anfragenbearbeitung ist direkt von Indizierung –Strategie der
Dokumenten abhängig. Je besser die Analyse und Indizierung der HTML-Seiten ist,
desto umfangreicher ist das Angebot an Suchmethoden und -operatoren.Suchmaschinen
sind zweifellos bis heute die dominierenden Werkzeuge zur Suche im WWW.
2.2.3
Meta-Suchdiensten
Ein wesentliches Merkmal einer Metasuchmaschine (Multi-Search) besteht darin, dass
sie eine Suchanfrage gleichzeitig an mehrere andere „klassische“ Suchmaschinen
weiterleitet, deren Ergebnisse sammelt und dem Nutzer in einer Liste zur Verfügung
10
stellt. 7 Die Ergebnisse werden durch die Eliminierung von doppelten Einträgen, die
Bewertung der Ergebnisse und durch Aufstellung eines eigenen internen Ranking
einheitlich, wie bei einer „klassischen“ Suchmaschine, dargestellt. Die Ergebnisse einer
Metasuchmaschine werden meist langsamer geliefert, als bei einer normalen
Suchmaschine, weil deren Server zuerst auf die Antworten aller Suchdienste, an die
Suche weitergegeben wurde, warten muss und erst danach die Ergebnis präsentiert.
Es sind drei verschiedenen Arten von Meta-Suchdiensten zu unterscheiden. Es gibt die
Web-Seiten, die einfach mehrere Suchmasken verschiedener Suchmaschinen haben.
Diese Seiten sind zwar nicht "echte" Metasuchmaschinen, aber haben trotzdem gewisse
Vorteile. Es werden Suchformulare mehreren Suchmaschinen auf der Seite angeboten,
was das Laden der Homepages einzelner Suchmaschinen erspart und deren guter
Überblick anbietet.
Ebenso existieren auch die pseudo-sequentielle Meta-Suchdienste, die zwar nur ein
Suchformular haben, aber bei denen der Nutzer selbst die abzufragenden
Suchmaschinen manuell auswählen kann bzw. muss, um die Suche mit ihnen durch den
Metasuchdienst einzuleiten. Der Vorteil solcher Suchdienste besteht darin, dass die
Suchanfrage nur einmal erfasst werden muss.
Bei den "echten" Metasuchmaschinen werden automatisch mehrere Suchdienste, wie
Suchmaschinen und Verzeichnisse über eine Suchmaske befragt. Dabei werden die
Funktionalität und Operatoren der verschiedenen Suchdienste verwendet und die
Anpassung der Anfrage auf die einzelnen Suchdienste vorgenommen. Der Benutzer
weiß nicht, welche spezifischen Eigenschaften die unter der Meta-Maschine liegenden
Suchdienste haben. Die Kurzbeschreibungen, Titel oder Inhaltszusammenfassungen
werden übernommen und in einer einheitlichen Form dargestellt. Die Mehrfachtreffer
aus den Ergebnissen der verschiedenen Suchdienste werden bei der Anzeige eliminiert.
Bei der Suche in Meta-Suchmaschinen können oft auch die Zeitvorgaben und maximale
Treffergrenzen eingestellt werden. Die Zeit für die Suche ist so einstellbar, dass der
letzte nachgewiesene Treffer eines Suchdienstes noch erfasst werden kann.
Bei der Befragung der Suchdienste durch die Metasuchmaschine werden zwei
grundlegende Techniken unterschieden: der sequentielle und der parallele Zugriff. Bei
der sequentiellen Suche werden Suchdienste nacheinander von dem Metasuchdienst
befragt und die Trefferliste wird erst nach Befragung des letzten Suchdienstes erstellt.
Paralleler Zugriff ermöglicht gleichzeitige Abfrage der Suchdiensten. In diesem Fall
7
vgl. Sander-Beuermann (1998) S178.
11
wird die Ausgabe der Trefferliste schon begonnen, sobald einer der befragten
Suchdienste die Suchanfrage abgearbeitet hat.
Das zentrale Problem der Metasuchmaschinen ist das Ranking bei der Erstellung der
gemischten Trefferliste. Weil Rankingmechanismen einzelner Suchdienste oft sehr
unterschiedlich und geheim sind, wird die Trefferliste in den meisten Fällen nach den
Suchdiensten gruppiert. Weil die verschiedenen Suchmaschine unterschiedliche
Operatoren bei den Suchanfragen unterstützen können, sind die Beschränkungen bei der
Formulierung der Suchanfrage ein weiterer Nachteil der meisten Metasuchdienste. Es
existieren aber mittlerweile die Metasuchmaschine, die Suchanfragen mit
umfangreichen Optionen und Operatoren erlauben. Diese Metasuchdienste analysieren
die Anfrage und leiten diese nur an jene Suchmaschine weiter, die die Anfrage auch
bearbeiten können. Dabei sind die geringeren Ergebnismengen zum Nachteil, aber
gleichzeitig kann man die Qualität der Informationen durch den Einsatz der
verschiedenen Operatoren gewinnen.
Fazit ist, dass die Stärken von Metasuchmaschinen nur bei allgemeinen Suchanfragen
liegen, da in diesen Fällen die Benutzung mehreren Suchmaschinen die Anzahl der
relevanten Ergebnissen steigert. Bei der speziellen Anfrage ist es jedoch besser, eine
„klassische“ Suchmaschine zu benutzen.
2.3
Suchmaschinen-Markt in Deutschland
Der Suchmaschinen-Markt zeichnet sich durch eine hohe Konzentration aus. Durch eine
Menge von kleinen Suchmaschinen-Anbieter scheint es so, als ob es ein gesunder
Wettbewerb in dieser Branche herrscht. Dazu kommt auch, dass viele Anbieter keine
eigene Suchmaschine betreiben, sondern ein Suchmechanismus von den großen
Anbietern benutzen und visuell nur eigene Suchmaske anbieten. Aber nur sehr wenige
Anbieter beherrschen den Markt. Das hat dazu geführt, dass auf dem internationalen
Markt nur vier große Suchmaschinen-Anbieter existieren, die eigene Suchmaschinen
und Suchmechanismen mit riesigen Datenbeständen anbieten: Google, Yahoo,
Microsoft, Ask Jeeves.
Die Suchmaschine Google ist sicher der bekannteste Vertreter mit eigener
Suchtechnologie. Die meisten Internet-Nutzer benutzen die Google-Suchmaschine und
andere Dienste. Diese gilt heute als eine Art Synonym für die Web-Suche allgemein.
Yahoo hat als Web-Verzeichnis gestartet und lange Zeit hat sie die algorithmischen
Suchergebnisse von anderen Anbietern zugekauft. Erst im Jahr 2004 hat Yahoo auf der
12
Basis von gekauften Suchmaschinen All the Web und AltaVista und SuchtechnologieAnbieter Inktomi eine eigene Web-Suche, was der Bestandteil des Portals ist,
angeboten.
Die Suchmaschine von Microsoft wurde MSN („Microsoft Network") genannt. Wie bei
Yahoo hat Microsift auch lange Zeit nur auf die Suchergebnisse von Fremdanbietern
zurückgegriffen. Nur Ende 2004 wurde eine eigene Suchtechnologie vorgestellt und im
Anfang 2005 auf dem Markt angeboten.
Ask Jeeves ist auf dem europäischen Suchmaschinen-Markt ziemlich unbekannt, ist aber
in den USA von größerer Bedeutung. Nach dem Aufkauf der Suchmaschine Teoma im
Jahr 2003 verfügt Ask Jeeves über die vierte wichtigste Suchtechnologie auf dem
internationalen Markt.
13
Quelle: Clay (2006)
Abb. 2.3 Suchmaschinen-Markt in USA (Clay 2006) 8
Abbildung 2.3 zeigt die Beziehungen der Suchdienste untereinander auf dem USamerikanischen Markt. Hier kann man sehen, dass große Portale wie AOL oder Lycos
ihre Suchergebnisse komplett zukaufen.
8
vgl. Clay (2006)
14
Die Marktanteile von Google in USA sind 43,7%. Dann kommt Yahoo mit 28,8%,
MSN mit 12,8%, AOL und Ask mit 5,9% und 5,4% entsprechend 9. Für den deutschen
Markt sieht das Bild ähnlich aus wie in den USA, allerdings mit der bereits erwähnten
Ausnahme Ask Jeeves. Dieser Anbieter ist hier am Markt nicht vertreten bzw. unterhält
keine deutsche Seite. Nationale Anbieter, die eine gewisse Bedeutung haben, sind die
Suchmaschinen Fireball und Seekport sowie die Metasuchmaschine Metager.
Abb. 2.4 Beziehungsgeflecht der Suchmaschinen in Deutschland (Karzauninkat 2004) 10
Abbildung 2.4 zeigt analog zum Schaubild des amerikanischen Suchmaschinenmarkts
die Beziehungen der deutschsprachigen Suchmaschinen untereinander. Auch hier wird
deutlich, dass nur wenige Anbieter Suchergebnisse liefern und mit Ausnahme von
Yahoo keines der populären Portale eine eigene Suchmaschine anbietet.
9
vgl. Heise(2006)
Karzauninkat(2004)
10
15
Für Suchmaschinenmarketing, insbesondere für Suchmaschinenoptimierung sind die
aktuellen Marktanteile der Suchmaschinen und Verzeichnisse immer von großem
Interesse.
Abb. 2.5 Suchmaschinen-Marktanteile in Deutschland 11
Der Wettbewerb zwischen den großen Suchmaschinen in den USA beeinflusst auch den
deutschen Suchmaschinen-Markt. Die „größten Drei“, Google, Yahoo und MSN, sind
auch hier mit länderspezifischen Angeboten vertreten. Daneben umfasst der nationale
Markt eine Vielzahl weiterer Suchmaschinen, wie web.de, fireball.de oder T-Online.
11
Webhits (2006)
16
Im September 2004 ließen sich 193 deutschsprachige Angebote ermitteln, bei denen die
externe Suche die zentrale Funktion und die thematisch nicht spezialisiert waren.
Allerdings ist die Nutzung der meisten dieser Suchmaschinen sehr klein im Vergleich
zu dem Marktführer. Die reichweitenstärksten Suchmaschinen aus Deutschland sind
Lycos, Fireball, Web.de, T-Online und Seekport. 12
12
vgl. Webhits (2006)
17
3 Suchmaschinen-Marketing als ein wichtiger Baustein des
Unternehmen-Marketings
Suchmaschinen-Marketing ist heute eine effektive Möglichkeit für das Unternehmen
neue Kunden zu gewinnen und über Produkte und Dienstleistungen zu informieren.
Wichtigstes Ziel des Suchmaschinen-Marketings ist möglichst viele Internet-Benutzer
auf das Online-Angebot durch die Suchmaschinen aufmerksam zu machen. Die
Suchmaschinen sind heutzutage für die Mehrheit der Internet-User wichtigste
Informationsquelle und deswegen eine ideale Plattform für effizientes und nachhaltiges
Online Marketing.
3.1 Historische Entwicklung
Vor 16 Jahren in 1990 ist die Geschichte der Suchmaschinen an der McGill Universität
in Montreal begonnen. „Archie“ war die erste Suchmaschine, die die FTP-Verzeichnisse
auslesen konnte und nach Suchbegriffen in Dateien- und Ordnernamen durchsuchte.
Schon nach zwei Jahren gehörte diese Suchmaschine zu am meisten genutzten InternetDienste, obwohl sie keine Inhalte der Dateien bzw. Texte durchsuchen konnte.
Im Jahr 1991 wurde eine Software Namens „Gopher“ an der University of Minnesota
entwickelt, was die Verzeichnisse der Uni-Server durchsuchte und katalogisierte. Über
eine menügesteuerte Oberfläche konnte man dann diese Datenmengen durchsuchen.
1993 wurde der WWW-Standard zur kostenlosen Nutzung freigegeben und der erste
Webcrawler mit dem Namen „The Wanderer“ programmiert. Danach werden immer
mehr Crawler, Spider und Metacrawler entwickelt, die das Internet durchsuchten und
die Webseiten katalogisierten.
Diese Zeit war der Anfang der Erfolgsgeschichte der Suchmaschinen und damit
verbundenen Optimierung der Web-Inhalten. Es genügte damals die Meta-Tags und die
Inhalte der Seite mit populären Begriffen voll zu füllen, um diese auf die oberen Plätzen
bei der Suchanfrage zu finden. Die Spiders und Metacrawler durchsuchten die Seiten
auf Meta-Informationen und Häufigkeit der Keywords innerhalb des Inhalts und rankten
diese entsprechend hoch, wenn sie die populären Begriffe beinhalteten.
Im Juli 1994 wurde die Suchmaschine Lycos entwickelt und gestartet, die die WebDokumente nicht nur auf die Suchbegriff-Häufigkeit sondern auch auf die Nähe bzw.
Abstand der Suchbegriffe untereinander im Dokument untersuchte.
Im Jahr 1995 wurden die ersten kommerziellen Suchmaschinen veröffentlicht, die zum
Teil schon eine Volltextsuche anboten. Mit dabei waren Infoseek, Excite und AltaVista,
die noch bis vor wenigen Jahren sehr populär im Web war. Durch enorm
18
leistungsfähiges Roboter „Scooter“ hat AltaVista sich zu einer der führenden InternetAnwendungen gemacht. Bis noch Jahr 1998 orientierten sich die Suchmaschinen an
klassischen Information-Retrieval-Verfahren, d.h. dass Ranking fand nur auf
textstatistischer Ebene statt und wurde ganz vom dem Inhalt abhängig. Die Bedeutung
eines Dokumentes für einen Suchbegriff hängte von der Häufigkeit des Vorkommens
dieses Begriffes und seiner Stellung im Dokument ab. Natürlich wurden solche
Verfahren oft manipuliert, um auf den höheren Plätzen zu landen – man sollte nur die
gewünschten Keywords im Dokument häufig entsprechenden Stellen benutzen. Die
oberen Plätzen bei einer Suchanfrage bekamen dann die Dokumente mit höherer
Keyword-Dichte. In dieser Situation versuchten die Suchmaschinen-Betreiber solche
Manipulationen mit Einsatz von Keywords-Quoten zu beseitigen. Biz zu einer
bestimmten Anteil von Suchbegriffen wurde ein Dokument zu „natürlich“ erzeugten
zugeordnet, beim Überschreiten dieses Wertes steht Verdacht aud die Manipulation.
Ende 1998 veröffentlichten Larry Page und Sergey Brin ihre innovative
Suchmaschinen-Ranking-Technologie mit dem Titel “The Anatomy of a Large-Scale
Hypertextual Web Search Engine”. 13 Ein wenig später ist die Suchmaschine Google
gestartet und bleibt bis heute die meist benutzte und erfolgreichste Suchmaschine der
Welt.
Die Innovation von Google bei der Bewertung der Web-Inhalten war ein Rankingfaktor
das s.g. PageRank, der sich auf die Verlinkungsstruktur der Dokumente bezieht. Das ist
ein statischer Faktor, der die Qualität jedes von Google im Web indexierten Dokument
darstellt. 14 Das Grundprinzip wurde aus der Bibliografie bzw. Zitatsanalyse
übernommen. Ein Dokument, auf welches häufig verlinkt wird, ist bedeutender als
eines, das weniger oder gar nicht verlinkt wird. Aber auch diese Technologie hat die
Lücken für „schwarzen“ Suchmaschinen-Optimierer gelassen. Um die Anzahl der
Backlinks zu steigern, wurden die unzähligen Anmeldungen und Eintrage bei allen
möglichen Gästebücher, Forumen sehr populär und oft erfolgreich.
Allerdings hat es nich lange gedauert, bis es nicht nur bei der reinen Link-Zählung
blieb, sondern auch die Bedeutung wiederum nach dem PageRank-Verfahren der
verlinkten Seiten bewertet wurde. Ein Link von einer bedeutenden Seite(z.B. Yahoo
oder DMOZ-Verzeichnis) wird viel besser gewichtet als der Link von einer
unbedeutenden Seite (z.B. einer privaten Homepage).
Die PageRank wird in einem iterativen Verfahren berechnet und jedem indexiertem
Dokument zugegeben. Bei der späterer Suchanfrage wird dieses Faktor mit
13
14
vgl. Google (2006f), ff.
vgl. Brin & Page (1998)
19
Zusammenhang mit anderen textstatischen Verfahren die Platzierung eines Dokuments
bei der Suchanfrage beeinflussen.
Die Suchalgorithmen entwickelten sich immer weiter und ziehen immer mehr externe
Faktoren hinzu, damit das Ranking der Seite schwer von den Webmastern beeinflussbar
ist. Somit ist die Suchmaschinenoptimierung heute ein langer, arbeitsintensiver und oft
kostspieliger Prozess.
3.2 Definition und Formen des Suchmaschinenmarketings
Kaum ein anderes Online Marketing Instrument hat in den letzten Jahren so stark an
Bedeutung gewonnen, wie das Suchmaschinenmarketing. Mehr als 70 Prozent aller
Internetnutzer benutzen eine Web-Suchmaschine, um die Informationen über ein
Unternehmen oder Produkte zu finden. 15
Wegen der Vielzahl von Online-Angeboten ist es sehr schwierig, sich einen
Besucherstrom auf die Internet-Präsenz zu erarbeiten – Besucher einziehen und sie zu
einem Wiederbesuch zu motivieren. Mit Hilfe von Online- bzw. SuchmaschinenMarketing kann man die Zielgruppen erreichen, die man sonst mit normalen Medien
nicht erreichen kann.
Nach der Nutzung von Email-Diensten sind die Suchmaschinen die am häufigsten
benutzte Anwendung im Internet. Sehr viele Online Käufe sind heutzutage über eine
Suche in Suchmaschinen entstanden. Bei der Suche im Internet verfügt ein Nutzer oft
über ein konkretes Bedürfnis und häufig hat er eine konkrete Kaufabsicht. Gerade aus
diesen Gründen sind die Instrumente des Suchmaschinenmarketings in fast jeder Online
Marketing Planung vorhanden.
Suchmaschinenmarketing umfasst „alle Internetmarketing-Maßnahmen, die die
Funktion der Suchmaschinen nutzen, um höhere Besucherzahlen zu erzielen, um so neue
Kunden zu gewinnen und letztlich die Umsatzzahlen zu steigern“ 16
Grundsätzlich kann man Suchmaschinenmarketing in zwei Bereiche unterteilen:
Suchmaschinen-Optimierung und Sponsored Links.
Suchmaschinen-Optimierung, auch SEO (für "Search Engine Optimization") genannt,
hat sich als ein fester Baustein im Online-Marketing von Unternehmen etabliert.
15
16
vgl. Rabe, L. (2006),f
Keiser (2006)
20
„Search Engine Optimizer (SEO) entwickeln Optimierungsverfahren, um WebsiteAnbietern durch eine an die Suchalgorithmen angepasste Aufbereitung der Inhalte eine
höhere Trefferquote bei Suchmaschinen zu ermöglichen.“ 17
Alle Massnahmen eines SEO-Projektes kann man in 5 wichtigste Phasen aufteilen: 18
• Analyse der Web-Präsenz und Entwicklung notwendiger SEO Strategie;
• Optimierung des vorhandenen Online-Auftritts;
• Aufbau und Erweiterung relevanter und optimierter Website-Inhalte;
• Entwicklung einer Link- bzw. Pagerankstrategie;
• Erfolgsmessung, Anpassung und Ausbau der Maßnahmen.
Bei zweiter und dritter Phase handelt es sich um eine s.g. OnPage Optimierung und die
vierte Phase ist OffPage Optimierung.
Unter OnPage Optimierung versteht man alle Programmierungsmaßnahmen, die auf der
eigenen Website vorgenommen werden. Das sind die Anpassungen an Struktur und
Inhalt der Webseiten, um eine bessere Position in den Suchmaschinen-Ergebnissen zu
erzielen.
OffPage Optimierung beschreibt die Optimierungsmaßnahmen aller für eine
Suchmaschine relevanten externen Faktoren. Unter diesen versteht man die externe
Verlinkungsstruktur mit Qualität und Quantität der Links. Weil diese Faktoren nicht
leicht von dem Web-Master zu manipulieren sind, sind sie mittlerweile einige von der
wichtigsten Kriterien in den Suchmaschinen-Algorithmen. Heutzutage spielt effiziente
OffPage Optimierung eine mindestens so große als OnPage Optimierung Rolle. Aber
maximaler Erfolg kann ein Unternehmen nur durch Durchführung beider erreicht
werden.
Umfang und Gewichtung der einzelnen Phasen eines SEO-Projektes ist schwer zu
messen und ist von vorhandener Situation abhängig. Darauf nimmt großen Einfluss die
Branche des Unternehmens, Marktsituation und Wettbewerb, Online-Auftritt der
Konkurrenten bzw. Suchmaschinen Wettbewerb der Branche, technische
Ausgangsbasis und vorhandenes Budget fürs Projekt.
17
18
Machill & Welp (Hrsg.) (2003), S. 26
vgl. Marx, U. (2006)
21
Der Erfolg einer Suchmaschinen-Optimierung kann einige Zeit in Anspruch nehmen.
Als Alternativen um diese Zeit zu überbrücken, bieten sich die Sponsored Links an.
Die Sponsored Links, auch als Paid Listings, Keyword Advertising oder SEM (Search
Engine Marketing) bennant, sind die als Werbung gekennzeichnete
suchbegriffsbezogene Textwerbung oberhalb, unterhalb oder rechts neben den
Suchergebnissliste in einer Suchmaschine. 19
Ein Vorteil der Suchmaschinenoptimierung gegenüber der Sponsored Links ist, dass
Suchmaschinenoptimierung eine absolut andere Kosten-Nutzen-Auswirkung hat. Bei
der Sponsored Links werden die Kosten mit jedem Klick verursacht, was bei der
Suchmaschinenoptimierung nicht der Fall ist.
Auch erhöht die Suchmaschinenoptimierung im Vergleich zu den Sponsored Links die
Chancen, dass das Suchergebniss angeklickt wird. Wie die Eye-Tracking
Studie(Abb.3.1 und Abb.3.2) deutlich gemacht hat, haben die obersten fünf
„organischen“ Suchergebnisse einer Suchmaschine eine viel bessere Chance, angeklickt
zu werden, als die recht plazierten AdWords. 20 Hieraus ist eindeutig, dass durch
Suchmaschinenoptimierung
erarbeitete
Platzierungen
ein
höheres
betriebswirtschaftliches Potenzial haben als die bezahlte Sponsored Links am rechten
Bildschirmrand.
19
vgl. Glöggler (2003), S. 9f.
20
vgl. Enquiro & and Did-it.com (2005).
22
Abb. 3.1 EyeTracking Study 21
Abb. 3.2 Klick-Wahrscheinlichkeit nach EyeTracking Study 22
21
22
Enquiro & and Did-it.com (2005).
vgl. Enquiro & and Did-it.com (2005).
23
Auch ein weiteres Vorteil der Suchmaschinenoptimierung ist, dass die neutrale
Suchergebnisse keine Werbung sind und werden nicht als solche vom Nutzer
wahrgenommen - es gibt jedoch immer noch viele Internetnutzer, die das Anklicken von
Sponsored Links wegen ihrer Herkunft nach Möglichkeit vermeiden und organische
Links bevorzugen.
Aber die Schnelligkeit, mit der eine Werbung-Kampagne gestartet und gesteuert werden
kann, spricht für die Sponsored Links. 23 Mit der Sponsored Links kann man relativ
schnell z.B. Preisaktionen und saisonale Produkte oder Dienstleistungen vermarkten.
Aufgrund der schnell wachsenden und weit verbreiten Spam-Seiten gibt es mittlerweile
viele Internet-Nutzer, die grundsätzlich zuerst auf bezahlte Platzierungen klicken, weil
man dadurch schneller zu den relevanten Ergebnisen gelangen kann.
Einen optimalen betriebswirtschaftlichen Output können nur die Unternehmen daher
erreichen, wenn sie sowohl Suchmaschinenoptimierung als auch Keyword-Advertising
betreiben. 24
3.3 Bedeutung von Suchmaschinen für ein Online-Unternehmen
Aus der wirtschaftlichen Sicht kann man Internet als einen globalen, virtuellen
Marktplatz betrachten, wo die Käufer und Verkäufer von Waren und Dienstleistungen
zueinander finden. Der Erfolg oder Misserfolg eines Geschäftsmodells ist heute oft von
der Internet-Präsenz des Unternehmens abhängig. Besonders sind hier die OnlineAnbieter getroffen. Es ist extrem wichtig, dass ein Unternehmen nicht nur in den
Datenbanken der Suchdienste erfasst wird, sondern auch, dass sein Angebot in der
Trefferliste der wichtigen Suchdienste in Abhängigkeit zu einem bestimmten Suchwort
gut positioniert ist, d.h. unter mehreren tausend Suchtreffern innerhalb der ersten
Trefferpositionen steht. Unternehmen, denen es gelungen ist, haben die größten
Chancen, neue und fruchtbare Geschäftsbeziehungen zu knüpfen.
Die Ergebnisse der Studie zu Reisen und Internetrecherchen von Overture und
comScore vom 23.11.2005 haben bestätigt, dass das Internet bei der Planung von
Reisen einen großen Stellenwert hat und dass die Suchmaschinen zu den wichtigsten
Informationsquellen gehören. 25 Die Ergebnisse sind beeindruckend:
• 94 % der Befragten nutzten das Internet zur Vorbereitung ihrer letzten Reise, knapp
zwei Drittel (65%) setzten dabei sogar ausschließlich auf das Internet;
23
vgl. Kaiser (2004), S. 12, ff
vgl. Lammenett (2006)
25
vgl. Hier und im Volgenden Overture (2006)
24
24
• für 62% der Befragten sind die Suchmaschinen das am häufigsten genutzte Medium
für die Reiserecherche, gefolgt von Online-Reisebüros und Reise-Webseiten;
• bei der Suche nach dem richtigen Urlaubsziel, der Reisevorbereitung und Planung
liefert das Internet bessere Ergebnisse als Reiseprospekte (63% im Vergleich zu 59
%). Überzeugender schneiden in dieser Hinsicht nur noch traditionelle Reisebüros
(66 %) sowie Freunde und Familienmitglieder als Informationsquelle (72 %) ab;
• geht es um die gängigen Reise-Services, besonders Hotel- und Flugreservierungen,
sind Deutsche mit den Angeboten im Internet am zufriedensten;
• die urlaubsreifen Deutschen nutzen die Internetsuche während des gesamten
Entscheidungs- und Buchungsprozesses, um das richtige Reiseziel und ausführliche
Informationen zur Reise und zum Zielort zu finden. Dabei vergleichen sie
verschiedene Optionen, recherchieren den günstigsten Preis und buchen ihre Reise
dann auch oft im Online-Reisebüro (55%);
• je nach Reiseart buchten in den letzten 12 Monaten zwischen 53 % und 77 % der
Kunden online, vor allem Flugtickets, Mietwagen und Last Minute-Reisen.
Während noch vor wenigen Jahren das ganze Potential des Internets noch nicht bekannt
war und das Verbringen der Zeit im Web sogar verboten und strafbar war, gehört heute
die Internet-Recherche und Kommunikation zum Alltag fast aller Mitarbeiter, besonders
bei einem Online-Unternehmen. Wenn es um Einkauf oder Verkauf der Produkte und
Dienstleistungen geht, profitiert fast jedes Unternehmen von der Geschwindigkeit und
Informationsbereitstellung der Suchdienste.
25
4
Indexierung von Dokumenten und Rankingverfahren der
Suchmaschine
Da die Suchmaschinen mehrere Millionen von Internet-Seiten indexieren und die
Information speichern, ist es nachvollziehbar, dass bei einer Suchanfrage Tausende von
Ergebnissen geliefert sind. Um alle diese Ergebnisse nach Relevanz sortiert zu
bekommen, verwendet jede Suchmaschine eigene Ranking Algorithmus, was aus vielen
verschiedenen Faktoren besteht.
Der Begriff Relevanz lässt sich nach Glöggler auch im Sinne von Ähnlichkeit deuten.
„Ein Dokument ist im Sinne einer Suchanfrage relevanter als ein anderes Dokument,
wenn es inhaltlich der Suchanfrage eher entspricht, als ein anderes Dokument.“ 26
Alle diese Relevanz-Faktoren kann man in zwei Bereiche
informationsstatistische und linktopologische Rankingverfahren. 27
aufteilen:
4.1 Indexierung von Dokumenten
Die Indexierung von Web-Dokumenten ist eine zentrale Operation einer Suchmaschine.
Die Aufgabe ist aus analysierten Web-Dokumenten die Deskriptoren oder sog.
Schlagwörter abzuleiten, die den Inhalt eines Dokumentes im Index repräsentieren. Als
Deskriptor bezeichnet man meist vorgegebene Begriffe, die zur Beschreibung eines
Dokumentes ausgewählt werden können. Bei der Indexierung wird jedem Descriptor ein
bestimmter Wert zugeordnet, der seine Bedeutsamkeit widerspiegelt. Die DescriptorenListe, oder auch Schlagwortkataloge genannt, dient damit zum Repräsentieren eines
bestimmten Dokumentes über eine stichwortartige Kurzbeschreibung und auch für die
gleichzeitige Wiedergabe des Inhalts des Dokumentes. 28
Nach dem Verfahren unterscheidet man die manuelle Indexierung und die automatische.
Die manuelle Indexierung wird von einer Person, dem Indexierer, durchgeführt, was an
diesen sehr hohe Anforderungen bezüglich fachlicher Kompetenz stellt. Obwohl oft die
Terminologiebeschreibungen und Vokabularlisten zur Vefügung stehen, muss diese
Person die genaue Kenntnis dieses Vokabulars haben, weil auch die Pflege und die
Erweiterung des Vokabulars oft seine Aufgaben sind. 29
26
vgl. Glöggler (2003), S. 67
vgl. Lewandowski (2005), S. 90
28
vgl. Salton & McGill (1987), S,58 f
29
vgl. Kaiser (1993), S. 20 f
27
26
Der Vorteil der manuellen Indexierung besteht darin, dass die Inhalte eines
Dokumentes durch gut ausgebildeter und erfahrener Indexierer gut zu verstehen und zu
bewerten sind und damit auch wirklich inhaltsbeschreibende Deskriptoren vergeben
werden können. 30
Der Nachteil aber ist, dass aufgrund der riesigen und ständig wachsenden
Informationbestände die Zeiten zwischen der Veröffentlichung eines Dokumentes und
der Aufname dieses Documentes in Index einer Suchmaschine immer größer sind, weil
die manuelle Indexierung mit sehr hohem Zeitaufwand und hohen Personalkosten
verbunden ist. 31
Bei der Indexierung der grossen Informationsmengen in kurzer Zeit kommt
ausschließlich das automatische Verfahren infrage, das durch verschiedene Programme,
die die Stichwörtern extrahieren, erfolgt. Das Ziel der automatischen Indexierung ist es,
aus
einem vorliegenden Dokument automatisch die sinntragenden Wörter zu
extrahieren. Im Gegensatz zu manuellen Verfahren arbeiten die automatischen
Methoden mehr oder weniger mit der sprachlichen Oberfläche von Dokumenten, um die
Stichwörter zu ermitteln, und nicht bzw. zur Zeit nicht mit der Bedeutung ganzer
Texte.
4.2 Funktionweise der Suchmaschinen an Beispiel Google
Da die Suchmaschine Google der Führer mit mehr als 80% Anteil des deuschen
Suchmaschinenmarktes ist, ist ihre Funktionsweise und Indexierungmethoden
besonders interessant. Die Architektur dieser Suchmaschine wurde in der für Google
grundlegenden Arbeit „The Anatomy of a Large-Scale Hypertextual Web Search
Engine“ 32 von Brin und Page dargestellt. Natürlich seit dieser Zeit wurde die
ursprüngliche Systemzusammenstellung Systemzusammenstellung an die immer
entwickelndes WWW angepasst und modifiziert. Aber auf Basis der Veröffentlichung
von Brin und Page kann man die Grundprinzipien der Beschaffung, Verarbeitung und
Speicherung der Webdokumente bei Google und bei den Suchmaschinen allgemein
anhang folgender Abbildung besser verstehen.
30
vgl. Kaiser (1993), S. 22 f
vgl. Pekuysal (1992), S. 31
32
Brin & Page (1998)
31
27
Abb. 4.1 Architektur der Suchmaschine Google 33
Für die Beschaffung der Datenbeständen sind in d.R. Webroboter oder Ceawler
zuständig. Das sind „auf extreme Hochleistung getrimmte Systeme, die laufend das
World Wide Web und andere Elemente des Internet analysieren“. 34
Google und die andere Suchmaschinen setzen mehrere Crawler ein, die die Web-Seiten
und Dokumente Anhang der durch URL Server bereitgestellte URL-Listen
herunterladen und an die Store Server weitersenden. 35 Auf diesen Store Server werden
die Dokumente komprimiert und dann im Repository mit einer Identifikationsnummer,
die sog. DocID, abgespeichert. Weiter werden die Documente durch den Indexer und
den Sorter indexiert. Der Indexer liest das Repository, dekomprimiert die Dokumente
und wandelt diese mit Hilfe eines Parsers in einen Satz von Wortvorkommen um,
welche Hits genannt werden. Die Hits speichern neben den Wörtern auch die Position
von diesen Wörtern im Webdokument. Dann werden die Hits durch den Indexer in die
sog. Barrels verteilt. Damit erreicht man eine teilweise Vorsortierung (Forward Index).
33
Brin & Page (1998)
vgl. Lehmann & Lehmann (2002), S.174
35
vgl. hier und im Folgenden Brin & Page (1998)
34
28
Durch den Indexer wird auch die Linkstruktur eines Dokuments analysiert, wobei die
wichtige Informationen die Herkunft von Links, das Linkziel und der Linktext sind.
Diese Informationen werden in der Anchors-Datei abgelegt. Diese Datei wird von URL
Resolver abgelesen, um die relative URLs in absolute unter gleichzeitiger Vergabe einer
docID zu umwandeln. Der Linktext wird, verbunden mit der docID, auf die der
Linktext zeigt, in den vorsortierten Index gesetzt. Auf der Basis durch den URL
Resolver erzeugte Linkdatenbank (Links) wird den PageRank für alle Webdokumente
berechnet.
Der Sorter vewendet die Barrels, um diese nach wordIDs in eine Liste neu zu sortieren
und dadurch einen invertierten Index (Inverted Index) zu erzeugen. Ein Programm
vermischt diese Liste mit dem Lexicon, das durch den Indexer erstellt wurde und
erzeugt ein neues Lexicon, das vom Searcher genutzt wird. Der Searcher ist in Form
eines Webservers realisiert und nutzt neben dem Lexikon den invertierten Index und
PageRank, um auf die Suchanfragen zu beantworten.
4.3 Informationsstatistische Verfahren des Suchmaschinen-Rankings
Um die Relevanz der Web-Seite zu einer gegebenen Suchanfrage einzuschätzen,
verwenden die Suchmaschinen neben linktopologischen die informationsstatistische
Verfahren. Aufgrund der Menge und der Heterogenität der Dokumente kann man nicht
nur textstatistische Verfahren einsetzen. Ein weiteres das Ranking beeinflussende
informationsstatistische Verfahren ist die Auswertung des Nutzungsverhaltens.
Informationslinguistische Verfahren, die mit der Sprachenvielfalt des Web zu tun
haben, werden in Web-Suchmaschinen bisher nur in einem geringen Maß eingesetzt.
4.3.1
Textstatische Verfahren
Zu den klassischen textstatischen Faktoren des Suchmaschinen-Rankings gehören die
Worthäufigkeit, die inverse Dokumenthäufigkeit, die Position der Suchbegriffe und
deren Nähe zueinander im Dokument. Dies alles beeinflusst in gewissen Maßen die
Position eines Dokumentes in der Suchergebnissliste einer Suchmaschine bezüglich
eines bestimmten Suchbegriffs 36.
Die Suchbegriff-Häufigkeit oder Keyword-Frequenz gibt an wie oft ein Suchwort oder
Suchphrase im Inhalt eines Dokuments vorkommen soll. Mit der Häufigkeit des
Keywords wird so angenommen, dass, je öfter ein Suchbegriff im Text vorkommt,
damit relevanter ein Dokument in Zusammenhang zu einem Keyword ist. 37 Natürlich,
36
37
vgl. Glöggler (2003), S. 76f; vgl. auch Erlhofer (2005a), S. 118f.
vgl. Nohr (2003), S. 33f
29
um den Verdach auf die Manipulation zu vermeiden, soll man die gewisse Grenze nicht
überschreiten. Man soll versuchen, ein ausgewogenes Verhältnis von Worthäufigkeiten
der Schlüsselbegriffe im gesamten Text zu erzeugen. Eine Suchbegriffdichte von 1 bis
7% scheint von den meisten Suchmaschinenoptimierungsagenturen als empfehlenswert.
Ein Einsatz der Schlüsselwörter, der diese Grenze über- oder unterschreitet, kann auch
zu einer schlechten Ranking der Seite zu diesem Begriff führen.
Die Suchbegriff-Häufigkeit kann man ermitteln durch die Definition von Anzahl der
Vorkommen eines Wortes oder einer Phrase durch Anzahl aller Wörter im Dokument 38:
h (t )
TF (t , d ) = d
a(d )
Häufig aber verwendet man statt der direkten Anzahlen ihr Logarithmus:
TF (t , d ) =
(
)
log h (t ) + 1
d
log(a(d ))
Im Argument des Zählers wird 1 addiert, damit die Häufigkeit für nicht vorkommende
Suchbegriffe Null ist.
Bei der Search Engine Strategies Conference 2004 in London empfahl Charon
Matthew (MediaCo (UK)) vier Keyword im 250 bis 300 Wörtern-Dokument oder für
längere Seiten 8-10 mal in 500 Wörter. 39 Das ergibt eine Keyword Dichte ca. 1,6 %.
In August 2005 wurde von Dr.Braun bei der Search Engine Strategies Conference in
San Jose berichtet, dass die optimale Keyword-Dichte zwischen 3% und 5% liegt. 40
Durch die Ermittlung der Keyword-Dichte kann die Wichtigkeit eines Begriffes für die
Beschreibung des Inhalts eines Dokuments bzw. einer Seite berücksichtigt werden.
Obwohl die Keyword-Dichte heutzutage nicht mehr so wichtig wie früher ist, da jetzt
mehr Gewicht auf OffPage Kriterien gelegt wird, sollte man trotzdem bei der
Optimierung darauf achten.
Im Gegensatz zur Keyword-Frequenz, was sich auf ein Dokument bzw. Web-Seite
bezieht, ist die inverse Dokumentenhäufigkeit ein entscheidender Faktor für die ganze
Sammlung der Dokumenten, z.B. Web-Präsenz. Für eine Dokumentsammlung lässt sich
die Bedeutung der Worthäufigkeit wie folgt präzisieren. Die inverse
Dokumenthäufigkeit im Sinne der Suchmaschinenoptimierung beschreibt die
Gewichtung eines bestimmten Suchbegriffs in Bezug auf alle indexierten bzw.
38
vgl. Garcia (2005)
vgl. Matthew & Whalan (2004)
40
vgl. Brown (2005)
39
30
vorhandenen Seiten der Web-Präsenz. 41 Das bedeutet, ein Wort oder Phrase, das nur auf
wenigen Seiten oft vorkommt, ist geeigneter für die Aufnahme als Suchbegriff in Index
einer Suchmaschine, als ein, der auf fast jeder Seite oder nur sehr selten auftaucht. Mit
anderen Wörter ist eine Phrase oder ein Wort demnach um so wichtiger, je weniger
Seiten dazu mit ihm vorhanden sind. 42
Im Unterschied zur lokalen Suchbegriff-Häufigkeit ist die inverse Dokumenthäufigkeit
ein globaler Faktor, der sich als sinnvolle Kennzahl für die Verteilung eines
Suchbegriffs über eine Sammlung von Seiten einer Web-Präsenz erwiesen hat.
Die inverse Dokumenthäufigkeit lässt sich nach folgender Formel berechnen 43:
N
⎛
IDFt = log⎜1 + d
⎜
ft
⎝
⎞
⎟,
⎟
⎠
wobei N d die ganze Anzahl der Seiten bzw. Dokumenten ist und f t die Anzahl der
Seiten, die den Suchbegriff t enthalten.
Durch Multiplikation der Keyword-Frequenz und der inversen Dokumenthäufigkeit
ergibt sich für jedes Wort eines Textes ein Gewichtungswert, mit dessen Hilfe ein
Ranking der Suchergebnisse realisiert werden kann. Je höher das Gewicht, desto höher
ist das Ranking: 44
Gewicht (i, j ) = TF (i ) * IDF ( j )
Beim Suchen nach einer Suchphrase existiert eine weitere Variation des Verfahrens.
Hier geht es um den Abstand zwischen einzelnen Suchwörtern. Stehen die einzelnen
Begriffe enger zusammen (im Idealfall nebeneinander oder innerhalb eines Satzes), so
ist der entsprechende Text wahrscheinlich wichtiger für einen Nutzer als wenn die
Suchwörter zwar alle vorkommen, aber bezugslos an unterschiedlichen Textstellen
auftauchen. Der Gewichtungswert für einen Text errechnet sich aus der Anzahl der
Wörter, die zwischen den einzelnen Suchargumenten stehen. Der Wert für den Abstand
gegebener Suchwörter in einem Text ist um so größer, je kleiner der Wortabstand ist. 45
Natürlich spielt auch die Position des Suchbegriffs innerhalb des Dokumentes eine sehr
große Rolle bei der Ermittlung seiner Relevanz bezüglich dieses Suchbegriffs. Die
wesentliche Arbeit bei der Optimierung einer Web-Seite besteht auch darin, nicht nur
41
vgl. Glöggler (2003), S. 77f.
vgl. Nohr (2003), S. 36
43
vgl. Erlhofer (2005a), S. 119f.
44
vgl. Salton & McGill (1987) , S 78.
45
vgl. Stock (2000), S 132f.
42
31
die relative und absolute Häufigkeit der einzelnen Keywords zu berücksichtigen,
sondern auch Ihre Position innerhalb der Seite.
Die HTML-Sprache kann man gut benutzen um nicht nur die Seite zu gestalten, sondern
auch um Text gut zu strukturieren. Deswegen sind die mansche HTML-Tags geeignet,
die Relevanz der Seite zu bestimmen und das Ranking zu beeinflussen. Suchmaschinen
bewerten meistens die Web-Dokumente als besonders relevant, wenn der entsprechende
Suchbegriff z.B. im Titel oder innerhalb einer Überschrift vorkommt. Ebenso werden
die Begriffe wichtiger betrachtet, wenn die im Text weiter oben stehen.
Je nach der Art der Suchmaschine sind die Keywords an folgenden Stellen innerhalb
des Quellcodes der Seite besonders wichtig: Suchbegriffe im Seitentitel, in
Überschriften, Linktexten, im Inhalt als verschiedene Textformatierungen, in alt-Tags
von Grafiken, in Meta-Tags. Über die Reihenfolge der Wichtigkeit dieser Stellen lässt
sich streiten, denn die Suchmaschinen geben nicht bekannt, wie stark die einzelnen
Faktoren bewertet werden. Die manche Suchmaschinen legen besonderen Wert auf das
Vorkommen der Suchbegriffen im Url der Web-Seite, manche auf den Inhalt und titelTags der Links, und manche sogar auf die Meta-tags der Seite. Aber weil man vom
Seiten-Titel erwartet, dass er die Inhalte der Seite kurz beschreibt, bewerten diesen fast
alle Suchmaschinen besonders hoch.
Textstatische Massnahmen bei der Optimierung der Web-Seite sind ein sehr
zeitintensiver Prozess und eine sehr wichtige Komponente, die den Erfolg oder
Misserfolg einer Online-Präsenz bestimmt.
4.3.2
Nutzungsstatistische Verfahren
Bei den nutzungsstatistischen Rankingverfahren steht der Nutzer und sein Verhalten im
Mittelpunkt, weil nur er die Qualität der Dokumente am besten einschätzen kann. Die
nutzungsstatistischen Mechanismen messen die Häufigkeit, mit der ein Dokument in der
Trefferliste angeklickt wird, so g. Klick Populaität; die Zeit, die der Benutzer auf der
Seite verbringt und die Wiederkehrungen der Benutzer auf der Seite.
Im April 1998 haben Gary Culiss und Mike Cassidy ihre Suchmaschine DirectHit ins
Netz gestellt. Besondere Eigenschaft dieser Suchmaschine war, dass sie ihre
Suchergebnisse aufgrund des so. g. Klick Popularitäts-Verfahrens dargestellt wurden,
d.h. häufig aufgerufene Seiten bekommen bei der nächsten Suche nach diesem Begriff
eine bessere Ranking-Position. Um die Manipulationen zu vermeiden bzw. zu
verringern, wird dabei die aufrufende IP-Adresse registriert. 46
46
vgl. Culliss (2000)
32
Auch aufgrund einerseits der Möglichkeit der inadaequaten und irreführenden
Beschreibungen und andererseits, dass die Dokumente, die höhere Platzierungen
besitzen, gar nicht „verschoben“ werden können, wird bei diesem Verfahren noch
zusätzlich die Verweildauer der Nutzer bei den entsprechenden Dokumenten gemessen.
Wenn der Benutzer schnell zur Trefferliste zurückkehrt, um weitere in der
Suchergebnisliste vorhandene Seiten auszuwählen oder sogar seine Suchanfrage zu
ändern bzw. zu modifizieren, so deutet dies darauf hin, dass durch das Dokument sein
Informationsbedürfnis nicht befriedigt wurde. Solche Dokumente sind deshalb in
Zukunft bei der gleicher Anfrage nicht mehr so bevorzugt gelistet oder sogar schlechter
bewertet. Bei einer Suchanfrage, wenn der Benutzer nach dem Anklicken eines
Dokumentes lange nicht auf die Trefferliste zurückkommt oder sogar die Suchmaschine
verlässt, weil er seine Informations-Bedürfnisse befriedigen konnte, werden diese
Dokumente bei zukunftigen Anfragen besser bewertet und höher gelistet.
Eine weitere zusätzliche Parameter bei dem nutzungsstatischen Verfahren ist die
Wiederkehrungsrate für eine Seite bzw. ein Dokument. Hier wird die Anzahl der
wiederkehrenden Benutzer als Qualitätsmaß betrachtet. Dies basiert auf der Annahme,
dass eine regelmäßig besuchte Seite nicht schlecht sein kann.
Die nutzungsstatischen Verfahren, welche DirectHit für seine Suchmechanisme
benutzte, haben jedoch keine Verbreitung bei modernen Suchmaschinen gefunden, da
einfach durch die automatisierte Skripte die Ranking manipuliert werden konnte. Aber
die dahinterliegende Technologie, die die Anzahl und Qualität der Klicks auf ein
Ergebnis ermittelt, wird teilweise bei zahlreichen bekannten Suchdiensten zusätzlich zu
vorhandenen Suchtechnologien eingesetzt.
4.4 Linktopologische Rankingverfahren der Suchmaschinen
Neben den informationsstatischen Rankingverfahren setzen alle größten Suchmaschinen
als einen wesentlichen Faktor des Rankings die linktopologischen Verfahren ein. Diese
Verfahren beschäftigen sich mit der Bewertung der Qualität von Webseiten anhand
ihrer Verlinkungsstruktur, d.h. Anzahl eingehender und ausgehender Links und deren
Gewichtung.
Das Grundprinzip aller linktopologischen Verfahren ist, dass ein Dokument, das stark
verlink ist, von größerer Bedeutung ist, als eins, das weniger verlinkt ist. Dieses Prinzip
wurde von Bibliographie und Zitatanalyse übernommen. Ein Link wird als eine
Empfehlung für ein Dokument(wie z.B. in jeder wissenschaftlichen Arbeit) betrachtet.
Aber nicht jedes Link wird als gleichwertig bewertet, sondern wiederum aufgrund der
33
Verlinkungsstruktur und auch Thematik des Dokumentes bestehen die Unterschiede
nach ihrer Qualität. So die Links von einer Seite, die schon viele Links von anderen
Seiten auf sich bezogen hat, besser bewerten sind, als von jenigen, die noch nicht so
bekannt sind. Noch mehr nimmt ein Link an Bedeutung zu, wenn es bei der verlinkten
Seiten um ein gleiches Thema handelt.
Aber
natürlich
bestehen
auch
bei
diesen
Verfahren
verschiedene
Manipulationsmöglichkeiten. So ist es möglich mit Hilfe von entsprechenden Software,
eine große Anzahl von Webseiten mit notwendigen Verlinkungen zu generieren und
damit die Ranking der Ziel-Seite zu beeinflussen.
Heutzutage benutzen alle bedeutenden Suchmaschinen die linktopologischen Verfahren
für ihre Dokumentenbewertungen, wobei aber die Unterschiede in den Verfahren und
deren Implementierung bestehen.
4.4.1
Konzept der Link-Popularität
Wie in oberen Kapitel beschrieben wurde, setzen praktisch alle Suchmaschinen
heutzutage einen besonderen Wert auf das Vorkommen eines Suchbegriffs in den
Inhalten einer Webseite. Dieses Vorkommen wird auch nach den verschiedensten
Kriterien, wie etwa die Häufigkeit oder die Stellen des Vorkommens des im Dokument
gewichtet. Daraus sind die so g. Doorway Pages, die auf der Basis von Analysen der
textstatischen Bewertungskriterien optimal implementierten Webseiten sind und keine
besondere Informationswert tragen, außer nur für das Weiterleiten zur Ziel-Seite dienen,
populär geworden. Aus der Absicht, solche Seiten aus der relevanten Suchergebnissen
wegzuschaffen, entstand das Konzept der Link-Popularität.
Bei dem Konzept der Link-Popularität bezeichnet man die Anzahl der eingehenden
Links für ein Dokument bzw. Webseite als ein grundsätzliches Kriterium für die
Bedeutung einer Webseite in die Relevanzbeurteilung ein. Die Grundlage des
Konzeptes ist, dass eine Webseite um so wichtiger ist, je häufiger es von den anderen
verlinkt wird. 47
Fast alle Suchmaschinen benutzen mehr oder weniger Link-Popularität-Verfahren für
ihre Algorithmen. Die Suchdienste von Google, der Marktführer auf dem
Suchmaschienen Markt, sind auf diesem Prinzip „groß gewachsen“.
Durch dieses Konzept versuchen die Suchmaschinen, Erscheinungen verschiedener
Formen von auf den statischen Verfahren basierten Suchmashinen-Spam in den
Suchergebnissen zu verhindern. Aber wie die Entwicklung gezeigt hat, wurde auch das
47
vgl. hier und im Folgenden Erlhofer (2005a), S. 122f.
34
Konzept der Link-Popularität schnell von Webmastern antizipiert. Zuerst dienen zur
Linkssammlung die gefälschten Gästebucheinträge, dann die gefakten Foren-Threads
und künstlich erzeugten Blog-Kommentaren. Dazu kamen später die regelrechten LinkFarmen und Link-Netzwerke, die keinen anderen Zweck verfolgten, als durch die
gegenseitige Verlinkung eine hohe Linkpopularität zu schaffen.
Es war also notwendig, dass die Suchmaschinen, die Link-Popularität bei ihren
Algorithmen einsetzen, seine Verfahren ändern bzw. erweitern. Daraus entstand so.g.
Domain-Popularität Konzept und IP-Popularität Konzept, bei dennen nur die Links
von einem Domain bzw. IP-Adresse bewertet. Also ein einzelner Link hat nun genauso
viel Gewicht wie mehrere Links, die von derselben Domain bzw. IP die gleiche Seite
verlinken.
So konnte die Linkpopularität früher ganz einfach mit mehreren tausend Links von einer
einzigen Domain beeinflusst werden, so kann die Domainpopularität aktuell mit vielen
Links von verschiedenen Domains auf einem einzigen Server beeinflusst werden. Um
die IP-Popularität zu beeinflussen, müsste man somit viele Links von vielen
verschiedenen Domains auf vielen verschiedenen Servern, was natürlich sehr
kostenaufwändig und nicht effizient ist. Aber Einsatz von IP-Popularität bedeutet, dass
die gute und freiwillig gesetzten Links nicht berücksichet werden, wenn sich die
Kunden von Massenhostern wie z.B. 1+1, Host Europe, Strato, die auf einem Server
liegen, gegenseitig verlinken.
4.4.2
PageRank-Verfahren
Das PageRank-Verfahren ist nach seinem Erfinder Lawrence Page benannt und steht in
Hintergrund der Ranking-Mechanismen der Suchmaschine Google. 48 Das Verfahren
wurde von der Stanford University patentiert (United States Patent 6,285,999 49).
Im Gegensatz zum Konzept der Link-Popularität setzt das Konzept des PageRanks die
Betonnung nicht einfach auf die absolute Anzahl eingehender Links sondern mehr auf
die Qualitäte dieser Links. Das Argumente von Google-Gründer gegen das Konzept der
einfachen Link-Popularität war, dass es schon zwar beteutsam ist, wenn eine Seite
mehrere eingeehnde Links besitzt, aber nicht alle diese Links von gleicher Bedeutung
sind. Viel besser wird eine Seite bewertet, wenn sie von anderen bedeutenden Seiten
verlinkt wird.
„Außerdem analysiert Google die Wichtigkeit der Seite, die das Votum abgegeben hat.
Dabei hat ein Votum von einer Seite, die selbst als ’wichtig’ gewertet wird, ein größeres
48
49
vgl. hier und im Folgenden Brin & Page (1998)
Page (1998)
35
Gewicht und somit größeren Einfluss auf die Bewertung anderer Seiten. Wichtige,
qualitativ hochwertige Seiten werden von PageRank höher eingestuft und demnach
auch in den Ergebnissen an einer vorderen Position aufgeführt.“ 50
Und der Rang dieser verlinkten Seiten wird wiederum aus dem Rang verlinkender
Dokumente. Also die Bedeutsamkeit einer Seite wird rekursiv aus der Bedeutsamkeit
anderer Seiten ermittelt. 51
Lawrence Page und Sergey Brin bieten in ihren Veröffentlichungen eine sehr einfache,
intuitive Rechtfertigung des PageRank-Algorithmus an:
⎛ PR(T1 ) PR(T2 )
PR(Tn ) ⎞ 52
⎟⎟
PR( A) = (1 − d ) + d ⎜⎜
+
+ ... +
C
(
T
)
C
(
T
)
C
(
T
)
1
2
n
⎠
⎝
Hierbei ist:
PR( A) der PageRank einer Seite A,
PR(Ti ) der PageRank der Seiten Ti , von denen ein Link auf die Seite A
zeigt,
C( Ti ) die Gesamtanzahl der Links auf Seite Ti ,
d ein Dämpfungsfaktor (Damping Factor), wobei 0 ≤ d ≤ 1 . 53
Das PageRank-Verfahren bewertet nicht Web-Seiten in ihrer Gesamtheit, sondern
basiert ausschließlich auf der Beziehung einzelner Web-Seiten zueinander.
Der PageRank einer Seite A lässt sich rekursiv aus dem PageRank derjenigen Seiten
ermitteln, die ein Link auf die Seite A haben. Der PageRank der Seiten Ti wird anhand
der Anzahl C (T ) der von Seite T ausgehenden Links gewichtet. Das bedeutet, dass je
mehr ausgehende Links eine Seite T hat, umso weniger PageRank bekommt die Seite A
von Seite T. Schließlich wird die Summe der gewichteten PageRanks der Seiten Ti mit
dem Dämpfungsfaktor d multipliziert.
Lawrence Page und Sergey haben auch einen Zufalls-Surfer eingeführt, der einfach von
einer Seite zur anderen über beliebige Links geht, ohne dabei auf Inhalte zu achten. 54
Die Wahrscheinlichkeit, dass der Zufalls-Surfer nun einen bestimmten Link verfolgt,
ergibt sich aus der Anzahl aller ausgehenden Links auf der Seite, wo er sich befindet. So
ist diese Anzahl in der Berechnung des Pageranks mit dabei. Der Dämpfungsfaktor d,
der zwischen 0 und 1 liegt, bestimmt die Wahrscheinlichkeit, mit der der Zufalls-Surfer
50
vgl. Google (2006b)
vgl. Lewandowski (2005), S. 118
52
Brin & Page (1998)
53
Glöggler (2003), S.83
54
Page et al. (1998), S. 5f; vgl. auch Sobek (2002)
51
36
die Verfolgung von Links nicht abbricht und die Links auf dieser Seite weiterfolgt. Der
Dämfungsfaktor d wird Angaben von Lawrence Page und Sergey Brin für tatsächliche
Berechnungen üblicherweise auf 0.85 gesetzt. Da der Zufalls-Surfer nach dem Abbruch
der Link-Verfolgung eine beliebige Seite aufruft, geht die Wahrscheinlichkeit mit er er
dies tut, mit dem Wert (1-d) als Konstante in die Berechnung des PageRanks einer jeden
Seite ein.
Die Eigenschaften des PageRank kann man anhand eines einfachen Beispieles zeigen 55:
Abb. 4.2 Ein Beispiel für die Eigenschaften des PageRanks
Es sind drei Webseiten A, B und C gegenseitig verlinkt: Seite B verlikt auf Seite C,
Seite C auf Seite A und Seite A sowohl auf Seite B als auch auf Seite C. Der
Dämfungsfaktor d , um die Berechnungen zu vereinfachen, wird auf 0.5 gesetzt. So
kann man den PageRank für die einzelnen Seiten ermitteln:
PR( A) = 0.5 + 0.5 PR(C )
⎛ PR( A) ⎞
PR(B ) = 0.5 + 0.5⎜
⎟
⎝ 2 ⎠
⎛ PR( A) ⎞
PR(C ) = 0.5 + 0.5⎜
⎟ + PR(B )
⎝ 2 ⎠
Nach der Berechnungen dieser Gleichungen bekommt man folgende Werte:
PR( A) = 1.07692308
PR(B ) = 0.76923077
PR(C ) = 1.15384615
Aber, weil das Web aus Milliarden von Seiten besteht, ist die Berechnung solcher
Gleichungen einfach nicht möglich. Deswegen benutzt die Suchmaschine Google eine
näherungsweise, iterative Berechnung. 56 Es bedeutet, dass zuerst für jede Seite ein
PageRang zugeordnet wird und erst dann ermittelt man tatsächlichen PageRank aller
55
56
vgl. Sobek (2002)
vgl. hier und im Folgenden Glöggler (2003), S. 84 ff
37
Seiten in mehreren Berechnungsrunden. Anhang eines kleinen Beispiels sieht man das
Prinzip deutlicher. Als Ausgangspunkt sind wieder 3 Seiten mit jeweils Pagerank1.
Tab. 4.1 Iterative Berechnung des PageRankings
Iteration
PR(A)
PR(B)
PR(C)
0
1
1
1
1
1
0.75
1.125
2
1.0625
0.765625
1.1484375
3
1.07421875
0.76855469
1.15283203
4
1.07641602
0.76910400
1.15365601
5
1.07682800
0.76920700
1.15381050
6
1.07690525
0.76922631
1.15383947
7
1.07691973
0.76922993
1.15384490
8
1.07692245
0.76923061
1.15384592
9
1.07692296
0.76923074
1.15384611
10
1.07692305
0.76923076
1.15384615
11
1.07692307
0.76923077
1.15384615
12
1.07692308
0.76923077
1.15384615
Man sieht, dass schon nach wenigen Runden das gleiche Ergebnisse erscheint. Für die
Berechnung des PageRanks für das komplette WWW werden von Lawrence Page und
Sergey Brin ca. 100 Iterationen als hinreichend genannt.
Bei einer Suchanfrage wird aus den statischen Informationen, wie Titel, Url oder
Textinhalte der Seite, und den Ankertexten eingehender Links eine Position bestimmt.
Dann wird diese Bewertung mit dem PageRank der Seite als Indikator für die ganz
allgemeine Bedeutsamkeit der Webseite kombiniert. Bei diesem Kombinieren wird es
multiplikativer, und nicht additives, Verfahren eingesetzt, weil ansonsten die
Möglichkeit besteht, dass bei einer Suchanfrage die jenige Seiten hoch rangiert werden,
die sehr hohen PageRank besitzen, obwohl sie keinen Zusammenhang mit dem
Suchbegriff haben. 57
Bei den Suchanfragen, die aus mehreren Begriffen bestehen, zeigt sich der Einfluss
textstatischer Faktoren sehr groß. Der Einfluss des PageRank ist hingegen höher bei
unspezifischen, aus einem Begriff bestehenden Suchanfragen. Gerade für MehrBegriffs-Anfragen ist es möglich, mit den klassischen textstatischen Verfahren der
Suchmaschinen-Optimierung eine Web-Präsenz in den Ergebnislisten besser zu
platzieren. 58
57
58
vgl. Sobek (2002)
vgl. Sobek (2002)
38
Seit dem Lawrence Page und Sergey Brin ihre wissenschaftlichen Arbeiten
veröffentlicht haben, gibt es viele Diskussionen darüber, ob es für die Berechnung des
PageRank noch weitere Faktoren außer der Link-Struktur des Webs einbezogen sind.
Lawrence Page selbst skizziert in der Patentschrift 59 zum PageRank-Verfahren die
folgenden potentiellen Einflussfaktoren: 60
• die Stärke der Hervorhebung eines Links;
• die Position eines Links innerhalb des Dokuments;
• die Distanz zwischen Webseiten;
• die Bedeutung einer verweisenden Seite;
• die Aktualität einer verweisenden Seite.
Obwohl es schwer zu beantworten ist, ob einzelne dieser Faktoren tatsächlich in das
PageRank-Verfahren implementiert sind, ist es zu empfehlen, diese bei dem
Linkstausch zu berücksichtigen.
4.4.3
HITS-Verfahren
Ein bedeutendes linktopologischen Rankingverfahren ist auch das HITS-Verfahren von
Kleinberg (Hyperlink Induced Topic Search). Bei diesem Verfahren versucht Kleinberg,
die Einschränkungen einfacher Linkzählungen bzw. die themenunabhängigen
Bewertungen von Webseiten zu überwinden.
59
60
Page (1998)
vgl. hier und im Folgenden Sobek (2002)
39
Abb. 4.3 Hubs- und Authorities-Beziehungen beim HITS-Verfahren
Bei einer Suchanfrage werden nach HITS-Verfahren die besten Hubs und Authorities
zurückgeliefert. Die Authorities sind die Web-Seiten, auf die sehr häufig durch
Hyperlinks verwiesen wird, und die eine hohe Autorität in Bezug auf ein bestimmtes
Themengebiet aufweisen. Die Hubs sind die Seiten, die auf Authorities verweisen. Eine
Eigenschaft von Hub- und Authority-Webseiten ist, dass je mehr Hyperlinks von Hubs
auf eine Authority-Seiten verweisen, desto höher kann deren Qualität bewertet werden.
Man kann eine Hub-Seite als „gut bezeichnen“, wenn auf dieser die Links zu guten
Authorities, also die Links guter Qualität, gesammelt sind(z.B wenn eine Seite mit
ihrem Link das Yahoo-Verzeichnis empfiehlt).
Also bezogen auf diese Eigenschaft lässt sich nach HITS-Verfahren für eine Web-Seite
ein Hub-Gewicht (Hp) und ein Authority-Gewicht (Ap) berechnen.
H ( p) =
A( p ) =
∑ A(u )
u∈B: p →u
∑ H (v )
v∈B:v → p
Hub-Gewicht H ( p ) einer Web-Seite p berechnet man mittels Aufaddieren der
Authority-Gewichte A(u ) aller Seiten u, auf die die Seite p einen ausgehenden link hat.
Entsprechend wird das Authority-Gewicht A( p ) mittels Aufaddieren der HubGewichten H (v ) aller Seiten v, die einen Hyperlink auf p enthalten.
Die Hub- und Authority-Gewichte berechnet man mit einem iterativen Verfahren,
wobei zuerst die Ausgangswerte festgelegt und in jedem Schritt weiter bestimmt und
40
anschließend normalisiert werden. Zum Beginn werden die Hub- und AuthorityGewichte aller Seiten in B auf den Wert eins gesetzt. Schon nach wenigen Schritten
ändern sich die Gewichte nur noch geringfügig. Für das Bestimmen der Werte sollen in
der Regel schon 20 Durchläufe ausreichen 61.
Das Ergebnis ist für jede Seite ein Hub- und ein Authority-Gewicht. Meistens haben die
Web-Seiten mit hohem Authority-Gewicht nur ein geringeres Hub-Gewicht und die
Web-Seiten mit starkem Hub-Gewicht ein geringeres Authority-Gewicht.
Also mit dem HITS-Verfahren von Kleinberg ist es möglich, nicht nur die „wichtigsten"
Seiten zu einer Suchanfrage festzustellen, sondern auch die Seiten zu ermitteln, die
einen Sucheinstieg zu den bedeutenden Quellen bieten.
Die Kleinbergs Ideen wurden in den Algorithmen der Suchmaschine Teoma vor ihrem
Verkauf an Ask Jeeves in 2001 umgesetzt. Es ist natürlich nicht möglich, zu überprüfen,
ob es Ranking von Teoma exakt nach dem Kleinberg-Algorithmus abgelaufen ist, aber
es ist klar, dass die Hub- und Authorities-Seiten bei einer Suche zu unterscheiden sind.
Die Trefferlisten bei Teoma wurden in Ergebnisse, Ressourcen und Vorschläge zur
Verbesserung der Suchanfrage unterteilt. Unter Ergebnissen wurden die nach ihrer
Autorität sortierten Suchergebnisse angezeigt und die Ressourcen entsprachen den
Kleinbergs Hub-Seiten.
4.4.4
Hilltop-Verfahren
Der Hilltop-Algorithmus wurde von Bharat und Mihaila an der Universität Toronto
entwickelt und 1999 veröffentlicht. Im Jahr 2003 hat die Suchmaschine Google das
Patent an diesem Algorithmus gekauft.
Die grundlegende Idee dieses Verfahrens ist, die besten Web-Seiten zu populären
Themen Anhang ihrer eingehenden Links von so genannten Experten-Seiten zu
bewerteten. Eine Experten-Seite zu einem bestimmten Thema ist eine Web-Seite, die
Links zu vielen unabhängigen Seiten (in der Version von Bharat und Mihaila sind es
mindestens 5) zu diesem Thema besitzt(z.B. Web-Verzeichnisse). Man soll hier auch
die unabhängigen Seiten streng definieren. Die Seiten sind unabhängig, wenn sie nicht
zum gleichen Class-C Netz gehören, d.h. die ersten drei Blöcke der IP-Adresse stimmen
nicht überein, und nicht den gleichen Domainnamen haben (z.B. www.ltur.com und
www.ltur.de). Weiterhin handelt es sich auch nicht um eine transitive Beziehung, d.h.
Seite A steht in Verbindung mit Seite B und Seite B in Verbindung mit Seite C, so
stehen Seiten A und C in Verbindung.
61
vgl. Kleinberg (1999), S614
41
Die Webseiten, die viele eingehenden Links von besten Experten-Seiten besitzen, sind
dann die Autoritäten-Seiten und sind in den Ergebnislisten gut rangiert. Je mehr Links
von Experten-Seiten eine Web-Präsenz auf sich bezogen hat, desto höher steht sie
schließlich im Ranking.
Bei diesem Verfahren können aber auch die Situationen vorkommen, dass zu einer
Suchanfrage keine Seiten gefunden werden, weil nicht genügend Experten-Seiten zur
Verfügung stehen, um ein sinnvolles Ranking zu ermöglichen.
Weil angenommen ist, dass der Nutzer nicht in der Lage ist, die gesamte Treffermenge
einer Suchmaschine durchzusehen, liefert man nach dem Hilltop-Algorithmus nur
geringere Treffermengen zurück, die nur die wichtigsten Seiten beinhalten.
Da Google 2003 das Patent an Hilltop-Algorithmus erworben hat und einer der
Entwickler dieses Algorithmus Krishna Bharat mittlerweile ein Mitarbeiter von Google
ist, kann man davon ausgehen, dass Hilltop-Verfahren in Ranking-Mechanismen von
Google einbezogen wurde.
Eine Suchmaschinenoptimierung wird beim Hilltop-Algorithmus durch das Sammeln
von den Backlinks von Experten-Seiten erreicht. Man soll die zu optimierende Seite in
möglichst vielen Webverzeichnissen registrieren lassen oder nach den Seiten suchen,
die gleichzeitig auf viele top-platzierte Webseiten verweisen, um dort ein Link auf
eigene Web-Präsenz zu setzen zu versuchen.
42
5 Verfahren zur Optimierung der Indexierung und des Rankings von
Web-Seiten
Wie in Kapitel 3.2 beschrieben wurde, die Optimierung einer Web-Seite für die
Suchmaschinen ist die Durchführung aller Maßnahmen, die für bessere Platzierungen
dieser Seite innerhalb der natürlichen Ergebnisse der Suchmaschinen bezüglich den
bestimmten Suchbegriffen zu sorgen. Die Massnahmen zur Optimierung der SeitenStruktur und –Inhalte gehören zu den OnPage Methoden 62 und die Optimierung interner
und externer Link-Struktur zur OffPage Optimierung. 63 Methoden, die nicht relevante
Webseiten auf vordere Plätze der Suchergebnissen bringen, werden als Spam-Methoden
bezeichnet. Diese verstoßen gegen Regeln, die Suchmaschinen zum Schutz vor
Manipulationen ihrer Suchergebnisse aufstellen.
5.1 OnPage Suchmaschinen-Optimierung
Unter "OnPage Optimierung" versteht man alle Massnahmen, die ausschließlich auf der
eigenen Website vorgenommen werden. Dazu zählen Anpassungen an der Struktur und
den Inhalten der Webseiten, um eine bessere Position in den SuchmaschinenErgebnissen zu erzielen. Qualitativ hochwertige Informationen für die Besucher sollen
optimiert werden oder mit eigenen optimierten Texten ergänzt werden. Und die Seiten,
wo diese Informationen zu finden sind, sollen für die Suchmaschinen gut und schnell
erreichbar sein. Eine einmal "durchoptimierte" Webseite soll nun fortlaufend um neue,
ebenfalls optimierte Inhalte ergänzt werden.
5.1.1
Auswahl der Suchbegriffe
Die Auswahl der richtigen Schlüsselbegriffe für die Web-Seite ist eine der ersten und
wichtigsten Phasen bei der Umsetzung einer Suchmaschinen-Optimierungsstrategie, da
alle nachfolgenden Optimierungsmaßnahmen auf diesen Begriffen beruhen. Damit
bestimmt man, für welche Themen die Web-Seite relevant sein soll und mit welchen
Suchbegriffen die Webseite bei den Suchmaschinen gefunden werden soll. Diese kann
man in einzelne Schritte zerlegen. 64
Als erstes wäre ein Brainstorming notwendig, um Ideen für Keywords zu sammeln.
Dabei ist natürlich die Frage zu beantworten, welche Begriffe die potentiellen Kunden
bei ihrer Suche nutzen können. Sobald die Keywords-Liste erstellt wurde, kann man
diese mit verschieden Keyword-Tools auf weitere Ideen überprüfen. Unter den
62
vgl. Glöggler (2003), S. 169
vgl. Erlhofer (2005a), S. 239
64
vgl. Glöggler (2003), S. 126ff
63
43
kostenlosen Online-Tools sind MetaGer-Web-Assoziator 65 und das Google AdWords
Keyword Tool 66 zu empfehlen. Wenn die Liste von Suchbegriffen erstellt ist, kann man
diese bei der Notwendigkeit auch auf den möglichen Erfolgspotential überprüfen. Das
Overture Search Term Suggestion Tool 67 zeigt, wie oft ein Keyword im vergangenen
Monat im Overture-Netzwerk, wo z.B. die Suche von Yahoo ist, gesucht wurde und
außerdem in welcher Kombinationen es mit anderen Keywords benutzt wurde. Auf
diese Aussagen kann man sich nicht ganz verlassen, aber sie geben einen Anhaltspunkt
und eignen sich durchaus für Vergleiche zwischen Keywords. Um der Entscheidung
noch näher zu zukommen, sollte man sich an dieser Stelle einmal die Konkurrenz bei
einem Keyword anschauen. Die Anzahl der gefundenen Seiten für einen Suchbegriff in
den Ergebnissen einer Suchmaschine spiegelt den Schwierigkeitsgrad dieses Begriffs
wieder.
Kurz zusammenfassend sind also die folgenden Faktoren die wichtigsten bei der
Auswahl ihrer Keywords: Menge des zu erwartenden Traffic, Qualität des Traffics und
Wettbewerb bei diesem Keyword.
5.1.2
Optimierung der Struktur der Web-Seite
Die Festlegung der Struktur der ganzen Web-Präsenz ist auch einer der wichtigen
Ausgangspunkte für den Erfolg der ganzen Optimierungsmassnahmen. Hier orientiert
sich der Benutzer, aber auch die Suchmaschinen finden über die Navigation die eizelnen
Angebots-Seiten. Das klassische Strukturmodell einer Website ist der hierarchisch
verzweigte Baum mit der Homepage als Wurzel. Jedes Content-Objekt nimmt einen
bestimmten Platz in dieser Hierarchie ein. Zusätzliche Querverweise erleichtern die
Navigation zwischen verwandten Elementen in unterschiedlichen Ästen.
Bei der hierarchischen Struktur stellt sich die Frage, ob die Web-Präsenz eher flach oder
tief strukturiert sein soll.
Eine flach strukturierte Seite hat weniger Verzeichnis-Ebenen, dafür aber viele
Auswahlmöglichkeiten auf jeder Ebene. Hier muss der Benutzer zwar nicht so oft
klicken, steht aber vor grosser Auswahl verschiedener Rubriken auf jeder einzelnen
Seite.
65
vgl. MetaGer (2006a)
KeywordTool(2006)
67
SuggestionTool (2006)
66
44
Root-Indexseite
Thema 1
Seite1
Seite2
Thema 2
Seite3
Seite1
Seite2
Thema 3
Seite3
Seite1
Seite2
Seite3
Abb. 5.1 Ein Beispiel für eine flach strukturierte Seite
Die tief strukturierten Seiten bieten nur wenige Auswahlmöglichkeiten pro Seite, haben
aber viele Gliederungsebenen. Mit wachsender Tiefe steigt die Suchzeit und die
Navigation wird immer schwieriger.
Root-Indexseite
Thema 1
Seite1
Seite2
Seite3
Thema 2
Seite1
Seite2
Seite3
Thema 2
Seite1
Seite2
Seite3
Abb. 5.2 Ein Beispiel für eine tief strukturierte Seite
Als ausgewogene Struktur wird von Jacobsen eine mit maximal vier Ebenen und nicht
mehr als sieben Wahlmöglichkeiten auf jeder Seite empfohlen. Untersuchungen aus der
Gedächtnispsychologie haben gezeigt, dass das menschliche Gehirn sieben Elemente
optimal aufnehmen kann, höhere Anzahlen führen bei den meisten zu einer
Überforderung. 68
Von den meisten Suchmaschinen-Agenturen sind 3-4-Ebenen-Hierarchie auch zu
empfehlen. Mit einer möglichst flachen Datei-Hierarchie kann man das Leseverhalten
und die Suchmaschinen-Relevanz positiv beeinflussen. Die Anzahl der Verzeichnis-
68
vgl. Jacobsen (2002), S.99ff
45
Ebenen der Web-Präsenz hat unmittelbaren Einfluss auf die Geschwindigkeit und die
Vollständigkeit, mit der die Suchmaschinen-Robots die Webseite indexieren. 69 Die
flache Seite-Struktur ist auch ein entscheidener Faktor für die Vergabe des PageRanks
für die Angebots-Seiten. Wie schon im Abschnitt 4.3.2 erwähnt wurde, mit jeder
Verzeichnisebene der dabei maximal vererbte Pagerank um einen bestimmten Wert
(meistens um 1) sinkt, was natürlich die Position der Seiten in den Suchergebnissen
stark beienflussen kann.
5.1.3
URLs-Design
Wie nach einer Studie von Bright Planet 70 ermittelt wurde, sind etwa 80% aller WebSeiten von den Suchmaschinen gar nicht indexiert worden und sind durch eine WebSuche nicht findbar. Die meisten Webinhalte stehen in Datenbanken und sind erst über
die
dynamischen
Aufrufe
(z.B.
http://www.ehoi.de/search/searchresult.cfm?rid=51&datum_von=31.10.2006&datum_bis=23.12.200
6&calendar=yes&destination=104) verschiedener Art erzeugt. Genau bei solchen WebSeiten kriegen fast alle Suchmaschinen oft einen Stop-Befehl.
„Google indiziert dynamisch generierte Webseiten, einschließlich ASPSeiten, PHPSeiten und Seiten mit Fragezeichen innerhalb der URLs. Diese Seiten können unserem
Crawler jedoch Probleme bereiten, weshalb sie dann unter Umständen ignoriert
werden.“ 71
69
vgl. Erlhofer (2005a), S. 246
vgl. Berman (2001), S2.f
71
Google (2006c)
70
46
Abb. 5.3 Ein Beispiel für die Surfase- und Deep-Web 72
Dies hat verschiedene Gründe. Die Suchmaschinen wollen mit ihrem Spider nicht über
eine unbekannte Zahl von Parameterkombinationen an eine Unmenge von Dokumenten
kommen, die eigentlich keine echten Seiten sind. Inhalte in Datenbanken wechseln und
aktualisieren sich oft, was zu
Unterschieden zwischen dem angezeigten bei
Suchergebnissen und dem tatsächlichen Inhalt führt. Viele Shopsysteme, e-CommerceSeiten oder auch normale Webseiten vergeben beim ersten Seitenaufruf oft sogenannte
Session-IDs, die an die URL angehängt und von Link zu Link weitergegeben werden
und somit ermöglichen, den Benutzer über viele Seiten hinweg zu identifizieren.
Suchmaschinen möchten solche Seiten nicht indizieren, denn eine Benutzersitzung kann
benutzerspezifischen Inhalt haben und die Sitzung wird nach einer gewissen Zeit
ungültig, sodass diese Seiten später nicht mehr aufrufbar sind. 73
Auch ein Grund gegen die dynamischen Seiten ist, dass verschiedene
Parameterkombinationen zu gleichem Inhalt führen, und damit im Index der
Suchmaschine die redundanten Inhalte entstehen. Besonders problematisch ist für die
Suchmaschinen-Speider durch die Post-Formulare an die Inhalten zu kommen. Das
heißt, dass mit Post-Variablen erzeugten Seiten, bei denen es oft um ein Endprodukt
geht und die besonders attraktiv aus der Benutzersicht sind, bleiben in der
72
73
Berman (2001), S2.
vgl. Lewandowski (2005), S. 51
47
Suchmaschine nicht auffindbar. In diesem Fall sind die interne Verlinkunken auf die
Ziel-Seiten sehr hilfsreich.
Die statischen Seiten hingegen sind für alle Suchmaschinen-Roboter sehr attraktiv zu
indexieren, da es hier um einen eindeutigen und in der Regel konsistenten Inhalt
handelt. Zu den Vorteilen der statischen Seiten bei den Suchmaschinen können die
Aussagen der Suchmaschinen-Betreiber selbst sprechen.
Google:
„...Beachten Sie, wenn Sie dynamische erzeugte Seiten verwenden (d.h., wenn die URL
das Zeichen '?' enthält), dass einige Crawler dynamische Seiten im Unterschied zu
statischen Seiten nicht durchlaufen. Verwenden Sie wenige und kurze Parameter.“ 74
MSN:
“...Ihre URLs sollten einfach und statisch sein. Komplizierte oder häufig geänderte
URLs sind als Ziel von Links kaum geeignet. So kann für den URL
www.beispiel.com/meine_seitedas Crawling durch MSNBot einfacher durchgeführt
werden als für einen langen URL mit zahlreichen Erweiterungen.“ 75
Seekport:
„...Weil wir bei Seekport möglichst keine überflüssigen Seiten präsentieren wollen, sind
wir bei der Aufnahme solcher Seiten mit dynamischer URL sehr zurückhaltend.“ 76
Somit geben die meisten Suchmaschinen-Betreiber in ihren jeweiligen
Optimierungstipps das klare Statement ab, dass dynamische URLs nicht so gut wie
statische für die Suchmaschinenplatzierung sind.
Dazu kann man noch die Ranking von statischen Seiten verfeinern, indem man die
Suchbegriffe in URL der Seite aufnimmt. Da die Ranking-Mechanismen der einzelnen
Suchmaschinen geheim bleiben, ist die Gewichtung der Keywords in URL der Seite
unklar. Aber davon ausgehend, das diese bei der Suchergebniss-Anzeige extra
hingewiesen werden, spielen sie definitiv eine Rolle bei der Seiten-Bewertung.
5.1.4
Optimierung der Meta-Informationen
Die Meta-Tags der Seiten beinhalten Informationen, die etwas über ihre Eigenschaften
aussagen. 77 In Meta-Informationen kann man verschiedene nützliche Anweisungen für
74
Google (2006f)
MSN (2006a)
76
Seekport(2006)
75
48
WWW-Server, WWW-Browser und automatische Suchprogramme im Internet notieren.
Einige der Meta-Tags sind speziell für die Suchmaschinen-Spider und -Roboter
gedacht.
Diese Informationen werden von jeder Suchmaschine gelesen und
entsprechend ausgewertet. Meta-Tags können mehr oder weniger das Ranking, den
Inhalt und das Aussehen einer Angabe in der Trefferliste einer Suchmaschine
auswirken.
Die Metainformationen werden innerhalb des Dokumentenkopfes(im Header-Bereich
des HTML-Codes) platziert und sind für den User, ausser Titel-Tag, nicht sichtbar. Die
Idee, dass die Autoren ihre Web-Seiten anhand der Meta-Informationen beschreiben,
fanden die Suchmaschinen noch vor wenigen Jahren sehr gut, und zogen diese
Informationen in für die Relevanzbeurteilung ein. Aufgrund der ständig wachsenden
Zahl der Internet-Nutzer und immer wachsender Konkurenz im WWW wurde die
Suchmaschinenoptimierung ein immer wichtigerer Faktor. Dies führte dazu, dass diese
Form der Inhaltserschließung von den Website-Betreibern missbraucht wurde, indem
falsche Angaben die Suchmaschinen-Relevanz vortäuschen sollten. So konnte z.B. eine
Web-Seite, die keine Informationen über Kreuzfahrten enthielt, dennoch bei den
Suchanfragen zu den entsprechenden Suchbegriffen berücksichtig werden, das MetaTag Keywords mit den entsprechenden Begriffen gefüllt wurde:
<meta name=“ keywords“ content=“ Kreuzfahrt, Kreuzfahrten, Seereisen, Flussreisen,
Schiffe, Urlaub, Seeurlaub, Aida, Costa, Mittelmeer“ />
Aus diesem Grund verzichten heutzutage alle wichtigen Suchmaschinen auf die
Auswertung der Meta-Tags in ihren Ranking-Mechanismen. Ganz ohne Nutzen für die
Suchmaschinen-Otimierung sind einige Meta-Tags aber dennoch nicht. So verwenden
viele Suchmaschinen das Meta-Tag Description zur Erstellung der Anzeige bei der
Ausgabe von Suchergebnisen. Eine attraktiv aussehende Anzeige steigert die
Wahrscheinlichkeit, von dem User angeklickt zu werden.
Die andere Meta-Tags aus der Suchmaschinenoptimierung-Sicht sind uninteressant und
nutzlos, da diese in die Ranking-Algorithmen nicht eingezogen werden. Eine
ausführliche Abhandlung findet sich beispielsweise in Erlhofer. 78
77
78
vgl. Lewandowski (2005), S. 92
vgl. Erlhofer (2005a), S. 38-47
49
5.1.5
Optimierung der Inhalten der Seite
Grundsatzlich suchen alle Suchmaschinen nach Übereinstimmung der Suchbegriffe und
Inhalte der Seite – wie oft und wo wird der Begriff innerhalb der Seite gefunden.
Der Text innerhalb des Title-Tags im Head-Bereich wird nicht nur von allen
Suchmaschinen in hohem Maße gewichtet, sondern erscheint auch in der Ergebnisliste
jeder Suchmaschine meistens in gefetteter und unterstrichener Schrift, und gehört damit
zu den wichtigsten Elementen bei der Optimierung. Die hohe Bedeutung des Titels ist
damit verbunden, dass nirgendwo sonst der Inhalt des Dokuments so knapp und präzise
formuliert werden muss. 79 Deshalb ist die Nennung aller entsprechenden
Schlüsselwörter im Titel natürlich Pflicht. Die Suchmaschinen indexieren zwischen 80
und 250 Zeichen des Title-Tags. Die optimale Länge des Title-Tags sollte aber nur
zwischen 40 und maximal 100 Zeichen beinhalten. Das entspricht etwa vier bis zehn
Wörtern. 80 Benutzt man zu viele Wörter, nimmt die Bedeutsamkeit der einzelnen
Begriffe ab.
Der Body-Bereich enthält in einer suchmaschinenfreundlichen Webseite den Fließtext,
der das Thema inhaltlich vermitteln soll. Die beste Optimierung einen Text zu
schreiben, der das beabsichtigte Thema intensiv behandelt und wo die relevanten
Schlüsselbegriffe genannt werden. Der wichtigste Aspekt beim Schreiben eines
Fließtextes ist ein altes journalistisches Grundprinzip - das Wichtigste soll an den
Anfang eines Textes gestellt werden und die Bedeutung mit der Länge des Textes stets
abnimmt. 81 Generell gilt für jede Seite, dass der enthaltene Text eine gewisse
Kompetenz beweisen muss, d.h. die Schlüsselbegriffe in einem gesunden Verhältnis
zum Gesamttext stehen müssen. 82 Eine zu hohe Suchbegriff-Dichte (Keyword-Density)
kann zum Betrugsverdacht im Sinne eines Spamversuchs bringen. 83 Die optimale
Stichwort-Dichte hängt natürlich von den einzelnen Parametern einer Suchmaschine ab.
In der Praxis hat sich jedoch eine Suchbegriff-Dichte zwischen einem und sieben
Prozent als optimal erwiesen.
Um Nutzern das Scanning zu erlauben und gegebenenfalls einen Einstieg mitten in den
Text zu bieten, sollte die Aufmerksamkeit auf bestimmte Wörter innerhalb des Textes
gelenkt werden. Dabei stellt HTML eine Vielzahl von Möglichkeiten zur Verfügung,
79
vgl. Glöggler (2003), S. 131ff
vgl. Erlhofer (2005a), S. 218
81
vgl. Erlhofer (2005a), S. 220f.
82
vgl. Kapitel 4.2.1
83
vgl Glöggler (2003), S. 189f; vgl. auch Erlhofer (2005a), S. 270ff.
80
50
die eine Hervorhebung einzelner Zeichen bzw. Wörter erlaubt. 84 Die folgende Tabelle
zeigt eine Auswahl an Tags zur Hervorhebung von Termen:
Tab. 5.1 Auswahl an Tags zur Hervorhebung von Termen mittels HTML
Tag
Bedeutung
<b></b>
Fett(bold)
<strong></strong>
Fett(strong)
<i></i>
Kursiv(italic)
<s></s>
Durchgestrichen (strike)
<em></em>
Hervorgehoben (emphasized)
<cite></cite>
Zitat (citation)
<sub></sub>
Tiefergestellt Text
<sup></sup>
Höhergestellter Text
Nichts ist besser geeignet, das Thema eines Abschnittes zu bestimmen, als eine
beschreibende Überschrift. Diese Erkenntnis machen sich natürlich auch die
Suchmaschinen bei ihrer Analyse zu Nutze. In HTML sind Überschriften (Headings)
mit dem H1- bis H6-Tag vorgesehen. Der H1-Tag stellt somit die höchste Ebene dar.
Hier sollten dementsprechend auch die primären Schlüsselbegriffe positioniert werden.
Der Beschaffenheit der Links kommt bei der Optimierung ebenfalls eine wichtige Rolle
zu. Denn die a-Tags werden insbesondere unter Berücksichtigung des Anchor-Textes
analysiert und bilden somit in Bezug auf die hypertextuellen Gewichtungen ein
wichtiges Kriterium der Suchmaschinen-Optimierung. Dem Anchor-Text kommt daher
eine besondere Bedeutung zu.
Bei der Verwendung des Linktextes ist darauf zu achten, dass die Schlüsselwörter des
Dokuments verwendet werden, auf das der Verweis zeigt. So sollte ein Verweis von
Dokument A, der auf Dokument B verlinkt und auf den Begriff „Aida Kreuzfahrten“
optimiert wurde, auch diesen Begriff enthalten: <a href="aida-kreuzfahrten.html">Aida
Kreuzfahrten</a>. Das erhöht die Link-Popularity des Dokuments B, insbesondere, weil
der Linktext korrekt auf den zu erwartenden Inhalt hinweist. 85
Das Title-Attribut des a-Tags erlaubt es, jedes Verweis mit einem kommentierten Text
in Sinne einer Metainformation zu versehen. Aus diesem Grund wird das Title-Attribut
auch von Suchmaschinen berücksichtigt. In der Praxis sollte man eine entsprechende
Linkbeschreibung unter Verwendung der Schlüsselwörter im Title-Attribut platzieren.
84
85
vgl. hier und im Folgenden Glöggler (2003), S.151ff; vgl. auch Erlhofer (2005a), S. 225
vgl. Erlhofer (2005a), S. 265f.
51
So bietet man die Gelegenheit, dem Benutzer und den Suchmaschinen-Spider mehr
Informationen über das Linkziel zu geben.
Das Alt-Attribut des img-Tags gilt als alternative Beschreibung einer Grafik in der
HTML-Seite. Hier können die zusätzlichen Informationen über das Bild, den
Entstehungsort, den Fotografen oder Ähnliches gegeben werden. Aus diesem Grund
wird das Alt-Attribut auch von Suchmaschinen berücksichtigt.
5.1.6
Auslagerung der JavaScripts und Styles in externe Dateien
Ein weiterer Faktor, der die Position einer Seite in der Suchergebnissen beinflussen
kann und der auch zu optimieren ist, ist die Dateigrösse und damit verbundene Zeit
beim Laden der Seite durch Spiders. Ist die Seite nach 10 Sekunden nicht ausgeliefert,
brechen die meisten Suchmaschinen Crawler sogar das Indizieren ab. 86 Für die
Seitengrösse existiert bei fast allen Suchmaschinen eine obere Schranke. Es ist davon
auszugehen, dass eine Seite nicht mehr von allen Suchmaschinen aufgenommen wird,
wenn die Dateigrösse über 210 Kb liegt. In diesem Bereich liegt die Schranke der
Suchmaschine von Yahoo. Google erlaubt maximal 520 Kb und MSN indiziert sogar
Dateien, die über 1 MB gross sind. 87 Wenn man die Suchergebnise für einen beliebigen
Suchbegriff anschaut, kann man feststellen, dass die ersten Plätze durch die Seiten
besetzt sind, deren Grösse weniger als 100Kb ist. Sogar in top 10 findet man eine Seite,
die grösser als 100Kb ist, sehr selten. Die meisten Suchmaschinen-Agenturen und
Suchmaschinen-Optimierer empfehlen die Dateigrössen zwischen 20 und 80 Kb.
Die Trennung von Inhalt und Design durch die css-Dateien bietet auf vielen Feldern
bessere
Möglichkeiten.
Allein
die
Vielfalt
an
verschiedenartigen
Formatierungsmöglichkeiten macht den Einsatz sinnvoll. Ein Schlüsselelement bei der
Entwicklung von CSS war die Auslagerung der grafischen Beschreibungssprache. Zum
Auslagern schreibt man lediglich die CSS-Formatierungen in eine eigene Datei und
speichert diese von den Dokumenten zentral erreichbar ab. Anschließend bindet man die
CSS-Datei (z.B. site.css) über folgenden Befehl in den Head-Bereich des HTMLDokuments ein: <link rel="stylesheet" href="site.css" type="text/css">
Die JavaScript-Funktionen verbessern zwar die Usability der Seite, sind aber für die
Suchmaschinen-Spider oft ein Problem. Da die JavaScript durch Spiders nicht gelesen
wird und das Einbinden solcher Inhalte innerhalb der Seite nur die Dateigrösse
vergrössert, ist es sinnvoll, diese in externe JavaScript-Dateien auszulagern. Man kann
es auch in den Head-Bereich einbinden:
86
87
vgl. Tabke (2003), S. 335
vgl. Bondar (2006)
52
<script language=“ JavaScript“ т у р е ="text/javascript" src="javascript.js" >
Durch den Einsatz von ausgelagerten Stylescheets und JavaScript kann man von 50%
bis 75% der Dateigrösse sparen.
5.2 OffPage Suchmaschinen-Optimierung
Zur OffPage-Optimierung gehören alle Maßnahmen, die nicht direkt auf der Web-Seite
selbst vorgenommen werden. Im wesentlichem handelt es sich dabei um die Anzahl und
Qualität der aus- und eingehenden Verweise. 88
Man soll versuchen, die eingehenden Links von möglichst vielen verschiedenen
Domains zu erhalten. Aber nicht jeder Link ist gleich viel Wert. Es gibt eine Reihe von
Faktoren, mit denen man einen Link bewerten kann: 89
• PageRank der gelinkten Seite. Obwohl es noch viele andere wichtige Faktoren gibt,
spielt der PageRank eine der entscheidenden Rollen für die Ermittlung des Rankings
eigener Seite. Beispielsweise kann man mit einem einzelnen guten PR6-Link bereits
einen Pagerank von 5 erreichen.
• DomainPopularität der gelinkten Seite. Je größer dieser Faktor ist, desto besser wird
der Link bewertet.
• LinkPopularität der gelinkten Seite. Für Google hat dieser Faktor seine Relevanz
längst verloren, aber möglicherweise setzen noch manche andere Suchmaschinen
einen Wert darauf.
• Themenrelevanz. Wenn es auf den beiden Seiten um ein gleiches Thema handelt,
wird diesen Link höher von Suchmaschinen bewertet.
• Inhalte der gelinkten Seite. Die Seite soll über gute und relevante Inhalte verfügen.
• Erzeugtes Traffic. Der Link ist natürlich noch mehr Wert, wenn er gleich täglich
manche Besucher mit sich bringt.
• Platzierung des Links. Der Link soll möglichst innerhalb des Content-Bereiches vom
Text platziert werden und nicht als "Partner", "Linkpartner", "Werbung" oder
ähnliches betitelt werden.
88
89
vgl. Erlhofer (2005a), S. 239f
vgl. hier und im Folgenden Erlhofer (2005a), S. 260f.
53
• Anzahl der ausgehenden Links auf der gelinkten Seite. Die gelinkte Seite soll
möglichst wenig ausgehende Links haben (bis 20).
• Keine Spam-Techniken auf der gelinkten Seite. Links von Web-Seiten, die
irgendwelche Spam-Techniken nutzen, können das Ranking der eigenen Seite im
Endeffekt nur beeinflussen.
Zum Sammeln von eingehenden Links gibt es verschiedene sowohl kostenpflichtige als
auch kostenfrei Wege.
Als einfaches Beispiel zur Erhöhung der Anzahl der eingehenden Links ist das
Eintragen in Web-Kataloge. 90 Neben den populärsten DMOZ.org und YahooVerzeichnis soll man für den Anfang in die 10-20 Top-Verzeichnisse eintragen. Das
sind die Kataloge, die selbst möglichst viele eingehende Links haben, und die über
einen hohen Pagerank verfügen. Außerdem sind es natürlich die Verzeichnisse zu auf
eigener Seite behandelten Themen von besonderem Interesse.
Seit letzter Zeit sind in Deutschland auch die sog. Artikel-Verzeichnisse sehr populär
geworden, auf denen man Links im Tausch für einen Artikel erhält. Man veröffentlicht
dort einen Artikel, wo man dann Links einbetten darf. Die Vorteile in diesem Fall sind
klar – man kann selbst die Umgebung der Links bestimmen und damit den Wert der
Links erhöhen.
Sobald man sich einen kleinen, 3 oder 4, Pagerank aufgebaut hat, kann man mit dem
Thema Linktausch anfangen. Je besser die Qualität eigener Seite ist, desto höher können
natürlich auch die Ansprüche an potentielle Partner sein. Es gib zwei einfache Wege,
die potentielle Link-Partner zu finden: entweder sucht man in einem Thema-Katalog
nach den Seiten ähnlichen Themen oder es gibt die Möglichkeit, direkt über eine
Suchmaschine die Seiten zu finden, die auf direkte Konkurrenten verweisen und deren
Betreiber dann ansprechen.
Auch mittels Pressemitteilungen lassen sich Links generieren. Natürlich braucht es dazu
einer Seite und Informationen, die einer Pressemitteilung würdig sind. Die
Pressemitteilungen können kostenlos auf verschiedenen Seiten veröffentlicht werden.
Zu jeder Pressemitteilung gehört heutzutage natürlich ein Link zur Firmen-Website.
Ein weiteres Mittel zum Sammeln von eingehenden Links sind die Foren- und BlogsSignaturen. In diesen darf man meist einen Link einfügen. So gewinnt man nicht nur
Links hinzu, sondern bewirbt auch mit jedem Posting seine Websites.
90
vgl. Erlhofer (2005a), S. 263
54
Eine weitere, obwohl auch kostenpflichtige, Möglichkeit ist, die Links zu mieten.
Heutzutage gibt es viele Anbieter, die über Ebay, verschiedene Textlinkbroker oder
auch direkt von den Webseiten diese Option anbieten.
Abb. 5.4 Vermietung von Backlinks im Internet-Auktionshaus eBay 91
Wie oben beschrieben wurde, gibt es genügend Möglichkeiten, die eingehenden Links
zu besorgen, die alle aber einige Zeit in Anspruch nehmen werden.
5.3 Spam-Techniken bei der Optimierung von Web-Seiten
Die Spam-Techniken sind alle Maßnahmen, um das Ranking einer Website zu erhöhen
ohne dem User relevante Informationen zur seiner Anfrage zu Verfügung zu stellen. 92
Weil in Ranking von Suchmaschinen nicht nur OnPage-Faktoren sondern auch die
Bewertung von eingehender Links eingezogen sind, unterscheidet man zwischen den
Term Spamming und Link Spamming. Die bekannten Term Spamming-Techniken sind
Content Hiding, Doorway Pages, Cloaking. Bei der Link Spamming sind die
Linkfarmen, Crosslinking und Einträge in die Blogs, Guestbooks und Foren beliebt.
Content Hiding
Eine sehr einfache Spam-Methode ist Content Hiding, die das Ziel hat, die Spam-Texte
Tags für den Nutzer unsichtbar zu machen. Eine Möglichkeit hier ist, den Texten
dieselbe Farbe zu geben, wie die Farbe von Hintergrunds. 93 Dies kann entweder durch
direkte Einbindung ins HTML-Dokument oder durch CSS (Cascading Stylesheets)
vergeben werden. Eine weitere Möglichkeit besteht darin, die Eigenschaft „visible“ des
div-Tags zu benutzen. Die Texte, die innerhalb dieses Layers geschrieben sind, können
auch durch CSS unsichtbar gemacht werden, in dem man den Attribut „display“ des
Styles von diesem Tag auf „none“ setzt.
91
vgl. Ebay (2006). Suchbegriff „Pagerank“
vgl. Glöggler (2003), S. 187, vgl. auch Erlhofer (2005), S.268ff
93
vgl. Glöggler (2003), S. 191
92
55
Doorway Pages
Die Doorway Pages, auch Brückenseiten 94 genannt, dienen zur Verbesserung des
Rankings einer Web-Seite durch gezielte Manipulationen. Eine Doorway-Seite ist eine
speziell für einen oder mehreren Suchbegriffe optimierte Seite, die keine relevante
Information für den Nutzer hat und nicht das Teil des regulären Angebots einer WebPräsenz ist. 95
In der Regel wird der Nutzer gleich nach dem Laden der Seite durch die automatische
Scripts oder manuelle Auswahl weiter zu den Hauptinhalten geleitet. 96 Oft werden
solche Seiten durch sog. Doorwaypage-Generatoren erstellt und haben deswegen eine
klar erkennbare für die Suchmaschinen Struktur.
Der Einsatz von solchen Seiten ist sehr riskant, weil deren Herkunft gegen die
Richtlinien von Suchmaschinenbetreibern verstößt. Z.B. Google gibt eindeutige
Empfehlungen in seinen Richtlinien für Webmaster:
„Vermeiden Sie den Einsatz von "Brückenseiten" (Doorway-Seiten), die speziell für
Suchmaschinen erstellt werden...“ 97
Die Meinungen im Internet zum Einsatz von Doorway Pages sind sehr unterschiedlich.
Weil eine richtig gestaltende und mit gutem und relevanten für den Nutzer Inhalt
Doorway-Seite auch von den Suchmaschinen positiv und gut bewertet werden kann.
Cloaking
Eine optisch gut gestaltete und den Ansprüchen des Nutzers entsprechende Seite ist sehr
oft nicht ideal für die Suchmaschinen ausgerichtet. So, zum Beispiel, führten vielleicht
vielfache Begriffswiederholungen zum besseren Ranking, würde aber den Besucher
eher abschrecken. Cloaking ist eine Technik, die dem Nutzer ganz andere Seite
präsentiert als dem Suchmaschinen-Roboter. 98
Die Voraussetzung bei dieser Technik ist die exakte Identifikation von SuchmaschinenCrawlern. Das kann man durch die User Agents oder durch die Erkenntnis von IPAdressen der Suchmaschinen identifizieren. Der User-Agent wird im HTTP-Header
übertragen und beinhaltet den Namen eines Clients. Das ist entweder der Name eines
94
vgl. Google (2003)
vgl. Glöggler (2003), S. 195f;
96
vgl. Erlhofer (2005a), S. 280f.
97
Google (2006d).
98
vgl. hier und im Folgenden Glöggler (2003), S. 197f.
95
56
Browsers oder der Name eines Suchmaschinen Crawlers. Hier ist der Beispiel für
Suchmaschine Google:
User-Agent: Googlebot/2.1 (+http://www.googlebot.com/bot.html) 99
Anhand der IP-Adressen die von Suchmaschinen verwendet werden, kann man der
Suchmaschinen-Crawler auch identifizieren. Natürlich in diesem Fall sind die aktuellen
IP–Listen der Spider die Voraussetzung für ein funktionsfähiges IP–Cloaking. Die
Einstellung von Suchmaschinen-Betreibern sind in diesem Fall auch eindeutig definiert:
„Erstellen Sie Seiten für Nutzer und nicht für Suchmaschinen. Versuchen Sie nicht, Ihre
Nutzer zu täuschen, und bieten Sie Suchmaschinen keinen Content an, den Sie nicht
auch für die Nutzer verwenden. Dies wird als "Cloaking" bezeichnet.“ 100
Doorway Pages und Cloaking sind die bekanntesten Vertreter der OnPage SpamTechniken, aber wichtig ist auch, möglichst viele Links guter Qualität zu der eigenen
Webseite zu sammeln.
Linkfarms
Um möglichst schnell viele Verweise zu bekommen, sind in großer Zahl sog.
Linkfarmen entstanden. Es handelt sich dabei um die Webseiten, die eine riesige Menge
von Links zu anderen Seiten enthalten, die ihrerseits wieder auf die betreffenden
Webseiten zurück verlinken. Die Linkfarm-Webseiten haben in aller Regel keinen
weiteren Inhalt außer den Links, die allein dem Zweck eines höheren Rankings dienen
sollen, und werden deshalb von Suchmaschinen zurecht als Spam bewertet.
Webseiten, die sich an Linkfarmen beteiligen, werden entweder schlechter bewertet
oder völlig aus dem Index rausgeworfen. Es ist auch nicht besonders schwierig für die
Suchmaschienen-Betreiber zu eine Linkfarm zu erkennen. Bei einer Analyse eines
Dokuments durch die Software der Suchmaschine kann auch das Verhältnis des Textes
zu den Links ermittelt werden. Wird ein nur sehr geringer Textanteil festgestellt, kann
dies als Verdacht für eine Linkfarm gesehen werden.
Doch selbst wenn eine Linkfarm als solche nicht erkannt werden sollte, bestehen kaum
Vorteile. Die Wahrscheinlichkeit, über einen derartigen Link Besucher zu erhalten, ist
gering. Auch der Einfluss auf das Ranking ist minimal. Je weniger ausgehende Links
eine Webseite nämlich enthält, desto wichtiger werden diese von einer Suchmaschine
99
Gyöngyi & Garcia-Molia (2004)
Google (2006d)
100
57
bewertet. Umgekehrt sind Links von einer Webseite, die mit diesen überfrachtet sind, so
gut wie nichts wert.
Crosslinking
Bei dem Crosslinking-Verfahren versucht man die Link Popularity zu steigern, in dem
man aus vielen verschiedenen Webauftritten gebündelt auf eine einzige oder mehrere
Seiten verlinkt.
Abb. 5.5 Ein Beispiel für die Crosslinking-Struktur
Es gibt aber viele Risiken, die dieses Verfahren mit sich bringt und die Realisierung
somit erschweren. Gerade bei Google stoßen diese Maßnahmen gegen ihre Philosophie,
dem Nutzer möglichst relevante Informationen zu bieten, die aus einem natürlich
entstandenen Netz von Querverlinkungen hervorgehen. . Somit gibt es die
Wahrscheinlichkeit, aus dem Google-Index über Bord geworfen zu werfen, wenn die
Umsetzung von Crosslinking nicht mit dem nötigen technischen Wissen realisiert wird.
Gästebücher, Blogs und Foren
In einem Gästebuch einer Web-Seite haben die Besucher die Möglichkeit eine Notiz,
meistens über einen Text-Editor, zu hinterlassen. Bei vielen Gästebüchern werden die
Einträge, ohne manuelle Überprüfung, automatisch veröffentlicht, was natürlich die
Möglichkeit gibt, den Link zu eigener Seite, innerhalb der Nachricht zu setzen.
Auch die Blogs und Foren, die einen hohen PageRank haben, werden benutzt, um den
Link innerhalb der Kommentare zu setzen. Es ist aber meistens zeitaufwändig, da die
Registrierung bei vielen Foren und Blogs vorausgesetzt ist. Das Thema um Ausnutzung
der Gästebücher und Foren rückt in letzter Zeit immer in den Mittelpunkt der Kritik.
Weil alle Suchmaschinen nur die relevanten Ergebnisse zu einer Abfrage liefern wollen,
ist eine Identifizierung von den Spam-Seiten für sie von großer Bedeutung.
Google weist in seinen Qualitätsrichtlinien auf folgende Grundprinzipien hin:
„Vermeiden Sie Tricks, die das Suchmaschinen-Ranking verbessern sollen. Beachten
58
Sie die folgende Faustregel: Sie sollten kein schlechtes Gefühl haben, wenn Sie einer
konkurrierenden Website Ihre Vorgehensweise erklären sollen. Eine weitere hilfreiche
Frage lautet: ‚Nutzt dies den Besuchern meiner Site? Würde ich das auch tun, wenn es
keine Suchmaschinen gäbe?’ Nehmen Sie nicht an Link-Programmen teil, die dazu
dienen, Ihr Ranking oder Ihren PageRank-Wert zu verbessern. Meiden Sie insbesondere
Links zu Webspammern oder ‚schlechte Nachbarschaft’ im Web, da Ihr eigenes
Ranking durch solche Links negativ beeinflusst werden kann.“ 101
So lassen sich die Suchalgorithmen ständig weiterentwickeln, um diese Erkennung zu
ermöglichen.
101
Google (2005a)
59
6 Analyse der Web-Seite www.e-hoi.de und die Durchführung der
notwendigen Optimierungsmaßnahmen
6.1 Stammdaten der Seite ehoi.de und Auszug der Statistiken
Die Web-Seite von e-hoi Gmbh ist seit 2003 online zu erreichen. Hier sind einige
sowohl technische Daten als auch die Daten aus der Nutzer- und SuchmaschinenPerspektive, die vor der Erstellung einer Optimierungsstrategie zu berücksichtigen sind.
Tab. 6.1 Stammdaten der Web-Präsenz www.e-hoi.de
ColdFusion, *.cfm
Programmiersprache,
Dateiendung
Datenbank
Microsoft SQL Server
Web-Server
ColdFusion Web Server auf der Plattform des Microsoft WebServers
www.e-hoi.de, www.ehoi.de, www.i-hoi.de, www.ihoi.de
Domains
3 Jahre
Alter des Domains
30 000 Seiten
Anzahl der Seiten in GoogleIndex
250 Kb
Durchschnittliche Grösse
einzelnen Seiten
Reisen/ Kreuzfahrten
Branche
ungefähr 11.400.000 Ergebnisse für Wort „Kreuzfahrten“ in
Google
Konkurrenz:
Startseite: 1 Seite
Relevante Informationen für
Nutzer und Suchmaschinen
Seite der Angeboten: 1 Seite
Beschreibung der Schiffe: ca. 450 Seiten
Beschreibung der Reedereien: ca.110 Seiten
Beschreibung der Routen: ca. 1 600 Seiten
Beginn der Optimierungen
August 2006
Für die Suchmaschinen-Optimierung wurden folgende Maßnahmen vorgeplant:
1. Auszug der Statistiken für Jahr 2005-2006
•
Anzahl der Besucher allgemein
•
Anzahl der Besucher für die Einstieg-Seiten aus den Bereichen Schiffe,
Reedereien, Angebote und Routen
•
Anzahl der Buchungsanfragen
•
Anzahl der Buchungen
60
2. Suchbegriffe
•
Auswahl der Suchbegriffe
•
Ermittlung der Positionen
3. Erstellung eines neuen Bereiches für die Reiseziele (ca. 100 Seiten)
4. Optimierung und Erstellung von zusätzlichen internen Verlinkungen
5. Optimierung der Inhalte
•
Umstellung auf statische URLs
•
Optimierung der Meta-Information
•
Optimierung der Titel
•
Erstellung der Überschriften-Struktur
•
Platzierung der Keywords innerhalb wichtiger HTML-Tags
6. Auslagerung des Quellcodes
•
JavaScript
•
Styles
Die ganze Optimierung der Seite soll innerhalb von 3 Monaten umgesetzt werden. Nach
2 Monaten nach der Umsetzung aller Maßnahmen werden die Statistiken und
Suchbegriffen-Positionen wieder ermittelt, um den Erfolg der durchgeführten
Suchmaschinen-Optimierung zu Bewerten.
Die Optimierungsmaßnahmen sollen im August 2006 gestartet werden. Zu diesem
Zeitpunkt liegen folgende Statistiken zu Hand:
Tab. 6.2 Besucher-Statistik der www.e-hoi.de (Aug.2005-Aug.2006)
61
Besucher
der Seite
Einstiegseiten
Buchungsanfragen
Startseite
Angebote
Schiffe
Reedereie
Routen
Reiseziele
08.2005
52127
13765
653
3551
730
5949
0
174
09.2005
39030
9873
451
2413
549
4777
0
85
10.2005
41180
12070
488
2201
489
4106
0
136
11.2005
46902
12919
449
2179
500
4676
0
147
12.2005
34197
8009
371
2094
471
4037
0
158
01.2006
54.308
12958
458
3362
712
5483
0
214
02.2006
38.476
10013
467
3037
552
4142
0
149
03.2006
46.226
12242
410
3316
601
4798
0
220
04.2006
42.354
10166
397
2759
397
4844
0
177
05.2006
37.864
12422
380
2392
459
4001
0
196
06.2006
38.476
9545
365
1944
285
4862
0
267
07.2006
42.496
11731
490
1558
295
5246
0
289
6.2 Auswahl der Suchbegriffen und Ermittlung ihrer Positionen in Google
Es sind alle mögliche Suchbegriff-Variationen relevant, die die zusätzlichen Nutzer auf
die Seite bringen können. Hier ist der Inhalt der verfügbaren und eventuell neuen
Informationen als Ausgangspunkt zu betrachten.
Mit Google Trends, einem Online-Tool der Suchmaschine Google, ist der Vergleich
von Suchanfragen bzw. Suchbegriffe im Verlauf mehrerer Jahre möglich. So nach dem
Vergleich der Worten „Kreuzfahrten“ und „Kreuzfahrt“ wurde entschieden, bei allen zu
optimierten Suchphrasen den Wort „Kreuzfahrten“ zu benutzen.
62
Abb. 6.1 Ergebnisse des Google Trends nach dem Vergleich der Wörter "Kreuzfahrt" und "Kreuzfahrten"
Ausgehend von den verfügbaren Seiten aus den Bereichen Schiffe, Reedereien, Routen
und auch der neu zu entstehenden Seiten aus dem Bereich Reiseziele waren die
Suchbegriffe nach folgendem Prinzip zu definieren: Name + Wort „Kreuzfahrten“.
Daraus entstand die Liste mit 500 relevantesten Keywords zu dem Thema Kreuzfahrt.
Im Anfang August wurden die Positionen Anhang dieser Keyword-Liste in wichtigsten
Suchmaschinen Google, Yahoo und MSN ermittelt. Daraus ist es bekannt geworden,
dass die Seite von e-hoi nach keinem Suchbegriff in der Top 10 der SuchmaschinenErgebnisse war.
Tab. 6.3 Ein Beispiel für die Positionen der Suchbegriffe in der Ergebnissen wichtiger Suchmaschinen
63
Keyword
Startseite
Angebote
Reedereien
Shiffe
Reiseziele
Google
Yahoo
MSN
Kreuzfahrt
49
*
*
Kreuzfahrten
26
*
*
Kreuzfahrten Angebote
*
*
*
Billige Kreuzfahrten
*
*
*
Specials Kreuzfahrten
*
*
*
Last minute Kreuzfahrten
*
*
*
AIDA Kreuzfahrten
*
*
*
Costa Kreuzfahrten
*
*
*
Hansa Kreuzfahrten
*
*
*
Deilmann Kreuzfahrten
76
*
89
Queen Mary Kreuzfahrten
*
*
67
Pacific Princess Kreuzfahrten
75
*
*
Monarch of the Seas Kreuzfahrten
96
*
72
Marco Polo Kreuzfahrten
*
*
*
Alaska Kreuzfahrten
78
*
*
Kanarische Inseln Kreuzfahrten
*
*
*
Westliches Mittelmeer
Kreuzfahrten
*
*
*
Oder Kreuzfahrten
*
*
*
Die volle Keywords-Statistik ist im Anhang dargestellt.
6.3 Erstellung eines neuen Bereiches für die Reiseziele
Mit einem Online-Tool auf der Seite www.ranking-check kann man KeywordDatenbank 102 der Suchmaschine Overture abfragen. Als Ergebnis bekommt man die
Liste der populärsten Suchphrasen, die das eingegebenes Wort enthalten.
102
vgl. Rankingcheck (2006)
64
Abb. 6.2 Die Ergebnisse der Abfrage der Omniture-Datenbank durch den Online-Tool der Seite
www.ranking-check.de nach dem Wort "kreuzfahrten"
Aus der Abbildung 6.2 sieht man, dass die Nutzer sehr oft nach Kreuzfahrt-Reisezielen
suchen.
Da in der Datenbank von e-hoi für die meisten Reiseziele die Bilder und die
Beschreibungen gespeichert sind, war es sinnvoll, diese Informationen zu nutzen, um
neue Benutzer aus der Suchmaschinen auf die Seite zu ziehen. So wurden für jede
Reiseziel die dynamischen Seiten implementiert, die nur die einfache Suchmaske,
Bilder, Beschreibungstexte, mögliche Reisetermine für diese Destination und ein paar
allgemeinen Informationen enthalten.
65
Abb. 6.3 Ein Beispiel für eine Reiseziel-Seite von www.e-hoi.de
66
6.4 Optimierung der Seiten-Struktur
Wie in Kapitel 5.1.2 erwähnt wurde, ist die Struktur der Web-Präsenz auch ein
wichtiger Ausgangspunkt für den Erfolg der Optimierungsmaßnahmen, da die
Suchmaschinen über diese die einzelne Angebot-Seiten finden können. Eine optimale
Seiten- Hierarchie beinhaltet 3-4-Ebenen, d.h. mit drei oder vier Klicks soll der
Benutzer der Seite die einzelnen Angebote finden können.
Ein weiterer Motivationspunkt bei der Optimierung ist das Ziel, dass möglichst viele
Angebot-Seiten in den Index von Suchmaschinen landen. Zu der Zeit des Beginns der
Optimierungsmaßnahmen wurden die Angeboten von e-hoi, nur über eine Suchmaske
dynamisch erzeugt. Es gab keine andere Möglichkeit, ohne Eingabe von Parameter
diese anzuschauen. Weil alle Suchmaschinen große Probleme mit Indexierung von
dynamischen Seiten haben, benötigte man eine zusätzliche interne Verlinkung von
diesen Seiten.
Es wurde so realisiert, dass auf jeder Seide der Bereiche von Schiffe, Reedereien und
Reisezielen einen Abfahrtskalender und Teaser mit der populärsten Themen zugefügt
wurden.
Hier ist der Beispiel für eine von Schiff-Seiten: rechts ist der Kasten mit populärsten
Hochsee- und Fluss-Schiffe und unten sind die Links für alle Abfahrtstermine
(Angebot-Seiten) dieses Schiffes. Im Analog zu den Schiff-Seiten wurden auch die
Reederei- und Reiseziel-Seiten ergänzt.
67
Abb. 6.4 Ein Beispiel für die Integration der zusätzlichen Verlinkungen auf einer Schiff-Seite von
www.e-hoi.de
Damit die neue Reiseziel-Seiten besser für die Suchmaschinen zugänglich sind und
möglichst mehr an PageRank von Startseite vererben, wurde unter Hauptmenüpunkt
„Suche“ ein neuer Kasten mit Links zu allen Reiseziel-Seiten angelegt.
68
Abb. 6.5 Ein Beispiel für die Integration der zusätzlichen Verlinkungen auf der Suche-Seite von www.ehoi.de
Mit diesen Maßnahmen hat man erreicht, dass möglichst viele Angebot-Seiten von den
Suchmaschinen indexiert werden können und damit sind mehr Seiten zu potentiellen
Einstieg-Seiten geworden.
69
6.5 Optimierung der URLs und Header-Informationen
Unter der Optimierung der URLs versteht man die Umwandlung aller dynamischen
URLs, die verschiedene Parameter enthalten, in statische, die von den SuchmaschinenSpeider als einfache HTML-Seiten interpretiert werden.
Die Optimierung von URLs hat zwei wesentliche Vorteile. Von einer Seite nutzt man
die Möglichkeit, die relevanten Suchbegriffe innerhalb des URLs zu platzieren und von
anderer Seite vermeidet man die Wahrscheinlichkeit, dass die Seite durch viele
dynamische Parameter einfach nicht indexiert wird.
Die Umschreibung von URLs für die ColdFusion-Seiten erfolgt durch die Verwendung
von regulären Ausdrücken, die in einer Datei hdttp.ini auf dem Web-Server angelegt
werden und von einer ISAPI- Schnittstelle gelesen werden.
Hier ist ein Beispiel für den regulären Ausdruck für die Umschreibung aller
dynamischen Schiff-Seiten von Form schiffe.cfm?shipid=[parameter_value] in Form
kreuzfahrt-schiffe/[beliebige-zeichen]-kreuzfahrt/schiffsdaten-[parameter_value].html:
RewriteRule ^ kreuzfahrt-schiffe/(.*)-kreuzfahrten/schiffsdaten-(.*).html$
content/schiffe.cfm?shipid=$2
Nach dieser Regel sehen dann die URLs für die Schiff-Seiten wie folgt aus:
Vor:
http://www.e-hoi.de/content/schiffe.cfm?shipid=42
http://www.e-hoi.de/content/schiffe.cfm?shipid=183
http://www.e-hoi.de/content/schiffe.cfm?shipid=460
Nach: http://www.e-hoi.de/kreuzfahrt-schiffe/costa-magica-kreuzfahrten/schiffsdaten-42.html
http://www.e-hoi.de/kreuzfahrt-schiffe/aidablu-kreuzfahrten/schiffsdaten-183.html
http://www.e-hoi.de/kreuzfahrt-schiffe/arielle-kreuzfahrten/schiffsdaten-460.html
Nach der Umschreibung hat das URL von Schiff-Seiten verschiedene Variationen von
relevanten Suchbegriffen zu den Inhalten der Seiten, wie z.B. „Schiffsname +
Kreuzfahrten“, „kreuzfahrt schiffe“ oder „schiffe Schiffsname schiffsdaten“.
Im Analog zu den Schiff-Seiten werden auch die dynamischen URLs für alle Seiten
anderer Bereiche umgeschrieben.
Für Reederei-Seiten:
Vor: http://www.e-hoi.de/content/reederei.cfm?rid=120
Nach: http://www.e-hoi.de/kreuzfahrt-reederei/color-line-kreuzfahrten/veranstalter-120.html
Für Reiseziel-Seiten:
Vor: http://www.e-hoi.de/content/destination.cfm?destinationid=76
Nach: http://www.e-hoi.de/afrika-kreuzfahrten/fahrgebiet-76.html
70
Für Routen-Seiten:
Vor: http://www.e-hoi.de/content/reise.cfm?rspez=reisedetail&reise=9861
Nach: http://www.e-hoi.de/kreuzfahrt/westliches-mittelmeer-Kreuzfahrten/9861_525/carnival-freedomcarnival-cruises-civitavecchia-rom-italien.html
Nach der Umschreibung hat das URL einer Route-Seite alle wichtigsten Informationen
zu den Inhalten der Seite, wie Reiseziel, Reederei-Name, Schiff-Name, Start-Hafen,
End-Hafen und die Wörter „kreuzfahrt“ und „kreuzfahrten“.
Mit dem optimierten Design von allen dynamischen URLs hat man erreicht, dass alle
Seiten von den Suchmaschinen als statische akzeptiert werden und dass die
Suchbegriffe, für welche diese Seiten optimiert werden, innerhalb von URLs
auftauchen.
Die wichtigsten Inhalte aus der Sicht von Suchmaschinen, die das Header eines HTMLDokuments enthaltet, sind Titel der Seite und zwei Meta-Tags: Description und
Keywords.
Der Titel der Seite ist wohl das wichtigste zu optimierte Element, da er den Inhalt
ganzes Dokuments in sich widerspiegelt. Deswegen soll er auf jeden Fall die
Suchbegriffe, für welche das Dokument optimiert wird, enthalten.
Die Meta-Informationen sind heutzutage aus der Suchmaschinen-Perspektive nicht so
relevant wie vor wenigen Jahren. Aber die Möglichkeit diese gut zu gestalten und die
Suchbegriffe rein zu schreiben, muss man auf jeden Fall nutzen
Bis zu dem Zeitpunkt der durchgeführten Optimierungen hatten alle Seiten von e-hoiWeb-Präsenz, außer Schiff-Seiten, die gleiche Titel und Meta-Informationen:
Titel: e-hoi - click und cruise
Meta-Description: Kreuzfahrt Kreuzfahrten Seereise Seereisen Schiffsreise
Schiffsreisen Eine Kreuzfahrt, Seereise oder Schiffsreise online buchen. Eine
Kreuzfahrt auf einem Schiff oder Urlaub auf einem Kreuzfahrtschiff auf den sieben
Weltmeeren.
Meta-Keywords: Kreuzfahrt, Kreuzfahrten, Seereise,
Schiffsreisen, Schiffe, Reise, Reedereien, Suchen, Buchen.
Seereisen,
Schiffsreise,
Der Titel der Schiffseiten wurde im Juni 2006 optimiert, was die Folgen hat, dass fast
alle Schiff-Seiten bis diesen Zeitpunkt, schon in Top 50 der Suchergebnissen waren.
Dies bestätigte, dass die Suchmaschinen besonderen Wert auf das Vorkommen der
Suchbegriffe im Titel legen.
71
Tab. 6.4 Titel und Meta-Informatioene nach der Optimierung der wichtigen Seiten der www.e-hoi.de
Shiffe
Titel
AIDAblu Kreuzfahrten - e-hoi - click and cruise
z.B.:
MetaDescription
Alle AIDAblu Kreuzfahrten im Überblick. Attraktive Last-Minute
Angebote und Specials für Kreuzfahrten auf der AIDAblu und anderen
deutschen und internationalen Schiffen wie z.B. AIDA Kreuzfahrtschiffe,
Costa Kreuzfahrtschiffe oder Kreuzfahrten mit den Top-Schiffen Freedom
of the Seas, MS Deutschland, oder Queen Mary.
MetaKeywords
AIDAblu Kreuzfahrten, AIDAblu Seereisen, Schiffe, Kreuzfahrt Schiffe,
Kreuzfahrten Schiffe, Kreuzfahrtschiffe, Hochsee Schiffe, Fluss Schiffe,
Seereisen Schiffe, Schiffsreisen, Aida Schiffe, Costa Schiffe,
Traumschiffe, Deutsche Schiffe, Segelschiffe, Luxus Schiffe, Hurtigruten
Schiffe
Reedereien
Titel
Nicko Tours Kreuzfahrten - e-hoi - click and cruise
z.B.:
MetaDescription
Alle Nicko Tours Kreuzfahrten im Überblick. Attraktive Last-Minute
Angebote und Specials für Kreuzfahrten mit der Nicko Tours-Reederei
und anderen deutschen und internationalen Veranstalter wie z.B. AIDAReederei oder Costa-Reederei.
MetaKeywords
Nicko Tours, Nicko Tours Kreuzfahrten, Nicko Tours Reederei, Nicko
Tours Veranstalter, Kreuzfahrten Reedereien, Kreuzfahrtreedereien,
Veranstalter, Kreuzfahrt Veranstalter, Kreuzfahrten Veranstalter,
Kreuzfahrtveranstalter
Reiseziele
Titel
Afrika Kreuzfahrten - e-hoi - click and cruise
z.B.:
MetaDescription
Die Afrika Kreuzfahrten im Überblick. Attraktive Specials und LastMinute Angebote für die Afrika-Kreuzfahrt mit den Top-Schiffen und
besten deutschen und internationalen Reedereien.
MetaKeywords
Afrika, Afrika Kreuzfahrten, Afrika-Kreuzfahrt, Kreuzfahrt Destinationen,
Kreuzfahrt Fahrtgebiete, Kreuzfahrt Reiseziele
Titel
Afrika Kreuzfahrten mit der Black Watch der Reederei Fred. Olsen
Cruises ab dem Hafen Southampton (England) - Seereise 5794
AIDAblu
Nicko
Tours
Afrika
Routen
MetaKreuzfahrt-Reisebeschreibung für die 79 tägige Afrika Kreuzfahrt auf dem
Description
Schiff Black Watch der Reederei Fred. Olsen Cruises ab dem Hafen
Southampton (England) nach Southampton (England)
MetaKeywords
Black Watch Kreuzfahrten, Afrika Kreuzfahrten, Fred. Olsen Cruises
Kreuzfahrten,Southampton (England) Kreuzfahrten, 79 Tage
Kreuzfahrten, Black Watch Seereisen, Afrika Seereisen, Fred. Olsen
Cruises Seereisen,Southampton (England) Seereisen, 79 Tage Seereisen,
Kreuzfahrt, Kreuzfahrten, Seereise, Seereisen, Schiffsreise, Schiffsreisen,
Urlaub, buchen, Schiff
Bei der Optimierung wurden die relevanten Informationen aus der Datenbank gezogen
und in Titel und Meta-Tags geschrieben. Nach der Durchführung der Optimierungen
sehen dann diese wie folgt aus:
Die Meta-Tags und der Titel aller Route-Seiten (eigentliche Angebotsseiten) enthalten
alle relevanten Informationen zu der Reise, wie Reiseziel, Reederei, Schiff, Starthafen,
Endhafen und Dauer der Reise.
72
Abb. 6.6 Ein Beispiel für die Anzeige der Suchphrase "Afrika Kreuzfahrten" in der Ergebnissliste der
Suchmaschine Google
Mit diesen Optimierungen hat man erreicht, dass es für jede, aus der Sicht der
Suchmaschinen relevante Seite, die dynamisch erzeugte Meta-Informationen und Titel
gibt, die den Inhalt des Dokumentes widerspiegeln.
6.6 Optimierung der Inhalten
Die Optimierung der Inhalte der Seiten wurde nach folgenden Schritten durchgeführt:
•
Erstellung der Überschriften-Struktur
•
Die relevanten Begriffe innerhalb des Textes fett markieren (unsichtbar
für Nutzer)
•
Dynamisches Alt-Attribut des img-Tags
•
Dynamisches Titel-Attribut des a-Tags
CSS ist eine Sprache, die die Formatierung von HTML-Seiten ermöglicht. Sie greift auf
die HTML-Elemente zu und verleiht ihnen spezielle gewünschte Darstellungsmerkmale.
Dies kann durch einmalige Vorschrift für ganze Sites oder auch bei einzelnen Tags
erfolgen. Alle wichtigen aus der Suchmaschinen-Sicht HTML-Elemente können damit
angepasst werden.
Zum Beispiel die Überschriften in reiner HTML-Sprache sehen wie folgt aus:
73
Abb. 6.7 Ein Beispiel für die Anzeige der Überschriften h1, h2, h3 und h4 nach HTML-Formatierungen
ohne CSS
Nach der Formatierung des <h1>-Elementes sieht dann dies so aus:
Abb. 6.8 Ein Beispiel für die Anzeige des Überschriftes h1 nach CSS-Formatierung
Um dieses Ergebnis zu bekommen, braucht man in css-Datei die Eigenschaften für
<h1>-Element zu definieren:
h1{
font-family: Verdana, Arial, Helvetica, sans-serif; font-size: 12px; font-style: normal;
font-weight: bold; background-color: #006699; color: #FFFFFF;
text-decoration: none; padding-left:10px; margin:0px;
}
So ähnlich kann man alle Überschriften und andere Elemente zu formatieren.
Beispielweise, wenn man dem b-Tag die Eigenschaft „font-weight: bold”, können die
Wörter, die in Quellcode fett markiert sind, für den Benutzer ganz normal, wie alle
andere, erscheinen: b{
font-weight: normal; }
Die zwei weitere HTML-Elemente, wo man die Suchbegriffe platzieren kann, sind der
alt-Attribut des img-Tags und titel-Attribut des a-Tags.
Für jede Seite aus den Bereichen Schiffe, Reiseziele, Reedereien und Routen wurden
somit die Texte für Überschriften, titel- und alt-Attribute dynamisch aus der Datenbank
generiert. Dann wurden die Beschreibungstexte mittels Replace()-Funktion geparst und
die Begriffe zu der Seite sowie Wort „Kreuzfahrt“ fett markiert.
74
Abb. 6.9 Ein Beispiel für die Optimierung der Inhalten einer Reiseziel-Seite von www.e-hoi.de
Nach der Optimierung der Inhalte sind die Informationen auf den Seiten für die
Suchmaschinen noch relevanter geworden, da jede Seite genau für eine Suchphrase
optimiert wurde und die relevanten Begriffe innerhalb von wichtigen HTML-Elementen
platziert wurden.
75
6.7 Auslagerung der QuelleCodes
Ein Faktor, der die Position einer Seite in den Suchergebnissen beeinflusst, ist die
Größe der Dateien und damit verbundene Zeit beim Laden dieser durch Spiders. Die
Auslagerung aller JavaScript-Funktionen und CSS in externe Dateien hilft die Größe zu
reduzieren.
Die durchschnittliche Größe aller Seiten der e-hoi Web-Seite betrug bis zu den Zeiten
der Optimierung im Schnitt etwa 200Kb, maximale Grosse bis zu 360Kb. Die Seiten der
Konkurrenz, die in Top 10 von Google-Ergebnissen aufgelistet sind, sind Maximum bis
zu 100Kb.
Die Gründe, das die e-hoi-Seiten so groß sind:
-
Die Suchmaske, die in der linken Spalte immer erscheint, ist allein etwa
40Kb;
-
Die Routenkalender, der immer unter erscheint, ist je nach Art der Seite von
50Kb bis 200 Kb;
-
Die Seiten sind alle tabellarisch aufgebaut ohne css überhaupt zu verwenden.
Hier ist ein Beispiel für die frühere Implementierung eines Buttons „GO“:
Abb. 6.10 Ein Beispiel für die Anzeige des Buttons "GO" auf einer Seite von www.e-hoi.de
Implementation:
<td>
<table cellpadding="2" cellspacing="2" border="0" width="30">
<tr>
<td bgcolor="FFFFFF" height="22" width="30">
<table cellpadding="2" cellspacing="0" border="0" width="100%">
<tr>
<td bgcolor="BEB796" align="left" valign="middle" height="10">
76
<a href="anmelden.cfm " class="smalltitleboldweiss"
onClick="sendFormular2(‘ newsletter’ );">&nbsp;GO&nbsp;&raquo;</a>
</td>
</tr>
</table>
</td>
</tr>
</table>
</td>
Als Alternative kann man hier die CSS Formatierungen vornehmen, in denen man alle
benötigte Angaben in CSS-Datei mit folgenden Anweisungen definiert und in
Quellcode nur das notwendiges Class bzw. ID aufruft:
CSS:
#news_btn {width:30px; height:26px; background-color:#BEB796; border: 2px solid
#FFFFFF; text-align:center;}
#news_btn a {font-family:Verdana; font-size:10px; font-style:normal; font-weight:bold;
color:#FFFFFF; text-decoration:none;}
Quellcode: <td id="news_btn">
<a href="anmelden.cfm " onClick="sendFormular2(‘ newsletter’ );">
GO &raquo;
</a>
</td>
Natürlich ist die Durchführung solcher Formatierungen für die ganze Web-Präsenz sehr
zeitaufwändig und in manchen Stellen gar nicht möglich.
Bei der Durchführung dieses Schrittes der Optimierung, hat man versucht, möglichst
viel JavaScript und Styles in externe Dateien zu speichern. Damit hat man erreicht die
Reduzierung der Dateigrößen um etwa 10%. Ob diese relativ kleinen Unterschiede die
Ranking der Seiten beeinflusst hat, kann man natürlich nicht sagen.
Es wurde aber interessant, wie die Dateigröße die Position der Seite in den
Suchergebnissen beeinflussen kann. Um dieses zu erfahren, wurde ein Test-Versuch
durchgeführt. Als Google die Reiseziel-Seiten indexierte, wurde jede Woche während
zwei Monaten die Platzierungen für diese ermittelt. Dann hat man drei Seiten
ausgewählt, die in der Ergebnisliste immer auf Platz 15 standen und relativ gross waren
(Ostsee Kreuzfahrten(301Kb), Nordland Kreuzfahrten(326Kb) und Westliches
Mittelmeer Kreuzfahrten(316Kb)) und für diese weitere Änderungen durchgeführt: die
77
Suchmaske in der linken Spalte und den Route-Kalender unten auf der Seite wurden in
externe Dateien ausgelagert und als Iframe aufgerufen:
<iframe src="../iframes/form_search_simple.cfm" width="183" height="410" scrolling="no"
frameborder="0"></iframe>
Mit diesen Maßnahmen reduzierte man die Größe dieser Seiten bis zu 70Kb. Innerhalb
der nächsten Wochen wurden die Ergebnisse wieder aktualisiert. Schon nach einem
Monat stand die Seite „Ostsee Kreuzfahrten“ auf Platz 13 und die andere zwei auf Platz
10.
Einziger Nachteil, der für das Nicht-Benutzen von Iframes entscheidend war, dass diese
beim Laden der Seite als letzte geladen werden, was natürlich die Attraktivität aus der
Benutzer-Perspektiv verschlechtert.
Somit wurden alle möglichen und sinnvollen OnPage-Optimierungen für die www.ehoi.de durchgeführt, deren Ergebnisse erst nach einiger Zeit zu bewerten sind, und die
in der Zusammenfassung dieser Ausarbeitung zusammengestellt sind.
6.8 Analyse und Durchführung der OffPage Maßnahmen
Wie im Kapitel 5.2 schon erwähnt wurde, gehören zur OffPage-Optimierung alle
Maßnahmen, die nicht direkt auf der Web-Seite selbst vorgenommen werden, sondern
die mit Qualität und Quantität von eingehenden externen Links zu tun haben.
Vor der Durchführung der OnPage Optimierungsmaßnahmen hat die Geschäftsführung
ein Budget für das Ankauf von externen Backlinks vorgeplant. Da diese Summe von
einer Seite begrenzt war und dieses Ankauf von anderer Seite zuerst mehr als Probe
betrachtet wurde, wurden bei ebay nur drei Angebote ersteigert.
Es wurden zwei Backlinks auf der Software-Seiten http://opensource.erde3.net mit
Pagerank 8 und http://putty.triplemind.com mit Pagerank 6 gekauft. Dazu kommt noch
der Ankauf des Backlinks auf einer Unterseite des Reiseportals urlaub.com. Die Seite
http://www.urlaub.com/kreuzfahrten/ hat das PageRang 8.
Wenn diese Backlinks-Strategie zusammen mit OnPage-Optimierungen gewisse Erfolge
bringen könnten, war die Geschäftsführung bereit weitere Summen für diese Zwecke zu
investieren.
78
79
7 Controlling der Ergebnisse
Nach der Durchführung aller OnPage-Massnahmen hat es zwischen zwei und vier
Wochen gedauert, bis alle optimierten Seiten indexiert und von Suchmaschinen neu
bewertet wurden. Bei der Überprüfung, ob die Optimierung erfolgreich war, wurden
zwei Quellen der Statistik-Daten berücksichtig: die Besucherstatistik für die Web-Seite
bzw. Statistik für die optimierte Seiten als Einstiegseiten und die Positionen der
Suchbegriffe in den Ergebnissen der Suchmaschinen.
Tab. 7.1 Besucher-Statistik der www.e-hoi.de (Apr.2006-Dez.2006)
Besucher
der Seite
Einstiegseiten
Buchungsanfragen
Schiffe
%
Reederei
%
Routen
%
Reise
%
%
ziele
04.2006
42.354
2759
6,5
397
0,9
4844
05.2006
37.864
2392
6,3
459
1,2
4001
06.2006
38.476
1944
5,1
285
0,7
4862
07.2006
42.496
1558
3,7
295
0,7
5246
08.2006
44.356
2053
4,6
353
0,8
6608
09.2006
45.910
2960
6,4
385
0,8
9100
10.2006
47.115
4548
9,7
659
1,4
10700
11.2006
50.115
4064
8,1
1730
3,5
9655
12.2006
49.295
4132
8,4
1657
3,4
10363
11,4
0
0
177
0,42
10,6
0
0
196
0,52
12,6
0
0
267
0,69
12,3
0
0
289
0,68
14,9
0
0
273
0,62
19,8
0
0
301
0,66
22,7
385
0,8
346
0,73
19,3
1829
3,6
386
0,77
21,0
1917
3,9
382
0,77
Da für den Erfolg oder Misserfolg der Optimierungsmaßnahmen das Traking der
Einstiegseiten als Maß betrachtet werden kann, sind diese im Folgenden detailiert
dargestellt.
Statistik für die Einstiegseiten aus dem Bereich
"Schiffe"
schiffe
Besucher
5000
4000
3000
2000
1000
0
Apr
Mai
Jun
Jul
Aug
Sep
Okt
Nov
Dez
Abb. 7.1 Statistik für die Einstiegseiten aus dem Bereich „Schiffe“ der Präsenz e-hoi.de
80
Aus der Abbildung 7.1. sieht man deutliche Verbesserung der Besucherströme für die
Schiffsseiten. Die Aufrufe der Schiffsseiten haben sich nach der Optimierung
verdoppelt.
Statistik für die Einstiegseiten aus dem Bereich
"Reedereien"
Reedereien
Besucher
2000
1500
1000
500
0
Apr
Mai
Jun
Jul
Aug
Sep
Okt
Nov
Dez
Abb. 7.2 Statistik für die Einstiegseiten aus dem Bereich „Reedereien“ der Präsenz e-hoi.de
Die Reederei-Seiten haben jetzt nach der allen Optimierungen vier Mal mehr Besucher
aus der Suchmaschinen und gleichen Quellen als bevor. Die Zahlen im Dezember sind
zwar einwenig gesunken, aber dies ist mit den allgemeinen Nutzer-Aktivitäten im
Internet während Advents- bzw. Weihnachtszeiten verbunden.
Besucher
Statistik für die Einstiegseiten aus dem Bereich
"Routen"
Routen
12000
10000
8000
6000
4000
2000
0
Apr
Mai
Jun
Jul
Aug
Sep
Okt
Nov
Dez
Abb. 7.3 Statistik für die Einstiegseiten aus dem Bereich „Routen“ der Präsenz e-hoi.de
Die Routen-Seiten bzw. Endprodukte sind jetzt fast doppelt so besser in Suchmaschinen
zu finden als vor der Durchführung der Optimierungsmaßnahmen.
81
Statistik für die Einstiegseiten aus dem Bereich
"Reiseziele"
Reiseziele
2500
Besucher
2000
1500
1000
500
0
-500
Apr
Mai
Jun
Jul
Aug
Sep
Okt
Nov
Dez
Abb. 7.4 Statistik für die Einstiegseiten aus dem Bereich „Reiseziele“ der Präsenz e-hoi.de
Die neu erstellten Seiten für die Reiseziele brachten zum Zeitpunkt der Controlling der
Ergebnissen der Optimierung zusätzlich rund 2.000 neuen Besucher im Monat.
Wenn man Erfolg der Optimierung in Anzahl der Besucher für Einstiegseiten messt,
was praktisch der Anzahl der zusätzlichen Besucher aus Suchmaschienen entspricht,
kann man diese Maßnahmen als erfolgreich betrachten: insgesamt haben die
Einstiegseiten zum Zeitpunkt der Controlling rund 18.000 Besucher im Monat, was vor
Monaten nur noch 9.000 war.
Statistik für die Buchungsanfragen
Buchungsanfrage
500
Besucher
400
300
200
100
0
Apr
Mai
Jun
Jul
Aug
Sep
Okt
Nov
Dez
Abb. 7.5 Statistik für die Buchungsanfragen
Natürlich die Verbesserung der Besucherströme hat auch positiv die Statistik für die
Buchungsanfragen beeinflusst. Zum Zeitpunkt des Controllings haben die Mitarbeiter
etwa 30% mehr Buchungsanfragen, als vor wenigen Monaten, zu bearbeiten. Grob zu
82
sagen, haben die Suchmaschinen-Optimierungsmaßnahmen
Unternehmens um 30% vergrößert.
den
Gewinn
des
Damit man den Erfolg der Suchmaschinenoptimierung aus der zweiter Perspektiv,
Ranking der Seite in der Suchmaschinen, anschaut, wurden die Positionen der
relevanten Suchbegriffe in der Suchmaschinen Google, MSN und Yahoo mittels eines
Tools von Axandra/Voget Selbach Enterprises GmbH, Internet Business Promoter 8,
ermittelt. In der Tabelle 7.2 sind die Beispiele für einige Seiten vorgestellt. Die
ausführliche Statistik ist in den Anlagen zu dieser Arbeit präsentiert. Aus dieser sieht
man, dass fast alle optimierten Seiten der Web-Präsenz von e-hoi GmbH in Top 10 der
Suchergebnissen der Suchmaschine Google sind.
Tab. 7.2 Ein Beispiel für des Vergleich der Positionen der Suchbegriffe in der Ergebnissen wichtiger
Suchmaschinen im August 2006 und Januar 2007
Keyword
Startseite
Angebote
Reedereien
Schiffe
Reiseziele
Google
Yahoo
MSN
08.2006
12.2006
08.2006
12.2006
08.2006
12.2006
Kreuzfahrt
49
33
*
67
*
15
Kreuzfahrten
26
12
*
39
*
18
Kreuzfahrten Angebote
*
9
*
18
*
12
Billige Kreuzfahrten
*
15
*
56
*
44
Specials Kreuzfahrten
*
4
*
9
*
8
Last minute Kreuzfahrten
*
46
*
34
*
67
AIDA Kreuzfahrten
*
7
*
36
*
62
Costa Kreuzfahrten
*
11
*
78
*
91
Hansa Kreuzfahrten
*
3
*
16
*
31
Deilmann Kreuzfahrten
76
2
*
12
89
27
Queen Mary Kreuzfahrten
*
16
*
*
67
24
Pacific Princess Kreuzfahrten
75
4
*
21
*
55
Monarch of the Seas
Kreuzfahrten
96
6
*
14
72
16
Marco Polo Kreuzfahrten
*
11
*
*
*
39
Alaska Kreuzfahrten
78
8
*
33
*
16
Kanarische Inseln
Kreuzfahrten
*
7
*
79
*
23
Westliches Mittelmeer
Kreuzfahrten
*
12
*
41
*
19
Oder Kreuzfahrten
*
4
*
17
*
21
Aus der Tabelle 7.2 sieht man deutliche Verbesserungen der Position der Seite
bezüglich relevanter Suchbegriffe innerhalb der Ergebnislisten der wichtigsten
Suchmaschinen.
83
Sicherlich hat auf diesen Erfolg auch die durchgeführte OffPage-Maßnahmen einen
Einfluss genommen. So hat das PageRank der www.e-hoi.de in vier Monaten von 4 auf
6 gestiegen, was natürlich direkt das Ranking in den Suchmaschinen positiv beeinflusst
hat.
84
8 Zusammenfassung
Diese Arbeit verfolgte das Ziel, den Suchmaschinen-Markt und –Mechanismen zu
erforschen, um festzustellen, welche Faktoren die Relevanz von Webdokumenten
beeinflussen und mit welchen Maßnahmen die Platzierungen der Web-Seite www.ehoi.de in den Suchergebnislisten verbessert werden könnnen. Die gesammelten
Erkenntnisse mussten dann erfolgreich umgesetzt werden.
Dazu wurden ausgehend von einem umfassenden Überblick über das Themengebiet die
Gewichtungsverfahren vorgestellt, die bei der OnPage- und OffPage-Optimierung
berücksichtigt werden müssen. Darüber hinaus wurden auch die unerlaubten SpamTechniken erläutert, die zum Ausschluss aus Suchmaschinen- Index führen können.
Abschließend wurden die für die Seite von e-hoi GmbH die notwentigen OnPageOptimierungen durchgeführt und die Ergebnise kontrolliert.
Es konnte erfolgreich belegt werden, dass für das Ranking bei den Suchmaschinen
heute nicht nur PageRank und Linkpopularität entscheidend sind, sondern auch die
OnPage-Faktoren eine wichtige Rolle spielen.
Eine umfassende Keyword-Strategie ist bereits vor Erstellung und Optimierung der
Web-Seiten festzulegen. Das ausgewählte Keywordspektrum muss dann konsequent im
Titel der Web-Seite, ihren Inhalten, in den internen und externen Verweisen sowie
möglichst in den URLs der Web-Seiten vorkommen. Dabei gilt es insbesondere die
Worthäufigkeit und den Abstand von Suchbegriffen bei der Suchphrasen zu beachten.
Leider existiert kein generelles Erfolgsrezept für das Erreichen der Top-Positionen in
der Suchmaschinen – man muss eine Vielzahl an verschiedenen Faktoren und
Umgebungsbedingungen berücksichtigen, was eine entsprechende Qualifikation
voraussetzt. Dazu kommt auch, das die Suchmaschinen-Betreiber ihre RankingAlgorithmen geheimhalten und modifizieren.
Optimierungsmaßnahmen sind mit hohem Zeitaufwand verbunden und wirken sich
oftmals erst längerfristig aus. Eine Alternative ist hier Keyword-Advertising, auch
AddWords genannt, was aber mit höherem finanziellen Aufwand verbunden ist. Die
kurzfristigen Aktionen und saisonellen Angebote lassen sich mit diesem Instrument des
Suchmaschinen-Marketings gut vermarkten.
Zusammenfassend lässt sich feststellen, dass die Suchmaschinenoptimierung in den
letzten Jahren zunehmend an Bedeutung gewonnen hat. Viele Betreiber von Web-Seiten
müssen die spezielle Anforderungen der Suchmaschinen bei der Implementierung
85
berücksichtigen. Das schöne Design und Usability sind hinfällig, wenn die User die
Web-Seite nicht auffinden können. Wenn die Suchmaschinenoptimierung einem
Unternehmen als zentrale Marketing-Maßnahme dient, sind weitere Merkmale der Seite
wie Optik und Layout unterzuordnen, um das zentralen Ziel – Gewinn von neuen
Kunden – zu erreichen.
86
Anhang
A Suchbegriffanalyse bei der wichtigsten Suchmaschienen
Nr.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
Keyword
Kreuzfahrt
Kreuzfahrten
Afrika Kreuzfahrten
Alaska Kreuzfahrten
Antarktis Kreuzfahrten
Asien Kreuzfahrten
Indischer Ozean Kreuzfahrten
Nord-Pazifik Kreuzfahrten
Südostasien Kreuzfahrten
Süd-Pazifik Kreuzfahrten
Australien Kreuzfahrten
Britische Inseln Kreuzfahrten
Große Seen Kreuzfahrten
Hawaii Kreuzfahrten
Kanarische Inseln Kreuzfahrten
Karibik Kreuzfahrten
Östliche Karibik Kreuzfahrten
Südliche Karibik Kreuzfahrten
Westliche Karibik Kreuzfahrten
Mexikanische Riviera Kreuzfahrten
Mittelamerika Kreuzfahrten
Mittelmeer Kreuzfahrten
Östliches Mittelmeer Kreuzfahrten
Schwarzes Meer Kreuzfahrten
Westliches Mittelmeer Kreuzfahrten
Neuengland Kreuzfahrten
Neuseeland Kreuzfahrten
Nordland Kreuzfahrten
Grönland Kreuzfahrten
Island Kreuzfahrten
Ostsee Kreuzfahrten
Nord-Ostsee-Kanal Kreuzfahrten
Panama-Kanal Kreuzfahrten
Rotes Meer Kreuzfahrten
Suez-Kanal-Passage Kreuzfahrten
Südamerika Kreuzfahrten
Amazonas Kreuzfahrten
Galapagos Kreuzfahrten
Südsee Kreuzfahrten
Transatlantik Kreuzfahrten
USA Ostküste Kreuzfahrten
USA Westküste Kreuzfahrten
Weltreise Kreuzfahrten
West Europa Kreuzfahrten
Amazonas Kreuzfahrten
Caledonian Canal Kreuzfahrten
Google
08.2006 12.2006
49
33
26
12
45
9
78
8
24
4
*
6
*
7
89
11
28
3
32
12
*
16
15
4
68
6
*
11
*
8
*
7
49
12
71
4
*
33
66
12
33
9
*
15
*
8
*
6
*
1
50
1
37
4
42
1
19
1
*
2
*
24
51
1
94
9
48
3
24
18
80
1
*
1
32
9
*
1
*
1
58
1
69
1
*
1
*
7
*
1
63
1
Yahoo
08.2006 12.2006
*
67
*
39
*
18
*
33
*
9
*
34
*
36
*
78
*
16
*
12
*
*
*
21
*
14
*
*
*
79
*
71
*
41
*
17
*
67
*
39
*
18
*
56
*
23
*
56
*
41
*
77
*
*
*
54
*
34
*
67
*
39
*
18
*
56
*
9
*
34
*
36
*
78
*
16
*
12
*
*
*
21
*
14
*
*
*
33
*
79
*
41
MSN
08.2006 12.2006
*
15
*
18
*
12
*
16
*
8
*
67
*
*
34
21
69
31
69
27
*
24
54
27
81
16
*
*
*
23
*
*
56
44
19
12
*
56
90
18
*
12
*
*
*
66
*
24
*
19
72
34
45
33
*
*
98
55
*
89
*
*
69
44
45
19
79
42
34
87
*
90
*
92
*
*
67
*
*
*
34
19
69
31
*
*
*
*
*
*
12
9
87
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
Donau Kreuzfahrten
Main-Donau-Kanal Kreuzfahrten
Elbe Kreuzfahrten
Elbe-Lübeck-Kanal Kreuzfahrten
Havel Kreuzfahrten
Moldau Kreuzfahrten
Frankreich Kreuzfahrten
Rhone Kreuzfahrten
Saone Kreuzfahrten
Seine Kreuzfahrten
Russland Kreuzfahrten
Dnjepr Kreuzfahrten
Moskwa Kreuzfahrten
Newa Kreuzfahrten
Swina Kreuzfahrten
Swir Kreuzfahrten
Wolga Kreuzfahrten
Holland und Belgien Kreuzfahrten
Holland Kreuzfahrten
Belgien Kreuzfahrten
Ijssel Kreuzfahrten
Maas Kreuzfahrten
Schelde Kreuzfahrten
Waal Kreuzfahrten
Mississippi Kreuzfahrten
Nil Kreuzfahrten
Oder Kreuzfahrten
Oder-Havel-Kanal Kreuzfahrten
Peene Kreuzfahrten
Ostseeküste Kreuzfahrten
Polen Kreuzfahrten
Göta-Kanal Kreuzfahrten
Masurische Seen Kreuzfahrten
Weichsel Kreuzfahrten
Rhein Kreuzfahrten
Main Kreuzfahrten
Mosel Kreuzfahrten
Neckar Kreuzfahrten
Saar Kreuzfahrten
Süd-Europa Kreuzfahrten
Douro Kreuzfahrten
Guadalquivir Kreuzfahrten
Guadiana Kreuzfahrten
Po Kreuzfahrten
Südostasien Kreuzfahrten
Ayeyarwady Kreuzfahrten
Brahmaputra Kreuzfahrten
Chindwin Kreuzfahrten
Ganges Kreuzfahrten
Irrawaddy Kreuzfahrten
Kwai Kreuzfahrten
Mekong Kreuzfahrten
Yangtse Kreuzfahrten
AIDA Cruises
AIDA Kreuzfahrten
Air-Maritime Kreuzfahrten
Airtours Kreuzfahrten
Carnival Kreuzfahrten
*
78
*
44
*
37
*
99
54
*
*
67
90
70
15
*
*
39
85
49
58
61
77
78
*
*
*
32
87
*
89
39
80
79
*
*
*
69
*
*
38
44
60
*
40
47
80
28
65
41
79
34
37
*
*
57
89
*
14
1
5
4
3
1
5
1
3
1
1
2
2
wnni
5
16
1
2
1
1
1
5
4
15
11
6
1
1
1
1
1
12
17
9
8
1
1
7
2
6
1
1
1
8
3
11
1
1
5
2
9
1
1
1
13
1
1
1
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
17
67
39
18
56
9
*
*
33
12
23
11
46
34
77
82
57
*
44
*
77
14
93
45
66
88
17
19
*
77
*
54
67
39
18
56
9
*
*
33
12
23
11
46
34
77
82
57
*
44
*
77
82
57
36
44
*
77
*
63
*
96
*
*
*
*
*
*
*
77
81
*
31
90
*
66
*
*
23
*
57
89
*
*
*
35
98
*
*
55
70
35
*
*
*
*
*
*
77
41
14
*
89
90
34
51
21
72
45
70
95
*
*
34
17
*
*
55
37
40
90
34
*
*
*
*
*
44
43
92
25
77
87
44
72
49
20
60
41
16
*
*
21
24
12
56
18
12
*
30
24
78
34
33
*
55
60
31
12
19
42
87
26
44
17
60
17
19
31
*
62
20
9
*
88
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
Celebrity Kreuzfahrten
Clipper Kreuzfahrten
Color Line Kreuzfahrten
Costa Kreuzfahrten
Crystal Kreuzfahrten
Cunard Kreuzfahrten
Deilmann Kreuzfahrten
Delphin Kreuzfahrten
Du Ponant Kreuzfahrten
e-hoi Kreuzfahrten
Hansa Kreuzfahrten
Hapag-Lloyd Kreuzfahrten
Hebridean Kreuzfahrten
Holland America Line Kreuzfahrten
Hurtigruten Kreuzfahrten
Inmaris Kreuzfahrten
Louis Cruise Lines Kreuzfahrten
MSC Kreuzfahrtenen Kreuzfahrten
Norden Tours Kreuzfahrten
Norwegian CruiseLine Kreuzfahrten
Oceania Cruises Kreuzfahrten
Oceanwide Kreuzfahrten
Orient Lines Kreuzfahrten
Phoenix Kreuzfahrten
Plantours Kreuzfahrten
Princess Kreuzfahrten
Pullmantur Kreuzfahrten
Quark Kreuzfahrten
Radisson Kreuzfahrten
Royal Caribbean Kreuzfahrten
Sea Cloud Kreuzfahrten
Sea Days Kreuzfahrten
Sea Travel Kreuzfahrten
Seabourn Kreuzfahrten
SeaDream Kreuzfahrten
Silversea Kreuzfahrten
Star Clippers Kreuzfahrten
Swan Hellenic Kreuzfahrten
Transocean Kreuzfahrten
TUI Kreuzfahrten
Vista Travel Kreuzfahrten
VivaMare Kreuzfahrten
Windstar Kreuzfahrten
Air-Maritime Kreuzfahrten
Airtours Kreuzfahrten
Arkona Kreuzfahrten
A-ROSA Kreuzfahrten
Deilmann Kreuzfahrten
Delta Queen Kreuzfahrten
Hansa Kreuzfahrten
Lüftner Cruises Kreuzfahrten
Nicko Tours Kreuzfahrten
Norden Tours Kreuzfahrten
Orient Express Kreuzfahrten
Phoenix Kreuzfahrten
Plantours Kreuzfahrten
Sea Cloud Kreuzfahrten
*
*
*
*
99
*
76
*
85
1
*
62
75
73
*
40
90
*
*
48
98
27
87
*
77
*
69
*
*
*
*
*
*
60
85
*
*
48
*
*
*
*
*
79
*
*
*
76
*
*
60
*
*
94
*
82
*
1
8
2
1
12
9
2
8
9
10
7
8
27
27
15
15
33
3
8
1
1
18
7
1
1
18
11
3
1
3
1
2
2
2
1
32
32
1
1
1
7
7
4
1
4
7
5
1
1
1
17
27
1
53
53
1
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
14
93
45
78
88
45
12
*
77
*
16
67
39
18
56
9
*
39
18
56
9
*
*
33
12
23
11
46
34
77
82
57
*
44
*
77
14
93
45
66
88
45
19
*
77
*
54
67
39
18
56
9
*
*
33
12
23
*
*
*
*
*
*
60
*
61
15
*
*
78
20
*
*
62
*
90
71
37
89
34
*
79
*
89
67
*
*
*
99
*
*
78
91
*
77
*
*
30
45
*
*
91
*
*
89
*
*
71
96
38
*
19
58
45
55
37
40
91
34
*
27
*
16
17
31
43
42
15
77
17
44
72
49
20
18
41
15
18
12
16
8
67
*
21
31
27
24
27
16
44
*
23
44
12
26
18
12
*
66
24
78
34
33
*
55
89
23
44
17
42
21
89
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
Transocean Kreuzfahrten
Viking Kreuzfahrten
Vista Travel Kreuzfahrten
Adventure of the Seas Kreuzfahrten
AIDAaura Kreuzfahrten
AIDAblu Kreuzfahrten
AIDAcara Kreuzfahrten
AIDAvita Kreuzfahrten
Akademik Shokalskiy Kreuzfahrten
Albatros Kreuzfahrten
Alexander von Humbold Kreuzfahrten
Amadea Kreuzfahrten
Amsterdam Kreuzfahrten
Andrea Kreuzfahrten
Arielle Kreuzfahrten
Arion Kreuzfahrten
Astor Kreuzfahrten
Astoria Kreuzfahrten
Black Prince Kreuzfahrten
Black Watch Kreuzfahrten
Boudicca Kreuzfahrten
Braemar Kreuzfahrten
Bremen Kreuzfahrten
Brilliance of the Seas Kreuzfahrten
Caribbean Princess Kreuzfahrten
Carnival Conquest Kreuzfahrten
Carnival Destiny Kreuzfahrten
Carnival Glory Kreuzfahrten
Carnival Legend Kreuzfahrten
Carnival Liberty Kreuzfahrten
Carnival Miracle Kreuzfahrten
Carnival Pride Kreuzfahrten
Carnival Spirit Kreuzfahrten
Carnival Triumph Kreuzfahrten
Carnival Valor Kreuzfahrten
Carnival Victory Kreuzfahrten
Celebration Kreuzfahrten
Century Kreuzfahrten
Clipper Adventurer Kreuzfahrten
Clipper Odyssey Kreuzfahrten
Club Med Kreuzfahrten
Club Med 2 Kreuzfahrten
Color Fantasy Kreuzfahrten
Columbus Kreuzfahrten
Constellation Kreuzfahrten
Coral Kreuzfahrten
Coral Princess Kreuzfahrten
Costa Allegra Kreuzfahrten
Costa Atlantica Kreuzfahrten
Costa Classica Kreuzfahrten
Costa Concordia Kreuzfahrten
Costa Europa Kreuzfahrten
Costa Fortuna Kreuzfahrten
Costa Magica Kreuzfahrten
Costa Marina Kreuzfahrten
Costa Mediterranea Kreuzfahrten
Costa Romantica Kreuzfahrten
*
*
*
37
54
23
34
19
41
23
36
33
19
50
44
23
31
28
12
31
30
45
88
32
18
37
44
57
13
46
23
54
32
50
42
49
16
43
40
55
31
20
84
34
12
16
47
36
22
51
98
32
24
55
39
67
38
5
8
1
1
3
3
2
2
3
7
5
5
3
3
1
1
3
3
1
9
11
9
5
10
1
11
1
12
32
1
3
8
3
14
5
16
14
1
1
3
1
5
8
3
1
1
1
1
5
1
1
7
1
1
1
3
9
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
11
46
34
77
82
57
*
44
*
77
82
57
*
44
*
77
14
93
45
66
88
45
19
*
77
*
54
67
39
18
56
*
33
12
23
11
46
34
77
82
57
*
44
*
77
82
57
*
44
*
77
14
93
45
66
88
45
*
*
*
84
*
25
22
*
15
11
45
9
2
54
10
41
*
*
23
25
30
52
*
*
39
*
92
*
68
56
*
60
51
73
66
81
56
7
5
15
*
*
43
*
5
*
50
84
*
*
*
63
*
*
*
*
*
90
92
*
49
*
19
21
*
12
12
9
9
2
37
8
34
34
*
16
16
11
31
44
43
16
25
77
87
44
13
49
20
30
41
16
44
29
6
5
12
56
18
12
*
5
24
28
34
33
*
55
60
31
12
19
42
87
90
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
Costa Victoria Kreuzfahrten
Crown Princess Kreuzfahrten
Crystal Serenity Kreuzfahrten
Crystal Symphony Kreuzfahrten
Dawn Princess Kreuzfahrten
Delphin Kreuzfahrten
Delphin Renaissance Kreuzfahrten
Deutschland Kreuzfahrten
Diamond Princess Kreuzfahrten
Eclipse Kreuzfahrten
Ecstasy Kreuzfahrten
Elation Kreuzfahrten
Empress of the Seas Kreuzfahrten
Europa Kreuzfahrten
Fantasy Kreuzfahrten
Fascination Kreuzfahrten
Finnmarken Kreuzfahrten
Freedom of the Seas Kreuzfahrten
Funchal Kreuzfahrten
Fyne Spirit Kreuzfahrten
Galaxy Kreuzfahrten
Golden Princess Kreuzfahrten
Grand Princess Kreuzfahrten
Grigoriy Mikheev Kreuzfahrten
Hanseatic Kreuzfahrten
Hebridean Princess Kreuzfahrten
Hebridean Spirit Kreuzfahrten
Holiday Kreuzfahrten
Holiday Dream Kreuzfahrten
Imagination Kreuzfahrten
Infinity Kreuzfahrten
Insignia Kreuzfahrten
Inspiration Kreuzfahrten
Island Princess Kreuzfahrten
Jewel of the Seas Kreuzfahrten
Kapitan Dranitsyn Kreuzfahrten
Kapitan Khlebnikov Kreuzfahrten
Khersones Kreuzfahrten
Kong Harald Kreuzfahrten
Le Diamant Kreuzfahrten
Le Levant Kreuzfahrten
Le Ponant Kreuzfahrten
Legend of the Seas Kreuzfahrten
Lofoten Kreuzfahrten
Lyngen Kreuzfahrten
Maasdam Kreuzfahrten
Majesty of the Seas Kreuzfahrten
Marco Polo Kreuzfahrten
Mare Australis Kreuzfahrten
Mariner of the Seas Kreuzfahrten
Maxim Gorki Kreuzfahrten
Mercury Kreuzfahrten
Midnatsol Kreuzfahrten
Millennium Kreuzfahrten
Monarch of the Seas Kreuzfahrten
MSC Armonia Kreuzfahrten
MSC Lirica Kreuzfahrten
44
73
20
38
60
31
27
97
11
16
60
33
21
29
55
30
17
47
33
35
13
22
55
16
34
20
41
32
55
12
61
42
33
12
44
47
52
30
30
17
12
31
20
50
29
44
19
41
23
36
33
19
50
44
23
31
28
3
3
11
3
1
1
15
9
11
3
1
9
13
3
11
13
7
17
7
5
5
9
1
3
3
5
19
1
2
5
10
1
1
1
1
1
3
1
17
3
1
9
3
13
1
1
9
5
3
1
1
1
15
1
1
22
3
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
19
*
77
*
54
67
39
18
56
9
*
39
18
56
9
*
*
33
12
23
11
46
34
77
82
57
*
44
*
77
14
93
45
66
88
45
19
*
77
*
54
67
39
18
56
9
*
*
33
12
23
11
46
34
14
82
57
99
50
61
67
59
*
70
*
46
28
47
89
50
64
*
100
71
*
*
12
*
49
65
16
*
*
23
*
49
*
*
39
*
*
66
46
49
*
58
*
80
60
79
*
32
85
59
*
37
61
*
*
*
*
72
*
77
26
44
17
60
17
19
31
*
27
20
9
*
25
37
40
90
34
*
44
7
16
17
44
13
42
15
17
19
44
72
49
20
18
41
55
37
40
90
34
*
44
20
16
17
13
43
42
39
29
17
44
72
49
20
16
41
15
91
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
MSC Melody Kreuzfahrten
MSC Monterey Kreuzfahrten
MSC Musica Kreuzfahrten
MSC Opera Kreuzfahrten
MSC Rhapsody Kreuzfahrten
MSC Sinfonia Kreuzfahrten
Narvik Kreuzfahrten
Nautica Kreuzfahrten
Navigator of the Seas Kreuzfahrten
Noordam Kreuzfahrten
Nordkapp Kreuzfahrten
Nordlys Kreuzfahrten
Nordnorge Kreuzfahrten
Nordstjernen Kreuzfahrten
Norwegian Crown Kreuzfahrten
Norwegian Dawn Kreuzfahrten
Norwegian Dream Kreuzfahrten
Norwegian Jewel Kreuzfahrten
Norwegian Majesty Kreuzfahrten
Norwegian Spirit Kreuzfahrten
Norwegian Star Kreuzfahrten
Norwegian Sun Kreuzfahrten
Norwegian Wind Kreuzfahrten
Oceanic Princess Kreuzfahrten
Orion Kreuzfahrten
Pacific Explorer Kreuzfahrten
Pacific Princess Kreuzfahrten
Pacific Sky Kreuzfahrten
Paloma Kreuzfahrten
Paradise Kreuzfahrten
Paul Gauguin Kreuzfahrten
Perla Kreuzfahrten
Polar Star Kreuzfahrten
Polarlys Kreuzfahrten
Pride of Aloha Kreuzfahrten
Pride of America Kreuzfahrten
Pride of Hawaii Kreuzfahrten
Princess Danae Kreuzfahrten
Prinsendam Kreuzfahrten
Professor Molchanov Kreuzfahrten
Queen Elizabeth 2 Kreuzfahrten
Queen Elizabeth Kreuzfahrten
Queen Mary 2 Kreuzfahrten
Queen Mary Kreuzfahrten
Reef Endeavour Kreuzfahrten
Regal Princess Kreuzfahrten
Regatta Kreuzfahrten
Richard With Kreuzfahrten
Rotterdam Kreuzfahrten
Royal Clipper Kreuzfahrten
Royal Star Kreuzfahrten
Ryndam Kreuzfahrten
Sapphire Kreuzfahrten
Sapphire Princess Kreuzfahrten
Sea Cloud Kreuzfahrten
Sea Cloud 2 Kreuzfahrten
Sea Princess Kreuzfahrten
12
31
30
45
88
32
18
37
44
57
13
46
23
54
32
50
42
49
16
43
40
55
31
20
84
34
12
16
47
36
22
51
98
32
24
55
39
67
38
44
73
20
38
60
31
27
97
11
16
60
33
21
54
19
41
23
36
7
3
1
1
1
3
1
1
3
9
1
3
1
1
3
1
1
5
1
11
1
1
17
1
7
9
1
21
13
4
7
38
17
9
5
13
5
1
1
3
2
1
3
5
1
3
1
1
1
1
1
3
1
1
1
7
1
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
44
*
77
82
57
*
44
*
77
14
23
11
46
34
77
82
57
*
44
*
77
14
93
45
66
21
45
19
*
77
*
54
67
39
18
56
9
*
56
*
*
*
*
46
34
77
82
57
*
44
*
77
82
57
*
44
*
*
*
87
37
21
89
45
*
82
88
80
*
95
98
*
*
87
98
*
*
*
91
6
*
39
*
38
*
*
*
*
*
*
*
74
62
35
90
27
*
*
59
67
26
36
48
79
4
55
71
90
50
43
64
50
*
18
12
16
8
30
*
21
31
27
24
27
16
44
14
23
44
12
26
18
12
*
66
24
4
34
33
25
15
89
23
44
17
42
21
90
32
13
19
41
19
21
*
22
24
9
9
2
37
4
34
34
46
16
13
11
31
44
92
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
Seabourn Legend Kreuzfahrten
Seabourn Pride Kreuzfahrten
Seabourn Spirit Kreuzfahrten
SeaDream Kreuzfahrten
Sensation Kreuzfahrten
Seven Seas Mariner Kreuzfahrten
Seven Seas Navigator Kreuzfahrten
Seven Seas Voyager Kreuzfahrten
Silver Cloud Kreuzfahrten
Silver Shadow Kreuzfahrten
Silver Whisper Kreuzfahrten
Silver Wind Kreuzfahrten
Spirit of Endeavour Kreuzfahrten
Spirit of Oceanus Kreuzfahrten
Splendour of the Seas Kreuzfahrten
Star Clipper Kreuzfahrten
Star Flyer Kreuzfahrten
Star Princess Kreuzfahrten
Statendam Kreuzfahrten
Summit Kreuzfahrten
Sun Princess Kreuzfahrten
SuperStar Virgo Kreuzfahrten
Trollfjord Kreuzfahrten
True North Kreuzfahrten
Veendam Kreuzfahrten
Vision of the Seas Kreuzfahrten
Vistamar Kreuzfahrten
Volendam Kreuzfahrten
Voyager of the Seas Kreuzfahrten
Westerdam Kreuzfahrten
Wind Spirit Kreuzfahrten
Wind Star Kreuzfahrten
Wind Surf Kreuzfahrten
Xpedition Kreuzfahrten
Yamal Kreuzfahrten
Zaandam Kreuzfahrten
Zenith Kreuzfahrten
Zuiderdam Kreuzfahrten
Alexander Pirogov Kreuzfahrten
Alexander Radishev Kreuzfahrten
Amadeus Kreuzfahrten
Amadeus Classic Kreuzfahrten
Amadeus Princess Kreuzfahrten
Amadeus Rhapsody Kreuzfahrten
Amadeus Royal Kreuzfahrten
American Queen Kreuzfahrten
Anton Tschechov Kreuzfahrten
A-ROSA BELLA Kreuzfahrten
A-ROSA DONNA Kreuzfahrten
A-ROSA LUNA Kreuzfahrten
A-ROSA MIA Kreuzfahrten
A-ROSA RIVA Kreuzfahrten
A-ROSA STELLA Kreuzfahrten
Belle de Cadix Kreuzfahrten
Bellevue Kreuzfahrten
Bolero Kreuzfahrten
Botticelli Kreuzfahrten
33
19
50
44
23
31
28
12
31
30
45
88
32
18
37
44
57
13
46
23
54
32
50
42
49
16
43
40
55
31
20
84
34
12
16
47
36
22
51
98
32
24
55
39
67
38
44
73
19
41
23
36
33
19
50
44
23
3
1
1
1
1
5
4
3
1
1
1
5
1
4
5
3
1
5
3
1
5
6
3
1
3
1
3
1
3
1
3
1
1
3
13
1
3
3
1
1
1
1
1
3
1
5
3
1
1
1
5
3
3
1
1
1
1
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
77
14
93
45
66
88
45
19
*
77
*
54
67
39
18
56
9
*
39
18
56
9
*
*
33
12
23
11
46
34
77
82
57
*
44
*
77
14
93
45
66
88
45
19
*
77
*
54
67
39
18
56
9
*
*
33
*
*
*
43
75
26
41
*
*
85
68
61
*
27
96
49
93
22
90
*
53
6
*
*
84
77
*
*
7
88
41
53
29
69
64
76
*
80
28
17
*
23
19
36
17
16
17
43
38
11
36
41
34
23
57
*
29
43
16
25
27
37
14
13
49
20
30
41
16
44
29
6
15
12
16
18
12
17
5
24
28
34
33
*
55
7
31
12
19
12
27
26
44
17
60
17
19
31
11
7
20
9
10
15
37
10
6
34
27
24
7
16
17
24
93
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
Calypso Kreuzfahrten
Camargue Kreuzfahrten
Casanova Kreuzfahrten
Charaidew Kreuzfahrten
Classic Lady Kreuzfahrten
Claude Monet Kreuzfahrten
Crown Jewel Kreuzfahrten
Delta Queen Kreuzfahrten
Deltastar Kreuzfahrten
Demjan Bednij Kreuzfahrten
Diana Kreuzfahrten
Dnepr Kreuzfahrten
Dnjepr Princess Kreuzfahrten
Dnjepr Star Kreuzfahrten
Donauprinzessin Kreuzfahrten
Donaustar Kreuzfahrten
Dorinha Kreuzfahrten
Douce France Kreuzfahrten
Dresden Kreuzfahrten
Fedin Kreuzfahrten
Fidelio Kreuzfahrten
Flamenco Kreuzfahrten
Fluvius Kreuzfahrten
Frederic Chopin Kreuzfahrten
Gloria Kreuzfahrten
Griboedov Kreuzfahrten
Heidelberg Kreuzfahrten
Invicta Kreuzfahrten
Jerofej Chabarow Kreuzfahrten
Johann Strauss Kreuzfahrten
Juri Andropov Kreuzfahrten
Karamzin Kreuzfahrten
Katharina von Bora Kreuzfahrten
Lenin Kreuzfahrten
Leonardo da Vinci Kreuzfahrten
Leonid Krasin Kreuzfahrten
Magellan Kreuzfahrten
Maxima Kreuzfahrten
Mecklenburg Kreuzfahrten
Mississippi Queen Kreuzfahrten
Mistral Kreuzfahrten
Moldavia Kreuzfahrten
Mona Lisa Kreuzfahrten
Mozart Kreuzfahrten
Nile Marquis Kreuzfahrten
Nubian Sea Kreuzfahrten
Polonaise Kreuzfahrten
Princess Elaine Kreuzfahrten
Princess Jeannie Kreuzfahrten
Princess Sheena Kreuzfahrten
Prinzessin Anabella Kreuzfahrten
Puschkin Kreuzfahrten
Rembrandt Kreuzfahrten
Rhine Emerald Kreuzfahrten
Rhine Princess Kreuzfahrten
River Art Kreuzfahrten
River Cloud Kreuzfahrten
31
28
12
31
30
45
88
32
18
37
44
57
13
46
23
54
32
50
42
49
16
43
40
55
31
20
84
34
12
16
47
36
22
51
98
32
24
55
39
67
38
44
73
20
38
60
31
27
97
11
16
60
33
21
29
55
30
1
1
1
5
1
3
4
5
6
1
1
8
3
2
1
1
1
5
1
5
5
3
1
1
1
1
1
5
5
13
1
3
2
3
1
1
1
5
5
1
5
1
1
1
7
3
1
1
1
5
1
1
1
1
1
7
1
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
12
23
11
46
*
77
14
93
45
66
88
45
19
*
77
*
54
67
39
18
56
9
*
39
18
56
9
*
*
33
12
23
11
46
34
77
82
57
*
44
*
77
14
93
45
66
88
45
19
*
77
*
54
67
39
18
56
85
71
*
50
30
16
46
37
72
5
*
*
9
8
*
5
*
12
*
*
71
34
*
80
*
66
*
*
15
99
45
34
80
*
*
*
*
*
*
70
*
*
*
*
64
34
87
71
90
89
51
*
*
76
43
*
*
13
42
15
17
19
14
12
39
20
3
41
20
8
9
55
5
40
11
34
*
44
20
16
17
13
43
42
15
9
17
44
22
49
20
18
41
15
18
12
16
8
30
*
21
31
27
24
27
16
44
14
23
44
12
26
18
12
94
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
River Cloud 2 Kreuzfahrten
River Kwai Kreuzfahrten
Rossija Kreuzfahrten
Royal Gloriana Kreuzfahrten
Sailing Home Kreuzfahrten
Saxonia Kreuzfahrten
Simonow Kreuzfahrten
Sofia Kreuzfahrten
Splendid China Kreuzfahrten
Swiss Coral Kreuzfahrten
Swiss Crystal Kreuzfahrten
Swiss Diamond Kreuzfahrten
Taras Schevtschenko Kreuzfahrten
Ukraina Kreuzfahrten
Victoria Kreuzfahrten
Victoria Queen Kreuzfahrten
Victoria Rose Kreuzfahrten
Victoria Star Kreuzfahrten
Viking Burgundy Kreuzfahrten
Viking Century Kreuzfahrten
Viking Danube Kreuzfahrten
Viking Deutschland Kreuzfahrten
Viking Fontane Kreuzfahrten
Viking Lavrinenkov Kreuzfahrten
Viking Lomonosov Kreuzfahrten
Viking Peterhof Kreuzfahrten
Viking Primadonna Kreuzfahrten
Viking Seine Kreuzfahrten
Viking Star Kreuzfahrten
Viktoria Kreuzfahrten
Watutin Kreuzfahrten
Wolga Kreuzfahrten
Yangtse Paradies Kreuzfahrten
Yangtse Victoria Kreuzfahrten
Yangtze Angel Kreuzfahrten
Yangtze Pearl Kreuzfahrten
Yangzi Princess Kreuzfahrten
Zosima Shashkov Kreuzfahrten
Kreuzfahrten Angebote
Billige Kreuzfahrten
Günstige Kreuzfahrten
Last minute Kreuzfahrten
Lastminute Kreuzfahrten
Specials Kreuzfahrten
Hochsee Kreuzfahrten
Fluss Kreuzfahrten
Kreuzfahrten Top Angebote
Infos Kreuzfahrten
Schiffsreisen
Schiffsreisen Angebote
Seereisen Angebote
Billige Seereisen
Flussreisen Angebote
Billige Flussreisen
17
47
33
35
13
22
55
16
34
20
41
32
55
12
61
42
33
12
44
47
52
30
30
17
12
31
20
50
29
52
44
89
13
23
15
11
17
39
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
1
5
1
1
1
1
1
1
3
1
1
2
1
1
3
1
9
5
3
1
13
3
1
1
1
5
9
1
1
3
5
5
3
4
1
1
1
1
14
67
55
19
37
11
12
31
21
86
54
37
49
24
60
99
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
9
*
*
33
12
23
11
46
27
96
56
77
32
87
56
*
*
*
89
*
*
55
39
92
98
25
56
*
51
*
78
67
56
66
89
*
*
53
18
56
44
34
89
9
78
*
17
*
*
*
*
*
48
*
*
29
76
97
54
17
*
*
76
45
87
*
*
*
*
76
45
*
78
34
13
*
56
92
78
80
51
*
87
*
27
*
67
55
71
34
41
36
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
16
24
4
34
13
*
15
69
23
44
17
42
21
90
32
13
19
41
19
11
*
12
12
9
21
2
37
4
34
34
46
16
13
11
31
34
13
12
44
89
67
*
8
46
*
15
*
*
87
90
*
67
*
95
Literaturverzeichnis
Berman M.(2001): Deep Content - The Deep Web: Surfacing Hidden Value,
http://brightplanet.com/pdf/deepwebwhitepaper.pdf. 21.Oktober 2006
Bondar S. (2006): Search Engine Indexing Limits: Where Do the Bots Stop?
http://www.sitepoint.com/print/indexing-limits-where-bots-stop
01.November 2006
Brin S.& Page L.(1998): The Anatomy of a Large-Scale Hypertextual Web Search
Engine. http://www-db.stanford.edu/~backrub/google.html. 02. Oktober 2006
Brown D. (2005): Search Engine Strategies Conference. San Jose, August 2005.
Clay, B. (2006): Search Engine Relationship Chart.
http://www.bruceclay.com/searchenginechart.pdf. 17.Oktober 2006.
Culliss G. (2000): The Direct Hit Popularity Engine Technology. A White Paper.
http://web.archive.org/web/20010619013748/www.directhit.com/about/produc
ts/technology_whitepaper.html. 22.Oktober 2006
DoubleClick Inc. (2005): Touchpoints-Studie Die Rolle des Internet im modernen
Kaufprozess.
http://emea.doubleclick.com/uploadpdf/pdf/dc_touchpointsIII_0507_de.pdf.
08. August 2006.
Ebay (2006): eBay Deutschland – Der weltweite Online-Marktplatz.
http://www.ebay.de. 22. Oktober 2006.
Enquiro & and Did-it.com (2005): EyeTracking Study by search marketing firms
Enquiro and Did-it.com to the Organic and PPC search results for visibility
and click through in Google.
http://www.prweb.com/releases/2005/3/prweb213516.htm. 01.Oktober 2006.
Erlhofer S. (2005a): Suchmaschinenoptimierung für Webentwickler. Bonn: Galileo
Press.
Erlhofer S. (2005b): Bei Google ganz vorne. Chip Professionell Web-Design
professionell No 2, (2005, 2), S. 118-120.
Garcia E. (2005): The Keyword Density of Non-Sense. http://www.e-marketingnews.co.uk/Mar05/garcia.html 11. November 2006.
Glöggler M. (2003): Suchmaschinen im Internet. Berlin: Springer-Verlag.
Google (2003): Google-Informationen für Webmaster.
http://www.google.de/webmasters/spamreport.html. 17.Oktober 2006
Google (2006a): Google Corporate Information: Google Milestones.
http://www.google.com/corporate/history.html. 21. Oktober 2006
Google (2006b): Google-Pressezentrum: Überblick über die Google-Technologie.
http://www.google.de/press/overview_tech.html. 21.Oktober 2006
Google (2006c): Hilfe für Webmaster – Nimmt Google dynamische Seiten in den Index
auf? http://www.google.de/support/webmasters/bin/answer.py?answer=34431.
20. Oktober 2006.
96
Google (2006d): Hilfe für Webmaster – Richtlinien für Webmaster
http://www.google.de/support/webmasters/bin/answer.py?answer=35769&hl=
de. 19. Oktober 2006.
Google (2006f): Hilfe für Webmaster – Richtlinien für Webmaster
http://www.google.de/support/webmasters/bin/answer.py?answer=35769&hl=
de. 22. September 2006
Gyöngyi Z., Garcia-Molia H.( 2004): Web Spam Taxonomy,
http://dbpubs.stanford.edu:8090/pub/2004-25, 07.11.2006
Jacobsen J. (2002): Website-Konzeption, Addison-Wesley Verlag, München.
Heise(2006): Google verliert erstmals nach elf Monaten in den USA Marktanteile.
http://www.heise.de/newsticker/meldung/77054 12. September 2006.
Kaiser A.(1993): Computer-unterstütztes Indexieren in Intelligenten Information
Retrieval Systemen - ein Relevanz-Feedback orientierter Ansatz zur
Informationserschließung in unformatierten Datenbanken. Dissertation
Wirtschaftsuniversität Wien, Wien.
Kaiser T. (2004): Effizientes Suchmaschinen-Marketing. Göttingen: BusinessVillage.
Kaiser T. (2006): Suchmaschinen-Marketing: Basiswissen.
http://www.suchmaschinen-marketing.de/cms/Wissen/. 03.Oktober 2006.
Karzauninkat S. (2004): Das Beziehungsgeflecht der Suchmaschinen.
http://www.suchfibel.de/5technik/suchmaschinen_beziehungen.htm.
15.September 2006
Kleinberg J. (1999): Authoritative Sources in a Hyperlinked Environment. Journal of
the ACM 46(5), 604-632
KeywordTool(2006): Google AdWords Keyword Tool,
https://adwords.google.de/select/KeywordSandbox. 13.Oktober 2006.
Lammenett E. (2006): Suchmaschinenoptimierung, In: Online-Marketing in der Praxis,
Serie. Teil 6 vom 21. März 2006.
Lehmann O., Lehmann, A.(2002). Top-Platzierungen in Suchmaschinen. München:
Addison-Wesley.
Lewandowski, D. (2005). Web Information Retrieval: Technologien Informationssuche
im Internet. Frankfurt am Main: DGI.
Machill M., Welp C. (2003): Wegweiser im Netz. Qualität und Nutzung von
Suchmaschinen. Gütersloh: Verlag Bertelsmann Stiftung.
Marx U. (2006): Online-Marketing, In: Handelsblatt vom 11. September 2006.
Matthew S., Whalan J. (2004): Search Engine Strategies Conference, London 2004.
Meinel C. & Sack H. (2004): WWW- Kommunikation, Internetworking, WebTechnologien. Berlin, Heidelberg, New York: Springer-Verlag.
MetaGer (2006a): MetaGer-Web-Assoziator, http://www.metager.de/asso.html. 13.
Oktober 2006.
MSN (2006a): Hilfe für Seiteneigentümer- Richtlinien für eine erfolgreiche Indizierung,
http://search.msn.de/docs/siteowner.aspx?t=SEARCH_WEBMASTER_REF_
GuidelinesforOptimizingSite.htm&FORM=WGDD 22. September 2006
Nohr H. (2003): Grundlagen der automatischen Indexierung. Ein Lehrbuch.
Berlin:Logos
97
Overture (2006): Yahoo! Search Marketing Studie-Die Internetsuche – eine
entscheidende Komponente bei der Reiseplanung und -buchung
Page L. (1998). Method for node ranking in a linked database.
http://patft.uspto.gov/netacgi/nph-Parser?patentnumber=6,285,999.
25.Oktober 2006
Page L., Brin S., Motwani R., Winograd T. (1998). The PageRank Citation Ranking:
Bringing Order to the Web. http://dbpubs.stanford.edu:8090/pub/1999-66
19.November.2006
Pekuysal E. Mehmet (1992): Methoden der Informationserschließung bei Information
Retrieval Systemen., Wien.
Rabe L. (2006): Gewinnung qualifizierter Besucher, In: Handelsblatt vom
11. September 2006.
Rankingcheck (2006): Keyword-Datenbank, http://www.ranking-check.de/keyworddatenbank.php 03.November.2006
Salton G., McGill G.( 1987): Information retrieval - Grundlegendes für
Informationswissenschaftler. McGraw-Hill Verlag, Hamburg.
Sander-Beuermann W. (1998): Schatzsucher: Die Internet-Suchmaschinen der Zukunft,
c't 13/98, S. 178: Suchen im Web
Seekport(2006): Die wichtigen Bestandteile einer Internetseite
http://seekport.de/help/webmaster_tips.html 22. September 2006
Sherman C., Price G. (2001). The invisible web: uncovering information
sources search engines can’t see. Medford: Information Today.
Sobek M. (2002). Überblick über das PageRank-Verfahren der Suchmaschine
Google. http://pr.efactory.de/d-index.shtml. 01.November 2006
Stock W.G.(2000): Informationswirtschaft: Management externen Wissens. Oldenbourg
Wissenschaftsverlag GmbH, München, Wien.
SuggestionTool (2006): Overture Search Term Suggestion Tool,
http://inventory.de.overture.com/d/searchinventory/suggestion/?mkt=de&lang
=de_DE. 13. Oktober 2006.
Tabke, Brett (2003). In 26 Schritten zu 15 Kilo täglich. In: Google Hacks. Köln:
O’Reilly.
Webhits (2006). Nutzung von Suchmaschinen.
http://www.webhits.de/deutsch/index.shtml?webstats.html. 06 September
2006.
98
Abschließende Erklärung
Ich versichere hiermit, daß ich die vorliegende Diplomarbeit selbständig, ohne unzulässige Hilfe Dritter und ohne Benutzung anderer als der angegebenen Hilfsmittel angefertigt habe. Die aus fremden Quellen direkt oder indirekt übernommenen Gedanken
sind als solche kenntlich gemacht.
Magdeburg, den 13. März 2007