Diplomarbeit fuer Vortragsthema 15 (e-hoi)
Transcription
Diplomarbeit fuer Vortragsthema 15 (e-hoi)
Otto-von-Guericke-Universität Magdeburg Thema: Analyse und Optimierung des indexbasierten Suchmaschinen-Marketings am Beispiel einer touristischen Online-Plattform. Diplomarbeit Arbeitsgruppe Information Retrieval Themensteller: Betreuer: Jan Lammers, e-hoi GmbH & Co.KG, Frankfurt am Main Professor (Jun.-Prof.) Andreas Nürnberger vorgelegt von: Oleksander Bazalukov Friedrichsring 49 63069 Offenbach am Main 069-98664114 E-Mail: [email protected] Abgabetermin: 13. März 2007 II Inhaltsverzeichnis Inhaltsverzeichnis ............................................................................................................. II Verzeichnis der Abkürzungen und Akronyme ............................................................... IV Symbolverzeichnis............................................................................................................V Abbildungsverzeichnis ................................................................................................... VI Tabellenverzeichnis ......................................................................................................VIII 1 Einführung ....................................................................................................................1 2 Suchdienste im Internet ................................................................................................3 2.1 Bedeutung der Suchdienste für das Internet........................................................3 2.2 Ein Überblick von Suchdiensten im Internet ......................................................3 2.2.1 Kataloge und Verzeichnisse....................................................................4 2.2.2 „Klassische“ Suchmaschinen ..................................................................7 2.2.3 Meta-Suchdiensten..................................................................................9 2.3 Suchmaschinen-Markt in Deutschland..............................................................11 3 Suchmaschinen-Marketing als ein wichtiger Baustein des Unternehmen-Marketings17 3.1 Historische Entwicklung ..................................................................................17 3.2 Definition und Formen des Suchmaschinenmarketings...................................19 3.3 Bedeutung von Suchmaschinen für ein Online-Unternehmen ..........................23 4 Indexierung von Dokumenten und Rankingverfahren der Suchmaschine .................25 4.1 Indexierung von Dokumenten ...........................................................................25 4.2 Funktionweise der Suchmaschinen an Beispiel Google....................................26 4.3 Informationsstatistische Verfahren des Suchmaschinen-Rankings...................28 4.3.1 Textstatische Verfahren ........................................................................28 4.3.2 Nutzungsstatistische Verfahren.............................................................31 4.4 Linktopologische Rankingverfahren der Suchmaschinen.................................32 4.4.1 Konzept der Link-Popularität................................................................33 4.4.2 PageRank-Verfahren.............................................................................34 4.4.3 HITS-Verfahren ....................................................................................38 4.4.4 Hilltop-Verfahren..................................................................................40 5 Verfahren zur Optimierung der Indexierung und des Rankings von Web-Seiten......42 5.1 OnPage Suchmaschinen-Optimierung ..............................................................42 5.1.1 Auswahl der Suchbegriffe.....................................................................42 5.1.2 Optimierung der Struktur der Web-Seite ..............................................43 5.1.3 URLs-Design ........................................................................................45 5.1.4 Optimierung der Meta-Informationen...................................................47 5.1.5 Optimierung der Inhalten der Seite .......................................................49 5.1.6 Auslagerung der JavaScripts und Styles in externe Dateien.................51 5.2 OffPage Suchmaschinen-Optimierung..............................................................52 III 5.3 Spam-Techniken bei der Optimierung von Web-Seiten ...................................54 6 Analyse der Web-Seite www.e-hoi.de und die Durchführung der notwendigen Optimierungsmaßnahmen...........................................................................................59 6.1 Stammdaten der Seite ehoi.de und Auszug der Statistiken ...............................59 6.2 Auswahl der Suchbegriffen und Ermittlung ihrer Positionen in Google ..........61 6.3 Erstellung eines neuen Bereiches für die Reiseziele .........................................63 6.4 Optimierung der Seiten-Struktur .......................................................................66 6.5 Optimierung der URLs und Header-Informationen ..........................................69 6.6 Optimierung der Inhalten ..................................................................................72 6.7 Auslagerung der QuelleCodes...........................................................................75 6.8 Analyse und Durchführung der OffPage Maßnahmen......................................77 7 Controlling der Ergebnisse .........................................................................................79 8 Zusammenfassung ......................................................................................................84 A Suchbegriffanalyse bei der wichtigsten Suchmaschienen ..........................................86 Literaturverzeichnis .........................................................................................................95 IV Verzeichnis der Abkürzungen und Akronyme AOL API bzw. ca. CSS d.h. DocID EDV etc. GmbH HTML ID IDF i.d.R. IP IRS ISAPI Kb Mb MSN o. b. d. A. o. Jg. o. O. o. V. PHP PR pt SEM SEO SQL TF UK URL US WWW XML z.B z.Z. American Online Application Programmer Interface beziehungsweise zirka Cascading Style Sheets daß heißt Document Identification Elektronische Datenverarbeitung und so weiter Gesellschaft mit der begrenzten Haftung HyperText Markup Language Identification Inverse Document Frequency in der Regel Internet Protocol Information-Retrieval-Systeme Internet Server API Kilobyte Megabyte Microsoft Network ohne Beschränkung der Allgemeinheit ohne Jahrgang ohne Ort ohne Verfasser PHP Hypertext Preprocessor Page Rank Point Search Engine Marketing Search Engine Optimization Structured Query Language Term Frequency United Kingdom Uniform Resource Locator United States World Wide Web Extensible Markup Language zum Beispiel zur Zeit V Symbolverzeichnis % a Ap C(T) d ft h Hp log ND PR(T) t Prozent Anzahl Authority-Gewicht des Dokumentes P Gesamtanzahl der Links des Dokumentes T Dämpfungsfaktor Anzahl der Dokumenten, die den Suchbegriff t enthalten Häufigkeit Hub-Gewicht des Dokumentes P Logarithmus Anzahl der Dokumenten PageRank Dokumentes T Term VI Abbildungsverzeichnis Abb. 2.1 Beispiel für eine Katalog-Striktur.......................................................................5 Abb. 2.2 Ein Beispiel für die Archetiktur einer Suchmaschine.........................................8 Abb. 2.3 Suchmaschinen-Markt in USA (Clay 2006).....................................................13 Abb. 2.4 Beziehungsgeflecht der Suchmaschinen in Deutschland (Karzauninkat 2004)14 Abb. 2.5 Suchmaschinen-Marktanteile in Deutschland ..................................................15 Abb. 3.1 EyeTracking Study ..........................................................................................22 Abb. 3.2 Klick-Wahrscheinlichkeit nach EyeTracking Study ........................................22 Abb. 4.1 Architektur der Suchmaschine Google.............................................................27 Abb. 4.2 Ein Beispiel für die Eigenschaften des PageRanks ..........................................36 Abb. 4.3 Hubs- und Authorities-Beziehungen beim HITS-Verfahren............................39 Abb. 5.1 Ein Beispiel für eine flach strukturierte Seite...................................................44 Abb. 5.2 Ein Beispiel für eine tief strukturierte Seite .....................................................44 Abb. 5.3 Ein Beispiel für die Surfase- und Deep-Web ...................................................46 Abb. 5.4 Vermietung von Backlinks im Internet-Auktionshaus eBay ............................54 Abb. 5.5 Ein Beispiel für die Crosslinking-Struktur .......................................................57 Abb. 6.1 Ergebnisse des Google Trends nach dem Vergleich der Wörter "Kreuzfahrt" und "Kreuzfahrten".......................................................................................62 Abb. 6.2 Die Ergebnisse der Abfrage der Omniture-Datenbank durch den Online-Tool der Seite www.ranking-check.de nach dem Wort "kreuzfahrten"...............64 Abb. 6.3 Ein Beispiel für eine Reiseziel-Seite von www.e-hoi.de..................................65 Abb. 6.4 Ein Beispiel für die Integration der zusätzlichen Verlinkungen auf einer SchiffSeite von www.e-hoi.de................................................................................67 Abb. 6.5 Ein Beispiel für die Integration der zusätzlichen Verlinkungen auf der SucheSeite von www.e-hoi.de................................................................................68 Abb. 6.6 Ein Beispiel für die Anzeige der Suchphrase "Afrika Kreuzfahrten" in der Ergebnissliste der Suchmaschine Google.....................................................72 Abb. 6.7 Ein Beispiel für die Anzeige der Überschriften h1, h2, h3 und h4 nach HTMLFormatierungen ohne CSS............................................................................73 Abb. 6.8 Ein Beispiel für die Anzeige des Überschriftes h1 nach CSS-Formatierung ...73 Abb. 6.9 Ein Beispiel für die Optimierung der Inhalten einer Reiseziel-Seite von www.e-hoi.de................................................................................................74 Abb. 6.10 Ein Beispiel für die Anzeige des Buttons "GO" auf einer Seite von www.ehoi.de ............................................................................................................75 Abb. 7.1 Statistik für die Einstiegseiten aus dem Bereich „Schiffe“ der Präsenz e-hoi.de79 Abb. 7.2 Statistik für die Einstiegseiten aus dem Bereich „Reedereien“ der Präsenz ehoi.de ............................................................................................................80 VII Abb. 7.3 Statistik für die Einstiegseiten aus dem Bereich „Routen“ der Präsenz e-hoi.de80 Abb. 7.4 Statistik für die Einstiegseiten aus dem Bereich „Reiseziele“ der Präsenz ehoi.de ............................................................................................................81 Abb. 7.5 Statistik für die Buchungsanfragen...................................................................81 VIII Tabellenverzeichnis Tab. 4.1 Iterative Berechnung des PageRankings ...........................................................37 Tab. 5.1 Auswahl an Tags zur Hervorhebung von Termen mittels HTML ....................50 Tab. 6.1 Stammdaten der Web-Präsenz www.e-hoi.de...................................................59 Tab. 6.2 Besucher-Statistik der www.e-hoi.de (Aug.2005-Aug.2006) ...........................60 Tab. 6.3 Ein Beispiel für die Positionen der Suchbegriffe in der Ergebnissen wichtiger Suchmaschinen .............................................................................................62 Tab. 6.4 Titel und Meta-Informatioene nach der Optimierung der wichtigen Seiten der www.e-hoi.de................................................................................................71 Tab. 7.1 Besucher-Statistik der www.e-hoi.de (Aug.2005-Jan.2007).............................79 Tab. 7.2 Ein Beispiel für des Vergleich der Positionen der Suchbegriffe in der Ergebnissen wichtiger Suchmaschinen im August 2006 und Januar 2007 ..82 1 1 Einführung Insgesamt nutzten Verbraucher vor ca. jedem zweiten Online-Kauf eine Suchmaschine zur Entscheidungsfindung. Im Falle der Tourismus-Branche nutzten sogar nahezu drei von vier Käufern zuvor eine Suchmaschine. 1 Die rasant wachsenden Informationen im Internet haben dazu geführt, dass Suchmaschinen zu einem unverzichtbaren Instrument zur Bewältigung dieser Informationsflut werden. Beim Auffinden von Informationen entscheiden Suchmaschinen darüber, welche Informationen für Nutzer zugänglich sind und welche verborgen bleiben. Aufgrund der steigenden Nutzung der Suchmaschinen hat auch die Suchmaschinenoptimierung zunehmend an Bedeutung gewonnen. Der Begriff lässt sich wie folgt definieren: „Im allgemeinen Sprachgebrauch bedeutet Suchmaschinen-Optimierung, die Inhalte und Struktur einer Seite derart gezielt zu verändern, dass sie bei den Suchmaschinen eine obere Rangposition erhält.“ 2 Jede Web-Präsenz hat das grundsätzliche Ziel, die Besucherzahlen zu maximieren. Vor allem bei kommerziellen Web-Seiten entscheiden die Besucherströme oftmals über den Erfolg oder Misserfolg des Unternehmens. Wenn die Produkte über das Internet verkauft werden, sind starke Besucherzahlen gleichbedeutend mit höhen Umsätzen. Somit ist es für die Betreiber der Web-Seiten wichtig in Suchmaschinen gefunden zu werden. Das Ziel dieser Arbeit ist die Erforschung des Suchmaschinen-Marktes und – Mechanismen, Methoden für die Suchmaschinenoptimierung von Web-Seiten und der Einsatz gewonnener Erkentnisse für die Optimierung der Web-Präsenz der e-hoi GmbH, einer Online-Buchungsplattform für die Kreuzfahrten. Es soll herausgestellt werden, welche OnPage Einflussfaktoren existieren und mit welchen Maßnahmen das Ranking der Seite bezüglich relevanter Suchbegriffe verbessert werden kann. Zunächst wird einführend auf das Themengebiet der Suchdienste und des Suchmaschinenmarktes in Deutschland eingegangen, wobei wichtige Zusammenhänge 1 2 Vgl. DoubleClick Inc (2005), S. 3 ff Erlhofer (2005a), S. 167 2 erläutert und für das Verständnis der Arbeit notwendige Begriffe definiert werden. Darüber hinaus wird das Suchmaschinen-Marketing und seine Bedeutung für ein Unternehmrn unter die Lupe genommen. Weiterhin wird näher zu den Suchmechanismen, Rankingfaktoren und Optimierungsmethoden bei den Suchmaschinen eingegangen. Anhand dieses Basiswissens werden konkrete Möglichkeiten der OnPage-Optimierung für die Web-Seiten aufgezeigt und für die Web-Präsenz der e-hoi GmbH umgesetzt. Anschliessend ist eine Effizienz der durchgeführten Optimierungen zu bewerten. 3 2 Suchdienste im Internet 2.1 Bedeutung der Suchdienste für das Internet Man kann das Internet als ein hypertextbasiertes System betrachten - die vorhandenen Informationen sind über verschiedene Web-Seiten verteilt. Alle Seiten sind mit der Hilfe der Hyperlinks miteinander verbunden. Die Unterschiede zu vielen anderen Hypertextsystemen sind, dass die Informationen und Inhalte des WWW sich nicht auf einem zentralen Datei- bzw. Datenbanksystem befinden, sondern auf weltweit verteilten Servern gespeichert. 3 Um auf diese Inhalte gezielt zuzugreifen, benötigt man sehr oft spezielle Navigationsinstrumente. Die Internet-Suchdienste haben diese Aufgabe vollständig übernommen. Da ein zentrales Verzeichnis oder eine Registratur aller Internetinhalte nicht existiert, man ohne Hilfe der Suchdiensten nicht die notwendige Informationen im Internet finden kann. Man kann wohl sagen, dass ohne das Angebot der Suchdienstleistungsanbieter das Internet aufgrund der nichtzentralisierten Organisation nutzlos und wertlos wäre. Wenn man als Internet-Nutzer die elektronische Adresse des Zielservers nicht kennt, ist das Internet für ihn nicht mehr als eine riesige unsystematische Bibliothek ohne Ordnung, wo ein benötigtes Buch einfach nicht zu finden ist. Die Aufgabe von Suchdiensten ist, Ordnung in dieses Chaos zu bringen, was Angesichts der enorm umfangreichen und ständig schnell wachsenden Datenbestände des Internets eine gigantische Herausforderung ist. Die Suchdienste des Internet stellen mittlerweile neben traditionellen Medien wie Zeitungen und Fernsehen und klassischen Informationsdiensten, wie etwa Bibliotheken, zunehmend das zentrale Hilfsmittel zur Befriedigung von Informationsbedürfnissen dar. 2.2 Ein Überblick von Suchdiensten im Internet Um mit der Datenflut im Internet fertig zu werden, braucht man die Hilfsmittel, die bei der Informationsbeschaffung zur Seite stehen. Sehr selten kennt man gerade die richtige Adresse einer Webseite, welche die gewünschte Information enthält und das ziellose Surfen ist in den meisten Fällen nicht erfolgreich. Unter allen Rechnern im Internet gibt es Server, die ein Angebot speziell für die Informationsbeschaffung zur Verfügung stellen. Solche Werkzeuge für den Informationszugriff nennt man Informationsdienste. Man behandelt die drei wichtigsten Typen von Informationssystemen: 4 3 4 vgl. Meinel & Sack (2004), S.195,ff vgl. Glöggler (2003), S. 1 4 • Katalogsysteme kann man mit einem Branchentelefonbuch vergleichen. Die einzelnen Einträge sind in vorgegebene Kategorien eingeteilt. Die Kategorien sind häufig hierarchisch geordnet. • Suchsysteme (auch Information-Retrieval-Systeme oder Suchmaschinen genannt) stellen Funktionen zur Dokumentensuche bereit. Bei einer Suchanfrage liefert eine Suchmaschine eine Liste von Dokumenten, welche die gewünschte Information enthalten sollen. • Meta-Suchsysteme sind keine eigenen Suchsysteme. Vielmehr bedienen die Metasucher mehrere Suchmaschinen gleichzeitig und erhalten so eine sehr hohe Anzahl an gefundenen Seiten. Dabei sind Sie so "intelligent", dass sie doppelt gefundene Seiten filtern und nur einmal anzeigen. • Die Push-Systeme bieten einen anderen Service an. Während Benutzer von Suchoder Katalogsystemen bei jedem Informationsbedürfnis die Dokumente beim Informationssystem holen müssen (man spricht auch von „Pull-Systemen“), versorgen Push-Systeme ihre Benutzer aktiv und fortlaufend mit aktuellen Informationen. Für jeden Benutzer existiert ein so genanntes Profil. Das Profil beschreibt das Informationsbedürfnis eines Benutzers, so wie die Anfrage bei einem Suchsystem. Neu im Internet auftauchende Dokumente werden automatisch mit allen gespeicherten Profilen verglichen und bei genügend guter Übereinstimmung dem Benutzer zugestellt. 2.2.1 Kataloge und Verzeichnisse Die Katalogsysteme bringen eine gewisse Struktur und Ordnung in die Dokumentenmenge. Die Funktionsweise eines Katalogsystems ist ähnlich dem einer Bibliothek oder einem Telefonbuch - alle Einträge sind nach Kategorien sortiert - ein Katalogsystem unterstützt den indirekten Zugriff auf Dokumente via Kategorien. 5 Abb. 2.1 Beispiel für eine Katalog-Striktur Ein Katalogsystem ist nichts anderes als eine Hierarchie von Kategorien 5. Ganz erscheinen dann die allgemeinen Kategorien und je weiter man hinuntersteigt, desto spezifischer sind die Einträge. Jede Kategorie verfügt immer über einen Namen und kann eine oder mehrere Unterkategorien besitzen. Neben der streng hierarchischen Gliederung gibt es auch sehr oft die Querverweise, die in eine andere Teilhierarchie mit Dokumenten zu einem verwandten Thema führen können und die Suche nach Dokumenten erleichtern. Es kann auch vorkommen, dass ein Dokument in mehreren Kategorien auftaucht. In der Regel existieren zu jedem Eintrag ein Titel und eine kurze Zusammenfassung oder Beschreibung. Die typische Recherche in einem Katalogdienst läuft genauso ab, wie man es von einer Bibliothek her kennt. Man beginnt bei einer der allgemeinen Kategorien und geht so lange weiter, bis eine geeignete Unterkategorie gefunden wird, wo die gesuchten Informationen zur Verfügung stehen. Der Aufbau von Verzeichnissen und Katalogen kann verschiedenen Ansätzen folgen. Sehr verbreitet ist der Aufbau der Rubriken durch die Betreiber selbst. Bei diesem Verfahren ist häufig auch das Anmelden eigener Web Seiten durch die Benutzer für die Aufnahme in den Katalog erwünscht. Das klassische Beispiel dafür ist Yahoo.com, einer der ersten intellektuell erzeugten Kataloge. Eine ganz andere Verfahrensweise ist die Erstellung eines Verzeichnisses durch eine Nutzergruppe. Dabei können z.B. einzelne Nutzer auf freiwilliger Basis für den Inhalt einer Katalog-Rubrik verantwortlich sein. Die Links, Beschreibungen und weitere 5 vgl. Erlhofer (2005a), S. 15 6 Informationen werden manuell gesammelt und zur Verfügung gestellt. Als Beispiel dafür können sog. Community-Sites und Expertenforen genannt werden. Eine weitere Unterscheidung liegt vor, wenn sowohl die Vorschläge als auch die Bewertung der Einträge von freiwilligen Nutzern erfolgen. Die Qualitätssicherung der Beiträge in Form vorgeschlagener Links übernehmen dann die für jeweils eine oder mehrere Rubriken verantwortlichen . Die Kataloge können in hierarchische und nichthierarchische Webverzeichnisse unterteilt werden. In hierarchischen Katalogen werden die Kategorien und Einträge in einer eindeutigen Ordnung sortiert. Ein Eintrag befindet sich dabei oft nur in einer bestimmten Kategorie und ist deswegen schwer zu finden. Dabei hilft das gegenseitige Querverweisen von Kategorien. Ein Beispiel für ein sehr hierarchisches Webverzeichnis ist das Open Directory Project (www.dmoz.org). Nichthierarchische Verzeichnisse bestehen dagegen aus einer netzwerkartigen Struktur, mit deren Knoten die Einträge (Links) verknüpft werden. Dadurch sind die Einträge und Kategorien leichter zu finden, eine assoziative Suche ist eher möglich (Beispiele siehe unten Themennetzwerke). Auch können die Kataloge und Verzeichnisse sich zwischen kommerziellen und nichtkommerziellen unterscheiden. Durch das Geschäftsmodell vieler Katalogenbetreiber besteht die Gefahr einer eingeschränkten Objektivität - die Erhöhung der Ranghöhe in einem Verzeichnis für die eigene Webseite wird zur offiziell angebotenen Dienstleistung. Der Benutzer kann kaum unterscheiden, welche Suchergebnisse im Katalog sich einen hohen Rang durch hohe Relevanz "verdient" haben und bei welchen ein hoher Rang "erkauft" wurde. Der wohl wichtigste Vorteil von Katalogen ist, dass sie fast immer redaktionell betreut sind – jede Quelle wird persönlich gesichtet und deren thematische Zuordnung überprüft. Außerdem besteht auch die Möglichkeit, dass die Erfasser zu dem Dokument eine kurze Bewertung angeben. Das alles erhöht die Qualität der Suchergebnisse. Ein weiterer Vorteil der Katalogdiensten ist, dass, wenn ein Informationsbedürfnis durch eine Kategorie abgedeckt wird, die Suche auf diese Kategorie beschränkt werden kann. Alternativ zur hierarchischen Suche kann bei einigen Webverzeichnissen zusätzlich auch mit einer dazugehörigen Suchmaschine nach dem passenden Begriff gesucht werden. Aber zu bedenke dabei ist, dass diese Suchfunktion nur die katalogisierten Schlagwörter erfasst oder die Texten im Titel und Beschreibung, nicht aber die verwendeten Begriffe in den letztendlich gesuchten Dokumenten. Zu den Nachteilen zählt man auch die relativ kleineren Bestände von Dokumenten und längere Aktualisierungszeiten 6 (z.B. die Zeit, nach der ein Dokument in ein berühmtes Katalog 6 vgl. Erlhofer (2005a), S. 16 7 DMOZ erfasst wird, kann bei mehreren Monaten liegen). Ein weiteres Problem besteht beim Einordnen von Dokumenten in die Kategorien des Katalogdienstes. Die optimale Zuordnung ist oft unklar. In vielen Fällen empfehlen verschiedene Personen für das gleiche Dokument unterschiedliche Kategorien. Bei großen Datenbeständen besteht auch die Gefahr, dass nicht mehr existierende Webseiten referenziert werden, und dass die Wiederauffindbarkeit relevanter Webseiten darunter leidet. Um diese Probleme zu lösen, werden bei modernen Verzeichnissen die verschiedenen maschinellen und manuellen Mechanismen und Mittel eingesetzt, wie manuelle Bewertungssysteme (Voting), automatische Bewertungssysteme (Ranking), Robots zum Überprüfen und Entfernen von nicht mehr existierenden Links oder die Auswertungen des Klickverhaltens der Benutzer. 2.2.2 „Klassische“ Suchmaschinen Die zunächst unübersehbare Menge von Informationen im Internet begründete den Bedarf für Programme, die alle wichtigen für eine mögliche Suche relevanten Informationen in Datenbanken speichern, um später über die Eingabe von Wörtern oder Phrasen relevante Dokumente finden zu können. Für diese Aufgaben wurden die Suchroboter entwickelt, die das ganze Web durchsuchen und die über das Verfolgen von Links gefundenen Dokumente indizieren. Die Ergebnisse einer Suche sind sehr stark davon abhängig, bis zu welcher Tiefe die Dokumente durchsucht und die Links verfolgt werden. Manche Suchmaschinen indizieren nur die Meta-Informationen im Head der Dokumente, manche indizieren nur die Überschriften der einzelnen Textabschnitte, die andere dagegen werten das gesamte Dokument aus. Eine Suchmaschine ist ein Programm oder Schnittstelle zum Recherchen von Dokumentmengen, die auf einem, mehreren Computern oder einem Computernetzwerk, wie zum Beispiel WWW, gespeichert sind. Nach der Eingabe des Suchbegriffs liefert die Suchmaschine eine Liste von dazugehörigen relevanten Ergebnissen, meistens mit dem Titel und kurzem Auszug aus dem Dokument. Die größten klassischen Suchmaschinen wie Google, Yahoo oder MSN indizieren die Seiten mittels einer schlagwort-basierten Volltextsuche. Zusätzlich wird versucht, über komplizierte Ranking Funktionen eine Gewichtung bezüglich eines Schlagwortes herzuleiten. Im Prinzip Stichwortverzeichnis auf. bauen diese Suchmaschinen ein gigantisches Da Information im Internet kein statisches Gebilde darstellt, müssen die Datenbanken von Suchmaschinen ständig aktualisiert werden. Roboter, Spiders, Crawlers, Wanderer 8 und Worms sind die Programme, die das WWW ständig auf neu hinzugekommene, abgeänderte oder gelöschte Dokumente untersuchen. Eine zu untersuchende Seite wird geladen und einer Inhaltserschließung unterzogen. Danach werden alle von dieser Seite Verweise verfolgt und die referenzierten Dokumente nach gleichem Prinzip geladen und untersucht. Es wird von einem maschinellen bzw. roboterbasierten Verfahren gesprochen. Indizierungsprogramme analysieren die gesammelten Informationen und aktualisieren Index und Datenbestand der Datenbank der jeweiligen Suchmaschine. Anhand dieser Mechanismen garantieren die Suchdienste eine Datenbank auf aktuellstem Stand. Die Suchmaschinendatenbank besteht aus einem Index, dem Dokumentenbestand und weiteren Informationen über diese Dokumente (z.B Datum, Sprache etc.). Abb. 2.2 Ein Beispiel für die Archetiktur einer Suchmaschine Die Bearbeitung einer Suchanfrage kann man als ein einfacher Zugriff auf eine IndexDatenbank ansehen. Der Benuutzer gibt in einem Suchformular die Begriffe ein, welche dann mit der Datenbank abgeglichen werden und die sortierend nach Relevanz Ergebnisse dem Nutzer wieder zurückgeschickt werden. Jedes im Index abgespeicherte Wort verweist auf ein oder mehrere Dokumente. Wird ein Suchbegriff eingegeben, so durchsucht der Suchalgorithmus die Wortliste und gibt die referenzierten Dokumente zurück. Dabei sind noch viele Problemfelder offen. Die klassischen Suchmaschinen können nicht die Synonyme in ihre Suche einbeziehen. Keine. So können leider eventuell relevante für Nutzer Informationen nicht angezeigt werden. Die bekanntesten 9 Suchmaschinen machen aber in dieser Richtung schon einige Vorschritte. Ein weiteres Problem ist die Ignoranz von Mehrdeutigkeiten (Homonymen). Das klassisches Beispiel dafür ist das Wort „Java“, bei der Suche nach dem bekommt man fast ausschließlich die Ergebnisse zur Programmiersprache und nicht zu einer beliebten Urlaubsinsel. Worte können auch in verschiedenen Variationen auftreten, zum Beispiel „Finanzen“ und „finanziell“. Klassische Suchmaschinen ignorieren zum größten Teil jegliche Wortformvariationen. Sinnverwandte Begriffe werden von Suchmaschinen ebenso wenig wie Synonyme erkannt. Das Semantik Web stellt einen interessanten Lösungsansatz dar, um die oben genannten Probleme zu lösen und eine effiziente Suche im Web zu realisieren. Es sind die vier wichtigsten Aufgaben einer Suchmaschine: Dokumentenbeschaffung, Indexierung, Aktualisierung und die Anfragenbearbeitung. Die Beschaffung von neuen Dokumenten wird entweder maschinell durch Roboter oder manuell durch die Anmeldung der Seite von Nutzern in jeweiligen Suchmaschinen gemacht. Die Indizierung der Seiten kann nach drei verschiedenen Strategien durchführt werden. Bei der Volltext-Indizierung, was die meisten Suchmaschinen anbieten, werden inhaltsbedeutende Begriffe aus der gesamten HTML-Seite indiziert. Nach TeilindexEinsatz indizieren die Suchmaschinen meistens nur URL, Titel und Überschriften oder auch die ersten Zeilen der Seite. Und es gibt auch die Suchmaschienen, die nur die spezielle inhaltsbeschreibenden Bereiche indizieren, wie die META-Tags der Seite. Bei den Aktualisierungsverfahren von einzelnen Suchmaschinen gibt es große Unterschiede nach Art und der Zeit. Meist ist es einfach zeitabhängig - die Angaben für die zeitliche Aktualisierung einzelner Web-Seiten bei den Suchmaschinen können zwischen einem Tag und sechs Wochen schwanken. Oft hängt es auch von der Zugriffshäufigkeit auf das Dokument ab. Funktionalität bei der Anfragenbearbeitung ist direkt von Indizierung –Strategie der Dokumenten abhängig. Je besser die Analyse und Indizierung der HTML-Seiten ist, desto umfangreicher ist das Angebot an Suchmethoden und -operatoren.Suchmaschinen sind zweifellos bis heute die dominierenden Werkzeuge zur Suche im WWW. 2.2.3 Meta-Suchdiensten Ein wesentliches Merkmal einer Metasuchmaschine (Multi-Search) besteht darin, dass sie eine Suchanfrage gleichzeitig an mehrere andere „klassische“ Suchmaschinen weiterleitet, deren Ergebnisse sammelt und dem Nutzer in einer Liste zur Verfügung 10 stellt. 7 Die Ergebnisse werden durch die Eliminierung von doppelten Einträgen, die Bewertung der Ergebnisse und durch Aufstellung eines eigenen internen Ranking einheitlich, wie bei einer „klassischen“ Suchmaschine, dargestellt. Die Ergebnisse einer Metasuchmaschine werden meist langsamer geliefert, als bei einer normalen Suchmaschine, weil deren Server zuerst auf die Antworten aller Suchdienste, an die Suche weitergegeben wurde, warten muss und erst danach die Ergebnis präsentiert. Es sind drei verschiedenen Arten von Meta-Suchdiensten zu unterscheiden. Es gibt die Web-Seiten, die einfach mehrere Suchmasken verschiedener Suchmaschinen haben. Diese Seiten sind zwar nicht "echte" Metasuchmaschinen, aber haben trotzdem gewisse Vorteile. Es werden Suchformulare mehreren Suchmaschinen auf der Seite angeboten, was das Laden der Homepages einzelner Suchmaschinen erspart und deren guter Überblick anbietet. Ebenso existieren auch die pseudo-sequentielle Meta-Suchdienste, die zwar nur ein Suchformular haben, aber bei denen der Nutzer selbst die abzufragenden Suchmaschinen manuell auswählen kann bzw. muss, um die Suche mit ihnen durch den Metasuchdienst einzuleiten. Der Vorteil solcher Suchdienste besteht darin, dass die Suchanfrage nur einmal erfasst werden muss. Bei den "echten" Metasuchmaschinen werden automatisch mehrere Suchdienste, wie Suchmaschinen und Verzeichnisse über eine Suchmaske befragt. Dabei werden die Funktionalität und Operatoren der verschiedenen Suchdienste verwendet und die Anpassung der Anfrage auf die einzelnen Suchdienste vorgenommen. Der Benutzer weiß nicht, welche spezifischen Eigenschaften die unter der Meta-Maschine liegenden Suchdienste haben. Die Kurzbeschreibungen, Titel oder Inhaltszusammenfassungen werden übernommen und in einer einheitlichen Form dargestellt. Die Mehrfachtreffer aus den Ergebnissen der verschiedenen Suchdienste werden bei der Anzeige eliminiert. Bei der Suche in Meta-Suchmaschinen können oft auch die Zeitvorgaben und maximale Treffergrenzen eingestellt werden. Die Zeit für die Suche ist so einstellbar, dass der letzte nachgewiesene Treffer eines Suchdienstes noch erfasst werden kann. Bei der Befragung der Suchdienste durch die Metasuchmaschine werden zwei grundlegende Techniken unterschieden: der sequentielle und der parallele Zugriff. Bei der sequentiellen Suche werden Suchdienste nacheinander von dem Metasuchdienst befragt und die Trefferliste wird erst nach Befragung des letzten Suchdienstes erstellt. Paralleler Zugriff ermöglicht gleichzeitige Abfrage der Suchdiensten. In diesem Fall 7 vgl. Sander-Beuermann (1998) S178. 11 wird die Ausgabe der Trefferliste schon begonnen, sobald einer der befragten Suchdienste die Suchanfrage abgearbeitet hat. Das zentrale Problem der Metasuchmaschinen ist das Ranking bei der Erstellung der gemischten Trefferliste. Weil Rankingmechanismen einzelner Suchdienste oft sehr unterschiedlich und geheim sind, wird die Trefferliste in den meisten Fällen nach den Suchdiensten gruppiert. Weil die verschiedenen Suchmaschine unterschiedliche Operatoren bei den Suchanfragen unterstützen können, sind die Beschränkungen bei der Formulierung der Suchanfrage ein weiterer Nachteil der meisten Metasuchdienste. Es existieren aber mittlerweile die Metasuchmaschine, die Suchanfragen mit umfangreichen Optionen und Operatoren erlauben. Diese Metasuchdienste analysieren die Anfrage und leiten diese nur an jene Suchmaschine weiter, die die Anfrage auch bearbeiten können. Dabei sind die geringeren Ergebnismengen zum Nachteil, aber gleichzeitig kann man die Qualität der Informationen durch den Einsatz der verschiedenen Operatoren gewinnen. Fazit ist, dass die Stärken von Metasuchmaschinen nur bei allgemeinen Suchanfragen liegen, da in diesen Fällen die Benutzung mehreren Suchmaschinen die Anzahl der relevanten Ergebnissen steigert. Bei der speziellen Anfrage ist es jedoch besser, eine „klassische“ Suchmaschine zu benutzen. 2.3 Suchmaschinen-Markt in Deutschland Der Suchmaschinen-Markt zeichnet sich durch eine hohe Konzentration aus. Durch eine Menge von kleinen Suchmaschinen-Anbieter scheint es so, als ob es ein gesunder Wettbewerb in dieser Branche herrscht. Dazu kommt auch, dass viele Anbieter keine eigene Suchmaschine betreiben, sondern ein Suchmechanismus von den großen Anbietern benutzen und visuell nur eigene Suchmaske anbieten. Aber nur sehr wenige Anbieter beherrschen den Markt. Das hat dazu geführt, dass auf dem internationalen Markt nur vier große Suchmaschinen-Anbieter existieren, die eigene Suchmaschinen und Suchmechanismen mit riesigen Datenbeständen anbieten: Google, Yahoo, Microsoft, Ask Jeeves. Die Suchmaschine Google ist sicher der bekannteste Vertreter mit eigener Suchtechnologie. Die meisten Internet-Nutzer benutzen die Google-Suchmaschine und andere Dienste. Diese gilt heute als eine Art Synonym für die Web-Suche allgemein. Yahoo hat als Web-Verzeichnis gestartet und lange Zeit hat sie die algorithmischen Suchergebnisse von anderen Anbietern zugekauft. Erst im Jahr 2004 hat Yahoo auf der 12 Basis von gekauften Suchmaschinen All the Web und AltaVista und SuchtechnologieAnbieter Inktomi eine eigene Web-Suche, was der Bestandteil des Portals ist, angeboten. Die Suchmaschine von Microsoft wurde MSN („Microsoft Network") genannt. Wie bei Yahoo hat Microsift auch lange Zeit nur auf die Suchergebnisse von Fremdanbietern zurückgegriffen. Nur Ende 2004 wurde eine eigene Suchtechnologie vorgestellt und im Anfang 2005 auf dem Markt angeboten. Ask Jeeves ist auf dem europäischen Suchmaschinen-Markt ziemlich unbekannt, ist aber in den USA von größerer Bedeutung. Nach dem Aufkauf der Suchmaschine Teoma im Jahr 2003 verfügt Ask Jeeves über die vierte wichtigste Suchtechnologie auf dem internationalen Markt. 13 Quelle: Clay (2006) Abb. 2.3 Suchmaschinen-Markt in USA (Clay 2006) 8 Abbildung 2.3 zeigt die Beziehungen der Suchdienste untereinander auf dem USamerikanischen Markt. Hier kann man sehen, dass große Portale wie AOL oder Lycos ihre Suchergebnisse komplett zukaufen. 8 vgl. Clay (2006) 14 Die Marktanteile von Google in USA sind 43,7%. Dann kommt Yahoo mit 28,8%, MSN mit 12,8%, AOL und Ask mit 5,9% und 5,4% entsprechend 9. Für den deutschen Markt sieht das Bild ähnlich aus wie in den USA, allerdings mit der bereits erwähnten Ausnahme Ask Jeeves. Dieser Anbieter ist hier am Markt nicht vertreten bzw. unterhält keine deutsche Seite. Nationale Anbieter, die eine gewisse Bedeutung haben, sind die Suchmaschinen Fireball und Seekport sowie die Metasuchmaschine Metager. Abb. 2.4 Beziehungsgeflecht der Suchmaschinen in Deutschland (Karzauninkat 2004) 10 Abbildung 2.4 zeigt analog zum Schaubild des amerikanischen Suchmaschinenmarkts die Beziehungen der deutschsprachigen Suchmaschinen untereinander. Auch hier wird deutlich, dass nur wenige Anbieter Suchergebnisse liefern und mit Ausnahme von Yahoo keines der populären Portale eine eigene Suchmaschine anbietet. 9 vgl. Heise(2006) Karzauninkat(2004) 10 15 Für Suchmaschinenmarketing, insbesondere für Suchmaschinenoptimierung sind die aktuellen Marktanteile der Suchmaschinen und Verzeichnisse immer von großem Interesse. Abb. 2.5 Suchmaschinen-Marktanteile in Deutschland 11 Der Wettbewerb zwischen den großen Suchmaschinen in den USA beeinflusst auch den deutschen Suchmaschinen-Markt. Die „größten Drei“, Google, Yahoo und MSN, sind auch hier mit länderspezifischen Angeboten vertreten. Daneben umfasst der nationale Markt eine Vielzahl weiterer Suchmaschinen, wie web.de, fireball.de oder T-Online. 11 Webhits (2006) 16 Im September 2004 ließen sich 193 deutschsprachige Angebote ermitteln, bei denen die externe Suche die zentrale Funktion und die thematisch nicht spezialisiert waren. Allerdings ist die Nutzung der meisten dieser Suchmaschinen sehr klein im Vergleich zu dem Marktführer. Die reichweitenstärksten Suchmaschinen aus Deutschland sind Lycos, Fireball, Web.de, T-Online und Seekport. 12 12 vgl. Webhits (2006) 17 3 Suchmaschinen-Marketing als ein wichtiger Baustein des Unternehmen-Marketings Suchmaschinen-Marketing ist heute eine effektive Möglichkeit für das Unternehmen neue Kunden zu gewinnen und über Produkte und Dienstleistungen zu informieren. Wichtigstes Ziel des Suchmaschinen-Marketings ist möglichst viele Internet-Benutzer auf das Online-Angebot durch die Suchmaschinen aufmerksam zu machen. Die Suchmaschinen sind heutzutage für die Mehrheit der Internet-User wichtigste Informationsquelle und deswegen eine ideale Plattform für effizientes und nachhaltiges Online Marketing. 3.1 Historische Entwicklung Vor 16 Jahren in 1990 ist die Geschichte der Suchmaschinen an der McGill Universität in Montreal begonnen. „Archie“ war die erste Suchmaschine, die die FTP-Verzeichnisse auslesen konnte und nach Suchbegriffen in Dateien- und Ordnernamen durchsuchte. Schon nach zwei Jahren gehörte diese Suchmaschine zu am meisten genutzten InternetDienste, obwohl sie keine Inhalte der Dateien bzw. Texte durchsuchen konnte. Im Jahr 1991 wurde eine Software Namens „Gopher“ an der University of Minnesota entwickelt, was die Verzeichnisse der Uni-Server durchsuchte und katalogisierte. Über eine menügesteuerte Oberfläche konnte man dann diese Datenmengen durchsuchen. 1993 wurde der WWW-Standard zur kostenlosen Nutzung freigegeben und der erste Webcrawler mit dem Namen „The Wanderer“ programmiert. Danach werden immer mehr Crawler, Spider und Metacrawler entwickelt, die das Internet durchsuchten und die Webseiten katalogisierten. Diese Zeit war der Anfang der Erfolgsgeschichte der Suchmaschinen und damit verbundenen Optimierung der Web-Inhalten. Es genügte damals die Meta-Tags und die Inhalte der Seite mit populären Begriffen voll zu füllen, um diese auf die oberen Plätzen bei der Suchanfrage zu finden. Die Spiders und Metacrawler durchsuchten die Seiten auf Meta-Informationen und Häufigkeit der Keywords innerhalb des Inhalts und rankten diese entsprechend hoch, wenn sie die populären Begriffe beinhalteten. Im Juli 1994 wurde die Suchmaschine Lycos entwickelt und gestartet, die die WebDokumente nicht nur auf die Suchbegriff-Häufigkeit sondern auch auf die Nähe bzw. Abstand der Suchbegriffe untereinander im Dokument untersuchte. Im Jahr 1995 wurden die ersten kommerziellen Suchmaschinen veröffentlicht, die zum Teil schon eine Volltextsuche anboten. Mit dabei waren Infoseek, Excite und AltaVista, die noch bis vor wenigen Jahren sehr populär im Web war. Durch enorm 18 leistungsfähiges Roboter „Scooter“ hat AltaVista sich zu einer der führenden InternetAnwendungen gemacht. Bis noch Jahr 1998 orientierten sich die Suchmaschinen an klassischen Information-Retrieval-Verfahren, d.h. dass Ranking fand nur auf textstatistischer Ebene statt und wurde ganz vom dem Inhalt abhängig. Die Bedeutung eines Dokumentes für einen Suchbegriff hängte von der Häufigkeit des Vorkommens dieses Begriffes und seiner Stellung im Dokument ab. Natürlich wurden solche Verfahren oft manipuliert, um auf den höheren Plätzen zu landen – man sollte nur die gewünschten Keywords im Dokument häufig entsprechenden Stellen benutzen. Die oberen Plätzen bei einer Suchanfrage bekamen dann die Dokumente mit höherer Keyword-Dichte. In dieser Situation versuchten die Suchmaschinen-Betreiber solche Manipulationen mit Einsatz von Keywords-Quoten zu beseitigen. Biz zu einer bestimmten Anteil von Suchbegriffen wurde ein Dokument zu „natürlich“ erzeugten zugeordnet, beim Überschreiten dieses Wertes steht Verdacht aud die Manipulation. Ende 1998 veröffentlichten Larry Page und Sergey Brin ihre innovative Suchmaschinen-Ranking-Technologie mit dem Titel “The Anatomy of a Large-Scale Hypertextual Web Search Engine”. 13 Ein wenig später ist die Suchmaschine Google gestartet und bleibt bis heute die meist benutzte und erfolgreichste Suchmaschine der Welt. Die Innovation von Google bei der Bewertung der Web-Inhalten war ein Rankingfaktor das s.g. PageRank, der sich auf die Verlinkungsstruktur der Dokumente bezieht. Das ist ein statischer Faktor, der die Qualität jedes von Google im Web indexierten Dokument darstellt. 14 Das Grundprinzip wurde aus der Bibliografie bzw. Zitatsanalyse übernommen. Ein Dokument, auf welches häufig verlinkt wird, ist bedeutender als eines, das weniger oder gar nicht verlinkt wird. Aber auch diese Technologie hat die Lücken für „schwarzen“ Suchmaschinen-Optimierer gelassen. Um die Anzahl der Backlinks zu steigern, wurden die unzähligen Anmeldungen und Eintrage bei allen möglichen Gästebücher, Forumen sehr populär und oft erfolgreich. Allerdings hat es nich lange gedauert, bis es nicht nur bei der reinen Link-Zählung blieb, sondern auch die Bedeutung wiederum nach dem PageRank-Verfahren der verlinkten Seiten bewertet wurde. Ein Link von einer bedeutenden Seite(z.B. Yahoo oder DMOZ-Verzeichnis) wird viel besser gewichtet als der Link von einer unbedeutenden Seite (z.B. einer privaten Homepage). Die PageRank wird in einem iterativen Verfahren berechnet und jedem indexiertem Dokument zugegeben. Bei der späterer Suchanfrage wird dieses Faktor mit 13 14 vgl. Google (2006f), ff. vgl. Brin & Page (1998) 19 Zusammenhang mit anderen textstatischen Verfahren die Platzierung eines Dokuments bei der Suchanfrage beeinflussen. Die Suchalgorithmen entwickelten sich immer weiter und ziehen immer mehr externe Faktoren hinzu, damit das Ranking der Seite schwer von den Webmastern beeinflussbar ist. Somit ist die Suchmaschinenoptimierung heute ein langer, arbeitsintensiver und oft kostspieliger Prozess. 3.2 Definition und Formen des Suchmaschinenmarketings Kaum ein anderes Online Marketing Instrument hat in den letzten Jahren so stark an Bedeutung gewonnen, wie das Suchmaschinenmarketing. Mehr als 70 Prozent aller Internetnutzer benutzen eine Web-Suchmaschine, um die Informationen über ein Unternehmen oder Produkte zu finden. 15 Wegen der Vielzahl von Online-Angeboten ist es sehr schwierig, sich einen Besucherstrom auf die Internet-Präsenz zu erarbeiten – Besucher einziehen und sie zu einem Wiederbesuch zu motivieren. Mit Hilfe von Online- bzw. SuchmaschinenMarketing kann man die Zielgruppen erreichen, die man sonst mit normalen Medien nicht erreichen kann. Nach der Nutzung von Email-Diensten sind die Suchmaschinen die am häufigsten benutzte Anwendung im Internet. Sehr viele Online Käufe sind heutzutage über eine Suche in Suchmaschinen entstanden. Bei der Suche im Internet verfügt ein Nutzer oft über ein konkretes Bedürfnis und häufig hat er eine konkrete Kaufabsicht. Gerade aus diesen Gründen sind die Instrumente des Suchmaschinenmarketings in fast jeder Online Marketing Planung vorhanden. Suchmaschinenmarketing umfasst „alle Internetmarketing-Maßnahmen, die die Funktion der Suchmaschinen nutzen, um höhere Besucherzahlen zu erzielen, um so neue Kunden zu gewinnen und letztlich die Umsatzzahlen zu steigern“ 16 Grundsätzlich kann man Suchmaschinenmarketing in zwei Bereiche unterteilen: Suchmaschinen-Optimierung und Sponsored Links. Suchmaschinen-Optimierung, auch SEO (für "Search Engine Optimization") genannt, hat sich als ein fester Baustein im Online-Marketing von Unternehmen etabliert. 15 16 vgl. Rabe, L. (2006),f Keiser (2006) 20 „Search Engine Optimizer (SEO) entwickeln Optimierungsverfahren, um WebsiteAnbietern durch eine an die Suchalgorithmen angepasste Aufbereitung der Inhalte eine höhere Trefferquote bei Suchmaschinen zu ermöglichen.“ 17 Alle Massnahmen eines SEO-Projektes kann man in 5 wichtigste Phasen aufteilen: 18 • Analyse der Web-Präsenz und Entwicklung notwendiger SEO Strategie; • Optimierung des vorhandenen Online-Auftritts; • Aufbau und Erweiterung relevanter und optimierter Website-Inhalte; • Entwicklung einer Link- bzw. Pagerankstrategie; • Erfolgsmessung, Anpassung und Ausbau der Maßnahmen. Bei zweiter und dritter Phase handelt es sich um eine s.g. OnPage Optimierung und die vierte Phase ist OffPage Optimierung. Unter OnPage Optimierung versteht man alle Programmierungsmaßnahmen, die auf der eigenen Website vorgenommen werden. Das sind die Anpassungen an Struktur und Inhalt der Webseiten, um eine bessere Position in den Suchmaschinen-Ergebnissen zu erzielen. OffPage Optimierung beschreibt die Optimierungsmaßnahmen aller für eine Suchmaschine relevanten externen Faktoren. Unter diesen versteht man die externe Verlinkungsstruktur mit Qualität und Quantität der Links. Weil diese Faktoren nicht leicht von dem Web-Master zu manipulieren sind, sind sie mittlerweile einige von der wichtigsten Kriterien in den Suchmaschinen-Algorithmen. Heutzutage spielt effiziente OffPage Optimierung eine mindestens so große als OnPage Optimierung Rolle. Aber maximaler Erfolg kann ein Unternehmen nur durch Durchführung beider erreicht werden. Umfang und Gewichtung der einzelnen Phasen eines SEO-Projektes ist schwer zu messen und ist von vorhandener Situation abhängig. Darauf nimmt großen Einfluss die Branche des Unternehmens, Marktsituation und Wettbewerb, Online-Auftritt der Konkurrenten bzw. Suchmaschinen Wettbewerb der Branche, technische Ausgangsbasis und vorhandenes Budget fürs Projekt. 17 18 Machill & Welp (Hrsg.) (2003), S. 26 vgl. Marx, U. (2006) 21 Der Erfolg einer Suchmaschinen-Optimierung kann einige Zeit in Anspruch nehmen. Als Alternativen um diese Zeit zu überbrücken, bieten sich die Sponsored Links an. Die Sponsored Links, auch als Paid Listings, Keyword Advertising oder SEM (Search Engine Marketing) bennant, sind die als Werbung gekennzeichnete suchbegriffsbezogene Textwerbung oberhalb, unterhalb oder rechts neben den Suchergebnissliste in einer Suchmaschine. 19 Ein Vorteil der Suchmaschinenoptimierung gegenüber der Sponsored Links ist, dass Suchmaschinenoptimierung eine absolut andere Kosten-Nutzen-Auswirkung hat. Bei der Sponsored Links werden die Kosten mit jedem Klick verursacht, was bei der Suchmaschinenoptimierung nicht der Fall ist. Auch erhöht die Suchmaschinenoptimierung im Vergleich zu den Sponsored Links die Chancen, dass das Suchergebniss angeklickt wird. Wie die Eye-Tracking Studie(Abb.3.1 und Abb.3.2) deutlich gemacht hat, haben die obersten fünf „organischen“ Suchergebnisse einer Suchmaschine eine viel bessere Chance, angeklickt zu werden, als die recht plazierten AdWords. 20 Hieraus ist eindeutig, dass durch Suchmaschinenoptimierung erarbeitete Platzierungen ein höheres betriebswirtschaftliches Potenzial haben als die bezahlte Sponsored Links am rechten Bildschirmrand. 19 vgl. Glöggler (2003), S. 9f. 20 vgl. Enquiro & and Did-it.com (2005). 22 Abb. 3.1 EyeTracking Study 21 Abb. 3.2 Klick-Wahrscheinlichkeit nach EyeTracking Study 22 21 22 Enquiro & and Did-it.com (2005). vgl. Enquiro & and Did-it.com (2005). 23 Auch ein weiteres Vorteil der Suchmaschinenoptimierung ist, dass die neutrale Suchergebnisse keine Werbung sind und werden nicht als solche vom Nutzer wahrgenommen - es gibt jedoch immer noch viele Internetnutzer, die das Anklicken von Sponsored Links wegen ihrer Herkunft nach Möglichkeit vermeiden und organische Links bevorzugen. Aber die Schnelligkeit, mit der eine Werbung-Kampagne gestartet und gesteuert werden kann, spricht für die Sponsored Links. 23 Mit der Sponsored Links kann man relativ schnell z.B. Preisaktionen und saisonale Produkte oder Dienstleistungen vermarkten. Aufgrund der schnell wachsenden und weit verbreiten Spam-Seiten gibt es mittlerweile viele Internet-Nutzer, die grundsätzlich zuerst auf bezahlte Platzierungen klicken, weil man dadurch schneller zu den relevanten Ergebnisen gelangen kann. Einen optimalen betriebswirtschaftlichen Output können nur die Unternehmen daher erreichen, wenn sie sowohl Suchmaschinenoptimierung als auch Keyword-Advertising betreiben. 24 3.3 Bedeutung von Suchmaschinen für ein Online-Unternehmen Aus der wirtschaftlichen Sicht kann man Internet als einen globalen, virtuellen Marktplatz betrachten, wo die Käufer und Verkäufer von Waren und Dienstleistungen zueinander finden. Der Erfolg oder Misserfolg eines Geschäftsmodells ist heute oft von der Internet-Präsenz des Unternehmens abhängig. Besonders sind hier die OnlineAnbieter getroffen. Es ist extrem wichtig, dass ein Unternehmen nicht nur in den Datenbanken der Suchdienste erfasst wird, sondern auch, dass sein Angebot in der Trefferliste der wichtigen Suchdienste in Abhängigkeit zu einem bestimmten Suchwort gut positioniert ist, d.h. unter mehreren tausend Suchtreffern innerhalb der ersten Trefferpositionen steht. Unternehmen, denen es gelungen ist, haben die größten Chancen, neue und fruchtbare Geschäftsbeziehungen zu knüpfen. Die Ergebnisse der Studie zu Reisen und Internetrecherchen von Overture und comScore vom 23.11.2005 haben bestätigt, dass das Internet bei der Planung von Reisen einen großen Stellenwert hat und dass die Suchmaschinen zu den wichtigsten Informationsquellen gehören. 25 Die Ergebnisse sind beeindruckend: • 94 % der Befragten nutzten das Internet zur Vorbereitung ihrer letzten Reise, knapp zwei Drittel (65%) setzten dabei sogar ausschließlich auf das Internet; 23 vgl. Kaiser (2004), S. 12, ff vgl. Lammenett (2006) 25 vgl. Hier und im Volgenden Overture (2006) 24 24 • für 62% der Befragten sind die Suchmaschinen das am häufigsten genutzte Medium für die Reiserecherche, gefolgt von Online-Reisebüros und Reise-Webseiten; • bei der Suche nach dem richtigen Urlaubsziel, der Reisevorbereitung und Planung liefert das Internet bessere Ergebnisse als Reiseprospekte (63% im Vergleich zu 59 %). Überzeugender schneiden in dieser Hinsicht nur noch traditionelle Reisebüros (66 %) sowie Freunde und Familienmitglieder als Informationsquelle (72 %) ab; • geht es um die gängigen Reise-Services, besonders Hotel- und Flugreservierungen, sind Deutsche mit den Angeboten im Internet am zufriedensten; • die urlaubsreifen Deutschen nutzen die Internetsuche während des gesamten Entscheidungs- und Buchungsprozesses, um das richtige Reiseziel und ausführliche Informationen zur Reise und zum Zielort zu finden. Dabei vergleichen sie verschiedene Optionen, recherchieren den günstigsten Preis und buchen ihre Reise dann auch oft im Online-Reisebüro (55%); • je nach Reiseart buchten in den letzten 12 Monaten zwischen 53 % und 77 % der Kunden online, vor allem Flugtickets, Mietwagen und Last Minute-Reisen. Während noch vor wenigen Jahren das ganze Potential des Internets noch nicht bekannt war und das Verbringen der Zeit im Web sogar verboten und strafbar war, gehört heute die Internet-Recherche und Kommunikation zum Alltag fast aller Mitarbeiter, besonders bei einem Online-Unternehmen. Wenn es um Einkauf oder Verkauf der Produkte und Dienstleistungen geht, profitiert fast jedes Unternehmen von der Geschwindigkeit und Informationsbereitstellung der Suchdienste. 25 4 Indexierung von Dokumenten und Rankingverfahren der Suchmaschine Da die Suchmaschinen mehrere Millionen von Internet-Seiten indexieren und die Information speichern, ist es nachvollziehbar, dass bei einer Suchanfrage Tausende von Ergebnissen geliefert sind. Um alle diese Ergebnisse nach Relevanz sortiert zu bekommen, verwendet jede Suchmaschine eigene Ranking Algorithmus, was aus vielen verschiedenen Faktoren besteht. Der Begriff Relevanz lässt sich nach Glöggler auch im Sinne von Ähnlichkeit deuten. „Ein Dokument ist im Sinne einer Suchanfrage relevanter als ein anderes Dokument, wenn es inhaltlich der Suchanfrage eher entspricht, als ein anderes Dokument.“ 26 Alle diese Relevanz-Faktoren kann man in zwei Bereiche informationsstatistische und linktopologische Rankingverfahren. 27 aufteilen: 4.1 Indexierung von Dokumenten Die Indexierung von Web-Dokumenten ist eine zentrale Operation einer Suchmaschine. Die Aufgabe ist aus analysierten Web-Dokumenten die Deskriptoren oder sog. Schlagwörter abzuleiten, die den Inhalt eines Dokumentes im Index repräsentieren. Als Deskriptor bezeichnet man meist vorgegebene Begriffe, die zur Beschreibung eines Dokumentes ausgewählt werden können. Bei der Indexierung wird jedem Descriptor ein bestimmter Wert zugeordnet, der seine Bedeutsamkeit widerspiegelt. Die DescriptorenListe, oder auch Schlagwortkataloge genannt, dient damit zum Repräsentieren eines bestimmten Dokumentes über eine stichwortartige Kurzbeschreibung und auch für die gleichzeitige Wiedergabe des Inhalts des Dokumentes. 28 Nach dem Verfahren unterscheidet man die manuelle Indexierung und die automatische. Die manuelle Indexierung wird von einer Person, dem Indexierer, durchgeführt, was an diesen sehr hohe Anforderungen bezüglich fachlicher Kompetenz stellt. Obwohl oft die Terminologiebeschreibungen und Vokabularlisten zur Vefügung stehen, muss diese Person die genaue Kenntnis dieses Vokabulars haben, weil auch die Pflege und die Erweiterung des Vokabulars oft seine Aufgaben sind. 29 26 vgl. Glöggler (2003), S. 67 vgl. Lewandowski (2005), S. 90 28 vgl. Salton & McGill (1987), S,58 f 29 vgl. Kaiser (1993), S. 20 f 27 26 Der Vorteil der manuellen Indexierung besteht darin, dass die Inhalte eines Dokumentes durch gut ausgebildeter und erfahrener Indexierer gut zu verstehen und zu bewerten sind und damit auch wirklich inhaltsbeschreibende Deskriptoren vergeben werden können. 30 Der Nachteil aber ist, dass aufgrund der riesigen und ständig wachsenden Informationbestände die Zeiten zwischen der Veröffentlichung eines Dokumentes und der Aufname dieses Documentes in Index einer Suchmaschine immer größer sind, weil die manuelle Indexierung mit sehr hohem Zeitaufwand und hohen Personalkosten verbunden ist. 31 Bei der Indexierung der grossen Informationsmengen in kurzer Zeit kommt ausschließlich das automatische Verfahren infrage, das durch verschiedene Programme, die die Stichwörtern extrahieren, erfolgt. Das Ziel der automatischen Indexierung ist es, aus einem vorliegenden Dokument automatisch die sinntragenden Wörter zu extrahieren. Im Gegensatz zu manuellen Verfahren arbeiten die automatischen Methoden mehr oder weniger mit der sprachlichen Oberfläche von Dokumenten, um die Stichwörter zu ermitteln, und nicht bzw. zur Zeit nicht mit der Bedeutung ganzer Texte. 4.2 Funktionweise der Suchmaschinen an Beispiel Google Da die Suchmaschine Google der Führer mit mehr als 80% Anteil des deuschen Suchmaschinenmarktes ist, ist ihre Funktionsweise und Indexierungmethoden besonders interessant. Die Architektur dieser Suchmaschine wurde in der für Google grundlegenden Arbeit „The Anatomy of a Large-Scale Hypertextual Web Search Engine“ 32 von Brin und Page dargestellt. Natürlich seit dieser Zeit wurde die ursprüngliche Systemzusammenstellung Systemzusammenstellung an die immer entwickelndes WWW angepasst und modifiziert. Aber auf Basis der Veröffentlichung von Brin und Page kann man die Grundprinzipien der Beschaffung, Verarbeitung und Speicherung der Webdokumente bei Google und bei den Suchmaschinen allgemein anhang folgender Abbildung besser verstehen. 30 vgl. Kaiser (1993), S. 22 f vgl. Pekuysal (1992), S. 31 32 Brin & Page (1998) 31 27 Abb. 4.1 Architektur der Suchmaschine Google 33 Für die Beschaffung der Datenbeständen sind in d.R. Webroboter oder Ceawler zuständig. Das sind „auf extreme Hochleistung getrimmte Systeme, die laufend das World Wide Web und andere Elemente des Internet analysieren“. 34 Google und die andere Suchmaschinen setzen mehrere Crawler ein, die die Web-Seiten und Dokumente Anhang der durch URL Server bereitgestellte URL-Listen herunterladen und an die Store Server weitersenden. 35 Auf diesen Store Server werden die Dokumente komprimiert und dann im Repository mit einer Identifikationsnummer, die sog. DocID, abgespeichert. Weiter werden die Documente durch den Indexer und den Sorter indexiert. Der Indexer liest das Repository, dekomprimiert die Dokumente und wandelt diese mit Hilfe eines Parsers in einen Satz von Wortvorkommen um, welche Hits genannt werden. Die Hits speichern neben den Wörtern auch die Position von diesen Wörtern im Webdokument. Dann werden die Hits durch den Indexer in die sog. Barrels verteilt. Damit erreicht man eine teilweise Vorsortierung (Forward Index). 33 Brin & Page (1998) vgl. Lehmann & Lehmann (2002), S.174 35 vgl. hier und im Folgenden Brin & Page (1998) 34 28 Durch den Indexer wird auch die Linkstruktur eines Dokuments analysiert, wobei die wichtige Informationen die Herkunft von Links, das Linkziel und der Linktext sind. Diese Informationen werden in der Anchors-Datei abgelegt. Diese Datei wird von URL Resolver abgelesen, um die relative URLs in absolute unter gleichzeitiger Vergabe einer docID zu umwandeln. Der Linktext wird, verbunden mit der docID, auf die der Linktext zeigt, in den vorsortierten Index gesetzt. Auf der Basis durch den URL Resolver erzeugte Linkdatenbank (Links) wird den PageRank für alle Webdokumente berechnet. Der Sorter vewendet die Barrels, um diese nach wordIDs in eine Liste neu zu sortieren und dadurch einen invertierten Index (Inverted Index) zu erzeugen. Ein Programm vermischt diese Liste mit dem Lexicon, das durch den Indexer erstellt wurde und erzeugt ein neues Lexicon, das vom Searcher genutzt wird. Der Searcher ist in Form eines Webservers realisiert und nutzt neben dem Lexikon den invertierten Index und PageRank, um auf die Suchanfragen zu beantworten. 4.3 Informationsstatistische Verfahren des Suchmaschinen-Rankings Um die Relevanz der Web-Seite zu einer gegebenen Suchanfrage einzuschätzen, verwenden die Suchmaschinen neben linktopologischen die informationsstatistische Verfahren. Aufgrund der Menge und der Heterogenität der Dokumente kann man nicht nur textstatistische Verfahren einsetzen. Ein weiteres das Ranking beeinflussende informationsstatistische Verfahren ist die Auswertung des Nutzungsverhaltens. Informationslinguistische Verfahren, die mit der Sprachenvielfalt des Web zu tun haben, werden in Web-Suchmaschinen bisher nur in einem geringen Maß eingesetzt. 4.3.1 Textstatische Verfahren Zu den klassischen textstatischen Faktoren des Suchmaschinen-Rankings gehören die Worthäufigkeit, die inverse Dokumenthäufigkeit, die Position der Suchbegriffe und deren Nähe zueinander im Dokument. Dies alles beeinflusst in gewissen Maßen die Position eines Dokumentes in der Suchergebnissliste einer Suchmaschine bezüglich eines bestimmten Suchbegriffs 36. Die Suchbegriff-Häufigkeit oder Keyword-Frequenz gibt an wie oft ein Suchwort oder Suchphrase im Inhalt eines Dokuments vorkommen soll. Mit der Häufigkeit des Keywords wird so angenommen, dass, je öfter ein Suchbegriff im Text vorkommt, damit relevanter ein Dokument in Zusammenhang zu einem Keyword ist. 37 Natürlich, 36 37 vgl. Glöggler (2003), S. 76f; vgl. auch Erlhofer (2005a), S. 118f. vgl. Nohr (2003), S. 33f 29 um den Verdach auf die Manipulation zu vermeiden, soll man die gewisse Grenze nicht überschreiten. Man soll versuchen, ein ausgewogenes Verhältnis von Worthäufigkeiten der Schlüsselbegriffe im gesamten Text zu erzeugen. Eine Suchbegriffdichte von 1 bis 7% scheint von den meisten Suchmaschinenoptimierungsagenturen als empfehlenswert. Ein Einsatz der Schlüsselwörter, der diese Grenze über- oder unterschreitet, kann auch zu einer schlechten Ranking der Seite zu diesem Begriff führen. Die Suchbegriff-Häufigkeit kann man ermitteln durch die Definition von Anzahl der Vorkommen eines Wortes oder einer Phrase durch Anzahl aller Wörter im Dokument 38: h (t ) TF (t , d ) = d a(d ) Häufig aber verwendet man statt der direkten Anzahlen ihr Logarithmus: TF (t , d ) = ( ) log h (t ) + 1 d log(a(d )) Im Argument des Zählers wird 1 addiert, damit die Häufigkeit für nicht vorkommende Suchbegriffe Null ist. Bei der Search Engine Strategies Conference 2004 in London empfahl Charon Matthew (MediaCo (UK)) vier Keyword im 250 bis 300 Wörtern-Dokument oder für längere Seiten 8-10 mal in 500 Wörter. 39 Das ergibt eine Keyword Dichte ca. 1,6 %. In August 2005 wurde von Dr.Braun bei der Search Engine Strategies Conference in San Jose berichtet, dass die optimale Keyword-Dichte zwischen 3% und 5% liegt. 40 Durch die Ermittlung der Keyword-Dichte kann die Wichtigkeit eines Begriffes für die Beschreibung des Inhalts eines Dokuments bzw. einer Seite berücksichtigt werden. Obwohl die Keyword-Dichte heutzutage nicht mehr so wichtig wie früher ist, da jetzt mehr Gewicht auf OffPage Kriterien gelegt wird, sollte man trotzdem bei der Optimierung darauf achten. Im Gegensatz zur Keyword-Frequenz, was sich auf ein Dokument bzw. Web-Seite bezieht, ist die inverse Dokumentenhäufigkeit ein entscheidender Faktor für die ganze Sammlung der Dokumenten, z.B. Web-Präsenz. Für eine Dokumentsammlung lässt sich die Bedeutung der Worthäufigkeit wie folgt präzisieren. Die inverse Dokumenthäufigkeit im Sinne der Suchmaschinenoptimierung beschreibt die Gewichtung eines bestimmten Suchbegriffs in Bezug auf alle indexierten bzw. 38 vgl. Garcia (2005) vgl. Matthew & Whalan (2004) 40 vgl. Brown (2005) 39 30 vorhandenen Seiten der Web-Präsenz. 41 Das bedeutet, ein Wort oder Phrase, das nur auf wenigen Seiten oft vorkommt, ist geeigneter für die Aufnahme als Suchbegriff in Index einer Suchmaschine, als ein, der auf fast jeder Seite oder nur sehr selten auftaucht. Mit anderen Wörter ist eine Phrase oder ein Wort demnach um so wichtiger, je weniger Seiten dazu mit ihm vorhanden sind. 42 Im Unterschied zur lokalen Suchbegriff-Häufigkeit ist die inverse Dokumenthäufigkeit ein globaler Faktor, der sich als sinnvolle Kennzahl für die Verteilung eines Suchbegriffs über eine Sammlung von Seiten einer Web-Präsenz erwiesen hat. Die inverse Dokumenthäufigkeit lässt sich nach folgender Formel berechnen 43: N ⎛ IDFt = log⎜1 + d ⎜ ft ⎝ ⎞ ⎟, ⎟ ⎠ wobei N d die ganze Anzahl der Seiten bzw. Dokumenten ist und f t die Anzahl der Seiten, die den Suchbegriff t enthalten. Durch Multiplikation der Keyword-Frequenz und der inversen Dokumenthäufigkeit ergibt sich für jedes Wort eines Textes ein Gewichtungswert, mit dessen Hilfe ein Ranking der Suchergebnisse realisiert werden kann. Je höher das Gewicht, desto höher ist das Ranking: 44 Gewicht (i, j ) = TF (i ) * IDF ( j ) Beim Suchen nach einer Suchphrase existiert eine weitere Variation des Verfahrens. Hier geht es um den Abstand zwischen einzelnen Suchwörtern. Stehen die einzelnen Begriffe enger zusammen (im Idealfall nebeneinander oder innerhalb eines Satzes), so ist der entsprechende Text wahrscheinlich wichtiger für einen Nutzer als wenn die Suchwörter zwar alle vorkommen, aber bezugslos an unterschiedlichen Textstellen auftauchen. Der Gewichtungswert für einen Text errechnet sich aus der Anzahl der Wörter, die zwischen den einzelnen Suchargumenten stehen. Der Wert für den Abstand gegebener Suchwörter in einem Text ist um so größer, je kleiner der Wortabstand ist. 45 Natürlich spielt auch die Position des Suchbegriffs innerhalb des Dokumentes eine sehr große Rolle bei der Ermittlung seiner Relevanz bezüglich dieses Suchbegriffs. Die wesentliche Arbeit bei der Optimierung einer Web-Seite besteht auch darin, nicht nur 41 vgl. Glöggler (2003), S. 77f. vgl. Nohr (2003), S. 36 43 vgl. Erlhofer (2005a), S. 119f. 44 vgl. Salton & McGill (1987) , S 78. 45 vgl. Stock (2000), S 132f. 42 31 die relative und absolute Häufigkeit der einzelnen Keywords zu berücksichtigen, sondern auch Ihre Position innerhalb der Seite. Die HTML-Sprache kann man gut benutzen um nicht nur die Seite zu gestalten, sondern auch um Text gut zu strukturieren. Deswegen sind die mansche HTML-Tags geeignet, die Relevanz der Seite zu bestimmen und das Ranking zu beeinflussen. Suchmaschinen bewerten meistens die Web-Dokumente als besonders relevant, wenn der entsprechende Suchbegriff z.B. im Titel oder innerhalb einer Überschrift vorkommt. Ebenso werden die Begriffe wichtiger betrachtet, wenn die im Text weiter oben stehen. Je nach der Art der Suchmaschine sind die Keywords an folgenden Stellen innerhalb des Quellcodes der Seite besonders wichtig: Suchbegriffe im Seitentitel, in Überschriften, Linktexten, im Inhalt als verschiedene Textformatierungen, in alt-Tags von Grafiken, in Meta-Tags. Über die Reihenfolge der Wichtigkeit dieser Stellen lässt sich streiten, denn die Suchmaschinen geben nicht bekannt, wie stark die einzelnen Faktoren bewertet werden. Die manche Suchmaschinen legen besonderen Wert auf das Vorkommen der Suchbegriffen im Url der Web-Seite, manche auf den Inhalt und titelTags der Links, und manche sogar auf die Meta-tags der Seite. Aber weil man vom Seiten-Titel erwartet, dass er die Inhalte der Seite kurz beschreibt, bewerten diesen fast alle Suchmaschinen besonders hoch. Textstatische Massnahmen bei der Optimierung der Web-Seite sind ein sehr zeitintensiver Prozess und eine sehr wichtige Komponente, die den Erfolg oder Misserfolg einer Online-Präsenz bestimmt. 4.3.2 Nutzungsstatistische Verfahren Bei den nutzungsstatistischen Rankingverfahren steht der Nutzer und sein Verhalten im Mittelpunkt, weil nur er die Qualität der Dokumente am besten einschätzen kann. Die nutzungsstatistischen Mechanismen messen die Häufigkeit, mit der ein Dokument in der Trefferliste angeklickt wird, so g. Klick Populaität; die Zeit, die der Benutzer auf der Seite verbringt und die Wiederkehrungen der Benutzer auf der Seite. Im April 1998 haben Gary Culiss und Mike Cassidy ihre Suchmaschine DirectHit ins Netz gestellt. Besondere Eigenschaft dieser Suchmaschine war, dass sie ihre Suchergebnisse aufgrund des so. g. Klick Popularitäts-Verfahrens dargestellt wurden, d.h. häufig aufgerufene Seiten bekommen bei der nächsten Suche nach diesem Begriff eine bessere Ranking-Position. Um die Manipulationen zu vermeiden bzw. zu verringern, wird dabei die aufrufende IP-Adresse registriert. 46 46 vgl. Culliss (2000) 32 Auch aufgrund einerseits der Möglichkeit der inadaequaten und irreführenden Beschreibungen und andererseits, dass die Dokumente, die höhere Platzierungen besitzen, gar nicht „verschoben“ werden können, wird bei diesem Verfahren noch zusätzlich die Verweildauer der Nutzer bei den entsprechenden Dokumenten gemessen. Wenn der Benutzer schnell zur Trefferliste zurückkehrt, um weitere in der Suchergebnisliste vorhandene Seiten auszuwählen oder sogar seine Suchanfrage zu ändern bzw. zu modifizieren, so deutet dies darauf hin, dass durch das Dokument sein Informationsbedürfnis nicht befriedigt wurde. Solche Dokumente sind deshalb in Zukunft bei der gleicher Anfrage nicht mehr so bevorzugt gelistet oder sogar schlechter bewertet. Bei einer Suchanfrage, wenn der Benutzer nach dem Anklicken eines Dokumentes lange nicht auf die Trefferliste zurückkommt oder sogar die Suchmaschine verlässt, weil er seine Informations-Bedürfnisse befriedigen konnte, werden diese Dokumente bei zukunftigen Anfragen besser bewertet und höher gelistet. Eine weitere zusätzliche Parameter bei dem nutzungsstatischen Verfahren ist die Wiederkehrungsrate für eine Seite bzw. ein Dokument. Hier wird die Anzahl der wiederkehrenden Benutzer als Qualitätsmaß betrachtet. Dies basiert auf der Annahme, dass eine regelmäßig besuchte Seite nicht schlecht sein kann. Die nutzungsstatischen Verfahren, welche DirectHit für seine Suchmechanisme benutzte, haben jedoch keine Verbreitung bei modernen Suchmaschinen gefunden, da einfach durch die automatisierte Skripte die Ranking manipuliert werden konnte. Aber die dahinterliegende Technologie, die die Anzahl und Qualität der Klicks auf ein Ergebnis ermittelt, wird teilweise bei zahlreichen bekannten Suchdiensten zusätzlich zu vorhandenen Suchtechnologien eingesetzt. 4.4 Linktopologische Rankingverfahren der Suchmaschinen Neben den informationsstatischen Rankingverfahren setzen alle größten Suchmaschinen als einen wesentlichen Faktor des Rankings die linktopologischen Verfahren ein. Diese Verfahren beschäftigen sich mit der Bewertung der Qualität von Webseiten anhand ihrer Verlinkungsstruktur, d.h. Anzahl eingehender und ausgehender Links und deren Gewichtung. Das Grundprinzip aller linktopologischen Verfahren ist, dass ein Dokument, das stark verlink ist, von größerer Bedeutung ist, als eins, das weniger verlinkt ist. Dieses Prinzip wurde von Bibliographie und Zitatanalyse übernommen. Ein Link wird als eine Empfehlung für ein Dokument(wie z.B. in jeder wissenschaftlichen Arbeit) betrachtet. Aber nicht jedes Link wird als gleichwertig bewertet, sondern wiederum aufgrund der 33 Verlinkungsstruktur und auch Thematik des Dokumentes bestehen die Unterschiede nach ihrer Qualität. So die Links von einer Seite, die schon viele Links von anderen Seiten auf sich bezogen hat, besser bewerten sind, als von jenigen, die noch nicht so bekannt sind. Noch mehr nimmt ein Link an Bedeutung zu, wenn es bei der verlinkten Seiten um ein gleiches Thema handelt. Aber natürlich bestehen auch bei diesen Verfahren verschiedene Manipulationsmöglichkeiten. So ist es möglich mit Hilfe von entsprechenden Software, eine große Anzahl von Webseiten mit notwendigen Verlinkungen zu generieren und damit die Ranking der Ziel-Seite zu beeinflussen. Heutzutage benutzen alle bedeutenden Suchmaschinen die linktopologischen Verfahren für ihre Dokumentenbewertungen, wobei aber die Unterschiede in den Verfahren und deren Implementierung bestehen. 4.4.1 Konzept der Link-Popularität Wie in oberen Kapitel beschrieben wurde, setzen praktisch alle Suchmaschinen heutzutage einen besonderen Wert auf das Vorkommen eines Suchbegriffs in den Inhalten einer Webseite. Dieses Vorkommen wird auch nach den verschiedensten Kriterien, wie etwa die Häufigkeit oder die Stellen des Vorkommens des im Dokument gewichtet. Daraus sind die so g. Doorway Pages, die auf der Basis von Analysen der textstatischen Bewertungskriterien optimal implementierten Webseiten sind und keine besondere Informationswert tragen, außer nur für das Weiterleiten zur Ziel-Seite dienen, populär geworden. Aus der Absicht, solche Seiten aus der relevanten Suchergebnissen wegzuschaffen, entstand das Konzept der Link-Popularität. Bei dem Konzept der Link-Popularität bezeichnet man die Anzahl der eingehenden Links für ein Dokument bzw. Webseite als ein grundsätzliches Kriterium für die Bedeutung einer Webseite in die Relevanzbeurteilung ein. Die Grundlage des Konzeptes ist, dass eine Webseite um so wichtiger ist, je häufiger es von den anderen verlinkt wird. 47 Fast alle Suchmaschinen benutzen mehr oder weniger Link-Popularität-Verfahren für ihre Algorithmen. Die Suchdienste von Google, der Marktführer auf dem Suchmaschienen Markt, sind auf diesem Prinzip „groß gewachsen“. Durch dieses Konzept versuchen die Suchmaschinen, Erscheinungen verschiedener Formen von auf den statischen Verfahren basierten Suchmashinen-Spam in den Suchergebnissen zu verhindern. Aber wie die Entwicklung gezeigt hat, wurde auch das 47 vgl. hier und im Folgenden Erlhofer (2005a), S. 122f. 34 Konzept der Link-Popularität schnell von Webmastern antizipiert. Zuerst dienen zur Linkssammlung die gefälschten Gästebucheinträge, dann die gefakten Foren-Threads und künstlich erzeugten Blog-Kommentaren. Dazu kamen später die regelrechten LinkFarmen und Link-Netzwerke, die keinen anderen Zweck verfolgten, als durch die gegenseitige Verlinkung eine hohe Linkpopularität zu schaffen. Es war also notwendig, dass die Suchmaschinen, die Link-Popularität bei ihren Algorithmen einsetzen, seine Verfahren ändern bzw. erweitern. Daraus entstand so.g. Domain-Popularität Konzept und IP-Popularität Konzept, bei dennen nur die Links von einem Domain bzw. IP-Adresse bewertet. Also ein einzelner Link hat nun genauso viel Gewicht wie mehrere Links, die von derselben Domain bzw. IP die gleiche Seite verlinken. So konnte die Linkpopularität früher ganz einfach mit mehreren tausend Links von einer einzigen Domain beeinflusst werden, so kann die Domainpopularität aktuell mit vielen Links von verschiedenen Domains auf einem einzigen Server beeinflusst werden. Um die IP-Popularität zu beeinflussen, müsste man somit viele Links von vielen verschiedenen Domains auf vielen verschiedenen Servern, was natürlich sehr kostenaufwändig und nicht effizient ist. Aber Einsatz von IP-Popularität bedeutet, dass die gute und freiwillig gesetzten Links nicht berücksichet werden, wenn sich die Kunden von Massenhostern wie z.B. 1+1, Host Europe, Strato, die auf einem Server liegen, gegenseitig verlinken. 4.4.2 PageRank-Verfahren Das PageRank-Verfahren ist nach seinem Erfinder Lawrence Page benannt und steht in Hintergrund der Ranking-Mechanismen der Suchmaschine Google. 48 Das Verfahren wurde von der Stanford University patentiert (United States Patent 6,285,999 49). Im Gegensatz zum Konzept der Link-Popularität setzt das Konzept des PageRanks die Betonnung nicht einfach auf die absolute Anzahl eingehender Links sondern mehr auf die Qualitäte dieser Links. Das Argumente von Google-Gründer gegen das Konzept der einfachen Link-Popularität war, dass es schon zwar beteutsam ist, wenn eine Seite mehrere eingeehnde Links besitzt, aber nicht alle diese Links von gleicher Bedeutung sind. Viel besser wird eine Seite bewertet, wenn sie von anderen bedeutenden Seiten verlinkt wird. „Außerdem analysiert Google die Wichtigkeit der Seite, die das Votum abgegeben hat. Dabei hat ein Votum von einer Seite, die selbst als ’wichtig’ gewertet wird, ein größeres 48 49 vgl. hier und im Folgenden Brin & Page (1998) Page (1998) 35 Gewicht und somit größeren Einfluss auf die Bewertung anderer Seiten. Wichtige, qualitativ hochwertige Seiten werden von PageRank höher eingestuft und demnach auch in den Ergebnissen an einer vorderen Position aufgeführt.“ 50 Und der Rang dieser verlinkten Seiten wird wiederum aus dem Rang verlinkender Dokumente. Also die Bedeutsamkeit einer Seite wird rekursiv aus der Bedeutsamkeit anderer Seiten ermittelt. 51 Lawrence Page und Sergey Brin bieten in ihren Veröffentlichungen eine sehr einfache, intuitive Rechtfertigung des PageRank-Algorithmus an: ⎛ PR(T1 ) PR(T2 ) PR(Tn ) ⎞ 52 ⎟⎟ PR( A) = (1 − d ) + d ⎜⎜ + + ... + C ( T ) C ( T ) C ( T ) 1 2 n ⎠ ⎝ Hierbei ist: PR( A) der PageRank einer Seite A, PR(Ti ) der PageRank der Seiten Ti , von denen ein Link auf die Seite A zeigt, C( Ti ) die Gesamtanzahl der Links auf Seite Ti , d ein Dämpfungsfaktor (Damping Factor), wobei 0 ≤ d ≤ 1 . 53 Das PageRank-Verfahren bewertet nicht Web-Seiten in ihrer Gesamtheit, sondern basiert ausschließlich auf der Beziehung einzelner Web-Seiten zueinander. Der PageRank einer Seite A lässt sich rekursiv aus dem PageRank derjenigen Seiten ermitteln, die ein Link auf die Seite A haben. Der PageRank der Seiten Ti wird anhand der Anzahl C (T ) der von Seite T ausgehenden Links gewichtet. Das bedeutet, dass je mehr ausgehende Links eine Seite T hat, umso weniger PageRank bekommt die Seite A von Seite T. Schließlich wird die Summe der gewichteten PageRanks der Seiten Ti mit dem Dämpfungsfaktor d multipliziert. Lawrence Page und Sergey haben auch einen Zufalls-Surfer eingeführt, der einfach von einer Seite zur anderen über beliebige Links geht, ohne dabei auf Inhalte zu achten. 54 Die Wahrscheinlichkeit, dass der Zufalls-Surfer nun einen bestimmten Link verfolgt, ergibt sich aus der Anzahl aller ausgehenden Links auf der Seite, wo er sich befindet. So ist diese Anzahl in der Berechnung des Pageranks mit dabei. Der Dämpfungsfaktor d, der zwischen 0 und 1 liegt, bestimmt die Wahrscheinlichkeit, mit der der Zufalls-Surfer 50 vgl. Google (2006b) vgl. Lewandowski (2005), S. 118 52 Brin & Page (1998) 53 Glöggler (2003), S.83 54 Page et al. (1998), S. 5f; vgl. auch Sobek (2002) 51 36 die Verfolgung von Links nicht abbricht und die Links auf dieser Seite weiterfolgt. Der Dämfungsfaktor d wird Angaben von Lawrence Page und Sergey Brin für tatsächliche Berechnungen üblicherweise auf 0.85 gesetzt. Da der Zufalls-Surfer nach dem Abbruch der Link-Verfolgung eine beliebige Seite aufruft, geht die Wahrscheinlichkeit mit er er dies tut, mit dem Wert (1-d) als Konstante in die Berechnung des PageRanks einer jeden Seite ein. Die Eigenschaften des PageRank kann man anhand eines einfachen Beispieles zeigen 55: Abb. 4.2 Ein Beispiel für die Eigenschaften des PageRanks Es sind drei Webseiten A, B und C gegenseitig verlinkt: Seite B verlikt auf Seite C, Seite C auf Seite A und Seite A sowohl auf Seite B als auch auf Seite C. Der Dämfungsfaktor d , um die Berechnungen zu vereinfachen, wird auf 0.5 gesetzt. So kann man den PageRank für die einzelnen Seiten ermitteln: PR( A) = 0.5 + 0.5 PR(C ) ⎛ PR( A) ⎞ PR(B ) = 0.5 + 0.5⎜ ⎟ ⎝ 2 ⎠ ⎛ PR( A) ⎞ PR(C ) = 0.5 + 0.5⎜ ⎟ + PR(B ) ⎝ 2 ⎠ Nach der Berechnungen dieser Gleichungen bekommt man folgende Werte: PR( A) = 1.07692308 PR(B ) = 0.76923077 PR(C ) = 1.15384615 Aber, weil das Web aus Milliarden von Seiten besteht, ist die Berechnung solcher Gleichungen einfach nicht möglich. Deswegen benutzt die Suchmaschine Google eine näherungsweise, iterative Berechnung. 56 Es bedeutet, dass zuerst für jede Seite ein PageRang zugeordnet wird und erst dann ermittelt man tatsächlichen PageRank aller 55 56 vgl. Sobek (2002) vgl. hier und im Folgenden Glöggler (2003), S. 84 ff 37 Seiten in mehreren Berechnungsrunden. Anhang eines kleinen Beispiels sieht man das Prinzip deutlicher. Als Ausgangspunkt sind wieder 3 Seiten mit jeweils Pagerank1. Tab. 4.1 Iterative Berechnung des PageRankings Iteration PR(A) PR(B) PR(C) 0 1 1 1 1 1 0.75 1.125 2 1.0625 0.765625 1.1484375 3 1.07421875 0.76855469 1.15283203 4 1.07641602 0.76910400 1.15365601 5 1.07682800 0.76920700 1.15381050 6 1.07690525 0.76922631 1.15383947 7 1.07691973 0.76922993 1.15384490 8 1.07692245 0.76923061 1.15384592 9 1.07692296 0.76923074 1.15384611 10 1.07692305 0.76923076 1.15384615 11 1.07692307 0.76923077 1.15384615 12 1.07692308 0.76923077 1.15384615 Man sieht, dass schon nach wenigen Runden das gleiche Ergebnisse erscheint. Für die Berechnung des PageRanks für das komplette WWW werden von Lawrence Page und Sergey Brin ca. 100 Iterationen als hinreichend genannt. Bei einer Suchanfrage wird aus den statischen Informationen, wie Titel, Url oder Textinhalte der Seite, und den Ankertexten eingehender Links eine Position bestimmt. Dann wird diese Bewertung mit dem PageRank der Seite als Indikator für die ganz allgemeine Bedeutsamkeit der Webseite kombiniert. Bei diesem Kombinieren wird es multiplikativer, und nicht additives, Verfahren eingesetzt, weil ansonsten die Möglichkeit besteht, dass bei einer Suchanfrage die jenige Seiten hoch rangiert werden, die sehr hohen PageRank besitzen, obwohl sie keinen Zusammenhang mit dem Suchbegriff haben. 57 Bei den Suchanfragen, die aus mehreren Begriffen bestehen, zeigt sich der Einfluss textstatischer Faktoren sehr groß. Der Einfluss des PageRank ist hingegen höher bei unspezifischen, aus einem Begriff bestehenden Suchanfragen. Gerade für MehrBegriffs-Anfragen ist es möglich, mit den klassischen textstatischen Verfahren der Suchmaschinen-Optimierung eine Web-Präsenz in den Ergebnislisten besser zu platzieren. 58 57 58 vgl. Sobek (2002) vgl. Sobek (2002) 38 Seit dem Lawrence Page und Sergey Brin ihre wissenschaftlichen Arbeiten veröffentlicht haben, gibt es viele Diskussionen darüber, ob es für die Berechnung des PageRank noch weitere Faktoren außer der Link-Struktur des Webs einbezogen sind. Lawrence Page selbst skizziert in der Patentschrift 59 zum PageRank-Verfahren die folgenden potentiellen Einflussfaktoren: 60 • die Stärke der Hervorhebung eines Links; • die Position eines Links innerhalb des Dokuments; • die Distanz zwischen Webseiten; • die Bedeutung einer verweisenden Seite; • die Aktualität einer verweisenden Seite. Obwohl es schwer zu beantworten ist, ob einzelne dieser Faktoren tatsächlich in das PageRank-Verfahren implementiert sind, ist es zu empfehlen, diese bei dem Linkstausch zu berücksichtigen. 4.4.3 HITS-Verfahren Ein bedeutendes linktopologischen Rankingverfahren ist auch das HITS-Verfahren von Kleinberg (Hyperlink Induced Topic Search). Bei diesem Verfahren versucht Kleinberg, die Einschränkungen einfacher Linkzählungen bzw. die themenunabhängigen Bewertungen von Webseiten zu überwinden. 59 60 Page (1998) vgl. hier und im Folgenden Sobek (2002) 39 Abb. 4.3 Hubs- und Authorities-Beziehungen beim HITS-Verfahren Bei einer Suchanfrage werden nach HITS-Verfahren die besten Hubs und Authorities zurückgeliefert. Die Authorities sind die Web-Seiten, auf die sehr häufig durch Hyperlinks verwiesen wird, und die eine hohe Autorität in Bezug auf ein bestimmtes Themengebiet aufweisen. Die Hubs sind die Seiten, die auf Authorities verweisen. Eine Eigenschaft von Hub- und Authority-Webseiten ist, dass je mehr Hyperlinks von Hubs auf eine Authority-Seiten verweisen, desto höher kann deren Qualität bewertet werden. Man kann eine Hub-Seite als „gut bezeichnen“, wenn auf dieser die Links zu guten Authorities, also die Links guter Qualität, gesammelt sind(z.B wenn eine Seite mit ihrem Link das Yahoo-Verzeichnis empfiehlt). Also bezogen auf diese Eigenschaft lässt sich nach HITS-Verfahren für eine Web-Seite ein Hub-Gewicht (Hp) und ein Authority-Gewicht (Ap) berechnen. H ( p) = A( p ) = ∑ A(u ) u∈B: p →u ∑ H (v ) v∈B:v → p Hub-Gewicht H ( p ) einer Web-Seite p berechnet man mittels Aufaddieren der Authority-Gewichte A(u ) aller Seiten u, auf die die Seite p einen ausgehenden link hat. Entsprechend wird das Authority-Gewicht A( p ) mittels Aufaddieren der HubGewichten H (v ) aller Seiten v, die einen Hyperlink auf p enthalten. Die Hub- und Authority-Gewichte berechnet man mit einem iterativen Verfahren, wobei zuerst die Ausgangswerte festgelegt und in jedem Schritt weiter bestimmt und 40 anschließend normalisiert werden. Zum Beginn werden die Hub- und AuthorityGewichte aller Seiten in B auf den Wert eins gesetzt. Schon nach wenigen Schritten ändern sich die Gewichte nur noch geringfügig. Für das Bestimmen der Werte sollen in der Regel schon 20 Durchläufe ausreichen 61. Das Ergebnis ist für jede Seite ein Hub- und ein Authority-Gewicht. Meistens haben die Web-Seiten mit hohem Authority-Gewicht nur ein geringeres Hub-Gewicht und die Web-Seiten mit starkem Hub-Gewicht ein geringeres Authority-Gewicht. Also mit dem HITS-Verfahren von Kleinberg ist es möglich, nicht nur die „wichtigsten" Seiten zu einer Suchanfrage festzustellen, sondern auch die Seiten zu ermitteln, die einen Sucheinstieg zu den bedeutenden Quellen bieten. Die Kleinbergs Ideen wurden in den Algorithmen der Suchmaschine Teoma vor ihrem Verkauf an Ask Jeeves in 2001 umgesetzt. Es ist natürlich nicht möglich, zu überprüfen, ob es Ranking von Teoma exakt nach dem Kleinberg-Algorithmus abgelaufen ist, aber es ist klar, dass die Hub- und Authorities-Seiten bei einer Suche zu unterscheiden sind. Die Trefferlisten bei Teoma wurden in Ergebnisse, Ressourcen und Vorschläge zur Verbesserung der Suchanfrage unterteilt. Unter Ergebnissen wurden die nach ihrer Autorität sortierten Suchergebnisse angezeigt und die Ressourcen entsprachen den Kleinbergs Hub-Seiten. 4.4.4 Hilltop-Verfahren Der Hilltop-Algorithmus wurde von Bharat und Mihaila an der Universität Toronto entwickelt und 1999 veröffentlicht. Im Jahr 2003 hat die Suchmaschine Google das Patent an diesem Algorithmus gekauft. Die grundlegende Idee dieses Verfahrens ist, die besten Web-Seiten zu populären Themen Anhang ihrer eingehenden Links von so genannten Experten-Seiten zu bewerteten. Eine Experten-Seite zu einem bestimmten Thema ist eine Web-Seite, die Links zu vielen unabhängigen Seiten (in der Version von Bharat und Mihaila sind es mindestens 5) zu diesem Thema besitzt(z.B. Web-Verzeichnisse). Man soll hier auch die unabhängigen Seiten streng definieren. Die Seiten sind unabhängig, wenn sie nicht zum gleichen Class-C Netz gehören, d.h. die ersten drei Blöcke der IP-Adresse stimmen nicht überein, und nicht den gleichen Domainnamen haben (z.B. www.ltur.com und www.ltur.de). Weiterhin handelt es sich auch nicht um eine transitive Beziehung, d.h. Seite A steht in Verbindung mit Seite B und Seite B in Verbindung mit Seite C, so stehen Seiten A und C in Verbindung. 61 vgl. Kleinberg (1999), S614 41 Die Webseiten, die viele eingehenden Links von besten Experten-Seiten besitzen, sind dann die Autoritäten-Seiten und sind in den Ergebnislisten gut rangiert. Je mehr Links von Experten-Seiten eine Web-Präsenz auf sich bezogen hat, desto höher steht sie schließlich im Ranking. Bei diesem Verfahren können aber auch die Situationen vorkommen, dass zu einer Suchanfrage keine Seiten gefunden werden, weil nicht genügend Experten-Seiten zur Verfügung stehen, um ein sinnvolles Ranking zu ermöglichen. Weil angenommen ist, dass der Nutzer nicht in der Lage ist, die gesamte Treffermenge einer Suchmaschine durchzusehen, liefert man nach dem Hilltop-Algorithmus nur geringere Treffermengen zurück, die nur die wichtigsten Seiten beinhalten. Da Google 2003 das Patent an Hilltop-Algorithmus erworben hat und einer der Entwickler dieses Algorithmus Krishna Bharat mittlerweile ein Mitarbeiter von Google ist, kann man davon ausgehen, dass Hilltop-Verfahren in Ranking-Mechanismen von Google einbezogen wurde. Eine Suchmaschinenoptimierung wird beim Hilltop-Algorithmus durch das Sammeln von den Backlinks von Experten-Seiten erreicht. Man soll die zu optimierende Seite in möglichst vielen Webverzeichnissen registrieren lassen oder nach den Seiten suchen, die gleichzeitig auf viele top-platzierte Webseiten verweisen, um dort ein Link auf eigene Web-Präsenz zu setzen zu versuchen. 42 5 Verfahren zur Optimierung der Indexierung und des Rankings von Web-Seiten Wie in Kapitel 3.2 beschrieben wurde, die Optimierung einer Web-Seite für die Suchmaschinen ist die Durchführung aller Maßnahmen, die für bessere Platzierungen dieser Seite innerhalb der natürlichen Ergebnisse der Suchmaschinen bezüglich den bestimmten Suchbegriffen zu sorgen. Die Massnahmen zur Optimierung der SeitenStruktur und –Inhalte gehören zu den OnPage Methoden 62 und die Optimierung interner und externer Link-Struktur zur OffPage Optimierung. 63 Methoden, die nicht relevante Webseiten auf vordere Plätze der Suchergebnissen bringen, werden als Spam-Methoden bezeichnet. Diese verstoßen gegen Regeln, die Suchmaschinen zum Schutz vor Manipulationen ihrer Suchergebnisse aufstellen. 5.1 OnPage Suchmaschinen-Optimierung Unter "OnPage Optimierung" versteht man alle Massnahmen, die ausschließlich auf der eigenen Website vorgenommen werden. Dazu zählen Anpassungen an der Struktur und den Inhalten der Webseiten, um eine bessere Position in den SuchmaschinenErgebnissen zu erzielen. Qualitativ hochwertige Informationen für die Besucher sollen optimiert werden oder mit eigenen optimierten Texten ergänzt werden. Und die Seiten, wo diese Informationen zu finden sind, sollen für die Suchmaschinen gut und schnell erreichbar sein. Eine einmal "durchoptimierte" Webseite soll nun fortlaufend um neue, ebenfalls optimierte Inhalte ergänzt werden. 5.1.1 Auswahl der Suchbegriffe Die Auswahl der richtigen Schlüsselbegriffe für die Web-Seite ist eine der ersten und wichtigsten Phasen bei der Umsetzung einer Suchmaschinen-Optimierungsstrategie, da alle nachfolgenden Optimierungsmaßnahmen auf diesen Begriffen beruhen. Damit bestimmt man, für welche Themen die Web-Seite relevant sein soll und mit welchen Suchbegriffen die Webseite bei den Suchmaschinen gefunden werden soll. Diese kann man in einzelne Schritte zerlegen. 64 Als erstes wäre ein Brainstorming notwendig, um Ideen für Keywords zu sammeln. Dabei ist natürlich die Frage zu beantworten, welche Begriffe die potentiellen Kunden bei ihrer Suche nutzen können. Sobald die Keywords-Liste erstellt wurde, kann man diese mit verschieden Keyword-Tools auf weitere Ideen überprüfen. Unter den 62 vgl. Glöggler (2003), S. 169 vgl. Erlhofer (2005a), S. 239 64 vgl. Glöggler (2003), S. 126ff 63 43 kostenlosen Online-Tools sind MetaGer-Web-Assoziator 65 und das Google AdWords Keyword Tool 66 zu empfehlen. Wenn die Liste von Suchbegriffen erstellt ist, kann man diese bei der Notwendigkeit auch auf den möglichen Erfolgspotential überprüfen. Das Overture Search Term Suggestion Tool 67 zeigt, wie oft ein Keyword im vergangenen Monat im Overture-Netzwerk, wo z.B. die Suche von Yahoo ist, gesucht wurde und außerdem in welcher Kombinationen es mit anderen Keywords benutzt wurde. Auf diese Aussagen kann man sich nicht ganz verlassen, aber sie geben einen Anhaltspunkt und eignen sich durchaus für Vergleiche zwischen Keywords. Um der Entscheidung noch näher zu zukommen, sollte man sich an dieser Stelle einmal die Konkurrenz bei einem Keyword anschauen. Die Anzahl der gefundenen Seiten für einen Suchbegriff in den Ergebnissen einer Suchmaschine spiegelt den Schwierigkeitsgrad dieses Begriffs wieder. Kurz zusammenfassend sind also die folgenden Faktoren die wichtigsten bei der Auswahl ihrer Keywords: Menge des zu erwartenden Traffic, Qualität des Traffics und Wettbewerb bei diesem Keyword. 5.1.2 Optimierung der Struktur der Web-Seite Die Festlegung der Struktur der ganzen Web-Präsenz ist auch einer der wichtigen Ausgangspunkte für den Erfolg der ganzen Optimierungsmassnahmen. Hier orientiert sich der Benutzer, aber auch die Suchmaschinen finden über die Navigation die eizelnen Angebots-Seiten. Das klassische Strukturmodell einer Website ist der hierarchisch verzweigte Baum mit der Homepage als Wurzel. Jedes Content-Objekt nimmt einen bestimmten Platz in dieser Hierarchie ein. Zusätzliche Querverweise erleichtern die Navigation zwischen verwandten Elementen in unterschiedlichen Ästen. Bei der hierarchischen Struktur stellt sich die Frage, ob die Web-Präsenz eher flach oder tief strukturiert sein soll. Eine flach strukturierte Seite hat weniger Verzeichnis-Ebenen, dafür aber viele Auswahlmöglichkeiten auf jeder Ebene. Hier muss der Benutzer zwar nicht so oft klicken, steht aber vor grosser Auswahl verschiedener Rubriken auf jeder einzelnen Seite. 65 vgl. MetaGer (2006a) KeywordTool(2006) 67 SuggestionTool (2006) 66 44 Root-Indexseite Thema 1 Seite1 Seite2 Thema 2 Seite3 Seite1 Seite2 Thema 3 Seite3 Seite1 Seite2 Seite3 Abb. 5.1 Ein Beispiel für eine flach strukturierte Seite Die tief strukturierten Seiten bieten nur wenige Auswahlmöglichkeiten pro Seite, haben aber viele Gliederungsebenen. Mit wachsender Tiefe steigt die Suchzeit und die Navigation wird immer schwieriger. Root-Indexseite Thema 1 Seite1 Seite2 Seite3 Thema 2 Seite1 Seite2 Seite3 Thema 2 Seite1 Seite2 Seite3 Abb. 5.2 Ein Beispiel für eine tief strukturierte Seite Als ausgewogene Struktur wird von Jacobsen eine mit maximal vier Ebenen und nicht mehr als sieben Wahlmöglichkeiten auf jeder Seite empfohlen. Untersuchungen aus der Gedächtnispsychologie haben gezeigt, dass das menschliche Gehirn sieben Elemente optimal aufnehmen kann, höhere Anzahlen führen bei den meisten zu einer Überforderung. 68 Von den meisten Suchmaschinen-Agenturen sind 3-4-Ebenen-Hierarchie auch zu empfehlen. Mit einer möglichst flachen Datei-Hierarchie kann man das Leseverhalten und die Suchmaschinen-Relevanz positiv beeinflussen. Die Anzahl der Verzeichnis- 68 vgl. Jacobsen (2002), S.99ff 45 Ebenen der Web-Präsenz hat unmittelbaren Einfluss auf die Geschwindigkeit und die Vollständigkeit, mit der die Suchmaschinen-Robots die Webseite indexieren. 69 Die flache Seite-Struktur ist auch ein entscheidener Faktor für die Vergabe des PageRanks für die Angebots-Seiten. Wie schon im Abschnitt 4.3.2 erwähnt wurde, mit jeder Verzeichnisebene der dabei maximal vererbte Pagerank um einen bestimmten Wert (meistens um 1) sinkt, was natürlich die Position der Seiten in den Suchergebnissen stark beienflussen kann. 5.1.3 URLs-Design Wie nach einer Studie von Bright Planet 70 ermittelt wurde, sind etwa 80% aller WebSeiten von den Suchmaschinen gar nicht indexiert worden und sind durch eine WebSuche nicht findbar. Die meisten Webinhalte stehen in Datenbanken und sind erst über die dynamischen Aufrufe (z.B. http://www.ehoi.de/search/searchresult.cfm?rid=51&datum_von=31.10.2006&datum_bis=23.12.200 6&calendar=yes&destination=104) verschiedener Art erzeugt. Genau bei solchen WebSeiten kriegen fast alle Suchmaschinen oft einen Stop-Befehl. „Google indiziert dynamisch generierte Webseiten, einschließlich ASPSeiten, PHPSeiten und Seiten mit Fragezeichen innerhalb der URLs. Diese Seiten können unserem Crawler jedoch Probleme bereiten, weshalb sie dann unter Umständen ignoriert werden.“ 71 69 vgl. Erlhofer (2005a), S. 246 vgl. Berman (2001), S2.f 71 Google (2006c) 70 46 Abb. 5.3 Ein Beispiel für die Surfase- und Deep-Web 72 Dies hat verschiedene Gründe. Die Suchmaschinen wollen mit ihrem Spider nicht über eine unbekannte Zahl von Parameterkombinationen an eine Unmenge von Dokumenten kommen, die eigentlich keine echten Seiten sind. Inhalte in Datenbanken wechseln und aktualisieren sich oft, was zu Unterschieden zwischen dem angezeigten bei Suchergebnissen und dem tatsächlichen Inhalt führt. Viele Shopsysteme, e-CommerceSeiten oder auch normale Webseiten vergeben beim ersten Seitenaufruf oft sogenannte Session-IDs, die an die URL angehängt und von Link zu Link weitergegeben werden und somit ermöglichen, den Benutzer über viele Seiten hinweg zu identifizieren. Suchmaschinen möchten solche Seiten nicht indizieren, denn eine Benutzersitzung kann benutzerspezifischen Inhalt haben und die Sitzung wird nach einer gewissen Zeit ungültig, sodass diese Seiten später nicht mehr aufrufbar sind. 73 Auch ein Grund gegen die dynamischen Seiten ist, dass verschiedene Parameterkombinationen zu gleichem Inhalt führen, und damit im Index der Suchmaschine die redundanten Inhalte entstehen. Besonders problematisch ist für die Suchmaschinen-Speider durch die Post-Formulare an die Inhalten zu kommen. Das heißt, dass mit Post-Variablen erzeugten Seiten, bei denen es oft um ein Endprodukt geht und die besonders attraktiv aus der Benutzersicht sind, bleiben in der 72 73 Berman (2001), S2. vgl. Lewandowski (2005), S. 51 47 Suchmaschine nicht auffindbar. In diesem Fall sind die interne Verlinkunken auf die Ziel-Seiten sehr hilfsreich. Die statischen Seiten hingegen sind für alle Suchmaschinen-Roboter sehr attraktiv zu indexieren, da es hier um einen eindeutigen und in der Regel konsistenten Inhalt handelt. Zu den Vorteilen der statischen Seiten bei den Suchmaschinen können die Aussagen der Suchmaschinen-Betreiber selbst sprechen. Google: „...Beachten Sie, wenn Sie dynamische erzeugte Seiten verwenden (d.h., wenn die URL das Zeichen '?' enthält), dass einige Crawler dynamische Seiten im Unterschied zu statischen Seiten nicht durchlaufen. Verwenden Sie wenige und kurze Parameter.“ 74 MSN: “...Ihre URLs sollten einfach und statisch sein. Komplizierte oder häufig geänderte URLs sind als Ziel von Links kaum geeignet. So kann für den URL www.beispiel.com/meine_seitedas Crawling durch MSNBot einfacher durchgeführt werden als für einen langen URL mit zahlreichen Erweiterungen.“ 75 Seekport: „...Weil wir bei Seekport möglichst keine überflüssigen Seiten präsentieren wollen, sind wir bei der Aufnahme solcher Seiten mit dynamischer URL sehr zurückhaltend.“ 76 Somit geben die meisten Suchmaschinen-Betreiber in ihren jeweiligen Optimierungstipps das klare Statement ab, dass dynamische URLs nicht so gut wie statische für die Suchmaschinenplatzierung sind. Dazu kann man noch die Ranking von statischen Seiten verfeinern, indem man die Suchbegriffe in URL der Seite aufnimmt. Da die Ranking-Mechanismen der einzelnen Suchmaschinen geheim bleiben, ist die Gewichtung der Keywords in URL der Seite unklar. Aber davon ausgehend, das diese bei der Suchergebniss-Anzeige extra hingewiesen werden, spielen sie definitiv eine Rolle bei der Seiten-Bewertung. 5.1.4 Optimierung der Meta-Informationen Die Meta-Tags der Seiten beinhalten Informationen, die etwas über ihre Eigenschaften aussagen. 77 In Meta-Informationen kann man verschiedene nützliche Anweisungen für 74 Google (2006f) MSN (2006a) 76 Seekport(2006) 75 48 WWW-Server, WWW-Browser und automatische Suchprogramme im Internet notieren. Einige der Meta-Tags sind speziell für die Suchmaschinen-Spider und -Roboter gedacht. Diese Informationen werden von jeder Suchmaschine gelesen und entsprechend ausgewertet. Meta-Tags können mehr oder weniger das Ranking, den Inhalt und das Aussehen einer Angabe in der Trefferliste einer Suchmaschine auswirken. Die Metainformationen werden innerhalb des Dokumentenkopfes(im Header-Bereich des HTML-Codes) platziert und sind für den User, ausser Titel-Tag, nicht sichtbar. Die Idee, dass die Autoren ihre Web-Seiten anhand der Meta-Informationen beschreiben, fanden die Suchmaschinen noch vor wenigen Jahren sehr gut, und zogen diese Informationen in für die Relevanzbeurteilung ein. Aufgrund der ständig wachsenden Zahl der Internet-Nutzer und immer wachsender Konkurenz im WWW wurde die Suchmaschinenoptimierung ein immer wichtigerer Faktor. Dies führte dazu, dass diese Form der Inhaltserschließung von den Website-Betreibern missbraucht wurde, indem falsche Angaben die Suchmaschinen-Relevanz vortäuschen sollten. So konnte z.B. eine Web-Seite, die keine Informationen über Kreuzfahrten enthielt, dennoch bei den Suchanfragen zu den entsprechenden Suchbegriffen berücksichtig werden, das MetaTag Keywords mit den entsprechenden Begriffen gefüllt wurde: <meta name=“ keywords“ content=“ Kreuzfahrt, Kreuzfahrten, Seereisen, Flussreisen, Schiffe, Urlaub, Seeurlaub, Aida, Costa, Mittelmeer“ /> Aus diesem Grund verzichten heutzutage alle wichtigen Suchmaschinen auf die Auswertung der Meta-Tags in ihren Ranking-Mechanismen. Ganz ohne Nutzen für die Suchmaschinen-Otimierung sind einige Meta-Tags aber dennoch nicht. So verwenden viele Suchmaschinen das Meta-Tag Description zur Erstellung der Anzeige bei der Ausgabe von Suchergebnisen. Eine attraktiv aussehende Anzeige steigert die Wahrscheinlichkeit, von dem User angeklickt zu werden. Die andere Meta-Tags aus der Suchmaschinenoptimierung-Sicht sind uninteressant und nutzlos, da diese in die Ranking-Algorithmen nicht eingezogen werden. Eine ausführliche Abhandlung findet sich beispielsweise in Erlhofer. 78 77 78 vgl. Lewandowski (2005), S. 92 vgl. Erlhofer (2005a), S. 38-47 49 5.1.5 Optimierung der Inhalten der Seite Grundsatzlich suchen alle Suchmaschinen nach Übereinstimmung der Suchbegriffe und Inhalte der Seite – wie oft und wo wird der Begriff innerhalb der Seite gefunden. Der Text innerhalb des Title-Tags im Head-Bereich wird nicht nur von allen Suchmaschinen in hohem Maße gewichtet, sondern erscheint auch in der Ergebnisliste jeder Suchmaschine meistens in gefetteter und unterstrichener Schrift, und gehört damit zu den wichtigsten Elementen bei der Optimierung. Die hohe Bedeutung des Titels ist damit verbunden, dass nirgendwo sonst der Inhalt des Dokuments so knapp und präzise formuliert werden muss. 79 Deshalb ist die Nennung aller entsprechenden Schlüsselwörter im Titel natürlich Pflicht. Die Suchmaschinen indexieren zwischen 80 und 250 Zeichen des Title-Tags. Die optimale Länge des Title-Tags sollte aber nur zwischen 40 und maximal 100 Zeichen beinhalten. Das entspricht etwa vier bis zehn Wörtern. 80 Benutzt man zu viele Wörter, nimmt die Bedeutsamkeit der einzelnen Begriffe ab. Der Body-Bereich enthält in einer suchmaschinenfreundlichen Webseite den Fließtext, der das Thema inhaltlich vermitteln soll. Die beste Optimierung einen Text zu schreiben, der das beabsichtigte Thema intensiv behandelt und wo die relevanten Schlüsselbegriffe genannt werden. Der wichtigste Aspekt beim Schreiben eines Fließtextes ist ein altes journalistisches Grundprinzip - das Wichtigste soll an den Anfang eines Textes gestellt werden und die Bedeutung mit der Länge des Textes stets abnimmt. 81 Generell gilt für jede Seite, dass der enthaltene Text eine gewisse Kompetenz beweisen muss, d.h. die Schlüsselbegriffe in einem gesunden Verhältnis zum Gesamttext stehen müssen. 82 Eine zu hohe Suchbegriff-Dichte (Keyword-Density) kann zum Betrugsverdacht im Sinne eines Spamversuchs bringen. 83 Die optimale Stichwort-Dichte hängt natürlich von den einzelnen Parametern einer Suchmaschine ab. In der Praxis hat sich jedoch eine Suchbegriff-Dichte zwischen einem und sieben Prozent als optimal erwiesen. Um Nutzern das Scanning zu erlauben und gegebenenfalls einen Einstieg mitten in den Text zu bieten, sollte die Aufmerksamkeit auf bestimmte Wörter innerhalb des Textes gelenkt werden. Dabei stellt HTML eine Vielzahl von Möglichkeiten zur Verfügung, 79 vgl. Glöggler (2003), S. 131ff vgl. Erlhofer (2005a), S. 218 81 vgl. Erlhofer (2005a), S. 220f. 82 vgl. Kapitel 4.2.1 83 vgl Glöggler (2003), S. 189f; vgl. auch Erlhofer (2005a), S. 270ff. 80 50 die eine Hervorhebung einzelner Zeichen bzw. Wörter erlaubt. 84 Die folgende Tabelle zeigt eine Auswahl an Tags zur Hervorhebung von Termen: Tab. 5.1 Auswahl an Tags zur Hervorhebung von Termen mittels HTML Tag Bedeutung <b></b> Fett(bold) <strong></strong> Fett(strong) <i></i> Kursiv(italic) <s></s> Durchgestrichen (strike) <em></em> Hervorgehoben (emphasized) <cite></cite> Zitat (citation) <sub></sub> Tiefergestellt Text <sup></sup> Höhergestellter Text Nichts ist besser geeignet, das Thema eines Abschnittes zu bestimmen, als eine beschreibende Überschrift. Diese Erkenntnis machen sich natürlich auch die Suchmaschinen bei ihrer Analyse zu Nutze. In HTML sind Überschriften (Headings) mit dem H1- bis H6-Tag vorgesehen. Der H1-Tag stellt somit die höchste Ebene dar. Hier sollten dementsprechend auch die primären Schlüsselbegriffe positioniert werden. Der Beschaffenheit der Links kommt bei der Optimierung ebenfalls eine wichtige Rolle zu. Denn die a-Tags werden insbesondere unter Berücksichtigung des Anchor-Textes analysiert und bilden somit in Bezug auf die hypertextuellen Gewichtungen ein wichtiges Kriterium der Suchmaschinen-Optimierung. Dem Anchor-Text kommt daher eine besondere Bedeutung zu. Bei der Verwendung des Linktextes ist darauf zu achten, dass die Schlüsselwörter des Dokuments verwendet werden, auf das der Verweis zeigt. So sollte ein Verweis von Dokument A, der auf Dokument B verlinkt und auf den Begriff „Aida Kreuzfahrten“ optimiert wurde, auch diesen Begriff enthalten: <a href="aida-kreuzfahrten.html">Aida Kreuzfahrten</a>. Das erhöht die Link-Popularity des Dokuments B, insbesondere, weil der Linktext korrekt auf den zu erwartenden Inhalt hinweist. 85 Das Title-Attribut des a-Tags erlaubt es, jedes Verweis mit einem kommentierten Text in Sinne einer Metainformation zu versehen. Aus diesem Grund wird das Title-Attribut auch von Suchmaschinen berücksichtigt. In der Praxis sollte man eine entsprechende Linkbeschreibung unter Verwendung der Schlüsselwörter im Title-Attribut platzieren. 84 85 vgl. hier und im Folgenden Glöggler (2003), S.151ff; vgl. auch Erlhofer (2005a), S. 225 vgl. Erlhofer (2005a), S. 265f. 51 So bietet man die Gelegenheit, dem Benutzer und den Suchmaschinen-Spider mehr Informationen über das Linkziel zu geben. Das Alt-Attribut des img-Tags gilt als alternative Beschreibung einer Grafik in der HTML-Seite. Hier können die zusätzlichen Informationen über das Bild, den Entstehungsort, den Fotografen oder Ähnliches gegeben werden. Aus diesem Grund wird das Alt-Attribut auch von Suchmaschinen berücksichtigt. 5.1.6 Auslagerung der JavaScripts und Styles in externe Dateien Ein weiterer Faktor, der die Position einer Seite in der Suchergebnissen beinflussen kann und der auch zu optimieren ist, ist die Dateigrösse und damit verbundene Zeit beim Laden der Seite durch Spiders. Ist die Seite nach 10 Sekunden nicht ausgeliefert, brechen die meisten Suchmaschinen Crawler sogar das Indizieren ab. 86 Für die Seitengrösse existiert bei fast allen Suchmaschinen eine obere Schranke. Es ist davon auszugehen, dass eine Seite nicht mehr von allen Suchmaschinen aufgenommen wird, wenn die Dateigrösse über 210 Kb liegt. In diesem Bereich liegt die Schranke der Suchmaschine von Yahoo. Google erlaubt maximal 520 Kb und MSN indiziert sogar Dateien, die über 1 MB gross sind. 87 Wenn man die Suchergebnise für einen beliebigen Suchbegriff anschaut, kann man feststellen, dass die ersten Plätze durch die Seiten besetzt sind, deren Grösse weniger als 100Kb ist. Sogar in top 10 findet man eine Seite, die grösser als 100Kb ist, sehr selten. Die meisten Suchmaschinen-Agenturen und Suchmaschinen-Optimierer empfehlen die Dateigrössen zwischen 20 und 80 Kb. Die Trennung von Inhalt und Design durch die css-Dateien bietet auf vielen Feldern bessere Möglichkeiten. Allein die Vielfalt an verschiedenartigen Formatierungsmöglichkeiten macht den Einsatz sinnvoll. Ein Schlüsselelement bei der Entwicklung von CSS war die Auslagerung der grafischen Beschreibungssprache. Zum Auslagern schreibt man lediglich die CSS-Formatierungen in eine eigene Datei und speichert diese von den Dokumenten zentral erreichbar ab. Anschließend bindet man die CSS-Datei (z.B. site.css) über folgenden Befehl in den Head-Bereich des HTMLDokuments ein: <link rel="stylesheet" href="site.css" type="text/css"> Die JavaScript-Funktionen verbessern zwar die Usability der Seite, sind aber für die Suchmaschinen-Spider oft ein Problem. Da die JavaScript durch Spiders nicht gelesen wird und das Einbinden solcher Inhalte innerhalb der Seite nur die Dateigrösse vergrössert, ist es sinnvoll, diese in externe JavaScript-Dateien auszulagern. Man kann es auch in den Head-Bereich einbinden: 86 87 vgl. Tabke (2003), S. 335 vgl. Bondar (2006) 52 <script language=“ JavaScript“ т у р е ="text/javascript" src="javascript.js" > Durch den Einsatz von ausgelagerten Stylescheets und JavaScript kann man von 50% bis 75% der Dateigrösse sparen. 5.2 OffPage Suchmaschinen-Optimierung Zur OffPage-Optimierung gehören alle Maßnahmen, die nicht direkt auf der Web-Seite selbst vorgenommen werden. Im wesentlichem handelt es sich dabei um die Anzahl und Qualität der aus- und eingehenden Verweise. 88 Man soll versuchen, die eingehenden Links von möglichst vielen verschiedenen Domains zu erhalten. Aber nicht jeder Link ist gleich viel Wert. Es gibt eine Reihe von Faktoren, mit denen man einen Link bewerten kann: 89 • PageRank der gelinkten Seite. Obwohl es noch viele andere wichtige Faktoren gibt, spielt der PageRank eine der entscheidenden Rollen für die Ermittlung des Rankings eigener Seite. Beispielsweise kann man mit einem einzelnen guten PR6-Link bereits einen Pagerank von 5 erreichen. • DomainPopularität der gelinkten Seite. Je größer dieser Faktor ist, desto besser wird der Link bewertet. • LinkPopularität der gelinkten Seite. Für Google hat dieser Faktor seine Relevanz längst verloren, aber möglicherweise setzen noch manche andere Suchmaschinen einen Wert darauf. • Themenrelevanz. Wenn es auf den beiden Seiten um ein gleiches Thema handelt, wird diesen Link höher von Suchmaschinen bewertet. • Inhalte der gelinkten Seite. Die Seite soll über gute und relevante Inhalte verfügen. • Erzeugtes Traffic. Der Link ist natürlich noch mehr Wert, wenn er gleich täglich manche Besucher mit sich bringt. • Platzierung des Links. Der Link soll möglichst innerhalb des Content-Bereiches vom Text platziert werden und nicht als "Partner", "Linkpartner", "Werbung" oder ähnliches betitelt werden. 88 89 vgl. Erlhofer (2005a), S. 239f vgl. hier und im Folgenden Erlhofer (2005a), S. 260f. 53 • Anzahl der ausgehenden Links auf der gelinkten Seite. Die gelinkte Seite soll möglichst wenig ausgehende Links haben (bis 20). • Keine Spam-Techniken auf der gelinkten Seite. Links von Web-Seiten, die irgendwelche Spam-Techniken nutzen, können das Ranking der eigenen Seite im Endeffekt nur beeinflussen. Zum Sammeln von eingehenden Links gibt es verschiedene sowohl kostenpflichtige als auch kostenfrei Wege. Als einfaches Beispiel zur Erhöhung der Anzahl der eingehenden Links ist das Eintragen in Web-Kataloge. 90 Neben den populärsten DMOZ.org und YahooVerzeichnis soll man für den Anfang in die 10-20 Top-Verzeichnisse eintragen. Das sind die Kataloge, die selbst möglichst viele eingehende Links haben, und die über einen hohen Pagerank verfügen. Außerdem sind es natürlich die Verzeichnisse zu auf eigener Seite behandelten Themen von besonderem Interesse. Seit letzter Zeit sind in Deutschland auch die sog. Artikel-Verzeichnisse sehr populär geworden, auf denen man Links im Tausch für einen Artikel erhält. Man veröffentlicht dort einen Artikel, wo man dann Links einbetten darf. Die Vorteile in diesem Fall sind klar – man kann selbst die Umgebung der Links bestimmen und damit den Wert der Links erhöhen. Sobald man sich einen kleinen, 3 oder 4, Pagerank aufgebaut hat, kann man mit dem Thema Linktausch anfangen. Je besser die Qualität eigener Seite ist, desto höher können natürlich auch die Ansprüche an potentielle Partner sein. Es gib zwei einfache Wege, die potentielle Link-Partner zu finden: entweder sucht man in einem Thema-Katalog nach den Seiten ähnlichen Themen oder es gibt die Möglichkeit, direkt über eine Suchmaschine die Seiten zu finden, die auf direkte Konkurrenten verweisen und deren Betreiber dann ansprechen. Auch mittels Pressemitteilungen lassen sich Links generieren. Natürlich braucht es dazu einer Seite und Informationen, die einer Pressemitteilung würdig sind. Die Pressemitteilungen können kostenlos auf verschiedenen Seiten veröffentlicht werden. Zu jeder Pressemitteilung gehört heutzutage natürlich ein Link zur Firmen-Website. Ein weiteres Mittel zum Sammeln von eingehenden Links sind die Foren- und BlogsSignaturen. In diesen darf man meist einen Link einfügen. So gewinnt man nicht nur Links hinzu, sondern bewirbt auch mit jedem Posting seine Websites. 90 vgl. Erlhofer (2005a), S. 263 54 Eine weitere, obwohl auch kostenpflichtige, Möglichkeit ist, die Links zu mieten. Heutzutage gibt es viele Anbieter, die über Ebay, verschiedene Textlinkbroker oder auch direkt von den Webseiten diese Option anbieten. Abb. 5.4 Vermietung von Backlinks im Internet-Auktionshaus eBay 91 Wie oben beschrieben wurde, gibt es genügend Möglichkeiten, die eingehenden Links zu besorgen, die alle aber einige Zeit in Anspruch nehmen werden. 5.3 Spam-Techniken bei der Optimierung von Web-Seiten Die Spam-Techniken sind alle Maßnahmen, um das Ranking einer Website zu erhöhen ohne dem User relevante Informationen zur seiner Anfrage zu Verfügung zu stellen. 92 Weil in Ranking von Suchmaschinen nicht nur OnPage-Faktoren sondern auch die Bewertung von eingehender Links eingezogen sind, unterscheidet man zwischen den Term Spamming und Link Spamming. Die bekannten Term Spamming-Techniken sind Content Hiding, Doorway Pages, Cloaking. Bei der Link Spamming sind die Linkfarmen, Crosslinking und Einträge in die Blogs, Guestbooks und Foren beliebt. Content Hiding Eine sehr einfache Spam-Methode ist Content Hiding, die das Ziel hat, die Spam-Texte Tags für den Nutzer unsichtbar zu machen. Eine Möglichkeit hier ist, den Texten dieselbe Farbe zu geben, wie die Farbe von Hintergrunds. 93 Dies kann entweder durch direkte Einbindung ins HTML-Dokument oder durch CSS (Cascading Stylesheets) vergeben werden. Eine weitere Möglichkeit besteht darin, die Eigenschaft „visible“ des div-Tags zu benutzen. Die Texte, die innerhalb dieses Layers geschrieben sind, können auch durch CSS unsichtbar gemacht werden, in dem man den Attribut „display“ des Styles von diesem Tag auf „none“ setzt. 91 vgl. Ebay (2006). Suchbegriff „Pagerank“ vgl. Glöggler (2003), S. 187, vgl. auch Erlhofer (2005), S.268ff 93 vgl. Glöggler (2003), S. 191 92 55 Doorway Pages Die Doorway Pages, auch Brückenseiten 94 genannt, dienen zur Verbesserung des Rankings einer Web-Seite durch gezielte Manipulationen. Eine Doorway-Seite ist eine speziell für einen oder mehreren Suchbegriffe optimierte Seite, die keine relevante Information für den Nutzer hat und nicht das Teil des regulären Angebots einer WebPräsenz ist. 95 In der Regel wird der Nutzer gleich nach dem Laden der Seite durch die automatische Scripts oder manuelle Auswahl weiter zu den Hauptinhalten geleitet. 96 Oft werden solche Seiten durch sog. Doorwaypage-Generatoren erstellt und haben deswegen eine klar erkennbare für die Suchmaschinen Struktur. Der Einsatz von solchen Seiten ist sehr riskant, weil deren Herkunft gegen die Richtlinien von Suchmaschinenbetreibern verstößt. Z.B. Google gibt eindeutige Empfehlungen in seinen Richtlinien für Webmaster: „Vermeiden Sie den Einsatz von "Brückenseiten" (Doorway-Seiten), die speziell für Suchmaschinen erstellt werden...“ 97 Die Meinungen im Internet zum Einsatz von Doorway Pages sind sehr unterschiedlich. Weil eine richtig gestaltende und mit gutem und relevanten für den Nutzer Inhalt Doorway-Seite auch von den Suchmaschinen positiv und gut bewertet werden kann. Cloaking Eine optisch gut gestaltete und den Ansprüchen des Nutzers entsprechende Seite ist sehr oft nicht ideal für die Suchmaschinen ausgerichtet. So, zum Beispiel, führten vielleicht vielfache Begriffswiederholungen zum besseren Ranking, würde aber den Besucher eher abschrecken. Cloaking ist eine Technik, die dem Nutzer ganz andere Seite präsentiert als dem Suchmaschinen-Roboter. 98 Die Voraussetzung bei dieser Technik ist die exakte Identifikation von SuchmaschinenCrawlern. Das kann man durch die User Agents oder durch die Erkenntnis von IPAdressen der Suchmaschinen identifizieren. Der User-Agent wird im HTTP-Header übertragen und beinhaltet den Namen eines Clients. Das ist entweder der Name eines 94 vgl. Google (2003) vgl. Glöggler (2003), S. 195f; 96 vgl. Erlhofer (2005a), S. 280f. 97 Google (2006d). 98 vgl. hier und im Folgenden Glöggler (2003), S. 197f. 95 56 Browsers oder der Name eines Suchmaschinen Crawlers. Hier ist der Beispiel für Suchmaschine Google: User-Agent: Googlebot/2.1 (+http://www.googlebot.com/bot.html) 99 Anhand der IP-Adressen die von Suchmaschinen verwendet werden, kann man der Suchmaschinen-Crawler auch identifizieren. Natürlich in diesem Fall sind die aktuellen IP–Listen der Spider die Voraussetzung für ein funktionsfähiges IP–Cloaking. Die Einstellung von Suchmaschinen-Betreibern sind in diesem Fall auch eindeutig definiert: „Erstellen Sie Seiten für Nutzer und nicht für Suchmaschinen. Versuchen Sie nicht, Ihre Nutzer zu täuschen, und bieten Sie Suchmaschinen keinen Content an, den Sie nicht auch für die Nutzer verwenden. Dies wird als "Cloaking" bezeichnet.“ 100 Doorway Pages und Cloaking sind die bekanntesten Vertreter der OnPage SpamTechniken, aber wichtig ist auch, möglichst viele Links guter Qualität zu der eigenen Webseite zu sammeln. Linkfarms Um möglichst schnell viele Verweise zu bekommen, sind in großer Zahl sog. Linkfarmen entstanden. Es handelt sich dabei um die Webseiten, die eine riesige Menge von Links zu anderen Seiten enthalten, die ihrerseits wieder auf die betreffenden Webseiten zurück verlinken. Die Linkfarm-Webseiten haben in aller Regel keinen weiteren Inhalt außer den Links, die allein dem Zweck eines höheren Rankings dienen sollen, und werden deshalb von Suchmaschinen zurecht als Spam bewertet. Webseiten, die sich an Linkfarmen beteiligen, werden entweder schlechter bewertet oder völlig aus dem Index rausgeworfen. Es ist auch nicht besonders schwierig für die Suchmaschienen-Betreiber zu eine Linkfarm zu erkennen. Bei einer Analyse eines Dokuments durch die Software der Suchmaschine kann auch das Verhältnis des Textes zu den Links ermittelt werden. Wird ein nur sehr geringer Textanteil festgestellt, kann dies als Verdacht für eine Linkfarm gesehen werden. Doch selbst wenn eine Linkfarm als solche nicht erkannt werden sollte, bestehen kaum Vorteile. Die Wahrscheinlichkeit, über einen derartigen Link Besucher zu erhalten, ist gering. Auch der Einfluss auf das Ranking ist minimal. Je weniger ausgehende Links eine Webseite nämlich enthält, desto wichtiger werden diese von einer Suchmaschine 99 Gyöngyi & Garcia-Molia (2004) Google (2006d) 100 57 bewertet. Umgekehrt sind Links von einer Webseite, die mit diesen überfrachtet sind, so gut wie nichts wert. Crosslinking Bei dem Crosslinking-Verfahren versucht man die Link Popularity zu steigern, in dem man aus vielen verschiedenen Webauftritten gebündelt auf eine einzige oder mehrere Seiten verlinkt. Abb. 5.5 Ein Beispiel für die Crosslinking-Struktur Es gibt aber viele Risiken, die dieses Verfahren mit sich bringt und die Realisierung somit erschweren. Gerade bei Google stoßen diese Maßnahmen gegen ihre Philosophie, dem Nutzer möglichst relevante Informationen zu bieten, die aus einem natürlich entstandenen Netz von Querverlinkungen hervorgehen. . Somit gibt es die Wahrscheinlichkeit, aus dem Google-Index über Bord geworfen zu werfen, wenn die Umsetzung von Crosslinking nicht mit dem nötigen technischen Wissen realisiert wird. Gästebücher, Blogs und Foren In einem Gästebuch einer Web-Seite haben die Besucher die Möglichkeit eine Notiz, meistens über einen Text-Editor, zu hinterlassen. Bei vielen Gästebüchern werden die Einträge, ohne manuelle Überprüfung, automatisch veröffentlicht, was natürlich die Möglichkeit gibt, den Link zu eigener Seite, innerhalb der Nachricht zu setzen. Auch die Blogs und Foren, die einen hohen PageRank haben, werden benutzt, um den Link innerhalb der Kommentare zu setzen. Es ist aber meistens zeitaufwändig, da die Registrierung bei vielen Foren und Blogs vorausgesetzt ist. Das Thema um Ausnutzung der Gästebücher und Foren rückt in letzter Zeit immer in den Mittelpunkt der Kritik. Weil alle Suchmaschinen nur die relevanten Ergebnisse zu einer Abfrage liefern wollen, ist eine Identifizierung von den Spam-Seiten für sie von großer Bedeutung. Google weist in seinen Qualitätsrichtlinien auf folgende Grundprinzipien hin: „Vermeiden Sie Tricks, die das Suchmaschinen-Ranking verbessern sollen. Beachten 58 Sie die folgende Faustregel: Sie sollten kein schlechtes Gefühl haben, wenn Sie einer konkurrierenden Website Ihre Vorgehensweise erklären sollen. Eine weitere hilfreiche Frage lautet: ‚Nutzt dies den Besuchern meiner Site? Würde ich das auch tun, wenn es keine Suchmaschinen gäbe?’ Nehmen Sie nicht an Link-Programmen teil, die dazu dienen, Ihr Ranking oder Ihren PageRank-Wert zu verbessern. Meiden Sie insbesondere Links zu Webspammern oder ‚schlechte Nachbarschaft’ im Web, da Ihr eigenes Ranking durch solche Links negativ beeinflusst werden kann.“ 101 So lassen sich die Suchalgorithmen ständig weiterentwickeln, um diese Erkennung zu ermöglichen. 101 Google (2005a) 59 6 Analyse der Web-Seite www.e-hoi.de und die Durchführung der notwendigen Optimierungsmaßnahmen 6.1 Stammdaten der Seite ehoi.de und Auszug der Statistiken Die Web-Seite von e-hoi Gmbh ist seit 2003 online zu erreichen. Hier sind einige sowohl technische Daten als auch die Daten aus der Nutzer- und SuchmaschinenPerspektive, die vor der Erstellung einer Optimierungsstrategie zu berücksichtigen sind. Tab. 6.1 Stammdaten der Web-Präsenz www.e-hoi.de ColdFusion, *.cfm Programmiersprache, Dateiendung Datenbank Microsoft SQL Server Web-Server ColdFusion Web Server auf der Plattform des Microsoft WebServers www.e-hoi.de, www.ehoi.de, www.i-hoi.de, www.ihoi.de Domains 3 Jahre Alter des Domains 30 000 Seiten Anzahl der Seiten in GoogleIndex 250 Kb Durchschnittliche Grösse einzelnen Seiten Reisen/ Kreuzfahrten Branche ungefähr 11.400.000 Ergebnisse für Wort „Kreuzfahrten“ in Google Konkurrenz: Startseite: 1 Seite Relevante Informationen für Nutzer und Suchmaschinen Seite der Angeboten: 1 Seite Beschreibung der Schiffe: ca. 450 Seiten Beschreibung der Reedereien: ca.110 Seiten Beschreibung der Routen: ca. 1 600 Seiten Beginn der Optimierungen August 2006 Für die Suchmaschinen-Optimierung wurden folgende Maßnahmen vorgeplant: 1. Auszug der Statistiken für Jahr 2005-2006 • Anzahl der Besucher allgemein • Anzahl der Besucher für die Einstieg-Seiten aus den Bereichen Schiffe, Reedereien, Angebote und Routen • Anzahl der Buchungsanfragen • Anzahl der Buchungen 60 2. Suchbegriffe • Auswahl der Suchbegriffe • Ermittlung der Positionen 3. Erstellung eines neuen Bereiches für die Reiseziele (ca. 100 Seiten) 4. Optimierung und Erstellung von zusätzlichen internen Verlinkungen 5. Optimierung der Inhalte • Umstellung auf statische URLs • Optimierung der Meta-Information • Optimierung der Titel • Erstellung der Überschriften-Struktur • Platzierung der Keywords innerhalb wichtiger HTML-Tags 6. Auslagerung des Quellcodes • JavaScript • Styles Die ganze Optimierung der Seite soll innerhalb von 3 Monaten umgesetzt werden. Nach 2 Monaten nach der Umsetzung aller Maßnahmen werden die Statistiken und Suchbegriffen-Positionen wieder ermittelt, um den Erfolg der durchgeführten Suchmaschinen-Optimierung zu Bewerten. Die Optimierungsmaßnahmen sollen im August 2006 gestartet werden. Zu diesem Zeitpunkt liegen folgende Statistiken zu Hand: Tab. 6.2 Besucher-Statistik der www.e-hoi.de (Aug.2005-Aug.2006) 61 Besucher der Seite Einstiegseiten Buchungsanfragen Startseite Angebote Schiffe Reedereie Routen Reiseziele 08.2005 52127 13765 653 3551 730 5949 0 174 09.2005 39030 9873 451 2413 549 4777 0 85 10.2005 41180 12070 488 2201 489 4106 0 136 11.2005 46902 12919 449 2179 500 4676 0 147 12.2005 34197 8009 371 2094 471 4037 0 158 01.2006 54.308 12958 458 3362 712 5483 0 214 02.2006 38.476 10013 467 3037 552 4142 0 149 03.2006 46.226 12242 410 3316 601 4798 0 220 04.2006 42.354 10166 397 2759 397 4844 0 177 05.2006 37.864 12422 380 2392 459 4001 0 196 06.2006 38.476 9545 365 1944 285 4862 0 267 07.2006 42.496 11731 490 1558 295 5246 0 289 6.2 Auswahl der Suchbegriffen und Ermittlung ihrer Positionen in Google Es sind alle mögliche Suchbegriff-Variationen relevant, die die zusätzlichen Nutzer auf die Seite bringen können. Hier ist der Inhalt der verfügbaren und eventuell neuen Informationen als Ausgangspunkt zu betrachten. Mit Google Trends, einem Online-Tool der Suchmaschine Google, ist der Vergleich von Suchanfragen bzw. Suchbegriffe im Verlauf mehrerer Jahre möglich. So nach dem Vergleich der Worten „Kreuzfahrten“ und „Kreuzfahrt“ wurde entschieden, bei allen zu optimierten Suchphrasen den Wort „Kreuzfahrten“ zu benutzen. 62 Abb. 6.1 Ergebnisse des Google Trends nach dem Vergleich der Wörter "Kreuzfahrt" und "Kreuzfahrten" Ausgehend von den verfügbaren Seiten aus den Bereichen Schiffe, Reedereien, Routen und auch der neu zu entstehenden Seiten aus dem Bereich Reiseziele waren die Suchbegriffe nach folgendem Prinzip zu definieren: Name + Wort „Kreuzfahrten“. Daraus entstand die Liste mit 500 relevantesten Keywords zu dem Thema Kreuzfahrt. Im Anfang August wurden die Positionen Anhang dieser Keyword-Liste in wichtigsten Suchmaschinen Google, Yahoo und MSN ermittelt. Daraus ist es bekannt geworden, dass die Seite von e-hoi nach keinem Suchbegriff in der Top 10 der SuchmaschinenErgebnisse war. Tab. 6.3 Ein Beispiel für die Positionen der Suchbegriffe in der Ergebnissen wichtiger Suchmaschinen 63 Keyword Startseite Angebote Reedereien Shiffe Reiseziele Google Yahoo MSN Kreuzfahrt 49 * * Kreuzfahrten 26 * * Kreuzfahrten Angebote * * * Billige Kreuzfahrten * * * Specials Kreuzfahrten * * * Last minute Kreuzfahrten * * * AIDA Kreuzfahrten * * * Costa Kreuzfahrten * * * Hansa Kreuzfahrten * * * Deilmann Kreuzfahrten 76 * 89 Queen Mary Kreuzfahrten * * 67 Pacific Princess Kreuzfahrten 75 * * Monarch of the Seas Kreuzfahrten 96 * 72 Marco Polo Kreuzfahrten * * * Alaska Kreuzfahrten 78 * * Kanarische Inseln Kreuzfahrten * * * Westliches Mittelmeer Kreuzfahrten * * * Oder Kreuzfahrten * * * Die volle Keywords-Statistik ist im Anhang dargestellt. 6.3 Erstellung eines neuen Bereiches für die Reiseziele Mit einem Online-Tool auf der Seite www.ranking-check kann man KeywordDatenbank 102 der Suchmaschine Overture abfragen. Als Ergebnis bekommt man die Liste der populärsten Suchphrasen, die das eingegebenes Wort enthalten. 102 vgl. Rankingcheck (2006) 64 Abb. 6.2 Die Ergebnisse der Abfrage der Omniture-Datenbank durch den Online-Tool der Seite www.ranking-check.de nach dem Wort "kreuzfahrten" Aus der Abbildung 6.2 sieht man, dass die Nutzer sehr oft nach Kreuzfahrt-Reisezielen suchen. Da in der Datenbank von e-hoi für die meisten Reiseziele die Bilder und die Beschreibungen gespeichert sind, war es sinnvoll, diese Informationen zu nutzen, um neue Benutzer aus der Suchmaschinen auf die Seite zu ziehen. So wurden für jede Reiseziel die dynamischen Seiten implementiert, die nur die einfache Suchmaske, Bilder, Beschreibungstexte, mögliche Reisetermine für diese Destination und ein paar allgemeinen Informationen enthalten. 65 Abb. 6.3 Ein Beispiel für eine Reiseziel-Seite von www.e-hoi.de 66 6.4 Optimierung der Seiten-Struktur Wie in Kapitel 5.1.2 erwähnt wurde, ist die Struktur der Web-Präsenz auch ein wichtiger Ausgangspunkt für den Erfolg der Optimierungsmaßnahmen, da die Suchmaschinen über diese die einzelne Angebot-Seiten finden können. Eine optimale Seiten- Hierarchie beinhaltet 3-4-Ebenen, d.h. mit drei oder vier Klicks soll der Benutzer der Seite die einzelnen Angebote finden können. Ein weiterer Motivationspunkt bei der Optimierung ist das Ziel, dass möglichst viele Angebot-Seiten in den Index von Suchmaschinen landen. Zu der Zeit des Beginns der Optimierungsmaßnahmen wurden die Angeboten von e-hoi, nur über eine Suchmaske dynamisch erzeugt. Es gab keine andere Möglichkeit, ohne Eingabe von Parameter diese anzuschauen. Weil alle Suchmaschinen große Probleme mit Indexierung von dynamischen Seiten haben, benötigte man eine zusätzliche interne Verlinkung von diesen Seiten. Es wurde so realisiert, dass auf jeder Seide der Bereiche von Schiffe, Reedereien und Reisezielen einen Abfahrtskalender und Teaser mit der populärsten Themen zugefügt wurden. Hier ist der Beispiel für eine von Schiff-Seiten: rechts ist der Kasten mit populärsten Hochsee- und Fluss-Schiffe und unten sind die Links für alle Abfahrtstermine (Angebot-Seiten) dieses Schiffes. Im Analog zu den Schiff-Seiten wurden auch die Reederei- und Reiseziel-Seiten ergänzt. 67 Abb. 6.4 Ein Beispiel für die Integration der zusätzlichen Verlinkungen auf einer Schiff-Seite von www.e-hoi.de Damit die neue Reiseziel-Seiten besser für die Suchmaschinen zugänglich sind und möglichst mehr an PageRank von Startseite vererben, wurde unter Hauptmenüpunkt „Suche“ ein neuer Kasten mit Links zu allen Reiseziel-Seiten angelegt. 68 Abb. 6.5 Ein Beispiel für die Integration der zusätzlichen Verlinkungen auf der Suche-Seite von www.ehoi.de Mit diesen Maßnahmen hat man erreicht, dass möglichst viele Angebot-Seiten von den Suchmaschinen indexiert werden können und damit sind mehr Seiten zu potentiellen Einstieg-Seiten geworden. 69 6.5 Optimierung der URLs und Header-Informationen Unter der Optimierung der URLs versteht man die Umwandlung aller dynamischen URLs, die verschiedene Parameter enthalten, in statische, die von den SuchmaschinenSpeider als einfache HTML-Seiten interpretiert werden. Die Optimierung von URLs hat zwei wesentliche Vorteile. Von einer Seite nutzt man die Möglichkeit, die relevanten Suchbegriffe innerhalb des URLs zu platzieren und von anderer Seite vermeidet man die Wahrscheinlichkeit, dass die Seite durch viele dynamische Parameter einfach nicht indexiert wird. Die Umschreibung von URLs für die ColdFusion-Seiten erfolgt durch die Verwendung von regulären Ausdrücken, die in einer Datei hdttp.ini auf dem Web-Server angelegt werden und von einer ISAPI- Schnittstelle gelesen werden. Hier ist ein Beispiel für den regulären Ausdruck für die Umschreibung aller dynamischen Schiff-Seiten von Form schiffe.cfm?shipid=[parameter_value] in Form kreuzfahrt-schiffe/[beliebige-zeichen]-kreuzfahrt/schiffsdaten-[parameter_value].html: RewriteRule ^ kreuzfahrt-schiffe/(.*)-kreuzfahrten/schiffsdaten-(.*).html$ content/schiffe.cfm?shipid=$2 Nach dieser Regel sehen dann die URLs für die Schiff-Seiten wie folgt aus: Vor: http://www.e-hoi.de/content/schiffe.cfm?shipid=42 http://www.e-hoi.de/content/schiffe.cfm?shipid=183 http://www.e-hoi.de/content/schiffe.cfm?shipid=460 Nach: http://www.e-hoi.de/kreuzfahrt-schiffe/costa-magica-kreuzfahrten/schiffsdaten-42.html http://www.e-hoi.de/kreuzfahrt-schiffe/aidablu-kreuzfahrten/schiffsdaten-183.html http://www.e-hoi.de/kreuzfahrt-schiffe/arielle-kreuzfahrten/schiffsdaten-460.html Nach der Umschreibung hat das URL von Schiff-Seiten verschiedene Variationen von relevanten Suchbegriffen zu den Inhalten der Seiten, wie z.B. „Schiffsname + Kreuzfahrten“, „kreuzfahrt schiffe“ oder „schiffe Schiffsname schiffsdaten“. Im Analog zu den Schiff-Seiten werden auch die dynamischen URLs für alle Seiten anderer Bereiche umgeschrieben. Für Reederei-Seiten: Vor: http://www.e-hoi.de/content/reederei.cfm?rid=120 Nach: http://www.e-hoi.de/kreuzfahrt-reederei/color-line-kreuzfahrten/veranstalter-120.html Für Reiseziel-Seiten: Vor: http://www.e-hoi.de/content/destination.cfm?destinationid=76 Nach: http://www.e-hoi.de/afrika-kreuzfahrten/fahrgebiet-76.html 70 Für Routen-Seiten: Vor: http://www.e-hoi.de/content/reise.cfm?rspez=reisedetail&reise=9861 Nach: http://www.e-hoi.de/kreuzfahrt/westliches-mittelmeer-Kreuzfahrten/9861_525/carnival-freedomcarnival-cruises-civitavecchia-rom-italien.html Nach der Umschreibung hat das URL einer Route-Seite alle wichtigsten Informationen zu den Inhalten der Seite, wie Reiseziel, Reederei-Name, Schiff-Name, Start-Hafen, End-Hafen und die Wörter „kreuzfahrt“ und „kreuzfahrten“. Mit dem optimierten Design von allen dynamischen URLs hat man erreicht, dass alle Seiten von den Suchmaschinen als statische akzeptiert werden und dass die Suchbegriffe, für welche diese Seiten optimiert werden, innerhalb von URLs auftauchen. Die wichtigsten Inhalte aus der Sicht von Suchmaschinen, die das Header eines HTMLDokuments enthaltet, sind Titel der Seite und zwei Meta-Tags: Description und Keywords. Der Titel der Seite ist wohl das wichtigste zu optimierte Element, da er den Inhalt ganzes Dokuments in sich widerspiegelt. Deswegen soll er auf jeden Fall die Suchbegriffe, für welche das Dokument optimiert wird, enthalten. Die Meta-Informationen sind heutzutage aus der Suchmaschinen-Perspektive nicht so relevant wie vor wenigen Jahren. Aber die Möglichkeit diese gut zu gestalten und die Suchbegriffe rein zu schreiben, muss man auf jeden Fall nutzen Bis zu dem Zeitpunkt der durchgeführten Optimierungen hatten alle Seiten von e-hoiWeb-Präsenz, außer Schiff-Seiten, die gleiche Titel und Meta-Informationen: Titel: e-hoi - click und cruise Meta-Description: Kreuzfahrt Kreuzfahrten Seereise Seereisen Schiffsreise Schiffsreisen Eine Kreuzfahrt, Seereise oder Schiffsreise online buchen. Eine Kreuzfahrt auf einem Schiff oder Urlaub auf einem Kreuzfahrtschiff auf den sieben Weltmeeren. Meta-Keywords: Kreuzfahrt, Kreuzfahrten, Seereise, Schiffsreisen, Schiffe, Reise, Reedereien, Suchen, Buchen. Seereisen, Schiffsreise, Der Titel der Schiffseiten wurde im Juni 2006 optimiert, was die Folgen hat, dass fast alle Schiff-Seiten bis diesen Zeitpunkt, schon in Top 50 der Suchergebnissen waren. Dies bestätigte, dass die Suchmaschinen besonderen Wert auf das Vorkommen der Suchbegriffe im Titel legen. 71 Tab. 6.4 Titel und Meta-Informatioene nach der Optimierung der wichtigen Seiten der www.e-hoi.de Shiffe Titel AIDAblu Kreuzfahrten - e-hoi - click and cruise z.B.: MetaDescription Alle AIDAblu Kreuzfahrten im Überblick. Attraktive Last-Minute Angebote und Specials für Kreuzfahrten auf der AIDAblu und anderen deutschen und internationalen Schiffen wie z.B. AIDA Kreuzfahrtschiffe, Costa Kreuzfahrtschiffe oder Kreuzfahrten mit den Top-Schiffen Freedom of the Seas, MS Deutschland, oder Queen Mary. MetaKeywords AIDAblu Kreuzfahrten, AIDAblu Seereisen, Schiffe, Kreuzfahrt Schiffe, Kreuzfahrten Schiffe, Kreuzfahrtschiffe, Hochsee Schiffe, Fluss Schiffe, Seereisen Schiffe, Schiffsreisen, Aida Schiffe, Costa Schiffe, Traumschiffe, Deutsche Schiffe, Segelschiffe, Luxus Schiffe, Hurtigruten Schiffe Reedereien Titel Nicko Tours Kreuzfahrten - e-hoi - click and cruise z.B.: MetaDescription Alle Nicko Tours Kreuzfahrten im Überblick. Attraktive Last-Minute Angebote und Specials für Kreuzfahrten mit der Nicko Tours-Reederei und anderen deutschen und internationalen Veranstalter wie z.B. AIDAReederei oder Costa-Reederei. MetaKeywords Nicko Tours, Nicko Tours Kreuzfahrten, Nicko Tours Reederei, Nicko Tours Veranstalter, Kreuzfahrten Reedereien, Kreuzfahrtreedereien, Veranstalter, Kreuzfahrt Veranstalter, Kreuzfahrten Veranstalter, Kreuzfahrtveranstalter Reiseziele Titel Afrika Kreuzfahrten - e-hoi - click and cruise z.B.: MetaDescription Die Afrika Kreuzfahrten im Überblick. Attraktive Specials und LastMinute Angebote für die Afrika-Kreuzfahrt mit den Top-Schiffen und besten deutschen und internationalen Reedereien. MetaKeywords Afrika, Afrika Kreuzfahrten, Afrika-Kreuzfahrt, Kreuzfahrt Destinationen, Kreuzfahrt Fahrtgebiete, Kreuzfahrt Reiseziele Titel Afrika Kreuzfahrten mit der Black Watch der Reederei Fred. Olsen Cruises ab dem Hafen Southampton (England) - Seereise 5794 AIDAblu Nicko Tours Afrika Routen MetaKreuzfahrt-Reisebeschreibung für die 79 tägige Afrika Kreuzfahrt auf dem Description Schiff Black Watch der Reederei Fred. Olsen Cruises ab dem Hafen Southampton (England) nach Southampton (England) MetaKeywords Black Watch Kreuzfahrten, Afrika Kreuzfahrten, Fred. Olsen Cruises Kreuzfahrten,Southampton (England) Kreuzfahrten, 79 Tage Kreuzfahrten, Black Watch Seereisen, Afrika Seereisen, Fred. Olsen Cruises Seereisen,Southampton (England) Seereisen, 79 Tage Seereisen, Kreuzfahrt, Kreuzfahrten, Seereise, Seereisen, Schiffsreise, Schiffsreisen, Urlaub, buchen, Schiff Bei der Optimierung wurden die relevanten Informationen aus der Datenbank gezogen und in Titel und Meta-Tags geschrieben. Nach der Durchführung der Optimierungen sehen dann diese wie folgt aus: Die Meta-Tags und der Titel aller Route-Seiten (eigentliche Angebotsseiten) enthalten alle relevanten Informationen zu der Reise, wie Reiseziel, Reederei, Schiff, Starthafen, Endhafen und Dauer der Reise. 72 Abb. 6.6 Ein Beispiel für die Anzeige der Suchphrase "Afrika Kreuzfahrten" in der Ergebnissliste der Suchmaschine Google Mit diesen Optimierungen hat man erreicht, dass es für jede, aus der Sicht der Suchmaschinen relevante Seite, die dynamisch erzeugte Meta-Informationen und Titel gibt, die den Inhalt des Dokumentes widerspiegeln. 6.6 Optimierung der Inhalten Die Optimierung der Inhalte der Seiten wurde nach folgenden Schritten durchgeführt: • Erstellung der Überschriften-Struktur • Die relevanten Begriffe innerhalb des Textes fett markieren (unsichtbar für Nutzer) • Dynamisches Alt-Attribut des img-Tags • Dynamisches Titel-Attribut des a-Tags CSS ist eine Sprache, die die Formatierung von HTML-Seiten ermöglicht. Sie greift auf die HTML-Elemente zu und verleiht ihnen spezielle gewünschte Darstellungsmerkmale. Dies kann durch einmalige Vorschrift für ganze Sites oder auch bei einzelnen Tags erfolgen. Alle wichtigen aus der Suchmaschinen-Sicht HTML-Elemente können damit angepasst werden. Zum Beispiel die Überschriften in reiner HTML-Sprache sehen wie folgt aus: 73 Abb. 6.7 Ein Beispiel für die Anzeige der Überschriften h1, h2, h3 und h4 nach HTML-Formatierungen ohne CSS Nach der Formatierung des <h1>-Elementes sieht dann dies so aus: Abb. 6.8 Ein Beispiel für die Anzeige des Überschriftes h1 nach CSS-Formatierung Um dieses Ergebnis zu bekommen, braucht man in css-Datei die Eigenschaften für <h1>-Element zu definieren: h1{ font-family: Verdana, Arial, Helvetica, sans-serif; font-size: 12px; font-style: normal; font-weight: bold; background-color: #006699; color: #FFFFFF; text-decoration: none; padding-left:10px; margin:0px; } So ähnlich kann man alle Überschriften und andere Elemente zu formatieren. Beispielweise, wenn man dem b-Tag die Eigenschaft „font-weight: bold”, können die Wörter, die in Quellcode fett markiert sind, für den Benutzer ganz normal, wie alle andere, erscheinen: b{ font-weight: normal; } Die zwei weitere HTML-Elemente, wo man die Suchbegriffe platzieren kann, sind der alt-Attribut des img-Tags und titel-Attribut des a-Tags. Für jede Seite aus den Bereichen Schiffe, Reiseziele, Reedereien und Routen wurden somit die Texte für Überschriften, titel- und alt-Attribute dynamisch aus der Datenbank generiert. Dann wurden die Beschreibungstexte mittels Replace()-Funktion geparst und die Begriffe zu der Seite sowie Wort „Kreuzfahrt“ fett markiert. 74 Abb. 6.9 Ein Beispiel für die Optimierung der Inhalten einer Reiseziel-Seite von www.e-hoi.de Nach der Optimierung der Inhalte sind die Informationen auf den Seiten für die Suchmaschinen noch relevanter geworden, da jede Seite genau für eine Suchphrase optimiert wurde und die relevanten Begriffe innerhalb von wichtigen HTML-Elementen platziert wurden. 75 6.7 Auslagerung der QuelleCodes Ein Faktor, der die Position einer Seite in den Suchergebnissen beeinflusst, ist die Größe der Dateien und damit verbundene Zeit beim Laden dieser durch Spiders. Die Auslagerung aller JavaScript-Funktionen und CSS in externe Dateien hilft die Größe zu reduzieren. Die durchschnittliche Größe aller Seiten der e-hoi Web-Seite betrug bis zu den Zeiten der Optimierung im Schnitt etwa 200Kb, maximale Grosse bis zu 360Kb. Die Seiten der Konkurrenz, die in Top 10 von Google-Ergebnissen aufgelistet sind, sind Maximum bis zu 100Kb. Die Gründe, das die e-hoi-Seiten so groß sind: - Die Suchmaske, die in der linken Spalte immer erscheint, ist allein etwa 40Kb; - Die Routenkalender, der immer unter erscheint, ist je nach Art der Seite von 50Kb bis 200 Kb; - Die Seiten sind alle tabellarisch aufgebaut ohne css überhaupt zu verwenden. Hier ist ein Beispiel für die frühere Implementierung eines Buttons „GO“: Abb. 6.10 Ein Beispiel für die Anzeige des Buttons "GO" auf einer Seite von www.e-hoi.de Implementation: <td> <table cellpadding="2" cellspacing="2" border="0" width="30"> <tr> <td bgcolor="FFFFFF" height="22" width="30"> <table cellpadding="2" cellspacing="0" border="0" width="100%"> <tr> <td bgcolor="BEB796" align="left" valign="middle" height="10"> 76 <a href="anmelden.cfm " class="smalltitleboldweiss" onClick="sendFormular2(‘ newsletter’ );"> GO »</a> </td> </tr> </table> </td> </tr> </table> </td> Als Alternative kann man hier die CSS Formatierungen vornehmen, in denen man alle benötigte Angaben in CSS-Datei mit folgenden Anweisungen definiert und in Quellcode nur das notwendiges Class bzw. ID aufruft: CSS: #news_btn {width:30px; height:26px; background-color:#BEB796; border: 2px solid #FFFFFF; text-align:center;} #news_btn a {font-family:Verdana; font-size:10px; font-style:normal; font-weight:bold; color:#FFFFFF; text-decoration:none;} Quellcode: <td id="news_btn"> <a href="anmelden.cfm " onClick="sendFormular2(‘ newsletter’ );"> GO » </a> </td> Natürlich ist die Durchführung solcher Formatierungen für die ganze Web-Präsenz sehr zeitaufwändig und in manchen Stellen gar nicht möglich. Bei der Durchführung dieses Schrittes der Optimierung, hat man versucht, möglichst viel JavaScript und Styles in externe Dateien zu speichern. Damit hat man erreicht die Reduzierung der Dateigrößen um etwa 10%. Ob diese relativ kleinen Unterschiede die Ranking der Seiten beeinflusst hat, kann man natürlich nicht sagen. Es wurde aber interessant, wie die Dateigröße die Position der Seite in den Suchergebnissen beeinflussen kann. Um dieses zu erfahren, wurde ein Test-Versuch durchgeführt. Als Google die Reiseziel-Seiten indexierte, wurde jede Woche während zwei Monaten die Platzierungen für diese ermittelt. Dann hat man drei Seiten ausgewählt, die in der Ergebnisliste immer auf Platz 15 standen und relativ gross waren (Ostsee Kreuzfahrten(301Kb), Nordland Kreuzfahrten(326Kb) und Westliches Mittelmeer Kreuzfahrten(316Kb)) und für diese weitere Änderungen durchgeführt: die 77 Suchmaske in der linken Spalte und den Route-Kalender unten auf der Seite wurden in externe Dateien ausgelagert und als Iframe aufgerufen: <iframe src="../iframes/form_search_simple.cfm" width="183" height="410" scrolling="no" frameborder="0"></iframe> Mit diesen Maßnahmen reduzierte man die Größe dieser Seiten bis zu 70Kb. Innerhalb der nächsten Wochen wurden die Ergebnisse wieder aktualisiert. Schon nach einem Monat stand die Seite „Ostsee Kreuzfahrten“ auf Platz 13 und die andere zwei auf Platz 10. Einziger Nachteil, der für das Nicht-Benutzen von Iframes entscheidend war, dass diese beim Laden der Seite als letzte geladen werden, was natürlich die Attraktivität aus der Benutzer-Perspektiv verschlechtert. Somit wurden alle möglichen und sinnvollen OnPage-Optimierungen für die www.ehoi.de durchgeführt, deren Ergebnisse erst nach einiger Zeit zu bewerten sind, und die in der Zusammenfassung dieser Ausarbeitung zusammengestellt sind. 6.8 Analyse und Durchführung der OffPage Maßnahmen Wie im Kapitel 5.2 schon erwähnt wurde, gehören zur OffPage-Optimierung alle Maßnahmen, die nicht direkt auf der Web-Seite selbst vorgenommen werden, sondern die mit Qualität und Quantität von eingehenden externen Links zu tun haben. Vor der Durchführung der OnPage Optimierungsmaßnahmen hat die Geschäftsführung ein Budget für das Ankauf von externen Backlinks vorgeplant. Da diese Summe von einer Seite begrenzt war und dieses Ankauf von anderer Seite zuerst mehr als Probe betrachtet wurde, wurden bei ebay nur drei Angebote ersteigert. Es wurden zwei Backlinks auf der Software-Seiten http://opensource.erde3.net mit Pagerank 8 und http://putty.triplemind.com mit Pagerank 6 gekauft. Dazu kommt noch der Ankauf des Backlinks auf einer Unterseite des Reiseportals urlaub.com. Die Seite http://www.urlaub.com/kreuzfahrten/ hat das PageRang 8. Wenn diese Backlinks-Strategie zusammen mit OnPage-Optimierungen gewisse Erfolge bringen könnten, war die Geschäftsführung bereit weitere Summen für diese Zwecke zu investieren. 78 79 7 Controlling der Ergebnisse Nach der Durchführung aller OnPage-Massnahmen hat es zwischen zwei und vier Wochen gedauert, bis alle optimierten Seiten indexiert und von Suchmaschinen neu bewertet wurden. Bei der Überprüfung, ob die Optimierung erfolgreich war, wurden zwei Quellen der Statistik-Daten berücksichtig: die Besucherstatistik für die Web-Seite bzw. Statistik für die optimierte Seiten als Einstiegseiten und die Positionen der Suchbegriffe in den Ergebnissen der Suchmaschinen. Tab. 7.1 Besucher-Statistik der www.e-hoi.de (Apr.2006-Dez.2006) Besucher der Seite Einstiegseiten Buchungsanfragen Schiffe % Reederei % Routen % Reise % % ziele 04.2006 42.354 2759 6,5 397 0,9 4844 05.2006 37.864 2392 6,3 459 1,2 4001 06.2006 38.476 1944 5,1 285 0,7 4862 07.2006 42.496 1558 3,7 295 0,7 5246 08.2006 44.356 2053 4,6 353 0,8 6608 09.2006 45.910 2960 6,4 385 0,8 9100 10.2006 47.115 4548 9,7 659 1,4 10700 11.2006 50.115 4064 8,1 1730 3,5 9655 12.2006 49.295 4132 8,4 1657 3,4 10363 11,4 0 0 177 0,42 10,6 0 0 196 0,52 12,6 0 0 267 0,69 12,3 0 0 289 0,68 14,9 0 0 273 0,62 19,8 0 0 301 0,66 22,7 385 0,8 346 0,73 19,3 1829 3,6 386 0,77 21,0 1917 3,9 382 0,77 Da für den Erfolg oder Misserfolg der Optimierungsmaßnahmen das Traking der Einstiegseiten als Maß betrachtet werden kann, sind diese im Folgenden detailiert dargestellt. Statistik für die Einstiegseiten aus dem Bereich "Schiffe" schiffe Besucher 5000 4000 3000 2000 1000 0 Apr Mai Jun Jul Aug Sep Okt Nov Dez Abb. 7.1 Statistik für die Einstiegseiten aus dem Bereich „Schiffe“ der Präsenz e-hoi.de 80 Aus der Abbildung 7.1. sieht man deutliche Verbesserung der Besucherströme für die Schiffsseiten. Die Aufrufe der Schiffsseiten haben sich nach der Optimierung verdoppelt. Statistik für die Einstiegseiten aus dem Bereich "Reedereien" Reedereien Besucher 2000 1500 1000 500 0 Apr Mai Jun Jul Aug Sep Okt Nov Dez Abb. 7.2 Statistik für die Einstiegseiten aus dem Bereich „Reedereien“ der Präsenz e-hoi.de Die Reederei-Seiten haben jetzt nach der allen Optimierungen vier Mal mehr Besucher aus der Suchmaschinen und gleichen Quellen als bevor. Die Zahlen im Dezember sind zwar einwenig gesunken, aber dies ist mit den allgemeinen Nutzer-Aktivitäten im Internet während Advents- bzw. Weihnachtszeiten verbunden. Besucher Statistik für die Einstiegseiten aus dem Bereich "Routen" Routen 12000 10000 8000 6000 4000 2000 0 Apr Mai Jun Jul Aug Sep Okt Nov Dez Abb. 7.3 Statistik für die Einstiegseiten aus dem Bereich „Routen“ der Präsenz e-hoi.de Die Routen-Seiten bzw. Endprodukte sind jetzt fast doppelt so besser in Suchmaschinen zu finden als vor der Durchführung der Optimierungsmaßnahmen. 81 Statistik für die Einstiegseiten aus dem Bereich "Reiseziele" Reiseziele 2500 Besucher 2000 1500 1000 500 0 -500 Apr Mai Jun Jul Aug Sep Okt Nov Dez Abb. 7.4 Statistik für die Einstiegseiten aus dem Bereich „Reiseziele“ der Präsenz e-hoi.de Die neu erstellten Seiten für die Reiseziele brachten zum Zeitpunkt der Controlling der Ergebnissen der Optimierung zusätzlich rund 2.000 neuen Besucher im Monat. Wenn man Erfolg der Optimierung in Anzahl der Besucher für Einstiegseiten messt, was praktisch der Anzahl der zusätzlichen Besucher aus Suchmaschienen entspricht, kann man diese Maßnahmen als erfolgreich betrachten: insgesamt haben die Einstiegseiten zum Zeitpunkt der Controlling rund 18.000 Besucher im Monat, was vor Monaten nur noch 9.000 war. Statistik für die Buchungsanfragen Buchungsanfrage 500 Besucher 400 300 200 100 0 Apr Mai Jun Jul Aug Sep Okt Nov Dez Abb. 7.5 Statistik für die Buchungsanfragen Natürlich die Verbesserung der Besucherströme hat auch positiv die Statistik für die Buchungsanfragen beeinflusst. Zum Zeitpunkt des Controllings haben die Mitarbeiter etwa 30% mehr Buchungsanfragen, als vor wenigen Monaten, zu bearbeiten. Grob zu 82 sagen, haben die Suchmaschinen-Optimierungsmaßnahmen Unternehmens um 30% vergrößert. den Gewinn des Damit man den Erfolg der Suchmaschinenoptimierung aus der zweiter Perspektiv, Ranking der Seite in der Suchmaschinen, anschaut, wurden die Positionen der relevanten Suchbegriffe in der Suchmaschinen Google, MSN und Yahoo mittels eines Tools von Axandra/Voget Selbach Enterprises GmbH, Internet Business Promoter 8, ermittelt. In der Tabelle 7.2 sind die Beispiele für einige Seiten vorgestellt. Die ausführliche Statistik ist in den Anlagen zu dieser Arbeit präsentiert. Aus dieser sieht man, dass fast alle optimierten Seiten der Web-Präsenz von e-hoi GmbH in Top 10 der Suchergebnissen der Suchmaschine Google sind. Tab. 7.2 Ein Beispiel für des Vergleich der Positionen der Suchbegriffe in der Ergebnissen wichtiger Suchmaschinen im August 2006 und Januar 2007 Keyword Startseite Angebote Reedereien Schiffe Reiseziele Google Yahoo MSN 08.2006 12.2006 08.2006 12.2006 08.2006 12.2006 Kreuzfahrt 49 33 * 67 * 15 Kreuzfahrten 26 12 * 39 * 18 Kreuzfahrten Angebote * 9 * 18 * 12 Billige Kreuzfahrten * 15 * 56 * 44 Specials Kreuzfahrten * 4 * 9 * 8 Last minute Kreuzfahrten * 46 * 34 * 67 AIDA Kreuzfahrten * 7 * 36 * 62 Costa Kreuzfahrten * 11 * 78 * 91 Hansa Kreuzfahrten * 3 * 16 * 31 Deilmann Kreuzfahrten 76 2 * 12 89 27 Queen Mary Kreuzfahrten * 16 * * 67 24 Pacific Princess Kreuzfahrten 75 4 * 21 * 55 Monarch of the Seas Kreuzfahrten 96 6 * 14 72 16 Marco Polo Kreuzfahrten * 11 * * * 39 Alaska Kreuzfahrten 78 8 * 33 * 16 Kanarische Inseln Kreuzfahrten * 7 * 79 * 23 Westliches Mittelmeer Kreuzfahrten * 12 * 41 * 19 Oder Kreuzfahrten * 4 * 17 * 21 Aus der Tabelle 7.2 sieht man deutliche Verbesserungen der Position der Seite bezüglich relevanter Suchbegriffe innerhalb der Ergebnislisten der wichtigsten Suchmaschinen. 83 Sicherlich hat auf diesen Erfolg auch die durchgeführte OffPage-Maßnahmen einen Einfluss genommen. So hat das PageRank der www.e-hoi.de in vier Monaten von 4 auf 6 gestiegen, was natürlich direkt das Ranking in den Suchmaschinen positiv beeinflusst hat. 84 8 Zusammenfassung Diese Arbeit verfolgte das Ziel, den Suchmaschinen-Markt und –Mechanismen zu erforschen, um festzustellen, welche Faktoren die Relevanz von Webdokumenten beeinflussen und mit welchen Maßnahmen die Platzierungen der Web-Seite www.ehoi.de in den Suchergebnislisten verbessert werden könnnen. Die gesammelten Erkenntnisse mussten dann erfolgreich umgesetzt werden. Dazu wurden ausgehend von einem umfassenden Überblick über das Themengebiet die Gewichtungsverfahren vorgestellt, die bei der OnPage- und OffPage-Optimierung berücksichtigt werden müssen. Darüber hinaus wurden auch die unerlaubten SpamTechniken erläutert, die zum Ausschluss aus Suchmaschinen- Index führen können. Abschließend wurden die für die Seite von e-hoi GmbH die notwentigen OnPageOptimierungen durchgeführt und die Ergebnise kontrolliert. Es konnte erfolgreich belegt werden, dass für das Ranking bei den Suchmaschinen heute nicht nur PageRank und Linkpopularität entscheidend sind, sondern auch die OnPage-Faktoren eine wichtige Rolle spielen. Eine umfassende Keyword-Strategie ist bereits vor Erstellung und Optimierung der Web-Seiten festzulegen. Das ausgewählte Keywordspektrum muss dann konsequent im Titel der Web-Seite, ihren Inhalten, in den internen und externen Verweisen sowie möglichst in den URLs der Web-Seiten vorkommen. Dabei gilt es insbesondere die Worthäufigkeit und den Abstand von Suchbegriffen bei der Suchphrasen zu beachten. Leider existiert kein generelles Erfolgsrezept für das Erreichen der Top-Positionen in der Suchmaschinen – man muss eine Vielzahl an verschiedenen Faktoren und Umgebungsbedingungen berücksichtigen, was eine entsprechende Qualifikation voraussetzt. Dazu kommt auch, das die Suchmaschinen-Betreiber ihre RankingAlgorithmen geheimhalten und modifizieren. Optimierungsmaßnahmen sind mit hohem Zeitaufwand verbunden und wirken sich oftmals erst längerfristig aus. Eine Alternative ist hier Keyword-Advertising, auch AddWords genannt, was aber mit höherem finanziellen Aufwand verbunden ist. Die kurzfristigen Aktionen und saisonellen Angebote lassen sich mit diesem Instrument des Suchmaschinen-Marketings gut vermarkten. Zusammenfassend lässt sich feststellen, dass die Suchmaschinenoptimierung in den letzten Jahren zunehmend an Bedeutung gewonnen hat. Viele Betreiber von Web-Seiten müssen die spezielle Anforderungen der Suchmaschinen bei der Implementierung 85 berücksichtigen. Das schöne Design und Usability sind hinfällig, wenn die User die Web-Seite nicht auffinden können. Wenn die Suchmaschinenoptimierung einem Unternehmen als zentrale Marketing-Maßnahme dient, sind weitere Merkmale der Seite wie Optik und Layout unterzuordnen, um das zentralen Ziel – Gewinn von neuen Kunden – zu erreichen. 86 Anhang A Suchbegriffanalyse bei der wichtigsten Suchmaschienen Nr. 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 Keyword Kreuzfahrt Kreuzfahrten Afrika Kreuzfahrten Alaska Kreuzfahrten Antarktis Kreuzfahrten Asien Kreuzfahrten Indischer Ozean Kreuzfahrten Nord-Pazifik Kreuzfahrten Südostasien Kreuzfahrten Süd-Pazifik Kreuzfahrten Australien Kreuzfahrten Britische Inseln Kreuzfahrten Große Seen Kreuzfahrten Hawaii Kreuzfahrten Kanarische Inseln Kreuzfahrten Karibik Kreuzfahrten Östliche Karibik Kreuzfahrten Südliche Karibik Kreuzfahrten Westliche Karibik Kreuzfahrten Mexikanische Riviera Kreuzfahrten Mittelamerika Kreuzfahrten Mittelmeer Kreuzfahrten Östliches Mittelmeer Kreuzfahrten Schwarzes Meer Kreuzfahrten Westliches Mittelmeer Kreuzfahrten Neuengland Kreuzfahrten Neuseeland Kreuzfahrten Nordland Kreuzfahrten Grönland Kreuzfahrten Island Kreuzfahrten Ostsee Kreuzfahrten Nord-Ostsee-Kanal Kreuzfahrten Panama-Kanal Kreuzfahrten Rotes Meer Kreuzfahrten Suez-Kanal-Passage Kreuzfahrten Südamerika Kreuzfahrten Amazonas Kreuzfahrten Galapagos Kreuzfahrten Südsee Kreuzfahrten Transatlantik Kreuzfahrten USA Ostküste Kreuzfahrten USA Westküste Kreuzfahrten Weltreise Kreuzfahrten West Europa Kreuzfahrten Amazonas Kreuzfahrten Caledonian Canal Kreuzfahrten Google 08.2006 12.2006 49 33 26 12 45 9 78 8 24 4 * 6 * 7 89 11 28 3 32 12 * 16 15 4 68 6 * 11 * 8 * 7 49 12 71 4 * 33 66 12 33 9 * 15 * 8 * 6 * 1 50 1 37 4 42 1 19 1 * 2 * 24 51 1 94 9 48 3 24 18 80 1 * 1 32 9 * 1 * 1 58 1 69 1 * 1 * 7 * 1 63 1 Yahoo 08.2006 12.2006 * 67 * 39 * 18 * 33 * 9 * 34 * 36 * 78 * 16 * 12 * * * 21 * 14 * * * 79 * 71 * 41 * 17 * 67 * 39 * 18 * 56 * 23 * 56 * 41 * 77 * * * 54 * 34 * 67 * 39 * 18 * 56 * 9 * 34 * 36 * 78 * 16 * 12 * * * 21 * 14 * * * 33 * 79 * 41 MSN 08.2006 12.2006 * 15 * 18 * 12 * 16 * 8 * 67 * * 34 21 69 31 69 27 * 24 54 27 81 16 * * * 23 * * 56 44 19 12 * 56 90 18 * 12 * * * 66 * 24 * 19 72 34 45 33 * * 98 55 * 89 * * 69 44 45 19 79 42 34 87 * 90 * 92 * * 67 * * * 34 19 69 31 * * * * * * 12 9 87 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 Donau Kreuzfahrten Main-Donau-Kanal Kreuzfahrten Elbe Kreuzfahrten Elbe-Lübeck-Kanal Kreuzfahrten Havel Kreuzfahrten Moldau Kreuzfahrten Frankreich Kreuzfahrten Rhone Kreuzfahrten Saone Kreuzfahrten Seine Kreuzfahrten Russland Kreuzfahrten Dnjepr Kreuzfahrten Moskwa Kreuzfahrten Newa Kreuzfahrten Swina Kreuzfahrten Swir Kreuzfahrten Wolga Kreuzfahrten Holland und Belgien Kreuzfahrten Holland Kreuzfahrten Belgien Kreuzfahrten Ijssel Kreuzfahrten Maas Kreuzfahrten Schelde Kreuzfahrten Waal Kreuzfahrten Mississippi Kreuzfahrten Nil Kreuzfahrten Oder Kreuzfahrten Oder-Havel-Kanal Kreuzfahrten Peene Kreuzfahrten Ostseeküste Kreuzfahrten Polen Kreuzfahrten Göta-Kanal Kreuzfahrten Masurische Seen Kreuzfahrten Weichsel Kreuzfahrten Rhein Kreuzfahrten Main Kreuzfahrten Mosel Kreuzfahrten Neckar Kreuzfahrten Saar Kreuzfahrten Süd-Europa Kreuzfahrten Douro Kreuzfahrten Guadalquivir Kreuzfahrten Guadiana Kreuzfahrten Po Kreuzfahrten Südostasien Kreuzfahrten Ayeyarwady Kreuzfahrten Brahmaputra Kreuzfahrten Chindwin Kreuzfahrten Ganges Kreuzfahrten Irrawaddy Kreuzfahrten Kwai Kreuzfahrten Mekong Kreuzfahrten Yangtse Kreuzfahrten AIDA Cruises AIDA Kreuzfahrten Air-Maritime Kreuzfahrten Airtours Kreuzfahrten Carnival Kreuzfahrten * 78 * 44 * 37 * 99 54 * * 67 90 70 15 * * 39 85 49 58 61 77 78 * * * 32 87 * 89 39 80 79 * * * 69 * * 38 44 60 * 40 47 80 28 65 41 79 34 37 * * 57 89 * 14 1 5 4 3 1 5 1 3 1 1 2 2 wnni 5 16 1 2 1 1 1 5 4 15 11 6 1 1 1 1 1 12 17 9 8 1 1 7 2 6 1 1 1 8 3 11 1 1 5 2 9 1 1 1 13 1 1 1 * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * 17 67 39 18 56 9 * * 33 12 23 11 46 34 77 82 57 * 44 * 77 14 93 45 66 88 17 19 * 77 * 54 67 39 18 56 9 * * 33 12 23 11 46 34 77 82 57 * 44 * 77 82 57 36 44 * 77 * 63 * 96 * * * * * * * 77 81 * 31 90 * 66 * * 23 * 57 89 * * * 35 98 * * 55 70 35 * * * * * * 77 41 14 * 89 90 34 51 21 72 45 70 95 * * 34 17 * * 55 37 40 90 34 * * * * * 44 43 92 25 77 87 44 72 49 20 60 41 16 * * 21 24 12 56 18 12 * 30 24 78 34 33 * 55 60 31 12 19 42 87 26 44 17 60 17 19 31 * 62 20 9 * 88 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 Celebrity Kreuzfahrten Clipper Kreuzfahrten Color Line Kreuzfahrten Costa Kreuzfahrten Crystal Kreuzfahrten Cunard Kreuzfahrten Deilmann Kreuzfahrten Delphin Kreuzfahrten Du Ponant Kreuzfahrten e-hoi Kreuzfahrten Hansa Kreuzfahrten Hapag-Lloyd Kreuzfahrten Hebridean Kreuzfahrten Holland America Line Kreuzfahrten Hurtigruten Kreuzfahrten Inmaris Kreuzfahrten Louis Cruise Lines Kreuzfahrten MSC Kreuzfahrtenen Kreuzfahrten Norden Tours Kreuzfahrten Norwegian CruiseLine Kreuzfahrten Oceania Cruises Kreuzfahrten Oceanwide Kreuzfahrten Orient Lines Kreuzfahrten Phoenix Kreuzfahrten Plantours Kreuzfahrten Princess Kreuzfahrten Pullmantur Kreuzfahrten Quark Kreuzfahrten Radisson Kreuzfahrten Royal Caribbean Kreuzfahrten Sea Cloud Kreuzfahrten Sea Days Kreuzfahrten Sea Travel Kreuzfahrten Seabourn Kreuzfahrten SeaDream Kreuzfahrten Silversea Kreuzfahrten Star Clippers Kreuzfahrten Swan Hellenic Kreuzfahrten Transocean Kreuzfahrten TUI Kreuzfahrten Vista Travel Kreuzfahrten VivaMare Kreuzfahrten Windstar Kreuzfahrten Air-Maritime Kreuzfahrten Airtours Kreuzfahrten Arkona Kreuzfahrten A-ROSA Kreuzfahrten Deilmann Kreuzfahrten Delta Queen Kreuzfahrten Hansa Kreuzfahrten Lüftner Cruises Kreuzfahrten Nicko Tours Kreuzfahrten Norden Tours Kreuzfahrten Orient Express Kreuzfahrten Phoenix Kreuzfahrten Plantours Kreuzfahrten Sea Cloud Kreuzfahrten * * * * 99 * 76 * 85 1 * 62 75 73 * 40 90 * * 48 98 27 87 * 77 * 69 * * * * * * 60 85 * * 48 * * * * * 79 * * * 76 * * 60 * * 94 * 82 * 1 8 2 1 12 9 2 8 9 10 7 8 27 27 15 15 33 3 8 1 1 18 7 1 1 18 11 3 1 3 1 2 2 2 1 32 32 1 1 1 7 7 4 1 4 7 5 1 1 1 17 27 1 53 53 1 * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * 14 93 45 78 88 45 12 * 77 * 16 67 39 18 56 9 * 39 18 56 9 * * 33 12 23 11 46 34 77 82 57 * 44 * 77 14 93 45 66 88 45 19 * 77 * 54 67 39 18 56 9 * * 33 12 23 * * * * * * 60 * 61 15 * * 78 20 * * 62 * 90 71 37 89 34 * 79 * 89 67 * * * 99 * * 78 91 * 77 * * 30 45 * * 91 * * 89 * * 71 96 38 * 19 58 45 55 37 40 91 34 * 27 * 16 17 31 43 42 15 77 17 44 72 49 20 18 41 15 18 12 16 8 67 * 21 31 27 24 27 16 44 * 23 44 12 26 18 12 * 66 24 78 34 33 * 55 89 23 44 17 42 21 89 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 Transocean Kreuzfahrten Viking Kreuzfahrten Vista Travel Kreuzfahrten Adventure of the Seas Kreuzfahrten AIDAaura Kreuzfahrten AIDAblu Kreuzfahrten AIDAcara Kreuzfahrten AIDAvita Kreuzfahrten Akademik Shokalskiy Kreuzfahrten Albatros Kreuzfahrten Alexander von Humbold Kreuzfahrten Amadea Kreuzfahrten Amsterdam Kreuzfahrten Andrea Kreuzfahrten Arielle Kreuzfahrten Arion Kreuzfahrten Astor Kreuzfahrten Astoria Kreuzfahrten Black Prince Kreuzfahrten Black Watch Kreuzfahrten Boudicca Kreuzfahrten Braemar Kreuzfahrten Bremen Kreuzfahrten Brilliance of the Seas Kreuzfahrten Caribbean Princess Kreuzfahrten Carnival Conquest Kreuzfahrten Carnival Destiny Kreuzfahrten Carnival Glory Kreuzfahrten Carnival Legend Kreuzfahrten Carnival Liberty Kreuzfahrten Carnival Miracle Kreuzfahrten Carnival Pride Kreuzfahrten Carnival Spirit Kreuzfahrten Carnival Triumph Kreuzfahrten Carnival Valor Kreuzfahrten Carnival Victory Kreuzfahrten Celebration Kreuzfahrten Century Kreuzfahrten Clipper Adventurer Kreuzfahrten Clipper Odyssey Kreuzfahrten Club Med Kreuzfahrten Club Med 2 Kreuzfahrten Color Fantasy Kreuzfahrten Columbus Kreuzfahrten Constellation Kreuzfahrten Coral Kreuzfahrten Coral Princess Kreuzfahrten Costa Allegra Kreuzfahrten Costa Atlantica Kreuzfahrten Costa Classica Kreuzfahrten Costa Concordia Kreuzfahrten Costa Europa Kreuzfahrten Costa Fortuna Kreuzfahrten Costa Magica Kreuzfahrten Costa Marina Kreuzfahrten Costa Mediterranea Kreuzfahrten Costa Romantica Kreuzfahrten * * * 37 54 23 34 19 41 23 36 33 19 50 44 23 31 28 12 31 30 45 88 32 18 37 44 57 13 46 23 54 32 50 42 49 16 43 40 55 31 20 84 34 12 16 47 36 22 51 98 32 24 55 39 67 38 5 8 1 1 3 3 2 2 3 7 5 5 3 3 1 1 3 3 1 9 11 9 5 10 1 11 1 12 32 1 3 8 3 14 5 16 14 1 1 3 1 5 8 3 1 1 1 1 5 1 1 7 1 1 1 3 9 * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * 11 46 34 77 82 57 * 44 * 77 82 57 * 44 * 77 14 93 45 66 88 45 19 * 77 * 54 67 39 18 56 * 33 12 23 11 46 34 77 82 57 * 44 * 77 82 57 * 44 * 77 14 93 45 66 88 45 * * * 84 * 25 22 * 15 11 45 9 2 54 10 41 * * 23 25 30 52 * * 39 * 92 * 68 56 * 60 51 73 66 81 56 7 5 15 * * 43 * 5 * 50 84 * * * 63 * * * * * 90 92 * 49 * 19 21 * 12 12 9 9 2 37 8 34 34 * 16 16 11 31 44 43 16 25 77 87 44 13 49 20 30 41 16 44 29 6 5 12 56 18 12 * 5 24 28 34 33 * 55 60 31 12 19 42 87 90 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 Costa Victoria Kreuzfahrten Crown Princess Kreuzfahrten Crystal Serenity Kreuzfahrten Crystal Symphony Kreuzfahrten Dawn Princess Kreuzfahrten Delphin Kreuzfahrten Delphin Renaissance Kreuzfahrten Deutschland Kreuzfahrten Diamond Princess Kreuzfahrten Eclipse Kreuzfahrten Ecstasy Kreuzfahrten Elation Kreuzfahrten Empress of the Seas Kreuzfahrten Europa Kreuzfahrten Fantasy Kreuzfahrten Fascination Kreuzfahrten Finnmarken Kreuzfahrten Freedom of the Seas Kreuzfahrten Funchal Kreuzfahrten Fyne Spirit Kreuzfahrten Galaxy Kreuzfahrten Golden Princess Kreuzfahrten Grand Princess Kreuzfahrten Grigoriy Mikheev Kreuzfahrten Hanseatic Kreuzfahrten Hebridean Princess Kreuzfahrten Hebridean Spirit Kreuzfahrten Holiday Kreuzfahrten Holiday Dream Kreuzfahrten Imagination Kreuzfahrten Infinity Kreuzfahrten Insignia Kreuzfahrten Inspiration Kreuzfahrten Island Princess Kreuzfahrten Jewel of the Seas Kreuzfahrten Kapitan Dranitsyn Kreuzfahrten Kapitan Khlebnikov Kreuzfahrten Khersones Kreuzfahrten Kong Harald Kreuzfahrten Le Diamant Kreuzfahrten Le Levant Kreuzfahrten Le Ponant Kreuzfahrten Legend of the Seas Kreuzfahrten Lofoten Kreuzfahrten Lyngen Kreuzfahrten Maasdam Kreuzfahrten Majesty of the Seas Kreuzfahrten Marco Polo Kreuzfahrten Mare Australis Kreuzfahrten Mariner of the Seas Kreuzfahrten Maxim Gorki Kreuzfahrten Mercury Kreuzfahrten Midnatsol Kreuzfahrten Millennium Kreuzfahrten Monarch of the Seas Kreuzfahrten MSC Armonia Kreuzfahrten MSC Lirica Kreuzfahrten 44 73 20 38 60 31 27 97 11 16 60 33 21 29 55 30 17 47 33 35 13 22 55 16 34 20 41 32 55 12 61 42 33 12 44 47 52 30 30 17 12 31 20 50 29 44 19 41 23 36 33 19 50 44 23 31 28 3 3 11 3 1 1 15 9 11 3 1 9 13 3 11 13 7 17 7 5 5 9 1 3 3 5 19 1 2 5 10 1 1 1 1 1 3 1 17 3 1 9 3 13 1 1 9 5 3 1 1 1 15 1 1 22 3 * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * 19 * 77 * 54 67 39 18 56 9 * 39 18 56 9 * * 33 12 23 11 46 34 77 82 57 * 44 * 77 14 93 45 66 88 45 19 * 77 * 54 67 39 18 56 9 * * 33 12 23 11 46 34 14 82 57 99 50 61 67 59 * 70 * 46 28 47 89 50 64 * 100 71 * * 12 * 49 65 16 * * 23 * 49 * * 39 * * 66 46 49 * 58 * 80 60 79 * 32 85 59 * 37 61 * * * * 72 * 77 26 44 17 60 17 19 31 * 27 20 9 * 25 37 40 90 34 * 44 7 16 17 44 13 42 15 17 19 44 72 49 20 18 41 55 37 40 90 34 * 44 20 16 17 13 43 42 39 29 17 44 72 49 20 16 41 15 91 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 MSC Melody Kreuzfahrten MSC Monterey Kreuzfahrten MSC Musica Kreuzfahrten MSC Opera Kreuzfahrten MSC Rhapsody Kreuzfahrten MSC Sinfonia Kreuzfahrten Narvik Kreuzfahrten Nautica Kreuzfahrten Navigator of the Seas Kreuzfahrten Noordam Kreuzfahrten Nordkapp Kreuzfahrten Nordlys Kreuzfahrten Nordnorge Kreuzfahrten Nordstjernen Kreuzfahrten Norwegian Crown Kreuzfahrten Norwegian Dawn Kreuzfahrten Norwegian Dream Kreuzfahrten Norwegian Jewel Kreuzfahrten Norwegian Majesty Kreuzfahrten Norwegian Spirit Kreuzfahrten Norwegian Star Kreuzfahrten Norwegian Sun Kreuzfahrten Norwegian Wind Kreuzfahrten Oceanic Princess Kreuzfahrten Orion Kreuzfahrten Pacific Explorer Kreuzfahrten Pacific Princess Kreuzfahrten Pacific Sky Kreuzfahrten Paloma Kreuzfahrten Paradise Kreuzfahrten Paul Gauguin Kreuzfahrten Perla Kreuzfahrten Polar Star Kreuzfahrten Polarlys Kreuzfahrten Pride of Aloha Kreuzfahrten Pride of America Kreuzfahrten Pride of Hawaii Kreuzfahrten Princess Danae Kreuzfahrten Prinsendam Kreuzfahrten Professor Molchanov Kreuzfahrten Queen Elizabeth 2 Kreuzfahrten Queen Elizabeth Kreuzfahrten Queen Mary 2 Kreuzfahrten Queen Mary Kreuzfahrten Reef Endeavour Kreuzfahrten Regal Princess Kreuzfahrten Regatta Kreuzfahrten Richard With Kreuzfahrten Rotterdam Kreuzfahrten Royal Clipper Kreuzfahrten Royal Star Kreuzfahrten Ryndam Kreuzfahrten Sapphire Kreuzfahrten Sapphire Princess Kreuzfahrten Sea Cloud Kreuzfahrten Sea Cloud 2 Kreuzfahrten Sea Princess Kreuzfahrten 12 31 30 45 88 32 18 37 44 57 13 46 23 54 32 50 42 49 16 43 40 55 31 20 84 34 12 16 47 36 22 51 98 32 24 55 39 67 38 44 73 20 38 60 31 27 97 11 16 60 33 21 54 19 41 23 36 7 3 1 1 1 3 1 1 3 9 1 3 1 1 3 1 1 5 1 11 1 1 17 1 7 9 1 21 13 4 7 38 17 9 5 13 5 1 1 3 2 1 3 5 1 3 1 1 1 1 1 3 1 1 1 7 1 * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * 44 * 77 82 57 * 44 * 77 14 23 11 46 34 77 82 57 * 44 * 77 14 93 45 66 21 45 19 * 77 * 54 67 39 18 56 9 * 56 * * * * 46 34 77 82 57 * 44 * 77 82 57 * 44 * * * 87 37 21 89 45 * 82 88 80 * 95 98 * * 87 98 * * * 91 6 * 39 * 38 * * * * * * * 74 62 35 90 27 * * 59 67 26 36 48 79 4 55 71 90 50 43 64 50 * 18 12 16 8 30 * 21 31 27 24 27 16 44 14 23 44 12 26 18 12 * 66 24 4 34 33 25 15 89 23 44 17 42 21 90 32 13 19 41 19 21 * 22 24 9 9 2 37 4 34 34 46 16 13 11 31 44 92 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 Seabourn Legend Kreuzfahrten Seabourn Pride Kreuzfahrten Seabourn Spirit Kreuzfahrten SeaDream Kreuzfahrten Sensation Kreuzfahrten Seven Seas Mariner Kreuzfahrten Seven Seas Navigator Kreuzfahrten Seven Seas Voyager Kreuzfahrten Silver Cloud Kreuzfahrten Silver Shadow Kreuzfahrten Silver Whisper Kreuzfahrten Silver Wind Kreuzfahrten Spirit of Endeavour Kreuzfahrten Spirit of Oceanus Kreuzfahrten Splendour of the Seas Kreuzfahrten Star Clipper Kreuzfahrten Star Flyer Kreuzfahrten Star Princess Kreuzfahrten Statendam Kreuzfahrten Summit Kreuzfahrten Sun Princess Kreuzfahrten SuperStar Virgo Kreuzfahrten Trollfjord Kreuzfahrten True North Kreuzfahrten Veendam Kreuzfahrten Vision of the Seas Kreuzfahrten Vistamar Kreuzfahrten Volendam Kreuzfahrten Voyager of the Seas Kreuzfahrten Westerdam Kreuzfahrten Wind Spirit Kreuzfahrten Wind Star Kreuzfahrten Wind Surf Kreuzfahrten Xpedition Kreuzfahrten Yamal Kreuzfahrten Zaandam Kreuzfahrten Zenith Kreuzfahrten Zuiderdam Kreuzfahrten Alexander Pirogov Kreuzfahrten Alexander Radishev Kreuzfahrten Amadeus Kreuzfahrten Amadeus Classic Kreuzfahrten Amadeus Princess Kreuzfahrten Amadeus Rhapsody Kreuzfahrten Amadeus Royal Kreuzfahrten American Queen Kreuzfahrten Anton Tschechov Kreuzfahrten A-ROSA BELLA Kreuzfahrten A-ROSA DONNA Kreuzfahrten A-ROSA LUNA Kreuzfahrten A-ROSA MIA Kreuzfahrten A-ROSA RIVA Kreuzfahrten A-ROSA STELLA Kreuzfahrten Belle de Cadix Kreuzfahrten Bellevue Kreuzfahrten Bolero Kreuzfahrten Botticelli Kreuzfahrten 33 19 50 44 23 31 28 12 31 30 45 88 32 18 37 44 57 13 46 23 54 32 50 42 49 16 43 40 55 31 20 84 34 12 16 47 36 22 51 98 32 24 55 39 67 38 44 73 19 41 23 36 33 19 50 44 23 3 1 1 1 1 5 4 3 1 1 1 5 1 4 5 3 1 5 3 1 5 6 3 1 3 1 3 1 3 1 3 1 1 3 13 1 3 3 1 1 1 1 1 3 1 5 3 1 1 1 5 3 3 1 1 1 1 * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * 77 14 93 45 66 88 45 19 * 77 * 54 67 39 18 56 9 * 39 18 56 9 * * 33 12 23 11 46 34 77 82 57 * 44 * 77 14 93 45 66 88 45 19 * 77 * 54 67 39 18 56 9 * * 33 * * * 43 75 26 41 * * 85 68 61 * 27 96 49 93 22 90 * 53 6 * * 84 77 * * 7 88 41 53 29 69 64 76 * 80 28 17 * 23 19 36 17 16 17 43 38 11 36 41 34 23 57 * 29 43 16 25 27 37 14 13 49 20 30 41 16 44 29 6 15 12 16 18 12 17 5 24 28 34 33 * 55 7 31 12 19 12 27 26 44 17 60 17 19 31 11 7 20 9 10 15 37 10 6 34 27 24 7 16 17 24 93 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 Calypso Kreuzfahrten Camargue Kreuzfahrten Casanova Kreuzfahrten Charaidew Kreuzfahrten Classic Lady Kreuzfahrten Claude Monet Kreuzfahrten Crown Jewel Kreuzfahrten Delta Queen Kreuzfahrten Deltastar Kreuzfahrten Demjan Bednij Kreuzfahrten Diana Kreuzfahrten Dnepr Kreuzfahrten Dnjepr Princess Kreuzfahrten Dnjepr Star Kreuzfahrten Donauprinzessin Kreuzfahrten Donaustar Kreuzfahrten Dorinha Kreuzfahrten Douce France Kreuzfahrten Dresden Kreuzfahrten Fedin Kreuzfahrten Fidelio Kreuzfahrten Flamenco Kreuzfahrten Fluvius Kreuzfahrten Frederic Chopin Kreuzfahrten Gloria Kreuzfahrten Griboedov Kreuzfahrten Heidelberg Kreuzfahrten Invicta Kreuzfahrten Jerofej Chabarow Kreuzfahrten Johann Strauss Kreuzfahrten Juri Andropov Kreuzfahrten Karamzin Kreuzfahrten Katharina von Bora Kreuzfahrten Lenin Kreuzfahrten Leonardo da Vinci Kreuzfahrten Leonid Krasin Kreuzfahrten Magellan Kreuzfahrten Maxima Kreuzfahrten Mecklenburg Kreuzfahrten Mississippi Queen Kreuzfahrten Mistral Kreuzfahrten Moldavia Kreuzfahrten Mona Lisa Kreuzfahrten Mozart Kreuzfahrten Nile Marquis Kreuzfahrten Nubian Sea Kreuzfahrten Polonaise Kreuzfahrten Princess Elaine Kreuzfahrten Princess Jeannie Kreuzfahrten Princess Sheena Kreuzfahrten Prinzessin Anabella Kreuzfahrten Puschkin Kreuzfahrten Rembrandt Kreuzfahrten Rhine Emerald Kreuzfahrten Rhine Princess Kreuzfahrten River Art Kreuzfahrten River Cloud Kreuzfahrten 31 28 12 31 30 45 88 32 18 37 44 57 13 46 23 54 32 50 42 49 16 43 40 55 31 20 84 34 12 16 47 36 22 51 98 32 24 55 39 67 38 44 73 20 38 60 31 27 97 11 16 60 33 21 29 55 30 1 1 1 5 1 3 4 5 6 1 1 8 3 2 1 1 1 5 1 5 5 3 1 1 1 1 1 5 5 13 1 3 2 3 1 1 1 5 5 1 5 1 1 1 7 3 1 1 1 5 1 1 1 1 1 7 1 * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * 12 23 11 46 * 77 14 93 45 66 88 45 19 * 77 * 54 67 39 18 56 9 * 39 18 56 9 * * 33 12 23 11 46 34 77 82 57 * 44 * 77 14 93 45 66 88 45 19 * 77 * 54 67 39 18 56 85 71 * 50 30 16 46 37 72 5 * * 9 8 * 5 * 12 * * 71 34 * 80 * 66 * * 15 99 45 34 80 * * * * * * 70 * * * * 64 34 87 71 90 89 51 * * 76 43 * * 13 42 15 17 19 14 12 39 20 3 41 20 8 9 55 5 40 11 34 * 44 20 16 17 13 43 42 15 9 17 44 22 49 20 18 41 15 18 12 16 8 30 * 21 31 27 24 27 16 44 14 23 44 12 26 18 12 94 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493 494 495 496 497 498 499 500 River Cloud 2 Kreuzfahrten River Kwai Kreuzfahrten Rossija Kreuzfahrten Royal Gloriana Kreuzfahrten Sailing Home Kreuzfahrten Saxonia Kreuzfahrten Simonow Kreuzfahrten Sofia Kreuzfahrten Splendid China Kreuzfahrten Swiss Coral Kreuzfahrten Swiss Crystal Kreuzfahrten Swiss Diamond Kreuzfahrten Taras Schevtschenko Kreuzfahrten Ukraina Kreuzfahrten Victoria Kreuzfahrten Victoria Queen Kreuzfahrten Victoria Rose Kreuzfahrten Victoria Star Kreuzfahrten Viking Burgundy Kreuzfahrten Viking Century Kreuzfahrten Viking Danube Kreuzfahrten Viking Deutschland Kreuzfahrten Viking Fontane Kreuzfahrten Viking Lavrinenkov Kreuzfahrten Viking Lomonosov Kreuzfahrten Viking Peterhof Kreuzfahrten Viking Primadonna Kreuzfahrten Viking Seine Kreuzfahrten Viking Star Kreuzfahrten Viktoria Kreuzfahrten Watutin Kreuzfahrten Wolga Kreuzfahrten Yangtse Paradies Kreuzfahrten Yangtse Victoria Kreuzfahrten Yangtze Angel Kreuzfahrten Yangtze Pearl Kreuzfahrten Yangzi Princess Kreuzfahrten Zosima Shashkov Kreuzfahrten Kreuzfahrten Angebote Billige Kreuzfahrten Günstige Kreuzfahrten Last minute Kreuzfahrten Lastminute Kreuzfahrten Specials Kreuzfahrten Hochsee Kreuzfahrten Fluss Kreuzfahrten Kreuzfahrten Top Angebote Infos Kreuzfahrten Schiffsreisen Schiffsreisen Angebote Seereisen Angebote Billige Seereisen Flussreisen Angebote Billige Flussreisen 17 47 33 35 13 22 55 16 34 20 41 32 55 12 61 42 33 12 44 47 52 30 30 17 12 31 20 50 29 52 44 89 13 23 15 11 17 39 * * * * * * * * * * * * * * * * 1 5 1 1 1 1 1 1 3 1 1 2 1 1 3 1 9 5 3 1 13 3 1 1 1 5 9 1 1 3 5 5 3 4 1 1 1 1 14 67 55 19 37 11 12 31 21 86 54 37 49 24 60 99 * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * 9 * * 33 12 23 11 46 27 96 56 77 32 87 56 * * * 89 * * 55 39 92 98 25 56 * 51 * 78 67 56 66 89 * * 53 18 56 44 34 89 9 78 * 17 * * * * * 48 * * 29 76 97 54 17 * * 76 45 87 * * * * 76 45 * 78 34 13 * 56 92 78 80 51 * 87 * 27 * 67 55 71 34 41 36 * * * * * * * * * * * * * * * * * 16 24 4 34 13 * 15 69 23 44 17 42 21 90 32 13 19 41 19 11 * 12 12 9 21 2 37 4 34 34 46 16 13 11 31 34 13 12 44 89 67 * 8 46 * 15 * * 87 90 * 67 * 95 Literaturverzeichnis Berman M.(2001): Deep Content - The Deep Web: Surfacing Hidden Value, http://brightplanet.com/pdf/deepwebwhitepaper.pdf. 21.Oktober 2006 Bondar S. (2006): Search Engine Indexing Limits: Where Do the Bots Stop? http://www.sitepoint.com/print/indexing-limits-where-bots-stop 01.November 2006 Brin S.& Page L.(1998): The Anatomy of a Large-Scale Hypertextual Web Search Engine. http://www-db.stanford.edu/~backrub/google.html. 02. Oktober 2006 Brown D. (2005): Search Engine Strategies Conference. San Jose, August 2005. Clay, B. (2006): Search Engine Relationship Chart. http://www.bruceclay.com/searchenginechart.pdf. 17.Oktober 2006. Culliss G. (2000): The Direct Hit Popularity Engine Technology. A White Paper. http://web.archive.org/web/20010619013748/www.directhit.com/about/produc ts/technology_whitepaper.html. 22.Oktober 2006 DoubleClick Inc. (2005): Touchpoints-Studie Die Rolle des Internet im modernen Kaufprozess. http://emea.doubleclick.com/uploadpdf/pdf/dc_touchpointsIII_0507_de.pdf. 08. August 2006. Ebay (2006): eBay Deutschland – Der weltweite Online-Marktplatz. http://www.ebay.de. 22. Oktober 2006. Enquiro & and Did-it.com (2005): EyeTracking Study by search marketing firms Enquiro and Did-it.com to the Organic and PPC search results for visibility and click through in Google. http://www.prweb.com/releases/2005/3/prweb213516.htm. 01.Oktober 2006. Erlhofer S. (2005a): Suchmaschinenoptimierung für Webentwickler. Bonn: Galileo Press. Erlhofer S. (2005b): Bei Google ganz vorne. Chip Professionell Web-Design professionell No 2, (2005, 2), S. 118-120. Garcia E. (2005): The Keyword Density of Non-Sense. http://www.e-marketingnews.co.uk/Mar05/garcia.html 11. November 2006. Glöggler M. (2003): Suchmaschinen im Internet. Berlin: Springer-Verlag. Google (2003): Google-Informationen für Webmaster. http://www.google.de/webmasters/spamreport.html. 17.Oktober 2006 Google (2006a): Google Corporate Information: Google Milestones. http://www.google.com/corporate/history.html. 21. Oktober 2006 Google (2006b): Google-Pressezentrum: Überblick über die Google-Technologie. http://www.google.de/press/overview_tech.html. 21.Oktober 2006 Google (2006c): Hilfe für Webmaster – Nimmt Google dynamische Seiten in den Index auf? http://www.google.de/support/webmasters/bin/answer.py?answer=34431. 20. Oktober 2006. 96 Google (2006d): Hilfe für Webmaster – Richtlinien für Webmaster http://www.google.de/support/webmasters/bin/answer.py?answer=35769&hl= de. 19. Oktober 2006. Google (2006f): Hilfe für Webmaster – Richtlinien für Webmaster http://www.google.de/support/webmasters/bin/answer.py?answer=35769&hl= de. 22. September 2006 Gyöngyi Z., Garcia-Molia H.( 2004): Web Spam Taxonomy, http://dbpubs.stanford.edu:8090/pub/2004-25, 07.11.2006 Jacobsen J. (2002): Website-Konzeption, Addison-Wesley Verlag, München. Heise(2006): Google verliert erstmals nach elf Monaten in den USA Marktanteile. http://www.heise.de/newsticker/meldung/77054 12. September 2006. Kaiser A.(1993): Computer-unterstütztes Indexieren in Intelligenten Information Retrieval Systemen - ein Relevanz-Feedback orientierter Ansatz zur Informationserschließung in unformatierten Datenbanken. Dissertation Wirtschaftsuniversität Wien, Wien. Kaiser T. (2004): Effizientes Suchmaschinen-Marketing. Göttingen: BusinessVillage. Kaiser T. (2006): Suchmaschinen-Marketing: Basiswissen. http://www.suchmaschinen-marketing.de/cms/Wissen/. 03.Oktober 2006. Karzauninkat S. (2004): Das Beziehungsgeflecht der Suchmaschinen. http://www.suchfibel.de/5technik/suchmaschinen_beziehungen.htm. 15.September 2006 Kleinberg J. (1999): Authoritative Sources in a Hyperlinked Environment. Journal of the ACM 46(5), 604-632 KeywordTool(2006): Google AdWords Keyword Tool, https://adwords.google.de/select/KeywordSandbox. 13.Oktober 2006. Lammenett E. (2006): Suchmaschinenoptimierung, In: Online-Marketing in der Praxis, Serie. Teil 6 vom 21. März 2006. Lehmann O., Lehmann, A.(2002). Top-Platzierungen in Suchmaschinen. München: Addison-Wesley. Lewandowski, D. (2005). Web Information Retrieval: Technologien Informationssuche im Internet. Frankfurt am Main: DGI. Machill M., Welp C. (2003): Wegweiser im Netz. Qualität und Nutzung von Suchmaschinen. Gütersloh: Verlag Bertelsmann Stiftung. Marx U. (2006): Online-Marketing, In: Handelsblatt vom 11. September 2006. Matthew S., Whalan J. (2004): Search Engine Strategies Conference, London 2004. Meinel C. & Sack H. (2004): WWW- Kommunikation, Internetworking, WebTechnologien. Berlin, Heidelberg, New York: Springer-Verlag. MetaGer (2006a): MetaGer-Web-Assoziator, http://www.metager.de/asso.html. 13. Oktober 2006. MSN (2006a): Hilfe für Seiteneigentümer- Richtlinien für eine erfolgreiche Indizierung, http://search.msn.de/docs/siteowner.aspx?t=SEARCH_WEBMASTER_REF_ GuidelinesforOptimizingSite.htm&FORM=WGDD 22. September 2006 Nohr H. (2003): Grundlagen der automatischen Indexierung. Ein Lehrbuch. Berlin:Logos 97 Overture (2006): Yahoo! Search Marketing Studie-Die Internetsuche – eine entscheidende Komponente bei der Reiseplanung und -buchung Page L. (1998). Method for node ranking in a linked database. http://patft.uspto.gov/netacgi/nph-Parser?patentnumber=6,285,999. 25.Oktober 2006 Page L., Brin S., Motwani R., Winograd T. (1998). The PageRank Citation Ranking: Bringing Order to the Web. http://dbpubs.stanford.edu:8090/pub/1999-66 19.November.2006 Pekuysal E. Mehmet (1992): Methoden der Informationserschließung bei Information Retrieval Systemen., Wien. Rabe L. (2006): Gewinnung qualifizierter Besucher, In: Handelsblatt vom 11. September 2006. Rankingcheck (2006): Keyword-Datenbank, http://www.ranking-check.de/keyworddatenbank.php 03.November.2006 Salton G., McGill G.( 1987): Information retrieval - Grundlegendes für Informationswissenschaftler. McGraw-Hill Verlag, Hamburg. Sander-Beuermann W. (1998): Schatzsucher: Die Internet-Suchmaschinen der Zukunft, c't 13/98, S. 178: Suchen im Web Seekport(2006): Die wichtigen Bestandteile einer Internetseite http://seekport.de/help/webmaster_tips.html 22. September 2006 Sherman C., Price G. (2001). The invisible web: uncovering information sources search engines can’t see. Medford: Information Today. Sobek M. (2002). Überblick über das PageRank-Verfahren der Suchmaschine Google. http://pr.efactory.de/d-index.shtml. 01.November 2006 Stock W.G.(2000): Informationswirtschaft: Management externen Wissens. Oldenbourg Wissenschaftsverlag GmbH, München, Wien. SuggestionTool (2006): Overture Search Term Suggestion Tool, http://inventory.de.overture.com/d/searchinventory/suggestion/?mkt=de&lang =de_DE. 13. Oktober 2006. Tabke, Brett (2003). In 26 Schritten zu 15 Kilo täglich. In: Google Hacks. Köln: O’Reilly. Webhits (2006). Nutzung von Suchmaschinen. http://www.webhits.de/deutsch/index.shtml?webstats.html. 06 September 2006. 98 Abschließende Erklärung Ich versichere hiermit, daß ich die vorliegende Diplomarbeit selbständig, ohne unzulässige Hilfe Dritter und ohne Benutzung anderer als der angegebenen Hilfsmittel angefertigt habe. Die aus fremden Quellen direkt oder indirekt übernommenen Gedanken sind als solche kenntlich gemacht. Magdeburg, den 13. März 2007