- Internetkonzepte

Transcription

- Internetkonzepte
Tutorial
zur
Suchmaschinenoptimierung
Version 1 - 14.02.2006
Copyright - Johannes Siemers – internetmarketing-news.de
1.Inhaltsverzeichnis
1.
2.
Inhaltsverzeichnis............................................................................................................... 2
Einleitung ........................................................................................................................... 4
2.1.
Internet ....................................................................................................................... 4
2.1.1.
Begriffserklärung ............................................................................................... 4
2.1.2.
Entwicklung und Ausblick ................................................................................. 5
3. Suchmaschinen................................................................................................................... 7
3.1.
Begriffserklärung ....................................................................................................... 7
3.2.
Technik....................................................................................................................... 7
3.3.
Entwicklung und Ausblick ......................................................................................... 8
3.4.
Google ........................................................................................................................ 9
3.5.
Yahoo ....................................................................................................................... 10
3.6.
MSN / Windows Live .............................................................................................. 10
4. Webverzeichnisse............................................................................................................. 11
4.1.
Begriffserklärung ..................................................................................................... 11
4.2.
Entwicklung und Ausblick ....................................................................................... 11
4.3.
Wichtige Webverzeichnisse ..................................................................................... 11
5. Onpage-Optimierung........................................................................................................ 12
5.1.
Domainname ............................................................................................................ 12
5.1.1.
Standarddomain................................................................................................ 14
5.2.
Webhosting............................................................................................................... 14
5.3.
Programmierung....................................................................................................... 15
5.3.1.
Programmiersprachen....................................................................................... 15
5.3.2.
Web-/HTML-Editoren ..................................................................................... 16
5.4.
Seitenaufbau ............................................................................................................. 17
5.4.1.
URL Aufbau..................................................................................................... 17
5.4.2.
Seitenaufbau / Menü......................................................................................... 17
5.4.3.
Sitemap............................................................................................................. 18
5.4.4.
Interne Verlinkung ........................................................................................... 19
5.4.5.
Content ............................................................................................................. 20
5.4.6.
Content - Aktualität.......................................................................................... 22
5.4.7.
Meta Tags......................................................................................................... 22
5.5.
Indexierbarkeit ......................................................................................................... 25
5.6.
Domainalter.............................................................................................................. 26
5.7.
Ausgehende Links .................................................................................................... 26
5.8.
Weitere interne Rankingfaktoren ............................................................................. 26
5.8.1.
Individueller Content........................................................................................ 26
5.8.2.
Seitenanzahl/-größe.......................................................................................... 27
5.8.3.
Synonyme......................................................................................................... 27
5.8.4.
Wortstamm ....................................................................................................... 27
6. Offpage-Optimierung ....................................................................................................... 28
6.1.
Externe Links ........................................................................................................... 28
6.1.1.
Linkbewertung ................................................................................................. 28
6.1.2.
PageRank.......................................................................................................... 28
6.1.3.
Linktext ............................................................................................................ 28
6.1.4.
Linkposition ..................................................................................................... 29
6.1.5.
Linkalter ........................................................................................................... 29
6.1.6.
Anzahl der Links .............................................................................................. 29
6.1.7.
Autorität der Links ........................................................................................... 30
6.1.8.
Themenrelevanz ............................................................................................... 30
6.1.9.
Linkaufbau ....................................................................................................... 30
6.2.
Links aus Webkatalogen/-verzeichnissen ................................................................ 32
6.3.
Links aus Artikelverzeichnissen............................................................................... 32
6.4.
Links aus Weblogs ................................................................................................... 33
6.5.
Social Bookmarking................................................................................................. 33
6.6.
Pressemitteilungen ................................................................................................... 34
6.7.
Linklisten.................................................................................................................. 34
6.8.
PR-Dienste ............................................................................................................... 35
6.9.
Linkkauf / Linkmiete................................................................................................ 35
6.10.
Linktausch ............................................................................................................ 37
6.11.
Weitere externe Rankingfaktoren......................................................................... 38
6.11.1. Alexa Rank....................................................................................................... 38
6.11.2. Besucherverhalten ............................................................................................ 38
6.11.3. Kontinuität........................................................................................................ 39
6.11.4. Seitenaufrufe .................................................................................................... 39
7. Google .............................................................................................................................. 41
7.1.
Indexierung............................................................................................................... 41
7.1.1.
Aufnahme in den Index .................................................................................... 41
7.1.2.
Verbannung aus dem Index.............................................................................. 41
7.2.
Reinclusion Request................................................................................................. 42
7.3.
Pagerank ................................................................................................................... 43
7.3.1.
Pagerank Algorithmus...................................................................................... 43
7.3.2.
Pagerank - Vor- und Nachteile......................................................................... 44
7.3.3.
Alternativen...................................................................................................... 45
7.4.
Google Updates ........................................................................................................ 46
7.4.1.
PR Update ........................................................................................................ 46
7.4.2.
BL Update ........................................................................................................ 46
7.4.3.
Algorithmus Update ......................................................................................... 47
7.5.
Google Filter ............................................................................................................ 47
7.5.1.
Google Sandbox ............................................................................................... 47
7.5.2.
Supplemental Index.......................................................................................... 48
7.5.3.
Filter 31+ .......................................................................................................... 49
7.5.4.
Filter 950+ ........................................................................................................ 49
7.6.
Wichtige Links/Adressen ......................................................................................... 49
8. Häufige Fehler.................................................................................................................. 51
8.1.
Überoptimierung ...................................................................................................... 51
8.2.
Häufige FehlerFalsch gewählte Keywords .............................................................. 51
8.3.
Kein individueller Content ....................................................................................... 51
8.4.
Gleiche Meta-Tags ................................................................................................... 51
8.5.
Frameseiten .............................................................................................................. 52
8.6.
Flashseiten................................................................................................................ 52
8.7.
Duplicate Content..................................................................................................... 52
8.8.
Suchmaschinenmanipulation.................................................................................... 53
8.9.
Mangelnde Kontinuität............................................................................................. 53
8.10.
Ungeduld .............................................................................................................. 53
9. Links / Tools..................................................................................................................... 54
9.1.
SEO-Tools und interessante Links zum Thema Suchmaschinenoptimierung ......... 54
10.
Schlusswort .................................................................................................................. 57
2.Einleitung
‚Eine Webseite ist für den Besucher, also für Menschen, und nicht für Suchmaschinen
gemacht.´ Dieses Zitat soll die Grundlage der Webseite seo-united.de sein.
Das Wort ‚SEO´ oder Suchmaschinenoptimierung ist zwar im Moment ‚in aller Munde´, es
sollte dabei jedoch nie vergessen werden, dass eine Webseite dazu dient, den Besucher zu
informieren, und nicht die Suchmaschinen ‚zu füttern´. Beides schließt einander jedoch nicht
aus. Wer seine Webseite möglichst vielen Menschen präsentieren möchte, muss die Seite
letztendlich auch den Suchmaschinen ‚schmackhaft´ machen. Die Zahl der Webseiten im
Internet ist mittlerweile so unüberschaubar groß geworden, dass wir bei der Suche nach
Informationen auf die Unterstützung von Maschinen angewiesen sind. Etwa 80-90% der
Internetnutzer bedienen sich der Hilfe von Suchmaschinen. Jede Suche nach einem
bestimmtem Begriff oder einer bestimmten Phrase liefert oft Millionen Ergebnisse.
Fakt ist jedoch, dass zumeist nur die ersten drei Seiten der Ergebnislisten beachtet werden.
Ein Großteil der Suchenden schaut sich sogar nur die ersten Treffer, maximal die erste Seite
an. Wer mit seiner Seite weiter hinten gelistet wird, findet keine Beachtung. Die Reihenfolge
der Suchergebnisse ist kein Zufall. Die Suchmaschinen bewerten Webseiten nach bestimmten
Kriterien und listen die einzelnen Seiten dementsprechend untereinander auf.
Dieses Tutorial soll Ihnen dabei helfen, dass Ihre Webseite diese Kriterien erfüllt und ein
besseres Ranking erreicht. Es werden dabei die internen, d.h. seitenbezogenen, als auch die
externen Kriterien einer erfolgreichen Suchmaschinenoptimierung angesprochen. Die Seite
seo-united.de richtet sich sowohl an Anfänger, als auch an erfahrene SEOs, da sie nützliche
Hintergrundinformationen liefert und aktuelle Tipps enthält...
2.1.
Internet
2.1.1. Begriffserklärung
Das Internet, eine Abkürzung für Interconnected Networks, d.h. ‚zusammen geschaltete
Netze´, ist der weltweit größte Netzverbund. Er ermöglicht jedem Teilnehmer, auf ein nahezu
grenzenloses Archiv zurückzugreifen, und mit anderen Usern des Verbunds in Kontakt zu
treten und Daten auszutauschen.
Bei dem beschriebenen Verbund handelt es sich um ein dezentrales Netzwerk, welches aus
vielen kleinen zentralen Netzen besteht. Der Datenaustausch zwischen den einzelnen
Teilnehmern erfolgt mit Hilfe von Rechnern bzw. Servern. Zugang zum Internet kann über
die bekannten Modem-Techniken oder über einen spezialisierten Anbieter, einem Internet
Service Provider (ISP) erreicht werden.
Allgemein wird das Wort Internet oft mit dem World Wide Web bzw. ‚WWW´ gleichgesetzt.
Das World Wide Web ist im eigentlichen Sinne jedoch nur ein Element bzw. ein Service des
Internets. Es wurde erst 1989 entwickelt, um möglichst einfach Informationen auszutauschen.
Um einen schnellen Zugriff möglich zu machen, verknüpfte Tim Berners-Lee, ein einfacher
britischer Informatiker und ‚Begründer des World Wide Web´, einzelne Informationen
untereinander. Es entstand eine Art Netz bzw. Web, bestehend aus vielen unterschiedlichen
Informationen und Daten. Das World Wide Web ist nichts anderes, als ein über das Internet
abrufbarer Hypertextkomplex. Mit Hilfe eines Browsers kann man die einheitlich in HTML
codierten und mit Hilfe von Adressen (Urls) immer einer eindeutigen Quelle zuordenbaren
Elemente abrufen.
Untereinander verknüpft werden diese durch so genannte Hyperlinks, mit denen man auf
direktem Weg von einem Element zum anderen springen kann. Da, wie schon erwähnt, das
Internet im allgemeinen gleichbedeutend bzw. synonym mit dem World Wide Web verwendet
wird, ist auch in diesem Tutorial mit dem Wort Internet immer auch das World Wide Web
gemeint...
Die Größe des Internets bzw. des World Wide Webs lässt sich nur schwer genau bestimmen,
da nie alle Teilnehmer bzw. Rechner zur selben Zeit mit dem Netz verbunden sind.
Schätzungen gehen davon aus, dass bereits jetzt weit mehr als eine Milliarde Menschen das
Internet nutzen. Spätestens im Jahre 2015 werden es bereits zwei Milliarden Menschen sein.
Auch die Gesamtzahl der Webseiten lässt sich nur schätzen. Im Jahre 2006 waren es ca. 8-10
Milliarden, vermutlich jedoch weitaus mehr. Nimmt man an, dass jede einzelne Seite 100
Kilobyte groß ist, ergibt das eine Datenmenge von ca. 900 Terabyte.
Um diese Größe zu veranschaulichen, soll eine beschriebene DIN-A4-Schreibmaschinenseite
zum Vergleich herangezogen werden. Würde man 900 Terabyte Daten auf Papier bannen und
die einzelnen Seiten übereinander legen, wäre der Papierstapel 22500 Kilometer hoch. Andere
Schätzungen lassen ihn leicht auf die doppelte Höhe anwachsen...
2.1.2. Entwicklung und Ausblick
Entwicklung: Das Internet geht aus dem 1969 entwickelten ARPAnet hervor, einem Projekt
der Advanced Reasearch Project Agency (ARPA) des Verteidigungsministeriums der
Vereinigten Staaten. Offizielles Ziel des Projekts war die Vernetzung von verschiedenen
Forschungseinrichtungen, um die damals geringen Rechenkapazitäten optimal nutzen zu
können.
Inoffiziell sollte das ARPAnet aber auch dazu dienen, im Falle eines feindlichen Angriffs eine
intakte Kommunikationsinfrastruktur zu besitzen. Ende der 70er Jahre begann das Wachstum,
und damit verbunden auch die internationale Ausbreitung des Netzwerkes. In dieser Zeit, die
man auch als ‚die wilde Phase´ der Entwicklung bezeichnet, entstand das, was wir heute mit
dem Internet verbinden: Ein unerschöpfliches Archiv und die größte Community der Welt.
1990 begann mit der ‚offiziellen´ Abschaltung des ARPAnets die kommerzielle Phase des
Internets. Es entstanden zahlreiche Dienste, wie z.B. die elektronische Post in Form von EMails. Der wahrscheinlich wichtigste Dienst, welcher dem Internet zum endgültigen
Durchbruch verhalf, ist das World Wide Web (WWW), welches jedem Benutzer durch eine
einfache Oberfläche die Möglichkeit bietet, gezielt nach Informationen zu suchen.
Schnell waren mehr als 100 Länder an das Internet angeschlossen. Anfang 1993 waren es
schon über 1,5 Millionen Rechner und mehr als 10.000 einzelne Netzwerke. Zum jetzigen
Zeitpunkt sind es bereits über eine Milliarde Rechner. Durch eine immer besser und schneller
werdende Technik lässt sich über die zukünftige Entwicklung des Internets nur spekulieren...
Ausblick: Bereits Nietzsche hat 1880 in einem seiner Fragmente eine Welt beschrieben, ‚in
der es zahllose Mittel gegen die Langeweile gibt. Zu jeder Zeit wird man Vorleser hören
können und dergleichen. Es wird Feste geben, in welchen viele einzelne Erfindungen zum
Gesamtwerk des Festes vereinigt sind, denn die, welche ein Fest feiern, müssen am Feste mit
erfunden haben...´
Nietzsche definierte unbewusst schon damals die Grundphilosophie bzw. -idee des erst 100
Jahre später entstandenen Internets und postulierte die damit verbundenen Möglichkeiten.
Jeder einzelne kann sein Wissen und seine Ansichten der breiten Öffentlichkeit kundtun und
somit aktiv das ‚Fest´ mitgestalten. Das Internet ist ein Pool vieler einzelner Elemente, die
jedes für sich ein kleines ‚Fest´ darstellen. Die Angst einer Diktatur des Internets ist
unbegründet, da es keinen eigentlichen Diktator gibt. Dennoch wird man tagtäglich dazu
angehalten, dem großen Pool beizutreten. Durch eine immer schneller fortschreitende
Entwicklung werden ständig neue Dienste möglich. Im Jahr 2015 werden aus diesem Grund
bereits weltweit zwei Milliarden Menschen an das Internet angeschlossen sein. Die 3Milliarden- Marke allerdings wird voraussichtlich erst 2040 erreicht werden. Hier erkennt
man, dass die rasante Entwicklung nicht kontinuierlich fortschreitet. Sie wird wahrscheinlich
nie stagnieren, ihr sind aber dennoch ‚menschliche´ Grenzen gesetzt. Örtliche Grenzen
scheinen durch das Internet nahezu aufgehoben zu sein. Jeder kann mit jedem zu jeder Zeit in
Kontakt treten.
Das ist jedoch leider nur die Theorie. Fakt ist, dass z.B. die Stadt New York einen genauso
großen Teil des Verbundes ausmacht, wie ganz Afrika. Die Idee, eine grenzenlose und
gleichberechtigte Community zu schaffen, bewahrheitet sich bis jetzt nur in Ansätzen.
Während noch ein Großteil der Bevölkerung darauf wartet, zum ‚Fest´ eingeladen zu werden,
träumen andere schon von einem interplanetaren Netzwerk. Geht es nach Vint Cerf, dem
‚Gründer des Internets´, wird es schon bald für alle möglich sein, Informationen z.B. vom
Mars oder vom Mond zu erhalten.
Es sollte jedoch zunächst einmal darum gehen, die Grundphilosophie, welche hinter der
Erfindung des Internets steht, umzusetzen. Noch immer werden an einigen Stellen, z.B. in der
Volksrepublik China, Informationen kontrolliert und überwacht. Gerade in den letzten Jahren
ist eine Tendenz zu erkennen, den Informationsfluss kontrollieren bzw. zensieren zu wollen.
Ein wichtiger Gedanke scheint dabei immer mehr in Vergessenheit zu geraten. Nur wenn
wirklich jeder einzelne die Möglichkeit hat, seinen Teil zum gemeinsamen ‚Fest´ beizutragen,
könnte das Internet ein wichtiger Meilenstein in der Entwicklung der Menschheit sein.
Dem Begriff Web 2.0 kommt dabei eine entscheidende Bedeutung zu. Das Web 2.0
beschreibt eine erkennbare Tendenz, bei der Inhalte bzw. Informationen vom User selbst
generiert oder bearbeitet werden. Das Internet ist also nicht länger nur eine Zusammenstellung
von Inhalten einiger weniger, sondern ein ständig wachsendes und sich laufend veränderndes
‚Spiegelbild´ aller Beteiligten. Weblogs, File-Sharing-Portale oder auch Open- SourceCommunitys verfolgen diesen Ansatz und erfreuen sich immer größerer Beliebtheit.
Es lässt sich wirklich nicht sagen, wohin uns die Entwicklung des Internets und der damit
verbunden Techniken führen wird. Sicher ist nur, ‚dass die Geschichte gerade erst begonnen
hat.´ (Vint Cerf)
3.Suchmaschinen
3.1.
Begriffserklärung
Eine Suchmaschine ist eine Software bzw. ein Programm zur Recherche in Dokumenten oder
Dateien, welche in einem Computer oder in einem Computernetzwerk, wie z.B. dem World
Wide Web, gespeichert sind.
Nach der Eingabe eines oder mehrerer Suchbegriffe liefert die Suchmaschine eine nach
bestimmten Kriterien geordnete Liste mit Verweisen auf relevante Dokumente, welche am
ehesten mit dem Suchtext in Beziehung gebracht werden konnten. Da nicht bei jeder
Suchanfrage das gesamte World Wide Web durchsucht werden kann, wird ein Index angelegt
und entsprechend der Suchanfragen, der Veränderungen der Daten oder Dokumente, und der
Rankingkriterien ständig aktualisiert. Neben diesen, auf einem eigenen Index und
Algorithmus basierenden Suchmaschinen, gibt es auch so genannte Metasuchmaschinen,
welche die Daten bestehender Suchmaschinen durchsuchen und auflisten...
3.2.
Technik
Eine Suchmaschine besteht im Wesentlichen aus folgenden Einzelelementen: Ein Url-Server,
mehrere Crawler (Bots, Robots, Spider), dem Parser und dem Store Server.
Der Url-Server verwaltet die Internetadressen (Urls), welche noch nicht in den Index
aufgenommen wurden. Anmeldungen einzelner Webseiten bei Suchmaschinen werden also
zumeist an den Url- Server übermittelt. Dieser gibt die Daten an den oder die einzelnen
Crawler weiter.
Die Crawler wandeln nun jede einzelne Url in eine IP-Adresse um, damit sie mit den
jeweiligen Servern in Verbindung treten können. Um die Dauer der Übertragung zu
verkürzen, und die Server nicht zu überlasten, öffnet ein Crawler oftmals mehrere hundert
Verbindungen gleichzeitig. Treten bei einer Verbindung Probleme auf, kann er schnell und
ohne großen Zeitverlust auf die nächste Verbindung zugreifen. Durch dieses
Rotationsverfahren kann nur ein Robot bis zu 30 Seiten pro Sekunde erfassen. Nach
erfolgreicher Übergabe liefert der Crawler die Daten der Webseiten dem Parser.
Der Parser erstellt nun von jeder einzelnen HTMLSeite eine vereinfachte Form und leitet
diese an den Store Server weiter. Ein Store Server hat die Aufgabe, die in den vereinfachten
Seiten enthaltenen Informationen zu extrahieren. Enthaltene Links werden an den Url- Server
übermittelt, der enthaltene Text bzw. die enthaltenen Begriffe werden, wenn sie noch nicht
bekannt sind, dem Index hinzugefügt.
Der Index besteht vereinfacht gesagt aus dem Lexicon, den Hit Lists und dem Repository.
Das Lexicon ist eine zumeist in Form einer Hashtabelle dargestellte Sammlung aller im Netz
gefundenen Begriffe. Nur jene Begriffe, welche im Lexicon enthalten sind, liefern auch
eigenständige Suchergebnisse. Jeder Begriff bzw. jedes Wort des Lexicons enthält einen
Vermerk auf die entsprechende Hit List. Die Hit Lists enthalten zu jedem Wort Verweise auf
die entsprechenden Seiten im Repository. Im Repository werden die Webseiten gespeichert.
Gleichzeitig wird in den Hit Lists vermerkt, welche Bedeutung den einzelnen Seiten in Bezug
auf die einzelnen Begriffe bzw. Suchwörter zukommt.
Um mit einer Suchmaschine interagieren zu können, benutzt man das Frontend oder den
Searcher. Das Frontend ist nichts anderes, als die sichtbare Komponente einer Suchmaschine,
also die Benutzeroberfläche. Stellt der Benutzer eine Suchanfrage, zeigt der Searcher eine aus
dem Lexicon und den Hit Lists erstellte Ergebnisliste.
Jede Suchmaschine verwendet einen eigenen Algorithmus, also eine Methode, nach der die
Ergebnisse gelistet werden. Dieser Algorithmus ist das eigentliche Herzstück einer
Suchmaschine. Er besteht aus hunderten von Kriterien, welche darüber entscheiden, an
welcher Position eine Webseite bezüglich einer bestimmten Suchanfrage gelistet wird...
3.3.
Entwicklung und Ausblick
Entwicklung: Etwa Mitte der 90er Jahre entstanden die ersten Suchmaschinen. Das Internet
bzw. das World Wide Web hatte bereits zu diesem Zeitpunkt eine Größe erreicht, welche es
dem Benutzer fast unmöglich machte, die von ihm gesuchten Informationen auf Anhieb zu
finden.
Mit die ersten Suchmaschinen waren WebCrawler, Lycos und Alta Vista. Lange Zeit war die
Metasuchmaschine Alta Vista, zudem eine der ersten kommerziellen Suchmaschinen,
Marktführer auf ihrem Gebiet. Heute dagegen gibt es fast keine Metasuchmaschine, die sich
erfolgreich behaupten kann.
1998 entwickelten Larry Page und Sergey Brin, damals noch Studenten, eine eigene
Suchmaschine. Eine einfache, fast schlichte Benutzeroberfläche sowie eine vorher nie
gekannte Suchgeschwindigkeit waren die Grundlagen für den späteren Erfolg der
Suchmaschine Google. Darüber hinaus nutzte diese Algorithmen bzw. Rankingkriterien,
welche man vorher so nicht kannte. Eines dieser Kriterien ist der so genannte PageRank.
Schnell erkannten auch Yahoo und MSN, zwei weitere Suchdienste, dass sich die neue
Suchtechnik der Suchmaschine Google durchsetzen würde. Da Larry Page und Sergey Brin
sich aber sofort alle Techniken patentieren ließen, blieb ihnen nichts anderes übrig, als sich
bei Google einzukaufen. Heute, auch wenn Yahoo mittlerweile einen eigenen Algorithmus
entwickelt hat, ist die Suchmaschine Google absoluter Marktführer. Ihr Marktanteil beträgt,
nimmt man die Suchmaschinen hinzu, welche ebenfalls den Googleindex nutzen, über 90%.
Yahoo und MSN bzw. Windows Live folgen auf den Plätzen 2 und 3. Sie scheitern,
zumindest in Deutschland, jeweils deutlich an der 5% Hürde...
Ausblick: Ob Google sich auch zukünftig als Marktführer behaupten kann, lässt sich nicht
sagen. Dass Alta Vista heute kaum noch jemand kennt, hätte noch vor einigen Jahren keiner
für möglich gehalten. Genauso schnell könnte Google einer neu entwickelten Technologie
weichen müssen. Von einem Tag auf dem anderen wird dieses jedoch kaum geschehen.
Google versteht es, wie kaum ein anderes Unternehmen, sich selbst zu vermarkten. Das
Stichwort lautet ‚Branding´. Google ist längst keine bloße Suchmaschine mehr, sondern ein
Unternehmen, welches in nahezu alle Bereiche expandiert. Dazu zählen z.B. die speziellen
Suchdienste Froogle, Google Maps, Google News, das Diskussionsforum Google Groups, ein
E-Mail- Dienst (GMail) oder Communities wie blogger.com oder Orkut, eine Kontaktbörse.
Des Weiteren bietet Google kostenlose Software, wie Google Desktop oder das
Bildbearbeitungsprogramm Picasa an.
Der Hauptgedanke, welcher hinter diesen und vielen anderen neuen Entwicklungen steckt, ist
einfach. Der Name Google gewinnt mehr und mehr an Bedeutung. Es wird längst nicht mehr
gesucht, sondern nur noch ‚gegoogelt´.
Der Suchmaschine von Morgen werden wir per Spracheingabe eine Suchanfrage stellen
können. Ebenso wird sie, nachdem sie selbstständig alle relevanten Ergebnisse gefunden und
ausgewertet hat, mit einer eigenen Stimme antworten. Dieses kann jedoch noch Jahrzehnte
dauern. Es gibt zwar schon Versuche und auch erste Ergebnisse, aber die Sprache im Kontext
ist viel zu komplex, als das diese wirklich brauchbar wären. Hier werden die Probleme
deutlich, der sich die Entwickler einer zukünftige Suchmaschine stellen müssen.
Neben der Mehrdeutigkeit vieler Suchbegriffe oder der unterschiedlichen Grammatik, stellt
vor allen Dingen die schnell wachsende Datenmenge ein großes Problem dar. Zu einen
entstehen täglich Millionen neuer Webseiten, und zum anderen werden viele Webseiten
täglich aktualisiert. Experten gehen aus diesen Gründen davon aus, dass die Suchmaschine
der Zukunft auf spezialisierte Datenbanken zurückgreifen wird. Außerdem wird die
personalisierte und regional gesteuerte Suche (Personalized Search bzw. Geo-Targeting)
immer mehr an Bedeutung gewinnen. So lassen sich nicht nur wichtige Ressourcen sparen,
die Suche wird für den Benutzer auch einfacher und übersichtlicher, denn die Suchmaschine
wird zusammen mit ihm ‚lernen´...
3.4.
Google
Google ist, wie schon beschrieben wurde, eine Internetsuchmaschine, welche im Jahre 1998
von Larry Page und Sergey Brin entwickelt wurde. Der Ursprung des Wortes Google liegt in
dem 1938 von Milton Sirotta erfundenen Ausdruck ‚googol´, welcher für eine Eins mit
hundert Nullen steht. Die Gründer der Suchmaschine und der gleichnamigen Firma Google
Inc. wählten diesen Ausdruck in Anlehnung an die unvorstellbare Größe des Internets. 2005
nahm sogar der Duden das Verb ‚googeln´ in sein Wörterverzeichnis auf.
Mittlerweile gehört Google Inc. zu den weltweit einflussreichsten Firmen. Mit einem
Marktwert von mehr als 150 Milliarden US-Dollar gehören die beiden Gründer, spätestens
nach dem Börsengang im August 2004, zu den reichsten Männern der Welt. Sie beschäftigen
weit mehr als 10.000 Mitarbeiter. Das Unternehmen Google Inc. betreibt weltweit viele
Rechenzentren. Eine Suchanfrage wird, um die Suchgeschwindigkeit zu optimieren, immer an
das nächstgelegene Rechenzentrum geleitet. Nur so können Antwortzeiten von wenigen
Zehntelsekunden gewährleistet werden.
Die Listung der Suchergebnisse, also das Ranking, erfolgt nach einem speziellen
Algorithmus, welcher ständig erweitert und verifiziert wird. Eines der wichtigsten Kriterien,
nach dem die Ergebnisse sortiert werden, ist der PageRank. Der PageRank definiert die
‚Wertigkeit´ einer Webseite aufgrund der Zahl und der Qualität der eingehenden Links.
Dieser Wert wird in einer Skala von 1 bis 10 dargestellt. Andere mehr oder weniger wichtige
Kriterien sind z.B. der Content und die Aktualität einer Seite, der Domainname, der Title- und
Description-Tag, die Gliederung des Inhalts, ausgehende Links, Alt-Texte, die Listung bei
einigen wichtigen Webkatalogen (z.B. DMOZ), das Alter einer Seite und noch viele mehr.
Experten gehen davon aus, dass der Google- Algorithmus aus mehreren hundert einzelnen
Elementen besteht. Da Google mit über 90% Marktführer unter den Suchdiensten ist, müssen
viele dieser Kriterien bei einer Suchmaschinenoptimierung berücksichtigt werden. Aus
diesem Grund werden die meisten dieser Faktoren im Verlauf des Tutorials explizit erläutert...
3.5.
Yahoo
Das Unternehmen ‚Yahoo!´ wurde 1995 von David Filo und Jerry Yang gegründet. Was
anfangs nur eine einfache Linkliste zweier Studenten war, ist heute, mit über 350 Millionen
Nutzern, 7500 Mitarbeitern und einem Umsatz von mehreren Milliarden US-Dollar, eines der
größten Internetportale der Welt.
Neben vielen Diensten (E-Mail, Dating usw.) bietet Yahoo auf diesem Portal einen
Webkatalog und einen Suchservice, die ‚Yahoo Suche´. Während in den ersten Jahren der
redaktionell geführte Webkatalog eine größere Bedeutung hatte, liegt das heutige Augenmerk
hauptsächlich auf der Weiterentwicklung des Suchdienstes. Aus diesem Grund kaufte Yahoo
2003 Overture und Inktomi. Zusammen mit deren Technologie sollte ein neuer, eigener und
von Google unabhängiger Suchservice entstehen. Anfang 2004 beendete Yahoo die
Zusammenarbeit mit Google. Seither verwendet Yahoo eigene Algorithmen und Indizes.
Die Rankingfaktoren, nach denen die Suchergebnisse gelistet werden, sind jedoch den
Faktoren der Suchmaschine Google ähnlich. Linkpopularität und individueller Content stehen
auch hier an oberster Stelle. Yahoo hat mit seinem Suchdienst auf dem deutschen Markt einen
Anteil von 3-5%...
3.6.
MSN / Windows Live
MSN (The Microsoft Network) ist ein Internetportal, welches neben verschiedenen Diensten
ebenfalls einen Suchservice anbietet. Das Portal und auch die Suche wird zukünftig
‚Windows Live´ heißen. Microsoft wurde 1975 von Bill Gates und Paul Allen gegründet. Der
Name Microsoft bedeutet ursprünglich ‚Microcomputer Software´.
Haupteinnahmequelle des Unternehmens ist die Betriebssoftware ‚Windows´. Durch einen
jährlichen Umsatz von ca. 45 Milliarden US-Dollar konnte Bill Gates 2006 erneut seine erste
Position in der Liste der reichsten Menschen der Welt behaupten.
Der Suchdienst von Microsoft verzeichnet in Deutschland momentan lediglich einen
Marktanteil von 3-5%. In den vereinigten Staaten liegt er etwas höher, aber auch hier führt
Google den Markt an. Bei den Rankingfaktoren stehen hier, genau wie bei Google und
Yahoo, externe Faktoren, zusammen mit dem Inhalt einer Seite an erster Stelle. Die Linkbzw. Domainpopularität wird jedoch nicht so stark wie bei den anderen beiden
Suchmaschinen gewertet. Das Vorkommen des Suchwortes in der Domain, im Titel, in der
Description und im Text wird dagegen höher bewertet. Der momentan nur geringe
Marktanteil der MSN/Windows Live Suche könnte sich schon bald ändern, da der neu
entwickelte Suchdienst ‚Windows Live´ zum Teil in das neue Betriebsystem ‚Windows Vista´
integriert wurde...
4.Webverzeichnisse
4.1.
Begriffserklärung
Webverzeichnisse oder -kataloge sind im Internet veröffentlichte Sammlungen von
Webadressen, welche nach bestimmten Kriterien sortiert sind. Durch die redaktionelle
Kontrolle erreichen die in den Webverzeichnissen aufgeführten Verweise oft eine höhere
Qualität als die von Suchmaschinen erstellten Ergebnisse.
Der Qualität fällt jedoch die Quantität zum Opfer, da jede einzelne Webseite manuell geprüft
und eingepflegt werden muss. Man unterscheidet kommerzielle und nicht kommerzielle,
sowie hierarchische, d.h. in bestimmte Kategorien und Subkategorien gegliederte, und nicht
hierarchisch strukturierte Verzeichnisse. Außerdem gibt es Webkataloge mit bzw. ohne
Backlinkpflicht.
4.2.
Entwicklung und Ausblick
Entwicklung: Noch fast bis zum Ende des letzten Jahrtausends waren Webverzeichnisse
wichtiger Bestandteil des World Wide Webs. Durch die redaktionelle Pflege konnten
Benutzer gezielt nach für sie wichtigen Informationen suchen. Es dauerte jedoch oft sehr
lange, bis neue Webseiten in die Verzeichnisse aufgenommen wurden. Das Yahoo
Verzeichnis war lange Zeit der am meisten genutzte Webkatalog. 1998 wurde das Open
Directory Projekt (ODP) bzw. DMOZ (Directory at Mozilla) gegründet. Dieses ‚Open
Content Projekt´ war der Versuch, durch freiwillige internationale Editoren die Wartezeiten
bis zur Aufnahme in das Verzeichnis möglichst kurz zu halten. Heute ist DMOZ mit weit über
5 Millionen Einträgen einer der größten Webkataloge der Welt...
Ausblick: Die Bedeutung der Webverzeichnisse bzw. Webkataloge hat stark abgenommen.
Der größte Teil der Internetnutzer sucht Informationen bzw. Daten mit Hilfe von
Suchmaschinen. Das Yahoo Verzeichnis, der eigentliche Grundstein des Unternehmens, wird
seit längerer Zeit kaum noch gepflegt. Auch das ODP hatte zwischenzeitlich immer wieder
Schwierigkeiten, vor allen Dingen technischer Art.
An deren Stelle sind einige kommerzielle Verzeichnisse getreten, die eine Eintragung
ausschließlich gegen Bezahlung anbieten. Neben einigen neuen Besuchern liefern diese
Verzeichnisse häufig einige starke Backlinks, durch welche die eingetragenen Seiten in den
Ergebnissen der Suchmaschinen steigen. Eine wirklich spürbare Auswirkung auf das Ranking
einer Webseite haben das DMOZ und eventuell das Yahoo Verzeichnis. Ist eine Seite z.B. bei
DMOZ eingetragen, wird Sie als ‚vertrauenswürdig´ eingestuft und höher gelistet. Zukünftig
könnte die Bedeutung einiger Webkataloge wieder steigen, da viele neue Suchtechniken, wie
z.B. der Google Trustrank, manuell geprüfte Verzeichnisse als Ausgangspunkte für ihre
weiteren Bewertungen heranziehen.
4.3.
Wichtige Webverzeichnisse
Das Open Directory Projekt (ODP): Das auch unter dem Namen DMOZ (Directory of
Mozilla) bekannte Webverzeichnis wurde unter dem Namen ‚Gnuhoo´ gegründet. Später
wurde dieser aufgrund rechtlicher Probleme in ‚Newhoo´ geändert. 1998 wurde das
Verzeichnis von Netscape gekauft und als ‚Open Content Projekt´ unter dem heute bekannten
Namen veröffentlicht. Die offene Struktur, bei der sich jeder als Editor beteiligen kann, sorgte
dafür, dass das Verzeichnis schnell wuchs und an Bedeutung gewann. Durch die vielen
freiwilligen Mitarbeiter war die Wartezeit bis zur Aufnahme einer neuen Seite gegenüber
anderen Verzeichnissen relativ kurz. Auch die Qualität und Aktualität der Links war lange
Zeit unübertroffen. Eine Aufnahme in das Verzeichnis galt als besondere Auszeichnung für
eine Webseite. Die Suchmaschinen nutzten die Beschreibungen des ODP für ihre Ergebnisse
und listeten eingetragene Seiten höher als andere. Noch heute bezeichnet sich DMOZ mit
mehr als 5 Millionen Einträgen als das größte redaktionell geführte Webverzeichnis der Welt.
Sowohl die Aktualität als auch die Qualität der Links hat jedoch zwischenzeitlich, vor allen
Dingen aufgrund von technischen und organisatorischen Problemen, nachgelassen. Nach wie
vor ist ein Eintrag jedoch von hoher Bedeutung, da viele Suchmaschinen ihn sehr positiv
bewerten...
Das Yahoo Verzeichnis: Das Yahoo Verzeichnis entstand 1994 als Navigationshilfe für das
Internet und war der eigentliche Grundstein des heutigen Unternehmens. Im Augenblick ist
das Verzeichnis jedoch lediglich ein Bestandteil des gesamten Internetportals. Neue Einträge
werden wenn überhaupt nur noch gegen Bezahlung in US-Dollar vorgenommen. Einige
Experten befürchten, dass das Yahoo Verzeichnis schon bald aufgrund mangelnder Qualität
und Aktualität eingestellt werden könnte.
Web.de: Das Internetportal Web.de ist genau wie Yahoo als Webverzeichnis gestartet. 2005
wurde die Web.de AG an den United-Internet Konzern verkauft. Das Verzeichnis enthält ca.
400.000 zumeist deutschsprachige Seiten. Mittlerweile ist ein Eintrag in das Verzeichnis
ebenfalls nur noch gegen Bezahlung möglich.
allesklar.de: Dieser Katalog ist das größte Linkverzeichnis in Deutschland. Mehr als 600.000
Einträge sind zumeist mit Ortsbezug in verschiedene Kategorien eingeordnet. Das
Verzeichnis hat sich inzwischen zu einem Netzwerk ausgebaut. Durch einen Eintrag bei
allesklar.de wird man ebenfalls bei Lycos, Fireball, meinestadt.de, meinestadt.msn.de sowie
freenet.de, DINO-Online und T-Online eingetragen. Es ist möglich, eine Webseite für eine
begrenzte Zeit kostenlos einzutragen. Danach ist der Eintrag auch hier nur noch gegen Entgelt
möglich.
Darüber hinaus gibt es noch viele kleinere, regionale oder themenbezogene Webkataloge.
Obwohl der Besucherzustrom durch einen Eintrag in einen dieser Kataloge nicht merklich
steigt, erhält man oft qualitativ gute und starke Backlinks. Ein weiterer Vorteil dieser
Verzeichnisse ist die oft sehr kurze Bearbeitungszeit. Schon innerhalb einiger Tage werden
die meisten Einträge veröffentlicht. Unterscheiden muss man zwischen Katalogen mit bzw.
ohne Backlinkpflicht. Letztere veröffentlichen einen Eintrag nur, wenn man seinerseits einen
Gegenlink auf der eigenen Seite einfügt.
Generell sollte man abwägen, ob ein Eintrag in das jeweilige Verzeichnis wirklich sinnvoll
ist. Braucht man schnell und einfach einige Backlinks, z.B. bei einer neuen Webseite, können
Webkataloge bzw. Webverzeichnisse sehr hilfreich sein...
5.Onpage-Optimierung
5.1.
Domainname
Der Domainname setzt sich aus durch Punkten getrennten Namen zusammen. Der letzte Teil
dieses Namens, zum Beispiel .de oder .com, wird auch als Top Level Domain bzw. TLD
bezeichnet. Im Domain Name System werden die einzelnen Domains, also der gewählte
Name zusammen mit der TLD, einer IP-Adresse zugeordnet. Auf diese Weise kann jede
Domain einem eindeutigen Besitzer zugesprochen werden. Die Top Level Domains werden
im Wesentlichen in zwei Gruppen unterteilt. Es gibt allgemeine und länderspezifische
Endungen. Länderspezifische TLDs setzen sich immer aus zwei Buchstaben zusammen.
Beispiele sind .de, .at oder auch .eu. Allgemeine Domainendungen sind zum Beispiel .net
oder .info.
Da die Wahl eines Domainnamens sehr wichtig ist, sollten Sie sich genügend Zeit nehmen
und einige wichtige Punkte beachten. Ein klarer, verständlicher und mit dem Inhalt der
Webseite in engem Bezug stehender Name kann sehr zum Erfolg der Seite beitragen. Bei der
Wahl der Domainendung gelten folgende allgemeingültige Regeln: Beinhaltet die neue
Webseite geschäftliche Inhalte und sollen damit auch internationale Besucher angesprochen
werden, kann die Wahl der Endung .com oder .biz sinnvoll sein. Wenn Ihre Seite
überwiegend allgemeine Informationen enthält, die Endung .info. Die Domainendung .org
wird oft von Organisationen gewählt.
Am häufigsten wird hierzulande jedoch die Endung .de bevorzugt. Obwohl alle
Suchmaschinen die TLDs gleichwertig behandeln, ist die Wahl einer geeigneten .de Domain
sinnvoll. Da diese Endung am meisten bekannt ist, strahlt sie dementsprechend Seriosität aus.
Sollten Sie dennoch keine geeignete .de Domain finden, weil z.B. Ihr Wunschname schon
vergeben ist, wählen Sie in jedem Fall besser eine andere Domainendung als einen anderen,
nicht Ihren Vorstellungen entsprechenden Domainnamen. Bei der Wahl dieses Namens gilt es
darauf zu achten, dass jeder sich den Begriff bzw. Text leicht merken und mit Ihrer Webseite
in Verbindung bringen kann. Die Länge des Namens darf 3 bis 24 Zeichen betragen. Er sollte
aber wenn möglich relativ kurz sein. Ein grober Richtwert ist eine Länge von 10-12 Zeichen.
Des Weiteren stellt sich die Frage, ob Sie wichtige Keywords, also Schlüsselwörter mit in den
Domainnamen aufnehmen möchten. Im Normalfall ist dieses aus zwei Gründen sehr ratsam.
Der Domainname spielt beim Ranking, entgegen der Meinung einiger Experten, durchaus
eine entscheidende Rolle. Der zweite Vorteil einer wichtige Keywords beinhaltenden Domain
ist die Tatsache, dass viele bei der Verlinkung einer Webseite einfach nur den Domainnamen
als Linktext verwenden. Beinhaltet dieser ein oder zwei wichtige Schlüsselwörter, wird Ihre
Webseite unter den entsprechenden Suchwörtern höher gelistet werden. Es ist daher sogar
sinnvoll, eventuell einen Bindestrich in der Domain zu verwenden, da die dadurch getrennten
Wörter in der Regel als zwei unterschiedliche Keywords gewertet werden. Sie sollten sich
jedoch auf maximal zwei Wörter, also höchstens einen Bindestrich festlegen. Längere
Domains wirken schnell unseriös und werden unter Umständen auch von einzelnen
Suchmaschinen abgewertet.
Auch gibt es so genannte ‚Type-In Domains´. Dieses sind Domainnamen, welche so
aussagekräftig sind, dass sie von vielen Internetnutzern einfach direkt in den Browser
eingegeben werden. Obwohl der Nutzer die eigentliche Seite nicht kennt, ist er sicher, für ihn
relevante Informationen unter der entsprechenden Url zu finden. Ein Beispiel ist die Domain
auto.de. Sehr häufig wird einfach die Url www.auto.de in den Browser eingegeben. Da solche
Domainnamen jedoch sehr begehrt und dementsprechend teuer sind, soll an dieser Stelle nicht
weiter auf das Thema eingegangen werden.
Wichtig ist es, bei der Wahl eines Namens auf bestehende Marken- bzw. Urheberrechte zu
achten. Vergewissern Sie sich ganz genau, ob der Name oder Teile des Namens nicht das
Copyright anderer verletzen. In dem Kapitel ‚Links, Tools und Software´ gibt es hierzu einige
nützliche Verweise. Außerdem kann bei der Wahl des Domainnamens eine
Keywordrecherche sinnvoll sein. Näheres hierzu erfahren Sie im Kapitel ‚Keywords´...
5.1.1. Standarddomain
Wenn Sie sich für eine Domain entschieden haben, sollten Sie in jedem Fall eine so genannte
Standarddomain definieren, d.h. eine einzige Adresse, unter der Ihre Webseite gefunden bzw.
abgerufen werden kann. Legen Sie keine Standarddomain fest, ist es z.B. oft der Fall, dass
Ihre Seite sowohl mit dem Zusatz ‚www´ als auch ohne das Präfix abgerufen werden kann.
Suchmaschinen erkennen, wenn Webseiten unter mehreren Adressen zu finden sind. Sie
werten dieses als Duplicate Content, also ‚doppelten Inhalt´ und strafen es unter Umständen
kategorisch ab.
Einen Link zu weiterführenden Informationen zu der Frage, wie Sie eine Standarddomain
definieren können, finden Sie ebenfalls im Kapitel ‚Links, Tools und Software´...
5.2.
Webhosting
Webhosting bedeutet die Unterbringung (Hosting) einer Webseite auf einem Webserver. Der
Anbieter bzw. Provider stellt zumeist gegen Entgelt die dafür erforderlichen Mittel und
Ressourcen zur Verfügung.
Bei der Wahl eines geeigneten Providers sollten Sie einige Dinge beachten. Suchen Sie sich
einen Anbieter, der bekannt und schon längere Zeit auf dem Markt ist.
Des Weiteren sollten Sie darauf achten, dass der Provider die für Ihr Vorhaben notwenigen
technischen Voraussetzungen unterstützt. Dabei gilt es zunächst einmal zu klären, wie viel
Speicherplatz und Traffic, also zur Verfügung stehendes Datenvolumen, Sie für Ihre Webseite
benötigen und vor allem auch, in einiger Zeit eventuell benötigen werden.
Achten Sie deshalb immer darauf, dass sich Ihr gewähltes Angebot erweitern bzw. ‚upgraden´
lässt. Die Angebote reichen mittlerweile von einer ‚Webvisitenkarte´ mit einem Speicherplatz
von einigen MB bis hin zum eigenem Server. Ein Richtwert lässt sich hier kaum nennen. Für
eine normale, statische Webseite können 50 MB Speicherplatz und 1 GB Traffic im Monat
völlig ausreichend sein. Der Betreiber einer gut besuchten Community erreicht diese Werte
unter Umständen innerhalb weniger Stunden. Generell lässt sich sagen, dass man mit einem
etwas größeren Paket oft besser bedient ist.
Der Markt ist mittlerweile so hart umkämpft, dass der preisliche Unterschied zwischen den
einzelnen Angeboten oft nur noch sehr gering ist. Darüber hinaus sollte Ihr Provider PHP und
MySQL Unterstützung anbieten. PHP ist eine Programmiersprache, welche vor allen Dingen
zur Erstellung von dynamischen Webseiten Anwendung findet. MySQL ist ein System zur
Verwaltung von Datenbanken.
Daneben sind einige Apache-Module sehr wichtig. Ihr zukünftiger Webhoster sollte in jedem
Fall mod_rewrite unterstützen. Mit Hilfe dieser Funktion können Sie z.B. einfach und schnell
Adressen suchmaschinenfreundlich umleiten, eine Standarddomain definieren oder
dynamische, und damit oft sehr kompliziert strukturierte URLs umschreiben und vereinfacht
darstellen. Da diese Punkte für eine erfolgreiche Suchmaschinenoptimierung von Bedeutung
sind, gilt es darauf achten, dass Ihr Provider diese Services auch anbietet bzw. unterstützt.
Ferner sollte Ihnen die Möglichkeit angeboten werden, die Logfiles des Servers downloaden
zu können. Darin aufgezeichnete Daten, z.B. über welche Seite bzw. welchen Link der
Besucher Ihre Webseite gefunden und auf welcher Seite er diese wieder verlassen hat,
welches Suchwort und welche Suchmaschine genutzt wurde, oder wie lange er auf Ihrer
Webseite verblieben ist, dienen dazu, den Aufbau und die Struktur Ihrer Webseite dem
Besucherverhalten anzupassen und zu optimieren.
Einige Links, welche Ihnen bei der Serverwahl behilflich sein können, finden Sie unter
‚Links, Tools und Software´...
5.3.
Programmierung
5.3.1. Programmiersprachen
Eine Programmiersprache ist eine in einer bestimmten Form dargestellte Sprache, mit Hilfe
derer es möglich ist, Computersysteme direkte Anweisungen bzw. Befehle zu erteilen.
Da unsere natürliche Sprache zu allgemein und in vielen Bereichen nicht eindeutig ist,
benötigt man für die Kommunikation mit Computer- bzw. Rechnersystemen eine Sprache,
welche detaillierter ist, und den komplexen algorithmischen Strukturen der Computer gerecht
wird.
Eine Programmiersprache enthält zum einen syntaktische, d.h. die äußere Form betreffende,
und zum anderen semantische Strukturen. Unter der Semantik versteht man die genaue
Bedeutung einzelner Elemente der Sprache. Mittlerweile gibt es ein große Anzahl
verschiedener Programmiersprachen, von denen hier nur einige wichtige genannt und kurz
erläutert werden sollen. Nicht den Programmiersprachen im eigentlichen Sinne zugehörig,
werden an dieser Stelle auch die Begriffe HTML und Typo3 erklärt...
5.3.1.1. Die wichtigsten Programmiersprachen
C++: Die Programmiersprache C++ ist weit verbreitet und wird in vielen Bereichen
eingesetzt. Sie baut auf der Programmiersprache C auf und wird z.B. bei der Programmierung
komplexer Betriebssysteme oder der Entwicklung von Computerspielen verwendet.
Java: Java ist ein Produkt der Firma Sun Microsystems und Bestandteil der JavaTechnologie. Mit Java lassen sich schnell und einfach kurze Befehle oder
Programmstrukturen umsetzen. Die Programmiersprache Java wird von den meisten
Betriebssystemen unterstützt und bedarf lediglich einer speziellen Einbettung, die auch als
Java- Plattform bezeichnet wird.
Perl: Die Programmiersprache Perl wurde auf Grundlage verschiedener anderer Sprachen
entwickelt. Ihr Vorteil liegt in der erweiterten Interpretierbarkeit einzelner Elemente bzw.
ganzer Einheiten. Aufgrund dieser Eigenschaft findet Perl Anwendung in vielen Bereichen, so
z.B. bei der Systemadministration oder bei der Umsetzung von Webanwendungen.
PHP: ‚Personal Homepage Tools´ bzw. PHP dient z.B. zur Erstellung von komplexen
dynamischen Webanwendungen. Fast alle Webseiten, welche dynamische Inhalte generieren,
nutzen PHP. Es wird von allen Betriebssystemen unterstützt. PHP ist eine serverseitig
interpretierte Sprache, und bedarf daher keiner speziellen Spezifikation auf der Clientseite.
HTML: Die ‚Hypertext Markup Language´ ist eine auf Text basierende
Auszeichnungssprache. HTMLDokumente bzw. Webseiten sind die eigentlichen
Grundbausteine des Internets. Zur Darstellung dieser Dokumente bedarf es eines so genannten
Webbrowsers. Die üblicherweise enthaltenen Hyperlinks verknüpfen die einzelnen
Dokumente untereinander. Erst durch die Vernetzung einzelner Dokumente bzw. Webseiten
entsteht der komplexe und gleichzeitig strukturierte Aufbau des Internets bzw. World Wide
Webs. Die meisten Webeditoren basieren auf HTML.
Typo3: Das Web Content Management System Typo3 erleichtert die Veröffentlichung und
Verwaltung von Webseiten. Es basiert auf der Scriptsprache PHP. Typo3 ist eine ‚Open
Source Software´, wird also ständig weiterentwickelt.
5.3.2. Web-/HTML-Editoren
Viele der Webeditoren sind so genannte HTMLEditoren. Ein HTML-Editor ist eine Software,
mit Hilfe derer man Internetseiten in dem allgemein üblichen HTML-Format erstellen kann.
Unterschieden werden Programme, bei denen der HTML- bzw. Quellcode direkt generiert
oder bearbeitet wird, und so genannte WYSIWYG-Editoren (Abk. für ‚What you see is what
you get´), bei denen die Webseite bereits während der Bearbeitung, ähnlich wie in einem
Browser, angezeigt werden kann...
5.3.2.1. Wichtige Web-/HTML-Editoren
Microsoft Front Page: Der nach dem WYSIWYG-Prinzip aufgebaute HTML-Editor
Microsoft Front Page ist der mit am häufigsten genutzte Editor überhaupt. Er zeichnet sich
besonders durch seine übersichtliche und leicht verständliche Benutzeroberfläche, sowie
durch sein Site- bzw. Link-Management aus. Für kleinere Webseiten ist Front Page durchaus
geeignet. Bei der Erstellung großer Webseiten wird es jedoch aufgrund der Kategorisierung
der einzelnen Inhalte zunehmend schwieriger, die Seiten zu verwalten und einzuteilen. Hier
kommt es dann auch hin und wieder zu ‚unsauberen´ Codierungen. Bei den älteren Versionen
fehlt zudem die Unterstützung verschiedener Programmiersprachen, wie z.B. PHP. Bei der
neuen Version soll es jedoch gelungen sein, diese Fehler weitestgehend zu beheben.
Dreamweaver: Dieser HTML-Editor der Firma Adobe Systems (früher: Macromedia) ist
ebenfalls nach dem WYSIWYG-Prinzip aufgebaut. Die Benutzeroberfläche sowie die
Funktionalität ist im Gegensatz zu Microsoft Front Page differenzierter und damit oft auch
unübersichtlicher. Dreamweaver erstellt jedoch auch bei größeren Projekten einen ‚sauberen´
bzw. validen HTML-Code und unterstützt zudem PHP und weitere Programmiersprachen. Für
professionelle Webentwickler ist Dreamweaver zu empfehlen. Für Anfänger, welche relativ
schnell und unkompliziert eine neue Webseite erstellen möchten, ist dieses Programm eher
ungeeignet.
Adobe GoLive: Auch dieser Editor ist aufgrund seiner Komplexität und Bedienbarkeit eher
den professionellen bzw. erfahrenen Webentwicklern vorbehalten. Mit Hilfe vieler
verschiedener Komponenten ist es möglich, im ‚Drag & Drop Verfahren´ die Erstellung
komplexer Seitenstrukturen zu vereinfachen. GoLive unterstützt PHP und ist für die
Betriebssysteme Microsoft Windows und Mac OS erhältlich. Der WYSIWYG-Editor soll
jedoch nach und nach durch Dreamweaver, ebenfalls ein Produkt des Unternehmens Adobe
Systems, ersetzt werden.
NetObjekts Fusion: Dieser HTML-Editor ist ein Produkt der Firma Websidepros. Als
WYSIWYG-Editor mit einer einfachen und übersichtlichen Oberfläche, ist dieses Programm
auch für Einsteiger geeignet. Verschiedene Features, wie z.B. das Integrieren verschiedener
Templates, erleichtern die Bedienung und erweitern den Funktionsumfang. NetObjekts Fusion
unterstützt PHP und andere dynamische Inhalte und ist sowohl für kleine als auch große
Webseiten geeignet.
Darüber hinaus gibt es noch viele weitere Web- bzw. HTML-Editoren. Bei Ihrer Wahl sollten
Anfänger auf dem Gebiet der Webseitengestaltung darauf achten, dass der Editor nach dem
WYSIWYG-Prinzip aufgebaut ist. Wie der Name schon sagt, kann man hier jeden
Arbeitsschritt direkt beobachten und nachvollziehen. Bei reinen Texteditoren muss der Code
direkt eingegeben werden, man muss also HTML-Kenntnisse besitzen. Außerdem ist es
ratsam, auf eine einfache und übersichtliche Benutzeroberfläche zu achten. Der von Ihnen
gewählte Editor sollte zudem PHP unterstützen...
5.4.
Seitenaufbau
5.4.1. URL Aufbau
Eine Url, auch ‚Uniform Ressource Locator´ genannt, identifiziert eine Ressource über ihre
Lokalisation und ihrem Zugriffsmechanismus. Eine Url besteht aus reservierten und nicht
reservierten Zeichen.
Der richtige Url-Aufbau bzw. das richtige Url-Design ist eine wichtige Voraussetzung für
eine gute Platzierung in den Ergebnissen der Suchmaschinen. Schon vor der Erstellung einer
Webseite müssen Sie sich über die Struktur und die Namensgebung der einzelnen Seiten im
Klaren sein. Diese sollten, nachdem eine Webseite von Suchmaschinen indexiert und in den
Ergebnissen gelistet wird, nicht mehr verändert werden.
Generell lässt sich sagen, dass das Url-Design, genau wie die gesamte Webseite, nicht explizit
für Suchmaschinen, sondern in erster Linie für den Besucher gemacht wird. Sie sollten daher
immer verständliche und dem Content der jeweiligen Seite entsprechende Urls definieren.
Benutzen Sie wichtige Keywords und vermeiden Sie kaum verständliche Zahlen- und
Zeichenkombinationen. Einzelne Keywords können durch einen Bindestrich kombiniert
werden. Von den Suchmaschinen werden sie getrennt gewertet. Dateinamen sollten nicht
unbedingt in der Url angezeigt werden, da diese z.B. eine spätere dynamische Umstellung
einer statischen Webseite erschweren. Auch Parameter sind eher ungeeignet.
Ein weiterer oft gemachter Fehler ist eine zu komplexe bzw. zu ‚tiefe´ Linkstruktur. Die
Crawler der Suchmaschinen indexieren bzw. verfolgen oft nur die ersten Ebenen einer
Webseite. Zudem lassen sich klar und einfach strukturierte Webseiten leichter verändern und
anpassen. Sind die Links absolut gesetzt, kann auch ein ganzes Verzeichnis mühelos in eine
andere oder neue Ebene verschoben werden.
Diese so genannten ‚sprechenden´ Urls, d.h. klar und einfach strukturierte bzw. definierte
Adressen, sind sowohl für Suchmaschinen als auch für den Besucher einer Seite von Vorteil.
Die Suchmaschinen können aufgrund der Keywords in den Urls schnell das Thema der Seite
eingrenzen. Der Besucher wiederum weiß sofort, was ihn erwartet und wird nicht aufgrund
einer verwirrend wirkenden Url abgeschreckt...
5.4.2. Seitenaufbau / Menü
Der Seitenaufbau bzw. das Menü einer Internetseite muss einfach und klar strukturiert
werden. Vermeiden Sie falsche Verlinkungen. Diese so genannten ‚defekten Links´ können
bei häufigen Auftreten sogar zum Ausschluss aus dem Index einer Suchmaschine führen.
Geeignete Tools zum Aufspüren defekter Links finden Sie im Kapitel ‚Links, Tools und
Software´.
Generell sollte die Navigation Ihrer Webseite so aufgebaut sein, dass sie der Besucher leicht
nachvollziehen kann. Wenn dieses der Fall ist, wird auch der Crawler einer Suchmaschine
keine größeren Probleme haben, jede einzelne Seite Ihrer Internetpräsenz zu finden.
Eine Webseite ist stets in mehrere Ebenen unterteilt. Die erste Ebene ist die Startseite. Auf der
Startseite werden in der Regel alle wichtigen Hauptkategorien verlinkt. Über die Seiten der
Hauptkategorien sollte man erneut zur Startseite, sowie zu den Unterkategorien erster
Ordnung gelangen können. Von diesen Seiten muss der Besucher wiederum zur Startseite, zu
den Hauptkategorien und natürlich zu den Unterkategorien zweiter Ordnung gelangen. Diese
Struktur sollte stufenweise bis zur letzten Ebene fortgesetzt werden. Die letzte Ebene einer
Internetseite wird mit der Startseite und mit den Seiten der zweiten Ebene verlinkt. Bei
kleinen und mittleren Webseiten kommt man oft mit insgesamt zwei oder drei Ebenen aus,
aber auch große Projekte lassen sich in drei oder maximal vier Ebenen einteilen. Mit Hilfe
von PHP oder CSS z.B. kann man diese übersichtlich strukturieren und verwalten.
Eine höhere Anzahl an Ebenen gilt es zu vermeiden, da die Crawler der Suchmaschinen nicht
jeden Pfad automatisch folgen, sondern ab einer bestimmten Ebene die Webseite eventuell
wieder verlassen. Dieses können Sie zusätzlich auch durch eine externe Verlinkung einzelnen
Unterseiten vermeiden. Bei der Umsetzung, also der Erstellung des Menüs, sollten Sie darauf
achten, möglichst HTML- bzw. Textelemente zu verwenden. Vermeiden Sie Javascripte oder
Applets, da noch immer einige Crawler Probleme haben, diese zu interpretieren. Zudem gibt
es Browser bzw. Besucher, die Javascripte nicht anzeigen können bzw. die Funktion
deaktiviert haben. Auch Bilder sind als Komponenten eines Menüs eher ungeeignet. Nutzen
Sie die Möglichkeit, dem Besucher und damit auch den Crawlern durch sinnvolle, sich auf
den Content der verlinkten Seite bezogene Keywords, Informationen über Ihre Webseite
anzubieten. Die Linktexte der internen Verlinkung wirken sich ebenfalls positiv auf das
Ranking einer Webseite aus. Auch eine durch Flash animierte Navigation sollte vermieden
werden. Wenn Sie nicht darauf verzichten wollen, müssen Sie den Suchmaschinen eine auf
HTML basierende Alternative anbieten. Bei großen Projekten kann es zudem hilfreich sein,
eine so genannte Sitemap, d.h. eine einfach strukturierte Übersicht der einzelnen Webseiten,
anzulegen. Näheres hierzu erfahren Sie im nächsten Kapitel. Mit Hilfe einer Sitemap lassen
sich schnell und unkompliziert Ebenen reduzieren und überflüssige Links vermeiden. Zudem
kann man mit einer Sitemap den PageRank einer Webseite gleichmäßig auf alle Unterseiten
verteilen.
Vereinfacht lässt sich sagen, dass eine auf den Besucher einer Internetseite abgestimmte und
seinem natürlichen Verhalten angepasste Navigation gleichzeitig auch dazu führen wird, dass
die Suchmaschinen die jeweilige Webseite schneller und besser erfassen können...
5.4.3. Sitemap
Eine Sitemap ist eine durch Links dargestellte Auflistung aller Seiten einer Internetpräsenz.
Bei großen Projekten kann sich die eigentliche Sitemap auch auf die Darstellung des
hierarchischen Aufbaus beschränken, wobei dann die Unterkategorien bzw. die Seiten unterer
Ebenen auf weiteren Sitemaps gelistet werden. Aber auch bei kleineren Webseiten ist eine
zusätzliche Integration der hierarchischen Struktur sinnvoll.
Eine Sitemap hat im Wesentlichen zwei Funktionen. Zum einen bietet sie dem Besucher einer
Webseite einen einfachen Überblick bzw. eine einfache Navigationsmöglichkeit. Zum
anderen liefert sie den Suchmaschinen relevante Informationen über die Webseite. Sitemaps
speziell für Suchmaschinen werden auch Meta-Sitemaps genannt. Hier werden Informationen
(Relevanz, Relation, letzte Aktualisierung, letzte Veränderungen) in Form einer mittlerweile
standardisierten XML-Datei gespeichert, auf der Webseite verlinkt und auf den Server
geladen.
So können die Crawler der Suchmaschinen die Seite schnell und effektiv durchsuchen. MetaSitemaps lassen sich leicht mit speziellen Programmen erstellen. Einige ausgewählte
Softwarelösungen finden Sie auch unter ‚Links, Tools und Software ´. Bei einigen
Suchmaschinen ist es möglich, die Sitemap einer Webseite direkt einzureichen. Sie wird dann
automatisch in regelmäßigen Abständen abgerufen. Bei Google muss man vorher ein eigenes
Konto anlegen. Neben vielen anderen nützlichen Informationen und Tools, hat man dann auch
die Möglichkeit, eine spezielle Sitemap einzureichen. Darüber hinaus ist es sinnvoll, auch
dem Besucher einer Webseite eine eigene Sitemap bzw. Navigationshilfe anzubieten. Diese
sollte wenn möglich nicht mehr als 50-100 Links enthalten und ebenfalls direkt von der
Startseite verlinkt werden. Enthält Ihre Webseite mehr als 100 Seiten, ist es besser, die
Sitemap hierarchisch zu strukturieren. Eine Unterteilung in eine Hauptmap und eine oder
mehrere Untermaps ist auch hier, ähnlich wie bei der Erstellung der Seitennavigation, von
Vorteil. Mit Hilfe einer Sitemap kann zudem versucht werden, die Anzahl der Ebenen einer
Webseite zu minimieren. Dieses hat unter anderem den Vorteil, dass der PageRank
gleichmäßig auf alle Unterseiten verteilt wird. Bei der Verlinkung der einzelnen Seiten sollten
Sie, genau wie bei der Navigation, relevante Keywords verwenden.
Durch eine Sitemap helfen Sie dem Besucher, sich schnell und gezielt auf Ihrer Webseite
zurecht zu finden. Zusätzlich trägt sie dazu bei, dass Ihre Webseite vollständig und
regelmäßig von den Crawlern durchsucht wird...
5.4.4. Interne Verlinkung
Eine klar strukturierte interne Verlinkung ist für das Ranking der Einzelseiten einer Webseite
unabdingbar. Eigentlich sollte diese schon durch den Einsatz einer strukturierten
Seitennavigation bzw. einer Sitemap gewährleistet sein, es gibt jedoch noch einige zusätzliche
Möglichkeiten, die interne Verlinkung zu verbessern.
Auch hier ist darauf zu achten, dass möglichst keine graphischen Elemente bzw. Bilder als
Link verwendet werden, da die Suchmaschinen den so dargestellten Text in der Regel nicht
erkennen können. Wenn es sich nicht vermeiden lässt, nutzen Sie in jedem Fall das Alt- bzw.
das Title-Attribut, um den Suchmaschinen zusätzliche Informationen anzubieten. Auch bei
einfachen Textlinks ist es ratsam, das Title-Attribut zu verwenden. Fügen Sie zudem sinnvoll
verweisende Links innerhalb des Contents Ihrer Webseite ein. Der Besucher, welcher sich für
einen bestimmten Inhalt interessiert, sollte innerhalb des Textes oder auch am Ende durch
weiterführende Links oder Artikelempfehlungen auf thematisch ähnliche Seiten hingewiesen
werden. Nutzen Sie auch hier wichtige Keywords für die interne Verlinkung.
Bei großen Webseiten bietet es sich zusätzlich an, Listen bzw. themenbezogene Sitemaps zu
erstellen. Die Integration eines Stichwortverzeichnisses hat ebenfalls viele Vorteile. Dieses
wird mit den jeweiligen Webseiten querverlinkt. Als zusätzliche Navigationshilfe können Sie
dem Besucher eine so genannte Positionsanzeige oder Adressleiste anbieten. Anhand dieser
Anzeige sieht er genau, wo er sich gerade befindet, und kann mit nur einem ‚Klick´ die
Ebenen der Navigation wechseln. Nehmen Sie auch von der Möglichkeit Gebrauch, in
obligatorischen Footerlinks wie ‚Home´ , ‚Sitemap´ oder ‚Impressum´ Keywords innerhalb
des Linktextes zu verwenden. Schreiben Sie also z.B. ‚Home Keyword´, oder verwenden Sie
hier ausnahmsweise graphische Elemente und fügen Sie entsprechende Alt-Texte ein.
Durch die oben aufgeführten Maßnahmen können sie das Ranking Ihrer Webseite verbessern.
Zudem fällt es den Suchmaschinen leichter, durch die auf den Content der verlinkten Seiten
hinweisenden Linktexte, den Inhalt Ihrer Seite thematisch zuzuordnen...
5.4.5. Content
Der Begriff Content wird für den eigentlichen Inhalt einer Webseite verwendet. Der Content
einer Seite bezeichnet dabei alle dargestellten Medien, also Texte, Bilder, Audio- und
Videodateien. Der Inhalt einer Webseite ist mit Abstand der wichtigste Rankingfaktor
überhaupt. Wer seine Webseite regelmäßig mit individuellen Inhalten füllt, wird auch in den
Ergebnissen der Suchmaschinen hoch gelistet werden...
5.4.5.1. Content - Texte
Der einzige für Suchmaschinen wirklich interessante Inhalt ist der Text einer Webseite. Bilder
oder Animationen sehen zwar schön aus, Suchmaschinen können diese jedoch zumeist nicht
auswerten. Dennoch sollten generell alle Medien Verwendung finden, da vieles sich mit Hilfe
von Bildern oder animierten Grafiken einfach besser darstellen bzw. erklären lässt. Bei deren
Einsatz gilt es jedoch einige Regeln zu beachten. Diese werden im Kapitel ‚Bilder´
ausführlich erläutert.
Versuchen Sie in jedem Fall, so viel individuellen Text wie möglich auf Ihrer Webseite
einzufügen. Je mehr Text vorhanden ist, desto größer ist auch die Chance, mit einem
Keyword oder auch mit Kombinationen aus zwei, drei oder mehr Schlüsselwörtern gefunden
zu werden. Wie schon im Kapitel ‚Technik der Suchmaschinen´ beschrieben, wertet eine
Suchmaschine den Text Ihrer Webseite aus, und ordnet die enthaltenen Begriffe vereinfacht
gesagt bestimmten Suchwörtern oder Suchwortkombinationen zu. Experten gehen davon aus,
dass es nur ca. 15 Millionen wirklich genutzte Suchwörter gibt. Vergleicht man diese Zahl mit
der Anzahl der existierenden Webseiten, bedeutet dieses, dass bei jeder Suchanfrage oft
Millionen Ergebnisse angezeigt werden.
Um die Häufigkeit der Listung Ihrer Seite zu steigern, können Sie z.B. die Anzahl der in dem
Text Ihrer Webseite enthaltenen Keywords bzw. Begriffe erhöhen. Hierbei sollten Sie jedoch
einen wichtigen Grundsatz nie außer Acht lassen. Auch der Text Ihrer Webseite ist in erster
Linie Ihrem Besucher gewidmet. Machen Sie nie den Fehler, den Text ausschließlich für die
Crawler der Suchmaschinen zu optimieren.
Ein sinnvoll zusammenhängender, individueller und informativer Text ist die Grundlage einer
jeden Optimierungsarbeit. Suchmaschinen reagieren sehr empfindlich auf explizit für sie
ausgerichtete Textmanipulationen. Sie sollten darauf verzichten, die Suchwörter, mit denen
Sie gefunden werden wollen, überdurchschnittlich oft im Text Ihrer Webseite unterzubringen.
Dieses so genannte ‚Keyword-Stuffing´ kann dazu führen, dass Ihre Seite ganz aus den
Ergebnislisten bzw. dem Index gestrichen wird. Die Keyworddichte, auch Keyword- Density
genannt darf einen Wert von 4-6% nicht überschreiten. Ein Tool zur Ermittlung der genauen
Keyworddichte finden Sie auch unter ‚Links, Tools und Software ´.
Konzentrieren Sie sich bei der Optimierung der Texte Ihrer Webseite nicht nur auf einige
wenige Keywords, sondern versuchen Sie ebenfalls, Kombinationen aus mehreren Wörtern
im Text unterzubringen. Manchmal ist es auch von Vorteil, die Optimierung einer Webseite in
mehrere Phasen zu unterteilen.
Da es wenig Sinn macht, eine noch neue Webseite auf wirklich hart umkämpfte Keywords zu
optimieren, ist es gerade am Anfang ratsam, sich zuerst auf weniger oft optimierte Keywords
oder Kombinationen zu konzentrieren. Wie man solche Begriffe bzw. Wörter bestimmen
kann, lesen Sie im Kapitel ‚Keywords´.
Ein weiterer Fehler, welcher unter Umständen sogar dazu führen kann, dass Ihre Seite aus
dem Index entfernt bzw. ‚verbannt´ wird, ist so genannter ‚versteckter Text´. Es gibt mehrere
Möglichkeiten, bestimmte Teile eines Textes so einzufügen oder zu verändern, dass der
Besucher sie nicht sieht, die Crawler der Suchmaschinen diese aber erkennen und auswerten.
Weit verbreitet ist ‚die weiße Schrift auf weißem Hintergrund´. Was am Anfang noch
funktionierte, erkennt und bestraft mittlerweile jede Suchmaschine.
Neben der Einbindung relevanter Keywords gibt es noch einige weitere Möglichkeiten, wie
Sie den Text einer Webseite optimieren können. Näheres finden Sie im Kapitel
‚Gliederung´...
5.4.5.2. Content - Bilder
Weil, wie schon erwähnt, Suchmaschinen Bilder oder andere graphische Elemente nicht
auswerten können, gibt es einige wichtige Punkte, die man bei deren Einbindung beachten
muss. Vorher sei jedoch noch kurz darauf hingewiesen, dass die Datengröße von Bildern und
multimedialen Elementen möglichst klein gehalten werden sollte. Auch wenn mittlerweile ein
Großteil der Internetuser DSL nutzt, gibt es immer noch zahlreiche Benutzer, die noch einen
Modem- oder ISDN-Anschluss besitzen. Ein Bild sollte aus diesem Grund nicht größer als
100-150 KB sein. Fügen Sie jedem Bild einen alternativen kurzen Text (Alt-Attribut), eine
weiterführende Beschreibung (Title-Attribut) oder sogar einen Link zu einer ausführlichen
Beschreibung (Longdesc) hinzu. Das Alt-Attribut hat eigentlich die Funktion, dem Besucher
einen alternativen Text zu bieten, wenn aus irgendeinem Grund die jeweiligen Bilder nicht
angezeigt werden können. Dieses ist z.B. der Fall, wenn Browser bestimmte Dateien nicht
unterstützen oder das automatische Laden dieser Dateien nicht aktiviert wurde. Der Alt-Text
wird ebenfalls angezeigt, wenn der Besucher mit seiner Maus über das Bild fährt. Er sollte
somit eine kurze Zusammenfassung bzw. Beschreibung des dargestellten Bildes enthalten.
Das Title-Attribut bietet die Möglichkeit, jedem Element bzw. Bild zusätzliche und
erklärende Informationen hinzuzufügen. Generell sollte zumindest immer das Alt-Attribut
Verwendung finden. Wenn man dem Besucher umfangreiche bzw. weiterführende
Informationen zu einem Bild zur Verfügung stellen möchte, kann man das Longdesc- Attribut
verwenden, und einen Link zu einer Beschreibung setzen. Für Besucher, welche diesen Link
nicht angezeigt bekommen, bietet es sich an, zusätzlich einen einfachen Textlink direkt neben
dem Bild einzufügen. Mit Hilfe dieser Attribute liefern sie den Suchmaschinen wertvolle
weitere Informationen über den Inhalt Ihrer Webseite, welche sich letztlich auch positiv auf
das Ranking auswirken werden...
5.4.5.3. Content - Gliederung
Nicht nur für den Besucher, sondern auch für Suchmaschinen ist es sinnvoll, den Text einer
Webseite übersichtlich zu gliedern. Generell müssen Sie darauf achten, Ihre gesamte Seite in
einem nach den üblichen Standards definierten HTML zu erstellen. Ein ‚unsauberer´ HTMLCode kann die Crawler einer Suchmaschine dazu veranlassen, Ihre Webseite zu verlassen und
nicht länger zu durchsuchen.
Bei der Gliederung des auf einer Webseite enthaltenen Textes bieten sich besonders die
HTMLTags H1 bis H6 an, mit welchen man verschiedene Überschriften deklarieren kann. H1
definiert die wichtigste Überschrift und wird deswegen im Schriftbild auch am größten
dargestellt. Wenn Ihnen die Darstellung nicht gefallen sollte, können Sie z.B. mittels CSS die
Formatierung ändern und dem Design Ihrer Webseite anpassen. Verwenden Sie H1 für die
eigentliche Überschrift Ihrer Webseite. Diese sollte die wichtigsten Keywords enthalten. Den
H2 Tag und eventuell den H3 Tag können Sie für weitere Überschriften Ihrer Seite
verwenden. Eine zusätzliche Integration der Tags H4 bis H6 ist nicht unbedingt erforderlich.
Ein weiteres Mittel, einen bestimmten Teil eines Textes hervorzuheben, sind
Textmarkierungen, wie z.B. Fettschrift oder Unterstreichungen. Versuchen Sie den Text
verständlich und klar zu strukturieren. Besonders ausgezeichnete Passagen und vor allen
Dingen Überschriften werden von den Crawlern der Suchmaschinen als wichtig eingestuft
und helfen Ihnen, mit den enthaltenen Keywords höher gelistet zu werden...
5.4.6. Content - Aktualität
Eine Webseite, deren Inhalte regelmäßig aktualisiert und erweitert werden, findet bei den
Suchmaschinen mehr Beachtung als eine Seite, deren Inhalte seit längerer Zeit unverändert
sind. Aktualisierungen veranlassen die Crawler der Suchmaschinen dazu, Ihre Seite öfters zu
besuchen. Werden dagegen nach wiederholten Indexieren Ihrer Webseite keine neuen Inhalte
gefunden, werden die Crawler den Zeitraum zwischen ihren Besuchen verlängern.
Natürlich können Sie nicht den gesamten Inhalt Ihrer Internetpräsenz dauernd verändern, Sie
sollten jedoch versuchen, die auf Ihrer Webseite angebotenen Informationen ständig zu
erweitern. Mittlerweile findet man in immer größeren Umfang so genannten ‚Open Content´
im Internet. Diese Informationen sind nicht urheberrechtlich geschützt und können für eigene
Zwecke verwendet werden. Es reicht jedoch nicht aus, diesen Content einfach zu übernehmen
und auf die eigene Webseite zu stellen. Der so erzeugte ‚doppelte Inhalt´ wird von den
Suchmaschinen negativ bewertet und abgestraft. Die frei zugänglichen Texte sollen vielmehr
als Anregung dienen, selbst neue individuelle Informationen zu erstellen.
Wenn Sie keine Zeit haben, ständig neue Inhalte zu generieren, bietet sich unter anderem die
Möglichkeit, den Besucher Ihrer Webseite in die Erstellung neuer Inhalte mit einzubeziehen.
Sie können z.B. ein Forum oder ein Meinungsboard in Ihre Webseite integrieren, und die neu
geschriebenen Beiträge bzw. Kommentare auf der Startseite anzeigen. Auch ein eingebetteter
Newsblog kann Ihnen helfen, Ihre Seite aktuell zu halten...
5.4.7. Meta Tags
Die Meta-Tags sind HTML-Codierungen, welche so genannte Metadaten über die betreffende
Webseite enthalten. Sie stehen zumeist im HEAD-Bereich einer Seite und fassen die
wichtigsten Informationen zusammen. Zudem erleichtern Meta-Tags den Crawlern das
gezielte Durchsuchen, indem sie ihnen wichtige Anweisungen geben. Da Meta-Tags für den
Besucher unsichtbar sind, wird immer wieder versucht, so viele Informationen wie möglich
einzufügen.
Gerade in der Anfangszeit hatten die Suchmaschinen aufgrund der vielen und oft in keiner
Weise themenrelevanten Informationen große Probleme, entsprechende Seiten zuzuordnen.
Vor allen Dingen mit dem Keyword-Tag wurde viel Missbrauch getrieben. Auch aus diesem
Grund ist die Bedeutung der meisten Meta-Tags für das Ranking einer Webseite eher gering.
Bis auf zwei oder drei Tags ignorieren sogar einige Suchmaschinen die Informationen völlig.
Dennoch sind gewisse Meta-Tags sehr wichtig und dürfen auf keiner Webseite fehlen...
5.4.7.1. Meta Tags - Title
Eigentlich kein Meta-Tag, soll an dieser Stelle kurz der Title-Tag beschrieben und erläutert
werden. Der Title-Tag ist einer der wichtigsten Onpage- Rankingfaktoren. Darüber hinaus
wird der Text im Title-Tag bei den meisten Suchmaschinen in den Ergebnislisten als
Beschreibung der Webseite angezeigt.
Sie sollten dementsprechend einen Text finden, der gleichzeitig die für die Suchmaschinen
relevanten Keywords, und andererseits verständlich und klar zusammengefasste
Informationen für den Suchenden enthält.
Beides zusammen ist oftmals gar nicht so leicht, da der Text in der Trefferanzeige ab einer
bestimmten Anzahl von Zeichen automatisch gekürzt wird. Beschränken Sie sich daher auf
ca. 50-75 Zeichen. Auf keinen Fall dürfen wichtige Keywords einfach ohne inhaltlichen
Zusammenhang aneinandergereiht werden. Dieses wird von den Suchmaschinen negativ
bewertet. Versuchen Sie etwa 5-7 Schlüsselwörter in einen logischen Kontext zu bringen.
Gerade in der Anfangszeit macht es ohnehin wenig Sinn, eine Seite auf viele Keywords zu
optimieren. Wichtig ist in jedem Fall, dass der Text auch den Besucher anspricht, denn was
bringt Ihnen ein hohes Ranking, wenn Ihre Seite nicht ‚angeklickt´ wird.
5.4.7.2. Meta Tags - Description
Die Description bzw. Beschreibung des Inhaltes erscheint bei einigen Suchmaschinen
ebenfalls als Text in den Suchergebnissen. Fügen Sie auch hier eine möglichst genaue und
verständliche inhaltliche Zusammenfassung Ihrer Webseite ein. Diese sollte den Suchenden
dazu anregen, die Seite zu besuchen.
Der Description-Tag darf nicht länger als 200 Zeichen sein, da auch er eventuell gekürzt wird.
Versuchen Sie dementsprechend, die wichtigen Informationen Ihrer Webseite an den Anfang
des Textes zu setzen.
5.4.7.3. Meta Tags - Keyword
Der Keyword-Tag hat mittlerweile keine großen Auswirkungen auf das Ranking und wird
von einigen Suchmaschinen sogar völlig ignoriert. Es hat jedoch auch keine negativen Folgen,
wenn Sie diesen Tag verwenden und die wichtigsten Schlüsselwörter Ihrer Webseite
einfügen. Hier sollte der Text nicht länger als 150-200 Zeichen sein. Unterlassen Sie eine
Auflistung zu vieler und nicht dem Inhalt der Seite entsprechenden Keywords. Viele
Suchmaschinen erkennen diese gezielten ‚Manipulationsversuche´ und strafen sie unter
Umständen ab. Natürlich können Sie hier auch Keywordkombinationen einfügen, wobei Sie
darauf achten sollten, das kein Einzelwort zu oft vorkommt.
5.4.7.3.1. Keywordanalyse
Um die richtigen Keywords auszuwählen, eignet eine so genannte Keywordanalyse. Sie dient
im Wesentlichen dazu, relevante Suchwörter oder Suchphrasen zu finden, unter denen Ihre
Webseite die größten Chancen hat, weit oben in den Ergebnislisten der Suchmaschinen
angezeigt zu werden.
Zunächst müssen Sie sich dazu einige mögliche Keywords bzw. Kombinationen überlegen,
die dem Thema Ihrer Seite entsprechen und unter denen Ihre Webseite gefunden werden soll.
Anschließend sollten Sie untersuchen, wie viele Seiten bereits unter den jeweiligen
Suchwörtern gelistet werden. Geben Sie dazu einfach die Begriffe in verschiedene
Suchmaschinen ein. Es können leicht mehrere Millionen Ergebnisse für ein einzelnes
Keyword angezeigt werden. Je mehr Treffer die jeweilige Suche ergibt, desto schwieriger ist
es in der Regel auch, mit einer neuen Webseite unter dem entsprechenden Suchwort weit oben
gelistet zu werden.
Analysieren Sie die Webseiten auf den ersten drei Positionen bzw. auf der ersten Seite. Durch
diese Konkurrenzanalyse lässt sich leicht feststellen, unter welchen Voraussetzungen, z.B.
PageRank oder Domainpopularität, auch Ihre Webseite dort angezeigt werden könnte.
Außerdem ist es hilfreich, sich den HTML-Code dieser Seiten anzuschauen. In den MetaTags finden Sie häufig alle relevanten Suchwörter. Sie erhalten somit neue Vorschläge für
Ihre eigene Auswahl. Oftmals macht es in der Anfangsphase mehr Sinn, eine Webseite auf
Keywordkombinationen zu optimieren. Auch hier sollten Sie wie oben beschrieben vorgehen.
Auf diese Weise können Sie die Anzahl der von Ihnen vorher ausgewählten Keywords gezielt
minimieren. Unter den verbleibenden Wörtern oder Wortkombinationen gilt es nun diejenigen
heraus zu filtern, nach denen am häufigsten gesucht wird, und die gleichzeitig nicht so oft von
den Webseitenbetreibern Ihrer Konkurrenz verwendet werden. Hierzu gibt es zahlreiche
Tools. Einige zeigen z.B. die Anzahl der entsprechenden Suchanfragen innerhalb eines
bestimmten Zeitraums an. Bei anderen Programmen wird zusätzlich ausgewertet, welche oder
wie viele andere Webseiten auf dieses Suchwort optimiert wurden, oder wie die Chancen
einer neuen Seite sind, ebenfalls unter dem jeweiligem Suchwort hoch gelistet zu werden.
Eine kleine Auswahl dieser Tools finden Sie im Kapitel ‚Links, Tools und Software ´. Zum
Schluss müssen Sie sich auf einige wenige Keywords oder auch Kombinationen festlegen.
Am Anfang sind 3-5 Schlüsselwörter völlig ausreichend. Später, wenn diese gut gelistet
werden, können Sie weitere hinzunehmen.
Die Keywords sind die Grundlage jeder Suchmaschinenoptimierung und müssen daher gut
gewählt sein...
5.4.7.4. Sonstige Meta Tags
Es gibt noch eine ganze Reihe weiterer Meta-Tags, von denen hier nur die wichtigsten kurz
erläutert werden...
Robots: Der Robots-Tag sollte ebenfalls auf keiner Webseite fehlen. Mit Hilfe dieses Tags
können Sie den Robots bzw. Crawlern der Suchmaschinen gezielte Anweisungen geben, z.B.
ob Ihre Seite durchsucht werden soll oder nicht. Möchten Sie differenzierte Befehle erteilen,
also die Crawler bestimmter Suchmaschinen ansprechen oder Teile Ihrer Webseite für die
Indexierung sperren, empfiehlt sich eine ausgelagerte Textdatei, die so genannte robots.txt.
Revisit: Auch dieser Tag richtet sich an die Suchmaschinen und gibt an, in welchen zeitlichen
Abständen Ihre Webseite von den Robots besucht werden soll. Wird Ihre Seite ständig
aktualisiert, können Sie die Crawler anweisen, diese jeden Tag nach neuen Informationen zu
durchforsten. Werden die Inhalte nur selten geändert, reicht z.B. auch die Angabe, Ihre Seite
alle 2 Wochen zu besuchen. Die Angabe ist jedoch lediglich ein Hinweis. Wann und wie oft
Ihre Seite tatsächlich durchsucht wird, lässt sich damit kaum beeinflussen.
Cacheing: Dieser Meta-Tag verhindert das Zwischenspeichern einer Webseite und sollte
hauptsächlich bei Seiten, welche sehr häufig aktualisiert werden, Verwendung finden.
Content-Type: Mit Hilfe dieses Tags wird die Art Ihrer Webseite sowie der verwendete
Zeichensatz definiert. Durch die enthaltenen Angaben erleichtern Sie den Crawlern unter
anderem auch das Lesen von Umlauten.
Language: Hier sollte die verwendete Sprache auf Ihrer Webseite genannt werden.
Page-Topic: Dieser Tag definiert das Thema einer Webseite. Ist dieses nicht ganz eindeutig,
oder können unterschiedliche Themen in Frage kommen, sind auch Mehrfachnennungen
möglich.
Page-Type: Hier kann der Typ Ihrer Webseite eingefügt werden. Handelt es sich z.B. um eine
reine Informationsseite, eine Anleitung, ein Verzeichnis oder eine Community, kann man den
Suchmaschinen mit diesem Tag entsprechende Informationen anbieten.
Author: Der Author-Tag beinhaltet den Autor bzw. die für den Inhalt der Webseite
verantwortliche Person.
Copyright: An dieser Stelle können Sie auf das Copyright, also auf Ihre Rechte an den
Inhalten Ihrer Webseite aufmerksam machen.
Es gibt noch einige weitere Meta-Tags, welche für das Ranking Ihrer Webseite jedoch keine
Rolle spielen. Wirklich relevant sind ohnehin nur die Tags Title, Description und eventuell
Keywords. Wichtig ist, dass Sie auf jeder Seite Ihrer Webpräsenz unterschiedliche und genau
auf den jeweiligen Inhalt abgestimmte Metainformationen einfügen. Gleiche Meta-Tags auf
allen Seiten sollten unbedingt vermieden werden. Hilfe bei der Erstellung bieten Ihnen so
genannte ‚Meta-Tag-Generatoren´, welche Ihre gemachten Angaben automatisch in MetaTags umwandeln. Einige empfehlenswerte Generatoren werden im Kapitel ‚Links, Tools und
Software´ genannt...
5.5.
Indexierbarkeit
Wenn Ihre Webseite gefunden werden soll, muss sie von den Suchmaschinen indexiert, d.h. in
den Index aufgenommen werden. Das Sicherstellen der Indexierbarkeit einer Webseite ist
somit ein wichtiger Bestandteil einer erfolgreichen Suchmaschinenoptimierung.
Damit Suchmaschinen Ihre Seite lesen und auswerten können, muss sie in möglichst
fehlerfreiem HTML-Code bzw. im ASCII Textformat geschrieben sein. Die wichtigsten
weiteren Voraussetzungen für eine optimale Indexierbarkeit wurden bereits in den
vorangegangenen Kapiteln besprochen.
Eine klare und einfach strukturierte interne Verlinkung mit Hilfe einer übersichtlichen
Seitennavigation bzw. einer Sitemap erleichtern den Crawlern der Suchmaschinen die
Erfassung Ihrer kompletten Internetpräsenz. Sie sollten immer darauf achten, die Anzahl der
Ebenen Ihrer Webseite möglichst gering zu halten. Je ‚flacher´ die Hierarchie Ihrer Seite,
desto besser kann sie indexiert werden.
Zunächst muss sie allerdings erst einmal von den Suchmaschinen bzw. den Crawlern
gefunden werden. Wenn Sie eine Webseite veröffentlichen, müssen Sie diese bei den
einzelnen Suchmaschinen anmelden. Erst dann ‚wissen´ die Suchmaschinen von der Existenz
Ihrer Seite und werden sie früher oder später besuchen. Um den Vorgang zu beschleunigen,
kann man auch einige externe Verweise bzw. Backlinks setzen. So finden die Suchmaschinen
Ihre Webseite von ganz allein. Eine zusätzliche Anmeldung ist dann in der Regel nicht mehr
nötig...
5.6.
Domainalter
Bereits kurz erwähnt, soll hier noch einmal darauf hingewiesen werden, dass das Domainalter
ein wichtiger Rankingfaktor ist. Nach dem Prinzip ‚old is gold´, werden alte und bekannte
Webseiten bzw. Autoritäten bei der Auflistung der Suchmaschinenergebnisse bevorzugt
behandelt. Die Suchdienste gehen davon aus, dass Seiten, welche schon einige Jahre
existieren und dabei regelmäßig aktualisiert wurden, dem Suchenden umfangreiche und
bessere Informationen bieten können, als z.B. eine noch sehr neue Seite. Andererseits gibt es
für ganz neue Seiten oft einen so genannten ‚Boost´, d.h. sie werden für kurze Zeit
überdurchschnittlich hoch gerankt.
Natürlich können Sie das Domainalter nicht direkt beeinflussen, Sie sollten aber so früh wie
möglich eine Domain registrieren und diese bei den Suchmaschinen anmelden...
5.7.
Ausgehende Links
Ebenfalls ein wichtiger Rankingfaktor sind ausgehende Links, vor allen Dingen zu wichtigen
und themenrelevanten Webseiten, so genannten Autoritäten. Die Links geben Aufschluss über
den Content Ihrer Webseite und zeigen den Suchmaschinen, dass sie ein wichtiger Bestandteil
der Infrastruktur des Internets ist.
Generell hat kein Betreiber einer Webseite etwas dagegen, wenn Sie einen Link zu seiner
Seite setzen. Achten Sie jedoch immer darauf, einen dem Thema der Seite entsprechenden
und rechtlich völlig unbedenklichen Linktext zu wählen. Auch dürfen nur einige wenige
ausgewählte Links auf einer Webseite eingefügt werden, da mit jedem weiteren Link die
Stärke bzw. die ‚Linkpower´ der anderen Links auf der Seite abnimmt. Um die Linkpower
möglichst hoch bzw. konstant zu halten, sollten Sie nie mehr als 10-15 ausgehende Links auf
eine Seite stellen...
5.8.
Weitere interne Rankingfaktoren
Darüber hinaus gibt es zahlreiche weitere interne, d.h. seitenbezogene Rankingkriterien.
Experten gehen davon aus, dass allein Google weit über hundert beeinflussende Elemente bei
der Listung der Suchergebnisse berücksichtigt. Natürlich können hier nicht alle diese
Faktoren explizit erwähnt bzw. erklärt werden. Es werden daher nur noch einige unter ihnen
kurz angesprochen...
5.8.1. Individueller Content
Wie schon im Kapitel ‚Content´ erwähnt, muss der Inhalt Ihrer Webseite individuell und
einzigartig sein. Nur wenn die Crawler der Suchmaschinen wirklich neue Informationen
finden, wird Ihre Seite hoch gelistet werden. Sind die gleichen oder ähnliche Informationen
bereits an anderer Stelle im Internet erwähnt, wird dieses nicht der Fall sein.
Bei nahezu identischem Inhalt, z.B. wenn Sie Texte anderer Webseiten einfach kopieren, wird
ihre Seite aufgrund von Duplicate Content abgestraft und eventuell aus dem Index entfernt.
Sie sollten daher immer darauf achten, den Suchmaschinen sowie dem Besucher Ihrer Seite
individuelle Informationen anzubieten.
Der individuelle bzw. einzigartige Content ist einer der wichtigsten, wenn nicht sogar der
wichtigste Rankingfaktor überhaupt...
5.8.2. Seitenanzahl/-größe
Ein weiteres internes Rankingkriterium ist die Größe der jeweiligen Internetpräsens, d.h. die
Anzahl der Seiten und die Größe der Seiten selbst. Die Suchmaschinen gehen davon aus, dass
auf einer Webseite, welche aus 100 Einzelseiten besteht, mehr bzw. genauere Informationen
zum jeweiligen Suchwort zu finden sind, als auf einer Webseite mit nur 10 oder 20
Einzelseiten.
Versuchen Sie, den Suchmaschinen so viele Informationen wie möglich anzubieten. Achten
Sie aber immer darauf, dass wirklich jede einzelne Seite individuelle Informationen enthält.
Allgemein gilt, dass die Qualität einer Webseite bedeutend wichtiger ist als die Quantität bzw.
Größe...
5.8.3. Synonyme
Wenn Sie mit Ihrer Seite mit einem bestimmten Keyword an den vorderen Positionen gelistet
werden möchten, ist es wichtig, dass der Text der Webseite Synonyme, d.h. ähnliche bzw.
themenverwandte Begriffe enthält. Es macht daher keinen Sinn, eine Webseite auf nicht der
Thematik des Contents entsprechende Keywords zu optimieren. Konzentrieren Sie sich immer
auf einige wichtige Wörter oder Phrasen und versuchen Sie, diese gezielt zu optimieren...
5.8.4. Wortstamm
Auch die Verwendung von Wörtern des gleichen Wortstammes im Text einer Webseite ist
sehr wichtig, um mit dem entsprechenden Keyword hoch gelistet zu werden. Genauso wie das
Vorkommen von Synonymen, zeigt dieses den Suchmaschinen, dass der gesamte Inhalt Ihrer
Seite relevant ist, und dem Suchenden umfangreiche Informationen bieten kann...
6.Offpage-Optimierung
6.1.
Externe Links
6.1.1. Linkbewertung
Externe Links, d.h. Links von anderen Seiten, sind für ein gutes Ranking Ihrer Webseite
unabdingbar. Die Anzahl und Qualität der Links ist das wichtigste externe Rankingkriterium.
Jeder dieser Links wird jedoch von den Suchmaschinen unterschiedlich bewertet bzw.
gewichtet. So kann es sein, dass eine Seite mit nur wenigen, aber dafür qualitativ
hochwertigen bzw. starken Verweisen, höher gelistet wird, als eine Seite mit sehr vielen, aber
dafür eher schwachen Links. Einige Faktoren, welche die Suchmaschinen bei der Bewertung
einzelner Links berücksichtigen, sollen an dieser Stelle kurz dargestellt werden. Die
folgenden Punkte können Ihnen zudem dabei behilflich sein, selbst Links zu bewerten. Dieses
kann z. B. bei der Beurteilung bzw. Findung geeigneter Linkpartner von Vorteil sein...
6.1.2. PageRank
Das wichtigste Kriterium, mit dem externe Links bewertet und verglichen werden können, ist
der so genannte Google PageRank. Er definiert vereinfacht gesagt die ‚Wertigkeit´ einer
Webseite anhand der Anzahl und Qualität der auf sie verweisenden Links. Der PageRank
wird in einer Skale von 1-10 dargestellt, wobei 10 den höchsten Wert definiert. Eine genaue
Erklärung finden Sie im Kapitel ‚Google PageRank´.
Es ist ein großer Unterschied, ob eine Seite mit einem PageRank bzw. PR von 2 einen Link zu
Ihrer Seite setzt, oder eine Seite mit einem PageRank von beispielsweise 6. Der Link der
Webseite mit einem PR von 6 wird von den Suchmaschinen bedeutend höher gewichtet als
der PR 2 Link. Generell hat fast jeder Link einen positiven Einfluss auf das Ranking Ihrer
Webseite. Sie sollten jedoch immer versuchen, das möglichst starke, also Webseiten mit
einem hohen PageRank auf Ihre Seite verlinken...
6.1.3. Linktext
Der Text mit dem Ihre Webseite verlinkt wird ist von großer Bedeutung. Die Linktexte
erleichtern den Suchmaschinen, das Thema Ihrer Webseite genauer einzugrenzen. Zudem
geben sie an, dass unter den im Linktext enthaltenen Keywords, relevante Informationen auf
Ihrer Seite zu finden sind.
Ein externer Verweis sollte daher immer ein oder mehrere für Ihre Seite wichtige Keywords
enthalten. Selbst die Position der einzelnen Keywords innerhalb eines Linktextes ist von
Bedeutung. Setzen Sie wichtige Keywords immer an den Anfang des Linktextes, weniger
wichtige eher ans Ende. Generell darf der Linktext eine Länge von 2-4 Wörtern nicht
überschreiten, da die Wertigkeit des jeweiligen Links bzw. die ‚Linkpower´ auf die einzelnen
Keywords verteilt wird.
Wie schon im Kapitel ‚Domainnamen´ beschrieben, sollte der Name Ihrer Webseite möglichst
ein oder zwei wichtige Keywords enthalten. Viele Webseitenbetreiber, welche einen Link
setzen, verwenden einfach den Domainnamen bzw. die Url als Linktext. Enthält dieser
wichtige Schlüsselwörter, wird Ihre Seite unter diesen Suchbegriffen höher gelistet werden.
Damit die wichtigen Keywords bei der externen Verlinkung Verwendung finden, bietet es
sich an, einige Linkvorlagen oder Linktextvorschläge auf Ihrer Webseite zu veröffentlichen.
Der Besucher kann dann z.B. einfach den HTML-Code des Links kopieren, und auf seiner
Webseite einfügen. Wichtig ist, dass die Linktexte zu Ihrer Seite variieren. Ein immer wieder
auftauchender identischer Linktext wird negativ gewertet. Verwenden Sie daher
unterschiedliche Linktexte, indem Sie auf mehrere Keywords gleichzeitig optimieren und
Synonyme einfügen...
6.1.4. Linkposition
Eine Webseite wird von Suchmaschinen in mehr oder weniger wichtige Bereiche unterteilt.
Der wichtigste Teil einer Seite ist der eigentliche Text, also der Content. Ein Link innerhalb
des Textes wird daher höher eingestuft als z.B. ein Link irgendwo am Rand einer Webseite.
Generell lässt sich folgende Einteilung machen: Ein Link innerhalb des Textes oder im
Header einer Seite wird am höchsten gewichtet. Danach folgen Links rechts oder links neben
dem Content. So genannte Footerlinks, also Links ganz unten auf einer Webseite, werden
nicht so stark gewertet, da viele Webseitenbetreiber diesen Platz nutzen, um z.B. getauschte
und damit nicht ‚echte´ Links unterzubringen. Das Gleiche gilt für eigens eingerichtete Seiten,
z.B. Partnerseiten oder Linkseiten. Auch diese Links werden in der Regel von den
Suchmaschinen abgewertet.
Versuchen Sie, Ihren Link im eigentlichen Content einer fremden Seite zu platzieren.
Schreiben Sie z.B. einen kurzen Informations- oder Werbetext, welcher ein oder zwei
verlinkte Keywords Ihrer Seite enthält. Diesen können Sie dann Ihren Linkpartnern als
Alternative zu einem einfachen Textlink anbieten...
6.1.5. Linkalter
Auch das Alter der externen Links spielt seit einiger Zeit eine immer größer werdende Rolle.
Um einen plötzlichen Aufstieg in den Suchergebnissen, z.B. durch kurzfristig gekaufte oder
gemietete Links entgegenzuwirken, dauert es zumeist eine gewisse Zeit, bis externe Links
berücksichtigt werden.
Wenn Sie Links kaufen oder mieten, müssen Sie davon ausgehen, dass diese manchmal erst
nach 3-6 Monaten ihre volle Wirkung zeigen. Diesen Zeitraum sollten Sie in Ihre
Investitionsplanung in jedem Fall mit einbeziehen, zumal es ebenfalls bis zu drei Monate
dauern kann, bis der vererbte PageRank der neu gesetzten Links auf Ihrer Seite angezeigt
wird...
6.1.6. Anzahl der Links
Die Anzahl der Webseiten, die mit einem Link auf Ihre Seite verweisen, ist ebenfalls ein
wichtiger Rankingfaktor. Es sei jedoch noch einmal darauf hingewiesen, dass nur ein einziger
starker Link, also z.B. ein Link von einer Seite mit einem hohen PageRank, oder der Verweis
einer Autoritätsseite, einen größeren Einfluss auf das Ranking Ihrer Webseite haben kann, als
viele schwache Links. Dennoch ist auch die Gesamtzahl der externen Links von Bedeutung.
Unterschieden werden Linkpopularität, Domainpopularität und die IPPopularität.
Linkpopularität: Die Linkpopularität oder ‚Link Popularity´ ist die Anzahl aller Links, die
auf Ihre Seite verweisen. Bei der Linkpopularität werden z.B. auch sämtliche Links gezählt,
die von ein und derselben Webseite ausgehen.
Domainpopularität: Unter diesem Begriff, auch ‚Domain Popularity´ genannt, versteht man
die Anzahl der Links, die von unterschiedlichen Domains auf eine Webseite verweisen.
IP-Popularität: Bei der IP-Popularität bzw. ‚IPPopularity ´ werden nur die Links gezählt, die
von unterschiedlichen IPs bzw. IP-Blöcken eingehen. Im Allgemeinen fließen alle drei
Faktoren in das Ranking einer Webseite mit ein.
Die genaue Gewichtung der einzelnen Popularitäten lässt sich nur schwer genau bestimmen.
Die Linkpopularität, also lediglich die Zahl aller Links, dürfte am schwächsten gewertet
werden, da man z.B. mit einem Footerlink auf einer großen Webseite leicht mehrere hundert
Links erhalten kann. Bei der IP-Popularität besteht z.B. das Problem, dass einige Webhoster
für viele Kundenwebseiten die gleiche IP verwenden. Aus diesen Gründen wird die
Domainpopularität am stärksten gewichtet...
6.1.7. Autorität der Links
Die Suchmaschinen teilen Webseiten in verschiedene Autoritätsstufen ein. Diese geben an, ob
die betreffende Seite lediglich unwesentliche Informationen zu einem einzigen Thema enthält,
oder ob sie z.B. eine Autorität ist, welche dem Besucher weiterführende Daten bzw.
Informationen zu einem Thema oder Themenkomplex bieten kann. Links von Experten- oder
Autoritätsseiten werden dementsprechend schwerer gewichtet.
Sie erkennen Autoritätsseiten daran, dass sie viele Links zu weiterführenden Informationen
enthalten. Gleichzeitig wird auf vielen anderen Webseiten auf die Autorität hingewiesen...
6.1.8. Themenrelevanz
Immer häufiger werden Links gemietet und gekauft. Darum wird die Themenrelevanz der
verlinkenden Webseiten umso wichtiger. Die Suchmaschinen gehen davon aus, dass
themenrelevante Links nicht kommerziell erworben, sondern eingefügt wurden, um dem
Besucher weitere Informationen anzubieten. Achten Sie möglichst immer darauf, Links von
Seiten zu erhalten, deren Thematik mit dem Thema Ihrer eigenen Webseite konform geht.
Der Aspekt ‚Themenrelevanz´ ist jedoch nicht unbedingt ein Ausschlusskriterium z.B. für
einen Linktausch. Auch die Links themenfremder Seiten wirken sich positiv auf das Ranking
Ihrer Webseite aus...
6.1.9. Linkaufbau
Der richtige Linkaufbau ist einer der wichtigsten Faktoren bei einer
Suchmaschinenoptimierung. Spätestens seit der ‚Existenz´ der Google Sandbox, einem Filter
innerhalb des Algorithmus, welcher neue Webseiten, die zu viele Links in zu kurzer Zeit
erhalten, in den ‚Sandkasten´, d.h. an das Ende der für die Seiten relevanten Suchergebnisse
befördert, sollte immer ein natürlicher bzw. natürlich wirkender Linkaufbau angestrebt
werden. Hierbei gibt es einige Punkte, die Sie in jedem Fall beachten müssen.
Gerade bei einer neuen Webseite sollten anfangs nicht zu viele bzw. zu starke externe Links
gesetzt werden. Eine normale Webseite, die z.B. schon nach wenigen Tagen 50 starke
Backlinks besitzt, und daher theoretisch hoch gelistet werden müsste, wird von den
Suchmaschinen, insbesondere von Google, abgestraft.
In der Anfangsphase dürfen nur wenige, d.h. 2-5 Links pro Tag gesetzt werden, da die
Gesamtzahl der Links nicht abrupt, sondern kontinuierlich zunehmen sollte. Es gibt
Webseitenbetreiber, die einen eventuellen Aufenthalt in der Google Sandbox mit in ihre
Optimierungsarbeit einkalkulieren und von Anfang an so viele Links setzen, wie möglich. Es
dauert meistens nicht länger als 3-6 Monate, bis der Filter nicht mehr greift, bzw. bis die Seite
wieder normal gerankt wird.
Welche Art des Linkaufbaus Sie wählen, bleibt Ihnen überlassen. Es könnte jedoch sehr gut
sein, dass ein einmaliger Aufenthalt in der Sandbox dauerhaften Einfluss auf das Ranking
einer Webseite hat. Bei einem natürlichen Linkaufbau ist es zudem selten der Fall, dass ein
hoher Prozentsatz der externen Links aus einem Bereich, z.B. aus dem Footer der
verlinkenden Webseiten stammt. Weil dieser Bereich oft für gekaufte bzw. getauschte Links
verwendet wird, werden diese Links von den Suchmaschinen in der Regel nicht so stark
gewertet. Das Gleiche gilt für viele Links von der gleichen Domain oder IP-Adresse.
Da z.B. die meisten Footerlinks oft auf allen Webseiten einer Internetpräsenz angezeigt
werden, erhalten Sie zwar augenscheinlich sehr viele Links auf einmal, deren Gewichtung
bzw. Stärke ist jedoch oft nur sehr gering. Versuchen Sie immer, ein natürliches Verhältnis
sowohl der verlinkenden Seiten, als auch der Linkpositionen auf diesen Seiten herzustellen.
Letzteres gilt auch für die Linktexte. Wenn ein hoher Prozentsatz der Linktexte gleich ist,
gehen die Suchmaschinen davon aus, dass Sie als Webseitenbetreiber Initiator dieser Links
waren. Die Linktexte bei einem natürlichen Linkaufbau sind aufgrund der Thematik einer
Webseite zwar immer ähnlich, nie aber gleich. Bieten Sie den Webseitenbetreibern anderer
Seiten immer einige unterschiedliche Textmöglichkeiten zur Auswahl. Wenn Sie
Linktextvorschläge direkt auf Ihrer Webseite einbinden, bedeutet dieses, dass Sie die
Linktexte in regelmäßigen Abständen ändern müssen.
Die Zieladressen der externen Links sollten, um einen natürlich wirkenden Linkaufbau zu
gewährleisten, ebenfalls variieren. Viele natürliche Links verlinken z.B. nur auf eine
bestimmte Unterseite einer Webpräsenz, da nur die dort enthaltenen Informationen für den
Besucher der verlinkenden Seite interessant sein könnten. Am
Anfang eines organisierten Linkaufbaus sollten Sie natürlich zunächst einmal einige Links auf
die Startseite Ihrer Internetpräsenz setzen, Sie können jedoch zwischendurch auch einige
Unterseiten verlinken. Da sich die Linkpower bzw. der PageRank, vorausgesetzt Ihre
Webseite hat eine gut strukturierte interne Verlinkung, gleichmäßig verteilt, wirken externe
Links auf die Unterseiten indirekt auch auf das Ranking Ihrer Startseite bzw. der gesamten
Webseite. Das Verhältnis von eingehenden Links zu ausgehenden Verweisen ist ebenfalls ein
wichtiges Rankingkriterium. Suchmaschinen erkennen gewisse Muster innerhalb der
Verlinkung. Wenn Sie z.B. bei einem Tausch einen Link zu der Webseite Ihres Partners
setzen und dieser den Link Ihrer Webseite einfügt, registrieren die Suchmaschinen diese
Vernetzung, auch reziproke Verlinkung genannt. Sie gehen davon aus, dass hier eventuell
Links getauscht wurden und werten beide Links unter Umständen entsprechend ab.
Auch wenn einige Experten behaupten, eine gegenseitige bzw. reziproke Verlinkung bringt
keine Nachteile mit sich, wird bei einigen Suchdiensten durchaus darauf geachtet, ob es sich
um getauschte, gekaufte oder echte Links handelt. Der PageRank, mit einer der wichtigsten
Rankingfaktoren der Suchmaschine Google, kann durch das Tauschen und Kaufen von Links
leicht manipuliert werden. Aus diesem Grund wird verstärkt daran gearbeitet, etwaige Links
zu erkennen und abzuwerten. Zusammenfassend lässt sich sagen, dass ein natürlich wirkender
Linkaufbau niemals klar strukturiert bzw. linear verläuft. Es kommt z.B. vor, dass eine
Webseite aufgrund eines neu eingestellten und wirklich interessanten Artikels, viele
Backlinks in sehr kurzer Zeit erhält. Auf der anderen Seite kann es passieren, dass eine Seite
lange Zeit keinen neuen Verweis bekommt. Genauso verhält es sich mit den Linktexten und
den Zieladressen.
Wenn Sie selbst einen natürlichen Linkaufbau ‚simulieren´ möchten, gilt es zwar einige
grundsätzliche Regeln zu beachten, Sie sollten jedoch auf keinen Fall zu strukturiert
vorgehen, da Suchmaschinen diese Strukturen erkennen. Bedeutend einfacher wird der
Linkaufbau, wenn Sie mehrere Webseiten betreiben und Sie die Links bzw. Adressen
variieren können...
6.2.
Links aus Webkatalogen/-verzeichnissen
Gerade am Anfang ist es oft schwer, geeignete Linkpartner für eine Webseite zu finden. Die
Seite ist noch unbekannt und hat einen PageRank von 0. Der Eintrag in verschiedene
Webkataloge ist eine gute Möglichkeit, wie Sie schnell, einfach und in der Regel kostenlos
einige Backlinks generieren können. Man unterscheidet Webverzeichnisse mit bzw. ohne
‚Backlinkpflicht´. Webkataloge mit Backlinkpflicht nehmen Ihren Eintrag nur dann auf, wenn
Sie selbst einen Gegenlink auf Ihrer Webseite einfügen.
Zwei weitere Kriterien bei der Auswahl geeigneter Verzeichnisse sind die Eintragsart und der
PageRank der Seite, auf der Ihr Eintrag veröffentlicht wird. Viele Kataloge verlinken die
Einträge nur indirekt, einige verwenden auch so genannte ‚NoFollow- Links´, d.h. Links, die
von Suchmaschinen nicht verfolgt werden, und daher auch keine Relevanz für das Ranking
der verlinkten Webseiten haben. Auch beim PageRank des jeweiligen Webkataloges sollten
Sie sich nicht täuschen lassen. Oft hat z.B. die Startseite einen PR von 5 oder 6, die
eigentlichen Seiten, auf denen die Einträge veröffentlicht werden, aber nur noch einen
PageRank von 2 oder 3. Ratsam ist, wenn Sie Ihre Webseite zu Beginn in ca. 15-25
ausgewählte Webkataloge bzw. Verzeichnisse eintragen. Links zu einigen Listen
verschiedener Webverzeichnisse finden Sie im Kaptitel ‚Links, Tools und Software´.
Es gibt zwei Verzeichnisse bzw. Kataloge, auf die Sie Ihr besonderes Augenmerk legen
sollten. Da ist zum einen das Open Directory Projekt (ODP), auch DMOZ genannt, und zum
anderen das Yahoo Verzeichnis. Die Autoritätsstufe und damit auch das Ranking einer
Webseite, welche ins ODP eingetragen wurde, steigt in der Regel innerhalb kürzester Zeit.
Die Einträge in das Open Directory Projekt werden, wie bereits beschrieben, von speziellen
Editoren manuell eingepflegt. Google und auch andere Suchmaschinen gehen davon aus, dass
eine Seite, welche bei DMOZ gelistet ist, einen allgemeinen Nutzen für deren Besucher
darstellt. Dementsprechend spiegelt sich dieser Eintrag auch im Ranking der jeweiligen
Webseite wieder. Sie sollten also in jedem Fall versuchen, Ihre Seite beim ODP anzumelden.
In der Regel dauert es mehrere Monate, bis Ihr Eintragswunsch bearbeitet wird.
Im Gegensatz zu dem kostenlosen Eintrag bei DMOZ, ist ein Eintrag in das Yahoo
Verzeichnis im Augenblick nur noch gegen Bezahlung möglich. Damit dürfte sich dieser
Eintrag nicht derart positiv auf das Ranking einer Webseite auswirken, wie eine Listung im
ODP. Sie erhalten jedoch durch einen Eintrag in das Yahoo Verzeichnis einige starke
Backlinks, welche das Ranking positiv beeinflussen können...
6.3.
Links aus Artikelverzeichnissen
Eine weitere kostenlose Möglichkeit, externe Links zu erhalten, sind Artikelverzeichnisse.
Wie der Name schon sagt, bestehen diese aus Artikeln bzw. Texten zu den verschiedensten
Themen und Bereichen. Bei den meisten Verzeichnissen kann man sich registrieren und dann
selbst Artikel schreiben. Als Gegenleistung für den ‚gelieferten´ Content, darf man dann ein
oder oft auch zwei Links innerhalb des Artikels einfügen. Der Vorteil dieser Links ist, dass
man sie direkt in den Text, also in den Content setzen darf. Der Nachteil einiger
Verzeichnisse besteht in der Tatsache, dass täglich viele neue Artikel geschrieben und
eingestellt werden. Der selbst geschriebene Text rutscht so oft relativ schnell nach unten.
Mittlerweile gibt es unzählige Verzeichnisse. Genau wie bei den Webkatalogen, sollten Sie
auch hier darauf achten, dass der von Ihnen geschriebene Artikel nicht auf irgendeiner
Unterseite mit einem Pagerank von 0 oder 1 veröffentlicht wird. 83 Wenn man ein wenig
recherchiert, findet man Artikelverzeichnisse, die einen PR von 4, 5 oder 6 haben. Da diese
Verzeichnisse Artikel, welche bereits an anderer Stelle veröffentlicht wurden, in der Regel
ablehnen, ist es ratsam, sich bei der Auswahl ein wenig Zeit zu nehmen. Das Schreiben eines
individuellen Textes ist gar nicht so leicht und sollte dementsprechend ‚belohnt´ werden. Als
kleine Hilfe finden Sie im Kapitel ‚Links, Tools und Software´ einige Links zu Listen mit
ausgewählten Artikelverzeichnissen.
Da, wie schon beschrieben wurde, der Content einer Seite der bedeutendste Rankingfaktor
überhaupt ist, können Sie z.B. auch den Webseitenbetreibern themenverwandten Seiten das
Angebot machen, einen Text bzw. einen Gastartikel zu schreiben. Sicherlich sind viele dann
auch bereit, im Gegenzug einen Link zu Ihrer Seite zu setzen...
6.4.
Links aus Weblogs
Ein Weblog, oft einfach ‚Blog´ genannt, ist im eigentlichen Sinne eine Art ‚digitales
Tagebuch´. Mittlerweile gibt es jedoch Blogs zu den verschiedensten Themen. Der
Unterschied zu einer normalen Webseite lässt sich auf den ersten Blick oft kaum mehr
ausmachen.
Die Vorteile eines Blogs sind die einfache Erstellung sowie die leicht zu bedienende
Benutzeroberfläche. Sie machen es dem Besitzer eines Weblogs bzw. dem Besucher leicht,
ständig neue Informationen, Einträge und Kommentare zu erstellen. Die ersten Weblogs sind
Mitte der 90er Jahre erstanden. Seit dieser Zeit ist die Zahl der Blogs förmlich explodiert.
Damit sind sie auch zu einem Thema innerhalb der Suchmaschinenoptimierung geworden.
Ein Vorteil der Weblogs sind die so genannten Permalinks. In der Regel werden alle Einträge,
die in einem Blog gemacht wurden, archiviert. Diese können dann jederzeit unter einer
bestimmten Adresse aufgerufen bzw. verlinkt werden. Für viele Webseitenbetreiber zusätzlich
interessant ist, dass man in Weblogs selbst Einträge oder Kommentare verfassen kann. Diese
Funktionalität und besonders die Aktualität der Blogs stufen die Suchmaschinen sehr hoch
ein.
Durch die neuartigen Verlinkungsmöglichkeiten haben viele Weblogs einen hohen PR bzw.
eine hohe Autorität. Externe Links aus Blogs sind aus diesem Grund sehr beliebt, und helfen,
das Ranking einer Webseite positiv zu beeinflussen. Was für den Besucher bzw. für die
Aktualität der Blogs von Nutzen ist, hat auf der anderen Seite leider schon viele Betreiber
dazu veranlasst, ihren Blog aufgrund von Spameinträgen zu schließen.
Wenn Sie darauf aus sind, externe Links aus Weblogs zu erhalten, sollten Sie sich wirklich
die Mühe machen, einen sinnvollen Beitrag bzw. Kommentar zu erstellen...
6.5.
Social Bookmarking
Unter dem Begriff Social Bookmarking versteht man die öffentliche Verwaltung von
Favoriten, also bevorzugten Webseiten. Mittlerweile gibt es zahlreiche Social Bookmark
Dienste. Zu den bekanntesten zählen unter anderem Mister Wong oder del.icio.us. Auf diesen
Seiten kann der Benutzer seine eigenen Bookmarks online verwalten, und die der anderer
Mitglieder einsehen oder auch abonnieren. Darüber hinaus kann jedes Mitglied seine eigene
Liste unterschiedlichen Kategorien zuordnen und die Wichtigkeit einzelner Bookmarks
bewerten. Jede einzelne Kategorie ist also eine von vielen Mitgliedern bewertete ‚Rangliste´
zu dem entsprechendem Thema, ähnlich einem redaktionell gepflegtem Webkatalog.
Da die Social Bookmarks ständig von unzähligen Mitgliedern neu bewertet werden, spielt das
‚Ranking´ innerhalb dieser Listen indirekt auch eine Rolle für das Ranking Ihrer Webseite.
Die Suchmaschinen nutzen einige Daten bzw. Informationen der Social Bookmark Dienste
und lassen diese zum Teil mit in das eigene Bewertungsschema einzelner Webseiten
einfließen. In welchem Umfang dieses geschieht, lässt sich nur schwer sagen, da es auf der
anderen Seite auch möglich ist, die Listen der Social Bookmarks zu manipulieren, indem man
z.B. Gruppen innerhalb der Mitglieder einzelner Dienste bildet und gezielt versucht, einzelne
Bookmarks zu ‚pushen´.
Resümierend lässt sich sagen, dass das Social Bookmarking, ein wesentlicher Bestandteil des
Web 2.0, in Zukunft immer mehr an Bedeutung gewinnen wird. Wer seine Seite umfassend
für Suchmaschinen optimieren möchte, muss sich mit diesem Thema auseinandersetzen...
6.6.
Pressemitteilungen
Pressedienste oder -verteiler sind in erster Linie dafür gedacht, wichtige Mitteilungen bzw.
Nachrichten zu publizieren, und an relevante Adressen, wie z.B. Verlagshäuser, Redakteure
oder Journalisten, weiterzuleiten. In der Regel können Sie bei einer Pressemitteilung, z.B.
über den Launch Ihrer Webseite, auch einen Link oder eine Kontaktadresse mit angeben,
unter welcher die betreffende Seite oder weiterführende Informationen zu finden sind. Sie
erhalten somit unter Umständen gleichzeitig einige externe Links zu Ihrer Webseite. Es gibt
eine ganze Reihe von Anbietern, welche damit werben, eine Nachricht an die wichtigsten EMail Adressen bzw. Agenturen zu verschicken. Unterscheiden muss man zwischen
kostenlosen und kostenpflichtigen Diensten.
Man kann nicht generell sagen, dass Letztere immer besser sind. Tatsache ist jedoch, dass
gerade bei den kostenlosen Diensten oft kaum selektiert bzw. recherchiert wird, und täglich
unzählige neue Meldungen bzw. Nachrichten verschickt werden. Bei den kostenpflichtigen
Anbietern werden die Mitteilungen zumeist auf deren Inhalt überprüft und bestimmten
Themengebieten zugeordnet. Oft werden dann mehrere Nachrichten zu einem einzelnen
Thema gezielt an dafür bestimmte Adressaten, z.B. Journalisten oder Redakteure bestimmter
Zeitungen oder Zeitschriften, versendet. Man sollte, bevor man eine Pressemitteilung über
einen bestimmten Anbieter verschickt, überlegen, was man damit erreichen möchte.
Wenn Sie lediglich einige Backlinks generieren wollen, bieten sich vielleicht einige bereits
etablierte kostenlose Presseverteiler an. Wenn Sie jedoch erreichen wollen, dass vielleicht das
Interesse des ein oder anderen Redakteurs geweckt wird, sollte man eher auf einen
kostenpflichtigen Anbieter zurückgreifen...
6.7.
Linklisten
Eine weitere gern genutzte Möglichkeit, um schnell und einfach das Ranking einer Webseite
zu verbessern, sind Einträge in Linklisten oder Gästebücher. Es gibt viele Anbieter, die damit
werben, Ihre Webseite in unzählige Linklisten einzutragen. Der daraus resultierende Erfolg ist
zumeist lediglich die Tatsache, dass Ihre Mailbox durch das Veröffentlichen Ihrer
Kontaktdaten mit Werbemails überschwemmt wird. Linklisten sind oft einfach nur wahrlose
Ansammlungen diverser Verweise aus den unterschiedlichsten Bereichen. Das Ranking Ihrer
Webseite wird durch einen Eintrag in diese Listen kaum positiv beeinflusst. Es kommt sogar
vor, dass Ihnen ein Eintrag schadet und sich das Ranking Ihrer Webseite verschlechtert.
Google selbst weist in seinen Richtlinien explizit darauf hin, dass man von PR-Diensten
jeglicher Art Abstand nehmen soll, da das Ranking einer Webseite z.B. durch Links von
Webspammern oder Link- Programmen negativ beeinflusst werden kann. Ratsamer ist es
daher, sich in einige ausgewählte Webkataloge einzutragen, bzw. einige Texte in
Artikelverzeichnissen zu veröffentlichen. Wenn Sie dem ‚Ansehen´ Ihrer Webseite nicht
schaden wollen, sollten Sie den Eintrag in einfache Linklisten und unzählige Gästebücher
unterlassen. Auch das ‚Umfeld´ Ihrer Webseite ist ein Rankingfaktor. Links aus kaum
geprüften Listen können leicht als Bad Neighbourhood bzw. ‚schlechte Nachbarschaft´
bezeichnet und dementsprechend abgewertet werden...
6.8.
PR-Dienste
Das Gleiche was für die Linklisten gilt, kann man auch auf die meisten PR- bzw. PageRankDienste übertragen. Seitdem vor einigen Jahren der Quellcode bzw. das
Berechnungsverfahren des PageRanks geknackt und damit öffentlich bekannt wurde, gibt es
diverse Anbieter verschiedener Serviceleistungen.
Durch das Implementieren eines Buttons oder einfach nur eines HTML-Codes kann der
Besucher anhand einer Grafik den aktuellen PageRank Ihrer Webseite erkennen. Gleichzeitig
nehmen Sie in vielen Fällen an Besucheroder Rankingwettbewerben teil, indem Ihre Webseite
eingetragen und mit anderen Seiten verglichen wird.
Für das Einfügen des Buttons bzw. Codes, welches immer auch einen zusätzlichen, zumeist
starken Backlink für den Betreiber des PRDienstes bedeutet, erhalten Sie oft nur einen
schwachen Link auf irgendeiner Unterseite. Google hat den Betreibern dieser Dienste erst
kürzlich offiziell ‚den Kampf angesagt´, und entsprechende Webseiten zum Teil aus dem
Index entfernt.
Sie sollten also mehr als vorsichtig sein, und nicht auf die Werbetricks der meisten PRDienste hereinfallen. Der Schaden, den Sie Ihrer Webseite durch die Teilnahme an z.B. gleich
mehreren dieser Dienste zufügen können, kann weitaus größer sein, als der eventuelle Nutzen.
Möchten Sie dem Besucher Ihrer Webseite dennoch den beschriebenen Service anbieten,
beschränken Sie sich auf einen der bereits etablierten Anbieter...
6.9.
Linkkauf / Linkmiete
Viele ‚eingefleischte´ Suchmaschinenoptimierer lehnen das Kaufen oder Mieten von externen
Links unter der Behauptung ab, dass es auch ohne finanzielle Aufwendungen möglich sein
muss, eine Webseite oben in den Ergebnislisten der Suchmaschinen zu positionieren.
Zweifellos ist das der Fall, es ist jedoch auch Tatsache, das viele bzw. fast alle kommerziellen
Webseiten einen Teil ihrer Werbeausgaben fest für das Mieten und Kaufen von Links
einkalkulieren.
Natürlich kann man z.B. auch durch Linktausch sein Ziel erreichen, manchmal kann es jedoch
sinnvoll sein, einige starke Links käuflich zu erwerben, z.B. um die Anzahl ausgehender
Links zu minimieren oder freie Linkplätze zu halten. Links, ob nun als Banner oder Textlinks,
kann man mittlerweile fast überall kaufen. Einige Beispiele sind Internetauktionshäuser,
spezielle Linkkauf- oder Linkmietplattformen oder so genannte Linkbroker, welche sich
darauf spezialisiert haben, Interessenten an entsprechende Verkäufer zu vermitteln.
Wenn Sie sich entschlossen haben, einen oder gleich mehrere Links zu kaufen, sollten Sie
einige grundsätzliche Regel bzw. Empfehlungen beachten. Zunächst lässt sich feststellen, dass
Links immer ihren Preis haben. Billigangebote, in denen Ihnen zahlreiche starke Links für
wenige Euros angeboten werden, sind in der Regel mit Vorsicht zu genießen. Ein PR 6 Links
kann z.B. durchaus 50 Euro im Monat kosten, ein PR 7 Link mehrere hundert Euro und noch
stärkere Links entsprechend mehr. Sie dürfen jedoch nicht davon ausgehen, dass ein stärkerer,
bzw. ein Link mit einem höherem PageRank, Ihre Webseite auch dementsprechend besser in
den Suchergebnissen positionieren wird. Das Gegenteil ist oft der Fall. Wenn Sie
beispielsweise für eine neue Webseite gleich mehrere sehr starke Links kaufen, kann es
passieren, dass Ihre Webseite aufgrund ‚unnatürlichen Linkwachstums´ für eine längere Zeit
in der Google Sandbox landet. Was das für das Ranking Ihrer Webseite bedeutet, wurde
bereits erläutert.
Achten Sie beim Linkkauf bzw. bei der Linkmiete immer darauf, nicht in den
Wirkungsbereich einer der vielen Filter der Suchmaschinen zu gelangen. Vereinfacht gesagt
heißt dieses, Sie müssen sich auch hier Zeit lassen. Bei einer relativ neuen Webseite sollten
Sie sich z.B. lediglich für den Kauf einiger PR 3, PR 4 oder maximal PR 5 Links entscheiden.
Alles andere könnte dem Ranking Ihrer Seite eher schaden als nützen. Hat Ihre Seite nach
einigen Monaten selbst einen PageRank, können entsprechend stärkere Links gesetzt werden.
Wenn Sie sich endgültig für einen Anbieter bzw. eine Webseite, auf welcher Ihr Link gesetzt
werden soll, entschieden haben, müssen Sie zunächst einmal prüfen, ob der PageRank der
Seite auch wirklich echt ist. Durch gewisse Tricks, z.B. das Spiegeln des PageRanks, ist es
möglich, auf Seiten die normalerweise einen PR von 0 haben, einen PR von z.B. 5 oder 6
anzeigen zu lassen. Auch gilt es sicherzugehen, dass der PageRank bzw. die Linkpower der
Links auf der von Ihnen gewählten Webseite auch wirklich vererbt werden. Es gibt einige
kostenlose Tools, mit denen Sie die Echtheit des angezeigten PageRanks bzw. die Links selbst
überprüfen können. Einige finden Sie im Kapitel ‚Links, Tools und Software´. Führen Sie
immer auch eine so genannte Backlinkanalyse durch, indem Sie sich die Anzahl und Qualität
der Backlinks der entsprechenden Seite anzeigen lassen. So können Sie sicher gehen, dass die
Webseite auch noch in einigen Monaten den angezeigten PageRank halten kann.
Ausschlaggebend ist hier vor allen Dingen die Domainpopularität, welche sich leicht
bestimmen lässt. Die dafür notwenigen Tools finden Sie ebenfalls im Kapitel ‚Links, Tools
und Software ´. Außerdem muss die Autorität, die Anzahl der ausgehenden Links, sowie das
Thema der Webseite bei Ihrer Entscheidung eine Rolle spielen. Ein PR 6 Link auf einer
themenfremden Seite, auf der weitere 50 Links vorhanden sind, kann schnell weniger
bewirken als z.B. ein PR 4 Link auf einer themenverwandten Seite, die nur 10 externe Links
besitzt.
Eine indirekte Möglichkeit, Links zu kaufen, ist das Sponsoring oder das Spenden. Oftmals
lassen sich durch das Spenden einmaliger Geldbeträge, z.B. für die Entwicklung einer Open
Source Software oder als Unterstützung für Organisationen oder Vereine, starke Backlinks
gewinnen. Leider sind entsprechende Webseiten mittlerweile bekannt. Somit finden Sie Ihren
Link schnell als einen unter vielen anderen wieder. Auch hier sollte zuerst genau recherchiert
werden, ob sich die ‚Investition´ auch wirklich lohnt.
Allgemein lässt sich sagen, dass es beim Kauf von permanenten oder vorübergehenden Links
sehr viel zu beachten gibt. Um den schnell wachsenden Markt der Linkanbieter zu bremsen,
haben einige Suchmaschinen entsprechende Webseiten indexiert und werten alle Links auf
diesen Seiten ab. Vor allem aus diesem Grund ist oftmals der nicht kommerzielle Tausch von
Links dem Linkkauf, vor allem bei einschlägig bekannten und unseriösen Anbietern,
vorzuziehen...
6.10. Linktausch
Es ist oft sehr schwer, Linktauschpartner für eine Webseite zu gewinnen, deren PageRank
noch bei 0, 1 oder 2 liegt. Ihre Seite sollte mindestens einen PR von 3 oder 4 haben, bevor Sie
damit beginnen, Linktauschanfragen zu stellen.
Obwohl lange nicht das einzige Kriterium bei der Beurteilung von Links, schauen viele
Webseitenbetreiber zuerst auf den PageRank der Seite des potenziellen Linktauschpartners.
Wenn Ihre Webseite noch keinen bzw. einen sehr geringen PR hat, werden die Anfragen in
der Regel abgelehnt. Ein PR von 3 lässt sich jedoch relativ leicht, wie schon beschrieben, z.B.
durch einige Links aus Webkatalogen und Artikelverzeichnissen erreichen. Wenn Ihre Seite
einen eigenen PageRank von 3 oder sogar 4 aufweist, sollten Sie sich genügend Zeit nehmen,
geeignete Linkpartner zu finden. Weit verbreitet sind so genannte Linktauschbörsen oder
spezielle Foren, in denen man gezielt nach geeigneten Partnern suchen kann. Wie schon im
vorangegangenen Kapitel dargestellt, werten die Suchmaschinen offensichtlich gekaufte,
gemietete und auch getauschte Links unter Umständen ab. Von speziell auf das Thema
Linktausch ausgerichteten Services sollten Sie daher Abstand nehmen, da diese Anbieter den
meisten Suchmaschinen bereits bekannt sind.
Zwei einfache Möglichkeiten, geeignete Linkpartner zu finden, sind die Suche nach den für
Ihre Seite relevanten Keywords in einigen Suchmaschinen und Verzeichnissen, oder die
Backlinkanalyse der Seiten Ihrer Konkurrenz. Wenn Sie Ihre Hauptkeywords in einigen
Suchmaschinen eingeben, erhalten Sie eine Liste potenzieller Linkpartner. Führen Sie eine
Backlinkanalyse einiger Konkurrenzseiten durch, sehen Sie, welche Webseiten bereits auf
Ihre Konkurrenz verlinken. Auch diese sind zumeist aufgrund der Themenrelevanz
potenzielle Partner für Ihre eigene Webseite.
Bei der eigentlichen Auswahl und Beurteilung der Webseiten bzw. der Links, sollten Sie
wieder die schon im Kapitel ‚Linkkauf/Linkmiete´ aufgeführten Kriterien zur Hilfe nehmen.
PageRank, Autorität und die Themenrelevanz einer Webseite seien hier nur noch einmal am
Rande erwähnt.
Haben Sie sich letztendlich für einige Webseiten, mit denen Sie sich eine Linkpartnerschaft
vorstellen könnten, entschieden, geht es nun daran, die Betreiber der jeweiligen Webseiten zu
kontaktieren. Wenn Sie eine E-Mail schreiben, sollten Sie versuchen, den jeweiligen
Webseitenbetreiber persönlich anzusprechen und ihm kurz und präzise erklären, warum Sie
seine Seite ausgewählt haben, und sich eine Linkpartnerschaft gerade mit ihm sehr gut
vorstellen könnten. Unpersönliche, standardisierte oder sogar von speziellen Programmen
verschickte E-Mails haben in der Regel eine hohe Ablehnungsquote. Versuchen Sie
freundlich aber auch kompetent zu wirken. Gehen Sie kurz auf das Thema bzw. auf die
Webseite des potenziellen Partners ein, indem Sie erläutern, was Ihnen an der Seite besonders
gefällt. Details, wie den PageRank der Seite oder die Anzahl der Backlinks sollten Sie
vermeiden. Entweder weiß der jeweilige Webseitenbetreiber genau um die Qualität seiner
Seite, oder Ihr Ansprechpartner weiß mit diesen Begriffen überhaupt nichts anzufangen.
Nachdem Sie sich mit Ihrem zukünftigen Tauschpartner einig geworden sind, müssen Sie
zunächst einige wichtige Punkte besprechen. Weisen Sie darauf hin, dass Sie die Backlinks
Ihrer Webseite regelmäßig überprüfen. Es gibt leider immer wieder Webseitenbetreiber, die
nach einiger Zeit Links entfernen, verändern oder verschieben. Erläutern Sie zudem, dass die
Position ein wichtiges Kriterium bei der Beurteilung von Links ist. Vermeiden Sie Footerlinks
oder Verweise auf speziellen Link- oder Tauschseiten. Ein weiterer Diskussionspunkt ist die
Art der Verlinkung. Der Link muss immer direkt, d.h. ohne Umleitung auf Ihre Seite
verweisen. Da die Suchmaschinen, wie schon gesagt, getauschte Links abwerten, sollten Sie
wenn möglich eine gegenseitige bzw. reziproke Verlinkung vermeiden.
Einfache Linkstrukturen werden in der Regel sofort erkannt und unter Umständen von einigen
Suchmaschinen negativ gewertet. Leider lässt sich diese Art der Verlinkung nur umgehen,
wenn Sie mehrere Seiten besitzen. Dann können Sie einen Link zu der Seite Ihres Partners
setzen und dieser verweist auf eine andere Ihrer Webseiten. Experten streiten immer noch
darüber, ob eine reziproke Verlinkung wirklich schadet bzw. weniger positiven Einfluss auf
das Ranking der jeweiligen Seiten hat, als eine ‚einseitige´ Verlinkung. Tatsache ist in jedem
Fall, dass auch reziproke Links großen Einfluss auf die Position in den Ergebnissen der
Suchmaschinen haben, und viele getauschte Links auch nicht als Solche erkannt werden.
Der gezielte Linkaufbau durch das Tauschen von gleichwertigen und themenrelevanten Links
ist deswegen ein geeignetes Mittel, um das Ranking Ihrer Webseite erheblich zu verbessern...
6.11. Weitere externe Rankingfaktoren
Genau wie bei den internen Faktoren, gibt es auch bei den externen Rankingfaktoren noch
viele weitere Kriterien, die bei der Listung der Ergebnisse von Suchmaschinen berücksichtigt
werden. Generell gibt es im Augenblick noch mehr interne Faktoren, wobei die Tendenz
dahin zeigt, dass zukünftig externe, d.h. weniger beeinflussbare bzw. manipulierbare
Rankingkriterien eine immer größere Rolle spielen werden. Auch an dieser Stelle sollen
deswegen weitere wichtige externe Faktoren kurz angesprochen werden...
6.11.1.
Alexa Rank
Alexa Internet ist ein Tochterunternehmen von amazon.com. Mit Hilfe der in vielen
Programmen, z.B. in Windows XP, vorinstallierten Alexa Toolbar, kann der Benutzer diverse
Services, ähnlich denen einer Suchmaschine, in Anspruch nehmen. Die Toolbar zeigt unter
anderem den so genannten Alexa Rank einer Webseite an.
Dieser beurteilt die Qualität einer Seite aufgrund deren Traffic, also deren Besucherstrom
bzw. -verhalten. Das Programm ist mehr als umstritten, da durch die Toolbar auch das eigene
Surfverhalten ermittelt und an Alexa Internet übertragen wird. Dennoch, oder gerade
deswegen, spielt der Alexa Rank eine Rolle für das Ranking Ihrer Webseite. Je höher Ihre
Webseite im Ranking steigt, desto besser wird Sie von den Suchmaschinen bewertet.
6.11.2.
Besucherverhalten
Oft wird diskutiert, ob das Besucherverhalten für das Ranking einer Webseite von Bedeutung
ist. Mittlerweile dürfte es jedoch außer Frage sein, dass sowohl die Anzahl als auch die
Aufenthaltsdauer bzw. das ‚Surfverhalten´ der Besucher bei einigen Suchmaschinen in hohem
Maße mit in die Beurteilung einer Seite einfließt.
Durch das Auswerten so genannter Logfiles lässt sich genau feststellen, wie viele Besucher
eine Seite hatte, wie lange jeder einzelne Besucher auf der Webseite war, über welchen Link
er gekommen ist und wo er die Seite wieder verlassen hat. Auch mit Hilfe vieler Toolbars ist
es den Suchmaschinen möglich, an derartige Informationen zu gelangen. Besonders die
Aufenthaltsdauer der einzelnen Besucher gibt Rückschlüsse über die Qualität der Seite. Wenn
fast jeder die Webseite nach kurzer Zeit wieder verlässt, gehen die Suchmaschinen davon aus,
dass die Seite keine interessanten Informationen enthält. Wenn die Besucher lange auf der
Webseite verweilen und viele einzelne Seiten besuchen, zeigt das hingegen, dass die Seite
interessant ist und relevante Informationen zu bieten hat.
Da sich ebenfalls feststellen lässt, über welche Suchwörter jeder einzelne Besucher auf die
Seite aufmerksam geworden ist, kann man die Relevanz der Webseite in Bezug auf die
einzelnen Keywords bestimmen. Findet der Suchende keine für das Suchwort entsprechende
Informationen, wird er die Seite schnell wieder verlassen. Es ist durchaus möglich, dass
einige Suchmaschinen so auch das Ranking einer Webseite unter den einzelnen Suchwörtern
bewerten und festlegen.
Versuchen Sie immer, dem Suchenden, welcher Ihre Seite unter einem bestimmten Keyword
gefunden hat, auch die Informationen zu bieten, die er sich erwartet. Des Weiteren sollten Sie
besonders darauf achten, das die Startseite Ihrer Internetpräsens einladend und übersichtlicht
aufgebaut ist. Wird der Besucher gleich angesprochen, wird er länger auf der Seite bleiben
und eventuell sogar wiederkommen...
6.11.3.
Kontinuität
Auch die Kontinuität bzw. der schrittweise stattfindende Auf- bzw. Ausbau einer Webseite
und insbesondere deren Linkaufbau ist ein weiterer Rankingfaktor.
Eine Webseite, die regelmäßig aktualisiert, erweitert und ausgebaut wird, findet bei den
Suchmaschinen mehr Beachtung als eine Webseite, die einmal veröffentlicht, kaum verändert
wird. Das Gleiche gilt für den Linkaufbau. Wenn eine Webseite regelmäßig neue Backlinks
erhält, deutet dieses darauf hin, dass die Seite interessant ist, und regelmäßig neue
Informationen zu bieten hat. Wenn eine Webseite dagegen gleich am Anfang viele Backlinks
erhält, im späteren Verlauf aber nur noch wenige oder sogar keine, lässt das eher den Schluss
zu, dass die Links ‚künstlich´ aufgebaut wurden.
Auch hier wird deutlich, dass es für den Aufbau und auch für die Optimierung einer Webseite
sehr viel Zeit, Arbeit und Geduld braucht.
6.11.4.
Seitenaufrufe
Wie schon im Kapitel ‚Besucherverhalten´ erläutert, ist auch die Zahl der Besucher bzw. der
Seitenaufrufe für das Ranking einer Webseite von Bedeutung.
Im Prinzip bedeutet dieses auch, dass die Position einer Webseite in den Suchergebnissen
einer bestimmten Suchmaschine auch für die Listung bei anderen Suchmaschinen wichtig ist.
Wenn Ihre Seite z.B. bei Yahoo sehr gut platziert ist, wird sie es in den meisten Fällen früher
oder später auch bei den anderen Suchmaschinen sein. Die Algorithmen vieler
Suchmaschinen sind sehr ähnlich, zum Teil werden sogar Daten untereinander ausgetauscht.
Insofern wird eine Webseite, welche durch eine bestimmte Suchmaschine viele Besucher
erhält, auch von anderen Suchmaschinen gut bewertet. Wenn darüber hinaus die Unterseiten
einer Webpräsenz viele Besucher erhalten, zeigt das den Suchmaschinen, dass die Seite
interessante und relevante Informationen enthält und zudem sehr gut verlinkt ist.
7.Google
7.1.
Indexierung
7.1.1. Aufnahme in den Index
Wie bereits im Kapitel ‚Indexierbarkeit´ beschrieben, gibt es zwei Möglichkeiten, damit Ihre
Seite indexiert bzw. in den Index der Suchmaschine Google aufgenommen wird. Im Abschnitt
‚Wichtige Adressen/Links´ finden Sie die Internetadresse, unter der Sie Ihre neue Webseite
anmelden können. Einmal angemeldet, wird der Crawler, in diesem Fall der Googlebot, früher
oder später Ihre Webseite besuchen und diese in den Index aufnehmen.
In der Regel dauert es einige Tage, bis Ihre Seite das erste Mal in den Suchergebnissen
auftaucht. Ob Ihre Webseite bereits indexiert wurde, können Sie mit Hilfe einer so genannten
‚Siteabfrage´ feststellen. Hierzu geben Sie einfach ‚site:www.ihredomain.de´ in das Suchfeld
einer Suchmaschine ein. Sie erhalten dann eine Liste der bereits im Index vorhandenen Seiten
Ihrer Internetpräsenz.
Eine weitere Möglichkeit, Ihre Webseite indexieren zu lassen, ist das Setzen einiger externer
Links. Da der Googlebot jedem Link folgt, wird er so relativ schnell auf Ihre Webseite stoßen
und sie aufnehmen. Diese Alternative hat den Vorteil, dass Ihre Seite schneller, manchmal
schon innerhalb weniger Stunden, indexiert wird. Des Weiteren stuft Google die Relevanz
bzw. Autorität Ihrer Webseite durch die externen Links sofort etwas höher ein. Der Vorgang,
bis alle Seiten Ihrer Webpräsenz in den Suchmaschinenindex aufgenommen sind, kann so
ebenfalls beschleunigt werden.
Generell ist es so, dass zuerst Ihre Startseite indexiert wird. Erst später folgen nach und nach
die Unterseiten. Es kann vorkommen, das bei einer Siteabfrage Seiten angezeigt werden, und
bei einer späteren Abfrage anscheinend erneut keine Seite im Index vorhanden ist. Letzteres
ist jedoch nicht der Fall. Google hat mehrere Datencenter, an welche die Suchanfragen
weitergeleitet werden. Abhängig davon, welches Datencenter Sie gerade abfragen, kann es
sein, dass Ihre Webseite dort noch nicht gelistet ist. Es dauert einige Zeit, bis die Seiten auf
allen Datencentern angezeigt werden.
Je mehr externe Links auf eine Webseite verweisen, desto schneller und umfangreicher wird
diese auch indexiert werden. Einmal in den Index aufgenommen, wird Ihre Seite dann in
regelmäßigen Abständen besucht und nach Veränderungen bzw. neuen Inhalten durchsucht.
Wenn Sie Ihre Webseite verändert, z.B. neue Seitentitel oder -beschreibungen eingefügt
haben, kann es unter Umständen jedoch sehr lange dauern, bis diese in den Suchergebnissen
angezeigt werden.
Sie sollten sich daher mit der Erstellung Ihrer Seite Zeit lassen und diese erst anmelden, wenn
Sie sicher sind, dass Sie wirklich keine grundlegenden Veränderungen mehr vornehmen
müssen...
7.1.2. Verbannung aus dem Index
Es kann auch vorkommen, dass eine Webseite aus dem Googleindex entfernt bzw. ‚verbannt´
wird. Kurz gesagt, ist dieses das Schlimmste, was Ihnen als Betreiber einer Seite passieren
kann. Den weitaus größten Teil der Besucher erhalten Webseiten in der Regel über die
Suchmaschine Google. Wird Ihre Seite nicht mehr in den Suchergebnissen angezeigt, sinkt
die Anzahl der Besucher erheblich.
Google und andere Suchmaschinen entfernen jedoch nicht einfach ohne Grund eine Seite aus
ihrem Index. Google z.B. hat bestimmte Richtlinien, an denen man sich bei der Erstellung
bzw. Optimierung einer Webseite halten soll. Verstößt der Aufbau bzw. der Inhalt Ihrer
Webseite gegen diese Richtlinien, wird sie eventuell ohne vorherige Ankündigung aus dem
Index gelöscht.
Neben nicht den Richtlinien entsprechendem Inhalt sind ‚versteckter Text´, Keywordspam,
Duplicate Content und weitere nicht erlaubte Optimierungen bzw. Manipulationen häufige
Gründe für eine Verbannung aus dem Index.
Aufgrund der Gesamtzahl der Webseiten wird leider nicht individuell darüber entschieden, ob
oder in welchem Umfang Ihre Webseite gegen die Richtlinien verstößt. Ihre Seite durchläuft
bei der Indexierung bzw. beim Crawlen spezielle Programme oder Filter. Wird ein grober
Verstoß festgestellt, wird Ihre Seite aus dem Index entfernt. Eine weitere Konsequenz eines
Verstoßes gegen die Richtlinien ist der so genannte ‚Slow Death´, also der ‚langsame Tod´.
Hierbei verschwindet Ihre Webseite nicht abrupt, sondern langsam, Seite für Seite aus dem
Index. Diese Art der Sanktion wird bzw. wurde relativ häufig bei Webseiten beobachtet, die
mehrmals, z.B. unter mehreren Domains im Internet zu finden waren, d.h. bei Duplicate
Content. Sie können zwar z.B. mit Hilfe von Google Analytics feststellen, warum Ihre
Webseite entfernt wurde, die Chance aber, dass diese wieder in den Googleindex
aufgenommen wird, ist eher gering.
Sie sollten sich in jedem Fall an die Richtlinien der einzelnen Suchmaschinen halten. Nicht
nur, weil Sie damit eine eventuelle Entfernung aus dem Index vermeiden, sondern auch, weil
jeglicher Verstoß bzw. Manipulationsversuch erhebliche Folgen für das Ranking Ihrer
Webseite haben kann. Einmal verbannt, bleibt Ihnen nur noch die Möglichkeit, den Grund für
die Entfernung zu beseitigen, und einen Reinclusion Request, also einen
Wiederaufnahmeantrag zu stellen...
7.2.
Reinclusion Request
Wenn Ihre Webseite aus dem Googleindex entfernt wurde, haben Sie die Möglichkeit, einen
Wiederaufnahmeantrag bzw. einen Reinclusion Request einzureichen. Bevor Sie diesen
Eintrag stellen, sollten Sie jedoch den Grund für die Entfernung auf Ihrer Webseite beseitigt
haben. Oftmals gibt es sogar mehrere Ursachen, welche zum Ausschluss geführt haben. Da
Ihre Webseite eventuell manuell geprüft wird, müssen Sie sich wirklich sicher sein, dass diese
bei der Einreichung des Antrags in jedem Punkt den Richtlinien entspricht.
Der Eintrag selbst sollte in jedem Fall über das Support-Forum erfolgen. Die genaue Adresse
bzw. den genauen Link finden Sie im Abschnitt ‚Wichtige Adressen/Links´. Es macht keinen
Sinn, den Eintrag an eine andere, nicht dafür vorgesehene E-Mail Adresse zu versenden, da
Google täglich tausende EMails mit den unterschiedlichsten Themen und Anliegen erhält.
Wichtig ist, dass Sie im Betreff ‚Reinclusion Request´ angeben. Nur so kann Google Ihre
Mail richtig zuordnen bzw. bearbeiten.
In dem Text der Nachricht müssen Sie kurz erläutern, dass und vor allem warum Ihre Seite
aus dem Index entfernt wurde. Erklären Sie anschließend, dass Sie die möglichen Ursachen
beseitigt haben und Ihre Seite nun wieder den Richtlinien entspricht. Versuchen Sie,
freundlich zu wirken und deuten Sie an, dass Sie aus diesem Fehler gelernt haben und nicht
noch einmal versuchen werden, die Richtlinien zu umgehen. Es ist besser, wenn Sie ehrlich
bleiben. Zu schreiben, Sie wären nicht Schuld an der Ursache für die Verbannung, oder
Geschichten zu erfinden, ist nicht ratsam.
In der Regel dauert es eine ganze Weile, bis Ihr Antrag bearbeitet wird. Haben Sie, auch wenn
es schwer fällt, etwas Geduld. Eine wiederholtes Einreichen oder Nachfragen sollten Sie
vermeiden. Bis Ihre Seite unter Umständen wieder in den Index aufgenommen wird, können
leicht Wochen oder sogar Monate vergehen. Die Chancen, dass Ihre Seite überhaupt wieder
angezeigt wird, bleiben gering.
Andere Möglichkeiten, Ihre Seite wieder in den Index zu bringen, gibt es nicht. Sie brauchen
nicht zu versuchen, Ihre Webseite unter einer anderen Domain, einem anderen Server oder
einer anderen IP-Adresse zu veröffentlichen. Google wird schnell feststellen, dass es sich um
die gleiche Webseite handelt und sie nicht in den Index aufnehmen...
7.3.
Pagerank
Der PageRank, bzw. der auf den PageRank basierende Algorithmus, wurde von den Gründern
der Suchmaschine Google entwickelt. Larry Page und Sergey Brin, damals noch Studenten an
der Stanford University, hatten versucht, eine neues Verfahren zur Beurteilung der Relevanz
einzelner Webseiten zu entwickeln.
Der PageRank-Algorhitmus bewertet Webseiten aufgrund der Zahl und der Qualität bzw.
Stärke der eingehenden Links.
Grundlage dieses Verfahrens ist die Theorie, dass die Relevanz einer Seite dann steigt, wenn
andere Webseiten auf diese Seite verweisen. Je stärker das Gewicht der jeweiligen Links, und
je größer die Anzahl, desto höher ist auch die Relevanz bzw. der PageRank der verlinkten
Seite.
Vereinfacht gesagt definiert der PageRank die Wahrscheinlichkeit, dass eine Webseite im
Internet gefunden wird...
7.3.1. Pagerank Algorithmus
Da die genaue mathematische Darstellung bzw. Erklärung des Algorithmus zu umfangreich
wäre, soll hier lediglich noch einmal das Prinzip der Formel kurz verdeutlicht werden. Laut
dem PageRank-Algorithmus besitzt jede Webseite ein Gewicht, den so genannten PageRank.
Dieser wird in einer Skale von 1-10 angegeben, wobei 10 den höchsten Wert bzw. die höchste
Gewichtung darstellt.
Das Gewicht, also der PageRank einer Seite ist umso höher, je mehr Seiten, mit möglichst
eigenem hohen PageRank, auf die Seite verlinken. Eine Webseite erhält durch einen Link
einer anderen Seite einen Teil des Gewichts dieser Seite, also einen Teil des PR. Wie groß
dieser Teil ist, wird genau in der Formel festgelegt. Um dieses anschaulich zu verdeutlichen,
dienen folgende einfache Beispiele:
Damit Ihre Webseite einen PR von 3 erhält, müssen theoretisch 101 Seiten mit einem PR von
2 oder ca. 3 Seiten mit einem PR von 4 auf Ihre Seite verweisen. Wenn Sie einen PageRank
von 5 erreichen möchten, benötigen Sie 3055 PR 2 Links oder 101 PR 4 Links. Für einen
PageRank von 3 reicht allerdings auch schon ein PR 5 Link und für einen PR von 5 reicht
schon ein Link von einer Webseite, die einen PageRank von 7 aufweist.
Je höher also der PageRank der verlinkenden Webseite, desto höher steigt auch der PR der
verlinkten Seite. Der Anstieg des PageRanks verläuft dabei nicht gleichförmig, sondern eher
‚sprunghaft´. Um eine Stufe in der PR-Skala zu steigen, sind, vereinfacht gesagt, immer mehr
und stärkere Links notwenig.
Den PageRank einer Webseite kann man mit Hilfe der Google-Toolbar feststellen. Sie zeigt
den genauen PR der jeweiligen Seite auf der man sich gerade befindet.
Der angezeigte PageRank wird ca. alle drei Monate in einem so genannten PR-Update
aktualisiert. Es kann also vorkommen, dass Ihre Webseite, obwohl bereits viele andere Seiten
auf diese verweisen, keinen PR hat. Dieses ist jedoch nur indirekt der Fall. Die externen Links
bzw. die Wirkung der Links fließt schon nach sehr kurzer Zeit in das Ranking Ihrer Webseite
mit ein. Bei dem PR-Update handelt es sich lediglich um eine Aktualisierung des ‚sichtbaren´
Pageranks...
7.3.2. Pagerank - Vor- und Nachteile
Mit dem PageRank haben Larry Page und Sergey Brin einen externen, d.h. einen auf den
ersten Blick schwer beeinfluss- bzw. manipulierbaren Faktor in das Verfahren zur Beurteilung
von Webseiten aufgenommen. Die Grundidee, dass eine Webseite höher bewertet wird, wenn
Sie viele und zudem starke Links von anderen Seiten bekommt, klingt plausibel und war einer
der Hauptgründe für den späteren Erfolg der Suchmaschine Google.
Durch die Einführung des PageRanks waren die Ergebnisse von Google in der Regel besser
als die der anderen Suchmaschinen. Webseiten, die ohne einen relevanten Inhalt zu bieten,
z.B. mittels Keywordspam bei den anderen Suchdiensten hoch gelistet wurden, filterte
Google, weil die Seiten relativ wenige externe Links aufweisen konnten. Der PageRankAlgorithmus galt deswegen lange Zeit als ‚Meilenstein´ in der Entwicklung einer
Suchmaschine, welche wirklich relevante Ergebnisse liefert und sich nur schwer manipulieren
lässt.
Leider ist dieser ‚Meilenstein´ mittlerweile eher zu einen ‚Stein im Magen´ geworden. Da der
PageRank von Anfang an ein wichtiger, wenn nicht sogar der wichtigste Rankingfaktor war,
und zudem der Algorithmus von den meisten anderen Suchmaschinen in ähnlicher Weise
übernommen wurde, hatten Links auf einmal einen hohen wirtschaftlichen Wert. Sie wurden
verkauft, vermietet und getauscht. Plötzlich gab es zahllose Anbieter bzw. Services, die sich
ausschließlich auf die Vermarktung von Links spezialisiert hatten. Ferner versuchten viele
Webseitenbetreiber so viele Links wie nur möglich zu sammeln. Vorher nie besuchte
Gästebücher oder Foren wurden urplötzlich mit Linkeinträgen überschwemmt.
Schnell wurde klar, dass der PageRank einer der am leichtesten zu manipulierenden Faktoren
war. Wer die Möglichkeit hatte, Zeit und vor allem Geld zu investieren, konnte das Ranking
seiner Webseite stark beeinflussen. Plötzlich entschieden mehr und mehr finanzielle Mittel
über die Reihenfolge in den Ergebnislisten der meisten Suchmaschinen. Leider hat sich daran
bis heute nur wenig geändert. Der Linkhandel ist noch immer einer der am schnellsten
wachsenden Märkte im World Wide Web, obwohl Google und die anderen Suchmaschinen
versuchen, immer wieder dagegen vorzugehen.
So wurde das Attribut ‚rel=nofollow´ eingeführt. Ein mit diesem Attribut versehender Link
wird von den Crawlern der Suchmaschinen nicht gewertet, d.h. der PR der verlinkenden Seite
wird nicht weitergegeben. Vor allen in Foren und Blogs wird das Attribut mittlerweile gezielt
eingesetzt, um Spameinträge zu vermeiden. Auch werden bekannte Linkanbieter bzw.
Services regelmäßig abgestraft, indem z.B. deren Webseiten aus dem Index entfernt, oder
sämtliche auf den Webseiten enthaltende Links abgewertet werden.
Leider sind alle diese Maßnahmen oft nur ein ‚Tropfen auf den heißen Stein´. Obwohl die
Bedeutung des PageRanks für das Ranking einer Webseite stark abgenommen hat, blüht der
Linkhandel weiterhin...
7.3.3. Alternativen
Der PageRank-Algorithmus, also die Zahl und die Stärke der eingehenden Links einer
Webseite, wird immer ein wichtiger Faktor zur Beurteilung der Relevanz bzw. Wichtigkeit
einer Webseite bleiben, da Links eines der wichtigsten Charakteristiken des World Wide Web
sind. Der PageRank gibt jedoch keinen direkten Hinweis auf die eigentliche Qualität einer
Webseite. Da diese letztendlich für die Relevanz ausschlaggebend ist, wird laufend an
alternativen Beurteilungsverfahren gearbeitet, von denen hier einige kurz erläutert werden
sollen...
Der Hilltop-Algorithmus: Mit Hilfe des Hilltop- Algorithmus werden Webseiten aufgrund
ihrer Relevanz in Bezug auf bestimmte Suchwörter sortiert bzw. bewertet. Zuerst werden so
genannte Expertenseiten zu einem bestimmten Thema bzw. einem bestimmten Suchwort
bestimmt. Dieses sind Seiten, die auf viele unabhängige Webseiten zu einem bestimmten
Thema verweisen. Danach werden so genannte Autoritätsseiten ermittelt. Autoritätsseiten sind
Webseiten, auf die mindestens zwei Expertenseiten verweisen. Der Hilltop-Algorithmus
wurde in Toronto entwickelt. 2003 kaufte Google das Patent auf den Algorithmus. Von
Google definierte Autoritätsseiten erkennen Sie unter anderem daran, dass deren Einträge in
den Ergebnislisten relevanter Suchwörter an erster Stelle stehen und neben der üblichen
Seitenbeschreibung weitere Informationen, z.B. die Links der wichtigsten Unterseiten,
enthalten.
Hubs and Authorities: Dieses Verfahren, auch unter dem Namen ‚HITS´ bekannt, definiert
die Wertigkeit einer Seite aufgrund ihrer Hub- bzw. Autoritätseigenschaft. Die
Hubeigenschaft bewertet die Anzahl und Qualität der ausgehenden Links einer Seite, die
Autorität einer Webseite wird durch deren externe Links definiert. Durch diesen unter
anderem von Jon Kleinberg entwickelten Algorithmus werden allgemein wichtige
Knotenpunkte innerhalb der Linkstruktur des Internets definiert.
Trustrank: Der Trustrank-Algorithmus, ebenfalls von Google patentiert, wurde in erster
Linie entwickelt, um Spamseiten aufzuspüren. Hierzu werden zuerst einige wenige Autoritätsbzw. unabhängige und vertrauenswürdige Expertenseiten definiert. Als Beispiel sei hier
Wikipedia oder DMOZ genannt. Danach werden alle ausgehenden Links verfolgt, wobei der
Trustrank der Autoritäts- bzw. Expertenseiten, ähnlich wie bei der Verteilung des PageRanks,
auf die verlinkten Seiten und deren externe Links übertragen wird. Da Spamseiten in der
Regel kaum verlinkt werden, kann man diese so relativ einfach herausfiltern und entsprechend
abwerten.
Darüber hinaus gibt es noch viele weitere Ansätze, die Suchmaschinenergebnisse zu
verbessern bzw. unrelevante Ergebnisse zu filtern. Generell wird bei allen Verfahren der
Inhalt, also die eigentliche Qualität einer Webseite, in den Vordergrund gestellt. Da es
aufgrund verschiedener Faktoren bzw. immer neuer Manipulationstechniken sehr schwer ist,
dieses ausschließlich automatisiert durchzuführen, gehen viele Ansätze, ähnlich wie beim
Trustrank, von manuell geprüften Webseiten bzw. Fixpunkten aus.
Redaktionell geführte Webseiten, Verzeichnisse oder Bewertungssysteme wie das SocialBookmarking werden in Zukunft immer mehr an Bedeutung gewinnen, und die
Beurteilungsverfahren der Suchmaschinen ergänzen...
7.4.
Google Updates
Wenn Sie Ihre Webseite optimieren, verändern oder erweitern, werden die Resultate oder
Veränderungen nicht sofort berücksichtigt bzw. angezeigt. Zunächst einmal muss der
Googlebot Ihre Webseite besuchen und die Änderungen feststellen. Abhängig von dem
Gewicht bzw. der externen Verlinkung Ihrer Webseite, kann dieses leicht mehrere Tage
dauern. Danach kann manchmal wiederum einige Zeit vergehen, bis diese in die Bewertung
mit einfließen und z.B. das Ranking Ihrer Seite verbessern.
Die meisten Veränderungen werden allerdings bereits innerhalb kürzester Zeit berücksichtigt.
Google aktualisiert die im Index enthaltenen Informationen fortlaufend. Den so genannten
‚Google Dance´, d.h. ein in größeren Abständen stattfindendes Rankingupdate, gibt es nicht
mehr. Auch der PageRank bzw. die Backlinks werden regelmäßig aktualisiert. Hat z.B. Ihre
Webseite aufgrund neu eingestellter Informationen einige Verweise von anderen Webseiten
erhalten, kann es sein, dass Ihre Seite schon innerhalb einiger Tage in den Suchergebnissen
steigt.
Das Gleiche gilt für den PageRank. Das momentane Ranking Ihrer Webseite entspricht immer
dem ‚aktuellen´ PageRank der Seite. Hat Ihre Webseite einen angezeigten PR von 3, aber
einen predicted, also ‚zukünftigen´ Pagerank von 5, wird letzterer bei der Bewertung Ihrer
Webseite berücksichtigt. Der angezeigte PageRank wird ca. alle drei Monate in einem so
genannten PR-Update aktualisiert.
Mit diesem gibt es noch einige weitere Updates, nach denen es zu Veränderungen innerhalb
der Suchergebnislisten kommen kann...
7.4.1. PR Update
Wie schon beschrieben, wird der PageRank einer Weibseite fortlaufend aktualisiert. Etwa alle
drei Monate kommt es jedoch zu einem Update des angezeigten PageRanks. Es kann folglich
bis zu drei Monaten dauern, bis Ihre Seite das erste Mal einen eigenen PR anzeigt.
Bei den PR-Updates werden nicht alle bis zu diesem Zeitpunkt gesetzten externen Links
berücksichtigt. Der Stichtag, bis zu dem vorhandene Backlinks gewertet werden, liegt meist
Wochen vorher. Das eigentliche Update hat keinen oder nur sehr geringen Einfluss auf die
Position innerhalb der Ergebnislisten.
Der PageRank einer Webseite ist jedoch für viele Webseitenbetreiber zu einer Art
‚Statussymbol´ geworden. Es ist das für alle sichtbare Resultat ‚erfolgreicher´
Suchmaschinenoptimierung und spiegelt den ‚Wert´ einer Seite wieder. Für einen
erfolgreichen Linkaufbau, insbesondere für das Tauschen von Links, ist der angezeigte PR
durchaus wichtig.
7.4.2. BL Update
Auch die Zahl der externen Links bzw. der Backlinks einer Webseite werden kontinuierlich
aktualisiert. Entsprechende Veränderungen werden zumeist innerhalb weniger Tage bei der
Bewertung der Seite berücksichtigt. In größeren Abständen, ca. alle 2-3 Monate, kommt es
jedoch zu einem Export der bereits weit vorher berücksichtigten Links in den Datenindex. Die
externen Links einer Webseite können dann mit der Suchanfrage link:www.ihredomain.de
abgefragt werden.
Auch dieses Update, bzw. der Export, hat keinen großen Einfluss auf das Ranking einer
Webseite. Es gibt jedoch einige andere Rankingfaktoren bzw. Kriterien, welche die bei
Google angezeigten Backlinks mit einbeziehen. Dadurch fließen diese indirekt, vor allem bei
anderen Suchmaschinen, in die Beurteilung einer Webseite mit ein.
7.4.3. Algorithmus Update
Zumeist größere Auswirkungen auf die Positionen in den Ergebnislisten haben
Veränderungen innerhalb des Suchmaschinen-Algorithmus. Es kommt vor, dass neue
Beurteilungskriterien in den Algorithmus aufgenommen, oder vorhandene Faktoren verändert
bzw. entfernt werden.
Aufgrund immer wieder neu auftauchender Manipulationstechniken, Veränderungen in den
Algorithmen anderer Suchmaschinen oder komplett neu entwickelten Suchverfahren, wird der
Google-Algorithmus in unregelmäßigen Abständen verändert oder angepasst.
7.5.
Google Filter
Google listet neue bzw. die im Index vertretenen Webseiten nicht, ohne diese vorher genau zu
selektieren. Der Suchalgorithmus jeder Suchmaschine beinhaltet unzählige Filter bzw.
Kriterien, nach denen Webseiten bewertet und sortiert werden. Kriminelle,
jugendgefährdende oder anderweitig anstößige Inhalte werden in der Regel gefiltert, und
entsprechende Webseiten aus dem Index gelöscht. Andererseits, z.B. bei der personalisierten
Suche, werden dem bisherigen Verhalten des Suchenden entsprechend, neue oder andere
Inhalte hinzugefügt.
Es gibt einige Filter, die speziell bei für Suchmaschinen optimierten Webseiten zu greifen
scheinen. Im Folgenden sollen einige dieser Filter und deren Wirkungsweise kurz erläutert
werden...
7.5.1. Google Sandbox
Schon einige Male erwähnt, soll an dieser Stelle genauer auf den Filter bzw. das ‚Phänomen´
der Google Sandbox eingegangen werden.
Seit Anfang des Jahres 2004 ‚geistert´ dieser nicht offizielle, d.h. nicht von Google bestätigte
Filter durch die Reigen der Webseitenbetreiber. Mittlerweile gilt es jedoch fast als sicher, dass
es diesen hauptsächlich neue und hochoptimierte Webseiten betreffenden Effekt wirklich gibt.
Um zu vermeiden, dass diese Webseiten innerhalb kürzester Zeit mit wichtigen Keywords
oben in den Ergebnissen gelistet werden, bzw. um Spamseiten aus den Rankings
auszuschließen, scheint Google einen Filter bzw. einen Algorithmus entwickelt zu haben,
welcher neue Seiten nach einem kurzen Boost für eine bestimmte Zeit in den Ergebnislisten
wichtiger Keywords unten anstellt. Da der genaue Algorithmus nicht bekannt ist, lässt sich
auch nur schwer sagen, welche Voraussetzungen bzw. Bedingungen eine Webseite erfüllen
muss, damit der Filter greift. Besonders oft scheinen Seiten betroffen zu sein, die relativ
schnell viele bzw. starke Backlinks erhalten haben, also Webseiten mit einem unnatürlich
wirkendem Linkaufbau. Auf der anderen Seite gibt es auch Beispiele, bei denen Webseiten
durch vertrauenswürdige oder starke Links aus der Sandbox entlassen bzw. wieder weit oben
gelistet wurden.
Die externe Verlinkung scheint demzufolge eine große Rolle innerhalb des Algorithmus der
Google Sandbox zu spielen. Ein weiteres beeinflussendes Element dürften die
Hauptkeywörter einer Webseite sein. Es lässt sich erkennen, dass hauptsächlich Seiten
betroffen sind, die auf wichtige bzw. ‚hart umkämpfte´ Schlüsselwörter optimiert wurden.
Andere, z.B. auf Keywordkombinationen oder von der Konkurrenz kaum benutzte Begriffe
optimierte Webseiten sind dagegen in der Regel seltener betroffen. Das Alter einer Webseite,
sowie die Relevanz der optimierten Keywords sind mögliche Gründe, warum eine Webseite
vom Sandbox Effekt betroffen ist. Greift der Filter bei einer Seite, wird diese plötzlich nur
noch unter teilweise ‚obskuren´ Keywordkombinationen gefunden. Unter den Hauptkeywords
ist sie zumeist weit hinten gelistet.
Wie lange es dauert, bis dieser Effekt nachlässt, bzw. die betroffene Webseite wieder normal
gelistet wird, lässt sich ebenfalls nur schwer sagen. Es wird vermutet, dass eine Webseite für
3 bis maximal 12 Monate abgewertet wird. Die durchschnittliche Aufenthaltsdauer dürfte bei
3-6 Monaten liegen. Experten, die an der Existenz eines speziellen Filters zweifeln, gehen
eher davon aus, dass die beschriebenen Effekte Teile des normalen Google Algorithmus
seien. Untermauert wird dieses durch die Tatsache, das sowohl die Voraussetzungen, die
Aufenthaltsdauer, als auch die Kriterien, unter welchen eine Webseite wieder aus der
Sandbox entlassen wird, nicht eindeutig sind und stark variieren.
Um aus der Sandbox entlassen zu werden, reichen manchmal schon einige wenige starke und
vertrauenswürdige Verweise anderer Webseiten. Auch hat sich gezeigt, dass Webseiten,
welche in der Anfangsphase weniger mit keywordspezifischen Textlinks als mit Buttons oder
Banner verlinkt wurden, weniger betroffen waren. Links, die lediglich den Domainnamen
beinhalten, hatten ebenfalls keine großen negativen Auswirkungen.
Um der Google Sandbox zu entgehen, darf Ihre Webseite also gerade in der Anfangsphase mit
nur wenigen, möglichst vertrauenswürdigen Verweisen verlinkt werden. Zudem ist es ratsam,
öfter Banner oder Buttons bei der Verlinkung zu verwenden. Des Weiteren sollten Sie
zunächst eher auf Keywordkombinationen bzw. schwach umkämpfte Singlekeywords
optimieren, da auf einige wenige hart umkämpfte Keywords optimierte Webseiten eher
abgestraft werden.
7.5.2. Supplemental Index
Den Supplemental Index, also einen ‚zusätzlichen Index´ kann man in gewisser Weise mit der
Google Sandbox vergleichen. Wenn sich eine Webseite oder deren Unterseiten in
Supplemental Index befinden, sind die Auswirkungen auf das Ranking ähnlich.
Webseiten, welche lediglich im Supplemental Index erscheinen, werden gegenüber den im
normalen Index gelisteten Seiten weniger häufig von den Crawlern bzw. dem Googlebot
besucht. Außerdem werden die Seiten bei Suchanfragen benachteiligt behandelt. Oft ist es so,
dass nur wenn eine bestimmte Suchanfrage ungenügende oder nur wenige Ergebnisse liefert,
Seiten aus dem Supplemental Index hinzugefügt werden. Liefert eine Suchanfrage genügend
Treffer, werden ausschließlich die Webseiten aus dem normalen Index angezeigt.
Die Gründe, warum eine Seite in den zusätzlichen Index abrutscht, sind vielfältig. Auch hier
sind eher neue Seiten, und insbesondere diejenigen betroffen, welche noch keine oder nur
wenige externe Links aufweisen. Duplicate Content oder gleiche Titel und Descriptions vieler
Unterseiten können unter Umständen ebenfalls dazu führen, dass Seiten aufgenommen
werden. Damit eine Webseite, die nur noch im Supplemental Index vertreten ist, wieder im
normalen Index gelistet wird, muss man oft nur den oder die Gründe für die Abstrafung
beseitigen. Sind die Ursachen beseitigt, dauert es in der Regel nicht sehr lange, bis eine
Webseite wieder normal gelistet bzw. gerankt wird.
7.5.3. Filter 31+
Auch die Existenz des so genannten ‚Filter 31+´ ist umstritten. Vermehrt wurde beobachtet,
dass hochoptimierte, d.h. explizit auf einige wenige hart umkämpfte Keywords ausgerichtete
Webseiten, ohne ersichtlichen Grund von sehr hohen Plätzen in den Suchergebnissen, auf die
Plätze 31-40 abrutschen.
Da wenn überhaupt nur die ersten 3 Seiten, bzw. die Plätze 1-30 nach für die jeweilige Suche
relevanten Ergebnissen durchsucht werden, kommt es durch den Filter 31+ zumeist zu
gravierenden Besucherrückgängen. Häufig kommt es nach neu vorgenommenen
Optimierungen zu der Abstrafung, so dass angenommen werden muss, dass Google durch
diesen Filter eine Art ‚Gleichgewicht´ zwischen professionell erstellten oder betreuten, und
privaten bzw. nicht kommerziellen Webseiten aufrecht erhalten möchte.
Man sollte demzufolge eine Webseite nicht ‚überoptimieren´. Wenn Ihre Seite einmal unter
den wichtigen Keywords oben gelistet wird, ist es ratsam, weitere Optimierungsversuche
zunächst einmal zu unterlassen. Generell dürfen Sie eine Webseite nur langsam, d.h. Schritt
für Schritt optimieren. ‚Ungeduld´ ist einer der größten Fehler bei der
Suchmaschinenoptimierung.
7.5.4. Filter 950+
In letzter Zeit wird oft über die Existenz eines Filters diskutiert, welcher übermäßig optimierte
Seiten nicht nur auf die Plätze 31-40, sondern häufig sogar auf Positionen weit hinter dem
tausendsten Platz, also der hundertsten Seite verweist. Aus diesem Grund wurde der mögliche
neue Filter inoffiziell ‚Filter 950+´ getauft.
wie bei dem Filter 31+ scheinen hier ebenfalls auf wenige starke Keywords, bzw. generell
hochoptimierte Webseiten betroffen zu sein.
Wahrscheinlich gibt es noch einige weitere Filter, welche in ähnlicher Weise oder unter
ähnlichen Voraussetzungen greifen. Sie alle folgen dem Prinzip, dass augenscheinlich
professionell bzw. kommerziell optimierte Webseiten unter bestimmten Voraussetzungen
abgestraft werden. Ein natürlich wirkender Optimierungs- bzw. Entwicklungsprozess einer
Webseite wird dagegen akzeptiert und in der Regel nicht negativ bewertet...
7.6.
Wichtige Links/Adressen
Die Suchmaschine Google bietet eine Vielzahl an Diensten und Informationsangeboten,
welche im Folgenden kurz aufgelistet werden sollen. Da sich die Internetadressen einzelner
Seiten mit der Zeit ändern könnten, wurde zwischen den Apostrophen das Suchwort bzw. die
Suchwörter angegeben, unter denen Sie den jeweiligen Service bei allen bekannten
Suchmaschinen in der Regel auf den ersten Ergebnisplätzen finden werden...
‚Alles über Google´: Übersicht der Dienste und Services...
‚Google Pressezentrum´: Pressemitteilungen von Google Deutschland...
‚Google Richtlinien´: Allgemeine Richtlinien für Webmaster...
‚Google Anmeldung´: Hier können Sie Ihre Webseite anmelden...
‚Google Analytics´: Verschiedene Analyse Tools, z.B. Besucher- und Keywordstatistiken...
‚Google Webmaster Zentrale´: Alles für den Webmaster...
‚Google Hilfe für Webmaster´: Antworten auf häufig gestellte Fragen...
‚Google Toolbar´: Umfangreiche Toolbar mit PR Anzeige...
‚Google Trends´: Trends bzw. Häufigkeit bestimmter Suchanfragen bei Google…
‚Google Keyword-Tool´: Keywordanalysetool...
‚Google Sitemap-Protokoll´: Informationen zum Thema Sitemap...
‚Google Reinclusion Request´: Hier können Sie einen Wiederaufnahmeantrag stellen...
8.Häufige Fehler
8.1.
Überoptimierung
Häufig wird versucht, eine Webseite für zu viele Keywords zu optimieren. Versuchen Sie sich
bei der Optimierung auf wenige, ca. 3-5 ausgewählte Keywords zu beschränken. Wenn Ihre
Webseite unter diesen Suchwörtern hoch gelistet wird, können Sie weitere Wörter oder
Phrasen hinzunehmen. Es macht keinen Sinn, in den Meta-Tags unzählige Keywords
aufzulisten. Auch hier gilt es, sich auf ca. 5-7 wichtige Suchwörter zu beschränken. Diese
müssen auch im Text bzw. im Content Ihrer Webseite erwähnt werden. Anstatt immer die
Keywords einfach nur zu wiederholen, verwenden Sie besser Verwandte im Wortstamm
sowie Synonyme, also ähnliche Begriffe.
Beim Linkaufbau wird oft der Fehler gemacht, dass in kurzer Zeit zu viele Backlinks gesetzt
werden. Genau wie bei den Keywords wird auch dieser Linkspam von Suchmaschinen
negativ bewertet und in der Regel abgestraft.
Generell gilt, dass der Inhalt einer Webseite nie explizit auf Suchmaschinen ausgerichtet sein
darf, sondern dem Besucher die von Ihm erwarteten Informationen bieten sollte...
8.2.
Häufige FehlerFalsch gewählte Keywords
Auch falsch gewählte Keywords sind häufig ein Grund, warum die Optimierung einer
Webseite keinen Erfolg hat. Wenn Sie sich vorgenommen haben, mit einer neuen Webbseite
innerhalb kurzer Zeit unter hart umkämpften Suchwörtern hohe Positionen zu erreichen,
werden Sie höchstwahrscheinlich scheitern. Konzentrieren Sie sich am Anfang auf weniger
hart umkämpfte Keywords und Kombinationen. Erst wenn Ihre Webseite unter diesen gut
gelistet wird, können Sie versuchen, auf Topwords zu optimieren.
Die Auswahl der richtigen Keywords ist der wichtigste Schritt innerhalb des ganzen
Optimierungsprozesses. Nur wenn Sie die für das Thema Ihrer Seite, bzw. die in Bezug auf
Ihre Konkurrenzseiten geeigneten Suchwörter wählen, werden Sie letztendlich auch Erfolg
haben...
8.3.
Kein individueller Content
Wenn Ihre Webseite zu wenig bzw. keinen individuellen Content enthält, wird sie nie sehr
weit oben gelistet werden. Der Text einer Webseite ist der wichtigste Rankingfaktor
überhaupt. Sie sollten darauf achten, dass auf Ihrer Seite genügend individuelle, d.h. auf
keiner anderen Webseite verwendete Informationen, vorhanden sind. Die Keywords müssen
dem Thema Ihres Contents entsprechen und explizit im Text erwähnt werden.
Wichtig ist zudem, fortlaufend für neue Inhalte zu sorgen. Suchmaschinen listen regelmäßig
aktualisierte Webseiten höher als Seiten, die sich kaum verändern
8.4.
Gleiche Meta-Tags
Bei vielen Webseiten sieht man immer wieder, dass alle Einzelseiten die gleichen Meta-Tags
enthalten. Da der Title- und der Description-Tag wichtige Faktoren für das Ranking einer
Seite sind, sollten diese dem jeweiligen Content angepasst werden und variieren. Verwenden
Sie niemals die gleichen Titel bzw. Beschreibungen für mehrere Seiten. Jede Einzelseite muss
einen kurzen und die wichtigsten Keywords der Seite beinhaltenden Titel, sowie eine eigene
Beschreibung erhalten.
Denken Sie daran, dass die Suchmaschinen jede einzelne Webseite auch unabhängig
betrachten und bewerten. Sie können im Prinzip jede Einzelseite gezielt für Suchmaschinen
optimieren
8.5.
Frameseiten
Viele Webseitenbetreiber benutzen Frames, um den Inhalt ihrer Seite zu gliedern bzw. die
Navigation zu erleichtern. Einige Suchmaschinen haben noch immer Probleme damit,
insbesondere den Links innerhalb der einzelnen Frames zu folgen. Sie indizieren daher oft nur
das Frameset, also das Gerüst der Webseite, ohne die eigentlichen Inhalte innerhalb der
Frames zu finden.
Um den Suchmaschinen dennoch Informationen bieten zu können, gibt es den so genannten
Noframe-Bereich. Dort sollten Sie, ähnlich dem Aufbau der jeweiligen Webseite, ausreichend
Text, sowie Links zu den anderen Frameseiten einfügen. Wenn Ihre Webseite Frames benutzt
und sie keine Inhalte in den Noframe-Bereich einstellen, werden Sie es bei einigen
Suchmaschinen schwer haben, Ihre Seite in den oberen Ergebnislisten zu positionieren.
Allgemein lässt sich sagen, dass man bei der Gestaltung einer Webseite mittlerweile auf
Frames verzichten kann. Eventuelle Vorteile, z.B. in der Navigation, lassen sich heute leicht
auch anders umsetzen
8.6.
Flashseiten
Die meisten Suchmaschinen können bislang nur Text auswerten. Webseiten, welche
hauptsächlich aus Bildern aufgebaut sind, erzielen oft nur mäßige Platzierungen in den
Rankings. Dieses gilt insbesondere auch für Seiten, die mit Hilfe von Flash, einer Software
zur Erstellung multimedialer Inhalte, erzeugt wurden.
Wenn Sie bei der Gestaltung Ihrer Webseite trotzdem nicht auf Flash oder andere
multimediale Inhalte verzichten möchten, sollten Sie immer zusätzlich auch Text, also von
den Suchmaschinen lesbare Informationen, einbinden. Auch so genannte Introseiten, zumeist
Flashseiten, welche nach einer kurzen Zeit, auf die eigentliche Webseite weiterleiten, gilt es
zu vermeiden...
8.7.
Duplicate Content
Wenn mehrere Webseiten gleiche oder ähnliche Inhalte aufweisen, spricht man von Duplicate
Content. Da mittlerweile alle Suchmaschinen Seiten mit ähnlichen Inhalten abstrafen, bzw.
nicht in den Index aufnehmen oder aus dem Index verbannen, sollten Sie immer darauf
achten, individuellen, d.h. einzigartigen Content auf Ihrer Webseite zu veröffentlichen.
Machen Sie nicht den Fehler und kopieren Sie Informationen bzw. Texte anderer Webseiten,
auch wenn deren Inhalte frei zugänglich sind. Die Suchmaschinen nutzen spezielle
Programme, mit denen es relativ einfach ist, Duplicate Content aufzuspüren.
Definieren Sie zudem eine Standarddomain, d.h. eine einzige Url, unter der Ihre Webseite
erreichbar ist. Viele Webseiten lassen sich sowohl unter der Adresse
http://www.ihredomain.de, als auch unter der Url http://ihredomain.de anzeigen. Andere, z.B.
dynamisch erzeugte Seiten, sind oft auch mit dem Zusatz /index.php zu erreichen. Das
Definieren einer Standarddomain sollte einer der ersten Schritte bei der Erstellung einer
Webseite sein...
8.8.
Suchmaschinenmanipulation
Doorwaypages, Keywordstuffing, versteckter Text, Cloaking oder eine andere der vielen
Möglichkeiten, um Suchmaschinen gezielt zu manipulieren, bzw. das Ranking einer Webseite
zu verbessern, führt zumeist, wenn überhaupt, nur zu einem kurzfristigen Erfolg. Sie sollten
sich daher sowohl bei der Erstellung Ihrer Webbseite, als auch bei der Optimierung immer an
die Richtlinien der bekannten Suchmaschinen halten bzw. diese berücksichtigen.
Eines der Hauptziele der Suchmaschinen ist es, derartige Techniken frühzeitig zu erkennen
und entsprechende Webseiten abzustrafen oder aus dem Index zu entfernen...
8.9.
Mangelnde Kontinuität
Die Optimierung einer Webseite für bestimmte Suchmaschinen oder Keywords ist immer ein
kontinuierlicher bzw. fortwährender Prozess. Mangelnde Kontinuität z.B. beim Linkaufbau
oder bei der Aktualisierung einer Webseite führt oft dazu, dass der gewünschte Erfolg
ausbleibt. Es reicht nicht aus, eine Seite einmalig zu optimieren. Die Bewertungskriterien der
Suchmaschinen ändern sich laufend.
Um dauerhaft Erfolg zu haben, müssen Sie Ihre Webseite diesen und auch den
Veränderungen Ihrer Konkurrenzseiten immer wieder neu anpassen...
8.10. Ungeduld
Einige Fehler resultieren aus der Tatsache, das sich viele Webseitenbetreiber bei der
Optimierung ihrer Webseite zu hohe Ziele setzen, bzw. diese Ziele in zu kurzer Zeit erreichen
wollen. Seien Sie sich vor und auch während der Optimierung Ihrer Seite darüber im Klaren,
dass der gewünschte Erfolg möglicherweise Monate auf sich warten lässt. Es dauert in der
Regel mindestens ein halbes Jahr, meistens sogar länger, um mit einer neuen Webseite in den
Ergebnissen der Suchmaschinen auf den vorderen Plätzen gelistet zu werden...
9.Links / Tools
9.1. SEO-Tools und interessante Links zum Thema
Suchmaschinenoptimierung
An dieser Stelle sollen einige ausgewählte und empfehlenswerte Links, Tools oder
Programme zum Thema SEO bzw. Suchmaschinenoptimierung aufgelistet werden. Da sich
die Internetadressen mit der Zeit ändern könnten, wurde auch hier zwischen den Apostrophen
das Suchwort bzw. die Suchwörter angegeben, unter denen Sie den jeweiligen Service finden
können...
- SEO
Allgemeine Informationen:
‚Suchmaschinenoptimierung Wiki´: Begriffsdefinition der freien Enzyklopädie Wikipedia
‚Suchmaschinenoptimierung Forum´: Foren zum Thema Suchmaschinenoptimierung bzw.
marketing
‚lexikon-suchmaschinenoptimierung.de´: Suchmaschinenoptimierung von A-Z
Software:
‚axandra.de´: Anbieter von Website-Promotion-Software
Tools:
‚1a-webtools.com´: Suchmaschinentools für Webmaster
‚Google Webmaster Tools´: Verschiedene Webmaster- bzw. Webseitentools
‚seitwert.de´: Unabhängige Bewertung von Webseiten
‚suma-tools.de´: Suchmaschinentools für Webmaster
- Webdesign
Allgemeine Informationen:
‚Webdesign Wiki´: Begriffsdefinition der freien Enzyklopädie Wikipedia
‚meine-erste-homepage.com´: Alles für die erste eigene Internetseite
Verschiedene Webeditoren:
‚softguide.de´: Der Softwareführer im Internet
Validitätscheck:
‚6webmaster.com Linkcheck´: Fehlerhafte Hyperlinks finden
- Analyse/Statistik
‚Alexa Web Search´: Ermittlung des Alexa Traffic Rank
‚Google Analytics´: Besucherstatistik u. Webseitenanalyse
- Webhosting
Allgemeine Informationen:
‚Webhosting Wiki´: Begriffsdefinition der freien Enzyklopädie Wikipedia
Verschiedene Webhostanbieter:
‚onlinekosten.de Webhosting´: Informationen zum Thema Webhosting
- Domain
Allgemeine Informationen:
‚Domain Wiki´: Begriffsdefinition der freien Enzyklopädie Wikipedia
Domainname prüfen:
‚Denic Domainabfrage´: Domainabfrage (whois)
‚DPINFO´: Service des deutschen Patent- und Markenamts
Standarddomain:
‚Standarddomain definieren´: Verschiedene Webseiten mit dem Themenschwerpunkt
Standarddomain
robots.txt erstellen:
‚searchcode.de robots.txt-Generator´: Online robots.txt Generator
‚topsubmit.de robots.txt-Generator´: In wenigen Schritten online eine robots.txt Datei
erstellen
- Sitemap
Allgemeine Informationen:
‚Sitemap Wiki´: Begriffsdefinition der freien Enzyklopädie Wikipedia
Sitemap erstellen:
‚Google Sitemap Generator´: Script zur Erzeugung einer Sitemap
- Meta-Tags
Allgemeine Informationen:
‚Meta-Tag Wiki´: Begriffsdefinition der freien Enzyklopädie Wikipedia
Meta-Tags überprüfen:
‚6webmaster.com Metatag prüfen´: Online-Metatag-Analyse
‚webmaster-elite.de Metatag Check´: Online die Metatags einer Webseite prüfen
Meta-Tags erstellen:
‚metatag-generator.de´: Schnell und einfach online Meta-Tags erstellen
‚6webmaster.com Metatag-Generator´: Online Meta-Tags erstellen
- Keywords
Allgemeine Informationen:
‚Keyword Wiki´: Begriffsdefinition der freien Enzyklopädie Wikipedia
Analyse/Statistik:
‚Google Adwords Keyword-Tool´: Keywordanalysetool
‚Google Trends´: Trends bzw. Häufigkeit bestimmter Suchanfragen bei Google
‚Yahoo Search Marketing´: Trends bzw. Häufigkeit bestimmter Suchanfragen bei
verschiedenen Suchdiensten
‚seo-server.de´: Google Datencenter Positionscheck mit PR Anzeige
Keyworddatenbank:
‚ranking-check.de Keyword Datenbank´: Datenbank mit mehr als 75.000.000 Einträgen
- Backlinks
Allgemeine Informationen:
‚Backlink Wiki´: Begriffsdefinition der freien Enzyklopädie Wikipedia
Backlinks überprüfen:
‚backlink-checker.de´ Backlinks online prüfen
‚internetbaron.de´: Online Backlink-Checker mit PR Anzeige
‚trustedlinks.de´: Software zur Analyse bzw. Überprüfung von Backlinks
Verschiedene Webkataloge:
‚konzept-welt.de Webkataloge´: Umfangreiches Webkatalog-Verzeichnis
Verschiedene Artikelverzeichnisse:
‚artikelverzeichnisse.com´: Liste verschiedener Artikelverzeichnisse
‚nxplorer.net Artikelverzeichnisse´: Artikelverzeichnisse und Artikelkataloge
- Pagerank
Allgemeine Informationen:
‚Pagerank Wiki´: Begriffsdefinition der freien Enzyklopädie Wikipedia
Pagerank ermitteln:
‚Google Toolbar´: Umfangreiche Toolbar mit PR Anzeige
‚seo-server.de´: Datencenter Positionscheck mit PR Anzeige
PR Echtheitsüberprüfung:
‚database-search.com Precheck´: Pagerank Echtheit online prüfen
Future Pagerank:
‚internetbaron.de´: Online Backlink-Checker mit PR Anzeige
10. Schlusswort
Ich hoffe, ich konnte Ihnen mit diesem Tutorial das Thema Suchmaschinenoptimierung etwas
näher bringen. Wenn Sie einige der genannten Ratschläge befolgen, wird Ihre Webseite in den
Ergebnissen der Suchmaschinen steigen.
Viele der Tipps sind allgemein, und werden auch zukünftig ihre Aktualität bzw. Relevanz
behalten. Einige Punkte dagegen sind wahrscheinlich schon in diesem Augenblick längst
überholt. Ich habe jedoch versucht, alle momentan wichtigen Voraussetzungen für eine
erfolgreiche Optimierung von Webseiten anzusprechen. Denken Sie immer daran, dass eine
Webseite für den Besucher, und nicht für Maschinen gemacht werden sollte.
‚Maschinen geraten ohne uns schnell an ihre Grenzen, sie werden uns nie ersetzen, sondern
nur ........´.