- Internetkonzepte
Transcription
- Internetkonzepte
Tutorial zur Suchmaschinenoptimierung Version 1 - 14.02.2006 Copyright - Johannes Siemers – internetmarketing-news.de 1.Inhaltsverzeichnis 1. 2. Inhaltsverzeichnis............................................................................................................... 2 Einleitung ........................................................................................................................... 4 2.1. Internet ....................................................................................................................... 4 2.1.1. Begriffserklärung ............................................................................................... 4 2.1.2. Entwicklung und Ausblick ................................................................................. 5 3. Suchmaschinen................................................................................................................... 7 3.1. Begriffserklärung ....................................................................................................... 7 3.2. Technik....................................................................................................................... 7 3.3. Entwicklung und Ausblick ......................................................................................... 8 3.4. Google ........................................................................................................................ 9 3.5. Yahoo ....................................................................................................................... 10 3.6. MSN / Windows Live .............................................................................................. 10 4. Webverzeichnisse............................................................................................................. 11 4.1. Begriffserklärung ..................................................................................................... 11 4.2. Entwicklung und Ausblick ....................................................................................... 11 4.3. Wichtige Webverzeichnisse ..................................................................................... 11 5. Onpage-Optimierung........................................................................................................ 12 5.1. Domainname ............................................................................................................ 12 5.1.1. Standarddomain................................................................................................ 14 5.2. Webhosting............................................................................................................... 14 5.3. Programmierung....................................................................................................... 15 5.3.1. Programmiersprachen....................................................................................... 15 5.3.2. Web-/HTML-Editoren ..................................................................................... 16 5.4. Seitenaufbau ............................................................................................................. 17 5.4.1. URL Aufbau..................................................................................................... 17 5.4.2. Seitenaufbau / Menü......................................................................................... 17 5.4.3. Sitemap............................................................................................................. 18 5.4.4. Interne Verlinkung ........................................................................................... 19 5.4.5. Content ............................................................................................................. 20 5.4.6. Content - Aktualität.......................................................................................... 22 5.4.7. Meta Tags......................................................................................................... 22 5.5. Indexierbarkeit ......................................................................................................... 25 5.6. Domainalter.............................................................................................................. 26 5.7. Ausgehende Links .................................................................................................... 26 5.8. Weitere interne Rankingfaktoren ............................................................................. 26 5.8.1. Individueller Content........................................................................................ 26 5.8.2. Seitenanzahl/-größe.......................................................................................... 27 5.8.3. Synonyme......................................................................................................... 27 5.8.4. Wortstamm ....................................................................................................... 27 6. Offpage-Optimierung ....................................................................................................... 28 6.1. Externe Links ........................................................................................................... 28 6.1.1. Linkbewertung ................................................................................................. 28 6.1.2. PageRank.......................................................................................................... 28 6.1.3. Linktext ............................................................................................................ 28 6.1.4. Linkposition ..................................................................................................... 29 6.1.5. Linkalter ........................................................................................................... 29 6.1.6. Anzahl der Links .............................................................................................. 29 6.1.7. Autorität der Links ........................................................................................... 30 6.1.8. Themenrelevanz ............................................................................................... 30 6.1.9. Linkaufbau ....................................................................................................... 30 6.2. Links aus Webkatalogen/-verzeichnissen ................................................................ 32 6.3. Links aus Artikelverzeichnissen............................................................................... 32 6.4. Links aus Weblogs ................................................................................................... 33 6.5. Social Bookmarking................................................................................................. 33 6.6. Pressemitteilungen ................................................................................................... 34 6.7. Linklisten.................................................................................................................. 34 6.8. PR-Dienste ............................................................................................................... 35 6.9. Linkkauf / Linkmiete................................................................................................ 35 6.10. Linktausch ............................................................................................................ 37 6.11. Weitere externe Rankingfaktoren......................................................................... 38 6.11.1. Alexa Rank....................................................................................................... 38 6.11.2. Besucherverhalten ............................................................................................ 38 6.11.3. Kontinuität........................................................................................................ 39 6.11.4. Seitenaufrufe .................................................................................................... 39 7. Google .............................................................................................................................. 41 7.1. Indexierung............................................................................................................... 41 7.1.1. Aufnahme in den Index .................................................................................... 41 7.1.2. Verbannung aus dem Index.............................................................................. 41 7.2. Reinclusion Request................................................................................................. 42 7.3. Pagerank ................................................................................................................... 43 7.3.1. Pagerank Algorithmus...................................................................................... 43 7.3.2. Pagerank - Vor- und Nachteile......................................................................... 44 7.3.3. Alternativen...................................................................................................... 45 7.4. Google Updates ........................................................................................................ 46 7.4.1. PR Update ........................................................................................................ 46 7.4.2. BL Update ........................................................................................................ 46 7.4.3. Algorithmus Update ......................................................................................... 47 7.5. Google Filter ............................................................................................................ 47 7.5.1. Google Sandbox ............................................................................................... 47 7.5.2. Supplemental Index.......................................................................................... 48 7.5.3. Filter 31+ .......................................................................................................... 49 7.5.4. Filter 950+ ........................................................................................................ 49 7.6. Wichtige Links/Adressen ......................................................................................... 49 8. Häufige Fehler.................................................................................................................. 51 8.1. Überoptimierung ...................................................................................................... 51 8.2. Häufige FehlerFalsch gewählte Keywords .............................................................. 51 8.3. Kein individueller Content ....................................................................................... 51 8.4. Gleiche Meta-Tags ................................................................................................... 51 8.5. Frameseiten .............................................................................................................. 52 8.6. Flashseiten................................................................................................................ 52 8.7. Duplicate Content..................................................................................................... 52 8.8. Suchmaschinenmanipulation.................................................................................... 53 8.9. Mangelnde Kontinuität............................................................................................. 53 8.10. Ungeduld .............................................................................................................. 53 9. Links / Tools..................................................................................................................... 54 9.1. SEO-Tools und interessante Links zum Thema Suchmaschinenoptimierung ......... 54 10. Schlusswort .................................................................................................................. 57 2.Einleitung ‚Eine Webseite ist für den Besucher, also für Menschen, und nicht für Suchmaschinen gemacht.´ Dieses Zitat soll die Grundlage der Webseite seo-united.de sein. Das Wort ‚SEO´ oder Suchmaschinenoptimierung ist zwar im Moment ‚in aller Munde´, es sollte dabei jedoch nie vergessen werden, dass eine Webseite dazu dient, den Besucher zu informieren, und nicht die Suchmaschinen ‚zu füttern´. Beides schließt einander jedoch nicht aus. Wer seine Webseite möglichst vielen Menschen präsentieren möchte, muss die Seite letztendlich auch den Suchmaschinen ‚schmackhaft´ machen. Die Zahl der Webseiten im Internet ist mittlerweile so unüberschaubar groß geworden, dass wir bei der Suche nach Informationen auf die Unterstützung von Maschinen angewiesen sind. Etwa 80-90% der Internetnutzer bedienen sich der Hilfe von Suchmaschinen. Jede Suche nach einem bestimmtem Begriff oder einer bestimmten Phrase liefert oft Millionen Ergebnisse. Fakt ist jedoch, dass zumeist nur die ersten drei Seiten der Ergebnislisten beachtet werden. Ein Großteil der Suchenden schaut sich sogar nur die ersten Treffer, maximal die erste Seite an. Wer mit seiner Seite weiter hinten gelistet wird, findet keine Beachtung. Die Reihenfolge der Suchergebnisse ist kein Zufall. Die Suchmaschinen bewerten Webseiten nach bestimmten Kriterien und listen die einzelnen Seiten dementsprechend untereinander auf. Dieses Tutorial soll Ihnen dabei helfen, dass Ihre Webseite diese Kriterien erfüllt und ein besseres Ranking erreicht. Es werden dabei die internen, d.h. seitenbezogenen, als auch die externen Kriterien einer erfolgreichen Suchmaschinenoptimierung angesprochen. Die Seite seo-united.de richtet sich sowohl an Anfänger, als auch an erfahrene SEOs, da sie nützliche Hintergrundinformationen liefert und aktuelle Tipps enthält... 2.1. Internet 2.1.1. Begriffserklärung Das Internet, eine Abkürzung für Interconnected Networks, d.h. ‚zusammen geschaltete Netze´, ist der weltweit größte Netzverbund. Er ermöglicht jedem Teilnehmer, auf ein nahezu grenzenloses Archiv zurückzugreifen, und mit anderen Usern des Verbunds in Kontakt zu treten und Daten auszutauschen. Bei dem beschriebenen Verbund handelt es sich um ein dezentrales Netzwerk, welches aus vielen kleinen zentralen Netzen besteht. Der Datenaustausch zwischen den einzelnen Teilnehmern erfolgt mit Hilfe von Rechnern bzw. Servern. Zugang zum Internet kann über die bekannten Modem-Techniken oder über einen spezialisierten Anbieter, einem Internet Service Provider (ISP) erreicht werden. Allgemein wird das Wort Internet oft mit dem World Wide Web bzw. ‚WWW´ gleichgesetzt. Das World Wide Web ist im eigentlichen Sinne jedoch nur ein Element bzw. ein Service des Internets. Es wurde erst 1989 entwickelt, um möglichst einfach Informationen auszutauschen. Um einen schnellen Zugriff möglich zu machen, verknüpfte Tim Berners-Lee, ein einfacher britischer Informatiker und ‚Begründer des World Wide Web´, einzelne Informationen untereinander. Es entstand eine Art Netz bzw. Web, bestehend aus vielen unterschiedlichen Informationen und Daten. Das World Wide Web ist nichts anderes, als ein über das Internet abrufbarer Hypertextkomplex. Mit Hilfe eines Browsers kann man die einheitlich in HTML codierten und mit Hilfe von Adressen (Urls) immer einer eindeutigen Quelle zuordenbaren Elemente abrufen. Untereinander verknüpft werden diese durch so genannte Hyperlinks, mit denen man auf direktem Weg von einem Element zum anderen springen kann. Da, wie schon erwähnt, das Internet im allgemeinen gleichbedeutend bzw. synonym mit dem World Wide Web verwendet wird, ist auch in diesem Tutorial mit dem Wort Internet immer auch das World Wide Web gemeint... Die Größe des Internets bzw. des World Wide Webs lässt sich nur schwer genau bestimmen, da nie alle Teilnehmer bzw. Rechner zur selben Zeit mit dem Netz verbunden sind. Schätzungen gehen davon aus, dass bereits jetzt weit mehr als eine Milliarde Menschen das Internet nutzen. Spätestens im Jahre 2015 werden es bereits zwei Milliarden Menschen sein. Auch die Gesamtzahl der Webseiten lässt sich nur schätzen. Im Jahre 2006 waren es ca. 8-10 Milliarden, vermutlich jedoch weitaus mehr. Nimmt man an, dass jede einzelne Seite 100 Kilobyte groß ist, ergibt das eine Datenmenge von ca. 900 Terabyte. Um diese Größe zu veranschaulichen, soll eine beschriebene DIN-A4-Schreibmaschinenseite zum Vergleich herangezogen werden. Würde man 900 Terabyte Daten auf Papier bannen und die einzelnen Seiten übereinander legen, wäre der Papierstapel 22500 Kilometer hoch. Andere Schätzungen lassen ihn leicht auf die doppelte Höhe anwachsen... 2.1.2. Entwicklung und Ausblick Entwicklung: Das Internet geht aus dem 1969 entwickelten ARPAnet hervor, einem Projekt der Advanced Reasearch Project Agency (ARPA) des Verteidigungsministeriums der Vereinigten Staaten. Offizielles Ziel des Projekts war die Vernetzung von verschiedenen Forschungseinrichtungen, um die damals geringen Rechenkapazitäten optimal nutzen zu können. Inoffiziell sollte das ARPAnet aber auch dazu dienen, im Falle eines feindlichen Angriffs eine intakte Kommunikationsinfrastruktur zu besitzen. Ende der 70er Jahre begann das Wachstum, und damit verbunden auch die internationale Ausbreitung des Netzwerkes. In dieser Zeit, die man auch als ‚die wilde Phase´ der Entwicklung bezeichnet, entstand das, was wir heute mit dem Internet verbinden: Ein unerschöpfliches Archiv und die größte Community der Welt. 1990 begann mit der ‚offiziellen´ Abschaltung des ARPAnets die kommerzielle Phase des Internets. Es entstanden zahlreiche Dienste, wie z.B. die elektronische Post in Form von EMails. Der wahrscheinlich wichtigste Dienst, welcher dem Internet zum endgültigen Durchbruch verhalf, ist das World Wide Web (WWW), welches jedem Benutzer durch eine einfache Oberfläche die Möglichkeit bietet, gezielt nach Informationen zu suchen. Schnell waren mehr als 100 Länder an das Internet angeschlossen. Anfang 1993 waren es schon über 1,5 Millionen Rechner und mehr als 10.000 einzelne Netzwerke. Zum jetzigen Zeitpunkt sind es bereits über eine Milliarde Rechner. Durch eine immer besser und schneller werdende Technik lässt sich über die zukünftige Entwicklung des Internets nur spekulieren... Ausblick: Bereits Nietzsche hat 1880 in einem seiner Fragmente eine Welt beschrieben, ‚in der es zahllose Mittel gegen die Langeweile gibt. Zu jeder Zeit wird man Vorleser hören können und dergleichen. Es wird Feste geben, in welchen viele einzelne Erfindungen zum Gesamtwerk des Festes vereinigt sind, denn die, welche ein Fest feiern, müssen am Feste mit erfunden haben...´ Nietzsche definierte unbewusst schon damals die Grundphilosophie bzw. -idee des erst 100 Jahre später entstandenen Internets und postulierte die damit verbundenen Möglichkeiten. Jeder einzelne kann sein Wissen und seine Ansichten der breiten Öffentlichkeit kundtun und somit aktiv das ‚Fest´ mitgestalten. Das Internet ist ein Pool vieler einzelner Elemente, die jedes für sich ein kleines ‚Fest´ darstellen. Die Angst einer Diktatur des Internets ist unbegründet, da es keinen eigentlichen Diktator gibt. Dennoch wird man tagtäglich dazu angehalten, dem großen Pool beizutreten. Durch eine immer schneller fortschreitende Entwicklung werden ständig neue Dienste möglich. Im Jahr 2015 werden aus diesem Grund bereits weltweit zwei Milliarden Menschen an das Internet angeschlossen sein. Die 3Milliarden- Marke allerdings wird voraussichtlich erst 2040 erreicht werden. Hier erkennt man, dass die rasante Entwicklung nicht kontinuierlich fortschreitet. Sie wird wahrscheinlich nie stagnieren, ihr sind aber dennoch ‚menschliche´ Grenzen gesetzt. Örtliche Grenzen scheinen durch das Internet nahezu aufgehoben zu sein. Jeder kann mit jedem zu jeder Zeit in Kontakt treten. Das ist jedoch leider nur die Theorie. Fakt ist, dass z.B. die Stadt New York einen genauso großen Teil des Verbundes ausmacht, wie ganz Afrika. Die Idee, eine grenzenlose und gleichberechtigte Community zu schaffen, bewahrheitet sich bis jetzt nur in Ansätzen. Während noch ein Großteil der Bevölkerung darauf wartet, zum ‚Fest´ eingeladen zu werden, träumen andere schon von einem interplanetaren Netzwerk. Geht es nach Vint Cerf, dem ‚Gründer des Internets´, wird es schon bald für alle möglich sein, Informationen z.B. vom Mars oder vom Mond zu erhalten. Es sollte jedoch zunächst einmal darum gehen, die Grundphilosophie, welche hinter der Erfindung des Internets steht, umzusetzen. Noch immer werden an einigen Stellen, z.B. in der Volksrepublik China, Informationen kontrolliert und überwacht. Gerade in den letzten Jahren ist eine Tendenz zu erkennen, den Informationsfluss kontrollieren bzw. zensieren zu wollen. Ein wichtiger Gedanke scheint dabei immer mehr in Vergessenheit zu geraten. Nur wenn wirklich jeder einzelne die Möglichkeit hat, seinen Teil zum gemeinsamen ‚Fest´ beizutragen, könnte das Internet ein wichtiger Meilenstein in der Entwicklung der Menschheit sein. Dem Begriff Web 2.0 kommt dabei eine entscheidende Bedeutung zu. Das Web 2.0 beschreibt eine erkennbare Tendenz, bei der Inhalte bzw. Informationen vom User selbst generiert oder bearbeitet werden. Das Internet ist also nicht länger nur eine Zusammenstellung von Inhalten einiger weniger, sondern ein ständig wachsendes und sich laufend veränderndes ‚Spiegelbild´ aller Beteiligten. Weblogs, File-Sharing-Portale oder auch Open- SourceCommunitys verfolgen diesen Ansatz und erfreuen sich immer größerer Beliebtheit. Es lässt sich wirklich nicht sagen, wohin uns die Entwicklung des Internets und der damit verbunden Techniken führen wird. Sicher ist nur, ‚dass die Geschichte gerade erst begonnen hat.´ (Vint Cerf) 3.Suchmaschinen 3.1. Begriffserklärung Eine Suchmaschine ist eine Software bzw. ein Programm zur Recherche in Dokumenten oder Dateien, welche in einem Computer oder in einem Computernetzwerk, wie z.B. dem World Wide Web, gespeichert sind. Nach der Eingabe eines oder mehrerer Suchbegriffe liefert die Suchmaschine eine nach bestimmten Kriterien geordnete Liste mit Verweisen auf relevante Dokumente, welche am ehesten mit dem Suchtext in Beziehung gebracht werden konnten. Da nicht bei jeder Suchanfrage das gesamte World Wide Web durchsucht werden kann, wird ein Index angelegt und entsprechend der Suchanfragen, der Veränderungen der Daten oder Dokumente, und der Rankingkriterien ständig aktualisiert. Neben diesen, auf einem eigenen Index und Algorithmus basierenden Suchmaschinen, gibt es auch so genannte Metasuchmaschinen, welche die Daten bestehender Suchmaschinen durchsuchen und auflisten... 3.2. Technik Eine Suchmaschine besteht im Wesentlichen aus folgenden Einzelelementen: Ein Url-Server, mehrere Crawler (Bots, Robots, Spider), dem Parser und dem Store Server. Der Url-Server verwaltet die Internetadressen (Urls), welche noch nicht in den Index aufgenommen wurden. Anmeldungen einzelner Webseiten bei Suchmaschinen werden also zumeist an den Url- Server übermittelt. Dieser gibt die Daten an den oder die einzelnen Crawler weiter. Die Crawler wandeln nun jede einzelne Url in eine IP-Adresse um, damit sie mit den jeweiligen Servern in Verbindung treten können. Um die Dauer der Übertragung zu verkürzen, und die Server nicht zu überlasten, öffnet ein Crawler oftmals mehrere hundert Verbindungen gleichzeitig. Treten bei einer Verbindung Probleme auf, kann er schnell und ohne großen Zeitverlust auf die nächste Verbindung zugreifen. Durch dieses Rotationsverfahren kann nur ein Robot bis zu 30 Seiten pro Sekunde erfassen. Nach erfolgreicher Übergabe liefert der Crawler die Daten der Webseiten dem Parser. Der Parser erstellt nun von jeder einzelnen HTMLSeite eine vereinfachte Form und leitet diese an den Store Server weiter. Ein Store Server hat die Aufgabe, die in den vereinfachten Seiten enthaltenen Informationen zu extrahieren. Enthaltene Links werden an den Url- Server übermittelt, der enthaltene Text bzw. die enthaltenen Begriffe werden, wenn sie noch nicht bekannt sind, dem Index hinzugefügt. Der Index besteht vereinfacht gesagt aus dem Lexicon, den Hit Lists und dem Repository. Das Lexicon ist eine zumeist in Form einer Hashtabelle dargestellte Sammlung aller im Netz gefundenen Begriffe. Nur jene Begriffe, welche im Lexicon enthalten sind, liefern auch eigenständige Suchergebnisse. Jeder Begriff bzw. jedes Wort des Lexicons enthält einen Vermerk auf die entsprechende Hit List. Die Hit Lists enthalten zu jedem Wort Verweise auf die entsprechenden Seiten im Repository. Im Repository werden die Webseiten gespeichert. Gleichzeitig wird in den Hit Lists vermerkt, welche Bedeutung den einzelnen Seiten in Bezug auf die einzelnen Begriffe bzw. Suchwörter zukommt. Um mit einer Suchmaschine interagieren zu können, benutzt man das Frontend oder den Searcher. Das Frontend ist nichts anderes, als die sichtbare Komponente einer Suchmaschine, also die Benutzeroberfläche. Stellt der Benutzer eine Suchanfrage, zeigt der Searcher eine aus dem Lexicon und den Hit Lists erstellte Ergebnisliste. Jede Suchmaschine verwendet einen eigenen Algorithmus, also eine Methode, nach der die Ergebnisse gelistet werden. Dieser Algorithmus ist das eigentliche Herzstück einer Suchmaschine. Er besteht aus hunderten von Kriterien, welche darüber entscheiden, an welcher Position eine Webseite bezüglich einer bestimmten Suchanfrage gelistet wird... 3.3. Entwicklung und Ausblick Entwicklung: Etwa Mitte der 90er Jahre entstanden die ersten Suchmaschinen. Das Internet bzw. das World Wide Web hatte bereits zu diesem Zeitpunkt eine Größe erreicht, welche es dem Benutzer fast unmöglich machte, die von ihm gesuchten Informationen auf Anhieb zu finden. Mit die ersten Suchmaschinen waren WebCrawler, Lycos und Alta Vista. Lange Zeit war die Metasuchmaschine Alta Vista, zudem eine der ersten kommerziellen Suchmaschinen, Marktführer auf ihrem Gebiet. Heute dagegen gibt es fast keine Metasuchmaschine, die sich erfolgreich behaupten kann. 1998 entwickelten Larry Page und Sergey Brin, damals noch Studenten, eine eigene Suchmaschine. Eine einfache, fast schlichte Benutzeroberfläche sowie eine vorher nie gekannte Suchgeschwindigkeit waren die Grundlagen für den späteren Erfolg der Suchmaschine Google. Darüber hinaus nutzte diese Algorithmen bzw. Rankingkriterien, welche man vorher so nicht kannte. Eines dieser Kriterien ist der so genannte PageRank. Schnell erkannten auch Yahoo und MSN, zwei weitere Suchdienste, dass sich die neue Suchtechnik der Suchmaschine Google durchsetzen würde. Da Larry Page und Sergey Brin sich aber sofort alle Techniken patentieren ließen, blieb ihnen nichts anderes übrig, als sich bei Google einzukaufen. Heute, auch wenn Yahoo mittlerweile einen eigenen Algorithmus entwickelt hat, ist die Suchmaschine Google absoluter Marktführer. Ihr Marktanteil beträgt, nimmt man die Suchmaschinen hinzu, welche ebenfalls den Googleindex nutzen, über 90%. Yahoo und MSN bzw. Windows Live folgen auf den Plätzen 2 und 3. Sie scheitern, zumindest in Deutschland, jeweils deutlich an der 5% Hürde... Ausblick: Ob Google sich auch zukünftig als Marktführer behaupten kann, lässt sich nicht sagen. Dass Alta Vista heute kaum noch jemand kennt, hätte noch vor einigen Jahren keiner für möglich gehalten. Genauso schnell könnte Google einer neu entwickelten Technologie weichen müssen. Von einem Tag auf dem anderen wird dieses jedoch kaum geschehen. Google versteht es, wie kaum ein anderes Unternehmen, sich selbst zu vermarkten. Das Stichwort lautet ‚Branding´. Google ist längst keine bloße Suchmaschine mehr, sondern ein Unternehmen, welches in nahezu alle Bereiche expandiert. Dazu zählen z.B. die speziellen Suchdienste Froogle, Google Maps, Google News, das Diskussionsforum Google Groups, ein E-Mail- Dienst (GMail) oder Communities wie blogger.com oder Orkut, eine Kontaktbörse. Des Weiteren bietet Google kostenlose Software, wie Google Desktop oder das Bildbearbeitungsprogramm Picasa an. Der Hauptgedanke, welcher hinter diesen und vielen anderen neuen Entwicklungen steckt, ist einfach. Der Name Google gewinnt mehr und mehr an Bedeutung. Es wird längst nicht mehr gesucht, sondern nur noch ‚gegoogelt´. Der Suchmaschine von Morgen werden wir per Spracheingabe eine Suchanfrage stellen können. Ebenso wird sie, nachdem sie selbstständig alle relevanten Ergebnisse gefunden und ausgewertet hat, mit einer eigenen Stimme antworten. Dieses kann jedoch noch Jahrzehnte dauern. Es gibt zwar schon Versuche und auch erste Ergebnisse, aber die Sprache im Kontext ist viel zu komplex, als das diese wirklich brauchbar wären. Hier werden die Probleme deutlich, der sich die Entwickler einer zukünftige Suchmaschine stellen müssen. Neben der Mehrdeutigkeit vieler Suchbegriffe oder der unterschiedlichen Grammatik, stellt vor allen Dingen die schnell wachsende Datenmenge ein großes Problem dar. Zu einen entstehen täglich Millionen neuer Webseiten, und zum anderen werden viele Webseiten täglich aktualisiert. Experten gehen aus diesen Gründen davon aus, dass die Suchmaschine der Zukunft auf spezialisierte Datenbanken zurückgreifen wird. Außerdem wird die personalisierte und regional gesteuerte Suche (Personalized Search bzw. Geo-Targeting) immer mehr an Bedeutung gewinnen. So lassen sich nicht nur wichtige Ressourcen sparen, die Suche wird für den Benutzer auch einfacher und übersichtlicher, denn die Suchmaschine wird zusammen mit ihm ‚lernen´... 3.4. Google Google ist, wie schon beschrieben wurde, eine Internetsuchmaschine, welche im Jahre 1998 von Larry Page und Sergey Brin entwickelt wurde. Der Ursprung des Wortes Google liegt in dem 1938 von Milton Sirotta erfundenen Ausdruck ‚googol´, welcher für eine Eins mit hundert Nullen steht. Die Gründer der Suchmaschine und der gleichnamigen Firma Google Inc. wählten diesen Ausdruck in Anlehnung an die unvorstellbare Größe des Internets. 2005 nahm sogar der Duden das Verb ‚googeln´ in sein Wörterverzeichnis auf. Mittlerweile gehört Google Inc. zu den weltweit einflussreichsten Firmen. Mit einem Marktwert von mehr als 150 Milliarden US-Dollar gehören die beiden Gründer, spätestens nach dem Börsengang im August 2004, zu den reichsten Männern der Welt. Sie beschäftigen weit mehr als 10.000 Mitarbeiter. Das Unternehmen Google Inc. betreibt weltweit viele Rechenzentren. Eine Suchanfrage wird, um die Suchgeschwindigkeit zu optimieren, immer an das nächstgelegene Rechenzentrum geleitet. Nur so können Antwortzeiten von wenigen Zehntelsekunden gewährleistet werden. Die Listung der Suchergebnisse, also das Ranking, erfolgt nach einem speziellen Algorithmus, welcher ständig erweitert und verifiziert wird. Eines der wichtigsten Kriterien, nach dem die Ergebnisse sortiert werden, ist der PageRank. Der PageRank definiert die ‚Wertigkeit´ einer Webseite aufgrund der Zahl und der Qualität der eingehenden Links. Dieser Wert wird in einer Skala von 1 bis 10 dargestellt. Andere mehr oder weniger wichtige Kriterien sind z.B. der Content und die Aktualität einer Seite, der Domainname, der Title- und Description-Tag, die Gliederung des Inhalts, ausgehende Links, Alt-Texte, die Listung bei einigen wichtigen Webkatalogen (z.B. DMOZ), das Alter einer Seite und noch viele mehr. Experten gehen davon aus, dass der Google- Algorithmus aus mehreren hundert einzelnen Elementen besteht. Da Google mit über 90% Marktführer unter den Suchdiensten ist, müssen viele dieser Kriterien bei einer Suchmaschinenoptimierung berücksichtigt werden. Aus diesem Grund werden die meisten dieser Faktoren im Verlauf des Tutorials explizit erläutert... 3.5. Yahoo Das Unternehmen ‚Yahoo!´ wurde 1995 von David Filo und Jerry Yang gegründet. Was anfangs nur eine einfache Linkliste zweier Studenten war, ist heute, mit über 350 Millionen Nutzern, 7500 Mitarbeitern und einem Umsatz von mehreren Milliarden US-Dollar, eines der größten Internetportale der Welt. Neben vielen Diensten (E-Mail, Dating usw.) bietet Yahoo auf diesem Portal einen Webkatalog und einen Suchservice, die ‚Yahoo Suche´. Während in den ersten Jahren der redaktionell geführte Webkatalog eine größere Bedeutung hatte, liegt das heutige Augenmerk hauptsächlich auf der Weiterentwicklung des Suchdienstes. Aus diesem Grund kaufte Yahoo 2003 Overture und Inktomi. Zusammen mit deren Technologie sollte ein neuer, eigener und von Google unabhängiger Suchservice entstehen. Anfang 2004 beendete Yahoo die Zusammenarbeit mit Google. Seither verwendet Yahoo eigene Algorithmen und Indizes. Die Rankingfaktoren, nach denen die Suchergebnisse gelistet werden, sind jedoch den Faktoren der Suchmaschine Google ähnlich. Linkpopularität und individueller Content stehen auch hier an oberster Stelle. Yahoo hat mit seinem Suchdienst auf dem deutschen Markt einen Anteil von 3-5%... 3.6. MSN / Windows Live MSN (The Microsoft Network) ist ein Internetportal, welches neben verschiedenen Diensten ebenfalls einen Suchservice anbietet. Das Portal und auch die Suche wird zukünftig ‚Windows Live´ heißen. Microsoft wurde 1975 von Bill Gates und Paul Allen gegründet. Der Name Microsoft bedeutet ursprünglich ‚Microcomputer Software´. Haupteinnahmequelle des Unternehmens ist die Betriebssoftware ‚Windows´. Durch einen jährlichen Umsatz von ca. 45 Milliarden US-Dollar konnte Bill Gates 2006 erneut seine erste Position in der Liste der reichsten Menschen der Welt behaupten. Der Suchdienst von Microsoft verzeichnet in Deutschland momentan lediglich einen Marktanteil von 3-5%. In den vereinigten Staaten liegt er etwas höher, aber auch hier führt Google den Markt an. Bei den Rankingfaktoren stehen hier, genau wie bei Google und Yahoo, externe Faktoren, zusammen mit dem Inhalt einer Seite an erster Stelle. Die Linkbzw. Domainpopularität wird jedoch nicht so stark wie bei den anderen beiden Suchmaschinen gewertet. Das Vorkommen des Suchwortes in der Domain, im Titel, in der Description und im Text wird dagegen höher bewertet. Der momentan nur geringe Marktanteil der MSN/Windows Live Suche könnte sich schon bald ändern, da der neu entwickelte Suchdienst ‚Windows Live´ zum Teil in das neue Betriebsystem ‚Windows Vista´ integriert wurde... 4.Webverzeichnisse 4.1. Begriffserklärung Webverzeichnisse oder -kataloge sind im Internet veröffentlichte Sammlungen von Webadressen, welche nach bestimmten Kriterien sortiert sind. Durch die redaktionelle Kontrolle erreichen die in den Webverzeichnissen aufgeführten Verweise oft eine höhere Qualität als die von Suchmaschinen erstellten Ergebnisse. Der Qualität fällt jedoch die Quantität zum Opfer, da jede einzelne Webseite manuell geprüft und eingepflegt werden muss. Man unterscheidet kommerzielle und nicht kommerzielle, sowie hierarchische, d.h. in bestimmte Kategorien und Subkategorien gegliederte, und nicht hierarchisch strukturierte Verzeichnisse. Außerdem gibt es Webkataloge mit bzw. ohne Backlinkpflicht. 4.2. Entwicklung und Ausblick Entwicklung: Noch fast bis zum Ende des letzten Jahrtausends waren Webverzeichnisse wichtiger Bestandteil des World Wide Webs. Durch die redaktionelle Pflege konnten Benutzer gezielt nach für sie wichtigen Informationen suchen. Es dauerte jedoch oft sehr lange, bis neue Webseiten in die Verzeichnisse aufgenommen wurden. Das Yahoo Verzeichnis war lange Zeit der am meisten genutzte Webkatalog. 1998 wurde das Open Directory Projekt (ODP) bzw. DMOZ (Directory at Mozilla) gegründet. Dieses ‚Open Content Projekt´ war der Versuch, durch freiwillige internationale Editoren die Wartezeiten bis zur Aufnahme in das Verzeichnis möglichst kurz zu halten. Heute ist DMOZ mit weit über 5 Millionen Einträgen einer der größten Webkataloge der Welt... Ausblick: Die Bedeutung der Webverzeichnisse bzw. Webkataloge hat stark abgenommen. Der größte Teil der Internetnutzer sucht Informationen bzw. Daten mit Hilfe von Suchmaschinen. Das Yahoo Verzeichnis, der eigentliche Grundstein des Unternehmens, wird seit längerer Zeit kaum noch gepflegt. Auch das ODP hatte zwischenzeitlich immer wieder Schwierigkeiten, vor allen Dingen technischer Art. An deren Stelle sind einige kommerzielle Verzeichnisse getreten, die eine Eintragung ausschließlich gegen Bezahlung anbieten. Neben einigen neuen Besuchern liefern diese Verzeichnisse häufig einige starke Backlinks, durch welche die eingetragenen Seiten in den Ergebnissen der Suchmaschinen steigen. Eine wirklich spürbare Auswirkung auf das Ranking einer Webseite haben das DMOZ und eventuell das Yahoo Verzeichnis. Ist eine Seite z.B. bei DMOZ eingetragen, wird Sie als ‚vertrauenswürdig´ eingestuft und höher gelistet. Zukünftig könnte die Bedeutung einiger Webkataloge wieder steigen, da viele neue Suchtechniken, wie z.B. der Google Trustrank, manuell geprüfte Verzeichnisse als Ausgangspunkte für ihre weiteren Bewertungen heranziehen. 4.3. Wichtige Webverzeichnisse Das Open Directory Projekt (ODP): Das auch unter dem Namen DMOZ (Directory of Mozilla) bekannte Webverzeichnis wurde unter dem Namen ‚Gnuhoo´ gegründet. Später wurde dieser aufgrund rechtlicher Probleme in ‚Newhoo´ geändert. 1998 wurde das Verzeichnis von Netscape gekauft und als ‚Open Content Projekt´ unter dem heute bekannten Namen veröffentlicht. Die offene Struktur, bei der sich jeder als Editor beteiligen kann, sorgte dafür, dass das Verzeichnis schnell wuchs und an Bedeutung gewann. Durch die vielen freiwilligen Mitarbeiter war die Wartezeit bis zur Aufnahme einer neuen Seite gegenüber anderen Verzeichnissen relativ kurz. Auch die Qualität und Aktualität der Links war lange Zeit unübertroffen. Eine Aufnahme in das Verzeichnis galt als besondere Auszeichnung für eine Webseite. Die Suchmaschinen nutzten die Beschreibungen des ODP für ihre Ergebnisse und listeten eingetragene Seiten höher als andere. Noch heute bezeichnet sich DMOZ mit mehr als 5 Millionen Einträgen als das größte redaktionell geführte Webverzeichnis der Welt. Sowohl die Aktualität als auch die Qualität der Links hat jedoch zwischenzeitlich, vor allen Dingen aufgrund von technischen und organisatorischen Problemen, nachgelassen. Nach wie vor ist ein Eintrag jedoch von hoher Bedeutung, da viele Suchmaschinen ihn sehr positiv bewerten... Das Yahoo Verzeichnis: Das Yahoo Verzeichnis entstand 1994 als Navigationshilfe für das Internet und war der eigentliche Grundstein des heutigen Unternehmens. Im Augenblick ist das Verzeichnis jedoch lediglich ein Bestandteil des gesamten Internetportals. Neue Einträge werden wenn überhaupt nur noch gegen Bezahlung in US-Dollar vorgenommen. Einige Experten befürchten, dass das Yahoo Verzeichnis schon bald aufgrund mangelnder Qualität und Aktualität eingestellt werden könnte. Web.de: Das Internetportal Web.de ist genau wie Yahoo als Webverzeichnis gestartet. 2005 wurde die Web.de AG an den United-Internet Konzern verkauft. Das Verzeichnis enthält ca. 400.000 zumeist deutschsprachige Seiten. Mittlerweile ist ein Eintrag in das Verzeichnis ebenfalls nur noch gegen Bezahlung möglich. allesklar.de: Dieser Katalog ist das größte Linkverzeichnis in Deutschland. Mehr als 600.000 Einträge sind zumeist mit Ortsbezug in verschiedene Kategorien eingeordnet. Das Verzeichnis hat sich inzwischen zu einem Netzwerk ausgebaut. Durch einen Eintrag bei allesklar.de wird man ebenfalls bei Lycos, Fireball, meinestadt.de, meinestadt.msn.de sowie freenet.de, DINO-Online und T-Online eingetragen. Es ist möglich, eine Webseite für eine begrenzte Zeit kostenlos einzutragen. Danach ist der Eintrag auch hier nur noch gegen Entgelt möglich. Darüber hinaus gibt es noch viele kleinere, regionale oder themenbezogene Webkataloge. Obwohl der Besucherzustrom durch einen Eintrag in einen dieser Kataloge nicht merklich steigt, erhält man oft qualitativ gute und starke Backlinks. Ein weiterer Vorteil dieser Verzeichnisse ist die oft sehr kurze Bearbeitungszeit. Schon innerhalb einiger Tage werden die meisten Einträge veröffentlicht. Unterscheiden muss man zwischen Katalogen mit bzw. ohne Backlinkpflicht. Letztere veröffentlichen einen Eintrag nur, wenn man seinerseits einen Gegenlink auf der eigenen Seite einfügt. Generell sollte man abwägen, ob ein Eintrag in das jeweilige Verzeichnis wirklich sinnvoll ist. Braucht man schnell und einfach einige Backlinks, z.B. bei einer neuen Webseite, können Webkataloge bzw. Webverzeichnisse sehr hilfreich sein... 5.Onpage-Optimierung 5.1. Domainname Der Domainname setzt sich aus durch Punkten getrennten Namen zusammen. Der letzte Teil dieses Namens, zum Beispiel .de oder .com, wird auch als Top Level Domain bzw. TLD bezeichnet. Im Domain Name System werden die einzelnen Domains, also der gewählte Name zusammen mit der TLD, einer IP-Adresse zugeordnet. Auf diese Weise kann jede Domain einem eindeutigen Besitzer zugesprochen werden. Die Top Level Domains werden im Wesentlichen in zwei Gruppen unterteilt. Es gibt allgemeine und länderspezifische Endungen. Länderspezifische TLDs setzen sich immer aus zwei Buchstaben zusammen. Beispiele sind .de, .at oder auch .eu. Allgemeine Domainendungen sind zum Beispiel .net oder .info. Da die Wahl eines Domainnamens sehr wichtig ist, sollten Sie sich genügend Zeit nehmen und einige wichtige Punkte beachten. Ein klarer, verständlicher und mit dem Inhalt der Webseite in engem Bezug stehender Name kann sehr zum Erfolg der Seite beitragen. Bei der Wahl der Domainendung gelten folgende allgemeingültige Regeln: Beinhaltet die neue Webseite geschäftliche Inhalte und sollen damit auch internationale Besucher angesprochen werden, kann die Wahl der Endung .com oder .biz sinnvoll sein. Wenn Ihre Seite überwiegend allgemeine Informationen enthält, die Endung .info. Die Domainendung .org wird oft von Organisationen gewählt. Am häufigsten wird hierzulande jedoch die Endung .de bevorzugt. Obwohl alle Suchmaschinen die TLDs gleichwertig behandeln, ist die Wahl einer geeigneten .de Domain sinnvoll. Da diese Endung am meisten bekannt ist, strahlt sie dementsprechend Seriosität aus. Sollten Sie dennoch keine geeignete .de Domain finden, weil z.B. Ihr Wunschname schon vergeben ist, wählen Sie in jedem Fall besser eine andere Domainendung als einen anderen, nicht Ihren Vorstellungen entsprechenden Domainnamen. Bei der Wahl dieses Namens gilt es darauf zu achten, dass jeder sich den Begriff bzw. Text leicht merken und mit Ihrer Webseite in Verbindung bringen kann. Die Länge des Namens darf 3 bis 24 Zeichen betragen. Er sollte aber wenn möglich relativ kurz sein. Ein grober Richtwert ist eine Länge von 10-12 Zeichen. Des Weiteren stellt sich die Frage, ob Sie wichtige Keywords, also Schlüsselwörter mit in den Domainnamen aufnehmen möchten. Im Normalfall ist dieses aus zwei Gründen sehr ratsam. Der Domainname spielt beim Ranking, entgegen der Meinung einiger Experten, durchaus eine entscheidende Rolle. Der zweite Vorteil einer wichtige Keywords beinhaltenden Domain ist die Tatsache, dass viele bei der Verlinkung einer Webseite einfach nur den Domainnamen als Linktext verwenden. Beinhaltet dieser ein oder zwei wichtige Schlüsselwörter, wird Ihre Webseite unter den entsprechenden Suchwörtern höher gelistet werden. Es ist daher sogar sinnvoll, eventuell einen Bindestrich in der Domain zu verwenden, da die dadurch getrennten Wörter in der Regel als zwei unterschiedliche Keywords gewertet werden. Sie sollten sich jedoch auf maximal zwei Wörter, also höchstens einen Bindestrich festlegen. Längere Domains wirken schnell unseriös und werden unter Umständen auch von einzelnen Suchmaschinen abgewertet. Auch gibt es so genannte ‚Type-In Domains´. Dieses sind Domainnamen, welche so aussagekräftig sind, dass sie von vielen Internetnutzern einfach direkt in den Browser eingegeben werden. Obwohl der Nutzer die eigentliche Seite nicht kennt, ist er sicher, für ihn relevante Informationen unter der entsprechenden Url zu finden. Ein Beispiel ist die Domain auto.de. Sehr häufig wird einfach die Url www.auto.de in den Browser eingegeben. Da solche Domainnamen jedoch sehr begehrt und dementsprechend teuer sind, soll an dieser Stelle nicht weiter auf das Thema eingegangen werden. Wichtig ist es, bei der Wahl eines Namens auf bestehende Marken- bzw. Urheberrechte zu achten. Vergewissern Sie sich ganz genau, ob der Name oder Teile des Namens nicht das Copyright anderer verletzen. In dem Kapitel ‚Links, Tools und Software´ gibt es hierzu einige nützliche Verweise. Außerdem kann bei der Wahl des Domainnamens eine Keywordrecherche sinnvoll sein. Näheres hierzu erfahren Sie im Kapitel ‚Keywords´... 5.1.1. Standarddomain Wenn Sie sich für eine Domain entschieden haben, sollten Sie in jedem Fall eine so genannte Standarddomain definieren, d.h. eine einzige Adresse, unter der Ihre Webseite gefunden bzw. abgerufen werden kann. Legen Sie keine Standarddomain fest, ist es z.B. oft der Fall, dass Ihre Seite sowohl mit dem Zusatz ‚www´ als auch ohne das Präfix abgerufen werden kann. Suchmaschinen erkennen, wenn Webseiten unter mehreren Adressen zu finden sind. Sie werten dieses als Duplicate Content, also ‚doppelten Inhalt´ und strafen es unter Umständen kategorisch ab. Einen Link zu weiterführenden Informationen zu der Frage, wie Sie eine Standarddomain definieren können, finden Sie ebenfalls im Kapitel ‚Links, Tools und Software´... 5.2. Webhosting Webhosting bedeutet die Unterbringung (Hosting) einer Webseite auf einem Webserver. Der Anbieter bzw. Provider stellt zumeist gegen Entgelt die dafür erforderlichen Mittel und Ressourcen zur Verfügung. Bei der Wahl eines geeigneten Providers sollten Sie einige Dinge beachten. Suchen Sie sich einen Anbieter, der bekannt und schon längere Zeit auf dem Markt ist. Des Weiteren sollten Sie darauf achten, dass der Provider die für Ihr Vorhaben notwenigen technischen Voraussetzungen unterstützt. Dabei gilt es zunächst einmal zu klären, wie viel Speicherplatz und Traffic, also zur Verfügung stehendes Datenvolumen, Sie für Ihre Webseite benötigen und vor allem auch, in einiger Zeit eventuell benötigen werden. Achten Sie deshalb immer darauf, dass sich Ihr gewähltes Angebot erweitern bzw. ‚upgraden´ lässt. Die Angebote reichen mittlerweile von einer ‚Webvisitenkarte´ mit einem Speicherplatz von einigen MB bis hin zum eigenem Server. Ein Richtwert lässt sich hier kaum nennen. Für eine normale, statische Webseite können 50 MB Speicherplatz und 1 GB Traffic im Monat völlig ausreichend sein. Der Betreiber einer gut besuchten Community erreicht diese Werte unter Umständen innerhalb weniger Stunden. Generell lässt sich sagen, dass man mit einem etwas größeren Paket oft besser bedient ist. Der Markt ist mittlerweile so hart umkämpft, dass der preisliche Unterschied zwischen den einzelnen Angeboten oft nur noch sehr gering ist. Darüber hinaus sollte Ihr Provider PHP und MySQL Unterstützung anbieten. PHP ist eine Programmiersprache, welche vor allen Dingen zur Erstellung von dynamischen Webseiten Anwendung findet. MySQL ist ein System zur Verwaltung von Datenbanken. Daneben sind einige Apache-Module sehr wichtig. Ihr zukünftiger Webhoster sollte in jedem Fall mod_rewrite unterstützen. Mit Hilfe dieser Funktion können Sie z.B. einfach und schnell Adressen suchmaschinenfreundlich umleiten, eine Standarddomain definieren oder dynamische, und damit oft sehr kompliziert strukturierte URLs umschreiben und vereinfacht darstellen. Da diese Punkte für eine erfolgreiche Suchmaschinenoptimierung von Bedeutung sind, gilt es darauf achten, dass Ihr Provider diese Services auch anbietet bzw. unterstützt. Ferner sollte Ihnen die Möglichkeit angeboten werden, die Logfiles des Servers downloaden zu können. Darin aufgezeichnete Daten, z.B. über welche Seite bzw. welchen Link der Besucher Ihre Webseite gefunden und auf welcher Seite er diese wieder verlassen hat, welches Suchwort und welche Suchmaschine genutzt wurde, oder wie lange er auf Ihrer Webseite verblieben ist, dienen dazu, den Aufbau und die Struktur Ihrer Webseite dem Besucherverhalten anzupassen und zu optimieren. Einige Links, welche Ihnen bei der Serverwahl behilflich sein können, finden Sie unter ‚Links, Tools und Software´... 5.3. Programmierung 5.3.1. Programmiersprachen Eine Programmiersprache ist eine in einer bestimmten Form dargestellte Sprache, mit Hilfe derer es möglich ist, Computersysteme direkte Anweisungen bzw. Befehle zu erteilen. Da unsere natürliche Sprache zu allgemein und in vielen Bereichen nicht eindeutig ist, benötigt man für die Kommunikation mit Computer- bzw. Rechnersystemen eine Sprache, welche detaillierter ist, und den komplexen algorithmischen Strukturen der Computer gerecht wird. Eine Programmiersprache enthält zum einen syntaktische, d.h. die äußere Form betreffende, und zum anderen semantische Strukturen. Unter der Semantik versteht man die genaue Bedeutung einzelner Elemente der Sprache. Mittlerweile gibt es ein große Anzahl verschiedener Programmiersprachen, von denen hier nur einige wichtige genannt und kurz erläutert werden sollen. Nicht den Programmiersprachen im eigentlichen Sinne zugehörig, werden an dieser Stelle auch die Begriffe HTML und Typo3 erklärt... 5.3.1.1. Die wichtigsten Programmiersprachen C++: Die Programmiersprache C++ ist weit verbreitet und wird in vielen Bereichen eingesetzt. Sie baut auf der Programmiersprache C auf und wird z.B. bei der Programmierung komplexer Betriebssysteme oder der Entwicklung von Computerspielen verwendet. Java: Java ist ein Produkt der Firma Sun Microsystems und Bestandteil der JavaTechnologie. Mit Java lassen sich schnell und einfach kurze Befehle oder Programmstrukturen umsetzen. Die Programmiersprache Java wird von den meisten Betriebssystemen unterstützt und bedarf lediglich einer speziellen Einbettung, die auch als Java- Plattform bezeichnet wird. Perl: Die Programmiersprache Perl wurde auf Grundlage verschiedener anderer Sprachen entwickelt. Ihr Vorteil liegt in der erweiterten Interpretierbarkeit einzelner Elemente bzw. ganzer Einheiten. Aufgrund dieser Eigenschaft findet Perl Anwendung in vielen Bereichen, so z.B. bei der Systemadministration oder bei der Umsetzung von Webanwendungen. PHP: ‚Personal Homepage Tools´ bzw. PHP dient z.B. zur Erstellung von komplexen dynamischen Webanwendungen. Fast alle Webseiten, welche dynamische Inhalte generieren, nutzen PHP. Es wird von allen Betriebssystemen unterstützt. PHP ist eine serverseitig interpretierte Sprache, und bedarf daher keiner speziellen Spezifikation auf der Clientseite. HTML: Die ‚Hypertext Markup Language´ ist eine auf Text basierende Auszeichnungssprache. HTMLDokumente bzw. Webseiten sind die eigentlichen Grundbausteine des Internets. Zur Darstellung dieser Dokumente bedarf es eines so genannten Webbrowsers. Die üblicherweise enthaltenen Hyperlinks verknüpfen die einzelnen Dokumente untereinander. Erst durch die Vernetzung einzelner Dokumente bzw. Webseiten entsteht der komplexe und gleichzeitig strukturierte Aufbau des Internets bzw. World Wide Webs. Die meisten Webeditoren basieren auf HTML. Typo3: Das Web Content Management System Typo3 erleichtert die Veröffentlichung und Verwaltung von Webseiten. Es basiert auf der Scriptsprache PHP. Typo3 ist eine ‚Open Source Software´, wird also ständig weiterentwickelt. 5.3.2. Web-/HTML-Editoren Viele der Webeditoren sind so genannte HTMLEditoren. Ein HTML-Editor ist eine Software, mit Hilfe derer man Internetseiten in dem allgemein üblichen HTML-Format erstellen kann. Unterschieden werden Programme, bei denen der HTML- bzw. Quellcode direkt generiert oder bearbeitet wird, und so genannte WYSIWYG-Editoren (Abk. für ‚What you see is what you get´), bei denen die Webseite bereits während der Bearbeitung, ähnlich wie in einem Browser, angezeigt werden kann... 5.3.2.1. Wichtige Web-/HTML-Editoren Microsoft Front Page: Der nach dem WYSIWYG-Prinzip aufgebaute HTML-Editor Microsoft Front Page ist der mit am häufigsten genutzte Editor überhaupt. Er zeichnet sich besonders durch seine übersichtliche und leicht verständliche Benutzeroberfläche, sowie durch sein Site- bzw. Link-Management aus. Für kleinere Webseiten ist Front Page durchaus geeignet. Bei der Erstellung großer Webseiten wird es jedoch aufgrund der Kategorisierung der einzelnen Inhalte zunehmend schwieriger, die Seiten zu verwalten und einzuteilen. Hier kommt es dann auch hin und wieder zu ‚unsauberen´ Codierungen. Bei den älteren Versionen fehlt zudem die Unterstützung verschiedener Programmiersprachen, wie z.B. PHP. Bei der neuen Version soll es jedoch gelungen sein, diese Fehler weitestgehend zu beheben. Dreamweaver: Dieser HTML-Editor der Firma Adobe Systems (früher: Macromedia) ist ebenfalls nach dem WYSIWYG-Prinzip aufgebaut. Die Benutzeroberfläche sowie die Funktionalität ist im Gegensatz zu Microsoft Front Page differenzierter und damit oft auch unübersichtlicher. Dreamweaver erstellt jedoch auch bei größeren Projekten einen ‚sauberen´ bzw. validen HTML-Code und unterstützt zudem PHP und weitere Programmiersprachen. Für professionelle Webentwickler ist Dreamweaver zu empfehlen. Für Anfänger, welche relativ schnell und unkompliziert eine neue Webseite erstellen möchten, ist dieses Programm eher ungeeignet. Adobe GoLive: Auch dieser Editor ist aufgrund seiner Komplexität und Bedienbarkeit eher den professionellen bzw. erfahrenen Webentwicklern vorbehalten. Mit Hilfe vieler verschiedener Komponenten ist es möglich, im ‚Drag & Drop Verfahren´ die Erstellung komplexer Seitenstrukturen zu vereinfachen. GoLive unterstützt PHP und ist für die Betriebssysteme Microsoft Windows und Mac OS erhältlich. Der WYSIWYG-Editor soll jedoch nach und nach durch Dreamweaver, ebenfalls ein Produkt des Unternehmens Adobe Systems, ersetzt werden. NetObjekts Fusion: Dieser HTML-Editor ist ein Produkt der Firma Websidepros. Als WYSIWYG-Editor mit einer einfachen und übersichtlichen Oberfläche, ist dieses Programm auch für Einsteiger geeignet. Verschiedene Features, wie z.B. das Integrieren verschiedener Templates, erleichtern die Bedienung und erweitern den Funktionsumfang. NetObjekts Fusion unterstützt PHP und andere dynamische Inhalte und ist sowohl für kleine als auch große Webseiten geeignet. Darüber hinaus gibt es noch viele weitere Web- bzw. HTML-Editoren. Bei Ihrer Wahl sollten Anfänger auf dem Gebiet der Webseitengestaltung darauf achten, dass der Editor nach dem WYSIWYG-Prinzip aufgebaut ist. Wie der Name schon sagt, kann man hier jeden Arbeitsschritt direkt beobachten und nachvollziehen. Bei reinen Texteditoren muss der Code direkt eingegeben werden, man muss also HTML-Kenntnisse besitzen. Außerdem ist es ratsam, auf eine einfache und übersichtliche Benutzeroberfläche zu achten. Der von Ihnen gewählte Editor sollte zudem PHP unterstützen... 5.4. Seitenaufbau 5.4.1. URL Aufbau Eine Url, auch ‚Uniform Ressource Locator´ genannt, identifiziert eine Ressource über ihre Lokalisation und ihrem Zugriffsmechanismus. Eine Url besteht aus reservierten und nicht reservierten Zeichen. Der richtige Url-Aufbau bzw. das richtige Url-Design ist eine wichtige Voraussetzung für eine gute Platzierung in den Ergebnissen der Suchmaschinen. Schon vor der Erstellung einer Webseite müssen Sie sich über die Struktur und die Namensgebung der einzelnen Seiten im Klaren sein. Diese sollten, nachdem eine Webseite von Suchmaschinen indexiert und in den Ergebnissen gelistet wird, nicht mehr verändert werden. Generell lässt sich sagen, dass das Url-Design, genau wie die gesamte Webseite, nicht explizit für Suchmaschinen, sondern in erster Linie für den Besucher gemacht wird. Sie sollten daher immer verständliche und dem Content der jeweiligen Seite entsprechende Urls definieren. Benutzen Sie wichtige Keywords und vermeiden Sie kaum verständliche Zahlen- und Zeichenkombinationen. Einzelne Keywords können durch einen Bindestrich kombiniert werden. Von den Suchmaschinen werden sie getrennt gewertet. Dateinamen sollten nicht unbedingt in der Url angezeigt werden, da diese z.B. eine spätere dynamische Umstellung einer statischen Webseite erschweren. Auch Parameter sind eher ungeeignet. Ein weiterer oft gemachter Fehler ist eine zu komplexe bzw. zu ‚tiefe´ Linkstruktur. Die Crawler der Suchmaschinen indexieren bzw. verfolgen oft nur die ersten Ebenen einer Webseite. Zudem lassen sich klar und einfach strukturierte Webseiten leichter verändern und anpassen. Sind die Links absolut gesetzt, kann auch ein ganzes Verzeichnis mühelos in eine andere oder neue Ebene verschoben werden. Diese so genannten ‚sprechenden´ Urls, d.h. klar und einfach strukturierte bzw. definierte Adressen, sind sowohl für Suchmaschinen als auch für den Besucher einer Seite von Vorteil. Die Suchmaschinen können aufgrund der Keywords in den Urls schnell das Thema der Seite eingrenzen. Der Besucher wiederum weiß sofort, was ihn erwartet und wird nicht aufgrund einer verwirrend wirkenden Url abgeschreckt... 5.4.2. Seitenaufbau / Menü Der Seitenaufbau bzw. das Menü einer Internetseite muss einfach und klar strukturiert werden. Vermeiden Sie falsche Verlinkungen. Diese so genannten ‚defekten Links´ können bei häufigen Auftreten sogar zum Ausschluss aus dem Index einer Suchmaschine führen. Geeignete Tools zum Aufspüren defekter Links finden Sie im Kapitel ‚Links, Tools und Software´. Generell sollte die Navigation Ihrer Webseite so aufgebaut sein, dass sie der Besucher leicht nachvollziehen kann. Wenn dieses der Fall ist, wird auch der Crawler einer Suchmaschine keine größeren Probleme haben, jede einzelne Seite Ihrer Internetpräsenz zu finden. Eine Webseite ist stets in mehrere Ebenen unterteilt. Die erste Ebene ist die Startseite. Auf der Startseite werden in der Regel alle wichtigen Hauptkategorien verlinkt. Über die Seiten der Hauptkategorien sollte man erneut zur Startseite, sowie zu den Unterkategorien erster Ordnung gelangen können. Von diesen Seiten muss der Besucher wiederum zur Startseite, zu den Hauptkategorien und natürlich zu den Unterkategorien zweiter Ordnung gelangen. Diese Struktur sollte stufenweise bis zur letzten Ebene fortgesetzt werden. Die letzte Ebene einer Internetseite wird mit der Startseite und mit den Seiten der zweiten Ebene verlinkt. Bei kleinen und mittleren Webseiten kommt man oft mit insgesamt zwei oder drei Ebenen aus, aber auch große Projekte lassen sich in drei oder maximal vier Ebenen einteilen. Mit Hilfe von PHP oder CSS z.B. kann man diese übersichtlich strukturieren und verwalten. Eine höhere Anzahl an Ebenen gilt es zu vermeiden, da die Crawler der Suchmaschinen nicht jeden Pfad automatisch folgen, sondern ab einer bestimmten Ebene die Webseite eventuell wieder verlassen. Dieses können Sie zusätzlich auch durch eine externe Verlinkung einzelnen Unterseiten vermeiden. Bei der Umsetzung, also der Erstellung des Menüs, sollten Sie darauf achten, möglichst HTML- bzw. Textelemente zu verwenden. Vermeiden Sie Javascripte oder Applets, da noch immer einige Crawler Probleme haben, diese zu interpretieren. Zudem gibt es Browser bzw. Besucher, die Javascripte nicht anzeigen können bzw. die Funktion deaktiviert haben. Auch Bilder sind als Komponenten eines Menüs eher ungeeignet. Nutzen Sie die Möglichkeit, dem Besucher und damit auch den Crawlern durch sinnvolle, sich auf den Content der verlinkten Seite bezogene Keywords, Informationen über Ihre Webseite anzubieten. Die Linktexte der internen Verlinkung wirken sich ebenfalls positiv auf das Ranking einer Webseite aus. Auch eine durch Flash animierte Navigation sollte vermieden werden. Wenn Sie nicht darauf verzichten wollen, müssen Sie den Suchmaschinen eine auf HTML basierende Alternative anbieten. Bei großen Projekten kann es zudem hilfreich sein, eine so genannte Sitemap, d.h. eine einfach strukturierte Übersicht der einzelnen Webseiten, anzulegen. Näheres hierzu erfahren Sie im nächsten Kapitel. Mit Hilfe einer Sitemap lassen sich schnell und unkompliziert Ebenen reduzieren und überflüssige Links vermeiden. Zudem kann man mit einer Sitemap den PageRank einer Webseite gleichmäßig auf alle Unterseiten verteilen. Vereinfacht lässt sich sagen, dass eine auf den Besucher einer Internetseite abgestimmte und seinem natürlichen Verhalten angepasste Navigation gleichzeitig auch dazu führen wird, dass die Suchmaschinen die jeweilige Webseite schneller und besser erfassen können... 5.4.3. Sitemap Eine Sitemap ist eine durch Links dargestellte Auflistung aller Seiten einer Internetpräsenz. Bei großen Projekten kann sich die eigentliche Sitemap auch auf die Darstellung des hierarchischen Aufbaus beschränken, wobei dann die Unterkategorien bzw. die Seiten unterer Ebenen auf weiteren Sitemaps gelistet werden. Aber auch bei kleineren Webseiten ist eine zusätzliche Integration der hierarchischen Struktur sinnvoll. Eine Sitemap hat im Wesentlichen zwei Funktionen. Zum einen bietet sie dem Besucher einer Webseite einen einfachen Überblick bzw. eine einfache Navigationsmöglichkeit. Zum anderen liefert sie den Suchmaschinen relevante Informationen über die Webseite. Sitemaps speziell für Suchmaschinen werden auch Meta-Sitemaps genannt. Hier werden Informationen (Relevanz, Relation, letzte Aktualisierung, letzte Veränderungen) in Form einer mittlerweile standardisierten XML-Datei gespeichert, auf der Webseite verlinkt und auf den Server geladen. So können die Crawler der Suchmaschinen die Seite schnell und effektiv durchsuchen. MetaSitemaps lassen sich leicht mit speziellen Programmen erstellen. Einige ausgewählte Softwarelösungen finden Sie auch unter ‚Links, Tools und Software ´. Bei einigen Suchmaschinen ist es möglich, die Sitemap einer Webseite direkt einzureichen. Sie wird dann automatisch in regelmäßigen Abständen abgerufen. Bei Google muss man vorher ein eigenes Konto anlegen. Neben vielen anderen nützlichen Informationen und Tools, hat man dann auch die Möglichkeit, eine spezielle Sitemap einzureichen. Darüber hinaus ist es sinnvoll, auch dem Besucher einer Webseite eine eigene Sitemap bzw. Navigationshilfe anzubieten. Diese sollte wenn möglich nicht mehr als 50-100 Links enthalten und ebenfalls direkt von der Startseite verlinkt werden. Enthält Ihre Webseite mehr als 100 Seiten, ist es besser, die Sitemap hierarchisch zu strukturieren. Eine Unterteilung in eine Hauptmap und eine oder mehrere Untermaps ist auch hier, ähnlich wie bei der Erstellung der Seitennavigation, von Vorteil. Mit Hilfe einer Sitemap kann zudem versucht werden, die Anzahl der Ebenen einer Webseite zu minimieren. Dieses hat unter anderem den Vorteil, dass der PageRank gleichmäßig auf alle Unterseiten verteilt wird. Bei der Verlinkung der einzelnen Seiten sollten Sie, genau wie bei der Navigation, relevante Keywords verwenden. Durch eine Sitemap helfen Sie dem Besucher, sich schnell und gezielt auf Ihrer Webseite zurecht zu finden. Zusätzlich trägt sie dazu bei, dass Ihre Webseite vollständig und regelmäßig von den Crawlern durchsucht wird... 5.4.4. Interne Verlinkung Eine klar strukturierte interne Verlinkung ist für das Ranking der Einzelseiten einer Webseite unabdingbar. Eigentlich sollte diese schon durch den Einsatz einer strukturierten Seitennavigation bzw. einer Sitemap gewährleistet sein, es gibt jedoch noch einige zusätzliche Möglichkeiten, die interne Verlinkung zu verbessern. Auch hier ist darauf zu achten, dass möglichst keine graphischen Elemente bzw. Bilder als Link verwendet werden, da die Suchmaschinen den so dargestellten Text in der Regel nicht erkennen können. Wenn es sich nicht vermeiden lässt, nutzen Sie in jedem Fall das Alt- bzw. das Title-Attribut, um den Suchmaschinen zusätzliche Informationen anzubieten. Auch bei einfachen Textlinks ist es ratsam, das Title-Attribut zu verwenden. Fügen Sie zudem sinnvoll verweisende Links innerhalb des Contents Ihrer Webseite ein. Der Besucher, welcher sich für einen bestimmten Inhalt interessiert, sollte innerhalb des Textes oder auch am Ende durch weiterführende Links oder Artikelempfehlungen auf thematisch ähnliche Seiten hingewiesen werden. Nutzen Sie auch hier wichtige Keywords für die interne Verlinkung. Bei großen Webseiten bietet es sich zusätzlich an, Listen bzw. themenbezogene Sitemaps zu erstellen. Die Integration eines Stichwortverzeichnisses hat ebenfalls viele Vorteile. Dieses wird mit den jeweiligen Webseiten querverlinkt. Als zusätzliche Navigationshilfe können Sie dem Besucher eine so genannte Positionsanzeige oder Adressleiste anbieten. Anhand dieser Anzeige sieht er genau, wo er sich gerade befindet, und kann mit nur einem ‚Klick´ die Ebenen der Navigation wechseln. Nehmen Sie auch von der Möglichkeit Gebrauch, in obligatorischen Footerlinks wie ‚Home´ , ‚Sitemap´ oder ‚Impressum´ Keywords innerhalb des Linktextes zu verwenden. Schreiben Sie also z.B. ‚Home Keyword´, oder verwenden Sie hier ausnahmsweise graphische Elemente und fügen Sie entsprechende Alt-Texte ein. Durch die oben aufgeführten Maßnahmen können sie das Ranking Ihrer Webseite verbessern. Zudem fällt es den Suchmaschinen leichter, durch die auf den Content der verlinkten Seiten hinweisenden Linktexte, den Inhalt Ihrer Seite thematisch zuzuordnen... 5.4.5. Content Der Begriff Content wird für den eigentlichen Inhalt einer Webseite verwendet. Der Content einer Seite bezeichnet dabei alle dargestellten Medien, also Texte, Bilder, Audio- und Videodateien. Der Inhalt einer Webseite ist mit Abstand der wichtigste Rankingfaktor überhaupt. Wer seine Webseite regelmäßig mit individuellen Inhalten füllt, wird auch in den Ergebnissen der Suchmaschinen hoch gelistet werden... 5.4.5.1. Content - Texte Der einzige für Suchmaschinen wirklich interessante Inhalt ist der Text einer Webseite. Bilder oder Animationen sehen zwar schön aus, Suchmaschinen können diese jedoch zumeist nicht auswerten. Dennoch sollten generell alle Medien Verwendung finden, da vieles sich mit Hilfe von Bildern oder animierten Grafiken einfach besser darstellen bzw. erklären lässt. Bei deren Einsatz gilt es jedoch einige Regeln zu beachten. Diese werden im Kapitel ‚Bilder´ ausführlich erläutert. Versuchen Sie in jedem Fall, so viel individuellen Text wie möglich auf Ihrer Webseite einzufügen. Je mehr Text vorhanden ist, desto größer ist auch die Chance, mit einem Keyword oder auch mit Kombinationen aus zwei, drei oder mehr Schlüsselwörtern gefunden zu werden. Wie schon im Kapitel ‚Technik der Suchmaschinen´ beschrieben, wertet eine Suchmaschine den Text Ihrer Webseite aus, und ordnet die enthaltenen Begriffe vereinfacht gesagt bestimmten Suchwörtern oder Suchwortkombinationen zu. Experten gehen davon aus, dass es nur ca. 15 Millionen wirklich genutzte Suchwörter gibt. Vergleicht man diese Zahl mit der Anzahl der existierenden Webseiten, bedeutet dieses, dass bei jeder Suchanfrage oft Millionen Ergebnisse angezeigt werden. Um die Häufigkeit der Listung Ihrer Seite zu steigern, können Sie z.B. die Anzahl der in dem Text Ihrer Webseite enthaltenen Keywords bzw. Begriffe erhöhen. Hierbei sollten Sie jedoch einen wichtigen Grundsatz nie außer Acht lassen. Auch der Text Ihrer Webseite ist in erster Linie Ihrem Besucher gewidmet. Machen Sie nie den Fehler, den Text ausschließlich für die Crawler der Suchmaschinen zu optimieren. Ein sinnvoll zusammenhängender, individueller und informativer Text ist die Grundlage einer jeden Optimierungsarbeit. Suchmaschinen reagieren sehr empfindlich auf explizit für sie ausgerichtete Textmanipulationen. Sie sollten darauf verzichten, die Suchwörter, mit denen Sie gefunden werden wollen, überdurchschnittlich oft im Text Ihrer Webseite unterzubringen. Dieses so genannte ‚Keyword-Stuffing´ kann dazu führen, dass Ihre Seite ganz aus den Ergebnislisten bzw. dem Index gestrichen wird. Die Keyworddichte, auch Keyword- Density genannt darf einen Wert von 4-6% nicht überschreiten. Ein Tool zur Ermittlung der genauen Keyworddichte finden Sie auch unter ‚Links, Tools und Software ´. Konzentrieren Sie sich bei der Optimierung der Texte Ihrer Webseite nicht nur auf einige wenige Keywords, sondern versuchen Sie ebenfalls, Kombinationen aus mehreren Wörtern im Text unterzubringen. Manchmal ist es auch von Vorteil, die Optimierung einer Webseite in mehrere Phasen zu unterteilen. Da es wenig Sinn macht, eine noch neue Webseite auf wirklich hart umkämpfte Keywords zu optimieren, ist es gerade am Anfang ratsam, sich zuerst auf weniger oft optimierte Keywords oder Kombinationen zu konzentrieren. Wie man solche Begriffe bzw. Wörter bestimmen kann, lesen Sie im Kapitel ‚Keywords´. Ein weiterer Fehler, welcher unter Umständen sogar dazu führen kann, dass Ihre Seite aus dem Index entfernt bzw. ‚verbannt´ wird, ist so genannter ‚versteckter Text´. Es gibt mehrere Möglichkeiten, bestimmte Teile eines Textes so einzufügen oder zu verändern, dass der Besucher sie nicht sieht, die Crawler der Suchmaschinen diese aber erkennen und auswerten. Weit verbreitet ist ‚die weiße Schrift auf weißem Hintergrund´. Was am Anfang noch funktionierte, erkennt und bestraft mittlerweile jede Suchmaschine. Neben der Einbindung relevanter Keywords gibt es noch einige weitere Möglichkeiten, wie Sie den Text einer Webseite optimieren können. Näheres finden Sie im Kapitel ‚Gliederung´... 5.4.5.2. Content - Bilder Weil, wie schon erwähnt, Suchmaschinen Bilder oder andere graphische Elemente nicht auswerten können, gibt es einige wichtige Punkte, die man bei deren Einbindung beachten muss. Vorher sei jedoch noch kurz darauf hingewiesen, dass die Datengröße von Bildern und multimedialen Elementen möglichst klein gehalten werden sollte. Auch wenn mittlerweile ein Großteil der Internetuser DSL nutzt, gibt es immer noch zahlreiche Benutzer, die noch einen Modem- oder ISDN-Anschluss besitzen. Ein Bild sollte aus diesem Grund nicht größer als 100-150 KB sein. Fügen Sie jedem Bild einen alternativen kurzen Text (Alt-Attribut), eine weiterführende Beschreibung (Title-Attribut) oder sogar einen Link zu einer ausführlichen Beschreibung (Longdesc) hinzu. Das Alt-Attribut hat eigentlich die Funktion, dem Besucher einen alternativen Text zu bieten, wenn aus irgendeinem Grund die jeweiligen Bilder nicht angezeigt werden können. Dieses ist z.B. der Fall, wenn Browser bestimmte Dateien nicht unterstützen oder das automatische Laden dieser Dateien nicht aktiviert wurde. Der Alt-Text wird ebenfalls angezeigt, wenn der Besucher mit seiner Maus über das Bild fährt. Er sollte somit eine kurze Zusammenfassung bzw. Beschreibung des dargestellten Bildes enthalten. Das Title-Attribut bietet die Möglichkeit, jedem Element bzw. Bild zusätzliche und erklärende Informationen hinzuzufügen. Generell sollte zumindest immer das Alt-Attribut Verwendung finden. Wenn man dem Besucher umfangreiche bzw. weiterführende Informationen zu einem Bild zur Verfügung stellen möchte, kann man das Longdesc- Attribut verwenden, und einen Link zu einer Beschreibung setzen. Für Besucher, welche diesen Link nicht angezeigt bekommen, bietet es sich an, zusätzlich einen einfachen Textlink direkt neben dem Bild einzufügen. Mit Hilfe dieser Attribute liefern sie den Suchmaschinen wertvolle weitere Informationen über den Inhalt Ihrer Webseite, welche sich letztlich auch positiv auf das Ranking auswirken werden... 5.4.5.3. Content - Gliederung Nicht nur für den Besucher, sondern auch für Suchmaschinen ist es sinnvoll, den Text einer Webseite übersichtlich zu gliedern. Generell müssen Sie darauf achten, Ihre gesamte Seite in einem nach den üblichen Standards definierten HTML zu erstellen. Ein ‚unsauberer´ HTMLCode kann die Crawler einer Suchmaschine dazu veranlassen, Ihre Webseite zu verlassen und nicht länger zu durchsuchen. Bei der Gliederung des auf einer Webseite enthaltenen Textes bieten sich besonders die HTMLTags H1 bis H6 an, mit welchen man verschiedene Überschriften deklarieren kann. H1 definiert die wichtigste Überschrift und wird deswegen im Schriftbild auch am größten dargestellt. Wenn Ihnen die Darstellung nicht gefallen sollte, können Sie z.B. mittels CSS die Formatierung ändern und dem Design Ihrer Webseite anpassen. Verwenden Sie H1 für die eigentliche Überschrift Ihrer Webseite. Diese sollte die wichtigsten Keywords enthalten. Den H2 Tag und eventuell den H3 Tag können Sie für weitere Überschriften Ihrer Seite verwenden. Eine zusätzliche Integration der Tags H4 bis H6 ist nicht unbedingt erforderlich. Ein weiteres Mittel, einen bestimmten Teil eines Textes hervorzuheben, sind Textmarkierungen, wie z.B. Fettschrift oder Unterstreichungen. Versuchen Sie den Text verständlich und klar zu strukturieren. Besonders ausgezeichnete Passagen und vor allen Dingen Überschriften werden von den Crawlern der Suchmaschinen als wichtig eingestuft und helfen Ihnen, mit den enthaltenen Keywords höher gelistet zu werden... 5.4.6. Content - Aktualität Eine Webseite, deren Inhalte regelmäßig aktualisiert und erweitert werden, findet bei den Suchmaschinen mehr Beachtung als eine Seite, deren Inhalte seit längerer Zeit unverändert sind. Aktualisierungen veranlassen die Crawler der Suchmaschinen dazu, Ihre Seite öfters zu besuchen. Werden dagegen nach wiederholten Indexieren Ihrer Webseite keine neuen Inhalte gefunden, werden die Crawler den Zeitraum zwischen ihren Besuchen verlängern. Natürlich können Sie nicht den gesamten Inhalt Ihrer Internetpräsenz dauernd verändern, Sie sollten jedoch versuchen, die auf Ihrer Webseite angebotenen Informationen ständig zu erweitern. Mittlerweile findet man in immer größeren Umfang so genannten ‚Open Content´ im Internet. Diese Informationen sind nicht urheberrechtlich geschützt und können für eigene Zwecke verwendet werden. Es reicht jedoch nicht aus, diesen Content einfach zu übernehmen und auf die eigene Webseite zu stellen. Der so erzeugte ‚doppelte Inhalt´ wird von den Suchmaschinen negativ bewertet und abgestraft. Die frei zugänglichen Texte sollen vielmehr als Anregung dienen, selbst neue individuelle Informationen zu erstellen. Wenn Sie keine Zeit haben, ständig neue Inhalte zu generieren, bietet sich unter anderem die Möglichkeit, den Besucher Ihrer Webseite in die Erstellung neuer Inhalte mit einzubeziehen. Sie können z.B. ein Forum oder ein Meinungsboard in Ihre Webseite integrieren, und die neu geschriebenen Beiträge bzw. Kommentare auf der Startseite anzeigen. Auch ein eingebetteter Newsblog kann Ihnen helfen, Ihre Seite aktuell zu halten... 5.4.7. Meta Tags Die Meta-Tags sind HTML-Codierungen, welche so genannte Metadaten über die betreffende Webseite enthalten. Sie stehen zumeist im HEAD-Bereich einer Seite und fassen die wichtigsten Informationen zusammen. Zudem erleichtern Meta-Tags den Crawlern das gezielte Durchsuchen, indem sie ihnen wichtige Anweisungen geben. Da Meta-Tags für den Besucher unsichtbar sind, wird immer wieder versucht, so viele Informationen wie möglich einzufügen. Gerade in der Anfangszeit hatten die Suchmaschinen aufgrund der vielen und oft in keiner Weise themenrelevanten Informationen große Probleme, entsprechende Seiten zuzuordnen. Vor allen Dingen mit dem Keyword-Tag wurde viel Missbrauch getrieben. Auch aus diesem Grund ist die Bedeutung der meisten Meta-Tags für das Ranking einer Webseite eher gering. Bis auf zwei oder drei Tags ignorieren sogar einige Suchmaschinen die Informationen völlig. Dennoch sind gewisse Meta-Tags sehr wichtig und dürfen auf keiner Webseite fehlen... 5.4.7.1. Meta Tags - Title Eigentlich kein Meta-Tag, soll an dieser Stelle kurz der Title-Tag beschrieben und erläutert werden. Der Title-Tag ist einer der wichtigsten Onpage- Rankingfaktoren. Darüber hinaus wird der Text im Title-Tag bei den meisten Suchmaschinen in den Ergebnislisten als Beschreibung der Webseite angezeigt. Sie sollten dementsprechend einen Text finden, der gleichzeitig die für die Suchmaschinen relevanten Keywords, und andererseits verständlich und klar zusammengefasste Informationen für den Suchenden enthält. Beides zusammen ist oftmals gar nicht so leicht, da der Text in der Trefferanzeige ab einer bestimmten Anzahl von Zeichen automatisch gekürzt wird. Beschränken Sie sich daher auf ca. 50-75 Zeichen. Auf keinen Fall dürfen wichtige Keywords einfach ohne inhaltlichen Zusammenhang aneinandergereiht werden. Dieses wird von den Suchmaschinen negativ bewertet. Versuchen Sie etwa 5-7 Schlüsselwörter in einen logischen Kontext zu bringen. Gerade in der Anfangszeit macht es ohnehin wenig Sinn, eine Seite auf viele Keywords zu optimieren. Wichtig ist in jedem Fall, dass der Text auch den Besucher anspricht, denn was bringt Ihnen ein hohes Ranking, wenn Ihre Seite nicht ‚angeklickt´ wird. 5.4.7.2. Meta Tags - Description Die Description bzw. Beschreibung des Inhaltes erscheint bei einigen Suchmaschinen ebenfalls als Text in den Suchergebnissen. Fügen Sie auch hier eine möglichst genaue und verständliche inhaltliche Zusammenfassung Ihrer Webseite ein. Diese sollte den Suchenden dazu anregen, die Seite zu besuchen. Der Description-Tag darf nicht länger als 200 Zeichen sein, da auch er eventuell gekürzt wird. Versuchen Sie dementsprechend, die wichtigen Informationen Ihrer Webseite an den Anfang des Textes zu setzen. 5.4.7.3. Meta Tags - Keyword Der Keyword-Tag hat mittlerweile keine großen Auswirkungen auf das Ranking und wird von einigen Suchmaschinen sogar völlig ignoriert. Es hat jedoch auch keine negativen Folgen, wenn Sie diesen Tag verwenden und die wichtigsten Schlüsselwörter Ihrer Webseite einfügen. Hier sollte der Text nicht länger als 150-200 Zeichen sein. Unterlassen Sie eine Auflistung zu vieler und nicht dem Inhalt der Seite entsprechenden Keywords. Viele Suchmaschinen erkennen diese gezielten ‚Manipulationsversuche´ und strafen sie unter Umständen ab. Natürlich können Sie hier auch Keywordkombinationen einfügen, wobei Sie darauf achten sollten, das kein Einzelwort zu oft vorkommt. 5.4.7.3.1. Keywordanalyse Um die richtigen Keywords auszuwählen, eignet eine so genannte Keywordanalyse. Sie dient im Wesentlichen dazu, relevante Suchwörter oder Suchphrasen zu finden, unter denen Ihre Webseite die größten Chancen hat, weit oben in den Ergebnislisten der Suchmaschinen angezeigt zu werden. Zunächst müssen Sie sich dazu einige mögliche Keywords bzw. Kombinationen überlegen, die dem Thema Ihrer Seite entsprechen und unter denen Ihre Webseite gefunden werden soll. Anschließend sollten Sie untersuchen, wie viele Seiten bereits unter den jeweiligen Suchwörtern gelistet werden. Geben Sie dazu einfach die Begriffe in verschiedene Suchmaschinen ein. Es können leicht mehrere Millionen Ergebnisse für ein einzelnes Keyword angezeigt werden. Je mehr Treffer die jeweilige Suche ergibt, desto schwieriger ist es in der Regel auch, mit einer neuen Webseite unter dem entsprechenden Suchwort weit oben gelistet zu werden. Analysieren Sie die Webseiten auf den ersten drei Positionen bzw. auf der ersten Seite. Durch diese Konkurrenzanalyse lässt sich leicht feststellen, unter welchen Voraussetzungen, z.B. PageRank oder Domainpopularität, auch Ihre Webseite dort angezeigt werden könnte. Außerdem ist es hilfreich, sich den HTML-Code dieser Seiten anzuschauen. In den MetaTags finden Sie häufig alle relevanten Suchwörter. Sie erhalten somit neue Vorschläge für Ihre eigene Auswahl. Oftmals macht es in der Anfangsphase mehr Sinn, eine Webseite auf Keywordkombinationen zu optimieren. Auch hier sollten Sie wie oben beschrieben vorgehen. Auf diese Weise können Sie die Anzahl der von Ihnen vorher ausgewählten Keywords gezielt minimieren. Unter den verbleibenden Wörtern oder Wortkombinationen gilt es nun diejenigen heraus zu filtern, nach denen am häufigsten gesucht wird, und die gleichzeitig nicht so oft von den Webseitenbetreibern Ihrer Konkurrenz verwendet werden. Hierzu gibt es zahlreiche Tools. Einige zeigen z.B. die Anzahl der entsprechenden Suchanfragen innerhalb eines bestimmten Zeitraums an. Bei anderen Programmen wird zusätzlich ausgewertet, welche oder wie viele andere Webseiten auf dieses Suchwort optimiert wurden, oder wie die Chancen einer neuen Seite sind, ebenfalls unter dem jeweiligem Suchwort hoch gelistet zu werden. Eine kleine Auswahl dieser Tools finden Sie im Kapitel ‚Links, Tools und Software ´. Zum Schluss müssen Sie sich auf einige wenige Keywords oder auch Kombinationen festlegen. Am Anfang sind 3-5 Schlüsselwörter völlig ausreichend. Später, wenn diese gut gelistet werden, können Sie weitere hinzunehmen. Die Keywords sind die Grundlage jeder Suchmaschinenoptimierung und müssen daher gut gewählt sein... 5.4.7.4. Sonstige Meta Tags Es gibt noch eine ganze Reihe weiterer Meta-Tags, von denen hier nur die wichtigsten kurz erläutert werden... Robots: Der Robots-Tag sollte ebenfalls auf keiner Webseite fehlen. Mit Hilfe dieses Tags können Sie den Robots bzw. Crawlern der Suchmaschinen gezielte Anweisungen geben, z.B. ob Ihre Seite durchsucht werden soll oder nicht. Möchten Sie differenzierte Befehle erteilen, also die Crawler bestimmter Suchmaschinen ansprechen oder Teile Ihrer Webseite für die Indexierung sperren, empfiehlt sich eine ausgelagerte Textdatei, die so genannte robots.txt. Revisit: Auch dieser Tag richtet sich an die Suchmaschinen und gibt an, in welchen zeitlichen Abständen Ihre Webseite von den Robots besucht werden soll. Wird Ihre Seite ständig aktualisiert, können Sie die Crawler anweisen, diese jeden Tag nach neuen Informationen zu durchforsten. Werden die Inhalte nur selten geändert, reicht z.B. auch die Angabe, Ihre Seite alle 2 Wochen zu besuchen. Die Angabe ist jedoch lediglich ein Hinweis. Wann und wie oft Ihre Seite tatsächlich durchsucht wird, lässt sich damit kaum beeinflussen. Cacheing: Dieser Meta-Tag verhindert das Zwischenspeichern einer Webseite und sollte hauptsächlich bei Seiten, welche sehr häufig aktualisiert werden, Verwendung finden. Content-Type: Mit Hilfe dieses Tags wird die Art Ihrer Webseite sowie der verwendete Zeichensatz definiert. Durch die enthaltenen Angaben erleichtern Sie den Crawlern unter anderem auch das Lesen von Umlauten. Language: Hier sollte die verwendete Sprache auf Ihrer Webseite genannt werden. Page-Topic: Dieser Tag definiert das Thema einer Webseite. Ist dieses nicht ganz eindeutig, oder können unterschiedliche Themen in Frage kommen, sind auch Mehrfachnennungen möglich. Page-Type: Hier kann der Typ Ihrer Webseite eingefügt werden. Handelt es sich z.B. um eine reine Informationsseite, eine Anleitung, ein Verzeichnis oder eine Community, kann man den Suchmaschinen mit diesem Tag entsprechende Informationen anbieten. Author: Der Author-Tag beinhaltet den Autor bzw. die für den Inhalt der Webseite verantwortliche Person. Copyright: An dieser Stelle können Sie auf das Copyright, also auf Ihre Rechte an den Inhalten Ihrer Webseite aufmerksam machen. Es gibt noch einige weitere Meta-Tags, welche für das Ranking Ihrer Webseite jedoch keine Rolle spielen. Wirklich relevant sind ohnehin nur die Tags Title, Description und eventuell Keywords. Wichtig ist, dass Sie auf jeder Seite Ihrer Webpräsenz unterschiedliche und genau auf den jeweiligen Inhalt abgestimmte Metainformationen einfügen. Gleiche Meta-Tags auf allen Seiten sollten unbedingt vermieden werden. Hilfe bei der Erstellung bieten Ihnen so genannte ‚Meta-Tag-Generatoren´, welche Ihre gemachten Angaben automatisch in MetaTags umwandeln. Einige empfehlenswerte Generatoren werden im Kapitel ‚Links, Tools und Software´ genannt... 5.5. Indexierbarkeit Wenn Ihre Webseite gefunden werden soll, muss sie von den Suchmaschinen indexiert, d.h. in den Index aufgenommen werden. Das Sicherstellen der Indexierbarkeit einer Webseite ist somit ein wichtiger Bestandteil einer erfolgreichen Suchmaschinenoptimierung. Damit Suchmaschinen Ihre Seite lesen und auswerten können, muss sie in möglichst fehlerfreiem HTML-Code bzw. im ASCII Textformat geschrieben sein. Die wichtigsten weiteren Voraussetzungen für eine optimale Indexierbarkeit wurden bereits in den vorangegangenen Kapiteln besprochen. Eine klare und einfach strukturierte interne Verlinkung mit Hilfe einer übersichtlichen Seitennavigation bzw. einer Sitemap erleichtern den Crawlern der Suchmaschinen die Erfassung Ihrer kompletten Internetpräsenz. Sie sollten immer darauf achten, die Anzahl der Ebenen Ihrer Webseite möglichst gering zu halten. Je ‚flacher´ die Hierarchie Ihrer Seite, desto besser kann sie indexiert werden. Zunächst muss sie allerdings erst einmal von den Suchmaschinen bzw. den Crawlern gefunden werden. Wenn Sie eine Webseite veröffentlichen, müssen Sie diese bei den einzelnen Suchmaschinen anmelden. Erst dann ‚wissen´ die Suchmaschinen von der Existenz Ihrer Seite und werden sie früher oder später besuchen. Um den Vorgang zu beschleunigen, kann man auch einige externe Verweise bzw. Backlinks setzen. So finden die Suchmaschinen Ihre Webseite von ganz allein. Eine zusätzliche Anmeldung ist dann in der Regel nicht mehr nötig... 5.6. Domainalter Bereits kurz erwähnt, soll hier noch einmal darauf hingewiesen werden, dass das Domainalter ein wichtiger Rankingfaktor ist. Nach dem Prinzip ‚old is gold´, werden alte und bekannte Webseiten bzw. Autoritäten bei der Auflistung der Suchmaschinenergebnisse bevorzugt behandelt. Die Suchdienste gehen davon aus, dass Seiten, welche schon einige Jahre existieren und dabei regelmäßig aktualisiert wurden, dem Suchenden umfangreiche und bessere Informationen bieten können, als z.B. eine noch sehr neue Seite. Andererseits gibt es für ganz neue Seiten oft einen so genannten ‚Boost´, d.h. sie werden für kurze Zeit überdurchschnittlich hoch gerankt. Natürlich können Sie das Domainalter nicht direkt beeinflussen, Sie sollten aber so früh wie möglich eine Domain registrieren und diese bei den Suchmaschinen anmelden... 5.7. Ausgehende Links Ebenfalls ein wichtiger Rankingfaktor sind ausgehende Links, vor allen Dingen zu wichtigen und themenrelevanten Webseiten, so genannten Autoritäten. Die Links geben Aufschluss über den Content Ihrer Webseite und zeigen den Suchmaschinen, dass sie ein wichtiger Bestandteil der Infrastruktur des Internets ist. Generell hat kein Betreiber einer Webseite etwas dagegen, wenn Sie einen Link zu seiner Seite setzen. Achten Sie jedoch immer darauf, einen dem Thema der Seite entsprechenden und rechtlich völlig unbedenklichen Linktext zu wählen. Auch dürfen nur einige wenige ausgewählte Links auf einer Webseite eingefügt werden, da mit jedem weiteren Link die Stärke bzw. die ‚Linkpower´ der anderen Links auf der Seite abnimmt. Um die Linkpower möglichst hoch bzw. konstant zu halten, sollten Sie nie mehr als 10-15 ausgehende Links auf eine Seite stellen... 5.8. Weitere interne Rankingfaktoren Darüber hinaus gibt es zahlreiche weitere interne, d.h. seitenbezogene Rankingkriterien. Experten gehen davon aus, dass allein Google weit über hundert beeinflussende Elemente bei der Listung der Suchergebnisse berücksichtigt. Natürlich können hier nicht alle diese Faktoren explizit erwähnt bzw. erklärt werden. Es werden daher nur noch einige unter ihnen kurz angesprochen... 5.8.1. Individueller Content Wie schon im Kapitel ‚Content´ erwähnt, muss der Inhalt Ihrer Webseite individuell und einzigartig sein. Nur wenn die Crawler der Suchmaschinen wirklich neue Informationen finden, wird Ihre Seite hoch gelistet werden. Sind die gleichen oder ähnliche Informationen bereits an anderer Stelle im Internet erwähnt, wird dieses nicht der Fall sein. Bei nahezu identischem Inhalt, z.B. wenn Sie Texte anderer Webseiten einfach kopieren, wird ihre Seite aufgrund von Duplicate Content abgestraft und eventuell aus dem Index entfernt. Sie sollten daher immer darauf achten, den Suchmaschinen sowie dem Besucher Ihrer Seite individuelle Informationen anzubieten. Der individuelle bzw. einzigartige Content ist einer der wichtigsten, wenn nicht sogar der wichtigste Rankingfaktor überhaupt... 5.8.2. Seitenanzahl/-größe Ein weiteres internes Rankingkriterium ist die Größe der jeweiligen Internetpräsens, d.h. die Anzahl der Seiten und die Größe der Seiten selbst. Die Suchmaschinen gehen davon aus, dass auf einer Webseite, welche aus 100 Einzelseiten besteht, mehr bzw. genauere Informationen zum jeweiligen Suchwort zu finden sind, als auf einer Webseite mit nur 10 oder 20 Einzelseiten. Versuchen Sie, den Suchmaschinen so viele Informationen wie möglich anzubieten. Achten Sie aber immer darauf, dass wirklich jede einzelne Seite individuelle Informationen enthält. Allgemein gilt, dass die Qualität einer Webseite bedeutend wichtiger ist als die Quantität bzw. Größe... 5.8.3. Synonyme Wenn Sie mit Ihrer Seite mit einem bestimmten Keyword an den vorderen Positionen gelistet werden möchten, ist es wichtig, dass der Text der Webseite Synonyme, d.h. ähnliche bzw. themenverwandte Begriffe enthält. Es macht daher keinen Sinn, eine Webseite auf nicht der Thematik des Contents entsprechende Keywords zu optimieren. Konzentrieren Sie sich immer auf einige wichtige Wörter oder Phrasen und versuchen Sie, diese gezielt zu optimieren... 5.8.4. Wortstamm Auch die Verwendung von Wörtern des gleichen Wortstammes im Text einer Webseite ist sehr wichtig, um mit dem entsprechenden Keyword hoch gelistet zu werden. Genauso wie das Vorkommen von Synonymen, zeigt dieses den Suchmaschinen, dass der gesamte Inhalt Ihrer Seite relevant ist, und dem Suchenden umfangreiche Informationen bieten kann... 6.Offpage-Optimierung 6.1. Externe Links 6.1.1. Linkbewertung Externe Links, d.h. Links von anderen Seiten, sind für ein gutes Ranking Ihrer Webseite unabdingbar. Die Anzahl und Qualität der Links ist das wichtigste externe Rankingkriterium. Jeder dieser Links wird jedoch von den Suchmaschinen unterschiedlich bewertet bzw. gewichtet. So kann es sein, dass eine Seite mit nur wenigen, aber dafür qualitativ hochwertigen bzw. starken Verweisen, höher gelistet wird, als eine Seite mit sehr vielen, aber dafür eher schwachen Links. Einige Faktoren, welche die Suchmaschinen bei der Bewertung einzelner Links berücksichtigen, sollen an dieser Stelle kurz dargestellt werden. Die folgenden Punkte können Ihnen zudem dabei behilflich sein, selbst Links zu bewerten. Dieses kann z. B. bei der Beurteilung bzw. Findung geeigneter Linkpartner von Vorteil sein... 6.1.2. PageRank Das wichtigste Kriterium, mit dem externe Links bewertet und verglichen werden können, ist der so genannte Google PageRank. Er definiert vereinfacht gesagt die ‚Wertigkeit´ einer Webseite anhand der Anzahl und Qualität der auf sie verweisenden Links. Der PageRank wird in einer Skale von 1-10 dargestellt, wobei 10 den höchsten Wert definiert. Eine genaue Erklärung finden Sie im Kapitel ‚Google PageRank´. Es ist ein großer Unterschied, ob eine Seite mit einem PageRank bzw. PR von 2 einen Link zu Ihrer Seite setzt, oder eine Seite mit einem PageRank von beispielsweise 6. Der Link der Webseite mit einem PR von 6 wird von den Suchmaschinen bedeutend höher gewichtet als der PR 2 Link. Generell hat fast jeder Link einen positiven Einfluss auf das Ranking Ihrer Webseite. Sie sollten jedoch immer versuchen, das möglichst starke, also Webseiten mit einem hohen PageRank auf Ihre Seite verlinken... 6.1.3. Linktext Der Text mit dem Ihre Webseite verlinkt wird ist von großer Bedeutung. Die Linktexte erleichtern den Suchmaschinen, das Thema Ihrer Webseite genauer einzugrenzen. Zudem geben sie an, dass unter den im Linktext enthaltenen Keywords, relevante Informationen auf Ihrer Seite zu finden sind. Ein externer Verweis sollte daher immer ein oder mehrere für Ihre Seite wichtige Keywords enthalten. Selbst die Position der einzelnen Keywords innerhalb eines Linktextes ist von Bedeutung. Setzen Sie wichtige Keywords immer an den Anfang des Linktextes, weniger wichtige eher ans Ende. Generell darf der Linktext eine Länge von 2-4 Wörtern nicht überschreiten, da die Wertigkeit des jeweiligen Links bzw. die ‚Linkpower´ auf die einzelnen Keywords verteilt wird. Wie schon im Kapitel ‚Domainnamen´ beschrieben, sollte der Name Ihrer Webseite möglichst ein oder zwei wichtige Keywords enthalten. Viele Webseitenbetreiber, welche einen Link setzen, verwenden einfach den Domainnamen bzw. die Url als Linktext. Enthält dieser wichtige Schlüsselwörter, wird Ihre Seite unter diesen Suchbegriffen höher gelistet werden. Damit die wichtigen Keywords bei der externen Verlinkung Verwendung finden, bietet es sich an, einige Linkvorlagen oder Linktextvorschläge auf Ihrer Webseite zu veröffentlichen. Der Besucher kann dann z.B. einfach den HTML-Code des Links kopieren, und auf seiner Webseite einfügen. Wichtig ist, dass die Linktexte zu Ihrer Seite variieren. Ein immer wieder auftauchender identischer Linktext wird negativ gewertet. Verwenden Sie daher unterschiedliche Linktexte, indem Sie auf mehrere Keywords gleichzeitig optimieren und Synonyme einfügen... 6.1.4. Linkposition Eine Webseite wird von Suchmaschinen in mehr oder weniger wichtige Bereiche unterteilt. Der wichtigste Teil einer Seite ist der eigentliche Text, also der Content. Ein Link innerhalb des Textes wird daher höher eingestuft als z.B. ein Link irgendwo am Rand einer Webseite. Generell lässt sich folgende Einteilung machen: Ein Link innerhalb des Textes oder im Header einer Seite wird am höchsten gewichtet. Danach folgen Links rechts oder links neben dem Content. So genannte Footerlinks, also Links ganz unten auf einer Webseite, werden nicht so stark gewertet, da viele Webseitenbetreiber diesen Platz nutzen, um z.B. getauschte und damit nicht ‚echte´ Links unterzubringen. Das Gleiche gilt für eigens eingerichtete Seiten, z.B. Partnerseiten oder Linkseiten. Auch diese Links werden in der Regel von den Suchmaschinen abgewertet. Versuchen Sie, Ihren Link im eigentlichen Content einer fremden Seite zu platzieren. Schreiben Sie z.B. einen kurzen Informations- oder Werbetext, welcher ein oder zwei verlinkte Keywords Ihrer Seite enthält. Diesen können Sie dann Ihren Linkpartnern als Alternative zu einem einfachen Textlink anbieten... 6.1.5. Linkalter Auch das Alter der externen Links spielt seit einiger Zeit eine immer größer werdende Rolle. Um einen plötzlichen Aufstieg in den Suchergebnissen, z.B. durch kurzfristig gekaufte oder gemietete Links entgegenzuwirken, dauert es zumeist eine gewisse Zeit, bis externe Links berücksichtigt werden. Wenn Sie Links kaufen oder mieten, müssen Sie davon ausgehen, dass diese manchmal erst nach 3-6 Monaten ihre volle Wirkung zeigen. Diesen Zeitraum sollten Sie in Ihre Investitionsplanung in jedem Fall mit einbeziehen, zumal es ebenfalls bis zu drei Monate dauern kann, bis der vererbte PageRank der neu gesetzten Links auf Ihrer Seite angezeigt wird... 6.1.6. Anzahl der Links Die Anzahl der Webseiten, die mit einem Link auf Ihre Seite verweisen, ist ebenfalls ein wichtiger Rankingfaktor. Es sei jedoch noch einmal darauf hingewiesen, dass nur ein einziger starker Link, also z.B. ein Link von einer Seite mit einem hohen PageRank, oder der Verweis einer Autoritätsseite, einen größeren Einfluss auf das Ranking Ihrer Webseite haben kann, als viele schwache Links. Dennoch ist auch die Gesamtzahl der externen Links von Bedeutung. Unterschieden werden Linkpopularität, Domainpopularität und die IPPopularität. Linkpopularität: Die Linkpopularität oder ‚Link Popularity´ ist die Anzahl aller Links, die auf Ihre Seite verweisen. Bei der Linkpopularität werden z.B. auch sämtliche Links gezählt, die von ein und derselben Webseite ausgehen. Domainpopularität: Unter diesem Begriff, auch ‚Domain Popularity´ genannt, versteht man die Anzahl der Links, die von unterschiedlichen Domains auf eine Webseite verweisen. IP-Popularität: Bei der IP-Popularität bzw. ‚IPPopularity ´ werden nur die Links gezählt, die von unterschiedlichen IPs bzw. IP-Blöcken eingehen. Im Allgemeinen fließen alle drei Faktoren in das Ranking einer Webseite mit ein. Die genaue Gewichtung der einzelnen Popularitäten lässt sich nur schwer genau bestimmen. Die Linkpopularität, also lediglich die Zahl aller Links, dürfte am schwächsten gewertet werden, da man z.B. mit einem Footerlink auf einer großen Webseite leicht mehrere hundert Links erhalten kann. Bei der IP-Popularität besteht z.B. das Problem, dass einige Webhoster für viele Kundenwebseiten die gleiche IP verwenden. Aus diesen Gründen wird die Domainpopularität am stärksten gewichtet... 6.1.7. Autorität der Links Die Suchmaschinen teilen Webseiten in verschiedene Autoritätsstufen ein. Diese geben an, ob die betreffende Seite lediglich unwesentliche Informationen zu einem einzigen Thema enthält, oder ob sie z.B. eine Autorität ist, welche dem Besucher weiterführende Daten bzw. Informationen zu einem Thema oder Themenkomplex bieten kann. Links von Experten- oder Autoritätsseiten werden dementsprechend schwerer gewichtet. Sie erkennen Autoritätsseiten daran, dass sie viele Links zu weiterführenden Informationen enthalten. Gleichzeitig wird auf vielen anderen Webseiten auf die Autorität hingewiesen... 6.1.8. Themenrelevanz Immer häufiger werden Links gemietet und gekauft. Darum wird die Themenrelevanz der verlinkenden Webseiten umso wichtiger. Die Suchmaschinen gehen davon aus, dass themenrelevante Links nicht kommerziell erworben, sondern eingefügt wurden, um dem Besucher weitere Informationen anzubieten. Achten Sie möglichst immer darauf, Links von Seiten zu erhalten, deren Thematik mit dem Thema Ihrer eigenen Webseite konform geht. Der Aspekt ‚Themenrelevanz´ ist jedoch nicht unbedingt ein Ausschlusskriterium z.B. für einen Linktausch. Auch die Links themenfremder Seiten wirken sich positiv auf das Ranking Ihrer Webseite aus... 6.1.9. Linkaufbau Der richtige Linkaufbau ist einer der wichtigsten Faktoren bei einer Suchmaschinenoptimierung. Spätestens seit der ‚Existenz´ der Google Sandbox, einem Filter innerhalb des Algorithmus, welcher neue Webseiten, die zu viele Links in zu kurzer Zeit erhalten, in den ‚Sandkasten´, d.h. an das Ende der für die Seiten relevanten Suchergebnisse befördert, sollte immer ein natürlicher bzw. natürlich wirkender Linkaufbau angestrebt werden. Hierbei gibt es einige Punkte, die Sie in jedem Fall beachten müssen. Gerade bei einer neuen Webseite sollten anfangs nicht zu viele bzw. zu starke externe Links gesetzt werden. Eine normale Webseite, die z.B. schon nach wenigen Tagen 50 starke Backlinks besitzt, und daher theoretisch hoch gelistet werden müsste, wird von den Suchmaschinen, insbesondere von Google, abgestraft. In der Anfangsphase dürfen nur wenige, d.h. 2-5 Links pro Tag gesetzt werden, da die Gesamtzahl der Links nicht abrupt, sondern kontinuierlich zunehmen sollte. Es gibt Webseitenbetreiber, die einen eventuellen Aufenthalt in der Google Sandbox mit in ihre Optimierungsarbeit einkalkulieren und von Anfang an so viele Links setzen, wie möglich. Es dauert meistens nicht länger als 3-6 Monate, bis der Filter nicht mehr greift, bzw. bis die Seite wieder normal gerankt wird. Welche Art des Linkaufbaus Sie wählen, bleibt Ihnen überlassen. Es könnte jedoch sehr gut sein, dass ein einmaliger Aufenthalt in der Sandbox dauerhaften Einfluss auf das Ranking einer Webseite hat. Bei einem natürlichen Linkaufbau ist es zudem selten der Fall, dass ein hoher Prozentsatz der externen Links aus einem Bereich, z.B. aus dem Footer der verlinkenden Webseiten stammt. Weil dieser Bereich oft für gekaufte bzw. getauschte Links verwendet wird, werden diese Links von den Suchmaschinen in der Regel nicht so stark gewertet. Das Gleiche gilt für viele Links von der gleichen Domain oder IP-Adresse. Da z.B. die meisten Footerlinks oft auf allen Webseiten einer Internetpräsenz angezeigt werden, erhalten Sie zwar augenscheinlich sehr viele Links auf einmal, deren Gewichtung bzw. Stärke ist jedoch oft nur sehr gering. Versuchen Sie immer, ein natürliches Verhältnis sowohl der verlinkenden Seiten, als auch der Linkpositionen auf diesen Seiten herzustellen. Letzteres gilt auch für die Linktexte. Wenn ein hoher Prozentsatz der Linktexte gleich ist, gehen die Suchmaschinen davon aus, dass Sie als Webseitenbetreiber Initiator dieser Links waren. Die Linktexte bei einem natürlichen Linkaufbau sind aufgrund der Thematik einer Webseite zwar immer ähnlich, nie aber gleich. Bieten Sie den Webseitenbetreibern anderer Seiten immer einige unterschiedliche Textmöglichkeiten zur Auswahl. Wenn Sie Linktextvorschläge direkt auf Ihrer Webseite einbinden, bedeutet dieses, dass Sie die Linktexte in regelmäßigen Abständen ändern müssen. Die Zieladressen der externen Links sollten, um einen natürlich wirkenden Linkaufbau zu gewährleisten, ebenfalls variieren. Viele natürliche Links verlinken z.B. nur auf eine bestimmte Unterseite einer Webpräsenz, da nur die dort enthaltenen Informationen für den Besucher der verlinkenden Seite interessant sein könnten. Am Anfang eines organisierten Linkaufbaus sollten Sie natürlich zunächst einmal einige Links auf die Startseite Ihrer Internetpräsenz setzen, Sie können jedoch zwischendurch auch einige Unterseiten verlinken. Da sich die Linkpower bzw. der PageRank, vorausgesetzt Ihre Webseite hat eine gut strukturierte interne Verlinkung, gleichmäßig verteilt, wirken externe Links auf die Unterseiten indirekt auch auf das Ranking Ihrer Startseite bzw. der gesamten Webseite. Das Verhältnis von eingehenden Links zu ausgehenden Verweisen ist ebenfalls ein wichtiges Rankingkriterium. Suchmaschinen erkennen gewisse Muster innerhalb der Verlinkung. Wenn Sie z.B. bei einem Tausch einen Link zu der Webseite Ihres Partners setzen und dieser den Link Ihrer Webseite einfügt, registrieren die Suchmaschinen diese Vernetzung, auch reziproke Verlinkung genannt. Sie gehen davon aus, dass hier eventuell Links getauscht wurden und werten beide Links unter Umständen entsprechend ab. Auch wenn einige Experten behaupten, eine gegenseitige bzw. reziproke Verlinkung bringt keine Nachteile mit sich, wird bei einigen Suchdiensten durchaus darauf geachtet, ob es sich um getauschte, gekaufte oder echte Links handelt. Der PageRank, mit einer der wichtigsten Rankingfaktoren der Suchmaschine Google, kann durch das Tauschen und Kaufen von Links leicht manipuliert werden. Aus diesem Grund wird verstärkt daran gearbeitet, etwaige Links zu erkennen und abzuwerten. Zusammenfassend lässt sich sagen, dass ein natürlich wirkender Linkaufbau niemals klar strukturiert bzw. linear verläuft. Es kommt z.B. vor, dass eine Webseite aufgrund eines neu eingestellten und wirklich interessanten Artikels, viele Backlinks in sehr kurzer Zeit erhält. Auf der anderen Seite kann es passieren, dass eine Seite lange Zeit keinen neuen Verweis bekommt. Genauso verhält es sich mit den Linktexten und den Zieladressen. Wenn Sie selbst einen natürlichen Linkaufbau ‚simulieren´ möchten, gilt es zwar einige grundsätzliche Regeln zu beachten, Sie sollten jedoch auf keinen Fall zu strukturiert vorgehen, da Suchmaschinen diese Strukturen erkennen. Bedeutend einfacher wird der Linkaufbau, wenn Sie mehrere Webseiten betreiben und Sie die Links bzw. Adressen variieren können... 6.2. Links aus Webkatalogen/-verzeichnissen Gerade am Anfang ist es oft schwer, geeignete Linkpartner für eine Webseite zu finden. Die Seite ist noch unbekannt und hat einen PageRank von 0. Der Eintrag in verschiedene Webkataloge ist eine gute Möglichkeit, wie Sie schnell, einfach und in der Regel kostenlos einige Backlinks generieren können. Man unterscheidet Webverzeichnisse mit bzw. ohne ‚Backlinkpflicht´. Webkataloge mit Backlinkpflicht nehmen Ihren Eintrag nur dann auf, wenn Sie selbst einen Gegenlink auf Ihrer Webseite einfügen. Zwei weitere Kriterien bei der Auswahl geeigneter Verzeichnisse sind die Eintragsart und der PageRank der Seite, auf der Ihr Eintrag veröffentlicht wird. Viele Kataloge verlinken die Einträge nur indirekt, einige verwenden auch so genannte ‚NoFollow- Links´, d.h. Links, die von Suchmaschinen nicht verfolgt werden, und daher auch keine Relevanz für das Ranking der verlinkten Webseiten haben. Auch beim PageRank des jeweiligen Webkataloges sollten Sie sich nicht täuschen lassen. Oft hat z.B. die Startseite einen PR von 5 oder 6, die eigentlichen Seiten, auf denen die Einträge veröffentlicht werden, aber nur noch einen PageRank von 2 oder 3. Ratsam ist, wenn Sie Ihre Webseite zu Beginn in ca. 15-25 ausgewählte Webkataloge bzw. Verzeichnisse eintragen. Links zu einigen Listen verschiedener Webverzeichnisse finden Sie im Kaptitel ‚Links, Tools und Software´. Es gibt zwei Verzeichnisse bzw. Kataloge, auf die Sie Ihr besonderes Augenmerk legen sollten. Da ist zum einen das Open Directory Projekt (ODP), auch DMOZ genannt, und zum anderen das Yahoo Verzeichnis. Die Autoritätsstufe und damit auch das Ranking einer Webseite, welche ins ODP eingetragen wurde, steigt in der Regel innerhalb kürzester Zeit. Die Einträge in das Open Directory Projekt werden, wie bereits beschrieben, von speziellen Editoren manuell eingepflegt. Google und auch andere Suchmaschinen gehen davon aus, dass eine Seite, welche bei DMOZ gelistet ist, einen allgemeinen Nutzen für deren Besucher darstellt. Dementsprechend spiegelt sich dieser Eintrag auch im Ranking der jeweiligen Webseite wieder. Sie sollten also in jedem Fall versuchen, Ihre Seite beim ODP anzumelden. In der Regel dauert es mehrere Monate, bis Ihr Eintragswunsch bearbeitet wird. Im Gegensatz zu dem kostenlosen Eintrag bei DMOZ, ist ein Eintrag in das Yahoo Verzeichnis im Augenblick nur noch gegen Bezahlung möglich. Damit dürfte sich dieser Eintrag nicht derart positiv auf das Ranking einer Webseite auswirken, wie eine Listung im ODP. Sie erhalten jedoch durch einen Eintrag in das Yahoo Verzeichnis einige starke Backlinks, welche das Ranking positiv beeinflussen können... 6.3. Links aus Artikelverzeichnissen Eine weitere kostenlose Möglichkeit, externe Links zu erhalten, sind Artikelverzeichnisse. Wie der Name schon sagt, bestehen diese aus Artikeln bzw. Texten zu den verschiedensten Themen und Bereichen. Bei den meisten Verzeichnissen kann man sich registrieren und dann selbst Artikel schreiben. Als Gegenleistung für den ‚gelieferten´ Content, darf man dann ein oder oft auch zwei Links innerhalb des Artikels einfügen. Der Vorteil dieser Links ist, dass man sie direkt in den Text, also in den Content setzen darf. Der Nachteil einiger Verzeichnisse besteht in der Tatsache, dass täglich viele neue Artikel geschrieben und eingestellt werden. Der selbst geschriebene Text rutscht so oft relativ schnell nach unten. Mittlerweile gibt es unzählige Verzeichnisse. Genau wie bei den Webkatalogen, sollten Sie auch hier darauf achten, dass der von Ihnen geschriebene Artikel nicht auf irgendeiner Unterseite mit einem Pagerank von 0 oder 1 veröffentlicht wird. 83 Wenn man ein wenig recherchiert, findet man Artikelverzeichnisse, die einen PR von 4, 5 oder 6 haben. Da diese Verzeichnisse Artikel, welche bereits an anderer Stelle veröffentlicht wurden, in der Regel ablehnen, ist es ratsam, sich bei der Auswahl ein wenig Zeit zu nehmen. Das Schreiben eines individuellen Textes ist gar nicht so leicht und sollte dementsprechend ‚belohnt´ werden. Als kleine Hilfe finden Sie im Kapitel ‚Links, Tools und Software´ einige Links zu Listen mit ausgewählten Artikelverzeichnissen. Da, wie schon beschrieben wurde, der Content einer Seite der bedeutendste Rankingfaktor überhaupt ist, können Sie z.B. auch den Webseitenbetreibern themenverwandten Seiten das Angebot machen, einen Text bzw. einen Gastartikel zu schreiben. Sicherlich sind viele dann auch bereit, im Gegenzug einen Link zu Ihrer Seite zu setzen... 6.4. Links aus Weblogs Ein Weblog, oft einfach ‚Blog´ genannt, ist im eigentlichen Sinne eine Art ‚digitales Tagebuch´. Mittlerweile gibt es jedoch Blogs zu den verschiedensten Themen. Der Unterschied zu einer normalen Webseite lässt sich auf den ersten Blick oft kaum mehr ausmachen. Die Vorteile eines Blogs sind die einfache Erstellung sowie die leicht zu bedienende Benutzeroberfläche. Sie machen es dem Besitzer eines Weblogs bzw. dem Besucher leicht, ständig neue Informationen, Einträge und Kommentare zu erstellen. Die ersten Weblogs sind Mitte der 90er Jahre erstanden. Seit dieser Zeit ist die Zahl der Blogs förmlich explodiert. Damit sind sie auch zu einem Thema innerhalb der Suchmaschinenoptimierung geworden. Ein Vorteil der Weblogs sind die so genannten Permalinks. In der Regel werden alle Einträge, die in einem Blog gemacht wurden, archiviert. Diese können dann jederzeit unter einer bestimmten Adresse aufgerufen bzw. verlinkt werden. Für viele Webseitenbetreiber zusätzlich interessant ist, dass man in Weblogs selbst Einträge oder Kommentare verfassen kann. Diese Funktionalität und besonders die Aktualität der Blogs stufen die Suchmaschinen sehr hoch ein. Durch die neuartigen Verlinkungsmöglichkeiten haben viele Weblogs einen hohen PR bzw. eine hohe Autorität. Externe Links aus Blogs sind aus diesem Grund sehr beliebt, und helfen, das Ranking einer Webseite positiv zu beeinflussen. Was für den Besucher bzw. für die Aktualität der Blogs von Nutzen ist, hat auf der anderen Seite leider schon viele Betreiber dazu veranlasst, ihren Blog aufgrund von Spameinträgen zu schließen. Wenn Sie darauf aus sind, externe Links aus Weblogs zu erhalten, sollten Sie sich wirklich die Mühe machen, einen sinnvollen Beitrag bzw. Kommentar zu erstellen... 6.5. Social Bookmarking Unter dem Begriff Social Bookmarking versteht man die öffentliche Verwaltung von Favoriten, also bevorzugten Webseiten. Mittlerweile gibt es zahlreiche Social Bookmark Dienste. Zu den bekanntesten zählen unter anderem Mister Wong oder del.icio.us. Auf diesen Seiten kann der Benutzer seine eigenen Bookmarks online verwalten, und die der anderer Mitglieder einsehen oder auch abonnieren. Darüber hinaus kann jedes Mitglied seine eigene Liste unterschiedlichen Kategorien zuordnen und die Wichtigkeit einzelner Bookmarks bewerten. Jede einzelne Kategorie ist also eine von vielen Mitgliedern bewertete ‚Rangliste´ zu dem entsprechendem Thema, ähnlich einem redaktionell gepflegtem Webkatalog. Da die Social Bookmarks ständig von unzähligen Mitgliedern neu bewertet werden, spielt das ‚Ranking´ innerhalb dieser Listen indirekt auch eine Rolle für das Ranking Ihrer Webseite. Die Suchmaschinen nutzen einige Daten bzw. Informationen der Social Bookmark Dienste und lassen diese zum Teil mit in das eigene Bewertungsschema einzelner Webseiten einfließen. In welchem Umfang dieses geschieht, lässt sich nur schwer sagen, da es auf der anderen Seite auch möglich ist, die Listen der Social Bookmarks zu manipulieren, indem man z.B. Gruppen innerhalb der Mitglieder einzelner Dienste bildet und gezielt versucht, einzelne Bookmarks zu ‚pushen´. Resümierend lässt sich sagen, dass das Social Bookmarking, ein wesentlicher Bestandteil des Web 2.0, in Zukunft immer mehr an Bedeutung gewinnen wird. Wer seine Seite umfassend für Suchmaschinen optimieren möchte, muss sich mit diesem Thema auseinandersetzen... 6.6. Pressemitteilungen Pressedienste oder -verteiler sind in erster Linie dafür gedacht, wichtige Mitteilungen bzw. Nachrichten zu publizieren, und an relevante Adressen, wie z.B. Verlagshäuser, Redakteure oder Journalisten, weiterzuleiten. In der Regel können Sie bei einer Pressemitteilung, z.B. über den Launch Ihrer Webseite, auch einen Link oder eine Kontaktadresse mit angeben, unter welcher die betreffende Seite oder weiterführende Informationen zu finden sind. Sie erhalten somit unter Umständen gleichzeitig einige externe Links zu Ihrer Webseite. Es gibt eine ganze Reihe von Anbietern, welche damit werben, eine Nachricht an die wichtigsten EMail Adressen bzw. Agenturen zu verschicken. Unterscheiden muss man zwischen kostenlosen und kostenpflichtigen Diensten. Man kann nicht generell sagen, dass Letztere immer besser sind. Tatsache ist jedoch, dass gerade bei den kostenlosen Diensten oft kaum selektiert bzw. recherchiert wird, und täglich unzählige neue Meldungen bzw. Nachrichten verschickt werden. Bei den kostenpflichtigen Anbietern werden die Mitteilungen zumeist auf deren Inhalt überprüft und bestimmten Themengebieten zugeordnet. Oft werden dann mehrere Nachrichten zu einem einzelnen Thema gezielt an dafür bestimmte Adressaten, z.B. Journalisten oder Redakteure bestimmter Zeitungen oder Zeitschriften, versendet. Man sollte, bevor man eine Pressemitteilung über einen bestimmten Anbieter verschickt, überlegen, was man damit erreichen möchte. Wenn Sie lediglich einige Backlinks generieren wollen, bieten sich vielleicht einige bereits etablierte kostenlose Presseverteiler an. Wenn Sie jedoch erreichen wollen, dass vielleicht das Interesse des ein oder anderen Redakteurs geweckt wird, sollte man eher auf einen kostenpflichtigen Anbieter zurückgreifen... 6.7. Linklisten Eine weitere gern genutzte Möglichkeit, um schnell und einfach das Ranking einer Webseite zu verbessern, sind Einträge in Linklisten oder Gästebücher. Es gibt viele Anbieter, die damit werben, Ihre Webseite in unzählige Linklisten einzutragen. Der daraus resultierende Erfolg ist zumeist lediglich die Tatsache, dass Ihre Mailbox durch das Veröffentlichen Ihrer Kontaktdaten mit Werbemails überschwemmt wird. Linklisten sind oft einfach nur wahrlose Ansammlungen diverser Verweise aus den unterschiedlichsten Bereichen. Das Ranking Ihrer Webseite wird durch einen Eintrag in diese Listen kaum positiv beeinflusst. Es kommt sogar vor, dass Ihnen ein Eintrag schadet und sich das Ranking Ihrer Webseite verschlechtert. Google selbst weist in seinen Richtlinien explizit darauf hin, dass man von PR-Diensten jeglicher Art Abstand nehmen soll, da das Ranking einer Webseite z.B. durch Links von Webspammern oder Link- Programmen negativ beeinflusst werden kann. Ratsamer ist es daher, sich in einige ausgewählte Webkataloge einzutragen, bzw. einige Texte in Artikelverzeichnissen zu veröffentlichen. Wenn Sie dem ‚Ansehen´ Ihrer Webseite nicht schaden wollen, sollten Sie den Eintrag in einfache Linklisten und unzählige Gästebücher unterlassen. Auch das ‚Umfeld´ Ihrer Webseite ist ein Rankingfaktor. Links aus kaum geprüften Listen können leicht als Bad Neighbourhood bzw. ‚schlechte Nachbarschaft´ bezeichnet und dementsprechend abgewertet werden... 6.8. PR-Dienste Das Gleiche was für die Linklisten gilt, kann man auch auf die meisten PR- bzw. PageRankDienste übertragen. Seitdem vor einigen Jahren der Quellcode bzw. das Berechnungsverfahren des PageRanks geknackt und damit öffentlich bekannt wurde, gibt es diverse Anbieter verschiedener Serviceleistungen. Durch das Implementieren eines Buttons oder einfach nur eines HTML-Codes kann der Besucher anhand einer Grafik den aktuellen PageRank Ihrer Webseite erkennen. Gleichzeitig nehmen Sie in vielen Fällen an Besucheroder Rankingwettbewerben teil, indem Ihre Webseite eingetragen und mit anderen Seiten verglichen wird. Für das Einfügen des Buttons bzw. Codes, welches immer auch einen zusätzlichen, zumeist starken Backlink für den Betreiber des PRDienstes bedeutet, erhalten Sie oft nur einen schwachen Link auf irgendeiner Unterseite. Google hat den Betreibern dieser Dienste erst kürzlich offiziell ‚den Kampf angesagt´, und entsprechende Webseiten zum Teil aus dem Index entfernt. Sie sollten also mehr als vorsichtig sein, und nicht auf die Werbetricks der meisten PRDienste hereinfallen. Der Schaden, den Sie Ihrer Webseite durch die Teilnahme an z.B. gleich mehreren dieser Dienste zufügen können, kann weitaus größer sein, als der eventuelle Nutzen. Möchten Sie dem Besucher Ihrer Webseite dennoch den beschriebenen Service anbieten, beschränken Sie sich auf einen der bereits etablierten Anbieter... 6.9. Linkkauf / Linkmiete Viele ‚eingefleischte´ Suchmaschinenoptimierer lehnen das Kaufen oder Mieten von externen Links unter der Behauptung ab, dass es auch ohne finanzielle Aufwendungen möglich sein muss, eine Webseite oben in den Ergebnislisten der Suchmaschinen zu positionieren. Zweifellos ist das der Fall, es ist jedoch auch Tatsache, das viele bzw. fast alle kommerziellen Webseiten einen Teil ihrer Werbeausgaben fest für das Mieten und Kaufen von Links einkalkulieren. Natürlich kann man z.B. auch durch Linktausch sein Ziel erreichen, manchmal kann es jedoch sinnvoll sein, einige starke Links käuflich zu erwerben, z.B. um die Anzahl ausgehender Links zu minimieren oder freie Linkplätze zu halten. Links, ob nun als Banner oder Textlinks, kann man mittlerweile fast überall kaufen. Einige Beispiele sind Internetauktionshäuser, spezielle Linkkauf- oder Linkmietplattformen oder so genannte Linkbroker, welche sich darauf spezialisiert haben, Interessenten an entsprechende Verkäufer zu vermitteln. Wenn Sie sich entschlossen haben, einen oder gleich mehrere Links zu kaufen, sollten Sie einige grundsätzliche Regel bzw. Empfehlungen beachten. Zunächst lässt sich feststellen, dass Links immer ihren Preis haben. Billigangebote, in denen Ihnen zahlreiche starke Links für wenige Euros angeboten werden, sind in der Regel mit Vorsicht zu genießen. Ein PR 6 Links kann z.B. durchaus 50 Euro im Monat kosten, ein PR 7 Link mehrere hundert Euro und noch stärkere Links entsprechend mehr. Sie dürfen jedoch nicht davon ausgehen, dass ein stärkerer, bzw. ein Link mit einem höherem PageRank, Ihre Webseite auch dementsprechend besser in den Suchergebnissen positionieren wird. Das Gegenteil ist oft der Fall. Wenn Sie beispielsweise für eine neue Webseite gleich mehrere sehr starke Links kaufen, kann es passieren, dass Ihre Webseite aufgrund ‚unnatürlichen Linkwachstums´ für eine längere Zeit in der Google Sandbox landet. Was das für das Ranking Ihrer Webseite bedeutet, wurde bereits erläutert. Achten Sie beim Linkkauf bzw. bei der Linkmiete immer darauf, nicht in den Wirkungsbereich einer der vielen Filter der Suchmaschinen zu gelangen. Vereinfacht gesagt heißt dieses, Sie müssen sich auch hier Zeit lassen. Bei einer relativ neuen Webseite sollten Sie sich z.B. lediglich für den Kauf einiger PR 3, PR 4 oder maximal PR 5 Links entscheiden. Alles andere könnte dem Ranking Ihrer Seite eher schaden als nützen. Hat Ihre Seite nach einigen Monaten selbst einen PageRank, können entsprechend stärkere Links gesetzt werden. Wenn Sie sich endgültig für einen Anbieter bzw. eine Webseite, auf welcher Ihr Link gesetzt werden soll, entschieden haben, müssen Sie zunächst einmal prüfen, ob der PageRank der Seite auch wirklich echt ist. Durch gewisse Tricks, z.B. das Spiegeln des PageRanks, ist es möglich, auf Seiten die normalerweise einen PR von 0 haben, einen PR von z.B. 5 oder 6 anzeigen zu lassen. Auch gilt es sicherzugehen, dass der PageRank bzw. die Linkpower der Links auf der von Ihnen gewählten Webseite auch wirklich vererbt werden. Es gibt einige kostenlose Tools, mit denen Sie die Echtheit des angezeigten PageRanks bzw. die Links selbst überprüfen können. Einige finden Sie im Kapitel ‚Links, Tools und Software´. Führen Sie immer auch eine so genannte Backlinkanalyse durch, indem Sie sich die Anzahl und Qualität der Backlinks der entsprechenden Seite anzeigen lassen. So können Sie sicher gehen, dass die Webseite auch noch in einigen Monaten den angezeigten PageRank halten kann. Ausschlaggebend ist hier vor allen Dingen die Domainpopularität, welche sich leicht bestimmen lässt. Die dafür notwenigen Tools finden Sie ebenfalls im Kapitel ‚Links, Tools und Software ´. Außerdem muss die Autorität, die Anzahl der ausgehenden Links, sowie das Thema der Webseite bei Ihrer Entscheidung eine Rolle spielen. Ein PR 6 Link auf einer themenfremden Seite, auf der weitere 50 Links vorhanden sind, kann schnell weniger bewirken als z.B. ein PR 4 Link auf einer themenverwandten Seite, die nur 10 externe Links besitzt. Eine indirekte Möglichkeit, Links zu kaufen, ist das Sponsoring oder das Spenden. Oftmals lassen sich durch das Spenden einmaliger Geldbeträge, z.B. für die Entwicklung einer Open Source Software oder als Unterstützung für Organisationen oder Vereine, starke Backlinks gewinnen. Leider sind entsprechende Webseiten mittlerweile bekannt. Somit finden Sie Ihren Link schnell als einen unter vielen anderen wieder. Auch hier sollte zuerst genau recherchiert werden, ob sich die ‚Investition´ auch wirklich lohnt. Allgemein lässt sich sagen, dass es beim Kauf von permanenten oder vorübergehenden Links sehr viel zu beachten gibt. Um den schnell wachsenden Markt der Linkanbieter zu bremsen, haben einige Suchmaschinen entsprechende Webseiten indexiert und werten alle Links auf diesen Seiten ab. Vor allem aus diesem Grund ist oftmals der nicht kommerzielle Tausch von Links dem Linkkauf, vor allem bei einschlägig bekannten und unseriösen Anbietern, vorzuziehen... 6.10. Linktausch Es ist oft sehr schwer, Linktauschpartner für eine Webseite zu gewinnen, deren PageRank noch bei 0, 1 oder 2 liegt. Ihre Seite sollte mindestens einen PR von 3 oder 4 haben, bevor Sie damit beginnen, Linktauschanfragen zu stellen. Obwohl lange nicht das einzige Kriterium bei der Beurteilung von Links, schauen viele Webseitenbetreiber zuerst auf den PageRank der Seite des potenziellen Linktauschpartners. Wenn Ihre Webseite noch keinen bzw. einen sehr geringen PR hat, werden die Anfragen in der Regel abgelehnt. Ein PR von 3 lässt sich jedoch relativ leicht, wie schon beschrieben, z.B. durch einige Links aus Webkatalogen und Artikelverzeichnissen erreichen. Wenn Ihre Seite einen eigenen PageRank von 3 oder sogar 4 aufweist, sollten Sie sich genügend Zeit nehmen, geeignete Linkpartner zu finden. Weit verbreitet sind so genannte Linktauschbörsen oder spezielle Foren, in denen man gezielt nach geeigneten Partnern suchen kann. Wie schon im vorangegangenen Kapitel dargestellt, werten die Suchmaschinen offensichtlich gekaufte, gemietete und auch getauschte Links unter Umständen ab. Von speziell auf das Thema Linktausch ausgerichteten Services sollten Sie daher Abstand nehmen, da diese Anbieter den meisten Suchmaschinen bereits bekannt sind. Zwei einfache Möglichkeiten, geeignete Linkpartner zu finden, sind die Suche nach den für Ihre Seite relevanten Keywords in einigen Suchmaschinen und Verzeichnissen, oder die Backlinkanalyse der Seiten Ihrer Konkurrenz. Wenn Sie Ihre Hauptkeywords in einigen Suchmaschinen eingeben, erhalten Sie eine Liste potenzieller Linkpartner. Führen Sie eine Backlinkanalyse einiger Konkurrenzseiten durch, sehen Sie, welche Webseiten bereits auf Ihre Konkurrenz verlinken. Auch diese sind zumeist aufgrund der Themenrelevanz potenzielle Partner für Ihre eigene Webseite. Bei der eigentlichen Auswahl und Beurteilung der Webseiten bzw. der Links, sollten Sie wieder die schon im Kapitel ‚Linkkauf/Linkmiete´ aufgeführten Kriterien zur Hilfe nehmen. PageRank, Autorität und die Themenrelevanz einer Webseite seien hier nur noch einmal am Rande erwähnt. Haben Sie sich letztendlich für einige Webseiten, mit denen Sie sich eine Linkpartnerschaft vorstellen könnten, entschieden, geht es nun daran, die Betreiber der jeweiligen Webseiten zu kontaktieren. Wenn Sie eine E-Mail schreiben, sollten Sie versuchen, den jeweiligen Webseitenbetreiber persönlich anzusprechen und ihm kurz und präzise erklären, warum Sie seine Seite ausgewählt haben, und sich eine Linkpartnerschaft gerade mit ihm sehr gut vorstellen könnten. Unpersönliche, standardisierte oder sogar von speziellen Programmen verschickte E-Mails haben in der Regel eine hohe Ablehnungsquote. Versuchen Sie freundlich aber auch kompetent zu wirken. Gehen Sie kurz auf das Thema bzw. auf die Webseite des potenziellen Partners ein, indem Sie erläutern, was Ihnen an der Seite besonders gefällt. Details, wie den PageRank der Seite oder die Anzahl der Backlinks sollten Sie vermeiden. Entweder weiß der jeweilige Webseitenbetreiber genau um die Qualität seiner Seite, oder Ihr Ansprechpartner weiß mit diesen Begriffen überhaupt nichts anzufangen. Nachdem Sie sich mit Ihrem zukünftigen Tauschpartner einig geworden sind, müssen Sie zunächst einige wichtige Punkte besprechen. Weisen Sie darauf hin, dass Sie die Backlinks Ihrer Webseite regelmäßig überprüfen. Es gibt leider immer wieder Webseitenbetreiber, die nach einiger Zeit Links entfernen, verändern oder verschieben. Erläutern Sie zudem, dass die Position ein wichtiges Kriterium bei der Beurteilung von Links ist. Vermeiden Sie Footerlinks oder Verweise auf speziellen Link- oder Tauschseiten. Ein weiterer Diskussionspunkt ist die Art der Verlinkung. Der Link muss immer direkt, d.h. ohne Umleitung auf Ihre Seite verweisen. Da die Suchmaschinen, wie schon gesagt, getauschte Links abwerten, sollten Sie wenn möglich eine gegenseitige bzw. reziproke Verlinkung vermeiden. Einfache Linkstrukturen werden in der Regel sofort erkannt und unter Umständen von einigen Suchmaschinen negativ gewertet. Leider lässt sich diese Art der Verlinkung nur umgehen, wenn Sie mehrere Seiten besitzen. Dann können Sie einen Link zu der Seite Ihres Partners setzen und dieser verweist auf eine andere Ihrer Webseiten. Experten streiten immer noch darüber, ob eine reziproke Verlinkung wirklich schadet bzw. weniger positiven Einfluss auf das Ranking der jeweiligen Seiten hat, als eine ‚einseitige´ Verlinkung. Tatsache ist in jedem Fall, dass auch reziproke Links großen Einfluss auf die Position in den Ergebnissen der Suchmaschinen haben, und viele getauschte Links auch nicht als Solche erkannt werden. Der gezielte Linkaufbau durch das Tauschen von gleichwertigen und themenrelevanten Links ist deswegen ein geeignetes Mittel, um das Ranking Ihrer Webseite erheblich zu verbessern... 6.11. Weitere externe Rankingfaktoren Genau wie bei den internen Faktoren, gibt es auch bei den externen Rankingfaktoren noch viele weitere Kriterien, die bei der Listung der Ergebnisse von Suchmaschinen berücksichtigt werden. Generell gibt es im Augenblick noch mehr interne Faktoren, wobei die Tendenz dahin zeigt, dass zukünftig externe, d.h. weniger beeinflussbare bzw. manipulierbare Rankingkriterien eine immer größere Rolle spielen werden. Auch an dieser Stelle sollen deswegen weitere wichtige externe Faktoren kurz angesprochen werden... 6.11.1. Alexa Rank Alexa Internet ist ein Tochterunternehmen von amazon.com. Mit Hilfe der in vielen Programmen, z.B. in Windows XP, vorinstallierten Alexa Toolbar, kann der Benutzer diverse Services, ähnlich denen einer Suchmaschine, in Anspruch nehmen. Die Toolbar zeigt unter anderem den so genannten Alexa Rank einer Webseite an. Dieser beurteilt die Qualität einer Seite aufgrund deren Traffic, also deren Besucherstrom bzw. -verhalten. Das Programm ist mehr als umstritten, da durch die Toolbar auch das eigene Surfverhalten ermittelt und an Alexa Internet übertragen wird. Dennoch, oder gerade deswegen, spielt der Alexa Rank eine Rolle für das Ranking Ihrer Webseite. Je höher Ihre Webseite im Ranking steigt, desto besser wird Sie von den Suchmaschinen bewertet. 6.11.2. Besucherverhalten Oft wird diskutiert, ob das Besucherverhalten für das Ranking einer Webseite von Bedeutung ist. Mittlerweile dürfte es jedoch außer Frage sein, dass sowohl die Anzahl als auch die Aufenthaltsdauer bzw. das ‚Surfverhalten´ der Besucher bei einigen Suchmaschinen in hohem Maße mit in die Beurteilung einer Seite einfließt. Durch das Auswerten so genannter Logfiles lässt sich genau feststellen, wie viele Besucher eine Seite hatte, wie lange jeder einzelne Besucher auf der Webseite war, über welchen Link er gekommen ist und wo er die Seite wieder verlassen hat. Auch mit Hilfe vieler Toolbars ist es den Suchmaschinen möglich, an derartige Informationen zu gelangen. Besonders die Aufenthaltsdauer der einzelnen Besucher gibt Rückschlüsse über die Qualität der Seite. Wenn fast jeder die Webseite nach kurzer Zeit wieder verlässt, gehen die Suchmaschinen davon aus, dass die Seite keine interessanten Informationen enthält. Wenn die Besucher lange auf der Webseite verweilen und viele einzelne Seiten besuchen, zeigt das hingegen, dass die Seite interessant ist und relevante Informationen zu bieten hat. Da sich ebenfalls feststellen lässt, über welche Suchwörter jeder einzelne Besucher auf die Seite aufmerksam geworden ist, kann man die Relevanz der Webseite in Bezug auf die einzelnen Keywords bestimmen. Findet der Suchende keine für das Suchwort entsprechende Informationen, wird er die Seite schnell wieder verlassen. Es ist durchaus möglich, dass einige Suchmaschinen so auch das Ranking einer Webseite unter den einzelnen Suchwörtern bewerten und festlegen. Versuchen Sie immer, dem Suchenden, welcher Ihre Seite unter einem bestimmten Keyword gefunden hat, auch die Informationen zu bieten, die er sich erwartet. Des Weiteren sollten Sie besonders darauf achten, das die Startseite Ihrer Internetpräsens einladend und übersichtlicht aufgebaut ist. Wird der Besucher gleich angesprochen, wird er länger auf der Seite bleiben und eventuell sogar wiederkommen... 6.11.3. Kontinuität Auch die Kontinuität bzw. der schrittweise stattfindende Auf- bzw. Ausbau einer Webseite und insbesondere deren Linkaufbau ist ein weiterer Rankingfaktor. Eine Webseite, die regelmäßig aktualisiert, erweitert und ausgebaut wird, findet bei den Suchmaschinen mehr Beachtung als eine Webseite, die einmal veröffentlicht, kaum verändert wird. Das Gleiche gilt für den Linkaufbau. Wenn eine Webseite regelmäßig neue Backlinks erhält, deutet dieses darauf hin, dass die Seite interessant ist, und regelmäßig neue Informationen zu bieten hat. Wenn eine Webseite dagegen gleich am Anfang viele Backlinks erhält, im späteren Verlauf aber nur noch wenige oder sogar keine, lässt das eher den Schluss zu, dass die Links ‚künstlich´ aufgebaut wurden. Auch hier wird deutlich, dass es für den Aufbau und auch für die Optimierung einer Webseite sehr viel Zeit, Arbeit und Geduld braucht. 6.11.4. Seitenaufrufe Wie schon im Kapitel ‚Besucherverhalten´ erläutert, ist auch die Zahl der Besucher bzw. der Seitenaufrufe für das Ranking einer Webseite von Bedeutung. Im Prinzip bedeutet dieses auch, dass die Position einer Webseite in den Suchergebnissen einer bestimmten Suchmaschine auch für die Listung bei anderen Suchmaschinen wichtig ist. Wenn Ihre Seite z.B. bei Yahoo sehr gut platziert ist, wird sie es in den meisten Fällen früher oder später auch bei den anderen Suchmaschinen sein. Die Algorithmen vieler Suchmaschinen sind sehr ähnlich, zum Teil werden sogar Daten untereinander ausgetauscht. Insofern wird eine Webseite, welche durch eine bestimmte Suchmaschine viele Besucher erhält, auch von anderen Suchmaschinen gut bewertet. Wenn darüber hinaus die Unterseiten einer Webpräsenz viele Besucher erhalten, zeigt das den Suchmaschinen, dass die Seite interessante und relevante Informationen enthält und zudem sehr gut verlinkt ist. 7.Google 7.1. Indexierung 7.1.1. Aufnahme in den Index Wie bereits im Kapitel ‚Indexierbarkeit´ beschrieben, gibt es zwei Möglichkeiten, damit Ihre Seite indexiert bzw. in den Index der Suchmaschine Google aufgenommen wird. Im Abschnitt ‚Wichtige Adressen/Links´ finden Sie die Internetadresse, unter der Sie Ihre neue Webseite anmelden können. Einmal angemeldet, wird der Crawler, in diesem Fall der Googlebot, früher oder später Ihre Webseite besuchen und diese in den Index aufnehmen. In der Regel dauert es einige Tage, bis Ihre Seite das erste Mal in den Suchergebnissen auftaucht. Ob Ihre Webseite bereits indexiert wurde, können Sie mit Hilfe einer so genannten ‚Siteabfrage´ feststellen. Hierzu geben Sie einfach ‚site:www.ihredomain.de´ in das Suchfeld einer Suchmaschine ein. Sie erhalten dann eine Liste der bereits im Index vorhandenen Seiten Ihrer Internetpräsenz. Eine weitere Möglichkeit, Ihre Webseite indexieren zu lassen, ist das Setzen einiger externer Links. Da der Googlebot jedem Link folgt, wird er so relativ schnell auf Ihre Webseite stoßen und sie aufnehmen. Diese Alternative hat den Vorteil, dass Ihre Seite schneller, manchmal schon innerhalb weniger Stunden, indexiert wird. Des Weiteren stuft Google die Relevanz bzw. Autorität Ihrer Webseite durch die externen Links sofort etwas höher ein. Der Vorgang, bis alle Seiten Ihrer Webpräsenz in den Suchmaschinenindex aufgenommen sind, kann so ebenfalls beschleunigt werden. Generell ist es so, dass zuerst Ihre Startseite indexiert wird. Erst später folgen nach und nach die Unterseiten. Es kann vorkommen, das bei einer Siteabfrage Seiten angezeigt werden, und bei einer späteren Abfrage anscheinend erneut keine Seite im Index vorhanden ist. Letzteres ist jedoch nicht der Fall. Google hat mehrere Datencenter, an welche die Suchanfragen weitergeleitet werden. Abhängig davon, welches Datencenter Sie gerade abfragen, kann es sein, dass Ihre Webseite dort noch nicht gelistet ist. Es dauert einige Zeit, bis die Seiten auf allen Datencentern angezeigt werden. Je mehr externe Links auf eine Webseite verweisen, desto schneller und umfangreicher wird diese auch indexiert werden. Einmal in den Index aufgenommen, wird Ihre Seite dann in regelmäßigen Abständen besucht und nach Veränderungen bzw. neuen Inhalten durchsucht. Wenn Sie Ihre Webseite verändert, z.B. neue Seitentitel oder -beschreibungen eingefügt haben, kann es unter Umständen jedoch sehr lange dauern, bis diese in den Suchergebnissen angezeigt werden. Sie sollten sich daher mit der Erstellung Ihrer Seite Zeit lassen und diese erst anmelden, wenn Sie sicher sind, dass Sie wirklich keine grundlegenden Veränderungen mehr vornehmen müssen... 7.1.2. Verbannung aus dem Index Es kann auch vorkommen, dass eine Webseite aus dem Googleindex entfernt bzw. ‚verbannt´ wird. Kurz gesagt, ist dieses das Schlimmste, was Ihnen als Betreiber einer Seite passieren kann. Den weitaus größten Teil der Besucher erhalten Webseiten in der Regel über die Suchmaschine Google. Wird Ihre Seite nicht mehr in den Suchergebnissen angezeigt, sinkt die Anzahl der Besucher erheblich. Google und andere Suchmaschinen entfernen jedoch nicht einfach ohne Grund eine Seite aus ihrem Index. Google z.B. hat bestimmte Richtlinien, an denen man sich bei der Erstellung bzw. Optimierung einer Webseite halten soll. Verstößt der Aufbau bzw. der Inhalt Ihrer Webseite gegen diese Richtlinien, wird sie eventuell ohne vorherige Ankündigung aus dem Index gelöscht. Neben nicht den Richtlinien entsprechendem Inhalt sind ‚versteckter Text´, Keywordspam, Duplicate Content und weitere nicht erlaubte Optimierungen bzw. Manipulationen häufige Gründe für eine Verbannung aus dem Index. Aufgrund der Gesamtzahl der Webseiten wird leider nicht individuell darüber entschieden, ob oder in welchem Umfang Ihre Webseite gegen die Richtlinien verstößt. Ihre Seite durchläuft bei der Indexierung bzw. beim Crawlen spezielle Programme oder Filter. Wird ein grober Verstoß festgestellt, wird Ihre Seite aus dem Index entfernt. Eine weitere Konsequenz eines Verstoßes gegen die Richtlinien ist der so genannte ‚Slow Death´, also der ‚langsame Tod´. Hierbei verschwindet Ihre Webseite nicht abrupt, sondern langsam, Seite für Seite aus dem Index. Diese Art der Sanktion wird bzw. wurde relativ häufig bei Webseiten beobachtet, die mehrmals, z.B. unter mehreren Domains im Internet zu finden waren, d.h. bei Duplicate Content. Sie können zwar z.B. mit Hilfe von Google Analytics feststellen, warum Ihre Webseite entfernt wurde, die Chance aber, dass diese wieder in den Googleindex aufgenommen wird, ist eher gering. Sie sollten sich in jedem Fall an die Richtlinien der einzelnen Suchmaschinen halten. Nicht nur, weil Sie damit eine eventuelle Entfernung aus dem Index vermeiden, sondern auch, weil jeglicher Verstoß bzw. Manipulationsversuch erhebliche Folgen für das Ranking Ihrer Webseite haben kann. Einmal verbannt, bleibt Ihnen nur noch die Möglichkeit, den Grund für die Entfernung zu beseitigen, und einen Reinclusion Request, also einen Wiederaufnahmeantrag zu stellen... 7.2. Reinclusion Request Wenn Ihre Webseite aus dem Googleindex entfernt wurde, haben Sie die Möglichkeit, einen Wiederaufnahmeantrag bzw. einen Reinclusion Request einzureichen. Bevor Sie diesen Eintrag stellen, sollten Sie jedoch den Grund für die Entfernung auf Ihrer Webseite beseitigt haben. Oftmals gibt es sogar mehrere Ursachen, welche zum Ausschluss geführt haben. Da Ihre Webseite eventuell manuell geprüft wird, müssen Sie sich wirklich sicher sein, dass diese bei der Einreichung des Antrags in jedem Punkt den Richtlinien entspricht. Der Eintrag selbst sollte in jedem Fall über das Support-Forum erfolgen. Die genaue Adresse bzw. den genauen Link finden Sie im Abschnitt ‚Wichtige Adressen/Links´. Es macht keinen Sinn, den Eintrag an eine andere, nicht dafür vorgesehene E-Mail Adresse zu versenden, da Google täglich tausende EMails mit den unterschiedlichsten Themen und Anliegen erhält. Wichtig ist, dass Sie im Betreff ‚Reinclusion Request´ angeben. Nur so kann Google Ihre Mail richtig zuordnen bzw. bearbeiten. In dem Text der Nachricht müssen Sie kurz erläutern, dass und vor allem warum Ihre Seite aus dem Index entfernt wurde. Erklären Sie anschließend, dass Sie die möglichen Ursachen beseitigt haben und Ihre Seite nun wieder den Richtlinien entspricht. Versuchen Sie, freundlich zu wirken und deuten Sie an, dass Sie aus diesem Fehler gelernt haben und nicht noch einmal versuchen werden, die Richtlinien zu umgehen. Es ist besser, wenn Sie ehrlich bleiben. Zu schreiben, Sie wären nicht Schuld an der Ursache für die Verbannung, oder Geschichten zu erfinden, ist nicht ratsam. In der Regel dauert es eine ganze Weile, bis Ihr Antrag bearbeitet wird. Haben Sie, auch wenn es schwer fällt, etwas Geduld. Eine wiederholtes Einreichen oder Nachfragen sollten Sie vermeiden. Bis Ihre Seite unter Umständen wieder in den Index aufgenommen wird, können leicht Wochen oder sogar Monate vergehen. Die Chancen, dass Ihre Seite überhaupt wieder angezeigt wird, bleiben gering. Andere Möglichkeiten, Ihre Seite wieder in den Index zu bringen, gibt es nicht. Sie brauchen nicht zu versuchen, Ihre Webseite unter einer anderen Domain, einem anderen Server oder einer anderen IP-Adresse zu veröffentlichen. Google wird schnell feststellen, dass es sich um die gleiche Webseite handelt und sie nicht in den Index aufnehmen... 7.3. Pagerank Der PageRank, bzw. der auf den PageRank basierende Algorithmus, wurde von den Gründern der Suchmaschine Google entwickelt. Larry Page und Sergey Brin, damals noch Studenten an der Stanford University, hatten versucht, eine neues Verfahren zur Beurteilung der Relevanz einzelner Webseiten zu entwickeln. Der PageRank-Algorhitmus bewertet Webseiten aufgrund der Zahl und der Qualität bzw. Stärke der eingehenden Links. Grundlage dieses Verfahrens ist die Theorie, dass die Relevanz einer Seite dann steigt, wenn andere Webseiten auf diese Seite verweisen. Je stärker das Gewicht der jeweiligen Links, und je größer die Anzahl, desto höher ist auch die Relevanz bzw. der PageRank der verlinkten Seite. Vereinfacht gesagt definiert der PageRank die Wahrscheinlichkeit, dass eine Webseite im Internet gefunden wird... 7.3.1. Pagerank Algorithmus Da die genaue mathematische Darstellung bzw. Erklärung des Algorithmus zu umfangreich wäre, soll hier lediglich noch einmal das Prinzip der Formel kurz verdeutlicht werden. Laut dem PageRank-Algorithmus besitzt jede Webseite ein Gewicht, den so genannten PageRank. Dieser wird in einer Skale von 1-10 angegeben, wobei 10 den höchsten Wert bzw. die höchste Gewichtung darstellt. Das Gewicht, also der PageRank einer Seite ist umso höher, je mehr Seiten, mit möglichst eigenem hohen PageRank, auf die Seite verlinken. Eine Webseite erhält durch einen Link einer anderen Seite einen Teil des Gewichts dieser Seite, also einen Teil des PR. Wie groß dieser Teil ist, wird genau in der Formel festgelegt. Um dieses anschaulich zu verdeutlichen, dienen folgende einfache Beispiele: Damit Ihre Webseite einen PR von 3 erhält, müssen theoretisch 101 Seiten mit einem PR von 2 oder ca. 3 Seiten mit einem PR von 4 auf Ihre Seite verweisen. Wenn Sie einen PageRank von 5 erreichen möchten, benötigen Sie 3055 PR 2 Links oder 101 PR 4 Links. Für einen PageRank von 3 reicht allerdings auch schon ein PR 5 Link und für einen PR von 5 reicht schon ein Link von einer Webseite, die einen PageRank von 7 aufweist. Je höher also der PageRank der verlinkenden Webseite, desto höher steigt auch der PR der verlinkten Seite. Der Anstieg des PageRanks verläuft dabei nicht gleichförmig, sondern eher ‚sprunghaft´. Um eine Stufe in der PR-Skala zu steigen, sind, vereinfacht gesagt, immer mehr und stärkere Links notwenig. Den PageRank einer Webseite kann man mit Hilfe der Google-Toolbar feststellen. Sie zeigt den genauen PR der jeweiligen Seite auf der man sich gerade befindet. Der angezeigte PageRank wird ca. alle drei Monate in einem so genannten PR-Update aktualisiert. Es kann also vorkommen, dass Ihre Webseite, obwohl bereits viele andere Seiten auf diese verweisen, keinen PR hat. Dieses ist jedoch nur indirekt der Fall. Die externen Links bzw. die Wirkung der Links fließt schon nach sehr kurzer Zeit in das Ranking Ihrer Webseite mit ein. Bei dem PR-Update handelt es sich lediglich um eine Aktualisierung des ‚sichtbaren´ Pageranks... 7.3.2. Pagerank - Vor- und Nachteile Mit dem PageRank haben Larry Page und Sergey Brin einen externen, d.h. einen auf den ersten Blick schwer beeinfluss- bzw. manipulierbaren Faktor in das Verfahren zur Beurteilung von Webseiten aufgenommen. Die Grundidee, dass eine Webseite höher bewertet wird, wenn Sie viele und zudem starke Links von anderen Seiten bekommt, klingt plausibel und war einer der Hauptgründe für den späteren Erfolg der Suchmaschine Google. Durch die Einführung des PageRanks waren die Ergebnisse von Google in der Regel besser als die der anderen Suchmaschinen. Webseiten, die ohne einen relevanten Inhalt zu bieten, z.B. mittels Keywordspam bei den anderen Suchdiensten hoch gelistet wurden, filterte Google, weil die Seiten relativ wenige externe Links aufweisen konnten. Der PageRankAlgorithmus galt deswegen lange Zeit als ‚Meilenstein´ in der Entwicklung einer Suchmaschine, welche wirklich relevante Ergebnisse liefert und sich nur schwer manipulieren lässt. Leider ist dieser ‚Meilenstein´ mittlerweile eher zu einen ‚Stein im Magen´ geworden. Da der PageRank von Anfang an ein wichtiger, wenn nicht sogar der wichtigste Rankingfaktor war, und zudem der Algorithmus von den meisten anderen Suchmaschinen in ähnlicher Weise übernommen wurde, hatten Links auf einmal einen hohen wirtschaftlichen Wert. Sie wurden verkauft, vermietet und getauscht. Plötzlich gab es zahllose Anbieter bzw. Services, die sich ausschließlich auf die Vermarktung von Links spezialisiert hatten. Ferner versuchten viele Webseitenbetreiber so viele Links wie nur möglich zu sammeln. Vorher nie besuchte Gästebücher oder Foren wurden urplötzlich mit Linkeinträgen überschwemmt. Schnell wurde klar, dass der PageRank einer der am leichtesten zu manipulierenden Faktoren war. Wer die Möglichkeit hatte, Zeit und vor allem Geld zu investieren, konnte das Ranking seiner Webseite stark beeinflussen. Plötzlich entschieden mehr und mehr finanzielle Mittel über die Reihenfolge in den Ergebnislisten der meisten Suchmaschinen. Leider hat sich daran bis heute nur wenig geändert. Der Linkhandel ist noch immer einer der am schnellsten wachsenden Märkte im World Wide Web, obwohl Google und die anderen Suchmaschinen versuchen, immer wieder dagegen vorzugehen. So wurde das Attribut ‚rel=nofollow´ eingeführt. Ein mit diesem Attribut versehender Link wird von den Crawlern der Suchmaschinen nicht gewertet, d.h. der PR der verlinkenden Seite wird nicht weitergegeben. Vor allen in Foren und Blogs wird das Attribut mittlerweile gezielt eingesetzt, um Spameinträge zu vermeiden. Auch werden bekannte Linkanbieter bzw. Services regelmäßig abgestraft, indem z.B. deren Webseiten aus dem Index entfernt, oder sämtliche auf den Webseiten enthaltende Links abgewertet werden. Leider sind alle diese Maßnahmen oft nur ein ‚Tropfen auf den heißen Stein´. Obwohl die Bedeutung des PageRanks für das Ranking einer Webseite stark abgenommen hat, blüht der Linkhandel weiterhin... 7.3.3. Alternativen Der PageRank-Algorithmus, also die Zahl und die Stärke der eingehenden Links einer Webseite, wird immer ein wichtiger Faktor zur Beurteilung der Relevanz bzw. Wichtigkeit einer Webseite bleiben, da Links eines der wichtigsten Charakteristiken des World Wide Web sind. Der PageRank gibt jedoch keinen direkten Hinweis auf die eigentliche Qualität einer Webseite. Da diese letztendlich für die Relevanz ausschlaggebend ist, wird laufend an alternativen Beurteilungsverfahren gearbeitet, von denen hier einige kurz erläutert werden sollen... Der Hilltop-Algorithmus: Mit Hilfe des Hilltop- Algorithmus werden Webseiten aufgrund ihrer Relevanz in Bezug auf bestimmte Suchwörter sortiert bzw. bewertet. Zuerst werden so genannte Expertenseiten zu einem bestimmten Thema bzw. einem bestimmten Suchwort bestimmt. Dieses sind Seiten, die auf viele unabhängige Webseiten zu einem bestimmten Thema verweisen. Danach werden so genannte Autoritätsseiten ermittelt. Autoritätsseiten sind Webseiten, auf die mindestens zwei Expertenseiten verweisen. Der Hilltop-Algorithmus wurde in Toronto entwickelt. 2003 kaufte Google das Patent auf den Algorithmus. Von Google definierte Autoritätsseiten erkennen Sie unter anderem daran, dass deren Einträge in den Ergebnislisten relevanter Suchwörter an erster Stelle stehen und neben der üblichen Seitenbeschreibung weitere Informationen, z.B. die Links der wichtigsten Unterseiten, enthalten. Hubs and Authorities: Dieses Verfahren, auch unter dem Namen ‚HITS´ bekannt, definiert die Wertigkeit einer Seite aufgrund ihrer Hub- bzw. Autoritätseigenschaft. Die Hubeigenschaft bewertet die Anzahl und Qualität der ausgehenden Links einer Seite, die Autorität einer Webseite wird durch deren externe Links definiert. Durch diesen unter anderem von Jon Kleinberg entwickelten Algorithmus werden allgemein wichtige Knotenpunkte innerhalb der Linkstruktur des Internets definiert. Trustrank: Der Trustrank-Algorithmus, ebenfalls von Google patentiert, wurde in erster Linie entwickelt, um Spamseiten aufzuspüren. Hierzu werden zuerst einige wenige Autoritätsbzw. unabhängige und vertrauenswürdige Expertenseiten definiert. Als Beispiel sei hier Wikipedia oder DMOZ genannt. Danach werden alle ausgehenden Links verfolgt, wobei der Trustrank der Autoritäts- bzw. Expertenseiten, ähnlich wie bei der Verteilung des PageRanks, auf die verlinkten Seiten und deren externe Links übertragen wird. Da Spamseiten in der Regel kaum verlinkt werden, kann man diese so relativ einfach herausfiltern und entsprechend abwerten. Darüber hinaus gibt es noch viele weitere Ansätze, die Suchmaschinenergebnisse zu verbessern bzw. unrelevante Ergebnisse zu filtern. Generell wird bei allen Verfahren der Inhalt, also die eigentliche Qualität einer Webseite, in den Vordergrund gestellt. Da es aufgrund verschiedener Faktoren bzw. immer neuer Manipulationstechniken sehr schwer ist, dieses ausschließlich automatisiert durchzuführen, gehen viele Ansätze, ähnlich wie beim Trustrank, von manuell geprüften Webseiten bzw. Fixpunkten aus. Redaktionell geführte Webseiten, Verzeichnisse oder Bewertungssysteme wie das SocialBookmarking werden in Zukunft immer mehr an Bedeutung gewinnen, und die Beurteilungsverfahren der Suchmaschinen ergänzen... 7.4. Google Updates Wenn Sie Ihre Webseite optimieren, verändern oder erweitern, werden die Resultate oder Veränderungen nicht sofort berücksichtigt bzw. angezeigt. Zunächst einmal muss der Googlebot Ihre Webseite besuchen und die Änderungen feststellen. Abhängig von dem Gewicht bzw. der externen Verlinkung Ihrer Webseite, kann dieses leicht mehrere Tage dauern. Danach kann manchmal wiederum einige Zeit vergehen, bis diese in die Bewertung mit einfließen und z.B. das Ranking Ihrer Seite verbessern. Die meisten Veränderungen werden allerdings bereits innerhalb kürzester Zeit berücksichtigt. Google aktualisiert die im Index enthaltenen Informationen fortlaufend. Den so genannten ‚Google Dance´, d.h. ein in größeren Abständen stattfindendes Rankingupdate, gibt es nicht mehr. Auch der PageRank bzw. die Backlinks werden regelmäßig aktualisiert. Hat z.B. Ihre Webseite aufgrund neu eingestellter Informationen einige Verweise von anderen Webseiten erhalten, kann es sein, dass Ihre Seite schon innerhalb einiger Tage in den Suchergebnissen steigt. Das Gleiche gilt für den PageRank. Das momentane Ranking Ihrer Webseite entspricht immer dem ‚aktuellen´ PageRank der Seite. Hat Ihre Webseite einen angezeigten PR von 3, aber einen predicted, also ‚zukünftigen´ Pagerank von 5, wird letzterer bei der Bewertung Ihrer Webseite berücksichtigt. Der angezeigte PageRank wird ca. alle drei Monate in einem so genannten PR-Update aktualisiert. Mit diesem gibt es noch einige weitere Updates, nach denen es zu Veränderungen innerhalb der Suchergebnislisten kommen kann... 7.4.1. PR Update Wie schon beschrieben, wird der PageRank einer Weibseite fortlaufend aktualisiert. Etwa alle drei Monate kommt es jedoch zu einem Update des angezeigten PageRanks. Es kann folglich bis zu drei Monaten dauern, bis Ihre Seite das erste Mal einen eigenen PR anzeigt. Bei den PR-Updates werden nicht alle bis zu diesem Zeitpunkt gesetzten externen Links berücksichtigt. Der Stichtag, bis zu dem vorhandene Backlinks gewertet werden, liegt meist Wochen vorher. Das eigentliche Update hat keinen oder nur sehr geringen Einfluss auf die Position innerhalb der Ergebnislisten. Der PageRank einer Webseite ist jedoch für viele Webseitenbetreiber zu einer Art ‚Statussymbol´ geworden. Es ist das für alle sichtbare Resultat ‚erfolgreicher´ Suchmaschinenoptimierung und spiegelt den ‚Wert´ einer Seite wieder. Für einen erfolgreichen Linkaufbau, insbesondere für das Tauschen von Links, ist der angezeigte PR durchaus wichtig. 7.4.2. BL Update Auch die Zahl der externen Links bzw. der Backlinks einer Webseite werden kontinuierlich aktualisiert. Entsprechende Veränderungen werden zumeist innerhalb weniger Tage bei der Bewertung der Seite berücksichtigt. In größeren Abständen, ca. alle 2-3 Monate, kommt es jedoch zu einem Export der bereits weit vorher berücksichtigten Links in den Datenindex. Die externen Links einer Webseite können dann mit der Suchanfrage link:www.ihredomain.de abgefragt werden. Auch dieses Update, bzw. der Export, hat keinen großen Einfluss auf das Ranking einer Webseite. Es gibt jedoch einige andere Rankingfaktoren bzw. Kriterien, welche die bei Google angezeigten Backlinks mit einbeziehen. Dadurch fließen diese indirekt, vor allem bei anderen Suchmaschinen, in die Beurteilung einer Webseite mit ein. 7.4.3. Algorithmus Update Zumeist größere Auswirkungen auf die Positionen in den Ergebnislisten haben Veränderungen innerhalb des Suchmaschinen-Algorithmus. Es kommt vor, dass neue Beurteilungskriterien in den Algorithmus aufgenommen, oder vorhandene Faktoren verändert bzw. entfernt werden. Aufgrund immer wieder neu auftauchender Manipulationstechniken, Veränderungen in den Algorithmen anderer Suchmaschinen oder komplett neu entwickelten Suchverfahren, wird der Google-Algorithmus in unregelmäßigen Abständen verändert oder angepasst. 7.5. Google Filter Google listet neue bzw. die im Index vertretenen Webseiten nicht, ohne diese vorher genau zu selektieren. Der Suchalgorithmus jeder Suchmaschine beinhaltet unzählige Filter bzw. Kriterien, nach denen Webseiten bewertet und sortiert werden. Kriminelle, jugendgefährdende oder anderweitig anstößige Inhalte werden in der Regel gefiltert, und entsprechende Webseiten aus dem Index gelöscht. Andererseits, z.B. bei der personalisierten Suche, werden dem bisherigen Verhalten des Suchenden entsprechend, neue oder andere Inhalte hinzugefügt. Es gibt einige Filter, die speziell bei für Suchmaschinen optimierten Webseiten zu greifen scheinen. Im Folgenden sollen einige dieser Filter und deren Wirkungsweise kurz erläutert werden... 7.5.1. Google Sandbox Schon einige Male erwähnt, soll an dieser Stelle genauer auf den Filter bzw. das ‚Phänomen´ der Google Sandbox eingegangen werden. Seit Anfang des Jahres 2004 ‚geistert´ dieser nicht offizielle, d.h. nicht von Google bestätigte Filter durch die Reigen der Webseitenbetreiber. Mittlerweile gilt es jedoch fast als sicher, dass es diesen hauptsächlich neue und hochoptimierte Webseiten betreffenden Effekt wirklich gibt. Um zu vermeiden, dass diese Webseiten innerhalb kürzester Zeit mit wichtigen Keywords oben in den Ergebnissen gelistet werden, bzw. um Spamseiten aus den Rankings auszuschließen, scheint Google einen Filter bzw. einen Algorithmus entwickelt zu haben, welcher neue Seiten nach einem kurzen Boost für eine bestimmte Zeit in den Ergebnislisten wichtiger Keywords unten anstellt. Da der genaue Algorithmus nicht bekannt ist, lässt sich auch nur schwer sagen, welche Voraussetzungen bzw. Bedingungen eine Webseite erfüllen muss, damit der Filter greift. Besonders oft scheinen Seiten betroffen zu sein, die relativ schnell viele bzw. starke Backlinks erhalten haben, also Webseiten mit einem unnatürlich wirkendem Linkaufbau. Auf der anderen Seite gibt es auch Beispiele, bei denen Webseiten durch vertrauenswürdige oder starke Links aus der Sandbox entlassen bzw. wieder weit oben gelistet wurden. Die externe Verlinkung scheint demzufolge eine große Rolle innerhalb des Algorithmus der Google Sandbox zu spielen. Ein weiteres beeinflussendes Element dürften die Hauptkeywörter einer Webseite sein. Es lässt sich erkennen, dass hauptsächlich Seiten betroffen sind, die auf wichtige bzw. ‚hart umkämpfte´ Schlüsselwörter optimiert wurden. Andere, z.B. auf Keywordkombinationen oder von der Konkurrenz kaum benutzte Begriffe optimierte Webseiten sind dagegen in der Regel seltener betroffen. Das Alter einer Webseite, sowie die Relevanz der optimierten Keywords sind mögliche Gründe, warum eine Webseite vom Sandbox Effekt betroffen ist. Greift der Filter bei einer Seite, wird diese plötzlich nur noch unter teilweise ‚obskuren´ Keywordkombinationen gefunden. Unter den Hauptkeywords ist sie zumeist weit hinten gelistet. Wie lange es dauert, bis dieser Effekt nachlässt, bzw. die betroffene Webseite wieder normal gelistet wird, lässt sich ebenfalls nur schwer sagen. Es wird vermutet, dass eine Webseite für 3 bis maximal 12 Monate abgewertet wird. Die durchschnittliche Aufenthaltsdauer dürfte bei 3-6 Monaten liegen. Experten, die an der Existenz eines speziellen Filters zweifeln, gehen eher davon aus, dass die beschriebenen Effekte Teile des normalen Google Algorithmus seien. Untermauert wird dieses durch die Tatsache, das sowohl die Voraussetzungen, die Aufenthaltsdauer, als auch die Kriterien, unter welchen eine Webseite wieder aus der Sandbox entlassen wird, nicht eindeutig sind und stark variieren. Um aus der Sandbox entlassen zu werden, reichen manchmal schon einige wenige starke und vertrauenswürdige Verweise anderer Webseiten. Auch hat sich gezeigt, dass Webseiten, welche in der Anfangsphase weniger mit keywordspezifischen Textlinks als mit Buttons oder Banner verlinkt wurden, weniger betroffen waren. Links, die lediglich den Domainnamen beinhalten, hatten ebenfalls keine großen negativen Auswirkungen. Um der Google Sandbox zu entgehen, darf Ihre Webseite also gerade in der Anfangsphase mit nur wenigen, möglichst vertrauenswürdigen Verweisen verlinkt werden. Zudem ist es ratsam, öfter Banner oder Buttons bei der Verlinkung zu verwenden. Des Weiteren sollten Sie zunächst eher auf Keywordkombinationen bzw. schwach umkämpfte Singlekeywords optimieren, da auf einige wenige hart umkämpfte Keywords optimierte Webseiten eher abgestraft werden. 7.5.2. Supplemental Index Den Supplemental Index, also einen ‚zusätzlichen Index´ kann man in gewisser Weise mit der Google Sandbox vergleichen. Wenn sich eine Webseite oder deren Unterseiten in Supplemental Index befinden, sind die Auswirkungen auf das Ranking ähnlich. Webseiten, welche lediglich im Supplemental Index erscheinen, werden gegenüber den im normalen Index gelisteten Seiten weniger häufig von den Crawlern bzw. dem Googlebot besucht. Außerdem werden die Seiten bei Suchanfragen benachteiligt behandelt. Oft ist es so, dass nur wenn eine bestimmte Suchanfrage ungenügende oder nur wenige Ergebnisse liefert, Seiten aus dem Supplemental Index hinzugefügt werden. Liefert eine Suchanfrage genügend Treffer, werden ausschließlich die Webseiten aus dem normalen Index angezeigt. Die Gründe, warum eine Seite in den zusätzlichen Index abrutscht, sind vielfältig. Auch hier sind eher neue Seiten, und insbesondere diejenigen betroffen, welche noch keine oder nur wenige externe Links aufweisen. Duplicate Content oder gleiche Titel und Descriptions vieler Unterseiten können unter Umständen ebenfalls dazu führen, dass Seiten aufgenommen werden. Damit eine Webseite, die nur noch im Supplemental Index vertreten ist, wieder im normalen Index gelistet wird, muss man oft nur den oder die Gründe für die Abstrafung beseitigen. Sind die Ursachen beseitigt, dauert es in der Regel nicht sehr lange, bis eine Webseite wieder normal gelistet bzw. gerankt wird. 7.5.3. Filter 31+ Auch die Existenz des so genannten ‚Filter 31+´ ist umstritten. Vermehrt wurde beobachtet, dass hochoptimierte, d.h. explizit auf einige wenige hart umkämpfte Keywords ausgerichtete Webseiten, ohne ersichtlichen Grund von sehr hohen Plätzen in den Suchergebnissen, auf die Plätze 31-40 abrutschen. Da wenn überhaupt nur die ersten 3 Seiten, bzw. die Plätze 1-30 nach für die jeweilige Suche relevanten Ergebnissen durchsucht werden, kommt es durch den Filter 31+ zumeist zu gravierenden Besucherrückgängen. Häufig kommt es nach neu vorgenommenen Optimierungen zu der Abstrafung, so dass angenommen werden muss, dass Google durch diesen Filter eine Art ‚Gleichgewicht´ zwischen professionell erstellten oder betreuten, und privaten bzw. nicht kommerziellen Webseiten aufrecht erhalten möchte. Man sollte demzufolge eine Webseite nicht ‚überoptimieren´. Wenn Ihre Seite einmal unter den wichtigen Keywords oben gelistet wird, ist es ratsam, weitere Optimierungsversuche zunächst einmal zu unterlassen. Generell dürfen Sie eine Webseite nur langsam, d.h. Schritt für Schritt optimieren. ‚Ungeduld´ ist einer der größten Fehler bei der Suchmaschinenoptimierung. 7.5.4. Filter 950+ In letzter Zeit wird oft über die Existenz eines Filters diskutiert, welcher übermäßig optimierte Seiten nicht nur auf die Plätze 31-40, sondern häufig sogar auf Positionen weit hinter dem tausendsten Platz, also der hundertsten Seite verweist. Aus diesem Grund wurde der mögliche neue Filter inoffiziell ‚Filter 950+´ getauft. wie bei dem Filter 31+ scheinen hier ebenfalls auf wenige starke Keywords, bzw. generell hochoptimierte Webseiten betroffen zu sein. Wahrscheinlich gibt es noch einige weitere Filter, welche in ähnlicher Weise oder unter ähnlichen Voraussetzungen greifen. Sie alle folgen dem Prinzip, dass augenscheinlich professionell bzw. kommerziell optimierte Webseiten unter bestimmten Voraussetzungen abgestraft werden. Ein natürlich wirkender Optimierungs- bzw. Entwicklungsprozess einer Webseite wird dagegen akzeptiert und in der Regel nicht negativ bewertet... 7.6. Wichtige Links/Adressen Die Suchmaschine Google bietet eine Vielzahl an Diensten und Informationsangeboten, welche im Folgenden kurz aufgelistet werden sollen. Da sich die Internetadressen einzelner Seiten mit der Zeit ändern könnten, wurde zwischen den Apostrophen das Suchwort bzw. die Suchwörter angegeben, unter denen Sie den jeweiligen Service bei allen bekannten Suchmaschinen in der Regel auf den ersten Ergebnisplätzen finden werden... ‚Alles über Google´: Übersicht der Dienste und Services... ‚Google Pressezentrum´: Pressemitteilungen von Google Deutschland... ‚Google Richtlinien´: Allgemeine Richtlinien für Webmaster... ‚Google Anmeldung´: Hier können Sie Ihre Webseite anmelden... ‚Google Analytics´: Verschiedene Analyse Tools, z.B. Besucher- und Keywordstatistiken... ‚Google Webmaster Zentrale´: Alles für den Webmaster... ‚Google Hilfe für Webmaster´: Antworten auf häufig gestellte Fragen... ‚Google Toolbar´: Umfangreiche Toolbar mit PR Anzeige... ‚Google Trends´: Trends bzw. Häufigkeit bestimmter Suchanfragen bei Google… ‚Google Keyword-Tool´: Keywordanalysetool... ‚Google Sitemap-Protokoll´: Informationen zum Thema Sitemap... ‚Google Reinclusion Request´: Hier können Sie einen Wiederaufnahmeantrag stellen... 8.Häufige Fehler 8.1. Überoptimierung Häufig wird versucht, eine Webseite für zu viele Keywords zu optimieren. Versuchen Sie sich bei der Optimierung auf wenige, ca. 3-5 ausgewählte Keywords zu beschränken. Wenn Ihre Webseite unter diesen Suchwörtern hoch gelistet wird, können Sie weitere Wörter oder Phrasen hinzunehmen. Es macht keinen Sinn, in den Meta-Tags unzählige Keywords aufzulisten. Auch hier gilt es, sich auf ca. 5-7 wichtige Suchwörter zu beschränken. Diese müssen auch im Text bzw. im Content Ihrer Webseite erwähnt werden. Anstatt immer die Keywords einfach nur zu wiederholen, verwenden Sie besser Verwandte im Wortstamm sowie Synonyme, also ähnliche Begriffe. Beim Linkaufbau wird oft der Fehler gemacht, dass in kurzer Zeit zu viele Backlinks gesetzt werden. Genau wie bei den Keywords wird auch dieser Linkspam von Suchmaschinen negativ bewertet und in der Regel abgestraft. Generell gilt, dass der Inhalt einer Webseite nie explizit auf Suchmaschinen ausgerichtet sein darf, sondern dem Besucher die von Ihm erwarteten Informationen bieten sollte... 8.2. Häufige FehlerFalsch gewählte Keywords Auch falsch gewählte Keywords sind häufig ein Grund, warum die Optimierung einer Webseite keinen Erfolg hat. Wenn Sie sich vorgenommen haben, mit einer neuen Webbseite innerhalb kurzer Zeit unter hart umkämpften Suchwörtern hohe Positionen zu erreichen, werden Sie höchstwahrscheinlich scheitern. Konzentrieren Sie sich am Anfang auf weniger hart umkämpfte Keywords und Kombinationen. Erst wenn Ihre Webseite unter diesen gut gelistet wird, können Sie versuchen, auf Topwords zu optimieren. Die Auswahl der richtigen Keywords ist der wichtigste Schritt innerhalb des ganzen Optimierungsprozesses. Nur wenn Sie die für das Thema Ihrer Seite, bzw. die in Bezug auf Ihre Konkurrenzseiten geeigneten Suchwörter wählen, werden Sie letztendlich auch Erfolg haben... 8.3. Kein individueller Content Wenn Ihre Webseite zu wenig bzw. keinen individuellen Content enthält, wird sie nie sehr weit oben gelistet werden. Der Text einer Webseite ist der wichtigste Rankingfaktor überhaupt. Sie sollten darauf achten, dass auf Ihrer Seite genügend individuelle, d.h. auf keiner anderen Webseite verwendete Informationen, vorhanden sind. Die Keywords müssen dem Thema Ihres Contents entsprechen und explizit im Text erwähnt werden. Wichtig ist zudem, fortlaufend für neue Inhalte zu sorgen. Suchmaschinen listen regelmäßig aktualisierte Webseiten höher als Seiten, die sich kaum verändern 8.4. Gleiche Meta-Tags Bei vielen Webseiten sieht man immer wieder, dass alle Einzelseiten die gleichen Meta-Tags enthalten. Da der Title- und der Description-Tag wichtige Faktoren für das Ranking einer Seite sind, sollten diese dem jeweiligen Content angepasst werden und variieren. Verwenden Sie niemals die gleichen Titel bzw. Beschreibungen für mehrere Seiten. Jede Einzelseite muss einen kurzen und die wichtigsten Keywords der Seite beinhaltenden Titel, sowie eine eigene Beschreibung erhalten. Denken Sie daran, dass die Suchmaschinen jede einzelne Webseite auch unabhängig betrachten und bewerten. Sie können im Prinzip jede Einzelseite gezielt für Suchmaschinen optimieren 8.5. Frameseiten Viele Webseitenbetreiber benutzen Frames, um den Inhalt ihrer Seite zu gliedern bzw. die Navigation zu erleichtern. Einige Suchmaschinen haben noch immer Probleme damit, insbesondere den Links innerhalb der einzelnen Frames zu folgen. Sie indizieren daher oft nur das Frameset, also das Gerüst der Webseite, ohne die eigentlichen Inhalte innerhalb der Frames zu finden. Um den Suchmaschinen dennoch Informationen bieten zu können, gibt es den so genannten Noframe-Bereich. Dort sollten Sie, ähnlich dem Aufbau der jeweiligen Webseite, ausreichend Text, sowie Links zu den anderen Frameseiten einfügen. Wenn Ihre Webseite Frames benutzt und sie keine Inhalte in den Noframe-Bereich einstellen, werden Sie es bei einigen Suchmaschinen schwer haben, Ihre Seite in den oberen Ergebnislisten zu positionieren. Allgemein lässt sich sagen, dass man bei der Gestaltung einer Webseite mittlerweile auf Frames verzichten kann. Eventuelle Vorteile, z.B. in der Navigation, lassen sich heute leicht auch anders umsetzen 8.6. Flashseiten Die meisten Suchmaschinen können bislang nur Text auswerten. Webseiten, welche hauptsächlich aus Bildern aufgebaut sind, erzielen oft nur mäßige Platzierungen in den Rankings. Dieses gilt insbesondere auch für Seiten, die mit Hilfe von Flash, einer Software zur Erstellung multimedialer Inhalte, erzeugt wurden. Wenn Sie bei der Gestaltung Ihrer Webseite trotzdem nicht auf Flash oder andere multimediale Inhalte verzichten möchten, sollten Sie immer zusätzlich auch Text, also von den Suchmaschinen lesbare Informationen, einbinden. Auch so genannte Introseiten, zumeist Flashseiten, welche nach einer kurzen Zeit, auf die eigentliche Webseite weiterleiten, gilt es zu vermeiden... 8.7. Duplicate Content Wenn mehrere Webseiten gleiche oder ähnliche Inhalte aufweisen, spricht man von Duplicate Content. Da mittlerweile alle Suchmaschinen Seiten mit ähnlichen Inhalten abstrafen, bzw. nicht in den Index aufnehmen oder aus dem Index verbannen, sollten Sie immer darauf achten, individuellen, d.h. einzigartigen Content auf Ihrer Webseite zu veröffentlichen. Machen Sie nicht den Fehler und kopieren Sie Informationen bzw. Texte anderer Webseiten, auch wenn deren Inhalte frei zugänglich sind. Die Suchmaschinen nutzen spezielle Programme, mit denen es relativ einfach ist, Duplicate Content aufzuspüren. Definieren Sie zudem eine Standarddomain, d.h. eine einzige Url, unter der Ihre Webseite erreichbar ist. Viele Webseiten lassen sich sowohl unter der Adresse http://www.ihredomain.de, als auch unter der Url http://ihredomain.de anzeigen. Andere, z.B. dynamisch erzeugte Seiten, sind oft auch mit dem Zusatz /index.php zu erreichen. Das Definieren einer Standarddomain sollte einer der ersten Schritte bei der Erstellung einer Webseite sein... 8.8. Suchmaschinenmanipulation Doorwaypages, Keywordstuffing, versteckter Text, Cloaking oder eine andere der vielen Möglichkeiten, um Suchmaschinen gezielt zu manipulieren, bzw. das Ranking einer Webseite zu verbessern, führt zumeist, wenn überhaupt, nur zu einem kurzfristigen Erfolg. Sie sollten sich daher sowohl bei der Erstellung Ihrer Webbseite, als auch bei der Optimierung immer an die Richtlinien der bekannten Suchmaschinen halten bzw. diese berücksichtigen. Eines der Hauptziele der Suchmaschinen ist es, derartige Techniken frühzeitig zu erkennen und entsprechende Webseiten abzustrafen oder aus dem Index zu entfernen... 8.9. Mangelnde Kontinuität Die Optimierung einer Webseite für bestimmte Suchmaschinen oder Keywords ist immer ein kontinuierlicher bzw. fortwährender Prozess. Mangelnde Kontinuität z.B. beim Linkaufbau oder bei der Aktualisierung einer Webseite führt oft dazu, dass der gewünschte Erfolg ausbleibt. Es reicht nicht aus, eine Seite einmalig zu optimieren. Die Bewertungskriterien der Suchmaschinen ändern sich laufend. Um dauerhaft Erfolg zu haben, müssen Sie Ihre Webseite diesen und auch den Veränderungen Ihrer Konkurrenzseiten immer wieder neu anpassen... 8.10. Ungeduld Einige Fehler resultieren aus der Tatsache, das sich viele Webseitenbetreiber bei der Optimierung ihrer Webseite zu hohe Ziele setzen, bzw. diese Ziele in zu kurzer Zeit erreichen wollen. Seien Sie sich vor und auch während der Optimierung Ihrer Seite darüber im Klaren, dass der gewünschte Erfolg möglicherweise Monate auf sich warten lässt. Es dauert in der Regel mindestens ein halbes Jahr, meistens sogar länger, um mit einer neuen Webseite in den Ergebnissen der Suchmaschinen auf den vorderen Plätzen gelistet zu werden... 9.Links / Tools 9.1. SEO-Tools und interessante Links zum Thema Suchmaschinenoptimierung An dieser Stelle sollen einige ausgewählte und empfehlenswerte Links, Tools oder Programme zum Thema SEO bzw. Suchmaschinenoptimierung aufgelistet werden. Da sich die Internetadressen mit der Zeit ändern könnten, wurde auch hier zwischen den Apostrophen das Suchwort bzw. die Suchwörter angegeben, unter denen Sie den jeweiligen Service finden können... - SEO Allgemeine Informationen: ‚Suchmaschinenoptimierung Wiki´: Begriffsdefinition der freien Enzyklopädie Wikipedia ‚Suchmaschinenoptimierung Forum´: Foren zum Thema Suchmaschinenoptimierung bzw. marketing ‚lexikon-suchmaschinenoptimierung.de´: Suchmaschinenoptimierung von A-Z Software: ‚axandra.de´: Anbieter von Website-Promotion-Software Tools: ‚1a-webtools.com´: Suchmaschinentools für Webmaster ‚Google Webmaster Tools´: Verschiedene Webmaster- bzw. Webseitentools ‚seitwert.de´: Unabhängige Bewertung von Webseiten ‚suma-tools.de´: Suchmaschinentools für Webmaster - Webdesign Allgemeine Informationen: ‚Webdesign Wiki´: Begriffsdefinition der freien Enzyklopädie Wikipedia ‚meine-erste-homepage.com´: Alles für die erste eigene Internetseite Verschiedene Webeditoren: ‚softguide.de´: Der Softwareführer im Internet Validitätscheck: ‚6webmaster.com Linkcheck´: Fehlerhafte Hyperlinks finden - Analyse/Statistik ‚Alexa Web Search´: Ermittlung des Alexa Traffic Rank ‚Google Analytics´: Besucherstatistik u. Webseitenanalyse - Webhosting Allgemeine Informationen: ‚Webhosting Wiki´: Begriffsdefinition der freien Enzyklopädie Wikipedia Verschiedene Webhostanbieter: ‚onlinekosten.de Webhosting´: Informationen zum Thema Webhosting - Domain Allgemeine Informationen: ‚Domain Wiki´: Begriffsdefinition der freien Enzyklopädie Wikipedia Domainname prüfen: ‚Denic Domainabfrage´: Domainabfrage (whois) ‚DPINFO´: Service des deutschen Patent- und Markenamts Standarddomain: ‚Standarddomain definieren´: Verschiedene Webseiten mit dem Themenschwerpunkt Standarddomain robots.txt erstellen: ‚searchcode.de robots.txt-Generator´: Online robots.txt Generator ‚topsubmit.de robots.txt-Generator´: In wenigen Schritten online eine robots.txt Datei erstellen - Sitemap Allgemeine Informationen: ‚Sitemap Wiki´: Begriffsdefinition der freien Enzyklopädie Wikipedia Sitemap erstellen: ‚Google Sitemap Generator´: Script zur Erzeugung einer Sitemap - Meta-Tags Allgemeine Informationen: ‚Meta-Tag Wiki´: Begriffsdefinition der freien Enzyklopädie Wikipedia Meta-Tags überprüfen: ‚6webmaster.com Metatag prüfen´: Online-Metatag-Analyse ‚webmaster-elite.de Metatag Check´: Online die Metatags einer Webseite prüfen Meta-Tags erstellen: ‚metatag-generator.de´: Schnell und einfach online Meta-Tags erstellen ‚6webmaster.com Metatag-Generator´: Online Meta-Tags erstellen - Keywords Allgemeine Informationen: ‚Keyword Wiki´: Begriffsdefinition der freien Enzyklopädie Wikipedia Analyse/Statistik: ‚Google Adwords Keyword-Tool´: Keywordanalysetool ‚Google Trends´: Trends bzw. Häufigkeit bestimmter Suchanfragen bei Google ‚Yahoo Search Marketing´: Trends bzw. Häufigkeit bestimmter Suchanfragen bei verschiedenen Suchdiensten ‚seo-server.de´: Google Datencenter Positionscheck mit PR Anzeige Keyworddatenbank: ‚ranking-check.de Keyword Datenbank´: Datenbank mit mehr als 75.000.000 Einträgen - Backlinks Allgemeine Informationen: ‚Backlink Wiki´: Begriffsdefinition der freien Enzyklopädie Wikipedia Backlinks überprüfen: ‚backlink-checker.de´ Backlinks online prüfen ‚internetbaron.de´: Online Backlink-Checker mit PR Anzeige ‚trustedlinks.de´: Software zur Analyse bzw. Überprüfung von Backlinks Verschiedene Webkataloge: ‚konzept-welt.de Webkataloge´: Umfangreiches Webkatalog-Verzeichnis Verschiedene Artikelverzeichnisse: ‚artikelverzeichnisse.com´: Liste verschiedener Artikelverzeichnisse ‚nxplorer.net Artikelverzeichnisse´: Artikelverzeichnisse und Artikelkataloge - Pagerank Allgemeine Informationen: ‚Pagerank Wiki´: Begriffsdefinition der freien Enzyklopädie Wikipedia Pagerank ermitteln: ‚Google Toolbar´: Umfangreiche Toolbar mit PR Anzeige ‚seo-server.de´: Datencenter Positionscheck mit PR Anzeige PR Echtheitsüberprüfung: ‚database-search.com Precheck´: Pagerank Echtheit online prüfen Future Pagerank: ‚internetbaron.de´: Online Backlink-Checker mit PR Anzeige 10. Schlusswort Ich hoffe, ich konnte Ihnen mit diesem Tutorial das Thema Suchmaschinenoptimierung etwas näher bringen. Wenn Sie einige der genannten Ratschläge befolgen, wird Ihre Webseite in den Ergebnissen der Suchmaschinen steigen. Viele der Tipps sind allgemein, und werden auch zukünftig ihre Aktualität bzw. Relevanz behalten. Einige Punkte dagegen sind wahrscheinlich schon in diesem Augenblick längst überholt. Ich habe jedoch versucht, alle momentan wichtigen Voraussetzungen für eine erfolgreiche Optimierung von Webseiten anzusprechen. Denken Sie immer daran, dass eine Webseite für den Besucher, und nicht für Maschinen gemacht werden sollte. ‚Maschinen geraten ohne uns schnell an ihre Grenzen, sie werden uns nie ersetzen, sondern nur ........´.