Promotion
I. Nachfolgende Schritte beachtet der erfahrene Webmaster und überprüft ihre Wirkung:
Titel: Kleine Änderung - große Wirkung
Er stellt sicher, dass die einzelnen Seiten beschreibende Titel enthalten! Viele Suchmaschinen bewerten den Text in den Titeln besonders hoch, was sich bei der Erzeugung der Suchergebnisse bemerkbar macht. Er macht sich diese Tatsache zunutze, indem er wichtige Schlüsselwörter im Titel platziert.
Meta-Tags erleichtern die Indizierung
Meta-Tags helfen ihm, Probleme mit Tabellen, Frames oder anderen Problembereichen zu umgehen. Meta-Tags helfen ihm außerdem dabei, die Beschreibungen der Website in denjenigen Suchmaschinen zu steuern, die diese auch unterstützen. Meta-Tags stellen keine Garantie dafür dar, dass die Site in Ergebnislistings an erster Stelle steht - das Einbauen von Meta-Tag-Code ist kein Bannspruch, der ein für alle Mal schlechte Bewertungen von der Site fernhält.
Korrekte Schlüsselwörter
Das Ändern von Seitentiteln und Hinzufügen von Meta-Tags macht die Seite hinsichtlich der strategischen Schlüsselwörter nicht besser, wenn die Seite nichts mit den Schlüsselwörtern zu tun hat. Die Schlüsselwörter müssen sich direkt auf den Inhalt der Seite beziehen.
Der Webmaster braucht auf der Seite HTML-Text. Manche Sites stellen große Bereiche der Seite zur Schau, die aus reiner Grafik bestehen, was zwar nett aussieht, aber von den Suchmaschinen nicht gelesen werden kann. Die Folge ist, dass Text übersehen wird, der die Site relevanter macht. Manche der Suchmaschinen indizieren zwar zusammen mit den Meta-Tags auch den Text in den ALT-Tags und die Kommentarinformationen, aber um sicherzugehen, wird besser möglichst HTML-Text verwendet. Auch die (menschlichen) Besucher werden dies zu schätzen wissen.
HTML-Text fällt ins Auge. Manche Designer versuchen die Suchmaschinen auszutricksen, indem sie Schlüsselwörter in einer so winzigen Schriftart oder mit derselben Farbe wie der des Hintergrundes wiederholen, dass der Text für die Browser unsichtbar wird. Die Suchmaschinen achten aber auf diese oder ähnliche Tricks. Zur Sicherheit geht der Webmaster davon aus, dass Text, der nicht im Browser sichtbar ist, von der Suchmaschine auch nicht indiziert wird.
Wichtiges zuerst
Die Suchmaschinen überprüfen, ob die Schlüsselwörter gleich oben auf einer Website wie etwa in der Überschrift oder in den ersten Absätzen mit Text vorkommen, weil sie davon ausgehen, dass wirklich relevante Websites gleich am Anfang diese Wörter enthalten werden.
Die Häufigkeit stellt einen weiteren Hauptfaktor dafür dar, wie Suchmaschinen die Relevanz bewerten. Dabei stellen die Suchmaschinen durch eine Analyse fest, wie oft Schlüsselwörter im Verhältnis zu anderen Wörtern auf einer Website vorkommen. Die Websites mit den höheren Häufigkeiten der Schlüsselwörter werden dann oftmals für relevanter als diejenigen gehalten, bei denen die Häufigkeit geringer ist.
Strategische Schlüsselwörter erscheinen an Positionen in den Websites, die wichtig sind. Am wichtigsten ist der Titel der Seite. Ein Hauptgrund dafür, weshalb viele absolut relevante Websites schlecht bewertet worden sind, liegt darin, dass im Titel der Seite keine strategischen Schlüsselwörter untergebracht worden sind.
Suchmaschinen bevorzugen außerdem besonders diejenigen Seiten, bei denen die Schlüsselwörter möglichst weit oben auf der Seite erscheinen. Der Webmaster bringt die strategischen Schlüsselwörter daher möglichst im Titel der Seite unter, um diesem Sachverhalt entgegenzukommen. Er gibt sie außerdem auch in den ersten Absätzen der Website an.
Es ist zu beachten, dass Schlüsselwörter unter Umständen durch Tabellen weiter nach unten auf der Seite verschoben werden, wodurch sie weniger relevant sind, weil sie nicht mehr ganz oben stehen. Der Grund liegt darin, dass die Suchmaschinen die Tabellen beim Lesen aufteilen. Außer über Meta-Tags ist dieses Problem leider nicht gut in den Griff zu bekommen.
Das gilt wiederum nur für die Suchmaschinen, die Meta-Tags auch benutzen. Bei allen anderen ist das Problem geringfügiger, wenn man berücksichtigt, wie Tabellen sich auf die Seite auswirken können. Der Webmaster verzichtet nicht plötzlich auf sämtliche Tabellen, denn sie sind nützlich und haben ihren Wert.
Größere Blöcke mit JavaScript-Code können übrigens denselben Effekt wie Tabellen haben, weil die Suchmaschine diese Informationen zuerst liest. Dies führt dann wiederum dazu, dass der normale HTML-Text weiter unten auf der Seite erscheint. Deshalb verlegt der Webmaster das Script weiter nach unten auf der Seite. Wie bei Tabellen kann auch hier der Einsatz von Meta-Tags helfen.
Der Webmaster "spezialisiert" Seiten
Er unterteilt die Website in einzelne Seiten, die sich auf ein spezielles Thema konzentrieren, anstatt alles in eine Seite zu packen! Dadurch wird mehr Gewichtung auf ein einzelnes Thema gelegt, wenn die Website für die Erzeugung der Suchergebnisse bei Suchdiensten bewertet wird.
Wichtige Seiten meldet er darüber hinaus separat bei Suchmaschinen (nicht bei Verzeichnissen) an, da einige Suchmaschinen bei der Indizierung nur eine begrenzte Erfassungstiefe verwenden. So kann es passieren, dass eine Seite, die in der Struktur der Website tief verschachtelt ist, nicht automatisch erfasst wird.
II. Die optimierte Webseite wird nun im Netz verbreitet:
Suchmaschinen, Verzeichnisse, FFA-Linklisten...
Vor der Anmeldung der Website bei Suchdiensten, sind einige grundlegende Begriffe zu klären, um die Unterschiede zwischen den einzelnen Bezeichnungen zu verstehen. Unter dem Oberbegriff "Suchdienst" werden alle Websites zusammengefasst, die dem Anwender das Auffinden von Informationen erleichtern.
Der Begriff "Suchmaschine" wird fälschlicherweise oft in einem allgemeinen Sinne verwendet. Er bezeichnet dann reine Suchmaschinen wie auch Verzeichnisse oder gar Free-For-All-Linklisten zu. In Wirklichkeit sind diese jedoch nicht identisch, wobei der Unterschied in der Art und Weise liegt, wie die Ergebnislistings erzeugt werden. Insbesondere die Free-For-All-Linklisten haben nichts mit Suchmaschinen und Verzeichnissen zu tun.
Suchmaschinen (Engines)
Suchmaschinen, die man auch Spider, Robots oder Crawler (zu deutsch Spinne bzw. Kriecher, kriechen oder krabbeln) nennt, suchen ständig Websites im Internet auf, um Kataloge von Websites anzulegen. Suchmaschinen wie etwa Fireball erzeugen ihre Ergebnislistings automatisch. Bei dieser Methode klappern die Suchmaschinen einfach das ganze Web ab, wobei anschließend Menschen das untersuchen, was bei der Suche herausgekommen ist.
Die Crawler sammeln alle Informationen aus den Webseiten auf und kippen sie praktisch unsortiert in eine Datenbank. Anschließend läuft über die Datenbank eine Software, die die Dateansätze indexiert und anschließend das Ranking festlegt. Das Ranking bestimmt zunächst einmal, ob die Seite überhaupt in die Suchmaschine aufgenommen wird und an welcher Stelle der Ergebnisliste sie angezeigt wird.
Auf diese Weise machen die Suchmaschinen gegebenenfalls automatisch Änderungen ausfindig, die an den Websites vorgenommen wurden. Davon wird wiederum die Art und Weise beeinflusst, wie Seiten im Ergebnislisting dargestellt werden. Dabei spielen viele Faktoren eine Rolle: die Seitentitel, die Textblöcke oder andere Elemente der Seite. Da Suchmaschinen automatisch arbeiten und außerordentlich viele Websites indizieren, finden man dort oft Informationen, die in den Verzeichnissen (siehe unten) nicht aufgeführt sind. Bei Suchmaschinen werden in der Regel alle Websites, die angemeldet wurden, auch aufgenommen.
Verzeichnisse (Directories)
Anders als bei Suchmaschinen werden die Verzeichnisse nicht automatisch, sondern von Redakteuren angelegt. Eine Website wird hier angemeldet und anschließend mit einer oder mehreren sinnvollen Kategorien verknüpft. Da Verzeichnisse in der Regel von erfahrenen Redakteuren angelegt werden, liefern sie in der Regel bessere (zumindest besser gefilterte) Resultate als Suchmaschinen. Das bekannteste und wichtigste Verzeichnis ist Yahoo. Für die Relevanz auf den Suchmaschinen ist das Verzeichnis dmoz ebenfalls von besonderer Bedeutung. Es wird von Netscape betrieben und gepflegt. Wer seine Seiten in diesen Verzeichnissen gelistet hat, steigt in der Bewertung der Suchmaschinen erheblich an.
Bei einem Verzeichnis wie Yahoo hängen die Ergebnislistings von menschlichen Eingriffen ab. Entweder der Webmaster reicht eine kurze Beschreibung der gesamten Site ein, oder aber die Redakteure, die die Sites besprechen, schreiben eine solche. Beim Suchvorgang werden dann nur diese Beschreibungen auf Treffer untersucht, so dass Änderungen der Websites keinerlei Auswirkungen auf das Ergebnislisting haben.
Die Kriterien für die Verbesserung eines Ergebnislistings sind unterschiedlich. Solche, die bei einer Suchmaschine sinnvoll sind, gewährleisten nicht die Verbesserung eines Ergebnislistings bei einem Verzeichnis. Bei Verzeichnissen werden in der Regel nur Websites aufgenommen, die einem gewissen Qualitätslevel entsprechen. Eine gute Website (mit gutem Inhalt) hat mehr Chancen aufgenommen zu werden, als eine schlechte Website.
Hybrid-Suchmaschinen
Manche Suchmaschinen verfügen außerdem über ein mit ihnen verknüpftes Verzeichnis. Hierbei handelt es sich um Websites, die schon einmal besprochen oder bewertet worden sind. Bei der Durchführung einer Abfrage auf einer Hybrid-Suchmaschine tauchen diese besprochenen Sites meistens nicht standardmäßig auf, sondern müssen vom Benutzer, der die Besprechungen sehen möchte, gezielt ausgewählt werden. Ob man in das Directory einer Suchmaschine aufgenommen wird, hängt normalerweise von einer Mischung aus Glück und der vorhandenen Qualität ab. Vielfach beantragt der Webmaster auch eine Besprechung seiner Website, hat aber keinen Anspruch darauf, dass dies dann auch wirklich geschieht.
Free-For-All-Linklisten
Free-For-All-Linklisten sind Seiten, in denen Links auf Websites zusammen mit einem kurzen Kommentar eingetragen werden können. Der Betreiber trägt seine Website und die Kurzbeschreibung selbst ein, und die Eintragung erfolgt sofort und ohne redaktionelle Überprüfung. Auf Free-For-All tummeln sich mittlerweile fast ausschließlich Anbieter, die gezielt auf Dummenfang aus sind. Was als gute Idee entstanden ist, gehört heute zu den klassischen Gebieten, in denen sich Abzocker, Bauernfänger und sonstige zwielichtige Zeitgenossen tummeln.
Auf Free-For-All-Linklisten (abgekürzt "FFA") findet man somit auch in der Regel Angebote wie "Reich werden - ohne arbeiten!", "Billige Kredite" und ähnliches. Der Grund, warum die unseriösen Angebote gerade auf den FFA-Sites zu finden sind, liegt auf der Hand: Die Eintragung wird selten überprüft, erfolgt in der Regel umgehend und ist kostenlos. Da diese Angebote in redaktionell überprüften Suchdiensten keine Chance auf eine Aufnahme haben, konzentrieren sie sich auf Dienste, in denen sie ungeprüft ihr Angebot platzieren können.
Außerdem dienen sie unseriösen Firmen zusammen mit Mailinglisten als ergiebige Quelle für neue E-Mail-Adressen - diese Werbe-E-Mails finden man dann massenweise in der Mailbox. Man kann zwar gegen solche unangeforderten E-Mails rechtlich vorgehen, meistens gelingt es aber nicht, den richtigen Absender zu finden und zu identifizieren. Von der Anmeldung bei einer FFA-Linkliste ist mittlerweile abzuraten.
Sonstige Suchdienste
Neben den oben genannten Suchdiensten gibt es noch eine ganze Reihe anderer Formen von Websites, die das Auffinden von Informationen erleichtern möchten. Beispielsweise gibt es eine ganze Reihe von sogenannten Award-Services, die einzelnen Websites "Auszeichnungen" (englisch "Award") verleihen. Die Idee ist, gute Websites zu prämieren - als Gegenleistung soll man, nachdem man einen Award erhalten hat, das Banner des Verleihers auf seiner Website platzieren. Wie so oft geht es vielen Betreiber lediglich darum, ihr eigenes Banner kostenlos im Netz zu verbreiten - also vergibt man "Awards", um dieses Ziel zu erreichen.
Eine weitere Listung von Seiten erfolgt über die sogenannten Hit-Counter: das sind Websites, die ihren Besuchern besonders populäre Websites präsentieren. Dem Surfer wird z. B. eine Liste mit den 100 am meisten besuchten Websites gezeigt. Neben dem Link zur jeweiligen Website steht auch die Anzahl der Besucher, die diese Site erzielt hat. Auch hier funktioniert das System über einen Link (bzw. Banner) den man auf der Website platzieren muss und der auf die Counter-Website zeigt. Dieser Link sorgt dann dafür, dass bei der Counter-Website jeder Besucher gezählt wird.
In der Theorie klingt das System gut - in der Praxis sind diese Sites heftigsten Manipulationen unterworfen. So gibt es mittlerweile einige Utilities, mit denen Anwender die eigene Website puschen können. Die Programme gaukeln den Hit-Countern immer andere IP-Adressen vor und sorgen so dafür, dass die Counter hochgezählt werden. Ziel dieser Manipulation ist es natürlich, in der Seite mit den am meisten besuchten Websites ganz oben zu erscheinen.
Wegen der erheblichen Manipulationsmöglichkeiten sollten man auf die beiden eben genannten Suchdienste keinen Schwerpunkt setzen, um seine Website bekannt zu machen. Ein Webmaster, der nie Werbebanner oder Links in der eigenen Website aufnimmt, geht unseriösen Betreibern aus dem Weg.
III. Suchmaschinen Ranking
Suchdienste, vor allem die großen wie Google oder Yahoo können sehr viele Besucher auf die Website bringen. In der Regel werden nur die ersten Seiten beachtet, und wer dort zu finden ist, erhält die meisten Besucher. Diese Erkenntnis hat wohl auch den Ranking-Wettbewerb ausgelöst, den sich findige Programmierer mit den Entwicklern von Suchmaschinen liefern.
Webmaster suchen schon seit den ersten Tagen des Internets nach Methoden, mit denen sie ihre eigenen Seiten in den Suchergebnissen nach vorne pushen. Natürlich wurden sie auch fündig. Wenn es Hackern gelingt, die Seiten des Pentagon, oder der CIA zu knacken, wird es ihnen auch gelingen, den Algorithmus zu durchleuchten, mit dem ein Suchdienst die Ergebnislistings generiert.
So war es zum Beispiel früher durch einfachste Tricks möglich, die Platzierung in den Suchergebnissen zu verbessern, beispielsweise durch die tausendfache Wiederholung eines Begriffs (z. B. "shareware") am Ende der Website in schwarzer Textfarbe und auf schwarzem Hintergrund. Oder ganz simpel: Der Begriff wurde in den Meta-Tags Dutzende Male wiederholt.
Oder man wandte einen anderen Trick an: Auch damals wusste man schon, dass das Thema "Sex" anzieht und in den Suchdiensten am häufigsten abgerufen wird. Also erzeugte man verschiedene HTML-Seiten, die voll gepackt waren mit Begriffen wie "Sex", "Porno" etc. und müllte die Suchdienste damit voll - immer mit dem Ziel, so Besucher anzuziehen. Diese Seiten enthielten natürlich keinen Inhalt mit dem Bezug "Sex", sondern lediglich eine automatische Weiterleitung zur Website, für die der Traffic erhöht werden sollte.
Das alles aber ist Schnee von gestern. Denn die Suchdienste haben ihre Algorithmen stark verfeinert und optimiert, so dass diese Tricks nicht mehr funktionieren. Wer sich heute in den Suchergebnissen vordrängeln möchte, muss sich mehr einfallen lassen.
Kann der Webmaster die Platzierung manipulieren?
Ja. Doch der Preis dafür kann hoch sein:
· Wenn er erwischt wird, fliegen seine Seiten aus der Suchmaschine raus.
· Bei den Besuchern generiert er ein schlechtes Image, denn mit Meta-Tags voll mit Begriffen wie "Sex", "Porno", "Aldi", "Restposten", etc., lockt er zwar Surfer an, aber vergrault sie auch gleich wieder, wenn das Gesuchte nicht zu finden ist.
· Betreiber von Suchdiensten investieren viel Zeit, um Tricks und Manipulationen auf die Spur zu kommen. Die Suchdienste sind inzwischen viel schlauer, als man denkt. Die meisten "Tricks" aus dem Internet sind daher längst veraltet.
· Es ist sehr aufwändig selbst herauszufinden, welchen Algorithmus die einzelnen Suchdienste verwenden. Hat man ihn erst einmal "geknackt", kann es sein, dass er schon am nächsten Tag veraltet ist!
· Praktisch alle Quellen für Tricks, die tatsächlich mal funktioniert haben, wurden ja nicht nur von den Webmastern gelesen, sondern auch von Tausenden anderer Internetsurfer und natürlich von den Betreibern der Suchdienste - somit sind sie wahrscheinlich schon veraltet, bevor man sie umgesetzt hat.
Damit soll nicht behauptet werden, dass alles mit rechten Dingen zugeht: Es gibt sie sicher, die Freaks, die sich Tag und Nacht damit beschäftigen herauszubekommen, wie die Algorithmen arbeiten, und die eine Website nach oben puschen können. Diese Spezialisten werden immer Methoden finden, die Suchdienste erfolgreich zu manipulieren. Nur sind solche Spezialisten Mangelware - und auch für sie gelten die genannten Gründe dafür, dass sie das Tricksen nicht riskieren sollten.
Doorway-Pages
Doorway-Pages sind ein aktuell erprobtes Mittel für die Suchmaschinen optimierte Darstellung der Website. Die Seiten sind nicht für Besucher gedacht, sondern für die Suchmaschinen. Doorway-Pages sind ganz normale HTML-Dateien, in die der Webmaster eine besondere Gewichtung auf verschiedene Suchbegriffe setzt. Auch hier gilt das oben Gesagte für den Gebrauch von Schlüsselworten und Suchbegriffen. Sie sollten einen konkreten Bezug zu den Inhalten der Seiten haben.
Statt reine Spammer-Doorway-Pages zu erzeugen, über die sich die Suchmaschinenbetreiber ärgern, ist es besser eine Art Doorway-Page zu erzeugen, die die wesentlichen Begriffe der Internet Seite und redaktionellen Inhalt wiedergibt.
Ein guter Webmaster bleibt seriös und erzeugt Websites, mit denen er sich identifizieren kann. Er riskiert nicht den Rauswurf aus den Suchmaschinen.
IV Kontrolle der Ergebnisse
Basisinformationen
Bei jedem Internetauftritt fallen auch Daten über die Besucher und deren Verhalten an. Dabei ist es für den Erfolg eines Internetauftrittes entscheidend, die anfallenden Daten über die Besucher und deren Verhalten zu verstehen und zu interpretieren. Dies umfasst z.B. folgende Basisinformationen:
· Anzahl Besucher.
· Durchschnittliche Verweildauer der Besucher.
· Wofür interessieren sich die Besucher vor allem?
· Welchen Weg nehmen die Besucher durch die Seite?
· Wo verlassen die Besucher den Auftritt?
· Wie intensiv werden die einzelnen Inhalte genutzt (z.B. Verweildauer auf den einzelnen Seiten)
· Wieviele potentielle Kunden / Interessenten werden über Suchmaschinen angezogen?
· Über welche Schlüsselworte kommen die Besucher von Suchmaschinen?
· Zu welchen Zeiten kommen die Besucher?
· Woher kommen die Besucher (aus welchen Ländern, von welchen Firmen, über welche Links).
Diese Informationen erhalten der Webmaster über die statistischen Auswertungen, welche von fast allen Hosting-Anbietern angeboten werden. Die Analyse Tools basieren auf den Daten, welche von den Logfiles auf dem Internet Server gesammelt werden. Da die Daten sehr unterschiedlich ausgewertet werden können, existieren Hunderte von speziellen Analyse Programmen, welche teilweise kostenlos bezogen werden können. Die Qualität der entsprechenden Auswertungen ist allerdings sehr unterschiedlich. Zudem fehlt es oft an der Übersichtlichkeit. Die Statistiken werden allzuoft gar nicht angesehen, da sie erst auf den zweiten Blick wertvolle Business-Informationen liefern.
Um die Statistiken zu lesen, sind einige Grundbegriffe zu beachten:
Hits sind die Gesamtzahl der Anfragen, die an einen Server gestellt werden.
Files gibt die Zahl der Anfragen an, die auch vom Server sinnvoll beantwortet werden. Dazu gehören nicht die fehlerhaften Anfragen, oder solche, die bereits im Cache des Browsers liegen.
Sites sind die Anzahl der einzelnen IP Adressen, die eine Anfrage an den Server abgesetzt haben. Diese Zahl ist mit Vorsicht zu betrachten, denn viele User können über eine einzige IP Adresse kommen oder anders herum mit mehreren neuen IP Adressen auf dem Server erscheinen.
Visits kommen zustande, wenn eine andere Internet Seite eine Anfrage an die eigene Internet Seite absetzt, solange wie dieselbe Seite offen bleibt. Mehrere Anfragen in derselben Session gehören also zu einem Visit.
Der Vollständigkeit halber sei noch der Begriff URL " Uniform Resource Locator " definiert. URL gibt die Adresse eines Objektes auf dem Server an, die von einem externen User erreichbar ist.
Messung der ausgelösten Aktivitäten
Aus den Statistiken leitet der Webmaster Schlüsse und Aktivitäten ab. Zwei einfache Indikatoren, um mehr Nutzen aus dem Internet-Auftritt zu ziehen sind:
· Aktivitäten pro Besucher (durchschnittlicher Umsatz, Anzahl Anfragen etc.).
· Wieviele Besucher sehen sich nur eine einzige Seite an?
Diese Grössen verfolgt er zu Beginn einer Internet Präsenz wöchentlich und beginnt dann, aufgrund der Erkenntnisse der Analyse der vorhandenen Daten Änderungen an dem Auftritt vorzunehmen. Der Webmaster beobachtet bei beiden Messgrössen Verbesserungen oder allenfalls Verschlechterungen, abhängig von den Änderungen, welche er vornehmen. Er wird aus diesen einfachen Messgrössen zahlreiche Erkenntnisse gewinnen. Diese Erkenntnisse setzt er wiederum für eine gezielte Verbesserung ein.
Damit schließt sich der Kreis zu den anfangs besprochenen Aktionen.