SEO = Suchmaschinenoptimierung

Zweck der SEO:

  • Verbesserung der Auffindbarkeit der eigenen Seite
  • Verbesserung des Rankings ( z.B.: Google Pagerank, …)
  • Mehr Zugriffe
  • Erhöhte Aufmerksamkeit auf die Inhalte der Seite
  • Mehr Kunden
SEO-Diagramm

 

Methoden der SEO:

Als Basis aller Methoden dient die “Untersuchung” jener Wege, welche durch die Suchmaschienen bestritten werden, um Webseiten zu bewerten.

Dabei ist zu bedenken, daß die meisten Suchmaschinen, zumindest als Basis, ähnliche Wege gehen, um ihre Inhalte zu lesen. Bei den Bewertungsmethoden sind aber zum Teil Unterschiede zu finden. Es dürfte sich dabei nicht nur um qualitative Unterschiede der Methoden sondern auch um unterschiedliche Bewertung der einzelnen Parameter handeln.

Das Aufsuchen und Einlesen der Inhalte von Webseiten folgt dagegen bekannten HTML-Standards des Web, deren Einhaltung bei der Erstellung von Webseiten einen wichtigen Teil einer Optimierung darstellt.

Ein weiterer Schritt ist die Auswahl der geeigneten Suchbegriffe. Hierzu kann man sich frei verfügbarer Datenbanken, wie einer Keyword-Datenbank oder des MetaGer Web-Assoziators, bedienen.Eine weitere Möglichkeit ist die Nutzung des Google Adwords Dienstes bzw. des Keyword Tool dieses Dienstes um eine geschätzte Anzahl der Suchanfragen pro Monat je Suchbegriff zu erhalten.

Die Google Webmaster Tools ähnlich wie die Bing Webmaster Tools bieten einen Überblick wie Ihre Seite in der jeweiligen Suchmaschine gesehen wird.

  • Suchanfragen
  • Crawling-Fehler (Durch robots.txt gesperrt, Nicht gefunden)
  • Links zu Ihrer Website
  • XML-Sitemaps (wie viele Seiten wurden davon indiziert)
  • Keywords (nach häufigkeit sortiert)
  • HTML-Vorschläge und Probleme  (Meta-Beschreibung, Titel-Tag, Nicht indizierbarer Content)
  • …..

Der eigentlich für Suchmaschinen konzipierte Meta-Tag Keyword wird inzwischen angeblich nicht mehr berücksichtigt. Gleiches gilt für den Meta-Tag Description. Dieser wird jedoch (abhängig von der Suchanfrage) möglicherweise als Textauszug in den SERPs angezeigt und sollte deshalb nicht ignoriert werden.

Klassisch wird bei der Optimierung einer Seite auf wenige Begriffe optimiert. D.h. die gut ausgesuchten Begriffe sollten auch im Text mehrfach vorkommen. Dabei sollte darauf geachtet werden, dass sowohl die Lesbarkeit (Verständlichkeit) des Textes als auch die Textlänge von ausreichender Qualität sind.

Kurze Texte werden scheinbar schlechter bewertet. Zum Teil liegt das auch daran, dass sich in kurzen Texten wenig, für die Suchmaschiene, erkennbares zeigt. Jedenfalls sollte der Text sich einige Sätze lang sein. In machen Analysewerkzeugen (z.B.: Woorank) wird eine Text/HTML Ratio von größer 15% als in Ordnung bezeichnet

Gleiches gilt für ungünstige Struktur der Webseite ( wenig Struktur, schlechte Lesbarkeit, wilde Verschachtelung, ….)

Ein wesentlicher Teil der Verbesserung des Ranking ist sicher auch die sinnvolle Verlinkung sowohl innerhalb der Seite als auch die Bildung von Backlinks (Verlinkung mit anderen Seiten). Dabei scheinen die meisten Suchmaschinen Links von Seiten mit ähnlichem Kontext besser zu bewerten als solche mit anderem Inhalt. Das ist natürlich ein Weg auf des Messers Schneide. Natürlich möchte man sich mit Partnern verlinken aber wahrscheinlich nicht mit dem direkten Mitbewerber.

Links mit geringer Qualität, vor allem jene links die „gekauft“ wirken, von Web Optimierungs-agenturen in großer Anzahl nahezu gleichzeitig erstellt(eingetragen) werden sind inzwischen niedrigst eingestuft und nahezu wirkungslos. Wie diese Links von den Suchmaschinen erkannt werden ist nicht zu 100% geklärt. Jedoch ist damit zurechnen, dass die Methoden immer ausgefeilter werden.

Eine Rolle spielt mit Sicherheit auch die Bezeichnung des Links eine Rolle. Bezeichnungen wie “weiter, mehr, info, ….” sind weniger interessant als solche die einen Rückschluss auf das Thema erlauben.

Als sinnvoll ist auch der Eintrag in Internet Directories ( firma.at , infolinks.at , aboutus ,  u.v.m ) , Links in Sozial Bookmarks (Mister Wong, Delicious, Linkarena, … ) und Bussines Networks ( XingLinkedin ) zu betrachten. Auch wenn Suchmaschinen diesen nur geringe Wichtigkeit zurechnen, so erhöhen diese die Auffindbarkeit der Seite, wenn die Webseite dort unter den richtigen Begriffen zu finden ist.

Bei Sozial Networks wie Twitter, Facebook,….. ist zwar die Sichtbarkeit mitunter sehr hoch, die Nutzung kann jedoch durchaus auch ungünstige Effekte haben, wenn diese Netzwerke bzw. die Einträge und Kommentare nicht professionell behandelt werden.  —> Vorsicht.

Alter der Domain:

In vielen Artikeln über das Ranking in den Suchmaschienen ist zu lesen, daß das Alter der Domain einen gewissen Einfluss auf das Ranking hat. Scheinbar werden tendenziell ältere Domains besser bewertet als jüngere. Dieser Parameter scheint jedoch durchaus durch saubere Arbeit an den anderen Parametern (HTML-Code, Texte, Keywords, Links )  in den Hintergrund gedrängt zu werden.

Performance der Seite

Mit Sicherheit ist die Performance der Seite ( die Zeit die für den Aufbau der Seite benötigt wird ) ein Parameter der beim Ranking Berücksichtigung findet. Schnelle Websites erhöhen die Zufriedenheit der Nutzer und verbessern die Gesamtqualität des Webs, insbesondere für Nutzer mit einer langsamen Internetverbindung.

Leider gibt es dabei einiges das wir nicht beeinflussen können, Performance der Server des Provider, Anbindung des Providers, hier hilft nur ein Providerwechsel.

Was wir jedoch beeinflussen können das sind die eigenen Daten, Bilder,..

Eine beschribung der Optimierungsmöglichkeiten findet Ihr im Artikel  „Performance einer Webseite

 

Technische Grenze:

Rein grafisch orientierte ( mit Filmen, Bildern und grafisch eingebetteten Texten gestaltete ) Seiten, wie es z.B. die Programmierung in Flash ermöglicht, bieten den Suchmaschinen kaum auswertbaren Textcode.

Die Programmierung einer Webseite ausschließlich in Flash empfiehlt sich daher – abgesehen von der Inkompatibilität – aus Sicht der Suchmaschinenoptimierung nicht, außer man möchte für Suchmaschienen weitgehen unsichtbar bleiben.

Zusammenfassung:

  • Möglichst sauberen HTML Code schreiben  ( Test Möglichkeit = Markup Validation Service )
    Das sichert die maschinelle Lesbarkeit.
    Unsauberer Code kann eine vollständige Lesbarkeit ( Bearbeitung ) durch die Suchmaschiene behindern.
  • Möglichst saubere CSS Scheiben ( CSS = Cascadin Style Sheel: Test Möglichkeit = CSS Validation Service )
    Ähnlich zum HTML code können auch hier Probleme entstehen, wenn der Code unsauber ist.
  • Test der Sichtbarkeit und Strukturen mit diversen Tools
  • Gründliche Auswahl der Suchbegriffe und Gestaltung des Textes.
  • Immer wieder prüfen und überarbeiten.

Bei aller Mühe nicht vergessen:

  • Die Suchmaschienen legen Ihre Algorythmen und Methoden nicht offen. Es handelt sich immer um Erfahrungen und Mutmassungen
  • Die Algorythmen und Methoden än dern sich von Zeit zu Zeit. So wurden Links früher wesentlich stärker bewertet als jetzt.
  • Auch andere Seiten (Webmaster) schlafen nicht und arbeiten an Ihren Seiten.
  • Ein Ranking läßt sich nicht garantieren.

 

Das Web lebt …. es lebe das Web