Vorneweg so viel: Über SEO kann man locker Bücher schreiben (das wurde auch schon getan), zudem beschäftigen wir uns hier nicht oder nur sehr am Rande mit Maßnahmen – dafür gibt’s Profis. Und Vorsicht: es gibt nicht so viele Profis, aber sehr viele, die sich als solche bezeichnen. Woran mein einen schlechten SEO’ler erkennt, lesen Sie irgendwo in diesem Text (das ist eine SEO-Maßnahme, denn sie führt dazu, dass der Leser länger auf dieser Seite bleibt, also scheint sie relevant zu sein, also ist sie das auch für eine Suchmaschine…)
Ein paar grundsätzliche Dinge
Eine Suchmaschine ist erstmal nichts anderes, als eine Software – ein Programm zur Recherche von Informationen. Im Prinzip ist die Suchfunktion auf dieser Seite nichts anderes als eine Suchmaschine. Halt nur eine winzig kleine, die sich ausschließlich um die Inhalte und Informationen auf dieser einen Website kümmert aber eben doch eine Suchmaschine. Wenn wir von Suchmaschinen sprechen, dann meinen wir hier Internet-Suchmaschinen – allen voran Google. Aber auch Bing, Baidu, Yahoo!, AOL, Yandex, Ask, MetaGer, DuckDuckGo, search.ch, Fragfinn und viele weitere.
Wir unterscheiden dabei grundsätzlich zwischen unterschiedlichen Suchmaschinen-Typen:
- Metasuchmaschinen: Diese schicken Suchanfragen an mehrere andere Suchmaschinen. Vergleichbar (banaler Vergleich), wenn man ein Buch in unterschiedlichen Bibliotheken suchen würde.
- Webseiten mit eigenem Index und Webcrawler: Google ist so eine. Diese Suchmaschinen sind quasi eine eigene Bibliothek (ohne Bücher, nur mit der Bücherliste) und der so genannte Webcrawler durchsucht das Internet nach Informationen, Webseiten etc. Diese Informationen werden dann im eigenen Index (also in den Suchergebnissen) angezeigt.
- Dann gibt’s noch Peer-to-Peer und Proxy-Suchmaschnen – führt zu weit. Wer will, kann ja mal bei einem SEO’ler nachfragen. Kann er keine Antwort geben: nix wert -> erstes Anzeichen für einen schlechten SEO’ler.
SEO bezeichnet grundsätzlich alle Maßnahmen, Inhalte und Webseiten im Internet so zu gestalten, dass sie von Suchmaschinen a) gefunden, b) als relevant betrachtet und deshalb c) möglichst weit oben in den Suchergebnissen angezeigt werden. Diese Optimierung betrifft sowohl die Struktur von Webseiten, die Form der Inhalte, Bilder und Dokumente (z.B. PDF’s), Da niemand (!) alle Algorhythmen kennt, mit denen Suchmaschinen arbeiten ist es schlicht unmöglich, Tipps abzugeben, die garantiert dazu führen, „auf Platz 1“ zu erscheinen. Platzierungen können übrigens entgegen aller Verschwörungstheorien auch nicht gekauft werden. Gute SEO’ler wissen das natürlich, haben aber ebenso natürlich Zugriff auf know-how, Erfahrung und Tools mit denen sie Seiten durchaus messbar und erfolgreich optimieren können.
Onpage-Optimierung
Unter Onpage-Optimierung versteht man die Anpassung der Webseiten in Bezug auf Qualität des Inhalts (Content), der Struktur (Titelhierachie, Formatierungen), der richtigen Anwendung von Header und Tags, die interne Linkstruktur. Weiter gehören nach wie vor die Begriffe „Keyword“ und „Description“ dazu, obwohl – wir sprechen von Google – diese beiden Elemente nicht mehr oder nur noch rudimentär Auswirkungen auf das Suchergebnis haben. Wer also heute noch von „Keyword-Dichte“ als Voraussetzung für ein gutes Ranking spricht, disqualifiziert sich in diesem Moment grade selbst.
Viel wichtiger ist heute die Optimierung von Webseiten für mobile Endgeräte. „Mobile first“ ist hier das entsprechende Stichwort. Voice-Search wird zudem auch immer relevanter.
Offpage-Optimierung
Hierbei verstehen wir alle Maßnahmen außerhalb der eigenen Webseite, die dazu dienen sollen, das Ranking zu verbessern. Hierzu gehören insbesondere Begriffe wie Linkbuilding, vermutlich tragen auch die so genannten „Social Signals“, also die Reaktionen auf sozialen Netzwerken, zur Verbesserung des Rankings bei. Die Nutzersignale sind ebenfalls ein relevanter Wert, den Suchmaschinen zur Beurteilung von Informationen nutzen. Hier überschneiden sich on- und offpage-Optimierung, denn um einen Nutzer lange auf einer Seite halten zu können, muss der Content relevant sein, wenn der Nutzer dann lange bleibt, ist dies quasi ein externes Signal, das den Suchmaschinen hohe Relevanz signalisisert.
Duplicated Content
Nur kurz und unvollständig: Wenn auf mehreren Webseiten der identische Inhalt steht, so wird eine Suchmaschine das als „duplicated content“ registrieren – und nicht mögen. Einfach ein paar Seiten aufzuschalten und auf jeder den selben Inhalt zu publizieren ist also contraproduktiv. Finger weg davon! Mit Weiterleitungen kann man dieses Problem umgehen (Code 301) – fragen Sie dazu Ihren SEO’ler. Und bezahlen Sie ihn für die Antwort, ist schließlich sein know-how.
Black-Hat SEO
Maßnahmen, die das Ziel haben, Suchmaschinen an der Nase rumzuführen, bezeichnet man als Black-Hat-SEO. Die meisten Suchmaschinen (und ganz sicher Google) merken das über kurz oder lang – eher über kurz und reagieren entsprechend. Mit einer „Abstrafung“, das heißt mit dem Verlust des Rankings. Wer Lust hat, kann hier ja die offiziellen Google-Richtlinien nachlesen.
https://support.google.com/webmasters/answer/35769?hl=de
Um hier nur der Vollständigkeit halber ein paar Black-Hat-Methoden zu nennen, seien hier folgende aufgeführt (nochmals: Ihr SEO’ler kann das genauer erklären. Wenn nicht: Finger weg!)
- Cloaking (die Suchmaschine sieht andere Inhalte als der Mensch)
- Unsichtbarer Text
- Link-Farms
- Keyword-Inflation
- Trackback-Spam