SEO-Tutorial: Know How für Einsteiger

Eine langfristige Platzierung in den Top 10 der Google-Suchergebnisse verlangt es, dass eine Seite tatsächlich zu den 10 besten Ergebnissen gehören muss und der Suchmaschine dies auch zeigt und beweist. Dieses Tutorial soll Ihnen einen ersten Einblick in die Suchmaschinenoptimierung geben und dabei helfen Ihren Bedarf besser einschätzen zu können.

Gerne unterstütze ich Sie bei Ihren Bemühungen mit meiner Erfahrung im Online Marketing und tiefem Fachwissen im Bereich SEO.

Ich erkläre Ihnen, wie Sie Ihre Webseite technisch, konzeptionell, strukturell, strategisch und inhaltlich optimieren können, damit die Suchmaschinen Sie als eines der besten Ergebnisse auf den vorderen Plätzen listen muss.

Was ist Suchmaschinenoptimierung (SEO)

Suchmaschinenoptimierung oder Search Engine Optimization (SEO; engl.) als Teilgebiet des Suchmaschinenmarketings bezeichnet Maßnahmen, die dazu dienen, dass Webseiten im organischen Suchmaschinenranking in den unbezahlten Suchergebnissen (Natural Listings) auf höheren Plätzen erscheinen. [1]

Als Grundlage dieses Tutorials dient der aktuelle Erkenntnisstand in Sachen Suchmaschinenoptimierung, sowie die Richtlinien für Webmaster, welche von Google zur Verfügung gestellt werden. Sämtliche Empfehlungen beziehen sich auf die organische Suche bei Google und in Abgrenzung zu den bezahlten Anzeigen:

Google Suchergebnisseite SERP

Die Suchmaschine Google hat ihren Marktanteil in Deutschland bis zum aktuellen Jahr 2014 auf rund 95 Prozent aller Suchanfragen ausgebaut. Die Konkurrenten bing und Yahoo bedienen gemeinsam lediglich 3,3 % der Suchanfragen in Deutschland.

Daher konzentrieren sich die Empfehlungen in diesem Tutorial insbesondere auf die Suchalgorithmen von Google. Die Suchmaschine bing und auch Yahoo, welche bings Suchtechnologie verwendet, setzen im Grunde dieselben Technologien mit etwas anderen Schwerpunkten ein und ist technologisch und in Sachen Datentiefe Google ein bis zwei Jahre hinterher. Daher wirken sich sämtliche Optimierungsmaßnahmen, die für Google umgesetzt werden in der Regel auch positiv auf die Sichtbarkeit in bing und Yahoo aus.

Was ist eine Suchmaschine

Eine Suchmaschine ist grundsätzlich gesprochen ein Programm zur Recherche von Dokumenten, die in einem Computer oder einem Computernetzwerk wie z. B. dem World Wide Web gespeichert sind. Internet-Suchmaschinen, wie Google oder bing, haben ihren Ursprung in Information-Retrieval-Systemen.

Sie erstellen einen Schlüsselwort-Index für die Dokumentbasis, um Suchanfragen über Schlüsselwörter mit einer nach Relevanz geordneten Trefferliste zu beantworten. Nach Eingabe eines Suchbegriffs liefert eine Suchmaschine eine Liste von Verweisen auf möglicherweise relevante Dokumente, meistens dargestellt mit Titel und einem kurzen Auszug des jeweiligen Dokuments, mittlerweile integriert Google aber auch vertikale Suchergebnisse, wie z.B. Bilder, Videos, News, Shopping-Ergebnisse oder auch Autoren-Informationen in der sog. Universal-Search.

Mehr erfahren: So funktioniert Google

Anzeige der Suchergebnisse

Die angezeigten Suchergebnisse, die sogenannten „Snippets“, enthalten wichtige Elemente der rankenden Seite und sollen dem Besucher einen Eindruck über das Thema und den Inhalt der jeweiligen Seite geben. Hierdurch haben diese einen maßgeblichen Anteil an der sogenannten „Click-Through-Rate“, also dem Verhältnis zwischen Einblendungen und tatsächlichen Klicks auf das entsprechende Ergebnis.

Das Snippet besteht grundlegend immer aus den Elementen:

  1. Seitentitel (Platz für etwa 55 Zeichen)
  2. URL bzw. Breadcrumb-Pfad (grün)
  3. Beschreibung (Bei ausreichender Relevanz wird hier die Meta-Description verwendet)

Beispiel eines Snippets

SERP Snippet Suchmaschine

Zunehmend können Snippets auch Meta-Informationen, wie z.B. Bewertungen, Termine, Listen, Autoreninformationen und ähnliches enthalten und bei einer sehr hohen Klickwahrscheinlichkeit auf die Domain zudem sogenannte Sitelinks, also weitere kurze Links unterhalb des Snippets mit weiteren relevanten Einstiegspunkten für den Benutzer. Diese als „Rich-Snippets“ bezeichneten Anzeigeformen erhöhen in der Regel die Klickrate in den Suchergebnissen und sollten daher nach Möglichkeit verwendet werden.

SEO als fortlaufender Prozess

Auf Seiten der Suchmaschine können jederzeit unterschiedliche Suchverfahren und Algorithmen Anwendung finden, welche einem ständigen Wandel und einer andauernden Weiterentwicklung unterworfen sind. Daher sind alle Empfehlungen zur Suchmaschinenoptimierung immer nur solange gültig, solange die Suchmaschinen an ihren Algorithmen keine weiteren Änderungen vornehmen.

Bei der Suchmaschinenoptimierung werden die aktuellen Techniken der Suchmaschinen untersucht, welche von den Betreibern der Suchmaschinen nicht offen gelegt und häufig geändert werden, um Missbrauch zu erschweren und dem Benutzer relevante Ergebnisse zu liefern. Die nicht bekannten und geheim gehaltenen Techniken werden nach Möglichkeiten durch „Reverse Engineering“ der Suchergebnisse untersucht.

Dies bedeutet, dass es niemals zu wirklich gesicherten Erkenntnissen und demnach auch zu keinerlei Erfolgsgarantien kommen kann. Sämtliche Veränderungen geschehen auf eigene Gefahr.

Suchmaschinenoptimierung macht es oft notwendig, kleine Änderungen auf Teilen der Webseite durchzuführen. Wenn man diese Änderungen jeweils für sich allein betrachtet, mögen sie nur kleine Verbesserungen bewirken. Aber wenn sie mit den anderen Optimierungsmaßnahmen kombiniert werden, können sie eine deutliche Wirkung auf das Abschneiden in der organischen Suche haben.

Der Nutzer im Mittelpunkt des Handelns

Obwohl dieses Tutorials häufig das Wort „Suchmaschine“ enthält, möchte ich darauf hinweisen, dass Entscheidungen bezüglich der Optimierung zuallererst darauf ausgerichtet sein sollten, was für die menschlichen Besucher Ihrer Webseite am besten ist.

Schließlich sind diese die wahren Konsumenten Ihrer Inhalte und benutzen Suchmaschinen nur, um diese ausfindig zu machen. Wenn man sich zu stark darauf konzentriert, in den Ergebnissen der organischen Suche vorne dabei zu sein, ohne dem Besucher das gewünschte Resultat zu liefern, entsteht auch kein nachhaltiger Mehrwert und kein positives Sucherlebnis.

Bei Suchmaschinenoptimierung geht es zwar darum, die Webseite in Sachen Sichtbarkeit in Suchmaschinen zu verbessern, aber das übergeordnete Ziel muss stets sein, konvertierende Nutzer für die Webseite zu gewinnen.

Die 4 Elemente der Suchmaschinenoptimierung

Infografik SEO

onPage-Optimierung

Die OnPage-Optimierung umfasst alle inhaltsseitigen Anpassungen der eigenen Internetseite. Hierzu zählen die Optimierung des Seiteninhalts (auch Content) in Bezug auf Inhaltsqualität, Formatierungen, Überschriften etc., aber auch technische Aspekte, wie die Header und Tags, sowie die interne Linkstruktur der Seite. [1]

Keyword-Welt

Um eine Webseite optimieren zu können, ist es essentiell seine Keywords, d.h. Suchbegriffe, die die eigenen Produkte und Leistungen beschreiben und nach denen die Nutzer in Suchmaschinen suchen, genau zu kennen.

Die Keywordrecherche und die Auswahl der relevanten Keywords sollte deshalb zu Beginn einer jeden Analyse durchgeführt werden, da sie die Basis für viele weiteren Maßnahmen bilden.

Hier finden Sie ein Beispiel einer „perfekt“ optimierten Seite eines Sportladens über Herren-Fahrräder. Die einzelnen Bestandteile der Seite werden im Folgenden genauer beleuchtet:

1. Seitentitel

Der HTML-Tag <title> innerhalb des <head>-Bereichs beschreibt sowohl Nutzern als auch Suchmaschinen, worum es auf dieser Seite geht. Wählen Sie kurze und aussagekräftige Titel.

Der Titel der Startseite bzw. Homepage sollte den Namen der Webseite oder Ihrer Firma führen, sowie weitere wichtige Informationen, wie den Standort des Unternehmens oder einige der Schwerpunkte und Angebote liefern.

Wenn Ihre Seite in den Suchergebnissen auftaucht, erscheint der Inhalt des Title-Tags normalerweise als erste Zeile des Ergebnisses. Worte im Titel sind fett gedruckt, falls sie in der Suchanfrage des Nutzers vorgekommen sind, oder diesen sehr ähnlich sind (Wortteile, Synonyme, Numerus, etc.). Dies soll den Nutzern dabei helfen, festzustellen, wie relevant eine bestimmte Webseite für ihre jeweilige Suche ist und hat dadurch einen großen Einfluss auf die Click-Through-Rate des Eintrags.

Jede Seite muss einen einzigartigen Title-Tag besitzen.

Das hilft den Suchmaschinen zu erkennen, dass die Seite sich von anderen auf der gleichen Webseite unterscheidet. Außerdem behindern sich Seiten mit gleichen Titeln häufig im Ranking, da die Suchmaschine nicht erkennen kann, welche der Seiten nun die Richtige ist und so kannibalisieren sich die Seiten gegenseitig.

Tipps

  1. Verwendung von Titeln, die den Inhalt der jeweiligen Seite effektiv kommunizieren inklusive der relevanten Keywords
  2. Verwendung von einzigartigen Titleln für jede Seite
  3. Benutzung von kurzen und aussagekräftigen Titeln

2. Meta-Description

Die Meta-Description (Beschreibung) ist eine Zusammenfassung einer Seite, die in Verzeichnissen oder Suchmaschinen als erläuternder Text bei den Treffer-Listen angezeigt werden kann. Tatsächlich ist das auch in Googles Treffern oft der Fall.

Stellt die Suchmaschine jedoch fest, dass die Meta-Description nicht zur Suchanfrage passt, beispielsweise weil das gesuchte Wort nicht enthalten ist, wird auch häufig ein relevanter Auszug aus dem „normalen“ Text der Seite um dieses Wort herum an Stelle der Description angezeigt.

Das Hinzufügen einer Meta-Description ist immer empfehlenswert für den Fall, dass Google keinen guten Textauszug für das Snippet finden kann.

Worte, die in der Suchanfrage des Nutzers vorkommen, werden im Snippet fett gedruckt, daher empfiehlt es sich in der Meta-Description Keyword unterzubringen. Aber Vorsicht: Nicht zu viele Keywords verwenden. Ein sinnvoller Text in den Ergebnisanzeigen, der den Besucher direkt anspricht und unter Umständen bereits zum Handeln aufführt (Call-To-Action) wird mehr interessierte Besucher zum Klick verleiten, als sinnloses „Keyword-Gestammel“ an besserer Position.

Eine Richtlinie für die optimale Länge der Description gibt Google selbst in der Ergebnisanzeige vor:

Jede Trefferbeschreibung besteht aus etwa 160 – 170 Zeichen, je nach Laufweite, wobei etwa in der Hälfte ein Umbruch erfolgt. Praktisch bedeutet dies, dass die Meta-Description 1 bis 2 Sätze bzw. einen kurzen Absatz umfassen kann. Die Meta-Description sollte im vorderen Teil (die ersten 70 – 80 Zeichen) nicht nur die wesentlichen Keywords enthalten, sondern auch zum Klick anregen. Nach einer Unterbrechung (Punkt, Komma, Rufzeichen) kann der zweite Teil die weniger wichtigen Keywords, den USP, Branding- oder Imagesätze oder eventuell noch einmal das Hauptkeyword enthalten.

Wie auch beim Titel ist es empfehlenswert, einzigartige Meta-Descriptions für jede Seite zu verwenden.

Tipps

  1. Verwendung von einzigartigen Meta-Description, die den Inhalt der Seite beschreiben zur Verbesserung der Snippets.
  2. Meta-Description soll informieren und Interesse wecken!
  3. Nutzung von sinnvollen Keywords in der Meta-Description.
  4. Für die Optimierung der Meta-Description empfiehlt sich die Übertragung der Erfahrung aus den AdWords-Kampagnen mit deren jeweiligen Anzeigentexten. Hierbei ist auch ein gezieltes Testing möglich.

3. URL-Struktur

Die Verwendung ausdrucksstarker Kategorien und Dateinamen auf einer Webseite kann nicht nur dabei helfen, die Seite besser zu organisieren, sondern könnte auch dazu beitragen, dass ein effektiveres Crawlen der Dokumente durch Suchmaschinen möglich ist. Zusätzlich können so leichter zuzuordnende, „freundlichere” URLs für alle, die zu Ihnen verlinken wollen, entstehen.

Potenzielle Besucher könnten durch extrem lange und nichts sagende URLs mit nur wenigen nachvollziehbaren Worten abgeschreckt werden. Außerdem verlinken manche Nutzer zu Ihrer Seite mit der URL als Ankertext. Enthält die URL einen relevanten Text, gibt sie der Suchmaschine mehr Informationen über den Inhalt der verlinkten Seite.

Auch die URL wird zudem als Teil des Google-Suchergebnisses dargestellt. Zudem werden in der URL Worte aus der Suchanfrage fett dargestellt.

Übrigens ist das vorkommen des Keywords in der URL alleine kein Rankingfaktor! Daher ist es unter Umständen sinnvoller bereits existierende sprechende URLs beizubehalten anstatt „mit Gewalt” nachträglich Suchbegriffe unterzubringen.

Tipps

  1. Benutzen Sie sprechende und aussagekräftige URLs.
  2. Verwendung einer einfachen Verzeichnis-Struktur, damit der User einfach erkennt, wo auf der Webseite er sich befindet.
  3. Verwendung von nur einer Fassung, mit der man zum Dokument gelangt.

Informationsarchitektur

Die Informations­architektur be­schreibt grundsätzliche den Aufbau von Informations­systemen: Egal ob Bücherei, Intranet oder ganz normale Webseite. Eine solche Architektur hat jede Webseite. Oft entsteht sie einfach und ungeplant  und wächst organisch mit der Erweiterung der Webseite und des Angebots mit.

Eine optimale Informations­architektur stellt sicher, dass sowohl der User, als auch der Suchmaschinen-Crawler sich jederzeit optimal zurecht findet.

Google rankt zwar jede einzelne Seiten, es ist jedoch für die optimale Indexierung vorteilhaft zu wissen, welche Rolle eine Seite im Gesamtgefüge der Webseite spielt.

Alle Websites haben eine Home-, Root- oder Startseite bzw. -page. Sie ist normalerweise die am häufigsten besuchte Seite und dient für viele Besucher als Grundlage der Navigation innerhalb der Site. Sofern Ihre Website mehr als nur eine Handvoll Seiten umfasst, sollten Sie sich Gedanken darüber machen, wie Besucher von dieser allgemeinen Startseite zu Seiten mit speziellerem Content gelangen.

Interne Verlinkung

Die optimale interne Verlinkung Ihrer Seiten stellt ein Kompromiss aus zwei Paradigmen der Usability dar:

  1. Kurze Wege für Besucher und den Crawler. Denn je mehr Seiten ein Benutzer „durchklicken“ muss, um an sein Ziel zu kommen, desto unzufriedener ist dieser in der Regel. Die Entscheidung zum nächsten Klick muss möglichst leicht fallen um schnell zum Ziel zu finden.
  2. Während die erste Regel zu einer Startseite mit viel zu vielen Links zu sämtlichen Unterseiten führen würde und demnach die zweite Regel bricht, führt die zweite Regel im Extremfall zu Seiten mit lediglich einem Link, so dass man sich möglichst schnell entscheiden kann, aber viel zu viele Klicks bis zum Ziel hat.

In der Praxis ist der Mittelweg zwischen diesen beiden Paradigmen das Ideal.

Nach dem Motto:„So wenig wie möglich, so viel wie nötig“ sollten sich auf jeder Seite nach Möglichkeit immer nur genau die Links befinden, die der Benutzer von genau dieser Seite aus benötigt, um an sein gewünschtes Ziel zu finden.

Tipps

  1. Erstellen Sie organische, nachvollziehbare Hierarchien, die den Nutzer so einfach wie möglich von allgemeinen zu spezifischen Inhalten führen.
  2. Übertreiben Sie es nicht mit der Anzahl der angebotenen Links je Seite, dies verwirrt nicht nur die Benutzer sondern schwächt auch die Weitergabe von Relevanz innerhalb Ihrer Domain.
  3. Verwendung von Text zur Navigation und Vermeidung von Dropdown-Menüs, Grafiken und Animationen.

Linktexte

Ein Linktext sind die anklickbaren Worte in einem Link. Er befindet sich innerhalb des Tags <a href=“…“></a>. Dieser Text teilt Nutzern und Google etwas über den Inhalt der zu verlinkenden Seite mit. Egal ob interne oder externe Links zu fremden Seiten, je besser der Linktext, desto einfacher fällt dem Nutzer die Navigation und desto besser versteht Google, wovon die Seite, auf die verlinkt wird, handelt.

Bei der internen Verlinkung gibt es im Gegensatz zu externen Backlinks keine Überoptimierung oder Abwertung durch zu harte Linktexte!

Tipps

  1. Passende, beschreibende Linktexte helfen die verlinkten Inhalte zu vermitteln.
  2. Verwendung von kurzen, aber ausdrucksstarken Linktexten.
  3. Integrieren Sie die Keywords der Zielseite im Linktext!
  4. Wählen Sie eine Formatierung, die den verlinkten Text hervorhebt, damit der Nutzer diesen Link vom normalen Text unterscheiden kann.

Texte

Eine Suchmaschine bildet im ersten Schritt vor Auslieferung der Ergebnissseite zunächst eine Liste aller Webseiten, die die gesuchten Begriffe überhaupt enthalten, oder mit diesem Linktext angelinkt werden. Erst danach erfolgt die Sortierung anhand der geheimen Rankingfaktoren.

Für eine optimale Platzierung in den Suchergebnissen ist es unerlässlich die angezielten Begriffe und Begriffskombinationen auf der jeweiligen Seite zu verwenden!

Schreiben Sie einen Text niemals aus Sicht der Suchmaschine, sondern stets für den Leser.

Anschließend können Sie sicherstellen, dass die Schlüsselbegriffe gut in den Text eingearbeitet sind und bei Bedarf einige Formulierungen erweitern oder abändern um die Integration sicher zu stellen. Logische Aufteilung des Textes in Überschriften und Bodytext mit sinnvollen Absätzen hilft Google, den Inhalt der Seite besser zu verstehen.

Die Überschrift 1 sollte daher Ihre wichtigsten Keywords enthalten, in Zwischenüberschriften können Synonyme und Varianten verwendet werden. Findet der User auf der Seite seine Suchanfrage direkt wieder, hat er das Gefühl hier richtig zu sein und den gesuchten Inhalt zu finden.

Keyword-Dichte

Entgegen hartnäckiger Gerüchte ist die reine Keyword-Dichte kein Rankingfaktor der Suchmaschinen!

Eine Aussage über die Keyword-Dichte eines Dokuments, als isolierter Wert, macht aus mehreren Blickwinkeln keinen Sinn. Dies lässt sich an einem einfachen Beispiel verdeutlichen: Ein vollkommen sinnfreier Blindtext in dem aber der Suchbegriff mehrfach vorkommt wäre aus der Perspektive der Keyword-Density bereits relevant.

Über die Qualität des Textes kann die Keyword-Dichte alleine also keine verlässliche Aussage treffen.

Länge des Textes

Die Texte sollen zudem einen echten Mehrwert für den Nutzer darstellen und eine gewisse Länge aufweisen, damit sie von Google für relevant erachtet werden. Je mehr Inhalt und damit Mehrwert Sie bieten, desto besser.

Konkret bedeutet dies, dass Artikel eine Mindestlänge von 1.000 Worten umfassen sollten. 1.500 Wörter wären laut einer Studie von SerpIQ ideal. Laut Medium.com liegt die ideale Lesezeit für einen Artikel bei 7 Minuten, was  rund 1.600 Wörtern entspricht. Auf Produktseiten und Kategorieseiten kann dieser Wert auch unterschritten werden, da diese eher zum Zwecke der Orientierung dienen und nach der Auswahl der Nutzer länger auf der Produktdetailseite verweilt.

Gute Texte mit relevanten Informationen lassen den Nutzer zudem länger auf Ihrer Seite verweilen. Im Optimalfall findet er genau die gewünschten Informationen und kehrt nicht mehr zu den Suchergebnissen zurück. Durch dieses positive Zeichen über die Qualität Ihrer Seite können Sie für Google relevanter wirken und bessere Rankings erzielen.

Latent semantische Optimierung und WDF * IDF

In letzter Zeit gab es in der SEO-Welt einen regelrechten Hype um die kleine Formel: WDF * p * IDF. Zu Erklärung: Mit dieser Funktion lässt sich mathematisch bestimmen, in welchem Verhältnis bestimmte Wörter innerhalb eines Textdokuments im Verhältnis zu allen anderen relevanten Dokumenten vorkommen. Somit kann die Suchmaschine bestimmen, ob ein Text sich wirklich intensiv mit einem Thema befasst, oder lediglich das Schlüsselwort in einem ansonsten irrelevanten Text vorkommt.

Bei einer latent semantischen Optimierung wird der Inhalt der Webseite textlich derart gestaltet, dass Wörter verwendet werden, die im Allgemeinen im Zusammenhang mit dem Thema dieser Webseite zumeist auch auf anderen Webseiten genannt werden.

Grundsätzlich ist die Herangehensweise sich bei der Texterstellung nicht nur auf einen einzigen Schlüsselbegriff zu konzentrieren zu begrüßen, allerdings muss die Lesbarkeit und der Nutzen für den Leser im Zentrum Ihrer Bemühungen stehen und nicht die Texte einer Kurve anzupassen. Das Problem bei vielen WDF * IDF-Tools ist zudem, dass diese lediglich die Top 10 der rankenden Seiten zum Vergleich heranziehen, die ursprüngliche Formel jedoch mit einem vollständigen Korpus aller relevanten Dokumente arbeitet. Somit kommt es zu einer zu oberflächlichen Betrachtung. Doch selbst bei ausgereifteren Tools ist die Betrachtung immer noch sehr technisch bzw. mathematisch und die ausgegebenen Werte helfen in der Praxis nicht wirklich einen bessern Text zu schreiben.

Proof Keywords

Die sogenannten Proof Keywords, also die Begriffe die in den meisten relevanten Dokumenten häufig vorkommen, helfen der Suchmaschine das Thema eines Textes besser zu analysieren. Beispielsweise zeigen die Proof Keywords: Finanzierung, Konto und Geld zum Keyword Bank an, dass es sich nicht um eine Parkbank zum Sitzen handelt, sondern um ein Geldinstitut.

Daher lautet meine Empfehlung

Wenn Sie ein Thema umfassend recherchiert, hilfreich und nützlich für den Leser beleuchten, wird die Verwendung der  richtigen Schlüsselbegriffe auch in Zeiten semantischer Auswertungen und WDF * IDF von ganz  alleine Ideal sein.

In der Praxis fällt es aus meiner Sicht leichter, mit dem W-Fragen Tool zu arbeiten. Dieses findet häufig gesuchte Fragestellungen, die Nutzer zu Ihrem Keyword suchen. Somit können Sie richtig gute Inhalte erstellen und alle Bedürfnisse und Fragen der Besucher eingehen.  Somit erfahren Sie ganz einfach, was die Suchenden zu einem Begriff wirklich interessiert. Mit diesen Fragen im Hintergrund, fällt es dann in der Regel viel leichter diese im Text zu beantworten und ein Thema umfassend zu beleuchten.

Im Nachhinein können Sie dann mit einem WDF * IDF-Tool überprüfen, ob Sie die wichtigen Proof Keywords im Text verwendet haben.

Tipps

  1. Schreiben Sie in aller erster Linie gute Texte mit echtem Mehrwert für Ihre Nutzer!
  2. Versuchen Sie sämtliche Aspekte eines Themas innerhalb des Artikels abzudecken.
  3. Vermeiden Sie schlampig verfasste Texte mit Rechtschreib- und Grammatikfehlern.
  4. Vermeiden Sie Text in Bildern. Suchmaschinen können diesen nicht lesen.
  5. Strukturieren Sie den Text logisch mit Überschriften und Absätzen.
  6. Verwenden Sie Keywords nach Möglichkeit im Seitentitel, der URL und der Überschrift 1 und 2.
  7. Wichtige Schlüsselwörter sollten gleichmäßig über den gesamten Text verteilt vorkommen. Dies stellt sicher, dass die Suchmaschine nicht bloß einen Teil des Textes als relevanten Inhalt betrachtet.
  8. Verwenden Sie auch Synonyme und Variationen der Keywords sowie verschiedene Deklinationen und Konjugationen.
  9. Vermeiden Sie überoptimierte Texte, die nicht mehr lesbar sind!

Bilder in den Suchmaschinen

Googles Ziel ist es, unseren Nutzern bei der Bildsuche wie bei der Websuche die besten und relevantesten Suchergebnisse zu liefern. Sofern Sie die im Folgenden genannten bewährten Vorgehensweisen sowie Googles üblichen Richtlinien für Webmaster befolgen, erhöht sich die Wahrscheinlichkeit, dass Ihre Bilder in diesen Suchergebnissen angezeigt werden. Sie können Google zusätzliche Einzelheiten zu Ihren Bildern mitteilen und die URLs von Bildern angeben, die die Suchmaschine ansonsten möglicherweise nicht entdecken, indem Sie Informationen zu einer Bilder-Sitemap hinzufügen.

Vermeiden Sie es, wichtigen Text, etwa Seitenüberschriften und Menüelemente, in Grafiken einzubetten, da nicht alle Nutzer technisch darauf zugreifen können. Damit die Nutzer möglichst ungehindert auf wichtige Textinhalte zugreifen können, verwenden Sie dafür reguläres HTML.

Generell lässt sich in Sachen Bilder SEO sagen: Geben Sie möglichst viele Bildinformationen an. Geben Sie Ihren Bildern genaue, aussagekräftige Dateinamen. Der Dateiname kann Google auf den Gegenstand des Bildes hinweisen. Versuchen Sie, den Gegenstand des Bildes im Dateinamen auszudrücken. „Mein-neues-schwarzes-kätzchen.jpg“ ist beispielsweise weitaus aussagekräftiger als „IMG00023.JPG“.

Aussagekräftige Dateinamen sind auch für Nutzer hilfreich: Wenn die Suchmaschine keinen geeigneten Text auf der Seite findet, auf der sie das Bild gefunden hat, verwendet sie den Dateinamen als Auszug des Bildes in den Suchergebnissen.

Erstellen Sie geeigneten Alternativtext!

Das Alt-Attribut wird zur Beschreibung des Contents einer Bilddatei verwendet. Dieses Attribut ist aus zwei Gründen wichtig:

  1. Durch Alternativtext erhält Google nützliche Informationen zum Gegenstand des Bildes. Google kann keine Bilder lesen, daher ist es unerlässlich Google mitzuteilen, was auf dem Bild zu sehen ist. Anhand dieser Informationen wird das beste Bild als Ergebnis für die Suchanfrage eines Nutzers in der Bildersuche ermittelt.
  2. Viele Nutzer – beispielsweise Nutzer mit Sehbeeinträchtigungen oder Nutzer, die Sprachausgabeprogramme verwenden oder über Verbindungen mit geringer Bandbreite verfügen – können möglicherweise auf den Webseiten keine Bilder anzeigen. Ein aussagekräftiger Alternativtext vermittelt diesen Nutzern wichtige Informationen über das vorgesehene Bild.

Beispiel

Weniger gut:

 <img src="puppy.jpg" alt=""/>

Besser:

<img src="puppy.jpg" alt="puppy"/>

Am besten:

<img src="spielender-dalmatinerwelpe.jpg" alt="Spielender Dalmatinerwelpe">

Was Sie vermeiden sollten:

<img src="puppy.jpg" alt="Welpe Hund kleiner Hund Welp Welps Welpen"/>

Das Füllen von Suchbegriffen mit zu vielen Alternativeigenschaften („überflüssige Keywords“) mindert das Nutzererlebnis und kann dazu führen, dass Ihre Webseite als Spam eingestuft wird.

Füllen Sie Ihre Webseite stattdessen mit nützlichem und informativem Content und verwenden Sie adäquate, zum Kontext passende Suchbegriffe.

Tipps

  1. Betten Sie keinen wichtigen Text in Bildern ein.
  2. Geben Sie Ihren Bildern genaue, aussagekräftige Dateinamen.
  3. Verwendung des Alt-Attributs  zur Beschreibung des Contents einer Bilddatei.

SEO-Technik

Die Technik spielt in der Suchmaschinenoptimierung eine zentrale Rolle. Die Sicherstellung der „Crawlability“ der Inhalte hat daher oberste Priorität. Zudem ist es wichtig, den Crawler nicht an Seiten herankommen zu lassen, die man ohnehin nicht im Index haben möchte und den Index gleichzeitig nicht mit unnützen Seiten zu überfrachten.

HTML-Quellcode

Der Einsatz der semantischen Elemente, welches der HTML-Standard bietet, kann der Suchmaschine helfen, die wichtigsten Begriffe der jeweiligen Seite besser zu verstehen. Insbesondere die Überschriften <h1>,<h2>,<h3>,etc. sollten daher genutzt werden.

Das Element <h1>, also die Überschrift erster Ordnung sollte nach Möglichkeit auf jeder Seite nur ein einziges Mal vorkommen und zum Seitentitel der jeweiligen Seite passen.

Zudem können besonders wichtige Seitenelemente und Begriffe mit den Tags <strong> und <em> für die Suchmaschine hervorgehoben werden.

Wiederkehrenden Seitenelemente

Aus semantischer Betrachtung sollten wiederkehrende Elemente, wie z.B. die Boxen in der Sidebar keine <hx>-Überschriften enthalten, da diese keine Unterpunkte der jeweiligen Seite darstellen und daher keine Relevanz innerhalb des aktuellen Dokuments erhalten sollten.

HTTP Status Codes

Im HTTP-Standard sind zahlreiche Status Codes als Antwort des Webservers bei Anfragen eines Browsers (Client) definiert. Die aus SEO-Sicht wichtigsten sind:

  • 200 OK – Die Seite wird korrekt geladen und in den Suchmaschinenindex aufgenommen
  • 301 permanent redirect – Eine dauerhafte Weiterleitung, welche PageRank vererbt
  • 302 temporary redirect – Eine vorübergehende Weiterleitung welche keinen PageRank vererbt (vermeiden!)
  • 404 error – Die URL konnte nicht abgerufen werden und wird somit auch nicht indexiert
  • 503 maintenance – Die URL ist vorrübergehend nicht erreichbar und wird nicht deindexiert (wird bei Wartungsarbeiten empfohlen)

Als Seitenbetreiber ist es am Wichtigsten, dass Fehlerseiten den 404 Status Code liefern, Weiterleitungen stets per 301 gelöst werden und reguläre Seiten mit 200 OK antworten.

Duplicate Content und Keyword-Kannibalisierung

Der wichtigste Grundsatz bei der URL-Gestaltung lautet: Jeder Inhalt darf nur unter einer einzigen URL abgerufen werden können. Diese URL nennt sich auch die kanonische URL. Führen mehrere URLs zu gleichen Inhalten entsteht ein Problem durch sog. Duplicate Content und Keyword-Kannibalisierung.

Kannibalisierung im Marketing findet statt, wenn sich unterschiedliche Produkte eines Unternehmens in direkter Konkurrenz zueinander befinden, das heißt den gleichen Markt bearbeiten und sich gegenseitig Marktanteile rauben.

In Sachen SEO bedeutet die Kannibalisierung auf Keyword-Ebene, dass sich mehrere Seiten gegenseitig im Ranking Konkurrenz machen, da diese zu ähnlich sind und auf die gleichen Begriffe abzielen. Oft treten dadurch negative Effekte auf, so dass keine der Seiten wirklich gut rankt, da die Suchmaschine nicht entscheiden kann, welches die „richtige“ bzw. die beste Seite zu diesem Begriff ist. Daher rankt Google vorsichtshalber einfach keine der Seiten.

Duplicate Content beziehungsweise Near-Duplicate Content liegt vor, wenn zwei oder mehrere Seiten (unterschiedliche URLs) gleiche oder fast gleiche Inhalte zeigen. Jeder Inhalt sollte nur unter einer einzigen URL auffindbar bzw. indexierbar sein.

Duplicate Content kann sich negativ auf das Suchmaschinen-Ranking einer Internetseite auswirken, da Suchmaschinen doppelte Inhalte filtern, um den Usern keine inhaltsgleichen oder sehr ähnlichen Treffer anzuzeigen, die die Qualität der Suchergebnisseiten (SERP) mindern würden.

Häufige Ursachen für „Duplicate Content“

  • Content ist mit und ohne „www“ aufrufbar
  • Content ist sowohl über „http“ als auch über „https“ aufrufbar
  • Content ist sowohl mit als auch ohne „Slash“ aufrufbar
  • Content ist mit dargestellter Index-Datei und ohne diese aufrufbar
  • Content ist auch mit Tracking-Parametern aufrufbar
  • Seite ist auch mit Session-IDs aufrufbar
  • Content ist mit Groß- und Kleinschreibung aufrufbar
  • Content ist über mehrere Ansichten aufrufbar

Die Lösung für diese Problematik stellt der sog. „Canonical Tag“ dar:

Link Rel Canonical Tag

Der vergleichsweise neue „Canonical Tag“ (man spricht auch von ‚Canonical Link‘, ‚Canonical URL‘ oder ‚URL Canonicalization‘) ist ein weiterer Schritt der großen Suchmaschinenbetreiber (insb. Von Google), um dem ‚Duplicate Content‘ Herr zu werden.

Paginierte Seiten

Websites führen die Seitennummerierung auf unterschiedliche Weise durch. Zum Beispiel unterteilen viele Seiten sehr lange Artikel in mehrere kürzere Seiten. Produktwebsites und Onlineshops unterteilen meist die Liste der Artikel in einer langen Produktkategorie in mehrere Seiten. Ebenso unterteilen Diskussionsforen lange Threads in fortlaufende URLs.

Wenn Sie für den Inhalt auf Ihrer Website eine Seitennummerierung verwenden und möchten, dass dieser optimal in den Suchergebnissen erscheint, empfiehlt Google eine der folgenden drei Methoden:

  1. Unternehmen Sie nichts. Inhalt mit nummerierten Seiten kommt sehr oft vor. Google ist gut darin, Nutzern die relevantesten Ergebnisse zu liefern, unabhängig davon, ob Inhalt in mehrere Seiten unterteilt ist.
  2. Geben Sie eine Gesamtansicht-Seite an. Sucher bevorzugen im Allgemeinen die Anzeige eines kompletten Artikels oder einer kompletten Kategorie auf einer einzelnen Seite. Wenn wir davon ausgehen können, dass der Sucher dies bevorzugt, versuchen wir, in den Suchergebnissen die Gesamtansicht-Seite anzuzeigen. Sie können außerdem einen rel=“canonical“-Link zu den Komponentenseiten hinzufügen, um Google mitzuteilen, dass in den Suchergebnissen die Gesamtansicht-Version erscheinen soll.
  3. Verwenden Sie rel=“next“- und rel=“prev“-Links um die Beziehung zwischen Komponenten-URLs anzugeben. Dieses Markup enthält einen starken Hinweis für Google, dass diese Seiten als logische Abfolge behandelt werden sollen. Dadurch werden ihre Verknüpfungseigenschaften verstärkt und die Nutzer werden in der Regel auf die erste Seite geleitet.

Sie sollten jedoch die dritte Variante bevorzugen, da es so zu keinen Missinterpretationen kommen kann. Wichtig dabei ist auch zu beachten:

Der Canonical-Tag darf auf paginierten Seite NICHT auf eine andere URL verweisen, ansonsten werden die Links auf dieser Seite garnicht erst von Google berücksichtigt, was die interne Verlinkung massiv behindert.

Beispiel für paginierte Seiten

Erste Seite: http://www.example.com/?page=1 entspricht http://www.example.com/

<link rel="canonical" href="http://www.example.com/">
<link rel="next" href="http://www.example.com/?page=2">
<meta name="robots"&nbsp;content="index,follow">

Zweite Seite: http://www.example.com/?page=2

<link rel="canonical" href="http://www.example.com/?page=2">
<link rel="next" href="http://www.example.com/?page=3">
<link rel="prev" href="http://www.example.com/">
<meta name="robots" content="noindex,follow">

Letzte Seite: http://www.example.com/?page=3 (angenommen es gibt keine Seite 4 mehr)

<link rel="canonical" href="http://www.example.com/?page=3">
<link rel="prev" href="http://www.example.com/?page=3">
<meta name="robots" content="noindex,follow">

Mehr dazu unter: https://support.google.com/webmasters/answer/1663744?hl=de

URL-Parameter

URL-Parameter erzeugen häufig sog. Duplicate Content. Wenn Google duplizierte Inhalte erkennt, kann das nachteilig für das Ranking einer Webseite sein. Zwar gruppiert ein Google-Algorithmus die duplizierten URLs in einem Cluster und wählt eine URL aus, die das Cluster in den Suchergebnissen vermutlich am besten repräsentiert. Allerdings kann Google oft nicht alle URLs in einem Cluster finden, oder die automatisch ausgewählte Seite ist nicht die beste Landingpage oder gewünschte Zielseite für den Nutzer. Zudem kann Google doppelte Inhalte sogar als Betrugsversuch werten, wenn zu viele Seiten mit immer wieder gleichen Inhalten in den Index gelangen.

Über die Google Webmaster Tools gibt es die Möglichkeit die URL-Parameter einer Seite für das Crawling durch Google einzustellen. Damit hilft man Google dabei, die Website effizienter zu crawlen, indem man angibt, wie Parameter in Ihren URLs gehandhabt werden sollen. In diesem Beitrag erkläre ich die Möglichkeiten die das Tool bereit hält, wie man die häufigsten Parameter richtig einstellt und gehe dabei auf gängige Probleme und Fallstricke ein.

Ladezeiten

Google hat bereits 2010 im offiziellen Webmaster Central Blog bekanntgegeben, dass die Ladegeschwindigkeit von Webseiten seit einiger Zeit ein Rankingfaktor ist und damit der Positionierung in den Suchergebnissen schaden kann.

Schwachstellen können mit dem Google Page Speed Insight Tools aufgedeckt werden.

Robots.txt

Eine robots.txt ist eine Textdatei, die im Hauptverzeichnis der Domain abgelegt wird und Informationen für Spider/Robots/Crawler enthält. Hier kann man z.B. Inhalte für Crawler sperren, damit diese Daten nicht von den Suchmaschinen ausgelesen werden können.

Eine Sperrung durch die Robots.txt verhindert NICHT dass die Seite indexiert wird!

Um Seiten von der Indexierung auszuschließen verwenden Sie das folgende Meta-Tag:

<meta name="robots" content="noindex" />

XML-Sitemaps

Sitemaps stellen eine einfache Möglichkeit dar, Suchmaschinen sämtliche Seiten auf Ihren Websites zu übermitteln, die zum Durchsuchen verfügbar sind. In ihrer einfachsten Form entspricht die Sitemap einer XML-Datei, in der URLs für eine Website sowie zusätzliche Metadaten über jede URL (wie Datum der letzten Aktualisierung, Änderungshäufigkeit, Wichtigkeit der URL im Vergleich zu anderen URLs auf der Website) aufgeführt sind, was den Suchmaschinen ein intelligenteres Durchsuchen von Websites ermöglicht.

Web-Crawler ermitteln normalerweise Seiten aufgrund von Links innerhalb der Website und über andere Websites. Sitemaps ergänzen diese Daten, um Crawlern zu erlauben, alle URLs in der Sitemap aufzunehmen und Informationen über diese URLs anhand der verknüpften Metadaten zu ermitteln. Die Verwendung des Sitemapprotokolls ist keine Garantie dafür, dass Webseiten in Suchmaschinen gelistet werden, bietet jedoch Hinweise für Web-Crawler, mit denen diese beim Durchsuchen Ihrer Website eine bessere Indexierung ermöglichen.

Die gängigen Sitemaps Formate werden von Google, Yahoo und Microsoft (Bing) unterstützt.

Werden Sie mein Kunde

Ich helfe ihnen gerne dabei, von Ihrer Zielgruppe optimal gefunden zu werden!