Checkliste für SEO-konforme CMS-Templates

Viel zu oft passiert es leider, dass man als Suchmaschinenoptimierer erst eingeschaltet wird, wenn das Kind sprichwörtlich bereits in den Brunnen gefallen ist – also die Webseite fertig ist und im Netz steht. Aber den SEO erst nach dem Live-Gang hinzuzuziehen, ist einfach viel zu spät! Denn hinterher bedeuten die kleinsten Änderungen oft sehr viel Arbeit, nur allzuoft hört man dann „das geht nicht“  oder „das rechnet sich nicht“ und weder der SEO noch der Kunde werden mit einem solchen Ergebnis auf Dauer glücklich.

Das richtige Content Management System hilft ein Stück

Leider eigenen sich die meisten Content Management Systeme in ihrem ‚out-of-the-box Zustand‘ relativ wenig für einen anständigen Unterbau in Sachen SEO. Aber ich will an dieser Stelle nicht auf den Unzulänglichkeiten von TYPO3 und Co. herumreiten und auch keine Auswahl in Sachen CMS bieten. Dafür sind die Anforderungen und Bedürfnisse einfach zu verschieden und die Auswahl zu groß. Achja … Shop-Systeme sind übrigens oft noch sehr viel schlimmer zu handeln, was eine technische Suchmaschinenoptimierung angeht.

Aus meiner persönlichen Erfahrung kann ich WordPress mit den richtigen Plugins empfehlen, um kleinere Seiten schnell SEO-fit auf die Beine zu stellen, bei größeren Sites oder Ansprüchen evaluieren sie am besten selbst und entscheiden sich für das für sie geeignete CMS.

Jeder Relaunch ist eine neue Chance!

Sie planen also die komplette Seite neu zu machen?

Egal, ob das bestehende CMS mit einem neuen Template modernisiert werden soll, oder alles von Grund auf neu aufgebaut wird: Dies ist Ihre Chance vieles richtig zu machen! Die Suchmaschinen werden Sie lieben!

Doch worauf kommt es denn bei der SEO-konformen Entwicklung eines CMS- Templates an?

Indexierung sicherstellen

Es wird ihnen nichts nutzen, wenn Sie die besten Inhalte oder tollsten Produkte auf ihrer Seite haben, aber die Suchmaschine diese nicht finden kann oder Probleme bei der Indexierung ein wettbewerbsfähiges Ranking verhindern.

  • Vermeiden sie unbedingt den Einsatz von Framesets. Hierzu ist hoffentlich keine weitere Erläuterung nötig
  • Vermeiden sie den Einsatz von Flash. Flash ist tot. Keine Widerrede. Spätestens seit dem iPad!
  • Nutzen sie strukturiertes Markup! HTML bietet eine Vielzahl von Tags zur Auszeichnung bestimmter Inhalte – Nutzen sie diese!
  • Hinterlegen sie grafische Menüpunkte mit maschinenlesbaren Texten mittels CSS Image Replacement Techniken
  • Vermeiden sie Texte in Grafiken zu hinterlegen. Falls doch, schreiben sie den Text in das alt-Attribut des Image-Tags
  • Nutzen sie eine automatisch erzeugte Sitemap.xml welche sämtliche Seiten des Auftritts nach XML-Sitemap-Standard enthält, um diese an die Suchmaschinen zu übermitteln. Nutzen sie die Möglichkeit zur Eintragung bei den Google Webmaster Tools, sowie in der robots.txt
  • Hinterlegen sie eine robots.txt im Hauptverzeichnis der Domain. Dort können sie Dateien, Ordner und Muster von Dateien von der Indexierung ausschließen, sowie die XML-Sitemap angeben
  • Die Fehlerseite muss unbedingt den HTTP-Statuscode 404 liefern, damit die nicht mehr vorhandenen Seiten auch aus dem Index der Suchmaschinen entfernt werden

Duplicate Content vermeiden

Die goldene Regel lautet: Jeder Inhalt darf exakt ein einziges Mal im Netz vorhanden sein! Also sollte jede Seite auch nur unter exakt einer URL erreichbar sein!
Falls dies nicht gewährleistet werden kann, verwenden sie am besten:

  • <meta name=“robots“ content=“noindex,follow“ /> kann im Kopf der Seite eingesetzt werden um Duplikate oder andere Seiten von der Indexierung auszuschließen
  • <link rel=“canonical“ href=“eindeutige-url.html“ /> in den Kopf jeder Seite mit dem Verweis auf die korrekte, kanonische und intern angelinkte URL, dies beugt eine Vielzahl von Problemen in Sachen Duplicate Content vor.
  • VORSICHT! Unbedachter Einsatz des Canonical Tags hat verheerende Auswirkungen auf ihre Rankings!
  • 301-Weiterleitungen falls Sie beispielsweise mehrere Domains besitzen, die die selben Inhalte anzeigen sollen. Nur 301-Weiterleitungen sind SEO-konform und nehmen den LinkJuice mit!

URLs

Eine saubere Informationsarchitektur und die daraus resultierende URL-Struktur ist das A und O einer jeden guten Seite. Befolgen sie unbedingt folgende Punkte:

  • Verwenden sie Speaking-URLs welche Seitentitel und Keywords abbilden
  • Vermeiden sie GET-Parameter in URLs, wie z.B. &id=2
  • Eine gute URL lebt ewig. URLs sollten sich niemals ändern! Falls dies doch notwendig wird -> 301! Sonst verschenken sie womöglich wertvolle Linkpower oder leiten Besucher auf eine 404-Fehlerseite

Interne Verlinkung

  • Verwenden Sie eine Breadcrumb-Navigation. Dies bietet den Nutzern und dem Spider eine bestmögliche Orientierung
  • Geben sie den Redakteuren die Möglichkeit, aus dem Text heraus gezielt zu verlinken. Diese Links aus dem Fließtext heraus sind die stärksten!
  • Sämtliche Links sollten mit einem title-Attribut hinterlegt sein, der dem Linktext gleicht, oder individuell vergebbar ist
  • Generieren sie eine User-Sitemap, welche zentral erreichbar ist und sämtliche Seiten auf einen Blick darstellt. Dies ermöglicht kürzere Wege für den Spider und Übersicht für den User
  • JavaScript-Links und -Funktionen sind stets mit einem indexierbaren Fallback zu hinterlegen
  • Der <link rel=“start“ href=“index.html“ /> sollte auf die Startseite zeigen
  • Im CMS sollte die Option bestehen, bei Verlinkungen das rel=“external nofollow“ Attribut hinzuzufügen, um Links gezielt zu entwerten

Keyword-Integration sicherstellen

  • Die Seitentitel einer jeden Seite müssen manuell pflegbar und individuell sein. Hier müssen die wichtigsten Keywords jeder Seite hinterlegt werden
  • Es sollte pro Seite genau eine H1-Überschrift hinterlegt werden und manuell pflegbar sein. Hier sollten ebenfalls die wichtigsten Keywords integriert werden.
  • Dateinamen von Bildern sollten nach dem Upload erhalten bleiben. Somit können sie die Dateien nach dem Muster ‚keyword1-keyword2.jpg‘ benennen
  • Für sämtliche Bilder muss ein alt-Attribut mit beschreibenden Texten inkl. Keywords hinterlegbar sein.
  • Der Linktext für die Navigationspunkte kann gleich der Bezeichnung der Breadcrumb sein, muss aber unabhängig vom Seitentitel pflegbar sein, das title-Attribut sollte ebenfalls manuell pflegbar sein.
  • Stellen sie den Redakteuren im CMS die Tags h2-h6, ol, ul sowie p, q, blockquote und die Auszeichnungen em und strong zur Verfügung

Meta-Daten

Die Meta-Daten haben längst nicht mehr die Bedeutung wie noch vor einigen Jahren, allerdings eignen sie sich sehr wohl zur Trafficsteigerung durch Optimierung der Klickraten in den Suchergebnissen:

  • Erstellen sie nach Möglichkeit für jede Seite eine einzigartige und ansprechende ‚description‘. Enthält diese das Suchwort, wird sie in der Regal als Snippet im Suchergebnis angezeigt und kann Benutzer zu einem Klick animieren
  • Das Meta-Tag ‚keywords‘ können sie getrost vernachlässigen, dieses wird von kaum einer Suchmaschine beachtet
  • Das Meta-Tag ‚robots‘ sollte stets auf ‚index,follow‘ gesetzt sein, außer bei Seiten, die sie explizit ausschließen wollen. Dort verwenden sie ’noindex,follow‘
  • Die Meta-Tags für Content und Language sowie Zeichenkodierung sollten korrekt gesetzt werden

Halten sie die Ladezeiten so gering wie möglich

Die Ladezeit ist ein Rankingfaktor, daher:

  • Versuchen sie die Ladezeit der Seite, also die Dateigrößen sowie die Anzahl der Server-Queries möglichst niedrig zu halten
  • JavaScript und CSS sollten in zentrale Dateien zusammengefasst und extern ausgelagert sein
  • Verwenden sie nach Möglichkeit eine GZIP-Kompression
  • Viele kleine Icons oder Hintergrundgrafiken können als CSS-Sprites in einer Datei zusammengefasst werden
  • Nutzen sie Caching-Mechanismen und liefern sie nach Möglichkeit statische Seiten aus

So, das sollten die wichtigsten Punkte für suchmaschinenoptimierte Templates in Content Management Systemen sein.

Für Fragen, Anregungen, Diskussionen und Verbesserungen bin ich immer offen und dankbar. Verlinkungen und Erwähnungen, sowie Empfehlungen und Freibier nehme ich ebenso gerne dankend an.

  1. Sämtlichen Links sollten mit einem title-Attribut hinterlegt sein, der dem Linktext gleicht
No votes yet.
Please wait...

Comments 14

  1. tom

    Ich denke, die XML-Sitemap wird durchaus überschätzt und der gute Einsatz der robots.txt unterschätzt.
    Das Thema, dass Webshops aus SEO-Sicht nicht immer das optimale bieten haben wir vor langem schon festgestellt und kurzerhand unser eigenes SEO-optimiertes System geschaffen.

  2. Andre

    Interessanter Artikel. Einige Punkte sehe ich jedoch etwas anders – da die Praxis oft anders aussieht. Beispiel: URLs. Bei dem Relaunch größerer Webseiten sind auch gut rankende URLs oft voll mit unnützen Verzeichnissen, Parametern und IDs. Prinzipiell liegst du zwar richtig, aber wie gesagt, wenn man eine Seite von Grund auf optimieren will (Was ja auch ein Relaunch-Grund ist), sollten eben auch die URLs optimiert werden.

    Ansonsten stimmte ich größtenteils mit dir überein! Weiter so

  3. Post
    Author
    Kai

    Bzgl. link rel=“start“ muss ich Dir Recht geben, dies habe ich aus der Liste entfernt. 2010 sah die Welt da noch etwas anders aus

    rel=“external nofollow“ setze ich gerne, weil man dann mit schönen CSS3 Selektor a[rel~=“external“] die externen Links kennzeichnen kann.

    Grundsätzlich kann man natürlich auf das external verzichten.

  4. Daniel Abromeit

    Sehr schöner Artikel. Hat meine uneingeschränkte Empfehlung für alle Programmierer. Damit kommt man schon sehr weit.

    Meine einzigen Verbesserungsideen sind folgende Mini-Vereinfachungen:
    (Zu einfachen Dingen kann man ja oft ganz viel erzählen. Sorry vorab ;o)

    <a rel=“external nofollow“> kann man natürlich schlicht als <a rel=“nofollow“> notieren. Dass es sich um eine externe URL handelt, sieht ja selbst ein Scaper mit’m Krückstock ;o)

    – Den <link rel=“start“ /> Tag würde ich persönlich nicht so gerne benutzen um die Startseite, sprich Homepage, anzugeben. Ich würde ihn viel lieber auslassen. Mit diesem Tag hast du zugegebener Maßen einen durchaus guten Kompromiss zwischen den offiziellen HTML-Vorgaben und den real auf Websites existierenden Interpretationen der verschiedenen Linkrelationen gewählt. Ich halte mich im Zweifel aber lieber an die offizielle Empfehlung oder -noch besser- lasse etwas weg, wenn es keinen Zweck erfüllt.

    Hintergründe:

    Zwar weiss ich dass selfhtml die von dir genannte Definition widerspiegelt, die HTML4 Spezifikation ist da allerdings schon weniger eindeutig. Nach diesem Standard würde ich rel=“start“ noch am ehesten für die erste Seite in einer Paginierung benutzen. Startseite? Scheint semantisch möglich, ist aber doch unangenehm unklar.

    Wenn man nun ein bisschen weiter forscht, stößt man darauf, dass auch die HTML-WG erst umfangreiche Recherchen anstellen musste um eine Entscheidung zu dem verwirrenden Relationshaufen „begin“/“first“/“home“/“index“/“start“/“top“ treffen zu können.

    So ist es auch nicht verwunderlich dass die Attribute allesamt aus der aktuellen HTML5 Spezifikation herausgeflogen sind. (Bugtracker-Eintrag siehe hier)

    Auch in den Google FAQs kann ich nichts zu rel=“start“,“index“,o.ä. finden. Was durchaus Sinn ergibt, da ich als Suchmaschine das Problem der Startseitenerkennung gar nicht lösen wollen würde. 1. Will ich immer das relevanteste Dokument zum eingegebenen Suchbegriff anzeigen und 2. kann ich ein Startseitenähnliches Dokument sicher durch den Pagerank (Jehova! ;o) zuverlässig genug bestimmen.

    Meine Schlussfolgerung ist also dass es keinen Nutzen bringt eine Linkrelation zur Startseite, sprich Homepage, in den Quelltext einzufügen. Sie stellt historisch bedingt kein sicheres Signal für Google dar und dürfte daher wohl auch keinen Effekt auf die Rankings einer Website haben.

    Selbst WordPress hat die genannten Attribute vor 2 Jahren extra aus dem Core entfernt (ich weiss, dieser Post ist älter) und es gibt keinen Grund daran noch etwas zu ändern. Arbeit gespart, Bandbreite gespart und die Seiten validieren dann sogar besser =)

    Falls du andere Erfahrungen gemacht hast bin ich natürlich neugierig darauf.

    Cheers
    ~Abro

  5. Wolfgang Wagner

    Oh, war mir gar nicht bewusst, dass der Artikel schon so alt ist. Habe nicht auf das Datum bei den Kommentaren geachtet

    Das Problem, dass du erwähnst, lässt sich aber doch durch die Verwendung des Canonical-Tags vermeiden, oder?

    Grüße
    Wolfgang

    1. Post
      Author
  6. Wolfgang Wagner

    Schöne Zusammenfassung. Aber eine Frage:

    In Punkt 3.4. schreibst du:
    „Vermeiden sie ‘trailing slashes’ in den URLs (das / am Ende der URL). Idealerweise enden alle Dokumente auf .html oder .htm“

    Jetzt glaube ich vor ein paar Jahren genau das Gegenteil gelesen zu haben. Ich habe allerdings keine Quelle dazu parat.

    Worauf begründet sich dieser Rat? Hast du da irgendwelche Studien/Links zur Hand?

    Grüße
    Wolfgang Wagner

    1. Post
      Author
      Kai

      Hallo Wolfgang,
      der ursprüngliche Artikel ist bereits 4 Jahre alt, ich habe diesen gerade nochmals überarbeitet.
      Der Rat bezieht sich darauf, dass durch die Verwendung von verzeichnis/index.html Probleme mit Duplicate Content vermeiden lassen, die durch viele Webserver auftreten, die unter /verzeichnis /verzeichnis/ und /verzeichnis/index.html die selbe Seite ausgeben.

  7. Bogdan Günther

    Danke für diesen sehr informativen Artikel, auch in Sachen SEO lernt man eben nie aus!

    Ich kann MODx übrigens durchaus auch für größere Seiten empfehlen. Die leichte Erweiterbarkeit lässt großen Spielraum um MODx für ganz unterschiedliche Einsatzzwecke zu verwenden.

  8. Felix Kaindl

    Du fasst da sehr gute Punkte zusammen. Ich kann MODx übrigens auch uneingeschränkt empfehlen. Echt schade, dass es sich noch nicht rumgesprochen hat und dementsprechend wenig Themes und Plugins vorhanden sind. Zum Glück kann man WP-Templates relativ leicht in MODx-Themes umwandeln.

    Für kleine Projekte und Blogs würde ich nach wie vor WP nehmen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *