Dass die Suchmaschinenoptimierung mit fortschreitender Entwicklung der Web-Technologien immer komplexer wird, ist sicherlich dem Einen oder Anderen bereits aufgefallen. Immer neue Wege, Webseiten zu erstellen, zu hosten und zu betreiben, machen es dem geneigten SEO zunehmend schwieriger, das Verhalten der Suchmaschinen und deren Umgang damit korrekt nachvollziehen zu können.
Eine besondere Herausforderung stellt die neue Fähigkeit des GoogleBots dar, JavaScript im Frontend vollständig auszuführen, als wäre er ein regulärer Browser eines Nutzers. Das wäre an sich ja kein Problem, denn solange die üblichen Tools, wie die Google Search Console mit Ihrem Abruf wie durch Google oder auch das tolle Rich Snippets Testing Tool einem die Webseite anzeigt, wie eben der Bot diese sieht. Aber das ist leider nicht mehr der Fall – und hier wird es kompliziert!
Tom Greenaway von Google sprach auf der Google I/O darüber, wie Google mit JavaScript-Seiten umgeht, und er erwähnte etwas ziemlich Wichtiges – Googlebot behandelt die Indizierung und das Ranking von JavaScript-Seiten ganz anders als nicht-javascript-generierte Seiten. Genauer gesagt, wenn Googlebot JavaScript-Seiten indexiert, geschieht dies in zwei Wellen. Mit dem Ergebnis, dass JavaScript nun direkten Einfluss auf die Indexierung und das Ranking von Websites haben kann. Allerdings geschieht das ganze verzögert! Denn, es kann Tage dauern, bis Google eine Seite, die JavaScript verwendet, vollständig verarbeitet. Ja, richtig Tage. Der GoogleBot kommt also erstmal „normal“ vorbei, liest den vom Server generierten Quelltext aus und verarbeitet diesen zur Indexierung. Erst im zweiten Schritt, wie gesagt einige Tage später, kommt quasi der Browser-like GoogleBot nochmal vorbei und dieses mal wird die gesamte Webseite geladen inkl. JavaScript und dieses eben auch ausgeführt.
Und hier kommt die Schwierigkeit: Denn nun können Effekte entstehen, die wirklich schwierig zum debuggen sind und deren Auswirkungen man auf den ersten Blick nicht immer direkt versteht.
Fallbeispiel: Webseite verliert im deutschsprachigen Index nahezu sämtliche Rankings!
Im diesem Beispiel verschwanden von heute auf Morgen nahezu sämtliche deutschen Inhalte aus dem Index. Nicht einmal mehr für die Suchanfrage nach der Domain oder dem Firmennamen wurde die Webseite in Deutschland noch angezeigt!
Alles sah zunächst nach einem schwerwiegendem technischen Problem aus, denn eine Penalty oder andere Form der Abstrafung konnte nach Durchsicht aller Backlinks und Inhalte ausgeschlossen werden, immerhin waren die englischen URLs nach wie vor im Index.
Und hier wurde es kompliziert, denn der Abruf durch Google, das Rich Snippet Testing Tool, der Check im Browser und die onPage-Tools wie Screaming Frog und Co. lieferten keinerlei Erkenntnisse. Hier wurde die Webseite korrekt und fehlerfrei ausgeliefert. hreflang-Tags, Canonical-Tags, Status Codes, Ladezeiten, Meta-Robots, HTTP-Header – alles einwandfrei.
Dann, ein ersten Hinweis. Je nach Browsersprache, wird mal als normaler Besucher ohne Cookies auf die jeweilige Sprache weitergeleitet. Ruft man also als Deutscher eine englische URL auf, erfolgt eine Weiterleitung per JavaScript auf die passende Deutsche Seite. Das hätte einen SEO in den vergangenen Jahrzehnten nicht gejuckt, aber in Zeiten von Googles Full-Page-Rendering, sollte man an dieser Stelle stutzig werden.
Und so stellt sich am Ende einer langen Irrfahrt tatsächlich heraus, dass die Weiterleitung via JavaScript dazu geführt hatte, dass die deutschen Seiten vollständig aus dem Index geflogen sind, interpretierte der englischsprachige GoogleBot doch die Weiterleitung quasi wie eine permanente via 301.
Kaum wurde diese Art der Weiterleitung entfernt, erholte sich die Webseite binnen weniger Tage und es kann endlich wieder an sinnvolleren Dingen gearbeitet werden:
Achtung: Mit Edge-Computing steht uns die nächste Komplexitäts-Welle gerade bevor!
Wir beobachten einen echten Paradigmenwechsel in der Suchmaschinenoptimierung, wobei der letzte große Schritt der Wechsel vom Google Bot mit Desktop-User-Agent hin zum Googlebot samt mobilen User-Agent und JavaScript-Rendering ist. Dadurch wird es immer schwieriger für uns SEOs nachzuvollziehen, was wirklich im Google Index ankommt.
Durch Edge Computing wird das Ganze nochmal komplizierter, denn hier wird eine weitere Schicht eingezogen, an welcher der Quelltext manipuliert werden kann – und das abhängig von Sprache, Herkunft, Cookies, IP, etc. pp.
Edge Computing bezeichnet im Gegensatz zum Cloud Computing die dezentrale Datenverarbeitung am Rand des Netzwerks, der sogenannten Edge (engl. für Rand oder Kante).
Aber diese neue Schicht kann auch für SEO sinnvoll eingesetzt werden, denn mit Edge SEO, kann man mittels sogenannter Edge Computertechnologien neue SEO-Implementierungs-, Test- und Forschungsprozesse außerhalb der aktuell gewohnten Umgebungen realisieren. So könnte man beispielsweise A/B Tests realisieren, ohne Veränderungen am Webserver vornehmen zu müssen, ähnlich wie dies mittels Google Tag Manager beim Client möglich ist, nur dass es eben IM NETZWERK ausgeführt und dadurch bereits prozessiert ausgeliefert werden kann und damit verlässlicher für SEO eingesetzt werden kann, als reine Front-End JavaScript-DOM-Manipulationen.
Konkret ist beispielsweise die Verwendung von serverlosen Technologien, sogenannter Cloudflare Worker, geeignet, um JavaScript am Rand des Netzwerkes auszuführen, um den Quelltext zu manipulieren, ohne die zugrunde liegende Infrastruktur des bisherigen Hostings zu beeinträchtigen. Die Cloudflare Worker sind serverlose Anwendungen, mit der man den generierten Quelltext manipulieren kann, während dieser durch das CDN von Cloudflare zum Client transportiert wird.
So entstehen eine ganze Reihe neuer Möglichkeiten. Denn, neben der Reduzierung der Bandbreite und der effizienteren Bereitstellung von Webanwendungen lässt sich das Edge-Layer auch nutzen, um technische SEO-Maßnahmen zu realisieren.
Es wird also zunehmend komplexer – Als SEO sollte man sich intensiv mit den neuesten Web-Technologien und natürlich mit den Grundlagen des Netzes auseinander setzen und versuchen alle Ebenen und Mechanismen zu verstehen, die auf die SEO-Performance einen Einfluß haben können!
- Chain of Density Prompting: Endlich richtig gute Zusammenfassungen per KI! - 17. September 2023
- Zu Gast im OMR Education Podcast: Einblick in ChatGPT und wie Marketer davon profitieren können - 7. August 2023
- Analyse: Wird GPT-4 wirklich immer schlechter? - 7. August 2023