GoogleBot bändigen. Effizientes Crawling und Indexing JavaScript basierter Webseiten

Rotunde

JavaScript und SEO waren lange Zeit keine wirklichen Freunde. Der simple Grund: Suchmaschinen konnten den JS-Code nicht crawlen und somit waren Inhalte in JavaScript für GoogleBot & Co. nutzlos. So war es vor vier Jahren!
Seitdem stieg die Verbreitung von JavaScript-Frameworks rapide an. Spätestens im Jahre 2018 sollten Seitenbetreiber den GoogleBot bändigen und ein effizientes Crawling und Indexing ihrer JavaScript basierten Webseiten gewährleisten. Dieser SEO-Praxisguide zeigt, wie’s geht.

Webseiten die komplett oder nur teilweise mit JavaScript realisiert werden, sind im Bereich der Suchmaschinenoptimierung immer noch ein recht unerforschtes Gebiet. Laut offizieller Aussage von Google, kann der GoogleBot bereits seit 2014 (!) Inhalte von Webseiten die durch JavaScript ausgespielt werden rendern, crawlen und indexieren. Wieso diese Aussage „gefährlich“ sein kann und welche Fallstricke sich hinter dem Zusammenspiel von JavaScript-Webseiten und SEO verstecken, wird in diesem Vortrag verständlich dargelegt.