Recap SEOkomm 2017

geschrieben am in der Kategorie SEO von

Zum ersten Mal haben wir eine SEO Konferenz außerhalb Deutschlands besucht. Im schönen und beschaulichen Salzburg fand am 17. November 2017 die SEOkomm – DIE Konferenz für Suchmaschinenoptimierung mit rund 900 Teilnehmern in Österreich statt. Insgesamt 24 Vorträge von bekannten SEOs sowie die Keynote von Marcus Tandler sollten uns mit neuen Informationen und Erkenntnissen rund um das Thema Suchmaschinenoptimierung versorgen. Bei der großen Auswahl viel es uns nicht immer leicht, zwischen den Tracks von Sebastian Erlhofer, John Müller oder Bastian Grimm zu wählen. Eine kleine Auswahl der Themen und Vorträge möchten wir euch im Folgenden vorstellen.

Relaunch: Chancen, Risiken und Strategien für Migrationen – Bastian Grimm

Eine der besten Sessions lieferte Bastian Grimm. In seinem Vortrag gab er einen allumfassenden Einblick, was alles beim Thema Relaunch beachtet werden sollte. Die wichtigsten Punkte:

  • Es gibt verschiedene Arten von Migrationen, welche unterschiedliche Vorgehensweisen mit sich bringen.
  • Wichtig ist, vorab ein vollständiges Inventar der Webseite sicherzustellen. Dazu gehört das Crawlen der alten Domain, die Speicherung der Logfiles (mind. 90 Tage) sowie eine Potentialanalyse der wichtigsten Seiten in Bezug auf Social, Traffic und externe Links.
  • Saubere Vorbereitung des URL-Redirect-Mappings in Form von 1-zu-1-Weiterleitungen.
  • Ausschluss des Test-Systems vom Index.
  • Nach erfolgter Migration sollten alter und neuer Crawl miteinander verglichen werden.
  • Google Search Console: Neue Properties anlegen, Disavow File rechtzeitig hochladen, Fetch & Render sowie neue Sitemap testen.
  • Bei Domain-Migrationen sollte das „Site Move“ Feature der Search Console genutzt werden.
  • Nochmaliges Crawlen der alten URLs (via List-Mode ScreamingFrog) und Überprüfung der Weiterleitungen.
  • Kontrolle der Logfiles (empfohlene Tools: Loggly, Screaming Frog Logfile Analyzer).
  • Aktualisierung der stärksten externen Linkquellen.
  • Geduldig bleiben, da Änderungen ihre Zeit (Wochen oder sogar Monate) benötigen.

Die Folien zum Vortrag gibt es bei Slideshare.

Technisches SEO @ OTTO – Patrick Christoph

Einer der wenigen Cases wurde von Patrick Christoph vorgestellt. Er ist Team Leader im Bereich Onpage SEO bei OTTO und stellte die Herausforderungen vor, denen man bei einem großen Online Shop wie OTTO im technischen SEO begegnet und lieferte auch noch Best Practice Tipps. Skalierbare Lösungen für Indexierungsmanagement und Crawlability zu finden, sind für einen der größten deutschen Onlineshops dabei besonders wichtig.

Indexierungsmanagement – Skalieren mit Qualität.

Bei einem Shop mit über 650.000 Artikeldetailseiten und 15.000 Hauptkategorien passiert es schnell, dass Seiteninhalte, welche für die Suche nicht relevant sind, trotzdem indexiert werden. Zudem war kein Schwellenwert für die Artikelanzahl definiert, welcher dafür hätte Sorgen können, dass Produktlisten mit wenigen Artikeln nicht indexiert werden. Im Zuge des neuen Indexierungsmanagements wurden 60% der Seiten deindexiert. Um auch in Zukunft die Indexierung neuer Seiten sinnvoll anzuwenden, wurden Indexierungskriterien festgelegt und eine automatisierte Vorfilterung aufgesetzt. Seiten mit Thin Content werden deindexiert oder automatisiert mit Produktdaten angereichert. Mit diesem Prozess und einem trennscharfen Keyword Targeting soll ein Indexierungsgrad von 99% erreicht werden.

JavaScript SEO – Crawling, Indexierung und Auditing von JavaScript-Websites – Artur Kosch

JavaScript SEO wird bei vielen SEOs sicherlich noch ein bisschen stiefmütterlich behandelt, ist aber wichtiger denn je. Umso besser, dass sich Artur Kosch diesem Thema ausführlich gewidmet hat. Durch seine vielen Recherchen und eigenen Kundenerfahrungen bot er den Teilnehmern eine tolle Zusammenfassung, was beim Auditing in Bezug auf JavaScript beachtet werden sollte:

  • Google rendert als einziger Crawler auch JavaScript.
  • Chrome 41 neben Google Search Console Fetch & Render als Testing und Debugging Tool nutzen.
  • Headless Chrome für Automatisierung und Testing anwenden.
  • http/2 sowie das WebSocket-Protokoll werden weiterhin noch nicht unterstützt
  • Google hat sogar mit seinem eigenen JavaScript-Framework Probleme.
  • Der Googlebot geht sehr unterschiedlich mit den existierenden JavaScript-Frameworks um, was Crawling und Indexierung betrifft. Seht hierzu den Test von Bartosz Góralewicz.
  • server-rendered Content ist weiter sehr wichtig für SEO.
  • Prerendering birgt aufgrund der unterschiedlichen Inhalte die Gefahr von Cloaking. Abhilfe schafft dabei Isomorphic (Universal) JavaScript, was aber ebenso einige Nachteile mit sich bringt.
  • Die Herausforderungen bezüglich JavaScript SEO benötigen neue Ansätze, die aktuell nur wenig vorhanden sind.Suchmaschinenanbieter müssen dafür mehr Transparenz gewähren und Toolanbieter (z.B. ScreamingFrog) müssen nachrüsten, um den Anforderungen gerecht zu werden.
  • Suchmaschinenanbieter müssen dafür mehr Transparenz gewähren und Toolanbieter (z.B. ScreamingFrog) müssen nachrüsten, um den Anforderungen gerecht zu werden.

Alle Erkenntnisse finden sich im Blogartikel von Artur Kosch.

Frag Google, frag Johannes Müller

Auch auf der SEOkomm stellte sich John Müller von Google den vielen Fragen der Konferenzbesucher. Wir haben es uns nicht nehmen lassen und die Chance ergriffen, John Müller ebenfalls eine Frage zu stellen.

Müssen URLs mit Parametern, wie zum Beispiel Filterseiten und Sortierseiten, noch per robots.txt vom Index ausgeschlossen werden oder erkennt Google das mittlerweile automatisch?

Crawlingbudget ist genügend vorhanden. Die meisten Webseiten können umfänglich gecrawlt werden. Wenn es darum geht, Seiten sauber zu indexieren, empfiehlt Müller lieber nicht mit der robots.txt Datei zu arbeiten, sondern lieber mit rel-Canonical und mit der Parameter-Funktion in der Search Console. Das Problem bei der robots.txt Datei ist, dass, wenn jemand auf eine parametrisierte URL verlinken will, dann ist dieser Link auch per robots.txt blockiert.

Obwohl Seiten mit Canonical Tags belegt sind, landen sie trotzdem im Index. Haben Canonical Tags überhaupt noch einen Wert und wie kann man vermeiden, dass die Seiten indexiert werden?

Durch Canonical Tags werden Seiten geclustert, die ähnliche oder gleiche Inhalte haben. Die relevanteste Seite wird dann rausgesucht. Canonical Tags, Sitelinks und Internal Links dienen dabei als Kriterien für die Relevanzbewertung. Man sollte also sichergehen, dass alle Signale auf die zu indexierende Seite zeigen. Sollte dennoch eine andere Seite indexiert sein, ändert dies nichts am Ranking.

Mobiler Index und responsiver Content: Ist nun nur noch der Content relevant, den der mobile Crawler findet?

Das ist abhängig von der Umsetzung. Werden die Inhalte per CSS ausgespielt, wird beides indexiert. John Müller empfiehlt, in der mobilen Version nicht nur einzelne Worte einzukürzen, sondern lieber Sätze oder Absätze.

Mehr Conversions, User Signals und UX –Nils Kattau

User Experience ist eines der Buzz Words, die einem immer häufiger begegnen. SEO und UX überschneiden sich in einigen Bereichen. Darum ist es sinnvoll, sich mit dieser Thematik näher auseinanderzusetzen. Nils Kattau erklärte dem Auditorium anhand eines Cases wichtige Basics, um die Nutzerfreundlichkeit zu verbessern und so höhere Conversionraten zu erzielen. Angefangen mit optischen und inhaltlichen Verbesserungsmaßnahmen, um eine Webseite für den User aussagekräftiger und attraktiver zu gestalten, bis hin zum Prozess für die datengetriebene Umsetzung der Conversionoptimierung. Um heraus zu bekommen, wie der Nutzer die Seite wahrnimmt, empfiehlt Kattau, das Feedback Polls- Tool von hotjar zu nutzen. Basierend auf diesen Daten können so die Inhalte und Elemente einer Seite optimiert werden. Zum Beispiel lassen sich so mögliche „objctions“ der Nutzer identifizieren. Bei der Umsetzung der Optimierungsmaßnahmen empfiehlt Kattau ein schrittweise, gut geplantes A/B-Testing durchzuführen, dafür geeignet ist Google Optimize.

Unser Fazit

Logfile Analysen, GSC Fetch & Render, Machine Learning sowie das Tool Gephi – das sind für uns die Buzzwords der diesjährigen SEOkomm in Salzburg. Die Auswahl an Vorträgen bzw. Themen war vielfältig und mit unserem ersten Besuch auf der SEOkomm sind wir sehr zufrieden, sodass wir auch im nächsten Jahr den etwas weiteren Anfahrtsweg auf uns nehmen werden. Die Veranstaltung war sehr gut organisiert und wir konnten aus den Vorträgen viele Inspirationen für unsere eigene Arbeit mitnehmen und brennen nun darauf, diese sofort in die Tat umzusetzen.

Diese Beiträge könnten Sie auch interessieren

Julia gehört seit September 2016 dem Projecter Team an. Zu Beginn startete sie als Praktikantin, wurde anschließend Werkstudentin und ist seit September 2017 Trainee in den Kanälen Affiliate Marketing und Suchmaschinenoptimierung.


Einen Kommentar schreiben

* Pflichtfelder