Projecter auf der Campixx 2019 – Unser Recap

geschrieben am in der Kategorie Events von

zu sehen Nico mit einere Powerpointpräsentation auf der Campixx 2019

Zum elften Mal trafen sich über 500 SEO-Interessierte in alljährlicher Manier in Berlin zur SEO Campixx 2019. Das diesjährige Motto „The Search Core“ versprach auf jeden Fall einen interessanten Austausch während sowie zwischen den Vorträgen.

Projecter war mit Julia und Nico als Speaker ebenfalls auf der SEO Campixx vertreten. So brachen wir in aller Frühe und bei strahlendem Sonnenschein auf in Richtung Berlin Müggelsee.

Nico war als Speaker bereits zum ersten Slot des Tages dran. Mit seinem Local SEO Thema vertrat er ein Nischenthema auf der SEO Campixx. Dementsprechend groß war das Interesse und der Raum prall gefüllt. Es dauert auch keine 10 Minuten, da meldeten sich die ersten Stimmen aus dem Publikum. Man merkte deutlich, dass Bedarf an Austausch und Weiterbildung besteht.

Voller Vorfreude über neuen und spannenden Input aus den anderen Vorträgen haben wir ein paar Perlen für euch rausgepickt.

Relaunch – kein Grund zur Panik

Aus Neugier schauten wir uns den Vortrag von Katrin Diener (TWT Online Marketing) zum Thema „Chancen und Risiken beim Relaunch“ an. Die Hörer des Vortrags erhielten einen Einblick, wie man strukturiert an einen Relaunch herangeht und welche Analysen in den einzelnen Phasen gemacht werden müssen.

Am Ende des Vortrags entstand eine kleine Diskussion darüber, welches wohl die beste Variante wäre, um Webseiten mit Parametern von der Indexierung auszuschließen. Bei der Verwendung der Parameterverwaltung in der Search Console schieden sich die Geister. Einige haben gute Erfahrung mit der Ausschlussfunktion gehabt andere wiederum weniger. Die robots.txt zu nutzen ist definitiv nur eine Notlösung, hier sind sich alle einig. Am effektivsten ist es die Parameter-URLs mittel PRG-Pattern auszuschließen.

Auch die Frage danach, wie lange Weiterleitungen überhaupt aktiv bleiben müssen, taucht vermutlich bei fast jeden Relaunch-Vortrag auf. Gerade dann, wenn bereits ein zweiter Relaunch ansteht, möchte man ja unnötige Weiterleitungsketten gerne vermeiden. Ein Blick in die Serverlogs kann hier die notwendige Erkenntnis liefern. So kann der Website-Betreiber schauen, ob Bots noch auf die alten URLs zugreifen. Sollte das nicht der Fall sein können die alten Weiterleitungen entfernt werden.

Data Driven Mindset für SEOs

SEOs arbeiten jeden Tag mit vielen Daten aus verschiedenen Tools (Google Analytics, Search Console usw.). Stefan Fischerländer appellierte an die Zuhörer mehr mit den Daten zu machen. Was können mir die Daten alles verraten? Welche weiteren Analysen ermöglichen sie? Des Weiteren zeigte er auch an mehreren Beispielen, dass man die Herkunft der Daten stets kritisch untersuchen sollte, wenn Analysen durchgeführt und Empfehlungen daraus abgeleitet werden.

Seinen Vortrag startete er mit einem Crash-Kurs zum Thema Regression und Korrelation. Anhand der aktuellen Bundesliga-Tabelle zeigte er, wie man mit Hilfe von bereits existierenden Daten die Punkte eines Vereins auf einem bestimmten Bundesliga-Tabellenplatz voraussagen kann. Diesen Fall übertrug er dann auf einen SEO-Fall. Mit Regression kann nämlich auch berechnet werden, welche Klickrate bei welcher Ranking-Position zu erwarten ist. Werden diese mit den realen Werten verglichen, können SEOs Potenziale für bestimmte Suchbegriffe und Webseiten identifizieren.

Julia als Speaker zum Thema LocalSEO auf der Campixx 2019Ein weiterer spannender Fall war die Nutzung des Jaccard-Koeffizienten um herauszufinden, ob Produkte zu häufig in mehreren Kategorien vorkommen. Dafür müssen alle Produkte mit ihren IDs und ihren Kategorien aufgelistet werden. Der Jaccard-Koeefzient berechnet dann einen Wert für die Ähnlichkeit von den untersuchten Kategorien. Er hat stets einen Wert zwischen null und eins. Stefan gab noch den Ratschlag, dass alles unter einen Wert von 0,4 in Ordnung wäre. Alles darüber weist eine höhere Ähnlichkeit auf.

Das letzte Beispiel war ein Konkurrenzvergleich von Automarken. Mit den Daten aus den Social Media Kanälen, Search Console und Google Ads können die Marken in einer 4-Felder-Matrix aufgezeigt werden, wer ein Social Hero/ Loser oder ein Brand Hero/ Loser ist.

Den ersten Konferenz-Tag beendete Julia mit ihrem Vortrag zum Thema Fallstricke bei einem Relaunch-Projekt. Nach sieben Relaunch-Projekten im Laufe des letzten Jahres hatte sie eine Menge Tipps und Empfehlungen im Gepäck.

How to survive Angular

Benjamin Rücker stand vor der Relaunch-Herausforderung eine internationale Website in eine JavaScript-App zu überführen. Um eine Website mit mehreren länderspezifischen Subdomains in eine JavaScript-App zu überführen, musste er mehrere Schwierigkeiten überwinden.

Den ersten Hoffnungsschimmer gab es für ihn als serverseitiges Rendern für Angular angekündigt wurde. Beim Rendern tauchen nämlich gleich mehrere Probleme auf. Zum einen rendert Google noch mit einer vier Jahre alten Version (Chrome 4.1), weswegen HTML und JavaScript abwärtskompatibel sein muss. Das nächste Problem ist, dass Google JavaScript-Apps in zwei Phasen rendert. Stellt Google nämlich beim ersten Besuch fest, dass viel JavaScript auf der Webseite liegt, wird die Indexierung verschoben bis der Crawler erneut auf die Webseite kommt um auch das JavaScript zu crawlen. Das kann unter Umständen auch schon mal Wochen dauern.

Das nächste Problem ist, dass Angular nicht mit Trailing Slashes umgehen kann. Diese werden beim Pre-Rendering entfernt, sowohl in der Browserbar als auch im DOM. Die einzige Lösungsmöglichkeit, war durch Manipulation des HTML-Codes während des Pre-Renderings. Die Trailings Slashes werden via RegEx wieder angehängt. Diese Lösung ist jedoch nicht optimal und kann nur bei selbstentwickelten Pre-Rendering umgesetzt werden.

Die wichtigsten Tipps von Benjamin Ruecker:

  • Immer alles mit Chromium 41 testen und auch die Developer dazu erziehen, dies zu nutzen.
  • Idealerweise wird die App mit Dummy Content auf einer Testdomain ausprobiert.
  • Das Pre-Rendering sollte auf der Testumgebung auch live sein.
  • Gelöschte Inhalte auch aus Pre-Rendering Files löschen.
  • Nur das Rendern lassen, was Sinn macht.

Abschließend gab Rücker folgenden Tipp: Wenn man die Wahl hat, sollte man sich nicht für die Umsetzung einer Website mit Angular entscheiden. Es gibt immer noch einige Probleme, für die sie noch keine saubere Lösung gefunden haben. Für Tools ist Angular aber deutlich besser geeignet.

Local SEO in der Praxis

Jan Hoffmann, Inhouse SEO Manager bei der Hamm Reno Gruppe GmbH, und Michael Möller, Team Lead SEO bei der MSO Digital zeigten in ihrer Session, welche Herausforderungen sie bei der lokalen Suchmaschinenoptimierung von 300 Reno Filialen meistern mussten.

Die Ausgangsituation war, dass Reno für lokale Suchanfragen nicht auffindbar war. Um das zu ändern, wurden sämtliche Maßnahmen in Angriff genommen, die bei der lokalen Optimierung wichtig sind:

  • Google My Business Einträge für alle 300 Standorte
  • Backlinks über Branchenverzeichnisse mit Hilfe des Tools uberall
  • Optimierung der Standort-Seiten auf der Reno-Website.

Die Erkenntnis aus ihrer Arbeit war, dass Local SEO an sich kein Problem und schnell erfassbar ist. Die Dimensionen, also die Anzahl der Standorte, sorgen dann für die große Herausforderung. Um das Ziel dennoch zu erreichen, hatten sie einen schönen Ansatz: Sie haben die Filialleiter bei der Optimierung direkt einbezogen. So sollte jede Filiale anhand einer Anleitung Bilder von der Filiale machen, die dann im Google My Business hochgeladen wurden.

Zusammengefasst: Wenn die Stakeholder an einem Strang ziehen, weil das Potenzial für jeden einzelnen klar kommuniziert und verinnerlicht wurde, dann sollte der Local SEO Umsetzung nichts im Wege stehen.

Custom Extraction mit Screaming Frog

Mit viel Charme und Witz stellte Sabine Langmann vor, wie man mit dem Screaming Frog und der X-Path-Funktion zielgerichtet Informationen aus der eigenen Webseite oder die der Mitbewerber ziehen kann. Sie stellte vor, wie man zum Beispiel das Erscheinungsdatum von Artikeln oder die Anzahl von Überschriften auf einer Seite via Custom Extraction und X-Path auslesen kann. Am Beispiel von unserem Blog zeigte sie, wie man sich eine Liste mit allen Blogartikeln ziehen kann.

eine Powerpointpräsentation auf der Campixx 2019

Nach zehn Vorträgen, vielen spannenden Gesprächen mit SEOs in den Pausen und einem tollen Abendprogramm verließen wir die schöne SEO Campixx Location am Müggelsee. Wie auch die letzten zehn Jahre hat das Team um die SEO Campixx eine hervorragende Arbeit geleistet um ein vielfältiges und interessantes Programm auf die Füße zu stellen.

Nico und Julia vor einem Banner der Campixx 2019

Julia war von September 2009 bis Januar 2017 Teil des Projecter Teams.

Einen Kommentar schreiben

* Pflichtfelder