Recap: Analytics Summit am 13.11.2014

geschrieben am in der Kategorie SEO von

Am 13.11. fand der 2014er Analytics Summit im Hamburger Curio-Haus statt. In angenehmer Atmosphäre trafen sich hunderte Daten-Interessierte und tauschten sich über Erfahrungen mit Google Analytics und auch anderen Tracking-Tools aus. Natürlich gab es auch zahlreiche Vorträge, deren Inhalte und Grunderkenntnisse im Folgenden kurz zusammengefasst werden sollen.

Die Kernthemen waren Attribution, Datenschutz und Integrierung von Data-Intelligence Units in Unternehmen.

 

Leo Schirmer – Marketingssteuerung in verschiedenen Unternehmensphasen

In seinem Vortrag berichtete Leo Schirmer darüber, wie man sich der Optimierung der Marketingmaßnahmen in Abhängigkeit vom Geschäftsmodell nähert. Anhand von Use-Cases (unterschieden sich vor allem in der Wieder-Kauf-Rate) schilderte er die theoretischen und strategischen Vorüberlegungen (Welches Ziel verfolge ich? Wie erreiche ich dieses Ziel?) anhand von Deckungsbeitragsrechnungen und stellte dann die praktische Umsetzung vor.

Die unterschiedlichen Ziele der beiden Fälle zeigten sich z.B. durch unterschiedliche Formeln:

  1. DB3 > 0 (Deckungsbeitrag 3)
  2. CAC < CLV (Customer Akquisition Cost, Customer Lifetime Value)

 

Da auch offline Daten in die Überlegungen einfließen sollen, empfahl Leo, deren Wahrscheinlichkeit für einen Einfluss auf das Kaufverhalten z.B. anhand von Traffic-Peaks nach Werbespots zu schätzen und dann auf das mathematische Modell umzulegen.

Im Vortrag stand weniger das „Wie bekomme ich die Daten?“ als mehr das „Wie verwende ich die Daten?“ im Vordergrund.

Fabian Möschter – Google Analytics in Action

Nachdem die Abteilung um Fabian über lange Zeit seine Marketing-Maßnahmen anhand von Orders und Traffic gerichtet hat, wurde eine Data Intelligence Unit im Unternehmen implementiert und verwaltet die Daten nun professionell.

Fabian beschäftigte sich mit bestimmten Punkten der Customer Journey (CJ) und wie man die Webseite (auch Marketingmaßnahmen) entsprechend der CJ ausrichtet, indem man datengetrieben handelt. So ging es um die Look2Book Rate, welche unter anderem durch ein Eventtracking der internen Suchanfragen ausgewertet wurde.

Felix Schmidt – Digital Analytics im Enterprise Umfeld

In diesem Vortrag ging es weniger um die An- oder Verwendung von Daten, sondern darum, wer wie mit den Daten umgehen kann. In großen Unternehmen mit Digital Units unterscheidet Felix Schmidt in drei Gruppen:

  • Core-Nutzer (diejenigen, die die Daten direkt abrufen, beschaffen und aufbereiten)
  • Professionals (diejenigen, die die Daten auswerten und strategische und operative Entscheidungen daraus ableiten) und
  • Management (diejenigen, die Kennzahlen im Powerpoint-Format bereitgestellt bekommen)

Analytics Summnit 2014

Die Grund-Erkenntnis des Vortrages ist, dass man sich immer darüber klar sein muss, an wen man Daten in welcher Form liefert und welches Verständnis das Gegenüber für die Daten hat. Man muss also dem Management keine Feinheiten über das Tracking-Verfahren nahe bringen, sondern sollte sich an dieser Stelle auf wichtige KPIs wie Umsatz oder Traffic beschränken. Um herauszufinden, welches Daten-Verständnis der Partner hat, bedarf es einer großen Portion „Zuhören, Zuhören, Zuhören!“.

Eine weitere Weisheit des Vortrages: „Man muss dem Management das Gefühl geben, dass sie die Kontrolle über Dinge haben, die sie nicht verstehen!“. Das möchte ich an dieser Stelle so stehen und wirken lassen. 😉

Marko Maas – Mit Daten Geschichten erzählen

Der wohl unterhaltsamste Vortrag eines bekennenden Nerds und Datenjournalisten. Marko Maas – Grimmepreis-Träger – baute auf sympathische Art und Weise Stories aus Daten. So stellte er zahlreiche Projekte vor, bei denen er mit seiner Firma OpenDataCity aus langweiligen Datenkolonnen spannende Geschichten und „Aufreger“ produziert. Welche Nebeneinkünfte haben Politiker? Wie bewegen sich Besucher der re:publica? Wo verbringt Malte Spitz seinen Tag? All diese Fragen klärte Marko durch Visualisierung von großen Datensätzen. Wer das selbst nachvollziehen möchte, findet unter https://opendatacity.de/portfolio/ einen Ausschnitt der Projekte.

Damit findet der Journalist Marko Maas Stories, die sonst keiner bemerkt und leistet damit seinen Teil zur Aufklärung und Transparenz der Politik.

Michael Vietze – Agile Analytics

Unter dem Titel „Agile Analytics“ zeigte Michael Vietze, wie man sich anhand von Daten schnell auf Veränderungen einstellen, oder kurzfristig entdeckte Potenziale schnell aufarbeiten kann. Dabei empfahl er das folgende Vorgehen:

  1. Feststellung des Problemes
  2. Ableiten, welche KPI das Problem messen kann.
  3. Ideen entwickeln, wie man die KPI verbessern kann (Hypothese)
  4. Festlegen, welche Analyse die Hypothese unter 3. belegen oder widerlegen kann
  5. Maßnahmen ableiten

 

In praktischen Beispielen zeigte Michael, wie man sich der Analyse operativ nähert. Dies kann z.B. durch Segmente und Custom Dimensions passieren

Die Tipps, die er dem Publikum mitgab:

  • Nicht von den Möglichkeiten der Tools ausgehen, sondern die eigenen Anforderungen festlegen und dann prüfen, welches Tool die Daten beschaffen kann und welche Anpassungen nötig sind.
  • Immer step-by-step arbeiten und keinen der oben genannten Punkte überspringen.

Jonas Tiedgen – Enhanced E-Commerce in der Praxis

Das Enhanced E-Commerce-Tracking ist eine Weiterentwicklung des klassischen Google Analytics, welches speziell für E-Commerce-Seiten entwickelt wurde. Die Reports können darin leicht an die Bedürfnisse eines Shop-Betreibers angepasst werden (z.B: Daten auf Produkt-Detail- oder Kategorieebene, Gutscheintracking, Markentracking, …).

Die Implementierung erfolgt über den Google Trag Manager und kleine Anpassungen am Trackingpixel. Man muss allerdings beachten, dass die Berichte nicht genau wie die herkömmlichen GA-Reports zu handlen sind sondern schon speziell sind.

Eine wichtige Erkenntnis, welche es für einige Nutzer schon wieder unattraktiv machen könnte: Das Tracking ist rein Hit-basiert, kann also keine Unique-User von wiederkehrenden Nutzern unterscheiden. Somit kann die Datenbasis natürlich verzerrt werden.

Oliver Schwarzweller – User Journey mit und ohne Attributionsmodellierung

Oliver Schwarzweller stellte in seinem Vortrag eine Möglichkeit vor, wie man sich ein erfolgreiches (und gerechtes) Attributionsmodell erarbeitet und in die Trackingsoftware überträgt. Die Ziele dabei können z.B. sein:

  • Deduplizierung von 3rd Party Cookies
  • Integration von PostView Conversions in GA
  • Identifizierung von Werbechannels mit Initialkontakt zur Allokation von Werbebudget

Das erarbeitete Modell wurde gänzlich mit Hilfe des Google Tag Managers implementiert und umfasst zahlreiche Regeln, die anhand von Betrachtungen der Customer Journey festgelegt wurden. Dies wäre z.B. dass ein Klick stärker ist als ein View, in aktiven Warenkorb-Sessions kein Cookie mehr überschrieben werden darf usw. Außerdem wurden z.B. Kanäle, auf welche man keinen direkten Einfluss hat (Referrals, organischer Traffic, Direct-Traffic) von den Betrachtungen ausgeschlossen.

Durch die Einführung des Modells wurde dann bspw. festgestellt, dass der SEM-Kanal einen Boost von +45% erhielt, während der Affiliate-Kanal einen Einbruch von -66% erlitt. Diese Tatsache ist allerdings der Partnerbasis geschuldet.

Haupterkenntnis: Die meiste Arbeit fließt in die Planung und Strategie des Modelles. Die Umsetzung ist dann weniger aufwändig.

Aspa Lekka – Advanced Attribution Modeling

Einer der englischsprachigen Vorträge beschäftigte sich auch mit Attributionsmodellen. Hier ging es weniger um das große Ganze, sondern darum, wie man das Budget optimal auf die einzelnen Kontakt-Punkte in der Customer Journey verteilt.

Die beiden Ansätze, die Aspa detailliert vorstellte, waren der Shapley-Value, welcher der mathematischen Disziplin der Spiel-Theorie entspringt und die Survival Analysis, welche ihre Wurzeln in der Medizin hat.

Mit dem sehr mathematischem Ansatz des Shapley-Wertes brachte Aspa frischen Wind in den Saal, was mich als Mathematiker natürlich sehr gefreut hat. So erklärte sie sehr detailliert, wie man einzelnen Kanälen eine Wertigkeit zuweisen kann, indem man ihr Zusammenspiel mit anderen Kanälen anhand aller erfolgreichen Customer Journeys analysiert. Wohlgemerkt beruft sich das Modell auf historische Daten und ermöglicht in dieser Form keinen Blick in die Zukunft. Aus diesem Grund sollte hier auch regelmäßig neu evaluiert werden.

Dem Gegenüber stand die Survival Analysis, welche Stichproben analysiert. Diese werden durch die Anwendung von statistischen Werkzeugen hochgerechnet und am Ende hat man auch hier einen Wert für jeden Kanal.

Stefan ist seit November 2011 Teil des Projecter-Teams. Mit seinem Interesse an der „Maschine“ Internet ist er dort auch gut aufgehoben. Stefan ist ursprünglich als Werkstudent auf der Suche nach Praxiserfahrung zu Projecter gekommen und hat im Oktober 2011 sein Bachelor-Studium der Angewandten Mathematik abgeschlossen. Nach Traineeship und vier Jahren als Account Manager leitet Stefan seit Februar 2016 den Affiliate Kanal und das Analytics Team.

Einen Kommentar schreiben

* Pflichtfelder