Aufdecken von internem Link-Potenzial mit der Screaming Frog SEO Spider

Interne Verlinkung spielt nach wie vor eine wichtige Rolle bei der Performance der eigenen Webseite. Als „Durchblutung“ der Seite schicken interne Links Nutzer und Linkpower quer über die Domain und priorisieren damit Unterseiten. Somit ist die interne Verlinkung nicht nur ein wichtiger Faktor für die Nutzerführung auf der Seite sondern hat auch Einfluss auf die organischen Rankings.
Damit bei der Verlinkung keine Potenziale links liegen gelassen werden oder „unwichtige“ Seiten zu stark verlinkt werden, möchte ich eine Möglichkeit schildern, mit deren Hilfe ihr einen guten Überblick über den Status der Link-Struktur erhaltet. Was man dazu braucht: Screaming Frog SEO Spider und Website-Daten (z.B. durch Google Analytics).

Ziele

  1. Unterseiten entdecken, welche bereits gute Traffic-Werte (nicht nur organisch) aufweisen und durch zusätzliche Verlinkung noch gepusht werden können.
  2. Verschwenderische Verlinkungen entdecken, die Linkpower an „unwichtige“ Seiten weitergeben.

 

Was wird benötigt?

  1. Liste aller URLs der Webseite (Bilder, CSS Dateien etc. können vernachlässigt werden)
  2. Analytics-Daten aller Unterseiten für einen möglichst großen Zeitraum

 

Vorgehen

Crawl-Setup

Zunächst soll die Seite gecrawlt werden. Dazu verwendet man am besten die Screaming Frog SEO Spider, welche in einer kostenlosen Version erhältlich ist. Diese Version kann allerdings nur 500 URLs crawlen. Eine Lizenz für die Vollversion kostet jährlich £99,00 und ist unter https://www.screamingfrog.co.uk/seo-spider/licence/ zu erwerben.
Um beim Crawl Zeit zu sparen wählt in der SEO Spider den Menüpunkt „Configuration“ > „Spider“. Dort wählt ihr alle unnötigen Typen wie Images, CSS, JavaScript und SWF ab. Alle anderen Einstellungen können beibehalten oder an Eure Bedürfnisse angepasst werden.
Einstellungen
Dann könnt ihr den Crawl starten.
Achtung: Achtet darauf, dass ihr mit dem Crawl die Seite nicht lahmlegt. Gegebenenfalls sollte der Crawl mit der Technik abgesprochen werden. In den meisten Fällen sollte aber kein Risiko bestehen. Wer sich unsicher ist, kann die Belastung für die Webseite mindern, indem im Menü „Configuration“ > „Speed“ die Anzahl der maximal gecrawlten URLs pro Sekunde beschränkt oder reduziert wird.
Gegebenenfalls sind mehrere Anläufe zum Crawl nötig, bis ihr die passende Konfiguration gefunden habt. So kann man z.B. unter „Configuration“ > „Exclude“ unnötige Unterverzeichnisse ausschließen.
Nach Ende des Durchlaufs, ladet ihr Euch den Report als Excel Tabelle (oder CSV) herunter.

Analytics-Daten

Wie schon angesprochen, sollen weiterhin Daten aus der Tracking-Software in die Analyse einfließen. Im Beispiel sollen das Daten aus Google Analytics sein. Wählt für ein möglichst aussagekräftiges Ergebnis z.B. Daten des vergangenen Jahres.
Also im Google Analytics den Zeitraum auswählen, dann in der linken Sidebar „Verhalten“ > „Website-Content“ > „Alle Seiten“ auswählen, 5.000 Zeilen anzeigen lassen und diesen Report exportieren.

Daten matchen

Nun sollen die beiden Reports gematcht werden. Ziel ist es, eine Tabelle mit den Spalten URL (Crawl), InLinks (Crawl) und Seitenzugriffe (Analytics) zu erhalten. Dazu werden alle überflüssigen Spalten der Crawl-Datei gelöscht und eine Spalte „Seitenzugriffe“ angehangen. Dort fügt ihr mittels der Funktion SVERWEIS die zugehörigen Daten der Spalte „Seitenaufrufe“ aus dem Analytics-Export ein.
Achtung: Google Analytics liefert die URLs ohne „http://domain.de“ aus. Um den SVERWEIS durchzuführen müsst ihr diesen Teil an alle URLs anfügen (z.B. mit Funktion VERKETTEN), sonst erhaltet Ihr Fehler.

Bewertung der Verlinkung

Da es hier um eine große Anzahl an URLs geht, muss man nun Kennzahlen finden, anhand derer man bewerten kann, wie gut oder schlecht eine URL verlinkt ist. Ich möchte die folgenden Kennzahlen verwenden:
Anteil der Links, welche die einzelne Unterseite bekommt. Berechnung: Anzahl interner Links der einzelnen URL geteilt durch Gesamtanzahl der internen Links (Summe der Spalte „InLinks“). Damit erhält man eine Einschätzung der Priorität einer URL innerhalb der Seite anhand der internen Verlinkung.
Anteil Traffic, den die einzelne Unterseite bekommt. Berechnung: Anzahl der Seitenzugriffe der einzelnen URL, geteilt durch den Gesamttraffic aller URLs (Summe der Spalte „Seitenzugriffe“). Damit erhält man eine Priorisierung der URLs nach Traffic.
Potenzial. Berechnung: Anteil Traffic, den die einzelne Unterseite bekommt geteilt durch Anteil der Links, welche die einzelne Unterseite bekommt.
Hohes Potenzial bedeutet in diesem Modell, dass die Unterseite bereits guten Traffic hat, aber verhältnismäßig schlecht verlinkt ist. Ordnet man nun die URLs absteigend nach Potenzial, findet man im oberen Teil der Tabelle jene Unterseiten, welche wohlmöglich durch eine zusätzliche Verlinkung noch weiteren Traffic generieren können, da sie ihre Relevanz bereits bewiesen haben.

Einschätzung des Potenzials

Nun ist es wichtig, den Kopf anzuschalten. 😉 Es liegt nun das Ergebnis einer ziemlich einfachen Analyse vor, welches Fehleranfällig ist und zahlreiche Parameter nicht einbeziehen kann.
Dennoch kann man z.B. folgende Regelung treffen:

Natürlich muss man für jede URL hinterfragen, ob das berechnete Potenzial das tatsächliche Potenzial wiederspiegelt. Dennoch ist die Ordnung der URLs nach der Kennzahl eine gute Erst-Sortierung.
Auswertung

Umkehrung des Modells – Verschenkte Linkpower

Natürlich kann man die Liste auch aufsteigend anordnen oder von unten an betrachten. Man findet dann als erstes jene URLs, welche unverhältnismäßig stark verlinkt sind. Hier kann man z.B. ableiten, dass ein bestimmter Link auf der Seite entfernt werden sollte.
Achtung: Kopf an! Das Impressum hat vermutlich einen schlechten Potenzial-Wert. Dennoch sollte man den Footer-Link nicht entfernen. 😉

Einschränkungen

Wie schon angemerkt, ist das Modell ziemlich einfach und kann deshalb nur eine grobe Einschätzung des Potenzials geben. Anhand der Priorisierung lässt sich aber schon eine Menge händische Arbeit sparen und man hat eine gute Auswahl der URLs für weitere Analysen.
Auch können natürlich beliebige weitere Kennzahlen einbezogen werden. Hier ist Kreativität gefragt. So könnte man z.B. die Anzahl der Klicks, die nötig sind, um die Seite zu erreichen mit einbeziehen oder sich nur auf organischen Traffic stützen.
Ich freue mich auf eure Ideen. 🙂

Abonnieren
Benachrichtige mich bei
guest
7 Kommentare
Inline Feedbacks
View all comments
trackback
Aufdecken von internem Link-Potenzial mit der Screaming Frog SEO Spider - E-COMMERCE-NEWS.NET
vor 9 Jahren

[…] Aufdecken von internem Link-Potenzial mit der Screaming Frog SEO Spider […]

Niko
Niko
vor 9 Jahren

Klasse Idee, setz ich gleich mal um. Statt screaming frog kann man wahrscheinlich auch die Webmaster Tools einsetzen.
1. keine Beschränkung auf 500 urls
2. Links auf noindex-Seiten werden bei den wmt ignoriert
3. wenn eine url von einer Seite mehrfach verlinkt ist, wird (glaube ich) nur ein Link gezählt (k.a. wie das bei screaming frog aussieht)
4. Javascript Links werden auch erkannt
lg

trackback
Der SEO-Blog-Wochenrückblick KW 5 - SEO Trainee | Ab hier geht´s nach oben
vor 9 Jahren

[…] Oftmals ist Website-Betreibern das Potenzial der eigenen Linkstruktur aber gar nicht bewusst. Der Projecter-Blog zeigt, wie man mithilfe von Screaming Frog SEO Spider und Daten aus Google Analytics eine gute […]

Ralf Schmidt, Hochzeitsfotograf
Ralf Schmidt, Hochzeitsfotograf
vor 9 Jahren

Vielen Dank für den tollen Tipp. Das werde ich gleich mal umsetzten. LG, der Ralf

trackback
Der SEO-Blog-Wochenrückblick KW 33 | SEO-Trainee.de
vor 9 Jahren

[…] der internen Verlinkung häufig nicht erkannt. Dazu hat der Projecter-Blog in dieser Woche einen hilfreichen Artikel veröffentlicht, der zeigt, wie man diesem unausgeschöpften Potenzial mithilfe des Screaming Frog […]

Mark
Mark
vor 6 Jahren

Sehr schöner Artikel, gefällt mir sehr.
Ein ähnliches Thema hatte ich bereits mit einen meiner Mitarbeiter und habe den Artikel direkt mal an ihn weitergeleitet.
Beste Grüße
Mark

Frank Metzemacher Fotograf
Frank Metzemacher Fotograf
vor 6 Jahren

Hallo Stefan,
ich bin durch Zufall auf deinen Blog gestossen.
Ich befasse mich viel mit SEO, jedoch merke ich das es noch so vieles zu lernen und entdecken gibt.
Vielen Dank für den Artikel..
VG aus Köln
Frank