SEO Auslese Juli 2015

geschrieben am in der Kategorie SEO von

SEO-Auslese Projecter GmbH

 

Auch im Juli war bei Google & Co. nichts von einem Sommerloch zu spüren. Der Panda rollt und rollt und rollt. Auch die SEO Szene hat fleißig analysiert und spannende Berichte veröffentlicht.

Rankingfaktoren 2015

Searchmetrics hat seine neue, aktuelle Studie mit den Rankingfaktoren 2015 veröffentlicht.

Spannende Erkenntnisse daraus:

  • Die Relevanz von Backlinks nimmt ab (wichtiger sei heute reales „Link Earning“)
  • User Experience spielt im Rahmen der Onpage Optimierung eine immer bedeutendere Rolle
  • Das Keyword verliert als Rankingfaktor an Bedeutung. Immer häufiger ranken Webseiten für ein Keyword auch ohne dieses im Body/der Description zu haben.
  • Holistischer Content wird immer wichtiger. Auch hier ist weniger das einzelne Keyword relevant als die Verschmelzung einer Vielzahl relevanter Randthemen zu einem Topic. Entsprechend steigt auch die durchschnittliche Wortanzahl.
  • Der Zusammenhang zwischen Keyword Domain und guten Rankings ist gesunken.

Neuigkeiten von den Suchmaschinen

Google Panda 4.2 rollt aus

Am Wochenende um den 18./19.07. hat Google mitgeteilt, dass ein Google Panda Refresh ausgerollt wurde. Das Rollout wird allerdings sehr sehr langsam vollzogen, sodass es noch kaum nennenswerte Veränderungen der Rankings nach sich gezogen hat. Bislang hat sich der Panda also noch nicht gezeigt.

Das Rollout wird sich wohl auch noch über mehrere Monate ziehen und mögliche Änderungen weiterhin nur langsam voranschreiten. Vor allem Seitenbetreiber die mit dem Panda 4.0 Update abgestraft wurden, sollen während des Rollouts von Panda 4.2 Veränderungen feststellen können.

Nachrichtenwelle von Google zu CSS und Javascript Dateien

Ende Juli hat Google über die Search Console eine Welle an Nachrichten an Webseiten verschickt auf deren CSS und Javascript Dateien nicht zugegriffen werden kann.

Google warnte davor, dass solche blockierten Dateien ggf. zu schlechteren Rankings führen können.

Betroffene Webmaster sollten also prüfen, ob Ordner oder einzelne Dateien per robots.txt oder über den X-Robots-Tag in der htaccess ausgeschlossen werden und diese dann zur Indexierung freigeben.

Kleine Sites brauchen keine Sitemap

John Müller erklärte laut Tagseoblog, dass Sitemaps für kleinere Webprojekte keinen Rankingvorteil bringen. Eine kleine Website umfasst laut Müller weniger als 10.000 Unterseiten. Wenn eine saubere URL-Struktur und eine ordentliche Strategie für interne Verlinkungen vorliegt, hat der Googlebot auch ohne Sitemap kein Problem jede Seite zu finden.

Martin Mißfeldt weist aber zu Recht daraufhin, dass mit einer Sitemap der Crawl viel leichter zu steuern ist und bestimmte Seiten dadurch priorisiert werden können. Für Video Inhalte empfiehlt er in jedem Fall eine Video Sitemap, da Google in der Video Suche nach wie vor nur solche Inhalte zu listen scheint, die in der Sitemap aufgelistet sind.

Update bei Googles Autocomplete API

Google stellt bei der Suche Daten zur Autovervollständigung zur Verfügung. Diese Daten haben über die Jahre einige Entwickler für Keyword Tools verwendet. Die dafür verwendete API war allerdings inoffziell und von Google nicht freigegeben.

Nun hat Google offiziell bekannt gegeben, dass Zugriffe auf diese API ab dem 10. August 2015 eingeschränkt werden sollen.

Bei der kostenpflichtigen Nutzung der benutzerdefinierten Suchmaschine von Google (CSE) für die eigene Webseite wird es weiterhin möglich sein , die automatische Vervollständigung im Rahmen der Suchfunktion zu nutzen.

Für Entwickler von Tools zur Generierung von Keyword Ideen ist die Einschränkung der API allerdings keine gute Nachricht.

Keine Rankingnachteile bei generischen Top-Level-Domains

John Müller hat in einem Beitrag auf dem Google Webmastercentral Blog veröffentlicht, dass Google i.d.R. keine Unterschiede zwischen den neuen generischen Top Level Domains (gTLD) und bekannten TLDs wie .com machen wird. Ländercode Top Level Domains (ccTLDs) wie .uk oder .de geben Google allerdings nach wie vor einen Hinweis, „dass die Webseite im jeweiligen Land wahrscheinlich relevanter ist.“ Neue geographische gTLDs wie .london werden zumindest als gTDL und nicht als ccTDL eingestuft und haben hier auch in der geographischen Zuordnung weder Vor- noch Nachteile zu anderen gTDLs.

Bing mit Problemen bei neueren https Technologien

Bing hat offenbar Schwierigkeiten mit neuerer https Technologie. In der Folge sind die Seiten für Bing nicht mehr crawlbar. So wirkt sich also die von Google empfohlene Umstellung auf https negativ auf den Bing Traffic aus.

Insights und Tests aus der Branche

MozCon 2015

Mitte 2015 hat die US Agentur Moz die MozCon durchgeführt. Wir haben einige spannende Inhalte, die im Zusammenhang mit der Konferenz veröffentlicht wurden, zusammengetragen.

Moz hat die Übersicht zu den Erfolgsfaktoren der lokalen Suche aktualisiert . Die Übersicht zeigt u.a. die Wichtung der verschiedenen lokalen Rankingfaktoren, sowie eine Liste der 50 relevantesten Faktoren für das Ranking in der lokalen organischen Suche und den Faktoren, die sich negativ auf die Positionierung in der lokalen Suche auswirken können.

Lokale Suche- Karte (SEO)

Quelle: https://moz.com/ugc/mozcon-2015-answers-to-questions-on-back-to-the-future-with-local-search-presentation

 

Ein Blick in die Glaskugel: Peter Meyers spannende Slides zu seinem Vortrag zum Thema „Surviving Google in 2020“ findet ihr hier.

Rand Fishkin hat hier einen spannenden Überblick zu den Trends im Onpage SEO zusammengestellt.

Meta Referrer Tag bei Umstellung von http auf https

Das die Umstellung von http auf https zu Rankingvorteilen führen kann, ist schon lange bekannt. Moz weist aber auch noch einmal auf die Nachteile der Umstellung hin. Dazu gehört z.B. dass durch die notwendigen Weiterleitungen und den damit verbundenen Dämpfungsfaktor zunächst Rankingverluste zu erwarten sind.

Moz weist außerdem auf einen Fakt hin, der häufig aus dem Blick gerät. Wenn der Traffic von https auf eine nicht sichere http Seite geht, werden keine Referrer Daten übergeben. Hier kann der Meta Referrer Tag eingesetzt werden. Hierbei können sich nur alle Webmaster gegenseitig unterstützen. Je mehr Webseiten den Meta Referrer Tag nutzen, desto transparenter wird die Herkunft des Traffics für den Betreiber der verlinkten Zielseite.

Tools

Das Magazin t3n hat eine Studie veröffentlicht, welche SEO, SEA und SMM Tools die Online Marketer verwenden.

Inken Kuhlmann berichtet in einem sehr interessanten Artikel von den 10 größten Analytics Sünden und wie diese verhindert werden können.

Screaming Frog hat für seinen SEO Spider 4.0 eine Integration von Google Analytics vorgenommen. Damit werden z.B. Analysen von verwaisten Seiten noch ein ganzes Stück einfacher. Der Crawling Geschwindigkeit scheint die neue Anbindung nicht zu schaden.

Verbreitung strukturierter Daten im Web

Johannes Beus fasst in seinem Beitrag zusammen, wie weit verbreitet strukturierte Daten im Web sind. Dazu wurden 65 Milliarden URLs hinsichtlich ihrer Schema.org Auszeichnungen analysiert. Am weitesten verbreitet sind die Auszeichnungen Blogposting, Blog, Person und Breadcrumb.

Content Marketing

Franz Keim hat auf seinem Blog einen sehr hilfreichen Artikel zur Generierung von Content Strategien aus den Daten der internen Suche verfasst. Hier werden sehr gute Taktiken vorgestellt, um die interne Suche besser zur Optimierung des Webseiten Contents zu verwenden.

Spannende Erkenntnisse zum Einsatz von Content Promotion liefert die t3n aus eigener Erfahrung.

Jan Cerny hat auf ranking-check.de eine sehr gute Übersicht zu Tätigkeiten beim Content Management im Rahmen des Content Marketings veröffentlicht.

Jetzt die Auslese als monatlichen Newsletter abonnieren!

Diese Beiträge könnten Sie auch interessieren

Luisa betreut als Account Managerin Kunden im Affiliate Marketing und bei der Suchmaschinenoptimierung. Sie freut sich auf neue Meinungen und einen regen Austausch.

Einen Kommentar schreiben

* Pflichtfelder

  1. Das mit dem Sitemap ist eigentlich schon länger so, dennoch finde ich dass jeder eine Sitemap Einbindung haben sollte.
    „Die Relevanz von Backlinks nimmt ab “ Ja aber leider sind Sie immer zu stark. Content VS Backlinks und die Backlinks siegen locker, ich hoffe das die Backlinks weiterhin an Stärke verlieren und das Ranking besser berechnet wird. Guter Beitrag übrigens 🙂

  2. Link Earning – dieses Link verdienen oder auch wie Sumas es sagen Seiten für Benutzer machen und alles andere kommt von allein ist ja alles Quark.
    Man kann eine noch so tolle Seite machen, ohne sie selbst bekannt zu machen wird diese wohl nie laufen.
    Ob Google das nun Link Earning nennt und andere es Linktausch nennen ist eigentlich egal. Die Seite wird nur bekannt wenn man 1 eine tolle Seite für Benutzer macht und 2. diese zunächst einmal selbst bekannt macht.