Wie man die Ursache eines Verkehrsverlustes feststellt

Wie man die Ursache eines Verkehrsverlustes feststellt
Suchmaschinen aktualisieren regelmäßig ihre Algorithmen und kämpfen um die "Reinheit" eines Themas. In dieser Hinsicht ist die Situation, in der wir in unseren Google-Analytics-Konten (im Folgenden GA) den Rückgang des organischen Suchverkehrs sehen, nicht ungewöhnlich.

Suchmaschinen aktualisieren regelmäßig ihre Algorithmen und kämpfen um die "Reinheit" eines Themas. In dieser Hinsicht ist die Situation, in der wir in unseren Google-Analytics-Konten (im Folgenden GA) den Rückgang des organischen Suchverkehrs sehen, nicht ungewöhnlich. Wie lassen sich mögliche Gründe für den Rückgang des Datenverkehrs über die Google-Suchmaschine ermitteln? Das erste, was wir tun müssen, ist, um sicherzustellen, dass die Zahl der Besucher hat sich verringert, weil der organischen Suche Google. Wenn der Verkehr von allen Suchmaschinen stark zurückgegangen ist, könnte dies auf technische Probleme oder einen saisonalen Rückgang zurückzuführen sein. Um dies zu tun, wählen Sie die GA-Vergleichszeiträume vor und nach dem Absinken des Verkehrs:

Zielgruppe_Übersicht_-_Google_Analytics

und machen Sie folgendes in GA 'Akquisition' => 'All traffic':

Gesamter_Verkehr_-_Google_Analytics

Der Rückgang des Traffics von "google/organic" um 86 % deutet also darauf hin, dass das Problem bei Google liegt.

Technische Probleme

Trotz der Tatsache, dass die meisten Fälle von technischen Fehlern zu einem Verlust des Traffics aus allen organischen Quellen führen, gibt es Situationen, in denen nur Google auf einige von ihnen reagiert. Betrachten Sie die grundlegenden technischen Fehler, für die die Position der Website reduziert werden würde.

Die Website ist in der Robots.txt von der Indexierung ausgeschlossen

So könnte es aussehen: User-Agent: Googlebot Disallow: / oder User-Agent: * Disallow: / Kategorie / Im ersten Fall ist die Website vollständig durch die Indizierung nur der Roboter Google, im zweiten Fall, geschlossen Abschnitt / Kategorie / Indizierung für alle Suchmaschinen. Manchmal geschieht es aus Versehen und Nachlässigkeit. Überprüfen Sie immer die robots.txt.

Technische Doppelungen

Einige CMS generieren unterschiedliche Takes, insbesondere bei der Verwendung von Filtern oder der Online-Suche. Außerdem ist die Hauptseite sehr oft an mehreren Stellen verfügbar. Zum Beispiel, www.site.com und site.com oder www.site.com und www.site.com/index.php. In diesem Fall müssen Sie die 301-Weiterleitung konfigurieren.

Nicht konfigurierte oder defekte 301-Weiterleitung

Selten, aber doch gibt es Probleme mit der 301-m-Weiterleitung. Zum Beispiel wird nach der Änderung der Struktur die 301 konfigurierte URL-Weiterleitung übersehen, was zu Positions- und Trafficverlusten führt. Es kann auch vorkommen, dass nach der Änderung der Domain und richtig konfiguriert die 301-Weiterleitung es schließlich fliegt. Kümmern Sie sich um die Korrektur von 301-Weiterleitungen (die Antwort des Servers kann mit dem Plugin für Firefox überprüft werden).

Eine große Anzahl von Broken Links

Eine große Anzahl von Links, die zu Seiten mit 404-Fehlern führen, kann das Ranking einer Website beeinträchtigen. Sie müssen diese Links loswerden. Mit den GoogleWebmastersTools (im Folgenden GWT) können Sie die Anzahl und den Ort der defekten Links ermitteln.

Webmaster_Werkzeuge_-_Crawl_Errors 404

Die Download-Geschwindigkeit ist niedrig und die Website ist nicht verfügbar

Google reagiert sehr negativ auf eine langsame Ladegeschwindigkeit von Seiten (mehr als 5 Sekunden). Erfahren Sie die Download-Geschwindigkeit durch GA:

Website-Geschwindigkeit_Übersicht_-_Google_Analytics

Die Probleme können entweder das Hosting oder den Standort betreffen. Jeder Fall muss einzeln betrachtet werden. Außerdem könnte die Website zu dem Zeitpunkt, an dem GoogleBot kommt, nicht erreichbar sein. In diesem Fall können Sie in GWT unterschiedliche Meldungen erhalten:

Webmaster_Tools_-_Alle_Meldungen

Wenn das Problem auf den Server zurückzuführen ist, sollten Sie darüber nachdenken, den Hosting-Anbieter zu wechseln.

Interne Optimierungsfehler

In den meisten Fällen, wenn es Fehler auf der Website der internen Optimierung, Verringerung des Verkehrs mit der Verhängung des Filters Panda verbunden sind. Es ist eine grundlegende Google-Filter, der zur Bekämpfung von minderwertigen internen Optimierung soll. Auch begann vor kurzem, um Nachrichten über die Verhängung von Sanktionen für die manuelle aggressive Spam Beispiele spammed Seiten erhalten:   Wenn Sie diese Nachricht erhalten, ist es genug, um loszuwerden, Spam auf der betroffenen Seite. Zu definieren Google Panda Filter heute ist schwierig. Früher wurde dieser Filter an bestimmten Daten ausgeführt, und wenn der Rückgang des Datenverkehrs mit der Startzeit zusammenfiel, bedeutete dies, dass Panda auf Ihre Website kam. Heute ist dieser Algorithmus in den Hauptindex integriert und läuft jeden Monat in einem Zeitraum von 10 Tagen, aber niemand weiß, wann er beginnt und wann er endet. Wir empfehlen daher, die Fehler in der Seitenoptimierung zu analysieren, bei denen der Traffic nachgelassen hat, und sie mit denen zu vergleichen, die sich nicht verändert haben oder bei denen der Traffic gestiegen ist. Die Position der Website könnte bei folgenden Fehlern der internen Optimierung verringert werden: Nicht einzigartiger Inhalt Heutzutage misst Google diesem Faktor eine große Bedeutung bei. Der Text auf der Website muss einzigartig sein. Und wenn er nicht einzigartig ist, dann muss die Website originell sein. Wenn die Website nicht die primäre Quelle ist, gibt es zwei Möglichkeiten, sich aus dieser Situation zu befreien:

  • Einreichen einer Beschwerde bei Google wegen Urheberrechtsverletzung über eine spezielle Seite;
  • den Text neu zu schreiben.

Enge Varianten Nach der letzten Aktualisierung von Panda 4 wurde beobachtet, dass Google die Position der Website nicht nur für direkte Doppelungen, sondern auch für sinnvolle verringert. Wenn Sie eine Website mit sinnverwandten Texten haben, empfehlen wir die Verwendung des Attributs rel = canonical mit Verweis auf die Hauptseite. Seiten in Zusatzergebnissen Wenn der Algorithmus feststellt, dass die Seiten unrentabel sind, fügt er sie zu den so genannten Zusatzergebnissen hinzu, die im Hauptindex nicht sichtbar sind. In der Regel werden die zusätzlichen Ergebnisse an eine Seite mit doppeltem Inhalt gesendet. Um zu überprüfen, wie viele Seiten sich im Hauptindex befinden, ist es möglich, bei Google die folgende Struktur einzugeben: site: name.com/&, den Gesamtindex - site: name.com. Wenn man den Hauptindex vom Gesamtindex abzieht, erhält man die Anzahl der Seiten in den ergänzenden Ergebnissen. Titel und Beschreibung verdoppeln Dies ist ein klassischer Fehler, der vermieden werden sollte, da für Google korrekt ausgefüllte Titel und Beschreibungen zu den vorrangigen Rankingfaktoren gehören. Zu viel Werbung Werbung sollte nicht mehr sein als der Hauptinhalt. Außerdem sollten die Werbeblöcke die Wahrnehmung der grundlegenden Informationen nicht beeinträchtigen. Bei einer großen Anzahl von Werbung kann Google das Ranking der Website verringern. Unbequeme Struktur Schlechte Benutzerfreundlichkeit, verwirrende Navigation, uninformativer erster Bildschirm sind ebenfalls Faktoren, für die Sie einen Panda-Filter erhalten können. Finden Sie doppelte Titel und Meta-Tags in GMT:

Webmaster_Tools_-_HTML_Verbesserungen

Keyword Stuffing Schwemme von Text-, Titel- und Keyword-Meta-Tags sind ein direkter Weg zum Filter. Darüber hinaus können häufige Veröffentlichung von starken Tag auch in Richtung der Sanktionen zu spielen. Wenn bei der Analyse der Website finden Sie einen Datenfehler, der wahrscheinlichste Ort, um Filter anzuwenden Panda. Korrigieren Sie den Fehler, und nach einiger Zeit, sollte Google Verkehr zurück.

Fehler der externen Optimierung

Heute ist Google ein aggressiver Kampf gegen unnatürliche Referenzmasse. Traffic-Verluste aufgrund von Sanktionen für das Referenzprofil sind sehr typisch. Es gibt zwei Arten von Sanktionen: automatische (Penguin) und manuelle. Automatische Sanktionen werden während des Update-Algorithmus Penguin verhängt. Wenn das Datum mit einem Rückgang des Datenverkehrs zusammenfällt, können wir mit hoher Wahrscheinlichkeit sagen, dass die Website von einem Filter überlagert wird. Sie können die Daten aller Aktualisierungen auf Ihrer Website einsehen. Die Gründe für die Verhängung von Sanktionen sind die gleichen: - Gekaufte Links; - In der Ankerblatt; - ein Anker herrscht mit dem Schlüsselwort; - Horse Racing Referenz Gewicht (sowohl Anstieg und Rückgang); - Cross-Cutting-Links aus der Vorlage der Website (vor allem die Fußzeile); - Subprime-Spender spammed Links und kleine Anwesenheit; - nicht-thematischen Spendern. Um manuelle Sanktionen zu entfernen, genügt es, ein Referenzprofil zu reinigen und Ihre Website zur Überprüfung einzureichen. Wenn die Links nicht gegen die Empfehlungen von Google verstoßen, werden die Sanktionen aufgehoben. Automatische Filter können erst nach der nächsten Aktualisierung des Algorithmus entfernt werden. Drawdown kann auch mit Änderungen der Algorithmen oder einer Zunahme des Wettbewerbs verbunden sein, so bleiben Sie dran für Informationen über das Internet und die Ausgabe des TOP. So haben wir die möglichen Ursachen für den Rückgang des Verkehrs untersucht. Zusammenfassend lässt sich sagen, dass Sie, wenn Sie eine Website haben, die einen Rückgang des Traffics aufweist, diese in erster Linie auf manuelle Maßnahmen und Pinguin, d.h. auf offensichtliche mögliche Ursachen überprüfen sollten. Wenn es weder manuelle Maßnahmen noch Penguin auf der Website gibt, können Sie zur Analyse der technischen Fehler und zur weiteren Betrachtung der internen Optimierung einer Website übergehen. Analysieren Sie die Website immer in ihrer Gesamtheit. Vielleicht gibt es mehrere Gründe, aber eine vollständige Analyse führt Sie zum Erfolg.