SEO Rankings & SEO Traffic

S

In meiner Umgebung kommt es immer mal wieder vor, dass sich jemand mit viel Mühe tolle SEO Positionen in den SERPs zu „erarbeitet“ und dann kommt die Enttäuschung. Es kommt nicht so viel Traffic wie erhofft! Man verläßt sich manchmal zu sehr auf das „External Keyword Tool“ von Google. Man traut gerade bei diesem Tool dem Unternehmen Google deutlich mehr zu als es an der Stelle an sinnreichen Informationen liefern kann oder möchte. (Und ich spreche hier nicht von dem Fall wo der „Broad“ Traffic angeschaut wird und man deswegen total daneben liegt.)

Also hier nun ein paar Erklärungsansätze dafür, warum geschätzter SEO Traffic trotz echter / erreichter SEO Rankings manchmal nicht so viel ist, wie man es erhofft hat

  • Das External Keywords Tool (https://adwords.google.com/select/KeywordToolExternal) und Google Trends (http://www.google.de/trends?q=keyword1%2Ckeyword2) schätzen, dass das Verhältnis der Keywords zueinander oft komplett unterschiedlich ein. Mir scheint es, als ob Google Trends da deutlich näher an der Wahrheit liegt.
  • Bei Google werden Suchanfragen unter anderem durch Bots getätigt. Die Klicken natürlich nicht. Traffic ist da auf dem Keyword aber dennoch.
  • Das Keyword Tool von Google gibt evtl auch Infos / Zahlen mit rein über das Content Netzwerk? Also wenn irgedwo im Content Netzwerk auf ein Keyword bezogen was eingespielt wird, wird das als Suche nach dem Keyword interpretiert. Ist natürlich dann nicht über SEO Positionen holbar so ein Traffic …
  • Man kennt ja oft diese Heatmaps auf den Google Serps, die ungefähr so aussehen ( http://eyetools.com/blog/images/google/eyetools_google_search.jpg ) und von denen leitet man dann diese Daumenregeln ab, dass man 40% des Traffics bekommen sollte auf dem Keyword, wenn man die Position 1 hat. Bei Keywords mit viel Traffic und viel Werbetreibenden schiebt Google uns leider Anzeigen über die ersten SEO Ergebnisse. Da gehen dann die meißten Klicks hin. Ist halt mehr im Interesse von Google. 😉
  • Dann hat Google frisch die SEM Anzeigen zur Rechten näher an die organischen Ergebnisse und zieht dadurch wieder Klicks von dort ab.
  • Everflux – also die ewige Bewegung in den SERPs. Vielleicht war man nicht die ganze Zeit auf der gleichen Position oder eben nicht auf allen Datacentern.

Das waren meine Erklärungsansätze. Welche weiteren könnte es geben?

Über den Autor

14 Kommentare

  • zunächst einmal bestätigung, sowohl die inkonsistenz zwischen trends/insights/keyword tool als auch zwischen KW-tool und realität kann ich nur bestätigen. ich sehe 2 hauptgründe:

    1. „gattungskeywords“/generics: insbesondere bei übergreifenden keywords wie „bekleidung“ oder „zeitschriften“ fasst google dem anschein nach oft keywords hinzu, die das ergebnis verfälschen. ein wenig besser wird es durch die umstellung auf „exact match“. Tauchen auch dann noch falsche Volumina auf, ist das ergebnis umso verwirrender.

    2. insbesondere die Ads über den organic listings greifen vermutlich erhebliches volumen ab.

    Die effektivste Messung ist meiner Meinung nach nach wie vor die Schaltung einer Stichproben-Kampagne zur Validierung der Keyword-Volumina. Schaltet man sämtliche Keywords exact+broad findet man nicht nur neue hidden champions, sondern sieht auch was hinter den angeblichen cash cows wirklich steht. letztlich heißt ein großes volumen an ad-impressions jedoch leider noch nicht, dass auch platz 1 der organic viel traffic erhält. das bleibt oft eine frage des SERP-layout.

  • Der eigentliche Seitentitel spielt sicher auch mit ‚rein.

    In den organischen Suchergebnissen kann man nicht mal eben AdWords-mäßig ‚rumtesten und die CTR optimieren. Nichtsdestotrotz können einem hier viele Klicks flöten gehen, wenn der Titel nicht zum Klicken anregt.

  • Außer AdWords-Anzeigen sicher auch Universal Search. Google Base, News, Bilder, Videos usw. konkurrieren immer stärker mit den klassischen Ergebnissen und stehen oft noch vor Position 1.

  • Am einfachsten ist es immer noch einfach mal das Keyword bei AdWords zu buchen. Wenn es wirklich ein so spannendes Keyword ist, dass man meint speziell darauf optimieren muss, sollte es das einem schon Wert sein.

    Außerdem würde ich Google Insights for Search Google Trends vorziehen. Die scheinen mir zwar die selben Daten zu nutzen, aber Insights hat eine niedrigere Schwelle ab der etwas angezeigt wird. Wenn dann Trends aber nix anzeigt, ist das Keyword wohl Müll …

  • Ich stelle immer wieder fest, dass die tatsächliche Suchhäufigkeit eines einzelnen Keywords von vielen falsch eingeschätzt wird. Bei der Suchhäufigkeit eines einzelnen Keyword spielen in meinen Augen alle Kombinationen mit rein, in denen es gesucht wird. Wer also nur auf das einzelne Keyword abziehlt und die starken Kombinationen nicht berücksichtigt, verzichtet auf jede Menge Traffic.

  • Ein weiterer Grund für SEO Traffic-Fehleinschätzungen kann sein, dass 1 oder 2 Anbieter, oberhalb des eigenen natural listing Treffers, bereits die optimale Antwort (z.B. Preishammer, einmalige Leistung oder der Trend-Gag schlechthin) für die Suchanfrage bieten, so dass der Klick auf Platz 2/3 einfach gar nicht mehr passiert.

    Title, Description und Universal Search Ergebnisse sind sicherlich auch Faktoren, die Traffic Prognosen aushebeln können.

    Ich halt´s sonst auch wie Jojo – ich prüfe auch mit Insight for Search quer, wenn ich wissen möchte, welche der Keys lt. Google External tatsächlich die Interessantesten sind. Die external Werte können trotz Einstellung auf Übereinstimmungstyp=Exakt nur Anhaltspunkte bieten, um Keywords untereinander zu vergleichen. Als absolute Werte sind sie meist eher unbrauchbar …

  • @finaleweisheit: Sehe ich genau so und auch meine Erfahrungen belegen dies. Habe mich zuerst auf einzelne Keywords spezialisiert. War nicht erfolgreich, also bin ich etwas in die Breite gegangen und habe mehr Kombinationen berücksichtig. Und siehe da, es gab bedeutend mehr Traffic.

  • Warum führen Bots Suchanfragen durch? Wenn, dann kann ich mir schlecht vorstellen, dass diese in den Stats mitgezählt werden. Aber zu dem ob die Zahlen stimmen oder nicht, habe ich auch noch ein kleines Beispiel:
    Ich habe eine Webseite zum Thema Catering. Diese wird vorwiegend über regionale Begriffe gefunden. Über Einwort-Keywords ist sie gar nicht zu finden. Ich habe auf der Seite täglich etwa 600 uniques und bin im Alexa-Rank auf rund 73.000 (GER). Dann gibt es eine Seite, die ist unter den Wörtern „Catering“ und „partyservice“ sehr weit oben, also zwischen Platz 1 und 4. Laut Googles Keyword-Tool kommen zu diesen Wörtern mtl. etwa 4 Mio. Suchanfragen. Diese Seite hat im Alexa allerdings nur Rang 103.000. Muss demnach also weniger 600 uniques am Tag haben. Jetzt ist die Frage: Wer spinnt mehr – Google KeywordTool oder Alexa??

  • Ein weiterer Aspekt kann die Sprache sein. Gerade für Anglizismen oder englische (eingedeutschte) Begriffe scheint das Keywordtool nicht eindeutig zu arbeiten. So sind diese Begriffe häufig mit übertriebenen Suchanfragen belegt( auch wenn man für Deutschland sucht )

  • Über das Keyword Tool von Google die passenden Keywords und damit den erhofften Traffic zu finden ist nicht immer ganz einfach. Ich habe mittlerweile mit Synonymen zu den eigentlichen von mir ins Auge gefassten Keywords mehr Traffic.

    @Nils: Auf die Zahlen von Alexa würde ich mich wie in diesem Beitrag beschrieben überhaupt nicht verlassen, die Daten sind eher „Schätzungen“ als eine Auswertung „echter Daten“.

  • Ich glaube nicht das das Google Tool da fehlschätzungen liefert und das Bots gezählt werden so ein Quatsch. Die meisten SEO-Tools die für SEO-Companys erstellt wurden nutzen das Keyword-Tool von Google.

von Andre