Mittwoch, 9. April 2014

Tag 4: Keyword-Recherche, Google AdWords

Keyword-Recherche

  • Mit welchen Keywords ist man auf welcher SERP-Position?
    Bevor man sich entschieden hat, hat man mindestens 200 Wörter gegengetestet. Davon wählt man die 10 besten aus und testet dieses nochmal.
  • Es gibt Tools, die diesen Prozess erleichtern (Keyword-Ideen finden und analysieren) - z. B. Google Keyword-Planer (Google AdWords --> Tools). Danach legt man die Domain fest.
  • Alles mit > 1.000 Suchanfragen im Monat hat ordentlich Konkurrenz! "Wettbewerb" bedeutet hier "Anzeigenwettbewerb"
  • Für kleine Projekte:
    Suchanfragen mit 200 bis 500 Suchanfragen wählen, da hat man Erfolge.
    --> kann man sich per Filter anzeigen lassen 
  • Dann kommt der Content. Zunächst: Baustellen-Seite.
  • Erstmal checken, welche organischen Suchergebnisse auf der SERP (Search Engine Result Page) erscheint, wenn ich meine gewünschten Keywords eingebe.

Konkurrenzseiten verstehen

  •  dazu SeoQuake installieren!
  • Auf der Google-SERP erscheint Info-Zeile unter Suchergebnissen.

Page Rank

  • Klausur! 
  • Kombination aus Anzahl und Stärke/Vertrauenswürdigkeit der Backlinks.
  • Wert von 0 - 10; je mehr, desto besser!
  • (USA Government Site hat PR von 10 (alle Auswandererer), ansonsten fast nix! Möglicherweise Adobe.) Kleine Projekte erreichen PR 3 - 5. Danach wird es immer noch schwerer, noch weiter nach oben zu kommen.
  • Aber: PR (allein) sagt nichst darüber aus, wo Seite auf SERP erscheint
  • PR stellt sich immer auch im Vergleich zu anderen Seiten dar
  • Links werden unterschiedlich bewertet:
    Backlink einer Uni-Seite sind z. B. sehr hochwertig und bringen mich schneller nach vorne. Mit Backlinks von kleinen Seiten, die selbst nur geringen PR von 1 oder 2 haben, dauert es länger. 
  • Ziel: Generierung vertrauenswürdiger Backlinks!
  • Es gibt über 200 Gründe für die SERP-Position.
    Diese sind nur vage bekannt - Google hält den Algorythmus geheim.
  • Wenn man bei Google Begriff eingibt, werden nur die Google-Server durchsucht - nicht das Internet! (z. b. alle unsere Rechner zählen zum Internet hinzu! Das Internet sind Millionen kleine Rechner, die miteinander vernetzt sind.) Das ist das Problem einer neuen Seite, die im Google-Index noch nicht drin ist.
  • Wenn die einzelne Unterseite auf der SERP einen gerinen Page Rank haben, können wir diese Seite evtl. schlagen, auch wenn sie von einer großen Top-Level-Domain kommt (z. B. welt.de).
  • Die einzelnen Seiten einer Website haben unterschiedliche Page Ranks! Z. B. kann die Startseite einen geringeren PR haben als eine besonders relevante Unterseite (z. B. Produktseite im Shop). Ergo: Für externe Verlinkungen die tatsächlich relevante Seite weitergeben!

Crawler/Suchmaschinenroboter

  • Suchmaschinenroboter geht von Seite zu Seite und guckt, ob sich auf der Seite was verändert hat. Checkt, was hinter den Links liegt. 
  • Wenn dort eine neue Domain liegt, wird diese erkannt und dem nächsthöheren Server gemeldet (großer Bruder). Der Crawler selbst liest die Seite noch nicht aus. (571 neue Websites werden pro Sekunde weltweit erstellt!) 
  • Dieser nächsthöhere Server schaut sich dann die Seite genau an (auch mal erst nach ein paar Tagen). 
  • Der Text wird in Hexadezimal-Code umgewandelt, da sich Zahlen leichter/schneller vergleichen lassen . Wenn diese Zahl der von bereits bestehenden Websites ähnelt, kommt die Seite nicht in den Index --> Duplicate Content.
  • Der Crawler muss immer erkennen können, wenn es auf meiner Seite etwas Neues gibt. Der Crawler sucht nicht immer komplette Site durch!  Dazu Sitemap-XML erstellen, die dem Crawler zeigt, was es Neues gibt (ist nicht die HTML-Sitemap, die man auf Seite sieht!).

Alexa.com


  • Alexa-Rank wird in SeoQuake-Leiste angezeigt. Berücksichtigt u. a. Besucherzahlen, Verweildauer etc.
  • Je größer Alexa-Rank, desto eher kann man Seite angreifen.
  • Alexa-Rank < 10.000: Seite ist sehr stark und auf der SERP schwer zu schlage,!
  • Keywords / Phrase in: Titel, Domain, (Text)?
I = Index = Seiten auf der Site


Domainname 

  • checkdomain.de
  • Checken, ob Domainname noch verfügbar ist.
  • Besteht die Domain aus mehreren Wörtern, sollten diese mit Bindestrichen getrennt werden
    --> kann Crawler leichter auslesen
  • woorank.com
    Tool zur Seiten-Analyse zwecks SEO
    Eigene Seite + Konkurrenz-Seiten analysieren!
    --> Ziel Nr. 1: 50 Punkte erreichen (viel mehr geht am Anfang nicht, da die Seite ja z. B. noch nicht extern verlinkt ist und so Punkte sammeln kann)

Blog 

  • sollte auf der eigenen Domain verortet sein --> positiv für SEO 
  • Mit einem Blog produziert man schnell Unterseiten!
  • Foren: Jeder Beitrag wird auf Unterseite abgelegt --> zählt als Einzelseite
  • Wenn man extern auf anderen Seiten kommentiert, führt das auf lange Sicht zu Klicks, weil Besucher über die Kommentare auf meine Seite kommen.

Links

  • No-follow = Links, die von Google nicht gewertet werden (Juice)
  • Links: Juice fließt. Links sind in alle Richtungen wichtig - ich muss auch mal was nach außen abgeben :)
  • Inbound- vs. Outbound-Marketing
    Video auf MarketSamurai (Leopard-Fotograf-Story) (Inbound-Marketing = Köder auslegen)

HTTP-Statuscode

  • 302-Umleitungz. B. wenn Seite kaputt ist und ich vorübergehend mit Weiterleitung arbeiten muss: 302-Umleitung leitet nur den Besucher weiter, das Vertrauen der Seite bleibt erhalten!
  • 500: Internal Server Error
    Schlecht, weil man nicht weiß, was passiert ist
    --> Schritte rückgängig machen, die man direkt vor Fehler gemacht hat
  • 404-FehlerseiteErscheint statt: "Die Seite, auf die Sie zugreifen möchten, existiert nicht. Bitte wählen Sie eine Seite vom Hauptmenü."
    --> Schlecht für Usability
    --> schlecht fürs Ranking
  • Duplicate Content vermeiden:
    Vom Hoster bekommt man immer 2 Domains: mit und ohne www. Google erkennt das als Duplicate Content! --> Weiterleitung einrichten! Ansonsten kommt man nicht nach oben.
  • Vertrauensindikationen
    sollten möglichst hoch sein - liegen aber am Hoster und können von uns nicht direkt beeinflusst werden.
  • W3C-Validierung 
    Fehler im HTLM-Code) --> Schwergewicht für die PR!
    Fehler lassen sich finden mit validator.w3.org
  • Verwirrende Wörter vermeiden
    z. B. alles, was mehr als eine Bedeutung haben kann: Staubecke, Bank --> lieber konkret definieren: Gartenbank
  • Short-Tail vs. Long-Tail-Keywords
    - Short-Tail (1-2 Wörter): mehr Suchanfragen, aber auch generischer
    - Long-Tail: spezieller, zielgruppenspezifischer. Ist bei Anzeigen teurer - denn wenn jemand nur "Schuhe" sucht, weiß ich ja gar nicht, ob der auch welche kaufen will!

Link-Tipps


Klausur: Wie würden Sie bei Keyword-Recherche vorgehen? 

Zunächst muss ich mir Gedanken machen, wie mich jemand findet.
(Tools reinwerfen: MarketSamurai, SEOquake etc.)

 Z. B.:  Mit Keyword Planer schauen, mit welchen Wörtern gesucht wird.
Dann Konkurrenz ausfindig machen und analysieren. 


Für kleines Projekt ca. 200 Keywords checken.
Daraus die 10 wichtigsten/besten definieren. 
Das/die stärkste/n wähle ich als/im Domain-NamenDavon das wichtigste wird meine Domain. 
Die anderen Keywords kann ich dann auf die verschiedenen Seiten verteilen. 
Ich kann aber jede Seite nur auf ca. ein Keyword optimieren, weil man sonst quasi jedes zweite Word ein Keyword sein müsste!!

Dann Werbung definieren/schalten etc.

Keine Kommentare:

Kommentar veröffentlichen