Zukünftige Ranking Faktoren

Inspiriert von SEOOptimise .. Ranking Faktoren die man über oder unterschätzt.

Ranking Faktoren die WICHTIGER werden

Geschwindigkeit der Seite
Ein Faktor den Google massiv pusht. Benutzer mögen Seiten die schnell laden und haben keine Geduld für langsame Seiten. Konsequenz: Schnelle Server und kleine Dateigrößen bei Bildern, abgespeckter Quelltext etc. werden/sind relevante Faktoren.

Social Media
Dazu hatte ich ja schon was geschrieben. Zusammenfassend aber kann man sagen das Tweets und Retweets ebenso wie Facebook Likes das Ranking mehr und mehr beeinflussen.

Usability
Google versucht verstärkt seinen Suchalgorithmen eine “menschliche” Sicht zu geben. Das Panda Update mag da ein Schritt von vielen sein. Es wird versucht werden benutzerfreundliche Websites zu erkennen und von weniger gut benutzbaren zu unterscheiden.

Ausgehende Links
Wenn diese auf qualitativ hochwertige Websites und z.b. auf Authority Domains verweisen zeigt das saubere Quellenangaben, eine logische Verlinkung die den User weiterhilft und nicht zu letzt auch eine gute Nachbarschaft.

Brands
Starke Marken stehen seit einiger Zeit mehr im Fokus und man nimmt an das Google auch die Erwähnung des Markennamens im Web (auch ohne Link) in das Ranking mit einfließen lässt.

Google +1
Das Google Bewertungssystem für Webseiten. Man klickt den +1 Button wenn man etwas empfehlen möchte. Ein klarer Indikator das es sich hier um “besseren” Inhalt handelt.

Clickrate auf der SERP
Je mehr User auf ein Suchergebnis klicken .. desto ..
Man sollte sich also mühe geben TITLE Tag und die DESCRIPTION möglichst “animierend” zu gestalten.

Lesbarkeit
Auch hier ist Google wohl noch in einem frühen Stadium .. wird aber versuchen Texte nach Anspruch und Verständlichkeit zu untersuchen.

Thema der Seite
Suchmaschinen versuchen zu erkennen was das Hauptthema der Seite ist .. bzw. Themenverwandtschaft und Themenrelevanz der Artikel einer Website zu bewerten.

Alter der Seite
Recht einfach herauszubekommen .. aber ggf. ein Zeichen für aktuelle und neue Inhalte.

Linkwachstum
Viele Links in kurzer Zeit können auf sehr interessanten, aktuellen Inhalt hinweisen .. aber nur wenn dieses Linkwachstum organisch ist. Erkennt Google es als künstlich folgt die Strafe auf dem Fuß.

Deadlinkfaktor
Ebenso kann eine hohe Zahl an Deadlinks auf ein gewisses Alter bzw. nicht mehr gepflegte Website hindeuten.

Natürliches (Back) Link Profil
Feuert direkt gegen den klassischen SEO Linkaufbau. Eine normale Website hat ein sehr gemischtes Linkprofil, bestehend aus: Social Links, Bloglinks, Kommentarlinks, Nofollow Links usw. immer auf diverse Seiten innerhalb der Website. Diese Links sind über Jahre gewachsen .. manche sind weggefallen .. manche sind dazu gekommen etc. Man wird seine Seite also nicht mehr durch ein paar gekaufte Links von hochwertigen Seiten pushen können.

Ranking Faktoren die UNWICHTIGER werden

Keyword Domains
Idealerweise kam in der Vergangenheit das Keyword direkt im Domainnamen vor. Das funktioniert noch .. aber mit der inflationären Zunahme von Keyword Domains wird dieser Faktor weniger wichtig werden.

Exakt gleiche Backlink Texte
Ist schon schlecht .. wird schlechter werden. Google erwartet hier ebenfalls organische Texte. 30 mal exakt der selbe Linktext ist einfach auffällig.

Bestimmte Domainendungen
Können einfach kein Faktor für Ranking sein .. gerade im Zuge von vielen neuen TLDs in den nächsten Jahren.

Serverstandort
Kann ebenfalls kein Indikator mehr sein. Ich habe vor Jahren meinen ganzen Content von Deutschland in die USA umgezogen und konnte keine Veränderung im Ranking feststellen.

Textlänge: xxx Wörter
Gängiges SEO Seemansgarn: Der Text sollte zwischen xxx und xxx Wörter haben. Wieviel Wörter hat ein guter Wikipedia Artikel? Und vor allem wo rankt er?

Keyworddichte
Habe ich auch per Eigenversuch getestet .. bei einem 700 Wörter Text hatte ich das Keyword 4 mal erwähnt und habe dann schrittweise auf 12 erhöht. Es hat sich rein gar nichts im Ranking verändert.

META Keywords
Wenn ihr sie benutzt achtet darauf das es die selben sind wie im Text. Wenn nicht lasst sie weg.

Suchmaschinenoptimierung und HTML5

HTML5 soll zwar erst 2014 vom W3C endgültig verabschiedet werden .. allerdings implementieren Chrome, Safari und Firefox in ihren aktuellsten Versionen schon nahezu den gesamten Sprachraum von HTML5.

In wie weit Suchmaschinen schon explizit HTML5 Tags erfassen oder nicht bleibt abzuwarten. Einige Dinge lassen sich trotzdem schon dazu sagen:

Semanatik durch neue Tags

HTML5 ist wesentlich semantischer als seine Vorgänger. Durch viele neue Tags wie kann man Bereiche die derzeit oft nur schwer zu erkennen sind kategorisieren:

  • HEADER .. Kopf, Logo etc.
  • ARTICLE .. Hauptinhalt
  • ASIDE .. Sidebar
  • SECTION .. dedizierter Bereich
  • FOOTER .. Impressum etc.
  • NAV .. Navigation
  • DETAILS .. weitere Informatione

ARTICLE könnte zum wichtigsten Element für einen Crawler werden da hier der Hauptinhalt der Seite erwartet wird. In NAV erwartet der Crawler Links zu sämtlichen Hauptseiten einer Website. FOOTER spielt dann für die Indizierung weniger eine Rolle da hier nur rechtliche Informationen, Impressum und Kontaktdaten zu erwarten sind. DETAILS enthält weiterführende Informationen zum Artikel etc.

Semantik durch neue rel Attribute

Mit HTML5 kommen auch jede Menge neuer REL Attribute auf uns zu:

  • alternate .. alternative Version wie z.b. eine Druckansicht
  • author .. Link zum Autoren
  • bookmark .. Permalink
  • external .. externer Link
  • help .. Hilfeseite
  • license .. Lizenzbestimmungen
  • next .. zur nächsten Seite des Artikels
  • nofollow .. Crawler soll nicht folgen
  • noreferrer .. kein Referer senden
  • prefetch .. Browser soll schon mal das nächste Dokument cachen
  • prev .. zur vorhergehenden Seite des Artikels
  • search .. Link zur Suche
  • sidebar .. gute Frage
  • tag .. Keyword für das Dokument

Bei richtigem Einsatz könnten diese Attribute für Google sehr wertvoll sein bei der Indizierung und Bewertung einer Website. PREFETCH könnte auf die nächste Seite im Flow hindeuten. ALTERNATE ein Indiz für bewussten doppelten Inhalt. BOOKMARK ist der Permalink wenn es sich um ne dynamische Seite handelt usw.

Was macht Google?

Aus Crawler Sicht ist Google HTML5, bzw. semantische Auszeichnung vollkommen egal. Man wird kein besseres Ranking erzielen wenn man HTML5 semantisch korrekt einsetzt. Google will die besten Informationen zu einer Suchanfrage bieten. Ob die Seite da in völlig invalidem HTML 3.2 daher kommt juckt Google nicht .. solange die Seite zugänglich ist und Inhalt bietet wird sie auch ranken.

Trotzdem ist HTML5 gut für Suchmaschinen. Der CONTENT Bereich in einer Website ist meist durch ein DIV mit der ID oder KLASSE “content” definiert 🙂 .. ja .. schön wäre es. Im Grunde macht das doch jeder Webentwickler wie er möchte und Google kann sich nicht darauf verlassen.

Durch die verbesserte Semantik erhöht sich aber die Zugänglichkeit für den Crawler. Suchmaschinen müssen nicht erst durch irgendwelche Algorithmen erraten wo sich der Hauptinhalt befindet und können so Zeit beim crawlen sparen. Und bei den Millionen von Seiten die Google jeden Tag neu crawlt ..

Und nun?

HTML5 wird in den nächsten Jahren und vielleicht auch in Zukunft nicht wirklich wichtig für Suchmaschinenoptimierung sein, vor allem weil sich Google neutral verhalten wird und alle HTML Versionen weiter gleich behandeln wird.

Trotzdem sollte man neue Seiten schon so anlegen das man ggf. das Skelet relativ einfach gegen HTML5 Elemente austauschen kann. Dies erreicht man indem man einfach seinen DIVs die ID oder Klassennamen der HTML5 Elemente gibt.

Google könnte HTML5 aber auch fördern indem in ein paar Jahren Seiten die strikt auf HTML5 umgestellt haben einen kleinen Bonus im Ranking bekommen .. was aber sehr unwahrscheinlich ist. Eher kann ich mir vorstellen das HTML5 Seiten auf Wunsch öfter Besuch vom Crawler bekommen und damit schneller im Index landen .. aber das ist reine Spekulation.

Qualitativ hochwertige Websites

Im Zuge des Panda Updates wird das sicher noch zum Thema werden .. Google wird in Zukunft versuchen qualitativ hochwertige Websites (besser) zu erkennen und diese dann auch höher zu ranken.

Wie erkennte Google hochwertige Websites?

Das lässt sich konkret sagen .. denn Google hat sich quasi selbst gefragt was so eine Website ausmacht .. hier ein Auszug der Fragen:

  1. Würdest du dem Inhalt des Artikels/Blogposts etc. trauen?
  2. Wurde der Artikel von einem Experten bzw. sachkundigen Laien verfasst? Oder ist er sehr oberflächlich?
  3. Enthält der Artikel Rechtschreibfehler?
  4. Sind die Artikel für Leser geschrieben? Oder wird versucht ein gutes Ranking zu erzielen?
  5. Beinhaltet die Website einzigartige Inhalte, eigenen Forschungsergebnisse oder eigene Analysen?
  6. Hat die Website redundante Artikel mit Keywords die nur leicht variieren?
  7. Ist der Wert der Seite höher einzuschätzen als die anderen Suchergebnisse?
  8. Unterliegen die Inhalte der Website einer Qualitätskontrolle?
  9. Werden auf der Website unterschiedliche Sichtweisen berücksichtigt?
  10. Stammen die Inhalte von externen Autoren bzw. Contentproduzenten?
  11. Könnte man sich den Artikel in einem Printmagazin oder einem Buch vorstellen?
  12. Hat die Website viele Ads?
  13. Sind die Artikel kurz und gehaltlos?
  14. Würden sich Nutzer über das Suchergebnis beschweren?

Das habe ich mir jetzt nicht ausgedacht sondern das ist ein Auszug eines Blogposts von Amit Singhal einem Google Fellow.

Interessant deshalb weil einige gängige OnPage SEO Methoden darin Erwähnung finden. Einfache, billige und oberflächliche Texte möchte Google in Zukunft schlechter ranken. Außerdem zwingt Google uns dazu auf qualitativ hochwertige Inhalte Wert zu legen. Die 0815 SEO Textbox am Ende der Seite wird einen noch in den Index bekommen .. aber höchstwahrscheinlich nicht mehr gut ranken.

Zitat:

We’re continuing to work on additional algorithmic iterations to help webmasters operating high-quality sites get more traffic from search. As you continue to improve your sites, rather than focusing on one particular algorithmic tweak, we encourage you to ask yourself the same sorts of questions we ask when looking at the big picture.

Man will (richtigerweise) SEOs davon abbringen nach Schema F zu optimieren und Seiten nur für den Google Crawler “spannend” zu machen .. aber nicht für den User um den es eigentlich geht. Google empfiehlt sogar konkret billige und oberflächliche Inhalte entweder zu einem neuen, besseren Artikel zusammenzuführen oder den Artikel ganz zu löschen.

Bedeutet: Viele billige und einfache Beiträge können eine komplette Website im Ranking runterziehen auch wenn sich ein paar “gute” Beiträge darunter befinden.

Was erwartet Google?

Die Messlatte wird höher geschraubt .. korrekte TITLE Tags, Überschriften, ALT Tags, 200-300 Worte Text, 1-2 Bilder usw. sind zukünftig quasi nur noch die Pflicht von OnPage Suchmaschinenoptimierung. Die Kür werden anspruchsvolle, einzigartige Texte und Websites sein die (O-TON Google:) Ein einzigartiges Nutzererlebnis bereiten .. nicht mehr (bis jetzt) .. aber auch nicht weniger.

Fazit

Hohe Website Qualität ≙ Gutem Google Ranking

Besonders kommt das natürlich zum tragen wenn der Wettbewerb um ein Keyword sowieso schon hoch ist. Wo kein guter Content zu finden ist wird man auch in Zukunft mit einfacheren Texten und Websites noch ranken .. bei hart umkämpften Keywords wird es aber dann am Betreiber der Website liegen. Hochwertigen Inhalt zu erstellen ist in der Regel sehr zeitaufwendig. Und wer diese Zeit aufbringt bzw. bezahlen kann und will hat somit einen Vorteil.

Social Media SEO – Twitter

Social Media Suchmaschinenoptimierung .. ich nenne es jetzt einfach mal so .. scheint mit dem Panda Update in den Ranking Kriterien wichtiger zu werden.

Google durchsucht (soweit möglich) Social Media Plattformen wie Twitter, Facebook, Digg, delicio.us usw. In wie weit bis dato häufig verlinkte Webseiten auf solchen Angeboten ins Ranking geflossen sind bleibt Googles Geheimnis.

Allerdings scheint die Gewichtung seit dem Panda Update zugenommen zu haben .. das berichten zumindest mehrere US SEOs übereinstimmend.

Aus meiner Sicht eine logische Konsequenz: Websites / Blogartikel die des öfteren retweeted werden bzw. diverse “Gefällt mir” auf Facebook erhalten und deren Linkanzahl in Social Bookmarking Diensten rasant steigt, sind relevanter als Seiten / Artikel die gar nicht dort auftauchen.

Klar kann man Twitter, Facebook etc. spammen .. allerdings verläuft das immer nach einem gewissen Muster. Twitter Accounts die selbst keine Follower haben und retweeten wird Google identifizieren können ..

Aber erst mal auch egal .. Social Media Links, Likes, Retweets sind fürs Ranking relevant und werden wichtiger werden.

Konsequenz?

Man sollte sich eine Strategie zurecht legen wie man Social Media Kanäle bedient .. und ich meine jetzt nicht mit Links zumüllt sondern deren Besonderheiten etc. in sein SEO Konzept mit aufnimmt.

Beispiel Twitter

Ihr habt einen neuen Artikel ins Web gestellt der für eine bestimmte Zielgruppe spannend sein kann. Die Chance eines Retweets steigt wenn man eine kurze Beschreibung des Artikels in den Tweet mit einfügt und den richtigen Hash Tag verwendet. Man kann davon ausgehen das Google die Anzahl der eigenen Follower ebenso mit einfließen lässt wie die Anzahl der Retweets. Retweets von Accounts die viele Follower haben dürften hier auch eine höhere Gewichtung bekommen. Auch die Keywords die sich um die URL im Tweet befinden scheinen beachtet zu werden.

Hört sich abgefahren an .. wo ist der Beweis? -> SEOmoz hat es ausprobiert.

Ich persönlich traue Google da noch viel mehr zu. Ein normaler Twitternutzer wird jede Menge Tweets zu seinem aktuellen Status absetzen. Ebenso wird er diverse @Replys mit anderen Nutzern austauschen. Nur ab und zu wird er eine URL twittern und auch nur ab und zu retweeten. Der Großteil der Twitter User dürfte in etwa so viele Follower haben wie er Leuten folgt. Authority Twitterer (hab ich grad erfunden) dürften wesentlich mehr Follower haben als Leuten denen sie selbst folgen. Ich könnte hier noch Stunden weitermachen.

Fakt ist

Twitter ist sehr strukturiert und sehr gut analysierbar. Die meisten Inhalte auf Twitter sind öffentlich zugänglich und es ist absolut kein Problem ausführliche Statistiken anhand von Twitter selbst zu generieren.

Google nutzt das und wird es in Zukunft weit höher in das Ranking einfließen lassen als heute.

Google Panda Update – Zusammenfassung

Im Februar und April wurde ein Update des Google Suchalogrythmus durchgefüht .. das ganze nennt sich Panda Update und wurde zuerst in den USA und dann nach und nach auf allen englisch sprachigen Google Webseiten ausgerollt. In Deutschland steht es aktuell kurz bevor. In den USA waren ca. 12% der Suchergebnisse betroffen.

Warum das Update?

Google möchte in erster Linie bessere und relvantere Suchergebnisse für den User anzeigen. In den letzten Jahren sind viele sogenannter Content Farmen entstanden die mit billigen und schlechtem Content gut in den SERPs ranken .. diese sind nach dem Update in den USA von den oberen Plätzen verschwunden und teilweise gar nicht mehr zu finden.

Google geht es also in erste Linie um bessere Qualität in den Suchergebnissen.

Wer wird dabei verlieren?

  • Seiten mit übermäßigem Anteil an Werbung im Vergleich zum Inhalt
  • Contentfarmen wie z.b. wikiHow, eHow, Answerbag
  • Branchenverzeichnisse
  • Seiten die oft ihre eigenen Inhalte duplizieren
  • Seiten die oft ähnliche Inhalte duplizieren
  • Seiten die nur Inhalte aggregieren (Sekundärquellen)
  • Seiten mit übermäßig großen Header/Footer/Navigation Bereichen im Vergleich zum Inhalt
  • Seiten die leicht unterschiedliche Inhalte über viele Domains anbieten
  • Seiten mit hohen Absprungraten .. Google weiß ja wann ihr wieder sucht 🙂

Und wer profitiert?

  • Primärquellen, gute Newsportale
  • Seiten die den Fokus auf guten, qualitativ hochwertigen Inhalt legen (Texte, Bilder)
  • Seiten die wenig Ads schalten
  • Seiten die getwittert und in Social Media Plattformen breit verlinkt sind

Bisher ist das Panda Update noch nicht in Deutschland angekommen .. aber es kann jederzeit soweit sein. Google hat sich außerdem die Ergebnisse des Updates in den USA genau angeschaut und es ist damit zu rechnen daß das europäsiche Panda Update noch diverse Anpassungen und Verfeinerungen beinhaltet.

Bei SEOmoz könnt ihr das alles auch nochmal im Detail nachlesen.

jQuery – 9 – Sidebar Slide In – besser

Dieses SlideIn funktioniert zwar .. aber skaliert noch nicht .. ihr könnt es nur auf ein ID im DOM anwenden .. außerdem kann man die DOM Abfragen in jQuery noch reduzieren und das ganze somit beschleunigen (das merkt man zwar nicht) .. aber wir wollen ja hier sauberen Code verbreiten ..

Darum hab ichs mir nochmal vorgenommen und verbessert .. ihr könnt nun auf beliebig viele Klassen im DOM matchen .. dazu verwenden wir die .each Methode aus jQuery.

$(document).ready(function() {
  $(".slide-out").each(function() { 
    var slideOut = $(this);  
    slideOut.bind("mouseenter",function(){
      slideOut.animate({"right": "+=80px"}, "slow");
    });   
    slideOut.bind("mouseleave",function(){
      slideOut.animate({"right": "-=80px"}, "fast");
    });    
  });
});

Hier das ganze Beispiel .. und hier das CSS dazu

In meinen Beispiel verwende ich CSS3 .. kann man natürlich auch ohne machen .. aber dann ists nicht so shiny.

HTML5 – Canvas – Snake

Auf meinem Weg zum JavaScript Ninja .. falsch .. eigentlich wollte ich nur mit dem neuen HTML5 Element Canvas rumspielen .. am Ende habe ich dann aber glaube ich mehr mit JavaScript rumgespielt .. aber darauf wird es hinauslaufen .. das CANVAS Element ist ohne Javascript im Grunde völlig nutzlos .. CANVAS ist wieder Name schon sagt die weiße Leinwand die euch zur Verfügung steht ..

Pinsel und Farben sind aber JavaScript .. und mehr muss man zu Canvas dann auch fast nicht mehr sagen ..

Das Element lässt euch machen was ihr wollt .. sofern es sich irgendwie mit JavaScript machen lässt.

Das Spiel

Inspiriert vom No Tears Guide to HTML5 Games habe ich dann beschlossen das klassische Snake das man von den alten Nokia Handys kennt in JavaScript nachzubauen .. hier könnt ihr mein Canvas Snake mal ausprobieren.

Ich habe etwas von jQuery und dem jQuery Hotkeys Plugin Gebrauch gemacht .. aber nur um die Tastatureingaben sicher abzufangen .. der Rest ist natives JS.

Der Quelltext ist schön knapp und wie ich finde sehr gut lesbar .. mal sehen .. wenn ich die Tage Zeit habe werde ich vielleicht noch ein bei “magische” Codeschnipsel kommentieren ..

Das komplizierteste war das Array das sich die Länge und Position der Schlange merkt .. und obsolete Positionen der Schlange wieder cleared ..

this.body.push([this.x, this.y])      
if (this.body.length > this.taillength) {          
  var clear = this.body.shift();
  cx.clearRect(clear[0], clear[1], this.grid, this.grid); 
}

Hier schaue ich wie lange die Schlange ist und wische dann alles was über die Länge die in der taillength Variablen steht wieder weg.

Weiterhin ist die Kollisionskontrolle etwas schwerer zu verstehen als der Rest. Es gibt einmal die Kontrolle ob die Schlange ihr Futter frisst und zum zweiten ob die Schlange crashed .. in sich selbst oder in die Begrenzung.

Für das Futter checke ich nur ob der Kopf (this.x / this.y) der Schlange sich an der gleichen Position wie das Futter befindet

if (this.x  randomPointX && this.y  randomPointY) {
  this.taillength++;
  food(); 
}

Für die Kollisionskontrolle mit der Wand oder Schwanz muss ich schauen ob sich der Kopf mit den Koordinaten die aktuell im body Array stehen überschneidet .. ganz gut hilft einem hier die .some Methode mit der man einfach schauen kann ob im kompletten Array die Werte vorkommen ..

Spielen tut man mit dem Cursor und ihr braucht einen Browser der HTML5 unterstützt ..

Hier gehts zum Canvas – HTML5 – Snake

Keyword Analyse – Wie denn?

Ich bin derzeit dabei für einen Kunden eine Keywordanalyse zu erstellen .. in einem Themengebiet in dem ich mich so gar nicht auskenne. Der Kunde plant eine neue Website zu starten und möchte in den ersten Monaten regelmäßig im Blog Stil Beiträge veröffentlichen um sich ein Textfundament für den weiteren Ausbau der Website zu schaffen.

Google Keyword Tool

Die wichtigsten Begriffe hat er mir genannt und ich mach mich dann gleich mal auf dem Weg zum Google Keyword Tool. Die verschiedenen Keywords lasse ich dort überprüfen und speichere sie mir die Top 100 als Tabellen ab.

Dann gehe ich zuerst einmal grob durch die Tabellen durch .. sortiere nach monatlichem Suchaufkommen .. lösche Keywords die offensichtlich nicht relevant sind und verfeinere somit die Liste der Keywords.

Es empfiehlt sich im Keyword Tool den Haken bei “Nur Ideen anzeigen, die meinen Suchbegriffen sehr ähnlich sind” zu setzen wenn man das Gefühl hat das die Streuung zu breit ist.

Verwandte Keywords finden

Populäre Keywords bzw. Begriffe mit hohem Suchaufkommen google ich selbst und sehe mir die Suchergebnisse an .. da ich weiß was mein Kunde plant halte ich besonders nach Wettbewerbern Ausschau.

Gegebenenfalls mache ich eine Assoziationsanalyse für verschiedene Keywords .. unter anderem eignet sich dafür der MetaGer Assoziator, Google Insights for Search aber auch das Google Keyword Tool selbst.

Check der Wettbewerber

Eine Vielzahl der gefundenen Keywords suche ich selbst und schaue mir dir Seiten an die in den Top 10 landen .. wenn ich hier wiederkehrende Websites finde schaue ich mir diese ziemlich genau an .. Title Tags, Struktur der Seite, interne Verlinkung usw. Manchmal mache ich auch hier schon nen Backlink Check um weitere wichtige Seiten zum Thema zu finden .. auch der Wikipedia Artikel zum Thema eignet sich hier .. dort schau ich mir dann die Links zu Quellenangaben etc. an ..

Die ADs auf den SERPs sind auch oft eine gute Quelle für weitere Keywords ..

Mit den ganzen Infos versuche ich eine vollständige Liste zu erstellen .. diese bekommt dann der Kunde mit der Bitte das ganze gegen zu lesen und Keywords zu ergänzen. Ebenso soll er Keywords löschen die für ihn nicht relevant sind.

Da es dem Kunden um einen komplett neue Website geht lass ich die Mitbewerberdichte bei den Keywords erst mal außen vor.

Im letzten Schritt erstelle ich dann gemeinsam mit dem Kunden eine Liste mit den 25 wichtigsten Keywords auf die besonderen Wert gelegt werden soll.