K.I.M. SEO Tool

2. März 2014

Vor einigen Wochen hatte eine Kollegin eine Idee für ein SEO Tool. Der Hintergrund war folgender: Wenn man versucht eine neue Seite für ein bestimmtes Keyword ans ranken zu bekommen schaut man sich in der Regel die Wettbewerber um die ersten 10 Plätze an.

Man untersucht wie oft sie welches Keyword verwenden, wo es verwendet wird, welche ähnlichen Keywords vorkommen usw. natürlich kann man den Text nicht einfach kopieren da Google das in der Regel sofort als Duplicate Content identifiziert.

Diese Arbeit kann mitunter sehr aufwändig sein und viel Zeit beanspruchen. Außerdem möchte man höchstwahrscheinlich noch seine eigene Seite mit den gut rankenden, vorhandenen Seiten vergleichen. Am besten auch noch in verschiedenen Google Versionen sofern man auch fürs Ausland optimieren muss.

Lass es uns mit Tooling erschlagen

In den letzten 2 Wochen habe ich dann so ein Tool gebaut. Es ist noch nicht auf SEORCH verlinkt weil sicher noch Fehler drin sind .. aber es ist gut genug das man es mal testen kann. Feedback ist natürlich wie immer willkommen.

Was macht das Tool:

  • man gibt ein Keyword (oder mehrere) ein
  • optional noch die eigene Seite mit der man alles vergleichen will
  • wählt die Google Version
  • nun erhält man zuerst die Top 50 Suchergebnisse (nicht lokalisiert)
  • hier wählt man nun bis zu 10 Wettbewerber aus
  • das Tool untersucht nun alle gewählten Seiten auf die wichtigsten OnPage Faktoren
  • macht Screenshots etc.
  • nach ein paar Sekunden (manchmal Minuten) erhält man das Ergebnis

Das Ergebnis beinhaltet:

  • Keywords die auf allen Seiten verwendet werden
  • Keywords die auf einem Großteil der Seiten verwendet werden
  • LSI Keywords die eine hohe Ähnlichkeit mit dem eingegebenen Keyword haben

zusätzlich werden die üblichen OnPage Faktoren analysiert:

  • hier wird überall das Keyword hervorgehoben
  • Title, Meta Desc, URL, Headings, Bilder, Links
  • Textlänge, Keywordvorkommen, DC Quote usw.
  • am Ende gibts dann noch die Top 20 der sichtbarsten Keywords auf jeder Seite

Wenn man nun für ein bestimmtes Keyword texten möchte hat man schon mal alle Basics zusammen. Ich weiß welche Wörter auch in meinem Text vorkommen sollten und kann ebenfalls prüfen das die DC Quote im Rahmen bleibt. Die Screenshots helfen bei der visuellen Orientierung.

Hier könnt ihr das K.I.M. Tool testen.

Kategorie:

Kommentare

---

Buchrezension: SEO auf Deutsch

16. Februar 2014

Vor ein paar Tagen kam ein Rezensionsexemplar von SEO auf Deutsch bei mir an. Das Buch wurde von Andre Alpar (Geschäftsführer AKM3) geschrieben .. oder besser er hat sich die Fragen ausgedacht und sie 33 bekannten SEOs aus dem deutschsprachigem Raum gestellt, denn es handelt sich um ein Interview Buch.

Jedem SEO werden etwa 30+ Fragen gestellt die er ausführlich beantworten darf. Das geht mit ein paar Hardfacts los (Alter, Familienstand, Wohnort, Arbeitsplatz) und endet in ausführlichen Einschätzungen zum Zustand der Branche, Zukunftsausblicke etc. Die Fragen sind mehr oder weniger immer sehr ähnlich was ich allerdings positiv empfand. Das Buch hat ca. 330 Seiten und somit hat jeder Interviewpartner 9-10 Seiten Platz bekommen .. genug Raum um alle Fragen ausführlich zu beantworten :)

Für mich natürlich besonders spannend waren die Tool Entwickler .. Markus Tandler (onpage.org), Christoph Cemper (LRT Link Research Tools), Markus Tober (Searchmetrics), Johannes Beus (Sistrix), Fabian Brüssel (Manhattan Tool) usw. kommen alle zu Wort und erzählen von ihren ersten SEO Erfolgen, wie sie angefangen haben und von ihren größen Patzern ..

Witzig finde ich auch Interviews mit Leuten zu lesen mit denen man selbst schonmal einen Workshop hatte oder längere Gespräche geführt hat. In meinem Fall mit Stefan Fischerländer oder Maik Metzen.

Andre Alpar gelingt eine gute Momentaufnahme der Branche. Das Buch ist folglich für alle SEO Neueinsteiger so eine Art Pflichtlektüre, da man alle Personen die im deutschsprachigen Raum eine Rolle spielen einmal kennen lernt. Aber auch langjährige SEOs haben ihren Spass daran .. besonders wenn die interviewten Experten ihre schlimmsten SEO Fehler offenlegen .. und man sich das ein oder andere mal schmunzelnd wiederfindet.

SEO auf Deutsch gibts bei Amazon als Paperback und Ebook.

Kategorie:

Kommentare [2]

---

SEO Site Clinic

14. Februar 2014

Was ist eigentlich eine Site Clinic und wieso macht man das?

Die Site Clinic ist im Grunde eine tiefgehende OnPage SEO Analyse einer Website. Alle Fehler und Baustellen sollen aufgedeckt und konkrete Verbesserungen erarbeitet werden.

Populär wurde das auf diversen SEO Konferenzen als Live Show. Der SEO nimmt quasi am Laptop eine Seite aus technischer und inhaltlicher Sicht auseinander und zeigt die groben Fehler live am Beamer. Meistens ist das sehr lustig für die Anwesenden und weniger lustig für den Betreiber der Seite.

Eine SiteClinic ist aber in jedem Fall immer der erste Schritt wenn man seine Seite das erste mal unter SEO Gesichtspunkten verbessern möchte .. und ich schreibe hier nun mal auf was man da alles berücksichtigen kann (nicht muss!)

0. Aktuellen Zustand der Seite feststellen

  • Struktur und Thema der Seite
  • Welche Seitentypen gibt es (Produkt, Kategorie, Filter ..)?
  • Welche Seiten sind für SEO auch relevant?
  • grobe SEO Fehler
  • Snippetcheck, Sitelinks
  • Crawlbuget (korreliert PageRank)
  • Indexbudget
  • Reverse IP Lookup

1. Site Check

2. Analyse des Quelltextes

  • Page Speed Analyse
  • Crawlability
  • Semantischer und fehlerfreier Quellcode
  • Strukturiertes und fehlerfreies CSS
  • Entfernung von unnötigen Quellcode Kommentaren
  • prüfen auf Inline CSS, Inline JS
  • wieviele CSS und JS Files werden geladen und wann
  • Hauptkeywords semantisch ausgezeichnet
  • Keine leeren ALT Attribute
  • Flash?
  • Frames?

3. Title Tags und Meta Description

  • Hauptkeywords im Title Tag
  • einzigartige, beschreibende Meta Description
  • Hauptkeywords in Meta Keywords
  • Meta Robots?
  • fehlende und leere Title Tags / Meta Descriptions
  • doppelte Title Tags / Meta Descriptions
  • zu kurze, zu lange Title Tags / Meta Descriptions
  • SERP Snippet Design
  • Twitter Cards
  • Open Graph

4. Textqualität, Textlänge, Keywords

  • klare Keywordausrichtung, welche Seite soll für welches KW ranken
  • Keyword Sichtbarkeit
  • Content, Richness
  • Textstrukturierung, Lesbarkeit erhöhen
  • Hauptkeywords für die Seite identifizieren
  • weitere Keywords für die Seite identifizieren
  • Hauptkeywords im Text
  • ausreichende Textlänge?
  • weitere Keywords im Body Text
  • Hauptkeywords als ALT Attribut im IMG Tag
  • Duplicate Content durch wiederkehrende Template Elemente?
  • können statische Seiten über URL Parameter geöffnet werden?
  • DC intern?
  • DC extern?
  • DC durch http/https, www., verschiedene Domains .. usw. ?
  • Rich Snippets?

5. Navigation

  • zugängliche Navigation (kein JS)
  • Navigation in Markup erkennbar
  • Breadcrumb Navigation mit HTML Microdata
  • ggf. Usability-Optimierungen
  • unwichtige Navigationspunkte per AJAX oder iFrame maskieren
  • WSA Website Silo Architektur
  • Navigations Cluster mit Themenfokus
  • unwichtige Navigationspunkte entfernen
  • Keywords verlinkt?

6. Headings

  • fehlende Headings
  • Hauptkeywords in Heading H1 bis H3

7. Struktur / Architektur der Seite

  • URL Struktur
  • fehlende Breadcrumb?
  • robots.txt vorhanden und valide?
  • sitemap.xml vorhanden, alle Seiten drin?
  • Canonical Tag?
  • rel=“alternate” hreflang=“x”
  • 301er, 302er, 404er ?
  • Weiterleitungsketten
  • sinnvolle Robots / X-Robots: noindex, nofollow, noarchive, nosnippet?
  • Hauptkeywords in den URLs
  • Keywords mit Bindestrich getrennt
  • Keine Umlaute in den URLs
  • URL Parameter, dynamisch?
  • maximal 4 Verzeichnisebenen
  • Ladezeit
  • Google Webmaster Tools Verifikation
  • Code/Text Rate
  • lange URLs > 100 Zeichen?
  • Dateigrößen > 100 kb?

8. Interne und Externe Verlinkung

  • sinnvolle Linkstruktur
  • aussagekräftige Anchor Texte
  • Sculpting -> entwerten unwichtiger Links mit rel=“nofollow”
  • alle Links mit beschreibendem TITLE Attribut
  • maximale Anzahl von Links auf der Seite (intern/extern)
  • Seiten mit wenigen eingehenden Links
  • Seiten ohne interne, externe Links
  • Link stuffing (Footer, Sidebar, Tagclouds)?

9. Offpage

10. Google Webmaster Tools

  • Bevorzugte Domain
  • Sitelinks
  • URL-Parameter
  • Website-Fehler
  • Suchanfragen
  • doppelte Rankings
  • Crawling-Statistiken
  • blockierte URLs / Robots.txt
  • XML Sitemaps
  • HTML Optimierung
  • Content Keywords

11. Zum Schluss

  • detailierte Handlungsempfehlungen für den Seitenbetreiber
  • Milestones
  • alles priorisieren

Kategorie:

Kommentare

---

Die allgemeine Nacktheit

22. Januar 2014

hat als solches nichts mit diesem Beitrag zu tun. Heute morgen habe ich steif und fest behauptet Blogs liest kein Mensch mehr und wenige Stunden später schreibe ich doch seit langer Zeit mal wieder einen Beitrag.

Ich will über SEORCH berichten .. das gibts jetzt immerhin knapp über 2 Jahre und ist natürlich größer geworden.

Hier mal ein paar Zahlen:

  • Normale Analysen: ca. 1500 / Tag
  • Screenshots: ca. 1500 / Tag
  • Seorch Ultrasuggest Abrufe: ca. 2000 / Tag
  • Seorch Scanner Analysen: ca. 20 / Tag
  • Unique Besucher: > 1000 / Tag
  • Chrome Installs: > 28.000
  • Facebook Likes > 200
  • Tweets mit der Domain > 165 (die meisten von mir)
  • Google+ Erwähnungen > 220

Über die Social Network Zahlen darf man nun gern auch lachen .. ich finde das aber alles trotzdem beachtlich. Vor 2 Jahren war mein Ziel eigentlich nur das Seorch so 20-30 Analysen pro Tag macht .. damit war ich zufrieden.

SEORCH

Angefangen hat es ja mit einem relativ kleinen OnPage Check. Nach und nach kamen jede Menge Features dazu wie z.b. Backlinkdaten, Social Network Daten, Domain Informationen, Google Rankings, Anzahl der Seiten im Index, PageRank.
Vor mehr als nem Jahr habe ich die Screenshot Funktion eingebaut. Man kann mittlerweile PDFs der Analysen erzeugen, eine Semantische Analyse machen .. dann die PRO Version mit kompletten Performance Daten aus YSLOW und Google Page Speed.

SEORCH Scanner

Vor knapp einem Jahr ist der SEORCH Scanner dann online gegangen. Und ich war in der Lage komplette Webseiten zu analysieren. Man kann daraus viele wichtige Daten herauslesen die nur im Zusammenspiel aller Seiten einen Sinn machen. Ich habe einen komplett eigenen Crawler geschrieben, das Backend hinten dran bildet eine MongoDB und der ganze Scanner skaliert auch für viele tausend Seiten wunderbar. Ich habe alleine 3 Monate Bugs gefixt und erst vor kurzem noch CSV Exports und PDF Exports eingebaut. Wenn ich selbst eine Site Clinic mache ist das Tool immer meine erste Anlaufstelle.

SEORCH Ultrasuggest

Eher so aus Langeweile habe ich den gebaut. Ich wollte mal wieder was neues machen .. so ganz ohne Legacy Code. Mitterweile liefert das Tool LongTail Daten aus 5 verschiedenen Quellen und ich plane noch ein paar hinzuzunehmen. Ideen un Input dazu kam meist per Email, Google+ oder direkt von Kollegen und ich habe dann einfach alles eingebaut was mir sinnvoll erschien.

SEORCH Keywordmonitor

Noch nicht wirklich veröffentlicht entwickle ich aktuell daran. Klar .. Keywordmonitoring Tools gibt es wie Sand am Meer. Meins ist auch nicht besser oder schlechter als die meisten. Aber es ist meins und ich muss nichts dafür bezahlen. Die Infrastruktur die aktuell dazu brauche kostet 10 Dollar im Monat und ich jage aktuell Google jede Nacht 2500 Top 100 Rankings ab ohne das ich eine IP Penalty bekomme ..
Der letzte Satz beschreibt auch schon den eigentlichen Reiz. Ich wollte in großen Maßstab an Daten herankommen die Google sonst extrem teuer verkauft. Quasi ein kleiner Hack .. und wenig macht mehr Spass :)

Und nu?

Ideen für Tools habe ich noch Tonnen. Die nächsten SEORCH Releases sind schon in der Mache und ich habe immer noch jede Menge Spass an der Entwicklung. Die zentralen Analysemöglichkeiten werden weiter kostenlos bleiben. Ich würde gerne eine paar Whitelabel Versionen mehr verkaufen und ich fände es cool wenn der Keywordmonitor irgendwann mal 100 zahlende Benutzer hat. Sonst wünsche ich mir nix :)

Aaah ja ..

Mich motiviert an SEORCH das was draus geworden ist. Wenn eine Website einen Bericht über SEORCH schreibt ist das ein wahnsinnig gutes Gefühl. Wenn SEORCH auf Twitter, FB oder sonstwo empfohlen wird bekomme ich immer ein kleines Lachen ins Gesicht. Über jede Feedback Email bin ich dankbar. Und Feature Requests bau ich meistens schneller ein als ich sollte ..

Im Grunde habe ich mit allen SEORCH Tools immer nur Dinge programmiert die ich selbst brauche und genau so werde ich auch weitermachen. Nur wenn es für mich Sinn macht habe ich Spass daran :)

Kategorie:

Kommentare [4]

---

Mit AJAX Links vor Google verbergen

5. Oktober 2013

In der Firma hatte ich letzte Woche wieder die Diskussion ob man Links die mit dem Thema einer Seite nichts zu tun haben vor dem Google Bot verbergen soll oder nicht.

Ich arbeite bei 1&1 wir verkaufen DSL, Mobilfunkverträge, Webspace, Server usw. Wenn sich der Google Bot nun beispielsweise im Bereich Server befindet sollen keine störenden Links zu DSL Produkten zu finden sein. Sondern nur Links die zu artverwandten Themen führen. Man nennt dies eine Clusternavigation. Alle Links eines Themenbereichs sollen sich nur im selben Kategorie-Themen-Cluster bewegen. Also konkret .. keine Links von DSL zu Hostingprodukten.

Problem ist jetzt, das wir das dem User sehr wohl anbieten wollen und auch müssen. Über die Hauptnavigation hat der Kunde jederzeit die Möglichkeit von DSL zu SERVERN zu springen.

Um dies aber dem Google Bot nicht zu ermöglichen sollen Links zu Fremdthemen per Ajax nachgeladen werden.

Dies erfolgt in der Annahme das Google kein JavaScript auf den Seiten ausführt und somit die Links nie zu sehen bekommt.

Mein Kollege Nico hat schon bewießen das selbst ein BASE64 codierter JavaScript Link von Google gefunden wurde.

Headless Browser?

Seit einigen Jahren gibt es allerdings Headless Browser wie z.b. der PhantomJS. Mit diesen kann man auch programmatisch, ohne großen Aufschlag, JavaScript inkl. Ajax ausführen und die Seite also so rendern wie das ein stinknormaler Firefox oder Chrome macht.
Dieser Headless Browser sieht also alles was der User auch sieht. Wenn Google mit Headless Browser crawlt dann kann man per Ajax keine Links verbergen.

Testszenario

Ich habe in einer Seite die sich im Google Index befindet zwei Ajax Requests untergebracht. Diese laden Textdateien in denen sich ein ganz normaler A HREF befindet.
Nach dem Laden werden die Links per JavaScript in den Quelltext eingebunden. Beide verlinkten Seiten habe ich neu angelegt. Sie wurden nicht in Google Chrome aufgerufen und sind auch nirgendwo sonst verlinkt. Beide Seiten haben ein eindeutiges Keyword: PfaffenroterHeavyMetalHamsterpuff und NordKoreanischerPupsnasenEiterich :)

Ich bin jetzt mal gespannt was passiert und halte euch direkt hier auf dem laufenden.

Update 14.09.2013

Die zwei Keywords befinden sich nun im Index. (Klickt einfach oben auf die Keywords). Allerdings nicht die Seiten die per AJAX verlinkt sind. Die Keywords habe ich extra auf der Seite von der die Links weggehen nochmal erwähnt um zu sehen wann/ob der Google Crawler vorbei kam.

Update 03.10.2013

Beide Seiten befinden sich immer noch nicht im Google Index. Aktuell gehe ich davon aus, daß Google eine bestimmten Trigger benötigt um die Seiten mit nem Headless Browser aufzurufen. Insofern muss ich derzeit davon ausgehen das sich per AJAX Links vor Google verstecken lassen.

Kategorie:

Kommentare

---

Google scrapen

14. August 2013

Über diesen Artikel auf Golem musste ich letzte Woche etwas schmunzeln. Google versucht mit allen Mitteln das maschinelle auslesen von Daten einer Website (scrapen) zu verhindern und hat viele gute Methoden gefunden das zu unterbinden .. aber manchmal schlagen die halt zu früh zu ..

Warum macht Google das?

Googles Daten sind seine heiligen Kühe. Also auch die Suchergebnisse. Weltweit sind viele Firmen dran interessiert mit ihren Keywords ganz oben in Google zu stehen. Oder zumindest vor dem Wettbewerber. Für umfangreiche Analysen usw. geben die dann auch gern viel Geld aus weil jeder natürlich wissen will wie sich das Ranking verändert. Kein Problem wenn man da nur 2 Keywords beobachten will .. aber wenn man täglich viele hundert Keywords im Auge behalten will wird das entweder aufwendig oder recht teuer.

Google verlangt für 1000 API Calls a 10 Suchergebnisse 5 USD und deckelt das dann auch noch auf 10000 API Calls am Tag. Übersetzt bedeutet das, ich kann für 1000 Keywords pro Tag die Top 100 Suchergebnisse bekommen .. dann ist Schluss. Dafür zahle ich dann aber auch 50 USD.

Grund genug um sich drumrum zu hacken ..

Baut man sich nun in der Programmiersprache seiner Wahl einen Scraper der diese URL aufruft: https://www.google.com/search?oe=utf-8&hl=en&num=100&q=seorch wird Google nach ca. 20 – 50 Anfragen einen Captcha vorschalten und die IP von der die Anfrage kommt wird temporär gesperrt.

Okay jetzt kann ich mir natürlich irgendwelche Proxys zusammensuchen oder vielleicht habe ich auch ein paar Server mit verschiedenen IPs im Netz stehen .. oder ich nutze Dienste wie SEO-Proxies, HideMyAss usw. es gibt viele Möglichkeiten und wahrscheinlich noch mehr Ideen das Problem zu lösen .. alle sind mehr oder weniger aufwändig oder kosten Geld.

Zuviel Aufwand find ich doof!

und außerdem möchte ich auch nicht dafür bezahlen .. also nicht Google :) Darum habe ich mir für SEORCH etwas ausgedacht .. naja .. eigentlich fast 9 Monate drauf gebrütet bis ich es dann mal getestet habe.

Ich habe also einen Scraper für Google Suchergebnisse gebaut und außerdem werden in SEORCH selbst (wenn man ein Keyword eingibt) die Top 30 Google Suchergebnisse angezeigt.

Alles kommt von einer einzigen IP Adresse, keine Proxys, keine Verschleierungstaktiken .. einfach etwas Software und eine Idee.

Seit einigen Wochen ist das jetzt auch produktiv online und ich konnte für jede Useranfrage immer 30 – 100 Google Ergebnisse ausliefern.

Wie ich das gemacht habe möchte ich zurzeit noch nicht veröffentlichen .. weil ich noch nicht sagen kann bis zu welcher Anzahl von Anfragen / pro Stunde das funktioniert und ob ich nicht doch irgendwann gegen eine Wand laufe ..

Parallel dazu habe ich noch einen Google Suggest Scraper gebaut der pro Tag derzeit ca. 1000 Anfragen an Google raushaut .. bis jetzt auch noch sehr stabil ..

Ich beobachte das jetzt mal eine Weile und schreibe dann nochmal was dazu.

Kategorie:

Kommentare [1]

---

Das Stinktier

2. Mai 2013

The Skunk ist ein Stockscreener den ich mal kurz mit PHP und Ajax zusammen gebaut habe. Die Idee war eher spontan. Ich selbst handle seit über 10 Jahren mit Wertpapieren und zwei Kollegen von mir ebenfalls. Dabei kam dann irgendwie heraus das jeder von uns so 6-10 verschiedene Seiten besucht um eine Aktie zu bewerten.

Man sammelt diverse Informationen in nem Spreadsheet zusammen und am Ende überlegt man sich obs ne gute Aktie ist oder nicht. Aufwand pro Analyse gut und gerne mal 10 – 15 Minuten.

Datenbasis

Ich habe dann beschlossen das zu beschleunigen und herausgekommen ist theskunk.cc. Gestern habe ich die ALPHA veröffentlicht und ich bin schon ein bisschen zufrieden damit.

Wichtig für so ein Tool sind natürlich die Daten. Soweit es geht versuche ich diese über öffentliche APIs zusammen zu sammeln (Danke Yahoo) aber an vieles kommt man dann doch nicht so einfach ran.

Anbieter von guten Finanzmarkt Daten lassen sich in der Regel fürstlich entlohnen .. und da ist man dann schnell bei ein paar tausend Euro für ein paar einfach API Calls.

Die feine Englische ..

Was macht man also wenn man sich nicht weiterhelfen kann .. man scraped die Daten aus seinen Lieblingsseiten knallhart heraus.

Das ist nicht die feine Art (darum wohl auch The Skunk) .. aber oft die einzige Möglichkeit. Scrapen bedeutet, daß ich die Seiten wie ein normaler Browser lade und mir dann die Infos die ich haben möchte herauskratze.

Das ist natürlich alles andere als wirklich zuverlässig. Aber die Idee hinter Skunk ist einen generischen Scraper zu entwickeln der sich selbst meldet wenn er an Daten nicht mehr herankommt. Idealerweise hat man dann höchstens eine kleine Anpassung im Selector zu machen um die Daten wieder zu sehen.

Das steckt jetzt alles noch in den Kinderschuhen. Aber da ich mich scrapetechnisch mit dem Endgegner (Google) schon angelegt habe .. und dementsprechend weiß was da alles an Hürden auf mich zukommen kann .. wir das sicher ganz lustig.

Außerdem brauche ich ein leichtgewichtiges Projektchen .. SEORCH ist mittlerweile so umfangreich das ich mir schon 2-3 Stunden Zeit nehmen muss wenn ich was anpassen möchte.

The Skunk soll klein, schnell und flexibel bleiben ..

Kategorie:

Kommentare

---

SERP Snippet Tool

14. April 2013

Am Freitag erreichte mich die Email von einem Spanier aus Saragossa. Er nutzt wohl schon länger SEORCH und wollte sich eigentlich nur bedanken. Allerdings fragte er ob ich ihm nicht noch ein Tool bauen kann das die Google SERP Snippets simuliert.

Darauf rumgedacht habe ich schon ne ganze Weile .. aber wie so oft wenn man dann doch mal einen Tritt in den Arsch bekommt wirds auch irgendwann was. Außerdem tue ich mich auch eher schwer richtige gute Titles und Descriptions in meine Websites einzubauen.

Woraus so ein Snippet besteht

Klar .. man sieht die Snippets jeden Tag und natürlich kann man die Darstellung beeinflussen. Sofern im Markup der Website vorhanden nutzt Google den TITLE Tag für die Überschrift, die URL für den Link und die META DESCRIPTION für die Beschreibung. Wenn man sich nun mit den Texten etwas mühe gibt kann man die CTR für seine Seite durchaus steigern.

Beachten sollte man dabei, daß der Title nicht mehr als 70 Zeichen und die Meta Description nicht mehr als 160 Zeichen hat. Alles was darüber hinaus geht schneidet Google weg. Natürlich inklusive Leerzeichen.

Etwas jQuery und String Funktionen

Kompliziert zu bauen ist so etwas dann auch nicht. Jedes Input Feld erhält Event Listener auf Keyup und übernimmt einfach die Eingaben des Users für die Vorschau des SERP Snippets und für die Ergänzung des Markups.

Ab einer bestimmten Eingabelänge werden TITLE und DESCRIPTION für das SERP Snippet abgeschnitten. Zusätzlich wird noch angezeigt wie viele Buchstaben man noch eingeben kann.

Hier das JavaScript.

Ideen ..

Jetzt habe ich gerade noch diffuse Ideen um das etwas auszubauen. Etwa mit Messung der Textlänge und der Keyword Dichte .. mal sehen ob ich das in den nächsten Woche noch dazu baue.

Hier findet ihr das SERP SNIPPET TOOL

Kategorie:

Kommentare [4]

---

JavaScript Refactoring

11. April 2013

Diese Woche bin ich über ein kleines .. simples JavaScript gestolpert. An dem möchte ich aber zeigen wie man auch sehr kleine Scripts grenzenlos schlecht machen kann. Das Script verwendet die Qooxdoo BaseLib.

Der Bug kam zu mir mit dem Hinweis daß das Script im IE8 und IE7 nicht funktioniert und das restliche JS der Seite lahmlegt.

Die Aufgabe des Scripts ist ein einfacher Container / Bildwechsel alle 5 Sekunden. Ein Container wird eingeblendet .. zwei andere werden ausgeblendet.

Orginalscript

Hier das Orginal Script mit Markup und JS.

Das kann im IE 7/8 nicht funktionieren .. weil der Browser noch nie document.getElementsByClassName unterstützt hat. Das muss man jetzt nicht wissen wenn man Junior Entwickler ist. Aber man sollte das doch auch im IE testen was man so baut. Außerdem werden da irgendwie viele Variablen übergeben .. und wer außerdem bei so ner kleinen Aufgabe 2 Schleifen ineinander baut und dann noch nen break verwendet .. okay .. das Ding stinkt .. und zwar auf den ersten Blick.

Wie gesagt .. aber es läuft in modernen Browsern klaglos.

Quickfix

Hier der Quickfix Code.

Als erstes musste natürlich ganz schnell ein Bugfix her .. keine Zeit sich groß Gedanken zu machen. Fixen .. online stellen war die Ansage.

Ich habe dem Container eine ID gegeben und hole mir das Element via ID ins JS und ermittle die Children. Die Basisfunktion habe ich dann für später aufgehoben. Außerdem kann ich ganz schnell noch 2 Variablen sparen. Die zwei Schleifen waren mir immer noch suspekt .. aber gut es soll ja erst mal nur tun.

Refactoring

Hier das Script Refactoring.

Nachdem online stellen habe ich es dann neu geschrieben. Mir gefiel der Ansatz im Markup 2 (oder mehr) Container auf hidden zu setzen und nur einen einzublenden und dies nicht per JS zu machen. Das wollte ich behalten. Alle andere habe ich gelöscht.

Auf beide Schleifen konnte ich verzichten .. ich muss ja immer nur ein Element einblenden und eins ausblenden. Alle anderen Elemente haben ja immer ein hidden. Das break konnte weg, eine zweite Zähler Variable war ebenso unnötig.

Das Interval wird gesichert indem es nur ausgeführt werden kann wenn die Variable auch wirklich ein Objekt enthält. Elemente und Children hole ich mir mit nativen JS Methoden ins Script die auch über alle Browser funktionieren.

Fertig. Elegant. Klein. Simpel.

Was lernen wir draus?

Erstmal das dies jedem passieren kann. Ich habe auch mal einen schlechten Tag oder stehe so unter Zeitdruck das ich so einen Müll schreibe .. Hauptsache es tut dann irgendwie.

Wenn man aber weiß das man da nur was hingemurkst hat muss man 1-2 Tage später (oder wenn wieder mehr Zeit ist) es so aufräumen und besser machen das es funktioniert.

Wenn man das nicht kann .. dann hat man doch zumindest das Gefühl es nicht wirklich gut gemacht zu haben. Dann geht man eben zu jemandem der besser JavaScript kann und lässt sich helfen .. und plötzlich lernt man vielleicht noch was.

Kategorie:

Kommentare

---

SEO Spider .. enlarged

31. Dezember 2012

Vor Weihnachten war ich mit einer netten kleinen freelance Arbeit für eine Agentur beschäftigt .. hat auch was mit SEO zu tun .. nur darf ich noch nix drüber erzählen. Mal sehen vielleicht bekommen wir es im Januar / Februar online.

Nach Weihnachten hat mich dann der Seorch Scanner weiter beschäftigt. Anfang Dezember habe ich eine erste BETA online gestellt und dann auch gleich drei Bugfix Releases hinterher geschoben. Mittlerweile läuft er stabil und ich finde kaum noch nennenswerte Fehler.

Für 2013 habe ich mir gleich 2 neue Dinge vorgenommen.

1. WDF*P*IDF

Die Berechnung der Inverse-Document-Frequency. Seorch kann ja schon die WDF (Within-Document-Frequency) eines Keywords berechnen .. nun ist es durchaus interessant zu sehen wie sich das auf die weiteren Dokumente der Website verteilt.

Die inverse Dokumenthäufigkeit stellt die Bedeutung eines Keywords in Bezug auf die Gesamtmenge aller betrachteten Dokumente dar. Je mehr Dokumente es zu einem Keyword gibt, umso schwieriger wird die Erzeugung von Relevanz.

Am besten lest ihr das Ganze bei Karl Kratz.

2. Bigcrawls

Aktuell crawlt der Seorch Scanner, je nach Geschwindigkeit der Website die gecrawlt wird, zwischen 30 und 200 Seiten. Das reicht natürlich nicht und mein nächstes Ziel ist es mehrere 1000 Seiten einer Domain zu crawlen.

Damit habe ich auch testweise schon begonnen .. allerdings habe ich recht schnell bemerkt das ich in ein Speicherproblem laufe. Für jede gecrawlte Website wird ein großes DOM Objekt erzeugt, die Seite neu encodiert und die Daten die ich aus der Seite auslese müssen ja noch gespeichert werden. Das alles frisst natürlich RAM.

Die letzten 2 Tage habe ich damit zugebracht große Crawls zu starten und dann die Speicherauslastung meines Servers zu beobachten.

Ich habe gefühlte 100 Artikel gelesen wie man PHP dazu bringt wenig Speicher zu verbrauchen .. das meiste habe ich getestet und auch wieder verworfen .. da es nur zu marginalen Verbesserungen geführt hat.

Man kann in etwa sagen das pro gecrawlter Seite 1 MB RAM belegt wird (Was ich auch irgendwie für realistisch halte). Das ist unproblematisch bei 100 oder 200 Seiten. Bei tausenden von Seiten ist das aber kritisch da ich ja nicht unbegrenzt RAM zur Verfügung habe.

Meine Idee ist nun das in Chunks zu machen. Also immer nur 50 Seiten auf einmal zu crawlen .. die Ergebnisse in eine Datenbank zu speichern .. und auf Basis der gespeicherten Daten dann die nächsten 50 Seiten zu crawlen.

Ich bin mal gespannt ob das so funktioniert wie ich mir das vorstelle.

Kategorie:

Kommentare

---

« älter