SEORCH Backlinktool

Oh Gott jetzt hat der Idiot auch noch ein weiteres Backlinktool gelauncht .. ist in der Regel der erste Gedanke wenn ich ein Neues sehe. Jetzt habe ich auch eins gebaut und das hat Gründe.

Backlink != Backlink

Die Frage die ich mir bei vielen Tools stelle: Wie kommt ihr an eure Backlinks? Viele werden einen eigenen Crawler haben oder bauen auf irgendeiner Datenbasis eines anderen Anbieters auf. Keiner hat Zugriff auf die Google Datenbasis. Oft finde ich darin Links die schon lange nicht mehr funktionieren. Backlinks die ich z.b. innerhalb der letzten Woche erhalten habe werden meist nicht gefunden. Und die größte Frage die ich mir stelle: Sind die angezeigten Backlinks für Google überhaupt relevant?

Backlink Quellen werden nicht offengelegt, man wirbt mit magischen Crawlern und Algorithmen und keiner beachtet die Quelle die wirklich zählt: Google.

Was nützt mir ein guter Backlink wenn Google ihn nicht kennt und umgekehrt .. was schadet mir ein schlechter Backlink wenn Google ihn nicht kennt?

Gut jetzt kannst du sagen ich kann die Backlinks ja in der Search Console nachsehen. Aber selbst diese Daten sind nicht vollständig bzw. finde ich da drin auch noch Links die nicht mehr funktionieren. Außerdem sehe ich den Linktext nicht und diverse andere Infos fehlen mir auch. Mach dir mal den Spass und prüfe das.

TL;DR: die Welt der Backlinktools ist sehr esoterisch und eigentlich kaputt.

Okay .. und jetzt?

These: Mich interessieren nur Backlinks die Google kennt. Weil eben nur diese in die Linkbewertung und letztendlich in die Seitenbewertung mit einbezogen werden.

Folglich brauche ich ein Tool das die bekannten Backlinks aus Google herausholt und darstellt. Diese Backlinks müssen möglichst oft auf Funktion geprüft werden. Ich will wissen wie der Linktext ist, wie stark die Domain ist die auf mich verlinkt, Quelle -> Ziel .. das ist es eigentlich schon. Mehr brauche ich nicht .. vor ALLEM keine Backlinks die Google NICHT kennt. Ich will aktuelle Daten und neue Backlinks sollen schnell gefunden werden.

Ich habs dann mal gebaut

Mein Backlinktool kann das nun alles (und noch etwas mehr).

  • Zweimal pro Woche wird Google nach neuen Backlinks für die Domain durchsucht
  • Täglich werden die Backlinks auf Funktion geprüft
  • Zustand und Linktext wird angezeigt
  • Follow / Nofollow wird dargestellt
  • Man kann bequem filtern, suchen, exportieren, sortieren usw.
  • Backlinks können ebenso manuell hinzugefügt und gelöscht werden
  • Alle Backlinks erhalten eine Bewertung ihrer Stärke (0-100)

Das Tool gibt es aktuell wenn man den Keywordmonitor nutzt kostenlos dazu.
Ist alles noch Beta und baue da noch recht viel dran rum aber es funktioniert schon sehr zuverlässig.

backlinktool

Update 15.08.2016

Bekomme Fragen gestellt ob Google nicht “alle” Backlinks kennt? Hmm .. Nein! Selbst Google ist nicht in der Lage das komplette Web zu crawlen und alle externen Links jeder Website aufzunehmen. Ich behaupte hier mal frech das Google max. 15% alle WWW Seiten crawlt. Google hat sicherlich mit die mächtigsten Crawler und ist aus meiner Sicht auch besser als der Crawler eines beliebigen Backlinktools.

Google Suchergebnisse scrapen

Die heilige Kuh in der SEO Branche sind die Google Suchergebnisse. Ist klar .. der Erfolg von SEO Maßnahmen wird direkt daran gemessen.

Bist du für ein Keyword in den Top 3 hast du alles richtig gemacht. Zumindest auf der ersten Seiten musst du ranken. Kein Mensch schaut auf die zweite Suchergebnisseite (naja ich dann doch manchmal).

Nichts ist also wichtiger als das tägliche Ranking im Auge zu behalten. Leichte Schwankungen gibt es hier immer allerdings muss die Tendenz eben stimmen.

Was nun ein paar Plätze ausmachen sieht man anhand von SEORCH.de. Dafür betrachte ich ein paar Daten aus den Google Webmaster Tools und hier vor allem die CTR. Ich untersuche nur generische Keywords, also Begriffe ohne Marke oder exakte Produktbezeichnung.

Wie ist nun die CTR auf den unterschiedlichen Positionen?

  • für den Begriff seo check rankt SEORCH etwa auf Pos 14
    6000 mal wurde SEORCH bei einer Suche nach dem Begriff angezeigt
    geklickt wurde etwa in 4% der Fälle
  • für den Begriff website analyse rankt SEORCH etwa auf Pos 7
    2000 mal wurde SEORCH bei einer Suche nach dem Begriff angezeigt
    geklickt wurde etwa in 7% der Fälle
  • für den Begriff webseiten analyse rankt SEORCH etwa auf Pos 3
    900 mal wurde SEORCH bei einer Suche nach dem Begriff angezeigt
    geklickt wurde etwa in 13% der Fälle
  • für den Begriff onpage analyse rankt SEORCH aktuell auf Pos 1
    500 mal wurde SEORCH bei einer Suche nach dem Begriff angezeigt
    geklickt wurde etwa in 22% der Fälle

Snippetdesign, Keywordwiedererkennung usw. mal außer acht gelassen.
Ihr seht nun was die unterschiedlichen Rankings bedeuten. Rankst du Top 3 greifst du die Besucher ab. Ab Pos. 11 klickt kaum noch wer.

Eine Google Scraper Branche ist entstanden?

Weil das ganze nun so wichtig ist zahlen viele Menschen viel Geld um darüber auf dem laufenden gehalten zu werden. Die größten Anbieter solcher Daten in Deutschland sind u.a. Sistrix oder Searchmetrics die Millionen von Keyword Rankings regelmäßig irgendwo her bekommen müssen um diese ihren Kunden zur Verfügung zu stellen. Wie die Tools an diese Daten kommen ist Betriebsgeheimnis. Große Tools wie MOZ oder AHREFs wurden in der Vergangenheit von Google gezwungen Dienste die auf Keyword Monitoring basieren einzustellen.

Google selbst verbietet in seinen Nutzungsbedingungen ganz klar das scrapen der Suchergebnisse und möchte das man z.b. die Google Webmaster Tools dafür verwendet. Nur kann man hier eben nur seine eigenen Domains überwachen und nicht die von Mitbewerbern. Eine Analyse über Wochen oder Monate auf Ranking Basis ist nicht möglich und die Daten reichen nur 4 Monate in die Vergangenheit zurück.

Ich hätte durchaus Skrupel Daten von kleinen Firmen zu scrapen deren Geschäftsmodell und Überleben an diesen Daten hängt. Allerdings habe ich kein moralisches Problem dies bei einem Monopolisten zu machen der keinen Cent Umsatz verliert wenn ich mir die Daten organisiere. Googles Geschäftsmodell ist immer noch das Verkaufen von Anzeigen und das Bereitstellen einer Suchmaschine.

Sportliche Herausforderung!

Wie schon in meinem älteren Artikel zum Thema Google Scraper ist es immer noch so, daß Google recht viel dagegen unternimmt massenhaft und automatisiert Suchergebnisse zu ermitteln. Man kann etwa 40-60 mal von einer IP automatisiert abfragen. Wenn man einen Headless Browser (PhantomJS oder SlimerJS) nimmt noch 20 – 30 mal mehr. Danach sieht man Captchas und die IP wird für etwa 12 – 24 Stunden gesperrt. Dies führt dazu das hier auch schon(wieder) eine Branche entstanden ist die sich auf die Bereitstellung von Proxys spezialisiert hat.

Ich scrape nun seit knapp 9 Monaten jede Nacht ein paar tausend Keywords. Dafür habe ich aktuell 3 Scraper Instanzen laufen die von einem Server ferngesteuert werden der die Ergebnisse dann auch in die Datenbank schreibt. Die Scraper sind nicht ausgelastet. Mit diesem Ansatz kann ich aktuell für 6-7 Keywords 100 Suchergebnisse pro Minute abrufen. Das macht pro Instanz etwa 8500 Keywords in 24 Stunden. 3 Instanzen = 25.000 Keywords am Tag.

Eine Scraper Instanz ist ein Mini Cloud Server mit 512 MB RAM und 1 Core. Die Instanzen kann ich programmatisch hoch und runter fahren bzw. erweitern oder neue hinzufügen. (Tip: Amazon mag Scraper nicht auf seiner Cloud).

Den Ansatz habe ich nun verbessert und heute ist es mir gelungen 60 – 70 Top 100 Rankings pro Minute und Instanz zu scrapen. Pro Instanz sind das dann etwa 90.000 Keywords in 24 Stunden. Der Clou daran ist, daß ich weder mehr RAM oder CPU brauche und auch keinen einzigen Request mehr an Google absetze als vorher.

Ich muss das natürlich noch etwas länger testen .. bin aber recht zuversichtlich.

Die Kosten die ich dabei habe sind die Scraper Instanzen .. eine davon kostet 5 USD im Monat. Ich brauche keine privaten Proxys oder muss sonst irgendwelche Stunts treiben um das zu erreichen.

Und nein ich erzähle hier nicht öffentlich wie das geht .. zum einen kann man den Ansatz nicht nur gegen Google verwenden sondern im Grunde gegen absolut jede Website und damit auch noch mit recht wenigen Ressourcen ganze Server lahmlegen ohne das die es (durch IP Sperren usw.) verhindern können.

K.I.M. SEO Tool

Vor einigen Wochen hatte eine Kollegin eine Idee für ein SEO Tool. Der Hintergrund war folgender: Wenn man versucht eine neue Seite für ein bestimmtes Keyword ans ranken zu bekommen schaut man sich in der Regel die Wettbewerber um die ersten 10 Plätze an.

Man untersucht wie oft sie welches Keyword verwenden, wo es verwendet wird, welche ähnlichen Keywords vorkommen usw. natürlich kann man den Text nicht einfach kopieren da Google das in der Regel sofort als Duplicate Content identifiziert.

Diese Arbeit kann mitunter sehr aufwändig sein und viel Zeit beanspruchen. Außerdem möchte man höchstwahrscheinlich noch seine eigene Seite mit den gut rankenden, vorhandenen Seiten vergleichen. Am besten auch noch in verschiedenen Google Versionen sofern man auch fürs Ausland optimieren muss.

Lass es uns mit Tooling erschlagen

In den letzten 2 Wochen habe ich dann so ein Tool gebaut. Es ist noch nicht auf SEORCH verlinkt weil sicher noch Fehler drin sind .. aber es ist gut genug das man es mal testen kann. Feedback ist natürlich wie immer willkommen.

Was macht das Tool:

  • man gibt ein Keyword (oder mehrere) ein
  • optional noch die eigene Seite mit der man alles vergleichen will
  • wählt die Google Version
  • nun erhält man zuerst die Top 50 Suchergebnisse (nicht lokalisiert)
  • hier wählt man nun bis zu 10 Wettbewerber aus
  • das Tool untersucht nun alle gewählten Seiten auf die wichtigsten OnPage Faktoren
  • macht Screenshots etc.
  • nach ein paar Sekunden (manchmal Minuten) erhält man das Ergebnis

Das Ergebnis beinhaltet:

  • Keywords die auf allen Seiten verwendet werden
  • Keywords die auf einem Großteil der Seiten verwendet werden
  • LSI Keywords die eine hohe Ähnlichkeit mit dem eingegebenen Keyword haben

zusätzlich werden die üblichen OnPage Faktoren analysiert:

  • hier wird überall das Keyword hervorgehoben
  • Title, Meta Desc, URL, Headings, Bilder, Links
  • Textlänge, Keywordvorkommen, DC Quote usw.
  • am Ende gibts dann noch die Top 20 der sichtbarsten Keywords auf jeder Seite

Wenn man nun für ein bestimmtes Keyword texten möchte hat man schon mal alle Basics zusammen. Ich weiß welche Wörter auch in meinem Text vorkommen sollten und kann ebenfalls prüfen das die DC Quote im Rahmen bleibt. Die Screenshots helfen bei der visuellen Orientierung.

Hier könnt ihr das K.I.M. Tool testen.

SERP Snippet Tool

Am Freitag erreichte mich die Email von einem Spanier aus Saragossa. Er nutzt wohl schon länger SEORCH und wollte sich eigentlich nur bedanken. Allerdings fragte er ob ich ihm nicht noch ein Tool bauen kann das die Google SERP Snippets simuliert.

Darauf rumgedacht habe ich schon ne ganze Weile .. aber wie so oft wenn man dann doch mal einen Tritt in den Arsch bekommt wirds auch irgendwann was. Außerdem tue ich mich auch eher schwer richtige gute Titles und Descriptions in meine Websites einzubauen.

Woraus so ein Snippet besteht

Klar .. man sieht die Snippets jeden Tag und natürlich kann man die Darstellung beeinflussen. Sofern im Markup der Website vorhanden nutzt Google den TITLE Tag für die Überschrift, die URL für den Link und die META DESCRIPTION für die Beschreibung. Wenn man sich nun mit den Texten etwas mühe gibt kann man die CTR für seine Seite durchaus steigern.

Beachten sollte man dabei, daß der Title nicht mehr als 70 Zeichen und die Meta Description nicht mehr als 160 Zeichen hat. Alles was darüber hinaus geht schneidet Google weg. Natürlich inklusive Leerzeichen.

Etwas jQuery und String Funktionen

Kompliziert zu bauen ist so etwas dann auch nicht. Jedes Input Feld erhält Event Listener auf Keyup und übernimmt einfach die Eingaben des Users für die Vorschau des SERP Snippets und für die Ergänzung des Markups.

Ab einer bestimmten Eingabelänge werden TITLE und DESCRIPTION für das SERP Snippet abgeschnitten. Zusätzlich wird noch angezeigt wie viele Buchstaben man noch eingeben kann.

Hier das JavaScript.

Ideen ..

Jetzt habe ich gerade noch diffuse Ideen um das etwas auszubauen. Etwa mit Messung der Textlänge und der Keyword Dichte .. mal sehen ob ich das in den nächsten Woche noch dazu baue.

Hier findet ihr das SERP SNIPPET TOOL

SEO Spider .. enlarged

Vor Weihnachten war ich mit einer netten kleinen freelance Arbeit für eine Agentur beschäftigt .. hat auch was mit SEO zu tun .. nur darf ich noch nix drüber erzählen. Mal sehen vielleicht bekommen wir es im Januar / Februar online.

Nach Weihnachten hat mich dann der Seorch Scanner weiter beschäftigt. Anfang Dezember habe ich eine erste BETA online gestellt und dann auch gleich drei Bugfix Releases hinterher geschoben. Mittlerweile läuft er stabil und ich finde kaum noch nennenswerte Fehler.

Für 2013 habe ich mir gleich 2 neue Dinge vorgenommen.

1. WDF*P*IDF

Die Berechnung der Inverse-Document-Frequency. Seorch kann ja schon die WDF (Within-Document-Frequency) eines Keywords berechnen .. nun ist es durchaus interessant zu sehen wie sich das auf die weiteren Dokumente der Website verteilt.

Die inverse Dokumenthäufigkeit stellt die Bedeutung eines Keywords in Bezug auf die Gesamtmenge aller betrachteten Dokumente dar. Je mehr Dokumente es zu einem Keyword gibt, umso schwieriger wird die Erzeugung von Relevanz.

Am besten lest ihr das Ganze bei Karl Kratz.

2. Bigcrawls

Aktuell crawlt der Seorch Scanner, je nach Geschwindigkeit der Website die gecrawlt wird, zwischen 30 und 200 Seiten. Das reicht natürlich nicht und mein nächstes Ziel ist es mehrere 1000 Seiten einer Domain zu crawlen.

Damit habe ich auch testweise schon begonnen .. allerdings habe ich recht schnell bemerkt das ich in ein Speicherproblem laufe. Für jede gecrawlte Website wird ein großes DOM Objekt erzeugt, die Seite neu encodiert und die Daten die ich aus der Seite auslese müssen ja noch gespeichert werden. Das alles frisst natürlich RAM.

Die letzten 2 Tage habe ich damit zugebracht große Crawls zu starten und dann die Speicherauslastung meines Servers zu beobachten.

Ich habe gefühlte 100 Artikel gelesen wie man PHP dazu bringt wenig Speicher zu verbrauchen .. das meiste habe ich getestet und auch wieder verworfen .. da es nur zu marginalen Verbesserungen geführt hat.

Man kann in etwa sagen das pro gecrawlter Seite 1 MB RAM belegt wird (Was ich auch irgendwie für realistisch halte). Das ist unproblematisch bei 100 oder 200 Seiten. Bei tausenden von Seiten ist das aber kritisch da ich ja nicht unbegrenzt RAM zur Verfügung habe.

Meine Idee ist nun das in Chunks zu machen. Also immer nur 50 Seiten auf einmal zu crawlen .. die Ergebnisse in eine Datenbank zu speichern .. und auf Basis der gespeicherten Daten dann die nächsten 50 Seiten zu crawlen.

Ich bin mal gespannt ob das so funktioniert wie ich mir das vorstelle.

SEO Spider (Alpha 2)

Ich habe gerade die zweite Alpha Version von meinem SEO Spider veröffentlicht. In den letzten Tagen habe ich jede Menge Bugs behoben, ein paar neue Features eingebaut und etwas an der Optik gefeilt.

Daneben habe ich noch ein paar hundert verschiedene Websites damit gecrawlt um noch weitere Fehler zu finden.

Meine Lieblingskandidaten waren dabei die Websites von Siemens (WTF), Beiersdorf (Umlaute in Pfadnamen), Continental AG (Meta Refreshs) und wie immer die Telekom (SCHMERZEN).

Neue Features:

  • User Agent Switcher (Google, Yandex, Bing, None)
  • CSV Exports
  • Urls mit mehr als 115 Zeichen
  • zu kurze Texte
  • Analyse der X-Robots und Meta Robots
  • Meta Refreshs werden gefunden
  • interne Links, externe Links
  • Seiten mit mehr als 100 ausgehenden Links
  • Seiten mit wenig eingehenden Links
  • HTTP Hops (301, 302) wird korrekt gefolgt und die Zielseite angezeigt
  • Umlaute in URLs funktionieren
  • die Analyse wird gespeichert -> Permalink
  • Links in SCRIPT Tags wird nicht mehr gefolgt
  • korrektes Encoding der Website (DaumenDrück)
  • prüft auf Mime Type / Dateiendung
  • Spider Modul weiter verbessert

Fertig bin ich immer noch nicht .. aber meine ToDo Liste ist merklich geschrumpft. Vor dem ersten Release möchte ich noch etwas an Optik und Layout arbeiten, auf Dateigrößen prüfen, fehlende ALT Tags ausgeben, Inline Styles und Inline JS anzeigen.

Daneben auch noch doppelte, SEO relevante Tags finden (Canonical, Robots), GET Parameter anzeigen usw.

Trotzdem .. ich finde das Tool funktioniert schon so robust wie ich es mir vorstelle.

Es werden maximal 250 Seiten gecrawlt .. allerdings nur sofern die gecrawlte Website schnell antwortet. Liegt die Antwortzeit der Seite über 4 Sekunden können es z.b auch nur 30 Seiten sein.

Und hier könnt ihr den SEO SPIDER testen.

Einen SEO Spider bauen

SEO Spider? -> Ein Tool mit dem man ne komplette Website nach gängigen SEO Faktoren analysieren kann, Fehler findet und Verbesserungspotential aufdeckt.

Eigentlich hatte ich damit schon Ende letzten Jahres angefangen. Das Herzstück eines SEO Spiders ist der Crawler oder Spider. Eine Software mit der man alle internen Seiten einer Domain anhand von Links findet. Möglichst auch die, die besonders gut versteckt sind.

Jede Suchmaschine setzt so eine Software ein um alle Seiten einer Domain zu finden. So ganz einfach ist das nicht da es viele verschiedene Arten von URLs gibt (GET Parameter), viele verschiedene Arten intern zu verlinken (relativ, absolut), Subdomains und dann noch so lustige Sachen wie den BASE Tag oder relative Verzeichnissprünge. Ich schätze mal das ist ein Grund warum Google es jedem Website Betreiber ermöglicht XML Sitemaps einzureichen. Man crawlt immer ein bisschen gegen Unbekannt!

Natürlich hätte ich meinen Spider auch um einen fertigen OpenSource Crawler bauen können .. aber wo ist denn da der Spass?

Features

So ein SEO Spider muss einige Dinge können:

  • fehlende Title Tags und Meta Descriptions finden
  • doppelte Title Tags und Meta Descriptions finden
  • HTTP Response Codes auslesen
  • fehlende Headlines finden
  • Meta Robots und den Canonical Tag auslesen

daneben wäre es aber auch noch cool wenn er

  • 301ern und 302ern folgt und anzeigt
  • man bestimmte GET Parameter während des Crawls entfernen lassen kann
  • nur bestimmte Verzeichnisse gecrawlt werden
  • Antwortzeiten der der Website ermittelt
  • Cluster und Verzeichnisse zeigt
  • Levels und Ebenen zeigt
  • Dateigrößen
  • usw.

Ist ja toll ..

Seit einigen Wochen sitze ich an so einem Tool .. das Herzstück .. also der Crawler selbst ist mit 500 Zeilen Code sehr schlank geblieben wie ich finde. Der ist nun auch fertig und ich habe ihn schon ziemlich ausführlich getestet. Aktuell baue ich nun die Analyse und Auswertung und bin gerade etwas im Featurewahn.

Darum habe ich beschlossen heute einfach mal eine Alpha Version zu veröffentlichen: http://www.seorch.de/seo-spider.html um zu sehen ob das Errorlog volläuft und vor allem um vielleicht etwas Feedback zu bekommen.

Diverse Features fehlen noch, Bugs sind sicher auch zu finden und die Crawls sind auf max. 250 Seiten beschränkt (abhängig davon wie schnell der gecrawlte Server antwortet).

Credits an racing_fool mit dem die Urversion des Crawlers entstanden ist und an SenSEO der mich mit seinem Crawler wieder angespitzt hat 🙂

Hier könnt ihr den SEORCH SCANNER testen.

2 Monate SEORCH

Am 07.01.2012 habe ich die erste Version von SEORCH veröffentlicht. Und jetzt sind 2 Monate vorbei und ich schreib mir mal auf welche Dinge mir durch den Kopf gehen.

Da wäre als erstes mal der PHP Code

nach 10 Feature und Bugfix Releases bin ich einigermaßen stolz drauf. Er lässt sich schnell und einfach erweitern. Ich hab scheinbar alles so schön modular aufgebaut wie es sein sollte. In der Regel bau ich ein neues Feature ein und sage dann nur dem Controller das er es der View zugänglich machen soll etc. Ich kollidiere nicht mit den vielen Methoden die sonst da noch so rumhängen. Die Architektur musste ich noch kein einziges mal anpassen .. alles fügt sich gut zusammen.

Trotzdem .. auf einige Sachen bin ich nicht so stolz bzw. sind sie vielleicht ein bischen verbose aber man sagt doch .. GUT ist gut genug. Wenn eine Methode verlässlich das tut was sie soll und robust agiert und reagiert ist sie gut genug. In 6 Monaten sehe ich das wahrscheinlich anders .. aber dafür schreib ichs hier mal hin.

Fazit: Der Code ist zu 90% so gut wie ich es derzeit kann und die 10% die ich eleganter machen könnte verstehe ich zurzeit lieber auf den ersten Blick .. auch sonst zerbreche ich mir in der Regel viel zu lange den Kopf über guten Code.

Zugriffszahlen

sind steigend .. zwei Peaks gab es wo ich von bekannten Blogs / Foren gefeatured wurde. Aktuell habe ich jeden Tag ca. 100 – 130 Unique Visitors. Über 1200 Analysen wurden alleine im Februar gemacht. Find ich cool .. und wegen mir kann das auch nur sehr langsam steigen. Ich mach da auch recht wenig dafür .. einzige Marketingmaßnahme der letzten Woche war/ist die Chrome App die ich dann gleich in englisch und deutsch gebaut hab. Mal sehen was das bringt.

Einen neuen Hoster teste ich gerade .. da läuft der DEV Channel drauf .. Uberspace .. ist wahrscheinlich der Hoster den ich schon vor 10 Jahren gerne gehabt hätte 🙂

Erstaunlich ist die Verweildauer .. im Schnitt 7 Minuten pro User. Scheinbar werden die Analysen gelesen .. auch cool. Witziger Nebeneffekt der gespeicherten Analysen .. seorch.de hat in 2 Monaten 1500 Seiten in den Google Index bekommen und pro Tag ca. 4500 Search Impressions ..

The Ususal Suspects

erstaunen mich insofern welche Fehler viele Website Betreiber machen .. also im Bezug auf SEO .. sonst darf ja jeder selbst glücklich werden.

Diverse Seiten die SEORCH überprüft hat verwenden keine META DESCRIPTION, oder verwenden simple META REFRESHs von umfangreichen FRAMESETS ganz zu schweigen. Auch Encoding Fehler sind an der Tagesordnung .. im CHARSET wird UTF-8 angegeben .. die Seite selbst ist dann aber ISO-9666-WasWeißIch .. der lustigste hatte 3 verschiedene Encodings spezifiziert.

Auch so mancher Quelltext verursacht mir physische Schmerzen .. und ich bewundere mittlerweile die Jungs die die Browser Render Engines bauen .. das muß wie der Kampf gegen eine Hydra sein .. nur das dann immer 100 neue Köpfe nachwachsen. Einigermaßen Stolz bin ich auch drauf das SEORCH auch bei extrem hässlichem und falschem Markup seinen Dienst zuverlässig verrichtet.

Und nun?

Ich hab ja noch ne kleine Roadmap vor mir .. die werde ich mir in den nächsten Wochen/Monaten vornehmen und dann .. mal sehen.