OnPage Checker – Suchmaschinenoptimierung

Eigentlich wollte ich ja Anfang des Jahres irgend einen Scraper in node.js schreiben. Allerdings musste ich feststellen das aus meiner Sicht node dafür noch nicht 100% ausgereift ist .. zweites Problem war das Hosting dafür .. irgendwie gabs damals noch keine guten Hoster ..

Im Frühjahr habe ich mich dann viel mit Suchmaschinenoptimierung beschäftigt und viel mit meinen eigenen Seiten herumexperimentiert .. und naja .. die Basis von SEO ist wie wir (fast) alle wissen OnPage Optimierung.

Da meine PHP Skills etwas eingerostet waren habe ich dann beschlossen irgend einen Scraper mit PHP zu schreiben .. erstes Opfer sollte Google sein .. ich wollte Rankings von Websites für spezifische Keywords auslesen .. den Scraper habe ich auch fertig und der liegt hier rum .. nur fand Google das nicht so toll .. die haben nämlich prompt die IP meines Servers gesperrt ..

Okay .. wäre ja nicht so das es mir an Ideen mangelt .. und als nächstes habe ich dann begonnen ein Tool zu schreiben das eine beliebige Website für ein beliebiges Keyword nach OnPage Faktoren untersucht .. ich habe mich grob an der Firefox Extension SenSEO orientiert .. will aber mein eigenes Tool noch ausbauen und erweiteren ..

Knapp 900 Zeilen PHP Code und zwei Wochen später veröffentliche ich heute die Version 0.1 .. und falls sie wer testet und Ideen hat bzw. Bugs findet würde ich mich über ne Rückmeldung freuen.

Hier findet ihr mein SEO OnPage Analyse Tool.

Und ich bin gerade irgendwie stolz das ich doch nicht soviel PHP verlernt hab und bedanke mich noch bei Flo der mir geholfen hat als mich die Regular Expressions fast verrückt gemacht haben 🙂

Update 2012

Das komplette Tool habe ich überarbeitet und man kann es nun hier finden: SEORCH – OnPage SEO Tool

Panda Update in Deutschland angekommen

Letzten Freitag wurde das Panda Update auch in Deutschland ausgerollt .. der Hinweis in Googles Webmastercentral Blog war etwas spärlich .. aber nun ist des da. Über die Auswirkungen des Panda Updates hatte ich vor einiger Zeit schonmal etwas geschrieben.

Zwischen dem ersten ausrollen den Panda Updates und der Version die wir heute haben gab es mittlerweile schon 4 Updates.

  • Panda 1.0 erschien am 24. Februar 2011
  • Panda 2.0 am 11. April
  • Panda 2.1 am 10. Mai
  • Panda 2.2 am 16. Juni
  • Panda 2.3 am 23. Juli
  • Panda in Deutschland am 12. August 2011

Bei der ganzen Panda Show geht es Google in erster Line darum qualitativ hochwertige Inhalte besser zu ranken.

Wie sich das Update nun grob ausgewirkt hat zeigen Sistrix und Searchmetrix anhand von Listen ganz anschaulich.

Verlierer sind die üblichen Verdächtigen die man meist sowieso nicht mehr klickt wenn man sie in den Suchergebnissen findet: ciao.de, gutefrage.net, dooyoo.de, wer-weiss-was.de, yopi.de, preisroboter.de ..

Gewinner sind Seiten die redaktionelle Inhalte bieten (im Zweifelsfall auch gut recherchiert 🙂 ) wie heise.de, welt.de, kino.de, dhd24.com, spiegel.de, golem.de

Das muss aber nun nicht bedeuten das die Verlierer automatisch aus dem sichtbaren Bereich fallen .. teilweise landen sie einfach nicht mehr in den Top 5 oder Top 10 sondern erst auf der zweiten Seite. Außerdem sollte man bei den Zahlen insofern vorsichtig sein, daß es sich um keine längere Erhebung handelt. Fundierte Zahlen kann man meiner Meinung nach erst in 2-4 Wochen erwarten.

Soweit ich das bis jetzt beurteilen kann wirken sich die Änderungen auch geringer aus als in den USA. Google spricht selbst nur von ca. 6-9% der Suchergebnisse die betroffen sind. Die meisten Firmenauftritte und alle mittelmäßigen bis guten Blogs und Themenseiten dürfte dies gar nicht betreffen.

Wird aber vielleicht ganz lustig das Google Forum zum Thema Ranking in den nächsten Wochen zu beobachten .. immerhin ist es durchaus möglich das Google mit dem Panda Seiten schlechter rankt die das nicht verdient haben ..

Ich denke in 2-3 Wochen werde ich mir das genauer anschauen und dann nochmal zusammenfassen was Panda so alles angestellt hat.

jQuery – 10 – Simpler Content Slider

Die Content Slider gibt es zwar auch schon wie Sand am Meer .. aber ich brauch das gerade für ein privates Projekt .. und wenn ich Zeit habe bau ich dann doch am liebsten selbst .. man könnte ja was lernen 🙂

Sinnvoll ist das Script wenn ihr auf sehr beschränktem Platz doch recht viel Informationen unterbringen wollt und es nicht ganz so wichtig ist das alles gleich am Anfang zu sehen ist.

Die Sildes sind als gewöhnliche DIVs definiert die horizontal floaten. Die rechte Kontrollfläche verschwindet wenn keine weiteren Slides mehr folgen bzw. die linke Kontrollfläche ist initial nicht zu sehen.

Hier findet ihr den Quelltext des Simplen Content Slider.

Hier nochmal das Script im Ganzen

$(document).ready(function(){
  var curPos = 0;
  var slideWidth = 630;
  var slides = $(’.slide’);
  var countSlides = slides.size(); 
  var controlLeft = $(’#controlLeft’);
  var controlRight = $(’#controlRight’);  
  var floatZone = $(’.floatZone’);

/* Breite des Bereichs */ floatZone.css(‘width’, slideWidth * countSlides); /* Click abfangen */ $(’.control’).bind(‘click’, function() { /* Aktuelle Position bestimmen */ if ($(this).attr(‘id’) === ‘controlLeft’) { curPos = curPos-1; } else { curPos = curPos+1; } /* Linken Kontrollbereich ein und ausblenden */ if (curPos === 0) { controlLeft.hide() } else { controlLeft.show() } /* Rechten Kontrollbereich ein und ausblenden */ if (curPos === countSlides-1) { controlRight.hide() } else { controlRight.show() } /* Slides wechseln */ floatZone.animate({ ‘marginLeft’ : slideWidth*(-curPos) }); }); });

CSS, JavaScript und HTML findet ihr dieses mal schön kompakt zum nachmachen in einer Datei.

Meta Tags und Suchmaschinenoptimierung

An zwei Stellen bin ich in dieser Woche über das Thema Meta Tags in Zusammenhang mit Suchmaschinenoptimierung gestolpert .. dann kann ich auch gleich mal nen Artikel dazu schreiben 🙂

Ich hoffe jedem Leser ist klar was Meta Tags sind, falls nicht empfehle ich hier die Lektüre von SelfHTML.

Zu beachten ist grundsätzlich, daß ihr für jedes einzelne Dokument eurer Website spezifische Meta Angaben macht. Dies ist ein klassischer Fehler in der Suchmaschinenoptimierung .. einfach die SEO relevanten Meta Tags identisch auf jeder Seite zu verwenden.

Unverzichtbare Meta Tags?

Die gibt es .. und das sind auf jeden Fall die Meta Content Type, der Title Tag und die Meta Description.

Der Content Type definiert den Zeichensatz der Seite .. also z.b.

<meta http-equiv="Content-Type" content="text/html; charset=ISO-8859-1"> 
<meta http-equiv="Content-type" content="text/html; charset=utf-8">

Wenn man diese Angabe weg lässt kann der Browser ggf. Probleme mit der Darstellung der Seite haben.

Der Title Tag hat zwar kein Meta davor stehen .. zählt aber zu den Meta Tags. Maximal 70 Zeichen soll er umfassen und die Seite beschreiben. Die wichtigsten Keywords sollten hier in einem lesbaren Satz verpackt erscheinen.

Die Description ist aus SEO Sicht fast wichtiger. Hier schreibt man mit maximal 160 Zeichen eine Beschreibung der Seite hinein. Dieser Text wird dann auf den Suchergebnissseiten angezeigt und soll den Suchenden natürlich zum Klick animieren .. hier gilt es kurz und prägnant für die eigene Seite zu werben.
Laut Google beeinflusst die Meta Description das Ranking allerdings nicht.

Und die Robots Meta Angaben?

Die kann man im Grunde in die Tonne kloppen wenn ihr möchtet das eure Seite uneingeschränkt indiziert wird. Ein Meta Tag wie meta name=“robots” content=“index, follow” ist einfach nicht notwenig. Eure Seite wird auch ohne diese Angabe indiziert. Sinn macht die Robots Angabe nur wenn ihr Dinge von der Indizierung auschließen wollt.

Gültige Robots Attribute für den Google Bot wären dann:

  • NOINDEX – verhindert die Aufnahme der Seite in den Index
  • NOFOLLOW – verhindtert das der Bot den Links auf der Seite folgt
  • NOARCHIVE – verhindert das eine Kopie der Seite bei Google gecached wird
  • NOSNIPPET – verhindet das eine Beschreibung unte den SERPs erscheint, ebenso das Caching
  • NOODP – verhindert das die Beschreibung aus dem Open Directory Project in den SERPs benutzt wird
  • NONE – wie “NOINDEX, NOFOLLOW

Aber die Keyword Meta Angabe brauche ich?

Nein. Diese spielen für Suchmaschinenoptimierung aktuell keine Rolle mehr. Die Chance das sich das ändert ist gering. Der Einfluss auf das Ranking ist nicht messbar. Sollten die Keywords automatisch generiert werden muss man sie aber auch nicht zwangsweise entfernen.

Und der Rest?

  • Language – macht nur Sinn wenn man mehere Sprachen auf der Website verwendet
  • Geo – werden von Google derzeit nicht beachtet, aber von Bing
  • Source – Testphase, für Newsportale gedacht
  • Refresh – immer Serverseitige 301 Redirects verwenden anstatt das hier
  • Site verification – besser per DNS oder externer Datei verfizieren
  • Author – steht in der Regel im Text oder auf der Seite (Impressum)
  • Revisit after – kein Bot beachtet das
  • Expiration – Seiten sollte man löschen wenn sie überflüssig sind
  • Date – in der XML Sitemap pflegen
  • Copyright – steht auf nahezu jeder Seite, muss man nicht doppelt pflegen
  • Abstract – nicht SEO relevant, wer nutzt das?
  • Distribution – Zugangskontrolle zum Dokument? Wieso? Ist doch öffentlich!
  • Generator – CMS der Seite .. nutzlos
  • Cache Control – über die HTTP Header Information machen
  • Resource Type – spielt für SEO auch keine Rolle