An zwei Stellen bin ich in dieser Woche über das Thema Meta Tags in Zusammenhang mit Suchmaschinenoptimierung gestolpert .. dann kann ich auch gleich mal nen Artikel dazu schreiben 🙂
Ich hoffe jedem Leser ist klar was Meta Tags sind, falls nicht empfehle ich hier die Lektüre von SelfHTML.
Zu beachten ist grundsätzlich, daß ihr für jedes einzelne Dokument eurer Website spezifische Meta Angaben macht. Dies ist ein klassischer Fehler in der Suchmaschinenoptimierung .. einfach die SEO relevanten Meta Tags identisch auf jeder Seite zu verwenden.
Unverzichtbare Meta Tags?
Die gibt es .. und das sind auf jeden Fall die Meta Content Type, der Title Tag und die Meta Description.
Der Content Type definiert den Zeichensatz der Seite .. also z.b.
<meta http-equiv="Content-Type" content="text/html; charset=ISO-8859-1">
<meta http-equiv="Content-type" content="text/html; charset=utf-8">
Wenn man diese Angabe weg lässt kann der Browser ggf. Probleme mit der Darstellung der Seite haben.
Der Title Tag hat zwar kein Meta davor stehen .. zählt aber zu den Meta Tags. Maximal 70 Zeichen soll er umfassen und die Seite beschreiben. Die wichtigsten Keywords sollten hier in einem lesbaren Satz verpackt erscheinen.
Die Description ist aus SEO Sicht fast wichtiger. Hier schreibt man mit maximal 160 Zeichen eine Beschreibung der Seite hinein. Dieser Text wird dann auf den Suchergebnissseiten angezeigt und soll den Suchenden natürlich zum Klick animieren .. hier gilt es kurz und prägnant für die eigene Seite zu werben.
Laut Google beeinflusst die Meta Description das Ranking allerdings nicht.
Und die Robots Meta Angaben?
Die kann man im Grunde in die Tonne kloppen wenn ihr möchtet das eure Seite uneingeschränkt indiziert wird. Ein Meta Tag wie meta name=“robots” content=“index, follow” ist einfach nicht notwenig. Eure Seite wird auch ohne diese Angabe indiziert. Sinn macht die Robots Angabe nur wenn ihr Dinge von der Indizierung auschließen wollt.
Gültige Robots Attribute für den Google Bot wären dann:
- NOINDEX – verhindert die Aufnahme der Seite in den Index
- NOFOLLOW – verhindtert das der Bot den Links auf der Seite folgt
- NOARCHIVE – verhindert das eine Kopie der Seite bei Google gecached wird
- NOSNIPPET – verhindet das eine Beschreibung unte den SERPs erscheint, ebenso das Caching
- NOODP – verhindert das die Beschreibung aus dem Open Directory Project in den SERPs benutzt wird
- NONE – wie “NOINDEX, NOFOLLOW”
Aber die Keyword Meta Angabe brauche ich?
Nein. Diese spielen für Suchmaschinenoptimierung aktuell keine Rolle mehr. Die Chance das sich das ändert ist gering. Der Einfluss auf das Ranking ist nicht messbar. Sollten die Keywords automatisch generiert werden muss man sie aber auch nicht zwangsweise entfernen.
Und der Rest?
- Language – macht nur Sinn wenn man mehere Sprachen auf der Website verwendet
- Geo – werden von Google derzeit nicht beachtet, aber von Bing
- Source – Testphase, für Newsportale gedacht
- Refresh – immer Serverseitige 301 Redirects verwenden anstatt das hier
- Site verification – besser per DNS oder externer Datei verfizieren
- Author – steht in der Regel im Text oder auf der Seite (Impressum)
- Revisit after – kein Bot beachtet das
- Expiration – Seiten sollte man löschen wenn sie überflüssig sind
- Date – in der XML Sitemap pflegen
- Copyright – steht auf nahezu jeder Seite, muss man nicht doppelt pflegen
- Abstract – nicht SEO relevant, wer nutzt das?
- Distribution – Zugangskontrolle zum Dokument? Wieso? Ist doch öffentlich!
- Generator – CMS der Seite .. nutzlos
- Cache Control – über die HTTP Header Information machen
- Resource Type – spielt für SEO auch keine Rolle