Vorschau: doFollow

HTML Code: <a href="http://dofollow.de/" target="_blank"><img src="http://dofollow.de/badge/blog_dofollow_01.png" alt="doFollow" title="doFollow Blog" width="78" height="15"></a>

Wenn dein Blog auf doFollow eingestellt ist, dann weise deine Besucher mithilfe einer Badge darauf hin. Nutze dafür den oben stehenden Code.   

Donnerstag, 15. Januar 2009

SEO TUTORIAL TEIL II : Optimierung der Website-Struktur

1.185
KLICKS
Mein kleines SEO Tutorial geht heute in die 2. Runde, wer Teil 1 verpasst hat der klicke hier: SEO Tutorial 1 .

Optimierung der Website-Struktur
Bei der Struktur-Optimierung einer Website versucht der SEO einerseits den gesamten Content für Suchmaschinen indexierbar zu machen und andererseits das Navigieren für Besucher maximal zu vereinfachen und eine positive Usererfahrung zu erreichen . Hierbei muss der SEO den Spagat zwischen ordentlichem Website Design sowie Usability und Suchmaschinenfreundlichkeit schaffen. Folgende Wege sind derzeit bekannt um das Indexieren für Suchmaschinen zu erleichtern bzw. dem Webrobot Instruktionen zu erteilen:

- Die Erstellung einer Sitemap- Eine Sitemap ist eine Liste mit allen Webseiten deiner Website die von der Startseite aus erreichbar sein sollte und sicherstellt dass Webrobots beim Indexieren nichts „übersehen“ oder falsches Downloaden (z.B. geschütztes Material ) . Die Sitemap veranschaulicht dem Webrobot wie das innere Gefüge deiner Website organisiert ist. Wenn dein Content aktualisiert wurde muss die Sitemap ebenfalls angepasst werden. Bestimmte WordPress PlugIns ( Sitemap Generator WordPress ) übernehmen mittlerweile schon diese Arbeit für dich. Ich verwende gerne Sitemaps von www.xml-sitemaps.com die einen eigenen Crawler losschicken und Dir schnell, gratis und automatisch Sitemaps erstellen . Das xml Sitemap Format wurde übrigens schon 2005 von Google vorgestellt und hat sich als Standard durchgesetzt. Du kannst auch auf Sitemaps verzichten wenn deine interne Linkstruktur bombastisch ist-allerdings sollen es Suchmaschinen sehr wertschätzen wenn Du ihnen entgegen kommst und außerdem gibt es auch noch Besucher die hin und wieder Sitemaps zum Navigieren verwenden.

- Gebrauch von DHTML Menüs- Überlappende Menüs sind ein ideales Instrument um eine schlanke und logisch-strukturierte Navigation zu schaffen. Leider waren Lösungen mit JavaScript nicht immer suchmaschinenfreundlich weil Webrobots diesen Menülinks nicht folgen konnten. Für SEO bietet sich nun das DHTML Menu an welches auf Javascript verzichtet und stattdessen mit CSS technisch realisiert wurde. Opencube bietet Dir ein Quick-menu Tool zum Download an.: zum Download.

- Verwendung einer robot.txt file- Die robot.txt Datei ist eine weitere technische Einstellungsmöglichkeit um die Website Struktur und damit die Performance zu optimieren. Manchmal möchte ein SEO nicht dass alle Seiten indexiert werden auch hierfür gibt es natürlich Lösungen. Wenn ein Webrobot deine Domain besucht hast Du die Möglichkeit ihm detaillierte Anweisungen zur Indexierung vorzusetzen. Das Crawlen ist nichts anderes als das Downloaden von Dateien deines Servers was wiederum Server Brandbreite verbraucht und die Serverleistung schmälern kann. Im Client-Server-Modell ist der Webrobot der Client und der Host der Website der Server. Der Webrobot wird in regelmäßigen Abständen als Client Anfragen an den Host stellen um zu erfahren ob es Aktualisierungen auf deiner Website gegeben hat. Die robot.txt Datei gehört in das Stammverzeichnis deiner Domain, fehlt sie, gehen Webrobots davon aus dass sie alles crawlen dürfen. Du hast noch weitere Anweisungsmöglichkeiten, so kannst Du dem Webrobot mitteilen wo deine Sitemap lokalisiert ist ( Beispiel: sitemap: http://www.dofollow.de/sitemap.html. Wenn Du dem Webrobot hingegen nur das Crawlen zu bestimmten Zeitfenstern erlauben möchtest verwende einfach den robot.txt Generator auf: Link.

Beispiel für den Inhalt einer robot.txt Datei:

User-Agent=
Disallow: /Bilder/
Disallow: /Privat/intimes.html

Die Anweisung “User-.Agent=*” sagt nichts anderes aus als dass die nachfolgenden Anweisungen von allen Webrobots beachtet werden müssen. Wie in dem Beispiel zu sehen , können sowohl ganze Ordner als auch nur einzelne Dateien vom Crawlen ausgeschlossen werden. Um dem Robot etwas zu erlauben verwendest Du „allow“ um ihm etwas zu verbieten „disallow“. Wenn Du mehrere Robots das Crawlen verbieten möchtest, musst Du auch jedes Mal „User-Agent=“ verwenden und mit den jeweiligen Anweisungen untereinanderschreiben. Beispiel:


User-Agent=böserbot1
Disallow: /Bilder/
Disallow: /Privat/intimes.html

User-Agent=böserbot2
Disallow: /Bilder/
Disallow: /Privat/intimes.html

etc....

Wenn Du deine Domain komplett vor Robots schützen möchtest dann wähle folgende Syntax:


User-Agent:

Disallow: /

Wenn Du nur einzelne Webseiten vor dem Auslesen ausschließen möchtest reicht auch eine simple Einstellung der Metadaten aus. Da die robot.txt Datei ins Wurzelverzeichnis der Webdateien der Domain abgelegt werden muss kannst Du sie nur bei eigenen Domains einsetzen- bei gratis Webhostern ist dies in der Regel nicht möglich. Bedenke auch: Die robot.txt Datei wird nur von Webrobots befolgt nicht aber von Browsern (sprich Besuchern).

- Einsatz vom Nofollow Attribut- Google himself stellte das Nofollow Attribut Anfang 2005 vor als ein Mittel zur Bekämpfung von Spam in Blogs und Gästebüchern und anderen Sites. HTML Hyperlinks können direkt mit rel=nofollow ausgezeichnet werden und Googles Webrobots werden fortan diesen Links nicht weiter folgen. Hintergrund: Ein dofollow Backlink der von Dir auf eine andere Website gesetzt wird vererbt Pagerank und kann positiven Einfluss auf deren Suchmaschinenranking haben; Ein nofollow Backlink hingegen nicht. Du könntest deinem Ranking schaden und trust verlieren wenn Du desöfteren auf Spamsites (cheap viagra, etc. ) verlinkst. Deshalb ist auch in Blog- und Gästebuchsoftware immer häufiger >>nofollow<< automatisch als Standard eingestellt. Das Nofollow Attribut wird allerdings nicht nur einsetzt um Spammern den Spaß zu verderben, wenn es nämlich sinnvoll in die eigene interne Linkstruktur integriert wird hat es noch weitere Vorteile: Per Pagerank-Sculpting vermeidest Du es, dass Pagerank auf unwichtige Webseiten wie das Impressum, Kontaktformular oder Userlisten abfließt. Oder Du möchtest vielleicht thematische Homogenität erzeugen, dann lasse den Webrobot nur thematisch relevanten Links folgen und setze andere interne Links auf nofollow. Um zu checken ob ein Link mit dem nofollow attribut ausgezeichnet ist kannst Du entweder mit der rechten Maustaste die Eigenschaften des Links aufrufen oder Du gebrauchst kostenlose Firefox Addons wie das geniale SearchStatus die alle nofollows optisch hervorheben.

- Schreiben und Hochladen einer .htaccess Datei- Die .htaccess Datei ist eine Konfigurationsdatei für den Apache Web Server. Du hast mit dieser Datei Kontrolle über Server-Funktionen ---so kannst Du z.B. mit Ihr URL umschreiben lassen damit sie im sprechenden Format erscheinen, außerdem kannst Du auch Website Traffic umleiten lassen. Darüber hinaus bietet die .htaccess Passwortschutz, das Bannen von unerwünschten Besuchern / Bots und den Schutz vor Traffic-Dieben die z.B. deine Bilder auf Ihrer Website über deinen Server anzeigen wollen. Die .htaccess Datei fängt mit einem Punkt an weil sie aus dem traditionsbewussten Unix-Sektor stammt und dort verzeichnisspezifische Konfigurationsdateien sehr häufig mit einem Punkt beginnen. So wie die robot.txt Datei ist auch die .htaccess eine reine Textdatei die mit allen gängigen Texteditoren (z.B. Wordpad ) bearbeitet werden kann. Die Textdatei wird nach Erstellung htaccess.txt genannt und auf den Webspace hochgeladen. Danach geht man auf „umbenennen“ und speichert sie als .htaccess ab. Du kannst eine .htaccess in das Hauptverzeichnis deines Webspaces ablegen oder aber auch für bestimmte Unterverzeichnisse eigene Regeln vergeben dann musst Du auch mehrere .htaccess Dateien erstellen. Hier ein Beispiel einer .htaccess um bestimmte IP-Bereiche zu blocken:

Order deny, allow
Deny from 192.168
Allow 192.168.1.0

Im oberen Beispiel werden alle IP-Bereiche mit Anfangskennung >> 192.168 << geblockt und nur IP´s mit 192.168.1.0 zugelassen. Link: htaccesstools.com. Die Verzeichnisdatei .htaccess stellt 2 weitere für die Suchmaschinenoptimierung wichtige Module zur Verfügung :
1. Mod_rewrite und,
2. 301 für Weiterleitungen

1. Mode rewrite – Das Mod_rewrite ist ein Modul des Apache Webservers und erlaubt es, dass Besucher deiner Homepage von einer URL zu einer anderen weitergeleitet werden ohne dass sie es merken. Das mod_rewrite Modul wird von SEO hauptsächlich eingesetzt um aus dynamisch erzeugten Url sprechende URLs (das sind „saubere“ URL ohne Fragenzeichen oder Session-ID´s) zu machen die bei Suchmaschinen und Besuchern gleichermaßen beliebt sind. Es sei hier weiter angemerkt, dass nicht alle Webhoster den Apache Webserver anbieten bzw. mod_rewrite installiert haben. Weitere Fragen sollten direkt an den Webhoster ( z.B. 1und1 FAQ ) oder zuständigen Webmaster gerichtet werden. Denn mod_rewrite ist recht komplex und die Verwendung oftmals mit Problemen verknüpft, vor allem aber weil viele Webhoster unterschiedliche Spezifikationen verwenden kann auch ein geübter Webprogrammierer ins Straucheln kommen. Weiter helfen auch kostenlose Webtools im Internet bei Fragen zur mod_rewrite- so gibt es auf Webmastertoolkit.com Tools die aus dynamischen URL schön-strukturierte statische URL zaubern können.

2. 301 für Weiterleitungen- Die 301 Weiterleitung wird sehr häufig von SEO eingesetzt wenn Content von einer Webseite auf eine andere verlagert wurde und die Ursprungsseite nicht mehr bestehen soll. Das kann recht häufig vorkommen, wenn man z.B. die URL-Struktur von dynamisch auf statisch umstellt, aus der Website einen Blog machen möchte oder im Begriff ist ein Redesign zu planen. Modifikationen der URL und sonstige Veränderungen an einer Homepage werden von Suchmaschinen leider nicht immer gut aufgenommen. Hinzu ist es immer tragisch wenn eine alte bereits gespiderte und indexierte URL gelöscht wird denn somit könnte man Besucher verlieren die deine Webseite über ihre Bookmarks ansteuern und dann nichts weiter als eine Fehlermeldung vorfinden. Deshalb gibt es die 301 Weiterleitung die in solchen Fällen Suchmaschinen-Spider sowie Besucher auf die neue Lokation (z.B. neuer Ordner, Datei oder Domain ) weiterleitet. Dennoch könnte zumindest für ein paar Monate dein Ranking durch eine Weiterleitung fallen- aber keine Sorge Google wird sich alsbald darauf einstellen Füge folgende Anweisungen (ohne die >> Zeichen! ) in die .htaccess ein um eine 301 Weiterleitung für Dateinamen zu realisieren:

Redirect 301 /alte-seite.html http://www.dofollow.de/neue-seite.html

Und verwende diese Anweisungen (ohne >>- Zeichen) für eine 301 Weiterleitung von Domain-Namen:

Redirect 301 /http://www.neue-Domain.de
Rewriterule (.*)
http://www.neue-Domain.de/$1 [R=301,L]

Die 301-Weiterleitung ist auch hervorragend für folgendes Problem geeignet: Wie Du sicherlich schon bemerkt hast, sind viele Domains über http://www.domain als auch über http://domain.de ansteuerbar. Und wenn Content über 2 Adressen verfügbar ist handelt es sich um doppelten Content. Außerdem spaltet sich der Linkjuice (Power aller Links die auf eine Site weisen) hier unnötig auf. Google versucht hier der Lage Herr zu werden indem er in den Webmaster Tools die Option einer „bevorzugten URL“ anbietet und tatsächlich hat Google bei der Indexierung der beiden URL-Varianten auch schon große Fortschritte gemacht. Dennoch solltest Du hier wieder unbedingt die 301-Weiterleitung verwenden um zumindet der Aufteilung des Linkjuice entgegen zu wirken (Manche linken zur Dir auf www und andere wiederum auf non-www ). Für welche Variante Du dich dann entscheidest ist eigentlich egal. Einige Webmaster bevorzugen die mit-www Variante weil sie Besucher nicht verwirren möchten. Andere wiederum finden das www altmodisch und wählen die non-www Variante weil sie modern und cool wirkt. Für Details solltest Du wieder die FAQ deines Webhosters lesen und dort anrufen weil der Inhalt der .htaccess hier wieder von Host zu Host anders sein kann.

So legst Du eine Standard-Domain mit www fest (Beispiel: http://www.dofollow.de):

RewriteCond %{HTTP_HOST} ^meinedomain\.de$ [NC]
RewriteRule ^(.*)$ http://www.meinedomain.de/$1 [R=301,L]

So legst Du eine Standard-Domain ohne www fest (Beispiel: http://dofollow.de:

RewriteCond %{HTTP_HOST} !^meinedomain\.de$
RewriteRule ^(.*)$ http://meinedomain.de/$1 [L,R=301]

Ich hoffe Euch hat das SEO Tutorial Teil II gefallen, freue mich über jede Menge Kritik, Lob, Tadel, Verbesserungsvorschläge-ach egal, Hauptsache Beteiligung!

Stay Dofollow!
Der DoFollowBlogger

                

  • seo optimierung weiterleitung
  • webseiten strukturoptimierung
  • 1
  • seo struktur nicht optimiert

Kommentare (2)

writing, free iconsKommi rss icon, free rss iconsVerfolgen



avatar
Kommentar von arttoseo 586
  • Top Post!

    (0)(0)
    1# —16. Januar 2009 um 23:58 Uhr




  • avatar
    Kommentar von Auf Rechnung 87
  • Das sind wirklich gute Informationen (für Einsteiger und etwas Fortgeschrittene). Schade das ich mir diese ganzen Infos alle mühsam zusammen suchen musste.

    Weshalb ich aber kommentiere: Schau dir mal den Post an. Hier gabs beim Konvertieren (oder was auch immer ;) einen Zeichensalat was die Umlaute anbelangt.

    Gruß
    Das F.

    (0)(0)
    2# —4. August 2011 um 15:42 Uhr




  • Kommentarformular


    Ihre Daten werden zum Zweck der Bearbeitung bei uns gespeichert. Dabei werden von uns die geltenden datenschutzrechtlichen Gesetze selbst- verständlich eingehalten. Dies heißt insbesondere, dass wir keine Daten an Dritte weiterleiten bzw. in irgendeiner Form zweckentfremden.






    award, graphics, design medals, banners, certificates award 2012, excellence, vector free, ribbons award, icon, vector free, trophies, templates awards, gallery, excellence, images clipart, emblem

    The doFollow Blog
    Impressum / Kontakt © MMXII ~ Themen, Top 100, Archiv, Tags, Beliebt, Bilder, Sitemap, Tools, Spiele