Vorschau: doFollow

HTML Code: <a href="http://dofollow.de/" target="_blank"><img src="http://dofollow.de/badge/blog_dofollow_01.png" alt="doFollow" title="doFollow Blog" width="78" height="15"></a>

Wenn dein Blog auf doFollow eingestellt ist, dann weise deine Besucher mithilfe einer Badge darauf hin. Nutze dafür den oben stehenden Code.   

Samstag, 17. Januar 2009

SEO aufgepasst: So funktioniert Google

849
KLICKS

Jojojoh, der DoFollowBlogger ist zurück und zeigt Euch heute auf wie Google seine Suchergebnisse sortiert- Ihr könnt gespannt sein was ich alles heraus gefunden habe.

Wer erfolgreich die Rangposition seiner Website beeinflussen will der muss zumindest im Grundsatz verstehen wie eine Suchmaschine funktioniert. Doch nur wenige wissen genau wie Googles Filter, Algorithmen, Bewertungs- und Analyse-Tools genau arbeiten. Durch simple Beobachtung von Außen, Logischem Denken, ständigem Experimentieren, und dem Zwischen-den-Zeilen-Lesen von Artikeln die von Googles Mitarbeitern angefertigt worden sind, lässt sich schon so Einiges ablesen. Ich der DofollowBlogger habe es versucht und zeige Euch heute- anhand meiner Schlussfolgerungen- auf wie Google funktioniert.
Gehen wir einen Schritt zurück und fragen uns Folgendes: Was macht die Suchmaschine Google? Antwort: Sie hilft seinen Nutzern dabei zu Suchwörtern passende Websites zu finden. Nutzer geben einen oder mehrere Suchbegriffe in Googles Suchmaske ein und erhalten eine Suchergebnisliste präsentiert die nach Relevanzgrad sortiert ist. Gut zu wissen. Wir wissen aber auch, dass Google eine „intelligente“ (so scheint es wenigstens) Maschine ist, die ähnlich wie ein Schachcomputer immer versucht das beste Ergebnis zu liefern-so wie DeepBlue der von Millionen möglichen Schachzügen immer den mathematisch besten wählt. Googles Rechenzentren obliegt es dabei folgende Aufgaben zu lösen:

So funktioniert die Suchmaschine Google

1.Die Bereitstellung von Ressourcen – Da Google so beliebt ist und große Marktanteile (über 90 % in Deutschland) innehat müssen täglich um die 100 Millionen Suchanfragen beantwortet werden. Um hier nicht vom Traffic in die Knie gezwungen zu werden besitzt Google ca. 450.000 Rechner in 25 Rechenzentren die mit Strom gespeist werden müssen.

2.Die Beschaffung des Datenbestandes- Das Ausfindigmachen von neuen URL & Content ist eine von Googles Mammutaufgaben. Es wird damit quasi das gesamte Internet gedownloadet. Google benutzt 2 Methoden um an Webdaten zu gelangen: Die passive Form des URL-Eintrage-Formulars und der aktiven Form des Webrobots. Die Webrobots sind Indexierungsprogramme (Bestehend aus Soft- u. Hardware Systeme ) und durchforsten das Web täglich indem sie von Hyperlink zu Hyperlink springen; Dabei werden noch unbekannte URL in den Datenbestand aufgenommen und indexiert. Auch RSS Feeds können abonniert werden um so auf die Fährte von frischen Content zu gelangen. Filter zum Ausschluss bestimmter Daten werden schon hier eingesetzt.

3.Bewertung von indexierten Dokumenten –Der täglich von Webrobots herbeigebrachte Content muss vor der inhaltlichen Analyse klassifiziert werden. Hier wird Google sich einem Schubladensystem bedienen; So müssen verschiedene Datenformate, Sprachen, Neuer u. alter Content, uvm. voneinander abgegrenzt werden. Da Google textbasiert ist, wird er den Content separat von z.B. Bildern und Videos mithilfe linguistischer Algorithmen bearbeiten. Bei der Bewertung werden Inhalte schon grob Themenbereiche zugeordnet.

4. Analyse aller indexierten Dokumente- Der Text jeder indexierten Website wird genau auf Länge, Auszeichnung/ Hervorhebungen und semantische Richtigkeit hin untersucht. Es wird nicht nur jedes einzelne Wort eines Textes gelesen sondern auch seine exakte Position und Wiederholung bestimmt. Verschiede Spam-Algos (z.B. der Text Frequency Algorithmus ) untersuchen Worthäufigkeit, Schriftgröße und Verhältnis von Textfarbe zu Hintergrundfarbe. Weiterhin werden die Metadaten ( Title & Description ) und der Domain-Name inhaltlich mit den Schlüsselbegriffen des Body abgeglichen. Das Thema jeden einzelnen Artikels einer Webseite wird exakt bestimmt und einem Pool von möglichen Suchanfragen zugeteilt. Nach der Analyse weiss Google z.B. wie oft ein bestimmter Schlüsselbegriff auf einer Website auftaucht. Ob er für Ankertexte Verwendung findet oder in Überschriften und Listenpunkten erscheint.

5.Zuweisung von Relevanzwerten- Bei der Relevanzbewertung wird grob ausgedrückt von Googles Algos „entschieden“ ob ein Textdokument brauchbar oder unbrauchbar ist. Brauchbare Dokumente gelangen in den regulären Index und unbrauchbare in den Suplemental Index (SI) oder werden terminiert. Unbrauchbar sind z.B. Dubletten (doppelter Content), Spam und Rechtverletzende Inhalte. Brauchbare Dokumente werden durch Anwendung von Filtern und der Anwendung von Rankingfaktoren auf einzelne Texte automatisch ermittelt wobei in bestimmten Fällen auch humane Ressourcen aktiviert werden (Search Quality Team ).

6.Pagerank Kalkulation- Die Relevanz von Dokumenten wird weiter bestimmt auf Basis der Quantität und Qualität von Verweisen (Links) anderer Websites. Die Hyperlinks werden vom Text gesondert abgehandelt; Zum Einen weil die Berechnung des Pageranks eigene Rechenzentren benötigt und zum Anderen weil Links dazu dienen weitere neue Dokumente im Web ausfindig zu machen.

7.Beantwortung von Suchanfragen- Die inhaltliche Differenzierung und Relevanzbewertung sowie die Pagerank-Kalkulation ermöglichen es Google genaue Suchergebnisse zu liefern; Und aufgrund der im Vorwege durchgeführten Operationen und der technischen Ausstattung an Hardware und Rechenpower geschieht dies in Millisekunden.

8.Auswertung des Verhaltens von Google-Nutzern
- Google registriert jeden Klick auf seine gelieferten Suchergebnisse; dementsprechend ist die Click Popularity nicht nur ein probates Instrument für die Bereitstellung einer Personal Search (Beliebte Suchergebnisse werden immer höher angezeigt bei eingeloggten Usern) sondern auch eine Methode um einem Dokument weitere Gewichtung zu verleihen. Weitere für die Gewichtungsmethode relevante Benutzerdaten erhält Google durch Google-Analytics, der Google-Toolbar und dem neuen Webbrowser Google-Chrome.

9.Pflege & Verwaltung des Datenbestandes- Laut eigenen Angaben kennt Google 50 Milliarden Domain-Namen und der Suchmaschinenbetreiber scheint einen schier unendlichen Speicher zu besitzen. Googles Datenbanken speichern Millionen, von Videos, Bildern, Texten und URLs. Jeden Tag kommen neue Inhalte hinzu, werden Domains registriert, bereits indexierte Inhalte aktualisiert oder gelöscht. Die Pflege und Verwaltung dieses Datenbestandes verursacht natürlich Kosten von denen Google anscheinend überhaupt nichts zu spüren bekommt.

[ad#adsense]

                

  • content

Kommentare (1)

writing, free iconsKommi rss icon, free rss iconsVerfolgen



avatar
Kommentar von Auf Rechnung 87
  • Bezüglich Punkt 8, kann Google das eigentlich auch ohne eingeschaltetes JavaScript herausfinden das man auf einen bestimmten Link geklickt hat?

    (0)(0)
    1# —6. Januar 2012 um 15:58 Uhr




  • Kommentarformular


    Ihre Daten werden zum Zweck der Bearbeitung bei uns gespeichert. Dabei werden von uns die geltenden datenschutzrechtlichen Gesetze selbst- verständlich eingehalten. Dies heißt insbesondere, dass wir keine Daten an Dritte weiterleiten bzw. in irgendeiner Form zweckentfremden.






    award, graphics, design medals, banners, certificates award 2012, excellence, vector free, ribbons award, icon, vector free, trophies, templates awards, gallery, excellence, images clipart, emblem

    The doFollow Blog
    Impressum / Kontakt © MMXII ~ Themen, Top 100, Archiv, Tags, Beliebt, Bilder, Sitemap, Tools, Spiele