So knackt man Suchmaschinen

von Dr. William Sen

Dr. William Sen gehört zu einen der ersten SEOs in Deutschland und betreibt Suchmaschinenoptimierung bereits seit 2001. In den ersten Jahren seines Werdegangs hat er zahlreiche Artikel zum Thema veröffentlicht, viele zu Zeiten, als der Begriff SEO noch nicht geläufig oder gar existent war. Dieser Artikel vom 18. August 2004 wurde im Magazin Wissenskapital (mittlerweile aufgelöst) veröffentlicht. Wir haben den Artikel aus historischen Gründen online gelassen, weil er einen Einblick in die ersten Schritte von SEO gibt.


Wie Suchtreffer die ersten Plätze bei Suchmaschinen belegen

Bevor man sich mit der Methode auseinandersetzt, wie man den Algorithmus einer Suchmaschinen knackt, sollte man in etwa verstehen, wie eine Suchmaschine funktioniert.

Ist diese Methode bekannt, liegt die nächste Frage nahe: Wie bringe ich meine Seite auf die Top-Trefferliste oder besser gefragt: “Wie knacke ich eine Suchmaschine?

Das Indexierungsverfahren

Beim Durchstöbern der Webseiten benutzen Suchmaschinen Tools, sog. Robots, die Seiten aufrufen und deren Inhalt indexieren (auch genannt: Bots, Spider, Scooter, Crawler). Diese Robots muss man sich wie einen automatischen Benutzer vorstellen, der Webseiten aufruft und deren Inhalt nach und nach in die Suchmaschine aufnimmt.

Der Robot ruft jeweils eine Webseite auf und gibt deren Inhalte an seine Datenbank weiter (hier: Processing Server). Bei Google, Alltheweb und weiteren Suchmaschinen werden etwa auch Bild-Inhalte aufgenommen und an den Server weitergeleitet. Zudem folgt er innerhalb eines Web-Dokuments zu allen weiteren internen Links innerhalb der Seite und indexiert dort in den Unterpunkten weiter. Anschließend springt der Robot in seiner Prioritäts-Liste zur nächsten aufgelisteten Webadresse und führt die Indexierung dort fort.

Der Robot ist in diesem Fall aber nicht ein einzelnes Tool, der nacheinander, sondern eine ganze Fülle von Websites innerhalb von Sekunden parallel abarbeitet. Google beispielsweise kann laut eigenen Angaben innerhalb von 4 Wochen den gesamten Datenbestand neu aufarbeiten. Bei einem Datenbestand von 8 Milliarden Websites (Google Stand 2005-03), entsprichz das über 3300 einzelne Websites, die Google in einer Sekunde komplett in seinen Index aufnimmt. Bei der Indexierung werden sowohl Neuzugänge, als auch bereits bekannte Websites zur weiteren Aktualisierung aufgenommen.

Im weiteren Verlauf werden die Daten nach bestimmten Kriterien, die in mehreren Algorithmen festgehalten werden bewertet und schließlich in die eigentliche Datenbank gespeichert (hier: Datastore Server). Der Datastore Server gibt gleichzeitig auch bereits einsortierte Altdaten an den Rechenserver weiter (hier: Processing Server), der diese zum Abgleich der neugewonnenen Daten benötigt.

Stellt nun ein User eine Anfrage an die Suchmaschine, kann dieser die bereits ausgewerteten und sortierten Daten sofort aus seiner Datenbank aufrufen und in sekundenschnelle an den User weitergeben.

Der Algorithmus

Jede Suchmaschine verwendet einen ganz speziellen Algorithmus, der nach eigenen Richtlinien und Kriterien Webseiten bewertet und indexiert. Fast alle dieser Algorithmen werden von den Anbietern von Suchmaschinen streng geheim gehalten. Somit bleibt es ein großes Rätsel für viele, wie eine Suchmaschine Websites bewertet.
Der bislang bekannteste und öffentliche Algorithmus wurde lediglich von den Google-Gründern Sergey Brin und Lawrence “Larry” Page, im Rahmen eines Forschungsergebnisses an der Stanford University veröffentlicht.

Reverse Engineering

Um die Vorgehensweise eines Algorithmus von Suchmaschinen verstehen und analysieren zu können, kann man sich einer Methode bedienen, die in Hackerkreisen als das “Reverse Engineering” bekannt wurde. Bereits vor Jahren haben gewiefte Computer-Tüftler einen Weg gefunden, die komplexe Funktionalität und das Geheimnis elektronischer Geräte und kryptographischer Software zu entschlüsseln und zu verstehen. Beim Reverse Engineering (zu deutsch etwa: Umkehrtechnik) werden einzelne Teile einer bestimmten komplexen Struktur nach und nach auseinander genommen. Dabei wird jedes einzelne Teil, das dem System entnommen wird schriftlich protokolliert und auf seine Funktion hin analysiert.

Man kann zwar das Gerät am Ende nicht mehr unbedingt zusammenbauen, man versucht aber jedes einzelne Stück, dessen Funktion man nun kennt, zumindest theoretisch wieder zurückzubasteln. So bekommt man letztendlich ein klares Verständnis der Funktionalität eines vorher komplexen Musters.

Diese Methode lässt sich auch auf den Algorithmus einer Suchmaschine übertragen. Ist eine Webseite erst einmal von einem Robot erfasst und in der Suchmaschine indexiert worden, ist es erforderlich die Kriterien, wie eine Suchmaschine vorgegangen ist zu verstehen. Auf diese Weise kann man herausfinden, wie die Suchmaschine mit bestimmten Websites vorgegangen ist. Eine genaue Untersuchung der Website selbst gibt uns somit Rückschlüsse auf die Vorgehensweise. Hierzu beachtet man also das gefertigte Endprodukt der Suchmaschine und baut dieses nach und nach auseinander.

Logischerweise sind bei einer Suchmaschine alle aufgelisteten Websites auch irgendwann mal vom Robot erfasst worden. Daher kann man beliebig ausgewählte Websites Stück für Stück auseinander nehmen, und dann versuchen daraus zu interpretieren, warum diese Webseiten auf bestimmte Art und Weise indexiert worden sind.

In einem Experiment kann man auch selbst Webinhalte generieren, dann schließlich von einer bereits von der Suchmaschine erfassten Seite darauf verlinken und nach der Indexierung das Resultat beobachten.


Die letzten Artikel zum Thema SEO

Linksterben Tote Links im Web

Wenn URLs geändert werden, entstehen Tote Links – ein negativer SEO Faktor. Doch im Social Web haben tote Links noch eine ganz andere Auswirkung!


Facebook SEO Facebook SEO

Wie kann man eigentlich seine eigene Facebook Page besser ranken?


Foren SEO Foren SEO

Die größte SEO-Power geht oft von aktiven Foren aus, weil sie ein ständiges Content Freshness bieten. Wenn ein Unternehmen es schafft ein erfolgreiches Forum aufzubauen, ist eine der erfolgreichsten Etappen im SEO erreicht.


Wikipedia SEO Wikipedia SEO (Teil 1)

Kann man eigentlich mit Online Marketing mit Wikipedia betreiben, vor allem SEO? Das Problem liegt darin, dass Wikipedia im Grunde die Informationsfreiheit und den Gedanken des WWW versucht auszuhebeln. Nicht ohne Grund haben sich im Netz eine Schar von Menschen gegen Wikipedia ausgesprochen.


Wikipedia SEO Wikipedia SEO (Teil 2)

Wer versucht seine eigene Website oder Produkte durch Wikipedia-Maßnahmen hochzuranken, sollte aufpassen. Das Spiel kann auch nach hinten losgehen. Das Prinzip ist eigentlich klar: Wer Artikel bei Wikipedia veröffentlicht, gibt die Kontrolle über die Artikel ab.


Was dürfen Suchmaschinen Was dürfen Suchmaschinen?

Wenn Suchmaschinen Inhalte von Websites indexieren, ist das denn eigentlich nicht Urheberrechtsverletzung? Immerhin kopiert doch dabei die Suchmaschine Werke von verschiedenen Autoren, obwohl das gem. des Gesetzes doch die Einwilligung des Autors bedarf. Dieser Frage sind wir nachgegangen und stellen etwas sehr interessantes fest.


Twitter SEO und Marketing Twitter SEO

Beim Twitter Marketing mit SEO handelt es sich um die sogenannte Königsdisziplin. Hierbei geht es darum den eigenen Twitter-Kanal bei Suchmaschinen wie Google so hoch wie möglich zu ranken. Doch Twitter tut derzeit alles dafür, um bei Google nicht gerankt zu werden. Und Google hat bereits darauf negativ reagiert.

>> Übersicht alle SEO Artikel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.