Was ist eine Suchmaschine? – SEO Grundlagen

Das World Wide Web hat seit den 1990er ein rasantes Wachstum zu verzeichnen. Dieses Wachstum beinhaltet immer mehr Internetseiten – immer mehr Inhalt, jeden Tag. So wurde es schon früh für die Internetnutzer unmöglich, sich selbst in dem riesigen Angebot an Internetinhalten zu orientieren und vielleicht sogar die passenden Informationen zu einem Thema zu finden. Daher wurden zunächst Webkataloge entwickelt, die wie die gelben Seiten die Internetseiten katalogisierten. Mit zunehmendem Wachstum des Internets wurden sie aber zu langsam, da die Aufnahme der einzelnen Seiten auch viel zu lange dauerte, zumal sie oft noch von Menschen überprüft wurden. Dann kamen die Suchmaschinen auf, bei denen das Erfassen der bereitgestellten Informationen im Internet automatisch und somit viel schneller ablief. So konnte zumindest einigermaßen mit dem Wachstum mitgehalten und den Usern passende und aktuelle Ergebnisse zu ihren Suchanfragen geliefert werden.

Grob gesagt übernimmt eine Suchmaschine im World Wide Web also drei Aufgaben: Ein Teil der Suchmaschine sucht und indexiert Webseiten. Ein zweiter Teil speichert und katalogisiert diese Informationen. Ein dritter Teil stellt die gesammelten Informationen zu einem Thema oder einen Bereich auf Anfrage zur Verfügung. So gesehen könnte man sagen eine Suchmaschine ist das Inhaltsverzeichnis oder ein Teil des Inhaltsverzeichnisses für das Internet.

Nach der Eingabe eines oder mehrerer Suchbegriffe liefert die Suchmaschine eine nach Relevanz geordnete Liste mit Verweisen auf verschiedene Websites, deren Inhalte am ehesten mit dem Suchtext in Beziehung gebracht werden können. Dabei greift sie auf ihre katalogisierten Informationen über das Internet zu. Veränderungen der Daten oder der Seiten, sowie die Kriterien wie sich das Ranking zusammensetzen soll, werden zusätzlich ständig aktualisiert. Zu erkennen welche Internetseiten für einen eingegeben Suchbegriff relevant sind, ist die eigentliche Kunst der Suchmaschinen.

Es gibt auch so genannte Metasuchmaschinen. Diese arbeiten mit den Daten, die mehrere der oben beschriebenen Suchmaschinen zusammen getragen haben. Sie werden aber seitens der Suchmaschinenbetreiber argwöhnisch beäugt, da diese die zusammengetragenen Daten, deren Katalogisierung und Präsentation im Ranking als Betriebsgeheimisse betrachten.

Technik der Suchmaschinen

Im Wesentlichen besteht eine Suchmaschine aus fünf Einzelelementen: Dem URL-Server, mehreren Crawlern (auch Bots, Robots oder Spider genannt), dem Parser, dem Store Server und dem Index.

Der URL-Server verwaltet die Internetadressen, die noch nicht in den Index aufgenommen wurden oder zur Aktualisierung erneut untersucht werden sollen. Anmeldungen einzelner Webseiten bei Suchmaschinen werden zumeist an diesen URL-Server übermittelt. Dieser gibt die Daten dann an die Crawler weiter, die die Internetseiten besuchen und dort Daten sammeln.

Die Crawler wandeln nun jede einzelne URL in eine IP-Adresse um und treten auf diese Weise mit den jeweiligen Servern in Verbindung. Um die Server nicht zu überlasten und die Dauer der Übertragung zu verkürzen, öffnet ein Crawler sehr viele (manchmal sogar mehrere hundert) Verbindungen gleichzeitig. Treten bei einer Verbindung Probleme auf, kann er auf die nächste Verbindung zugreifen. Durch dieses Verfahren kann ein einzelner dieser Robots bis zu 30 einzelne Seiten pro Sekunde erfassen. Die so gewonnenen Daten gibt der Crawler an den Parser weiter.

Der Parser erstellt von jeder einzelnen HTML-Seite eine vereinfachte Form und übergibt diese an den Store Server. Dieser Store-Server hat nun die Aufgabe, die Informationen aus den vereinfachten Seiten zu extrahieren. Enthaltene Links werden zur weiteren Auswertung an den URL- Server übermittelt. Der sonst enthaltene Text bzw. die enthaltenen Begriffe werden – sofern noch nicht bekannt – in den Index aufgenommen.

Der Index besteht vereinfacht gesagt aus dem Lexicon, den Hit Lists und dem Repository. Das Lexicon ist eine Sammlung der im Netz gefundenen Begriffe. Nur jene Begriffe, welche im Lexicon enthalten sind, liefern auch eigenständige Suchergebnisse. Jeder Begriff bzw. jedes Wort des Lexicons enthält einen Vermerk auf die entsprechende Hit List. Die Hit Lists wiederum enthalten zu jedem Wort Verweise auf die entsprechenden Seiten im Repository. Dort werden die Webseiten gespeichert. Gleichzeitig wird in den Hit Lists vermerkt, welche Bedeutung einer einzelnen Seite in Bezug auf die jeweils enthaltenen Begriffe bzw. Suchwörter zukommt.

Um mit einer Suchmaschine interagieren zu können, benutzt man das Frontend oder den Searcher. Das Frontend ist die Benutzeroberfläche einer Suchmaschine, also das was wir sehen wenn wir die Seite aufrufen. Stellt der Benutzer eine Suchanfrage, zeigt der Searcher eine aus dem Lexicon und den Hit Lists erstellte Ergebnisliste an – das sogenannte Ranking.

Jede Suchmaschine verwendet eine eigene Methode, nach der die Ergebnisse bewertet und gelistet werden. Dieser Algorithmus ist das eigentliche Herzstück einer Suchmaschine. Er besteht aus hunderten von Kriterien, welche darüber entscheiden, an welcher Position eine Webseite bezüglich einer bestimmten Suchanfrage im Ranking gelistet wird.

Marko Engelberth 94 posts

Mitbegründer von Seosweet. Tester, Lektor sowie Online-Redakteur. Und hin und wieder Webentwickler.

10 Kommentare

  • [...] Was eine Suchmaschine ist haben wir ja bereits geklärt. Heute sollen die drei wichtigsten vorgestellt werden, allerdings könnte man durch die Kooperation von Yahoo und Bing auch nur noch von den beiden wichtigsten Suchmaschinen reden. Wir gehen vor allem auf die Geschichte und die wichtigsten Rankingfaktoren der drei Portale ein. [...]

  • [...] wir bereits im Artikel “Was ist eine Suchmaschine?” angedeutet haben, ist der Vorgang des Crawlings, also der Erfassung aller Unterseiten einer [...]

  • [...] bei einer Suchmaschine ist auch für die Positionierung bei anderen Suchmaschinen relevant ist. Die Suchmaschinen arbeiten fast alle mit ähnlichen Algorithmen und tauschen teilweise sogar Daten untereinander aus. [...]

  • [...] sind. Die hohe Spezialisierung der Blogger und die soziale Kontrolle, machen die Blogs für die Suchmaschinen sehr interessant. Blogs mit einer hohen Relevanz dienen den Suchmaschinenbetreibern quasi als [...]

  • [...] ja um nichts anderes geht, als eine Seite auf bestimmte Keywords zu optimieren, damit die User der Suchmaschinen, wenn sie diese Suchbegriffe eingeben möglichst als erstes auf die eigene Seite treffen. In [...]

  • [...] den Quellcode einer Seite ansieht findet man die dort hinterlegten Informationen. Die Crawler der Suchmaschinen werten die Meta-Tags jedoch aus und bekommen so schon grundlegende Informationen über die Seite. [...]

  • [...] den Seosweet Blog gestartet haben, sind wir zu Beginn auf die grundsätzliche Frage eingegangen: Was ist eine Suchmaschine? In diesem und in einigen weiteren Beiträgen wird es nun um die Architektur von Suchmaschinen [...]

  • [...] werden, dass möglichst keine Bilder oder Grafiken als Link oder Ankertext verwendet werden, da die Suchmaschinen das in der Regel nicht erkennen können. Wenn es sich nicht vermeiden lässt, nutzen Sie in jedem [...]

  • [...] der verlinkenden Webseiten eine immer größere Rolle. Bei themenrelevanten Links gehen die Suchmaschinen davon aus, dass sie nicht gekauft oder gemietet wurden sondern wirklich weiterführende [...]

  • […] sein Inhalt/Wert. Ausgewertet werden sie zum Beispiel durch die Crawler der Suchmaschinen und die auf diese Weise schon grundlegende Informationen über die Seite erhalten. Darum sind die […]

Leave a Reply

Rules of the Blog
Do not post violating content, tags like bold, italic and underline are allowed that means HTML can be used while commenting. Lorem ipsum dolor sit amet conceur half the time you know i know what.

Loading Facebook Comments ...

No Trackbacks.