Was ist Cloaking? – SEO-Grundlagen

blog-1-img-4543
14 Nov

Was ist Cloaking? – SEO-Grundlagen

Cloaking ist, oder besser gesagt war, eine Methode der Suchmaschinenoptimierung. Dabei wird den Crawlern der Suchmaschinen etwas anderes als Seiteninhalt angezeigt, als den normalen menschlichen Usern. Dieser Vorgang wird von den Suchmaschinen mittlerweile bestraft, da es zu verschiedenen Missbräuchen gekommen ist. Daher ist Cloaking eine Form des Black Hat SEO. Aber der Reihe nach. Wie ist Cloaking entstanden? Suchmaschinen haben nach wie vor Schwierigkeiten, wenn es...

Crawlability von Webseiten – SEO-Grundlagen

Die Crawlability einer Website bezeichnet die Benutzerfreundlichkeit für die Suchmaschinen. Wie einfach oder schwer fällt es dem Crawler einer Suchmaschine, die Seiteninhalte Ihrer Website zu erfassen? Es gibt ein paar einfache Regeln beziehungsweise Vorkehrungen, mit denen sich die Crawlability einer Website steigern lässt. Wie schnell ist Ihr Server? Das ist der wahrscheinlich wichtigste Punkt, wenn es um die Crawlability beziehungsweise um deren Verbesserung geht. Eine Seite die schnell geladen wird, freut Mensch und Maschine. Das häufigste Hindernis in diesem Bereich ist der Rechner des Users und dessen Internetverbindung. Das haben Sie aber nicht in der Hand. Was Sie optimieren können ist, wie schnell Ihr Server auf Anfragen (sogenannte requests) reagiert oder besser gesagt reagieren kann. Am besten Sie buchen einen eigenen...

blog-1-img-2174
22 Jul

Seiten und Domains aus dem Google Index entfernen

Normalerweise sieht das Verhältnis zwischen Google und einem SEO aus wie in einem Video über Simon´s Cat:   Kurz zusammengefasst: Wir wollen rein in den Index. Doch was ist eigentlich, wenn wir raus wollen? Dafür gibt es mehrere Szenarien. Die häufigste ist: Die Entwickler haben gepennt. Oder wir werden von einer einstweiligen Verfügung dazu gezwungen bestimmte Seiten verschwinden zu lassen. Hier gibt es die absonderlichsten...

Links von der Startseite…

Es ist erstaunlich was man herausfinden kann, wenn man dazu in der Lage ist ein kleines Stück Software zu schreiben. Letzeres habe ich gestern getan. Heraus kam ein sehr rudimentärer, aber dafür sehr schneller Linkcrawler. Er tut nichts weiter als sich eine Domain aus unserer Domaindatenbank zu ziehen, die Startseite abzuholen und die darauf befindlichen Links zu extrahieren. Das Ganze läuft von meinem Office-PC so schnell, dass jede Sekunde 1500 interne und externe Links in die Datenbank geschrieben werden. Das macht immerhin 129 Mio. pro Tag bei einer CPU-Auslastung von zehn Prozent auf einem Computer, der kein Webserver ist. Ich habe mir die ersten Ergebnisse vorgenommen, weil mich interessiert hat, wie viele Links üblicherweise von einer Startseite aus irgendwohin zeigen....

Was ist Cloaking? – SEO-Grundlagen

Beim Cloaking wird den Crawlern der Suchmaschinen etwas anderes als Seiteninhalt angezeigt, als den menschlichen Usern. Dieser Vorgang wird von den Suchmaschinen mittlerweile bestraft, da es zu verschiedenen Missbräuchen gekommen ist. Aber der Reihe nach. Suchmaschinen haben nach wie vor Schwierigkeiten, wenn es um Seiteninhalte geht, die kein Text sind. Das hat sich zwar in den letzten Jahren schon abgeschwächt – zum Beispiel verfügt Google inzwischen über eine sehr gute Bildererkennung – aber insgesamt besteht diese Schwäche immer noch. In der ersten Zeit gab es für dieses Problem eine deutlich elegantere Lösung als heute: Man stellte den Bots der Suchmaschinen eine Beschreibung der Seiteninhalte in Textform zur Verfügung. Wer viele Flash-Inhalte, andere Grafiken und Bilder oder auch Videos auf seinen...

Architektur von Suchmaschinen: Crawler

In den beiden vorhergehenden Artikeln zur Architektur von Suchmaschinen sind wir bereits auf zwei Module des Webcrawler Systems eingegangen. Das waren zum einen die Datenspeichermodule, bestehend aus Dokumentenindex und Repository und zum anderen die Verarbeitungsmodule Scheduler und Storeserver. Heute kommen wir nun zu den Protokollmodulen, die aus den einzelnen Crawlern bestehen. Die Crawler sind für die modernen Suchmaschinen von zentraler Bedeutung. Es kommt ja auch nicht von ungefähr, dass sie namensgebend für das Webcrawler-System sind.  Sie sind das einzige Element der Suchmaschinen, das außerhalb ihres Systems arbeitet; sie stellen sozusagen die Verbindung nach außen dar. Das macht sie doppelt bedeutend, zum einen für die Suchmaschinen selbst, denn sie sind auf ein gutes Funktionieren ihrer Crawler angewiesen und darauf, dass diese...

Architektur von Suchmaschinen: Dokumentenindex

Als wir den Seosweet Blog gestartet haben, sind wir zu Beginn auf die grundsätzliche Frage eingegangen: Was ist eine Suchmaschine? In diesem und in einigen weiteren Beiträgen wird es nun um die Architektur von Suchmaschinen gehen, also grob gesagt, um deren Aufbau. Im Hintergrund dazu steht die Frage: Wie funktionieren Suchmaschinen? Um den Usern möglichst gute, komplette und aktuelle Ergebnisse liefern zu können, müssen riesige Datenmengen des Internets gesammelt werden, um sie dann zu analysieren und den Usern die richtigen Informationen zu den passenden Suchphrasen bereitzustellen. Von diesen drei Funktionen der Datengewinnung, der Datenanalyse und der Verarbeitung von Suchanfragen werden wir in diesem und den kommenden Beiträgen vor allem die erste Funktion der Datengewinnung betrachten. Das Webcrawler-System Wie schaffen es...

Was ist eine Suchmaschine? – SEO Grundlagen

Das World Wide Web hat seit den 1990er ein rasantes Wachstum zu verzeichnen. Dieses Wachstum beinhaltet immer mehr Internetseiten - immer mehr Inhalt, jeden Tag. So wurde es schon früh für die Internetnutzer unmöglich, sich selbst in dem riesigen Angebot an Internetinhalten zu orientieren und vielleicht sogar die passenden Informationen zu einem Thema zu finden. Daher wurden zunächst Webkataloge entwickelt, die wie die gelben Seiten die Internetseiten katalogisierten. Mit zunehmendem Wachstum des Internets wurden sie aber zu langsam, da die Aufnahme der einzelnen Seiten auch viel zu lange dauerte, zumal sie oft noch von Menschen überprüft wurden. Dann kamen die Suchmaschinen auf, bei denen das Erfassen der bereitgestellten Informationen im Internet automatisch und somit viel schneller ablief. So konnte zumindest...