SEO Sunday: Technische Fehler und SEO

Für das Ranking bei den Suchmaschinen kommt es nicht alleine auf die Inhalte der Seiten an oder wie viele Backlinks ein Webportal hat. Oft genug macht die Technik allen Onsite- und Offsite-Maßnahmen einen Strich durch die Rechnung. Denn die Suchmaschinen bewerten nunmal auch die technische Seite – unter anderem die Antwortzeiten der Server sowie die Qualität des Quellcodes, ob die Seiten überhaupt gut erreichbar sind oder ob viele Fehler auftreten. Daher spielen diese Punkte auch bei der Suchmaschinenoptimierung eine Rolle.

Langsamer Seitenaufbau

Eine Seite, die „ewig“ braucht bis sie aufgebaut wird, ist für die meisten User ein Ärgernis. Darum legen auch die Suchmaschinen viel Wert darauf, dass der Seitenaufbau zügig verläuft. Idealerweise ist eine Seite innerhalb von einer Sekunde vollständig aufgebaut. Antwortzeiten zwischen ein und zwei Sekunden sind auch noch akzeptabel, aber ab dann wird es kritisch.

Ein langsamer Seitenaufbau kann mehrere Ursachen haben. Oftmals liegt es schon daran, dass einfach viel zu viele und zu große Bilder eingebaut werden. Eine Webseite mit einer oder mehreren 50 MB großen Grafiken braucht eben sehr lange, bis sie fertig geladen wird. Ein anderer Punkt ist der Server: Wo wird er gehostet, reicht die Kapazität für das Projekt? Wenn es bei dynamischen Webseiten zu langen Ladezeiten kommt, kann es auch daran liegen, dass die Datenbankanbindung nicht richtig funktioniert. In 80 bis 90 Prozent der Fälle ist aber eher eine falsch konfigurierte Datenbank der Grund.

Flash

Suchmaschinenoptimierung und Flash – das passt nicht zusammen. Die meisten Suchmaschinen können mit Bildern und anderen multimedialen Inhalten so gut wie nichts anfangen. Sie benötigen Text, den sie auswerten können. Deshalb erzielen Webseiten, die hauptsächlich mit Flash realisiert wurden, kaum noch gute Platzierungen in den Rankings. Außerdem sind Webseiten mit Flash-Elementen deutlich langsamer als ohne.

Sie müssen aber bei der Gestaltung Ihrer Webseite nicht auf Flash oder andere multimediale Inhalte verzichten. Dann sollten Sie den Suchmaschinen aber immer zusätzlich Text zu diesen Inhalten anbieten, damit sie auch richtig indexiert werden können. Sogenannte Introseiten, die nach kurzer Zeit auf die eigentliche Webseite weiterleiten, sollten Sie vermeiden. Wenn überhaupt sind sie nur für neue User interessant. Wer die Seite öfter besucht, wird schon bald gelangweilt sein – und damit haben die Suchmaschinen starke Schwierigkeiten.

Frames

Einige Webseitenbetreiber benutzen immer noch Frames, um ihre Seite zu gliedern. Eigentlich ist das ja auch eine schöne Möglichkeit den Seitenaufbau zu gestalten. Leider wird dieser nützliche Effekt dadurch aufgehoben, dass viele Suchmaschinen (noch immer) Probleme damit haben den Links in den Frames zu folgen. Daher wird häufig nur das Frameset selbst indiziert, ohne die Inhalte der einzelnen Frames. Die Suchmaschinen finden also nur einige Links ohne Texte, die sie auswerten könnten.

Durch den Noframe-Bereich sollte das behoben werden. Dort können Sie den Suchmaschinen die relevanten Informationen anbieten. Der Noframe-Bereich muss ausreichend Text und Links zu den anderen Frameseiten enthalten. Wenn Sie Frames benutzten und keine Inhalte im Noframe-Bereich bereitstellen, werden Sie bei vielen Suchmaschinen nicht in den relevanten Bereichen der Ergebnislisten aufgeführt.

Falls Sie nicht auf Frames verzichten wollen, müssen Sie die Inhalte also immer doppelt einpflegen, einmal im Frame und einmal im Noframe-Bereich. Das ist auf Dauer nicht nur lästig, sondern auch sehr ineffektiv. Frames bieten heute keine echten Vorteile mehr. Mittlerweile lässt sich eine gute Navigation auch problemlos mit anderen Mitteln umsetzen.

Unsauberer Quellcode

Auch der Quellcode einer Seite wird von den Suchmaschinen bewertet. Wer hier unsauber und schlampig arbeitet, sammelt Minuspunkte. Sauberer Quellcode erleichtert den Suchmaschinen das Crawlen und Bewerten einer Seite ganz erheblich und wirkt sich meistens auch positiv auf den Seitenaufbau aus. Viele Browser bauen auch bei schlechter und fehlerhafter Programmierung noch erstaunlich gute Seiten auf. Manche Seiten sehen für das menschliche Auge sehr gut aus, obwohl im Hintergrund vieles durcheinander läuft. Suchmaschinen lassen sich aber nicht so leicht etwas vormachen, sie sehen und bewerten Fehler ganz objektiv.

Viele Entwickler kommentieren Irrwege und veraltete Lösungsansätze sowie Debug-Meldungen gerne aus, ohne sie aus dem Quellcode zu löschen. Gegebenenfalls braucht man sie ja nochmal und das Löschen kostet schließlich auch Zeit. Das ist einer der Gründe, warum Suchmaschinen Kommentare im Quellcode nicht so gerne mögen. Zudem blähen Sie den Quellcode unnötig auf. Achten Sie deshalb darauf, dass so wenig Kommentare wie möglich im HTML-Quellcode stehen.

Marko Engelberth 94 posts

Mitbegründer von Seosweet. Softwaretester, Lektor sowie Online-Redakteur. Und hin und wieder Webentwickler.

6 Kommentare

  • [...] Fehler auf der technischen Seite und die bei der Onsite-Optimierung haben wir ja schon angesprochen, wenn auch nicht abschließend. [...]

  • [...] eine Seite selbst bei einem DSL-Anschluss länger als zehn Sekunden lädt, kann damit etwas nicht in Ordnung sein. Viele User warten dann nicht länger sondern brechen den Ladevorgang ab. Das ist allein schon [...]

  • Martin (4 Jahren ago) Reply

    Hallo Marko,

    Fehler im Quellcode wirken sich nicht negativ auf die Rankings aus. Das hat Matt Cutts in einem kürzlich veröffentlichten Webmaster Help Video auch noch einmal bestätigt: http://www.online-solutions-group.de/blog/suchmaschinenoptimierung-seo/invalider-quellcode-kein-hinderungsgrund-fuer-gutes-ranking/

    • in reply to Martin #2
      David Linden (4 Jahren ago) Reply

      Hallo Martin,

      Der Artikel ist ja auch schon zwei Jahre alt;) Dennoch hat Marko nach wie vor recht, zwar werden Fehler im Quellcode nicht negativ bewertet, weil es Fehler im Quellcode sind, jedoch die Auswirkungen dieser Fehler können Probleme, zum Beispiel bei der Crawlability nach sich ziehen. Auch das Verhältnis von Quellcode zu Content kann eine Rolle spielen. Das ist ähnlich wie mit dem Duplicate Content, auch hier sagt Matt Cutts, dass er nicht bestraft wird. Aber doppelte Inhalte sind per Definition nicht unique, was schlecht ist und konkurrieren miteinander, was ebenfalls schlecht ist. Die indirekten Folgen sind also ebenfalls zu beachten.

    • in reply to Martin #2
      Marko Engelberth (4 Jahren ago) Reply

      Hallo Martin,

      David hat das ja dankenswerter Weise schon klargestellt. Ich möchte dazu noch anmerken, dass Matt Cutts im Auftrag von Google viel erzählt, wenn der Tag lang ist. Das ist immer mit Vorsicht zu genießen.

  • […] Webseitenbetreiber können auf http://validator.w3.org feststellen ob und wenn ja wie viele Fehler sie aufgrund einer falschen oder veralteten Doctype-Deklaration haben. Und sie können ihre Site […]

Leave a Reply

Rules of the Blog
Do not post violating content, tags like bold, italic and underline are allowed that means HTML can be used while commenting. Lorem ipsum dolor sit amet conceur half the time you know i know what.

Loading Facebook Comments ...

No Trackbacks.