Technik gegen Content – Wer dominiert die SEO-Welt?

Was ist wichtiger und verspricht Erfolg bei der Suchmaschinenoptimierung? Die Technik oder der Inhalt (Content)? Um das gleich von vorneweg zu sagen: Die EINE richtige Antwort auf diese Frage gibt es nicht. Das liegt natürlich nicht zuletzt an der Vielzahl der Ranking-Faktoren die insbesondere Google anwendet. Und die Unklarheit in dieser Frage ist natürlich auch beabsichtigt, denn die Suchmaschinen könnten sicherlich einpacken, wenn genau bekannt wäre, wie ihre Ergebnislisten zustande kommen. Bei der Beantwortung der Frage nach Content oder Technik wird man also immer einen gewissen Interpretationsspielraum haben und sich manchmal auch ins nebulöse Reich der Spekulation begeben müssen. Was sich aber sicher aus den Suchergebnissen, aus Erfahrungswerten und aus Tests ableiten lässt,  sind Tendenzen.

Was spricht für den Content?

Zunächst einmal natürlich Google selbst. Deren erklärtes Ziel ist es ja schon seit jeher, den Menschen (Usern) möglichst gute Ergebnisse zu liefern (nur Böswillige behaupten, der Sinn liege im Geldverdienen). Und was sind möglichst gute Ergebnisse? In der Regel ist das der am besten passende Inhalt zum Gesuchten. Jetzt könnte man natürlich denken, dass die Frage damit entschieden ist –  ist sie aber nicht. Denn es stellt sich gleich die nächste Frage:  Was ist denn dann der richtige oder der gute Content? Genau dieser Frage habe ich bereits einen Artikel gewidmet. Darin wird deutlich, dass auch das nicht einfach so beantwortet werden kann, denn guter Content ist in der Regel relativ. Er sollte dem User oder eher dem Leser einen Mehrwert bieten. Eine Suchmaschine muss die Qualität eines Inhalts aber erst einmal erkennen. Der Text muss also verstanden und mit relevanten Keywords in Verbindung gebracht werden, denn nach wie vor wird natürlich nach Keywords gesucht. Dann muss entschieden werden: Bietet dieser Inhalt für den User, der diese Suchphrase eingegeben hat, einen Mehrwert? Und dann müssen alle Inhalte, die mit „Ja“ beantwortet wurden, auch noch miteinander verglichen werden. Also welcher Inhalt bietet dem User bei diesem Keyword den höchsten Mehrwert?

Man sieht: Es ist kompliziert und selbst für Menschen schwer zu entscheiden – für einen Roboter oder Computer daher erst einmal unmöglich. Er stößt an vielfache technische Schwierigkeiten. Wie sollen die Inhalte richtig verstanden und bewertet werden? Da das so direkt technisch nicht möglich war, wurden schon früh Kriterien festgelegt. Ich nenne hier nur mal die Links. Dahinter steckt die Annahme: Wenn viele auf etwas verweisen, dann muss es wichtig sein. Eine einfache und prinzipiell auch richtige Vermutung, allerdings können solche Kriterien manipuliert werden und so den Bezug zum Content verlieren. Und ganz allgemein formuliert konnten vielfach technische Mittel eingesetzt werden, um den Suchmaschinen relevante Inhalte vorzugaukeln.

Die Suchmaschinen haben sich jedoch extrem stark weiterentwickelt und sind immer besser in der Lage, Content zu verstehen und zu bewerten. Wenn früher Rechtschreibfehler ein ernsthaftes Problem für die Crawler der Suchmaschinen bildeten, so sind die Autokorrekturen mittlerweile so stark verbessert worden, dass Fehler beim Verständnis von Seiten an Relevanz verlieren. Gleiches gilt für die Syntax. Kleinere Fehler werden also viel leichter ausgeglichen.

Aber nicht nur was die menschliche Sprache angeht wurde weiterentwickelt, auch das Verständnis unterschiedlicher Programmier- und Darstellungstechniken wurde verbessert. Das beste Beispiel hierfür sind wohl die Facebook-Kommentare, die Google mittlerweile indexieren kann, da es nun auch iFrames, AJAX und JavaScript zumindest teilweise verstehen.

Was spricht für die Technik?

Für die Technik spricht zuallererst: die Technik. Wie schon erwähnt sind Maschinen (noch) beschränkt und nur bedingt lernfähig. Suchmaschinen können nur Inhalte verstehen und überhaupt nur wahrnehmen, wenn sie in Umgebungen bereitgestellt werden, in denen sie sich auskennen und sich leicht zurecht finden. Es ist also notwendig, den Suchmaschinen bzw. deren Crawlern die beste Umgebung zu bieten, damit sie auch alle Inhalte gut finden können. Aus diesem Grund ist beispielsweise die fehlerfreie Programmierung von Internetseiten wichtig, sowie eine gute interne Verlinkung und auch Dinge wie Sitemaps bzw. XML-Sitemaps auf die wir ebenfalls schon hingewiesen haben. Bei der Programmierung sind die technischen Einschränkungen, was die Indexierbarkeit der Inhalte angeht, jedoch bei Weitem nicht mehr so groß wie einst.  Hier muss also weniger Rücksicht auf die Suchmaschinen genommen werden.

Auch wenn z.B. Google immer besser darin ist die Inhalte selbst zu verstehen, so bleibt es trotzdem wichtig, Hinweise zu geben. Ich meine hier vor allem Techniken des suchmaschinenoptimierten Schreibens. Die Auszeichnung zentraler HTML-Elemente (Überschriften) ist ein wichtiges Beispiel. Ein anderes sind selbstverständlich die Keywords, die in der richtigen Art und Weise verwendet werden sollten. Häufig genug, dass sie als relevant wahrgenommen werden können und selten genug, dass sie nicht penetrant erscheinen und den User und auch die Suchmaschine vergrätzen. Die richtige Keyword Density zu verwenden, sollte man meiner Meinung nach allerdings nicht nur zur Technik zählen. Denn daran hängt sehr deutlich auch der Inhalt und dessen Qualität.

Ein fortbestehendes technisches Problem ist die Tatsache, dass die Crawler nur mit Text gut umgehen können. Für Inhalte wie Bilder oder Videos sind sie blind. Diese sollten daher beschrieben werden, so dass die Suchmaschinen damit auch etwas anfangen können. Ebenfalls zur Technik würde ich Dinge wie Duplicate Content zählen. Doppelte Inhalte werden häufig negativ bewertet, entstehen aber in der Regel durch technische Fehler.

Sehr wichtig für die Usability und damit auch zu einem gewissen Grad für das Ranking, ist die Performance von Websites. Ein eindeutig technischer Ranking-Faktor.

Content wird wichtiger, Technik bleibt wichtig

Ich könnte mit Sicherheit noch deutlich mehr Dinge auflisten, die für die Wichtigkeit des Contents bzw. der Technik sprechen. Was jedoch unzweifelhaft bleibt, ist, dass am Ende für Google die Qualität des Contents zählt. In diese Richtung gehen auch die letzten Updates Panda und Penguin. Vielfach wird davon gesprochen, dass manche Seiten abgestraft wurden und zwar vor allem solche, die „überoptimiert“ waren. De Facto ändern sich jedoch einfach nur die Gewichtungen. Wenn die Inhalte ein größeres Gewicht bekommen, dann bedeutet das meiner Meinung nach in erster Linie, dass man wieder einen Schritt nach vorne gemacht hat, die Seiten zu verstehen.

Aber nur weil die Qualität des Contents an Gewicht gewinnt, bedeutet das ja nicht, dass die Technik unwichtig ist. Man braucht sie eben nur weniger, um den Suchmaschinen die Inhalte der Websites nahe zu bringen. Ein gutes Beispiel hierfür sind die Keywords. Die richtigen Keywords sind nach wie vor wichtig. Damit diese als wichtig erkannt werden, muss man sie allerdings nicht mehr so oft unterbringen. Hier zählt also mehr die Qualität als die Quantität. Eine Keyword Density von 2 bis 2,5% Prozent reicht in der Regel aus. Sonst wird es unnatürlich und man kann schnell in den Verdacht des Keyword Stuffings geraten.

Technische Faktoren der Onsite-Optimierung helfen dem Ranking nicht zuletzt dadurch, dass die Usability der Website verbessert wird. Wir haben schon oft darauf hingewiesen, dass Websites für Menschen optimiert sein sollten, damit sie auch für Suchmaschinen gut sind. Zu sagen „Es kommt nur noch auf den Content an“ würde am Ziel vorbeiführen. Letztlich entscheidend ist natürlich immer auch die Frage, in welchem Konkurrenzumfeld man sich bewegt. Technische Feinheiten können in einem hart umkämpften Umfeld mit gutem Content auf allen Seiten den Unterschied ausmachen. Dass aber der Content ein oder gar das herausragende Ranking-Kriterium noch vor den Links ist, hat auch gestern wieder ein Test des tagseoblogs gezeigt.

David Linden 178 posts

Autor

Man findet mich auf Google+

6 Kommentare

  • Reimix (5 Jahren ago) Reply

    Mit diesem ausführlichen Text unterstreichst du, wie wichtig guter Content ist. Ohne Content kein SEO.

  • [...] sind hingegen unglaublich schnell. Und mittlerweile werden sie sogar immer besser darin die Inhalte der Websites zu verstehen. Das gilt zumindest so lange, wie es sich um html Dokumente und textliche Inhalte handelt. Denn [...]

  • Lukas (5 Jahren ago) Reply

    Unique Content is King. Damit fährt am bessten aus meiner Erfahrung. Panda und Pinguin mögen es auch :-)

  • [...] Technik und Content.  Hier wird wieder einmal deutlich, was ich vor einigen Monaten in einem anderen Beitrag genauer beschrieben habe. Technische Maßnahmen der OnSite Optimierung und nützlicher und guter Content sind gegenseitig [...]

  • SEO Textoptimierung (4 Jahren ago) Reply

    [...] Keyword Dichte zu erreichen, sondern eher um eine zu hohe Keyword Density zu vermeiden. In einem anderen Beitrag habe ich bereits 2% bis 2,5% als idealen Wert bezeichnet. Das erreicht man übrigens in der Regel [...]

  • [...] ersten drei Bereiche habe ich schon angeschnitten. Die Perspektive der SEO ist sowohl auf Technik wie auch auf Content ausgerichtet. Aber es wird eben nicht nur für Suchmaschinen optimiert, sondern vor allem für die [...]

Leave a Reply

Rules of the Blog
Do not post violating content, tags like bold, italic and underline are allowed that means HTML can be used while commenting. Lorem ipsum dolor sit amet conceur half the time you know i know what.

Loading Facebook Comments ...

No Trackbacks.