blog-post-img-4453

Gedankenspiele: Textoptimierung in Zeiten des Hummingbirds

Das neue Kolibri- bzw. Hummingbird-Update von Google ist mittlerweile in aller Munde. Klar ist, es hat etwas mit Semantik zu tun und irgendwie mit der Zukunft der Suchfunktion im Allgemeinen. Auch deutet sich an, dass sich in Sachen SEO zumindest kurz- bis mittelkurzfristig nicht sehr viel ändert. Trotzdem ist es natürlich nicht gerade abwegig, sondern wahrscheinlich sogar notwendig sich ein paar Gedanken um die Zukunft der Optimierung, insbesondere der Textoptimierung zu machen.

Guter Content, für den User und die Suchmaschine

Das Google-Mantra der letzten Jahre heißt „Guter Content“. Kein SEO kann das noch hören, zumal jeder mittlerweile auch wissen sollte, dass es nicht um objektiv guten und gut recherchierten Content geht, denn dafür gibt es jetzt die In-Depth-Articles. Vielmehr geht es um im Sinne des Suchenden beziehungsweise der Suchanfrage relevanten Content.  Die Kriterien für diese Relevanz sind der Schlüssel, den alle SEOs gerne haben wollen.

Nach dem, was man so über das Thema findet, kann man sagen, dass Googles Relevanzdefinition für guten Content zwei wesentliche Kriterienbereiche hat. Das erste ist der Inhalt, der den Leuten, den Usern gefällt, im Fachjargon „geiler Content“ genannt. Das zweite sind Inhalte, die Google selbst als relevant für ein Thema einstuft, und zwar aufgrund von Informationen, die es selbst aus dem Inhalt ausliest und mit anderen, bereits vorhandenen Dokumenten vergleicht. Diese beiden Bereiche interagieren in der Bewertung dann natürlich ständig miteinander sowie mit weiteren Rankingfaktoren, sodass am Ende eine bestimmte Position im Google-Ranking dabei herauskommt.

Suchmaschinenoptimierung als Content Optimierung

Schon länger ist bekannt, dass die Content-Optimierung einen großen Teil der Suchmaschinenoptimierung ausmacht, wobei es auch noch andere große, nicht unwichtige Teile gibt. Das bezieht sich sowohl auf die OnSite- wie auf die OffSite-Optimierung. In den OffSite-Bereich fällt der erste eben genannte Kriterienbereich, gute Inhalte für die User zu produzieren. Denn solche werden häufiger geteilt und auch verlinkt. Läuft so etwas strukturiert und geplant mit einem vorbereiteten Seeding ab, ist es Content Marketing, das in der SEO häufig dem (natürlichen) Linkaufbau dient, aber natürlich auch noch andere Effekte hat (Social Signals, Branding, etc.).

Aber es reicht unter Umständen nicht, den User von seiner Seite und einer bestimmten Themenrelevanz zu überzeugen, um ein gutes Suchmaschinenranking zu erzielen. Wie erwähnt sollte man darauf achten, dass auch Google mitbekommt, worum es geht und was drin steht, und das Ganze dann auch noch gut findet. Wenn es immer heißt: Schreibt für die User, nicht für die Suchmaschinen! stimmt das natürlich, ABER trotzdem sollte man dann irgendwann auch an diese denken. Denn es dürfte nicht besonders erfolgversprechend sein, den Google-Algorithmus emotional von meinen guten Inhalten zu überzeugen. Stattdessen muss ich halbwegs wissen, wie Google Informationen sammelt und auswertet, von den Grundlagen des Information Retrievals bis hin zu Elementen der linguistischen Datenverarbeitung. Das, worum es nämlich meistens geht, ist eben Sprache in Form von Text. Meinen Inhalt sollte ich also dem Wissensstand und den Fähigkeiten der Suchmaschine anpassen, beziehungsweise ich sollte die notwendigen Informationen mitliefern, damit mein Text nicht missverstanden wird.

Semantische Faktoren in der Textoptimierung

Darüber wurde schon viel geschrieben, auch in unserem Blog. Semantik ist DAS Thema, was Suchmaschinen betrifft, schon seit Jahren. Dahinter steht nichts anderes, als der Wunsch, Texte mit Künstlicher Intelligenz verstehen zu können. Früher war da das eine Keyword, nach dem gesucht wurde. Dann hat Google in seinem Index nachgesehen, in welchem Dokument diese Suchphrase vorkommt und all diese dann ausgegeben, als erstes das mit den meisten Links. Das ist aber schon lange nicht mehr so. Die einzelnen Schubladen, in denen die Dokumente zu jeweils einem Keyword gesammelt werden, sind nicht mehr voneinander isoliert. Stattdessen sind sie mit anderen Schubladen (also anderen Keywords) verknüpft, in denen die Dokumente ebenfalls liegen. Google guckt jetzt also nicht mehr nur, wo das Keyword vorkommt und wie oft, sondern auch noch, welche Begriffe denn da sonst noch vorkommen. Das wird mit allen anderen Dokumenten in den Schubladen verglichen und daraus dann ein Pool gebildet, mit Dokumenten, die das gesuchte Thema mutmaßlich am besten behandeln, weil bestimmte relevante Wörter in ihnen vorkommen. Seit neuestem heißt das ganze Co-Occurrence. Man kann die ebenfalls vorkommenden Terme/Keywords auch als Proofed Keywords oder beweisführende Terme bezeichnen, das sei jedem selbst überlassen. Mein Text muss also bestimmte Elemente in einem bestimmten Umfang enthalten, um von Google als relevant zu einem Thema angesehen zu werden. Letztes Jahr gab es daher den großen Hype um WDF*IDF. Mit Tools, die sich nach dieser Formel richten, kann man ermitteln, welche Wörter in einem Text relevant sind. Wenn man sich dann an der Verteilung auf den Seiten der Top-Konkurrenten in den SERPs orientiert, kann man sehen, welche Verteilung Google als relevanten Content betrachtet.

Der Hummingbird macht es kompliziert

Das war schon alles kompliziert genug und meine Darstellung hier als stark vereinfacht zu beschreiben wäre untertrieben. Der Hummingbird wird die ganze Angelegenheit allerdings nicht einfacher machen. Google möchte dahin kommen, die Suchintention von Fragenden zu verstehen und sich offensichtlich von der normalen Keyword-Suche entfernen. Das wird für SEOs insofern doppelt kompliziert, als dass wir uns dann nicht mehr nur fragen müssen: Wie versteht Google Dokumente? Sondern auch: Wie versteht Google Suchanfragen?

Das sind Themen, die im Zuge von Mobile-, Local-, und individualisierter Suche schon länger Kopfschmerzen bereiten.

Wird WDF*IDF unberechenbar?

Was diese ganze WDF*IDF Sache angeht, so wird die Berechnung der Inverse-Document-Frequency wahrscheinlich noch schwieriger, als sie ohnehin schon ist. Wenn Google Dokumente aus semantischen Gründen in den Index zu einem bestimmten Keyword aufnimmt, obwohl der Term gar nicht enthalten ist, dann kann das die Zahlen verfälschen. Andererseits zweifle ich mal stark an, dass die Berechnungen bisher exakt sind, allein aus technischen Gründen. Das wird schon nachvollziehbar, wenn man sich die vereinfachten Berechnungsgrundlagen der IDF von Karl Kratz durchliest. Letztlich geht es auch gar nicht unbedingt um Exaktheit, sondern um Vergleichbarkeit mit den Anderen.

Ich weiß nicht, ob man bereits davon sprechen kann, dass der Kolibri die SERPs ausweitet oder nicht, erste Hinweise darauf gab es zumindest. Am Ende spielt wohl auch die Größenordnung eine Rolle, ob die Ergebnisse der IDF dadurch spürbar beeinflusst werden.

Textoptimierung: Erstmal weiter wie gehabt

Für die Textoptimierung ergibt sich daher erstmal nichts Neues. In erster Linie gilt es, weiterhin guten Content zu schaffen, der die Leser mitnimmt. Danach lassen sich dann vielleicht auch noch ein paar Schrauben drehen, um auch die Suchmaschine für den Content zu begeistern.

(© anastasios71 – Fotolia.com)

David Linden 178 posts

Autor

Man findet mich auf Google+

2 Kommentare

Leave a Reply

Rules of the Blog
Do not post violating content, tags like bold, italic and underline are allowed that means HTML can be used while commenting. Lorem ipsum dolor sit amet conceur half the time you know i know what.

Loading Facebook Comments ...

No Trackbacks.