On-Page Optimierung: Was ist Fakt und was ist Mythos?

Wenn man die Diskussionen um Ranking Faktoren verfolgt, entsteht leicht der Eindruck, dass einige SEOs sich Theorien zusammenbasteln, die eher auf Beobachtungen beruhen als auf handfesten Fakten. Jetzt hat die SEO-Agentur Northcutt ein Tool entwickelt, dass transparent macht, welche Ranking-Faktoren Seifenblasen und welche wirklich ernst zu nehmen sind. Als Indikatoren für die Seriosität gelten: Patente, Aussagen von Google selbst (oder einem Team-Mitglied) und Überprüfungen mit echtem wissenschaftlichen Ansatz. Dazwischen gibt eis eine Reihe von Ranking-Faktoren, für die keiner der Indikatoren zutrifft, die aber wahrscheinlich trotzdem wirklich von Google beachtet werden .

Hier die On-Page Ranking Faktoren die eindeutig Fakten sind, die sollten Sie auf jeden Fall bei der Suchmaschinenoptimierung berücksichtigen:

  • Keyword in der URL
  • Keyword im Title Tag (erscheint dann häufig als Snippet in der Trefferliste)
  • Alter des Content. Für viele Suchabfragen gilt, je älter desto besser!Bei Suchanfragen, die sich auf aktuelle Ereignisse oder Dinge beziehen, wie z.B. ” I Phone 6 S”, hat die “Frische” des Content mehr Gewicht.
  • Keywords, die typographisch herausgehoben sind (gefettet oder kursiv)
  • Alt Tag – vor allem wichtig bei der Bildersuche.
  • Ankertext bei internen Links
  • Kluge Website-Architektur, so dass der PageRank einer Website gut an die Unterseiten weitergegeben wird.
  • Kluge ausgehende Links: Links zu anderen seriösen Seiten werden als Qualitätsmerkmal gewertet.
  • Mobilfreundlichkeit einer Website

Diese Faktoren sind auch wichtig für die Suchmaschinenoptimierung (sind aber nicht über die oben genannten Indikatoren belegt):

  • Die Keyworddichte hat es nicht in die Fakts geschafft, obwohl es eine Zeit gab, in der sie entscheidend war. Auch die Bedeutung des WDF*IDF Faktors ist nicht gesichert, aber dennoch sehr wahrscheinlich.
  • Ebenso bedeutsam ist die Verwendung von Keywords in Überschriften (vor allem H1) – nur weil es keine konkrete Aussage von Seiten von Google gibt, heißt es nicht, dass es keine Rolle spielt. Es ist sinnvoll weiter die Keywords in den Überschriften zu platzieren.
  • Keywords zu Beginn des Textes – es bleibt dabei: Die Schlüsselkeywords sollten im sichtbaren Bereich der Website über dem “Knick” zu finden sein.
  • Die Nähe zwischen Keywords. Lautet die Suchanfrage etwa “Tanzen Stuttgart”, dann ist es sinnvoller, wenn die zwei Wörter nahe zusammen stehen und nicht z.B. in unterschiedlichen Absätzen zu finden sind.
  • Rechtschreib- und Grammatikfehler mag Google auch nicht. Korrekte Seiten ranken höher.
  • Verwendung unterschiedlicher Formate. Die Bereitstellung von Videos wirkt sich positiv aus.
  • Gute Texte: Die passenden Phrasen und Sätze mit dem richtigen Vokabular kann Google jetzt immer besser von Texten unterscheiden, in denen einfach die Schlüsselwörter in der richtigen Dichte gestreut wurden.
  • Gute Inhalte: Es sieht auch so aus, als ob Google jetzt wirklich in der Lage ist “nützlichen” Content über Vergleiche herauszufiltern. Google spürt nicht nur “Duplicate Content” auf, sondern kann auch qualitative Aussagen wie “beschreibend”, “einzigartig” u.ä. treffen.

Sie brauchen sich für folgende Ranking Faktoren keine Gedanken mehr zu machen :

  • Meta Keywords – sie spielen definitiv keine Rolle (mehr).
  • Keywords in der Meta Description sind für das Ranking irrelevant. .
  • Der Einsatz von Google Analytics oder den Google Webmaster Tools wirkt sich nicht aus.
  • Auch der Autor, der eine Weile als Autorität gewertet wurde, ist inzwischen unwichtig.

Und jetzt zu den negativen Faktoren – Das sollen Sie auf jeden Fall unterlassen:

  • Doppelter Content auf eigenen und fremden Seiten
  • Weiße Schrift auf weißem Grund – alte Hasen erinnern sich noch.
  • Versteckte Links
  • Verstöße gegen das Copyright
  • Fehler in der internen Verlinkung
  • Zu viele Fettungen oder andere Auszeichnungen
  • Text in Bildern oder Videos(kann Google nicht lesen)
  • Content in Frames

 

Video SEO aktualisiert (2): Google und die Videos

Vor ziemlich genau einem Jahr  gab es einen Aufschrei in der SEO-Welt: Die Zahl der Videos auf der Google Trefferseite ging über Nacht extrem zurück. Vorher waren Videos auf der Google SERP sehr prominent, weil ihr Anteil an den gelisteten Treffern stetig gestiegen war. Über die Gründe für diese plötzliche Änderung wurde spekuliert, am plausibelsten klingt die Erklärung, dass die Vorschaubildchen bei den Videos die Aufmerksamkeit von den Google-Anzeigen abgezogen haben. Ist das Video-Format nun nicht mehr relevant für’s SEO?

Videos in der Universal Search immer noch vorne

Nein, denn der Anteil der Videos ist zwar zurückgegangen, aber Videos werden bei der Suche immer noch häufiger angezeigt als andere Universal Search Elemente, wie Bilder, Karten oder Shopping-Angebote. Die Universal Search Studie 2015 von Searchmetrics ergab, dass im Vergleich aller Universal Search Elemente die Suchanfragen mit mindestens einer Video-Integration immer noch am häufigsten sind.

Videos werden gesucht – “How-to”-Videos boomen

Als zweites Argument für gutes Video-SEO (und davor natürlich qualitativ hochwertige, auf die User abgestimmte Video-Produktion) ist, dass die User tatsächlich nach Videos suchen. Das lässt sich zum einen an den Suchanfragen feststellen: Wird das Suchwort “Video” zusammen mit anderen Keywords in die Suchmaske eingegeben, sind die User in der Regel auf der Suche nach einem Video zum Thema. Vor allem bei praktischen Tipps, Anleitungen und Tutorials aller Themengebiete sind Videos häufig Texten überlegen, das zeigt sich auch am Klick-und Suchverhalten. In Nordamerika wurden 2015 – nach Angaben von Google – bisher über 100 Millionen Stunden “how-to”-Content auf Youtube angeschaut.

Das hat wieder Auswirkung auf die Zusammensetzung der SERP bei Google: Bei Suchanfragen mit den Schlüsselwörtern “Tutorial, Anleitung, Lernen Sie wie, Anweisung…” werden häufiger Videos in der Trefferliste angezeigt. Wer seine Videos also nach vorne bzw. auf die Trefferseite bringen will, sollte sich überlegen, solchen instruktiven Content als Video zu produzieren.

Organische Suche: Youtube dominiert die SERP

Wer seine Videos optimieren will, der wird einige Tipps im Web finden, wie etwa eine Sitemap anzulegen, ein passendes Vorschaubild auszusuchen oder die Video-Description zu optimieren. Der wichtigste Tipp allerdings ist: Laden Sie Ihr Video auf jeden Fall auf Youtube hoch. Gerade bei der klassischen organischen Suche erscheinen seit den oben genannten großen Veränderungen fast ausschließlich Youtube-Videos. Searchmetrics hat beobachtet, dass 2014 82% der auf der Trefferliste Videos von Youtube stammten.

Bei der Suche nach "Pfannkuchen backen" erscheint nur ein Video in der SERP (mit dem Keyword "Anleitung" im Titel)

Bei der Suche nach “Pfannkuchen backen” erscheint nur ein Video in der SERP (Es stammt von Youtube und hat das Keyword “Anleitung” im Titel).

Google Video Search

User, die auf der Suche nach Videos sind, können die Google-Kategorien-Suche für Videos einstellen. Dann bekommen sie nur Video-Ergebnisse angezeigt. Hier ist die Übermacht von Youtube nicht so eindeutig, auch andere Plattformen werden gelistet. Das gilt allerdings nur bei Keywords rund um Musik und Filmen, bei anderen Themen dominiert Youtube weiterhin. Das liegt wohl auch daran, dass die anderen Video-Plattformen sich meist auf diese Nische spezialisiert haben.

New_kids_Videosuche

Google Videos Suche: Bei Musik kommen auch andere Plattformen zum Zug.

 

 

 

Video SEO aktualisiert (1): Suchmaschinenoptimierung auf Youtube

Videos haben eigene Gesetzmäßigkeiten bei der Suchmaschinenoptimierung. Vor Jahren habe ich ein paar Grundlagen für die Suchmaschinenoptimierung von Videos erläutert. Auch wenn vieles weiterhin gilt, ist es jetzt  Zeit für eine Aktualisierung.

Video-SEO auf SEO-Gold

Bei der Optimierung von Videos gibt es zwei große Instanzen, die man berücksichtigen muss: Zum einen natürlich Google selbst, wie listet Google Videos auf? Wann erscheinen sie auf der Trefferliste und wie werden sie ausgewählt? Zum anderen muss man die Gesetzmäßigkeiten von Youtube berücksichtigen, nach eigenen Aussagen die “zweitgrößte Suchmaschine der Welt“.

Wie arbeitet YouTube?

Die Youtube-Suchmaschine hat keine so komplexen Algorhithmen wie Google, berücksichtigt aber mehr als nur das Keyword. Martin Mißfeldt hat die vier Felder des Youtube-Ranking-Faktoren charakterisiert:

1) Das Video selbst (und seine Optimierung – also Onpage-SEO)

Hier kann man ziemlich aktiv werden durch die Auswahl der richtigen Keywords für die Tags, den passenden Titel (mit Keywords), eine Videobeschreibung (mit Keywords), Anmerkungen in Videos und ausgehende Links. Dazu kommen auch zusätzliche technische Faktoren, HD Qualität wird vorausgesetzt.

2) Das User-Verhalten

Ganz vorne steht natürlich die Anzahl der Views, je häufger ein Video angeschaut wird desto besser sein Ranking. Dazu kommen noch eine Reihe weiterer User-Aktionen, die die Stellung beeinflussen: Kommentare und Daumen hoch /Daumen runter-Stimmen,  Videoantworten und die Vertretung in Playlists. Von Interesse ist besonders die Aufmerksamkeit, die der User dem Video widmet: Schaut er es ganz an? Wann springt er ab?

3) Die Bewertung des Youtube-Kanals

Zunächst kann man hier ebenso wie bei den Videos mit einem guten Namen und einer passenden Beschreibung, die die wichtigsten Keywords enthält, sicher ein paar Punkte gut machen. Martin Mißfeldt ist der Meinung, dass die eigene Aktivität auf Youtube als wichtigster Faktor für die Autorität eingestuft wird. Dazu gehöre nicht nur das regelmäßige Einstellen von Videos, sondern auch das Bewerten, Kommentieren, Verlinken (und Abonnieren) anderer Videos und Kanäle. Youtube möchte, dass die Kanalinhaber aktiv Communities aufbauen (und gibt dazu auch Tipps und Anleitungen).

4) “Off-Page-Optimierung”

Ganz wichtig sind auch die Aktivitäten außerhalb von Youtube – bei der klassischen SEO als Off-Page-Optimierung bzw. Backlink-Aufbau. Hier haben Videos einen großen Vorteil gegenüber anderem Content. Es gibt die Möglichkeit sie einzubinden, sie werden also an anderer Stelle angezeigt. Wenn die User sich jetzt auf der Website, dem Blog oder z.B. auf Facebook ein solches eingebettetes Video anschauen, werden die Views (bis auf wenige Ausnahmen) auch mitgezählt. Hier wirkt sich also das Sharen und Einbinden direkt auf das Ranking aus.

#mobilegeddon? Wie weit geht Google bei der mobilen Suche?

Für Google hat die mobile Suche inzwischen eine ganz besondere Priorität. Die Mobilfreundlichkeit wird in den Ranking-Algorithmus einbezogen. Aber das reicht den Suchmaschinen-Betreibern nicht aus: Sie machen den Vorstoß, direkt darauf einzuwirken, welcher Content den Usern angezeigt wird und welcher nicht. Überschreitet Google hier seine Kompetenzen?

Der Siegeszug der mobilen Endgeräte ist schon lange vorausgesagt und auch an Zahlen abzulesen. Jetzt hat Google die Wende bestätigt: Internen Zahlen zufolge werden (in 10 Ländern, darunter US und Japan) mehr Google-Suchanfragen über mobile Endgeräte getätigt als vom Desktop aus.
Das veränderte Nutzerverhalten hat natürlich Auswirkungen auf das Google-Ranking: Schon seit längerem ist klar, dass Google Websites nicht mag, die auf Handys und Tablets nicht gut funktionieren. Seit dem 21. April ist die globale Algorithmusänderung (#mobilegeddon) ausgerollt:

Starting April 21, we will be expanding our use of mobile-friendliness as a ranking signal. This change will affect mobile searches in all languages worldwide and will have a significant impact in our search results”. ganzen Artikel lesen

Faktencheck statt Verlinkung: Paradigmenwechsel bei der Suchmaschinenopitmierung?

Eine Forschergruppe bei Google hat in dem Paper “Knowledge-Based Trust: Estimating the Trustworthiness of Web Sourcs” (via newscientist.com) einen neuen Ansatz vorgestellt, wie man die Vertrauenswürdigkeit einer Website einschätzen kann. Die Vertrauenswürdigkeit einer Website ist einer der wichtigsten Aspekte für User und Suchmaschinenbetreiber: User sind daran interessiert, verlässliche Informationen für ihre Suchanfragen zu bekommen. Um die gewünschte Qualität zu liefern, müssen Suchmaschinenbetreiber in der Lage sein, die fragwürdigen Websites auszusortieren (oder sie zumindest nicht ganz vorne auf der Trefferanzeige zu platzieren).

Bisher hat Google die Vertrauenswürdigkeit (Domain Trust & Authority) einer Website in erster Linie über die Verlinkung gemessen: Je mehr Links auf eine Seite eingehen, desto glaubwürdiger wird die Seite eingeschätzt. Die Glaubwürdigkeit des Inhalts wurde also indirekt ermittelt.

Richtigkeit statt Einfluss

Der jetzt vorgestellte neue Ansatz besteht darin zu prüfen, ob die Inhalte einer Seite korrekt sind. Entscheidend ist die Zahl der falschen Fakten auf einer Seite. Hier gilt, je mehr Fakten falsch sind, desto niedriger der Grad der Vertrauenswürdigkeit. Google wird nun den Anteil der falschen Fakten messen und mit unterschiedlichen Parametern die Richtigkeit der Seite berechnen. Dabei führen die Forscher eine neue Größe ein, die den Grad der Vertrauenswürdigkeit einer Seite in einer Zahl ausdrückt, den Knowledgs-Based-Trust (KBT).

Eine neue Größe für SEO: Knowledge-Based Trust

Die Ermittlung des KBT ist ein komplexer Prozess: Google extrahiert eine Vielzahl von Fakten aus unterschiedlichen Seiten und schätzt die Richtigkeit der Fakten und Exaktheit der Quelle mit Hilfe eines Wahrscheinlichkeitsmodells ein. Damit bekommt Google ein Faktenbündel, das als richtig bewertet wird und gleicht die aktuell durchsuchte Seite die vorher gewonnen Werte mit ab: Wenn sie wenig Fehler hat, hat sie einen guten KBT.

Was passiert mit nicht-faktenbasiertem Content?

Noch ist das alles im Google-Labor und nicht umgesetzt. Wenn dieses System allerdings korrekt funktioniert und umgesetzt wird, wird das weitreichende Folgen für Website-Betreiber und SEOs haben. Zum einen werden wahrscheinlich faktenbasierte Seiten höher gerankt. Ich denke, dass die Rolle die dann meinungsbasierte Seiten oder Seiten mit reinem Unterhaltungswert spielen werden, noch offen ist. Es könnte sein, dass solche Seiten eher nach hinten rutschen.  Nun sind aber nicht alle User auf der Suche nach Fakten! Da bin ich gespannt. Offen bleibt auch, was mit aktuellen Inhalten geschieht, denn bei neuen Fakten fehlt ja zunächst die nötige Datendichte.

Paradigmenwechsel in der Suchmaschinenoptimierung?

Aber den größten Umsturz bringt der KBT für SEOs. Unter Umständen müssen sie sich auf einem Paradigmenwechsel einstellen, was massive Änderungen bei ihrer Arbeitsweise mit sich bringt. Ist jetzt die Zeit vorbei, die von der Jagd nach Backlinks geprägt war? Gibt es stattdessen Fakten-Check-Tools, die den KBT messen? Was glauben Sie, welche Folgen würde denn die Einführung eines solchen neuen Maßstabs für Vertrauenswürdigkeit haben?

Das goldene Dreick verschwindet – neue Eye-Track Studie zur Google Trefferseite

Die “Erfinder” (Das kanadische Unternehmen Enquiro heute Medative) des legendären goldenen Dreiecks der Google-Trefferliste haben erneut verfolgt, wohin die User schauen, wenn sie eine Suchanfrage auf Google durchführen: “The Evolution of Google Search Results Pages and Their Effect on User Behaviour” Und sie mussten das Goldene Dreieck begraben – das gibt es (in der Regel) nicht mehr. Das liegt vor allem daran, dass Google neben der klassischen organischen Suchtreffer-Anzeige, viele neue Elemente eingeführt hat mit der Intention die Suche bequemer zu machen. Es gibt nun den Google “Knowledge Graph“, mit dem versucht wird, direkte Antworten auf die Suchanfragen zu liefern. Das kann entweder ein Kasten mit einem Antwortsatz sein, eine tabellarische Aufzählung auf der rechten Seite oder ein Bilder-”Karussell” unter der Suchanfrage Maske.

Gewohnte Suchmuster werden durch neue Elemente durchbrochen

Diese Strategieänderung zeigt sich in der Verteilung der Aufmerksamkeit. Denn je nach Suchabsichten haben die neuen Elemente (und die Anzeigen) dazu geführt, dass traditionelle Suchmuster gestört werden. Das zeigt sich darin, dass das größte Interesse nicht mehr der oberen linken Ecke (früher Platz 1 der organischen Suche) gilt, sondern sich verteilt auf eine Reihe von Elemente: Anscheinend ist es für die User schwieriger geworden, die Positionen der relevanten Suchergebnisse vorherzusagen. Deswegen scannen sie mehr Elemente (und das ganze schnell als bisher) und zwar verstärkt vertikal (und weniger horziontal).

                

Das legendäre Google-Dreieck wird von einem etwas amorphen Stab abgelöst (Quelle: medative.com)

Blickmuster hängt von der Suchintention ab

Tatsächlich repräsentiert nicht der “Stab” das Fazit der Eye-Track-Studie, sondern vielmehr die Erkenntnis, dass es kein so dominantes festes  Suchmuster wie das goldene Dreieck mehr gibt. Die Verteilung der Aufmerksamkeit ist differenzierter und hängt von den präsentierten Elementen und der Suchintention ab. So führt ein relevanter Knowledge Graph –  etwa die Einblendung der Temperaturen auf die Suchanfragen “das Wetter in New Orleans” – ganz eindeutig dazu, dass Aufmerksamkeit von den organischen Suchergebnissen abgezogen wird. Auf der anderen Seite leitet die Einblendung eines Knowledge Graphs, der als irrelevant eingestuft wird, die Aufmerksamkeit verstärkt auf die organischen Suchergebnisse.

Veränderte Google Strategie schlägt sich in der Click-Through-Rate nieder

Google sieht sich ja in der Zwischenzeit nicht mehr nur als Einstiegsseite, sondern verstärkt als “Antwortseite auf Fragen”. Das Ziel ist es also nicht mehr unbedingt, den User an die passende Website weiterzuleiten. Vielmehr liegt der Fokus stärker darauf, den User auf der Website zu halten (oder auf eine Google-Seite weiterzuleiten).  Das zeigt der Vergleich der CTR-Rate der Position #1 der organischen Suche. Steht sie unter einem für die Suchanfrage als irrelevant eingestuften Knowledge Graph, liegt die CTR-Rate bei 82%. Ist der “Antwortkasten” relevant, dann verringert sich die CTR-Rate für die #1 der organischen Suche auf 36%!

 

Welche Plätze auf der Google-Trefferseite sind denn für den User noch relevant? Dieser wichtige Frage gehe schon länger nach und stelle regelmäßig die wichtigsten Studien dazu vor:

Amazon als größter Google-Konkurrent?

Googles “Außenminister” Eric Schmidt war in Berlin – offiziell um ein Musik-Software Firma zu besuchen (und Wirtschaftsminister und Google-Kritiker Sigmar Gabriel zu treffen). Aber die eigentliche Mission war wohl eher, die Stimmung in Europa und Deutschland ein wenig zu heben. Die Querellen mit den deutschen Verlagen scheinen Google doch ein wenig  zu sorgen. Daher ist seine Rede eher politisch als konkret aufzufassen – sie enthielt jedoch dennoch interessante Aspekte.

So nannte Schmidt als größte Konkurrenz von Google nicht etwa die anderen Suchmaschinen-Betreiber, sondern die großen Online-Handelsplattformen Amazon und Zalando. Dorthin gingen die User, wenn sie sich über ein Produkt informieren wollten. Dabei bezog er sich auf ein Studienergebnis von Forrester Research, dem nach starten etwa ein Drittel der kaufwilligen User bei Amazon – doppelt so viele wie bei Google.

Amazon ist zum einen direkter Konkurrent, in den USA hat Google große Summen in  “Google Express” und “Google Shopping” investiert. Und gleichzeitig einer der größten Geschäftspartner für Google Anzeigen. Keine einfache Situation für den Suchmaschinenbetreiber.

Mobile – das ist ein Thema, das Schmidt beschäftigt, er ist der Meinung, dass das mobile Surfen, das Surfverhalten selbst grundlegend verändern wird. So werde dadurch auch die Sprachsuche befördert, glaubt Schmidt. Die Herausforderung für Google liegt darin, den Suchkontext bei der mobilen Suche mit einzubeziehen.

Das sind die wenigen konkreten Punkte in seiner Rede. Der politische Schwerpunkt lag in der Beschwichtigung: Google sei kein Monopolist, der jederzeit den Strom abstellen könne. Vielmehr versteht sich Google als  Innovator und Investor  - selbstverständlich auch in Europa.

Yandex verzichtet auf Link-Bewertung beim Ranking

Links, Links, Links – das sind die Ranking-Faktoren, die bei der Suchmaschinenoptimierung eigentlich entscheiden. Nicht selten hatte man den Eindruck, dass viele SEOs die Bedeutung der On-Page-Optimierung zwar immer wieder anführen, dass sie aber eigentlich selbst nicht so richtig daran glaubten.
Obwohl es immer wieder Probleme mit Link Spam gibt, setzt Google weiterhin auf die Verlinkung als Signal dafür, ob eine Website für das Suchwort passt und ob sie relevant ist. (wie z.B. die MOZ Reports regelmäßig zeigen). Je mehr relevante Links aus dem Themenbereich, desto höher rankt die Website für das Suchwort. Das gilt für alle Websites – ganz gleich, ob es sich um z.B. um einen Online-Shop oder ein Info-Site handelt.

Link-Spam wird wertlos

Die russische Suchmaschine Yandex hat bei seinem Ranking-Konzept diesen Pfad der einheitlichen Bewertung verlassen. Seit März 2014 verzichtet die Betreiber in einigen Sparten bei kommerziellen Websites (in der Region Moskau) darauf, Links beim Ranking einzubeziehen. Grund dafür ist, dass gerade bei kommerziellen Websites im russischprachigen Raum die meisten Links purer Spam sind, so Yandex Head of Web Search Alexander Sadovsky kürzlich in einem Interview.

Userverhalten wird stärker einbezogen

Stattdessen setzt  Yandex auf die Analyse des Userverhaltens. Sadovskys Meinung nach wird diese Entscheidung zur Folge haben, dass sich die russischen SEOs nun mehr auf Inhalte, Usability und SEM konzentrieren werden, was dem User zu Gute kommen wird. Das ist zwar nicht ganz abwegig, aber schon kleine Analysen zeigen, dass etwa eine transparente Navigation Vorteile bringt, dass aber auch über den Listen-Platz entscheidet, ob man bei Yandex Werbungskunde ist, oder nicht. Ob das die bessere Strategie ist? Noch dazu wird bereits spekuliert, dass sich die Spam-Links-Verkäufer nun umorientieren auf die Manipulation des Userverhaltens….

 

 

Hat der Link-Text Einfluss auf Google Suggest/ Google Autocomplete?

Google Suggest ist eine Suchmaschinen-Funktion, an der der gesellschaftspolitische Einfluss der Suchmaschine am deutlichsten wird. Am bekanntesten ist dieser Umstand in Deutschland durch die Bettina-Wulff-Klage geworden – aber auch andere europäische Länder haben ihre “Google-Suggest-Affären”. Immer wieder muss Google Wörter aus der Vorschlagsliste entfernen – entweder auf Anfrage oder weil die Suchwörter gegen die Google-Richtlinien “zur Entfernung von Aktivitäten, die in der realen Welt zu körperlichen Schäden führen könnten”, verstoßen.

Für die Suchmaschinenoptimierung ist Google Suggest oder Google Autocomplete, wie es jetzt heißt, immer ein interessantes Thema: Vor allem für die Keyword-Analyse waren die Vorschlagslisten immer ein gutes Werkzeug.

Wie setzt Google die Vorschlagsliste zusammen?

Wie die Listen generiert werden, ist auf den ersten Blick klar. Sie sind zum einen abhängig vom individuellen Userverhalten: Vorherige Suchen und der Standort des Users beeinflussen die Vorschläge. Wer gestern nach “Auto mieten” gesucht hat und in Stuttgart sitzt, wird heute bei “Auto” sicher “Auto mieten Stuttgart” auf der Liste finden.

Dazu kommt noch das absolute Suchvolumen: Je häufiger ein Wort gesucht wird, desto höher ist die Wahrscheinlichkeit, dass es in der Vorschlagsliste erscheint. Ganz ähnlich ist das bei Mehrwort-Suchanfragen: Je häufiger eine Kombination bisher Hand eingetippt wurde, desto eher wird sie in Google suggest erscheinen. Google Suggest reagiert auch auf aktuelle Entwicklungen. Wer zur Zeit “Fußball” eingibt, bekommt “Fussball WM” und “Fußball live” vorgeschlagen.

Manipulation funktioniert über gelenkte Suchanfragen - und löst unter Umständen “Black-Hat”-Alarm aus!

Direkten Einfluss auf die Vorschlagslisten zu nehmen, ist ziemlich aufwendig, funktioniert aber – wie das Beispiel “Rumänen sind…” zeigt. Hier gab es eine umfangreiche Kampagne einer rumänischen Markenvereinigung. Grundsätzlich sind die meisten Versuche, Google Suggest zu manipulieren allerdings ziemlich eindeutig in Richtung Black-Hat-SEO.

Link-Text erscheint in der Vorschlagsliste

Einen Hinweis auf eine elegantere Lösung hat jetzt Rand Fishkin gegeben: Er hat über Jahre immer mit dem Link-Text “serendipitous travel blog” auf ein bestimmtes Reiseblog verlinkt. Und tatsächlich, wenn man jetzt “serendipitous trav” eingibt, erscheint “serendipitous travel blog”. Da seiner Meinung nach niemand nach dieser Phrase sucht, können in diesem Fall Suchhäufigkeit oder Suchfrequenz keine Rolle spielen. Entscheidend ist also die Benennung des Links. Das ist das erste Indiz dafür, dass Google Suggest/Autocomplete nicht alleine auf Basis der Suchanfragen generiert wird. 

 

Panda 4.0 ist gestartet und zeigt bereits erste Folgen

Panda Updates sollten ja eigentlich nicht mehr angekündigt werden. Wenn also Matt Cutts gestern twittert, dass das Panda 4.0 Update jetzt startet, dann kann man davon ausgehen, dass die neueste Aktualisierung doch umfassender ist als die bisherigen Aktualisierungen. Eine Überblick über die Updates hat Searchengineland zusammengestellt. Welche On-Page Faktoren diese Änderungen betreffen, ist noch nicht klar. Es scheint jedoch, dass die Auswirkungen für verschiedene Sprachen unterschiedlich ausgeprägt sein sollen. Laut Barry Schwartz von Searchengineland sollen im Englischen ca 7,5% der Anfragen betroffen sein . Eine Quote, die auch der durchschnittliche Suchende bemerken würde.

Zusätzlich zum Panda 4.0 Update, das in erster Linie den Content betrifft, wurde auch der Payday Loan Algorithmus aufgefrischt.  Dieser Algorithmus soll vor allem extreme Spam-Anfragen aussieben. Allerdings hat dieses Update einen deutlich geringeren Auswirkungsgrad als das Panda-Update.

Die Aktualisierungen – und wahrscheinlich vor allem das Panda-Update zeigen schon Folgen. Johannes Beus hat bei Sistrix inzwischen einige Daten ausgewertet und bemerkt, dass beide Neuerungen die SERPs deutlich durcheinander gebracht haben, wobei einige Domains im Sichtbarkeitsindex deutlich gestiegen sind:

  • einige davon haben einen hohen Anteil längerer, redaktioneller Texte
  • einige haben in der Vergangenheit auf Panda-Updates reagiert (nicht selten haben sie dabei einen Verlust an Sichtbarkeit eingefahren)

Insgesamt bestätigen die ersten Stichproben die Vermutung, dass hier deutlichere Änderungen im Algorithmus eingefügt wurden als bei bisherigen Updates.