Auch Google hat als Suchmaschine einmal klein angefangen und verfügte längst nicht immer über ein so breit aufgestelltes System an Rankingfaktoren und Bewertungskriterien wie heute. Bevor zahlreiche Updates und Weiterentwicklungen veröffentlicht und etabliert wurden, konzentrierte sich die Suchmaschine vor allem auf die Anzahl von Backlinks. Diese Evolutionsstufe von Google wird als Random Surfer Model bezeichnet.
Was ist das Random Surfer Model? #
Das RSM ist eine von bisher vier Entwicklungsstufen der Suchmaschine Google[1]. In dieser ersten Phase der Suchmaschine ging es vor allem um die Anzahl von Backlinks einer Website als Kriterium für die PageRank. Das Surfverhalten eines Nutzers anhand von Backlinks wird simuliert. Hierdurch ermittelt Google, wie wahrscheinlich es ist, dass ein bestimmter Backlink angeklickt wird.
Wie bei Google alles begann #
Vor der Erfindung von Suchmaschinen war es für Nutzer relativ aufwendig, interessante Inhalte und Seiten im Internet zu finden. Viele orientierten sich an Webverzeichnissen, um spannende und neue Internetadressen kennenzulernen. Die Suchmaschinen entwickelten das Konzept, bestimmte Keywords einzugeben und eine Auswahl interessanter Webauftritte vorgeschlagen zu bekommen. Eine der Suchmaschinen, die sich bald entwickelte und innerhalb kürzester Zeit zum uneingeschränkten Marktführer wurde, war Google.
In den Anfangsjahren musste die Suchmaschine erst ihren Weg finden, um vorhandene Webauftritte zu bewerten und einschätzen zu können, welche für die eigenen Nutzer interessant sein könnten. Diese Entwicklungsphase von Google wird als RSM[2] bezeichnet. Hierbei ging es nahezu ausschließlich um die Anzahl von Backlinks und den Link Juice, den diese weitergeben. In dieser Zeit entwickelte sich der PageRank als wichtigstes Bewertungstool, das von Betreibern einer Seite unbedingt berücksichtigt werden musste, wenn diese erfolgreich sein wollten.
Google prüfte, wie viele andere Webseiten auf den Internetauftritt eines Webmasters Backlinks setzten. Die Idee bestand und besteht darin, dass ein Backlink ein Vertrauensbeweis ist und von der Relevanz einer Webseite zeugt. Außerdem untersuchte Google, auf wie viele andere Webseiten die jeweilige Internetseite Backlinks setzte. Hiervon ließ sich ableiten, wie wahrscheinlich es ist, dass ein bestimmter Backlink geklickt wird. Diese Wahrscheinlichkeit floss ebenfalls in die Bewertung und somit das Suchmaschinenranking ein.
Das Random Surfer Modell ist aus den Anfangszeiten der Suchmaschine Google und beschreibt, wie ein User durch Netz surft, also sich von Webseite zu Webseite bewegt. Es wurde unter anderem auch für die Bewertung von Websites anhand der Backlinks genommen.
Weiterentwicklungen des Random Surfer Models #
Im Laufe der Jahre hat Google seine Algorithmen zur Berechnung weiterentwickelt, modernisiert und optimiert[3]. Schnell zeigte sich zum Beispiel, dass es nicht zielführend ist, auf die reine Anzahl von Backlinks zu achten, um die Qualität eines Webauftritts einschätzen zu können. Denn schnell gewöhnten sich Webmaster an, mit Linkfarmen oder Webverzeichnissen eine große Zahl an Backlinks aufzubauen, die aber in keinem erkennbaren Zusammenhang mit ihrem eigenen Webauftritt standen. Entsprechend musste Google weitere Kriterien etablieren, um die Relevanz und Qualität von Webseiten weiterhin beurteilen zu können.
Auch das Verhalten von Usern auf einer Seite ist mittlerweile in der aktuellsten Version des Algorithmus von Bedeutung. Dadurch stand auch das Online-Marketing in Laufe der Jahre vor einer Reihe neuer Herausforderungen.
Die erste Weiterentwicklung war das sogenannte Reasonable Surfer Model. Von jetzt an wurde nicht nur die Anzahl von Backlinks, sondern auch deren Position auf einer Webseite bei der Bewertung berücksichtigt. Diese Positionierung spielt nämlich eine Rolle bei der Frage, wie wahrscheinlich es ist, dass ein Link geklickt wird. Links in der Navigationsleiste fallen den Webseitenbesuchern beispielsweise schneller und häufiger auf, als links im Footer. Durch das Reasonable Surfer Model mussten Web Master in Zukunft ihre Strategien beim Linkbuilding anpassen.
Die zweite Entwicklungsstufe war das Topical Surfer Model. Von jetzt an beachtete Google die Themenrelevanz zwischen zwei Webseiten. Wenn ein Backlink von einer Webseite aus derselben Branche oder demselben Themengebiet stammt, hat er einen höheren Wert als Backlinks von Quellen ohne Themenbezug. Die dritte Entwicklungsstufe wurde von Google nicht offiziell bestätigt und trägt daher keinen eigenen Modellnamen. Seither werden jedoch auch User Signals für die Bewertung herangezogen. Hierzu gehört beispielsweise, wie lange sich Besucher auf einer Webseite aufhalten und ob sie beispielsweise schnell zu den SERPs zurückkehren, weil sie auf einer Webseite nicht das gefunden haben, wonach sie suchten.
Das Random Surfer Model und der Link Juice #
Beim Random Surfer Model spielte der Link Juice noch eine deutlich größere Rolle als heutzutage. Link Juice meint die Kraft, die eine Webseite auf eine andere übertragen kann[4]. Wenn eine Webseite beispielsweise vier Backlinks auf vier unterschiedliche Webseiten setzt, erhält jede von diesen einen Link Juice von 25 %. Werden hingegen nur drei unterschiedliche Backlinks gesetzt, profitiert deine Webseite von 33 % Link Juice.
Hohe Exklusivität ist im Bereich der Backlinks somit viel wert. Je mehr qualitativ hochwertige Webseiten Backlinks auf deinen Internetauftritt setzen und je weniger Backlinks sie anderen Internetauftritten gewähren, desto sinnvoller ist das für dich. Durch die Weiterentwicklung des Google Algorithmus hat der Link Juice nicht mehr die Bedeutung von früher, ist aber nach wie vor ein wichtiger Rankingfaktor, den du unbedingt in deine Linkbuilding-Strategie integrieren solltest.
Die Bedeutung des Random Surfer Models bei der SEO #
Das RSM hat für die SEO heutzutage nur noch eingeschränkte Bedeutung[5]. Natürlich ist es nach wie vor sinnvoll, von vielen unterschiedlichen Referring Domains Backlinks zu bekommen. Allerdings kommt es nicht mehr nur allein auf die Zahl und Kraft der Backlinks an, sondern auch auf deren Qualität. Beschäftige dich daher immer mit Kennzahlen wie LRT Power und LRT Trust, um die Anzahl und Qualität deiner Backlinks beurteilen zu können.
Genügte es unter dem Random Surfer Model, die Linkpower so weit ansteigen zu lassen wie möglich, so muss heute ein sinnvolles Verhältnis aus Kraft und Qualität bestehen. Die Kennzahl LRT Power*Trust hilft dir dabei, diese beiden Werte zueinander in Beziehung zu setzen und zu prüfen, ob du einen sinnvollen Wert erreichst. Grundsätzlich kannst du Werte zwischen 0 und 100 erzielen, es ist aber nicht nötig, einen Wert von 100 anzustreben. Wichtig ist, dass Linkkraft und Linkqualität in einem sinnvollen Verhältnis zueinander stehen.
Fazit: Darum solltest du das Random Surfer Model kennen #
Das RSM ist nicht nur eine kuriose Geschichte, die dir die Entstehung und Entwicklung von Suchmaschinen veranschaulicht. Die Kriterien, die unter dem Random Surfer Model für die Bewertung von Webseiten herangezogen wurden, haben heute nach wie vor Relevanz, sie teilen sich ihre Bedeutung jedoch mit vielen weiteren Rankingfaktoren. Wenn du das Random Surfer Model kennst, hast du die Möglichkeit, dich optimal auf deine Linkkraft und deinen Link Juice zu konzentrieren und Maßnahmen zu ergreifen, um diese effizient zu stärken. Nimm aber noch möglichst viele weitere Faktoren in den Blick, um dich nicht zu stark zu beschränken und einen guten Linkmix und eine erfolgreiche SEO zu erreichen.
[1]https://www.myseosolution.de/seo-tutorial/grundlagen/pagerank/
[2]https://www.onlinesolutionsgroup.de/blog/glossar/r/random-surfer-model/
[3]https://impulsq.de/mega/sidebar-und-footerlinks-gaeaeaeaeaeaehhhhn/