Bill Slawski veröffentlichte einen Artikel, in dem er feststellte, dass Google ein Patent im Zusammenhang mit PageRank aktualisiert hat. Dies ist ein wöchentlicher Algorithmus, da er die Reihenfolge der Sites beeinflusst und erklärt, warum einige Sites gut sind, andere aber nicht.

Wie wirkt sich das auf das Linkbuilding aus?

Dies ändert die Spielregeln für das Linkbuilding. Die hier beschriebenen Algorithmen sind eng mit dem verbunden, was wir über den Pinguin-Algorithmus wissen.

Dies wirkt sich auf das Linkbuilding aus, da es die Distanzen zwischen einer autoritativen und spamfreien Website und den Website, auf die sie verlinkt, berechnet. Diese Links sind ebenfalls thematisch gegliedert.

Für den Linkaufbau wird der ideale Link ein Link von einer Seite sein, die so nah wie möglich an der autoritativsten und qualitativ hochwertigsten Seite in dieser Nische ist. Der Unterschied besteht darin, dass die qualitativ hochwertigen Seiten für jede Nische unterschiedlich sind. Damit ändert sich die Bedeutung einer autoritativen Website.

Wenn Google noch den PageRank-Score dieser Seite anzeigen würde, wäre der tatsächliche PageRank-Score in obskuren Nischen etwas weniger von Bedeutung. Es gibt nicht viele Seiten, die in einer kleinen Nische verlinken, um große Mengen an PageRank aufzubauen. Dies gibt kleineren Websites in kleineren Nischen einen Schub in der Rangliste.

Und deshalb ist dieser Algorithmus ein Durchbruch. Es erlaubt Sites in kleinen Nischenbereichen, größere Sites, die mehr Links haben, zu überholen und das wirkt sich auf das Linkbuilding aus, weil es die Lösung für das Ranking ändert.

Bei der Lösung für das Ranking geht es nicht mehr darum, den größten und verbindlichsten Link zu bekommen. Aber es wird schwierig die Linkquellen zu identifizieren, welche die kürzeste Distanz über die maßgebliche Website über das Thema haben.

Das ist der größte Takeaway für die Rangliste.

Was hat sich beim PageRank geändert?

Wahrscheinlich nicht sehr viel. Dieses Patent scheint nicht für viele Veränderungen zu sorgen. Aber was bemerkenswert ist, ist, dass der Autor, der im Patent zitiert wird, mit einem verwandten Patent verbunden ist, das sich mit der Methodik zur Berechnung von Verbindungsdistanzen beschäftigt (Skalierbares System zur Ermittlung kurzer Wege innerhalb eines Web-Link-Netzwerkes).

Hier ist das Abstrakte:

Systeme und Methoden, um mehrere kürzeste Wege zu finden. Ein gerichteter Graph, der Web-Ressourcen und Links darstellt, wird in Shards unterteilt, wobei jeder Shard einen Teil des Graphen umfasst, der mehrere Webressourcen darstellt. Jeder der Shards wird einem Server zugewiesen und eine Entfernungstabelle wird parallel für jede der Webressourcen in jedem Shard berechnet, wobei eine Seed-Berechnung in dem Server, dem der Shard zugewiesen wurde, verwendet wird.“

Es geht also darum, Nischenthemen durch Server zu teilen und diese Server ihre Berechnungen verteilt durchführen zu lassen, so dass, wenn ein Computer ausfällt, die anderen die Lücke schließen.

Warum diese Veränderungen den PageRank beeinflussen.

Dies ist wichtig, da die Skalierung der Berechnungen ein Kernproblem bei der Berechnung von Algorithmen für große Seed Sets ist, wie das von Bill Slawski zitierte Patentupdate zeigt:

Daher wird eine Methode und ein Gerät benötigt, um ein Ranking für Seiten im Web unter Verwendung einer großen Anzahl von diversifizierten Seed-Seiten ohne die Probleme oder beschriebenen Techniken zu erstellen.“

Führt Google einen Bias durch die Verwendung von vertrauenswürdigen Sites ein?

Bei diesem Algorithmus geht es darum, eine Map mit Links zwischen Webseiten zu erstellen. Der Ausgangspunkt für diese Map des Webs ist, was Google als die maßgebendsten und Spam-freien Webseiten determiniert.

Hier wird versucht eine spamfreie Map des Internets zu erstellen. Es gibt andere Teile von Google`s Kernalgorithmus, die andere Faktoren berechnen. Es sind in etwa 200.

Sie können sich diesen Algorithmus als den Torwart vorstellen, der bestimmt, welche Seiten für das Ranking berücksichtigt werden. Sie entscheiden nicht, welche Website ordentlich rankt und welche nicht. Es existieren über 200 Ranking-Faktoren, die helfen, das zu bestimmen.

Warum ein Trusted Seet Set verwenden?

Durch die Verwendung eines „vertrauenswürdigen“ Seed Sets stellen sie lediglich Parameter für das ein, was eine Authority Website für X Topic darstellt. Dies folgt auf das, was im Tropical Trust Rank Paper, das im Patent zitiert wird, entdeckt wurde.

Der ursprüngliche TrustRank algo war auf große Seiten ausgerichtet. Forscher entwickelten eine neue Form des Trust Rank, den Tropical Trust Rank. Der Tropical Trust Rank löste die große Seitenverzerrung, indem er das Web in Scherben aufteilte, die verschiedene Themen und Nischen repräsentierte.

Die Seed Sets wurden unter den verschiedenen Scherben ausgewählt, die Themen und Nischen repräsentierten. Dies bedeutete, dass Sie eine kleine Nische mit relativ wenigen Seiten zu einem Thema haben können, aber immer noch eine Authority Website, die Links zu verwandten Seiten enthält.

Das hat zur Folge, dass diese kleinen Seiten eine Chance haben, sich zu platzieren, weil sie für diese obskuren Themen maßgebend sind.

Ist Googles Algorithmus ein aktueller Trust Rank Algorithmus?

Nein. Der Unterschied zwischen dem Algorithmus von Google und den verschiedenen Trust Rank-Algorithmus besteht darin, dass es keine eigentliche Sache mit der Bezeichnung Trust gibt, dass jeder Website zugeordnet wird.

Im Trust Algorithmus gibt es eine Sache mit der Bezeichnung Trust, die so propagiert wird, wie PageRank von Seite zu Seite verbreitet wird. Nicht so bei Googles Algorithmus. Es gibt nichts, was man als Trust bezeichnet.

Das einzige, was sie tun, ist von „vertrauenswürdigen“ Seiten aus zu starten. Lassen Sie sich von dem Wort „Trust“ nicht verwirren, dass dies ein Trust Algorithmus ist. Ist es nicht. Es ist ein Distanz Ranking Algorithmus.

Wir wählen nur Websites aus, denen man vertrauen kann. Was bedeutet, dass sie echt und spamfrei sind. Google verwendet nicht eine Sache mit der Bezeichnung Trust, um sich von Link zu Link zu verbreiten.

Googles Patent verwendet nicht das Wort Trust.

Googles Patent verwendet nicht das Wort Trust. Und Sie verwenden keine Bezeichnung Trust, um den PageRank zu berechnen.

Sie gehen von vertrauenswürdigen Seiten aus, um die Abstände zwischen dem Seed Set und den Seiten, auf die sie verweisen und der Distanz weiter weg zu berechnen. Googles Patent ist nach der Distanz geordnet. Je weiter Sie also entfernt sind, desto wahrscheinlicher sind Sie irrelevant oder Spam.

In einem Trust Rank Algorithmus gibt es etwas mit der Bezeichnung Trust, welche von Link zu Link verbreitet und berechnet wird. Nicht so bei Googles Algorithmus.

Google nutzt das Wort Trust.

Google verwendet das Wort Trust, nicht das Substantiv Version, Trust. Google verwendet das Wort Trust, um zu verdeutlichen, dass eine Website echt ist. Man konnte dieses Wort in Spamfrei ändern und die Bedeutung nicht wirklich verlieren.

Eine Website, die echt und vertrauenswürdig ist, ist ein guter Ansatzpunkt für die Berechnung von Link-Distanzen. Aber das ist weit davon entfernt zu sagen, dass Trust gemessen wird. Es ist nicht das Trust, das gemessen wird, sondern es ist die Distanz. Dies ist ein Link-Distanz-Ranking-Algorithmus mit der Bezeichnung „Producing a Ranking for Pages Using Distances in a Web-Link Graph“. Es geht nicht um Vertrauen. Es geht um die Entfernung von einer vertrauenswürdigen Website zu einer anderen Webseite.

Ich gehe davon aus, dass andere anfangen werden, es einen Trust Algorithmus zu nennen. Aber sie werden sich irren. Googles Patent besagt nur, dass der Algorithmus mit vertrauenswürdigen Seiten beginnt und die Distanzen zu diesen Webseiten misst. Sie sagen nicht, dass es eine Sache mit der Bezeichnung Trust gibt, die zur Berechnung des PageRank verwendet wird.