DRaver
Bekanntes Mitglied
- Registriert
- 30. Juli 2013
- Beiträge
- 1.400
- Punkte
- 138
Erst mal einen schönen Feiertag an euch alle 
Ich habe mich heute mal mit der internen Verlinkung bei Xenforo auseinander gesetzt und da ist mir echt ein Problem aufgefallen.
Xenforo schleudert ja geradezu mit internen Links rum. Manche Seiten haben mehr als 200 Internen Links.
Jetzt ist mir aber ein Problem aufgefallen, dass ich mal an einem Beispiel verdeutlichen will und zwar aus der Sicht des Googlebots:
Wir alle haben ja Übersichtsseiten wie diese hier. Jetzt stellen wir uns mal vor, Zeilenschreiber und Benützer würden ihre Profile eingeschränkt haben, so dass Gäste oder auch andere sie nicht sehen können.
Allerdings schon in der ersten Zeile schicken wir drei Links dahin. Wir signalisieren dem Bot, hey, folge mal den drei Links und dann zack, schmettern wir ihn da ab und geben ihn ein 403 zurück, nach dem Motto: Du hast hier nichts verloren.
Machen das nur ein paar User, kommen schon schnell 20 oder 30 Links zusammen pro Seite, wo auf diese Weise der Bot verarscht wird
Ich könnte mir gut vorstellen, dass das an Google kein positives Signal sendet. So nach dem Motto: Warum soll ich einem Link folgen, auf den ich dann nicht darf = Schlechte Seite = down im Ranking. Externe Broken Links nach dem Motto sind aus meiner Erfahrung jedenfalls ein großes Problem für Webseiten, wenn die Links follow sind. Ich könnte mir gut vorstellen, dass die Wertung intern noch härter ist, weil hier theoretisch der Webmaster es ja in der Hand hat, dass eine interne Verlinkung sauber ist und funktioniert.
Was haltet ihr davon?

Ich habe mich heute mal mit der internen Verlinkung bei Xenforo auseinander gesetzt und da ist mir echt ein Problem aufgefallen.
Xenforo schleudert ja geradezu mit internen Links rum. Manche Seiten haben mehr als 200 Internen Links.
Jetzt ist mir aber ein Problem aufgefallen, dass ich mal an einem Beispiel verdeutlichen will und zwar aus der Sicht des Googlebots:

Wir alle haben ja Übersichtsseiten wie diese hier. Jetzt stellen wir uns mal vor, Zeilenschreiber und Benützer würden ihre Profile eingeschränkt haben, so dass Gäste oder auch andere sie nicht sehen können.
Allerdings schon in der ersten Zeile schicken wir drei Links dahin. Wir signalisieren dem Bot, hey, folge mal den drei Links und dann zack, schmettern wir ihn da ab und geben ihn ein 403 zurück, nach dem Motto: Du hast hier nichts verloren.
Machen das nur ein paar User, kommen schon schnell 20 oder 30 Links zusammen pro Seite, wo auf diese Weise der Bot verarscht wird

Ich könnte mir gut vorstellen, dass das an Google kein positives Signal sendet. So nach dem Motto: Warum soll ich einem Link folgen, auf den ich dann nicht darf = Schlechte Seite = down im Ranking. Externe Broken Links nach dem Motto sind aus meiner Erfahrung jedenfalls ein großes Problem für Webseiten, wenn die Links follow sind. Ich könnte mir gut vorstellen, dass die Wertung intern noch härter ist, weil hier theoretisch der Webmaster es ja in der Hand hat, dass eine interne Verlinkung sauber ist und funktioniert.
Was haltet ihr davon?