3. Weiterhin gab es es das
Loan Algorithmus Update 2.0, welches gezielt die Spamseiten unter Beschuss genommen hat.
10.03.2014: John Mueller’s Kommentare rund um “Panda”
Update 2:
“New Site Honeymoon”
Es gab einige Nachfragen betreffend der “Honeymoon”-Thematik. Wir haben uns den Hangout angesehen und haben John Mueller’s Kommentare wie folgt verstanden:
Die Frage die gestellt wurde, war, warum einige neue Seiten in den SERPs sehr sichtbar sind, obwohl sie über ein schlechtes Linkprofil verfügen.
Nicht alle dieser Seiten (die einen solchen “Bonus” erhalten) verfügen über ein schlechtes Linkprofil (mit Spamlinks etc.). Google gebe neuen Seiten manchmal einen Vertrauensvorschuss und nimmt die zunächst nicht vorhandenen Signale zum Anlass, die Webseite in den Suchergebnissen anzuzeigen. Manchmal geschehe dies, um zu gucken, ob es Sinn macht die Seite an bestimmten Orten zu listen. Dieser Bonus wird manchmal vergeben, um zu gucken wie das Publikum (also die Suchenden), auf die Webseite reagieren. Wenn Sie daraufhin von Nutzern empfohlen werde, ist dies für Google ein positives Signal.
Google versuche, die richtige Balance zu finden, was schwer sei. Diesen Newbie Bonus gibt es nicht für alle Seiten. Es sei nicht möglich zu sagen, dass dies immer oder gar nicht gemacht werde.
Es lässt sich also festhalten, dass es einen Newbie Bonus gibt, der jedoch mehr oder weniger willkürlich vergeben wird und auf den man sich nicht verlassen kann.
Quelle:
https://plus.google.com/events/cd0f4l0ji3jsp6jnsma3jdrltm8
Update:
John Mueller hat sich mittlerweile zu Wort gemeldet und gesagt, dass die Aussagen (die ihr weiter unten im Blogbeitrag findet) von ihm nicht gemacht wurden und falsch seien und von Steve Martin falsch interpretiert wurden. Was davon nun richtig oder falsch verstanden wurde, muss jeder selbst entscheiden. Nachfolgend John Mueller’s Kommentar bei Google+:
Er sagt,
- die Panda und Crawling Thematik bestehe nicht
- Duplicate Content in Form von HTTP/HTTPS sei kein Problem
- HTML Sitemaps seien okay
- Crawling Errors seien kein Ranking Faktor
- Disavow und Spreadsheets seien nicht verbunden
Wenn ihr euch ein eigenes Bild machen möchtet, könnt ihr euch die betreffenden Hangouts ansehen:
Weitere Termine für Google Hangouts: https://sites.google.com/site/webmasterhelpforum/en/office-hours
Panda und Content Crawling:
Bei täglicher Erstellung von neuem Content sollte sichergestellt werden, dass die Zahl der indexierten Inhalte steigt. Ist dies nicht der Fall, liegt wahrscheinlich ein Qualitätsproblem im Sinne von Panda vor.
HTTP und HTTPS:
Falls beides genutzt wird, wird eine robots.txt Datei für jede Version benötigt. Andernfalls entsteht hierdurch Duplicate Content.
Links im Disavow Tool:
Wenn Links, die bisher durch Google ignoriert wurden, aus der Disavow Datei entfernt werden, werden sie wieder gewertet. Egal ob gut oder schlecht. In beiden Fällen erhält man den Link Juice zurück.
Keine HTML Sitemap Pages:
Google ignoriert diese und bewertet sie als eine Seite schlechter Qualität. Google vertraut diesen Sitemaps nicht, hier kann ein Panda Problem vorliegen.
Gibt Google Link Juice an Links in Dateien weiter?
Laut John Mueller liest Google diese Links aus (zum Beispiel in .pdf, .xls oder .doc – Dateien), allerdings erhalten sie keinen Link Juice. Nur Links mit HTML Anchor geben Link Juice weiter.
Benutzt Google CTR Tracking?
John Mueller sagt nein, aber zwischen den Zeilen kann man herauslesen, dass Google das macht. Dies wird im Buch „In The Plex“ in Bezug auf die Click Through Analyse erwähnt. Wenn die Absprungrate hoch ist, sollte für frischen Content gesorgt werden. Auch die Verlinkung von Videos oder Links von internen Seiten die ranken kann hilfreich sein.
Panda: Eine Seite sollte optimiert werden, bevor sie Traffic erhält. Ist dies nicht der Fall, kann dies dazu führen, dass Google bezahlte Links vermutet und auf die Absprungrate anrechnet. Dies wurde in vorherigen Hangouts bestritten.
301 Weiterleitungen werden ignoriert, wenn von A nach B weitergeleitet wird und Google A mag. Google ignoriert dann Google die Seite B, auf welche weitergeleitet wird.
New Site Honeymoon:
Stellt sicher, dass euer Traffic auf eure Seiten reagiert. Der Algorithmus stellt deine Seite in eine Kategorie für Benutzerdaten, besonders unter dem „Sharing“-Aspekt. „Social Proof“ ist etwas, worauf Google achtet. Wenn deine Seite keinerlei Social Traffic erhält, wird sie aus den Suchergebnissen rausrutschen. Google hat Algorithmen für Rank, Vertrauen und auch einen „De-Rank“-Algorithmus (Entwertungsalgorithmus) bezüglich Social Traffic.
Webseitenfehler:
500 / PHP / MySQL – Fehler sind Panda Qualitätsfaktoren. Fehler sollten nicht länger als 48 Stunden bestand haben.
Google ist maschinelles Lernen
Es ist lebendig, es ist SkyNet. Es ist einem 3-jährigen Kind ähnlich.
Der Geotargeting Algorithmus arbeitet auf einer „Best Guess“ Basis, auch wenn man über eine .com oder .uk – Domain verfügt
Der Inhalt muss das hreflang – Attribut reflektieren. Basierend auf Qualität oder Vertrauen entscheidet Google, ob deine Seite für die bestimmte Geo Location relevant ist. Die URL für sich ist also nicht entscheidend.
Mach deine Disavow Datei zugänglich
John Mueller hat sagte, dass es wichtig ist, dass dieses auf „public“ eingestellt ist, ansonsten kann das Spam Team es nicht abrufen. Das Google Web Spam Team hat keinen Zugang zum Backend deines Google Accounts – dies wäre gegen die Google Geschäftsbedingungen.
Bewertungs-Snippets
John Müller hat angedeutet, dass das Bewertungs-Snippet ein Qualitätsfaktor ist. Es ist ein guter Weg, um die Webseite zu teilen.
Geklonte Seiten:
Geklonte Seiten sind verschiedene URLs mit dem gleichen Design und Thema. Hier wird versucht, für ein bestimmtes Keyword zu ranken. Klone sollten nicht genutzt werden, aber identische Domains können genutzt werden, wenn nicht die gleichen Keywords verwendet werden.
Google kann feststellen, dass es sich um die gleiche IP handelt. Auch das gleiche Design, ebenso identische Backlinks, Keywords und Inhalte werden durch Google erkannt. Google wird die beste Version als Hauptversion festlegen und Canoncials setzen.
Führt das Weiterleiten von einer Domain mit einem Penalty dazu, dass die neue Seite einen Penalty erhält?
Wenn du versuchst, die Domain zu „töten“, die von einem Pinguin Update getroffen wurde und eine neue Domain erstellst, auf die alles weitergeleitet wird, setzt Google automatisch eine 301-Weiterleitung. Sie gucken auf die alten Seiteninformationen und leiten alle Signale weiter, egal ob gut oder schlecht. Google verfügt über zwei Indexe. Bei einem handelt es sich um einen historischen Index und beim anderen um einen Ranking Index. Beide werden verglichen und dann die Entscheidung getroffen, ob der Penalty vererbt wird.
Zitat Mueller: „Sie wollen nicht, dass Spammers damit davon kommen, Seiten zu klonen.“
Google verfügt über einen „Changelog“ und weiß, ob du die Seiten instand hältst. Auf diese Art und Weise kann Google feststellen, dass die Seiten gleich sind und dass du versuchst die SERPs zu manipulieren.
Die Seitennavigation ist ein Ranking Faktor:
Die interne Navigation muss logisch sein. Auf die Seite auf deiner Webseite, die am höchsten ranken soll, sollten viele interne Links weisen, um sie im internen Page Rank nach vorne zu bringen.
Quelle:
https://plus.google.com/u/0/+SteveMartin1/posts/Ma3iLFq7isf