Google Webmaster Hangout vom 19.03.2014

von Michael Schöttler

Kategorie(n): Google Webmaster Hangouts Datum: 19. März 2014

Am Freitag war Johannes Mueller (John Mueller) – Google Schweiz – wieder bei einem deutschen Hangout dabei, um sich den vielen Fragen der deutschsprachigen Webmaster zu stellen.

Leider konnte ich nicht direkt teilnehmen, habe aber dort das erste Mal eine Frage gestellt. (Welche auch beantwortet wurde, dazu aber später mehr).

Ich muss sagen, dass ich mich ein wenig dafür schäme, dass ich noch nie dran teilgenommen oder mir die Hangouts später angesehen habe. Viele Fragen werden doch recht ausführlich beantwortet und geben guten Input. Natürlich darf auch John Mueller nicht alles sagen und so brennen auch hier und dort ein paar Nebelkerzen. Seine Antworten haben wir so gut es geht inhaltlich und wörtlich wiedergegeben. Sollten wir uns hier an einer Stelle doch einmal komplett verhört haben, sagt einfach Bescheid.

Dennoch solltet Ihr euch die beiden Fragen zwecks Pinguin einmal anschauen und auch die gegebenen Antworten. Besonders Johns Antwort auf meine Frage wirft einige Fragezeichen auf... ich bin auf Eure Meinung gespannt!

Die Fragen und Johns Antworten:

Wir möchten hier auf die - aus unserer Sicht - wichtigsten Fragen eingehen und ebenso auf die Antworten von John.

Antwort: 13:22

Für die Websuche wird es fast komplett ignoriert. Es kann sein, dass andere Suchmaschinen damit was machen, oder andere Google-Produkte.

Wie viele Keywörter Ihr also reinschreibt, ist uns egal. Vielleicht ist es für Euch praktisch die Keywords einzugeben, aber für uns müsst ihr da gar nichts machen.

(Im Grunde nichts Neues, die Frage liest man aber dennoch oft.)

 Antwort: 16:20

Aus unserer Sicht ist das ok, wenn das Links sind, die so entstanden sind. Wenn Ihr hingegen selber losgeht und Keywords in Links versteckt (er meint vermutlich die normalen Anchortexte -> Moneykeywords), dann sieht das -

aus unserer Sicht - schon bisschen anders aus. Dann habt ihr die Links selber platziert. Sind es hingegen natürliche Pressemitteilungen, sehe ich da gar kein Problem.

(Interessante Aussage da John hier nicht auf die nofollow Verlinkung eingeht, wie Sie ja in den Webmaster Richtlinien gefordert ist. Ich verstehe die Aussage so, dass PR Artikel mit reiner URL Nennung also ok wären und nur Anchortexte außerhalb des Brands zu einer negativen Betrachtung führen. )

Antwort: 19:14

Grundsätzlich ist es so, dass wir versuchen die Struktur einer Webseite mit den Überschriften zu erkennen. Wir wissen aber das die Überschriften auch anders verwendet werden. Damit müssen wir auch umgehen. Wir erwarten daher nicht,

dass eine logische Gliederung vorhanden ist oder eine bestimmte Anzahl an Überschriften.

Manchmal macht es Sinn, mehrere H1 Elemente auf einer Seite zu haben, manchmal nicht. Wir müssen mit all dem umgehen können. In dieser Hinsicht ist es nicht so, dass man religiös einer Struktur nachgehen muss, also nur eine H1 2H2 3H3, sondern man verwendet es so, wie es auf der Webseite am besten funktioniert.  Überschriften sind nicht etwas, was Google sehr kritisch anschaut.... Ich denke, wenn man sich indirekt über die Gliederung der Überschriften Gedanken macht, ist es auch indirekt ein gutes Zeichen, weil es heißt, dass man sich überlegt wie man seine Inhalte auf der Webseite zur Verfügung stellt. Es ist aber nicht so, dass wir das von allen Webmaster erwarten.

(Wäre der letzte Teilabschnitt nicht gewesen, hätte ich in Zukunft wohl im Onpage Bereich nicht mehr auf die Überschriften geachtet. Ich verstehe nun den letzten Abschnitt aber so, dass Google dann durchdachte Überschriften wohl doch als positives Signal nimmt und ich den alten Gliederungen dann wohl eher treu bleiben werde. Wie versteht Ihr diesen Teil?)

Antwort:  21:23

Ich glaube, wir messen die gar nicht. Ich denke, wenn man sich auf die Keyworddichte verlässt und sich strikt darauf verlässt, verpasst man was. Wir versuchen aus unserer Sicht die Inhalte zu erkennen, ohne jetzt direkt die einzelnen Keywords zu zählen.

Manchmal sind es auch Phrasen die interessant sind... . Das sind alles Sachen, die man mit einer einfachen Keyword-Dichten-Messung gar nicht richtig betrachten kann. Wir versuchen die Relevanz dieser Seiten zu bestimmen, manchmal macht es Sinn, dass wir die Keywords auf der Seite sehen, manchmal nicht. Ich würde als Webmaster nicht auf die Keyworddichte schauen, sondern ob die Seite Sinn macht... . Ob die wichtigen Begriffe da alle vertreten sind, ob man überhaupt erkennen kann worum es da geht. ... Manchmal wird ja auch gesagt, dass man Minimum von 400 Wörtern auf einer Seite haben muss, dass ist auch eine Sache, die wir gar nicht so genau anschauen. Wir versuchen die Relevanz der Seite zu bestimmen. ... Wir versuchen das größere Bild zu erkennen.

(Süß war ja der erste Satz :) - Aber besonders der Abschnitt: "Ob die wichtigen Begriffe da alle vertreten sind, ob man überhaupt erkennen kann, worum es da geht", sollte doch eine besondere Aufmerksamkeit bekommen. Hier wird deutlich, dass Google sehr wohl in Richtung WDF IDF und semantische Zusammenhänge geht. Google weiß eben bei dem Begriff Golf nicht, ob es der VW Golf, der Golf-Strom oder die Sportart Golf ist. Dazu braucht Google viele andere Themen und relevante Nebenkeywords. Dennoch ist die Aussage, "wir schauen darauf gar nicht", in meinen Augen nicht so ernst gemeint. Natürlich sollten bestimmte Begrifflichkeiten auf einer Seite schon vorkommen, um den gesamten Zusammenhang wiederzuspiegeln. Schaut man sich aktuelle Ergebnisse in den SERPS an, dann sind ja auch die Keywords der Abfrage immer mind. im oberen Drittel der Keyworddichte enthalten.)

Antwort: 23:28

Teilweise. Inhalte, die wirklich identisch sind, auch im HTML Code, sind duplicate. Wenn hingegen der Aufbau anders ist, also Sidebar und Überschriften, dann ist das eher etwas, dass wir in den Suchergebnissen selber rausfiltern.

... Aus unserer Sicht ist es eher ein technisches Problem... Wenn wir DC finden, ist es nicht so, das sie minderwertig ist oder bestraft werden müsste, sondern das ist einfach etwas Technisches womit wir umgehen müssen. Das sehen wir bei sehr vielen Webseiten, dass müssen wir einfach herausfiltern. Für den Webmaster kann es Sinn machen dass die Druckversion mit den Canoncial auf die Hauptseite eingestellt wird. ... Dann müssen wir in den Suchergebnissen weniger die Entscheidung fällen, welche der Versionen ist jetzt die Hauptversion, das Original.  Ähnlich ist es ja auch bei mobilen Webseiten ... Die Hauptinhalte sind identisch und auch in diesen Fällen müssen wir uns Entscheiden, es sei den wir erkennen ob es eine Mobile oder Desktop Version ist. Ich würde hier mit dem rel=canonical arbeiten.

(Auch hier nicht wirklich was Neues, wobei eine technische Umsetzung gerade bei den Druckbildern nicht immer einfach ist. Auch gibt es direkte Druckausführungen, die gar nicht erst als Bild/ Text / Inhalt bei Google auflaufen. Wichtig ist dennoch, dass man sich der ggf, entstehenden Problematik bewusst wird. )

 

Antwort: 34:29

Grundsätzlich ist es so, dass wenn eine Webseite von einem Algorithmus erfasst wird, einerseits die Ursprungsdaten neu bewertet werden (neu crawlen) müssen, aber auch der Index muss neu aufgebaut und die Daten dem Algorithmus zur Verfügung gestellt werden. Bedeutet ein Algorithmus Push (Update) muss vorgenommen werden.

Schaut man also nur einen Algorithmus, dann muss dieser effektiv neu aktualisiert werden in den Suchergebnissen. Wann das beim Pinguin so weit sein wird, weiß ich nicht. Wir versuchen, die Daten nicht im Voraus bekannt zu geben. Grundsätzlich ist es beim Pinguin Algorithmus so, dass es ein wenig länger dauert (zwischen den Updates), da wir einfach sicher sein wollen, dass es auch wirklich Sinn macht so. Natürlich arbeiten aber auch andere Algorithmen mit Backlinks und Daten der Webseite, so dass durchaus auch Veränderungen passieren zwischen den Updates. Positiv oder negativ. Wenn man Links abbaut (Disavow Tool) und man packt seine guten Links rein, dann ist die Unterstützung der Links auch weg. Dann kann die Webseite auch nach unten gehen.

(Bedeutet, dass eine Pinguin Bekämpfung erst nach einem Update beurteilt werden kann. Packt ihr also nun die falschen Links ins Tool, ist noch Zeit diese wieder rauszunehmen und mit anderen zu testen. Packe ich die Links rein, die eh nicht mehr zählen, darf die Seite nach einem Disavow Update nämlich nicht nach unten gehen. Somit habe ich Zeit zu reagieren, so lange kein Update da ist.)

Auch wenn die zeitliche Abfolge nicht stimmt, nehme ich jetzt meine Frage mit rein, da sie ziemlich ähnlich war. Leider wurde Sie beim Import am Ende abgeschnitten.

 

Antwort: 46:09

Grundsätzlich ist hier das Problem, dass viele Webseiten die damit Probleme haben, ihre schlechten Links über Jahre und Jahre aufgebaut haben. Da geht es entsprechend etwas länger, bis das durchgearbeitet ist. 

Grundsätzlich ist es auch das andere Problem, dass es einfach eine gewisse Zeit dauert bis all das neu bearbeitet werden kann und bis das neue Update da ist.

Wenn man weiß das man schlechte Links hat muss man die auf jeden Fall beheben, es gibt kein Zaubermittel um das zu umgehen. ... In extrem Fall macht es sogar Sinn eine neue Webseite anzufangen, weil das von der Arbeit her einfacher ist, als die ganzen Einzelprobleme aufzuarbeiten.

(Leider war ich im Hangout nicht anwesend und konnte nicht nachfragen, aber so wie er das gesagt - und ich verstanden habe - scheint Google auch eine Art zeitliche Strafe/Sperre im Pinguin zu haben.  Eigentlich dürfte die Anzahl ja keine Rolle spielen, wenn ich sie abbaue. Darauf geht er hier aber nicht ein, sondern stellt ja eigentlich die Dauer in den Vordergrund.  Ich habe das bei Penaltys schon öfter mal gelesen, das man eine gewisse Verweildauer auf der Strafbank vermutet. Im Grunde ist es auch logisch, denn sonst kann ich mir durch einen unerkannten Verstoß einen jahrelangen Vorteil verschaffen und ihn ihn ein paar Tagen bereinigen.  Auch sehr interessant ist der Hinweis auf einen Neuanfang, so deutlich hab ich das bisher auch noch nie gehört. Insgesamt eine sehr spannende Passage!)

Antwort: 41:51

... Grundsätzlich empfehlen wir 301 Weiterleitungen. Es kann aber sein, das 3, 4, 5 oder 6 Monate noch alte Seiten vereinzelt im Index sind.

Dazu auch  folgende Frage:

 

Zeitweise wird es Schwankungen geben, solange sich die URL verändert. Verändert sie sich nicht und wechselt nur das Layout oder der Server, ist es aus unserer Sicht eigentlich keine Veränderung. Bei der URL Änderung müssen wir erst mal alles neu crawlen. Das kann ein paar Wochen oder Monate dauern.

Ob schrittweise oder alles auf einmal, beides ist möglich.

Vergesst keine 301 und achtet auf Fehlermeldungen. ... Solche Umstellungen würde ich dann machen, wenn im Allgemeinen weniger Verkehr auf der Webseite ist.

(Beide Fragen zeigen, dass man auf der einen Seite keine Angst vor Fehlermeldungen haben muss, bestätigen aber auch den Rückgang von Rankings aufgrund der anderen URL Struktur. Für Webmaster ist es demnach noch wichtiger, sich so früh wie möglich der eigenen Struktur bewusst zu werden und diese so früh wie möglich auf einem Level zu haben, wo auch bei einem Relaunch nicht viel daran geändert werden muss.)

Fazit:

In meinen Augen waren das die wichtigsten Fragen, die anderen Fragen waren es aber auch auf jeden Fall wert, sich anzuhören. Ich werde die Hangouts ab sofort nun fest in meine Timeline aufnehmen. Mich würde es freuen, wenn Ihr mir Eure Meinungen zu den angesprochenen Punkten, insbesondere Pinguin geben würdet.

Link zum Hangout: https://plus.google.com/events/c6ed30lmdoblheu25tg93nseksc