Google Webmaster Hangout vom 02.07.2015

von Anja Baltrusch

Kategorie(n): Google Webmaster Hangouts Datum: 2. Juli 2015

Heute Mittag fand ein weiterer Google Webmaster Hangout mit John Müller von Google statt. Vielen Dank an John dafür, dass er sich auch heute wieder Zeit für die verschiedensten Fragen genommen hat!

Lokale Suche

00:30 Frage: Wir haben eine regionale Seite für kulinarisches. Wir sind in mehreren Städten aktiv und haben dafür einzelne Städteseiten. Dort haben wir ein Problem mit den Kategorien, beispielsweise wird unsere Münchener Seite in den Kölner Suchergebnissen angezeigt. Das passiert nur bei Google, bei Bing und Yahoo funktioniert es richtig. Antwort: Das ist eine schwierige Frage, da kann ich keine pauschale Antwort geben ohne das Team zu fragen.

Google Pinguin Update

05:10 Frage: Eine Frage zum Pinguin: Wir hatten internationale Meldungen zu auffälligen Links (2013). Seitdem wird das Linkprofil stetig bereinigt und alle Länderrankings sind wieder da, bis auf eine Ausnahme. Handelt es sich um eine algorithmische Abstrafung? Antwort: Es scheint, als gäbe es da noch durch Pinguin bedingte Probleme seitens Google. (Fehlendes Update) Grundsätzlich ist es möglich, dass eine Länderversion besser dasteht, als eine andere.

301-Weiterleitungen

06:34 Frage: Du hast in einem Hangout vor einigen Wochen gesagt, dass 301-Weiterleitungen von Google zu 404ern werden können. Bedeutet das also, dass Ihr 301-Weiterleitungen überprüft und nur bei gleichem Thema als 301 anerkennt und der Linkjuice ansonsten nicht vererbt wird? Antwort: Nein, das ist kein Problem. Wenn viele Seiten, die nicht mehr existieren, so weitergeleitet werden, werten wir dies als Soft 404.

https

07:50 Frage: Wir möchten unsere komplette Website auf https umstellen. Wir befürchten jedoch, dass durch die 301-Weiterleitungen von Backlinks der Linkjuice-Verlust zu Einbußen im Ranking führt und nicht durch den https-Vorteil aufgefangen werden kann. Liegen wir falsch. Antwort: Nicht unbedingt problematisch. Die Umstellung auf https ist immer zu empfehlen.

Newsworthy Update

08:42 Frage: Könntest du eventuell etwas Näheres zum sogenannten Newsworthy Update vom 18. Juni sagen? Welche Faktoren fließen ein? Ist es ein Live-Algorithmus oder findet der Daten-Refresh wie beim Panda-Update in größeren Abständen statt? Antwort: Ich wusste nicht, dass es ein „Newsworthy“ Update gibt. J Da kann man nichts Spezifisches bekannt geben, es ist einfach ein Algorithmus Update. Das wird immer wieder gemacht und ist nicht außergewöhnlich.

URL-Struktur in Online Shops

09:46 Frage: Vermehrt verwenden Shopseiten statt einer Verzeichnisstruktur mit „/“ eine Verknüpfung der Verzeichnisse mit „-„ Welche URL-Struktur empfiehlt Google und warum? Beispiel: /kinder/kindermode/kinderhose2 /kinder-kindermode-kinderhose2 Antwort: Im Grunde genommen ist das egal, kann frei entschieden werden. Was allerdings nicht gut ist: zwischen „/“ und „–„ wechseln. Webmaster sollten sich für eine Variante entscheiden und möglichst beibehalten!

Sitemap

11:14 Frage: Wir überlegen, ob wir überhaupt noch eine Sitemap.xml für URLs, Bilder und Videos verwenden sollen. Was würdest du empfehlen? Ein einfaches „ja“ oder „nein“ würde reichen. J Antwort: Bei größeren Websites macht die Nutzung einer Sitemap Sinn. Bei kleinen Websites mit 1000 bis 10.000 Seiten kann man auf eine Sitemap verzichten. Google kann das auch so relativ gut crawlen.

Faceted-search

12:08 Frage: Wenn ich eine facet-search baue, entstehen da irgendwelche Probleme für Google beim Crawling und der Indexierung, wenn ich mehrer ausgewählte Facet-Optionen in der URL Anzeige? Antwort: Aus der Sicht von Google macht das keine Probleme, allerdings macht es es für den Webmaster schwieriger, das Crawling einzurichten. Ich würde so viele eindeutige Parameternamen wie möglich benutzen.

Nofollow-Links

13:33 Frage: Wikipedia verlinkt ihre Quellen unter den Artikeln mit rel=nofollow. Sollte man das generell tun, wenn man viele Quellen pro Artikel verlinkt? Antwort: Das ist dem Webmaster überlassen. Wikipedia ist ein spezieller Fall, da es sich eigentlich um User Generated Content handelt. Wenn die Inhalte direkt vom Webmaster gemacht werden (wie bei den meisten Websites) ist das nicht problematisch.

Mobiles Ranking

14:58 Frage: Laut Search Console ist das mobile Ranking meiner Website bei 6.9 bis 7.1 (sitewide). Das Update im April änderte nichts, obwohl die Website in keinster Weise mobilfreundlich war. Seit sechs Wochen komplett mobilfreundlich, doch erneut ohne jeglichen Effekt. Antwort: Grundsätzlich ist es ein großes Update, allerdings betrifft es natürlich auch sehr viele Websites, daher gabe es nicht sofort sehr starke Auswirkungen auf einzelne Websites. Google hatte mit stärkeren Auswirkungen auf einzelne Websites gerechnet.

Referrer Spam

16:23 Frage: Wir verzeichnen für alle unsere Projekte eine Vielzahl von Referrer-Spam-Einträgen in Analytics. Laut den Logfiles werden teilweise nicht einmal unsere Seite besucht. Sollten wir diese Seiten an Google melden? Antwort: Das Google Analytics Team arbeitet am Problem mit dem Referrer Spam. Es gibt auch einen Blogpost dazu, wie Webmaster selbst Filter einrichten können, um den Referrer Spam rauszufiltern.

Backlinks in der Search Console

17:40 Frage: Die Search Console zeigt mir Zigtausende Backlinks von einer Website an. Diese Backlinks gibt es aber gar nicht bzw. schon seit Monaten nicht mehr. Hat das einen negativen Einfluss auf mein Ranking. Was kann ich tun? Antwort: Das sollte kein Problem sein. Es dauert immer etwas, bis das in der Search Console korrekt angezeigt wird.

Paginierung im Online Shop

18:37 Frage: In einem Online Shop werden Paginierungen mit Hilfe von Parametern gelöst. Können die Parameter über die Google Search Console vom Crawling bedenkenlos ausgeschlossen werden? Fließt trotzdem noch intere Linkkraft in die Produkte auf Folgeseiten? Antwort: Wenn man das herausfiltern lässt, dann schaut sich Google im Normalfall nur die erste Seite an. Es muss auf eine saubere Struktur geachtet werden, z. B. muss sichergestellt werden, dass alle Seiten (z. B. Artikel) gecrawlt werden können.

Rich Snippets

19:57 Frage: Wie werden in den organischen Suchergebnissen die Bewertungssterne (kein Drittanbieter) wieder angezeigt? (Strukturiere Daten)? Das Structured Data Testing Tool zeigt keine Fehler an und ermittelt eine Durchschnittsbewertung. Antwort: Es gibt mehrere Sachen bei den Rich Snippets, auf die geachtet werden muss. Sind diese sauber eingebunden? (HTML) Wurden die strukturieren Daten für die Hauptinhalte genutzt? Ist die Qualität der Website insgesamt in Ordnung? Kann Google der Website also vertrauen und bedenkenlos die Rich Snippets (z. B. Bewertungen) anzeigen?

Sitemap

22:20 Frage: Soll pro Sprache eine XML Sitemap hinterlegt werden oder für alle Sprachen eine gemeinsame XML Sitemap hinterlegt werden? Wieviele URLs können in einer Sitemap untergebracht werden? Antwort: Man kann bis zu 50.000 URLs in einer Sitemap hinterlegen. Ansonsten kann man selbst entscheiden, ob man Sprachen trennt oder nicht. Für Google ist das egal.

Websitedaten und organisches Ranking

22:58 Frage: Kann die Verwendung von E-Commerce-Tracking wie z. B. Artikel in den Warenkorb legen, bestellen, usw. negativen Einfluss auf die Positionierung in den organischen Suchergebnissen haben, wenn Google z. B. erkennt, dass nicht viele Kunden den Shop nutzen und dann nicht bestellen? Antwort: Soweit ich weiß, kann Google das nicht sehen. Für das Crawling und die Indexierung kein Analytics verwendet wird. Google sieht also nicht, was Nutzer auf der Website machen. Das ist dann eher ein Problem für den Shop.

Exact Match Domains

24:05 Frage: Hi, ist der Exact Match Domain Penalty mit schlechter Qualität der Inhalte gekoppelt? Ist eine Exact Match Domain unproblematisch, wenn gute Inhalte produziert werden? Antwort: Aus der Sicht von Google ist das kein Problem. Exact Match Domain und guter Content sind in Ordnung.

Crawlingfehler in der Search Console

24:57 Frage: Letztes Jahr haben wir auf https umgestellt, alle http-Anfragen werden via 301-Weiterleitung auf https umgeleitet. Google sieht, dass es die neuen Seiten als https gibt. Seit drei Wochen sind Crawlingfehler in der Search Console zu finden, die die http-Version als Quelle haben. Ist das 301-Handling geändert? Antwort: Wenn man sowas sieht, hat Google auf anderen Websites Links zur http-Version gefunden. Das ist aber kein Problem.

Lokale Suche

26:10 Frage: Meine Website wird nicht im richtigen lokalen Bezug angezeigt. Bei der Suche nach einem Rechtsanwalt in Salzburg wir z. B. die Kanzlei in Velden ausgespielt. Antwort: Um dieses Problem zu beseitigen sollte man die Adresse klar platzieren und einen Link zum Google Maps-Eintrag auf der Website einbinden. Damit sollte man das Problem eindämmen können.

Sichtbarkeitsverlus

26:56 Frage: Wir sind beim Update im April in der Sichtbarkeit sehr abgestürzt und seither an der Contentoptimierung. Bisher jedoch ohne große Veränderungen an der Sichtbarkeit. Welche Themen  bzw. Probleme sollten wir uns zudem anschauen? Antwort: Diese Frage sollte im Webmaster-Zentrale Hilfeforum gestellt werden. Soweit ich sehen kann, gibt es kein grundlegendes Problem.

Suchanalyse (Google Search Console)

27:57 Frage: In der Suchanalyse gibt es die Angabe Position = 0. Was bedeutet die 0? Beispiel: Vergleich der Positionen eines Keywords nach Mobile und Desktop zeigt bei Desktop Position 0. Rankings waren in dem Zeitraum jedoch vorhanden. Antwort: Das klingt nach einem Bug in der Search Console. Das Team wird sich angucken, woher das kommt.

Hrflang

28:28 Frage: Wir haben gerade eine Content-Offensive auf unserer .de Domain gestartet. Diese Inhalte sollen bald auch in Österreich und der Schweiz auf .at und .ch ranken. Was ist die beste Lösung, um Duplicate Content zu vermeiden? Canonical-Tag oder Hrflang? Antwort: Hrflang ist hier die beste Lösung. Bei Canonical wäre nur die .de Version im Index, nicht die anderen. Bei Hrflang tauschen wir bei den entsprechenden Suchen einfach die URLs aus.

Disavow Datei

31:29 Frage: Google schreibt sehr vage, dass Subdomains in der Disavow txt. gegebenenfalls erkannt und bearbeitet werden. Kann man dazu etwas erfahren? Antwort:  Gebe ich eine Domain an und es sind Subdomains vorhanden, dann werden diese immer mit eingefügt. Wie weit sich das auf die txt bezieht weiß ich nicht. 32:44 Frage: Erhält man in der Search Console immer eine Bestätigung, wenn man eine Disavow Datei zur Linkentwertung hochgeladen hat? Bei einem unserer Kunden gibt es eine solche Meldung leider nicht – obwohl unserer Meinung alles richtig hochgeladen wurde. Antwort: Normalerweise sollte es immer eine Bestätigungsmeldung geben. Manchmal kann da ein Bug vorliegen. Wenn mir die URL vorliegt, kann ich das prüfen.

Datumsanzeige

33:42 Frage: In letzter Zeit hatte Google mehrfach Probleme, dass Datum unserer Artikel richtig zu lesen. Was sollen wir da tun, vielleicht eine Microdata-Auszeichnung? Und wenn ja, nur das Published-Datum oder auch das Modified-Datum? Meistens werden Daten aus dem Teaser oder den Kommentaren genommen. Antwort: Schick mir Links, ich schaue es mit mit dem Team an. Aber strukturierte Daten helfen, auch wenn wir es ohne diese hinkriegen sollten.

Externe Links (sitewide)

35:20 Frage: Sollte man externe Verlinkungen, die aus der Sidebar sitewide verlinken, auf nofollow umstellen? Antwort: Normalerweise erkennt Google das sauber. Es muss also nicht mit nofollow markiert werden. Wenn diese Verlinkungen allerdings im großen Stil gemacht werden, kann das zum Problem werden, da das Webspam Team darauf stoßen kann. Das kann z. B. passieren, wenn sich eine bestimmte Anzahl von Websites untereinander verlinken. (Stichwort: Linknetzwerk) Wenn man nur eine kleine Anzahl von Websites hat, die sich untereinander verlinken, ist das kein Problem.

Websiteausfall und Rankings

38:43 Frage: Wie geht Google mit Daten wie z. B. der Bounce Rate um, wenn eine Website einen Tag offline ist? Antwort: Google muss damit umgehen. ;) Wir versuchen, die Seiten schnell aus dem Index zu nehmen - aber auch, sie schnell wieder reinzupacken. Aktuell wird seitens Google überlegt, ob da eine Art Warnsystem für Webmaster eingerichtet werden kann. So nach dem Motto: „Achtung, du hast keine 503 eingerichtet, schau dir mal bitte deinen Server an“. Grundsätzlich kann sich eine Webseite davon recht schnell wieder erholen.

Google Panda

45:40 Frage: Ich habe eine Frage zum geplanten Panda Update, welches bald kommen soll. Ich habe gehört, dass es ständig läuft. Ist das jetzt doch nicht so? Antwort: Das ist kompliziert und ich glaube, wir haben es etwas verwirrend erklärt. Der Algorithmus selbst wurde so angepasst, dass er regelmäßig aktualisiert werden kann – aber wir haben die Daten seit einiger Zeit einfach nicht mehr aktualisieren können. Das heißt, es ist zwar technisch machbar dass es jetzt regelmäßig aktualisiert werden kann, aber wir haben das aus anderen Gründen jetzt nicht mehr so regelmäßig laufen lassen können. 46:35 Frage: Also ist es in größeren Abständen, weil ohne die Daten nutzt das ja nichts oder? Antwort: ja, wir hatten gehofft, dass es ein bisschen schneller geht – und manchmal klappt das dann doch nicht. Das sollte jetzt eigentlich ein bisschen besser kommen. Das nächste Update, ich weiß nicht ob es diese oder nächste Woche kommt, aber auf jeden Fall sollte das demnächst erscheinen. Quelle: https://youtu.be/NW3vxnlu3QQ