Heute stellte sich John Mueller ein weiteres Mal den Fragen der deutschsprachigen Webmaster. Nachfolgend findet Ihr wie gewohnt das Transkript zum Hangout.
Thema: Ranking
Zeit: 00:36
Frage: Im Jahr 2015 gab es auf die Website Seonauten einen Hackingangriff, wo mehrere Tausend Seiten erstellt und dann mit illegalen bzw. schlechten Links beschossen worden. Die Betreiber haben dann diese Seiten wieder von ihrem Server gelöscht und die entsprechenden Links per Disavow auch an Google gemeldet. Es kam zu einem massiven Rankingverlust. Dieser Rankingverlust hat sich bis heute nicht erholt. Laut Google schaden 404er nicht, andere Personen sind da aufgrund diverser Erfahrungen anderer Meinung. Daher die Frage: Was ist schuld an diesen Rankingverlusten? Die vielen 404er oder die zahlreichen schlechten Links?
Antwort: Die genannte Website rankt so, wie sie rankt aufgrund ihres aktuellen Zustandes und nicht wegen irgendetwas, was bei diesem Hackingangriffes entstanden ist. Die 404er-Seiten haben da wirklich keinen Einfluss. Auf unserer Seite fallen 404er raus, d. h. auch Links, die vorher auf diese 404er gezeigt haben, fallen aus unserem Linkwert raus. Diese Links zählen nicht mehr, da sie keinen Wert mehr haben. 404er sind kein Problem, dies zeigt Google, dass eine Website in Ordnung ist und eine saubere Antwort auf eine Anfrage gibt. Der Umstand das es zeitlich jetzt so aussieht als würde das zusammenhängen ist nicht von der Hand zu weisen, aber weder die 404 er Seiten noch die Links die auf diese Seite zeigen sind daran schuld. Ggf. muss überprüft werden ob andere Maßnahmen durchgeführt wurden in der Zeit.
Thema: Ranking
Zeit: 07:50
Frage: Hi, nach der Umstellung auf https im März sind die meisten Rankings massiv gefallen. Schau bitte mal in deine geheimen Tools – was läuft falsch? / Falls es nichts mit der Umstellung auf https zu tun hat - liegt es am Linkprofil? https://goo.gl/O9tQBW
Antwort: Ich habe dort nichts Spezielles erkennen können, die Entwicklung scheint eine natürliche Veränderung zu sein.
Thema: URL
Zeit: 08:40
Frage: Wie geht Google mit # in der URL um? Kann # anstatt ?-Parameter verwendet werden, um DC / Crawlingaufwand zu vermeiden? Beispiel: Filter /schuhe#klein vs. /schuhe#groß - ranken soll /schuhe - Produkte: /shirtabc#rot vs /shirtabc#blau - ranken soll nur /shirtabc.
Antwort: Das ist kompliziert, da wir normalerweise den Teil nach dem Nummernzeichen (#) ignorieren. Unter Umständen kommt es vor, dass Google erkennt, dass dieses Zeichen für die Website wichtig ist und mit verarbeitet. Dies ist aber eher die Ausnahme. Man könnte das also so machen, es ist aber besser, mit "normalen" URLs zu arbeiten.
Thema: Indexierung
Zeit: 10:27
Frage: Hallo Johannes, in den Webmastertools hat sich der Indexierungsstatus (nicht die Sitemapindexierung!) meiner Seite vor einigen Tagen plötzlich halbiert. Ein Fehler bei euch, oder liegt's an meiner Seite? goo.gl/QPN7Fz
Antwort: Die Frage wurde in letzter Zeit häufiger gestellt worden. Es gab Veränderungen am Algorithmus des Indexierungs-Vorganges - das Googleteam wird sich das noch einmal ansehen, um Probleme auszuschließen. (Siehe auch unseren Beitrag zum Thema
Update am Indexierungsvorgang)
Thema: Disavow Datei
Zeit: 11:45
Frage: Auf der Disavow-Seite von Google sehe ich die vor 2 Jahren hochgeladene Datei. Es steht ein Satz darunter: "Das Hochladen der Datei... 180 Domains... ist beendet." Bedeutet das, dass die Datei technisch in Ordnung war und sie von euch verarbeitet wurde?
Antwort: Ja, das ist richtig. Allerdings bedeutet dies nicht, dass die dort gelisteten Links sofort entwertet werden. Dies passiert im Laufe des Crawlingprozesses.
Thema: Mobile SERPs
Zeit: 13:00
Frage: Hallo John, wann bietet Google die Möglichkeit eine zusätzliche (kürzere) Meta Description für mobile SERPs zu implementieren? Viele Grüße.
Antwort: Eine gute Frage. Es ist unklar, ob und wann das kommen wird.
Thema: Disavow Datei
Zeit: 13:50
Frage: Hallo John. Wir haben eine Domain übernommen, die abgestraft war. Diese Abstrafung ist nach Antrag auf erneute Überprüfung aufgehoben. Wie komme ich als neuer Inhaber an das hochgeladene Disavow-File, wenn der alte Inhaber Selbiges nicht rausrückt?
Antwort: Man kann die Disavow Datei in der Search Console herunterladen.
Thema: Robots.txt
Zeit: 14:42
Frage: Hallo Johannes, wir betreiben auf einem Server einen Mandantenshop. Es gibt nur eine robots.txt, aber mehrere Sitemaps für mehrere Domains. "Darf" man in einer robots auf mehrere sitemap-Dateien verweisen, die auf unterschiedlichen Domains liegen? LG,André
Antwort: Ja, kann man machen. Für die einfachere Erkennbarkeit wäre aber die Bereitstellung mehrerer Robots.txt zu empfehlen.
Thema: Domains
Zeit: 16:43
Frage: Die Domain sporthotel-stock.com ist seit 1 1/2 Jahren nicht mehr aktiv. Alle Seiten werden ordnungsgemäß weitergeleitet. Dennoch gibt es mittels site:sporthotel-stock.com noch 93 Ergebnisse. Wie kommts? Eventuell wegen 2 alten Google My Business "Leichen"?
Antwort: Wenn Google eine Weiterleitung findet, kennt Google noch die alte URL. Wenn gezielt nach diesen alten URLs gesucht wird, dann zeigt Google diese an. Dies kann durchaus einige Jahre der Fall sein. Das ist nicht problematisch.
Thema: Pagination
Zeit: 18:35
Frage: Hi John, rel=rev|next seit einer Woche endlich ausgerollt, vorher leider via Canonical die paginierten Seiten auf die erste Seite (keine Allonepage) kanonisiert. Wie lang braucht es, bis wir einen Impact dieses strukturellen Umbaus erkennen können? Gruß.
Antwort: Schwer zu sagen, vermutlich wird man recht schnell sehen, wie diese Seiten gecrawlt werden, sodass Google diese Inhalt recht schnell im Index hat.
Thema: Duplicate Content
Zeit: 20:03
Frage: Hi Jo! Thema DC bei Master-Slave Artikeln: wie optimal vermeiden? Slaves haben eigene Seite. 1) Farbe (Dosengröße, Farbton): Beschreibung gleich. 2) Fahrräder: Modell mit Größenoption: Scott Aspect 740 RX-LH Optimierungsziel ist Modell (Scott Aspect 740)
Antwort: Man kann diese Seiten indexieren lassen, man kann aber auch mit dem Canonical arbeiten.
Thema: Duplicate Content
Zeit: 22:56
Frage: Hi John, wir haben Google Pagespeed integriert. Kompliziertere Servereinstellungen waren notwendig. Ein Resultat daraus ist, das Bilder nun mit & ohne www aufrufbar sind (Double Content). In WMT wurde die preferierte Domain mit www eingetragen. Reicht das?
Antwort: In der Regel reicht das aus. Google versucht herauszufinden, welche Version auf der Website eingebunden wird.
Thema: Ajax
Zeit: 24:50
Frage: Nochmal ich; unsere IT strebt Client Side Templating an, um die ajaxrequests zu reduzieren. Ajaxinhalte sind indexed. Wie verhält es sich, wenn nun dies dem Browser überlassen wird? Kann der Bot mittlerweile auch das ausführen/interpretieren? Gruß mM
Antwort: In vielen Fällen kommt Google damit klar. Es sollte darauf geachtet werden, dass die JavaScript Dateien durch Google gecrawlt werden können. Man kann dies mit dem Fetch-as-Google Tool (Search Console) prüfen.
Thema: Viele Seiten
Zeit: 27:10
Frage: Wir sind ein Presseportal mit 5.000+ Seiten. Wie sollen wir aus SEO-Sicht (Linkpower, Usability, Ladezeit) mit alten Artikeln umgehen? Nicht anzeigen? Paginierte Übersichtsseiten? Artikel in Archiv verschieben? ... Was wäre hier die Best Practice?
Antwort: Hier gibt es nicht "die eine Lösung". Man könnte die alten Artikel in einem Archiv sammeln oder die Artikel stehen lassen. Das muss man als Webmaster selbst entscheiden.
Thema: Indexierung
Zeit: 28:21
Frage: Hallo Johannes, wir haben vor unsere URLs auf https umzustellen und auch sonst einiges daran zu ändern, wie schnell werden die neuen URLs indiziert?
Antwort: Geht in der Regel sehr schnell. Wenn Google eine Weiterleitung findet, folgt Google diesem. Wenn es weder Weiterleitung noch Canonical gibt, ist dies für Google deutlich schwieriger. Es sollte also sichergestellt werden, dass Google auf die neue Version hingewiesen wird.
Thema: CSS & JavaScript
Zeit: 31:16
Frage: Hallo Johannes, vor einigen Wochen bekamen wir in den Webmastertools die Meldung, dass der Googlebot nicht auf CSS- und JS-Dateien zugreifen kann. Seit dem haben wir alles versucht, um diesen Fehler zu beheben. Wie können wir den Fehler lösen? VG
Antwort: Diese Meldung wurde ausgegeben, wenn das Crawling von JavaScript durch die Robots.txt blockiert wird. Wenn diese Blockierung via Robots.txt aufgehoben wird, können diese Seiten wieder normal gecrawlt und indexiert werden. Zusätzlich empfiehlt sich die Nutzung vom Fetch-and-Render-Tool in der Search Console.
Thema: Werbelinks
Zeit: 35:21
Frage: Angenommen, man erhält Links von starken Seiten wie bspw. jenen der Regierung und setzt diese auf follow, obwohl sie Werbe-Links sind: Würdest du diese disavowen or auf no follow setzen lassen? Follow Links würden die Richtlinien verletzten, oder?
Antwort: Wenn das gekaufte Links sind, sollten diese nofollow sein. Im schlimmsten Fall kann man da auch mit der Disavow Datei gearbeitet werden.
Thema: Indexierung
Zeit: 37:08
Frage: Hallo Johannes, seit ein paar Tagen schwankt bei dem von mir betreuten Onlineshop die Zahl der indexierten Seiten +/-30 (bei ca. 200 Seiten). Außerdem sind die Positionen sehr instabil und schwanken auch bei den URLs. An was könnte das liegen? Danke!
Antwort: Es könnte sein, dass dort auf Google's Seite etwas geändert wurde als wir die Indexierung neu berechnet habe. Zu den indexierten Seiten, da muss man sich keine Sorgen machen. Bezüglich der Schwankungen: Die Algorithmen scheinen sich unsicher zu sein, wie sie diese Website bewerten sollen. (Siehe auch unseren Beitrag zum Thema
Update am Indexierungsvorgang)
Thema: Umzug
Zeit: 41:13
Frage: Hallo Johannes, wir haben vor einiger Zeit unsere Firmenhomepage erneuert (LEAD Innovation). Allerdings sind im Google Cache noch immer URL der alten Seite zu finden, die auf unsere Error Seiten führen. Könnt ihr diese alten URLs aus dem Cache nehmen? LG
Antwort: Es muss dafür gesorgt werden, dass die alten URLs auf die neuen URLs weiterleiten, damit Google die neuen URLs indexiert.
Thema: Disavow Datei
Zeit: 43:29
Frage: Wie lange dauert es ungefähr, bis ein Disavow File berücksichtigt wird? Und wie lange dauert es, bis Änderungen im aktuellen Disavow File berücksichtigt werden?
Antwort: Google verarbeitet die Datei direkt. Ab diesem Moment wird die Disavow Datei für das Crawling verwendet. Bis jeder Link berücksichtigt wird, kann es bis zu sechs Monate dauern.
Thema: Nachladende Seiten
Zeit: 46:19
Frage: Wie geht Google mit nachladenden Seiten (z.B. in Kategorien) um?
Antwort: Zum Teil kann Google das erkennen, zum Teil jedoch nicht. Wichtig: Das der nächste Teil per URL aufgerufen werden kann.
Thema: Rankings
Zeit: 51:04
Frage: Meine Website fällt laufend. Liegt da ein Panda oder Penguin vor?
Antwort: Vermutlich nicht, da Panda und Penguin nicht laufend tätig sind. Ich schau mir das nachher mal an.
Thema: Pagination
Zeit: 53:04
Frage: Bezüglich rel=next. Kann man auch nur ein zwei Seiten indexieren und alle anderen nachfolgenden Seiten auf noindex setzen, um die Nutzer nicht zu verwirren?
Antwort: Ja, die Möglichkeit besteht.
Thema: Linkfarmen
Zeit: 55:40
Frage: Wir haben 18 Shops, damals wurden Linkfarmen genutzt. Wir wurden damals abgestraft. Kann das immer noch ein Problem darstellen?
Antwort: Vielleicht. Es sollte sichergestellt werden, dass diese Links nicht mehr existieren oder in der Disavow Datei gelistet werden. Wenn die Links noch existieren, könnten sie noch einen Einfluss haben.
Thema: Magento
Zeit: 58:30
Frage: Wir nutzen für unsere Shops Magento, hier wird von Haus aus sehr viel JavaScript verwendet. Kann dies negative Auswirkungen haben, da der Anteil von JavaScript vs. HTML sehr hoch ist?
Antwort: Eigentlich nicht. Es sollte sichergestellt werden, dass Google das JavaScript auslesen kann.
Den ganzen Hangout könnt ihr euch hier ansehen:
https://youtu.be/36O_hbg_j4U