Google Webmaster Hangout Transkript, 10.08.2017

von Oliver Engelbrecht

Kategorie(n): Google Webmaster Hangouts Datum: 15. August 2017

Thema: Crawling

Zeit: 00:50 Frage: Es werden auf einer Website Inhalte importiert die ein Produkt beschreiben. Wir möchten diese gerne in einem Tab unterbringen. Wie kann ich diese Tab-Inhalte vom Crawling ausschließen, so das kein Duplicate Content entsteht? Antwort: Wenn die Inhalte auf der Seite stehen, dann können wir sie auch crawlen. Wenn sie auf der Seite schon woanders stehen, dann ist das ok. Wir suchen uns in den SERPs dann einfach auf die relevantere Variante raus und zeigen sie. Da müsst ihr also nichts machen, um das zu verhindern.  

Thema: Content

Zeit: 03:29 Frage: Hinsichtlich des holistischen Ansatzes bei der Content-Erstellung stellt sich die Frage, ob Google umfangreiche Seiten ab einem gewissen Punkt als "too long to read" einschätzt und daher nachrangig rankt. Gibt es eine Empfehlung zum maximalem Word-Count? Antwort: Nein, gibt es nicht. Es ist eher eine technische Frage, d.h. ab einer gewissen Datengröße indexieren wir einfach nicht mehr weiter. Die liegt aber bei mehreren 100mb und sollte daher in den seltensten Fällen ein Problem darstellen.  

Thema: Bilder

Zeit: 07:02 Frage: Auf einer informativen Seite folgt zwei guten Bildern ein erklärender Text zu den Bildern. Der Text umfasst zwei normal lange Sätze in einem <p>-tag. Interpretiert Google diesen Absatz als caption? Antwort: Ich denke, das ist möglich, aber allgemein ist es so, dass wir versuchen, Texte auf solchen Seiten mit den Bildern in Verbindung zu bringen. Denn noch können wir die Bilder ja nicht so richtig auslesen und brauchen daher Infos aus den umliegenden Texten. Ob die Texte dann als Caption markiert sind oder nicht, ist für uns egal.  

Thema: Indexierung

Zeit: 09:14 Frage: Ich weiß, dass das Ergebnis der Site-Abfrage (site:domain.de) nur eine grobe Schätzung ist, die mehr auf Geschwindigkeit als auf Genauigkeit optimiert ist. Für einen Wettbewerbsvergleich ist es aber die einzige Datenquelle, wenn man nicht den Zugriff auf die Search Console für alle Domains hat. Hat Google im Juli den "Schätz-Algorithmus" verändert? Man sieht seither bei vielen Domains stark veränderte Werte. Manchmal werden zu site:www.domain.de (z.B. site:www.heise.de) auch höhere Werte angezeigt als zu site:domain.de, (z.B. site:heise.de), was ja eigentlich unlogisch ist. Kannst Du ein paar Worte dazu sagen, was sich da verändert ha? Antwort: Ich weiß da nichts von Veränderungen. In der Regel sehen wir das auch als sehr nebensächlich an. Vielleicht hat da jemand etwas optimiert, das ist aber nichts, was für uns wichtig ist und weitergetragen wird. Es beeinträchtigt ja auch die Qualität der Suchergebnisse nicht wirklich. Bezüglich der www. und nicht www. Frage hängt es für uns davon ab, was wirklich vorhanden ist. Man kann auch mal ein Unterverzeichnis abfragen und einen höheren Wert erhalten als bei der ganzen Seite. Wenn eine eine Diagnose zu einer Seite stellen wollt, dann braucht ihr Search Console - da hilft euch die Seitenabfrage einfach nicht weiter.  

Thema: Search Console

Zeit: 11:44 Frage: Wir bekommen in der GSC Fehler angezeigt die wir nicht nachvollziehen können. Bei den Soft 404 werden URL's angezeigt die weder im Index sind noch auf unserer Seite oder Sitemap. Sie wurden vor ca. 2 Monaten gelöscht bzw. teilweise umgeleitet. Der Reiter "Nicht gefunden" zeigt uns URLs die ein Sonderzeichen (z. B. Ø, °) in sich haben. Diese werden seit ca. 2 Wochen in der sitemap.xml und im Canonical Tag mit Unicode ersetzt. Wir wissen das es einen Moment dauern kann bis Google das merkt. Allerdings markieren wir die Fehler immer wieder als gelöst und sie erscheinen stets erneut. Antwort: Da hängen vielleicht zwei Sachen zusammen. Wir versuchen URLs immer wieder neu, auch wenn die schon länger nicht mehr vorhanden sind. Wir wollen einfach sicher gehen, dass wir nichts neues verpassen. Es ist also total normal, einige 404er zu haben. Bei soft 404ern bekommen wir vielleicht erstmal einen 200er Code zurück und merken erst dann, dass sie Fehlerseiten sind. Es kann aber auch sein, dass sie einen Noindex haben. Möglich ist auch, dass ihr viel gelöscht habt und es weitergeleitet habt (z.B. zur Homepage), wir das aber als soft 404 sehen da die Inhalte ja nicht ähnlich sind. 404er sind für uns aber auch kein Problem und sorgen nicht dafür, dass wir eine Seite schlechter finden. Die "gelöst" Markierung ist auch nur für euch, nicht für unsere Systeme. Das wollen wir aber auch demächst ändern.  

Thema: Redirect

Zeit: 02:37 Frage: Nach einem Relaunch sollte man ja Redirects von der alten URL zur neuen URL einrichten, damit der Nutzer zukünftig auch noch zu den korrekten Inhalten geführt wird und auch der bisherige PageRank usw. auf die neue URL übertragen wird. Gibt es da einen Zeitraum in welchem das geschehen sollte? Also kann es sein, dass ab einer gewissen Zeit der PageRank und Co nicht mehr übertragen werden kann, weil die Bewertungspunkte der alten URL irgendwann verfallen (sobald die alte URL z.B. aus dem Index genommen wird) und daher nicht mehr auf die neue URL übertragen werden kann? Antwort: Sollte eigentlich nicht sein: Worauf man achten sollte ist, dass die Redirects von Anfang an eingerichtet sind, damit wir alle sofort weiterleiten können. Wir kontrollieren die dann auch immer mal wieder, man sollte sie also mindestens für ein Jahr oder so behalten. Nach langer Zeit haben die alten URLs dann sicher nicht mehr so viele Signale, da ist es dann nicht so kritisch. Aber wenn es geht, sollte man sie dauerhaft drin lassen. Es kann aber sein, dass das nach mehreren Relauches technisch problematisch wird. Schaut dann in den Server Logs, ob überhaupt noch Nutzer oder Suchmaschinen auf die alten URLs gehen.  

Thema: Search Console

Zeit: 25:17 Frage: Gibt es aktuell Probleme in der Search Console? Die strukturierten Daten wurden dort schon länger nicht mehr aktualisiert und es erscheinen bei uns auch laufend Fehler (bei den strukturierten Daten) welche im Livetest aber nicht angezeigt werden. Antwort: Mir ist da eigentlich nichts bekannt.  

Thema: URL-Struktur

Zeit: 26:12 Frage: Die Frage ob eine Seite mit oder ohne www angegeben wird ist ja nicht neu. Wie schaut es denn aus, wenn man die Darstellung der SERPs im Mobile betrachtet. Hier wird auf mobilen Endgeräten das URL-Snippet mit weniger px bzw. Zeichen angezeigt. Seit SSL kamen mit https:// ja 8 Zeichen hinzu. Dadurch wird die URL (ggf. strukturierte Daten) Home > Seite 1 > Sei... bzw. die gesamte Darstellung im Mobile kürzer und nicht vollständig angezeigt. Macht es aus dieser Sicht Sinn, in der Zukunft auf www. zu verzichten? Wird das https:// in den SERPS irgendwann wieder verschwinden? Antwort: Weiß ich nicht. Wir schauen uns das immer mal wieder an, da werden wir uns irgendwann sicher mal eine neue Darstellungsform überlegen. Macht einfach das, was am besten für euch passt. Wenn ihr jetzt aber alles ändert, dann wird es da Fluktuationen geben, ich würde das also nicht nur wegen der Darstellung in den SERPs ändern. Das könnt ihr mal machen, wenn ihr eh die URLs ändert.  

Thema: Crawling

Zeit: 30:03 Frage: Nach welchen groben Faktoren … - entscheidet der Googeblot, welche Unterseiten oder wie tief er crawlt? (und wie häufig?) - entscheidet der Indexer, was in den Index aufgenommen wird? Antwort: Das ist nicht so einfach zu beantworten. Da gibt es ein paar Blogposts, die ihr euch mal anschauen könnt.  

Thema: Versteckte Inhalte

Zeit: 34:29 Frage: Was ist deine Meinung zu versteckten (display:none) H2 Headings, die nur existieren, damit screen reader (z.B. Apple VoiceOver) sie vorlesen. Nutzer, die Screen reader nutzen würden dadurch ein besseres Verständnis von der Seite bekommen. Nutzer ohne Screen reader, brauchen diese Überschriften nicht, da sie die Seite anders wahrnehmen können. Wäre es eine Lösung, einen Button auf der Seite zu haben, der diese Überschriften sichtbar macht? Antwort: Ich denke, das müsst ihr mit euren Benutzern anschauen und überlegen, wie ihr das am besten machen könnt. Für das Indexieren und Ranken ist das in der Regel unproblematisch, da die Inhalte ja zusammenpassen. Ist das nicht der Fall, könnte aber auch irgendwann das Webspam Team kommen.  

Thema: Seitenstruktur

Zeit: 37:30 Frage: In wie weit färben Inhalte oder die Bewertung einer Domain auf eine Subdomain ab und anders herum? Werden Beziehungen berücksichtigt, oder wird das komplett getrennt bewertet und nehmen keinen gegenseitigen Einfluss?
Antwort: Das kann man nicht so schwarz/weiß sagen. Wir versuchen, den Rahmen einer Website zu erkennen. Es kommt also auf euer Setup an.  

Thema: Meta-Daten

Zeit: 45:24 Frage: Seit geraumer Zeit erstellt Google für ein und die selbe Seite mehrere METAs in den SERPs. Kann man irgendwie einsehen, welche Versionen in den SERPs existieren und wie kann man das beeinflussen das Google das nicht macht?
Antwort: Das machen wir schon sehr lange. Die werden algorithmisch je nach Suchanfrage und Endgerät angepasst. Das könnt ihr euch aber nicht in Search Console oder so anschauen. Geht also wenn dann die besten Suchanfragen einmal durch. Man kann das aber nicht beeinflussen, ihr könnt höchstens das ganze Snippet ausschalten und das ist ja weniger empfehlenswert.  

Thema: Mobiloptimierung

Zeit: 47:03 Frage: Eine Webseite wurde vor einigen Jahren (vor Responsive) jeweils für Desktop und Mobile erstellt. Diese sind inhaltlich "relativ"" gleich und jeweils unter .de und .mobi zu erreichen. Nun ist die Desktopseite seit langer Zeit responsive und mobil angepasst und es gibt kaum Unterschiede. Die mobile Seite ist heute also eigentlich nicht mehr notwenig. Die Seiten bestehen jeweils aus ca. 50.000 Seiten, beide im Index und auch gut platziert (im jeweiligen Endgerät). Kann ich zukünftig auf die .mobi verzichten? Wie gehe ich über 301 hinaus vor? (Webmastertools, etc) Kann es zu Verlusten in den Mobilen SERPS kommen? Antwort: Führt das einfach mit 301-Weiterleitungen zusammen. Momentan sehen wir die wahrscheinlich noch als eigenständige Seiten.  

Thema: Cloaking

Zeit: 53:44 Frage: Wir möchten bei einem Projekt Google Seiten freigeben, welche nur eingeloggt erreichbar sind. Dies wird von einigen Seiten per UserAgent ermöglicht, allerdings ist dies laut cloaking nicht erlaubt. Gibt es eine erlaubte und sichere Möglichkeit Google diese internen Inhalte zur Verfügung zu stellen damit auch Inhalte hinter einem Login auffindbar sind. Also quasi interne Inhalte mit Google teilen. Antwort: Nein, das ist Cloaking. Google muss auch die Login Seiten sehen, sonst kann es Abstrafungen geben. Ihr könnt aber First Click Free nutzen.   Den ganzen Hangout könnt ihr euch hier ansehen: