SEO: Tipps und Vorgaben von Google und Co.

von Michael Schöttler

Kategorie(n): Themenseiten Datum: 1. Juni 2016


07.04.2016: Die richtige Sprache für Alt-Attribute

Im StackExchange Forum hat John Mueller gestern eine interessante Frage beantwortet. Hierbei dreht es sich im die richtige Sprache für Alt-Attribute. Denn der Nutzer wollte gerne wissen, ob er die Alt-Tags für jedes Bild in der Sprache der Inhalte erstellen muss – oder ob zum Beispiel deutsche Inhalte auch ein englisches Alt-Attribut haben können. Denn hat ein Webmaster mehrere Sprachversionen (beispielsweise mit dem Hreflang), dann könnte es ihm viel Arbeit sparen, einfach überall das gleiche Bild mit dem gleichen Tag hochzuladen. Ansonsten müssten die Tags für jede Sprache noch einmal extra angepasst werden.

Lokalisierte Tags für lokalisierte Inhalte

Doch John ist der Meinung, dass sich diese Arbeit lohnt und dass lokalisierte Inhalte auch lokalisierte Alt-Tags benötigen. Ist eine Website also komplett auf den deutschen Markt ausgerichtet, dann sollten auch die Alt-Attribute in deutscher Sprache gehalten sein. Englische Tags machen für ihn dann keinen Sinn. mueller antwort Denn die Alt-Attribute sind dazu gedacht, dem Nutzer zu erklären, worum es sich bei dem Bild handelt. Dies kommt unter anderem dann ins Spiel, wenn die Bilder selbst nicht angezeigt werden können oder der Nutzer unter einer Sehschwäche leidet (dann können spezielle Programme ihm das Alt-Tag vorlesen). Um eine wirklich komplette Website für einen Sprachraum zu erstellen, darf man also auch die Alt-Attribute nicht außen vor lassen. Vielmehr sollten diese auch immer in der Landessprache verfasst werden, um die Erfahrung auf der Seite für Google und vor allem für den Nutzer zu verbessern.

29.03.2016: Die zwei wichtigsten Google Ranking-Faktoren

Immer wieder fragen sich SEOs und Website-Betreiber, wie sie bei Google besser ranken können. Hierzu meinen sie, dass sie nur die wichtigsten Ranking-Faktoren kennen müssten – dann könnten sie diese optimieren und dadurch ihre Rankings deutlich nach oben schnellen lassen. Aus diesem Grund werden auch Google-Mitarbeiter immer wieder auf die Ranking-Faktoren angesprochen. Normalerweise halten sie sich hierbei bedeckt. Doch nun ist Andrey Lipattsev, Search Quality Strategist von Google in Dublin, aus der Reihe getanzt und hat die zwei wichtigsten Google Ranking-Faktoren verraten.

Was sind die wichtigsten Ranking-Faktoren?

In einem Google Q&A wurde Andrey auf die wichtigsten Ranking-Faktoren angesprochen. Und darauf, dass Google diese nicht nennen möchte. Zur Überraschung aller Beteiligten nutzte er diesen Moment, um die beiden aus Google-Sicht wichtigsten Ranking-Faktoren zu verraten. Hier seine Aussage im übersetzten Wortlaut. Frage von Ammon Johns: “Können Webmaster davon profitieren, wenn sie die zwei wichtigsten Ranking-Faktoren kennen würden?” Antwort von Andrey: “Ja, ich kann euch auch einfach sagen, was sie sind. Es sind Content und Links, die zu eurer Seite zeigen. Und dabei gibt es keine Reihenfolge. […] Es ist nicht so, dass es X-wichtig ist, eine Anzahl an Links zu haben, während es Y-wichtig ist, eine Anzahl an Keywords zu haben. So funktioniert das nicht. Wir versuchen, immer besser darin zu werden, Sprachen zu verstehen. Wir nutzen dann Machine Learning, um die Bedeutungen dahinter zu begreifen.”

Content und Links – was bringt uns das?

Wir wissen nun also, dass Inhalte und Links die wichtigsten Ranking-Faktoren für Google sind. Die meisten von uns dürften damit genauso schlau sein wie vorher – denn dies ist eigentlich nur eine Bestätigung dessen, was zahlreiche Webmaster und SEOs sich schon seit einiger Zeit gedacht haben. Doch jeder, der eine erfolgreiche Website betreibt – oder betreiben will – sollte gute Inhalte als Grundvoraussetzung ansehen. Diese werden dann zu guten Links führen. Denn Google möchte sehen, dass eine Seite so gut ist, dass der Nutzer nicht nur lange auf ihr verweilt – ideal ist es, wenn auch eine Interaktion stattfindet. Es wird für SEOs daher immer wichtiger, über die technischen Grundvoraussetzungen hinaus auch auf die Zufriedenheit des Nutzers hin zu optimieren. Es ist also von höchster Wichtigkeit, Suchanfragen so zu beantworten (beziehungsweise Probleme von Suchenden so zu lösen), dass diese mit der eigenen Seite glücklich werden. Suchmaschinenoptimierung muss also immer mehr darauf abzielen, denn Nutzer zufriedenzustellen. Dies kann natürlich wiederum nur funktionieren, wenn die Website auf technischer Ebene einwandfrei ist. Technisches SEO sollte daher immer mit der Inhaltserstellung Hand in Hand gehen.

Links sind kein Allheilmittel – aber PageRank ist noch wichtig

Aber trotzdem ist es wichtig zu wissen, dass eine inhaltlich schlechte Seite nicht durch viele (künstlich aufgebaute oder auch gekaufte) Links gerettet werden kann. Vielmehr sind die Links als das I-Tüpfelchen zu verstehen, die einer starken Seite zusätzliche Relevanz verleihen. Nichtsdestotrotz ist der PageRank entgegen vieler anders lautender Berichte nicht tot. Im Gegenteil wird dieser von Google noch immer genutzt. Es ist also wichtig, auch bei der internen Verlinkung immer auf die entsprechende Gewichtung zu achten. Im Unterschied zu früher ist der PageRank jedoch nicht mehr öffentlich einsehbar. In manchen Fällen sollte man also auch darauf achten, ausgehende Links mit dem Nofollow-Attribut zu versehen (wenn Ihr dafür Geld oder eine andere Leistung erhalten habt). Denn Google macht in seinen Webmaster Richtlinien mehr als deutlich, dass die Manipulation von PageRank auch dann noch bestraft werden kann, wenn der Webmaster den PageRank gar nicht mehr sehen kann.

Was beeinflusst das Ranking – und was nicht?

Immer wieder kommt auch die Frage auf, ob Faktor X ein Ranking-Faktor für Google ist. Die Antwort von Offiziellen wie John Mueller oder Gary Illyes ist dann oft, dass dies kein direkter Ranking-Faktor ist, aber trotzdem indirekt einen Einfluss auf das Ranking einer Website haben kann. Auch auf diesen Zwiespalt ging Andrey ein: Frage von Ammon Johns: “Im Endeffekt beeinflusst jeder Faktor das Ranking, sonst gäbe es keinen Grund, ihn einzubauen.” Antwort von Andrey: “Im Endeffekt kann man das denke ich so sagen. Im Endeffekt beeinflusst auch die Erreichbarkeit eurer Website das Ranking – denn wenn wir sie nicht erreichen können, dann können wir sie nicht ranken. Ich denke aber, dass es nicht so sehr das Ranking einer einzelnen Seite beeinflusst. Vielmehr beeinflusst es unser Verständnis einer Suchanfrage. Und wenn sich unser Verständnis verändert, dann zeigen wir wahrscheinlich etwas anderes für diese Anfrage.”

Alles ist ein potentieller Ranking-Faktor

Es ist nicht so, dass all diese Details in Google’s Algorithmen vorkommen. Daher sind sie nicht unbedingt ein direkter Ranking-Faktor im eigentlichen Sinne. Jedoch beeinflusst, wie oben gesagt, das Nutzerverhalten im Endeffekt auch die organischen Suchergebnissen. Und dieses hängt von vielen Faktoren ab, die nicht in Google’s Algorithmen Platz gefunden haben. Schrecken solche Faktoren die Nutzer ab, wird dies also auch von Google als negativer Faktor registriert und entsprechend bewertet. Im Umkehrschluss führt positives Nuterzverhalten, dass auf solche “weichen” Faktoren zurückzuführen ist, zu einer positiveren Bewertung durch Google. Die Hauptaufgabe muss es also sein, eine tolle Seite zu erstellen, die von Nutzern gerne besucht, genutzt und geteilt wird. Erreicht man dies wird dieses sicher zu einem besseren Ranking führen. Eine ausführliche Analyse der eigenen Zielgruppe ist also unumgänglich, um die passenden Dinge einbauen zu können.

Es gibt nicht den “einen”Algorithmus

Webmaster sollten dabei auch eines beachten: Es gibt nicht den einen Algorithmus oder die eine Gewichtung von Faktoren! Vielmehr ist es so, dass diese Dinge von mehreren Umständen abhängen. Die Personalisierung der Suche spielt dabei genauso eine Rolle wie die ständigen Tests, die von Google in den SERPs durchgeführt werden. Aus diesen Gründen erhalten zwei nebeneinander sitzende Nutzer bei derselben Anfrage unter Umständen unterschiedliche Ergebnisse. Hinzu kommt, dass je nach der Anfrage die einzelnen Ranking-Faktoren unterschiedlich gewichtet werden können. Denn die Algorithmen sind mittlerweile äußerst dynamisch und richten sich nach der Eingabe des Suchbegriffes. So werden beispielsweise bei einer Anfrage hinsichtlich Online-Shopping andere Faktoren in den Vordergrund gerückt, als wenn es um eine rein informative Suchanfrage geht. Webmaster sollten sich also nicht an einen Algorithmus und dessen Ranking-Faktoren ketten, sondern lieber so optimieren, dass ihre Nutzer wirklich glücklich werden. Dann klappt es auch mit dem Ranking! Wenn du noch mehr zu den Ranking Faktoren lesen möchtest, interessieren dich vielleicht alle bekannten Ranking Faktoren?

07.03.2016: Google Suchergebnisse, Kandidatenkarten und eine Best Practice

Am Wochenende gab es wieder einige Neuerungen bei Google zu beobachten. Diesmal handelt es sich um eine spannende Statistik im Hinblick auf die Suchergebnisse, um ein neues Feature und um eine hilfreiche Best Practice.

Position 10 ist besser als…

SEOs und Seitenbetreiber fragen sich oft, ob es denn wirklich immer erstrebenswert ist, eine Rankingverbesserung anzustreben. Natürlich wären alle mit ihren Seiten gern auf Position 1, 2 oder 3, aber wie sieht es dahinter aus? Eine Theorie besagt dabei, dass Position 10 besser ist, als die Positionen 9 und 8. Denn diese findet sich häufig direkt über den Klickmöglichkeiten, mit denen man auf die nächste Seite der SERPs gelangen kann. Könnte es also sein, dass dieses Ergebnis daher mehr Aufmerksamkeit bekommt als die Positionen, die im unteren Drittel der organischen Suchergebnisse stehen? Dies könnte neue Optimierungsoptionen eröffnen. Und laut Google ist dies tatsächlich der Fall. Paul Haahr hat auf der SMX ein paar entsprechende Statistiken geteilt, die folgendes besagen: Position 10 erhält so viele Klicks wie die Positionen 8 und 9 zusammen – jedoch weniger als Position 7. Dies dürfte vielen SEOs Stoff zum Nachdenken liefern.

Best Practice für JavaScript

Ein häufiger Fehler, der Websites langsam oder gar uncrawlbar macht, ist die falsche Verwendung und die fehlerhafte Implementierung von JavaScript. Denn bei diesem Thema ist es von äußerster Wichtigkeit, gewisse Regeln zu beachten. Und um Webmastern das Leben ein wenig zu erleichtern, hat John Mueller eine entsprechende Best Practice für den Umgang mit JavaScript zusammengestellt. Diese ist uf seinem Google+ Account zu finden. Hier hat der das aktuelle Know How zum Thema übersichtlich zusammengetragen und mit de entsprechenden Links angereichert. Webmaster, die sich bei der Implementierung unsicher sind, können also einfach noch einmal nachschauen. JavaScript

03.2016: Die Google Sprachsuche

Google möchte Nutzer dazu bringen, die Sprachsuche zum Shopping zu nutzen. Außerdem bietet diese nun landläufige Tiergeräusche an. Die Sprachsuche wird im Google Kosmos also immer wichtiger

Conversational Shopping

Auf der SMX werden immer auch Zukunftsprojekte vorgestellt. In diesem Sinnesprach Behshad Behzadi von Google Schweiz über die Möglichkeiten auf dem Gebiet der Konversationssuche. Google’s Plan ist es hier, dass Nutzer im Zwiegespräch mit ihrem Endgerät ihre Einkäufe erledigen können. So könne man Produkte nicht nur durch die Sprachsuche finden und angezeigt bekommen. Man könne darüber hinaus auch sagen: “Ok Google, kaufe das Angebot von ShopX”. Und gleich danach würde man die Rechnung erhalten. Damit könnte man immer mehr davon weggehen, Dinge anklicken und tippen zu müssen. Und auch für Google könnte sich dies lohnen. Denn sobald dies funktioniert, werden sicher die Product Listing Ads perfekt darauf vorbereitet sein. So könnte Google auch in Zukunft seinen Anteil am Shoppingprozess sicherstellen.

Tierlaute

In eine ganz andere Richtung geht eine weitere Neuerung auf dem Gebiet der Sprachsuche. Denn wenn man künftig fragt: “Ok Google, wie macht TierX”, dann spielt Google das entsprechende Tiergeräusch ab. Dies dürfte vor allem für Kinder ein tolles Feature sein, mit dem die Kleinsten viele spaßige Stunden verbringen können. Doch auch Erwachsene dürften damit ihre helle Freude haben – und sei es nur, um andere damit zu ärgern. tierlaute

Fazit

Dies zeigt einmal mehr, dass Google sein Augenmerk nicht nur auf die aktuellen SERPs legt. Um seine Spitzenposition dauerhaft zu verteidigen muss der Konzern seinen Konkurrenten einfach immer eine Nasenlänge voraus sein. Und dies ist nur möglich, indem neue Felder frühestmöglich besetzt werden. Sei es das maschinelle Lernen, das mobile Internet oder halt die Sprachsuche. Wir dürfen gespannt sein, was für weitreichende Neuerungen es auf diesen Gebieten in der nächsten Zeit geben wird.

07.01.2016: Trennzeichen in der URL

Wie wir wissen, rät Google grundsätzlich davon ab, Sonderzeichen in der URL zu verwenden. Denn dies kann beim Verarbeiten des HTML zu Problemen bei Google führen, die im Gegenzug die Performance der Seite einschränken würden. So verhält es sich entsprechend auch mit Trennzeichen – also einer Struktur wie seo-portal.de/nur.ein.beispiel. Laut John Mueller kann man das zwar machen, es wäre aber “eine schlechte Idee”. Daher sollten Webmaster auf einen solchen Aufbau ihrer URLs verzichten. Grundsätzlich sollte man sich in solchen Fällen auf das althergebrachte verlassen. Denn dies ist nicht nur für Google das Beste, sondern auch für die Nutzer vertraut und vertrauenserweckend. decimal point

04.01.2016: Großbuchstaben

Es ist eine Frage, die immer wieder aufkommt: Haben Großbuchstaben in der URL eine Auswirkung auf die SEO-Performance und das Ranking? Denn vor einiger Zeit haben Suchen mit Großbuchstaben noch andere Ergebnisse zu Tage gefördert, als Suchen ohne. Dies ist nun aber nicht mehr der Fall. Und auch Großbuchstaben allgemein haben keine positive oder negative Auswirkung. Dies bestätigen sowohl Googler John Mueller als auch Ex-Googler Pedro Dias in einem Webmaster Central Help Forum Thread. Damit sollte dieses Thema endgültig geklärt sein.

23.12.2015: Gestaltung von 404 Seiten

Auf Nachfrage bei Twitter stellte John Mueller fest, dass es Google komplett egal ist, was Webmaster auf einer 404 Fehlerseite präsentieren. Denn Google ignoriert diese sowieso und hat daher kein Interesse an den entsprechenden Inhalten. 404 content Es ist daher auch nicht nötig, diese Seiten mit einem Noindex zu versehen – denn sie werden sowieso nicht indexiert. Webmaster können ihrer Kreativität also freien Lauf lassen.

23.12.2015: No Country Redirect geht nicht mehr

Eine der beliebtesten Google-Funktionen für SEOs war lange Zeit das No Country Redirect Feature. Mit diesem war es möglich, unabhängig vom eigenen Standort auf Google.com zuzugreifen. Nun ist Pedro Dias aufgefallen, dass diese Funktion nicht mehr zur Verfügung steht. Nutzer außerhalb der USA müssen sich daher nun mit ihrer lokalen Version von Google zufrieden geben. ncr

15.12.2015: Webmaster-Tipps von Google

Wenn Webmaster nicht mehr weiterwissen, dann stellen sie oft Fragen bei Twitter oder in den Google Foren. Und hier gibt es vor allem einen Google-Mitarbeiter, der immer wieder hilfreiche Antworten parat hat: John Mueller. Hier sind einige weitere Beispiele, die das untermauern.

URL-Struktur

Grundsätzlich würde John davon abraten, Sonderzeichen in der URL zu verwenden – also Kommas, Doppelpunkte, Semikolons, Leerzeichen, Anführungszeichen und ähnliche Zeichen. Google kann diese zwar in einer Sitemap erkennen, im HTML kann es jedoch unter Umständen zu Problemen führen. Wer auf eine saubere URL-Struktur umstellen möchte, solle entsprechend 301-Weiterleitungen und Canonical Tags nutzen.

URLSpammer bekämpfen

Und schließlich hat John noch einen Hinweis, wie man Spammer auf Seiten mit User Generated Content richtig bekämpfen kann. Denn laut seiner Aussage reicht es nicht, Links und Inhalte einfach nur auf Noindex, Nofollow zu stellen. Darüber hinaus solle man schwere Geschütze auffahren. Beispielsweise, indem man das Anmelden erschwert und Inhalte rigoros löscht. So kann man den Spammern mitteilen, dass sie nicht erwünscht sind und weiterziehen sollen. spammer

24.11.2015: Einzigartige Produktbeschreibungen nötig?

Eine Frage, die sich Shopbetreiber immer wieder stellen, hat mit den Produktbeschreibungen zu tun. Diese werden oft vom Hersteller mitgeliefert und dann von vielen Shops übernommen – reicht das aus oder sollte man sie umschreiben? Dieser Frage hat sich nun John Mueller bei Twitter angenommen. Er hält es für sinnvoll, die Texte, wo möglich, umzuschreiben. Denn so kann man sich vor potentiellen Kunden als Experte auf einem Gebiet darstellen. Man solle es jedoch nur machen, wenn man den Text ohne Spin schreiben und die Einzigartigkeit sinnvoll herbeiführen kann. Dies kann man mit einer kleinen Anzahl an Produkten zunächst testen. Denn laut John sind solche einzigartigen Produkttexte “meistens nicht kritisch”, also für Google nicht so wichtig. descriptions

04.11.2015: Google und der Internet Explorer

In den letzten Tagen gab es im Google Produktforum einen rasant anwachsenden Thread, in dem sich zahlreiche Nutzer des Internet Explorer beschwerten – denn für sie war es nicht mehr möglich, eine Suche mit Google durchzuführen. Es ist fraglich, was die Suchmaschine dazu veranlasst haben könnte, auf einmal nicht mehr für einen Browser zu funktionieren. Aber offensichtlich war es ein Problem auf Google’s Seite – denn gestern wurde nach weniger als einer Woche angekündigt, dass das Problem behoben sei. explorer Es könnte Google also theoretisch möglich sein, auf einfache Weise ganze Browser von seinen Diensten auszuschließen. Dies sollte aber nicht wissentlich passieren, denn Google hat in der vergangenen Woche sicherlich zehntausende Nutzer verpasst oder gar verloren.. Überraschend ist hingegen vor allem, dass noch so viele Leute den Internet Explorer nutzen.

30.10.2015: Dynamische robots.txt

John Mueller ist zur Freude von Webmastern immer wieder in den Foren unterwegs, um bei technischen Problemen und seltenen Fragen zu helfen. Auch gestern stand er mal wieder einem Webmaster zur Seite.

Robots.txt sollten nicht dynamisch sein

Die Frage war, ob die Sitemap und die robots.txt dynamisch gestaltet werden sollen. John äußerte sich dazu sehr ausführlich und ließ keine Fragen offen: Sitemaps ja, robots.txt nein! Man sollte also davon absehen, die robots.txt für denselben Host dynamisch einzustellen. dynamic robots “Das Sitemap File dynamisch zu gestalten ist ok – das ist ein guter Weg, um eure Sitemaps automatisch zu updaten. Ein dynamisches robots.txt File (für denselben Host! Das für verschiedene Hosts zu machen wäre eigentlich nur ein normales robots.txt File für jeden von ihnen) würde wahrscheinlich Probleme verursachen: Es wird nicht jedes Mal gecrawlt, wenn die URL der Seite gecrawlt wird. Daher kann es passieren, dass die ‘falsche’ Version im Cache landet. Zum Beispiel kann es sein, dass ihr das Crawling während der Geschäftszeiten blockiert. Dann kann es passieren, dass dies in dieser Zeit gecached wird und dann für den ganzen Tag gilt – was bedeuted, dass nichts gecrawlt (oder gecached, wenn das Crawlen erlaubt ist) wird. Beispielsweise crawlt Google die robots.txt für die meisten Seiten etwa ein mal pro Tag.”

29.10.2015: The Wayback Machine wird zur Suchmaschine

The Wayback Machine ist die Zeitmaschine des Internets. Durch Eingabe einer URL kann man hier sehen, wie sich Webseiten im Laufe der Jahre entwickelt haben. Von den ersten Gehversuchen bis hin zu modernsten Elementen ist also alles abrufbar. Dieses Archiv reicht bis 1996, also stolze 19 Jahre, zurück. Daher ist es nun an der Zeit, der Seite einmal eine Generalüberholung zukommen zu lassen. Diese wird nicht nur kosmetischer Natur sein, sondern auch die Funktionsweise der Seite verändern.

Keywordsuche als neues Feature

Denn künftig, also nach Fertigstellung der Neuerungen im Jahr 2017, wird The Wayback Machine auch eine Keywordsuche beinhalten. Diese wird den Nutzer dann immer auf die Homepage der entsprechenden Seite führen, damit nicht jede einzelne Seite indexiert werden muss. Dann muss man nicht mehr eine genaue URL eingeben, sondern kann sich mittels Keywords durch verschiedene Seiten klicken. Dies macht Sinn, da das Archiv mittlerweile mehr als 439 Milliarden Seiten umfasst – da möchten Nutzer vielleicht auch einmal ins Blaue hinein Seiten aus einer bestimmten Sparte anschauen. Damit wird The Wayback Machine zu einer neuen Art der Suchmaschine. Wir freuen uns schon auf das fertige Ergebnis.

27.10.2015: Canonical bei URL-Shortenern

Wir haben vor einigen Wochen darauf hingewiesen, dass URL-Shortener zum Teil mit Vorsicht zu