Am 17.03.2016 startete die SMX München mit den beiden Haupttagen. Ich bin live vor Ort und berichte für euch im Ticker aus den von mir besuchten Slots. Das Programm ist hier einzusehen: http://smxmuenchen.de/muenchen2016/programm/
Tag 2 SMX München
Content Republishing mit Rand Fishkin und Marcus Tandler
Google möchte nicht den größten Index, sondern den relevantesten Index. Daher kommt es nicht darauf an, wie viel Content man auf seiner Seite hat, sondern wie hochwertig dieser ist. Marcus weist auf die Wichtigkeit eines 100%ig korrekten Codes hin und sagt, dass vor allem eine sehr schnelle Ladegeschwindigkei wichtig ist. Speed ist einer der wichtigsten Faktoren! Um seinen alten Content zu verbessern sollte man seinen Content überprüfen. Was wird gefunden und hat Traffic, oder welcher Content verweist? Wichtig sind auch der Titel und die Beschreibung, da Google die Klickrate in den Suchergebnissen mit ins Ranking einberechnet. Es werden ein paar Beispiele gezeigt, wie sich richtiges Content Recycling positiv auswirkt. Auch der Hinweis auf holistischen Content war wieder vorhanden und sollte so langsam bei allen angekommen sein. Ein sehr schöner Vortrag! Jetzt spricht Rand Fishkin und startet gleich einen Test. Rand bittet darum Marcus Tandler, zu Googlen und auf das onpage.org Ergebnis zu klicken (Platz 6). Aber nur per Handy ohne Wlan. Hier möchte er wieder testen, wie die User Auswirkungen auf das Ranking haben. Edit: Nach nur einer Stunde war das Ergebnis auf Platz 2 aber nur mobil. Desktop hat sich nix verändert. Auch im SEO Bereich sollte man sich überlegen, ob man die Besucher nicht per Cookie bestückt, um sie wieder auf die Webseite zu führen. Auch Rand spricht davon, dass wiederkehrende Besucher einen positiven Einfluss auf das Ranking haben können. The Semi Regular Update Content der regelmäßig geupdatet wird. The Localization GEO Focus oder Content für ein Land. Wenn man ein Content für verschiedene Länder aufsetzt, könnte man damit auch ranken. Weiterhin sollte man Listen (ggf. Top Listen ) für Örtlichkeiten, Orte, usw. usw. mit bedenken. The Spawn of Big Content Content, der sich dazu eignet, als eigener Teil benutzt zu werden. Man kann also Teile aus einem Content herauslösen, um diesen selbstständig zu benutzen. Repuplishing Benutze deinen relevanten Content als Gastposts etc. auf anderen Webseiten (natürlich unique Content oder Canonical).Was ist Marketing heute? Marty Weintraub
Marty gibt einen Überblick über die Geschichte der Suche in der Comedy Art. Das muss man sehen, das kann ich nicht beschreiben :) Anschließend geht es vor allem um die richtige Verwendung von Facebook in seiner Marketingstrategie. Nachfolgend geht er auf das Thema Remarketing ein und dass man den Kunden unabhängig der Plattform sehen sollte. Auch hat es nicht immer Sinn, ihn mit Produkten zu nerven, die er nicht gekauft hat. Ggf. neue vorstellen oder mit Angeboten das Interesse auf die eigenen Produkte lenken.RankBrain Talking Runde
Rand, Joost, Tandler, Mike King, und Marcus Tober sprechen über RankBrain & Co. RankBrain bedeutet, dass die Suche lernt, was die Suchenden sehen wollen. So können die Ergebnisse entsprechend angepasst werden. Die Zeiten, in denen man sagen konnte, dass es eine Suchmaschinenoptimierungund diese Rankingfaktoren gibt, sind vorbei. Jede Suchanfrage hat ihre eigenen Regeln. Allgemeine Aussagen kann man nur übergreifend, aber nicht speziell mehr machen. Es ist nicht möglich, zu sagen, das brauchst du in der Anzahl, da jede Suchanfrage hier eine andere Spezifikation hat. Auch zum Thema Links wird sich unterhalten. Die Wertigkeit eines Links (follow) wird auch dadurch bestimmt, wie oft er angeklickt wird. Selbst Backlinks von starken Seiten bringen wenig, wenn keiner Interesse an diesem Link hat. Wenn die Besucher den Link nicht klicken, wieso sollte Google diesen hoch werten?Crawl Budget Bastian Grimm und Philipp Klöckner
Crawling Ressourcen werden eingesetzt, weil es Google Geld kostet. Man schätzt etwa 10 Milliarden im Jahr. Daher ist das Crawlbudget begrenzt. Über die Search Console sollten Fehler eingesehen und behoben werden. Alle Seiten, die keinen Traffic / Umsatz generieren, können gelöscht werden. Klasse statt Masse! Lieber 100 Produkte anstatt 15, das spart Crawlbudget. Spart Pagnation ein. Philipp empfiehlt, sich Amazon anzuschauen als Googlebot. Amazon zeigt hier leicht veränderte Inhalte, ohne dass es Cloacking ist. Es spart aber Crawlbudget. Näher drauf eingegangen ist er aber nicht. Bastian übernimmt und spricht ebenfalls darüber, dass weniger gleich mehr ist. Noindex geht auch aufs Crawlbudget! Weiterleitungen zählen doppelt. Interne Verlinkungen überprüfen und Weiterleitungen dort rausnehmen. Stichpunkt Code-Hygiene! Server Logfiles anschauen und auswerten. Interne Suche auf Post umstellen anstatt GET. Google crawlt auch nicht HTML. Daher X-Robots-Tag als Indexierungsstatus nutzen.John Muellers live Site Clinic
Alle vorgestellten Webseiten waren international tätig und alle hatten mit dem Hreflang Tag Probleme. (Schaut Euch auch unsere Zusammenfassung mit John über Hreflang an) Wenn eine anderssprachige Description erscheint als die, die eigentlich erscheinen sollte, liegt vermutlich ein Hreflang Fehler vor. Die restlichen angesprochenen Dinge waren alles relativ einfache Fragen und eher im Bereich Basic einzuordnen, sodass ich diese nicht weiter aufführe. Dass wir keinen durch Google Translate übersetzen Text auf die Webseite packen sollten, ist euch sicher auch so klar. Für solche Fragen kann ich nur die Hangouts mit ihm empfehlen. Durch ein längeres Gespräch mit Marcus Tandler habe ich dann den nächsten Slot verpasst, was ich nicht schlimm finde, denn das Gespräch war es alle mal Wert. Schön zu sehen, dass auch hier ein Austausch neben den Sessions stattfinden kann. Nun geht es für mich dann aber schon zum Flughafen. Noch etwas essen und dann auch schon wieder zurück nach Berlin. Das Fazit zu beiden Tagen lest ihr unten.Tag 1 der SMX
Obwohl sich Menschenmassen um den Einzug in die heiligen Halle bemühten, ging es dann doch relativ flott, bis ich mein Ticket hatte.Keynote mit Rand Fishkin
Rand Fishkin erzählt seine Meinung zu Machine Learning und wie es eine neue Welt eröffnet. er gibt Tipps und Tricks zum Thema. Kernaussagen:- Selbst Google versteht ML noch nicht wirklich
- Der Zurückbutton ist der Tod eines jeden SEO´s...
- ...da die Bounce Rate mit zu den wichtigsten Ranking Faktoren zählt
- Qualität vor Quantität
Das Wie und Weshalb - SEO Experimente mit Marcus Tober und Mario Fischer
Die Auswertung von Daten obliegt uns, jeder sieht etwas anderes. Mario Fischer sagt, es gibt nicht den einen Algorithmus. Sehr wahrscheinlich gibt es mehrere, parallel laufende Rankings mit unterschiedlichen Berechnungen. Er zeigt weiterhin auf, dass es sehr schwer ist, bei Änderungen nachzuvollziehen, wieso sich etwas ändert. Dadurch, dass so viele verschiedene Einflüsse ein Ranking beeinflussen können, müssen Beobachtungen dies immer mit berücksichtigen. Mario führt einen Live Test durch und zeigt auf, dass der Mensch fast immer versucht, eine These zu bestätigen, statt Sie zu hinterfragen. Marcus übernimmt und weist auf searchmetrics.com/smx als Foliendownload hin. Als erstes zeigt er die Problematik bei einer Datenerhebung auf. Als Beispiel Goethe mit und ohne Wikipedia / Gesamtanzahl der Wörter. Mit Wiki 1800 ohne 1400. Also verwässert Wikipedia hier so stark die Daten, dass die Aussagen nicht übereinstimmen. Searchmetrics hat versucht, selbst herauszufinden, wie stark Wikipedia ist und dabei festgestellt, dass Wikipedia durch Machine Learning viel weniger gut ranken müsste. Dies deutet auf eine besondere Relevanz für Wikipedia hin. Daher muss man bei Analysen Wikipedia rausnehmen, da ansonsten die Werte verfälscht werden. Interessant auch das Beispiel an den Links. So muss man sich anschauen, aus welchem Bereich eine Seite kommt, um auf die richtigen Zusammenhänge zu schließen. Im Beispiel rechts haben die vorderen Plätze bei den Themen Gesundheit und Finanzen weniger Links als die hinteren, im E-Commerce ist es umgekehrt. Auch bei den nachfolgenden Beispielen wird es immer deutlicher, dass man Themen Cluster bilden muss, um an die richtigen Werte zu kommen. Dies untermauert die These von Mario zu Beginn mit unterschiedlichen Algorithmen. Sehr toller Vortrag. Da freu ich mich auf die bald erscheinende neue Searchmetrics Studie zu den Rankingfaktoren 2016.Site Architecture und Search Engine mit Jens Fauldrath und Stefan Fischerländer
Google möchte, dass Nutzer finden, was sie suchen. Gute Einleitung Jens :) SEO Traffic muss konvertieren für positive Nutzersignale. Wenn etwas Scheiße ist, dann ist es Scheiße. Daher muss schon das Produkt / die Dienstleistung überzeugen. Wenn das der Fall ist, kommt es auf die Aufbereitung des Inhaltes an. Dazu gehört eine gute Webseitenarchitektur. Ein Menü sollte so aufbereitet werden, dass es keine ablenkenden Links enthält. Vorsicht bei zu großen Menüs. Stichwort Siloing. Das Menü muss gut strukturiert sein.- Skimming
- Scanning
- Lesen
- fast leere Kategorien
- Ergebnisseiten der internen Suche
- Pagnierte Seiten
- Produkt nicht lieferbar
- Seiten mit sehr wenig Inhalt