SMX München Recap

von Michael Schöttler

Kategorie(n): Konferenzen und Recaps Datum: 16. März 2016
Am 17.03.2016 startete die SMX München mit den beiden Haupttagen. Ich bin live vor Ort und berichte für euch im Ticker aus den von mir besuchten Slots. Das Programm ist hier einzusehen: http://smxmuenchen.de/muenchen2016/programm/

Tag 2 SMX München

Content Republishing mit Rand Fishkin und Marcus Tandler

smxtag2Google möchte nicht den größten Index, sondern den relevantesten Index. Daher kommt es nicht darauf an, wie viel Content man auf seiner Seite hat, sondern wie hochwertig dieser ist. Marcus weist auf die Wichtigkeit eines 100%ig korrekten Codes hin und sagt, dass vor allem eine sehr schnelle Ladegeschwindigkei wichtig ist. Speed ist einer der wichtigsten Faktoren! Um seinen alten Content zu verbessern sollte man seinen Content überprüfen. Was wird gefunden und hat Traffic, oder welcher Content verweist?  Wichtig sind auch der Titel und die Beschreibung, da Google die Klickrate in den Suchergebnissen mit ins Ranking einberechnet.  Es werden ein paar Beispiele gezeigt, wie sich richtiges Content Recycling positiv auswirkt. Auch der Hinweis auf holistischen Content war wieder vorhanden und sollte so langsam bei allen angekommen sein. Ein sehr schöner Vortrag! Jetzt spricht Rand Fishkin und startet gleich einen Test. Rand bittet darum Marcus Tandler, zu Googlen und auf das onpage.org Ergebnis zu klicken (Platz 6). Aber nur per Handy ohne Wlan. Hier möchte er wieder testen, wie die User Auswirkungen auf das Ranking haben. Edit: Nach nur einer Stunde war das Ergebnis auf Platz 2 aber nur mobil. Desktop hat sich nix verändert. Auch im SEO Bereich sollte man sich überlegen, ob man die Besucher nicht per Cookie bestückt, um sie wieder auf die Webseite zu führen. Auch Rand spricht davon, dass wiederkehrende Besucher einen positiven Einfluss auf das Ranking haben können. The Semi Regular Update Content der regelmäßig geupdatet wird. The Localization GEO Focus oder Content für ein Land. Wenn man ein Content für verschiedene Länder aufsetzt, könnte man damit auch ranken. Weiterhin sollte man Listen (ggf. Top Listen ) für Örtlichkeiten, Orte, usw. usw. mit bedenken. The Spawn of Big Content Content, der sich dazu eignet, als eigener Teil benutzt zu werden. Man kann also Teile aus einem Content herauslösen, um diesen selbstständig zu benutzen. Repuplishing Benutze deinen relevanten Content als Gastposts etc. auf anderen Webseiten (natürlich unique Content oder Canonical).

Was ist Marketing heute? Marty Weintraub

Marty gibt einen Überblick über die Geschichte der Suche in der Comedy Art. Das muss man sehen, das kann ich nicht beschreiben :) Anschließend geht es vor allem um die richtige Verwendung von Facebook in seiner Marketingstrategie. Nachfolgend geht er auf das Thema Remarketing ein und dass man den Kunden unabhängig der Plattform sehen sollte. Auch hat es nicht immer Sinn, ihn mit Produkten zu nerven, die er nicht gekauft hat. Ggf. neue vorstellen oder mit Angeboten das Interesse auf die eigenen Produkte lenken.

RankBrain Talking Runde

smx-2-panelRand, Joost, Tandler, Mike King, und Marcus Tober sprechen über RankBrain & Co. RankBrain bedeutet, dass die Suche lernt, was die Suchenden sehen wollen. So können die Ergebnisse entsprechend angepasst werden. Die Zeiten, in denen man sagen konnte, dass es eine Suchmaschinenoptimierungund diese Rankingfaktoren gibt, sind vorbei. Jede Suchanfrage hat ihre eigenen Regeln. Allgemeine Aussagen kann man nur übergreifend, aber nicht speziell mehr machen. Es ist nicht möglich, zu sagen, das brauchst du in der Anzahl, da jede Suchanfrage hier eine andere Spezifikation hat. Auch zum Thema Links wird sich unterhalten. Die Wertigkeit eines Links (follow) wird auch dadurch bestimmt, wie oft er angeklickt wird. Selbst Backlinks von starken Seiten bringen wenig, wenn keiner Interesse an diesem Link hat. Wenn die Besucher den Link nicht klicken, wieso sollte Google diesen hoch werten?

Crawl Budget Bastian Grimm und Philipp Klöckner

Crawling Ressourcen werden eingesetzt, weil es Google Geld kostet. Man schätzt etwa 10 Milliarden im Jahr. Daher ist das Crawlbudget begrenzt. Über die Search Console sollten Fehler eingesehen und behoben werden. Alle Seiten, die keinen Traffic / Umsatz generieren, können gelöscht werden. Klasse statt Masse! Lieber 100 Produkte anstatt 15, das spart Crawlbudget. Spart Pagnation ein. Philipp empfiehlt, sich Amazon anzuschauen als Googlebot. Amazon zeigt hier leicht veränderte Inhalte, ohne dass es Cloacking ist. Es spart aber Crawlbudget. Näher drauf eingegangen ist er aber nicht. Bastian übernimmt und spricht ebenfalls darüber, dass weniger gleich mehr ist. Noindex geht auch aufs Crawlbudget! Weiterleitungen zählen doppelt. Interne Verlinkungen überprüfen und Weiterleitungen dort rausnehmen. Stichpunkt Code-Hygiene! Server Logfiles anschauen und auswerten. Interne Suche auf Post umstellen anstatt GET. Google crawlt auch nicht HTML. Daher X-Robots-Tag als Indexierungsstatus nutzen.

John Muellers live Site Clinic

John MuellerAlle vorgestellten Webseiten waren international tätig und alle hatten mit dem Hreflang Tag Probleme. (Schaut Euch auch unsere Zusammenfassung mit John über Hreflang an) Wenn eine anderssprachige Description erscheint als die, die eigentlich erscheinen sollte, liegt vermutlich ein Hreflang Fehler vor. Die restlichen angesprochenen Dinge waren alles relativ einfache Fragen und eher im Bereich Basic einzuordnen, sodass ich diese nicht weiter aufführe. Dass wir keinen durch Google Translate übersetzen Text auf die Webseite packen sollten, ist euch sicher auch so klar. Für solche Fragen kann ich nur die Hangouts mit ihm empfehlen. Durch ein längeres Gespräch mit Marcus Tandler habe ich dann den nächsten Slot verpasst, was ich nicht schlimm finde, denn das Gespräch war es alle mal Wert. Schön zu sehen, dass auch hier ein Austausch neben den Sessions stattfinden kann. Nun geht es für mich dann aber schon zum Flughafen. Noch etwas essen und dann auch schon wieder zurück nach Berlin. Das Fazit zu beiden Tagen lest ihr unten.

Tag 1 der SMX

Obwohl sich Menschenmassen um den Einzug in die heiligen Halle bemühten, ging es dann doch relativ flott, bis ich mein Ticket hatte.

Keynote mit Rand Fishkin

smx randRand Fishkin erzählt seine Meinung zu Machine Learning und wie es eine neue Welt eröffnet. er gibt Tipps und Tricks zum Thema. Kernaussagen:
  • Selbst Google versteht ML noch nicht wirklich
  • Der Zurückbutton ist der Tod eines jeden SEO´s...
  • ...da die Bounce Rate mit zu den wichtigsten Ranking Faktoren zählt
  • Qualität vor Quantität
Insgesamt sehr unterhaltsam vorgetragen und schöne Auflistungen. Ändert sich aber wirklich so viel für uns? Arbeiten wir nicht jetzt schon qualitativ hochwertig und bereiten unsere Daten gleichermaßen für Webseitenbesucher und Suchmaschinen auf? Rand zeigt meiner Meinung nach auf, dass es wichtig ist, mit dem aktuellen Stand der Dinge und Technik zu gehen. Man sollte sich bei Umsetzungen nicht zu viel Zeit lassen und stets beachten, dass Dinge wie Technik, Onpage und Usability wichtiger sind als Backlinks.

Das Wie und Weshalb - SEO Experimente mit Marcus Tober und Mario Fischer

smx T2Die Auswertung von Daten obliegt uns, jeder sieht etwas anderes. Mario Fischer sagt, es gibt nicht den einen Algorithmus. Sehr wahrscheinlich gibt es mehrere, parallel laufende Rankings mit unterschiedlichen Berechnungen. Er zeigt weiterhin auf, dass es sehr schwer ist, bei Änderungen nachzuvollziehen, wieso sich etwas ändert. Dadurch, dass so viele verschiedene Einflüsse ein Ranking beeinflussen können, müssen Beobachtungen dies immer mit berücksichtigen. Mario führt einen Live Test durch und zeigt auf, dass der Mensch fast immer versucht, eine These zu bestätigen, statt Sie zu hinterfragen. Marcus übernimmt und weist auf searchmetrics.com/smx als Foliendownload hin. Als erstes zeigt er die Problematik bei einer Datenerhebung auf. Als Beispiel Goethe mit und ohne Wikipedia / Gesamtanzahl der Wörter. Mit Wiki 1800 ohne 1400. Also verwässert Wikipedia hier so stark die Daten, dass die Aussagen nicht übereinstimmen. Searchmetrics hat versucht, selbst herauszufinden, wie stark Wikipedia ist und dabei festgestellt, dass Wikipedia durch Machine Learning viel weniger gut ranken müsste. Dies deutet auf eine besondere Relevanz für Wikipedia hin. Daher muss man bei Analysen Wikipedia rausnehmen, da ansonsten die Werte verfälscht werden. Backlinks smsInteressant auch das Beispiel an den Links. So muss man sich anschauen, aus welchem Bereich eine Seite kommt, um auf die richtigen Zusammenhänge zu schließen. Im Beispiel rechts haben die vorderen Plätze bei den Themen Gesundheit und Finanzen weniger Links als die hinteren, im E-Commerce ist es umgekehrt. Auch bei den nachfolgenden Beispielen wird es immer deutlicher, dass man Themen Cluster bilden muss, um an die richtigen Werte zu kommen. Dies untermauert die These von Mario zu Beginn mit unterschiedlichen Algorithmen. Sehr toller Vortrag. Da freu ich mich auf die bald erscheinende neue Searchmetrics Studie zu den Rankingfaktoren 2016.

Site Architecture und Search Engine mit Jens Fauldrath und Stefan Fischerländer

Jens Fauldrath auf der SMX MünchenGoogle möchte, dass Nutzer finden, was sie suchen. Gute Einleitung Jens :) SEO Traffic muss konvertieren für positive Nutzersignale. Wenn etwas Scheiße ist, dann ist es Scheiße. Daher muss schon das Produkt / die Dienstleistung überzeugen. Wenn das der Fall ist, kommt es auf die Aufbereitung des Inhaltes an. Dazu gehört eine gute Webseitenarchitektur.Jens Fauldrath auf der SMX Ein Menü sollte so aufbereitet werden, dass es keine ablenkenden Links enthält. Vorsicht bei zu großen Menüs. Stichwort Siloing. Das Menü muss gut strukturiert sein.
  • Skimming
  • Scanning
  • Lesen
Nach diesem Aufbau geht der Leser vor. Die Seiten sollten daher auch keine Tabs enthalten. Alle Inhalte auf eine Seite. Entweder rein oder raus aber nicht in Tabs verstecken. Ratgeber sollten in jedem Shop vorhanden sein. Diese müssen gut strukturiert auf aufbereitet werden, ersetzen aber den Berater im Laden. Mann kann auch einen Ratgeber in die Produktlisten integrieren. Dies führt den Nutzer direkt zum Produkt und führt zu einer perfekten Beratung und einem tollen Nutzererlebnis. Stefan Fischerländer übernimmt. Seiner Meinung nach macht die Webseite 80 % aus ob eine Seite rankt (Onpage) und nur 20 % externe Signale.  Unnütze Seiten sollten vermieden werden.
  • fast leere Kategorien
  • Ergebnisseiten der internen Suche
  • Pagnierte Seiten
  • Produkt nicht lieferbar
  • Seiten mit sehr wenig Inhalt
Google belohnt Webseiten, die unnütze Seiten aus dem Index entfernen. Webseiten Herachien sind schwierig. Da irgendwann der Punkt kommt, dass einzelne Produkte in verschiedene Ebenen passen würde. Fassetennavigation eignen sich hier besser. (Beispiel idealo) Schlechte Navigation führt zu schlechter Usability. Weiterführende Artikel sollten die Gelegenheit geben, Nutzer auf der Domain zu halten. Am besten nach unten stellen, oder noch besser individuell testen. Auch auf das Thema mobil oder responsive wird eingegangen. Einen klaren Sieger gab es bei Stefans Testlauf nicht. Egal ob mobil oder responsive, auf jeden Fall aber eines von beiden (oder eben AMP ^^).

Marketing Automatisierung mit Dela Quist

smx keynote nr 2Von einem Mann der schon einmal zum Mond, wieder zúrück und auf dem halben Weg zum Mond geflogen ist (naja fast, jedenfalls sind das seine Flugmeilen) kommt die nachfolgende Keynote, gehalten auf englisch. Über 1800 (und damit mehr als doppelt so viele Tools wie 2014) stehen Unternehmen in den verschiedenen Kategorien zur Verfügung. smx omnichannelDoch wer kann richtiges Multi Channel Marketing nutzen bzw nutzt es? Eine Frage, die im Publikum ohne eine Meldung blieb. Aber ist Multi Channel das richtige? Ist Omnichannel nicht wesentlich besser? Beím Omnichannel steht der Nutzer im Fokus aller Kanäle. Die Betrachtung der einzelnen Kanäle und auch deren Auswertung ist im Multi Channel nicht mehr zeitgemäß. Der Kunde muss im Fokus aller Kanäle stehen und das im Einklang. Weiterhin geht er auf die Wichtigkeit der E-Mail ein. Er sagt, dass sie nie so wichtig war wie heute und stellt auch die Vorteile für das Marketing dar. Sehr viel Kommunikation läuft darüber ab und man muss sich entsprechend auch um diesen Kanal intensiv kümmern. E-Mail Marketing ermöglicht mehr Interaktionen als jeder anderer Channel. Seit 10 Minuten werden weiterhin die Vorteile der E-Mail im Marketing aufgezeigt und nun ist Schluss. Ein zu Beginn sehr toller Vortrag, der zum Schluss etwas zu viel E-Mail enthielt, aber super lehrreich war.

john mueller smxEin Relaunch der gelingt von John Mueller

John erklärt, wie man bei Fragen am besten vorgeht. Am wichtigsten ist, dass man vom Gleichen spricht. So verwenden die Personen für Seite verschiedene Konstrukte. Für einen ist es die Domain für den anderen eine einzelne Website. Ein Relaunch sollte protokolliert durchgeführt werden, um alles nachvollziehen zu können. John spricht davon, dass eine Umstellung auf https auch ein Relaunch ist. Achtung vergesst die Disavow Datei nicht, wenn sich die URL ändert! Welche Auswirkungen haben die verschiedenen Relaunch Arten?Aber welche Änderungen können eintreten? Dazu hat John eine Folie zusammengestellt. Wenn man ein Duplicate Content Problem hat, sollte man bei einem Relaunch die Webseite aufzuräumen und versuchen, URLs einzusparen. Schnelle Server bedeuten auch schnelleres Crawlen von Google! Wenn sich URLs ändern, muss man auch an interne Links denken und diese umstellen, nicht nur einfach 301. Auch Dinge wie Canonical, next/prev etc. etc. müssen bedacht werden, ebenso Images. Wenn man in Serach Console Daten vergleicht, sollte man Impressums nehmen um zu sehen, wie die Sichtbarkeit bei Google ist. Klicks können variieren, Impressums sind da nicht ganz so anfällig. Häufigste Probleme beim Relaunch: Geotargeting Webspam Probleme Redirects vergessen ggf. Google News vergessen Es folgte eine Fragerunde. Ist wie Webmaster Hangout nur live :) Zum Beispiel wann http2 kommt und ob man es schon nutzen kann. Http2 wird erst im Laufe des späteren Jahres von Google unterstützt, benötigt aber https. Es ist für Google kein Relaunch und kann auch schon vorher genutzt werden.

Kaspar Szymanski spricht über Linkabbau und die Vorteile daraus

Kasper Szymanski SMXKaspar ist als Ex-Google Mitarbeiter immer ein gern gesehener Gast auf diversen Konferenzen. So darf er natürlich auch nicht auf der SMX fehlen. Wie stelle ich fest das ich Probleme mit meinen Backlinks habe? Man sollte sich als erstes die Anchortexte ansehen. Sind da Moneykeywords oder unnatürlich aussehende zu finden, ist das schon schlecht. Je häufiger man aus der Search Console die Backlinks runterlädt, je häufiger werden Sie aktualisiert. Es sind aber nur Beispiele und nie ALLE Backlinks. Daher sollte man alle Quellen nutzen, um an seine Backlinks zu kommen - um sie bewerten zu können. Wenn die Artikel so aussehen als wären es Artikel aus Artikelverzeichnissen, also schlechte Qualität, dann schauen die Qualifyrater drüber. Auch ob Artikel geteilt werden oder eine Interaktion auslösen, fließt in die Bewertung einer manuellen Überprüfung mit ein. Links kaufen ist ok, wenn sie ein Nofollow Tag haben. Für Traffic ist es sogar sinnvoll (Stichwort Userdaten) Crawlbudget Management ist sehr wichtig und sollte strukturiert angegangen werden. Verschwendet kein Crawlbudget. Produkt und Branding ohne SEO und ohne gute Webseite funktioniert. Gute Webseite und gutes SEO aber schlechtes Produkt und kein Branding funktioniert nicht. Wichtig ist für Google also der Inhalt einer Webseite, das muss man auch beim Linkaufbau beachten. Ein einzelner Link, auch gekauft, ist nie ein Problem! Aber mehrere können einen auf das Radar der Überprüfung bringen. Hier werden vor allem o.g. gekaufte Links ohne Mehrwert angeprangert. Ganz wichtig ist es, themenfremde Links sein zu lassen. Erweitertes Umfeld ist kein Problem, aber nicht komplett themenfremd. Wenn man eine manuelle Abstrafung bekommen hat, erwartet Google schon, dass der Webmaster sich bemüht, diese wieder abzubauen - auch als Teil einer Abschreckung/Bestrafung. Von daher sollte man nie sofort nach einer Bestrafung den Antrag auf Überprüfung stellen, sondern es muss eine nachvollziehbare Zeit ins Land gehen, wo der Webmaster daran hätte arbeiten können. Dies ist bei dem Antrag dann auch so zu dokumentieren, also was gemacht worden ist. Mario Fischer schlägt vor (aus dem Publikum) wenn man Brandaufbau betreiben will, in einem Gastartikel gar keinen Link zu setzen, sondern nur den Brand, sodass die Leser den Begriff / Firmennamen bei Google eingeben. Dies stärkt den Brand. Google Suggest gibt Auskunft darüber, was die Besucher über einen denken / wonach Sie suchen. Das beachtet auch Google bei der Einstufung, ob eine Webseite ein Brand ist oder nicht.

Large Scale SEO -  Joost de Valk

Auch die Technik auf der SMX kann mal ausfallen, und das tat sie hier - die Folien kamen erst 15 Minuten vor Ende des Vortrages. Aber hier wurde sehr gut reagiert und der Veranstalter agierte als Moderator und machte einfach eine Bühnenunterhaltung zum Thema draus. Auch Joost versuchte, inhaltlich auf die Optimierung von großen Seiten einzugehen, was ihm ohne Folien dann doch etwas schwerer fiel. In so eine Situation will auch wirklich kein Speaker rein geraten. Hut ab, das habt ihr trotzdem gut gemacht. Folgende Kernaussagen wurden getroffen: Auch Joost geht auf das Crawlbudget ein, wie vorher schon Kaspar in seinem Slot. Gerade bei großen Seiten ein wichtiger aber oftmals nicht beachter Hebel. Du musst deine Systeme kennen und jemanden haben, der sich damit auskennt. Das beste SEO bringt nichts, wenn die Technik nicht stimmt. Du musst Analytics oder ähnliches nutzen um überhaupt optimieren zu können. Fehlende Daten wie Social Media sollten zusammengetragen und gemeinsam ausgewertet werden. Du solltest Fehler bemerken bevor Google sie dir in der Search Console mitteilt. Dazu gehört auch eine Log-Auswertung. Joost sagt sinngemäß: " Ihr seid doch alle Profis. Braucht ihr wirklich Google, die euch auf Eure Fehler aufmerksam machen?" Interne Suche auswerten. Auch um selber zu sehen, wo der Content liegt und für was er gefunden wird (intern). Natürlich auch für Anfragen der Besucher, um diese auszuwerten. Beachte deine interne Linkstruktur und URL-Aufbau. Fazit: Es ist die größte Konferenz mit den bekanntesten Speakern und nur hier sprechen Leute wie Rand Fishkin und Co. Dies hat einen besonderen Flair und ich fühlte mich oftmals mehr als Konzertteilnehmer denn als Konferenzteilnehmer. Inhaltlich waren alle Slots gut oder sehr gut. Aus jedem Slot kann man hier und da etwas mitnehmen und der Blick über den Teich ist auch gut - wenn man ihn richtig deuten kann. Wie immer auf Konferenzen machen die Gespräche mit den Teilnehmern viel aus. Sven, Uwe, Marcus, Jens und die vielen anderen längeren oder kürzeren Gespräche sind das Salz in der Suppe. Ich freue mich sehr auf das nächste Jahr und muss sagen, als Vollblut SEO muss man einfach auch mal auf der SMX gewesen sein.

Weitere SMX Recaps:

http://eminded.de/magazin/smx-muenchen-recap-wohin-geht-die-seo-reise-in-2016/ http://www.seo-profi-berlin.de/seo/blog/smx-muenchen.php