Deutsches Google Webmaster Hangout Transkript, 16.12.2016

von Oliver Engelbrecht

Kategorie(n): Google Webmaster Hangouts Datum: 4. Januar 2017

Thema: Fetch as Google

Zeit: 00:53 Frage: Was bedeutet es, wenn Fetch as Google nicht den ganzen Code eines HTML erkennen kann? Mein HTML hat 1239 Zeilen aber Fetch as Google zeigt nur 568 an. Antwort: In dem Tool gibt es ein Limit im Hinblick auf das, was zurückgegeben wird. Das basiert nicht auf Zeilen, sondern auf der Größe der Seite. Das Limit ist aber ziemlich hoch. Das sind einige hundert Kilobytes HTML. Ich denke also, dass die HTML Seiten bei euch einfach zu komplex sind. Da seht ihr dann wahrscheinlich keine Probleme in der Suche, aber es macht eure Seite langsam.  

Thema: Crawling

Zeit: 02:25 Frage: Wir haben 8 verschiedene Magazine in einem CMS. In letzter Zeit indexiert Google Artikel von einem Magazin unter der Domain eines anderen Magazins. Wir haben schon alles neu gecrawlt und auch die Server Logs angesehen. Aber wo kann man sehen, wo Googlebot diese URLs herholt?? Antwort: Wir haben viele Mechanismen, um Duplikate zu erkennen. Einer davon ist vielleicht bei euch aktiv und die entsprechenden Seiten sehen für uns gleich aus. Vielleicht habt ihr überall die gleiche URL-Struktur und gleiche Inhalte. Stellt also sicher, dass alle URLs eigenständige Inhalte haben.  

Thema: Überschriften

Zeit: 04:31 Frage: Die beste Struktur für Überschriften ist H1>H2>H3. Muss man sie auch im Quellcode schon so strukturieren, oder können sie da auch in einer anderen Reihenfolge stehen, solange sie in der korrekten Reihenfolge gerendert werden? Antwort: Für uns sind Überschriften für die Inhalte wichtig. Wir achten aber nicht so sehr auf die Reihenfolge der Überschriftstypen. Wir gruppieren einfach die Inhalte unter den jeweiligen Überschriften zusammen. Die Reihenfolge hängt von euch ab, wir wollen nur die Struktur verstehen. Euer Ranking wird sich nicht ändern, wenn ihr die Überschriften hin und her schiebt.  

Thema: Search Console

Zeit: 05:49 Frage: In Search Console müssen wir ja alle Variationen unserer Seite angeben. Braucht man das wirklich? Denn bei vielen Subdomains wird das ja schnell unübersichtlich. Antwort: Wenn ihr sicher seid, dass ihr auf einer Variante keinerlei Daten habt, dann braucht ihr das nicht unbedingt. Es ist für uns aber wichtig, damit wir euch Nachrichten schicken können, falls wir Probleme bei euch entdecken. Wenn ihr das aber nicht braucht, braucht ihr das eher nicht. Links sehen wir immer zwischen zwei Canonicals, wenn ihr eine Weiterleitung habt, sollte auch da alles passen.  

Thema: Bilder

Zeit: 09:05 Frage: Jedes Bild, das ich nutze, ist vorhanden. Aber die Bilderseite hat keine Inhalte. Die Hauptseiten leiten weiter. Sollte ich lieber eine Platzhalter Seite haben? Antwort: Das kannst du so lassen.  

Thema: Rankingfaktoren

Zeit: 10:01 Frage: Wie würdest du eine Seite zu einem informativen Thema so erstellen, dass sie für alle angrenzenden Suchanfragen auf Platz 1 rankt? Worauf würdest du dich im Hinblick auf die Inhalte und die Nutzerperspektive konzentrieren? Antwort: Das hört sich nach dem an, was jeder erreichen möchte. Daher könnte das irgendwie schwierig werden. Da gibt es keine Tricks. Baut einfach eine hochwertige Seite zu einem Thema, von dem ihr Ahnung habt. Technisch sollte alles funktionieren, wenn ihr ein bekanntes CMS nutzt.  

Thema: Ausgehende Links

Zeit: 11:33 Frage: Macht der Umstand, dass ich auf eine Drittseite verlinke, die zum selben Thema höher rankt als ich, meine Seite besser oder schlechter für dieses Thema? Antwort: Für Google ändert das nicht viel. Ausgehende Links machen deine Seite nicht automatisch gut. Wenn es den Nutzern aber etwas bringt, dann kann das eure Seite für den Nutzer sinnvoller machen.  

Thema: Google Updates

Zeit: 12:26 Frage: Hat Google einen Freshness Algorithmus? Muss ich also meine Inhalte alle paar Monate updaten, um einen Ranking Bosst zu erhalten? Antwort: Nein, das haben wir nicht und das müsst ihr nicht. Wenn ihr Updates habt, dann nutzt sie. Aber wenn es nichts neues gibt, dann braucht ihr auch nicht künstlich etwas zu updaten.  

Thema: Content

Zeit: 12:55 Frage: Meine Seiten ändern sich immer mal wieder, es geht um Tools, die dann neue Funktionen oder neue Versionen herausbringen. Manchmal sind die Änderungen sehr klein. Ist es ein Problem, wenn die Änderungen nur marginal sind? Antwort: Ich würde einfach die Inhalte aktualisieren, das sollten wir dann sehen. Uns ist egal, ob die Inhaltsänderungen groß oder klein sind. Ihr braucht da nichts extra zu machen.  

Thema: Https

Zeit: 14:11 Frage: Ich habe mich beim Umzug auf Https voll auf euer Tutorial verlassen. Damals gab es den Hinweis, dass man einzelne Teile der Seite nacheinander umziehen kann, um sicherzustellen, dass alles ok ist. Dann habe ich aber bei Barry einen Artikel gelesen, der sagte, dass bei kleinen Seiten ein Umzug von allem auf einmal wohl besser wäre. Ich habe etwa 23.000 Seiten in der Sitemap, was wäre hier am besten? Antwort: Am wichtigsten ist, sicherzustellen, dass die Https Version funktioniert. Das könnt ihr mit einem schrittweisen Umzug tun. Wenn ihr aber sicher seid, dass es funktioniert, dann macht es auf einmal. Wenn wir den Umzug sehen, werden wir etwas schneller crawlen, um die Änderungen so schnell wie möglich zu sehen. Wenn es eingebettete Inhalte gibt, die ihr übersehen habt und die dann nicht Https sind, dann sehen wir die und werden die entsprechende URL dann eher nicht als Canonical aussuchen - sondern auf der http Variante bleiben. In der Suche sollte sich aber im Endeffekt nicht viel ändern. Ich empfehle immer, dass ihr beide Varianten ohne Weiterleitung parallel laufen lassen solltet. Dann könnt ihr prüfen, ob alles funktioniert. Da gibt es einen Http Header für.  

Thema: Backlinks

Zeit: 19:22 Frage: Ein bekannter hat eine Seite, an der früher ein Blog auf einer Subdomain dranhing. Den hat er irgendwann gelöscht. Jetzt habe ich aber ein paar Backlinks zu der Subdomain gefunden und habe die wieder bei Search Console hinzugefügt. Und nun habe ich dort 15.000 Backlinks gefunden. Die Inhalte sind aber leider alle gelöscht. Ich würde jetzt gerne die passenden Links auf die neue Website weiterleiten, macht das Sinn? Denn es ist ja schon Jahre her, dass die Zielseiten gelöscht wurden. Antwort: Wenn es hier um Jahre geht, die vergangen sind, dann denke ich mal, dass das nichts mehr ändern würde. Da kommst du dann einfach zu spät. Es würde aber natürlich nicht schaden. Vor allem, wenn du in den Logs siehst, dass noch Menschen auf die Links klicken. Dann solltest du dich auf diese Links konzentrieren und sie passend weiterleiten, um diese Nutzer einzusammeln.  

Thema: Internationale Websites

Zeit: 23:39 Frage: Wir haben eine englische News Website und wollen unsere Inhalte auch an Menschen bringen, die Hindi verstehen. Sollen wir die dafür passenden Inhalte auf einer Subdomain oder in einer Unterkategorie zur Verfügung stellen? Antwort: Beides funktioniert. Für Sprachen brauchen wir keine Struktur, das geht also auch mit URL Parametern oder ähnlichem. Ihr braucht nur eine separate URL.  

Thema: Rankingfaktoren

Zeit: 24:53 Frage: Trackt ihr, wie viele Nutzer ihr von einer Seite zu Google schickt und nutzt das dann für Algorithmen? Wenn ihr z.B. eine Zahl an Nutzern schickt, erwartet ihr dann gewisse Signale - und wenn das nicht passt, ändert ihr das Ranking? Antwort: Die Frage sehen wir immer wieder. Wir haben kein Limit an Nutzern, die wir an eine Seite schicken. Wir wissen nicht, wie viele Nutzer nach einem Thema suchen. Und wir wollen alle, die nach einem Thema suchen, zum besten Ergebnis schicken. Künstliche Zahlen würden da also keinen Sinn ergeben.  

Thema: Penguin

Zeit: 25:53 Frage: Kann Penguin einen Einfluss auf ein spezielles Keyword haben? Beispiel: Nach einem Jahr hat meine Seite das Ranking für ein spezielles Keyword verloren. Es ist in sieben Tagen von Platz 3 auf Platz 100 gefallen. Für andere Longtails sind die Rankings aber noch da. Antwort: Ich denke, dass sollte nicht Penguin sein. Penguin versucht nicht, Keywords und deren Ranking zu erkennen. Er neutralisiert nur Webspam. Es ist aber schwer zu sagen, woran so ein Abfall bei einem Keyword liegen kann, da wir viele Qualitätsalgorithmen haben.  

Thema: SERPs

Zeit: 27:13 Frage: Wenn ein Nutzer eine allgemeine Suchanfrage gestellt hat und dann auf meiner Seite das findet, was er gesucht hat, kann das dann zu einer Navigational Query für meine Seite werden? Antwort: Navigational Queries sind nicht so einfach, wie es hier dargestellt wird. Als SEO würde ich mich darum gar nicht erst kümmern.  

Thema: Analytics

Zeit: 28:07 Frage: Ein Nutzer klickt auf mein Ergebnis (rankt auf 1) und findet was er sucht. Könnt ihr das sehen und feststellen, dass meine Seite das relevanteste Ergebnis auf einer hochwertigen Seite bietet? Antwort: Das würden wir nicht auf Seitenbasis machen.  

Thema: AdWords

Zeit: 28:40 Frage: Warum erlaubt Google Shopping mehrere Listings für eine Seite durch mehrere Marktplätze? Antwort: Ich kenne mich mit Google Shopping gar nicht aus. Schaut mal lieber in deren Forum nach.  

Thema: Seitenstruktur

Zeit: 29:23 Frage: Wenn eine Domain Nachfolger hat (zum Beispiel eine Filmseite): Kann die Autorität der vorherigen Seite das Ranking der neuen Seite beeinflussen? Leiden zum Beispiel die Rankings, wenn sich die meisten Links mit dem Originalfilm beschäftigen? Antwort: Ich sehe manchmal, dass wiederkehrende Events auf derselben URL auf der Vergangenheit aufbauen. Das bringt also eher Vorteile. Habt ihr einzelne URLs, z.B. mit den Jahrenzahlen, dann müssen diese jedes Mal wieder von alleine ranken. Da kann es dann passieren, dass jemand, der einfach nach dem Namen (ohne das Jahr) sucht, auf einer vergangenen Ausgabe landet. Ich würde also immer empfehlen, auf den letzten Jahren aufzubauen. Die Links können da in deinem Szenario eigentlich zu keinen Problemen führen.  

Thema: SERPs

Zeit: 31:37 Frage: In den Rich Cards nutzt Google Daten von unserer Seite, verlinkt aber eine andere Seite. Mit wem können wir uns über dieses Problem unterhalten? Antwort: Vielleicht könnt ihr mir das mal auf Google+ zuschicken. Ich melde mich dann bei euch.  

Thema: Crawling

Zeit: 32:19 Frage: Nochmal wegen den Magazinen auf dem gleichen CMS: Wie können wir Referrer in den Server Logs finden, um diese falschen Links ausfindig zu machen? Antwort: Ihr würdet das nicht in den Server Logs sondern in der 404 Fehler Sektion von Search Console finden. Da gibt es den Tab "Link from" und da seht ihr die Quelle.  

Thema: Backlinks

Zeit: 32:47 Frage: Ist ein Follow Link von einer Seite, die viel Traffic aus Suchmaschinen erhält, stärker als ein Follow Link von einer Seite, die keinen Traffic aus Suchmaschinen enthält? Antwort: Nein, nicht unbedingt. Nur weil eine Traffic bekommt und die andere nicht muss sie ja nicht zwangsläufig besser sein.  

Thema: Internationale Websites

Zeit: 33:06 Frage: Wir haben eine JavaScript Bibliothek die das DOM parsed und die Seite übersetzt, z.B. von Englisch zu Französisch. Bei Fetch as Google scheint die Seite übersetzt zu sein und erscheint auf Französisch, in den Suchergebnissen erscheint sie aber immer noch auf Englisch. Gibt es einen Unterschied zwischen Fetch as Google und der eigentlichen Indexierung, wenn man JavaScript benutzt? Was kann ich tun? Antwort: Verbessern könnt ihr das denke ich am besten im Rendered View in Fetch as Google. Ich denke man, das es zwei Probleme geben könnte. Wenn wir eine Seite zuerst indexieren, fokussieren wir uns erst auf das HTML und erst im zweiten Schritt rendern wir die Seite. Diese ist dann im ersten Schritt vielleicht nicht übersetzt. Gebt dem Ganzen etwas Zeit um zu schauen, ob das sich von selbst ändert. Wenn das aber so bleibt, dann solltet ihr ein paar Beispiele mit URLs und Suchanfragen in den Hilfeforen posten. Wenn beides auf einer URL steht, dann zeigen wir vielleicht auch weiterhin die englische Variante, wenn man explizit danach sucht. Bei allgemeineren Anfragen könnte dann aber die übersetzte Version erscheinen.  

Thema: Https

Zeit: 35:31 Frage: Ich muss eine große Seite mit mehr als 200.000 Seiten auf Https umziehen. Die Seite hat aktuell beide Versionen im Index. Wäre es eine gute Strategie, erst Canonicals einzurichten und die Weiterleitungen erst einzubauen, nachdem Google alle Canonicals erkannt hat? Antwort: Das funktioniert auch. Auf lange Sicht solltest du aber Weiterleitungen und auch HSTS einrichten, damit Nutzer automatisch bei Https landen. Für den Übergang passt deine Strategie aber.  

Thema: Ranking

Zeit: 36:24 Frage: Eine persönliche Seite rankt sehr gut für die meisten Keywords. Sie rankt aber nicht wirklich für den Namen der Person selbst und erscheint sogar hinter einem komplett leeren Twitter Account der Person. Wie kann so etwas passieren? Es gibt keine Abstrafungen oder so. Kann es Spam sein, weil der Domainname der Name der Person selbst ist? Der Name wird auf der Seite auch nicht so oft genannt. Antwort: Ich weiß es nicht. Es scheint so, als wäre etwas auf der Seite nicht optimal und wir könnten es nicht erkennen. Ich würde das Ganze in den Hilfeforen posten und mal schauen, was den Leuten so auffällt. Wenn der Name nicht auf der Seite genannt wird, dann würde ich da aber ansetzen und das ändern. Nicht künstlich, aber vielleicht etwas wie Copyright by XY oder ein Author Tag. Ohne Namensnennung ist es schwer, für den Namen zu ranken.  

Thema: Interstitials

Zeit: 39:41 Frage: Ab Januar gibt es den Penalty für mobile Interstitials. Es gibt aber Ausnahmen für rechtliche Interstitials wie Cookies. Meine Seite schließt jedes Wochenende für den Sabbath. Wird das eine Abstrafung nach sich ziehen? Antwort: Ich empfehle in solchen Fällen einen 503 Http Result Code zurückzugeben, der uns sagt, dass eure Seite vorübergehend nicht erreichbar ist. Nutzer können weiterhin die Seite mit dem Interstitial sehen. Suchmaschinen sehen dann, dass das aber nicht indexiert werden soll. Ihr könnt im Header auch angeben, nach wie vielen Stunden wir erneut nachschauen sollen. Andernfalls würden wir denke ich das Interstitial an Stelle eurer eigentlichen Inhalte indexieren. Wir würden aber solche religiösen Interstitials genauso behandeln wie rechtliche Interstitials.  

Thema: Interstitials

Zeit: 42:16 Frage: Wir haben ein Interstitial mit einem identischen Inhalt ersetzt, der aber in die Seite im sichtbaren Bereich eingebaut ist. Wenn der Nutzer also runterscrollt, sieht er die Inhalte, ohne etwas wegklicken zu müssen. Ist das ok? Antwort: Das würden wir denke ich trotzdem als Interstitial erkennen. Denn für den Nutzer macht das ja keinen Unterschied. Wir wollen Nutzer vor der Situation beschützen, dass sie auf einer Seite landen und die versprochenen Inhalte erst auf Umwegen zu sehen bekommen. Ok wäre es zum Beispiel, wenn das Interstitial nach der First Click Free Regel lädt. Wenn der Nutzer also nach seiner Ankunft alle Inhalte sehen kann und erst nach einem Klick seinerseits das Interstitial erhält.  

Thema: Canonical

Zeit: 44:39 Frage: Wie kann eine Seite, die Autoteile verkauft, detaillierte Infos zu Produkten mit mehreren Variationen in die Suchergebnisse bekommen? Nutzt man das Canonical für die beliebteste Version, werden die anderen ja verloren. Antwort: Ja, so ist das beim Canonical, denn dort klappen wir sie zusammen. Ihr könnt die Canonical Seite um eine Liste mit allen Varianten ergänzen. Dann wird alles gefunden.  

Thema: Sitemaps

Zeit: 45:31 Frage: Warum wird es im Indexierungsstatus nicht klar, welche URLs außer denen in der Sitemap indexiert wurden? Antwort: In Search Console geben wir Infos zur Anzahl der URLs in einer Sitemap, die indexiert wurden - aber nicht, wie viele. Da müsst ihr euch nicht drum kümmern, wir indexieren nie alle URLs und da müsst ihr nichts machen. Wenn euch eine Seite wichtig ist, dann sollte sie indexiert werden. Und das solltet ihr schnell sehen, denn diese Seiten sollten den Traffic erhalten.  

Thema: Manuelle Abstrafungen

Zeit: 46:22 Frage: In meiner Nische werden alle manuellen Abstrafungen entfernt, ich habe seit dem 23. September keine mehr gesehen. Passiert das noch nach dem neuen Penguin? Antwort: Ja, natürlich passiert das noch. Das Webspam Team ist auch bei unnatürlichen Links weiterhin manuell aktiv.  

Thema: Hreflang

Zeit: 46:52 Frage: In welcher XML Sitemap Zeile werden die Hreflang Fehler generiert? Antwort: Ich glaube nicht, dass wir da bestimmte Zeilenangaben haben. Das gibt es nut bei Rechtschreib- und Synatxfehlern.  

Thema: Canonical

Zeit: 47:32 Frage: Was muss man bei Cross-Domain Canonicals beachten, zum Beispiel bei identischen Produkten auf mehreren Verkaufsseiten? Antwort: Ihr könnt das in solchen Fällen ganz normal nutzen, das ist gar kein Problem.  

Thema: Search Console

Zeit: 47:57 Frage: Wir haben vor zwei Monaten eine E-Commerce Seite gelauncht. Laut Search Console ranken wir für einen Suchbegriff auf Position 16, unsere Seite wird aber nirgendwo angezeigt. Selbst bei der Seitenabfrage taucht meine Seite nicht auf. Antwort: Diese Ranmkings basieren auf Rankings die gezeigt wurden. Das kann aber auch Personalisierung beinhalten und muss nicht allgemeingültig sein. Wichtiger sind dann die Impressionen in Search Console.  

Thema: Content

Zeit: 53:29 Frage: Ich habe für eine Seite für die ich einen Report zu Deceptive Content erhalten habe, ich habe es aber als Fehlalarm klassifiziert und dann war es schnell wieder weg. Bei einem Bekannten hat der Blog auch eine Warnung erhalten, ich finde auf seiner Seite aber nichts außer AdSense. Wie können wir jetzt herausfinden, um welche Inhalte es in der Warnung geht? Könnte Search Console nicht einen Screenshot oder so zeigen? Antwort: Ein Screenshot könnte helfen. Ich bin mir nicht ganz sicher, aber es könnte sich um problematische Download Buttons handeln. Wenn die Links dahinter z.B. auf andere Seiten verweisen oder wenn man durch den Download z.B. auch ein Tool mit 5 Toolbars herunterlädt. Es kann auch sein, dass ihr Werbeanzeigen habt, die wie Browserfenster aussehen. Da solltet ihr euch nochmal den Blogpost des Security Teams anschauen, denn vielleicht verwechsele ich auch etwas. Denn es ist immer problematisch, wenn es z.B. durch ein Ad Network kommt, denn dann seht ihr es vielleicht gar nicht.  

Thema: Search Console

Zeit: 58:10 Frage: 1. Meine Agentur hat mir gesagt, dass ich jeden Monat 10 Links in Fetch as Google einreichen kann. Aber anstatt des OK Buttons sehe ich aktuell einen gelben Redirect Button. Was kann ich da tun? 2. Ich hatte ein Livechat Widget auf meiner Seite, musste es aber wegen einer Warnung zu blockierten Ressourcen entfernen. Kann ich nun keine solcher Widgets mehr nutzen, ohne diese Warnung zu erhalten? 3. Meine Seite ist zweisprachig, muss ich nachschauen ob die Agentur die Sitemap für beide Sprachen eingereicht hat? Antwort: 1. Ihr müsst Fetch as Google nicht nutzen, um eure existierenden Seiten einzureichen. Wir finden sie meistens automatisch und indexieren sie dann. Wenn ihr etwas geändert habt und das schnell gesehen werden muss, dann könnt ihr das nutzen - aber regelmäßiges Einreichen macht keinen Sinn. Der redirect Button hört sich so an, als hättet ihr einen Redirect eingebaut. Das ist ok, wenn es seitenintern bei euch ist, sollte aber nicht zu anderen Websites zeigen. 2. Ich denke, dass ihr in einem solchen Fall die Warnung ignorieren könnt. Blockierte Ressourcen sind nur wichtig, wenn ihr für den dahinter stehenden Inhalt ranken wollt. Und das sollte bei dem Widget ja nicht der Fall sein. 3. Ich denke nicht, das sollten wir automatisch erkennen können. Wichtig ist, dass die einzelnen Sprachen unterschiedliche URLs haben. Eine Sitemap hilft vielleicht, aber es geht auch ohne.  

Thema: Tags

Zeit: 1:01:55 Frage: Eine Seite bietet eine Liste mit Anbietern, die durch eine Suchbox erreicht wurde. Das ist nicht so gut für Google, daher habe ich zusätzlich statische Links für die Anbieter vorgeschlagen. In manchen Städten kann die Liste der Anbieter sehr lang werden. Ab wann sollte man Pagination nutzen? Diese Listen sind nur für Suchmaschinen, Nutzer nutzen weiterhin die Suchbox. Die Nutzerfreundlichkeit ist also egal. Antwort: Dann weiß ich es nicht. Ich glaube nicht, dass wir da ein festgelegtes Limit oder so haben. Haltet es einfach auf einem normalen Level, vielleicht ein paar Tausend pro Seite. Vielleicht könnt ihr auch noch eine hierarchische Struktur einbauen, um es übersichtlicher zu machen. Wichtig wäre auch, dass die Seiten sinnvolle und hilfreiche Inhalte haben. Ein Noindex kann bei den Eintragungen so lange Sinn machen, bis die Anbieterprofile ausgefüllt wurden. Dann werden nur wirklich gute Inhalte indexiert. Ansonsten würde es denke ich keine manuelle Abstrafung geben - aber die Algorithmen würden eure Seite eher nicht als qualitativ hochwertig einstufen.  

Thema: Indexierung

Zeit: 1:06:56 Frage: Jemand hat eine Domain gekauft und dann gemerkt, dass sie nicht in Google indexiert ist. Sie war in der Lumendatabase und hatte schon einen DMCA Fall gegen sich. Da wird dann eine Reconsideration request nicht funktionieren, oder? Was sollen wir tun? Antwort: Bei DMCA könnt ihr einen Counter Claim starten. Das geht in deren Hilfecenter.  

Thema: Disavow

Zeit: 1:07:30 Frage: Wir haben gemerkt, dass es seit dem Update im September schneller geht, Kunden per Disavow zu stärken. Wäre es möglich, in Search Console bei den Backlinks direkt die Liste mit den entfernten Seiten zu sehen? Kann Google da eine Tabelle bieten? Antwort: Nein, das gibt es nicht. In der Übersicht gibt es auch Nofollow Links, die ja genauso nichts weitergeben wie disavowte Links. Ladet euch die Links vielleicht runter und kreiert da eure eigenen Tabellen.  

Thema: Bewertungen

Zeit: 1:09:10 Frage: Wir haben einige Bewertungen auf Drittseiten. Aber die können wir ja nicht aggregiert nutzen. Aber wie können wir aus denen einen Vorteil im Hinblick auf strukturierte Daten ziehen? Antwort: Da haben wir gerade einen Hangout zu gehalten, schaut euch den nochmal an. Das Problem ist oft, dass Bewertungen für die Firma nicht auf allen Unterseiten wiederholt werden sollten. Denn sie gehören ja zur Firma, nicht zu einzelnen Produkten.  

Den ganzen Hangout könnt ihr euch hier ansehen: