JavaScript & CSS

von Michael Schöttler

Kategorie(n): FAQ der Webmaster Hangouts Datum: 18. November 2016
 

Kernaussagen:

  1. Google kann mittlerweile fast alle Dinge aus dem Bereich JavaScript und CSS crawlen, rendern und auch verstehen und darstellen.
  2. Es ist jedoch extrem wichtig, keine zentralen Ressourcen zu blockieren oder vom Crawling auszuschließen.
  3. AJAX wird von Google nicht mehr offiziell unterstützt, funktioniert vorübergehend aber noch problemlos.

25.08.2017, 35:06

Frage: Meine neue Seite basiert auf JavaScript und ich habe schon vor 10 Tagen eine Sitemap eingereicht aber es wurde noch nichts indexiert. Was kann ich da tun? Antwort: Grundsätzlich können wir JavaScript crawlen und indexieren, wir rendern sie praktisch wie ein normaler Browser. In der Developer Documentation haben wir ein paar Guides zu dem Thema veröffentlicht, die solltest du dir mal anschauen, um herauszufinden, ob alles funktioniert. Wenn nichts funktioniert, ist vielleicht etwas grundsätzlicheres kaputt, da müsstet ihr dann mal in Search Console schauen. Dabei können euch dann auch die Nutzer im Hilfeforum helfen.

24.08.2017, 20:00

Frage: Wie gut kommt der Crawler zurecht, wenn die gesamte Seite mittels Javascript aufgebaut wird? Antwort: Meistens relativ gut, es kann aber auch schwierig werden. Das kannst du mal auf der Developer Seite nachlesen. Wir empfehlen, dass ihr Feature Detection verwendet, damit alles in den Browsern dargestellt wird.

11.08.2017, 29:38

Frage: Crawlt und indexiert ihr Inhalte hinter toggle JavaScript Tabs? Antwort: Aktuell zählen versteckte Inhalte etwas weniger, das ändert sich aber mit dem Mobile First Index.

01.06.2017, 23:24

Frage: Bei uns ist eine Frage aufgetaucht zu Isomorphic JavaScript im Zusammenhang mit React. Dabei lädt ja nicht immer die ganze Seite neu, wenn man innerhalb der Webseite navigiert. Dadurch wird ein sehr guter Page Speed erzielt. Unsere Frage ist, ob dies für die Google-Crawler ein Problem darstellt oder ob etwas spezielles berücksichtigt werden sollte? Antwort: Wir sehen das als eine sehr gute Variante. Ihr müsst aber normale A-Links verwenden und saubere URLs nutzen.

05.05.2017, 50:51

Frage: Wie kann man eine Seite mit viel JavaScript (z.B. Lazy Load Bilder und Beschreibungen für Galerien) SEO-freundlich halten? Antwort: Da ist manchmal schwer. Wir können JavaScript meistens so verarbeiten, dass wir alle Inhalte sehen können. Googlebot ist mittlerweile ein Browser und kann fast alles so sehen wie ein normaler Browser. Aber bei Lazy Load sehen wir Dinge z.B. nicht, wenn man für das Laden eine Aktion durchführen muss.

04.05.2017, 40:22

Frage: Wir generieren für die Pagespeed Optimierung Critical CSS Regeln und schreiben diese in den Head der Seite. Leider haben wir mit manchen Google Fonts Probleme. Die Google Font CSS Regeln laden Schriften als True Type Font ( ttf ). Beim Internetexplorer kommt dann ein Fehler, dass die Schrift nicht als installable gilt. Antwort: Wenn du mir da Beispiele schicken kannst, reiche ich die an das Team weiter.

04.05.2017, 35:55

Frage: Wie schnell müssen Inhalte per CSS Transition eingeblendet werden, um inxediert werden zu können? Wir möchten den Aufbau der Inhalte auf Landingpages animieren. Texte und Bilder sollen sich nacheinander per Fade in oder Slide einblenden. Gibt es das eine zeitliche Grenze für die Indexierung? Antwort: Da gibt es eigentlich keine fixe Zeit. Es hängt davon ab, wie schnell die Seite und die Elemente geladen werden können. Vielleicht haben wir ja auch Teile davon schon gecached. Das ist also oft ganz anders als das, was man dann im Browser sieht. Ihr könnt aber Fetch as Google nutzen. Wenn sie da sichtbar sind, dann sehen wir sie auf jeden Fall für die Indexierung.

10.03.2017, 56:33

Frage: Ist es ok, Angular JS für die Boiler Plate zu nutzen und den Client den Rest rendern zu lassen? Antwort: Das kann man definitiv machen. Wenn es bei Fetch an Render alles richtig angezeigt wird, dann funktioniert es auch. Da ist es dann egal, was genau ihr dahinter benutzt. Passt aber auf, dass Angular manchmal schwer zu De-Buggen ist. Mit manchen Tools geht das aber auch mittlerweile.

09.03.2017, 06:32

Frage: Gibt es SEO technische Nachteile wenn man von jQuery auf React JS umstellen möchte? Hat Google Schwierigkeiten beim Crawl von Single-Page-Applications (SPAs)? Antwort: Ich weiß nicht, was man da alles genau umstellt. Das sind zwei Frameworks und wenn man umstellt können sich vielleicht auch Dinge ändern. SPA müssen wir rendern, wenn das geht, dann sollte das ok sein. Wichtig ist aber auch, das viele SEO Tools mit solchen Seiten nicht immer umgehen können.

23.02.2017, 20:22

Frage: Ich habe einige Fragen bzgl. der verschiedenen Render Optionen bei Angular JS Webseiten durch Google: Gibt es neben dem Einsatz von ReactJS noch weitere Optionen – welche “Wunschkonfiguration” hat Google? Kannst Du mir sagen, welchen Timeout der Bot für das Rendern einer URL hat? 6, 12, 30 sec.? Antwort: Schwer zu sagen. Das Team sagt, wir sollten alles verstehen können. In der Praxis sehe ich aber oft Probleme bei lokalen Dingen, wenn die Seiten nur per Rendering sichtbar sind. Unsere Empfehlung ist, dass die Seiten für alle Nutzer gerendert ausgegeben werden. Dann wird die erste Seite ausgespielt und die anderen Seiten laden dann per JavaScript nach, wenn der Nutzer sich weiter bewegt. Dann würden Bots immer die normale HTML Version sehen, Nutzer sehen auch die vorgerenderte Version und können den Rest per JS sehen. Bezüglich Timeout geben wir nichts explizit an. Das kann sich immer mal wieder ändern und dreht sich auch um das Nachladen. Und bei unserem Rendering können wir viele Dinge auch aus dem Cache holen, bei uns geht es also oft schneller als bei normalen Nutzern. Testet das am besten mit Fetch and Render.

10.02.2017, 03:30

Frage: Wir haben eine Angular Seite. Habe mir dein Video angeschaut und Experten haben sie sich schon mal angeschaut: Wir haben komische Dinge in den SERPs, wo die Dinge, die angezeigt werden, nicht mit unseren Inhalten übereinstimmen. Laut Fetch as Google scheint es aber zu funktionieren. Wie können wir das aufräumen. Antwort: Ich bin mir nicht ganz sicher, was da passiert. Ich denke, dass wir das HTML sehen und nutzen, und die Inhalte die wir danach finden passen dazu nicht. Wichtig ist dabei, dass das Rendering und das Fetchen nicht zu gleichen Zeit passiert. Wenn also Dinge in einer Session gleich bleiben oder sich ändern, dann können wir das vielleicht nicht mehr sehen. Und Dinge wie Cookies oder ähnliche Sachen außerhalb der URL würden wir dann auch verlieren. Eingebettete Inhalte müssen also klar durch die URL zu erkennen sein, damit wir das sehen und verarbeiten können. Wenn ihr schon etwas geändert habt, dann funktioniert es vielleicht auch schon. Da kannst du eine Seitenabfrage für die letzten 24 Stunden machen. Wenn da alles passt, dann dauert es nur noch etwas, bis alles stimmt. Da hilft dann auch eine Sitemap. Und wenn das auch nicht schnell genug geht, könnt ihr den Googlebot Ingenieuren schreiben, damit sie die Crawlrate erhöhen.

09.02.2017, 40:29

Frage: Wird eine Veränderung des Titels mittels JavaScript, zum Beispiel bei einer SinglePageApplication, von Crawlern ermittelt und in die Suche mit eingebunden? Es wäre nicht von Vorteil, wenn bei der Suche nach einem Betrieb der geänderte Titel angezeigt würde. Antwort: Bei einer SPA habt ihr ja eine Seite die angepasst wird. Wenn wir das crawlen, führen wir JavaScript aus – dann sehen wir die veränderten Dinge. Dann nehmen wir jeweils die aktuellen Dinge, wie sie auch im Browser dargestellt werden.Wichtig ist aber, dass ihr saubere URLs verwendet. Also keine Fragment-URLs.

26.01.2017, 13:45

Frage: Wenn ich eine Onepage Webseite mit HTML und JavaScript habe und ich die Inhalte per AJAX nachlade, dabei werden Fragments, also “#“ im Menü verwendet und in der URL steht dann hintendran auch jeweils ein “#“ mit dem Namen des Inhaltes, ist das für Google ein Problem beim indexieren und gibt es hier Nachteile? Antwort: Ja, das ist unter Umständen problematisch. In der Regel indexieren wir ohne das Fragment. Wenn damit also Inhalte nachgeladen werden, die sonst nicht da sind, dann nutzen wir sie vielleicht nicht für die Indexierung. HTML5 mit History API wäre hier vielleicht eine gute Alternative, um das zu beheben.

24.01.2017, 22:36

Frage: Unser Shop ist zu 100% Client Side Rendering JavaScript. Die Agentur sagt, dass Google damit umgehen kann. Es ist ein kleiner Shop, aber trotzdem wurde er seit Wochen nicht indexiert. Kann Google damit umgehen? Antwort: Ich hab das nochmal geprüft. Ich habe gesehen, dass wir nicht wissen, was wir mit der URL machen sollen. Denn sie wurde nur einmal mit dem Tool gesendet wurde. Sie springt also in den Index und dann wieder raus. Nutzt also mal Fetch and Render, um zu sehen, ob das funktionieren würde. Ich denke, wahrscheinlich sollte es gehen. Nutzt also eure Testseite, um sie ganz normal in den Index zu kriegen. Wir würden es auch nicht Crawlen, wenn wir die Homepage nicht indexieren.

06.12.2016, 14:24

Frage: Sind Single Page Apps schlecht für SEO? JavaScript kann nicht gecrawlt werden, oder? Antwort: Beides ist nicht mehr der Fall, und das auch schon seit einiger Zeit nicht mehr. Wir können fast alles im JavaScript so sehen wie ein Browser. Es gibt aber für beide klare Regeln, die solltet ihr einhalten.

01.12.2016, 19:35

Frage: Werden JavaScript Links wie folgender gecrawlt und regulär verarbeitet onclick=”javascript:window.location.href = ‘/test.html'” Antwort: Ja und nein. Wir versuchen, festzustellen ob da irgendwelche Teile im JavaScript dabei sind, die so ähnlich aussehen wie URLs. Und dann nehmen wir an, dass es sich dabei um Links zu diese URLs handelt. In einem Fall wie bei dir ist das relativ einfach für uns. Oft gibt es aber komplizierte Dinge dahinter, sodass wir es nicht direkt im Quellcode sehen. Dann finden wir die Links vielleicht nicht. Bindet die Links also immer normal als Element und mit href ein. Da könnt ihr auch ein Nofollow angeben, wenn ihr wollt. Schwerer wird es dann, wenn da Onclick Events dabei sind, vor allem wenn diese nicht auf den ersten Blick sichtbar sind.

29.11.2016, 12:54

Frage: Mehr und mehr Seiten nutzen Angular JS. Da es keine standardisierte Einpflege gibt: Wie können wir Kunden überzeugen, dass das, was wir bauen, auch von den Suchmaschinen problemlos gecrawlt werden kann? Antwort: Ich habe im Oktober ein Video für Angular Connect, das könnt ihr euch mal anschauen. Wir haben auch vor Kurzem einen Blogpost für PWA gemacht, wo es um ähnliche Probleme geht. An sich sollte es bei Angular keine Probleme geben.

20.10.2016, 19:58

Frage: Wie geht Google aktuell mit dynamischen Seiten um? Muss man diese sicherheitshalber vorher noch Prerendern? Wir habe einen Prototypen (dynamisch) gebaut und stellen fest, dass der Bot die Inhalte lesen und verarbeiten kann – Indexierungsstatus liegt aber dennoch nur bei 40%. Was uns weiter verunsichert ist das Renderverhalten in der GSC – hier hat der Bot offensichtlich noch Probleme und stellt unterschiedliche Ansichten zur Verfügung. Antwort: Ja, das kann sein. Vor einem Monat habe ich bei einer Angular Konferenz gesprochen, wo es auch um diese Themen ging. Das werde ich euch hier mal verlinken. Prerendern ist auch immer eine Möglichkeit, das sollte dann aber für alle und nicht nur für den Googlebot gemacht werden. Das ist oft aber auch schwierig, und nicht alle Tools lassen sich dann 1:1 wie auf HTML Seiten nutzen.

22.09.2016, 27:19

Frage: Macht die Verlegung von css, js Dateien in eine Subdomain wegen dem gleichzeitigen Download noch Sinn? Antwort: Manchmal ja, manchmal weniger. Bei Https und http2 bringt das weniger Vorteile. Das wäre aber eh nur auf der Benutzerseite wichtig, weniger für uns. Auch auch da nur, wenn es total viele eingebettete Inhalte sind.

20.09.2016, 46:55

Frage: Unter welchen Umständen sind die chache:copy einer Seite und die Text-Only Seite komplett unterschiedlich? Alle cache-copy Seiten sehen aktuell aus wie 404er, während die Text-Only Seiten den richtigen Inhalt haben. Antwort: Das hört sich problematisch an. Ich kann nicht genau sagen,was da passiert, aber es könnte am JavaScript liegen. Vielleicht haben wir Probleme damit, eure Seite richtig zu rendern. Das ist auch eine Sache für die Hilfeforen. Die Leute dort helfen dabei, die Fehlerquellen einzugrenzen.

09.09.2016, 1:03:30

Frage: Wie geht Google mit Pushstate bei endlosem Scrollen in Ajax um? Antwort: Wir haben eine Beispielseite, die ihr euch anschauen könnt. Da seht ihr alles, was in dem Zusammenhang funktioniert. Am besten sind beiderseitige Links und Pagination, damit wir es crawlen können.

09.09.2016, 41:54

Frage: Ist es ein guter Weg, den Title und die Description oder das Canonical mit JavaScript/TagManager zu ändern, wenn man keinen Zugriff auf den Quellcode hat? Antwort: Das ist nichts wirklich gutes, man kann es aber machen. Wir schauen uns an, was in der finalen gerenderten Version ist.

08.09.2016, 41:05

Frage: Haben (Browser-Ressourcen-hungrige) JavaScript-Websites auch tendenziell eine schlechtere Crawling-Rate? Oder hat Google “unlimited” Rechenpower auf Client-Seite? Antwort: Unlimitiert sicher nicht, aber wir haben schon viele Rechner und können viel über das Rendern rausholen. Wir rendern momentan fast jede Seite, die wir crawlen, damit wir z.B. bei JavaScript nichts verpassen. Viele eingebettete Inhalte auf einer Seite können einen Einfluss auf das Crawlen und Rendern haben und zu einem Timeout führen, das ist aber die Ausnahme. Das geht den Nutzern dann aber auch so und ihr solltet das optimieren, um ihnen eine schnellere Seite zu bieten. Webpagetest.org ist hier ein gutes Tool.

06.09.2016, 33:07

Frage: Wir sind eine Content Authoring Platform. Die Erstellung passiert in vielen Formaten und wird dann von den Erstellern auf ihren Seiten eingebunden. Viele verlieren nun SEO-Punkte, weil die Inhalte nur eingebettet sind. Können wir da etwas tun? Wir wollen, dass sie ihre Inhalte perfekt nutzen können. Außerdem werden Inhalte in Schritten per Angular erstellt. Vieles davon wird nicht indexiert. Antwort: Sie sollen die Inhalte also so nutzen können, als würden sie zu ihrer Seite gehören? Wir versuchen, Iframes zu rendern und in Betracht zu ziehen. Wenn man genau diese Inhalte sucht, wird man sie also finden. Es gibt aber keinen einfachen Weg, um das als volle Inhalte zu sehen. Es könnte funktionieren, die Inhalte per JavaScript einzubetten. Ich weiß aber nicht, ob das viel ändern wird. Das müsstet ihr testen. Angular sollten wir in den meisten Fällen erkennen können. Im März oder April habe ich bei Google+ gepostet, was man da beachten muss. In Fetch als Google könnt ihr testen, was Googlebot da genau sieht.

12.08.2016, 43:39

Frage: Crawlt Googlebot die Inhalte, die in einem JavaScript Tag genutzt werden? Antwort: Wenn wir das JavaScript crawlen können, dann werden wir es crawlen. Indexieren ist aber nicht so einfach. Wenn wir es nutzen können, dann vielleicht. Wenn es im gerednerten Zustand nicht erscheint, dann werden wir es eher nicht nutzen.

11.08.2016, 28:55

Frage: Client- vs. Serverseitiges Rendern: Kann ich meine Webseite rein clientseitig rendern und erkennt der GoogleBot trotzdem alle Inhalte korrekt und vollständig? Werden wirklich alle Seiten immer gerendert oder nur ein Teil der Seiten? Antwort: Gute Frage. Gerade die neuen JavaScript Frameworks geben die Möglichkeit, das JavaScript auszuliefern oder es von einem Dienst vorrendern zu lassen. Wenn man es einrichten kann, dass der erste Besuch die gerednerte Version sieht, ist das perfekt. Dann sehen Suchmaschinen und Nutzer immer die gerenderte Version. Das geht serverseitig, das ist isomorphes rendern. Wir versuchen auch immer, die Seite so wie im Browser darzustellen. Probiert das immer auch im Abruf wie durch Google aus. Dann sehr ihr, ob es funktioniert.

11.08.2016, 10:45

Frage: Wir benennen oft die CSS und JavaScript Dateien so um, damit nicht der alte Stand genutzt wird. Ist das ein Problem, weil sich dann auf jeder Seite der Quellcode ändert? Die alten funktionieren aber weiterhin. Antwort: Da sollte es von der alten Version eine Weiterleitung auf die neue Version geben. Das macht uns das Crawlen und rendern einfacher. Wenn die alten Daten noch funktionieren und einfach die neuen ausgeben, dann ist das auch ok.

29.07.2016, 51:46

Frage: Kann es passieren, dass Google Algorithmen wie Panda AdSense Matched Content JavaScript als weitere Anzeigeneinheit erkennen? Ich habe 3 AdSense und zwei Matched Content Einheiten, ist das zu viel? Antwort: Grundsätzlich crawlen wir die Inhalte von Werbeeinheiten nicht. Ob es zu viel ist oder nicht ist eine Sache zwischen dir und deinen Nutzern.

28.07.2016, 50:58

Frage: Eine Website, die komplett mit angularJS umgesetzt wurde (metaangaben & body) – hat die irgendwelche Rankingnachteile? Antwort: Grundsätzlich kann man das so machen. Es muss aber mit sauberen URL-Strukturen sein, da es das crawlen und redern schwerer macht. Es ist eine schöne Technologie, aber es ist neu und komplex.

17.06.2016, 48:00

Frage: Früher hattest du Escaped Fragments für Javascript-Seiten empfohlen. Allerdings ist diese Formatierung seit einigen Monaten veraltet. Sollen wir für eine deutlich auf Javascript aufbauende Webseite noch immer Escaped Fragment URLs einbauen? Antwort: Ich würde nicht empfehlen Escaped Fragments zu verwenden. Mit diesem Format ist die Webseite nicht für jede Suche zugänglich. Vielmehr empfehle ich die History API bei normal gestalteten URLs.

16.06.2016, 24:12

Frage: Eine AJAX-Seite verwendet folgendes URL-Schema Beispiel: example.com/#category&id=shopping. Google crawlt aber die Unterseiten nicht. Bei “Abruf wie durch Google” erscheint immer nur die Startseite. Google soll doch inzwischen AJAX können? Was tun? Antwort: Webseiten, die nur mit dem #-Zeichen arbeiten, betrachten wir im Regelfall nicht als eigenständige Webseiten. Wir crawlen nur die Hauptseite und nicht die ganzen Unterseiten. Ich empfehle, bei der Erstellung einer neuen Webseite nur mit der URL-Struktur zu arbeiten. Alternativ ist es möglich, für diese Seiten die Escape-Fragment-Version aufzusetzen, wenn ihr die AJAX-Version mit dem Hash Bing verwendet. Nach Möglichkeit ist es besser, mit sauberen URLs zu arbeiten.

16.06.2016, 13:23

Frage: Wir haben ein Webmagazin als Single Page Application mit Angular umgesetzt. Wir haben für die Artikel folgendes Schema gewählt http://goo.gl/TBdNH2. Früher waren die Artikel alle im Index, jetzt erkennt Google nur noch die Startseite. Warum ging es früher? Antwort: Ihr verwendet sogenannte Hash Bing URLS. In diesen Fällen crawlen wir jedoch jeweils die Escape-Fragment-Version und versuchen, diese zu indexieren. Wir erwarten, dass die Escape-Fragment-Version genauso wie die Javascript-Version abgebildet wird. In diesem Fall erkenne ich, dass wir nur eine leere HTML-Seite erhalten, auf der das Javascript-Framework aufbaut. Demzufolge denken wir, dass ihr alles Wichtige auf der HTML-Seite zusammengefasst habt. Doch das ist vermutlich nicht eure Intention. Ich empfehle, bei Angular „HTML 5“-Versionen zu verwenden. Dann erscheinen URLs wie klassische statische URLs. Dann können wir die URLs wie Javascript-URLs aufrufen und indexieren. Also entweder setzt ihr die Escape-Fragment-Version sauber um oder wechselt auf eine andere URL. Treten bei euch derartige Probleme auf, dann postet eure Fragen ruhig im Hilfe-Forum oder nehmt Kontakt mit mir auf.

14.06.2016, 31:57

Frage: Wir haben eine Drittseite für unsere Bewertungen, die wir per Widget einbauen das zur Drittseite verlinkt. Wie sollten wir das am besten machen, um auch die SEO Vorteile durch die Bewertungen zu erhalten? Antwort: Grundsätzlich können wir solche JavaScript Dinge erkennen und in den Suchergebnissen darstellen können. Ihr könntet mit Wörtern aus den Bewertungen eine site query durchführen. Wenn diese dann auftauchen, können wir sie auch erkennen.

14.06.2016, 00:48

Frage: Kann Google mittlerweile alle JavaScript Dinge, die man im Fetch and Render Toolin Search Console sieht, auch wirklich verarbeiten? Antwort: Wenn man es in diesem Tool sieht, dann können wir es auch sehen und nutzen. Wir können es aber vielleicht nicht immer zu 100% verstehen, wenn wir z.B. den Text nicht rausziehen können. Ihr könnt das mit einer site query testen.

03.06.2016, 51:28

Frage: Was ist die beste Vorgehensweise, um eine Seite mit einem Age Verification Disclaimer komplett crawlen und indexieren zu lassen? Ich habe einen Post gesehen, dass man JavaScript nutzen kann, weil das nur teilweise Cloaking ist. Im Moment sieht Google auch nur die Altersabfrage. Antwort: Das ist sehr schwer. Da habe ich im Moment keine guten Tipps. Wir arbeiten aber daran, hier eine sinnvolle Hilfe bzw. Guidelines für Webmaster zu erstellen. Du kannst mir gerne Beispiele schicken und mir sagen, was du Google in solchen Fällen raten würdest. Die gecachete Seite sollte kein JavaScript ausführen.

02.06.2016, 28:22

Frage: Hallo John, unser Kategoriebaum besteht aus einem JavaScript Akkordeon Menü, könnte das für Google Probleme geben? Gibt es heutzutage da überhaupt noch Nachteile? Für die Nutzer ist es in jedem Fall eine Erleichterung und spart Ladezeit bei der Suche. Danke Antwort: JavaScript können wir sehen. Ich würde aber aufpassen, dass das Nachladen normal funktioniert. Denn wir müssen die einzelnen Links sehen können. Laden sie erst nach einem Klick, dann können wir sie nicht sehen.

19.05.2016, 34:04

Frage: Ich habe ein Problem mit der Home von unserer Website www.12Gebrauchtwagen.de. Meine Vermutung ist, dass die Links auf Automarken nicht erreichbar sind, sobald man mit einem Plugin JavaScript deaktiviert. Könnte Google das als negativ ansehen? Antwort: Weiß ich nicht. Da müsste ich mir die Seite mal genauer anschauen. Wenn die Links hinter JavaScript sind, dann müssen wir sie natürlich erkennen können – und dass, ohne dass man eine Aktion auf der Seite ausführt. Denn das tut Googlebot nicht.

19.05.2016, 08:21

Frage: Hallo Johannes, als SEO muss ich immer öfter AJAX-Seiten analysieren. Leider gibt es dazu meines wissens noch kein passendes Tool wie beispielsweise Screaming Frog, das mit solchen Seiten klarkäme. Kennst Du ein passendes Werkzeug? Antwort: Ich habe da auch kein Zaubermittel. Gerade AJAX ist in einem Stadium, wo es sehr schwierig ist, die Seiten sauber zu testen. Ich würde aber immer mit sauberen URLs ohne #! arbeiten, damit man sie besser testen kann. Testet ansonsten vielleicht mit einem Headless Browser.

17.05.2016, 47:03

Frage: Wir haben am Ende vieler Seiten, weit unter dem sichtbaren Bereich, ein Werbepanel. Diese sind AJAX, um Ladezeit zu sparen. Die AJAX Url ist in einer robots.txt, um dem Crawler Zeit zu sparen. Google kann also die Werbepanel nicht sehen. Kann man dies ignorieren, obwohl es eine blockierte Ressource mit mittlerer Wichtigkeit ist? Antwort: Die Schwere bezieht sich auf das Mobile Testing Tool. Wenn ihr es nicht indexiert haben wollt, dann lasst es so. Für Werbung zu