Sicherheit: Hacking, Spam und negative SEO

von Michael Schöttler

Kategorie(n): Themenseiten Datum: 1. Juni 2016
 

03.05.2016: Webspam Report: Mehr Hacks und 4 Millionen manuelle Maßnahmen

Google hat seinen jährlichen Webspam Report für das vergangene Jahr veröffentlicht. Dieser bietet zahlreiche interessante Daten und Fakten darüber, wie Google im abgelaufenen Jahr gegen die Verbreitung von Webspam gekämpft hat. Wir haben die wichtigsten Details für euch zusammengefasst.

Mehr gehackte Seiten

Im vergangenen Jahr wurden weitaus mehr Seiten gehackt als noch 2014 – insgesamt war ein Anstieg von mehr als 180% zu verzeichnen. Leider nennt Google keine grundlegenden Zahlen, aber man kann daraus sicher ableiten, dass Hacking immer noch eines der zentralen Probleme für Webmaster darstellt. Es ist daher empfehlenswert, sich ausführlich mit der Sicherung der eigenen Seite zu beschäftigen. Dieses Thema muss es einfach wert sein, dass ein Webmaster Ressourcen darin investiert. Denn ein hack schadet nicht nur den Nutzern der Seite, sondern vor allem auch dem Betreiber selbst. Google hat entsprechend viele Maßnahmen ergriffen, um Webmastern auf diesem Gebiet zu helfen. So gibt es seit dem letzten Jahr einen Algorithmus, der sich nur mit SPam beschäftigt, der aus Hacks resultiert. Zudem gibt es die laufende Kampagne #NoHacked, die sich mit der Sicherung von Websites beschäftigt.

4,3 Millionen manuelle Abstrafungen

Zudem hat Google im vergangenen Jahr mehr als 4,3 Millionen manuelle Abstrafungen ausgesprochen. Diese zielen vor allem auf spammige Seiten ab, von denen es laut Google auch immer mehr gibt – eine Feststellung, die nur die wenigsten unserer Leser überraschen dürfte. Webmaster können sich nur durch eine Reconsideration Request aus diesen Maßnahmen befreien. Da es immer mehr manuelle Abstrafungen gibt, erhält Google also auch immer mehr solcher Requests. Und im letzten Jahr gab es einen Abstieg von mehr als einem Drittel im Hinblick auf Seiten, die diesen Prozess erfolgreich abgeschlossen haben. Zudem erhält Google beim Kampf gegen den Spam viel Hilfe von seinen Nutzern. So wurden im Jahr 2015 mehr als 400.000 Spam Reports an den Suchmaschinenbetreiber gesendet. 65% davon wurden von Google ausführlich bearbeitet, wobei bei 80% von diesen Spam gefunden wurde. Google ist also weiter auf diese Art der Hilfe angewiesen.

12.04.2016: Google verhängt Penalties für ausgehende Links

Google hat am Wochenende massenhafte manuelle Abstrafungen an Websites ausgesprochen, die ein unnatürliches Profil bei ausgehenden Links aufweisen. Wer von diesem Penalty betroffen ist, kann in Search Console eine Meldung lesen, die sehr detaillierte Anweisungen gibt.

UPDATE 13.04.2016: Es geht um Produkt-Bewertungen

Es hat sich nun herausgestellt, warum vor allem Blogger von dieser aktuellen Abstrafung betroffen sind. Denn Google hat damit die Webmaster angegriffen, die Bewertungen schreiben und diese mit Follow-Links versehen – und dafür eine Gegenleistung erhalten haben. Hierbei kann es sich zum Beispiel um kostenlose Produktproben, Rabatte oder ähnliches handeln. Und erst vor wenigen Wochen hatte Google eindringlich darauf hingewiesen, was in solchen Fällen die Best Practice ist: Nofollow-Links und ein Hinweis auf die dahinter stehende Geschäftsbeziehung. Nun hat Google also ernst gemacht und die Blogger bestraft, die sich nicht an diese Vorgaben gehalten haben. Dies bestätigt John Mueller in mehreren Threads im Google Webmaster Hilfe Forum. Der Tenor dort ist, das bestraft wurde, wer ein Produkt oder eine Leistung erhalten hat und im Gegenzug Follow-Links verteilt hat. abstrafung

Nicht alle Links auf Nofollow setzen

Um sich aus dieser Abstrafung zu befreien, ist es laut John allerdings nicht nötig – und auch nicht ratsam – sämtliche ausgehenden Links der eigenen Seite auf Nofollow zu setzen. Vielmehr sollte man sich die Zeit nehmen und schauen, welche Links wirklich in die oben genannte Kategorie fallen – und diese dann auf Nofollow umstellen. Nichtsdestotrotz sollte man, wenn man schon dabei ist, einmal das gesamte Linkprofil durchleuchten. Denn der Hauptansatz dieser Abstrafung sind zwar bezahlte Reviews – um sicher zu gehen, dass die Reconsideration Request aber auch wirklich erfolgreich ist, sollte das Linkprofil bei der Abgabe einwandfrei sein.

Die Meldung in Search Console

“Google hat auf Ihrer Seite ein Muster von ausgehenden Links erkannt, das entweder unnatürlich oder irrelevant ist. Dieses Muster ist dazu gedacht, das Ranking von anderen Seiten in den Google Suchergebnissen künstlich zu verbessern. Ein solch unnatürliches Ranking kann dazu führen, dass Ergebnisse, die für die Suchanfrage des Nutzers nicht relevant sind, bevorzugt angezeigt werden. Es verstößt darüber hinaus gegen die Google Webmaster Richtlinien. Daher verringern wir das Vertrauen in die Links auf Ihrer Seite. Diese manuelle Abstrafung wurde auf die Website XYZ angewendet. Um dies zu beheben müssen Sie alle unnatürlichen Links entfernen und eine Reconsideration Request abgeben. Nachdem wir feststellen, dass sie sich wieder an unsere Richtlinien halten, werden wir diese manuelle Abstrafung aufheben.” manual action links

Spammige Links als Problem

Es wurden also Seiten abgestraft, bei denen man Links einkaufen kann – bzw. die auf die eine oder andere Art unnatürliche Links ausgeben. Die betroffenen Seiten haben nicht unbedingt Rankings verloren, sind für Google aber nicht mehr vertrauenswürdig und geben daher keinen PageRank mehr weiter. Es scheint sich dabei größtenteils um Blogs zu handeln. Es ist also davon auszugehen, dass sie über kurz oder lang wegen dieser Vertrauensprobleme auch an Rankings einbüßen könnten. Diese Seiten, und es gibt viele, die diese Abstrafung erhalten haben, müssen nun drei Schritte unternehmen, um sich aus dem Penalty zu befreien:
  1. Unnatürliche Links identifizieren
  2. Diese abbauen oder auf Nofollow stellen
  3. Eine Reconsideration Request abgeben

16.03.2016: Wann werden Reconsideration Requests bearbeitet?

Wer nach einer manuellen Abstrafung eine Reconsideration Request einreicht, fragt sich meistens, wann diese denn nun endlich bearbeitet wird. Denn verständlicherweise kann es dann meist nicht schnell genug gehen. Auf der Search Marketing Expo West hat sich Juan Felipe Rincón von Google nun zu diesem Thema geäußert. Und das Vorgehen auf Google-Seite ist erstaunlich einfach: Die Requests werden chronologisch bearbeitet. Wer zuerst kommt, wird also zuerst behandelt. Dies heißt aber nicht, dass Webmaster ihre Requests schon einreichen sollten, bevor ihre Aufräumarbeiten abgeschlossen sind. Denn da niemand weiß, wann er dran ist, würde Google dann vielleicht eine noch immer unsaubere Seite sehen und die Request ablehnen. Es bleibt also dabei: Sobald eine Seite wirklich aufgeräumt ist, sollte eine Reconsideration Request eingereicht werden. Diese sollte übersichtlich gegliedert und in derselben Sprache wie die Website verfasst sein. So kann man dafür sorgen, dass die Bearbeitung so schnell wie möglich geht.

15.03.2016: Google zu Best Practices, manuellen Abstrafungen und separaten Inhalten

Was werbende Blogger beachten müssen?

Oft ist es so, dass Blogger über ein Produkt schreiben. In vielen dieser Fälle haben sie dann ein kostenloses Probeexemplar erhalten oder wurden anderweitig bemustert. Wie sollen sie sich dann bei der Bewertung verhalten? Für Google liegt der Fall – im Sinne der Nutzer – klar. Webmaster, die kostenlose Exemplare eines Produktes erhalten haben, sollten dies in ihrem Artikel deutlich zur Sprache bringen. Denn nur so kann man ausschließen, eventuell in einen Gewissenskonflikt zu geraten. Darüber hinaus empfiehlt Google, zu den Produkten wirklich einzigartige Inhalte zu erstellen, um dem Nutzer einen Mehrwert zu bieten. Und Links zu den entsprechenden Unternehmens-oder Produktseiten sollten selbstverständlich immer mit dem NoFollow Tag versehen sein.

Geheime Manual Actions?

Viele Webmaster fragen sich immer wieder, ob ihre Seite eine manuelle Abstrafung erhalten hat. Die Frage ist dann: Werden wirkliche alle Manual Actions transparent in Search Console kommuniziert – oder gibt es auch geheime Varianten? Juan Felipe Rincón vom Manual Actions Team bei Google hat sich dieser Frage ausführlich gewidmet und sämtliche Spekulationen in diese Richtung ein für alle Mal in das Reich der Fabeln verwiesen. Auf der SMX West hat er deutlich gesagt: “Es finden keine manuellen Abstrafungen ohne Benachrichtigung statt.” Erhält ein Webmaster nach einem starken Abfall also keine Benachrichtigung, dann handelt es sich um algorithmische Probleme.

09.02.2016: Spammige Markups

Bei Seiten, die Kochrezepte beinhalten, kann der Webmaster ein entsprechendes Markup einstellen. Und wer dies nicht per Hand machen möchte, kann auf eines der zahlreichen WordPress Plugins zurückgreifen. Das Problem ist, dass viele der Plugins das Markup zu jeder Unterseite hinzufügen - auch wenn auf diesen gar keine Rezepte stehen. Solche Markups werden jedoch von Google als Spam gesehen und daher mit einer manuellen Abstrafung belegt. Webmaster mit entsprechenden Plugins sollten also ganz genau kontrollieren, was dort von Statten geht. Denn

04.02.2016: Schädliche Downloads

Google will dabei helfen, zu verhindern, dass Nutzer auf betrügerische Download Buttons hereinfallen. Denn hinter solchen verstecken sich zumeist wenig vertrauenswürdige Seiten, die schädliche Software verteilen. Google versucht daher, den Nutzer durch einen Warnhinweis aufzuklären, wenn ein Link ihn glauben machen will, dass er seine Daten eingeben muss oder durch das Klicken etwas von einer vertrauenswürdigen Marke erhält. Es steht zu hoffen, dass dieses Vorgen schon kurzfristig von Erfolg gekrönt sein wird. download

02.02.2016: Spam Report Bestätigung

Wer einen Spam Report an Google versendet hat, konnte bisher nie ganz sicher sein, dass dieser auch angekommen ist. Doch ab sofort versendet Google eine Bestätigungsnachricht, um den Eingang der Beschwerde zu quittieren. Diese weist auch darauf hin, dass Google die eingegangenen Reports im Hinblick auf ihren Einfluss auf die Suchergebnisse prioritisiert. Dinge, die bei wichtigen Keywords auftreten oder große Probleme verursachen, werden also sinnvollerweise bevorzugt abgehandelt. spam report

04.01.2016: Cloaking in der Sitemap

Von Google wird das Cloaking (also das Bereitstellen unterschiedlicher Inhalte für Nutzer und Crawler) als eine ablehnenswerte Technik angesehen, deren Verwendung zu empfindlichen Abstrafungen führen kann. Doch bei Sitemaps gelten andere Regeln. John Mueller hat bestätigt, dass hier das Cloaking sogar explizit erlaubt ist. Denn die Sitemap ist nur für Crawler und Suchmaschinen gedacht. Wer nun also bestimmte Crawler verbannen möchte, kann diesen andere Dinge zeigen als den offiziellen Crawlern von Google, Bing, Yandex und Co. – zum Beispiel eine not Allowed Seite, die diese Crawler ausschließt.

09.12.2015: Google’s neue Reconsideration Request

Es ist eine E-Mail, auf die zahllose Webmaster sehnsüchtig warten: Die Antwort von Google auf ein Reconsideration Request, nachdem eine Website eine manuelle Abstrafung erhalten hat. Wenn man nach einer solchen Abstrafung alle ersichtlichen Probleme behoben hat, bittet man Google, sich die Seite noch einmal anzuschauen. Und wenn alles gut gelaufen ist, meldet sich Google und sagt Bescheid, dass die Manual Action beendet ist.

Neuer E-Mailtext

Nun hat Google den Text, mit dem die Beendigung der manuellen Abstrafungen kundgetan wird, einem Update unterzogen. Marie Haynes zeigt bei Twitter, wie er jetzt aussieht:

reconsideration

Nun heißt es also: “Gute Neuigkeiten! Deine Reconsideration Request wurde angenommen und Google hat alle manuellen Abstrafungen von deiner Seite entfernt. Denk daran, dass die Entfernung einer manuellen Abstrafung nicht garantiert, dass sich die Rankings deiner Seite verbessern werden.”

Eine für alle

Damit hat Google nun eine Vorlage, die für alle möglichen Reconsideration Requests verwendet werden kann – dies dürfte den Arbeitsablauf etwas vereinfachen, da keine individuellen Texte genutzt werden müssen. Zudem ist es sinnvoll, dass Google darauf hinweist, dass die Rankings der betroffenen Seite nicht unbedingt steigen werden. Dies wird von Webmastern oft erwartet – sie vergessen dabei jedoch, dass unter Umständen die entfernten spammigen Elemente für die vormals guten Rankings verantwortlich waren.

Nicht erfolgreiche Requests

Auch für nicht erfolgreiche Requests gibt es einen neuen E-Mailtext. Einen solchen hat Robert Meinke (zum Thema spammige Links, die zu seiner Seite führen) erhalten und bei Twitter geteilt: reconsideration II Kurzgefasst sagt dieser Text: Es gibt immer noch ein Schema an zweifelhaften Links. Daher wird Google beim Kalkulieren des Rankings Links als Faktor weiterhin degradieren. Wenn diese Links entfernt wurden, soll ein neuer Reconsideration Request gesendet werden – Google behält sich vor, die manuelle Abstrafung dann zu beenden. Im Gegensatz zum Text für den erfolgreichen Request ist dieser nicht so einfach verständlich. Es scheint so, als würden nicht alle vorhandenen Links abgewertet werden, sondern nur ein Teil. Daher kann man nicht sagen, ob die Abstrafung die ganze Seite betrifft, oder vielleicht nur eigene Unterseiten.

03.12.2015: Noch mehr zu Abstrafungen für Subdomains

Immer wieder verteilt Google manuelle Abstrafungen für Verstöße gegen die Webmaster Richtlinien. Doch auf welche Teile einer Website beziehen sich diese Abstrafungen genau? John Mueller hat hierzu einige Einblicke gegeben.

Abstrafungen gelten nur für Subdomains

Denn ein Webmaster wollte nun wissen, ob eine solche manuelle Abstrafung für eine Subdomain sich auf die ganze Seite bezieht oder nur auf die spezielle Subdomain. Wird also bei einer Manual Action für eine Subdomain die ganze Website in Mitleidenschaft gezogen? Laut John Mueller ist es in diesen Fällen so, dass die Abstrafung nur für die Subdomain gilt – der Rest der Website bleibt davon unberührt. Gute Nachrichten also für die Betreiber von betroffenen Seiten. manual subdomain

Wie läuft es bei www / non-www?

Eine interessante Nachfrage zu diesem Thema kam dann von den Kollegen von SEO-Südwest. Denn wie verhält es sich mit www-Subdomains? Lassen auch Abstrafungen in solchen Fällen die Hauptdomain unberührt? Laut John ist dies nicht der Fall. Denn www und non-www sind für Google immer das Gleiche. Entsprechend gilt auch eine manuelle Maßnahme für eine von ihnen direkt für beide. Ein Sonderfall, den Webmaster auf jeden Fall im Kopf haben sollten. www - non-www

24.11.2015: Kampf gegen täuschende Netzwerke

Google hat vor Kurzem angekündigt, irreführende mobile Weiterleitungen mit manuellen Abstrafungen zu belegen – egal, ob die Weiterleitung bewusst oder unbewusst geschieht. Nun hat Andrey Lipattsev in einem Hangout die entsprechenden Pläne konkretisiert. Google will dabei mit aller Schärfe gegen irreführende Affiliate-Netzwerke vorgehen. Hier hat man es vor allem auf Netzwerke abgesehen, die den Nutzer ohne sein Wissen auf verschiedene Seiten leiten und den entsprechenden Traffic monetarisieren. Die Aussage könnt ihr euch hier anhören. Google macht bei irreführendem Mobiltraffic also ernst – sehr zum Vorteil der Nutzer. Wir sind gespannt, wann wir die ersten Ergebnisse dieses Vorgehens sehen werden.

06.11.2015: Spam in Rich Snippets

John Mueller wurde bei Twitter gefragt, wie Google versucht, Spam in den Rich Snippets zu finden – in Echtzeit, per Refresh eines Algorithmus oder durch manuelle Reports. John’s Antwort war eindeutig. “Ja, so ziemlich alle von denen.” Das bedeutet, dass Google auf einen Mix aus verschiedenen Methoden vertraut, um zu versuchen, die Rich Snippets spamfrei zu bekommen. rich snippet spam Dies unterstreicht einmal mehr, dass es Google ein großes Anliegen ist, die strukturierten Daten von Spam zu befreien. Auf diesem Gebiet werden nun auch manuelle Abstrafungen verteilt. Es steht zu hoffen, dass diese Maßnahmen weitgehend fruchten werden.

30.10.2015: Google: Manual Action bei irreführenden mobilen Weiterleitungen

Google hat schon mehrfach verlautbaren lassen, dass man gewisse Praktiken von Webmastern nicht tolerieren will und wird. Dazu gehört unter anderem, in der mobilen Version auf eine irrelevante Seite zu verlinken.

Manual Actions werden angedroht

Denn oft ist es so, dass die Inhalte für die Anzeige auf mobilen Endgeräten angepasst werden – beispielsweise durch kleinere Bilder und eine andere Seitenaufteilung. Dies ist auch grundsätzlich kein Problem. Doch manche Webmaster übertreiben es schamlos und zeigen in der mobilen Version eine Seite mit komplett anderen – meist irrelevanten – Inhalten an. Dies verstößt gegen die Webmaster Richtlinien und soll künftig stärker geahndet werden. unrelated

Problem durch Unwissenheit

Doch nicht immer geschehen solche irreführenden Weiterleitungen gewollt. Manchmal sind diese auch versehentlich gesetzt worden oder das Ergebnis eines Hackerangriffes. Für diese Fälle zeigen Vincent Courson und Badr Salmi El Idrissi, was man tun kann, um die Fehler zu finden und zu beheben.

22.10.2015: Der Google Transparenzreport

Seit 2006 zeigt Google eine Warnung an, wenn man eine unsichere Seite ansurft. Dieser rote Bildschirm mit der Aussage, dass die dahinter stehende Seite Malware enthält, ist sicher allen Nutzern bekannt. Meist ist jedoch nicht ersichtlich, was genau die Probleme sind. Der Nutzer kann also nicht informiert entscheiden, ob er die Seite dennoch besuchen möchte. Daher entgehen vielen Nutzern Informationen – und den entsprechenden Seiten viele Nutzer. Zudem kann man nur erahnen, wie lange es dauern wird, bis das entsprechende Problem behoben ist.

Erklärung im Transparenzreport

Hier schafft Google nun Abhilfe. Zu diesem Zweck wurde der Transparenzreport um eine Seite erweitert. Hier werden der Seitenstatus angezeigt und die Gründe für den Warnhinweis erklärt. Nun ist es Nutzern also möglich, im Zweifelsfall alle wichtigen Informationen zu einer Webseite auf einen Blick zu erhalten. Damit sollte sich das Surfen einfacher und sicherer gestalten lassen. tranzparenz

16.10.2015:Vorgehen gegen Linknetzwerke

Viele Rankings von Black Hat SEOs sind gerade über Nacht abgefallen – und das deutlich. Es scheint, als habe Google sich einem bekannten Linknetzwerk angenommen, unter Umständen dem SAPE Netzwerk. Genau kann man dies jedoch nicht sagen – vielleicht wurden auch mehrere Linkquellen auf einmal angegangen. Für das SAPE Netzwerk spricht laut Barry Schwartz, dass es vor einigen Jahren schon einmal abgestraft wurde. Die harten Ranking-Verluste der letzten Tage könnten also daher stammen, dass Google Wiederholungstäter nun schärfer bestrafen will.

07.10.2015: Google Algorithmus-Änderung gegen Hacker Spam

Google verstärkt seinen Kampf gegen Hacker. Zu diesem Zweck wurden in den letzten Wochen mehrere Updates an seinen Algorithmen durchgeführt. Diese sollen dabei helfen, von Hackern verursachten Spam aus den Suchergebnissen zu entfernen. Damit will Google die Seiten unterstützen, die unverschuldet Ziel eines Hacker-Angriffs geworden sind. Denn diese verbreiten in Folge einer solchen Attacke oft (unwissentlich) schädliche Programme oder ähnliches.

Etwa 5% der Suchanfragen betroffen

Von diesen Algorithmusänderungen sollen etwa 5% aller Suchanfragen betroffen sein. Hier werden künftig nur noch die relevantesten Suchergebnisse angezeigt, was die Anzahl der angezeigten Ergebnisse unter Umständen vorübergehend verringern kann – dies wird sich jedoch wieder normalisieren, sobald die Suchmaschine sich an die Entfernung von zahlreichen Ergebnissen gewöhnt hat. hacker spam Google hofft, das Problem der gehackten Seiten damit etwas eindämmen zu können. Wem auffällt, dass (s)eine Seite Ziel eines Angriffs wurde, sollte sich über die Hilfeforen direkt an Google wenden – man kann auf diesem Wege vielleicht auch Unterstützung von anderen Webmastern erhalten.

UPDATE: Betrifft nur spammige Suchanfragen

Gary Illyes hat bei einer Konferenz mitgeteilt, dass diese Algorithmusänderungen nur Suchanfragen betreffen, die sich im spammigen Umfeld befinden. Auf Nachfrage hat er dies zudem bei Twitter bestätigt. hacked Dies ist zwar ein Schritt in die richtige Richtung, jedoch werden auch Seiten aus anderen bereichen gehacked. Diese würden von diesem System ebenfalls profitieren. Es steht daher zu hoffen, dass Google die Änderungen erst einmal in einem Bereich ausprobiert, bevor sie dann überall angewendet werden.

06.10.2015: Negatives SEO

Wie in jeder Branche gibt es auch in der Suchmaschinenoptimierung Anbieter, die es mit den Regeln nicht so genau nehmen. Denn oft ist es einfacher, den Konkurrenten auf zwielichtigen Wegen zu bekämpfen, anstatt selbst gut Arbeit zu leisten. So werden Seiten von anderen Anbietern mit Spam beschossen oder gar gehacked. Dies kann zu kurzfristigen oder nachhaltigen Schäden führen – meist auf Kosten von Unschuldigen, die sich an die Regeln gehalten haben.

Wie kann man sich schützen?

Diesen Dingen geht Marcela De Vivo in ihrem Artikel auf Search Engine Watch etwas genauer auf den Grund. Denn Sie hatte zuvor selbst eine Mail erhalten, in der eine “SEO-Firma” anbot, die Konkurrenz in ihrem Namen zu vernichten.