SEO-Spezialisten treffen Panda, Googles neuesten Suchbären

Jeder IT-Experte, der Zeit damit verbracht hat, Websites zu unterstützen, wurde zu der einen oder anderen Zeit gebeten, zur Verbesserung der Sichtbarkeit einer Website beizutragen. Einige der am besten konzipierten Websites sind ohne SEO-Aufmerksamkeit einfach nicht auffindbar.

Die Situation degeneriert in regelmäßigen Abständen zu einem Katz- und Mausspiel, bei dem Trickster ("Black Hat" -Suchoptimierer) versuchen, Googles Techniken zu überdenken, und Google darauf reagiert, indem es versucht, diese Tricks zu besiegen. Der Prozess, wie Googles Kern-Ranking-Team aus Amit Singhal und Matt Cutts in ihrem Blog schreibt, ist "ständige Optimierung", da die Google-Suchtechnologie ein wesentlicher Faktor für die Förderung dessen ist, was sie wohlwollend als "gesundes Web-Ökosystem" bezeichnen.

Ein kürzlich weit verbreiteter Vorfall (die New York Times schrieb die Geschichte "Die schmutzigen kleinen Geheimnisse der Suche") betraf JCPenneys Suchrankings während der Ferienzeit 2010. Für die gängigen Ausdrücke "Kleider", "Bettwäsche", "Teppiche" und sogar "Tüllenvorhänge", überlegte der Reporter David Segal, hätten einige andere Websites als JCPenney durchbrechen sollen, aber JCPenney besaß den Spitzenplatz oder befand sich ganz in der Nähe des jedes Mal nach oben. Dieses Spiel des Google-Suchsystems wurde erreicht, indem externe Website-Verweise auf JCPenney-Seiten vermehrt wurden - die meisten davon waren speziell mit dem jeweiligen Thema verbunden. Google nennt diese Taktik "Türöffnungsseiten", aber eine andere Möglichkeit, sich die Web-Roadmap vorzustellen, die durch solche Links (z. B. nuklear.engineeringaddict.com) erstellt wurde, besteht darin, dass es sich um antisemantische Netzwerke handelt. Google hat "manuelle" Korrekturen an den Rankings der JCPenney-Seiten vorgenommen, nachdem es von der Times kontaktiert wurde.

Im Februar dieses Jahres nahm Google eine weitere Änderung an seinen Indexierungsalgorithmen für die Google-Suche mit dem Codenamen Panda vor . Ursprünglich nur für die USA, wurde es am 11. April auf allen englischen Websites weltweit eingeführt. Das angebliche Ziel bestand, wie bei früheren Optimierungen, darin, die Qualität der Suchergebnisse zu verbessern. Nutzer der Google-Suche sind möglicherweise auf Websites gestoßen, deren Inhalt hauptsächlich aus eklatanten Kopien von Snips anderer Websites besteht, sowie auf manchmal unlesbare Listen mit Phrasen und Schlüsselwörtern mit Please Rank Me! überall geschrieben. Einige SEO-Spezialisten haben diese "Content-Farmen" genannt.

Laut Google waren die im Februar vorgenommenen Änderungen vergleichsweise dramatisch und betrafen rund 11% der Anfragen.

MarketingVox berichtet, dass Horst Jeopen, CEO von Searchmetrics, der Ansicht ist, dass die neuesten Formeln von Google die Verweilzeit stärker als in der Vergangenheit betonen.

Jeopen hat andere Tipps, die darauf hindeuten, dass Google nach exogeneren Indikatoren von Bedeutung sucht. Dazu gehören Quora-ähnlicher Datenverkehr, Offline-Werbung und das Vermeiden von Fliegenfallen im Webverkehr.

Google bietet auf seinen Webmaster Central-Seiten "Qualitätsrichtlinien" an und warnt etwas bedrohlich: "Wir empfehlen Ihnen dringend, sehr genau darauf zu achten." Bestimmte Praktiken "können dazu führen, dass eine Website vollständig aus dem Google-Index entfernt oder auf andere Weise bestraft wird." Der herabgesetzte Inhalt, der durch Praktiken wie das Ausfüllen von versteckten Text-Keywords, intern dupliziertes Material und Plagiate (offensichtlich oder tatsächlich) erzeugt wird, kann zumindest für die meisten Websites leicht vermieden werden. Weniger offensichtlich, aber anscheinend von Panda betroffen, sind paraphrasierte Inhalte, wie Listen, die von Site A stammen und auf Site B reproduziert werden, möglicherweise mit minimalen Anmerkungen.

Die Probleme mit Panda

Es gibt jedoch subtilere Herausforderungen, die sich aus der starken Verwendung von Rich Media-Dateien oder in Javascript eingebetteten URLs ergeben. Googlebot wird Links in JavaScript weder folgen noch indizieren. Da Google es für inakzeptabel hält, Nutzern eine Inhaltskonfiguration und dem Googlebot eine andere anzuzeigen, können einige unbeabsichtigte Verstöße gegen die Qualitätsrichtlinien auftreten. Um dies zu vermeiden, empfiehlt Google, URL-Verweise außerhalb von JavaScript zu platzieren oder solche Links in Noscript-Tags zu duplizieren (Noscript-Tags werden normalerweise für Benutzer verwendet, die JavaScript deaktiviert haben und deren Geräte clientseitiges Scripting nicht unterstützen, z. B. einfache Mobiltelefone).

Einige haben behauptet, dass Google Panda kleinere Websites auf Kosten größerer Websites bestraft. Dies könnte eine unbeabsichtigte Nebenwirkung von Pandas "Reinigungs" -Operationen sein. Websites mit einer höheren Zuschauerzahl haben mit größerer Wahrscheinlichkeit eingehende Links. Zum Beispiel wird eine neue Site nur wenige eingehende Links haben, und obwohl sie für eine kleine Leserschaft einen lohnenden Zweck erfüllt, kann sie von großen Sites überfordert sein, die für Panda wertvoller erscheinen.

Es ist davon auszugehen, dass Panda versucht, dieses Muster durch Berücksichtigung anderer Beweislinien zu kompensieren. Kent Clark von Cardinal Path schlägt vor, dass der größte Teil des SEO-Aufwands mit der Informationsarchitektur einer Website zusammenhängen sollte. Dies scheint derzeit eher eine Hoffnung als eine Reihe von Algorithmen zu sein. Dennoch wäre es schön zu erfahren, dass der Platz einer Site in der semantischen Metaverse eher das Ergebnis sorgfältiger Wissensentwicklung als bloße Popularität oder, schlimmer noch, das durch Hyperlink erfundene Phrasalgebräu war Betrüger.

© Copyright 2021 | pepebotifarra.com