Die vier Säulen einer effektiven SEO-Strategie

Die vier Säulen im SEO, die Website-Besitzer berücksichtigen müssen

Natürlich haben diese vier Bereiche eine gewisse Komplexität und Überlappung, aber das Verständnis Ihrer Stärken und Schwächen in Bezug auf sie ist der Schlüssel zur Fokussierung Ihrer Bemühungen.

1. Technische SEO

Technisches SEO kann ein wenig einschüchternd erscheinen, aber wirklich, worüber wir sprechen, stellt sicher, dass eine Suchmaschine Ihre Inhalte lesen und Ihre Website erkunden kann. Vieles davon wird durch das von Ihnen verwendete Content-Management-System erledigt, und Tools wie Screaming Frog und Deep Crawl können Ihre Website erkunden und technische Probleme aufzeigen.

Die wichtigsten Bereiche, die hier berücksichtigt werden sollten, sind:

  • Crawling: Kann eine Suchmaschine Ihre Website korrekt erfassen?
  • Index: Ist es klar, welche Seiten die Suchmaschine indizieren soll und welche nicht?
  • Mobile.:Passt sich Ihre Website an mobile Nutzer an?
  • Geschwindigkeit: Schnelle Seitenladezeiten sind ein entscheidender Faktor, um Ihre Besucher glücklich zu machen.
  • Technik: Verwenden Sie für Ihre Website suchmaschinenfreundliche Technologie oder CMS?
  • Hierarchie: Wie sind Ihre Inhalte auf Ihrer Website strukturiert?

Wenn Sie ein kleines Unternehmen sind, das WordPress für Ihre Website nutzt, sollte das technische SEO etwas sein, das Sie ziemlich schnell von Ihrer Liste abhaken können. Wenn Sie eine große, maßgeschneiderte Website mit Millionen von Seiten haben, wird die technische SEO viel wichtiger.

Vieles von dem, was als „technische SEO“ bezeichnet wird, ist tatsächlich Teil Ihres Website-Designs und Ihrer Entwicklung. Der Trick besteht darin, sicherzustellen, dass Ihr Entwickler das Zusammenspiel zwischen Website-Design, -Entwicklung und SEO versteht und wie man eine unglaublich schnelle und für Mobilgeräte optimierte Website erstellt.

2. SEO Onsite-Optimierung

Ihre Website sollte als Ganzes und auf einer einzelnen Seitenebene optimiert werden. Es gibt einige Crossover hier von Ihrem technischen SEO, und Sie möchten mit einer gut strukturierten Inhaltshierarchie für Ihre Website beginnen.

Vorausgesetzt, Sie haben eine gut strukturierte Website, ist die sinnvolle Optimierung wieder relativ einfach. Die wichtigsten Bereiche, auf die Sie sich hier konzentrieren sollten, sind:

  • Keyword-Recherche. Verstehen Sie die Sprache Ihrer Zielgruppe
  • beschreibende URLs. Stellen Sie sicher, dass jede URL einfach und beschreibend ist.
  • Seitentitel. Verwenden Sie Schlüsselwörter natürlich innerhalb des Seitentitels.
  • Metabeschreibungen. Fertigen Sie Meta-Beschreibungen an, als wären sie Werbetexte, um Klicks zu erzielen.
  • Inhaltsoptimierung. Verwenden Sie sinnvollerweise Keywords und Variationen in Ihrer Seitenkopie.
  • gute Benutzererfahrung (UX). Stellen Sie sicher, dass Ihre Website eine Freude macht, wenn Sie sie verwenden und navigieren.
  • starke Handlungsaufforderungen. Machen Sie es Ihren Benutzern einfach, zu wissen, was als Nächstes zu tun ist.
  • strukturierte Datenauszeichnung. Nutzen Sie die neuesten SERP-Funktionen, um die Klickraten zu verbessern.
  • Nehmen Sie sich bei der Optimierung Ihrer Website Zeit, um Ihre Kunden zu berücksichtigen. Wenn Sie ein lokales Unternehmen sind, dann ist lokale SEO wichtiger, und Ihre Adresse und Ihr Standort werden zu wichtigen Optimierungspunkten.

Mit einem soliden technischen SEO ist die Optimierung Ihrer On-Page-Optimierung einfach. Verwenden Sie Tools wie Screaming Frog, um Schwachstellen zu erkennen und Schwachstellen aufzudecken und Ihre Seiten methodisch zu bearbeiten.

3. Content

Inhalt ist König. Das ist das Sprichwort, nicht wahr? Es ist in gewisser Weise wahr. Ihre Website ist wirklich nur ein Wrapper für Ihre Inhalte. Ihr Inhalt teilt Interessenten mit, was Sie tun, wo Sie es tun, für wen Sie es getan haben und warum jemand Ihr Unternehmen nutzen sollte. Und wenn Sie schlau sind, sollten Ihre Inhalte auch über diese offensichtlichen Broschürenelemente hinausgehen und Ihren potenziellen Kunden helfen, ihre Ziele zu erreichen.

Für Serviceunternehmen können wir Ihre Inhalte in drei Kategorien unterteilen:

Service-Inhalt Was Sie tun und wo Sie es tun.
Glaubwürdigkeitsgehalt. Warum sollte ein Interessent mit Ihrem Unternehmen zusammenarbeiten?
Marketinginhalte. Inhalte, die Ihnen helfen, sich als Experte zu positionieren und Ihr Unternehmen früher in den Kaufzyklus zu bringen.
Es ist wirklich wichtig zu erkennen, dass SEO für alle diese Arten von Inhalten wichtig ist, aber es wird oft nur für Service-Typ-Inhalte berücksichtigt. SEO wird oft vergessen, wenn es um Glaubwürdigkeitsinhalte wie Bewertungen, Erfahrungsberichte und Fallstudien geht.

Als ein einfaches Beispiel habe ich kürzlich ein viktorianisches Haus in Großbritannien renoviert, und während des gesamten Prozesses suchte ich nach verschiedenen Fachleuten, die relevante Erfahrungen vorweisen konnten. In diesem Fall würde eine gut optimierte Fallstudie, die Renovierungsarbeiten an einem ähnlichen Haus in der näheren Umgebung zeigt, als großer Long-Tail SEO-Content dienen – es zeigt auch perfekt, dass der Auftragnehmer die Arbeit machen kann, was ihre Glaubwürdigkeit perfekt illustriert. Win-Win.

Stellen Sie sicher, dass Sie alle Ihre Marketinginhalte optimieren, einschließlich Fallstudien, Portfolioeinträgen und Erfahrungsberichten – nicht nur die offensichtlichen Service-Seiten.

Eine solide Content-Marketing- und SEO-Strategie ist auch der am besten skalierbare Weg, um Ihr Unternehmen einem breiten Publikum näher zu bringen. Und dies hat im Allgemeinen den besten ROI, da es keine Kosten pro Klick gibt – so skalieren Sie Ihr Marketing, ohne Ihre Kosten direkt zu skalieren. Diese Art von SEO-Strategie ist nicht für jedes Unternehmen geeignet, aber wenn sie gut passt, ist sie fast unschlagbar.

Hier sind die wichtigsten Tipps:

  • Optimieren Sie alle Inhalte über die gesamte Customer Journey hinweg.
  • Bestimmen Sie, ob das Content-Marketing über die organische Suche gut passt.

Wir sehen immer noch viel zu viele Malen-nach-Zahlen-Ansätze für SEO, bei denen lokale Unternehmen Agenturen dafür bezahlen, Blogbeiträge auszugeben, die strategisch nicht gut passen. Vergewissern Sie sich, dass alle Ihre Inhalte optimiert sind. Wenn Sie Content-Marketing betreiben, stellen Sie sicher, dass es sich für Ihre Marketing-Taktik eignet.

4. Off-Site-Optimierung

Der Aufbau Ihrer Autorität umfasst zum großen Teil den Aufbau von Links. Links sind immer noch eine entscheidende Komponente bei der Entwicklung starker organischer Rankings; Links können jedoch der schwierigste Teil von SEO sein.

Während Link Building ein komplexes Thema ist, das wir hier nicht vertiefen können, wenn Sie zumindest eine positive Link-Building-Philosophie entwickeln können, sind Sie bereits der Mehrheit Ihrer Konkurrenz voraus.

Der beste Weg, den ich je gesehen habe, um die richtige Denkweise für Link-Building zu beschreiben, wurde von dem verstorbenen, großartigen Eric Ward geschrieben: „Verbinde, was verbunden sein sollte.“

Diese Philosophie ist schön in ihrer Einfachheit und dient dazu, die „mehr, mehr, mehr“ Mentalität des Link Building zu korrigieren. Wir wollen nur Links von relevanten Quellen. Das bedeutet oft, dass wir etwas schaffen müssen, das Verknüpfungen verdient, um unsere Bemühungen zur Linkbildung über die offensichtlichen Taktiken hinaus zu skalieren. Sie haben Links, von Webseiten von welchen es sinnvoll ist, Links zu bekommen. Ganz einfach.

Wikipedia hat Millionen von Links, aber ich bin mir ziemlich sicher, dass sie noch nie einen Linkaufbau gemacht haben. Dies liegt daran, dass sie viele nützliche Inhalte haben, die verlinkt werden. Dies sind echte, natürliche Links, die die verlinkende Seite bereichern, einen weiteren Kontext bieten und als das reale Bindegewebe dieser hyperverknüpften Welt, in der wir leben, dienen.

Diese Art von natürlicher Verbindung sollte das Rückgrat Ihrer Link-Building-Bemühungen sein. Dies kann bedeuten, dass Sie die Inhalte auf Ihrer Website erneut aufrufen müssen und zunächst etwas Wertvolles erschaffen müssen. Wenn Sie dies jedoch erreichen können, sind Sie auf halbem Weg nach Hause.

Jede sichere, skalierbare Link-Building-Strategie sollte auf dieser Denkweise aufbauen.

Wichtige Insights hier:

Stellen Sie sicher, dass Sie die Art von realen Links aufbauen, die in der realen Welt sinnvoll sind und die qualitativen Teile des Algorithmus nicht stören. Stellen Sie sicher, dass Sie Inhalte haben, die es wert sind, auf eine Rangliste gesetzt zu werden, und mit denen Sie eine Verbindung herstellen möchten.

Zusammenfassung

SEO muss nicht übermäßig komplex sein. Es gibt vier wichtige Bereiche von SEO, die Sie berücksichtigen müssen, und es gibt einen strukturierten, methodischen Prozess, der befolgt werden kann, um Ihre Website zu optimieren.

Ich hoffe aufrichtig, dass dieser Beitrag Ihnen hilft, Ihre Rankings zu verbessern und mehr Geschäft aus der organischen Suche zu generieren!


smx-muenchen-15-prozent-rabattcode-auf-tickets

SMX München 2018 – 15% Rabatt Code auf Tickets

„SEO+SEA=SMX“ – am 20.-21. März 2018 kehrt die führende Such- und Online Marketing Konferenz zurück nach München!

Hier gibt es -> 15% Rabatt Code auf Tickets

SMX München 2018 Agenda

SMX München 2018 Agenda

Dein Discount Code lautet:

WEBFREUNDLICHSMX

Die Search Marketing Expo ist Europa’s führende Konferenz im Bereich SEO, SEA und Online Marketing, die den Teilnehmern eine Vielzahl an nationalen und internationalen Sprechern anbietet.

Zwei Tage Innovationen, Trends und Ausblicke zum Thema SEO, SEA und Online Marketing auf der SMX München! Hier versammeln sich die wichtigsten Player und führenden Köpfe der weltweiten SEO, SEA und Online Marketing Branche an nur einem Ort. An diesen Tagen können die Konferenzbesucher aus 10 Thementracks mit über 80 Sprechern die für sie relevanten Sessions zusammenstellen und mit rund 2000 anderen Marketer networken.

Selbstverständlich stehen die SEO und SEA Themen wieder im Mittelpunkt. Die sich wandelnde SERP Welt, Google Features Snippets, SEO Split Testing, SEO Mythen auf. 2017 war das Jahr der Veränderungen im SEA Bereich – viel Stoff also für unsere Sessions, in denen es u.a. um SEA in einer Cross-Device Welt, Qualitätssicherung im AdWords Bereich und Google Display & Gmail Ad Targeting geht.

Wie auch im letzten Jahr wird im Rahmen der SMX die SEMY Awards verliehen und die deutsche SEO – Welt für Ihre Arbeit gekührt.


SEO SSL Checkliste

11 Punkte SEO Checkliste für die Umstellung von http auf https – SEO SSL Guide

Warum diese SEO Checkliste für die Umstellung von http auf https – SEO SSL Guide?

Seit Januar 2017 kennzeichnet Google mit den Chrome Browser (Version 56 und höher) Seiten, die Passwörter oder Kreditkarteninformationen erfassen, als „nicht sicher„, es sei denn, die Seiten werden über HTTPS bereitgestellt.

Die neue Warnung ist der erste Schritt eines langfristigen Plans von Google, nach dem letztlich alle Seiten, die über das unverschlüsselte HTTP-Protokoll bereitgestellt werden, als „nicht sicher“ gekennzeichnet werden sollen.

Sollte Ihre Webseite betroffen sein, erhalten Sie außerdem eine Nachricht über die Google Search Console mit der Meldung „Nicht sichere Passworterfassungen lösen in Chrome 56 Warnungen aus“.

Es gibt bereits einige Checklisten dazu im Web, aber ich diese sind meist nicht vollständig und aus meiner Praxis und der bereits mehrfach erfolgreichen Umstellen großer Online Shops von http auf https, habe ich folgende SEO Checkliste für die Umstellung von http auf https erstellt und möchte diese gerne mit Euch teilen.

Task Bereich Beschreibung
1 Weiterleitungen Alle http Aufrufe per 301 Redirect auf https umleiten mittels einer Regex
2 Ressourcen Alle Ressourcen wie Bilder, CSS-Dateien, JavaScript-Bibliotheken mit https ausliefern
3 Canonicals, hreflang-Attribute, Alternate Alle Canonicals, hreflang-Attribute, Alternates auf https umstellen
4 Interne Verlinkung Alle internen Verlinkungen auf https umstellen
5 XML Sitemap Alle URLs in der XML Sitemap Datei auf https umstellen
6 Robots.txt Prüfung: es darf keine Blockade für SSL Urls vorliegen
7 Google Search Console Google Search Console Property für https neu aufsetzen
8 Google Search Console Adressänderung in den Google Search Console Einstellungen auf die https Prpoerty einrichten
9 Disavow Datei Sollte bereits eine Disavow Datei existieren, muss diese für die https Version der Webseite neu hochgeladen werden
10 Google Analytics Umstellung der Property auf https einrichten
11 Testen Crawling der Webseite z.B. mit Screaming Frog und Überprüfung der oben genannten Punkte

Wenn Du diese Punkte z.B. in einer Excel Datei Deiner Agentur übergibst und dann jeden einzelnen Punkt als erledigt abhaken kannst, sollte SEO technisch nichts schief gehen. Dennoch kann es in SEO Rankings zu Turbulenzen kommen, leider ist Google machmal zickig, auch wenn Du alles richtig machst.

Weitere Quellen für die korrekte SEO SSL Umstellung von http auf https

Websiteverschiebung mit URL-Änderungen:

https://support.google.com/webmasters/answer/6033049?hl=de&ref_topic=6033084

Vermeidung der „nicht sichere Webseite“ Meldung in Chrome:

https://developers.google.com/web/updates/2016/10/avoid-not-secure-warn

Website mit HTTPS sichern:


Technisches SEO Campixx 2015

SEO Campixx 2015 Vortrag: Technisches SEO

Ich hatte während der SEO Campixx 2015 die Ehre zusammen mit Matthias Plankl, einen Vortrag zu halten. In diesem Jahr haben wir uns mal wieder für ein Thema entschieden, welches mehr für die Beginner der SEO Szene gedacht war – die technische SEO Optimierung einer Webseite. Man kann dieses Thema scheinbar gar nicht oft genug wiederholen, denn in der Praxis vergeht so gut wie kein Tag, an welchen es keine technischen SEO Problemen gibt.


Google Analytics Bot Filter

Google´s 200 Ranking Faktoren

Sie wissen vielleicht bereits, dass Google über 200 Ranking-Faktoren in seinem Algorithmus einsetzt.

Aber welche sind das? Nun, Brian Dean hat sich die Mühe gemacht und alle bekannten Faktoren zusammen getragen.

Einige dieser Faktoren sind bewährt. Einige sind umstritten. Andere sind SEO-Nerd Spekulation. Aber sie sind alle hier.

Ich habe die Liste von Brian einfach mit dem Google Translater übersetzt , wer das original lesen möchte, kann das hier tun.

Domain-Faktoren

1 Domain Alter:. In diesem Video erklärt Matt Cutts, dass:

„Der Unterschied zwischen einer Domäne, ist sechs Monate alt Verse ein Jahr alt ist wirklich nicht so groß überhaupt.“.

In anderen Worten, sie verwenden Domain-Alter … aber es ist nicht sehr wichtig.

. 2 Schlagwort Erscheint in Top Level Domain: Hat die Boost, die es früher nicht geben, aber mit Ihrem Keyword in der Domain noch wirkt wie ein Signal Relevanz. Schließlich haben sie immer noch fett Schlüsselwörter, die in einem Domain-Namen angezeigt.

3 Stichwort als erste Wort im Domain:. Moz 2011 der Search Engine Ranking Factors Diskussionsteilnehmer einig, dass eine Domäne, die mit ihren Ziel Stichwort beginnt, hat einen Vorteil gegenüber Websites, die entweder nicht über das Stichwort in ihrer Domäne oder das Stichwort in die Mitte oder Ende ihrer Domäne.

4 Domain-Registrierung Länge:. Ein Google-Patent gibt:

„Wertvolle (legitimen)-Domänen sind oft für mehrere Jahre im Voraus bezahlt, während die Tür (illegitime)-Domänen sind nur selten für mehr als ein Jahr verwendet. Daher ist der Zeitpunkt, wenn eine Domäne ausläuft in der Zukunft als ein Faktor für die Vorhersage verwendet werden, die Legitimität eines Domain „.

5 Stichwort in Subdomain Name:. Tafel Moz ist auch vereinbart, dass ein Schlüsselwort in der Subdomain erscheinen steigert Rang,

6 Domain Geschichte:. Eine Seite mit flüchtigen Eigentum (über whois) oder mehrere Tropfen können Google zu sagen, „Reset“ die Geschichte des Ortes, negiert Links, die auf der Domäne.

. 7 Exact Match Domain: EMDs immer noch geben Ihnen einen Vorteil … wenn es ein Qualitäts Ort. Aber wenn das EMD geschieht, ein Low-Qualität vor Ort zu sein, ist es anfällig für die EMD Update:

8 Öffentliche vs Privat WhoIs:. Privat WHOIS-Informationen kann ein Zeichen von „etwas zu verbergen“ zu sein. Matt Cutts ist als Angabe bei Pubcon 2006 zitiert:

„… Wenn ich überprüfte die whois auf sie, sie alle hatten“ whois Privatsphäre Schutzdienst „auf sie. Das ist relativ ungewöhnlich. Mit … whois Privatsphäre eingeschaltet ist nicht automatisch schlecht, aber sobald man mehrere dieser Faktoren zusammen, sind Sie oft über eine ganz andere Art von Webmaster als der Kerl, der nur einen einzigen Standort oder so reden. “

. 9 bestraft WhoIs Besitzer: Wenn Google identifiziert eine bestimmte Person als Spammer macht es Sinn, dass sie anderen Seiten von dieser Person Besitz zu prüfen.

. 10. Land TLD-Erweiterung: Mit einem Country Code Top Level Domain (… Cn, pt, ca) hilft die Website Rang für das jeweilige Land … aber begrenzt der Site Fähigkeit, global zu ordnen.

Seite-Level-Faktoren

11 Stichwort im Title Tag:. Der Titel-Tag ist der zweitwichtigste Teil des Inhalts (neben dem Inhalt der Seite) einer Web-Seite und sendet eine starke On-Page-SEO-Signal daher.

. Title Tag 12 beginnt mit Schlagwort: Laut Moz Daten, Titel-Tags, die mit einem Schlüsselwort beginnt tendenziell besser als Titel-Tags mit dem Schlüsselwort am Ende des Tags durchführen:

. 13. Schlüsselwort in den Beschreibungen Tag: Ein weiterer Relevanz Signal. Nicht besonders jetzt wichtig, aber immer noch einen Unterschied macht.

. Wörter 14 Erscheint in H1 Tag: H1-Tags sind eine „zweite Titel-Tag“, die eine andere Relevanz Signal an Google sendet, so die Ergebnisse aus dieser Korrelationsstudie:

. Wörter 15 wird am häufigsten verwendet Phrase in Dokument: Nachdem ein Schlüsselwort mehr als alle anderen wahrscheinlich wirkt als Relevanz-Signal angezeigt.

Inhalt 16 Länge:. Inhalt mit mehr Worten kann eine breitere Bandbreite abdecken und wahrscheinlich kürzer oberflächlichen Artikel bevorzugt. SERPIQ festgestellt, dass die Länge des Inhalts mit SERP Position korreliert:

. 17. Keyword-Dichte: Obwohl es nicht so wichtig, wie es einmal war, ist immer noch etwas, Keyword-Dichte Google verwendet, um das Thema einer Webseite zu ermitteln. Aber über Bord gehen kann weh tun.

18 Latent Semantic Indexing Keywords im Content (LSI):. LSI Keywords helfen Suchmaschinen-Extrakt Bedeutung von Worten mit mehr als einer Bedeutung (Apple die Computer-Firma gegenüber dem Obst). Das Vorhandensein / Fehlen von LSI wahrscheinlich wirkt auch als Gehalt Qualitätssignal.

. LSI 19 Schlüsselwörter in Titel und Beschreibung Tags: Wie bei den Inhalt von Webseiten, LSI Keywords in Metatags Seite wahrscheinlich helfen Google erkennen zwischen Synonymen. Kann auch als Relevanz-Signal zu handeln.

. 20 Page Loading Drehzahl über HTML: Google und Bing zu verwenden Seite Ladegeschwindigkeit als Ranking-Faktor. Suchmaschinen können Ihre Website Geschwindigkeit ziemlich genau abschätzen, basierend auf einer Seite Code und Dateigröße.

. 21. Duplicate Content: Inhaltsgleichheit auf dem gleichen Gelände (auch leicht modifiziert) können Suchmaschinen-Sichtbarkeit einer Website negativ beeinflussen.

. 22. Rel = Canonical: Wenn richtig eingesetzt, kann die Verwendung dieses Tags von Google erwägen Seiten doppelte Inhalte zu verhindern.

. 23. Seite Loading Geschwindigkeit via Chrome: Google Chrome kann auch Benutzerdaten verwenden, um einen besseren Griff auf einer Seite Ladezeit zu bekommen, wie diese berücksichtigt Servergeschwindigkeit, CDN-Nutzung und andere nicht HTML-bezogene Website Geschwindigkeitssignale.

. 24. Bildoptimierung: Bilder auf-Seite zu senden Suchmaschinen wichtig Relevanz Signale durch ihre Dateiname, Alt-Text, Titel, Beschreibung und Beschriftung.

. 25. Aktualität des Content-Updates: Google Caffeine Update begünstigt vor kurzem aktualisierte Inhalte, vor allem für zeitkritische Suchanfragen. Hervorheben Bedeutung dieses Faktors, Google zeigt das Datum der letzten Aktualisierung einer Seite für bestimmte Seiten:

26 Magnitude von Content-Updates:. Die Bedeutung der Änderungen und Veränderungen ist auch eine Frische-Faktor. Hinzufügen oder Entfernen von ganzen Abschnitten ist ein wichtiges Update als Schalt um die Größenordnung von ein paar Worten.

27 Historische Updates-Seite. Updates: Wie oft wurde die Seite im Laufe der Zeit aktualisiert? Täglich, wöchentlich, alle 5 Jahre? Häufigkeit der Updates Seite spielen auch eine Rolle in der Frische.

28 Stichwort Prominenz:. Nachdem ein Schlüsselwort in den ersten 100-Worte der Inhalt einer Seite erscheinen scheint eine erhebliche Relevanz Signal sein.

29 Stichwort in H2, H3 Schlagwörter:. Nachdem Ihr Schlüsselwort als Bezeichnung in H2 oder H3-Format erscheinen kann eine andere Relevanz schwachen Signal.

30 Keyword-Wortfolge:. Eine genaue Übereinstimmung von Suchbegriff ein Suchender in den Inhalt einer Seite wird in der Regel Rang besser als das gleiche Keyword Phrase in einer anderen Reihenfolge. Zum Beispiel: Betrachten Sie eine Suche nach: „Katzen Rasur-Techniken“. Eine Seite für die Phrase „Katze Rasieren Techniken“ optimiert wird Rang besser als eine Seite für „Techniken für die Rasur eine Katze“ optimiert. Dies ist ein gutes Beispiel dafür, warum Keyword-Recherche ist wirklich, wirklich wichtig.

31 Outbound Link-Qualität:. Viele SEOs denken, dass die Verknüpfung aus, um Autorität Websites hilft Vertrauen zu senden Signale an Google.

32 Outbound Link. Thema: Laut Moz, Suchmaschinen können den Inhalt der Seiten, die Sie verlinken auf Relevanz als Signal zu verwenden. Zum Beispiel, wenn Sie eine Seite über Autos, die filmbezogene Seiten Links zu haben, dies zu sagen, dass Google Ihre Seite ist über den Film Cars, nicht das Auto.

33 Grammatik und Rechtschreibung:. Richtige Grammatik und Rechtschreibung ist ein Qualitätssignal, obwohl Cutts gab gemischte Nachrichten im Jahr 2011 auf, ob dies war wichtig.

. Syndicated 34 Inhalt: Ist der Inhalt auf der Seite Original? Wenn es abgekratzt oder von einer indizierten Seite kopiert es wird nicht so gut wie das Original Rang oder am Ende in ihre Supplemental Index.

35 Hilfreiche Zusatz Inhalt:. Laut einer jetzt-öffentliches Google-Rater Richtlinien Dokument, ist hilfreich zusätzliche Inhalte ein Indikator für die Qualität einer Seite (und damit Google-Ranking). Beispiele sind Währungsumrechnungskurse, Kreditzinsrechner und interaktive Rezepte.

. 36 Anzahl der ausgehenden Links: Zu viele dofollow OBLS kann „Leck“ PageRank, die Suche Sicht schaden.

. 37 Multimedia: Bilder, Videos und andere Multimedia-Elemente kann als Content-Qualitätssignal dienen.

38 Anzahl der internen Links, die zur Seite:. Die Anzahl der internen Links auf eine Seite zeigt seine Bedeutung im Vergleich zu anderen Seiten auf der Website.

. 39. Qualität der internen Links, die zur Seite: Interne Links von autorisierenden Seiten auf Domain haben eine stärkere Wirkung als Seiten mit keinen oder niedrigen PR.

. 40 Gebrochene Links: Zu viele defekte Links auf einer Seite kann ein Zeichen für eine vernachlässigt oder aufgegeben Website. Die Google-Richtlinien Rater Dokument verwendet defekte Links, wie man war, um die Qualität einer Homepage zu beurteilen.

. 41. Schwierigkeitsgrad: Es gibt keinen Zweifel, dass Google schätzt die Leseniveau von Webseiten:

Aber was sie mit diesen Informationen tun ist, zur Debatte. Einige sagen, dass eine grundlegende Leseniveau wird Ihre Seite Rang zu helfen, weil sie die Massen ansprechen. Allerdings Linchpin SEO entdeckt, dass Leseniveau war ein Faktor, der die Qualität von Websites Inhalte Mühlen getrennt.

42 Affiliate-Links:. Affiliate-Links selbst wahrscheinlich nicht verletzt Ihres Rankings. Aber wenn Sie zu viele haben, die Google-Algorithmus kann mehr Aufmerksamkeit auf andere Qualitätssignale zu zahlen, um sicherzustellen, dass Sie eine „dünne Partner-Website“ sind es nicht.

43 errors/W3C HTML-Validierung:. Viele HTML-Fehler oder schlampig Codierung kann ein Zeichen für eine schlechte Qualität Website. Während umstritten, viele in SEO denken, dass WC3 Validierung ist ein schwacher Signalqualität.

. Seite 44 Host-Domain Authority: Alle Dinge gleich eine Seite auf einer autorisierenden Domäne wird höher als eine Seite auf einer Domäne mit weniger Autorität.

45 Page PageRank:. Nicht perfekt korreliert. Aber im allgemeinen höhere PR-Seiten sind in der Regel besser als niedrige PR Seiten Rang.

46 URL-Länge:. Suchmaschine Blatt stellt fest, dass übermäßig lange URLs Suche Sichtbarkeit zu verletzen.

47 URL-Pfad:. Eine Seite näher an der Homepage kann es zu einer leichten Behörde Schub.

. Menschen 48 Redaktion: Obwohl nie bestätigt hat Google ein Patent für ein System, das menschliche Redakteure, um die SERPs beeinflussen können eingereicht.

49 Page Kategorie:. Die Kategorie der Seite erscheint ein Relevanz-Signal. Eine Seite, die Teil einer eng verwandten Kategorie ist sollte einen Schub Relevanz im Vergleich zu einer Seite, die unter einem nicht verwandten oder weniger verwandte Kategorie eingereicht zu bekommen.

. 50 WordPress Tags: Tags sind WordPress-spezifische Relevanz Signal. Nach Yoast.com:

„Der einzige Weg es Ihre SEO verbessert ist durch über ein Teil des Inhalts zu einem anderen, und insbesondere eine Gruppe von Stellen miteinander“

. Stichwort in 51 URL: Ein weiteres wichtiges Signal Relevanz.

52 URL-String:. Die Kategorien in der URL-Zeichenfolge werden von Google gelesen und kann eine thematische Signal, was eine Seite über bieten:

53 Hinweise und Quellen:. Unter Berufung auf Referenzen und Quellen, wie Forschungspapiere haben, kann ein Zeichen von Qualität sein. Die Google Qualitätsrichtlinien fest, dass Rezensenten sollte ein Auge für die Quellen, wenn man bestimmte Seiten: „Das ist ein Thema, wo Know-how und / oder maßgeblichen Quellen sind wichtig …“.

54 Bullets und Nummerierungen:. Aufzählungszeichen und nummerierte Listen helfen, brechen Sie Ihre Inhalte für die Leser, dass sie benutzerfreundlicher. Google wahrscheinlich stimmt zu und kann Inhalte mit Aufzählungszeichen und Nummern bevorzugen.

55 Vorrang der Seite Verzeichnis:. Die Priorität wird eine Seite über die sitemap.xml Datei kann beeinflussen Ranking gegeben.

. 56. Zu viele Outbound Links: Gerade aus der oben genannten Qualitäts Rater Dokument:

„Einige Seiten haben viel, viel zu viele Links, Verschleierung der Seite und lenkt von der Hauptinhalt“

. Menge von 57 Andere Keywords Page Ranks nach: Wenn die Seite zählt für mehrere andere Schlüsselwörter kann Google geben eine interne Qualitätszeichen.

Seite 58 Alter:. Obwohl Google bevorzugt frische Inhalte, eine ältere Seite, die regelmäßig aktualisiert wird möglicherweise eine neuere Seite zu übertreffen.

59 User Friendly Layout:. Unter Berufung auf die Google-Qualitätsrichtlinien Dokument noch einmal:

„Das Seitenlayout auf höchste Qualität Seiten macht die Hauptinhalt sofort sichtbar“

. 60 geparkte Domains: Ein Google-Update im Dezember 2011 verringerte Suche Sichtbarkeit der geparkten Domains.

. Nützlich 61 Inhalt: Wie von Backlinko Leser Jared Carrizales ausgeführt, kann Google zwischen „Qualität“ und „nützlich“ Inhalte zu unterscheiden.

Site-Ebene Faktoren

. Inhalt 62 schätzen und einzigartige Einblicke: Google hat erklärt, dass sie auf der Jagd nach Websites, die nichts Neues oder nützlich an den Tisch, vor allem dünne Affiliate-Websites mitbringen können.

63 Kontakt Seite:. Die oben erwähnte Google Qualitäts Dokument heißt es, dass sie Websites mit einem „angemessenen Betrag von Kontakt-Informationen“ bevorzugen. Vermeintliche Bonus, wenn Sie Ihre Kontaktinformationen entspricht Ihren whois-Info.

. Domänenvertrauens 64 / Trustrank: Site vertrauen – wie viele Links von Ihrer Website entfernt ist von sehr vertrauenswürdigen Websites Samen gemessen – ist ein Massively wichtiger Ranking-Faktor. Sie können mehr über Trustrank lesen Sie hier.

65 Website-Architektur:. Ein gut zusammengestellten Website-Architektur (vor allem ein Silo-Struktur) hilft Google thematisch organisieren Ihre Inhalte.

. Site Updates 66: Wie oft eine Seite aktualisiert wird – und vor allem, wenn neue Inhalte auf der Website hinzugefügt – ist eine Website weiten Frische-Faktor.

. 67 Anzahl der Seiten: Die Anzahl der Seiten eine Website hat ein schwaches Zeichen der Autorität. Zumindest eine große Website hilft unterscheiden ihn von dünnen Affiliate-Websites.

. Anwesenheit von 68 Sitemap: Eine Sitemap hilft Suchmaschinen-Index Ihrer Seiten einfacher und gründlicher, die Verbesserung der Sichtbarkeit.

69 Website-Uptime:. Viele Ausfallzeiten von Ort-Wartung oder Server-Probleme können Ihr Ranking zu verletzen (und kann sogar in Deindizieren führen, wenn nicht korrigiert).

. Server 70 Ort: Server-Standort kann beeinflussen, wo euer Ranking in verschiedenen geografischen Regionen. Besonders wichtig für Geo-Suche versuchen.

. SSL-Zertifikat 71 (E-Commerce-Seiten): Google hat bestätigt, dass sie Index-SSL-Zertifikate. Es liegt nahe, dass sie bevorzugt Rang Commerceseiten mit SSL-Zertifikaten.

72 Nutzungsbedingungen und Datenschutz Seiten:. Diese beiden Seiten helfen, sagen Google, dass eine Website ein vertrauenswürdiges Mitglied des Internets.

. Duplizieren 73 Meta Information vor Ort: Doppelte Meta-Informationen über Ihre Website möglicherweise zu Fall zu bringen alle die Sichtbarkeit Ihrer Seite ein.

74 Breadcrumb-Navigation:. Das ist ein Stil, der benutzerfreundliche Website-Architektur, die Benutzer (und Suchmaschinen) hilft, wo sie auf einer Website sind:

Sowohl SearchEngineJournal.com und ethische SEO Consulting behaupten, dass dieses Set-up kann ein Ranking-Faktor sein.

. Optimierte 75 Handy: Googles offizielle Haltung auf Mobil ist es, eine ansprechende Website zu erstellen. Es ist wahrscheinlich, dass ansprechende Seiten zu bekommen einen Vorteil bei der Suche von einem mobilen Gerät.

76 YouTube:. Es gibt keinen Zweifel, dass YouTube-Videos sind eine Vorzugsbehandlung in den SERPs (wahrscheinlich, weil Google es besitzt) gegeben:

In der Tat fand Search Engine Land, dass YouTube.com Verkehr deutlich erhöht, nachdem Google Panda.

77 Site Usability:. Eine Website, die schwierig zu bedienen oder zu navigieren kann durch die Verringerung der Zeit auf Website-Ranking schaden, aufgerufene Seiten und Bounce-Rate. Dies kann ein unabhängiger Faktor von algorithmischen massive Mengen von Benutzerdaten zu entnehmen.

. 78. Nutzung von Google Analytics und Google Webmaster Tools: Einige denken, dass mit diesen beiden Programmen auf Ihrer Website installiert ist, kann die Indizierung Ihrer Seite zu verbessern. Sie können auch unmittelbar beeinflussen, indem Rang Google mehr Daten mit (dh genauer Bounce-Rate, ob Sie bekommen referall Datenverkehr von Ihrem Backlinks etc.) zu arbeiten.

. Benutzerbewertungen 79 / Site Ruf: Eine Website ist zu der Bewertung Websites wie Yelp.com und RipOffReport.com spielen wahrscheinlich eine wichtige Rolle im Algorithmus. Google veröffentlicht sogar ein selten offen Umriss ihres Ansatzes Kommentare nach ein Brillen Seite wurde Abreißen Kunden in dem Bemühen um Backlinks zu erhalten gefangen.

Backlink Faktoren

. Linking 80 Domain Alter: Backlinks von alten Domänen können stärker als neue Domains sein.

# 81 von Linking Root-Domains:. Die Anzahl der Domains bezogen ist einer der wichtigsten Ranking-Faktoren in den Google-Algorithmus, da Sie von diesem Diagramm von Moz (untere Achse SERP-Position) sehen können:

# 82 von Links von Separate C-Klasse IPs:. Links von eigener Klasse-C-IP-Adressen deuten auf eine größere Breite der Seiten, die auf Sie.

# 83 von Linking Seiten:. Die Gesamtzahl der Verlinkung Seiten – auch wenn einige in der gleichen Domäne – ist ein Ranking-Faktor.

84 Alt-Tag (zur Bild-Links):. Alt Text ist eines Bildes Version von Anchor-Text.

85 Links von edu oder gov-Domains:… Matt Cutts hat erklärt, dass TLD nicht in einer Website Bedeutung berücksichtigen. Allerdings, die nicht aufhören SEOs vom Denken, dass es einen besonderen Platz in der Algo für. Gov und. Edu TLDs.

86 PR der verlinkenden Seite:. Der PageRank der verweisenden Seite ist ein extrem wichtiger Ranking-Faktor.

87 Behörde von Linking Domain:. Behörde des vorlegenden Domäne kann eine unabhängige Rolle in einer Verknüpfung Bedeutung (dh eine PR2 Seite Link von einer Website mit einer Homepage PR3 kann weniger als eine PR2 Seite Link von PR8 Yale.edu wert sein) zu spielen.

88 Links von Konkurrenten:. Links von anderen Seiten-Ranking in der gleichen SERP kann einer Seite Rang für die jeweilige Stichwort wertvoller sein.

89 Sozial Anteile der Bezug Seite:. Die Höhe der Seitenebene sozialen Aktien können den Wert der Verbindung zu beeinflussen.

90 Links von Bad Viertel:. Von „schlechte Nachbarschaft“ können Sie Ihre Website zu verletzen.

. 91. Gast Beiträge: Obwohl Gast Beitrag kann Teil eines weißen Hut SEO-Kampagne zu sein, verbindet die von Gastbeiträge – vor allem in einem Autor Bio-Bereich – nicht so wertvoll wie ein kontextuellen Link auf der gleichen Seite sein.

. 92 Links zu Homepage Domain, die Seite sitzt auf: Links auf die Homepage eines der verweisenden Seite kann eine besondere Bedeutung bei der Bewertung einer Website spielen – und damit eines Links – Gewicht.

. 93. Nofollow-Links: Einer der umstrittensten Themen in SEO. Google-Wort in der Sache ist:

„In der Regel wissen wir nicht folgen.“

Was nahelegt, dass sie tun … zumindest in bestimmten Fällen. Mit einer gewissen% des nofollow-Links kann auch auf einen natürlichen vs unnatürlich Link-Profil.

94 Vielfalt der Link-Typen:. Nachdem ein unnatürlich großer Prozentsatz Ihrer Links kommen aus einer Hand (dh Profile Forum, Blog-Kommentare) kann ein Zeichen von Webspam sein. Auf der anderen Seite, Links aus verschiedenen Quellen ist ein Zeichen von einer natürlichen Link-Profil.

. 95 „Sponsored Links“ oder andere Wörter Rund verlinken: Wörter wie „Sponsoren“, „Link-Partner“ und „sponsored links“ kann der Wert einer Link zu verringern.

. Kontextuelle 96 Links: Links innerhalb Inhalt einer Seite eingebettet werden als leistungsfähiger als Links auf einer leeren Seite oder an anderer Stelle auf der Seite.

. Übermäßige 97 301 Leitet zur Seite: Links aus 301-Weiterleitungen zu verdünnen einige (oder sogar alle) PR, entsprechend einer Webmaster-Hilfe Video.

98 Backlink Anchor Text:. Wie in dieser Beschreibung von Google ursprünglichen Algorithmus festgestellt:

„Erstens, verankert oft genauere Beschreibungen von Web-Seiten als die Seiten selber.“

Offensichtlich ist als Anchor-Text vor (und wahrscheinlich ein Webspam-Signal) weniger wichtig. Aber es ist noch ein deutliches Signal Relevanz in kleinen Dosen.

. 99. Interner Link Anchor Text: Interner Link Anchor-Text ist ein weiteres Signal Relevanz, wenn auch wahrscheinlich anders, als Backlink Anchor-Text gewogen.

. 100 Link-Titel Namensnennung: Der Link Titel (der Text, wenn Sie über einen Link zu schweben scheint) wird auch als schwache Relevanz Signale verwendet.

. 101 Land TLD der Bezug Domain: Erste Links von länderspezifischen Top-Level-Domain-Endungen (… De, cn, co.uk) kann Ihnen helfen, in diesem Land besser zu ordnen.

. 102 Link Lage In Content: Links im Anfang ein Stück Inhalt tragen leichte, mehr Gewicht als Links am Ende des Content platziert.

. 103 Link-Adresse auf Seite: wo auf einer Seite ein Link angezeigt wird, ist wichtig. Im Allgemeinen sind Links in den Inhalt einer Seite eingebettet stärker als Links im Footer oder Sidebar-Bereich.

104 Linking Relevanz Domain:. Ein Link von Website in einer ähnlichen Nische ist deutlich leistungsfähiger als ein Link von einem völlig anderen Ort. Das ist, warum jede wirksame SEO-Strategie heute konzentriert sich auf den Erhalt relevante Links.

Seite 105 Niveau Relevanz:. Die Hilltop-Algorithmus Staaten, die von einer Seite, die eng mit Content-Seite gebunden ist verlinkt ist mächtiger als ein Link von einem unabhängigen Seite.

. 106 Text um Link-Sentiment: Google hat wohl herausgefunden, ob ein Link zu Ihrer Website ist eine Empfehlung oder ein Teil einer negativen Bewertung. Links mit positiven Gefühlen um sie herum wahrscheinlich mehr Gewicht.

. 107 Stichwort im Titel: Google gibt extra Liebe zu Links auf Seiten, die Ihre Seite Keyword im Titel („Experten Anbindung an Experten“.)

. 108 Positive Link-Geschwindigkeit: Eine Seite mit positiven Zusammenhang Geschwindigkeit wird in der Regel eine SERP Schub.

. 109 Negative Link-Geschwindigkeit: Negative Link Geschwindigkeit deutlich reduzieren kann Rankings, da es ein Signal mit abnehmender Popularität.

. 110 Von „Hub“ Seiten: Aaron Wall behauptet, dass immer Links von Seiten, die als Top-Ressourcen (oder Hubs) auf einem bestimmten Thema werden spezielle Behandlung.

. 111 Link von Authority Seiten: Ein Link von einer Website als eine „Behörde vor Ort“ wahrscheinlich passieren mehr Saft als ein Link von einer kleinen, microniche Ort.

112 Verbunden mit Wikipedia als Quelle:. Obwohl die Links nofollow, viele denken, dass immer einen Link von Wikipedia gibt Ihnen ein wenig hinzugefügt Vertrauen und Autorität in den Augen der Suchmaschinen.

113 Co-Vorkommen:. Die Worte, die rund um Ihre Backlinks erscheinen neigen hilft zu sagen, was das Google Seite geht.

114 Backlink Alter:. Laut einer Google-Patent, ältere Links Ranking haben mehr Macht als frisch gebackenen Backlinks.

. 115 Links von Echt Seiten vs Splogs: Aufgrund der Verbreitung von Blog-Netzwerke, Google gibt wahrscheinlich mehr Gewicht auf Links aus „echten Sites“ als von gefälschten Blogs. Sie verwenden wahrscheinlich Marke und Benutzerinteraktion Signale zwischen den beiden zu unterscheiden.

116 Natural Link Profil:. Eine Website mit einem „natürlichen“ Link-Profil wird zu hoch Rang und haltbarer sein, um Updates.

. 117 Reciprocal Links: Google-Link-Seite listet Schemes „Übermäßige Link Austausch“ als Link-Schema zu vermeiden.

. 118 User Generated Content Links: Google ist in der Lage, Links von UGC erzeugt im Vergleich zu den tatsächlichen Inhaber der Website zu identifizieren. Zum Beispiel wissen sie, dass ein Link von der offiziellen Blog auf WordPress.com en.blog.wordpress.com ist ganz anders als ein Link von besttoasterreviews.wordpress.com.

. 119 Links von 301: Links von 301-Weiterleitungen kann ein wenig Saft im Vergleich zu einem direkten Link zu verlieren. Allerdings, sagt Matt Cutts, dass ein 301 ist das ähnlich wie bei einem direkten Link.

. 120 Schema.org Microformats: Seiten, die Mikroformate unterstützen, können über Seiten ohne es Rang. Dies kann eine direkte Verstärkung oder die Tatsache, dass Seiten mit microformatting haben eine höhere SERP CTR sein:

. 121 DMOZ Eingestellt: Viele glauben, dass Google gibt DMOZ Websites ein wenig mehr Vertrauen.

. 122 Yahoo! Verzeichnis Eingestellt: Der Algorithmus könnte auch einen besonderen Platz für die Yahoo!-Verzeichnis, wenn man bedenkt, wie lange es wurde Katalogisierung Websites.

. 123 Anzahl ausgehender Links auf Seite: PageRank ist endlich. Ein Link auf eine Seite mit hunderten von OBLS geht weniger PR als eine Seite mit nur wenigen OBLS.

. 124 Forum Profil Links: Aufgrund der industriellen Ebene Spamming, kann Google deutlich abwerten Forum Links von Profilen.

. 125 Word Count Verknüpfung von Inhalt: Ein Link von einem 1000-Wort-Beitrag ist wertvoller als ein Link in einer 25-Wort-Schnipsel.

. 126 Qualität der Verknüpfung von Inhalt: Links von schlecht geschrieben oder Spinn Inhalt nicht so viel Wert zu übergeben, wie Links von gut geschrieben, Multimedia-Inhalte erweitert.

. 127 Sitewide Links: Matt Cutts hat bestätigt, dass sitewide Links sind „komprimiert“ als Single-Link zu zählen.

Benutzerinteraktion

. 128 Bio-Click Through Rate für ein Keyword: Seiten, die mehr in CTR geklickt bekommen kann eine SERP Schub für die jeweilige Stichwort zu bekommen.

. 129 Bio-CTR für Alle Keywords: Eine Seite (oder Website) organische CTR für alle Keywords ist für Reihen kann ein Mensch-basierte Benutzerinteraktionssignal sein.

. 130 Bounce Rate: Nicht jeder in SEO stimmt hüpfen Kursfragen, aber es kann ein Weg sein, um Google ihren Nutzern als Qualitätstester (Seiten, auf denen die Menschen schnell hüpfen ist wahrscheinlich nicht sehr gut) zu verwenden.

. 131 Direkt Traffic: Es ist bestätigt, dass Google Daten aus Google Chrome, um zu bestimmen, ob Menschen eine Website besuchen (und wie oft). Seiten mit vielen direkten Verkehr sind wahrscheinlich höhere Qualität als Websites, die nur sehr wenig direkten Verkehr.

. 132 Wiederholen Traffic: Sie können auch bei, ob Benutzer auf eine Seite oder Website nach dem Besuch gehen sehen. Seiten mit wiederkehrende Besucher können sich eine Google-Ranking zu steigern.

. 133 Blockierte Websites: Google hat diese Funktion in Chrome eingestellt. Allerdings verwendet Panda diese Funktion als Qualitätssignal.

134 Chrome Bookmarks:. Wir wissen, dass Google Chrome-Browser sammelt Nutzungsdaten. Seiten, die in Chrome Lesezeichen bekommen könnte einen Schub bekommen.

135 Google Toolbar Daten:. Search Engine Watch Danny Goodwin berichtet, dass Google Toolbar Daten als Ranking-Signal. Doch neben Seitenladegeschwindigkeit und Malware, es ist nicht, welche Art von Daten sie aus der Symbolleiste aufzulesen.

. 136 Anzahl der Kommentare: Seiten mit vielen Anmerkungen können ein Signal der Benutzer-Interaktion und Qualität sein.

137 Verweilzeit:. Google zahlt sehr genau auf „Verweilzeit“: wie lange verbringen die Menschen auf Ihre Seite, wenn man aus einer Google-Suche. Dies wird manchmal auch als „long Klicks vs kurze Klicks“ bezeichnet. Wenn die Menschen verbringen viel Zeit auf Ihrer Website, kann diese als Qualitätssignal verwendet werden.

Spezielle Regeln Algorithmus

. 138 Abfrage verdient Frische: Google gibt einen Schub neuer Seiten für bestimmte Suchanfragen.

. 139 Abfrage verdient Diversity: Google kann auf eine Vielfalt SERP für mehrdeutige Stichworte wie „Ted“, „WWF“ oder „ruby“ hinzuzufügen.

. 140 User-Browsing History: Websites, die Sie häufig besuchen, während in Google SERP unterzeichnet bekommen eine Beule für Ihre Suche.

. 141 Benutzersuche Geschichte: Suche Kette Einfluss Suchergebnisse für spätere Suchanfragen. Zum Beispiel, wenn Sie für „Bewertungen“, dann für „Toaster“ zu suchen zu suchen, Google ist eher in den SERPs Toaster review sites höher zu zeigen.

. 142 Geo-Targeting: Google Vorzug zu Seiten mit einem lokalen Server IP und länderspezifische Domain-Namen-Erweiterung.

. 143 Safe Search: Suchergebnisse mit Schimpfwörter oder Erwachsener Inhalt wird nicht für Menschen mit Safe Search erscheinen eingeschaltet.

. 144 Google+ Circles: Google zeigt höhere Ergebnisse für Autoren und Websites, die Sie haben, Ihre Google Plus Circles hinzugefügt

. 145 DMCA Beschwerden: Google „downranks“ Seiten mit DMCA-Beschwerden.

146 Domain-Vielfalt:. Die so genannte „Bigfoot Update“ angeblich zu jeder Seite hinzugefügt SERP mehr Domains.

. 147 Transactional Suchen: Google zeigt manchmal unterschiedliche Ergebnisse für Shopping-verwandte Keywords, wie Flugsuchen .

. 148 Lokale Suchen: Google legt oft Google+ Lokale Ergebnisse über dem „normalen“ organischen SERPs.

149 Google News Box:. Bestimmte Stichworte, lösen eine Google News Feld:

. 150 große Marken-Vorlieben: Nach dem Vince Update, begann Google geben große Marken einen Schub für bestimmte Short-Tail-Suchanfragen.

. 151 Einkaufs Ergebnisse: Google manchmal zeigt Google Shopping Ergebnisse in organischen SERPs.

. 152 Ergebnisse Bilder: Google Ellenbogen unserem Bio-Angebote für Bildergebnisse für die Suche häufig auf Google-Bildsuche verwendet.

. 153 Easter Egg Ergebnisse: Google hat ein Dutzend oder so Osterei Ergebnisse. Zum Beispiel, wenn Sie für „Atari Breakout“ in Google-Bildersuche zu suchen, drehen Sie die Suchergebnisse in ein spielbares Spiel (!). Shout Out an Victor Pan für diese ein.

. 154 Einzel Ergebnisse für Marken-Site: Domain oder markenorientierten Keywords bringen einige Ergebnisse aus dem gleichen Ort.

Soziale Signale

. 155 Anzahl der Tweets: Wie Links, Tweets die eine Seite hat, kann seinen Rang in Google beeinflussen.

. 156 Behörde der Twitter-Nutzer-Konten: Es ist wahrscheinlich, dass die Tweets, die von Alter, Autorität Twitter-Profile mit einer Tonne von Anhängern (wie Justin Bieber) haben mehr Wirkung als Tweets von neuen, preis Einfluss Konten.

. 157 Anzahl der Facebook-Likes: Obwohl Google nicht sehen können, die meisten Facebook-Konten, ist es wahrscheinlich, dass sie prüfen, die Zahl der Facebook mag eine Seite erhält als schwache Ranking-Signal.

. 158 Facebook-Aktien: Facebook-Aktien – weil sie mehr Ähnlichkeit mit einem Backlink – kann einen stärkeren Einfluss als Facebook haben mag.

. 159 Behörde von Facebook-Benutzerkonten: Wie bei Twitter, Facebook Aktien und mag aus beliebten Facebook-Seiten kann mehr Gewicht geben.

. 160 Pinterest Pins: Pinterest ist eine wahnsinnig beliebte Social-Media-Account mit vielen öffentlichen Daten. Es ist wahrscheinlich, dass Google hält Pinterest Pins ein soziales Signal.

. 161 Stimmen auf Social-Sharing-Sites: Es ist möglich, dass Google-Aktien auf Seiten wie Reddit, StumbleUpon und Digg als eine andere Art von Social Signals.

. 162 Anzahl der Google+ 1 ist: Auch wenn Matt Cutts auf der Platte mit den Worten Google+ hat „keine direkten Auswirkungen“ auf Rankings gegangen, ist es schwer zu glauben, dass sie würden ihre eigenen sozialen Netzwerk zu ignorieren.

. 163 Behörde von Google+ Benutzerkonten: Es ist logisch, dass Google +1′ s wiegen maßgebliche Konten kommen mehr als von den Konten ohne viele Anhänger.

164 Verifizierte Google+ Autor:. Im Februar 2013 Google-CEO Eric Schmidt bekanntlich behauptet:

„Innerhalb von Suchergebnissen, Informationen zu überprüften Online-Profile gebunden wird höher sein als Inhalt auf Platz ohne eine solche Überprüfung werden, was die meisten Nutzer natürlich Sie auf den oberen (überprüft) Ergebnisse führen wird.“

Verifizierte Urheber bereits eine Vertrauenssignal sein.

165 Sozial Signal Relevanz:. Google wahrscheinlich verwendet Relevanz Informationen vom Konto teilen den Inhalt und den Text den Link umgibt.

166 Standortebene Soziale Signale:. Website-weiten sozialen Signale Gesamtverantwortung einer Website zu erhöhen, welche Such Sichtbarkeit für alle Seiten erhöhen.

Marke Signale

. 167 Markenname Anchor Text: Branded Anchor-Text ist eine einfache – aber starke – Marke Signal.

. 168 Branded Suchen: Ganz einfach: die Leute suchen für Marken. Wenn die Leute suchen für Ihre Website in Google (zB „Backlinko twitter“, Backlinko + „-Ranking-Faktoren“), wahrscheinlich nimmt Google dies bei der Bestimmung einer Marke.

. 169 Seite hat Facebook-Seite und Stimmen: Marken neigen dazu, Facebook-Seiten mit vielen Leuten zu haben.

. 170 Website hat Twitter Profil mit Anhänger: Twitter-Profile mit einer Menge von Anhängern signalisiert eine beliebte Marke.

171 Amts Linkedin Company Seite:. Die meisten Unternehmen haben echte Firma Linkedin Seiten.

. 172 Mitarbeiter Gelistet bei Linkedin: Rand Fishkin denkt, dass mit Linkedin-Profile, die sie für Ihr Unternehmen arbeiten, sagen, ist eine Marke Signal.

. 173 Legitimität der Social Media-Konten: Ein Social-Media-Account mit 10.000 Anhängern und 2 Beiträge wahrscheinlich interpretiert viel anders als eine andere 10.000 Follower starken Konto mit viel Interaktion.

. 174 Marke Erwähnungen in News Seiten: Wirklich große Marken bekommen auf Google News Seiten erwähnt die ganze Zeit. In der Tat, einige Marken haben sogar ihre eigene Google News-Feed auf der ersten Seite.

175 Co-Citations:. Marken zu bekommen, ohne sich zu verlinkenden erwähnt. Google sieht wahrscheinlich nicht erwähnt Hyperlink Marke als Marke-Signal.

. 176 Anzahl der RSS Abonnenten: Bedenkt man, dass Google besitzt das beliebte Feedburner RSS-Service, macht es Sinn, dass sie bei RSS Teilnehmerdaten wie eine Beliebtheits / Marke Signal zu suchen.

. 177 Brick and Mortar Lage Mit Google+ Local Listing: Echt Unternehmen haben Büros. Es ist möglich, dass Google Fische für Standort-Daten, um zu ermitteln, ob eine Website ist eine große Marke.

. 178 Webseite ist Steuerzahl Geschäft: Moz berichtet, dass Google an, ob eine Website mit einem steuerzahlenden Unternehmen verbunden sehen.

On-Site-Webspam Faktoren

. 179 Panda Elfmeter: Seiten mit Low-Qualität der Inhalte (insbesondere Inhalte Farmen) sind weniger sichtbar auf der Suche nach immer von einem Panda Strafe getroffen.

. 180 Links zu schlechte Nachbarschaften: Verknüpfung aus, um „schlechte Nachbarschaft“ – wie Apotheke oder Zahltag Darlehen Websites – können die Suche Sichtbarkeit zu verletzen.

. 181 Redirects: Sneaky leitet ist ein großes no-no. Wenn gefangen, kann es eine Website nicht nur bestraft, aber de-indiziert.

. 182 Popups oder störende Anzeigen: Die offizielle Google Rater Richtlinien Dokument sagt, dass störende Popups und Anzeigen ist ein Zeichen für eine niedrige Qualität Ort.

183. Site Over-Optimization: Includes on-page factors like keyword stuffing, header tag stuffing, excessive keyword decoration.

184. Page Over-Optimizaton: Many people report that — unlike Panda — Penguin targets individual page (and even then just for certain keywords).

185. Ads Above the Fold: The „Page Layout Algorithm“ penalizes sites with lots of ads (and not much content) above the fold.

186. Hiding Affiliate Links: Going too far when trying to hide affiliate links (especially with cloaking) can bring on a penalty.

187. Affiliate Sites: It’s no secret that Google isn’t the biggest fan of affiliates. And many think that sites that monetize with affiliate links are put under extra scrutiny.

188. Autogenerated Content: Google isn’t a big fan of autogenerated content. If they suspect that your site’s pumping out computer-generated content, it could result in a penalty or de-indexing.

189. Excess PageRank Sculpting: Going too far with PageRank sculpting — by nofollowing all outbound links or most internal links — may be a sign of gaming the system.

190. IP Address Flagged as Spam: If your server’s IP address is flagged for spam, it may hurt all of the sites on that server.

191. Meta Tag Spamming: Keyword stuffing can also happen in meta tags. If Google thinks you’re adding keywords to your meta tags to game the algo, they may hit your site.

Off Page Webspam Factors

192. Unnatural Influx of Links: A sudden (and unnatural) influx of links is a sure-fire sign of phony links.

193. Penguin Penalty: Sites that were hit by Google Penguin are significantly less visible in search.

194. Link Profile with High % of Low Quality Links: Lots of links from sources commonly used by black hat SEOs (like blog comments and forum profiles) may be a sign of gaming the system.

195. Linking Domain Relevancy: The famous analysis by MicroSiteMasters.com found that sites with an unnaturally high amount of links from unrelated sites were more susceptible to Penguin.

196. Unnatural Links Warning: Google sent out thousands of „Google Webmaster Tools notice of detected unnatural links“ messages. This usually precedes a ranking drop, although not 100% of the time.

197. Links from the Same Class C IP: Getting an unnatural amount of links from sites on the same server IP may be a sign of blog network link building.

198. „Poison“ Anchor Text: Having „poison“ anchor text (especially pharmacy keywords) pointed to your site may be a sign of spam or a hacked site. Either way, it can hurt your site’s ranking.

199. Manual Penalty: Google has been known to hand out manual penalties, like in the well-publicized Interflora fiasco.

200. Selling Links: Selling links can definitely impact toolbar PageRank and may hurt your search visibility.

201. Google Sandbox: New sites that get a sudden influx of links are sometimes put in the Google Sandbox, which temporarily limits search visibility.

202. Google Dance: The Google Dance can temporarily shake up rankings. According to a Google Patent, this may be a way for them to determine whether or not a site is trying to game the algorithm.

203. Disavow Tool: Use of the Disavow Tool may remove a manual or algorithmic penalty for sites that were the victims of negative SEO.

204. Reconsideration Request: A successful reconsideration request can lift a penalty.


google-crawler

Technisches SEO: Optimierung für die Ideale robots.txt

Ein absolutes Basic bei der SEO Optimierung einer Webseite, stellt die Optimierung für die ideale robots.txt dar.

Was ist die robots.txt:

Die Robots Exclusion Protocol (REP) oder robots.txt ist eine Textdatei, um Suchmaschinen Roboter anzuweisen, wie diese crawlen (Webseite durchsuchen) und in der Suchmaschine indexieren (aufnehmen) dürfen.

Diese Textdatei muss immer „robots.txt“ heißen und muss immer im Hauptverzeichnis (Root) der Webseite liegen, siehe Beispiel: http://www.webfreundlich.de/robots.txt

Gründe für die Optimierung der idealen robots.txt:

  1. Google sucht als ersten bei dem Aufruf einer Webseite nach dieser Datei, was deren Bedeutung unterstreicht
  2. Manchmal wird eine Webseite für den Google Bot unbewusst ganz oder teilweise gesperrt
  3. Oft wird eine Webseite an Stellen gecrawlt, welche für den Google Bot Tabu sein sollten und somit wird wertvolles Crawling Budget verschwendet
  4. Auch falsche robots.txt Einträge werden oft gesehen, welche dann keine Wirkung haben, wie gewünscht

Übersicht der Befehle zur die Optimierung der robots.txt:

Blockieren aller Web-Crawler von allen Inhalten
User-agent: *

Disallow: /

Blockieren Sie eine bestimmte Web-Crawler aus einem bestimmten Ordner
User-agent: Googlebot

Disallow: /verzeichnis-xyz/

Blockieren Sie eine bestimmte Web-Crawler von einer bestimmten Web-Seite
User-agent: Googlebot

Disallow: /verzeichnis-xyz/blockierte-seite.html

Lassen Sie eine spezielle Web-Crawler, um eine bestimmte Webseite besuchen

User-agent: *

Disallow: /verzeichnis-xyz/blockierte-seite.html

User-agent: Googlebot

Allow: /verzeichnis-xyz/blockierte-seite.html

Sitemap Parameter 

Sitemap: http://www.webfreundlich.de/sitemap_index.xml

Prüfung der robots.txt auf Fehler

Nutzen Sie die Möglichkeit, Ihre Robots.txt auf Fehler zu prüfen. Hierzu stellt Google in den Google Webmaster Tools ein eigenes Tool zur Verfügung.

 

robots-txt-tester

Wichtige robots.txt Regeln

  • Immer daran denken: die robots.txt kann einer Suchmasche nur das Crawling untersagen, aber nicht die Indizierung!
  • Wenn ein Verzeichnis oder eine Datei bereits im Google Index zu finden sind, sollte zuerst das Meta Tag  Robots mit den Parametern „noindex, follow“ zur Steuerung Indexierung eingesetzt werden
  • Erst wenn ein Verzeichnis oder eine Datei nicht mehr im Google Index zu finden sind, sollte man diese mit der robots.txt auch für das Crawling sperren
  • Es ist wichtig zu beachten, dass bösartige Crawler wahrscheinlich die robots.txt völlig ignorieren
  • Nur ein „Disallow:“-Zeile wird für jede URL erlaubt
  • Jede Subdomain auf einem Root-Domain verwendet eine separate robots.txt-Dateie
  • Google und Bing übernehmen zwei Zeichen für spezifische Expressionsmuster Ausgrenzung (* und $) regelmäßig.
  • Der Dateiname der robots.txt-und Kleinschreibung. Verwenden Sie „robots.txt“, nicht „Robots.txt“.

Weitere Informationen zur robots.txt:

Die Robots Exclusion Protocol (REP) ist eine Gruppe von Web-Standards, Web-Roboter Verhalten und die Indizierung durch Suchmaschinen zu regulieren. Die REP besteht aus den folgenden:

  • Die ursprüngliche REP von 1994, erweitert 1997, die Definition Raupen Richtlinien für robots.txt. Einige Suchmaschinen-Unterstützung Erweiterungen wie URI-Muster (Wild Cards).
  • Seine Ausdehnung von 1996 definiert, Indexer-Richtlinien (REP-Tags) für den Einsatz in der Robots-Meta-Element, auch bekannt als „Robots-Meta-Tag.“ Inzwischen Suchmaschinen unterstützen zusätzliche REP-Tags mit einem X-Robots-Tag. Webmaster können REP-Tags im HTTP-Header von Nicht-HTML-Ressourcen, wie PDF-Dokumente oder Bilder anzuwenden.
  • Die Microformat rel-nofollow von 2005 definiert, wie Suchmaschinen sollten Links zu behandeln, wo die Ein Element der REL-Attribut enthält den Wert „nofollow“.

Robots Exclusion Protocol Schlagwörter

Zu einer URI, REP-Tags (noindex, nofollow, unavailable_after) steuern insbesondere Aufgaben der Indexer und in einigen Fällen (nosnippet, noarchive, noodp), auch für Abfragen zur Laufzeit einer Suchanfrage angewendet. Anders als bei Raupen Richtlinien, interpretiert jede Suchmaschine REP-Tags anders. Zum Beispiel, wischt sich sogar Google-URL nur Inserate und ODP Verweise auf ihren SERPs, wenn eine Ressource getaggt mit „noindex“, aber manchmal Bing Listen auf ihren SERPs derartige externe Verweise auf URLs verboten. Seit REP-Tags können in META-Elemente von X / HTML-Inhalte sowie in HTTP-Header von einem beliebigen Web-Objekt zugeführt werden, ist der Konsens, dass der Inhalt von X-Robots-Tags sollten widersprüchliche Richtlinien in META-Elemente gefunden stimmen.

Microformats

Indexer-Richtlinien setzen, wie Mikroformate werden Seiteneinstellungen für bestimmte HTML-Elemente überstimmen. Zum Beispiel, wenn eine Seite von X-Robots-Tag heißt es „folgen“ (es gibt keine „nofollow“-Wert), die rel-nofollow-Richtlinie eines bestimmten A-Element (Link), gewinnt.

Obwohl robots.txt fehlt Indexer-Richtlinien, ist es möglich, Indexer Richtlinien für Gruppen von URIs mit serverseitigen Skripts auf Site-Ebene, die X-Robots-Tags, die angeforderten Ressourcen gelten handeln gesetzt. Diese Methode erfordert Programmierkenntnisse und ein gutes Verständnis von Web-Server und das HTTP-Protokoll.

Pattern Matching

Google und Bing sowohl ehren zwei reguläre Ausdrücke, die verwendet werden können, um Seiten oder Unterordnern, die ein SEO will ausgeschlossen identifizieren. Diese beiden Zeichen sind die Stern (*) und das Dollarzeichen ($).

* – Das ist eine Wildcard, die jede Folge von Zeichen repräsentiert, ist
$ -, Die das Ende der URL entspricht
Presse und Information

Die robots.txt-Datei ist öffentlich-bewusst sein, dass eine robots.txt-Datei ist eine öffentlich zugängliche Datei. Jeder kann sehen, welche Abschnitte eines Servers der Webmaster die Motoren blockiert aus. Das bedeutet, wenn ein SEO hat private Anwender Informationen, die sie nicht wollen, dass öffentlich durchsuchbar, werden sie eine sichere Ansatz-wie verwenden sollte als Passwort-Schutz-Besucher aus der Anzeige keine vertraulichen Seiten, die sie nicht indiziert werden wollen zu halten.


top 5 seo fehler

Die Top 5 SEO Fehler laut Google

In einem kürzlich veröffentlichten Video, hat Matt Cutts, Leiter des Google-Suche Spam Teams, die Top 5 SEO Fehler erklärt.

Matt Cutts sagte dies sind nicht die verheerendsten Fehler, sondern die häufigsten Fehler.

  1. Keine  Webseite zu besitzen bzw, eine Website, die nicht gecrawlt werden kann, ist der größte Fehler den er sieht.
  2. Die falschen Wörter (Keywords) auf der Seite. Das Beispiel Matt gab, ist: nicht nur zu schreiben, „Mt. Everest Höhe „, sondern schreiben,“ Wie hoch ist der Mt.. Everest? „, Denn das ist, wie die Menschen suchen.
  3. Nicht über Link Building nachdenken, sondern sich über überzeugende Inhalte und Marketing Gedanken machen
  4. Vergessen Sie nicht, über Titel und die Beschreibung Ihrer wichtigsten Seiten korrekt zu beschreiben (wieder das Keyword Thema siehe auch Punkt 2)
  5. Nutzen Sie die Google Webmaster-Tools und lernen Sie, wie Google funktioniert und wie SEO funktioniert

Also, das sind Matt 5 Top SEO Fehler. Hier ist sein Video dazu:


Recap der SEO Campixx 2013

Recap der SEO Campixx 2013

Recap der SEO Campixx 2013

Recap der SEO Campixx 2013

Und schon ist sie wieder vorbei, die SEO Campixx 2013. Es war lustig, anstrengend und wie immer mit einer solchen Masse an Sessions, so dass man schnell Gefahr läuft in der „falschen“ Session zu landen. So geht es zumindest mir immer wieder. Geht man in die Sessions mit den hochtrabenden und vielversprechenden Session Titeln, waird man leider oftmals enttäuscht und es kommt nur heise Luft. Hält man sich an die bekannten Speaker, dann ist die Qualität gewohnt hoch, jedoch wiederholt sich hier dann auch immer wieder das eine oder andere in der Session, kann ich gut verstehen.

Kurz und knapp hier die Recap der SEO Campixx 2013 Sessions, welche ich besucht habe und meine Notizen:

Thema Referent Notizen
Begrüßung    
Interne Verlinkung Thomas Zeithaml
+ Kai Spriestersbach
Thomas hat ein neues, eigenes Tool für die Überprüfung der internen Verlinkungen.
Interne Links nicht so oft ändern,wird gar nicht so schnell erkannt um zu wirken
Wikipedia Links Malte Landwehr NDA
DC Extreme Fabian Drescher plädiert dafür, auf MBA´s aus den Artikeltexten, eine
Keyworliste einzubauen ala „das suchten andere Kunden“
Oder ähnlich
Content Marketing Sasa Ebach  
Crawler based
Marketing
Thomas Mindnich Tool „S4“ auf itam.net. Crawlt in Deutschland und wertet diese aus
     
     
Thema Referent  
SEO Remix Wenzel Autor von allblogs.de. Vorstellung von Systemen wie: Attribuematrix, Triz und der Widerspruchsmatrix.
Interessant: die Zipfsche Verteilung bei Texte sollte eingehalten werden: http://de.wikipedia.org/wiki/Zipfsches_Gesetz
In Person Events Populatity Reference Konferenzen veranstalten und dann die SocialMedia
Erwähnungen beobachten
Pinguin Kilian Präsi über die Enstehung des eigenen Shops und kurze
Erklärung über den Abbau von 350 Links
Data Scraping
Mit Excel
Catbird Seat Erläuterungen zum Excel Tool von „Niels Bosma“ und viele
API´s zu Tools wie SEOlytics oder MajesticSEO

  Hier auch eine Reihe weitere Blogs mit Recap der SEO Campixx 2013:

http://www.seodeluxe.de/blog/seo-campixx-2013-recap-sammlung/
http://www.frontpigs.de/seo-campixx-2013-so-habe-ich-sie-erlebt/
http://www.popularity-reference.de/seo-campixx-2013-recap/
http://www.mindshape.de/blog/seo/campixx-recap-2013.html
http://seouxindianer.de/blog/seo-campixx-2013-precap/
http://www.seoblog.net/seo-campixx-2013-recap/
http://www.prometeo.de/2013/03/campixx-2013-onpage-optimierung-mit-dem-seo-screaming-frog/
http://www.tagseoblog.de/die-szene-wird-weiss-seo-campixx-2013-recap-mit-vielen-bildern
http://www.madayo.de/seo-campixx-2013-wie-immer-klasse.html
http://www.tekka.de/2013/03/17/seo-campixx-2013-recap/
http://www.neukunden-magnet.de/narf-recap-zur-seo-campixx-2013/
http://www.seokai.com/seo-campixx-2013-recap/
http://linkbuildingblog.de/2013/03/18/seo-campixx-2013-mein-recap/
http://www.linkbird.de/blog/in-eigener-sache/seo-campixx-2013-recap/
http://www.affiliate-auf-weltreise.de/das-war-die-seocampixx-2013-mein-recap/
http://blog.addwert.de/seo-campixx-2013-recap/
http://www.fastbacklink.de/blog/seo-campixx-2013-recap/
http://www.omgplus.de/campixx-2013-recap/
http://de.onpage.org/blog/seo-campixx-2013-recap-von-onpage-org

http://blog.121watt.de/allgemein/seo-campixx-2013-recap

 


Googels Leitspruch „Dont be evil“ und deren Doppelmoral

Wer kennt sie nicht, die „wir sind die Guten“ Regeln des Suchmaschinen Monopolisten Google wie zum Beispiel:

„Don´t be evil“

oder deren erste Regel in Ihrem Firmen Manifest

„Focus on the user all else will follow“

Doch hinter der Fassade, dass immer alles für den User und das Netz im allgemeinen getan wird, liegen für ein Börsen notiertes Unternehmen dennoch monetäre Ziele und der ständige Drang der Anleger nach Wachstum.

Gerade das Thema „Wachstum“ treibt den „beinahe Monopolisten“ Google indes immer mehr in einer Doppelmoral gegebüber den organischen Suchergebnissen und den bezahlten Anzeigen.

Aktuelle Google Updates ala Panda und Pinguine erscheinen in einem ganz neuen Licht, liest man den Blogbeitrag von Philipp Klöckner „Von der Netz-Demokratie zum Google-Monopoly

ladenzeile-google-trends

ladenzeile-google-trends

Gerade die aktuellen Abstrafungen im organischen Index der Seiten von Groupon oder Ladenzeile zeigen diese Doppelmoral sehr gut auf. Hier wurden die Updates damit begründet, dass man diese Seiten wegen zu geringer Qualität aus dem Index verbannt habe.

Im Gegenzug kauft sich Google ähnliche Dienste aktuell zusammmen und pusht genau dieses Geschäft nun mit eigener Kraft.

Ähnlich wie man das schon von Amazon kennt, wird es immer gefährlicher mit diesen Giganten zusammen zu arbeiten. Zu Beginn einer Partnerschaft sieht noch alles schoko loko aus und beide Parteien profitieren in einer Win-Win Situation, so im Beispiel der Hotelvergleichseiten, der Couponing Angebote und der Google Shopping Integrationen.

Doch wehe der Wachstumszwang nach neuen Umsatzfeldern nimmt wieder überhand, dann geht es ganz schnell und es werden die erfolgreichen Geschäftsmodelle der aktuellen Partner kopiert und der Partner mit einem neuen Google Update im SEO und neuen Regeln im SEA einfach und freundlich eleminiert.

Drum prüfe wer sich ewig bindet!

Nachtrag, 02.12.2012: Ich habe heute auch noch einmal die aktuellen Google Grundsätze heraus gesucht:

Zitat:

  1. „Der Nutzer steht an erster Stelle, alles Weitere folgt von selbst.

    Seit der Gründung des Unternehmens konzentrieren wir uns bei Google darauf, dem Nutzer alles so bequem und einfach wie möglich zu machen. Von der Entwicklung eines neuen Internetbrowsers bis zum letzten Schliff des Designs der Startseite ist es unser höchster Anspruch, dass Sie von diesen Verbesserungen profitieren. Interne Ziele oder Gewinne stehen dabei nicht im Vordergrund. Unsere Benutzeroberfläche ist übersichtlich und schlicht und Seiten werden sofort geladen. Platzierungen in den Suchergebnissen können unter keinen Umständen gekauft werden und Anzeigen sind nicht nur klar als solche gekennzeichnet, sondern bieten außerdem relevante Inhalte und lenken nicht von der eigentlichen Suche ab. Neue Tools und Anwendungen sollten unserer Ansicht nach so gut funktionieren, dass Sie keinen Gedanken daran verschwenden, was man hätte anders machen können.

  2. Es ist am besten, eine Sache so richtig gut zu machen.

    Google ist auf Suchanfragen spezialisiert. Wir verfügen über eine der größten Forschungsabteilungen weltweit, die sich ausschließlich darauf konzentriert, Probleme im Zusammenhang mit Suchanfragen zu lösen. Deshalb wissen wir, wo wir gute Arbeit leisten und wo wir noch besser werden können. Und weil wir auch bei großen Schwierigkeiten nicht locker lassen, sind wir in der Lage, komplexe Probleme zu lösen und immer wieder Verbesserungen an einem Dienst vorzunehmen, mit dem schon jetzt Millionen von Nutzern die gewünschten Informationen einfach und schnell finden. Durch unser Engagement für die Verbesserung der Suchfunktion konnten wir unsere erworbenen Kenntnisse auch auf neue Produkte wie Gmail und Google Maps anwenden. Wir möchten den Erfolg der Suche auch auf zuvor unerforschte Bereiche übertragen, damit Nutzer einen noch größeren Teil der ständig steigenden Informationsmengen effizient für sich nutzen können.

  3. Schnell ist besser als langsam.

    Zeit ist für uns alle sehr wertvoll, und wenn Sie etwas im Web suchen, dann wollen Sie die Antwort sofort. Dieser Erwartungshaltung möchten wir bei jeder Nutzung von Google gerecht werden. Google ist wahrscheinlich weltweit das einzige Unternehmen mit dem ausdrücklichen Ziel, dass Nutzer die Website schnellstmöglich wieder verlassen. Immer wieder gelingt es Google, eigene Geschwindigkeitsrekorde zu brechen, da wir daran arbeiten, jedes überflüssige Bit und Byte von unseren Seiten zu entfernen und die Effizienz der Server-Infrastruktur zu erhöhen. Die durchschnittliche Antwortzeit bei einer Suche beträgt aktuell nur noch den Bruchteil einer Sekunde. Bei jeder neuen Produktentwicklung ist Schnelligkeit eines der wichtigsten Kriterien, unabhängig davon, ob wir eine mobile Anwendung oder einen Browser wie Google Chrome entwickeln, der für die Geschwindigkeit des modernen Internets optimiert ist. Und wir arbeiten kontinuierlich daran, alles noch ein bisschen schneller zu machen.

  4. Demokratie im Internet funktioniert.

    Das Konzept von Google funktioniert, da es auf Millionen von einzelnen Nutzern basiert, die auf ihren Websites Links setzen und so bestimmen, welche anderen Websites wertvolle Inhalte bieten. Anhand von über 200 Signalen und einer Vielzahl von Techniken schätzen wir die Wichtigkeit jeder Webseite ein. Von besonderer Bedeutung ist dabei unser patentierter PageRank™-Algorithmus, mit dessen Hilfe wir analysieren, welche Websites von anderen Seiten im Web für gut befunden wurden. Diese Methode wird in der Tat besser, je größer das Internet wird, da jede Website eine weitere Informationsquelle darstellt und ein weiteres Votum ist, das zählt. Zugleich fördern wir die Entwicklung von Open Source-Software, bei der durch die gemeinsame Leistung zahlreicher Programmierer der Weg für neue Innovationen geebnet wird.

  5. Man sitzt nicht immer am Schreibtisch, wenn man eine Antwort benötigt.

    Die Mobilität nimmt weltweit zu: Informationen sollen überall und ständig verfügbar sein. Wir entwickeln innovative Technologien und neue Mobillösungen, mithilfe denen Menschen weltweit umfangreiche Funktionen auf ihrem Handy nutzen können. Das reicht vom Abrufen von E-Mails und Termine über das Ansehen von Videos bis zu den zahlreichen Möglichkeiten der Google-Suche. Mit Android, unserer kostenlosen Open-Source-Plattform für Mobilgeräte, möchten wir Nutzern auf der ganzen Welt eine weitere Innovation und die ganze Offenheit des Internets zugänglich machen. Android bietet nicht nur eine größere Auswahl an innovativen Mobillösungen für Nutzer, sondern eröffnet auch Umsatzmöglichkeiten für Mobilfunkanbieter, Hersteller und Entwickler.

  6. Geld verdienen, ohne jemandem damit zu schaden.

    Google ist ein Wirtschaftsunternehmen. Die Firma erzielt Umsätze, indem sie anderen Unternehmen Suchtechnologien anbietet und Anzeigen verkauft, die auf der Website von Google und anderen Websites im Internet geschaltet werden. Hunderttausende von Kunden werben weltweit mit Google AdWords für ihre Produkte und Hunderttausende von Webseitenbetreibern nutzen unser Programm Google AdSense zur Bereitstellung relevanter Anzeigen für ihre Webinhalte. Wir möchten, dass alle unsere Nutzer zufrieden sind – unabhängig davon, ob sie Werbekunden sind oder nicht. Aus diesem Grund haben wir eine Reihe von Prinzipien für unsere Werbeprogramme entwickelt:

    • Google erlaubt die Schaltung von Werbung auf den Suchergebnisseiten nur dann, wenn sie für den Inhalt, bei dem sie geschaltet wird, relevant ist. Anzeigen können nützliche Informationen enthalten – falls, und nur falls, sie relevant sind für das, was Sie suchen. Darum ist es auch möglich, dass bei bestimmten Suchanfragen gar keine Anzeigen geschaltet werden.
    • Wir sind davon überzeugt, dass Werbung gleichzeitig effektiv und unaufdringlich sein kann. Google akzeptiert keine Pop-up-Anzeigen, die den gesuchten Inhalt möglicherweise verdecken. Wir haben herausgefunden, dass Textanzeigen mit Relevanz für den Nutzer, der sie liest, viel höhere Klickraten liefern, als Anzeigen, die nach dem Zufallsprinzip geschaltet werden. Jeder Werbetreibende, egal ob groß oder klein, kann von diesem höchst zielgerichteten Medium profitieren.
    • Anzeigen werden bei Google immer klar als solche gekennzeichnet. Ein besonders wichtiger Grundsatz von Google ist, dass es keine Kompromisse bezüglich der Integrität unserer Suchergebnisse geben darf. Platzierungen werden niemals manipuliert, um für unsere Partner eine höhere Stelle in den Suchergebnissen zu erzielen. Niemand kann einen besseren PageRank kaufen. Unsere Nutzer vertrauen auf die Objektivität von Google und kein kurzfristiger Nutzen könnte es jemals rechtfertigen, dieses Vertrauen zu brechen.
  7. Irgendwo gibt es immer noch mehr Informationen.

    Nachdem Google mehr Webseiten indexiert hatte als jeder andere Suchdienst, haben wir uns den Informationen zugewandt, die nicht so einfach im Web auffindbar waren. Manchmal ging es nur um die Einbeziehung neuer Datenbanken, etwa das Hinzufügen einer Telefonnummern- und einer Adresssuche oder eines Branchenverzeichnisses. Bei anderen Dingen war mehr Kreativität gefragt, beispielsweise beim Hinzufügen der Funktion für das Durchsuchen von Nachrichtenarchiven, Patenten, wissenschaftlicher Literatur, Milliarden von Bildern und Millionen von Büchern. Das ist aber noch nicht alles, denn das Forschungsteam von Google sucht weiter nach Möglichkeiten, wie alle weltweit verfügbaren Informationen Nutzern zugänglich gemacht werden können.

  8. Informationen werden über alle Grenzen hinweg benötigt.

    Auch wenn der Hauptsitz von Google in Kalifornien liegt, besteht unser Ziel darin, den Zugang zu Informationen weltweit und in jeder Sprache zu ermöglichen. Um dieses Ziel zu verwirklichen, haben wir Standorte in mehr als 60 Ländern aufgebaut und unterhalten mehr als 180 Internetdomains. Mehr als die Hälfte unserer Suchergebnisse liefern wir an Nutzer außerhalb der USA. Die Benutzeroberfläche der Google-Suche ist in über 130 Sprachen verfügbar und Nutzer können die Suchergebnisse auf ihre Sprache eingrenzen. Unser Ziel ist es, auch unsere übrigen Produkte und Apps in so vielen Sprachen und so barrierefrei wie möglich anzubieten. Mithilfe unserer Übersetzungstools können Nutzer außerdem Inhalte entdecken, die nicht in ihrer Sprache verfügbar sind. Dank dieser Tools und der Mitarbeit von ehrenamtlichen Übersetzern wurde sowohl die Vielfalt als auch die Qualität unserer Dienste stark verbessert, sodass wir sie sogar Nutzern in den abgelegensten Ecken der Welt zur Verfügung stellen können.

  9. Seriös sein, ohne einen Anzug zu tragen.

    Google wurde mit dem Grundsatz gegründet, dass Arbeit eine Herausforderung sein soll, die Spaß macht. Wir sind davon überzeugt, dass die richtige Unternehmenskultur die beste Basis für innovative und kreative Ideen ist – und damit sind nicht nur Lavalampen oder Gummibälle gemeint. Teamerfolg ebenso wie hervorragende Einzelleistungen sind die Schwerpunkte, die den Gesamterfolg von Google ausmachen. Unsere Mitarbeiter sind das Wichtigste: motivierte, leidenschaftliche Menschen mit unterschiedlichen Lebensläufen und einer kreativen Sicht auf die Arbeit und das Leben. In unserer ungezwungenen Atmosphäre können Ideen auch in der Warteschlange beim Mittagessen oder im Fitnesscenter entstehen. Diese Ideen werden ausgetauscht, getestet und in unglaublichem Tempo in die Praxis umgesetzt. Und vielleicht sind sie sogar der Beginn eines weltweit erfolgreichen Projekts.

  10. Gut ist nicht gut genug.

    Google sieht seine Spitzenstellung als Ausgangspunkt und nicht als Endpunkt. Wir setzen uns ehrgeizige Ziele, um unsere eigenen Erwartungen immer wieder zu übertreffen. Ein gut funktionierendes Produkt wird von Google durch Innovationen und schrittweise Weiterentwicklung in oft unerwarteter Weise immer weiter verbessert. Zum Beispiel funktioniert die Suche gut bei richtig geschriebenen Wörtern, aber was ist mit Rechtschreibfehlern? Einer unserer Entwickler hat dieses Problem erkannt und eine Rechtschreibprüfung entwickelt, wodurch die Suche noch intuitiver und besser geworden ist.

    Auch wenn Sie nicht genau wissen, wonach Sie suchen: Unsere Aufgabe ist es, im Internet eine Antwort zu finden. Wir versuchen, Bedürfnisse unserer Nutzer weltweit zu erkennen, bevor diese explizit ausgesprochen sind, und diese Bedürfnisse dann mit Produkten und Diensten zu adressieren, die immer wieder neue Maßstäbe setzen. Als wir Gmail starteten, bot es mehr Speicherplatz als jeder andere E-Mail-Dienst. Im Nachhinein scheint dies selbstverständlich, aber nur, weil mittlerweile neue Standards bezüglich der Menge an Speicherplatz von E-Mail-Diensten gelten. Solche Veränderungen wollen wir erreichen und wir suchen immer nach neuen Herausforderungen. Das permanente Hinterfragen und die Unzufriedenheit mit dem gegenwärtigen Stand der Dinge ist die treibende Kraft, die hinter allem steht, was wir tun“. – Zitat Ende