Die fünf Säulen einer effektiven SEO-Strategie

Die fünf Säulen im SEO, die Website-Besitzer berücksichtigen müssen

Natürlich haben diese fünf Bereiche eine gewisse Komplexität und Überlappung, aber das Verständnis Ihrer Stärken und Schwächen in Bezug auf sie ist der Schlüssel zur Fokussierung Ihrer Bemühungen.

1. Technisches SEO

Technisches SEO kann ein wenig einschüchternd erscheinen, aber wirklich, worüber wir sprechen, stellt sicher, dass eine Suchmaschine Ihre Inhalte lesen und Ihre Website erkunden kann. Vieles davon wird durch das von Ihnen verwendete Content-Management-System erledigt, und Tools wie Screaming Frog und Deep Crawl können Ihre Website erkunden und technische Probleme aufzeigen.

Die wichtigsten Bereiche, die hier berücksichtigt werden sollten, sind:

  • Crawling: Kann eine Suchmaschine Ihre Website korrekt erfassen?
  • Index: Ist es klar, welche Seiten die Suchmaschine indizieren soll und welche nicht?
  • Mobile.:Passt sich Ihre Website an mobile Nutzer an?
  • Geschwindigkeit: Schnelle Seitenladezeiten sind ein entscheidender Faktor, um Ihre Besucher glücklich zu machen.
  • Technik: Verwenden Sie für Ihre Website suchmaschinenfreundliche Technologie oder CMS?
  • Hierarchie: Wie sind Ihre Inhalte auf Ihrer Website strukturiert?

Wenn Sie ein kleines Unternehmen sind, das WordPress für Ihre Website nutzt, sollte das technische SEO etwas sein, das Sie ziemlich schnell von Ihrer Liste abhaken können. Wenn Sie eine große, maßgeschneiderte Website mit Millionen von Seiten haben, wird die technische SEO viel wichtiger.

Vieles von dem, was als „technische SEO“ bezeichnet wird, ist tatsächlich Teil Ihres Website-Designs und Ihrer Entwicklung. Der Trick besteht darin, sicherzustellen, dass Ihr Entwickler das Zusammenspiel zwischen Website-Design, -Entwicklung und SEO versteht und wie man eine unglaublich schnelle und für Mobilgeräte optimierte Website erstellt.

2. SEO Onsite-Optimierung

Ihre Website sollte als Ganzes und auf einer einzelnen Seitenebene optimiert werden. Es gibt einige Crossover hier von Ihrem technischen SEO, und Sie möchten mit einer gut strukturierten Inhaltshierarchie für Ihre Website beginnen.

Vorausgesetzt, Sie haben eine gut strukturierte Website, ist die sinnvolle Optimierung wieder relativ einfach. Die wichtigsten Bereiche, auf die Sie sich hier konzentrieren sollten, sind:

  • Keyword-Recherche. Verstehen Sie die Sprache Ihrer Zielgruppe
  • beschreibende URLs. Stellen Sie sicher, dass jede URL einfach und beschreibend ist.
  • Seitentitel. Verwenden Sie Schlüsselwörter natürlich innerhalb des Seitentitels.
  • Metabeschreibungen. Fertigen Sie Meta-Beschreibungen an, als wären sie Werbetexte, um Klicks zu erzielen.
  • Inhaltsoptimierung. Verwenden Sie sinnvollerweise Keywords und Variationen in Ihrer Seitenkopie.
  • gute Benutzererfahrung (UX). Stellen Sie sicher, dass Ihre Website eine Freude macht, wenn Sie sie verwenden und navigieren.
  • starke Handlungsaufforderungen. Machen Sie es Ihren Benutzern einfach, zu wissen, was als Nächstes zu tun ist.
  • strukturierte Datenauszeichnung. Nutzen Sie die neuesten SERP-Funktionen, um die Klickraten zu verbessern.
  • Nehmen Sie sich bei der Optimierung Ihrer Website Zeit, um Ihre Kunden zu berücksichtigen. Wenn Sie ein lokales Unternehmen sind, dann ist lokale SEO wichtiger, und Ihre Adresse und Ihr Standort werden zu wichtigen Optimierungspunkten.

Mit einem soliden technischen SEO ist die Optimierung Ihrer On-Page-Optimierung einfach. Verwenden Sie Tools wie Screaming Frog, um Schwachstellen zu erkennen und Schwachstellen aufzudecken und Ihre Seiten methodisch zu bearbeiten.

3. Content

Inhalt ist König. Das ist das Sprichwort, nicht wahr? Es ist in gewisser Weise wahr. Ihre Website ist wirklich nur ein Wrapper für Ihre Inhalte. Ihr Inhalt teilt Interessenten mit, was Sie tun, wo Sie es tun, für wen Sie es getan haben und warum jemand Ihr Unternehmen nutzen sollte. Und wenn Sie schlau sind, sollten Ihre Inhalte auch über diese offensichtlichen Broschürenelemente hinausgehen und Ihren potenziellen Kunden helfen, ihre Ziele zu erreichen.

Für Serviceunternehmen können wir Ihre Inhalte in drei Kategorien unterteilen:

Service-Inhalt Was Sie tun und wo Sie es tun.
Glaubwürdigkeitsgehalt. Warum sollte ein Interessent mit Ihrem Unternehmen zusammenarbeiten?
Marketinginhalte. Inhalte, die Ihnen helfen, sich als Experte zu positionieren und Ihr Unternehmen früher in den Kaufzyklus zu bringen.
Es ist wirklich wichtig zu erkennen, dass SEO für alle diese Arten von Inhalten wichtig ist, aber es wird oft nur für Service-Typ-Inhalte berücksichtigt. SEO wird oft vergessen, wenn es um Glaubwürdigkeitsinhalte wie Bewertungen, Erfahrungsberichte und Fallstudien geht.

Als ein einfaches Beispiel habe ich kürzlich ein viktorianisches Haus in Großbritannien renoviert, und während des gesamten Prozesses suchte ich nach verschiedenen Fachleuten, die relevante Erfahrungen vorweisen konnten. In diesem Fall würde eine gut optimierte Fallstudie, die Renovierungsarbeiten an einem ähnlichen Haus in der näheren Umgebung zeigt, als großer Long-Tail SEO-Content dienen – es zeigt auch perfekt, dass der Auftragnehmer die Arbeit machen kann, was ihre Glaubwürdigkeit perfekt illustriert. Win-Win.

Stellen Sie sicher, dass Sie alle Ihre Marketinginhalte optimieren, einschließlich Fallstudien, Portfolioeinträgen und Erfahrungsberichten – nicht nur die offensichtlichen Service-Seiten.

Eine solide Content-Marketing- und SEO-Strategie ist auch der am besten skalierbare Weg, um Ihr Unternehmen einem breiten Publikum näher zu bringen. Und dies hat im Allgemeinen den besten ROI, da es keine Kosten pro Klick gibt – so skalieren Sie Ihr Marketing, ohne Ihre Kosten direkt zu skalieren. Diese Art von SEO-Strategie ist nicht für jedes Unternehmen geeignet, aber wenn sie gut passt, ist sie fast unschlagbar.

Hier sind die wichtigsten Tipps:

  • Optimieren Sie alle Inhalte über die gesamte Customer Journey hinweg.
  • Bestimmen Sie, ob das Content-Marketing über die organische Suche gut passt.

Wir sehen immer noch viel zu viele Malen-nach-Zahlen-Ansätze für SEO, bei denen lokale Unternehmen Agenturen dafür bezahlen, Blogbeiträge auszugeben, die strategisch nicht gut passen. Vergewissern Sie sich, dass alle Ihre Inhalte optimiert sind. Wenn Sie Content-Marketing betreiben, stellen Sie sicher, dass es sich für Ihre Marketing-Taktik eignet.

4. Off-Site-Optimierung

Der Aufbau Ihrer Autorität umfasst zum großen Teil den Aufbau von Links. Links sind immer noch eine entscheidende Komponente bei der Entwicklung starker organischer Rankings; Links können jedoch der schwierigste Teil von SEO sein.

Während Link Building ein komplexes Thema ist, das wir hier nicht vertiefen können, wenn Sie zumindest eine positive Link-Building-Philosophie entwickeln können, sind Sie bereits der Mehrheit Ihrer Konkurrenz voraus.

Der beste Weg, den ich je gesehen habe, um die richtige Denkweise für Link-Building zu beschreiben, wurde von dem verstorbenen, großartigen Eric Ward geschrieben: „Verbinde, was verbunden sein sollte.“

Diese Philosophie ist schön in ihrer Einfachheit und dient dazu, die „mehr, mehr, mehr“ Mentalität des Link Building zu korrigieren. Wir wollen nur Links von relevanten Quellen. Das bedeutet oft, dass wir etwas schaffen müssen, das Verknüpfungen verdient, um unsere Bemühungen zur Linkbildung über die offensichtlichen Taktiken hinaus zu skalieren. Sie haben Links, von Webseiten von welchen es sinnvoll ist, Links zu bekommen. Ganz einfach.

Wikipedia hat Millionen von Links, aber ich bin mir ziemlich sicher, dass sie noch nie einen Linkaufbau gemacht haben. Dies liegt daran, dass sie viele nützliche Inhalte haben, die verlinkt werden. Dies sind echte, natürliche Links, die die verlinkende Seite bereichern, einen weiteren Kontext bieten und als das reale Bindegewebe dieser hyperverknüpften Welt, in der wir leben, dienen.

Diese Art von natürlicher Verbindung sollte das Rückgrat Ihrer Link-Building-Bemühungen sein. Dies kann bedeuten, dass Sie die Inhalte auf Ihrer Website erneut aufrufen müssen und zunächst etwas Wertvolles erschaffen müssen. Wenn Sie dies jedoch erreichen können, sind Sie auf halbem Weg nach Hause.

Jede sichere, skalierbare Link-Building-Strategie sollte auf dieser Denkweise aufbauen.

Wichtige Insights hier:

Stellen Sie sicher, dass Sie die Art von realen Links aufbauen, die in der realen Welt sinnvoll sind und die qualitativen Teile des Algorithmus nicht stören. Stellen Sie sicher, dass Sie Inhalte haben, die es wert sind, auf eine Rangliste gesetzt zu werden, und mit denen Sie eine Verbindung herstellen möchten.

Update 14.04.2019

5. Customer Centricity

Der Aufbau und der Inhalt der Webseite müssen das Bedürfnis der Nutzers befriedigen. Soll heißen: ich komme über z.B. die Suchanfrage „Schrankwand auf Raten kaufen“ auf die Webseite und was erwarte ich dann dort:

  • einen Shop
  • mit vielen Schrankwänden auf der Landingpage
  • Ratenkauf als Option zu bezahlen
  • schnelle Ladezeit der Webseite – auch mobile
  • einfache Navigation
  • vertrauenswürdiger Anbieter
  • einfacher Checkout
  • usw.

Wenn das nicht passt, dann wird folgendes geschehen und das wird im SEO immer mehr für die Rankings gewichtet:

Zusammenfassung

SEO muss nicht übermäßig komplex sein. Es gibt vier wichtige Bereiche von SEO, die Sie berücksichtigen müssen, und es gibt einen strukturierten, methodischen Prozess, der befolgt werden kann, um Ihre Website zu optimieren.

Ich hoffe aufrichtig, dass dieser Beitrag Ihnen hilft, Ihre Rankings zu verbessern und mehr Geschäft aus der organischen Suche zu generieren!

SEO SSL Checkliste

11 Punkte SEO Checkliste für die Umstellung von http auf https – SEO SSL Guide

Warum diese SEO Checkliste für die Umstellung von http auf https – SEO SSL Guide?

Seit Januar 2017 kennzeichnet Google mit den Chrome Browser (Version 56 und höher) Seiten, die Passwörter oder Kreditkarteninformationen erfassen, als „nicht sicher„, es sei denn, die Seiten werden über HTTPS bereitgestellt.

Die neue Warnung ist der erste Schritt eines langfristigen Plans von Google, nach dem letztlich alle Seiten, die über das unverschlüsselte HTTP-Protokoll bereitgestellt werden, als „nicht sicher“ gekennzeichnet werden sollen.

Sollte Ihre Webseite betroffen sein, erhalten Sie außerdem eine Nachricht über die Google Search Console mit der Meldung „Nicht sichere Passworterfassungen lösen in Chrome 56 Warnungen aus“.

Es gibt bereits einige Checklisten dazu im Web, aber ich diese sind meist nicht vollständig und aus meiner Praxis und der bereits mehrfach erfolgreichen Umstellen großer Online Shops von http auf https, habe ich folgende SEO Checkliste für die Umstellung von http auf https erstellt und möchte diese gerne mit Euch teilen.

Task Bereich Beschreibung
1 Weiterleitungen Alle http Aufrufe per 301 Redirect auf https umleiten mittels einer Regex
2 Ressourcen Alle Ressourcen wie Bilder, CSS-Dateien, JavaScript-Bibliotheken mit https ausliefern
3 Canonicals, hreflang-Attribute, Alternate Alle Canonicals, hreflang-Attribute, Alternates auf https umstellen
4 Interne Verlinkung Alle internen Verlinkungen auf https umstellen
5 XML Sitemap Alle URLs in der XML Sitemap Datei auf https umstellen
6 Robots.txt Prüfung: es darf keine Blockade für SSL Urls vorliegen
7 Google Search Console Google Search Console Property für https neu aufsetzen
8 Google Search Console Adressänderung in den Google Search Console Einstellungen auf die https Prpoerty einrichten
9 Disavow Datei Sollte bereits eine Disavow Datei existieren, muss diese für die https Version der Webseite neu hochgeladen werden
10 Google Analytics Umstellung der Property auf https einrichten
11 Testen Crawling der Webseite z.B. mit Screaming Frog und Überprüfung der oben genannten Punkte

Wenn Du diese Punkte z.B. in einer Excel Datei Deiner Agentur übergibst und dann jeden einzelnen Punkt als erledigt abhaken kannst, sollte SEO technisch nichts schief gehen. Dennoch kann es in SEO Rankings zu Turbulenzen kommen, leider ist Google machmal zickig, auch wenn Du alles richtig machst.

Weitere Quellen für die korrekte SEO SSL Umstellung von http auf https

Websiteverschiebung mit URL-Änderungen:

https://support.google.com/webmasters/answer/6033049?hl=de&ref_topic=6033084

Vermeidung der „nicht sichere Webseite“ Meldung in Chrome:

https://developers.google.com/web/updates/2016/10/avoid-not-secure-warn

Website mit HTTPS sichern:

Technisches SEO Campixx 2015

SEO Campixx 2015 Vortrag: Technisches SEO

Ich hatte während der SEO Campixx 2015 die Ehre zusammen mit Matthias Plankl, einen Vortrag zu halten. In diesem Jahr haben wir uns mal wieder für ein Thema entschieden, welches mehr für die Beginner der SEO Szene gedacht war – die technische SEO Optimierung einer Webseite. Man kann dieses Thema scheinbar gar nicht oft genug wiederholen, denn in der Praxis vergeht so gut wie kein Tag, an welchen es keine technischen SEO Problemen gibt.

Google Analytics Bot Filter

Google Analytics jetzt mit neuer Funktion um Bots filtern zu können

Suchen Sie nach einer korrekten Messung der Besucher und Aktivitäten auf Ihrer Website?

Google Analytics hat gerade die neue Funktion der Filterung von Bot und Spidern angekündigt.

Sie finden die neu Funktion, indem Sie auf Admin-Panel und klicken Sie auf „Einstellungen anzeigen.“ Die Option Bot Filterung ist in der Nähe der Unterseite des nächsten Bildschirm direkt über Website-Suche-Einstellungen.

Google Analytics Bot Filter

Was macht diese neue Funktion „Google Analytics Bots Filter“? Hier ist die Google-Erklärung:

Durch Auswahl dieser Option werden alle Treffer, die von Bots und Spidern kommen heraus gefiltert. Dies ermöglicht es Ihnen, die wirkliche Zahl der Besucher, die auf Ihre Seite kommen sind, zu identifizieren. Ich gehe davon aus, dass der Filter nicht rückwirkend arbeitet.

 

google-crawler

Technisches SEO: Optimierung für die Ideale robots.txt

Ein absolutes Basic bei der SEO Optimierung einer Webseite, stellt die Optimierung für die ideale robots.txt dar.

Was ist die robots.txt:

Die Robots Exclusion Protocol (REP) oder robots.txt ist eine Textdatei, um Suchmaschinen Roboter anzuweisen, wie diese crawlen (Webseite durchsuchen) und in der Suchmaschine indexieren (aufnehmen) dürfen.

Diese Textdatei muss immer „robots.txt“ heißen und muss immer im Hauptverzeichnis (Root) der Webseite liegen, siehe Beispiel: http://www.webfreundlich.de/robots.txt

Gründe für die Optimierung der idealen robots.txt:

  1. Google sucht als ersten bei dem Aufruf einer Webseite nach dieser Datei, was deren Bedeutung unterstreicht
  2. Manchmal wird eine Webseite für den Google Bot unbewusst ganz oder teilweise gesperrt
  3. Oft wird eine Webseite an Stellen gecrawlt, welche für den Google Bot Tabu sein sollten und somit wird wertvolles Crawling Budget verschwendet
  4. Auch falsche robots.txt Einträge werden oft gesehen, welche dann keine Wirkung haben, wie gewünscht

Übersicht der Befehle zur die Optimierung der robots.txt:

Blockieren aller Web-Crawler von allen Inhalten
User-agent: *

Disallow: /

Blockieren Sie eine bestimmte Web-Crawler aus einem bestimmten Ordner
User-agent: Googlebot

Disallow: /verzeichnis-xyz/

Blockieren Sie eine bestimmte Web-Crawler von einer bestimmten Web-Seite
User-agent: Googlebot

Disallow: /verzeichnis-xyz/blockierte-seite.html

Lassen Sie eine spezielle Web-Crawler, um eine bestimmte Webseite besuchen

User-agent: *

Disallow: /verzeichnis-xyz/blockierte-seite.html

User-agent: Googlebot

Allow: /verzeichnis-xyz/blockierte-seite.html

Sitemap Parameter 

Sitemap: http://www.webfreundlich.de/sitemap_index.xml

Prüfung der robots.txt auf Fehler

Nutzen Sie die Möglichkeit, Ihre Robots.txt auf Fehler zu prüfen. Hierzu stellt Google in den Google Webmaster Tools ein eigenes Tool zur Verfügung.

 

robots-txt-tester

Wichtige robots.txt Regeln

  • Immer daran denken: die robots.txt kann einer Suchmasche nur das Crawling untersagen, aber nicht die Indizierung!
  • Wenn ein Verzeichnis oder eine Datei bereits im Google Index zu finden sind, sollte zuerst das Meta Tag  Robots mit den Parametern „noindex, follow“ zur Steuerung Indexierung eingesetzt werden
  • Erst wenn ein Verzeichnis oder eine Datei nicht mehr im Google Index zu finden sind, sollte man diese mit der robots.txt auch für das Crawling sperren
  • Es ist wichtig zu beachten, dass bösartige Crawler wahrscheinlich die robots.txt völlig ignorieren
  • Nur ein „Disallow:“-Zeile wird für jede URL erlaubt
  • Jede Subdomain auf einem Root-Domain verwendet eine separate robots.txt-Dateie
  • Google und Bing übernehmen zwei Zeichen für spezifische Expressionsmuster Ausgrenzung (* und $) regelmäßig.
  • Der Dateiname der robots.txt-und Kleinschreibung. Verwenden Sie „robots.txt“, nicht „Robots.txt“.

Weitere Informationen zur robots.txt:

Die Robots Exclusion Protocol (REP) ist eine Gruppe von Web-Standards, Web-Roboter Verhalten und die Indizierung durch Suchmaschinen zu regulieren. Die REP besteht aus den folgenden:

  • Die ursprüngliche REP von 1994, erweitert 1997, die Definition Raupen Richtlinien für robots.txt. Einige Suchmaschinen-Unterstützung Erweiterungen wie URI-Muster (Wild Cards).
  • Seine Ausdehnung von 1996 definiert, Indexer-Richtlinien (REP-Tags) für den Einsatz in der Robots-Meta-Element, auch bekannt als „Robots-Meta-Tag.“ Inzwischen Suchmaschinen unterstützen zusätzliche REP-Tags mit einem X-Robots-Tag. Webmaster können REP-Tags im HTTP-Header von Nicht-HTML-Ressourcen, wie PDF-Dokumente oder Bilder anzuwenden.
  • Die Microformat rel-nofollow von 2005 definiert, wie Suchmaschinen sollten Links zu behandeln, wo die Ein Element der REL-Attribut enthält den Wert „nofollow“.

Robots Exclusion Protocol Schlagwörter

Zu einer URI, REP-Tags (noindex, nofollow, unavailable_after) steuern insbesondere Aufgaben der Indexer und in einigen Fällen (nosnippet, noarchive, noodp), auch für Abfragen zur Laufzeit einer Suchanfrage angewendet. Anders als bei Raupen Richtlinien, interpretiert jede Suchmaschine REP-Tags anders. Zum Beispiel, wischt sich sogar Google-URL nur Inserate und ODP Verweise auf ihren SERPs, wenn eine Ressource getaggt mit „noindex“, aber manchmal Bing Listen auf ihren SERPs derartige externe Verweise auf URLs verboten. Seit REP-Tags können in META-Elemente von X / HTML-Inhalte sowie in HTTP-Header von einem beliebigen Web-Objekt zugeführt werden, ist der Konsens, dass der Inhalt von X-Robots-Tags sollten widersprüchliche Richtlinien in META-Elemente gefunden stimmen.

Microformats

Indexer-Richtlinien setzen, wie Mikroformate werden Seiteneinstellungen für bestimmte HTML-Elemente überstimmen. Zum Beispiel, wenn eine Seite von X-Robots-Tag heißt es „folgen“ (es gibt keine „nofollow“-Wert), die rel-nofollow-Richtlinie eines bestimmten A-Element (Link), gewinnt.

Obwohl robots.txt fehlt Indexer-Richtlinien, ist es möglich, Indexer Richtlinien für Gruppen von URIs mit serverseitigen Skripts auf Site-Ebene, die X-Robots-Tags, die angeforderten Ressourcen gelten handeln gesetzt. Diese Methode erfordert Programmierkenntnisse und ein gutes Verständnis von Web-Server und das HTTP-Protokoll.

Pattern Matching

Google und Bing sowohl ehren zwei reguläre Ausdrücke, die verwendet werden können, um Seiten oder Unterordnern, die ein SEO will ausgeschlossen identifizieren. Diese beiden Zeichen sind die Stern (*) und das Dollarzeichen ($).

* – Das ist eine Wildcard, die jede Folge von Zeichen repräsentiert, ist
$ -, Die das Ende der URL entspricht
Presse und Information

Die robots.txt-Datei ist öffentlich-bewusst sein, dass eine robots.txt-Datei ist eine öffentlich zugängliche Datei. Jeder kann sehen, welche Abschnitte eines Servers der Webmaster die Motoren blockiert aus. Das bedeutet, wenn ein SEO hat private Anwender Informationen, die sie nicht wollen, dass öffentlich durchsuchbar, werden sie eine sichere Ansatz-wie verwenden sollte als Passwort-Schutz-Besucher aus der Anzeige keine vertraulichen Seiten, die sie nicht indiziert werden wollen zu halten.