SlideShare ist ein Scribd-Unternehmen logo
1 von 63
Downloaden Sie, um offline zu lesen
Onpage SEO mit Prozessen und Strukturen effizient
organisieren
Stefan Keil 17.11.2017
✉ info@gettraction.de
Standort Berlin
Wielandstraße 9, 12159 Berlin
☎ 030 / 85 75 74 67
✉ berlin@gettraction.de
Standort Frankfurt
Myliusstraße 14, 60323 Frankfurt a.M.
✉ frankfurt@gettraction.de
SEO-Prozesse: viele kleine Teiltätigkeiten
Auslöser/Trigger
Verantwortlicher
Ergebnis / Maßnahme
Ereignis: Worst-Case ist
Performanceverlust, im
besten Fall, nur eine E-Mail
vs.
turnus: regelmäßige
Betrachung und ggf.
Analyse
Immer ein SEO:
Technisch, Redaktion,…
Anpassungen an:
- Content
- IT
- Informationsarchitektur
Tools und Werkzeug
Checklisten, Crawler, Tools,
Dokumentationen
Der SEO-Prozess im groben Überblick
IT-SEO
Informations-
architektur
Zielgruppe und Angebote
Nachfragesituation
(Keyword-Analyse)
Wettbewerbsanalyse (Wer
wird gefunden? Was wird
angeboten?
Angebotsdefinition
Domain & URL
Management
Website Architecture
(Duplicate Content)
Geschwindigkeit /
Ladezeit
HTML-Optimierung
IT-Flexibilität
Feeds & Sitemaps
Strukturierte Daten
(schema.org)
Mobile Optimierung
Aufbau
nachfrageorientierte
Informationsarchitektur
Place of Information
Information Scent
Siloing
Verlinkungsziele pro
Seitentyp
Inhaltliche Erschließung
und Vernetzung
Visualisierung &
Funktionale Wireframes
Redaktionsplanung
SEO im
Redaktionsprozess
Bestandsoptimierung und
Content Maintenance
Ausbau und Pflege vs.
Neuerstellung
Cornerstone-Inhalte und
Republishing
Zieldefinition Outreach
Content Planung &
Erstellung
Bedeutung von Links
Optimierung bestehender
Linkprofile
Identifikation von
Linkopportunitäten
Social Media Optimization
Linkbaits
Controlling
und Forecast
Suchanfragen (offene
Potenziale? Erreicht der
Nutzer die Seiten am
richtigen Ort?)
Webanalyse (Quanitative
Betrachtung, Trafficqualität,
Nutzerverhalten)
IT-Hygiene (Crawlen der
Seite, IT-Fehler finden und
beheben)
Content-
planung & -
erstellung
Prozessthemen im Onpage-SEO
Onpage-SEO
Prozesse
Weiterleitungen
• Weiterleitungs-
ketten
404 / 410 / soft-404
Doppelte Titles und
Descriptions
Aktualisierung der
Inhalte
Anpassung an das
Suchverhalten
Depublizieren und
Löschen
Ausrichtung Titles und
Description
Anpassung h1
Erfassung Suchmuster
und Facetten
Alerting-System
Regelmäßiges
Monitoring
• IT
• Content
IT-SEO
Informations-
architektur
Content
Alerting &
Monitoring
You know all the tasks and your priorities suck….
Kontext der Themen betrachten
„Wann sollte meine IT mir Sorgen bereiten?“
Jedes Projekt ist anders – Relevanz und Impact nach Case
▪ Ca. 5.000 Seiten
▪ Shop- und Content-
Bereich
▪ Wordpress und
Magento
▪ Kurze Wege (3
Mann Online
Abteilung)
▪ Entwicklung und
Update nach Bedarf
▪ Ca. 800.000 Seiten
▪ 50-150 Artikel pro
Tag
▪ Hoher
Abstimmungsbedarf
zwischen IT –
Marketing und
Redaktion
▪ 2 Wochen Sprints:
SEO ein „kleiner“
Stakeholder von
vielen
▪ Ca. 100.000 Seiten
▪ Shop- und Content
eng vermischt
▪ Filialist: Hohe
Abstimmung
zwischen online und
offline
▪ Online Marketing
intern – IT extern
▪ 3 Wochen Sprints:
SEO ein „kleiner“
Stakeholder von
vielen
Mittelstand Retailer Publisher
▪ Ca. 1.500.000 Seiten
▪ Verzeichnisse oder
Kleinanzeigen
▪ UGC – Anzeigen oder
Detailseiten und fixe
Kategorie
▪ Hohe Abstimmung
zwischen IT und
Marketing
▪ externe Texter für
SEO
▪ 2 Wochen Sprints
Index-Riese
▪ Jedes Setup birgt eigene
Risiken – große und
komplexe Systeme mit
verteiltem Arbeiten sind
z.B. fehleranfälliger
Wo liegen die Wachstumshebel und Risiken?
▪ Wie häufig sollte ich den
Prozess anstoßen?
▪ Jeder Prozess behandelt
hier ein Problem oder eine
Chance – wie groß sind die
Auswirkungen wenn es
eintritt?
Risiko Auswirkung Monitoring / Frequenz
Mittelstand Retailer Publisher Index-Riese
Relevanz
Auslöser / Trigger:
Ereignis vs. Turnus
Relevanz
1.4k seite n oder so :O
Grundoptimierung muss vorhanden sein
Und noch eine Anmerkung…
IT-SEO
Prozesse zur
Sicherung der
Basis
Ziel: Nutzbarkeit und Crawlbarkeit erhalten!
Nutzung und NutzbarkeitCrawling und Crawlbudget
▪ „Taking crawl rate and crawl demand
together we define crawl budget as the
number of URLs Googlebot can and wants to
crawl. “
▪ Crawl rate limit:
▪ „ … limits the maximum fetching rate for
a given site”
▪ Crawl demand:
▪ „… if there's no demand from indexing,
there will be low activity from
Googlebot.”
▪ Einstiege auf Fehlerseite
▪ Intern verlinkte Fehlerseiten
▪ Verzögerungen im Laden der Seite durch
(interne) Weiterleitungen und
Weiterleitungsketten
▪ Einstieg auf Seitenfragmenten (keine weitere
Aktion durchführbar)
Quelle: https://webmasters.googleblog.com/2017/01/what-crawl-budget-means-for-googlebot.html
Kritische Stolpersteine in der Crawlability
▪ We found that the low-value-add URLs fall
into these categories, in order of significance:
▪ Faceted navigation and session identifiers
▪ On-site duplicate content
▪ Soft error pages
▪ Hacked pages
▪ Infinite spaces and proxies
▪ Low quality and spam content
Quelle: https://webmasters.googleblog.com/2017/01/what-crawl-budget-means-for-googlebot.html
Soft 404
Status 200, „index, follow“
Nutzern ermöglichen, meine Seite sinnvoll zu nutzen
Mobile to Responsive Umzug
m.domain.de
45 ms
www.domain.de/
page?id=12
81 ms
www.domain.de/
sprechende-url
166 ms
302 301
81 ms (28%) unnötige Ladezeit
„klassische IT-Fehler“ interne und externe Fehlersichten
Tools (intern) Tools (extern)
Weiterleitungen
Fehlerseiten
Doppelte
Metaangaben
Doppelte H1
Und viele mehr…
Alles was crawlt….
Achtung: Problemseiten
müssen intern Verlinkt sein!
Und andere
Webanalyse-Tools
Redirect(-ketten) identifizieren und abbauen
▪ Crawlbudget schonen
▪ Ladezeit (vor allem mobil) nicht unnötig
erhöhen
Warum?
1. Regelmäßige Crawls durchführen
2. Redirects identifizieren
a. Priorisierung nach Häufigkeit der
internen Verlinkung
b. Templatebasierte Verlinkungen
(Seitenweit u.ä.) zuerst!
3. Automatische Verlinkungen
korrigieren lassen
4. „Redaktionelle Fehler“ korrigieren
und Redakteure sensibilisieren!
Redirect Chains mit dem Screaming Frog
Mittelstand Retailer Publisher Index-Riese
Relevanz
Turnus
Fehlerseiten (404, soft 404, 410) identifizieren und abbauen
▪ Schlechte Nutzererfahrung
▪ Konversionskiller
▪ Crawlbudget besonders bei internen Fehlern
stark beansprucht
▪ Seitenhygiene
Warum?Intern verlinkt Externe Meldung
▪ Google Analytics /
Webanalyse
▪ Google Search Console
▪ Crawler
▪ Google Analytics /
Webanalyse
▪ Google Search Console
1. Monitoring (GSC) / Regelmäßige
Crawls durchführen
2. Fehlerseiten identifizieren
a. Priorisierung nach Häufigkeit der
internen Verlinkung
b. Templatebasierte Verlinkungen
(Seitenweit u.ä.) zuerst!
3. Automatische Verlinkungen
korrigieren lassen
4. „Redaktionelle Fehler“ korrigieren
und Redakteure sensibilisieren!
Mittelstand Retailer Publisher Index-Riese
Relevanz
Turnus oder Event
Fehlerseiten (404, soft 404, 410) identifizieren und abbauen
▪ Ab einer gewissen Fehlermenge ist die
Fehleranalyse und Fehlersichtung nur noch
sehr schwer möglich.
▪ Detailliertes Monitoring (Verzeichnisebene)
der Fehler laut GSC hilft für einen groben
Überblick.
▪ Relevanz beachten:
▪ 4.000 Fehler als „stabiles Grundniveau“
▪ 200 neue Fehler
▪ Fehleranalyse mit „schlechter Sicht“ aufwändig
▪ Wirkung gering
▪ Warten bis eröffnete Tickets bearbeitet wurden
Nicht jeder 404er ist schlecht!
Die echten Fehler finden
Seiten löschen ist erlaubt. Wobei bei einer
dauerhaften Löschung der Statuscode 410
vorzuziehen ist.
Gelöschte Inhalte sollten aber nicht mehr verlinkt
sein.
Arbeitsschritte:
▪ Angeblichen 4XXer prüfen, ob er auch 4XX ist
▪ 4XXer klicken um Pop-Up der verlinkten Seiten
zu bekommen
▪ Prüfen, ob die verlinken Seiten noch erreichbar
sind
▪ Prüfen, ob die Verlinkung noch vorhanden ist
ToDos:
▪ Intern: Links entfernen oder auf neues Ziel
setzen
▪ Extern: Wenn guter Link, Zielseite weiterleiten



Nicht jeder 404er ist schlecht!
Die echten Fehler finden
Das will natürlich niemand per Hand machen,
also bemühen wir R:
▪ Prüft, ob 4XXer noch 4XXer ist.
▪ Prüft, ob die linkgebenden Seiten noch
vorhanden sind.
▪ Prüft, ob die Links auf den linkgebenden
Seiten noch vorhanden sind.
▪ Erzeugt eine Excel-Datei mit den wirklich
vorhandenen 404ern sowie den echten
linkgebenden URLs
▪ Alle anderen URLs werden als „behoben“ an
die GSC gemeldet.
404-Fehler prüfen und entfernen: Das Script zum Download
https://www.gettraction.de/blog/gsc-
404er-mit-r-automatisert-pruefen/
GSC-Report: doppelte Titles und Descriptions identifizieren
▪ Etwas versteckter Bericht in der Google
Search Console.
▪ Vorteil: findet Fehler, die nicht intern verlinkt
sind
▪ Nachteil: Bericht ist oft veraltet
▪ Seiten sind bereits kanonisiert
▪ Seiten sind auf „noindex, follow“
▪ Seiten bereits 404/410
▪ Seiten werden via 301 weitergeleitet
▪ Explodiert oft bei einem Relaunch oder
Umstrukturierungen
Beispiel-
URLs
Doppelte Titles und Descriptions identifizieren
▪ Zeigen Duplicate Content Probleme an
▪ Eindeutigkeit von Seiten gewährleisten
▪ Nutzer wissen nicht welcher Treffer relevant
ist
▪ Titel hat Rankingrelevanz
Warum?
Sprachverzeichnisse
Hosts
Trailing-Slash
Sprechende vs. Nicht sprechende URLs
▪ http://www.domain.de/de-de/
▪ http:// www.domain.de/en/
▪ http://www.domain.de/
▪ https://www.domain.de/
▪ https://www.domain.de/produkte/
▪ https://www.domain.de/produkte
▪ https://www.domain.de/produkte-19/
▪ https://www.domain.de/?id=19
Mittelstand Retailer Publisher Index-Riese
Relevanz
Event und Turnus
GSC-Report: doppelte Titles und Descriptions
▪ Das will natürlich niemand per Hand
machen, also bemühen wir Knime:
▪ Einlesen des GSC-Exports
▪ Transponieren der URLs
▪ Abgleich mit Screaming Frog Crawl
▪ Filterung auf die relevanten URLs
▪ Antworten die URL mit 200 OK?
▪ Sind die URLs indexierbar?
▪ Canonical Tag
▪ Robot-meta
▪ Robots.txt
▪ Fehler prüfen und Anforderungen an die IT
stellen!
Die echten Fehler finden
Zusammenfassung: Glücklicher Crawler – freudiger Nutzer
Nutzbarkeit erhöht
Conversionskiller entfernt
Erwartungskonformität erhöht
Crawling optimiert
Unnötige Ladezeit vermieden
Informations-
architektur
Nutzer und
Seite
zusammen-
zubringen
Nutzer und Inhalte zusammenführen
Place of Information (Wo)
Information Scent (Wohin)
Frage:
▪ Wo bin ich?
▪ Bin ich hier richtig?
Passende
Suchanfrage auf
der Seite hilft
Nutzern und
Suchmaschinen
Anforderung:
▪ Suchanfrage in Titel (SERP)
▪ Suchanfrage in die
Überschrift
▪ Überschrift entsprechend
groß
Frage:
▪ Wo sind mehr
relevante Inhalte?
▪ Wie weit sind diese
entfernt
Nutzerzentrierte
explizite Sprache
unterstützt eine
schnelle
Orientierung
Anforderung:
▪ Einfache & verständliche
Navigation
▪ Relevante Inhalte schnell
erreichbar
Wo bin ich und wohin kann ich gehen sind die zentralen Fragen der Informationsarchitektur.
Nur die Nutzer, die diese Fragen für sich beantworten können, können die gewünschten Informationen oder Produkte finden.
Anpassung der Titles und Descriptions
▪ Erwartungskonformität steigern
▪ Nutzern Relevanz signalisieren
▪ Klickattraktivität steigern
▪ Änderungen im Anfrageverhalten und im
Informationsbedarf erkennen und bedienen
Warum?
Mittelstand Retailer Publisher Index-Riese
Relevanz
Turnus
Anpassung der Überschrift(en)
▪ Relevanz für Suchende steigern.
▪ Erstes Prüfen der Seite – Skimming und
Scanning erffordert Beweise.
▪ „Bin ich hier richtig?“ Ja!
Warum?Skimming Scanning Lesen
Mittelstand Retailer Publisher Index-Riese
Relevanz
Turnus
Dimensionen und Facetten erkennen
▪ Suggests zu Thema Kiten/Kitensurfen
▪ Welche Begriffe werden in Kombination mit
▪ „kitesurfen“
▪ „Kiten“
▪ „landkiten“
▪ „Kiteurlaub“
gesucht?
▪ Erkennen von Suchdimensionen
▪ Ort
▪ Zeit
▪ Kitegröße
▪ Einstiegsseiten schaffen!
Effizientes Analysieren mit Anfragesegmenten (GSC)
▪ Metriken aus der Google Search Console nach
Anfragemuster aufteilen und betrachten.
▪ Herangehensweisen:
▪ Alle bekannten Muster ausschließen – was bleibt
übrig?
▪ Gibt es in den einzelnen Muster „Subthemen“?
▪ Kommen die Nutzer auf der passenden Seite
raus? Produktdetailseite? Kategorieseiten?
▪ Nein? Fehlen vielleicht die passenden Elemente auf
den Seitentypen?
▪ Ist eine Facette neu hinzugekommen?
▪ Lohnt sich vielleicht eine neue Kategorie? Produkte
nach Eigenschaft „xy“?
Größe Material Hersteller
90x200
90x200
100x200
180x200
…
Holz
Metall
Leder
…
Marke 1
Marke 2
Marke 3
Anfragemuster nach Klicks und
Impressionen betrachten
Beispiel Betten
Prüfung auf neue Suchmuster und Suchverhalten
▪ Nutzer an die passende Stelle des Angebots
leiten
▪ Potentiale zu neuen Suchmuster erschließen
(passendere LP in der Regel bessere
Rankings!)
Warum?
Header
H1: Seitenthema
H2 Subaspekt 1 Sprung-
marken
Marginal-
spalte
H2 Subaspekt 2
H2 Subaspekt 3
H2 Subaspekt4
<Verlinkungen zu verwandten Themen>
Gesamtstruktur
Seitenstruktur
Mittelstand Retailer Publisher Index-Riese
Relevanz
Turnus
Content
Contentpflege-
prozesse im
SEO
▪ Entwicklung einer News-
SEO Strategie
▪ Aufbauend auf der
thematischen Relevanz,
die Google bereits
zugewiesen hat
▪ Gezielte Optimierung auf
News-Boxen im Rahmen
der redaktionelle Arbeit
▪ News-Boxen besetzen
▪ Bestehende Rankings
verlängern
Content SEO: Lebenszyklus beachen!
▪ Evergreen-Inhalte
identifizieren und gezielt
ausbauen
▪ Content-Pflege in den
Workflow integrieren
▪ Content-Ausbau zu
Themenspecials
▪ Ausbau der
Informationsarchitektur
für Evergreen-Content wie
Ratgeber, Guides etc.
News-SEO Evergreen-SEO
Ratgeber Artikel 1 Artikel 2
Ratgeber: Ca. 79
% SEO-Traffic
Artikel: Ca. 35
% SEO-Traffic
Content altert
0
10
20
30
40
50
60
Beispiel Rankingentwicklung
Content Refresh: Überalterung vermeiden
▪ Aktualität für den Nutzer gewährleisten
▪ Schleichender Ranking und Trafficverlust
▪ Content Maintenance
Warum?Suchanfrage / Landingpage
Klicks Impressionen Ranking
Mittelstand Retailer Publisher Index-Riese
Relevanz
Event und Turnus
Inhalte an das Suchverhalten anpassen
▪ Bei Initialerstellung Suchverhalten nicht ganz
klar oder es ändert sich
▪ Änderung Suchverhalten
▪ Subthemen erst eindeutig und sichtbar mit
eigenen Daten
Warum?
Mittelstand Retailer Publisher Index-Riese
Relevanz
Event und Turnus
Erhebung Nachfrage
AdWords oder
Keyword-Tools
Inhalte strukturiert depublizieren!
Sicht nicht verlieren! Soft 404 wegen unspezifischer
Redirects
Effizientes löschen und depublizieren
▪ Inhalte werden nicht mehr benötigt und
sollen möglichst schnell aus dem Index
verschwinden
▪ Positive Signale mitnehmen
▪ Sackgassen vermeiden
▪ Freie Sicht behalten
Warum?
1. Relevanz Prüfen
a. Einstiege
b. Links
c. Seitenaufrufe
2. Redirect vs. 410 „Gone“
a. Fallentscheidung pro URL
3. Einrichtung der Redirects
4. Entfernen via 410
5. Prüfung ob noch interne Verlinkungen bestehen
6. Erstellung einer 410-Sitemap
7. Via GSC Einreichen
8. Regelmäßige Fehler prüfen und abhaken
Mittelstand Retailer Publisher Index-Riese
Relevanz
Event und Turnus
Alerting und
Monitoring-
Prozesse im
SEO
Warum Alerting und Monitoring?
Being happy because our last
deployment went perfectly!
Alerts:
Frühwarnsystem
Agile Entwicklung erfordert
agiles Fehlermanagement
und eine entsprechende
Fehlerkultur. Durch stetige
Überwachung den SEO-
Erfolg sichern.
SEO als Teil der Qualitätssicherung
▪ Risikominimierung durch gefundene Fehler
während der Entwicklung.
▪ Fehler werden frühzeitig erkannt und haben
dadurch wenig bis gar keinen Impact auf die
organische Leistung.
▪ Bugs bleiben Bugs und werden zum teuren
Changerequest.
▪ Plattformqualität steigt, da
Nutzungsprobleme schnell korrigiert werden
können!
Warum?
https://www.gettraction.de/blog
/seo-alerting-mit-testomato/ Mittelstand Retailer Publisher Index-Riese
Relevanz
Event
Google Analytics für „Totalsausfälle“ nutzen
Traffic-Beobachtung via Webanalyse
• Traffic-Einbrüche
• Umsatzausfall
• Aufrufe 404-Fehlerseiten
• …
Mehr?
z.B.
https://www.zedwoo.de/google-analytics-alerts/
https://www.gandke.de/blog/google-analytics-alerts/
http://www.termfrequenz.de/podcast/beyond-
pageviews-podcast/bp-2-1-google-analytics-alerts/
Granulares Setup - Beispiele für Seitentypen und Abwandlungen
Startseite
Ressort
Seitentypen
Subressort
Artikel
Premiumartikel
Themenseite
Video
Video-Ressorts
Autorenseite
Infografiken
Suche
Paginierung Filter SEO spezifische Dokumente
Robots.txt Index-Sitemap Sitemaps News-Sitemap
(Seitenweite) Parameter
Usertracking Aktionstracking
Partner
Kurz-URLs
Partnerangebote
(auf Hauptdomain)
Bugs & weiteres
410
301 404
Wiederholung
Seitentypen?
Canonicals
Segmente mit spezifischen Prüfmerkmalen belegen
▪ Nach der Segmentierung einer Webseite nach
Inhalts- und Template Bereichen, kann eine
Auswahl an „Stellvertreterseiten“ getroffen
werden, um erfolgskritische SEO-
Anforderungen permanent zu überprüfen.
Beispielsweise:
▪ Indexierungsanweisungen
▪ Muster für Titles und Descriptions
▪ Überschriften
▪ (SEO-)Textelemente
▪ Navigationselemente
▪ Schema.org Auszeichnung
▪ Href-lang Implementierung
▪ Sollte einer dieser Anforderungen verloren
gehen (fehlerhaftes Deployment o.ä.), können
sofort Gegenmaßnahmen ergriffen werden.
Dies ist dringend notwendig für einen
dauerhaften Erfolg im SEO.
Beispiel Testomato
Problem: Regeln können schwer überprüft werden
▪ Beispiel:
▪ Kategorien mit weniger als 5 Artikeln stehen auf
noindex
▪ Href-lang nur implementiert, wenn Seite einen
selbstreferenzierenden Canonial hat
▪ Slug eines Titels verkürzt sich, wenn
Produktnamen eine bestimmte Länge haben
▪ Etc.
▪ Und natürliche alle Prüfungen aus dem
Alerting!
Im Fall von Abweichung:
▪ Direkt Ticket an IT zur Fehlerbehebung
▪ Entweder an Betrieb oder an Alerting-
Ansprechpartner in der IT
Lösung: Audisto Monitoring
https://audisto.com/contacts/checks/1
Monitoring:
Trends frühzeitig
erkennen
Operative Steuerung und
frühzeitige
Fehlererkennung.
Operative Steuerung für Content und Informationsarchitektur
▪ Regelmäßige Sichtung von Hygiene und
Qualitätsfaktoren des Produkts.
▪ Identifikation von Trendthemen und
kurzfristigen Traffic-Quellen.
▪ Stark operativ einsetzbar mit direkter
Ableitung von operativen Maßnahmen für
Content, Informationsarchitektur und IT-
Hygiene.
▪ Ausbau von Quickwins und Eventgetriebenen
Themen, die sich nicht immer redaktionell
planen lassen.
Warum?
Mittelstand Retailer Publisher Index-Riese
Relevanz
Turnus
Wöchentliches Monitoring der Akquisition und Fehlerentwicklung
Akquise und Qualität:
• Sitzungen
• Absprungrate
Im zeitlichen Verlauf – zur Vorwoche – zur
gleichen Woche im letzten Jahr
SERP-Leistung:
• Klicks und Impressionen
• Absprungrate
Im zeitlichen Verlauf – zur Vorwoche – zur
gleichen Woche im letzten Jahr
Top Suchphrasen (brand / nonbrand)
• Impressionen
• Klicks
• CTR
• Position
Delta zur Vorwoche
Top URLs (brand / nonbrand)
• Impressionen
• Klicks
• CTR
• Position
Delta zur Vorwoche
Sichtbarkeit und Rankings:
• Sichtbarkeit nach Sistrix desktop/mobile
• Anzahl Top 100 / Top 10 Rankings nach
Sistrix
Im zeitlichen Verlauf – zur Vorwoche – zur
gleichen Woche im letzten Jahr
IT-Fehler:
• 404, 500, soft404
• Anzahl indexierte Seite
Im zeitlichen Verlauf – zur Vorwoche – zur
gleichen Woche im letzten Jahr
IT-Fehler:
• Doppelte Titles und Descriptions
• Anzahl href-Tags und hreflang-Fehler
Im zeitlichen Verlauf – zur Vorwoche – zur
gleichen Woche im letzten Jahr
IT-Fehler:
• Anzahl schema.org-Elemente
• Anzahl schema.org-Fehler
• Anzahl Fehler auf mobilen Seiten
Im zeitlichen Verlauf – zur Vorwoche – zur
gleichen Woche im letzten Jahr
Akquisition Sichtbarkeit und IT-Fehler
Me: Wait – his outline said he would give
us tools and processes to reduce efforts…
Inner me: DISRUPT him NOW!
Prozess sitzt.
Arbeit läuft.
SEO wird
dennoch nicht
informiert…
Es bleibt nur Backup: Crawlen, suchen, vergleichen…
+
Sistrix Optimizer (Ende Oktober)
https://www.sistrix.de/changelog/webseitenaenderungen-im-optimizer-nachvollziehen/
Filter bei Ryte speichern
• Änderungen an Meta Index
• Veränderung der Anzahl externer
Links
• Andere Meta Descriptions
• Veränderter Canonical-Tag
• Änderungen im Quelltext
• H1-Überschrift hat sich geändert
• Veränderungen der Anzahl interner
Links
• Anderer Status-Code
• Veränderter Title-Tag
• Neu gefundene URLs
• Nicht mehr gefundene URLs
• Deutlich andere Dateigröße
• Ladezeiten haben sich deutlich
geändert
• Verändertes Charset
• Anderer Content Type
• Veränderte Klickanzahl
• „Verwalten“
• Bekannte Fehler stören bei der Sichtung neuer
Probleme & verhindern das aktive Steuern
• Maßnahmen „sehen“ und auch bewerten können
• Erfolg
• Misserfolg / Korrektur
Normaler Arbeitsablauf: Initialanalyse und Pflege
Initialanalyse Betreuung und Pflege
AbschlussInitialisierung
• Vollständige Erstaufnahme
• Evaluation aller Themenfelder und Bereich auf
Risiken und Chancen
• Erschließung der Seitenstruktur
• Fehler kategorisieren und kontextualisieren
• Anforderungen an die IT
• Anforderungen an die Redaktion
• Schätzungen, Workflows entwickeln, SEO-
Roadmap aufbauen
Vollständigkeit Änderungen
Differenzen verschiedener Crawls schnell finden!
Abgleich regelmäßiger Crawls der selben Domain
mit dem jeweiligen Crawl davor nach:
▪ URLs, die im neuen Crawl nicht mehr vorhanden
sind.
▪ URLs, die im neuen Crawl erstmalig vorhanden
sind.
▪ URLs deren Canonical-Anweisung sich geändert
hat
▪ URLs deren Titel / Descriptions sich geändert
haben
▪ URLs deren Indexierungsanweisungen sich
geändert haben
▪ URLs deren Statuscode sich geändert haben
▪ Etc.
Im Fall von Regelverletzungen:
▪ Direkt Ticket an IT zur Fehlerbehebung
▪ Entweder an Betrieb oder an Alerting-
Ansprechpartner in der IT
Delta-Abgleich
…ich weiß, was du letzte Woche getan hast…
▪ Neue URLs
▪ Entfallene URLs
▪ Änderungen:
▪ Status-Code
▪ Canonical-Link
▪ Meta-Robots
▪ H1
▪ Title
▪ Description
▪ Content-Type
▪ Klicktiefe
▪ Dateigröße
▪ Antwortzeit
Relevante MerkmaleMittwoch KW 28 Mittwoch KW 29
Entfallene URLs neue URLs
Gemeinsame URLs
Crawlabgleich: Screaming Frog & R: Workflow und Link
Details und Download unter:
https://www.gettraction.de/seokomm2017
Zusammenfassung und Überblick der Relevanz
Mittelstand Retailer Publisher Index-Riese
IT Redirect(ketten) abbauen
IT Fehlerseiten identifizieren und ggf. abbauen
IT Doppelte Titles und Descriptions
IA Anpassungen Title und Descriptions
IA Anpassungen Überschriften (h1)
IA Prüfung auf neue Suchmuster
CO Content Refresh
CO Content Anpassen
CO Inhalte strukturiert depublizieren
AL Alerting-Prozess
MO Monitoring-Prozess
Sie wollen die Präsentation?
▪ Schreiben Sie jetzt eine Mail an
unseren Mitarbeiter, Michael
Ludermann:
▪ ml@gettraction.de
▪ Betreff: SEOkomm Präsentation
▪ Und sie bekommen umgehend die
Präsentation zugesendet!
Kein Problem:
…Fragen? Dann kontaktieren sie uns!
Kontakt:
www.gettraction.de
FB: https://www.facebook.com/gettraction.de/
Twitter: https://twitter.com/gettraction_om
Mail Stefan Keil: sk@gettraction.de
Bildnachweise
▪ Folie 10: taviphoto/Shutterstock.com
▪ Folie 11: bigstockphoto.com / Scanrail
▪ Folie 18: bigstockphoto.com / Kirisa99
▪ Folie 25: bigstockphoto.com / marcelmooij
▪ Folie 26: bigstockphoto.com / Ivelin Radkov
▪ Folie 28: bigstockphoto.com / Flynt
▪ Folie 33: bigstockphoto.com / Policas
▪ Folie 35: bigstockphoto.com / weerapat
▪ Folie 36: bigstockphoto.com / Thatsaphon Saengnarongrat
▪ Folie 41: bigstockphoto.com / Olivier Le Moal
▪ Folie 43: bigstockphoto.com / joegough
▪ Folie 50: bigstockphoto.com / tashatuvango

Weitere ähnliche Inhalte

Mehr von get traction GmbH

Misconceptions in SEO - Darum funktioniert Dein SEO nicht!
Misconceptions in SEO - Darum funktioniert Dein SEO nicht!Misconceptions in SEO - Darum funktioniert Dein SEO nicht!
Misconceptions in SEO - Darum funktioniert Dein SEO nicht!get traction GmbH
 
Search Engine Friendly Design
Search Engine Friendly DesignSearch Engine Friendly Design
Search Engine Friendly Designget traction GmbH
 
SMX 2017: Search Marketing Reports: Warum deine Daten dich belügen oder - Spa...
SMX 2017: Search Marketing Reports: Warum deine Daten dich belügen oder - Spa...SMX 2017: Search Marketing Reports: Warum deine Daten dich belügen oder - Spa...
SMX 2017: Search Marketing Reports: Warum deine Daten dich belügen oder - Spa...get traction GmbH
 
SeoDay 2017: Mikroprozesse im SEO
SeoDay 2017: Mikroprozesse im SEOSeoDay 2017: Mikroprozesse im SEO
SeoDay 2017: Mikroprozesse im SEOget traction GmbH
 
Onpage SEO im Griff: Alerting und Monitoring für SEOs
Onpage SEO im Griff: Alerting und Monitoring für SEOsOnpage SEO im Griff: Alerting und Monitoring für SEOs
Onpage SEO im Griff: Alerting und Monitoring für SEOsget traction GmbH
 
SEO im Relaunch - Chancen nutzen, Risiken vermeiden
SEO im Relaunch - Chancen nutzen, Risiken vermeidenSEO im Relaunch - Chancen nutzen, Risiken vermeiden
SEO im Relaunch - Chancen nutzen, Risiken vermeidenget traction GmbH
 

Mehr von get traction GmbH (6)

Misconceptions in SEO - Darum funktioniert Dein SEO nicht!
Misconceptions in SEO - Darum funktioniert Dein SEO nicht!Misconceptions in SEO - Darum funktioniert Dein SEO nicht!
Misconceptions in SEO - Darum funktioniert Dein SEO nicht!
 
Search Engine Friendly Design
Search Engine Friendly DesignSearch Engine Friendly Design
Search Engine Friendly Design
 
SMX 2017: Search Marketing Reports: Warum deine Daten dich belügen oder - Spa...
SMX 2017: Search Marketing Reports: Warum deine Daten dich belügen oder - Spa...SMX 2017: Search Marketing Reports: Warum deine Daten dich belügen oder - Spa...
SMX 2017: Search Marketing Reports: Warum deine Daten dich belügen oder - Spa...
 
SeoDay 2017: Mikroprozesse im SEO
SeoDay 2017: Mikroprozesse im SEOSeoDay 2017: Mikroprozesse im SEO
SeoDay 2017: Mikroprozesse im SEO
 
Onpage SEO im Griff: Alerting und Monitoring für SEOs
Onpage SEO im Griff: Alerting und Monitoring für SEOsOnpage SEO im Griff: Alerting und Monitoring für SEOs
Onpage SEO im Griff: Alerting und Monitoring für SEOs
 
SEO im Relaunch - Chancen nutzen, Risiken vermeiden
SEO im Relaunch - Chancen nutzen, Risiken vermeidenSEO im Relaunch - Chancen nutzen, Risiken vermeiden
SEO im Relaunch - Chancen nutzen, Risiken vermeiden
 

Onpage SEO mit Prozessen und Strukturen effizient organisieren

  • 1. Onpage SEO mit Prozessen und Strukturen effizient organisieren Stefan Keil 17.11.2017
  • 2. ✉ info@gettraction.de Standort Berlin Wielandstraße 9, 12159 Berlin ☎ 030 / 85 75 74 67 ✉ berlin@gettraction.de Standort Frankfurt Myliusstraße 14, 60323 Frankfurt a.M. ✉ frankfurt@gettraction.de
  • 3. SEO-Prozesse: viele kleine Teiltätigkeiten Auslöser/Trigger Verantwortlicher Ergebnis / Maßnahme Ereignis: Worst-Case ist Performanceverlust, im besten Fall, nur eine E-Mail vs. turnus: regelmäßige Betrachung und ggf. Analyse Immer ein SEO: Technisch, Redaktion,… Anpassungen an: - Content - IT - Informationsarchitektur Tools und Werkzeug Checklisten, Crawler, Tools, Dokumentationen
  • 4. Der SEO-Prozess im groben Überblick IT-SEO Informations- architektur Zielgruppe und Angebote Nachfragesituation (Keyword-Analyse) Wettbewerbsanalyse (Wer wird gefunden? Was wird angeboten? Angebotsdefinition Domain & URL Management Website Architecture (Duplicate Content) Geschwindigkeit / Ladezeit HTML-Optimierung IT-Flexibilität Feeds & Sitemaps Strukturierte Daten (schema.org) Mobile Optimierung Aufbau nachfrageorientierte Informationsarchitektur Place of Information Information Scent Siloing Verlinkungsziele pro Seitentyp Inhaltliche Erschließung und Vernetzung Visualisierung & Funktionale Wireframes Redaktionsplanung SEO im Redaktionsprozess Bestandsoptimierung und Content Maintenance Ausbau und Pflege vs. Neuerstellung Cornerstone-Inhalte und Republishing Zieldefinition Outreach Content Planung & Erstellung Bedeutung von Links Optimierung bestehender Linkprofile Identifikation von Linkopportunitäten Social Media Optimization Linkbaits Controlling und Forecast Suchanfragen (offene Potenziale? Erreicht der Nutzer die Seiten am richtigen Ort?) Webanalyse (Quanitative Betrachtung, Trafficqualität, Nutzerverhalten) IT-Hygiene (Crawlen der Seite, IT-Fehler finden und beheben) Content- planung & - erstellung
  • 5. Prozessthemen im Onpage-SEO Onpage-SEO Prozesse Weiterleitungen • Weiterleitungs- ketten 404 / 410 / soft-404 Doppelte Titles und Descriptions Aktualisierung der Inhalte Anpassung an das Suchverhalten Depublizieren und Löschen Ausrichtung Titles und Description Anpassung h1 Erfassung Suchmuster und Facetten Alerting-System Regelmäßiges Monitoring • IT • Content IT-SEO Informations- architektur Content Alerting & Monitoring
  • 6. You know all the tasks and your priorities suck….
  • 7. Kontext der Themen betrachten „Wann sollte meine IT mir Sorgen bereiten?“
  • 8. Jedes Projekt ist anders – Relevanz und Impact nach Case ▪ Ca. 5.000 Seiten ▪ Shop- und Content- Bereich ▪ Wordpress und Magento ▪ Kurze Wege (3 Mann Online Abteilung) ▪ Entwicklung und Update nach Bedarf ▪ Ca. 800.000 Seiten ▪ 50-150 Artikel pro Tag ▪ Hoher Abstimmungsbedarf zwischen IT – Marketing und Redaktion ▪ 2 Wochen Sprints: SEO ein „kleiner“ Stakeholder von vielen ▪ Ca. 100.000 Seiten ▪ Shop- und Content eng vermischt ▪ Filialist: Hohe Abstimmung zwischen online und offline ▪ Online Marketing intern – IT extern ▪ 3 Wochen Sprints: SEO ein „kleiner“ Stakeholder von vielen Mittelstand Retailer Publisher ▪ Ca. 1.500.000 Seiten ▪ Verzeichnisse oder Kleinanzeigen ▪ UGC – Anzeigen oder Detailseiten und fixe Kategorie ▪ Hohe Abstimmung zwischen IT und Marketing ▪ externe Texter für SEO ▪ 2 Wochen Sprints Index-Riese
  • 9. ▪ Jedes Setup birgt eigene Risiken – große und komplexe Systeme mit verteiltem Arbeiten sind z.B. fehleranfälliger Wo liegen die Wachstumshebel und Risiken? ▪ Wie häufig sollte ich den Prozess anstoßen? ▪ Jeder Prozess behandelt hier ein Problem oder eine Chance – wie groß sind die Auswirkungen wenn es eintritt? Risiko Auswirkung Monitoring / Frequenz Mittelstand Retailer Publisher Index-Riese Relevanz Auslöser / Trigger: Ereignis vs. Turnus Relevanz
  • 10. 1.4k seite n oder so :O Grundoptimierung muss vorhanden sein Und noch eine Anmerkung…
  • 12. Ziel: Nutzbarkeit und Crawlbarkeit erhalten! Nutzung und NutzbarkeitCrawling und Crawlbudget ▪ „Taking crawl rate and crawl demand together we define crawl budget as the number of URLs Googlebot can and wants to crawl. “ ▪ Crawl rate limit: ▪ „ … limits the maximum fetching rate for a given site” ▪ Crawl demand: ▪ „… if there's no demand from indexing, there will be low activity from Googlebot.” ▪ Einstiege auf Fehlerseite ▪ Intern verlinkte Fehlerseiten ▪ Verzögerungen im Laden der Seite durch (interne) Weiterleitungen und Weiterleitungsketten ▪ Einstieg auf Seitenfragmenten (keine weitere Aktion durchführbar) Quelle: https://webmasters.googleblog.com/2017/01/what-crawl-budget-means-for-googlebot.html
  • 13. Kritische Stolpersteine in der Crawlability ▪ We found that the low-value-add URLs fall into these categories, in order of significance: ▪ Faceted navigation and session identifiers ▪ On-site duplicate content ▪ Soft error pages ▪ Hacked pages ▪ Infinite spaces and proxies ▪ Low quality and spam content Quelle: https://webmasters.googleblog.com/2017/01/what-crawl-budget-means-for-googlebot.html Soft 404 Status 200, „index, follow“
  • 14. Nutzern ermöglichen, meine Seite sinnvoll zu nutzen Mobile to Responsive Umzug m.domain.de 45 ms www.domain.de/ page?id=12 81 ms www.domain.de/ sprechende-url 166 ms 302 301 81 ms (28%) unnötige Ladezeit
  • 15. „klassische IT-Fehler“ interne und externe Fehlersichten Tools (intern) Tools (extern) Weiterleitungen Fehlerseiten Doppelte Metaangaben Doppelte H1 Und viele mehr… Alles was crawlt…. Achtung: Problemseiten müssen intern Verlinkt sein! Und andere Webanalyse-Tools
  • 16. Redirect(-ketten) identifizieren und abbauen ▪ Crawlbudget schonen ▪ Ladezeit (vor allem mobil) nicht unnötig erhöhen Warum? 1. Regelmäßige Crawls durchführen 2. Redirects identifizieren a. Priorisierung nach Häufigkeit der internen Verlinkung b. Templatebasierte Verlinkungen (Seitenweit u.ä.) zuerst! 3. Automatische Verlinkungen korrigieren lassen 4. „Redaktionelle Fehler“ korrigieren und Redakteure sensibilisieren! Redirect Chains mit dem Screaming Frog Mittelstand Retailer Publisher Index-Riese Relevanz Turnus
  • 17. Fehlerseiten (404, soft 404, 410) identifizieren und abbauen ▪ Schlechte Nutzererfahrung ▪ Konversionskiller ▪ Crawlbudget besonders bei internen Fehlern stark beansprucht ▪ Seitenhygiene Warum?Intern verlinkt Externe Meldung ▪ Google Analytics / Webanalyse ▪ Google Search Console ▪ Crawler ▪ Google Analytics / Webanalyse ▪ Google Search Console 1. Monitoring (GSC) / Regelmäßige Crawls durchführen 2. Fehlerseiten identifizieren a. Priorisierung nach Häufigkeit der internen Verlinkung b. Templatebasierte Verlinkungen (Seitenweit u.ä.) zuerst! 3. Automatische Verlinkungen korrigieren lassen 4. „Redaktionelle Fehler“ korrigieren und Redakteure sensibilisieren! Mittelstand Retailer Publisher Index-Riese Relevanz Turnus oder Event
  • 18. Fehlerseiten (404, soft 404, 410) identifizieren und abbauen ▪ Ab einer gewissen Fehlermenge ist die Fehleranalyse und Fehlersichtung nur noch sehr schwer möglich. ▪ Detailliertes Monitoring (Verzeichnisebene) der Fehler laut GSC hilft für einen groben Überblick. ▪ Relevanz beachten: ▪ 4.000 Fehler als „stabiles Grundniveau“ ▪ 200 neue Fehler ▪ Fehleranalyse mit „schlechter Sicht“ aufwändig ▪ Wirkung gering ▪ Warten bis eröffnete Tickets bearbeitet wurden
  • 19. Nicht jeder 404er ist schlecht! Die echten Fehler finden Seiten löschen ist erlaubt. Wobei bei einer dauerhaften Löschung der Statuscode 410 vorzuziehen ist. Gelöschte Inhalte sollten aber nicht mehr verlinkt sein. Arbeitsschritte: ▪ Angeblichen 4XXer prüfen, ob er auch 4XX ist ▪ 4XXer klicken um Pop-Up der verlinkten Seiten zu bekommen ▪ Prüfen, ob die verlinken Seiten noch erreichbar sind ▪ Prüfen, ob die Verlinkung noch vorhanden ist ToDos: ▪ Intern: Links entfernen oder auf neues Ziel setzen ▪ Extern: Wenn guter Link, Zielseite weiterleiten   
  • 20. Nicht jeder 404er ist schlecht! Die echten Fehler finden Das will natürlich niemand per Hand machen, also bemühen wir R: ▪ Prüft, ob 4XXer noch 4XXer ist. ▪ Prüft, ob die linkgebenden Seiten noch vorhanden sind. ▪ Prüft, ob die Links auf den linkgebenden Seiten noch vorhanden sind. ▪ Erzeugt eine Excel-Datei mit den wirklich vorhandenen 404ern sowie den echten linkgebenden URLs ▪ Alle anderen URLs werden als „behoben“ an die GSC gemeldet.
  • 21. 404-Fehler prüfen und entfernen: Das Script zum Download https://www.gettraction.de/blog/gsc- 404er-mit-r-automatisert-pruefen/
  • 22. GSC-Report: doppelte Titles und Descriptions identifizieren ▪ Etwas versteckter Bericht in der Google Search Console. ▪ Vorteil: findet Fehler, die nicht intern verlinkt sind ▪ Nachteil: Bericht ist oft veraltet ▪ Seiten sind bereits kanonisiert ▪ Seiten sind auf „noindex, follow“ ▪ Seiten bereits 404/410 ▪ Seiten werden via 301 weitergeleitet ▪ Explodiert oft bei einem Relaunch oder Umstrukturierungen Beispiel- URLs
  • 23. Doppelte Titles und Descriptions identifizieren ▪ Zeigen Duplicate Content Probleme an ▪ Eindeutigkeit von Seiten gewährleisten ▪ Nutzer wissen nicht welcher Treffer relevant ist ▪ Titel hat Rankingrelevanz Warum? Sprachverzeichnisse Hosts Trailing-Slash Sprechende vs. Nicht sprechende URLs ▪ http://www.domain.de/de-de/ ▪ http:// www.domain.de/en/ ▪ http://www.domain.de/ ▪ https://www.domain.de/ ▪ https://www.domain.de/produkte/ ▪ https://www.domain.de/produkte ▪ https://www.domain.de/produkte-19/ ▪ https://www.domain.de/?id=19 Mittelstand Retailer Publisher Index-Riese Relevanz Event und Turnus
  • 24. GSC-Report: doppelte Titles und Descriptions ▪ Das will natürlich niemand per Hand machen, also bemühen wir Knime: ▪ Einlesen des GSC-Exports ▪ Transponieren der URLs ▪ Abgleich mit Screaming Frog Crawl ▪ Filterung auf die relevanten URLs ▪ Antworten die URL mit 200 OK? ▪ Sind die URLs indexierbar? ▪ Canonical Tag ▪ Robot-meta ▪ Robots.txt ▪ Fehler prüfen und Anforderungen an die IT stellen! Die echten Fehler finden
  • 25. Zusammenfassung: Glücklicher Crawler – freudiger Nutzer Nutzbarkeit erhöht Conversionskiller entfernt Erwartungskonformität erhöht Crawling optimiert Unnötige Ladezeit vermieden
  • 27. Nutzer und Inhalte zusammenführen Place of Information (Wo) Information Scent (Wohin) Frage: ▪ Wo bin ich? ▪ Bin ich hier richtig? Passende Suchanfrage auf der Seite hilft Nutzern und Suchmaschinen Anforderung: ▪ Suchanfrage in Titel (SERP) ▪ Suchanfrage in die Überschrift ▪ Überschrift entsprechend groß Frage: ▪ Wo sind mehr relevante Inhalte? ▪ Wie weit sind diese entfernt Nutzerzentrierte explizite Sprache unterstützt eine schnelle Orientierung Anforderung: ▪ Einfache & verständliche Navigation ▪ Relevante Inhalte schnell erreichbar Wo bin ich und wohin kann ich gehen sind die zentralen Fragen der Informationsarchitektur. Nur die Nutzer, die diese Fragen für sich beantworten können, können die gewünschten Informationen oder Produkte finden.
  • 28. Anpassung der Titles und Descriptions ▪ Erwartungskonformität steigern ▪ Nutzern Relevanz signalisieren ▪ Klickattraktivität steigern ▪ Änderungen im Anfrageverhalten und im Informationsbedarf erkennen und bedienen Warum? Mittelstand Retailer Publisher Index-Riese Relevanz Turnus
  • 29. Anpassung der Überschrift(en) ▪ Relevanz für Suchende steigern. ▪ Erstes Prüfen der Seite – Skimming und Scanning erffordert Beweise. ▪ „Bin ich hier richtig?“ Ja! Warum?Skimming Scanning Lesen Mittelstand Retailer Publisher Index-Riese Relevanz Turnus
  • 30. Dimensionen und Facetten erkennen ▪ Suggests zu Thema Kiten/Kitensurfen ▪ Welche Begriffe werden in Kombination mit ▪ „kitesurfen“ ▪ „Kiten“ ▪ „landkiten“ ▪ „Kiteurlaub“ gesucht? ▪ Erkennen von Suchdimensionen ▪ Ort ▪ Zeit ▪ Kitegröße ▪ Einstiegsseiten schaffen!
  • 31. Effizientes Analysieren mit Anfragesegmenten (GSC) ▪ Metriken aus der Google Search Console nach Anfragemuster aufteilen und betrachten. ▪ Herangehensweisen: ▪ Alle bekannten Muster ausschließen – was bleibt übrig? ▪ Gibt es in den einzelnen Muster „Subthemen“? ▪ Kommen die Nutzer auf der passenden Seite raus? Produktdetailseite? Kategorieseiten? ▪ Nein? Fehlen vielleicht die passenden Elemente auf den Seitentypen? ▪ Ist eine Facette neu hinzugekommen? ▪ Lohnt sich vielleicht eine neue Kategorie? Produkte nach Eigenschaft „xy“? Größe Material Hersteller 90x200 90x200 100x200 180x200 … Holz Metall Leder … Marke 1 Marke 2 Marke 3 Anfragemuster nach Klicks und Impressionen betrachten Beispiel Betten
  • 32. Prüfung auf neue Suchmuster und Suchverhalten ▪ Nutzer an die passende Stelle des Angebots leiten ▪ Potentiale zu neuen Suchmuster erschließen (passendere LP in der Regel bessere Rankings!) Warum? Header H1: Seitenthema H2 Subaspekt 1 Sprung- marken Marginal- spalte H2 Subaspekt 2 H2 Subaspekt 3 H2 Subaspekt4 <Verlinkungen zu verwandten Themen> Gesamtstruktur Seitenstruktur Mittelstand Retailer Publisher Index-Riese Relevanz Turnus
  • 34. ▪ Entwicklung einer News- SEO Strategie ▪ Aufbauend auf der thematischen Relevanz, die Google bereits zugewiesen hat ▪ Gezielte Optimierung auf News-Boxen im Rahmen der redaktionelle Arbeit ▪ News-Boxen besetzen ▪ Bestehende Rankings verlängern Content SEO: Lebenszyklus beachen! ▪ Evergreen-Inhalte identifizieren und gezielt ausbauen ▪ Content-Pflege in den Workflow integrieren ▪ Content-Ausbau zu Themenspecials ▪ Ausbau der Informationsarchitektur für Evergreen-Content wie Ratgeber, Guides etc. News-SEO Evergreen-SEO Ratgeber Artikel 1 Artikel 2 Ratgeber: Ca. 79 % SEO-Traffic Artikel: Ca. 35 % SEO-Traffic
  • 36. Content Refresh: Überalterung vermeiden ▪ Aktualität für den Nutzer gewährleisten ▪ Schleichender Ranking und Trafficverlust ▪ Content Maintenance Warum?Suchanfrage / Landingpage Klicks Impressionen Ranking Mittelstand Retailer Publisher Index-Riese Relevanz Event und Turnus
  • 37. Inhalte an das Suchverhalten anpassen ▪ Bei Initialerstellung Suchverhalten nicht ganz klar oder es ändert sich ▪ Änderung Suchverhalten ▪ Subthemen erst eindeutig und sichtbar mit eigenen Daten Warum? Mittelstand Retailer Publisher Index-Riese Relevanz Event und Turnus Erhebung Nachfrage AdWords oder Keyword-Tools
  • 38.
  • 39. Inhalte strukturiert depublizieren! Sicht nicht verlieren! Soft 404 wegen unspezifischer Redirects
  • 40. Effizientes löschen und depublizieren ▪ Inhalte werden nicht mehr benötigt und sollen möglichst schnell aus dem Index verschwinden ▪ Positive Signale mitnehmen ▪ Sackgassen vermeiden ▪ Freie Sicht behalten Warum? 1. Relevanz Prüfen a. Einstiege b. Links c. Seitenaufrufe 2. Redirect vs. 410 „Gone“ a. Fallentscheidung pro URL 3. Einrichtung der Redirects 4. Entfernen via 410 5. Prüfung ob noch interne Verlinkungen bestehen 6. Erstellung einer 410-Sitemap 7. Via GSC Einreichen 8. Regelmäßige Fehler prüfen und abhaken Mittelstand Retailer Publisher Index-Riese Relevanz Event und Turnus
  • 42. Warum Alerting und Monitoring? Being happy because our last deployment went perfectly!
  • 43. Alerts: Frühwarnsystem Agile Entwicklung erfordert agiles Fehlermanagement und eine entsprechende Fehlerkultur. Durch stetige Überwachung den SEO- Erfolg sichern.
  • 44. SEO als Teil der Qualitätssicherung ▪ Risikominimierung durch gefundene Fehler während der Entwicklung. ▪ Fehler werden frühzeitig erkannt und haben dadurch wenig bis gar keinen Impact auf die organische Leistung. ▪ Bugs bleiben Bugs und werden zum teuren Changerequest. ▪ Plattformqualität steigt, da Nutzungsprobleme schnell korrigiert werden können! Warum? https://www.gettraction.de/blog /seo-alerting-mit-testomato/ Mittelstand Retailer Publisher Index-Riese Relevanz Event
  • 45. Google Analytics für „Totalsausfälle“ nutzen Traffic-Beobachtung via Webanalyse • Traffic-Einbrüche • Umsatzausfall • Aufrufe 404-Fehlerseiten • … Mehr? z.B. https://www.zedwoo.de/google-analytics-alerts/ https://www.gandke.de/blog/google-analytics-alerts/ http://www.termfrequenz.de/podcast/beyond- pageviews-podcast/bp-2-1-google-analytics-alerts/
  • 46. Granulares Setup - Beispiele für Seitentypen und Abwandlungen Startseite Ressort Seitentypen Subressort Artikel Premiumartikel Themenseite Video Video-Ressorts Autorenseite Infografiken Suche Paginierung Filter SEO spezifische Dokumente Robots.txt Index-Sitemap Sitemaps News-Sitemap (Seitenweite) Parameter Usertracking Aktionstracking Partner Kurz-URLs Partnerangebote (auf Hauptdomain) Bugs & weiteres 410 301 404 Wiederholung Seitentypen? Canonicals
  • 47. Segmente mit spezifischen Prüfmerkmalen belegen ▪ Nach der Segmentierung einer Webseite nach Inhalts- und Template Bereichen, kann eine Auswahl an „Stellvertreterseiten“ getroffen werden, um erfolgskritische SEO- Anforderungen permanent zu überprüfen. Beispielsweise: ▪ Indexierungsanweisungen ▪ Muster für Titles und Descriptions ▪ Überschriften ▪ (SEO-)Textelemente ▪ Navigationselemente ▪ Schema.org Auszeichnung ▪ Href-lang Implementierung ▪ Sollte einer dieser Anforderungen verloren gehen (fehlerhaftes Deployment o.ä.), können sofort Gegenmaßnahmen ergriffen werden. Dies ist dringend notwendig für einen dauerhaften Erfolg im SEO. Beispiel Testomato
  • 48.
  • 49. Problem: Regeln können schwer überprüft werden ▪ Beispiel: ▪ Kategorien mit weniger als 5 Artikeln stehen auf noindex ▪ Href-lang nur implementiert, wenn Seite einen selbstreferenzierenden Canonial hat ▪ Slug eines Titels verkürzt sich, wenn Produktnamen eine bestimmte Länge haben ▪ Etc. ▪ Und natürliche alle Prüfungen aus dem Alerting! Im Fall von Abweichung: ▪ Direkt Ticket an IT zur Fehlerbehebung ▪ Entweder an Betrieb oder an Alerting- Ansprechpartner in der IT Lösung: Audisto Monitoring https://audisto.com/contacts/checks/1
  • 51. Operative Steuerung für Content und Informationsarchitektur ▪ Regelmäßige Sichtung von Hygiene und Qualitätsfaktoren des Produkts. ▪ Identifikation von Trendthemen und kurzfristigen Traffic-Quellen. ▪ Stark operativ einsetzbar mit direkter Ableitung von operativen Maßnahmen für Content, Informationsarchitektur und IT- Hygiene. ▪ Ausbau von Quickwins und Eventgetriebenen Themen, die sich nicht immer redaktionell planen lassen. Warum? Mittelstand Retailer Publisher Index-Riese Relevanz Turnus
  • 52. Wöchentliches Monitoring der Akquisition und Fehlerentwicklung Akquise und Qualität: • Sitzungen • Absprungrate Im zeitlichen Verlauf – zur Vorwoche – zur gleichen Woche im letzten Jahr SERP-Leistung: • Klicks und Impressionen • Absprungrate Im zeitlichen Verlauf – zur Vorwoche – zur gleichen Woche im letzten Jahr Top Suchphrasen (brand / nonbrand) • Impressionen • Klicks • CTR • Position Delta zur Vorwoche Top URLs (brand / nonbrand) • Impressionen • Klicks • CTR • Position Delta zur Vorwoche Sichtbarkeit und Rankings: • Sichtbarkeit nach Sistrix desktop/mobile • Anzahl Top 100 / Top 10 Rankings nach Sistrix Im zeitlichen Verlauf – zur Vorwoche – zur gleichen Woche im letzten Jahr IT-Fehler: • 404, 500, soft404 • Anzahl indexierte Seite Im zeitlichen Verlauf – zur Vorwoche – zur gleichen Woche im letzten Jahr IT-Fehler: • Doppelte Titles und Descriptions • Anzahl href-Tags und hreflang-Fehler Im zeitlichen Verlauf – zur Vorwoche – zur gleichen Woche im letzten Jahr IT-Fehler: • Anzahl schema.org-Elemente • Anzahl schema.org-Fehler • Anzahl Fehler auf mobilen Seiten Im zeitlichen Verlauf – zur Vorwoche – zur gleichen Woche im letzten Jahr Akquisition Sichtbarkeit und IT-Fehler
  • 53. Me: Wait – his outline said he would give us tools and processes to reduce efforts… Inner me: DISRUPT him NOW!
  • 54. Prozess sitzt. Arbeit läuft. SEO wird dennoch nicht informiert…
  • 55. Es bleibt nur Backup: Crawlen, suchen, vergleichen… + Sistrix Optimizer (Ende Oktober) https://www.sistrix.de/changelog/webseitenaenderungen-im-optimizer-nachvollziehen/ Filter bei Ryte speichern • Änderungen an Meta Index • Veränderung der Anzahl externer Links • Andere Meta Descriptions • Veränderter Canonical-Tag • Änderungen im Quelltext • H1-Überschrift hat sich geändert • Veränderungen der Anzahl interner Links • Anderer Status-Code • Veränderter Title-Tag • Neu gefundene URLs • Nicht mehr gefundene URLs • Deutlich andere Dateigröße • Ladezeiten haben sich deutlich geändert • Verändertes Charset • Anderer Content Type • Veränderte Klickanzahl
  • 56. • „Verwalten“ • Bekannte Fehler stören bei der Sichtung neuer Probleme & verhindern das aktive Steuern • Maßnahmen „sehen“ und auch bewerten können • Erfolg • Misserfolg / Korrektur Normaler Arbeitsablauf: Initialanalyse und Pflege Initialanalyse Betreuung und Pflege AbschlussInitialisierung • Vollständige Erstaufnahme • Evaluation aller Themenfelder und Bereich auf Risiken und Chancen • Erschließung der Seitenstruktur • Fehler kategorisieren und kontextualisieren • Anforderungen an die IT • Anforderungen an die Redaktion • Schätzungen, Workflows entwickeln, SEO- Roadmap aufbauen Vollständigkeit Änderungen
  • 57. Differenzen verschiedener Crawls schnell finden! Abgleich regelmäßiger Crawls der selben Domain mit dem jeweiligen Crawl davor nach: ▪ URLs, die im neuen Crawl nicht mehr vorhanden sind. ▪ URLs, die im neuen Crawl erstmalig vorhanden sind. ▪ URLs deren Canonical-Anweisung sich geändert hat ▪ URLs deren Titel / Descriptions sich geändert haben ▪ URLs deren Indexierungsanweisungen sich geändert haben ▪ URLs deren Statuscode sich geändert haben ▪ Etc. Im Fall von Regelverletzungen: ▪ Direkt Ticket an IT zur Fehlerbehebung ▪ Entweder an Betrieb oder an Alerting- Ansprechpartner in der IT Delta-Abgleich
  • 58. …ich weiß, was du letzte Woche getan hast… ▪ Neue URLs ▪ Entfallene URLs ▪ Änderungen: ▪ Status-Code ▪ Canonical-Link ▪ Meta-Robots ▪ H1 ▪ Title ▪ Description ▪ Content-Type ▪ Klicktiefe ▪ Dateigröße ▪ Antwortzeit Relevante MerkmaleMittwoch KW 28 Mittwoch KW 29 Entfallene URLs neue URLs Gemeinsame URLs
  • 59. Crawlabgleich: Screaming Frog & R: Workflow und Link Details und Download unter: https://www.gettraction.de/seokomm2017
  • 60. Zusammenfassung und Überblick der Relevanz Mittelstand Retailer Publisher Index-Riese IT Redirect(ketten) abbauen IT Fehlerseiten identifizieren und ggf. abbauen IT Doppelte Titles und Descriptions IA Anpassungen Title und Descriptions IA Anpassungen Überschriften (h1) IA Prüfung auf neue Suchmuster CO Content Refresh CO Content Anpassen CO Inhalte strukturiert depublizieren AL Alerting-Prozess MO Monitoring-Prozess
  • 61. Sie wollen die Präsentation? ▪ Schreiben Sie jetzt eine Mail an unseren Mitarbeiter, Michael Ludermann: ▪ ml@gettraction.de ▪ Betreff: SEOkomm Präsentation ▪ Und sie bekommen umgehend die Präsentation zugesendet! Kein Problem:
  • 62. …Fragen? Dann kontaktieren sie uns! Kontakt: www.gettraction.de FB: https://www.facebook.com/gettraction.de/ Twitter: https://twitter.com/gettraction_om Mail Stefan Keil: sk@gettraction.de
  • 63. Bildnachweise ▪ Folie 10: taviphoto/Shutterstock.com ▪ Folie 11: bigstockphoto.com / Scanrail ▪ Folie 18: bigstockphoto.com / Kirisa99 ▪ Folie 25: bigstockphoto.com / marcelmooij ▪ Folie 26: bigstockphoto.com / Ivelin Radkov ▪ Folie 28: bigstockphoto.com / Flynt ▪ Folie 33: bigstockphoto.com / Policas ▪ Folie 35: bigstockphoto.com / weerapat ▪ Folie 36: bigstockphoto.com / Thatsaphon Saengnarongrat ▪ Folie 41: bigstockphoto.com / Olivier Le Moal ▪ Folie 43: bigstockphoto.com / joegough ▪ Folie 50: bigstockphoto.com / tashatuvango