Alerting im SEO ist immer ein ziemlich anstrengendes, aber wichtiges Thema! In diesem Blogpost wollen wir Euch unsere Herangehensweise vorstellen und wie wir das Tool Testomato dafür zielgerichtet einsetzen.
8. Das richtige Werkzeug…
…. zur richtigen Zeit und für den richtigen Zweck
Alerts
Monitoring
Reporting
Impact
Berichtszeit-
punkt
sofort später
niedrig
hoch
9. Alerts: IT-Maintenance-Daten vs. Daten zum Nutzerverhalten
Traffic-Beobachtung via WebanalyseIT – Maintenance (Crawls)
• Indexierungs- und Crawlinganweisungen
• Optimierungen der Informationsarchitektur
• Traffic-Einbrüche
• Umsatzausfall
• Aufrufe 404-Fehlerseiten
• …
Mehr?
z.B.
https://www.zedwoo.de/google-analytics-alerts/
https://www.gandke.de/blog/google-analytics-alerts/
http://www.termfrequenz.de/podcast/beyond-
pageviews-podcast/bp-2-1-google-analytics-alerts/
10. Alerts: Möglichst granular und qualitativ
Zu aggregierte Betrachtung ergibt nur Last
0
2.000
4.000
6.000
8.000
10.000
12.000
14.000
16.000
KW 12 KW 13 KW 14 KW 15 KW 16 KW 17
Entwicklung Seiten mit noindex-Anweisung
+ 40% !
+ 15% !
Defizite:
- Stark Aggregiert
- Domainebene
- Kein Drilldown (in GSC)
- Weiter Weg um den Fehler
zu finden
13. Segmente nach Seitentypen
Kontrolle durch granulares Setup
▪ Der Kern einer erfolgreichen Beobachtung.
▪ Stark aggregierte Daten lassen keine Analyse
zu.
Nicht:
Sondern:
Segmentierung
0
5
April Mai Juni Juli
SEO-Traffic
0
50
April Mai Juni Juli
SEO-Traffic
Startseite Kategorie Produktdetailseite
15. Auswahl der zu überwachenden Seiten
Beispiel Publisher/Verlagswesen
Startseite
Ressort
Seitentypen
Subressort
Artikel
Premiumartikel
Themenseite
Video
Video-Ressorts
Autorenseite
Infografiken
Suche
Je die 2-3 organisch
Traffic- oder
Konversionsstärksten
URLs
Ziel:
- Muster-, bzw.
templatebasierte Fehler
frühzeitig erkennen
- Stichproben ausreichend
17. Segmentierung einer Webseite
Mobile Varianten auf eigenen Hosts nicht vergessen…
Desktop mobile AMP
41 Seiten
+ +41 Seiten Ca. 40 Seiten (ohne
Suche)
Ca. 122 Seiten
18. SEO-Relevante Merkmale
Indexierung und Crawling + durchgeführte IA-Optimierungen sicherstellen
Indexierung
und Crawling
Informations
-architektur
sonstige
Statuscode
robots-meta
Canonical
alternate
Linkboxen (div)
Titel
Description
Breadcrumbs
h1
h2
schema.org
WebPage
Tracking
Social Media
Facebook
Twitter
relatedLinks
breadcrumb
mainEntityOfPage
(NewsArticle)
headline
date
…
19. SEO-Relevante Merkmale
Indexierung und Crawling + durchgeführte IA-Optimierungen sicherstellen
Indexierung
und Crawling
Informations
-architektur
sonstige
Statuscode
robots-meta
Canonical
alternate
Linkboxen (div)
Titel
Description
Breadcrumbs
h1
h2
schema.org
WebPage
Tracking
Social Media
Facebook
Twitter
relatedLinks
breadcrumb
mainEntityOfPage
(NewsArticle)
headline
date
…
Dokumentieren und Fixieren!
23. Ask in Advance
Prüft auf Probleme, die ihr noch nicht habt…
▪ Analytics geht nicht mehr? Vielleicht ein
Problem mit „Content Security Policy“?
▪ Content-Security-Policy im http-Header:
▪ Sollte eine Content Security Policy eingeführt
werden, kriege ich es mit
▪ Google.com dabei? –Supi, Alert anpassen,
weiterarbeiten
▪ Google.com fehlt? GA-Tracking wird ausfallen!
Ticket an die IT, Thema gelöst.
Mitnehmen, was man so hört…
Type Source Methode Rule
Content Type HTTP Header contains Content-Type: text/html
Encoding HTTP Header contains Content-Encoding: gzip
Index HTTP-Header not contains noindex
Follow HTTP-Header Not contains Nofollow
Content Security Policy HTTP-Header Not contains -src
Standard Tests für den HTTP Header
24. Wiederkehrende Fehler im Detail prüfen
▪ Bei wiederkehrenden Fehlern nicht nur das
„SOLL“ prüfen – sondern auch das bekannte,
mögliche Fehlermuster.
▪ Ansonsten habe ich immer etwas Zeitdruck
und muss umgehend prüfen – aber so eine
Plattform „schwankt“ ja auch gerne mal.
▪ So weiß ich, ob auch das bekannte
Fehlermuster verantwortlich war oder unter
Umständen ein neues Problem aufgetreten
ist.
Beschreibung
27. Problem: Regeln können schwer überprüft werden
▪ Beispiel:
▪ Kategorien mit weniger als 5 Artikeln stehen auf
noindex
▪ Href-lang nur implementiert, wenn Seite einen
selbstreferenzierenden Canonial hat
▪ Slug eines Titles verkürzt sich, wenn
Produktnamen eine bestimmte Länge haben
▪ Etc.
▪ Und natürliche alle Prüfungen aus dem
Alerting!
Im Fall von Abweichung:
▪ Direkt Ticket an IT zur Fehlerbehebung
▪ Entweder an Betrieb oder an Alerting-
Ansprechpartner in der IT
Lösung: Audisto Monitoring
https://audisto.com/contacts/checks/1
29. Alerts: Möglichst Granular und Qualitativ
Zu aggregierte Betrachtung ergibt nur Last
0
2.000
4.000
6.000
8.000
10.000
12.000
14.000
16.000
KW 12 KW 13 KW 14 KW 15 KW 16 KW 17
Entwicklung Seiten mit noindex-Anweisung
+ 40% !
+ 15% !
Defizite:
- Stark Aggregiert
- Domainebene
- Kein Drilldown (in GSC)
- Weiter Weg um den Fehler
zu finden
Wenig geeignet für einen Alert,
allerdings (fast) gut für ein
Monitoring!
30. GSC: relevante Daten
IT-Hygiene Daten aus der Search Console Speichern und Monitoren
Web/SmartphoneLinks insgesamt
HTML-Verbesserungen
Doppelte Descriptions
Doppelte Titles
Fehlende Titles
Irrelevante Titles
Kurze Descriptions
Lange Descriptions
Kurze Titles
Lange Titles
Indexierungsstatus
Links zu Ihrer Webseite
Mobile
Nutzerfreundlichkeit
Sitemaps
Strukturierte Daten
Insgesamt Indexiert
Von robots.txt blockiert
Seite mit Problemen
Elemente
Elemente mit Fehlern
Bilder eingereicht
Bilder indexiert
Mobile eingereicht
Mobile indexiert
News eingereicht
Video indexiert
News indexiert
Videos eingereicht
Web indexiert
Web eingereicht
Crawlerrors
notFound
notFollowed
authpermission
Server-Error
soft404
other
flashContent
manyToOneRedirect
Suchanalyse
31. GSC Setup: Verzeichnisverifikation
Granulare Verifizierung für mehr Daten und mehr Kontrolle!
▪ Protokollversionen
(http/https)
▪ Hosts (www.)
▪ Verzeichnisse
▪ Ein bis zwei Ebenen – je
nach Anzahl der Seiten
Alle Varianten bedenken!
32. Monitoring: Search Console – Beispiele
Regelmäßige Betrachtung von Fehlerdaten auf allen Ebenen
domain.de
/verzeichnis1
/verzeichnis2
/verzeichnis3
/verzeichnis4
+n
gesamt
Sprachverzeichnis de Sprachverzeichnis en
35. • „Verwalten“
• Bekannte Fehler stören bei der Sichtung neuer
Probleme & verhindern das aktive Steuern
• Maßnahmen „sehen“ und auch bewerten können
• Erfolg
• Misserfolg / Korrektur
Normaler Arbeitsablauf: Initialanalyse und Pflege
Initialanalyse Betreuung und Pflege
AbschlussInitialisierung
• Vollständige Erstaufnahme
• Evaluation aller Themenfelder und Bereich auf
Risiken und Chancen
• Erschließung der Seitenstruktur
• Fehler kategorisieren und kontextualisieren
• Anforderungen an die IT
• Anforderungen an die Redaktion
• Schätzungen, Workflows entwickeln, SEO-
Roadmap aufbauen
Vollständigkeit Änderungen
37. Credits für das folgende Analyseframework
▪ … frisst am liebsten Rohdaten
▪ … zerlegt, speichert und demoliert
alles mit R und Knime
▪ …. hört am liebsten den Satzteil „…
kann man das nicht mal eben
schnell…“
Meisteranalyst!
Patrick Lürwer
/in/patrickluerwer/
@netzstreuner
38. Workflow der Crawl-Auswertung
Screaming Frog
Crawling
Datenaufbereitung
& Auswertung
R / R Studio
Report
Alle Links mit
Merkmalen wie
Status Code,
Content Type,
Title etc.
Alle
Verlinkungen
der Webpages
untereinander
Export
43. IT-SEO-Monitoring: Standardslides
Wenn die Fremdreferenzierung 200 ist, stimmt das Meta-Robots-Tag überein?
Stimmten die Meta-
Robots der
fremdreferenziernden
und referenzierten
Seite überein?
44. Bei welchen Seiten hat sich der Meta-Robots geändert?
Detaillierte Auszüge bei hohen Schwankungen der letzten Crawldaten
Bei wie vielen URLs haben
sich die Meta Robots
zwischen den Crawls
verändert?
Um welche
URLs handelt
es sich?
Indexierbarkeit
45. Welche Seiten sind neu?
Schnelle Übersicht zum Überfliegen
2
373
158
5 1
17
3
VZ-1 VZ-2 VZ-3
46. Du, Patrick, der Graph auf Seite 3
passt nicht, kannst du nicht schnell
mal?
47. Differenzen verschiedener Crawls schnell finden!
Abgleich regelmäßiger Crawls der selben Domain
mit dem jeweiligen Crawl davor nach:
▪ URLs, die im neuen Crawl nicht mehr vorhanden
sind.
▪ URLs, die im neuen Crawl erstmalig vorhanden
sind.
▪ URLs deren Canonical-Anweisung sich geändert
hat
▪ URLs deren Titel / Descriptions sich geändert
haben
▪ URLs deren Indexierungsanweisungen sich
geändert haben
▪ URLs deren Statuscode sich geändert haben
▪ Etc.
Im Fall von Regelverletzungen:
▪ Direkt Ticket an IT zur Fehlerbehebung
▪ Entweder an Betrieb oder an Alerting-
Ansprechpartner in der IT
Delta-Abgleich
48. …ich weiß, was du letzte Woche getan hast…
▪ Neue URLs
▪ Entfallene URLs
▪ Änderungen:
▪ Status-Code
▪ Canonical-Link
▪ Meta-Robots
▪ H1
▪ Title
▪ Description
▪ Content-Type
▪ Klicktiefe
▪ Dateigröße
▪ Antwortzeit
Relevante MerkmaleMittwoch KW 28 Mittwoch KW 29
Entfallene URLs neue URLs
Gemeinsame URLs
49. Crawlabgleich: Screaming Frog & R: Workflow und Link
Details und Download unter:
https://www.gettraction.de/blog/screamin
g-frog-r-websiteaenderungen-ermitteln
50. Reporting & Monitoring
Qualitätssicherung im 3-Stufiges System
Alerting Monitoring Reporting
• Proaktives
Warnsystem
• Systemweite Fehler
vor einem Impact
erkennen.
• Wöchentliche Betrachtung aller
Fehlerberichte der Google Search
Console
• Überführung in Tickets
• Wöchentliches Crawling, und
Abgleich der Deltas
• Wöchentliches Reporting mit
Kurzübersicht zu SERP Leistung,
Sichtbarkeit, Traffic und Website-
Fehlern.
• Monatlicher Report zu Acquisition-,
Engagement- und Transactioninformationen
inkl. Ausführlicher Kommentierung.
Täglich
Wöchentlich
MonatlichSEO-Maintenance SEO-Erfolgsmessung