Eines der wichtigsten Tools im SEO-Handwerk ist der praktische Crawler Screaming Frog. In meinem Vortrag will ich zeigen, wie sich die alltäglichen Fragen um die Suchmaschinenoptimierung damit beantworten lassen, wie nützliche Dashboards entstehen und welche Tools mit diesen Daten noch mehr Informationen holen.
16. Sitemap und Fehlercodes
16
• Sitemap herunterladen
• Liste in Screaming Frog prüfen
• Fehlerberichte auswerten
• Ursachen beseitigen -> IT
• Sitemap anpassen (Symptom)
17. Wie finde ich nicht indexierte URLs?
17
• Alle gecrawlten URLs mit “index“, abzüglich aller URLs
• aus der Webanalyse mit Organic Traffic
• mit Rankings (Searchmetrics, Sistrix)
• Dann Google Cache Crawl
• Oder SEOTools4Excel
• Oder ...
19. Redirects (Relaunch)
19
• Webseite vor Relaunch crawlen
• Nach Relaunch gleiche Liste erneut prüfen
• Fehlerberichte auswerten
• CSV zur Korrektur der Weiterleitungen ans
Team
24. Wo befindet sich wenig oder kein Text?
24
• Nutze den Word Count
• Identifiziere einen Grenzwert
anhand von Stichproben
• Filtere die Liste mit weniger als
dem Grenzwert
43. Welche Daten eignen sich zum Anreichern?
43
Sistrix
Searchmetrics
Google Analytics
Google Search Console
Majestic
Ahrefs
Link Research Tools
Social Shares
Copyscape
44. Performance
44
• RAM-Speicher erhöhen
• Amazon Cloud
• Artikel dazu bei Artaxo
Kosten
• 150 € pro Jahr
• Zwei Installationen
Vergleich von OnPage-Tools
• Vor- und Nachteile der Crawler
• PDF bei eisy.eu
Hinweis der Redaktion
AGENDA1. Fragen der Optimierung2. Das Dashboard3. Weitere Tools
EURE Ideen für Zielsetzungen?
Konfig: Trackingcodes, Bilder weglassen, Externe Links vermeiden
Crawl der gesamten Seite oder einzelnes Verzeichnis
Einbindung von Trackingcodes prüfen
Für alle URLs die auf “index“ stehen
Wie viele Wege muss der Crawler gehen um neue Dokumente zu finden?
Je flacher, desto besser. Umso mehr Bedeutung für das Dokument.
Anzahl von Linktexten
Verschiedene Linktexte pro URL
Gegenstück: URLs mit gleichem Linktext
Wieviele ausgehende Links haben die Seiten?
Wie viele eingehende Links haben die Seiten?
Mit den Pivottabellen kann man sehen, welche Links von diesen Hubs abgehen
Dazu legen lassen sich die Anchortexte
- Alles ebenso mit dem Bericht All Anchor Text möglich
Grundlage ist die Konfiguration vor dem Start
Noindex muss eingestellt sein
Gesamtbericht nutzen
Einzelnen Bericht exportieren für Details
Überprüfung ob Duplicate ordnungsgemäß ausgezeichnet sind
Sortierungen, Filter, Trackingcodes durch Paramter an URLs
- Alle Berichte lassen sich direkt aus Screaming Frog exportieren
Fehlerberichte: Statuscodes, noindex, canonicals, durch robots.txt gesperrt
Unbedingt Proxies verwenden
Beispielsweise Limeproxies
Tägliche Messung
Gleiches Set an URLs
Zusätzlich Bericht aus „Crawl Overview“ visualisieren
- Copy selector = CSSPath
- Eure Ideen?
Mein Dashboard als Download
Eigene Erfahrungen mit Pivottabellen