Screaming Frog Tricks | SEOKomm 2015

1.741 Aufrufe

Veröffentlicht am

SEOkomm 2015: Onpage SEO für große Online Shop erfordert oftmals komplexe Analysen, die ohne Tools kaum zu bewerkstelligen sind. In dieser Session verrät Mario Träger praktische Tipps & Tricks, wie auch komplexe SEO Analysen mit Hilfe von Screaming Frog durchgeführt werden können – inklusive konkreter Fallbeispiele.

Veröffentlicht in: Marketing
0 Kommentare
5 Gefällt mir
Statistik
Notizen
  • Als Erste(r) kommentieren

Keine Downloads
Aufrufe
Aufrufe insgesamt
1.741
Auf SlideShare
0
Aus Einbettungen
0
Anzahl an Einbettungen
77
Aktionen
Geteilt
0
Downloads
13
Kommentare
0
Gefällt mir
5
Einbettungen 0
Keine Einbettungen

Keine Notizen für die Folie

Screaming Frog Tricks | SEOKomm 2015

  1. 1. Screaming Frog Tricks, die du noch nicht kennst Download Version
  2. 2. WEBWORKS – IHRE ONLINE MARKETING AGENTUR FÜR ONLINE SHOPS
  3. 3. Vorstellung Mario Träger ist Partner der Agentur Webworks. Webworks unterstützt große und miIelständische Online Shops beim Start, Ausbau und der OpPmierung des Online MarkePngs. Mario Träger ist spezialisiert auf SEO - SuchmaschinenopPmierung und Google PageSpeed OpPmierung. Er studierte MedieninformaPk und Internet Web-Science und beschäSigt sich seit 2007 mit allen Bereichen der SuchmaschinenopPmierung. Bis 2014 war er Head of SEO und Social Media der WiI Gruppe (member of the oIo group). www.webworks-agentur.de
  4. 4. Mit Hilfe von vier SEO Anwendungsfällen möchte ich die Möglichkeiten mit Screaming Frog aufzeigen und euch neue Denkanstöße für die Verwendung geben
  5. 5. Themen Indexierungskontrolle Duplicate Content finden Relaunch meistern Backlinks bewerten
  6. 6. #1 Indexierungskontrolle mit Screaming Frog
  7. 7. Wie kann ich mehr Kontrolle über die Indexierung meiner Webseite bei Google bekommen und wie erhalte ich eine Übersicht nicht indexierter Seiten???
  8. 8. Indexierung mit Hilfe der Search Console ?
  9. 9. Überprüfung der Sitemap §  Download der XML Sitemap §  XML Sitemap in Screaming Frog importieren: §  Crawling starten >
  10. 10. Überprüfung der Sitemap #Statuscodes §  Status Code 5xx, 4xx, 3xx & blockierte Seiten ermitteln: -  7.267 - 404 Fehlerseiten -  3.226 - 301 Weiterleitungen -  423 - 501 Fehlerseiten -  165 - blockierte Seiten 11.121 Seiten die in der XML Sitemap nichts zu suchen haben>
  11. 11. Überprüfung der Sitemap #Meta Robots §  Seiten mit Noindex ermitteln: -  3.399 Seiten sind auf Noindex 3.399 Seiten die in der XML Sitemap nichts zu suchen haben>
  12. 12. Überprüfung der Sitemap #Canonical §  Seiten mit einem Canonical auf eine andere Seite ermitteln: -  301 Seiten zeigen auf eine andere Seite 301 Seiten die in der XML Sitemap nichts zu suchen haben>
  13. 13. In 99% der Fällen ist erst mal die Sitemap schuld!
  14. 14. Export aller zu indexierenden Seiten §  URLs, welche aufgrund Statuscodes, Meta Robots usw. nicht ranken, können innerhalb von Screaming Frog entfernt werden §  Liste an URLs als CSV Datei exportieren:
  15. 15. Welche Seiten sind nun nicht im Index enthalten und warum?
  16. 16. Überprüfung auf Indexierung #GoogleCacheCrawl §  Liste mit allen relevanten URLs + Webcache URL erstellen -  Speed: Max URIs/Sekunde auf 0,1 heruntersetzen Google stoppt nach einer gewissen Zeit das Crawling durch einen Captcha> http://webcache.googleusercontent.com/ search?q=cache:www.meinedomain.de/
  17. 17. Überprüfung auf Indexierung #GoogleCacheCrawl §  Prüfung auf Indexierung mit Hilfe von URL Profiler: -  Das Tool URL Profiler ermittelt, welche Seiten unserer Sitemap nicht im Google Index enthalten sind -  Bei einer größeren Anzahl an Seiten ist die Verwendung von Proxys erforderlich
  18. 18. Überprüfung auf Indexierung #GoogleCacheCrawl §  Prüfung auf Indexierung mit Hilfe von URL Profiler:
  19. 19. Gründe bei nicht indexierten Seiten finden §  Liste aller nicht indexierten Seiten mit Crawl der Seite abgleichen -  Seiten haben Thin Content Inhalt anreichern oder Seite auf Noindex> -  Seiten haben Duplicate Content Unique Inhalte erstellen oder Noindex> -  Seiten werden zu schwach intern verlinkt Interne Verlinkung / Seitenstruktur verbessern >
  20. 20. #2 Duplicate Content finden mit Screaming Frog
  21. 21. Welche Inhalte meiner Webseite generieren Duplicate Content und welche Muster sind als Ursachen erkennbar???
  22. 22. Einfache Möglichkeit über die Search Console §  HTML Verbesserungen: Doppelte Title & Descriptions: §  ABER: Daten meist nicht vollständig und veraltet
  23. 23. Bessere Möglichkeit durch vollständiges Crawling §  Duplikate bei Page Titles und Meta Descriptions exportieren §  Hiermit lässt sich jedoch nur Duplicate Content finden, wenn Seiten gleiche Meta Tags besitzen
  24. 24. Duplicate Content mit Hilfe des Hash Wertes §  Gleicher Hash Wert bei identischem Content §  Somit lassen sich zusätzlich komplett identische Inhalte finden
  25. 25. Auffinden von doppelten Produkttexten #Shop §  Auslesen von Texten mit Hilfe der Customer Extraktion:
  26. 26. Auffinden von doppelten Produkttexten #Shop §  Auslesen von Texten mit Hilfe der Customer Extraktion:
  27. 27. Auffinden von doppelten Produkttexten #Shop §  Auslesen von Texten mit Hilfe der Customer Extraktion: §  Duplikate der Produkttexte mit Hilfe von Excel finden
  28. 28. Vermeidung von Mobile Duplicate Content §  Überprüfung ob mobile Subdomain stets auf Desktop zeigt:
  29. 29. Vermeidung von Mobile Duplicate Content §  Überprüfung ob mobile Subdomain stets auf Desktop zeigt:
  30. 30. #3 Relaunch meistern mit Screaming Frog
  31. 31. Wie kann ich einen Relaunch aus SEO Sicht opEmal vorbereiten und wie finde ich nach dem Relaunch sofort Fehler???
  32. 32. Crawling vor dem Relaunch §  Erfassen aller relevanten Unterseiten & Weiterleitungsketten -  Aus dem Crawling kann ein Redirect Plan erstellt werden -  Zudem ist das Crawling nach dem Relaunch erforderlich um Fehler finden zu können
  33. 33. Crawling vor dem Relaunch §  Meta Daten & SEO Content sichern §  Im schlimmsten Fall lassen sich dadurch SEO Inhalte wieder herstellen und gehen nicht verloren
  34. 34. Crawling vor dem Relaunch §  Meta Daten & SEO Content sichern
  35. 35. Crawling vor dem Relaunch §  Meta Daten & SEO Content sichern §  Im schlimmsten Fall lassen sich dadurch SEO Inhalte wieder herstellen und gehen nicht verloren
  36. 36. Nach dem Relaunch – Redirect Audit §  Umfassende Liste mit vollständigem Crawling vor dem Relaunch hochladen und erneut crawlen lassen §  Weiterleitungsketten auswerten und Statuscodes überprüfen
  37. 37. Was kann ich tun, wenn vor dem Relaunch kein Crawling Abbild erstellt wurde?
  38. 38. Nach dem Relaunch – Wayback Machine hilft aus §  Wayback Machine kann mit Hilfe der korrekten URL und den richtigen Screaming Frog Einstellungen gecrawlt werden http://web.archive.org/web/*/www.meinedomain.de
  39. 39. Nach dem Relaunch – Wayback Machine hilft aus §  Wayback Machine kann mit Hilfe der korrekten URL und den richtigen Screaming Frog Einstellungen gecrawlt werden http://web.archive.org/web/*/www.meinedomain.de
  40. 40. Nach dem Relaunch – Wayback Machine hilft aus §  Wayback Machine kann mit Hilfe der korrekten URL und den richtigen Screaming Frog Einstellungen gecrawlt werden http://web.archive.org/web/*/www.meinedomain.de §  Mit Hilfe von Excel müssen nun noch die URLs von der web.archive Adresse extrahiert werden
  41. 41. Google Tag Manager & Google Analytics Check §  Nach dem Relaunch alle Seiten auf Trackingcodes prüfen: §  Je nach Setup kann der Quelltext nach dem Tag Manager Code oder nach dem Analytics Code durchsucht werden
  42. 42. #4 Backlinks bewerten mit Screaming Frog
  43. 43. Welche Links zeigen zum aktuellen Zeitpunkt wirklich noch auf meine Domain und welche davon sollte ich entwerten???
  44. 44. Sammlung von Daten aus verschiedensten Quellen §  Linkdaten Export bspw. aus Sistrix, eig. Listen & Search Console §  Vollständige Liste in Screaming Frog importieren:
  45. 45. Überprüfung der Links auf Aktualität / Bestehen §  Crawl 1: Weiterleitungsketten und finales Linkziel ausfindig machen -  Alle Seiten mit 4xx & 5xx Statuscodes fliegen raus -  Alle Seiten, welche den Link bereits entfernt haben, fliegen raus -  Viele Linkquellen haben sich durch die Umstellung von http auf https geändert und sollten daher berücksichtigt werden §  Crawl 2: Linkquellen filtern, welche den Link im HTML enthalten: §  Dadurch erhalten wir Seiten, welche tatsächlich einen Link setzen
  46. 46. Überprüfung bestehender Links auf SPAM/PORN... §  Crawl 3: Content der Linkquellen auf Spam, Porn oder Paid Content Hinweise durchsuchen:
  47. 47. Finale Linkquellen mit Crawlingdaten anreichern §  Crawl 4: Finale Liste mit zusätzlichen Crawlingdaten anreichern um leichter schlechte Links ausfindig machen zu können Linkquellen mit minderwertigem Thin Content? > Indiz für Linkfarmen? >
  48. 48. Zusammenfassung Indexierungskontrolle Duplicate Content finden Relaunch meistern Backlinks bewerten
  49. 49. Kontakt mail: mario.traeger@webworks-agentur.de phone: 030 – 42804064 mobile: 0151 43 13 23 37 xing: Mario_Traeger www.webworks-agentur.de

×