Diese Präsentation wurde erfolgreich gemeldet.
Wir verwenden Ihre LinkedIn Profilangaben und Informationen zu Ihren Aktivitäten, um Anzeigen zu personalisieren und Ihnen relevantere Inhalte anzuzeigen. Sie können Ihre Anzeigeneinstellungen jederzeit ändern.

SEO Campixx 2016 - Frühjahrsputz für die Website (SEO Geisterjagd)

1.123 Aufrufe

Veröffentlicht am

Warum macht es aus SEO Sicht Sinn seine Website aufzuräumen? An welchen Stellen kann man aufräumen? Welche Tools kann man dazu einsetzen? Dieser Vortrag zeigt ein paar Impulse, welche Stellschrauben man sich bei der nächsten Website-Analyse ansehen könnte.

Veröffentlicht in: Marketing

SEO Campixx 2016 - Frühjahrsputz für die Website (SEO Geisterjagd)

  1. 1. Frühjahrsputz für die Website SEO-Geisterjagd Berlin, 13.03.2016 http://static.srcdn.com/slir/w700-h350-q90-c700:350/wp-content/uploads/ghostbusters-2016-reboot-spinoff.jpg
  2. 2. @catbirdseat fb.com/catbirdseat Wer quatscht denn da? 2 @M_Schwertfeger mario.schwertfeger@catbirdseat.de SEO Consultant bei Catbird Seat
  3. 3. • Warum ist Aufräumen der Seite wichtig? • Tools • Backlinks & Linkjuice • (Near) Duplicate Content • Thin Content • 4xx und 3xx • Snippets und Nutzersignale • Analytics Themen
  4. 4. @catbirdseat fb.com/catbirdseat Was kann man von diesem Workshop erwarten?  Keine Schritt-für-Schritt Anleitung / kompletter Audit  Kein Blick auf eine bestimmte Seitenart / Branche  Übersicht über verschiedene Probleme, die einem im SEO häufig begegnen und Lösungsansätze  Inspiration für zukünftige Aufräumarbeiten an der Website  Level: Anfänger 4
  5. 5. @catbirdseat fb.com/catbirdseat Warum ist das „Aufräumen“ einer Seite wichtig? 5 https://i.ytimg.com/vi/5HZdyUUhzXU/hqdefault.jpg http://images.nationalgeographic.com/wpf/media-live/photos/000/896/overrides/adelie-penguin-antarctica_89655_990x742.jpg http://www.seo-trainee.de/wp-content/uploads/2013/09/Google-Web-Crawler.png http://popresults.com/wp-content/uploads/2013/01/off_page_seo_link_juice_box.jpg http://searchengineland.com/figz/wp-content/seloads/2014/07/matt-cutts-fade-1920-800x450.jpg
  6. 6. @catbirdseat fb.com/catbirdseat Je größer die Seite, desto mehr Junk 6 Ehren Reilly (SMX München 2014):
  7. 7. @catbirdseat fb.com/catbirdseat Die Geister die ich rief… 7Bild: http://orig00.deviantart.net/9d09/f/2013/346/8/a/the_real_ghostbusters_comic_cover_by_t_rexjones-d6urq0p.png Thin Content Duplicate Content Keyword Kannibalisierung Fehlerseiten Interne Weiterleitungen Verschwendung von Crawlbudget Irrelevante indexierte Inhalte Schlechte Nutzersignale Junk Pages Verschwendung von Linkjuice
  8. 8. @catbirdseat fb.com/catbirdseat Lösung: Seite analysieren und aufräumen 8Bild: http://static.srcdn.com/slir/w786-h393-q90-c786:393/wp-content/uploads/Chris-Hemsworth-Joins-Cast-All-Female-Ghostbusters-Reboot-.jpg
  9. 9. @catbirdseat fb.com/catbirdseat Unser Ghostbuster-Equipment… 9http://www.d-edition.de/ebay_bilder/image_HW-MVWX5470_1.jpg
  10. 10. Backlinks & Linkjuice
  11. 11. @catbirdseat fb.com/catbirdseat Verschwendung von externem Linkjuice 11 Externer Linkjuice 404
  12. 12. @catbirdseat fb.com/catbirdseat Prüfen von externen Broken Backlinks 12
  13. 13. @catbirdseat fb.com/catbirdseat Prüfen von externen Broken Backlinks 13
  14. 14. @catbirdseat fb.com/catbirdseat Hier liegen viele Links brach… 14
  15. 15. @catbirdseat fb.com/catbirdseat Tipps: Export mit Ansicht eingehender Links 15 http://www.focus.de/kultur/vermischtes/nina-hagen-grufti-style-a-la-nina-hagen_aid_937316.html http://www.livingathome.de/wohnen-selbermachen/wohnideen/7300-bstr-sessel-klassisch- romantisch#6619-img-rattan-sessel-von-sika-design
  16. 16. @catbirdseat fb.com/catbirdseat Bei dieser Gelegenheit: Abgleich mit robots.txt 16
  17. 17. @catbirdseat fb.com/catbirdseat Ach ja… die robots.txt 17  Die robots.txt generell so schlank wie möglich halten  Dient nie zur Indexsteuerung, maximal zur Crawlsteuerung!  Durch Sperrung von Seiten(-bereichen) in der robots.txt kann Linkjuice „verpuffen“!
  18. 18. @catbirdseat fb.com/catbirdseat Auch eine DETOX-Kur schadet nicht… 18
  19. 19. Duplicate Content
  20. 20. @catbirdseat fb.com/catbirdseat Duplicate Content aufräumen 20 Search Console als Hilfsmittel
  21. 21. @catbirdseat fb.com/catbirdseat Duplicate Content aufräumen 21 Search Console als Hilfsmittel Tabelle exportieren. Je mehr Properties desto mehr Daten!
  22. 22. @catbirdseat fb.com/catbirdseat Duplicate Content aufräumen 22 OnPage.org > Duplicate Content
  23. 23. @catbirdseat fb.com/catbirdseat Duplicate Content aufräumen 23 Doppelte Title (Meta Descriptions) aus Screaming Frog
  24. 24. @catbirdseat fb.com/catbirdseat Duplicate Content aufräumen 24 Screaming Frog Export > Pivot-Tabelle
  25. 25. @catbirdseat fb.com/catbirdseat Duplicate Content aufräumen 25 Hash-Wert im Screaming Frog für komplett identischen Content
  26. 26. @catbirdseat fb.com/catbirdseat (Near) Duplicate Content bekämpfen 26  Duplikate durch http / https -> 301 Redirect (Canonical)  Duplikate durch www und non-www -> 301 Redirect (Canonical)  Identische Title & Meta Description durch Filter-URLs -> Individuelle Title & Descriptions schaffen  Exakt identische Inhalte (redaktionell bedingt) -> Canonical  Relativ ähnliche Inhalte -> Inhalte zusammenfassen oder Canonical  Parameter-URLs -> Canonical oder Entstehung der Parameter verhindern oder Blocken in der Google Search Console (gilt natürlich nur für Google!)  Filter ->Entstehung von DC verhindern bzw. Crawling verhindern Mögliche Szenarien
  27. 27. @catbirdseat fb.com/catbirdseat (Near) Duplicate Content bekämpfen 27 1.Idealerweise schon die Entstehung verhindern! 2. Alternativ Indexierung verhindern und falls sinnvoll, auch das Crawling verhindern!
  28. 28. @catbirdseat fb.com/catbirdseat (Near) Duplicate Content & Paginierung 28 rel=„prev/next“ „noindex“ auf Folgeseiten als Sicherungsmechanismus Kein Canonical von Folgeseiten auf erste Seite!
  29. 29. @catbirdseat fb.com/catbirdseat (Near) Duplicate Content & Filter 29 Ansichts- und Sortierungsfilter?  Nicht Index-relevant  Verschwendet zudem Crawl-Budget Indexierung- und Crawling verhindern POST-Request http://www.heroicgirls.com/wp-content/uploads/2014/10/ghostbusters-staypuft.jpg
  30. 30. @catbirdseat fb.com/catbirdseat (Near) Duplicate Content & Filter 30 Faceted Navigation?  Index-relevant? Indexierung- und Crawling zulassen ABER: auf individuelle Title und Descriptions achten  Index-irrelevant? Indexierung- und Crawling verhindern (nicht mit der robots.txt) Maskierung (z.B. PRG-Pattern) und als Sicherheit „noindex“ Alternativ: Canonical
  31. 31. @catbirdseat fb.com/catbirdseat (Near) Duplicate Content & Filter 31 Produktfilter?  Im Normalfall nicht indexrelevant POST #rind, #rind-wild, #rind-huhn, #rind-lamm,… http://cdn.movieweb.com/img.news.tops/NEbhBNJUZyX0fg_3_b.jpg
  32. 32. @catbirdseat fb.com/catbirdseat Warum eigtl. keine internen „nofollow“? 32 Interne „nofollow“-Links nach Möglichkeit vermeiden! Verschwendung von Linkjuice.
  33. 33. Thin Content
  34. 34. @catbirdseat fb.com/catbirdseat Thin Content 34 Identifizierung der Textmenge mit SEORATIO Tools
  35. 35. @catbirdseat fb.com/catbirdseat Thin Content 35 Identifizierung der Textmenge mit OnPage.org
  36. 36. @catbirdseat fb.com/catbirdseat Thin Content 36 Thin Content bei Kategorie-Seiten mit Custom Filter finden
  37. 37. @catbirdseat fb.com/catbirdseat Thin Content 37 Thin Content bei Kategorie-Seiten mit Custom Filter finden
  38. 38. @catbirdseat fb.com/catbirdseat Thin Content 38 Thin Content bei Kategorie-Seiten mit CSS Path finden
  39. 39. @catbirdseat fb.com/catbirdseat Thin Content 39
  40. 40. @catbirdseat fb.com/catbirdseat Thin Content 40 Idealerweise noch mit Analytics und / oder Search Console-Daten anreichern Kategorie-Seiten ohne Inhalte auf „noindex, follow“ setzen Redaktionelle Seiten anreichern / zusammenfassen? http://vignette2.wikia.nocookie.net/ghostbusters/images/3/37/ZuulTerrorDog1.png/revision/latest?cb=20140515200520
  41. 41. 4xx und 3xx
  42. 42. @catbirdseat fb.com/catbirdseat 4xx-Seiten 42 Interne Verlinkungen anpassen! Nicht auf 4xx linken. Bei Traffic / externen Backlinks -> 301 Redirect Hinsichtlich alternativer Verweise checken (Canonical, XML-Sitemap, Redirect, rel=„prev/next“)
  43. 43. @catbirdseat fb.com/catbirdseat Wie kommt der Crawler auf intern nicht verlinkte 4xx? 43 OnPage.org > URL-Inspektor
  44. 44. @catbirdseat fb.com/catbirdseat Wie kommt der Crawler auf intern nicht verlinkte 4xx? 44 Auch an die XML-Sitemap als Problemursache denken!
  45. 45. @catbirdseat fb.com/catbirdseat Intern verlinkte 3xx Seiten 45
  46. 46. Snippets und Nutzersignale
  47. 47. @catbirdseat fb.com/catbirdseat Gute Snippets & User Intent? Blick in die Console 47 https://moz.com/blog/single-best-seo-tip-for-improved- web-traffic (Cyrus Shepard)
  48. 48. @catbirdseat fb.com/catbirdseat Gute Snippets & User Intent? Blick in die Console 48
  49. 49. @catbirdseat fb.com/catbirdseat Apropos Nutzersignale….Seiten ohne Besucher? 49  Blick in Analytics -> Seiten, die länger keine oder kaum Besucher hatten  Kann man die Seite optimieren / zusammenlegen? Interne Verlinkung vielleicht?  Ansonsten entfernen oder „noindex“ Junk Pages reduzieren!
  50. 50. Nutzersignale & Analytics
  51. 51. @catbirdseat fb.com/catbirdseat Google Analytics auf allen URLs implementiert? 51
  52. 52. @catbirdseat fb.com/catbirdseat Zusammenfassung 52 Linkjuice (extern / intern) Crawl-Budget Index-Hygiene Snippets Nutzersignale
  53. 53. Performance Marketing Consulting & Services Catbird Seat GmbH Neumarkter Straße 22 81673 München T +49 89 809 911 8-00 F +49 89 809 911 8-80 kontakt@catbirdseat.de www.catbirdseat.de

×