Kopflose Zombies in der
Webanalyse
Rendernde Crawler und Headless Browser erkennen und handeln
Markus Baersch
gandke gmbh
Umsetzung in Analytics:
Bots erkennen
Erkennung anhand bestehender Daten
Vorteile
• Schnell gemacht
Nachteile
• Nur wenig Merkmale
• Nach Senden des Hits
schon „zu spät“
• Ergebnis nicht
belastbar
Erkennungsmöglichkeiten
• Bekannte Crawler
• „Good Bots“
• Schlecht konfigurierte
Headless Browser
User
Agent
• Sind bestimmte
Features da oder fehlen
sie?
• Dimensionen des
Geräts
• …
Feature
Erkennung
{{Benutzerdefinierte
Dimensionen}}
Daten sammeln: UserAgent
Daten sammeln: Bot Marker
Daten sammeln: Bot Marker
Daten sammeln
Bot Marker:
Was tun mit den Daten?
Daten auswerten
„Ausreichend sicher“ identifizierte Bots
Potentielle Bots analysieren
Segmente suchen
Segmente nutzen
Daten sauber halten
Bots mit vielen
Sitzungen / Aufrufen
suchen
Bei Unklarheit:
Herkunft, Sprache
etc.
Segmente + Filtern
von „sicheren“ Bots
in Arbeitsdaten
Beobachten von Bots
in eigener Property
• Tipp: UserID für bekannte
Crawler vergeben
Extern
auswerten
(Rohdaten, BQ)
Ausspielung GA für
„unerwünschte“ Bots
ggf. verhindern
Kombinationsoptionen
Cookies
Honeypot-URLs
Mausbewegungen
Abfolgen / Timings
reCAPTCHA V3
Danke!
Audit
Eigene Daten checken unter https://www.analytrix.de/
Bot Marker nutzen
Beschreibung folgt im Blog unter https://www.gandke.de/blog/
Script bei GitHub
JS und Erläuterungen: https://go.gandke.de/botmarker
Bei Slideshare: https://www.markus-baersch/slideshare
Präsentation

Rendering Bots erkennen

Hinweis der Redaktion