Wie beeinflussen Suchmaschinen den Informationsmarkt?
Evaluierung von Web-Suchmaschinen
1. Evaluierung von Web-Suchmaschinen
Prof. Dr. Dirk Lewandowski
Hochschule für Angewandte Wissenschaften Hamburg, Department Information
dirk.lewandowski@haw-hamburg.de
2. Agenda
Einleitung: Wozu evaluieren?
Standardaufbau von Retrievaltests (für Suchmaschinen)
Aufmerksamkeit auf den Ergebnisseiten und Selektionsverhalten
Erweiterung der Methodik der Retrievaltests
Fazit
1 | Dirk Lewandowski
3. Agenda
Einleitung: Wozu evaluieren?
Standardaufbau von Retrievaltests (für Suchmaschinen)
Aufmerksamkeit auf den Ergebnisseiten und Selektionsverhalten
Erweiterung der Methodik der Retrievaltests
Fazit
2 | Dirk Lewandowski
5. Die Qualität von Suchmaschinen kann nur durch eine
Kombination unterschiedlicher Faktoren gemessen werden.
• Qualität des Index
– Größe des Datenbestands, Abdeckung des Web
– Abdeckung bestimmter Bereiche (Sprachräume, Länder)
– Überschneidungen der Indices
– Aktualität des Datenbestands
• Qualität der Suchresultate
– Retrievaleffektivität
– Zuverlässigkeit der Suchergebnisse
– Zufriedenheit der Nutzer
– Überschneidungen der (Top-)Ergebnisse
• Qualität der Suchfunktionen
• Nutzerfreundlichkeit + Benutzerführung
– Aufbau der Trefferseiten
(Lewandowski & Höchstötter 2007; ergänzt)
4 | Dirk Lewandowski
6. Die Qualität von Suchmaschinen kann nur durch eine
Kombination unterschiedlicher Faktoren gemessen werden.
• Qualität des Index
– Größe des Datenbestands, Abdeckung des Web
– Abdeckung bestimmter Bereiche (Sprachräume, Länder)
– Überschneidungen der Indices
– Aktualität des Datenbestands
• Qualität der Suchresultate
– Retrievaleffektivität
– Zuverlässigkeit der Suchergebnisse
– Zufriedenheit der Nutzer
– Überschneidungen der (Top-)Ergebnisse
• Qualität der Suchfunktionen
• Nutzerfreundlichkeit + Benutzerführung
– Aufbau der Trefferseiten
(Lewandowski & Höchstötter 2007; ergänzt)
5 | Dirk Lewandowski
8. Agenda
Einleitung: Wozu evaluieren?
Standardaufbau von Retrievaltests (für Suchmaschinen)
Aufmerksamkeit auf den Ergebnisseiten und Selektionsverhalten
Erweiterung der Methodik der Retrievaltests
Fazit
7 | Dirk Lewandowski
9. Was soll eigentlich gemessen werden?
• Relevanz der Ergebnisse
• Durchschnittliche Bewertung der Suchergebnisse (Systemseite)
• Bewertung jedes einzelnen gefundenen Treffers hinsichtlich seiner Eignung zur
Beantwortung der Suchanfrage.
• Ergebnisse mehrerer Suchmaschinen können gemischt werden; Herkunft der
Treffer kann verschleiert werden.
• Zufriedenheit der Nutzer mit einem Suchprozess
• Durchschnittliche Bewertung der Suchprozesse (Nutzerseite)
• Bewertung jeder einzelnen Suchsession.
• Jeder Nutzer kann nur eine Suchmaschine bewerten; Kenntnis der Suchmaschine.
• Wissenszuwachs
• Durchschnittliche Bewertung dessen, „was hängen geblieben ist“ (Nutzerseite)
• Bewertung des Wissenszuwachses nach einer Suchsession.
• Jeder Nutzer kann nur eine Suchmaschine bewerten; Kenntnis der Suchmaschine.
8 |
10. Entscheidungen beim Design klassischer Retrievaltests
1. Welche Suchmaschine(n)?
2. Wie viele Suchanfragen?
3. Welche Suchanfragen?
4. Wie viele Ergebnisse pro Suchanfrage?
5. Wie viele Juroren?
6. Welche Juroren(gruppen)?
7. Wie viele Juroren je Suchanfrage?
8. Wie sollen Dokumente bewertet werden (Skalen)?
9. Sollen Dokumentbeschreibungen berücksichtigt werden?
10. Mit welchen Kennzahlen soll gemessen werden?
9 |
12. Agenda
Einleitung: Wozu evaluieren?
Standardaufbau von Retrievaltests (für Suchmaschinen)
Aufmerksamkeit auf den Ergebnisseiten und Selektionsverhalten
Erweiterung der Methodik der Retrievaltests
Fazit
11 | Dirk Lewandowski
13. x
12 | Dirk Lewandowski (Eyetracking-Studie HAW-Hamburg 2010)
21. Agenda
Einleitung: Wozu evaluieren?
Standardaufbau von Retrievaltests (für Suchmaschinen)
Aufmerksamkeit auf den Ergebnisseiten und Selektionsverhalten
Erweiterung der Methodik der Retrievaltests
Fazit
20 | Dirk Lewandowski
22. Probleme des Standarddesigns
• Problematische Grundannahmen
– Modell des “dedicated searcher” (der bereit ist, ein Ergebnis nach dem anderen
anzuklicken und zu prüfen)
– Nutzer wünscht sowohl hohe Precision als auch hohen Recall
• Der Testaufbau berücksichtigt nicht
– wie viele Dokumente ein Nutzer bereit ist anzusehen / wie viele Dokumente zur
Befriedigung des Informationsbedürfnisses benötigt werden.
– wie häufig die in dem Test verwendeten Suchanfragen gestellt werden
– dass Relevanzbeurteilungen differenziert erfolgen
– verschiedenen Relevanzbewertungen durch unterschiedliche Nutzer
– verschiedene Anfragetypen
– den Einfluss der Trefferbeschreibungen
– das typische Selektionsverhalten
– die unterschiedliche Präsentation der Ergebnisse
– die Bevorzugung bestimmter Suchmaschinen durch die Nutzer
– die Durchmischung der Trefferlisten (bzw. Top-Resultate)
– ...
21 | Dirk Lewandowski
23. Probleme des Standarddesigns
• Problematische Grundannahmen
– Modell des “dedicated searcher” (der bereit ist, ein Ergebnis nach dem anderen
anzuklicken und zu prüfen)
– Nutzer wünscht sowohl hohe Precision als auch hohen Recall
• Der Testaufbau berücksichtigt nicht
– wie viele Dokumente ein Nutzer bereit ist anzusehen / wie viele Dokumente zur
Befriedigung des Informationsbedürfnisses benötigt werden.
– wie häufig die in dem Test verwendeten Suchanfragen gestellt werden
– dass Relevanzbeurteilungen differenziert erfolgen
– verschiedenen Relevanzbewertungen durch unterschiedliche Nutzer
– verschiedene Anfragetypen
– den Einfluss der Trefferbeschreibungen
– das typische Selektionsverhalten
– die unterschiedliche Präsentation der Ergebnisse
– die Bevorzugung bestimmter Suchmaschinen durch die Nutzer
– die Durchmischung der Trefferlisten (bzw. Top-Resultate)
– ...
22 | Dirk Lewandowski
26. Drei Anfragetypen
Anfragetypen nach Broder (2002)
• Informational (informationsorientiert)
– Nutzer möchte sich zu einem Thema informieren.
– Ziel sind mehrere Dokumente.
• Navigational (navigationsorientiert)
– Ziel ist es, eine bestimmte Seite (wieder) zu finden.
– Typisch: Suche nach Homepage („Daimler Chrysler“).
– Ziel ist i.d.R. ein Dokument.
• Transactional (transaktionsorientiert)
– Ziel ist das Auffinden einer Website, auf der dann eine Transaktion stattfinden
soll.
– Beispiele für Transaktionen: Kauf eines Produkts, Download einer Datei.
25 |
27. Drei Anfragetypen
Anfragetypen nach Broder (2002)
• Informational (informationsorientiert)
– Nutzer möchte sich zu einem Thema informieren.
– Ziel sind mehrere Dokumente.
• Navigational (navigationsorientiert)
– Ziel ist es, eine bestimmte Seite (wieder) zu finden.
– Typisch: Suche nach Homepage („Daimler Chrysler“).
– Ziel ist i.d.R. ein Dokument.
• Transactional (transaktionsorientiert)
– Ziel ist das Auffinden einer Website, auf der dann eine Transaktion stattfinden
soll.
– Beispiele für Transaktionen: Kauf eines Produkts, Download einer Datei.
26 |
34. Agenda
Einleitung: Wozu evaluieren?
Standardaufbau von Retrievaltests (für Suchmaschinen)
Aufmerksamkeit auf den Ergebnisseiten und Selektionsverhalten
Erweiterung der Methodik der Retrievaltests
Fazit
33 | Dirk Lewandowski
35. Fazit
• Es gibt Standardverfahren, die für bestimmte Fragestellungen gut geeignet
sind.
• Allerdings bilden Sie die typischen Nutzungsszenarien nicht ausreichend ab.
• Viele Erweiterungen der Standardverfahren wurden vorgeschlagen, jedoch
bislang kein integrierter Ansatz.
Beim Design eigener Tests ist es wichtig, die Möglichkeiten und Grenzen der
verwendeten Methodik zu kennen!
34 | Dirk Lewandowski
36. Vielen Dank für Ihre
Aufmerksamkeit.
www.bui.haw-hamburg.de/lewandowski.html
Aktuelles Buch:
Handbuch Internet-Suchmaschinen 2
E-Mail:
dirk.lewandowski@haw-hamburg.de