14. Evaluation: Motivation
Wie können diese unterschiedlichen Eigenschaften
während
• der Entwicklung (development)
• des Testens (testing)
• der Auslieferung (deployment)
in objektive Qualitätskriterien gefasst werden?
Zielgruppen / Interessenten
• Geldgeber,
• Projektmanager,
• Entwickler,
• Benutzer.
15. Evaluationstypen
Bewertende Evaluation: How good?
• Hier wird eine bestimmte gewünschte oder geforderte
Systemeigenschaft geprüft.
Analysierende Evaluation: Why bad?
• Ziel dieser Evaluation ist es, Hinweise auf Schwachstellen zu
erhalten, um direkte Gestaltungsvorschläge zu liefern.
Vergleichende Evaluation: Which is better?
• Zwei oder mehr Systeme werden miteinander verglichen
16. Objektive vs. subjektive Methoden(1)
objektive Methoden
versucht, die subjektiven Einflüsse weitgehend auszuschalten.
Objektive Methoden ermitteln harte Daten, beispielsweise
präzise Angaben über Bearbeitungszeiten und Fehlerzahlen.
Ziel der objektiven Methoden ist die Beobachtung der
tatsächlichen Benutzung der Anwendung. Die Beobachtung
ohne technische Unterstützung erfolgt mit Hilfe von
Beobachtungsprotokollen, die in der Regel in strukturierter
Form vorliegen und die zu beobachteten Sachverhalte vorgeben.
Beispiel: Logfile‐Analyse
17. Objektive vs. subjektive Methoden(2)
subjektive Methoden
Bei subjektiven Methoden steht die Bewertung der
Benutzungsschnittstelle durch den Benutzer im Vordergrund.
Es werden hier sogenannte weiche Daten ermittelt,
beispielsweise ob die Benutzung des Systems einfach,
angenehm und verständlich ist. Vorwiegend werden hier
Befragungen der Benutzer eingesetzt. Dabei können die
Befragungen per Fragebogen oder als Interview erfolgen.
Beispiel: Usability‐Test
18. Kriterien für die Wahl einer Methode
Was ist das Ziel der Evaluation?
• Geht es um einen abschließenden Test des Gesamtsystems,
oder sollen bestimmte Aspekte überprüft werden?
Wer soll die Evaluation durchführen?
• Ist es besser, dass ein Experte das System inspiziert, oder
sollten auch Benutzer die Evaluation durchführen?
Wo soll die Evaluation durchgeführt werden?
• Soll sie in einem Labor oder einem Arbeitsplatz
durchgeführt werden?
19. Kriterien für die Wahl einer Methode
Welche Informationen werden gesammelt?
• Was soll gemessen werden, welche Daten sind von
Bedeutung?
Wie groß sind die Ressourcen?
• Wieviel Geld und Zeit stehen für die Evaluation zur
Verfügung?
21. Das « LHC‐Problem »
Für fast alle Evaluationsmethoden muss beachtet werden,
dass ein erheblicher Arbeitsaufwand für die Auswertung
entsteht, der Tage, in vielen Fällen Wochen beansprucht.
22. Definition: Usability
In design, Usability is the study
of the ease with which people
can employ a particular tool or
other human‐made object in
order to achieve a particular
goal. ...
en.wikipedia.org/wiki/Usability
The state or condition of being
usable; The degree to which an
object, device, software
application, etc. is easy to use
with no specific training
en.wiktionary.org/wiki/usability
26. Mythen zur Software‐Evaluierung
Fünf Testteilnehmer reichen aus.
Das Hauptziel eines Usability Tests ist es, Usability
Probleme zu finden.
Ein Usability Test wird sehr viel besser, wenn er in
einem Usability Lab durchgeführt wird.
Usability Tests sind besser als Experten‐Reviews.
Gefundene Probleme sind einfach zu korrigieren.
Rolf Molich
http://www.slideshare.net/uxhh/5‐mythen‐ber‐usability‐testing
27. Definition: Usefulness
utility: the quality of being of
practical use
wordnetweb.princeton.edu/perl/webwn
the quality of having utility and
especially practical worth or
applicability
Merriam Webster Online Dictionary
34. Usability & Usefulness
In beiden Fällen geht es bei der Evaluation der
Usability und der Usefulness um die Feststellung
qualitativer Merkmale und deren Beurteilung
durch den Benutzer.
37. Interaction triptych framework
Tsakonas, Papatheodorou, 2008,
Exploring usefulness and usability in the evaluation of open access digital libraries
40. Usefulness in DL: Problematik
Der Grund scheint in einem prinzipiellen Antagonismus
zwischen
• den Bibliothekaren, die die Systeme erstellen und
betreuen,
• sowie den Nutzern, die die Inhalte konsultieren
zu liegen.
Bibliothekare und Nutzer haben häufig unterschiedliche
Sichtweisen bzgl. der Nützlichkeit einer Ressource.
41. Usefulness in DL: P3 Modell
Dillon & Morris, 1999,
Power, Perception and Performance: From Usability Engineering to
Technology Acceptance with the P3 Model of User Response
42. Usefulness: Modelle
Fuhr et al., 2001,
Digital libraries: a generic classification scheme
54. ACCEPT
Das Projekt ACCEPT untersucht die Faktoren und Hindernisse, die
eine Relevanz für die Bereitstellung digitaler Angebote im Kontext
wissenschaftlicher Bibliotheken besitzen. Dabei soll überprüft
werden, welche konkrete Wirkung die Bereitstellung elektronischer
Ressourcen in digitalen Bibliotheken hat und wie die
Erfahrungswerte der Nutzerseite auf die Gestaltung
benutzerfreundlicher Schnittstellen zu übertragen sind. Aufbauend
auf diesen Ergebnissen zum Thema "usefulness" wird die
Benutzerfreundlichkeit der Benutzerschnittstellen von E‐lib.ch mit
dem Ziel getestet, eine maximale Nutzungsbreite sowie einen
maximalen Nutzungsgrad von digitalen Ressourcen in
wissenschaftlichen Bibliotheken zu erreichen.
55. E‐lib.ch
Strategisches Ziel ist es, E‐lib.ch als
das führende und zentrale nationale
Portal im Sinne eines "Single‐Point‐
of‐Access" für die wissenschaftliche
Informationsrecherche und
Bereitstellung in der Schweiz
aufzubauen und nachhaltig zu
etablieren.
57. Vorgehen:
a) Erstellung und statistische Auswertung der Umfrage
b) Analyse von Gruppen und Profilen der Studenten,
wissenschaftlichen Mitarbeiter und Professoren der Universtät
Genf: Extraktion von authentischen Persönlichkeitsmerkmalen
c) Download von Public Domain Photos
d) Erstellung von PERSONAS‐Profilen für charakteristische
Benutzergruppen der einzelnen Fakultäten
62. Vorteile des Personas‐Verfahrens
Sie helfen dem Team, sich an die Stelle des Benutzers zu
setzen.
Benutzer werden „fassbar“: Entwickler fragen sich nicht
„Wie würde ich diese Aufgabe erledigen?“ sondern
„Wie würde John diese Aufgabe erfüllen?“.
Grössere Identifizierung mit dem Benutzer: Personae
erhöhen die Empathie der Entwickler für den Benutzer.
Ökonomisches Werkzeug: Personae können schnell und
unkompliziert erstellt werden. (Zeitaufwand etwa ein
bis zwei Wochen.)
63. Nachteile des Personas‐Verfahrens
Es besteht die Gefahr der Künstlichkeit der Personen.
Der direkte Kundenkontakt kann verloren gehen.
Probleme bei heterogenen Benutzergruppen.
Jedes Projekt braucht eigene Personae.
Personen wandeln sich, (auch im Umgang mit
Systemen).
67. Testablauf: Fassettiertes Browsen
1. Bisherige Erfahrungen / Freies Surfen
2. Suchstrategie erläutern
3. Dokumente suchen
4. Dokument mit Fassette suchen
(Wechsel zur anderen Plattform)
5. Direkter Vergleich des „look&feel“
6. Gleiches Dokument suchen
7. Wissensgebiet mit Fassetten einschränken
8. Post‐hoc Interview zu Fassettierung
68. Testablauf: Arbeiten mit dem Dokument
1. Bisherige Erfahrungen / Freies Surfen
2. Suchstrategie erläutern
3. Dokumente suchen
4. Arbeiten mit dem Faksimile: Funktionen erläutern
(Wechsel zur anderen Plattform)
5. Direkter Vergleich des „look&feel“
6. Arbeiten mit dem Faksimile: Funktionen erläutern
7. Gesonderte Funktionen: RSS / Material / DFG‐Viewer
8. Post‐hoc Interview zur Arbeit mit dem Dokument
76. Literatur
• ACCEPT Forschungsberichte:
http://campus.hesge.ch/id_bilingue/projekte_partner/projekte/accept/kont
ext.asp
• Schweibenz, Thissen, 2003, • Kani‐Zabihi, Ghinea & Chen, 2006,
Qualität im Web, Springer. “Digital Libraries: what do users
• Krug, 2005, Don’t make me think. want?”, Online Information Review,
New Riders. vol. 30, no. 4, pp. 395‐412.
• www.useit.com • Tsakonas, Papatheodoru (ed.),
2009, Evaluation of Digital Libraries:
An Insight into Useful Applications
and Methods, Chandos.
• Hegner, Methoden zur Evaluation von Software, IZ‐Arbeitsbericht Nr. 29,
2003