Die Inhalte öffentlicher interaktiver Bildschirme werden seit einiger
Zeit vermehrt an die Interessen und Gewohnheiten von Besuchern angepasst
und personalisiert. Um dies zu ermöglichen, muss der aktuelle Kontext erkannt
und interpretiert werden. In dieser Arbeit werden Forschungsarbeiten
vorgestellt, die sich mit der Fragestellung bezüglich der Kontexterkennung und
der daraus resultierenden Inhaltsdarstellung von Public Displays
auseinandersetzen. Dies beinhaltet technische Aspekte, wie beispielsweise die
Architektur eines kontextsensitiven Public Displays aussehen kann aber auch
die Logik dahinter, wie die gesammelten Informationen weiterverarbeitet
werden können. Ebenfalls wird erörtert, wie der Mensch mit seiner Umwelt
agiert, um Interaktionen zu verstehen und so eine gute User Experience der
Systeme zu ermöglichen. Des Weiteren werden Ansätze aufgezeigt, wie das
Public Display auf Besucher reagieren kann und den Wechsel von indirekter zu
direkter Interaktion mit mehreren Nutzer und persönlichen Informationen
realisieren kann.
Wie kann das Public Display den Kontext erkennen und darauf reagieren
1. Wie kann das Public Display den Kontext erkennen
und darauf reagieren
Mühlbauer Christoph
Universität Siegen, Masterstudent Human Computer Interaction
cmuehlbauer@pixelmuehle.eu
Abstract. Die Inhalte öffentlicher interaktiver Bildschirme werden seit einiger
Zeit vermehrt an die Interessen und Gewohnheiten von Besuchern angepasst
und personalisiert. Um dies zu ermöglichen, muss der aktuelle Kontext erkannt
und interpretiert werden. In dieser Arbeit werden Forschungsarbeiten
vorgestellt, die sich mit der Fragestellung bezüglich der Kontexterkennung und
der daraus resultierenden Inhaltsdarstellung von Public Displays
auseinandersetzen. Dies beinhaltet technische Aspekte, wie beispielsweise die
Architektur eines kontextsensitiven Public Displays aussehen kann aber auch
die Logik dahinter, wie die gesammelten Informationen weiterverarbeitet
werden können. Ebenfalls wird erörtert, wie der Mensch mit seiner Umwelt
agiert, um Interaktionen zu verstehen und so eine gute User Experience der
Systeme zu ermöglichen. Des Weiteren werden Ansätze aufgezeigt, wie das
Public Display auf Besucher reagieren kann und den Wechsel von indirekter zu
direkter Interaktion mit mehreren Nutzer und persönlichen Informationen
realisieren kann.
Keywords: Public Display, Context-aware information, multi user public
Display, Context-aware visualization
1 Einführung
Täglich wird eine große Menge digitaler Inhalt produziert und über verschiedenste
Kommunikationskanäle, wie Radio, TV oder Internet, verbreitet. Für Endnutzer ist es
sehr schwer, relevante Informationen zu finden und zu filtern.
Context-aware information setzt an dieser Stelle an und versucht, bei der
Darstellung des Inhaltes, die Umgebung des Mediums und das aktuelle Publikum zu
berücksichtigen um die Zielgruppe mit relevanten und personalisierten Inhalten zu
versorgen. Ein möglicher Ansatz ist, kontextbezogene Informationen, wie Ort, Alter,
Zeit und Situation, zu filtern. In diesem Zusammenhang bezeichnet der Begriff
Kontext Umwelteinflüsse und Umgebungsparameter, die das jeweilige System
beeinflussen. Solche Parameter sind nicht allgemeingültig und können, je nach
System und Umgebung, als wichtig oder unwichtig erachtet werden. Häufig ist jedoch
eine Mischung aus mehreren Einflußgrößen der Fall. Der Mensch selbst sollte jedoch
immer im Mittelpunkt stehen und meistbeachtetster Faktor innerhalb des Kontextes
sein.
2. Öffentliche Räume stellen die größte Herausforderung für die kontextbezogene
Informationsvermittlung dar, da hier viele Arten von Zielgruppen aufeinandertreffen.
Jene, die immer wieder den Platz des Geschehens aufsuchen und die, die nur
sporadisch vorbeischauen. Gleichermaßen unterscheiden sich die Aktivitäten in ihrer
Form stark voneinander. Es gibt die, die nicht ortsgebunden, wie beispielsweise das
Schreiben einer Email, sind und jene, die nur in einer bestimmten Umgebung
ausgeführt werden können. Eine weitere, zentrale Herausforderung der
Informationsdarstellung im öffentlichen Raum ist es, bereits involvierte und
vorbeilaufende Nutzer gleichermaßen zu beachten und anzusprechen.
Wird die Gestaltung heutiger öffentlicher Umgebungen betrachtet, fällt auf, dass
die Besucher meist mit Plakaten, Informationsbroschüren, Kiosksystemen und
Wegweisern bei ihren Standardaufgaben unterstützt werden. Diese Art der Hilfe ist
sehr statisch und hauptsächlich auf funktionale Aspekte ausgerichtet. Sie versorgt den
Besucher nicht mit personalisierten und wichtigen Informationen, wie dieser die
Umgebung für sich nutzbar machen kann. Pervasive Computing setzt an dieser Stelle
an und bemüht sich, die Umgebung für vorbeikommende Besucher transparent und
nutzbarer zu gestalten.
Aufgrund der Entwicklung ausgereifter Anwendungen halten derzeit interaktive
Großbildschirme vielerorts Einzug in den öffentlichen Raum und stoßen auf reges
Interesse: So erhoffen sich werbetreibende Unternehmen neue Möglichkeiten, mit
ihren potentiellen Kunden in den Dialog zu treten, Einzelhandelsketten werben mit
dynamischen Schaufensterdisplays, das auf die Bewegungen und Reaktionen der
Konsumenten reagiert und Großveranstaltungen fesseln tausende von Zuschauern an
interaktiven Großbildleinwänden, auf denen Events übertragen werden. Überall dort,
wo Menschen warten oder an Informationen interessiert sind, werden Public Displays
installiert, welche um die Gunst der Nutzer kämpfen. Die Interaktionsmöglichkeiten
mit dem Display sind nahezu unbegrenzt: Tastatur, Maus, Sprache, Gesten,
Bewegungsaufzeichnung oder speziell dafür ausgerichtete Eingabemethoden.
Zukünftig wird die Interaktion jedoch zunehmend über Berührung und Bewegung
ablaufen. Durch eine multimodale Interaktion soll außerdem das Interagieren mit dem
Computer intuitiver gestalltet werden. Auch werden die benötigten Hardware-
Komponenten, wie Bildschirme, RFID-Chips und Mobiltelefone, zunehmend billiger
und ermöglichen somit die schnelle Verbreitung von kontextsensitiven Public
Displays [1], [2], [3].
Diese Arbeit gibt einen Überblick über den Stand der Wissenschaft und Technik
zum Thema Kontexterkennung von Public Displays und die daraus resultierende
Inhaltsdarstellung. Kapitel 2 beschreibt die Aktivitätstheorie von Leontév und
Rubinshtein, in der erläutert wird, wie der Menschen mit seiner Umwelt agiert. Diese
Informationen sind wichtig, um Kontextsituationen zu erörtert, die im Umfeld des
ubiquitous computing auftreten können (Kapitel 3). Das Kapitel 4 beschreibt den
beispielhaften Aufbau für die Konzeption eines kontextsensitiven Public Displays. In
Abschnitt 5 werden verschiedene Forschungsarbeiten aufgezeigt, die sich mit der
Gestaltungsfrage von Public Displays näher beschäftigen.
3. 2 Menschliche Aktivität
Um kontextsensitive Public Displays entwickeln zu können, ist es wichtig, zu
verstehen, wie der Mensch mit seiner Umwelt agiert. Im folgendem Kapitel wird
darauf näher eingegangen und die Aktivitätstheorie von Leontév und Rubinshtein
erläutert.
Das Feld des ubiquitous computing vereint zwei verschiedenen Forschungs-
Disziplinen [4]: Einerseits die technische Forschung, welche den Entwicklern neue
Arten der Konzeption von interaktiven Systemen ermöglicht. Auf der anderen Seite
beschäftigen sich ebenfalls die sozialen Wissenschaften mit dem Forschungsfeld,
komplexe Computersysteme in den sozialen Kontext einzubinden. Zwischen beiden
Disziplinen entstehen immer wieder Spannungen auf Grund der sehr
unterschiedlichen Betrachtungsweisen. Da jedoch für eine gute User Experience der
technische, wie auch soziale als auch interkulturelle Kontext gleichermaßen wichtig
ist, ist es unabdingbar, beide Felder eng miteinander zu verknüpfen. Der Nutzer
solcher Dienste nimmt das System (technische Umsetzung, Inhalt, Visualisierung) als
eine Einheit wahr, die in sich geschlossen funktionieren muss.
Laut Alexei N. Leontév und Sergei Rubinshtein agiert der Mensch niemals mit
seiner Umwelt direkt, vielmehr entstehen zwischen Mensch und Umwelt Werkzeuge
und Zeichen die er zur Interaktion benutzt. Die Aktivitätstheorie [5] stellt die
Abhängigkeit zwischen Denken und Handeln der Menschen in den Mittelpunkt der
Betrachtung. Untenstehende Abbildung veranschaulicht die Aktivitätstheorie von
Leontév und Rubinshtein:
Abbildung 1: Die Struktur menschlicher Aktivität erweitert von Engström 1999 [6]
Menschliche Aktivität (HUMAN ACTIVITY) wird von einer Person ausgeführt
(SUBJECT) die in der Regel ein Problem lösen möchte oder ein Vorhaben hat
(OBJECT). Diese Aktion wird mit Hilfe eines Programms (TOOLS) in einem
Prozess, der zu einem Resultat (OUTCOME) führt, vollzogen. Bis jetzt spielen sich
alle Aktionen auf der technischen Seite ab. Engeström erweiterte 1999 in seiner
Arbeit Perspectives on Activity Theory [7] dieses Modell um die untere Hälfte an
Elementen. Diese besagen, dass alle Aktivitäten in einem sozialen Kontext
(COMMUNITY) mit unterschiedlichen Anforderungen (ROLES) und sozio-
kulturellen beziehungsweise prozessähnlichen Faktoren eingeschränkt sind (RULES).
Die Aktivitätstheorie definiert zudem menschliche Aktionen nach hierarchischen
Handlungsmustern. Aktivität besteht demnach aus Sammlungen von Aktionen, die
4. zielgerichtet sind. Aktionen wiederum beinhalten Tätigkeiten, absichtlich oder
unbewusst, die in Abhängigkeit zu den Zielen veränderbar sind. Um
Kontextgestaltung intuitiv und begreifbar zu entwerfen, ist es somit wichtig,
Handlungs- und Denkmuster der Menschen zu verstehen.
Um aber auch Interaktion bei den Nutzern anzugregen, müssen diese zunächst
Kenntnisse der Interaktionsmöglichkeiten erlangen. Bildschirme müssen auf sich
aufmerksam machen und die Besucher zur Interaktion motivieren. Dies funktioniert
nur, wenn Entwickler solcher Systeme ein Verständnis der wesentlichen Grundlagen
besitzen, wie der Nutzer zur Aufnahme, Durchführung und Aufrechterhaltung der
Interaktion bewegt werden kann [8], [2].
3 Kontext
3.1 Kontext im Umfeld des ubiquitous computing
Wird im Allgemeinen vom Begriff Kontext gesprochen, sind alle wichtigen
Informationen, die eine bestimmte Situation und Umgebung beeinflussen in der sich
ein Nutzer befindet, mit gemeint. Sobald Computersysteme sich weg vom
Schreibtisch hinaus in die Umwelt bewegen, verändert sich der Kontext ungemein.
Die Nutzungssituation, in der die Technologie jetzt benutzt wird, ist viel variabler und
flexibler.
Paul Dourish [4] beschreibt in seiner Arbeit What we talk about when we talk
about context zwei Arten von Kontexterkennung im Umfeld des ubiquitous
computing. In der ersten Kategorie gibt es Systeme, die Kontextinformationen
sammeln und verschlüsseln, um sie später, in bestimmten Situationen, wieder aufrufen
und wiedergeben zu können. Diese Technik ist jedoch wenig flexibel, da sie nicht auf
komplexe Änderungen eingehen kann. Der zweite, weit häufigere Ansatz ist, Kontext
dynamisch zu verwenden, um so das Verhalten des Systems in Echtzeit flexibel zu
verändern und auf das Handeln des Benutzers agil einzugehen. Auf Grund der
unentwegt wechselnden Parameter im Umfeld von Public Displays sprechen wir in
dieser Arbeit auch vom dynamic context, dem zweiten Ansatz von Paul Dourish.
3.2 Kontext separieren
Da es nicht den einen Kontext gibt, sondern vielmehr verschiedene
Kontextsituationen, teilen die meisten wissenschaftlichen Arbeiten, die sich mit dem
Thema beschäftigen, wie auch die von Morales-Aranda und Mayora-Ibarra A Context
Sensitve Public Display for Adaptive Multi-User Information Visualization [9], diesen
in mehrere Elemente. In dieser Arbeit wird der Kontext als ein dynamisch
wechselnder Parameter in Bezug auf die Umwelt gesehen, die hauptsächlich von der
Präsenz und den Aktionen der Besucher verändert wird. Hierfür wird der dynamische
Kontext in drei Komponenten aufgeteilt: Die Identity-Context Komponente stellt die
Präsenz des Nutzers fest, die Situated-Context Komponente befasst sich mit dem
5. Umfeld und die Temporal-Context Komponente ist zuständig für die zeitliche
Ausführung der Aktion. Nur wenn eine rigide Trennung dieser drei Komponenten
stattfindet, kann eine personalisierte, situationsbedingte Informationsdarstellung
vorgenommen werden.
3.2.1 Identity-Context Komponente
Ziel der Identity-Context Komponente ist es Personen oder Personengruppen in der
Nähe zu erkennen und darauf reagieren zu können. Hierbei ist zunächst die Anzahl
der Benutzer wichtig, aber auch eine Identifikation einzelner Personen. Um dies zu
ermöglichen, müssen Sensoren installiert werden, die genau erkennen, wo sich
Menschen in der Nähe aufhalten.
Einen Schritt weiter gehen Cardoso und Jose´in ihrer Arbeit [10], die die
Besucherinformationen noch einmal in Subkategorien unterteilen. Die Kategorie
Presence detection stellt fest, ob sich eine Person in der Nähe des Displays befindet.
Die Presence characterisation identifiziert Menge, Alter und Geschlecht der
ermittelten Personen und die Presence identification erfasst gleiche Merkmale
zwischen den einzelnen Besuchern und stellt Verbindungen zwischen Besuchern und
Gruppen her. Je mehr Kontexteinteilungen stattfinden, desto flexibeler kann das
System auf Änderungen reagieren und Inhalte kontextbezogen darstellen.
In der Arbeit Public Display Advertising Based on Bluetooth Device Presence [11]
empfehlen die Autoren, ein Public-Display System so zu gestalten, dass es seine
Nutzer mittels Bluetooth erkennt. Bluetooth ist ein weit verbreiteter Dienst und auf
nahezu allen Handys, PDA´s und Smartphones vorhanden. Das System kann aufgrund
der Dauer, die ein Besucher vor dem Display steht, einen Zusammenhang mit der
Beliebtheit des Inhaltes beim Besucher herstellen. Befindet sich der Besucher längere
Zeit vor dem Display, geht das System davon aus, dass der Inhalt den Nutzer
anspricht. Da jedes mobile Gerät eine eindeutige Bluetooth Geräte-ID besitzt, ist es
möglich, Langzeitprofile der Benutzer anzulegen. Diese Nutzererkennung eignet sich
jedoch hauptsächlich für Umgebungen, an denen die Besucher häufig und über einen
längeren Zeitraum wiederkehren, da das System für die Profilbildung zunächst eine
gewisse Einarbeitungszeit benötigt.
Sharafi beschreibt in seiner Arbeit Audience Recognition in Public Spaces [12]
einen Ansatz zur visuellen Erkennung mit Hilfe eines Colour Histograms. Dieses
analysiert die Farbzusammensetzungen eines Fotos und kann so später Gesichter auf
Videobilder wiedererkennen. Einen ähnlichen Ansatz verfolgt die Erkennung mittels
Face Recognition. Charakteristische Merkmale eines Gesichtes werden gespeichert
und können später auf Videos abgeglichen werden. Beide Techniken, das Colour
Histogram und die Face Recognition, sind jedoch noch sehr fehleranfällig und schwer
umzusetzen. Auch ist diese Technik wieder für Umgebung mit wiederkehrenden
Besuchern ausgelegt. Neben dem bereits erwähnten Bluetooth setzt er sich in seiner
Arbeit auch mit Techniken wie RFID, Infrarot, GPS und GSM auseinander. GSM ist
in den meisten Fällen zu ungenau, GPS ist noch nicht flächendeckend verbreitet und
Infrarot-Badges/RFID-Tags müssen erst an jeden einzelnen Besucher verteilt werden,
bevor mit solchen Techniken gearbeitet werden kann. Ein weiterer Ansatz um die
Anzahl von Personen zu messen, ist eine Kombination aus Video- und
Audiofilterung. Die Kamera ermittelt die Personenanzahl, die direkt vor dem Display
6. und der Umgebung steht. Mikrofone im System können Schlüsselwörter der Besucher
filtern und einen Bezug zum Inhalt des Displays herstellen [13].
3.2.2 Situated-Context Komponente
Unterschiedliche Umgebungen haben unterschiedliche Bedeutungen für Nutzer. Das
heißt, dass die Art der Information, die eine Person in einer bestimmten Umgebung
und Situation benötigt in einer anderen Umgebung und Situation völlig unrelevant
sein kann. Ein Beispiel hierfür sind die differenzierenden Anforderungen an
Informationen, die eine Person in ihrer Arbeits- und Wohnumgebung benötigt.
Umgebung und Situation definieren hier den situationsbedingten Kontext.
Ein anderer, wichtiger Aspekt der Situated-Context Komponente ist der Abstand
des Betrachters zum Public Display. Dies ist wichtig, um festzustellen, ob der User
aktiv am Geschehen beteiligt ist oder nur in der Beobachterrolle steckt. Das System
kann die Interaktionsmöglichkeiten situationsbedingt anpassen (in Abhängigkeit der
Besucher mehr Interaktivität oder mehr Informationsdarstellung) [9].
3.2.3 Temporal-Context Komponente
Der Informationsbedarf kann in Abhängigkeit der Zeit, auch wenn Nutzer und die
Nutzungsumgebung gleich bleibt, wechseln. Das hängt mit den zeitlich verändernden
Bedürfnissen der Nutzer zusammen, die unabhängig von ihrer Umgebung passieren.
So benötigt der User an seinem Desktop Computer am Nachmittag Informationen
zum Wetter - am Abend möchte er sich jedoch über die Ausgehmöglichkeiten in
seiner Heimatstadt informieren. An öffentlichen Plätzen ist der zeitliche Faktor noch
wichtiger, da hier Personen Informationen genau zu einem bestimmten Zeitpunkt
benötigen. Beispielsweise benötigt der Reisende immer die Auskunft der nächsten,
fahrenden U-Bahn. Hier sollte sich die Temporal-Context Komponente ständig
ändern beziehungsweise aktualisieren [9].
Durch die Kombination dieser drei Ebenen, kann das System für jeden Benutzer
persönliche, auf ihn zugeschnittene Informationen in Abhängigkeit von den
benötigten Bedürfnissen liefern. Personalisierung findet somit auf allen Context-
Ebenen statt und wird durch die Verknüpfung der Dimensionen individualisiert.
4 Konzept eines kontextsensitiven Public Display
Das Adaptive Content Model (ACM) [9] ist ein kontextsensitives Display Modell, das
Inhalte in Verbindung mit einer Benutzerkennung und deren gespeicherten
Bedürfnissen beziehungsweise Interessen in Echtzeit darstellen kann. Die Nutzer des
Systems müssen, bevor sie einbezogen werden können, ihr eigenes persönliches Profil
anlegen, welches Informations- und Inhaltsthemen, die für die jeweiligen Nutzer an
bestimmten Orten von Interesse sind, enthält. Alle diese Informationen können so
konfiguriert werden, dass die Privatsphäre an öffentlichen Plätzen gewahrt werden
kann. Es ist ebenfalls denkbar, anstelle eines vorgefertigten Profilbogens persönliche
Angaben zu Informationen wie der eigenen Webseite oder des Usernamens sozialer
7. Netzwerke anzugeben. Das System verknüpft dann automatisch die gewünschten
Informationen miteinander (semantisches Web) [10].
Folgende Abbildung verdeutlicht das mehrschichtige Adaptive Content Model, bei
dem jede Ebene eine wichtige Rolle im Auswahlprozess der passenden Information
und Informationsvisualisierung darstellt.
Abbildung 2: Adaptive Content Model (ACM), Eigene Darstellung in Anlehnung an [9]
4.1 Context Layer
Wie bereits in Kapitel 3.2 Kontext separieren erläutert, sammelt diese Ebene
Informationen rund um den Nutzungskontext des Systems/Nutzers und interpretiert
daraus die kontextuellen Variablen. Auf Grund dieser Werte werden die benötigten
Inhalte definiert und über technische Wege im Services Layer bereitgestellt. Jede
Context-Komponente beschafft sich mit Hilfe anderer technischer Hilfsmittel
Informationen zum aktuellen Kontext. So wird die Präsenz von Besuchern in der
Display-Umgebung über ein Video-Tracking System ermittelt, wohingegen die
Identität der Besucher über RFID-Chips festgestellt wird. Die Temporal-Context
Komponente ist wohl der am einfachsten zu filternde Parameter, da dieser meist über
die Uhrzeit ausgelesen werden kann. Es ist jedoch auch möglich, zeitliche Parameter
in Abhängigkeit von Helligkeitswerten, beispielsweise bei Tag- und Nachtzeit über
Fotowiderstands-Sensoren, zu regeln.
8. 4.2 Service Layer
Der mittlere der drei Layer ist für die Inhaltsbereitstellung zuständig. Hier entscheidet
der Nutzer, welche Inhalte privat (beispielsweise Email, personenbezogene Daten),
und somit nur angezeigt werden, solange sich dieser allein vor dem Display aufhält,
sind. Zu dem werden alle Informations- und Inhaltsthemen als Keywords gespeichert.
Aus diesen Informationen (Context Layer und Keywords) werden nun alle möglichen,
für den Nutzer interessanten Inhalte über technische Dienste wie dem Internet, RSS-
und Web-Diensten, XML-Formaten und weiteren geliefert. Dieser Layer stellt nicht
nur Informationen zur Verfügung sondern kann ebenfalls mit Inhalten gefüllt werden.
Besucher können über ein Mobiltelefon/Schnittstelle Inhalte wie beispielsweise
Bilder, Videos, Texte oder Audiodateien für Präsentationszwecke hoch laden. Es
sollte jedoch auf Grund der Datenschutzbestimmungen das jeweilige Material zuvor
gesichtet werden. Auch ist es möglich, interessantes Material herunterzuladen [10].
Mit Hilfe der Snap and Grab Technik [14] kann der Besucher mit seinem
Kamerahandy einen Bildbereich auf dem Public Display abfotografieren und per
Bluetooth an das Display senden. Das Display analysiert das Bild und sendet den
zugehörigen Inhalt an den Mobilfunkbenutzer.
Eine wesentliche Eigenschaft des Service Layers ist seine Flexibilität in der
Konfiguration. Datenschutz gewinnt zunehmend an Bedeutung und muss vor allem in
öffentlichen Räumen ernst genommen werden. Auch die Privatsphäre spielt hier eine
große Rolle. Nicht alle Daten beziehungsweise Informationen möchten mit fremden
Menschen geteilt werden. Im Service Layer können alle diese individuellen
Einstellungen vorgenommen werden.
4.3 Display Layer
Der letzte dieser drei Ebenen ist für die visuelle Gestaltung des Inhaltes in
Abhängigkeit der Nutzereinstellungen und des gelieferten Inhaltes zuständig. Die
Visualisierung wird durch vorher ausgewählte Designvorlagen gestaltet, die in Bezug
zum Kontext dynamisch veränderbar sind. Inhalte, die nach der Temporal-Context
Komponente höhere Priorität genießen oder vom Nutzer einen Vorzug bekommen
(Einstellung im Konfigurationstool), werden auf dem Display stärker hervorgehoben.
Auch unterscheidet die grafische Darstellung zwischen der Einzel- und
Mehrfachnutzung des Systems.
Das Zusammenspiel aller drei Ebenen ermöglicht eine optimale Balance zwischen
aktuellem Kontext und Informationsdarstellung mit dem Fokus auf geringer
kognitiver Anstrengung und physischer Verweildauer.
9. 5 Gestaltung von Public Displays
5.1 Allgemeine Gestaltungsprinzipien
Da Public Displays vielen Faktoren unterliegen, beispielsweise mehrere Zielgruppen,
Menschen mit Behinderungen, luxuriöse Umgebung, hektisches Umfeld,
technikfremde Besucher und weitere, sollten bei der Konzeption folgende
Gestaltungsprinzipien beachtet werden [15]:
Angenehme Gestaltung: Die visuelle Gestaltung von Public Displays sollte möglichst
angenehm und unaufdringlich gestaltet werden, da diese stationär an einer Stelle
angebracht sind und Teil der Umwelt werden.
Bedeutungsumfang: Die gezeigten Informationen müssen sehr umfassend sein,
besonders wenn sich das Display in einer ungewöhnlichen Umgebung/Situation
befindet.
Benachrichtigung: Das Display muss Vorbeilaufende erkennen und mit ihnen in
einem sozialen Kontext kommunizieren, so dass diese nach mehr Informationen
verlangen.
Schnell ausführende Interaktionen: Um das Umfeld nicht zu verunsichern sollte
Interaktion wenig auffallen und schnell ausgeführt werden können.
Usability: Die Interaktion mit dem Display muss selbsterklärend sein.
Mehrfachnutzung: Um die Vorzüge eines großen Displays zu nutzen muss dieses eine
Mehrfachnutzung zulassen. Die Kombination von persönlichen und öffentlichen
Informationen sollte ebenfalls gleichzeitig stattfinden können.
Privatsphäre: Persönliche Daten auf großen Displays bringen Menschen dazu sehr
voyeuristisch zu werden. Aus diesem Grund muss die Datensicherheit gewährleistet
und die Privatsphäre gewahrt werden.
5.2 Situationsbedingte Adaption
Die Informationsdarstellung interaktiver öffentlicher Displays ist besonders wichtig,
da dies die Schnittstelle zwischen Nutzer und System ist. Die technische Umsetzung
des Systems kann noch so gut sein, wenn die Informationsdarstellung nicht nutzer-
und nutzungsfreundlich ist, wird der User dieses als durchweg schlecht empfinden
und damit nicht interagiern.
Morales und Mayora beschreiben in Ihrer Arbeit folgende zwei Nutzerszenarien
[9], die an öffentlichen Plätzen auftretten können:
Einzelnutzer: Der Context Layer erkennt den alleinigen Nutzer und passt alle Inhalte
(in Abhängigkeit der Interessen und Keywords) an. Keine Privatsphäreneinstellungen
müssen beachtet werden, da nur ein Besucher das System nutzt.
Gruppennutzer: Mindestens zwei Besucher stehen vor dem Display und werden auf
einem Splitscreen-Display mit persönlichkeitsuninteressanten Inhalten versorgt. Der
Inhalt wird von oben nach unten in Abhängigkeit der jeweiligen Prioritäten
10. bereitgestellt. Um die Platzverhältnisse optimal zu nutzen, werden gleiche
Inhaltsbereiche zusammengelegt. Ein positiver Effekt hierbei ist die soziale
Verbindung der Nutzer, die durch das Zusammenlegen der Inhalte erfolgt.
Wie bereits bei Context-, Services, und Display-Layer erfolgt, wird auch die
graphische Gestaltung vom Inhalt losgelöst und getrennt voneinander organisiert. Die
graphische Visualisierung wird über vorgefertigte Elemente realisiert. Innerhalb
dieser Templates kann der Nutzer die Elemente nach seinen Wünschen (Farbe,
Schrift, Größe) anpassen. Der Inhalt wird in Abhängigkeit vom Service Layer
bereitgestellt. Hier wird der Kontext interpretiert, die Keywords verwaltet, die
Privatsphäre definiert und eine geeignete Inhaltsquelle (beispielsweise RSS, URL)
ausgewählt.
Abbildung 3: Inhaltsorganisation, Eigene Darstellung in Anlehnung an [9]
Ein anderer Ansatz der Inhaltsvisualisierung ist die Technik Visualization Mosaic
[16]. Hier formt eine Reihe an Informationsstücken das graphische Interface
zusammen. Zu Beginn gibt es eine Menge an Informationsstücken, die durch
Übereinstimmung von Situation und Kontext bewertet und selektiert werden. Jedes
der Stücke hat bestimmte Eigenschaften, wie Größe, Elastizität usw., um das spätere
Layout flexibel zu halten. Das System formt in Relevanz zu jeden Block ein Interface,
welches ein Abbild der realen Welt darstellen soll. Die Visualization Mosaic
Architektur ist ähnlicher der ACM Architektur und besteht aus dem Context analyzer
(Kontext analysieren), dem Mosaic gerator (Informationen zusammentragen) und
dem Mosaic Builder (Informationsblöcke anordnen).
Abbildung 4: Inhaltsorganisation, Eigene Darstellung in Anlehnung an [16]
11. Einen anderern Ansatz der Inhaltsvisualisierung mit mehr Fokus auf die Privatsphäre
wird mit Hilfe verschiedener Interaktionsphasen [15] ermöglicht. Diese messen den
Abstand des Besuchers vom Display und interpretieren diesen in vier Bereiche:
Ambient Display, Implicit Interaction, Subtle Interaction und Personal Interaction.
Die Phasen zwischen den Bereichen sind fließend und gehen ineinander über.
Abbildung 5: Vier Interaktionsphasen [15]
Ambient Display Phase
Die Ambient Display Phase ist die Standarddarstellung des Public Displays, die eine
Vielzahl an Informationen verschiedenster Bereiche darstellt. Aktualisierungen
erfolgen langsam, so dass der Besucher diese als nicht störend wahrnimmt. Dem
Besucher soll die Möglichkeit gegeben werden, mit einem kurzen Blick
flächendeckende Informationen zum Umfeld zu bekommen.
Implicit Interaction Phase
Der Systemstatus wechselt zu einer indirekten Interaktionsphase, sobald ein Besucher
nahe am System vorbeiläuft. Vom System müssen Position und Ausrichtung erkannt
werden, um daraus folgern zu können, wie offen und interessiert die Person an
Informationen, ist. Über Sensoren kann eine Interpretation der Verweildauer und
Aktivität (Steht die Person still und mit Blick auf das Display?) erfolgen. Erkennt das
System, dass der Besucher offen für Informationen ist, muss es ihn persönlicher
ansprechen, um so seine Aufmerksamkeit zu gewinnen. Diese Technik verhilft dazu,
den Nutzer näher an das Display zu locken und die nächste Interaktionsphase
einzuleiten.
Subtile Interaction Phase
Detailreichere Informationen zu Ankündigungen, Nachrichten oder dem gerade
gezeigten Thema werden auf dem Display dargestellt. Die Informationen werden in
dieser Phase mit persönlichen Nutzerdaten, wenn diese bekannt sind, und dem
Nutzungskontext erweitert. Bis zu diesem Zeitpunkt hat der Besucher lediglich
indirekt mit dem System agiert da er sich nur kurze Zeit und mindestens eine
Armlänge entfernt vor dem Display aufgehalten hat. Je näher der Nutzer die Personal
12. Interaction Phase erreicht, desto kleiner wird sein Sichtbereich auf dem Display (mehr
Privatsphäre). Dies bedeutet jedoch auch, dass sich für die anderen Besucher die
Sichtfläche vergrößert. Alle Informationen, die in dieser Phase gezeigt werden,
können persönliche Daten enthalten, diese sollten jedoch möglichst gefahrlos sein
(keine Bankdaten, Zugangscodes usw.), da sie nicht besonders gut von anderen
Besuchern abgeschottet werden können.
Personal Interaction Phase
Nachdem ein Informationsgegenstand ausgewählt ist, befindet sich der Nutzer nahe
des Displays, so dass persönliche Informationen (beispielsweise Email, Brief) mit
dem Körper von anderen Besuchern abgedeckt werden können. Während Gesten für
die Interaktion in den anderen Phasen gut funktionieren, wird hier eine Bedienung des
Systems mittels Berührung bevorzugt. Während diese Phase ausgeführt wird, können
alle anderen Phasen ebenfalls durchlaufen werden. Der Nutzer und dessen
Interaktionsradius verlagert sich zunehmend in eine bestimmte Ecke und der
Sichtbereich verkleinert sich (größere Privatsphäre). Während alle anderen Phasen
relativ kurz andauern, kann in der Personal Interaction Phase durchaus mit einer
Interaktion von zwei bis fünf Minuten gerechnet werden.
Die Übergänge zwischen den Phasen sollten möglichst flüssig und mit einer geringen
Störgröße ausgeführt werden. Der Wechsel in eine neue Interaktionsphase muss
jedoch immer erkennbar sein. Auch müssen alle Interaktionstechniken über alle
Phasen konsistent verwendet werden, so dass beispielsweise ein Ausstieg durch
bloßes Wegdrehen immer interpretiert werden kann.
Ein ähnliches Phasenmodell findet sich bei Streitz [17]. Hier werden die
Interaktionsphasen, je nach Entfernung zum Public Display, in Umgebungs-,
Mitteilungs- und Interaktionsbereiche aufgeteilt. Allerdings stellt dieses Modell,
anders als das von Vogel und Balakrishnan [15], nicht die gestalterischen
Anforderungen der unterschiedlichen Phasen der Interaktion in den Vordergrund,
sondern nimmt lediglich eine Aufteilung in drei Interaktionszonen vor [2].
Abbildung 6: Drei Interaktionsphasen [17]
13. Umgebungsbereich
Dieser befindet sich außerhalb der Reichweite der Sensoren, so dass das System nicht
auf Personen reagiert die außerhalb dieses Halbkreises vorbeilaufen. Die Inhalte sind
in dieser Ausgangssituation sehr allgemein gehalten und nur eingeschränkt interaktiv.
Mitteilungsbereich
Tritt ein Besucher in den Mitteilungsbereich erkennen dies Sensoren und das Display
zeigt allgemeinen Inhalt mit bereits eigenständigen Inhalten, die einen bestimmten
Zweck erfüllen, an. Hauptaufgabe des Bereiches ist es jedoch, detailliertere und
gegebenfalls persönlichere Inhalte darzustellen. Daneben können allgemeine Inhalte,
die auch für andere Nutzer von Interesse sind, über ein zweites Display,
beziehungsweise Mobiltelefon, ergänzt werden.
Interaktionsbereich
Stellt sich der Besucher direkt vor das Display kann er die Informationsanzeige aktiv
beeinflussen und direkt mit dem System interagieren. Es ist denkbar eigene
Informationen zu hinterlassen, mit anderen Nutzern zu chatten oder spezielle
Andwendungen die sich auf die Umgebung beziehen auszuführen.
6 Fazit
Mit dieser Arbeit wird ein Überblick über den derzeitigen Forschungsstand zum
Thema Kontexterkennung und situationsbedingte Inhaltsanpassung von Public
Displays gegeben. Es wurde aufgezeigt, dass es bereits einige interessante Ansätze für
die konkrete Ausgestaltung kontextbezogener Public Displays mit Einzel- und
Mehrpersonendarstellung gibt. Dennoch bleiben einige essenzielle und interessante
Themen offen, auf die in Zukunft näher eingegangen werden sollte.
Zur Bestimmung der Nutzer wird in vielen Fällen Bluetooth und die RFID-Technik
empfohlen. Personen, die nicht im Besitz eines bluetoothfähigen Handys sind, werden
jedoch ersteinmal nicht berücksichtigt. Auch müssen RFID-Chips zuerst in den
Umlauf gebracht werden bis sie flächendeckend eingesetzt werden können.
Ein weiteres Problem stellt die simultane Bereitstellung von Inhalten dar. Es
werden keine Ansätze aufgezeigt, wie die Informationsflut, beispielsweise für fünf
Interaktionspersonen gestaltet werden kann. Auch setzen viele Forschungsarbeiten
voraus, dass sich Besucher erst einmal ein Nutzerprofil anlegen müssen, um in den
Genuss personalisierter Informationen zu kommen. Somit bleiben viele Personen
unberücksichtigt, die entweder keinen Computer besitzen, nicht technisch versiert
genug sind oder keine persönlichen Daten an Dritte weitergeben möchten.
Das nächste Problem stellt die Privatsphäre der User dar, sobald sich mehrere
Personen vor dem Display befinden. Hier hängt die Darstellung der Inhalte stark von
den Profileinstellungen der jeweiligen Nutzer ab. Möglichkeiten, personalisierte
Inhalte nur mit dem Körper abzudecken, sind zu rudimentär und schlichtweg nicht
ausreichend.
14. Was auffällt ist, dass viele der Arbeiten den Fokus sehr auf technische Aspekte,
wie beispielsweise die Benutzererkennung mittels Sensoren oder den Abstand des
Besuchers zum Display (Interaktionsphasen), ausgerichtet haben. Sozio-kulturelle
Sichtweisen, menschliche Interaktion und die Umwelt, in der Public Displays zum
Einsatz kommen, werden oft vernachlässigt. Gerade aber Systeme in der öffentlichen
Umgebung, die von Usern nur fallweise verwendet werden, sollten intuitiv in ihrer
Interaktion sein, so dass Ziele und Aufgaben schnell erreicht werden können. Nur
wenn eine gute User Experience der Benutzungsschnittstelle erreicht wird, können
Public Displays erfolgreich am Markt etabliert werden.
References
1. Pinto, H., José, R., Campos., C.: An interaction model and Infrastructure for
localized activities in pervasive computing environments. In: IEEE International
Converfence on pervasive services, pp. 232-241, Istanbul, Turkey (2007)
2. Michells, D.: Interaktive Großbildschirme im öffentlichen Raum – Eine
motivationstheoretische Analyse intrinsisch motivierender Gestaltungselemente.
Centralstation Druck, Berlin, (2009)
3. Hätsch, B.: Public-targeted Context-aware Advertising – Kontextabhängige Werbung
in der Öffentlichkeit. Quelle: www.pervasive.wiwi.uni-due.de/.../haetsch_public-
targeted-context-aware-advertising.pdf/, Zuletzt aufgerufen: 2010-05-23
4. Dourish, P.: What we talk about when we talk about context. Springer-Verlag,
London (2004)
5. Neto, G., Gomes, A., Castro, J., Sampaio, S.: Integrating activity theory and
organizational modeling for context of use analysis. In: Proceedings of the 2005 Latin
America conference on Human Computer Interaction, ACM, pp. 301-306, New York,
USA (2005)
6. Abbildung 1: Die Struktur menschlicher Aktivität erweitert von Engström 1999,
Quelle: http://www.iva.dk/bh/Core%20Concepts%20in%20LIS/articles%20a-
z/p313fig1.gif, Zuletzt aufgerufen: 2010-05-02
7. Engström, Y., Miettinen, R., Punamäki, R.: Perspektives on Activity
Theory. Cambridge University Press (1999)
8. Constantine, L.: Activity Modeling: Toward a Pragmatic Integration of Activity
Theory with Usage-Centered Design. Springer, London (2009)
9. Morales, A., Mayora, O.: A Context Sensitive Public Display for Adaptive Mulit-
User Information Visualization. In IEEE Computer Society, pp. 63, Washington DC,
USA (2007)
10. Cardoso, J., José, R.: A Framework for Context-Aware Adaption in Public Displays.
Springer-Verlag, Berlin-Heidelberg (2009)
15. 11. Sharafi, M., Payne, T., David, E.: Public Display Advertising Based on Bluetooth
Device Presence. In: Proceedings of the Mobile Interaction with the Real World
Workshop, pp. 52-55, MIRW (2006)
12. Sharafi, M.: Audience Recognition in Public Spaces. In: IRP Report, COMP6009
Individual Research Projekt (2007)
13. Schmidt, A., Alt, F., Holleis, P., Müller, J. Krüger, A.: Creating Log Files and Click
Streams for Advertisments in Physical Space. In: Adjunct Proceedings of Ubicomp,
pp. 28-29, Seoul, Korea (2008)
14. Maundner, A., Marsden, G., Harper, R.: Creating and sharing mulit-media packages
using large situated public displays and mobile phones. In: Mobile HCI, pp. 222-225,
New York, USA (2007)
15. Vogel, D., Balakrishnan, R.: Interactive Public Ambient Displays: Transitioning from
Implicit to Explicit, Public to Personal, Interaction with Multiple Users. In:
Proceedings ot the 17th annual ACM symposioum on User Interface software and
technology, pp. 137-146, New York, USA (2004)
16. Chavira, G., Nava, S., Hervás, R., Bravo, J., Sánchez, C.: Spontaneius Interaction on
Context-Aware Public Display: An NFC and Infrared Sensor approach. In:
International Converence on Immersive Telecommunication, Artikel No.: 18 (2007)
17. Streitz, N., Röcker, C., Prante, T., Stenze, R., Alphen, D.: Situated interaction with
ambient information: Facilitating awareness and communication in ubiquitous work
environments. In: Tenth International Conference on Human Computer Interaction
(HCI International 2003), (2003)