Untersuchung des Honeypot-Effekts an (halb-)öffentlichen Ambient Displays in Langzeitfeldstudien

DFG-Abschlussbericht
Geschäftszeichen: KO 1792/5-1, DR 1288/1-1
Projektnummer: 451069094
DOI: https://doi.org/10.34657/16357

Projektleitung:

Prof. Dr. Michael KochORCID record: https://orcid.org/0000-0002-9694-6946, Dr. Susanne DraheimORCID record: https://orcid.org/0000-0001-7515-7473

Projektdurchführung:

Dr. Julian FietkauORCID record: https://orcid.org/0000-0001-7264-8496, Dr. Jan SchwarzerORCID record: https://orcid.org/0000-0002-6788-5072

Projektmitverantwortlich:

Prof. Dr. Kai von LuckORCID record: https://orcid.org/0000-0002-5177-3025

Creative Commons Namensnennung

Dieses Dokument ist lizensiert unter der Creative Commons Namensnennung 4.0 International (CC BY 4.0) Lizenz. https://creativecommons.org/licenses/by/4.0/deed.de

Veröffentlicht im Repositorium für Naturwissenschaften und Technik (ReNaTe), Technische Informationsbibliothek (TIB), Hannover.


1. Allgemeine Angaben

DFG-Geschäftszeichen: KO 1792/5-1, DR 1288/1-1

Projektnummer: 451069094

Titel des Projekts: Untersuchung des Honeypot-Effekts an (halb-)öffentlichen Ambient Displays in Langzeitfeldstudien

Namen der Antragstellenden: Prof. Dr. Michael Koch, Dr. Susanne Draheim

Dienstanschriften:

Name des Mitverantwortlichen: Prof. Dr. Kai von Luck

Name des Kooperationspartners: Körber Pharma Software GmbH, Lüneburg

Berichtszeitraum (gesamte Förderdauer): 01.10.2021–30.09.2024


2. Zusammenfassung / Summary

Im Rahmen des Projektes ist ein Framework zur Analyse der Nutzung von interaktiven großen Wandbildschirmen im Feldeinsatz entstanden – von Erfahrungsberichten bei Konzeption und Aufbau bis zu Open Source Toolsets. Diese erlauben eine parallele Analyse von Interaktions- und Beobachtungsdaten und schaffen neue Möglichkeiten, die Nutzung von im Langzeitbetrieb befindlichen Wandbildschirmen teilautomatisiert zu untersuchen und dabei umfangreiche sensorbasierte Datensätze hinsichtlich interessanter Muster zu filtern und zu visualisieren. Der Einsatz dieses Frameworks im Bereich Honeypot- und Novelty-Effekt zeigt, dass durch eigene Entwicklung von Methoden und Werkzeugen zur Analyse von Body-Tracking-Daten die Identifikation von möglichen Situationen zur genaueren Untersuchung viel einfacher geworden ist. Auch sind quantitative Abschätzungen dazu möglich, wie häufig Honeypot- und andere Effekte auftreten und wie deren Häufigkeit sich über Monate und Jahre wandelt.

The project has developed a framework for analyzing the use of large interactive wall screens in the wild – from experience reports on design and construction to open-source toolsets. These allow a parallel analysis of interaction and observation data and create new possibilities to investigate the use of wall screens in long-term deployments in a semi-automated manner and to filter and visualize extensive sensor-based data sets regarding interesting patterns. The use of this framework with respect to honeypot and novelty effects shows that the custom development of methods and tools for analyzing body tracking data has made it much easier to identify potential situations for more detailed investigation. It is also possible to make quantitative estimates of how often honeypot and other effects occur and how their frequency changes over months and years.


3. Wissenschaftlicher Arbeits- und Ergebnisbericht

3.1 Ausgangsfragen, Zielsetzung und Arbeitspakete

Ziel des Projektes war es, den Honeypot-Effekt bei der Nutzung von großen und interaktiven Wandbildschirmen (im Folgenden Ambient Displays) im öffentlichen und halb-öffentlichen Raum in Langzeit-Feldstudien zu analysieren. Gleichzeitig sollten Wege aufgezeigt werden, wie der Novelty- und Honeypot-Effekt in derlei Deployment-basierter Forschung klarer voneinander abgegrenzt werden können. Die verschiedenen Daten aus automatischen Auswertungen wurden zusammengeführt in ein übergeordnetes methodisches Rahmenwerk. Somit ergaben sich für dieses Vorhaben die folgenden Ziele:

  1. Die Entwicklung eines methodischen Rahmenwerks, welches eine auf Sensordaten-basierende, automatische und zeitlich uneingeschränkte (d. h. 24/7) Evaluation von Nutzungen vor Ambient Displays ermöglicht.
  2. Weiterhin sollten klare Gestaltungsempfehlungen für Ambient Displays in halb-öffentlichen und öffentlichen Kontexten insb. zur Erzeugung des Honeypot-Effektes entwickelt werden. Hierdurch erhoffen wir uns Empfehlungen bspw. im Bereich der Inhaltsdarstellung oder der Planung von Display-Installationen beitragen zu können (Elhart et al., 2017; Williamson & Williamson, 2014).

Mit den beiden definierten Zielen versuchten wir auf die folgenden Forschungsfragen Antworten zu geben:

Die Durchführung des Projektes war in vier Arbeitspaketen (AP1–AP4) geplant. Die Arbeit im Projekt folgte grundsätzlich diesen Plänen. Die Arbeitspakete waren:

  1. Anforderungsanalyse: Auseinandersetzung mit bereits bestehenden automatischen Verfahren der Datenerhebung und -auswertung. Darauf aufbauend wurden Nutzungsattribute für den Honeypot- und den Novelty-Effekt identifiziert.
  2. Prototyp methodisches Rahmenwerk: Schaffung eines Fundaments zur automatischen Erhebung und Auswertung von Daten insb. in Hinblick auf den Einsatz im Feld.
  3. Evaluation: Einsatz und die Validierung des prototypischen Rahmenwerks sowie der erfolgten Entwicklungsiterationen in zwei konkreten Settings.
  4. Gestaltungsempfehlungen: Entwicklung von Gestaltungsempfehlungen zur Erzeugung höhere Nutzungsfrequenz.

3.2 Projektspezifische Ergebnisse und Erkenntnisse

Die Ergebnisse im Einzelnen (inkl. im Projektkontext angesiedelter studentischer Arbeiten):

3.2.1 Aktiver Betrieb von mehreren In-the-wild-Demonstratoren

Im ersten Projektjahr wurde ein Demonstrator für die Langzeitevaluation im universitären Kontext in München aufgebaut. Seit 2022 liefert dieser Demonstrator Daten (Koch, Fietkau und Stojko 2023). Beim Aufbau des Demonstrators in Lüneburg ergaben sich unerwartet einige Verzögerungen. Bedingt durch die Veränderung der Arbeitsumgebung in und nach COVID-19 – insbesondere die erhebliche Zunahme hybrider Arbeit – sowie durch die gestiegenen Energiepreise im Jahr 2022, fand bis einschließlich April 2023 keine nennenswerte Arbeit vor Ort statt. Als Ersatz wurde auf einen älteren schon vorhandenen Datensatz aus dem betrieblichen Kontext in Lüneburg zurückgegriffen (Schwarzer et al., 2023a). Seit Ende Juli 2023 ist jedoch auch der Demonstrator in Lüneburg in Betrieb. Zum Zeitpunkt dieses Abschlussberichtes betreiben wir also an zwei unterschiedlichen Standorten aktive Demonstratoren im Feld (AP 2), welche bis zum heutigen Tag Kamera-Daten kontinuierlich und anonymisiert aufzeichnen (siehe Abbildung 1).

Zwei Fotos. Links: Großer Touch-Bildschirm mit Informationsanwendung an einer Bürowand montiert. Rechts: Raum mit Café-artiger Möblierung und einem großen Touch-Bildschirm, der auf einem Standfuß aufgebaut ist.
Abbildung 1. 
Demonstratoren in München (links) und Lüneburg (rechts).

3.2.2 Grundlagen für die Erkennung und Analyse des Honeypot-Effekts

Wesentlicher Bestandteil der grundlegenden Analysen bestehen aus der Interpretation von Kameradaten. Hierbei wird ein zweistufiges Verfahren angewendet. Im ersten Schritt werden Posen (KI-basierte Pose Estimation) aus jedem Bild des Videos extrahiert. Diese werden in ein vom Projekt entwickeltes Soft-/Hardware-unabhängigen Format transformiert (Fietkau, 2023) und einer visuellen Inspektion zugänglich gemacht (siehe Abbildung 2). Im zweiten Schritt werden die Sequenzen der Posen genutzt, um die Deutung von menschlichem Verhalten (Human Activity Recognition, HAR) vorzunehmen und damit die Bewegungen vor den jeweiligen Kameras algorithmisch zu deuten.

Drei abstrahierte Personen (Strichmännchen) in einer virtuellen Umgebung. Zwei stehen im Vordergrund und blicken ungefähr in Richtung der Kamera, eine dritte Person kommt von hinten links dazu. An den Beinen sieht man die Schrittbewegung.
Abbildung 2. 
Honeypot-Situation in PoseViz: Zwei Personen schauen zum Bildschirm, eine weitere kommt hinzu.

Die resultierenden Analysen wurden veröffentlicht (Schwarzer et al., 2023a), in welcher wir ein Hauptaugenmerk auf die Exploration von Kameradaten legten. In einer weiteren Publikation wurden automatischen Analyse-Ansätze veröffentlicht (Schwarzer et al., 2023b). Durch verwandte Arbeiten inspiriert (z. B. Kazempour et al., 2018), konzentrierten wir uns dabei in Schwarzer et al. (2023a) auf sogenannter Laufpfade einer oder mehrerer Personen. Unsere Annahme war, den Honeypot-Effekt durch einen auf Laufpfaden basierenden Ansatz darstellen und dadurch dessen konkreten Nutzungsattribute identifizieren zu können.

Zur automatischen Analyse bedienten wir uns den Verfahren Dynamic Time Warping (DTW) und Agglomerative Hierarchical Clustering (AHC). Durch die Kombination dieser Verfahren konnten aus Datensätzen ohne Vorkenntnisse Gruppen von Verhalten identifiziert werden. Die gewonnenen Gruppen dienten uns dann wiederum als Schablone für eine Kontextualisierung. Zwar bedarf es noch an Verbesserungen dieses Ansatzes (u. a. das Komplexitätsverhalten von DTW und AHC), dennoch war es für uns ein weiterer und wichtiger Schritt in Richtung Analyse-Automatisierung (AP 2). Als Alternative wurden Graph Convolutional Networks zur automatisierten Analyse der Posen Sequenzen untersucht. So konnten typische Verhalten von Personen vor der Kamera erkannt und identifiziert werden. Die Potentiale von Deep Learning-Verfahren konnten so evaluiert werden. Die Ergebnisse dieser Untersuchungen sind für eine weitere Publikation vorgesehen.

Weitere Untersuchungen befassten sich mit Erkennungsmerkmalen für Aufmerksamkeit in Body-Tracking-Daten. Lacher et al. (2023) dokumentierten Rahmenbedingungen und ein mögliches Vorgehen für die Erkennung und Klassifizierung von Aufmerksamkeitsgraden durch Machine Learning. Mathes et al. (2023) stellten ein Berechnungsverfahren für einen skalaren Aufmerksamkeitswert auf, der sich aus Faktoren wie der Distanz zum Bildschirm, der Bewegungsgeschwindigkeit, der Ausrichtung des Körpers und des Kopfes, sowie der direkten Touch-Interaktion mit dem Bildschirm zusammensetzt. Letzterer Ansatz erwies sich als vielversprechend und wurde von Filippov, Lowack, Merseburger und Ell (2024, Studienarbeit, UniBw) sowie Bieschke (2024, Masterarbeit, UniBw) aufgegriffen und verfeinert. Filippov et al. (2024) stellten ein neues Berechnungsverfahren für eine Reaktivitäts-Wertung auf, welche basierend auf Ausrichtung, Bewegungsgeschwindigkeit und Position einer Person einen skalaren Wert dafür errechnet, wie stark sie gerade auf den Bildschirm reagiert. Die Arbeit formalisiert und flexibilisiert den Ansatz von Mathes et al. (2023) und kommt auf diesem Weg zu zuverlässigeren Ergebniswerten. Bieschke (2024) verbindet die Bewegungsgeschwindigkeit sowie die Ausrichtung und Distanz der Personen zum Sensor mit einer Blickrichtungsschätzung, um eine Aufmerksamkeitsschätzung durchzuführen und diese für die Erkennung möglicher Honeypot-Effekt-Situationen als Filter zu verwenden. Diese Ergebnisse fließen in eine noch in Arbeit befindliche Überblickspublikation ein (siehe 3.2.4).

3.2.3 Merkmale und Ausprägung des Honeypot-Effekts

Ganz grundsätzlich verstehen wir unter dem Honeypot-Effekt ein Phänomen, in welchem Menschen durch ihre passive oder aktive Interaktion mit Ambient Displays andere Menschen in diese Interaktion mit einbeziehen. Die entwickelten Erkennungsverfahren für Honeypot-Effekt-Situationen basieren neben der Anzahl der beteiligten Personen auf der zeitlichen Verteilung ihres Ankommens (der Honeypot-Effekt bedingt zeitlich versetztes Erscheinen), auf dem Abstand der Personen zum Bildschirm, auf deren Ausrichtung von Körper und Kopf, sowie auf Interaktionsmarkern wie Berührungen des Touch-Displays. Durch die algorithmischen Analysen der Daten konnten Langzeitstudien über das Auftreten des Honeypot-Effekts einfacher vorgenommen werden. So sind Videos über mehrere Monate erschließbar geworden und der dort jeweils aufgetretene Honeypot-Effekt in diesem Material herausrechenbar.

3.2.4 Ausblick und in Arbeit befindliche Publikationen

Wir arbeiten an einem Überblicks-Beitrag für die verschiedenen im Projektverlauf verfolgten Ansätze zur Quantifizierung von Aufmerksamkeit und Honeypot-Situationen basierend auf Body-Tracking-Daten. Weiterhin verfolgen wir den Plan, zur Bachelorarbeit von Maximilian Römpler (Blickrichtungsschätzung anhand von Body-Tracking-Daten1) einen Kurzbeitrag in einem qualitätsgeprüften wissenschaftlichen Medium zu veröffentlichen.


1: https://fietkau.science/teaching#bsc_roempler

3.3 Abweichungen

Die ursprüngliche Projektplanung sah vor, den Aufbau der Infrastruktur für Messdaten und die benötigten Analysewerkzeuge recht schnell bereitzustellen und dann als wesentliche Forschungsaufgabe die Honeypot-Effekt-Analysen und -Gestaltungsempfehlungen zu beginnen. In der Umsetzung des Projektes hat sich früh gezeigt, dass die vorhandenen Werkzeuge und Methoden für den Umgang mit sowie die Analyse von Body-Tracking-Daten bei weitem nicht auf dem hierfür nötigen Stand waren. Daher ist ein größerer Teil der Projektzeit als veranschlagt in deren Aufbau geflossen (siehe PoseViz, Logging-Infrastruktur, Auswertungsskripte) und die Gestaltungsempfehlungen konnten nicht abschließend behandelt werden. Positiv ist anzumerken, dass wir im Bereich der Werkzeuge und Methoden für Body-Tracking-Daten tatsächlich viel erreichen konnten und dass diese Teilergebnisse von der wissenschaftlichen Gemeinschaft bereits rezipiert werden (siehe 3.6).

3.4 Umgang mit Forschungsdaten

Ein signifikanter Teil der Arbeit im Projekt drehte sich um die Erhebung, Verarbeitung und Speicherung der Body-Tracking-Daten in Langzeit-Deployments. In Ermangelung eines geräteunabhängigen und offenen Datenformats wurde mit dem PoseViz-Format ein eigenes spezifiziert und im Projektverlauf kontinuierlich iteriert (Fietkau, 2023). Dabei wurden folgende Qualitätskriterien berücksichtigt:

Der Umfang der Daten ergibt sich aus der Detailliertheit der Körpermodelle, der Aufnahmegeschwindigkeit der Sensoren (wie oft pro Sekunde kann ein Abbild erstellt werden) sowie der Anzahl von Passanten im Sensorbereich über die Zeit. An den UniBw-Installationen auf dem Campus entstehen ca. 5 GB Aufnahmedaten pro Sensor pro Monat. Neben den Body-Tracking-Daten protokolliert die UniBw Ereignis-Logs der Bildschirme. Dazu gehören Zeitstempel von Touch-Interaktionen, Daten zu angezeigten Inhalten, sowie Betriebsmeldungen (Software-Ausfälle, Neustarts). Die Daten der München-Deployments werden in der Forschungsdateninfrastruktur der UniBw verwaltet, in der das Rechenzentrum der Universität den Zugriffsschutz und die Ausfallsicherheit auf technischer Ebene gewährleistet. Der Zugriff auf die Daten ist beschränkt auf Mitglieder des Projektteams, andere Mitarbeitende des Lehrstuhls mit engem Bezug zum Forschungsvorhaben, sowie Studierende in begleiteten Projekten. Für eine Offenlegung der umfassenden Rohdaten für kooperierende externe Forschende hat sich im Projektverlauf keine Notwendigkeit ergeben.

Im Zusammenhang mit dem Aufbau der 24/7-Sensor-Deployments an der UniBw wurde eine Prüfung der Datenschutz-Randbedingungen mit dem Datenschutzbeauftragten der Universität durchgeführt. Ein Teilergebnis davon ist, dass die Body-Tracking-Daten nicht per se als anonymisiert betrachtet werden dürfen, insbesondere wenn sie mit präzisen Zeitstempeln versehen sind. Eine zu Projektbeginn noch geplante vollständige Veröffentlichung der Aufnahmedaten wird aufgrund des Schutzes der Privatsphäre der Personen auf dem UniBw-Campus zum jetzigen Zeitpunkt nicht mehr als realistisch betrachtet. Stattdessen bemühen wir uns um die Erstellung aggregierter statistischer Datensätze, die keine Rückschlüsse auf Einzelpersonen mehr zulassen, sowie auf auszugsweise Body-Tracking-Daten ohne präzise Angaben zu Datum und Uhrzeit.

3.5 Verwertbarkeit

Basierend auf den Publikationen aus dem Projekt haben sich Kontakte zu mehreren externen Forschungsgruppen ergeben, mit denen wir in informellen Gesprächen Möglichkeiten ausgelotet haben, unsere Werkzeuge und Methoden in ihre Projektkontexte zu übertragen:

Die Analysemethoden und -Werkzeuge sind auch in die Lehre eingeflossen. Insbesondere das Tool-Framework wird seit 2022 in der Master-Lehre zu Mensch-Computer-Interaktion an der UniBw eingesetzt.

3.6 Wissenschaftliche Veranstaltungen, Wissenschaftskommunikation

3.6.1 Wissenschaftliche Veranstaltungen

Mensch und Computer 2023 (MCI-WS13): Methods and Tools for (Semi-)Automated Evaluation in Long-Term In-the-Wild Deployment Studies. Rapperswil. 3.-6. September 2023.

Workshop „Gestaltung und Untersuchung der Unterstützung verteilter und hybrider Arbeit“ auf dem INFORMATIK-Festival der Deutschen Gesellschaft für Informatik an der HTW Berlin. 28.09.2023.

3.6.2 Wissenschaftskommunikation

Draheim, Susanne: Hybride Räume. Vom Wissen zum Handeln. Vortrag auf dem University Festival 2023 (online), 26.04.2023, (mit K. Schillinger).

Draheim, Susanne: Hybride Räume – Vom Hörsaal zum Cookbook Education Space. Workshop auf der Jahrestagung 2022 der UAS7: AUFTRAG ZUKUNFT. Wie wird das HAW-Studium von morgen den Transformationsprozessen von heute gerecht? 25.11.2022, (mit K. Schillinger).

Draheim, Susanne: Wo wir uns gerade sehen: Informelle Kommunikation – eine Quelle für Motivation und Kreativität am Arbeitsplatz? Impulsvortrag im Rahmen des Austausch-Café für Angehörige der HAW Hamburg, 01.04.2022.

Informelle Online-Wissenschaftskommunikation zu diesem Projekt auf sozialen Plattformen erfolgte durch den Projektmitarbeiter Julian Fietkau.2


2: https://fietkau.social/@julian/110956848032891492, https://fietkau.social/@julian/110999868443984511, https://fietkau.social/@julian/112298714526142695

3.7 Literaturverzeichnis

Elhart, I., Mikusz, M., Gomez Mora, C., Langheinrich, M., Davies, N. (2017). Audience monitor: an open-source tool for tracking audience mobility in front of pervasive displays. Proceedings of the 6th ACM International Symposium on Pervasive Displays (PerDis '17), Association for Computing Machinery, New York, USA. https://doi.org/10.1145/3078810.3078823

Kazempour, D., Beer, A., Herzog, F., Kaltenthaler, D., Lohrer, J.-Y., Seidl, T. (2018). FATBIRD: A Tool for Flight and Trajectories Analyses of Birds. 2018 IEEE 14th International Conference on e-Science (e-Science), Amsterdam, Niederlande, S. 75–82. https://doi.org/10.1109/eScience.2018.00023

Williamson, J. R., Williamson, J. (2014). Analysing Pedestrian Traffic Around Public Displays. Proceedings of The International Symposium on Pervasive Displays (PerDis '14), Association for Computing Machinery, New York, USA. https://doi.org/10.1145/2611009.2611022

Außerdem die eigenen Veröffentlichungen, die unter 4 aufgeführt sind.


4. Veröffentlichte Projektergebnisse

4.1 Publikationen mit wissenschaftlicher Qualitätssicherung

Buhl, W., Engel, K.-F., & Buller, V. (2023). Evaluation of a gamification approach for increasing interaction with public displays. Mensch und Computer 2023 Workshop-Proceedings. https://doi.org/10.18420/muc2023-mci-ws13-344

Cabalo, C., Gatzemeyer, L., & Mathes, L. (2023). Evaluating the engagement of users from public displays. Mensch und Computer 2023 Workshop-Proceedings. https://doi.org/10.18420/muc2023-mci-ws13-282

Fietkau, J. (2023). A New Software Toolset for Recording and Viewing Body Tracking Data. Mensch und Computer 2023 Workshop-Proceedings. https://doi.org/10.18420/muc2023-mci-ws13-334

Fietkau, J. & Schwarzer, J. (2024). Herausforderungen menschengerechter Forschung mit Body-Tracking-Sensoren in Langzeit-Feldstudien. Mensch und Computer 2024 – Workshopband. https://doi.org/10.18420/muc2024-mci-ws14-170

Foldenauer, K., Plischke, T., Strauß, L., Viehmann, E., & Koch, M. (2022). Using Audio for Detecting Covered Users in Front of Public Displays (Schriften zur Soziotechnischen Integration, Vol. 9). https://doi.org/10.18726/2022_4

Koch, M., Fietkau, J., Draheim, S., Schwarzer, J., & von Luck, K. (2023). Methods and Tools for (Semi-)Automated Evaluation in Long-Term In-the-Wild Deployment Studies. Mensch und Computer 2023 Workshop-Proceedings. https://doi.org/10.18420/muc2023-mci-ws13-116

Koch, M., Fietkau, J., & Stojko, L. (2023). Setting up a Long-Term Evaluation Environment for interactive semi-public Information Displays. Mensch und Computer 2023 Workshop-Proceedings. https://doi.org/10.18420/muc2023-mci-ws13-356

Lacher, J., Bieschke, L., Michalowski, F., & Münch, J. (2023). Using machine learning to determine attention towards public displays from skeletal data. Mensch und Computer 2023 Workshop-Proceedings. https://doi.org/10.18420/muc2023-mci-ws13-293

Rohde, C., Koch, M., & Stojko, L. (2023). Using an Elastic Stack as a Base for Logging and Evaluation of Public Displays. Mensch und Computer 2023 Workshop-Proceedings. https://doi.org/10.18420/muc2023-mci-ws13-303

Schwarzer, J., Draheim, S., & von Luck, K. (2023a). Spatial and Temporal Audience Behavior of Scrum Practitioners Around Semi-Public Ambient Displays. International Journal of Human–Computer Interaction, 39(18), pp. 3567–3585. https://doi.org/10.1080/10447318.2022.2099238

Schwarzer, J., Fietkau, J., Fuchs, L., Draheim, S., von Luck, K., & Koch, M. (2023b). Exploring Mobility Behavior Around Ambient Displays Using Clusters of Multi-dimensional Walking Trajectories. Extended Abstracts of the 2023 CHI Conference on Human Factors in Computing Systems (CHI EA ’23). https://doi.org/10.1145/3544549.3585661

4.2 Weitere Publikationen und öffentlich gemachte Ergebnisse

Hybrides Arbeiten – Phänomen & aktuelle Situation. Impulsvortrag im Rahmen des Workshops „Gestaltung und Untersuchung der Unterstützung verteilter und hybrider Arbeit“ auf dem INFORMATIK-Festival der Deutschen Gesellschaft für Informatik an der HTW Berlin. 28.09.2023, (S. Draheim, K. von Luck).

Computer-Supported Collaborative Work – Aktuelle Perspektiven. Impulsvortrag im Rahmen des Workshops „Gestaltung und Untersuchung der Unterstützung verteilter und hybrider Arbeit“ auf dem INFORMATIK-Festival der Deutschen Gesellschaft für Informatik an der HTW Berlin. 28.09.2023 (M. Koch).

4.3 Patente (angemeldete und erteilte)

Keine


Anhang: Projektposter

Project HopE: Investigation of the Honeypot Effect on (Semi-)public Ambient Displays in Long-term Field Studies. Michael Koch, Kai von Luck, Susanne Draheim, Julian Fietkau, Jan Schwarzer. Background: Field deployment research on ambient displays (see Figure 4) nowadays focuses on understanding how these devices are really being used in the wild over longer periods of time. While there is a notable number of effects linked to the utilization of ambient displays, the Honeypot Effect (see Figure 1), in particular, is highly suitable to reflect on the underlying user behavior manifesting throughout interaction. In essence, the Honeypot Effect helps to explain the attraction to a system arising from others already engaging with it. Aim: The project aims to develop a methodological framework that enables an automatic evaluation of ambient displays around the clock. This framework strives towards scrutinizing authentic usage in the wild through the lens of the honeypot effect and will make use of both qualitative and quantitative methods to draw a holistic picture of user behavior. A set of design recommendations for ambient displays in semi-public and public contexts is to be developed. With these recommendations, we hope contributing insights regarding, for example, content presentations, user engagement, and the planning of display installations. Methods: Methodologically, our research faces the challenges of in-the-wild research (e.g., coping with the novelty effect, the use of robust prototypes, or the interweaving of different research methods). To a notable extent, our project builds on skeletal data recorded with depth-based camera sensors (see Figure 3) as a foundation to draw initial hypotheses regarding the Honeypot Effect. In an interdisciplinary team of researchers, we use a mixed-methods approach combining qualitative content analysis of observations and interviews with quantitative evaluations of log data. Figure 2 summarizes our methodological approach and illustrates its five individual phases. A key variable in this depiction is the context, affecting both data collection and analysis, in which an ambient display installation is deployed. Deployment Sites: Overall, two general locations were chosen for the context of this project (see Figure 4): A first installation of one ambient display in a real-world agile software development environment (a second one will follow). The company is located near Hamburg. The deployment of four installations across the university’s campus in Munich. Figure 1: The Honeypot Model proposed by Wouters et al. including user roles, trajectories, influences and triggers that affect how people engage with interactive systems. Figure 2: Our semi-automatic process consists of five individual phases in total: data collection, preparation, exploration, feature extraction, and analysis. Context information informs each of these phases. Figure 3: Our PoseViz tool depicting the silhouettes of a crowd in front of one of our display installations. Figure 4: (a) One of our display installations in a company’s agile software development department near Hamburg. (b) A setup at the university’s campus in Munich. HAW Hamburg, Universität der Bundeswehr München, funded by DFG (Deutsche Forschungsgemeinschaft)