Audifizierung der InteractiveWall

Art der Abschlussarbeit

Bachelorarbeit

Thema

Die InteractiveWall als multimediales und interaktives System verwendet zurzeit überwiegend bildliche und textuelle Elemente. Hörbares wird lediglich im Kontext von Videos verwendet. Zusätzlich können jedoch auch Klänge bzw. akustische Signale auf viele verschiedene Weisen eingesetzt werden, um die Erfahrung des Nutzers bzw. das Benutzungserlebnis mit dem System zu verbessern, da dieser zusätzliche Sinneskanal in besonderer Weise Feedback geben und Informationen bereitstellen kann. 

Bearbeitet von

Jonas Lamperti

Weitere Betreuer

Aufgabenstellung

Ziel dieser Arbeit ist die Erweiterung der InteractiveWall (IW) um spezifische Audio-Elemente. Dabei soll einerseits auditives Feedback für Interaktionen des Nutzers mit der InteractiveWall ausgegeben werden, andererseits soll die Möglichkeit eröffnet werden, dass zu visuellen Medien passende Audiodateien (beispielsweise ambiente Klänge) in das System eingebunden abgespielt werden. Hierfür wird das „Network Environment for Multimedia Objects“ (NEMO)-Framework mit seiner semantisch-annotierten Datenhaltung genutzt. Lernprozesse an der IW, die sich zurzeit nur auf textliche oder bildliche Medien stützen, könnten insbesondere durch kontextuelle Klänge Assoziationen wecken, die das Aufnehmen von Informationen und die Konstruktion von Wissen unterstützen. Weiterhin widmet sich diese Arbeit auch der automatischen Angleichung von Lautstärken im Kontext der diversen multimedialer Anwendungen der IW.

Literatur

Norman, D.A. & Draper, S.W. (1986). User Centered System Design. Hillsdale: Lawrence Erlbaum Associates.

Chernyshov, G., Chen, J., Lai, Y., Noriyasu, V., & Kunze, K. (2016). Ambient Rhythm: Melodic Sonification of Status Information for IoT-enabled Devices. Proceedings of the 6th International Conference on the Internet of Things (pp. 1-6). Stuttgart, Germany: ACM.

Coad, Lefebvre, & Luca, D. (1999). Feature-Driven Development. In Coad, Lefebvre, & D. Luca, Java Modeling in Color: Enterprise Components and Process. Prentice Hall PTR.

Drossos, K., Floros, A., & Kanellopoulos, N.-G. (2012). Affective acoustic ecology: towards emotionally enhanced sound events. Proceedings of the 7th Audio Mostly Conference: A Conference on Interaction with Sound (pp. 109-116). Curfu, Greece: ACM.

Wenzel, E. M. (1993). Perceptual vs. hardware performance in advanced acoustic interface design. Proceedings of the INTERACT '93 and CHI '93 Conference on Human Factors in Computing Systems (pp. 363-366). Amsterdam, The Netherlands: ACM.

Wilson, G., Freeman, E., & Brewster, S. (2016). Multimodal affective feedback: combining thermal, vibrotactile, audio and visual signals. Proceedings of the 18th ACM International Conference on Multimodal Interaction (pp. 400-401). Tokyo, Japan: ACM.

 

Starttermin

Okt 2017