Human-Centered Computing

Die Beiträge der Fachkonferenz befassen sich mit Themen der Mensch-Maschine-Interaktion, nutzerorientierte Softwareentwicklung, kollaborative Umgebungen oder virtuelle Realität

Programmablauf 2014

09:00 Beginn der Veranstaltung und Grußwort
09:05 Erklärung Poster Award & Vorstellung der Poster
SOFTWAREENTWICKLUNG MOBILER ANWENDUNGEN
09:15 Vergleich der Single Sign On Verfahren SAML und OpenID Connect Johannes Kartheininger
09:40 Strategy to Test Mobile Apps Olaya de la Rosa Avitia
10:05 Optimierung der Usability von digitalen Fahrtenbüchern durch automatisches Erfassen von fahrzeugspezifischen Daten Viktoria Hoffmann
10:30 Pause, Posterpräsentation & Standpräsentation
VIRTUELLE WELTEN
11:15 Steigerung von Immersion durch die Integrierung von virtuellen Menschen in die virtuelle Welt neueWelt9 Lars Rainer Schneider
11:40 Umgebungswahrnehmung von agentenbasierten simulierten Menschmodellen in virtuellen Welten im Kontext C3D André Antakli
12:05 Erkennung eigener Körperbewegungen in animierten Charakteren Anna Wellerdiek
12:30 Mittagspause
GESTENERKENNUNG & AUGMENTED VIRTUALITY
13:30 Anforderungsanalyse zur computergestützten Erkennung der Deutschen Gebärdensprache Thomas Bauer
13:55 Analysis of Finger- and Palm-based interaction paradigms for Touch-free Gesture-Based Control of Medical Devices with the Leap Motion Controller Stanislas Mauser
14:20 Augmented Virtuality zur Steigerung der Immersion in virtuellen Umgebungen Matthias Gutekunst
14:45 Pause, Posterpräsentation & Standpräsentation
SOFTWARETECHNIK
15:15 Language Oriented Programming: Modulare domänenspezifische Sprachen Arkadius Weister
15:40 Selektion von Szenarien zur Optimierung von Simulationen im präventiven Krisenmanagement René Mangold
16:05 Vergabe Poster Award & Verabschiedung

Vorträge

Anforderungsanalyse zur computergestützten Erkennung der DeutschenGebärdensprache

Im Rahmen der wissenschaftlichen Vertiefung an der Hochschule Reutlingen befasst sich diese Arbeit mit der Untersuchung der Anforderungen und der Machbarkeit zur computergestützten Erkennung der Deutschen Gebärdensprache - im Folgenden DGS - und des deutschen Fingeralphabets. Die Erkenntnisse aus dieser Arbeit dienen als Grundlage zur Entwicklung eines Systems zur Übersetzung von Gebärden der DGS oder des Fingeralphabets in die deutsche Schriftsprache. Zunächst werden grundlegende Informationen zu Geschichte, Aufbau und Grammatik der DGS und des Fingeralphabets aufgeführt. Die Erkennung der Gebärden soll durch optische Bewegungssensoren erfolgen. Hierfür werden unterschiedliche Sensortypen betrachtet und verglichen. Im weiteren Verlauf erfolgt die Analyse der benutzerspezifischen und technischen Anforderungen. Erstere basieren auf der Befragung einer Fokusgruppe aus gehörlosen und hörenden Menschen aus dem Bereich der Gehörlosen-, Schwerhörigen- und Sprachbehindertenpädagogik. Abgeleitet aus den Informationen der Anforderungsanalyse ergibtsich, bis zu einem gewissen Grad, die Machbarkeit aus technischer und benutzerspezifischer Sicht. Abschließend erfolgen die Zusammenfassung der Anforderungen, welche an das zu entwickelnde System gestellt werden sowie eine Handlungsempfehlung für die Entwicklung eines Prototyps.

Augmented Virtuality zur Steigerung der Immersion in virtuellen Umgebungen

In mehreren Untersuchungen hat sich gezeigt, dass sich die Wahrnehmung des eigenen Körpers in einer virtuellen Umgebung positiv auf die Wahrnehmung der gesamten Umgebung auswirkt. Für diese Untersuchungen wurden der Körper einer Person, oder Teile davon, als animierter Avatar aus der Ego-Perspektive dargestellt. Im Kontext der Informatikkonferenz Informatics Inside 2014 an der Hochschule Reutlingen soll in dieser Arbeit eine andere Möglichkeit der Darstellung untersucht werden. In einer prototypischen Augmented Virtuality Anwendung soll die virtuelle Umgebung um realen Inhalten erweitert werden. Es soll einer Person ermöglicht werden, Teile ihres eigenen Körpers nicht als Avatar, sondern auf Basis einer Kameraaufnahme als realistische Repräsentation wahrzunehmen. Die Arbeit beschreibt hierbei die gesetzten Ziele, sowie Aufbau und Funktions weise der prototypischen Anwendung und deren derzeitigen Stand.

Analysis of Finger- and Palm-based interaction paradigms for Touch-Free Gesture-Based Control of Medical Devices with the Leap Motion Controller

There are several intra-operative use cases which require the surgeon to interact with medical devices. I used the Leap Motion Controller as input device for three use-cases: 2D-Interaction (e.g. advancing EPR data), selection of a value (e.g. room illumination brightness) and an application point and click scenario. I evaluated the Palm Mouse as the most suitable gesture solution to coordinate the mouse and advise to use the implementation using all fingers to perform a click. This small case study introduces the implementations and methods that result those recommendations.

Selektion von Szenarien zur Optimierung von Simulationen im präventiven Krisenmanagement

Im präventiven Krisenmanagement geht es um die frühzeitige Erkennung von möglichen, unvorhersehbaren Ereignissen. Hierzu zählen beispielhaft Busunfälle, einstürzende Gebäude und ähnliche Großschadensereignisse. Krisen treten meist unerwartet auf und neigen oftmals aufgrund der knapp bemessenen Handlungszeit zu Fehlentscheidungen [3]. Um dies zu verhindern, dient das präventive Krisenmanagement dazu, sämtliche auftretende Ereignisse mittels einer Simulation zuvor durchzuspielen, um im Falle einer reellen Krise die notwendigen Schritte bestmöglich einzuleiten. Um Simulationen für das Krisenmanagement zu präzisieren und die Ergebnisse effektiv und vereinfacht zu veranschaulichen, ist es not wendig, eine Vorauswahl an vorhandenen Szenarien für Vergleiche heraussuchen zu können. Diese Arbeit entstand im Rahmen des FP7 EU-Projekts CRISMA (Crisis Management) [1] und dient zur Evaluation eines Konzepts zur Vorauswahl geeigneter Szenarien, welche in früheren Simulationen entstanden.

Language Oriented Programming: Modulare domänenspezifische Sprachen

Beim Language Oriented Programming (LOP) erstellt der Entwickler eine Programmiersprache, um ein Problem oder eine Aufgabe in einer bestimmten Domäne zu lösen. Dabei wird die Sprache so entwickelt, dass sie das konzeptuelle Modell des Entwicklers ohne Umdenken umsetzen kann. Diese Sprachen nennt man domänenspezifische Sprachen (DSL). Zur Entwicklungdieser Sprachen werden sogenannte Language Workbenches (LWB) verwendet. Diese Arbeitbefasst sich mit der Entwicklung von DSLsals ein Mittel zur Umsetzung von LOP. Durchdie Nutzung der LWBs kann man DSLsmit relativ kleinem Aufwand erstellen undeinsetzen. Im Fokus dieser Arbeit steht dieEntwicklung von "Modularen DSLs". Hierbeiwerden Kriterien und Voraussetzungen für die Modularisierung betrachtet. Zum Abschlusswerden drei Konzepte bestehender Systeme anhand dieser Kriterien betrachtet undbewertet.

Strategy to Test Mobile Apps

Nowadays the development of a mobile app implies challenges and difficulties, which have to be faced by mobile app developers. Innovations lead to a rapidly evolving mobile app market, therefore apps should be developed faster and offered in short release cycles to the market. Testing is a decisive activity within the development process that helps to improve the quality of the app. This research paper describes a strategy to test mobile apps that overcomes the challenges that mobile apps confront and permit s to test the app in a structural test environment.

Optimierung der Usability von digitalen Fahrtenbüchern durch automatisches Erfassen von fahrzeugspezifischen Daten

Mit dem starken Wachstum des CarSharing-Angebots und der großen Menge an Flottenfahrzeugen in Unternehmen nimmt auch die Anzahl der Fahrtenbuch-Apps zu. Bei den meisten mobilen Fahrtenbuch-Anwendungen muss der Benutzer den Kilometerstand manuell eintragen. Dies wirkt sich negativ auf die Usability und die User Experience aus. Hinzu kommt, dass jede Minute kostbar ist, die der Fahrer im ausgeliehenen Auto verbringt. Aus diesen Gründen wird hier eine Lösung vorgestellt, bei der der Kilometerstand aus einer Mercedes Benz A-Klasse über den OBD-Anschluss mit Hilfe des CAN Interfaces „ISIb2air“automatisch ausgelesen und per Bluetooth an die Fahrtenbuch-App der Berger Elektronik GmbH gesendet wird. Hierfür wird mittels der Software „ISI b2app“ die Kommunikation des Diagnosetesters mit dem Fahrzeug aufgezeichnet. Anschließend werden die CAN-Botschaften analysiert und in Bezug auf den Kilometerstand gefiltert.Die entsprechende Anfrage zum Erhalt des Kilometerstandes wird in den Programmcode des Berger Fahrtenbuches implementiert, so dass die App selbstständig den Kilometerstandauslesen kann.

Vergleich der Single Sign On Verfahren SAML und OpenID Connect

In dieser Arbeit werden die beiden Single Sing On-Protokolle SAML und OpenIDConnect miteinander verglichen. Vorab wird die Aufgabe eines Single Sign On-Systemes erläutert und allgemeine Vorteile sowie Nachteile aufgezählt.

Umgebungswahrnehmung von agentenbasierten simulierten Menschmodellen in virtuellen Welten im Kontext C3D

Das Ziel dieser Arbeit war die Umsetzung eines Wahrnehmungsensors für Softwareagenten, die über ein virtuelles Menschmodell in einer dreidimensionalen Umgebung agieren. Hierbei sollen die Agenten über den Sensor in der Lage sein, semantische Informationen zu geometrischen Objekten in der Umgebung zu erhalten. Hierfür wurden zwei Verfahren umgesetzt, die das menschliche Sehen simulieren, indem Objekten erkannt werden wenn diese innerhalb eines Sichtfeld liegen. Ein Problem das dabei gelöst werden muss, ist die Identifizierung möglicher Verdeckungen der Objekte. Ein Ansatz dieses Problem zu lösen, ist der Ray-Tracing Ansatz welcher für das erste Verfahren umgesetzt wurde. Das zweite Verfahren verwendet den Occlusion-Culling Ansatz. Auswertungen beider Verfahren haben gezeigt, dass der Ray-Tracing Ansatz eine schnellere Laufzeit aufweist, der Occlusion-Clulling Ansatz jedoch mehr unverdeckte Objekte im Sichtfeld erkennt.

Steigerung von Immersion durch die Integrierung von virtuellen Menschen in die virtuelle Welt NeueWelt9

Faktoren, die die Intensivität von Immersion in virtuellen Welten steigern, sind unter anderem der Detailreichtum der Umgebung, die Vorahnung und Wahrnehmung von Ereignissen, der Realismus der Welt und der Umfang von Interaktionen [4]. Zur Steigerung dieser Faktoren wurde eine Projektarbeit im Rahmen des Masterprojektes „NeueWelt9“ an der Hochschule Reutlingen durchgeführt. Erreicht wurde dies über die Integrierung von virtuellen Menschen in die virtuelle Welt NeueWelt9. Es erfolgte eine Evaluation der Grafikengine (CryEngine FreeSDK v3.4.5) und der Vorgehensweisen zur Entwicklung von dynamischen Verhaltensweisen virtueller Menschen. Es fand eine konkrete prototypische Umsetzung statt, wobei die Navigation und die Interaktionen von virtuellen Menschen implementiert wurden.

Erkennung eigener Körperbewegungen in animierten Charakteren

Wenn es um die eigenen Körperbewegungen geht, sind Menschen sehr feinfühlig. Das ist eigentlich verwunderlich, denn im Alltag haben sie viel mehr Erfahrung damit die Bewegungen Anderer zu beobachten als die Eigenen. Deshalb wurde eine psychophysische Studie durchgeführt um die Erkennung eigener Körperbewegungen zu erforschen. Von mehreren Versuchspersonen wurden eine Vielzahl von Bewegungen (gehen, rennen, Tischtennis spielen und tanzen) mit einem Motion-Capture System aufgenommen und anschließend auf verschiedenen animierten Figuren dargestellt (Point-Light-Figur, männlicher und weiblicher Charakter). Die Versuchspersonen bekamen die Aufgabe ihre eigenen Bewegungen auf den Figuren wiederzuerkennen. Das Ergebnis zeigte, dass die Selbsterkennungs-Rate auf allen drei Figuren sehr hoch war, allerdings war sie höher wenn die Bewegungen auf einer Point-Light-Figur dargestellt wurden als auf einem animierten Charakter. Trotzdem haben die Versuchspersonen überraschenderweise angegeben, dass die Selbsterkennung auf der Point-Light-Figur schwieriger gewesen sei als bei den animierten Charakteren. Außerdem hat die statistische Analyse der Daten ergeben, dass das Geschlecht des animierten Charakters keinen Einfluss auf dieSelbsterkennung hatte.

Schlüsseldaten:

  • 11.12.2013: Call for Poster
  • 09.03.2014: Deadline Shortpaper
  • 23.03.2014: Rückmeldung zum Shortpaper
  • 30.03.2014: Deadline finales Shortpaper
  • 30.04.2014: II 2014