TY - THES A1 - Kreckel, Eva T1 - Gesteninterpretation zur Transformation von 3D-Primitiven auf einem Touchscreen in Kombination mit der Leap-Motion N2 - Diese Arbeit befasst sich mit einer 3D-Interaktion von primitiven Objekten, welche von Gesten gesteuert wird. Dabei werden Funktionen, welche auf eine absolute Positionierung angewiesen sind, mit Hilfe eines Touchscreens implementiert. Als zweites Eingabegerät dient die Leap-Motion, welche Gesten anhand von zwei CCD-Kameras und drei Infrarot-LEDs aufnimmt. Die Gesten bestehen dabei aus der Translation, Rotation und Skalierung von Objekten, sowie aus einer Steuerung, die die Bewegung im Raum ermöglicht. Zur visuellen Umsetzung wurde die Arbeit in Blender mit der Blender Game Engine unter Python geschrieben. Nur das Auswählen der Objekte wurde mit Hilfe des Touchscreens realisiert. Diese Steuerung wurde anschließend mit einer reinen Maussteuerung evaluiert. Diese beiden Eingabemöglichkeiten unterscheiden sich darin, dass die Gestensteuerung nicht etabliert ist. Sie besitzt allerdings den Vorteil, dass sie im dreidimensionalen Raum ausgeführt werden kann. Die Maus hingegen ist geläufig, beschreibt aber nur einen zweidimensionalen Raum als Eingabe. Es stellt sich also die Frage, ob bei der dreidimensionalen Interaktion von Objekten eine Maussteuerung oder eine Gestensteuerung bevorzugt wird. Das Ergebnis beläuft sich daran, dass die Maus favorisiert wird. Jedoch liegt die Gestensteuerung in manchen Bereichen nah an dem Ergebnis der Maus. N2 - This thesis shows an interaction of primitives in a three-dimensional space which is done by gestures. Functions which are difficult to do by gestures without any absolute feeling of the position are implemented with a touchscreen. Besides the touchscreen a second input device, a Leap-Motion, is used to obtain data of the motion of the hand. To get its data the Leap-Motion uses two CCD-cameras and three infrared LEDs. The interactions that can be done without any feedback of the absolute position are the translation, rotation and scale. These three and the movement through space are implemented as gestures in this thesis. This is done in Blender with the BlenderrnGame Engine and Python. The only function which has been implemented for the touchscreen is to select an object. Later on, a comparative control of the mouse was invented to contrast it with the control of the gestures. There are two big differences between these two controls. On the one hand, the gesture controls can be done in a three-dimensional space but most people aren't used to it yet. On the other hand, there is just a two-dimensional input possibility with the mouse control. Otherwise it is familiar to most persons. The evaluation should reveal if people prefer interaction by mouse control or by gestures. The result shows that the prefered control is done by the mouse. However in some categories of the tests the gestures are quite close to the result of the mouse. KW - Gesteninterpretation KW - Leap-Motion Y1 - 2015 UR - https://kola.opus.hbz-nrw.de/frontdoor/index/index/docId/977 UR - https://nbn-resolving.org/urn:nbn:de:kola-9770 ER -