Bachelorarbeit
Filtern
Erscheinungsjahr
Dokumenttyp
- Bachelorarbeit (100) (entfernen)
Schlagworte
- Computervisualistik (8)
- OpenGL (7)
- Computergrafik (5)
- Android (4)
- Graphik (4)
- Line Space (4)
- Augmented Reality (3)
- C++ (3)
- Compute Shader (3)
- Computergraphik (3)
- GPGPU (3)
- Linespace (3)
- OpenGL Shading Language (3)
- Programmierung (3)
- Virtual Reality (3)
- Applikation (2)
- Bildverarbeitung (2)
- Datenstruktur (2)
- Global Illumination (2)
- Grafikkarte (2)
- Immersion (2)
- Informatik (2)
- Path Tracing (2)
- Physiksimulation (2)
- Raytracing (2)
- Realistische Computergrafik (2)
- Rendering (2)
- Shader (2)
- Smartphone (2)
- VOXEL (2)
- 3D (1)
- Android development (1)
- Androidentwicklung (1)
- App (1)
- Assembly (1)
- Astrophysik (1)
- Automatische Klassifikation (1)
- Autorensystem (1)
- Beleuchtung (1)
- Beschleunigungsensor (1)
- Bildanalyse (1)
- Blickpunktabhängig (1)
- Bounding Volume Hierarchy (1)
- Brechung (1)
- Coloskopie (1)
- Compute-Shader (1)
- Computer Graphics (1)
- Constitutive Model (1)
- Cybersickness (1)
- Darmpolyp (1)
- Digitale Bilder (1)
- ECSA (1)
- Echtzeit Raytracing (1)
- Entity Component System Architecture (1)
- Entwicklung (1)
- Erweiterte Realität (1)
- Eulerian grid (1)
- Extended Reality (1)
- Fabric Simulation (1)
- Fast Convolution (1)
- Fell (1)
- Fell Rendering (1)
- Flow-Erlebnis (1)
- Fluidsimulation (1)
- Fourier (1)
- Fresnel (1)
- GPU (1)
- Gerstner (1)
- Geste (1)
- Gesteninterpretation (1)
- Glint Center Estimation Algorithmus (1)
- Globale Beleuchtung (1)
- Grafik (1)
- Grafikprogrammierung (1)
- Graphicsprogramming (1)
- Grundschule (1)
- Haare (1)
- Halbschatten (1)
- HoloLens (1)
- Innenarchitektur (1)
- Jump'n Run-Spiel (1)
- Kartesisches Euler-Gitter (1)
- Kartesisches Gitter (1)
- Kinect (1)
- Kollaboration (1)
- Kollisionserkennung (1)
- Konturfindung (1)
- Leap-Motion (1)
- Lehrer (1)
- Lernspiel (1)
- Light Injection (1)
- Material Point Method (1)
- Material point method (1)
- Materialmodell (1)
- Materie-Punkt-Methode (1)
- Merkmalsdetektion (1)
- Modellierungstool (1)
- Montage (1)
- Motion Sickness (1)
- Musik (1)
- N-Body Simulation (1)
- N-Körper Simulation (1)
- Nvidia CUDA (1)
- OpenCL (1)
- Par (1)
- Partikel (1)
- Partikelsystem (1)
- Pathtracing (1)
- Pre-Integration (1)
- Pupil Center Estimation Algorithmus (1)
- Ray Tracer (1)
- Ray tracing (1)
- Ray-Casting (1)
- Reflections (1)
- Reflektionen (1)
- Reflexion (1)
- Reverberation (1)
- Schnee (1)
- Schnelle Faltung (1)
- Sensor (1)
- Sensorensteuerung (1)
- Specular (1)
- Spiel (1)
- Stadt (1)
- Starrkörper (1)
- Sterne (1)
- Steuerung (1)
- Stoffsimulation (1)
- Text (1)
- Texterkennung (1)
- Touchscreen (1)
- Transfer function (1)
- Transferfunktion (1)
- VR (1)
- VST (1)
- Virtuelle Realität (1)
- Visualisierung (1)
- Volumen (1)
- Volumen-Rendering (1)
- Volumendaten (1)
- Voxelisierung (1)
- Wasseroberfläche (1)
- Wellen (1)
- Wiederhall (1)
- accelerometer (1)
- android (1)
- area light (1)
- fur rendering (1)
- general purpose (1)
- graphics card (1)
- indirect lighting (1)
- indirektes Licht (1)
- interactive application (1)
- interaktive Applikation (1)
- interaktiven (1)
- jump'n run game (1)
- line space (1)
- menschliches Auge (1)
- multidimensional transfer function (1)
- multidimensionale Transferfunktion (1)
- physics simulation (1)
- prozedural (1)
- ray casting (1)
- raycasting (1)
- raytracing (1)
- reflection (1)
- refraction (1)
- rigid body (1)
- sensor control (1)
- shader (1)
- snow (1)
- soft shadow (1)
- volume rendering (1)
- volume visualization (1)
- volumenrendering (1)
- voxelization (1)
- water surface (1)
- waves (1)
Institut
- Institut für Computervisualistik (100) (entfernen)
Diese Arbeit befasst sich mit einer 3D-Interaktion von primitiven Objekten, welche von Gesten gesteuert wird. Dabei werden Funktionen, welche auf eine absolute Positionierung angewiesen sind, mit Hilfe eines Touchscreens implementiert. Als zweites Eingabegerät dient die Leap-Motion, welche Gesten anhand von zwei CCD-Kameras und drei Infrarot-LEDs aufnimmt. Die Gesten bestehen dabei aus der Translation, Rotation und Skalierung von Objekten, sowie aus einer Steuerung, die die Bewegung im Raum ermöglicht. Zur visuellen Umsetzung wurde die Arbeit in Blender mit der Blender Game Engine unter Python geschrieben. Nur das Auswählen der Objekte wurde mit Hilfe des Touchscreens realisiert. Diese Steuerung wurde anschließend mit einer reinen Maussteuerung evaluiert. Diese beiden Eingabemöglichkeiten unterscheiden sich darin, dass die Gestensteuerung nicht etabliert ist. Sie besitzt allerdings den Vorteil, dass sie im dreidimensionalen Raum ausgeführt werden kann. Die Maus hingegen ist geläufig, beschreibt aber nur einen zweidimensionalen Raum als Eingabe. Es stellt sich also die Frage, ob bei der dreidimensionalen Interaktion von Objekten eine Maussteuerung oder eine Gestensteuerung bevorzugt wird. Das Ergebnis beläuft sich daran, dass die Maus favorisiert wird. Jedoch liegt die Gestensteuerung in manchen Bereichen nah an dem Ergebnis der Maus.