Filtern
Erscheinungsjahr
Dokumenttyp
- Bachelorarbeit (88)
- Diplomarbeit (76)
- Studienarbeit (74)
- Masterarbeit (30)
- Dissertation (9)
- Ausgabe (Heft) zu einer Zeitschrift (5)
Sprache
- Deutsch (282) (entfernen)
Volltext vorhanden
- ja (282) (entfernen)
Schlagworte
- Augmented Reality (13)
- Bildverarbeitung (12)
- Computergrafik (9)
- Robotik (9)
- Computervisualistik (8)
- Computergraphik (7)
- OpenGL (6)
- GPGPU (5)
- Volumendaten (5)
- Android (4)
- Computerspiel (4)
- GPU (4)
- Mustererkennung (4)
- Programmierung (4)
- Raytracing (4)
- Shader (4)
- VOXEL (4)
- Analyse durch Synthese (3)
- Computersimulation (3)
- Datenstruktur (3)
- Erweiterte Realität (3)
- Globale Beleuchtung (3)
- Interaktion (3)
- Line Space (3)
- Markerloses Tracking (3)
- Modellbasiertes Tracking (3)
- Objektverfolgung (3)
- Segmentierung (3)
- Software (3)
- Tracking (3)
- Virtual Reality (3)
- Visualisierung (3)
- 3D (2)
- Applikation (2)
- Augenbewegung (2)
- Autonomes Robotersystem (2)
- Bild (2)
- Bildregistrierung (2)
- C++ (2)
- Compute Shader (2)
- Computer (2)
- Datenschutz (2)
- Frau (2)
- GLSL (2)
- Gaze Tracker (2)
- Global Illumination (2)
- Grafikkarte (2)
- Grafikprozessor (2)
- Graphik (2)
- Graphikprozessor (2)
- High dynamic Range (2)
- Immersion (2)
- Informatik (2)
- Kalibrierung (2)
- Kamera (2)
- Laserscanner (2)
- Linespace (2)
- Mikroskopie (2)
- Navigation (2)
- OpenGL Shading Language (2)
- Partikelsystem (2)
- Path Tracing (2)
- Physiksimulation (2)
- Point Rendering (2)
- Ray tracing (2)
- Realistische Computergrafik (2)
- Registrierung <Bildverarbeitung> (2)
- Rendering (2)
- Rettungsroboter (2)
- Schatten (2)
- Selbstlokalisation (2)
- Smartphone (2)
- Spiel (2)
- Starrkörper (2)
- Stereosehen (2)
- Textur-Mapping (2)
- Tourismus (2)
- Transform Feedback (2)
- Virtuelle Realität (2)
- Volumen (2)
- Volumen-Rendering (2)
- Volumenrendering (2)
- Webcam (2)
- Whiteboard (2)
- Wiimote (2)
- Wiki (2)
- Zielverfolgung (2)
- interaktiv (2)
- 2-D (1)
- 2D/3D-Segmentierung (1)
- 3-D-Laserscannen (1)
- 3-D-Modell (1)
- 3-D-Modelle (1)
- 3-D-Scanning (1)
- 360 Grad (1)
- 360 degree (1)
- 3D Modell Referenz Bildsynthese (1)
- 3D Painting (1)
- 3D-Abbildungen (1)
- 3D-Color-Structure-Code (1)
- 3D-Darstellung (1)
- 3D-RETISEG (1)
- 3D-Scan (1)
- 3D-Vermessung (1)
- 3D-Videospiel (1)
- 3D-Visualisierung (1)
- AMIRE (1)
- AR (1)
- ARToolkit (1)
- ARToolkitPlus (1)
- Adaptive Abtastung (1)
- Algorithmus (1)
- Ambient Occlusion (1)
- Analyse-durch-Synthese (1)
- Android development (1)
- Androidentwicklung (1)
- Angiographiebilder (1)
- Animationsverfahren (1)
- Anzeige (1)
- App (1)
- Assembly (1)
- Astrophysik (1)
- Augenblick-SDK (1)
- Augmented Reality Szenario (1)
- Ausrichtungswerkzeug (1)
- Austausch (1)
- Auszeichnungssprache (1)
- Automatische Klassifikation (1)
- Automatische Kontrolle im Produktionsprozess (1)
- Autonome Exploration (1)
- Autonome Robotik (1)
- Autonomous Exploration (1)
- Autorensystem (1)
- Avatare (1)
- Axis Aligned Bounding Box (AABB) (1)
- BRDF (1)
- Balancetheorie (1)
- Beleuchtung (1)
- Beleuchtungsverfahren (1)
- Benutzerorientierung (1)
- Benutzerprofil (1)
- Benutzerschnittstelle (1)
- Beschleunigungsensor (1)
- Besuchersoftware (1)
- Bewegungsmodell (1)
- BildKlang (1)
- Bildanalyse (1)
- Bildanalyse-Verfahren (1)
- Bildaufloesung (1)
- Bildauflösung (1)
- Bilderkennung (1)
- Bildsensor (1)
- Billard (1)
- Blinder Fleck (1)
- Bordinstrument (1)
- Bounding Volume Hierarchie (1)
- Bounding Volume Hierarchy (1)
- Breaking (1)
- Brechung (1)
- Bruchsimulation (1)
- Business Intelligence (1)
- CAD (1)
- CB2 (1)
- CSMs (1)
- CT-Datensätze (1)
- Cascada (1)
- Casual Game (1)
- Cg (1)
- Charakter-Objekt-Interaktion (1)
- Charakteranimation (1)
- Colonoscopy (1)
- Color Structure Code (1)
- ColorSym (1)
- Communication System (1)
- Compute-Shader (1)
- Computer-aided diagnosis (1)
- Computeranimation (1)
- Computerspiele (1)
- Computertomografie (1)
- Computertomographie (1)
- Constitutive Model (1)
- CosiMail (1)
- Cybersickness (1)
- DCMTK (1)
- DICOM (1)
- DIN EN ISO 9241 (1)
- DTI (1)
- Darmspiegelung (1)
- Datenanalyse (1)
- Datenbrille (1)
- Datenschutzkompetenz (1)
- Datenschutzkompetenzmodell (1)
- Deep Learning (1)
- Designwerkzeug (1)
- Digital Storytelling (1)
- Displacement Mapping (1)
- Display (1)
- Distanzfeld (1)
- Dreidimensionale Visualisierung (1)
- Dreidimensionales Modell (1)
- Dynamische Programmierung (1)
- E-Learning (1)
- E-Mail (1)
- EEG (1)
- Echtzeit (1)
- Echtzeit Anwendung (1)
- Echtzeit Raytracing (1)
- Echtzeit-Raytracer "Augenblick" (1)
- Echtzeitanimationssystem (1)
- Echtzeitfähigkeit (1)
- Elektroencephalographie (1)
- Enhanced Reality (1)
- Entwicklung (1)
- Erweiterte Realität <Informatik> (1)
- Eulerian grid (1)
- Evaluation (1)
- Explorationstransformation (1)
- Exporation Transform (1)
- Extended Reality (1)
- Extension (1)
- Eye-Tracking (1)
- Eyetracking (1)
- FPIC (1)
- Fachinformationssysteme (1)
- Farbsymmetrie (1)
- Fast Convolution (1)
- FastSLAM Algorithmus (1)
- Fedora (1)
- Fell (1)
- Fell Rendering (1)
- Fernsehtechnik (1)
- Feuer (1)
- Fire (1)
- Flow-Erlebnis (1)
- Flugkörper (1)
- Fluid Simulation (1)
- Fluid dynamics (1)
- Fluiddynamik (1)
- Fluidsimulation (1)
- Foils <Programm> (1)
- Fourier (1)
- Fracturing (1)
- Fragmentshader (1)
- Framework (1)
- Frei Programmierbares Kombinationsinstrument (1)
- Fresnel (1)
- Funktionelle NMR-Tomographie (1)
- GPGPU-Programmierung (1)
- GPU - Raycasting (1)
- GPU Programmierung (1)
- GPU basiert (1)
- GPU-Programmierung (1)
- Gamebased (1)
- Gamebasiertheit (1)
- Gaze-Tracking (1)
- Gebrauchstauglichkeit (1)
- Gebäudemodelle (1)
- Geländemodell (1)
- Geodaten (1)
- Geometrie-Shader (1)
- Geometry (1)
- Geometry-Shader (1)
- Geometryshader (1)
- Gerstner (1)
- Geste (1)
- Gesteninterpretation (1)
- Gittererzeugung (1)
- Glaukom (1)
- Glint Center Estimation Algorithmus (1)
- Gonioreflectometer (1)
- Gradientenanalyse (1)
- Grafik (1)
- Graphikhardware (1)
- Graphpipes (1)
- Grundschule (1)
- HDR-Bild (1)
- HDR-Bilder (1)
- HDR-Kamera (1)
- Haare (1)
- Halbschatten (1)
- Haptik (1)
- Headerdaten Netzwerkpaket SOCK_RAW SOCK_PACKET (1)
- Heidelberg Retina Tomograph (1)
- Herausforderung (1)
- Herzerkrankungen (1)
- Hochgeschwindigkeitstracking (1)
- Hochpräzise Volumenmessung (1)
- HoloLens (1)
- ICP-Algorithmus (1)
- IK-Algorithmus (1)
- Implizite Oberfläche (1)
- Indirekte Beleuchtung (1)
- Informatikunterricht (1)
- Information Retrieval (1)
- Information-Retrieval (1)
- Informationsvisualisierung (1)
- Innenarchitektur (1)
- Interaktionselemente (1)
- Interaktives Whiteboard (1)
- Inverse Kinematik (1)
- Inverses Modell (1)
- Iterative Closest Points (1)
- Iterative Dual Correspondences (1)
- J2ME (1)
- JGraph (1)
- Jump'n Run-Spiel (1)
- KD-Bäume und Binary-Space-Partitioning-Bäume (1)
- Kabel (1)
- Kalibrieren <Messtechnik> (1)
- Kamera Pose Tracking (1)
- Kartesisches Euler-Gitter (1)
- Kartesisches Gitter (1)
- Kartographie (1)
- Katadioptrisches Stereosystem (1)
- Kinect (1)
- Klassifikation (1)
- Klassifikationsframework (1)
- Kohärenzanalyse (1)
- Kollaboration (1)
- Kollisionserkennung (1)
- Koloskopie (1)
- Kontrastlose Oberflächen (1)
- Landschaftsgestaltung (1)
- Landschaftsmodell (1)
- Leap-Motion (1)
- Lehrer (1)
- Lernen (1)
- Lernspiel (1)
- Lichttransport (1)
- Light Injection (1)
- Linienkorrelationen (1)
- Lokale Bildmerkmale (1)
- Lokalisierung (1)
- MP3 Player (1)
- Machine Learning (1)
- Malen (1)
- Mammographie (1)
- Matching-Verfahren (1)
- Matchingverfahren (1)
- Material Point Method (1)
- Material point method (1)
- Materialmodell (1)
- Materie-Punkt-Methode (1)
- Matting (1)
- Maya (1)
- Medizinische Bildverarbeitung (1)
- Medizinische Visualisierung (1)
- Medizintechnik (1)
- Mensch-Maschine-Schnittstelle (1)
- Merkmalsbewertung (1)
- Merkmalsmanagement (1)
- Merkmalssynthese (1)
- Metric based Icp (1)
- Mikroskopische Objekte (1)
- Mind Maps (1)
- Mixed Reality (1)
- Mobile Kommunikation (1)
- Mobile Roboter (1)
- Mobile Robots (1)
- Mobiler Roboter (1)
- Mobiles Informatinssystem (1)
- Modellieren (1)
- Modellierung (1)
- Modellierungstool (1)
- Modulare Softwarearchitektur (1)
- Modulares Softwaresystem (1)
- Montage (1)
- Motion Sickness (1)
- Motivation (1)
- Multivariate Datenanalyse (1)
- Musik (1)
- Musteranalyse (1)
- Myokard (1)
- NURBS (1)
- Natural Image Matting (1)
- Navier"Stokes equations (1)
- Navier-Stokes-Gleichungen (1)
- Networked Graphs (1)
- Netzhaut (1)
- Netzwerkmanagement (1)
- Netzwerkmonitoring (1)
- Netzwerkschicht (1)
- Netzwerktechnik (1)
- Nicht-photorealistisches Rendering (1)
- Nintendo DS (1)
- Nintendo Wii Fernbedienung (1)
- Nvidia CUDA (1)
- OGRE (1)
- Oberflächenentwurf (1)
- Oberflächengestaltung (1)
- Oberflächenorientierung (1)
- Oberflächenstruktur (1)
- Objekterkennung (1)
- Octree Textur (1)
- Oktalbaum (1)
- Oktonärbäume (1)
- Open Source 3D Graphics Engine (1)
- OpenCL (1)
- Optische Messtechnik (1)
- Optisches Mikroskop (1)
- Ornamentik (1)
- Ornamentklassifikation (1)
- PACS- Picture Archiving (1)
- PBRT (1)
- Packet Header SOCK_RAW SOCK_PACKET (1)
- Par (1)
- Partikel (1)
- Partikelsimulation (1)
- Path transformation (1)
- Pathtracing (1)
- Personentracking (1)
- Personenverfolgungssystem (1)
- Pfadtransformation (1)
- Phantom Omni (1)
- Photogrammetrie Kalibrierung EMVA-1288 (1)
- Photogrammetry (1)
- Physik (1)
- Physikengine (1)
- Planspiegel-System (1)
- Planspiel 2.0 (1)
- Pollenanalyse (1)
- Polypendetektion (1)
- Pose (1)
- Posebestimmung (1)
- Poseschätzung (1)
- Position Based Dynamics (1)
- Positionsbestimmung (1)
- Potenzialfeld (1)
- Pre-Integration (1)
- Primus (1)
- Privacy Competence Model (1)
- Präsentation (1)
- Punktkorrelationen (1)
- Punktrendering (1)
- Pupil Center Estimation Algorithmus (1)
- Qt/C++ (1)
- Qualitätssicherung (1)
- RIP-MTI (1)
- RIP-XT (1)
- RMTI (1)
- Radiales System (1)
- Radiosity (1)
- Raumplanung (1)
- Ray Tracer (1)
- Ray Tracing (1)
- Ray casting (1)
- Ray-Casting (1)
- Real-time computing (1)
- Realistisches Kameramodell (1)
- Reengineering (1)
- Reflexion (1)
- Relativitätstheorie (1)
- Rescue League (1)
- Rescue Robots (1)
- Retinex-Algorithmus (1)
- Reverberation (1)
- Rich Internet Application (1)
- Riss (1)
- Rissmusteranalyse (1)
- RoboCup Rescue (1)
- Roboter (1)
- Robotersystem (1)
- Routing (1)
- SIFT-Algorithmus (1)
- SIFT-Merkmale (1)
- SIFT-Verfahren (1)
- SIMD (1)
- SPARQL (1)
- STOR (1)
- SURF-Algorithmus (1)
- Sand (1)
- Scanmatching (1)
- Schlauch (1)
- Schnee (1)
- Schnelle Faltung (1)
- Semantic Desktop (1)
- Semantic Web (1)
- Semantik (1)
- Sensor (1)
- Sensorensteuerung (1)
- Separating-Axis-Theorem (1)
- Shaderframework (1)
- Shaderhochsprache (1)
- Shaderprogramm (1)
- Shattering (1)
- Simulation (1)
- Skript (1)
- Skript <Programm> (1)
- Socket (1)
- Socket-Schnittstelle (1)
- Software Engineering (1)
- Software- Ergonomie (1)
- Spaß (1)
- Spielkonsole (1)
- Sprachverarbeitung (1)
- Sprechtherapie (1)
- Stadt (1)
- Stadtmodelle (1)
- Standortbestimmung (1)
- Stereobildfolgen (1)
- Stereografie (1)
- Stereoskopie (1)
- Sterne (1)
- Steuerung (1)
- Stilisierung (1)
- Subsurface Scattering (1)
- Szeneneditor (1)
- Tageslichtprojektor (1)
- Tanzspiel (1)
- Textur (1)
- Texturierung (1)
- Thunderbird <Programm> (1)
- Tiefenbild (1)
- Tiefenkarte (1)
- Ton (1)
- Tone Mapping (1)
- Tone-Mapping (1)
- Tone-Mapping-Verfahren (1)
- Tonemapping (1)
- Tonemapping-Verfahren (1)
- Touchscreen (1)
- Tourism (1)
- Trackingsystem (1)
- Transfer function (1)
- Transferfunktion (1)
- Transportschicht (1)
- Triangulierung (1)
- USARSim (1)
- Umgebungslicht (1)
- Ungarische Methode (1)
- Uniforme Raumunterteilung (1)
- Unterricht (1)
- User Interface (1)
- VR (1)
- VST (1)
- Verbindungsschicht (1)
- Vertex Buffer Object (1)
- Vertex Buffer Objekt (1)
- Video (1)
- Video-Installation (1)
- Videospielentwicklung (1)
- Virtuelle Menschen (1)
- Visualisierungstechniken (1)
- Visuelle Installation (1)
- Visuelle Odometrie (1)
- Volume Rendering (1)
- Volumenvisualisierung (1)
- Vorliebe (1)
- Vorwärtsmodell (1)
- Voxel (1)
- Voxelisierung (1)
- Wasseroberfläche (1)
- Weibliches Publikum (1)
- Weiterentwicklung (1)
- Wellen (1)
- Wiederhall (1)
- Wii-Balance Board (1)
- Wolkensimulation (1)
- X-Cosim (1)
- XML (1)
- XTpeer (1)
- Zerbrechen (1)
- accelerometer (1)
- android (1)
- area light (1)
- augmented reality (1)
- computer games (1)
- depth map (1)
- disparity map (1)
- dreidimensionale Computergraphik (1)
- dynamic programming (1)
- engine (1)
- flow (1)
- fur rendering (1)
- game (1)
- general purpose (1)
- geometry shader (1)
- graphics card (1)
- hybride App (1)
- image processing (1)
- indirect lighting (1)
- indirektes Licht (1)
- interactive (1)
- interactive application (1)
- interaktive Applikation (1)
- interaktiven (1)
- jump'n run game (1)
- line space (1)
- markerless tracking (1)
- medizinische Bilddaten (1)
- menschliches Auge (1)
- multidimensional transfer function (1)
- multidimensionale Transferfunktion (1)
- natural language processing (1)
- natürliche Sprache (1)
- octree texture (1)
- physics (1)
- physics simulation (1)
- polyp detection (1)
- projektives Malen (1)
- prozedural (1)
- ray casting (1)
- ray tracing (1)
- raycasting (1)
- raytracing (1)
- reflection (1)
- refraction (1)
- relativity (1)
- rigid body (1)
- rtx (1)
- sensor control (1)
- shader (1)
- snow (1)
- soft shadow (1)
- stereo vision (1)
- syntaktische Analyse (1)
- texturing (1)
- transform feedback (1)
- virtual human (1)
- visualization (1)
- volume rendering (1)
- volume visualization (1)
- volumenrendering (1)
- voxelization (1)
- vulkan (1)
- water surface (1)
- waves (1)
Institut
- Institut für Computervisualistik (282) (entfernen)
Markerloses Tracking unter Verwendung von Analyse durch Synthese auf Basis von Featuredetektoren
(2008)
In der vorliegenden Diplomarbeit wurde ein auf "Analyse durch Synthese" sowie Featuredetektoren basierendes Trackingsystem implementiert, beschrieben und getestet. Das Ziel war die Untersuchung im Hinblick auf den Mehrwert der Computergraphik in einem markerlosen Trackingablauf, indem der Ansatz der "Analyse durch Synthese" zur Poseschätzung eingesetzt wird.
In dieser Arbeit werden jeweils ein Verfahren aus den beiden Bereichen der Bildregistrierung implementiert und beschrieben. Eine direkte und eine merkmalsbasierte Methode werden verglichen und auf ihre Grenzen hin überprüft. Die implementierten Verfahren funktionieren gut und registrieren beide verschiedene Bildserien subpixelgenau. Bei der direkten Methode ist vor allem die Wahl des Transformationsmodells ausschlaggebend. Auch das Einbetten der Methode in eine Gaußpyramidenstruktur hat sich als wichtig herausgestellt. Da die merkmalsbasierte Methode aus verschiedenen Komponenten aufgebaut ist, kann jeder einzelne Schritt durch unterschiedliche Verfahren ausgetauscht werden, so z.B. die Detektion der Merkmale durch Tomasi-Kanade, SIFT oder Moravec. In der direkten Methode kann die Genauigkeit der Ergebnisse zum einen durch den gewählten Schwellwert und zum anderen durch die Anzahl der Pyramidenstufen beeinflusst werden. Bei der merkmalsbasierten Methode wiederum können unterschiedlich viele Merkmale benutzt werden, die einen unterschiedlich hohen Schwellwert besitzen können. Es wird gezeigt, dass beide Methoden zu guten Ergebnissen führen, wenn davon ausgegangen wird, dass die Verschiebung sowie die Rotation gering sind. Bei stärkeren Veränderungen jedoch wird die direkte Methode recht ungenau, während die merkmalsbasierte Methode noch gute Ergebnisse erzielt. An ihre Grenze gerät sie erst, wenn entweder der Bildinhalt sich stark ändert, oder die Rotationen einen Winkel von 20° überschreitet. Beide Verfahren arbeiten also subpixelgenau, können aber unter verschiedenen Voraussetzungen zu Ungenauigkeiten führen. Werden die jeweiligen Probleme der beiden Methoden beachtet und am besten bei der Aufnahme oder vor der Registrierung eliminiert, so können sehr gute Ergebnisse erzielt werden.
Colonoscopy is one of the best methods for screening colon cancer. As the automatic detection of polyps in endoscopic images is a challenging task for image processing, a variety of research groups have proposed methods that try to fulfill this task to develop a system which supports the doctors during examination. However, the problem is still "at least partially" not solved. This paper gives a summary of 16 different polyp detection methods published in the last ten years. We found out that the major draw-back of many approaches is the lack of representative video data, which hinders comparison and evaluation of the published methods.
Der Schwerpunkt dieser Arbeit soll auf der schnellen sowie einfachen Umsetzung eigener Ideen von AR-Anwendungen liegen. Damit ein gewisser zeitlicher Rahmen bei der Umsetzung nicht überschritten wird, wurden Lösungen, die eine große Einarbeitungszeit oder fundierte Kenntnisse einer oder mehrer Programmiersprachen erfordern, nicht genauer betrachtet. Unter einer einfachen Umsetzung ist nicht zuletzt auch zu verstehen, dass diese auch dem Kreis der nicht-professionellen Anwender möglich sein soll. Dies beinhaltet, dass das gesuchte Programm auf normalen dem durchschnittlichen derzeitigen Stand der Technik entsprechenden Computersystemen lauffähig sein sollte. Auch wurden kommerzielle Produkte außer Acht gelassen, da die oft nicht unerheblichen Kosten einer nicht-professionellen Nutzung im Wege stehen.
In der vorliegenden Studienarbeit wird eine OpenGL-Applikation vorgestellt, die Geometrie-Shader in einem Feedback-Loop einsetzt, um auf der GPU Geometrie zu erzeugen. Dargelegt werden die erforderlichen Grundlagen Geometrie-Shader und Transform Feedback betreffend, die Umsetzung der Anwendung und die eingesetzten GLSL-Shader.
Die vorliegende Bachelorarbeit thematisiert eine durch die Eye-Tracking-Technologie gestützte Untersuchung mit dem E-Lern System Compass. Die Untersuchung fand in Form eines Experimentes statt, welches bei den Probanden die Fähigkeit der Erkennung der Subjekt- Verb-Kongruenz in deutschen Sätzen testen sollte. Ideengebend zu der Versuchskonstellation war eine ähnliche Studie im englisch sprachigen Raum.
Die Einbindung des E-Learning System Compass bezweckte dabei die Beobachtung des Lernverhaltens der Testpersonen. Ausgewertet und bewertet werden konnten die Versuchsreihen durch die Eye-Tracker Software, der während des Versuchs die Augenbewegungen der Testpersonen auf den gezeigten und erstellten Sätzen aufzeichnete und daraus messbare Daten erzeugte. Augenbewegungen wie Fixationen oder Regressionen auf bestimmte Stimuli wurden dabei erwartet und auch gehofft zu messen.
Das Ergebnis der Ausführungen zeigt eindeutig, dass Fehler in der Kongruenz zwischen Subjekt und Verb häufig gemacht werden und die Fehlerrate in Verbindung zur Satzlänge proportional ansteigt.
In dieser Arbeit werden mehrere Verfahren zur Superresolution, die zwei unterschiedlichen Ansätzen zuzuordnen sind, implementiert und miteinander verglichen. IBP, ein Verfahren, welches der Tomographie ähnelt, stellt den klassischen Ansatz der Superresolution dar. Das Prinzip von IBP ist leicht verständlich und relativ einfach zu implementieren, hat aber den Nachteil, keine eindeutigen Lösungen zu produzieren, da es schwer ist, Vorwissen mit einfließen zu lassen. Bei den statistischen Verfahren erweist es sich als äußerst zeitkritisch, die Systemmatrix M vorzuberechnen. Capel und Zisserman haben beim Maximum-Likelihood-Verfahren eine starke Rauschanfälligkeit festgestellt. Der Vergleich ergibt, dass IBP in punkto Bildqualität Maßstäbe setzt, zumindest bei kaum verrauschten Eingangsbildern und guter Registrierung. Allerdings stellen viele Eingangsbilder wegen des linearen Laufzeitverhaltens ein Problem dar. Die statistischen Verfahren liefern bei stark verrauschten Eingangsbildern bessere Ergebnisse als IBP. Durch viele Eingangsbilder lassen sich diese noch weiter verbessern. Die bei vorberechneten Systemmatrizen nahezu konstante Laufzeit und ihre Robustheit bei Rauschen prädestinieren die statistischen Verfahren für solche Bildserien. Ungenau registrierte Eingangsbilder wiederum führen bei allen Verfahren zu unscharfen Ergebnissen.
Ziel dieser Diplomarbeit ist es, katadioptrische Stereosysteme aufzubauen und zu testen. Hierfür gilt es, die Komponenten auszuwählen und zu beschaffen. Es soll ein System mit einem Planspiegel und eines mit einem gekrümmten Spiegel aufgebaut werden. Die Vorgehensweise in beiden Fällen unterscheidet sich jedoch deutlich voneinander. Das Planspiegel-System wird unter den Vorraussetzungen angefertigt, dass es möglichst kostengünstig ist und bietet sich vor allem deshalb für eine solches Vorgehen an, da es mit handelsüblichen Komponenten realisierbar ist. Die Verwendung dieser Komponenten bringt allerdings Einschränkungen in der Bildqualität mit sich. Hinzu kommt noch die Tatsache, dass es sich um eine Computational Camera mit geringer Komplexität handelt, da es direkt rektifizierte Ergebnisse liefert und aufgrund dessen leicht zu implementieren ist. Diese Kombination von Eigenschaften macht es zu einem geeigneten Kandidaten für eine solche Herangehensweise. Das radiale System wird hingegen unter der Prämisse maximaler Qualität gebaut. Der verwendete Spiegel ist eine Einzelanfertigung und zusätzlich wird ein zirkuläres Fisheye-Objektiv benötigt, was die Kosten für ein solches System relativ hoch werden lässt. Des Weiteren ist die Dekodierung der Rohaufnahmen deutlich komplexer, als bei den bereits rektifizierten Aufnahmen des Planspiegel-Systems. Nach erfolgreichem Aufbau der beiden Gesamtsysteme sollen diese unter qualitativen Aspekten miteinander verglichen werden.
Ist es möglich, allein mittels VR-Headset bei Nutzern Immersion zu
erzeugen? Zur Beantwortung dieser Frage werden zwei Simulationen einer
Achterbahnfahrt ohne haptisches Feedback mittels der Unreal Engine
4.20.3 für ein HTC-Vive VR Headset entwickelt und implementiert. Die
zweite Simulation unterscheidet sich von der ersten durch die Darbietung
außergewöhnlicher Ereignisse während der Fahrt, für die vermutet wird,
dass sie das Immersionserleben verstärken. Elf Probanden nahmen an der
Untersuchung teil. Die Auswertung eines Fragebogens zur Erfassung der
Intensität der Immersion und der Antworten auf offenen Fragen zeigt, dass
Immersion in beiden Simulation erfolgreich erzeugt werden konnte. Manche
Merkmale der Simulation vertieften bei einzelnen Probanden das immersive
Erleben, bei anderen dagegen nicht. Die Bedeutung der Ergebnisse
und Optimierungsmöglichkeiten für künftige Studien werden diskutiert.
Die Studienarbeit analysiert mit Hilfe einer erweiterten Balancetheorie die Relationen des Roboters zu den Personen im Kamerabild und den Personen untereinander. Es wurde gezeigt, dass die Abstraktion der Balancetheorie auf eine konkrete Anwendung übertragen werden kann. Allerdings muss die Theorie erweitert und teilweise eingeschränkt werden, um sie flexibler, aber gleichzeitig passend zur Anwendung zu gestalten. Dadurch wird die theoretische Grundlage, auf der die Arbeit beruht, ebenfalls verändert. Damit diese Modifikationen nicht den Rahmen der psychologischen Grundlage verlassen, müssen sie wiederum mit psychologischen Mitteln untersucht werden. Das würde allerdings den Umfang dieser Arbeit überschreiten, aber bietet ein Ansatz für eine interdisziplinäre Zusammenarbeit der Psychologie und Robotik. Die Interaktion und das Verhalten der Maschinen nach menschlicher Vorlage zu gestalten, ist für beide Disziplinen von Interesse. Im Kontext der Entwicklung einer ausreichenden Interaktion zwischen der Maschine und dem Menschen, wäre es interessant zu erforschen, welche sozialen Merkmale detektiert werden müssten, zum Beispiel im Spektrum der Mimik. Darüberhinaus ermöglicht die Recognize-Pipeline ein Ansatz, die Interaktion über das Kamerabild hinaus zu verfolgen. Dadurch kann der Roboter das Gesicht mit vergangenen Interaktionen assoziieren und dem entsprechend agieren. Allerdings bedarf die Pipeline-Struktur weiterer Arbeit. So werden bestehende Datenbanken über ein Gesicht nicht mit neuen Bildern erweitert, so fern sie notwendig sind. Auch kann keine automatische Korrektur erfolgen, falls fehlerhafte Informationen in die Datenbank gelangen. So kann es vorkommen, dass das selbe Gesicht zwei unterschiedliche IDs erhält, wenn das Gesicht nicht wiedererkannt wird. Auch können sehr ähnliche Gesichter zusammenfallen zu einer ID. Solche Fehler müssten für eine stabile Anwendung selbständig korrigierbar sein.
In der vorliegenden Arbeit wird dem Leser aufgezeigt, welche Methoden zur Kurvenskelettierung von 3D-Modellen existieren und welche Ansätze bei bisherigen Forschungsergebnissen von Skelettierungsmethoden in der Bildverarbeitung verfolgt werden. Der Autor geht im weiteren Verlauf auf einen aktuellen Kurvenskelettierungsansatz ein. Die Implementierung dieses Ansatzes wird detailliert analysiert und ein algorithmisches Verfahren entwickelt, um die Kurvenskelette der analysierten Methode hin zu 3D-Skeletten einer eigenen Kurvenskelettdefinition zu modifizieren, mit der es möglich ist, Merkmalsvektoren für Ähnlichkeitsvergleiche zwischen 3D-Objekten zu berechnen. Es wird eine Ground Truth durch menschliche Ähnlichkeitsbestimmung gebildet. Des Weiteren wird auf Grundlage der modifizierten Skelette eine Ähnlichkeitsberechnung durchgeführt. Danach wird die menschliche Ähnlichkeitsbestimmung der algorithmisch berechneten Ähnlichkeitsberechnung gegenüber gestellt und nach bekannten Verfahren aus dem Information Retrieval ausgewertet.
In keinem Bereich der Informatik hat sich die Hardware so rasant entwickelt,
wie im Bereich der Computergraphik. Dabei bietet die GPU, neben
der reinen Darstellung von Dreiecken, inzwischen auch eine Reihe weiterer
Pipeline-Schritte, die auch die Darstellung von anderen graphischen
Objekten, wie zum Beispiel den Freiformflächen, ermöglicht.
Diese Arbeit beschäftigt sich mit dem Rendering von Freiformflächen,
insbesondere dem der Bézierflächen. Dafür wurde für das Rendering Framework
der Universität Koblenz (CVK) eine entsprechende Implementierung
zur Verwaltung und Darstellung von Bézierflächen erstellt. Dazu wurde
zunächst die Triangulation und schließlich die Tessellierung der Bézierflächen
mit Normalen und Texturkoordinaten, sowie die Behandlung von
Trimmkurven erstellt.
Die Animation von Modellen ist zu einem wichtigen Teil in den unterschiedlichsten und alltäglichen Bereichen unseres Lebens geworden. Es ist eine anspruchsvolle Aufgabe der Computergrafik eine natürliche Deformation von organischen Modellen zu generieren. Skinning ist eine übliche Methode um Modelle zu animieren ohne die Animation jedes Vertices. Die Oberfläche des Modells wird automatisch durch die Manipulation einzelner Knochen eines Skeletts deformiert.
Diese Bachelorarbeit befasst sich mit dem meist genutzen Algorithmus,dem Linear Blend Skinning Algorithmus, der bezüglich des visuellen Eindrucks und der Performanz optimiert werden soll. Zusätzlich werden Instancing Methoden vorgestellt und in der Anwendung mit Skinning Methoden kombiniert um deren Vor- und Nachteile aufzuzeigen.
In dieser Bachelorarbeit wird ein System zur Simulation der Bewegung von Molekülen entworfen. Die Berechnungen der Kräfte zwischen chemisch gebundenen Atomen sowie zwischenmolekularer Kräfte werden fast vollständig auf der GPU durchgeführt. Die Visualisation der Simulation findet in einer interaktiven Bildwiederholrate statt. Um eine Darstellung in Echtzeit auf den meisten handelsüblichen Grafikkarten zur ermöglichen, sind geschickte Optimierungen und leichte Abstraktionen der physikalischen Modelle notwendig. Zu jeder Zeit kann die Ausführungsgeschwindigkeit der Simulation verändert oder vollständig gestoppt werden. Außerdem lassen sich einige Parameter der zugrundeliegenden physikalischen Modelle der Simulation zur Laufzeit verändern. Mit den richtigen Einstellung der Parametern lassen sich bestimmte Phänomene der Molekulardynamik, wie zum Beispiel die räumliche Struktur der Moleküle, beobachten.
Bruchsimulation
(2014)
Aufgrund ihrer Komplexität wird die Simulation von Brüchen in echtzeitfähigen Anwendungen der Computergraphik häufig gemieden. Durch Methoden aus den Ingenieurswissenschaften können Simulationen geschaffen werden, die Spiele und andere Anwendungen enorm bereichern. Stetig steigende Rechnerleistungen ermöglichen entsprechende Simulationen in Echtzeit und machen diesen Aspekt zunehmend interessanter.
Das Ziel dieser Arbeit ist die Modellierung von Brüchen starrer Körper durch eine Simulation. Der Fokus richtet sich dabei auf die physikalische Plausibilität und Performanz der Anwendung. Durch diese Ausarbeitung soll beantwortet werden, inwiefern eine Simulation von Brüchen mit Mitteln der Computergraphik umgesetzt werden kann.
Es wurden drei bestehende Ansätze und eine eigene Entwicklung implementiert und analysiert. Dieser Arbeit liegen die Verfahren "Real-Time Simulation of Deformation and Fracture of Stiff Materials" von Müller et al., "Real-Time Simulation of Brittle Fracture using Modal Analysis" von Glondu et al. und "Fast and Controllable Simulation of the Shattering of Brittle Objects" von Smith et al. zugrunde. Die vorgestellten Methoden führen voneinander abweichende Bruchbildungen durch. Das eigenständig entwickelte Verfahren baut auf deren Vorzügen auf und erweitert sie mit der Idee der sekundären Risse. Die Implementierung der vier Ansätze erfolgte in der Physik-Engine Bullet.
Die Ergebnisse der Arbeit zeigen, dass physikalisch basierte Brüche in Echtzeit realisierbar sind. Die Untersuchung der physikalischen Methoden auf Performanz zeigte, dass diese vor allem mit der Struktur der Objekte zusammenhängen. Die präsentierten Methoden lieferten für eine Auswahl an Objekten physikalisch plausible Ergebnisse in Echtzeit. Durch die Ausarbeitung wird deutlich, dass die weitere Erforschung der Thematik neue Möglichkeiten aufdecken kann. Die Verbesserung des Realismus in echtzeitfähigen, virtuellen Welten kann mit dem Einsatz von physikalisch plausiblen Methoden erreicht werden.
Seit 2005 beschäftige ich mich im Rahmen der Künstlergruppe "Farbraum" mit visuellen Installationen und live Video Performaces auf kulturellen Events. Dafür haben wir einzelne Video-Performance Applikationen entwickelt, die die Probleme einzelner Projekte lösen.Was uns bisher noch nicht gelang ist a) eine modulare Softwarearchitektur zu entwickeln und b) ein Werkzeug zur Entzerrung ebener Flächen, die nicht rechtwinklig projiziert werden, zu erstellen (unter der Annahme, dass Projektoren verwendet werden). Diese Arbeit beschreibt die Lösung des ersten Problems durch die Entwicklung eines modularen Frameworks und des zweiten Problems durch die Implementation eines benutzerfreundlichen Moduls zur Entzerrung von ebenen Flächen. Die Entzerrung findet komplett manuell statt, indem der Benutzer die Koordinaten der Flächeneckpunkte durch das Ziehen der Punkte mit der Maus verändert. Dabei werden die xund y-Werte der Eckpunkte verändert, der z-Wert bleibt konstant. Während auf diese Weise die 3D-Interaktion mittels eines 2D-Eingabegeräts verhindert wird, führt die ausschließlich zweidimensionale Transofrmation der Flächen zu unerwünschten Textur-Mapping Artifakten, die durch das Triangulierungs-basierte Rendern von Grafikkarten entstehen. Um diese Artifakte zu vermeiden, wird ein Verfahren names "adaptive Subdivision" vorgestellt, das die entsandenen Rendering-Fehler korrigiert.
Das Ziel der vorliegenden Bachelorarbeit war die Untersuchung
verschiedener Methoden zur Ermittlung und Verbesserung der User
Experience eines Softwareproduktes einer mittelständigen Firma. Hierzu
wurde zunächst ein geeignetes Designkonzept und dazu passende Methoden
der Evaluation und des Testings ermittelt und dann auf das Produkt
angewendet. Mit dem Leitgedanken des User-Centered-Designs wurden
Methoden ausgewählt, welche die Nutzerinnen/Nutzer ins Zentrum der
Untersuchung stellten.
So konnte mit Hilfe der Nutzerinnen/Nutzer des Produktes
herausgefunden werden, wie die User-Experience ausfällt und wie diese
noch verbessert werden kann. In einer Fokusgruppe sind Prototypen für
die Verbesserung und Weiterentwicklung der Software entstanden.
Diese Bachelorarbeit ist sowohl für Sofwaredesignerinnen/-designer,
als auch für Studentinnen/Studenten der Mensch-Maschine-Kommunikation
interessant.