Filtern
Dokumenttyp
- Diplomarbeit (81) (entfernen)
Schlagworte
- Bildverarbeitung (4)
- Analyse durch Synthese (3)
- Augmented Reality (3)
- Markerloses Tracking (3)
- Modellbasiertes Tracking (3)
- Volumendaten (3)
- Computergrafik (2)
- Computerspiel (2)
- Frau (2)
- Kamera (2)
- Navigation (2)
- Objektverfolgung (2)
- Schatten (2)
- Segmentierung (2)
- Selbstlokalisation (2)
- Shader (2)
- Textur-Mapping (2)
- Tracking (2)
- VOXEL (2)
- Virtuelle Realität (2)
- Whiteboard (2)
- Zielverfolgung (2)
- 2-D (1)
- 3-D-Modelle (1)
- 3D (1)
- 3D Painting (1)
- 3D-Abbildungen (1)
- Adobe Flex (1)
- Ambient Occlusion (1)
- Angiographiebilder (1)
- Animationsverfahren (1)
- Anzeige (1)
- Augenblick-SDK (1)
- Augmented Reality Szenario (1)
- Avatar (1)
- Avatare (1)
- Axis Aligned Bounding Box (AABB) (1)
- Beleuchtungsverfahren (1)
- Benutzerorientierung (1)
- Benutzerprofil (1)
- Benutzerschnittstelle (1)
- Besuchersoftware (1)
- Bewegungsmodell (1)
- Bild (1)
- Bildanalyse-Verfahren (1)
- Bildregistrierung (1)
- Bildsensor (1)
- Bordinstrument (1)
- Bounding Volume Hierarchie (1)
- Business Intelligence (1)
- CAD (1)
- CSMs (1)
- CT-Datensätze (1)
- Casual Game (1)
- Casual Games (1)
- Charakter-Objekt-Interaktion (1)
- Charakteranimation (1)
- Communication System (1)
- Computer-aided diagnosis (1)
- Computeranimation (1)
- Computergraphik (1)
- Computerspiele (1)
- Computertomographie (1)
- DIN EN ISO 9241 (1)
- Datenanalyse (1)
- Designwerkzeug (1)
- Digital Storytelling (1)
- Displacement Mapping (1)
- Display (1)
- Dreidimensionale Visualisierung (1)
- Dreidimensionales Modell (1)
- E-Learning (1)
- EEG (1)
- Echtzeit-Raytracer "Augenblick" (1)
- Echtzeitfähigkeit (1)
- Elektroencephalographie (1)
- Erweiterte Realität (1)
- Erweiterte Realität <Informatik> (1)
- Evaluation (1)
- FPIC (1)
- Facebook Application (1)
- Fachinformationssysteme (1)
- Fernsehtechnik (1)
- Flugkörper (1)
- Fluiddynamik (1)
- Framework (1)
- Frei Programmierbares Kombinationsinstrument (1)
- Funktionelle NMR-Tomographie (1)
- GPGPU (1)
- GPGPU-Programmierung (1)
- GPU (1)
- Gebäudemodelle (1)
- Gefühl (1)
- Geodaten (1)
- Geometry (1)
- Geometry-Shader (1)
- Gittererzeugung (1)
- Globale Beleuchtung (1)
- Grafikkarte (1)
- Grafikprozessor (1)
- Grails (1)
- Grails 1.2 (1)
- Graphikhardware (1)
- HDR-Bilder (1)
- HDR-Kamera (1)
- Haptik (1)
- Herzerkrankungen (1)
- High dynamic Range (1)
- Hochgeschwindigkeitstracking (1)
- Human motion (1)
- IK-Algorithmus (1)
- Information Retrieval (1)
- Informationsvisualisierung (1)
- Inpainting-Verfahren (1)
- Interaktion (1)
- Interaktives Whiteboard (1)
- Inverse Kinematik (1)
- Inverses Modell (1)
- J2ME (1)
- JGraph (1)
- KD-Bäume und Binary-Space-Partitioning-Bäume (1)
- Kalibrieren <Messtechnik> (1)
- Kalibrierung (1)
- Katadioptrisches Stereosystem (1)
- Kohärenzanalyse (1)
- Landschaftsgestaltung (1)
- Landschaftsmodell (1)
- Laserscanner (1)
- Lernen (1)
- Lichttransport (1)
- Linienkorrelationen (1)
- Lokale Bildmerkmale (1)
- Malen (1)
- Mammographie (1)
- Matchingverfahren (1)
- Medizintechnik (1)
- Mensch-Maschine-Schnittstelle (1)
- Merkmalsbewertung (1)
- Mikroskopie (1)
- Mobile Kommunikation (1)
- Mobiles Informatinssystem (1)
- Modellieren (1)
- Motion Capturing (1)
- Multivariate Datenanalyse (1)
- Mustererkennung (1)
- Myokard (1)
- NURBS (1)
- Netzhaut (1)
- Netzwerkmanagement (1)
- Netzwerkmonitoring (1)
- Netzwerktechnik (1)
- Nintendo Wii Fernbedienung (1)
- Oberflächenorientierung (1)
- Oberflächenstruktur (1)
- Objektentfernung (1)
- Octree Textur (1)
- Oktalbaum (1)
- Oktonärbäume (1)
- Optisches Mikroskop (1)
- PACS- Picture Archiving (1)
- Planspiegel-System (1)
- Point Rendering (1)
- Pollenanalyse (1)
- Posebestimmung (1)
- Poseschätzung (1)
- Positionsbestimmung (1)
- Präsentation (1)
- Punktkorrelationen (1)
- RIP-MTI (1)
- RIP-XT (1)
- RMTI (1)
- Radiales System (1)
- Ray Tracing (1)
- Ray tracing (1)
- Raytracing (1)
- Realistisches Kameramodell (1)
- Registrierung <Bildverarbeitung> (1)
- Rendering (1)
- Retinex-Algorithmus (1)
- Rich Internet Application (1)
- Robotik (1)
- Routing (1)
- SIFT-Algorithmus (1)
- SIFT-Merkmale (1)
- SIMD (1)
- STOR (1)
- SURF-Algorithmus (1)
- Separating-Axis-Theorem (1)
- Shaderframework (1)
- Shaderprogramm (1)
- Social Games (1)
- Software- Ergonomie (1)
- Sprachverarbeitung (1)
- Stadtmodelle (1)
- Standortbestimmung (1)
- Starrkörper (1)
- Stereobildfolgen (1)
- Stilisierung (1)
- Subsurface Scattering (1)
- Textur (1)
- Texturierung (1)
- Tone-Mapping (1)
- Tone-Mapping-Verfahren (1)
- Tourismus (1)
- Tracking-System (1)
- Trackingsystem (1)
- Transform Feedback (1)
- Triangulierung (1)
- Umgebungslicht (1)
- Ungarische Methode (1)
- Uniforme Raumunterteilung (1)
- Unterwasser-Pipeline (1)
- Unterwasserfahrzeug (1)
- Unterwasserkabel (1)
- User Interface (1)
- Vertex Buffer Object (1)
- Vertex Buffer Objekt (1)
- Virtual characters (1)
- Virtuelle Menschen (1)
- Visuelle Odometrie (1)
- Vocabulary Trainer (1)
- Volume Hatching (1)
- Volumen (1)
- Volumenrendering (1)
- Vorliebe (1)
- Vorwärtsmodell (1)
- Voxel (1)
- Weibliches Publikum (1)
- Wiimote (1)
- Wolkensimulation (1)
- XTpeer (1)
- augmented reality (1)
- markerless tracking (1)
- natural language processing (1)
- natürliche Sprache (1)
- octree texture (1)
- projektives Malen (1)
- syntaktische Analyse (1)
- texturing (1)
- virtual human (1)
Institut
- Institut für Computervisualistik (81) (entfernen)
Dass Jugendliche lieber Computerspiele nutzen, als Hausaufgaben zu machen oder zu lernen, ist sicherlich allen Lehrern und Lehrerinnen bewusst. Ein Ansatz zur Lösung diese Problems besteht darin, Lernen und Computerspiele miteinander zu verbinden. Zur Zeit wird in der Wissenschaft über Game-based-Learning und Gamification eifrig diskutiert. Was die einzelnen Begriffe bedeuten, soll diese Arbeit beleuchten. Sie fokussiert hierbei jedoch auf den Bereich der Gamification. In diesem Bereich geht es nicht darum, vermeintlich langweiligen Lehrinhalten eine Spielstruktur überzustülpen oder an erfolgreich gemeisterte Übungsaufgaben als Belohnung ein Spiel zu bieten, das mit dem Lehrinhalt nichts zu tun hat. Stattdessen geht es darum, Elemente aus Spielen zu Motivationszwecken in Lernumgebungen einzusetzen. Das Sprachlernen kann im Besonderen von den Möglichkeiten des computergestützten Lernens profitieren.
Über Online-Lernumgebungen können Sprachlernende mit anderen in Kontakt treten und sich austauschen. Bestimmte Spielelemente können Lernende in eine ungezwungene Wettkampfsituation bringen, in der sie sich spielerisch messen können.
Im Rahmen dieser Diplomarbeit wird ein Prototyp entwickelt, der Elemente aus Spielen in eine Lernapplikation für das Thema „Deutsch als Fremdsprache“ einbindet. Im Prototyp soll dargestellt werden, welche Möglichkeiten den Lehrenden offenstehen, ihre Lerner und Lernerinnen zu motivieren. In einem Nutzungstest wird der Prototyp evaluiert. Die so erhobenen Daten werden ausgewertet und Verbesserungsvorschläge gemacht. Ein Fazit fasst die erkannten Vorzüge und Mängel des Prototyps sowie die erarbeiteten Verbesserungsvorschläge zusammen. Zu guter Letzt wird ein Ausblick auf weitere erforderliche Arbeitsschritte gegeben.
Das Ergebnis der Arbeit beinhaltet, dass der Prototyp zwar gute Ansätze enthält und erfolgreich getestet werden konnte, aber in wesentlichen Teilen noch Verbesserungsbedarf besteht. Weiterhin müssen Evaluationsmethoden entwickelt werden, die spieltypische Eigenheiten beachten.
Ray Tracing als Bildsyntheseverfahren ist relevant für viele Anwendungsbereiche, da es Aspekte des Lichttransports physikalisch korrekt simulieren kann. Aufgrund des hohen Berechnungsaufwands sind der Einsatz von Datenstrukturen zur Beschleunigung und die parallele Verarbeitung notwendig. GPUs sind inzwischen hoch parallele, programmierbare Prozessoren mit zahlreichen Kernen und eignen sich aufgrund ihrer hohen Leistungsfähigkeit dazu, aufwändige, parallelisierbare Probleme zu lösen. In dieser Arbeit geht es um GPU Ray Tracing, beschleunigt durch Bounding Volume Hierarchien (BVH). Auf Basis relevanter Veröffentlichungen zu Aufbau und Traversierung von BVHs und der Abbildung des Ray Tracing Prozesses auf die GPU Architektur wird ein GPU Ray Tracer konzeptioniert und entwickelt. Während der BVH Aufbau vorab auf dem Host stattfindet, wird der gesamte Ray Tracing Prozess durch mehrere Kernel komplett auf der GPU ausgeführt. Die Implementierung der Kernel erfolgt in Form von OpenGL Compute Shader Programmen, und die Aufteilung des Ray Tracers auf mehrere Kernel ist durch die GPU Achitektur und das SIMT Ausführungsmodell motiviert. Für die Speicherorganisation der binären BVHs werden zwei Varianten betrachtet, klassisch und als MBVH, wobei sich die MBVH Organisation als effizienter erweist. Zudem werden verschiedene Varianten für die Traversierung ohne Stack und für die Stack-basierte Traversierung umgesetzt und bewertet. Der in mehrere Kernel strukturierte GPU Ray Tracer wird zudem mit einer Einzelkernel Version verglichen. Die besten Ergebnisse erreicht die Traversierung ohne Stack mit einem while-while Ablauf und MBVH im Rahmen des aufgeteilten GPU Ray Tracers.
In einer Welt, in der mittlerweile "Die Cloud" als Lösung für nahezu alles angepriesen wird, stellt sich immer häufiger die Frage, ob man seine persönlichen Daten einem Fremden anvertrauen möchte, oder sie doch lieber unter der eigenen Kontrolle behält. Für die Befürworter der letzten Option steht "ownCloud" als freies Softwarepaket zur Verfügung, um eine eigene Cloud aufzusetzen und ihre Inhalte mit Anderen zu teilen.
Um das Teilen von Lernwerkzeugen zu vereinheitlichen und damit zu vereinfachen, wurde von IMS GLOBAL die "Learning Tools Interoperability" Spezifikation - kurz LTI - entwickelt. Diese wird inzwischen von einer zunehmenden Anzahl von Lernmanagementsystemen und Lernressourcen unterstützt. Eine interessante Herausforderung ist daher, zu untersuchen, ob und wie man ownCloud mit verschiedenen bestehenden Lernwerkzeugen mittels LTI verbinden und daraus Nutzen ziehen kann.
Ziel dieser Arbeit ist es, ein Plugin für ownCloud zu konzeptionieren und zu entwickeln, das die Kommunikation mit Lernwerkzeugen per LTI
ermöglicht. Dabei soll sowohl die Consumer- als auch die Providerseite mit einem Proof of Concept berücksichtigt werden, um jeweils die Möglichkeiten und Grenzen dieser Verbindungen zu untersuchen.
Das Hauptaugenmerk dieser Arbeit, liegt auf einer softwareergonomisch empfehlenswerten Integration eines Serach Term Recommender Moduls (STR) mithilfe von Usability-Tests und dem gezielten Blick auf den State of the Art des Interaktionsdesigns bei Retrieval-Mehrwertdiensten. Daniela Holl (Holl, 2009) hat in ihrer Diplomarbeit ein Search Term Recommender Modulprototyp unter der Verwendung der Software MindServer entwickelt und die Vorzüge eines Search Term Recommenders in Bezug auf die Behandlung der verbleibenden Vagheit zwischen Benutzer und kontrolliertem Vokabular erläutert. Nach Entwicklung eines lauffähigen Prototyps führte sie eine empirische Studie zu den gelieferten Ergebnissen bzw. der Qualität der zurückgegeben Ergebnisse durch. Somit wurde zu einem Großteil eine korrekte Funktionalität dieses Prototyps gewährleistet.rnSinn und Zweck des Search Term Recommenders ist es, dem Benutzer nur die Terme vorzuschlagen, welche nicht bereits durch Termtransformationen des Heterogenitätsservices behandelt wurden. Vorallem aber steht die Unterstützung der gezielten Suche nach bestimmten Daten zur Befriedigung des Informationsbedürfnisses im Mittelpunkt. Dabei gilt es den Benutzer sowohl in seiner Suchanfrageformulierung visuell, als auch beim Herausfiltern, der für ihn relevanten Ergebnisse in der Trefferanzeige zu unterstützen.rnDa bislang lediglich maschinelle und interne Daten zum Testabgleich verwendet wurden, liegt die Priorität dieser Arbeit auf der Untersuchung von Dialoggestaltung bzw. der Benutzerinteraktion mit dem Search Term Recommender. Schwerpunkt war eine umfassende Evaluation von Designprototypen und (Papier)-Mockups, mittels Methoden des Usability-Engineering direkt am Benutzer selbst. Dies hinsichtlich Machbarkeit und Gebrauchstauglichkeit des Search Term Recommenders.
This paper introduces Vocville, a causal online game for learning vocabularies. I am creating this application for my master thesis of my career as a "Computervisualist" (computer visions) for the University of Koblenz - Landau. The application is an online browser game based on the idea of the really successful Facebook game FarmVille. The application is seperated in two parts; a Grails application manages a database which holds the game objects like vocabulary, a Flex/Flash application generates the actual game by using these data. The user can create his own home with everything in it. For creating things, the user has to give the correct translation of the object he wants to create several times. After every query he has to wait a certain amount of time to be queried again. When the correct answer is given sufficient times, the object is builded. After building one object the user is allowed to build others. After building enough objects in one area (i.e. a room, a street etc.) the user can activate other areas by translating all the vocabularies of the previous area. Users can also interact with other users by adding them as neighbors and then visiting their homes or sending them gifts, for which they have to fill in the correct word in a given sentence.
Ziel dieser Arbeit ist es, Techniken zu zeigen, die es ermöglichen in der heutigen Zeit ohne besonderen Mehraufwand große und authentische Spielewelten zu schaffen. Nicht nur das räumliche Ausmaß der Welt soll ohne zusätzlichen Aufwand wachsen, sondern auch der Abwechslungsreichtum und somit Wiederspielwert soll ansteigen. All dies soll am Szenario einer futuristischen Großstadt gezeigt werden. Bereits die US-amerikanische Spielefirma Blizzard Entertainment Incorporated hat mit der Spielereihe Diablo gezeigt, dass es möglich ist, authentische Welten aus einem kleinen Vorrat von Bausteinen zu erzeugen, so dass diese Welten qualitativ hochwertig sind und einen enormen Wiederspielwert besitzen.
In dieser Diplomarbeit wurde eine Echtzeitanwendung entwickelt, die Gras darstellt und zugleich äußere Einflüsse wie Wind oder Kollisionen auf das Gras berücksichtigt. Ein Level-of-Detail-System ermöglicht die Darstellung und Physiksimulation einer großen Wiese in drei Stufen. Semi-transparente Texturquads zur Darstellung und Partikel mit Constraints an der Stelle der Graspatches stellen die feinste Detailstufe in allernächster Nähe zum Betrachter dar. Die Partikel, die nur auf der feinsten Detailstufe verwendet werden, werden mittels einer Physik-Engine berechnet und reagieren auf verschiedene Starrkörper. Die zweite Detailstufe besteht ebenfalls aus Texturquads, die um das erste Detaillevel herum generiert werden. Diese sind jedoch spärlicher verteilt, sehen auf Grund der Distanz zum Betrachter allerdings identisch mit denen aus der ersten Stufe aus. Als letzte Repräsentationsform von Gras kommt eine einfache Bodentextur zur Anwendung. Durch dieses Level-of-Detail-System ist es möglich eine unendlich große Wiese zu simulieren, da die Gräser zur Laufzeit generiert werden. Ein umfangreiches Benutzerinterface ermöglicht die Veränderung einiger Simulationsparameter in Echtzeit und die Generierung verschieden großer Rasenflächen. Zusätzlich lassen sich verschiedene Objekte in der Simulationsumgebung bewegen um die Kollisionsbehandlung testen zu können.
Für die realistische Betrachtung einer virtuellen Szene spielt neben der direkten Beleuchtung auch die Ausbreitung des indirekten Lichtes eine wichtige Rolle. Die Berechnung der indirekten Beleuchtung benötigt grundsätzlich Informationen über die gesamte Szene, nicht nur über den für die Kamera sichtbaren Ausschnitt, der in bildraumbasierten Techniken zum Einsatz kommt. Mittels Voxelisierung kann die Szene in eine dreidimensionale, diskrete und GPU-freundliche Repräsentation überführt werden. In dieser Arbeit werden Voxelrepräsentationen hinsichtlich ihrer Eignung für den globalen Lichtaustausch in dynamischen und großen Szenen untersucht. Nach einer Einführung und einem Literaturüberblick über existierende Voxelisierungs- und Beleuchtungsverfahren, die Voxel als Grundlage nutzen, wird ein Voxelisierungsverfahren entwickelt, das sich für Szenen mit dynamischen Objekten eignet. Auf der Grundlage des Strahlenschnitt-Tests mit binärer Voxelhierarchie werden dann zwei Beleuchtungsalgorithmen umgesetzt, implementiert und evaluiert: Monte-Carlo-Integration der Hemisphäre eines Szenenpunktes und Beleuchtung der Szenenpunkte mit virtuellen Punktlichtquellen.
Im Rahmen dieser Diplomarbeit wird ein Verfahren zur markerlosen Pose-Rekonstruktion vorgestellt. Die Modellierung des menschlichen Körpers geschieht auf Basis der Starrkörperphysik. Mittels eines probabilistischen Ansatzes wird das Modell in eine volumetrische Rekonstruktion der Szene eingepasst. Die hierfür zu bewältigende Suche in hochdimensionalen Zustandsräumen wird mittels eines Partikelfilters in Kombination mit Simulierter Abkühlung vorgenommen. Eine Berücksichtigung anthropometrischer Besonderheiten sowie kinematischer Grenzen wird zur weiteren Stützung des Verfahrens vorgenommen. Die vollständig Umsetzung des Verfahrens durch dreidimensionale Beobachtungs- und Messmodelle führt zu einer exakten Poserekonstruktion und vermeidet Mehrdeutigkeiten während der Auswertung.
Die Entwicklung von Benutzerschnittstellen hat sich mit den fortschreitenden technischen Möglichkeiten ebenfalls weiter entwickelt. Neben den klassischen User Interfaces, die den Anwender bei der Aufgabenbewältigung unterstützen sollen, entwickeln sich intensiv erlebbare User Interfaces bei denen die Bedienung als intuitiv wahrgenommen wird. Doch was bedeutet Intuitivität in Bezug auf eine Mensch-Maschine-Schnittstelle? Die vorliegende Diplomarbeit beschäftigt sich mit dieser Thematik. Es werden Theorien und Modelle betrachtet, die versuchen intuitive Benutzbarkeit zu erklären. Anschließend werden zwei Konzepte aus der Software-Ergonomie herausgegriffen und in abgewandelter Form in zwei Prototypen umgesetzt. Hierfür wird ein Fernglasgehäuse in ein Eingabegerät für eine Stereoleinwand umgebaut. In der anschließenden Evaluation wird untersucht, welcher der Prototypen als intuitiver und attraktiver wahrgenommen wird. Hierfür werden beide hinsichtlich der Kriterien für intuitive Benutzbarkeit untersucht, welche zuvor aus den Modellen und Theorien herausgefiltert wurden.
Orientierung aus Silhouetten
(2010)
Anhand der sogenannten "Analyse durch Synthese" soll in der folgenden Qualifikationsarbeit versucht werden, zum Zeitpunkt einer Aufnahme auf dem Campus der Universität Koblenz die Orientierung der Kamera zu bestimmen. Die Lösungsidee für diese Problemstellung liegt in Form eines merkmalsbasierten Ansatzes vor. Zu diesem Zweck ist die grobe Position im 3D-Campusmodell der Universität Koblenz zum Zeitpunkt der entsprechenden Aufnahme gegeben. Um das Bild einer realen Aufnahme mit einem künstlichen Bild des 3D-Modells vergleichen zu können, ist ein Ähnlichkeitsmaß notwendig, welches die Ähnlichkeit zwischen diesen beiden Bildern mit einem Wert ausdrückt. Der Vergleich erfolgt anhand der Silhouette der einzelnen Bilder, während die Orientierung der Kamera mit Hilfe eines nicht linearen Opitimierungsverfahrens bestimmt wird.
Einer der Forschungsschwerpunkte der AG Rechnernetze ist das Routing Information Protocol. Eine eigene kompatible Erweiterung dieses Routingprotokolls ist der Routing Information Protocol with Metric-based Topology Investigation (RMTI [ehemals RIP-MTI]). Um dieses Protokoll testen und mit seinem Vorgänger vergleichen zu können, wird die Virtualisierungssoftware VNUML eingesetzt. In diesen virtualisierten Netzwerken werden Router, die das RMTI-Protokoll einsetzten, mittels der Zebra/Quagga Routing Software Suite beobachtet. Dabei wird das Verhalten des Protokolls in unterschiedlichsten Simulationssituationen analysiert und bewertet. Um solche Testabläufe zentral zu steuern und protokollieren zu können wurde die Anwendung RIP-XT (XTPeer) erstellt und in fortführenden Diplomarbeiten kontinuierlich erweitert. Sie ist Schnittstelle zu den Zebra/Quagga-Routern und kann diese steuern. Zusätzlich sammelt und analysiert sie die Routing-Informationen der Router.Über ein GUI kann ein Benutzer diese Abläufe steuern. Um einen visuellen Überblick über eine Netzwerktopologie zu erhalten, besitzt das GUI auch eine Topologie-Anzeige. Die Anzeige repräsentiert das Gesamte Netzwerk durch Symbole, über die auch Interaktionen mit der Simulation möglich sind. Ziel dieser Diplomarbeit war es, die bisherige Topologie-Anzeige zu überarbeiten, um sie für neue Anforderungen anzupassen. Des weiteren wurden funktionale Erweiterungen in das GUI des RIP-XTs eingebettet.
Im Mittelpunkt dieser Diplomarbeit stand die Entwicklung eines Modells zur Charakterisierung einer HDR-Kamera mit CMOS-Sensorelement und logarithmischer Kamerakennlinie. Unter Beachtung der spezifischen Eigenschaften der Kamera sollte ein Verfahren gefunden werden, um von der Kamera aufgenommene Farbwerte, farbmetrisch korrekt in einen geräteunabhängigen Farbraum zu überführen. Zu diesem Zweck wurde im Rahmen dieser Arbeit ein zweiteiliges Charakterisierungsmodell entwickelt, welches zwischen Vorwärtsmodell und Inversem Modell unterscheidet.
Das Ziel der Arbeit besteht darin, Dominosteine in 2-D Bildern robust zu erkennen und zu klassifizieren. Als Eingabedaten fungieren alle Arten von Intensitätsbildern, und die Ausgabe besteht aus klassifizierten Dominosteinen. Das Problem, das gelöst werden soll, besteht darin, bei so vielen Dominosteinen wie möglich exakt zu bestimmen, um wlechen Dominstein es sich handelt. Zur Problemlösung werden Modellklassen verwendet, in denen explizites Wissen zur Merkmalsfindung und Objetkerkennung enthalten ist. Dazu wird eine Segmentierung entwickelt, die einem Dominostein ermöglicht, seine Bestandteile im Bild zu lokalisieren. Bei der Zuordnung zwischen den im Bild gefundenen und im Modell vorhandenen Komponenten entstehen mehrere Hypothesen. Um diese zu bewerten, werden unterschiedliche Abstandsfunktionen entwickelt und avaluiert. Für die Zuordnung von Segmentierungs Objekten zu Modellbestandteilene wir die Ungarische Methode verwendet.
Die Ermittlung der Position und Orientierung einer Kamera aus Punktkorrespondenzen zwischen 3D-Positionen und deren Bildpositionen ist im Rechnersehen unter dem Begriff Poseschätzung bekannt. Viele moderne Anwendungen profitieren von dem Wissen über die Lage einer Kamera im Raum zum Zeitpunkt der Bildentstehung. Für eine robuste Schätzung der Pose wird in dieser Arbeit zunächst anhand eines Stereoalgorithmus aus einer Bildserie ein Modell in Form einer Menge von SIFT-Merkmalen erstellt. Bei der Modellerstellung kommt eine handelsübliche monokulare Kamera zum Einsatz, die frei Hand geführt werden kann. Es ist dafür kein Wissen über die Position der Kamera während der Modellerstellung nötig. In einem zweiten Schritt wird die Pose einer Kamera bestimmt, deren Bild teilweise Inhalte des zuvor erstellten Modells aufweist. Die Zuordnungen der im Bild gefundenen SIFT-Merkmale zu den Modellmerkmalen mit bekannter 3D-Position bilden die Basis der linearen Optimierungsverfahren, die zur Lösung des Poseproblems angewandt werden. Das System beruht dabei auf einer zuvor kalibrierten Kamera und der manuellen Selektion geeigneter SIFT-Merkmale zur Initialisierung der Epipolargeometrie während des Modellaufbaus.
Diese Diplomarbeit befasst sich damit, den SURF-Algorithmus zur performanten Extraktion von lokalen Bildmerkmalen aus Graustufenbildern auf Farbbilder zu erweitern. Dazu werden zuerst verschiedene quelloffene Implementationen mit der Originalimplementation verglichen. Die Implementation mit der größten Ähnlichkeit zum Original wird als Ausgangsbasis genutzt, um verschiedene Erweiterungen zu testen. Dabei werden Verfahren adaptiert, die den SIFT-Algorithmus auf Farbbilder erweitern. Zur Evaluation der Ergebnisse wird zum Einen die Unterscheidungskraft der Merkmale sowie deren Invarianz gegenüber verschiedenen Bildtransformationen gemessen. Hier werden verschiedene Verfahren einander gegenüber gestellt. Zum Anderen wird auf Basis des entwickelten Algorithmus ein Framework zur Objekterkennung auf einem autonomen Robotersystem entwickelt und dieses evaluiert.
Im Rahmen dieser Diplomarbeit wurde ein Raytracer auf Voxel-Octrees für SSE-fähige CPUs implementiert. Als Grundlage diente das Augenblick-SDK der Firma Numenus. Es konnte gezeigt werden dass das Raytracing von Volumendaten exzellent skaliert und sich vor allem für sehr große, statische Datenmengen eignet.
In den systematischen Neurowissenschaften werden oft Experimente durchgeführt, welche die Kommunikation von Hirnarealen bei der Bewältigung einer bestimmten Aufgabe untersuchen. Dabei wird angenommen, dass Neuronenverbände, die ihre Aktivität synchronisiert haben, an dieser Aufgabe beteiligt sind. In den aufgezeichneten EEG-Daten kann diese Zusammenarbeit anhand von interregionaler Kohärenz als Phasensynchronizität der Hirnstromfrequenz nachgewiesen bzw. quantifiziert werden. Ziel der Arbeit ist die Implementierung einer Software, welche die notwendigen Schritte der Kohärenzanalyse durchführt und die Ergebnisse statistisch aufbereitet und darstellt. Da die Verfahren und der Ablauf weitgehend durch die Anforderungsspezifikation vorgegeben sind, liegt ein Schwerpunkt der Arbeit auf dem Entwurf und der Programmierung einer intuitiv zu bedienenden Benutzeroberfläche, die den automatisierten Ablauf der Analyse ermöglicht. Ein Statistik-Toolkit soll die Überprüfung von Arbeitshypothesen ermöglichen (Signifikanz). Weiterhin soll die Darstellung den Transport und die Diskussion der Ergebnisse erleichtern.
Point Rendering
(2009)
Das Ziel dieser Arbeit war es, bestehende Point Rendering Verfahren zu untersuchen und darauf aufbauend einen eigenen Point Renderer zu entwickeln. Mit diesem sollte dann die Anwendbarkeit auf weniger komplexe Modelle geprüft werden. Dabei galt es auftretende Probleme zu analysieren und gegebenenfalls Lösungsansätze zu finden.
The goal of this thesis was to develop an interactive cloud simulation based on physical laws from fluid and cloud dynamics that can be used to visualize the physical processes involved in the cloud formation process. Chapter 2 showed that a great number of cloud modeling methods already exist, both procedural and physically motivated. Since the simulation developed in this thesis is based on computational fluid dynamics, the most influential works in this field in relation to computer graphics were also identified. Next, the cloud formation process in the atmosphere was explained, demonstrating the connections between air pressure, temperature and humidity. The temperature distribution of the atmosphere was identified as the most significant factor in cloud formation, before two different kinds of cloud classifications were introduced. The following chapter was dedicated to formulating the previously described cloud formation process in terms of physics. It presented the Navier- Stokes equations of incompressible fluid motion as the method of describing the movement of air masses in the atmosphere and explained how they can be simplified. Furthermore, this chapter was used to introduce concepts from thermodynamics that are necessary for the description of cloud dynamics, and to present a water continuity model that defines the state changes of water in the atmosphere. It was also explained where and how the presented concepts abstract from reality. In chapter 5, it was first described how the cloud model was developed based on the concepts evaluated before, identifying the temperature, water vapor, cloud water, and velocity as the state variables necessary for a cloud simulation. Next, the unconditionally stable implicit semi-Lagrangian method for the solution of the Navier-Stokes equation was presented, and it was explained how the equations for the water continuity, latent heat, and buoyant force computations are solved. All the steps were then summarized and put into context by describing the simulation loop that is executed for every step of the cloud simulation. In the following, details were given about the simple rendering method for the clouds, and the visualization methods for the velocity field and the temperature were evaluated. Finally, the user interface that controls the parameters of the simulation was explained. Chapter six showed the results of the simulation of convective and stratus clouds and commented on the performance of the system.
Zielsetzung Ziel der Diplomarbeit ist die Erforschung und Evaluation verschiedener multimodaler Interaktions- und Präsentationstechniken mit der Nintendo Wii Fernbedienung. Der zentrale Ansatz besteht darin, die verschiedenen alternativen Ein- und Ausgabemöglichkeiten der Nintendo Wiimote für Multimediapräsentationen im Bereich Bildung und Lehre nutzbar zu machen. Gesucht ist eine möglichst benutzerfreundliche Kombination verschiedener Präsentationslösungen in einem Eingabegerät, zu einem Bruchteil der Kosten existierender Lösungen. WiinterAct Um die Verbindung zwischen den multimodalen Interaktionsmöglichkeiten der Nintendo Wii Fernbedienung und den gewünschten Präsentationstechniken am Computer herzustellen, wurde die Software WiinterAct entwickelt. Mit Hilfe von WiinterAct lässt sich eine beliebige Präsentationssoftware über die Bedienknöpfe der Wiimote oder per Gestenerkennung steuern. Zusätzlich wurden alternative Mauszeigermanipulationsmöglichkeiten implementiert. So kann der Mauszeiger per interaktiver Laserpointer Metapher oder über ein interaktives Whiteboard auf Basis der Wiimote bewegt werden. Die hierfür nötige 4-Punkt-Kalibrierung wurde dabei stark vereinfacht. Neben einer intuitiven Visualisierung der Accelerometer- und Infrarotdaten aus der Wiimote wurde ferner eine Demoapplikation (FittsLaWii) zum Messen der Eingabegeschwindigkeit und Benutzerfreundlichkeit verschiedener Interaktionsmethoden bzw. Interaktionsgeräten entwickelt. Fazit Zusammenfassend lassen sich die Ergebnisse der Arbeit in viele andere Bereiche der Mensch-Computer-Interaktion übertragen.
Die Arbeit befasst sich mit der Thematik "Frauen und Computerspiele". Um einen kurzen Überblick über die Thematik zu geben, werden zunächst einige aktuelle Studien präsentiert. Anschließend werden bisherige Erkenntnisse zu den Vorlieben weiblicher Computerspieler herausgestellt. Insbesondere wird untersucht, was Frauen motiviert, Computerspiele zu spielen, welche Themen und Konfliktlösungen sie bevorzugen. Auch die Zugangsweise zum Computer wird betrachtet und die Frage, wie hoch die Fehlertoleranz von Frauen bei Computerspielen ist. Um die Präferenzen weiblicher Spieler untersuchen zu können, wird ein Casual Game mit zwei unterschiedlichen Leveln entwickelt. Das erste ähnelt vom Aufbau her Casual Games, die aktuell im Internet zu finden sind und schon einige Frauen begeistert haben, z.B. "Cake Mania". In das Spiel, insbesondere in das zweite Level, sind zusätzliche Elemente eingebaut, welche den ausgearbeiteten Vorlieben entsprechen. Abschließend wird das Spiel weiblichen Testpersonen über das Internet zur Verfügung gestellt, und über einen Online-Fragebogen werden die herausgearbeiteten Thesen überprüft.
Diese Arbeit beschäftigt sich mit Konzepten für die Anzeige eines frei programmierbaren Kombinationsinstrumentes (FPK). Ziel ist es, die zunächst theoretischen Anzeigekonzepte auf Basis einer zu ermittelnden Hard- und Softwareplattform zu entwickeln. Zu Beginn wird die Evolution von analogen, mechanischen Kombinationsinstrumenten zum FPK beschrieben. Darauf folgt ein Überblick bereits bestehender FPK-Konzepte mit einer genaueren Sicht auf dargestellte Anzeigeelemente. Dabei wird besonders auf die Personenwarnung in der Night-view-Anzeige und eine Anzeige der ökologischen Fahreffizienz eingegangen. Die Arbeit ist Teil eines in Entwicklung befindlichen FPK-Projektes. Basierend auf den durch dieses Projekt vorgegebenen Anforderungen wird eine geeignete Soft- und Hardwareplattform für die Umsetzung eines FPK ermittelt. Dabei zeigt sich, dass die optimale Plattform nur durch eine präzise Änderungsdefinition des graphischen Systems bestimmt werden kann. Da die Projektanforderungen nicht präzise genug sind, wird Adobe Flash in Verbindung mit Actionscript zur Umsetzung der Anzeigekonzepte eingesetzt, um Plattformunabhängigkeit zu erreichen. Mittels Techniken des User-centered Designs wurden Konzepte einzelner und kombinierter Anzeigeelemente entwickelt. Dabei wurde besonders darauf geachtet, die Gestaltungsmöglichkeiten durch die Größe der zur Verfügung stehenden Anzeigefläche des FPK auszunutzen. Nach theoretischen Überlegungen bezüglich des Verwendungskontexts und wahrnehmungspsychologischer Erkenntnisse werden entwickelte Konzepte skizzenhaft beschrieben und die erstellten Animationen erläutert. Den Schluss bildet eine Evaluation einzelner Prinzipien. In einer Umfrage mit 14 Probanden konnte die intuitive Erkennbarkeit einzelner Konzepte teilweise bestätigt oder widerlegt werden. Die Wirksamkeit einer entwickelten Warnmeldung zur Steuerung der Aufmerksamkeit wurde anhand eines Tests mit Nutzern in einer Simulation bestätigt. Die Warnmeldung und andere Konzepte sind nur in einem FPK umzusetzen. So wird gezeigt, dass der Einsatz eines FPK zu einer erhöhten Sicherheit und besseren Bedienbarkeit führen kann. Das FPK sollte jedoch nicht isoliert vom restlichen HMI betrachtet werden, damit seine Möglichkeiten voll ausgeschöpft werden können. Der Einsatz echter 3-D-Graphik für FPK ist zweifelhaft. Über den Bedarf muss im Einzelfall nach einem Test auf Usability entschieden werden. Die Evaluation zeigt, dass Konventionen eines herkömmlichen Kombinationsinstrumentes auch bei der Gestaltung von Anzeigeelementen für ein FPK genutzt werden sollten, um eine Lesbarkeit zu garantieren.
In dieser Arbeit werden drei Verfahren zur Objektentfernung aus Bildern einander gegenübergestellt. Zwei der ausgewählten Verfahren stammen aus dem Bereich der sogenannten Inpainting-Verfahren, während das dritte dem Forschungsgebiet der medizinischen Bildverarbeitung entnommen ist. Die Evaluation dieser Verfahren zeigt ihre jeweiligen Vor- und Nachteile auf und prüft ihre Anwendbarkeit auf das spezifische Problem, ein Farbkalibriermuster aus strukturdominierten Bildern zu entfernen. Auf der Grundlage dieser Eigenschaften werden abschließend mehrere Erweiterungen vorgestellt, die eine verbesserte Anwendbarkeit auf das gestellte Problem erreichen.
In der vorliegenden Arbeit werden verschiedene Ansätze zur Kalibrierung eines optischen Mikroskops behandelt. Dabei werden sowohl State-of-the-Art-Verfahren der Literatur implementiert als auch Verbesserungen an diesen Algorithmen durchgeführt, um die Ergebnisse stabiler und die Kalibrierung flexibler zu gestalten. Hierzu werden Algorithmen entwickelt, die einzelne Parameter der Kalibrierung vorkalibrieren können und somit das Endergebnis der eigentlichen Kalibrierung verbessern. Des weiteren werden diverse Techniken behandelt, die Störungen in den Eingabedaten unterdrücken und dadurch eine korrekte Modellschätzung für die Kalibrierung ermöglichen. Die Algorithmen werden dabei sowohl auf realen als auch auf synthetischen Daten untersucht und miteinander verglichen.
Diese Diplomarbeit präsentiert ein interaktives System, welches die Vorzüge eines handelsüblichen Whiteboards mit denen eines Computers kombiniert. Die Inhalte des Whiteboards werden von einer Kamera aufgenommen, vom Computer verarbeitet und für eine Applikation als Eingabe verwendet bzw. durch geeignete Grafiken ergänzt. Dadurch erweitert das Whiteboard die Benutzeroberfläche des Computers. Der Anwender ist in der Lage über handgezeichnete Primitive (Viereck, Dreieck, Kreis) bzw. Kombinationen der Primitive das entwickelte interaktive Spiel zu spielen.
Markerloses Tracking im Bereich des modellbasierten Ansatzes Analyse durch Synthese nutzt den Vergleich von Kamerabild mit einer synthetischen Computergraphik, um die Kamerapose zu bestimmen. Hier werden ein High Dynamic Range Videokamerabild und eine photorealistische Computergraphik verglichen. Die Computergraphik ist Ergebnis einer Lichtsimulation basierend auf HDR Bildern einer Kamera mit Fischaugenobjektiv. Auf Basis der Ähnlichkeit von natürlichen Merkmalen soll die Relevanz verschiedener Rendering Parameter untersucht werden.
Die Arbeit befasst sich mit atlasbasierter Segmentierung von CT-Datensätzen mit Hilfe von elastischen Registrierungsmethoden. Ziel ist die vollautomatische Segmentierung eines beliebigen Eingabedatensatzes durch Registrierung mit einem vorsegmentierten Referenzdatensatz, dem Atlanten. Ein besonderes Augenmerk liegt dabei auf der Implementierung und Evaluation elastischer Registrierungsverfahren, da rigide Registrierungsmethoden besonders in Bereichen hoher anatomischer Varianzen keine genaue Segmentierung gewährleisten. Im Vordergrund steht zunächst die Generierung zweier Atlanten, die als durchschnittliche Referenzdatensätze Informationen über die anatomische Varianz männlicher und weiblicher Bevölkerungsgruppen enthalten. Weiter werden vier etablierte elastische Registrierungsarten implementiert und im Hinblick auf eine atlasbasierte Segmentierung der wichtigen Organe des menschlichen Torsos evaluiert: BSpline-Registrierung, Demons-Registrierung, Level-Set-Motion-Registrierung und FEM-Registrierung. Robustheit und Genauigkeit der implementierten Verfahren wurden anhand von Lungen- und Abdomendatensätzen sowohl intra- als auch interpatientenspezifisch ausgewertet. Es wird gezeigt, dass vor allem die elastische BSpline-Registrierung hier genauere Segmentierungsergebnisse liefern kann, als es mit einer rigiden Registrierung möglich ist.
Ziel der Arbeit ist es, Kriterien und Gütemaße zur Bewertung von Merkmalen aus der Musterklassifikation zu finden und diese so in eine graphische Evaluationsumgebung zu integrieren, dass der Nutzer befähigt wird, Erkenntnisse über die Struktur des Merkmalsraumes und die Qualität der einzelnen Merkmale zu erlangen, so dass er zielführend eine möglichst optimale Teilmenge - im Sinne der Klassifikationsgüte und der Anzahl der Merkmale - gewinnen kann. Zunächst werden allgemeine visuelle Merkmale von Pollenkörnern und die manuelle Pollenzählung vorgestellt sowie eine Übersicht über das Pollenmonitor-Projekt zur automatisierten Pollen-Erkennung gegeben. Einem Überblick über die Grundlagen der Mustererkennung mit den Teilschritten Merkmalsextraktion und Klassifikation folgt eine Vorstellung von Kriterien zur Merkmalsbewertung und Verfahren zur Merkmalsselektion. Im Mittelpunkt stehen Entwurf und Umsetzung der Evaluationsumgebung sowie Experimente zur Bewertung und Selektion optimaler Teilmengen aus dem Testdatensatz
Im Rahmen dieser Arbeit werden die Möglichkeiten und Grenzen des Geometry-Shaders in Bezug auf die Triangulierung von Freiformflächen untersucht. Dazu steht die Konzeption und Entwicklung eines Geometry-Shaders im Vordergrund, der Freiformflächen möglichst performant zur Laufzeit triangulieren kann. Hierzu werden NURBS-Datensätze eingelesen, trianguliert und dargestellt.
Die Idee des Displacement Mappings ist 30 Jahre alt und wurde im Laufe der Zeit immer weiterentwickelt, verbessert und realistischer. Die meisten Verfahren basieren auf der Simulation von Geometrie, d.h. das Displacement Mapping Verfahren rechnet auf speziellen Texturen, um den Eindruck von Tiefe zu verstärken. Echte Displacement Mapping Verfahren verändern tatsächlich die Geometrie, doch davon wurde in der Vergangenheit Abstand genommen, da die Berechnung auf der CPU zu aufwändig war bzw. das Ergebnis nicht den Aufwand rechtfertigte. Dazu mussten bisher die Punkte von der Applikation im geeigneten Detailgrad erzeugt werden. Die Verfahren der Geometrieerzeugung sind daher weniger performant. Außerdem können die texturbasierten Simulationsverfahren bereits blickwinkelabhängige Effekte, Selbstverschattung und auch Selbstverdeckungen darstellen. Als Nachteil sind die Randprobleme bei diesen Verfahren zu nennen. Dennoch hat Displacement Mapping mit diesen Verfahren zunehmend Einzug in die Spieleindustrie gehalten, für die es bisher zu rechenaufwändig war. Hier bieten die neusten Erweiterungen der GPU interessante Potentiale, da mit Geometry Shadern die Möglichkeit besteht, echte Geometry beschleunigt und adaptiv zu erzeugen. Ziel dieser Arbeit ist es verschiedene Verfahren für echtes Displacement Mapping mit dem Geometry Shader zu untersuchen. Dabei wird neue Geometrie aus einer Textur heraus erzeugt. Hierbei werden Polygone und Punkte generiert. In der Textur werden neben den Normalen noch die Höhenwerte im Alphawert gespeichert. Außerdem wird noch ein Verfahren untersucht, welches Volumeninformationen simuliert, um Überhänge und schwebende Objekte zu erzeugen.
Das Wissen über die genaue Position und Lage eines unbemannten Luftfahrzeugs spielt während der Durchführung einer autonomen Mission eine dominante Rolle. Unbemannte Luftfahrzeuge sind daher mit einer Vielzahl an Sensoren ausgestattet. Jeder dieser Sensoren leistet einen Beitrag zu diesem Ziel, wobei ein Sensor entweder eine absolute oder eine relative Angabe über den derzeitigen Aufenthaltsort oder die Fluglage ermöglicht. Alle Sensoren werden zu einer Gesamtlösung verknüpft, der Navigationslösung. Das am häufigsten eingesetzte - und auch meistens einzige - Verfahren zur absoluten Positionsbestimmung ist die Satellitennavigation. Diese ist abhängig von einer direkten Sichtlinie der mitgeführten Empfangsantenne zu den Satelliten. Falls es zu einer Unterbrechung dieser Sichtlinie kommt, ist eine genaue, absolute Positionsangabe nicht mehr möglich. Die Navigationslösung hat somit nur noch Sensoren zur Verfügung, die eine relative Positions- bzw. Lageangabe ermöglichen. Hierzu gehören das mitgeführte Magnetometer und das Inertialmesssystem. Beide unterliegen dem Phänomen der Drift. Dieses bedeutet, dass die Genauigkeit der Positions- und Lageangabe bei einem Ausfall der Satellitennavigation mit fortschreitender Zeit zunehmend unzuverlässig wird. Um diese Drift in einem bestimmten Rahmen zu kompensieren, kann ein Bildsensor verwendet werden. Dieser ermöglicht eine bildbasierte Bewegungsschätzung und stellt somit einen zusätzlichen Sensor zur Messung von relativen Lage- und Positionsänderungen dar. Ziel der Arbeit ist es, ein Verfahren zur bildbasierten Bewegungsschätzung für einen unbemannten Helikopter zu entwickeln und zu evaluieren.
Zur Erstellung von 3-D-Oberflächenmodellen real existierender Objekte wird häufig sehr teure Hardware eingesetzt, z.B. 3-D-Laser-Range-Scanner. Da diese keine Grauwert- oder Farbinformationen erfassen können, muss das Objekt zur Wiedergabe farbiger Strukturen zusätzlich abfotografiert und mit den Bildern registriert werden. Die Arbeit entwickelt demgegenüber ein Verfahren zum Einsatz eines kalibrierten Stereokamerasystems. Aus den erhaltenen Sequenzen zweidimensionaler Stereobilder kann ein texturiertes 3-D-Mesh rekonstruiert werden. Im Vergleich zum Einsatz eines Scanners ist dieses Verfahren zwar weniger genau, aber dafür preisgünstiger, platzsparend und schneller einsetzbar. Den Schwerpunkt der Arbeit bilden die Fusionierung der Tiefenkarten und die Erstellung eines texturierten Meshs aus diesen.
Implementierung eines Subsurface Scattering Shader Plugins für die Augenblick Raytracing Engine
(2009)
In dieser Ausarbeitung werden drei Beleuchtungsverfahren und mögliche Implementierungen zur Realisierung eines Subsurface Scattering Shaders vorgestellt und diskutiert. Subsurface Scattering bezeichnet allgemein den Lichttransport in die Oberfläche von Objekten hinein und durch sie hindurch. Die korrekte Darstellung dieses Phänomens ist sehr komplex und ist nicht mittels einer einfachen BRDF und gängiger Beleuchtungsverfahren darstellbar. Die drei Verfahren sind: Physikalisch korrektes Subsurface Scattering durch das Monte Carlo Pathtracing, vereinfachtes Subsurface Scattering durch Nutzung eines Licht-Lots, stark vereinfachtes Subsurface Scattering durch ein normalenabhängiges Aufhellen der Kanten. Durch die Nutzung des Monte Carlo Pathtracers können zudem Beleuchtungseffekte wie das sogennante Colorbleeding, dass heißt Lichttransport von einer farbigen Fläche auf eine andere mittels indirekter Beleuchtung, ermöglicht werden. Jedes Verfahren beinhaltet eine andere Kombination der bekanntlich gegenläufigen Eigenschaften Performanz und Korrektheit, je nachdem in welchem Rahmen und Aufgabenbereich Subsurface Scattering benötigt wird.Am Schluss der Arbeit werden Ergebnisse präsentiert, diskutiert und ein Ausblick auf weiterführende Arbeiten gegeben. Alle drei Verfahren wurden als Plugin für den Raytracer Augenblick von Oliver Abert realisiert.
Ziel dieser Diplomarbeit ist es, katadioptrische Stereosysteme aufzubauen und zu testen. Hierfür gilt es, die Komponenten auszuwählen und zu beschaffen. Es soll ein System mit einem Planspiegel und eines mit einem gekrümmten Spiegel aufgebaut werden. Die Vorgehensweise in beiden Fällen unterscheidet sich jedoch deutlich voneinander. Das Planspiegel-System wird unter den Vorraussetzungen angefertigt, dass es möglichst kostengünstig ist und bietet sich vor allem deshalb für eine solches Vorgehen an, da es mit handelsüblichen Komponenten realisierbar ist. Die Verwendung dieser Komponenten bringt allerdings Einschränkungen in der Bildqualität mit sich. Hinzu kommt noch die Tatsache, dass es sich um eine Computational Camera mit geringer Komplexität handelt, da es direkt rektifizierte Ergebnisse liefert und aufgrund dessen leicht zu implementieren ist. Diese Kombination von Eigenschaften macht es zu einem geeigneten Kandidaten für eine solche Herangehensweise. Das radiale System wird hingegen unter der Prämisse maximaler Qualität gebaut. Der verwendete Spiegel ist eine Einzelanfertigung und zusätzlich wird ein zirkuläres Fisheye-Objektiv benötigt, was die Kosten für ein solches System relativ hoch werden lässt. Des Weiteren ist die Dekodierung der Rohaufnahmen deutlich komplexer, als bei den bereits rektifizierten Aufnahmen des Planspiegel-Systems. Nach erfolgreichem Aufbau der beiden Gesamtsysteme sollen diese unter qualitativen Aspekten miteinander verglichen werden.
Diese Arbeit behandelt einen Vergleich verschiedener Algorithmen zur Vorhersage der Bewegung einer Person bei der Ausführung einer sportlichen Aktivität. Als Grundlage für die Vorhersage dienen Bildströme, welche mittels zweier Hochgeschwindigkeitskameras aufgezeichnet wurden. Im Laufe der Arbeit werden Vor- und Nachteile der umgesetzten Ansätze theoretisch erläutert und anschliessend an einer Reihe von Messergebnissen nachgewiesen. Für die Messungen wurde eine Anwendung eingesetzt, welche ebenfalls im Rahmen der Arbeit entwickelt wurde. Neben realen Aufnahmen, wurden zusätzlich synthetische Bildfolgen betrachtet, um Erkenntnisse über das Verhalten der betrachteten Algorithmen unter optimalen Bedingungen zu erlangen.
Markerloses Tracking unter Verwendung von Analyse durch Synthese auf Basis von Featuredetektoren
(2008)
In der vorliegenden Diplomarbeit wurde ein auf "Analyse durch Synthese" sowie Featuredetektoren basierendes Trackingsystem implementiert, beschrieben und getestet. Das Ziel war die Untersuchung im Hinblick auf den Mehrwert der Computergraphik in einem markerlosen Trackingablauf, indem der Ansatz der "Analyse durch Synthese" zur Poseschätzung eingesetzt wird.
Ziel dieser Arbeit ist es, markerloses Tracking unter dem Ansatz der Analyse durch Synthese zu realisieren und dabei auf den Einsatz merkmalsbasierter Verfahren zu verzichten. Das Bild einer Kamera und ein synthetisches Bild der Szene sollen durch den Einsatz von Stilisierungstechniken so verändert und angeglichen werden, dass zu dem gegebenen Kamerabild aus einer Auswahl von gerenderten Bildern jenes erkannt werden kann, welches die reale Kamerapose am exaktesten wiedergibt. Es werden Kombinationen von Ähnlichkeitsmaßen und Visualisierungen untersucht, um eine bestmögliche Vergleichbarkeit der Bilder zu erreichen, welche die Robustheit gegen Trackingfehler erhöhen soll.
In dieser Diplomarbeit wurde eine Applikation implementiert, mit der es auch ungeübten Nutzern möglich ist, 3D Modelle zu texturieren. Dies erfolgt durch direktes Bemalen des Modells, so genanntes 3D Painting. Verschiedene Möglichkeiten hierzu werden untersucht, so das projektive Malen, sowie Octree Texturen.
Bei der subjektiven Interpretation von Mammographien werden Studien zufolge 10% bis 30% von Brustkrebserkrankungen im Frühstadium nicht erkannt. Eine weitere Fehlrate beziffert die fälschlich als möglichen Brustkrebs eingestuften Herde; diese Fehlrate wird mit 35% angegeben. Ein solche Fehleinschätzung hat für die Patientin weitreichende negative Folgen. Sie wird einer unnötigen psychischen und körperlichen Belastung ausgesetzt. Um solche Fehleinschätzungen zu minimieren, wird zunehmend die Computer-aided Detection/Diagnosis (CAD) eingesetzt. Das Ziel dieser Arbeit ist die Evaluation von Methoden multivariater Datenanalyse, eingesetzt zur Diagnose von Herdbefunden. Die aus der Gesichtserkennung bekannten Methoden Eigenfaces und Fisherfaces werden auf Mammographieaufnahmen angewendet, um eine Einordnung von Herdbefunden nach benign oder malign zu tätigen. Eine weitere implementierte Methode wird als Eigenfeature Regularization and Extraction bezeichnet. Nach einer Einführung zum medizinischen Hintergrund und zum aktuellen Stand der computer-assistierten Detektion/Diagnose werden die verwendete Bilddatenbank vorgestellt, Normierungsschritte aufgeführt und die implementierten Methoden beschrieben. Die Methoden werden der ROC-Analyse unterzogen. Die Flächen unterhalb der ROC-Kurven dienen als Maß für die Aussagekraft der Methoden. Die erzielten Ergebnisse zeigen, dass alle implementierten Methoden eine schwache Aussagekraft haben. Dabei wurden die Erwartungen an die Fisherface- und ERE-Methode nicht erfüllt. Die Eigenface-Methode hat, angewendet auf Herdbefunde in Mammogrammen, die höchsten AUC-Werte erreicht. Die Berücksichtigung der Grauwertnormierung in der Auswertung zeigt, dass die qualitativen Unterschiede der Mammogramme nicht ausschlaggebend für die Ergebnisse sind.
Im Rahmen dieser Diplomarbeit wurden Texte untersucht, die von Grundschulkindern unter bestimmten Bedingungen und Voraussetzungen geschrieben wurden. Die Texte entstanden im Rahmen des Projektes VERA (Vergleichsarbeiten in der Grundschule), das von Prof. Dr. Andreas Helmke und Juniorprof. Dr. Ingmar Hosenfeld durchgeführt wird. Es wurden circa 1000 handgeschriebene Geschichten transliteriert und teilweise korrigiert. Nähere Informationen zur Entstehung und Bearbeitung der Texte sind in Kapitel 4 zu finden. Für diese Diplomarbeit wurden die Texte mit dem Saarbrücker Message Extraction System (SMES), der am Deutschen Forschungsinstitut für Künstliche Intelligenz (DFKI) entwickelt wurde, verarbeitet. Zusätzlich wurden die Texte einer Analyse von Hand unterzogen, um eine Aussage über die Qualität von SMES machen zu können. Die vorliegende Diplomarbeitbeschreibt die Konzeption des Parsingansatzes und eine durchgeführte Evaluation. Außerdem erden Vorschläge für einfache und sinnvolle Verbesserungen und Änderungen gemacht, die für den gegebenen Korpus sinnvoll erscheinen. Ziel dieser Arbeit ist es, zu zeigen, welche Arbeits- und Verarbeitungsschritte notwendig und sinnvoll sind, um anschließend eine Aussage darüber treffen zu können, welche computerlinguistischen Methoden sich eignen, um die Entscheidung treffen zu können, welche Module man entwickeln kann, um den Lehrern und Schülern eine adäquate Lernhilfe zur Verfügung stellen zu können. Die Herausforderung bestand darin, zunächst ein linguistisches Mittel zu finden, das in Bezug auf die vorliegende Textart als am besten geeignet erschien und diese Wahl zu begründen. Anschließend galt es die Arbeitsweise und die Resultate der getroffenen Wahl genau zu untersuchen und heraus zu finden, welche einfachen Modifikationen man in das bereits bestehende System einbetten kann, um das Ergebnis weiter zu verbessern.
In der vorliegenden Diplomarbeit wurde gezeigt, wie sich Ambient Occlusion in einer Szene aus frei transformierbaren Starrkörpern unter Verwendung von Coherent Shadow Maps in interaktiven Frameraten berechnen und darstellen lässt. Die Vorteile von Ambient Occlusion im Vergleich zu klassischen lokalen Beleuchtungsmodellen wurden aufgezeigt - den Ansatzpunkt bildet die Approximation von Umgebungslicht und indirekter Beleuchtung durch einen konstanten Farbwert - und die vereinfachenden Annahmen, die im Vergleich zu einer Simulation globaler Beleuchtung gemacht werden, wurden nachgezeichnet - Die Gültigkeit von Ambient Occlusion beschränkt sich demnach eigentlich auf eine direkte Beleuchtung diffuser Materialien mit konstanter Leuchtdichte. Um einen umfassenden Überblick zu gewährleisten, wurden zahlreiche existierende Ansätze zur Berechnung von Ambient Occlusion ausführlich vorgestellt. Anschließend wurde auf die Berechnung der Visibilität mittels CSMs eingegangen. Es wurde gezeigt wie sich die Komprimierungsrate von CSMs durch eine gleichmäßige Verteilung der zu komprimierenden Depth Maps deutlich erhöhen lässt und ein XML-konformes Dateiformat, das die beliebige Wiederverwendung einmal komprimierter Depth Maps erlaubt, wurde eingeführt.
Im Laufe der Zeit fallen in einem Unternehmen große Mengen von Daten und Informationen an. Die Daten stehen im Zusammenhang mit unternehmensinternen Vorgängen, mit dem Marktumfeld, in dem das Unternehmen positioniert ist, und auch mit den Wettbewerbern. Sie sind vielfältiger Art, normalerweise inhomogen und aus verteilten Datenquellen zu beziehen. Um in dieser Flut von Daten die Übersicht zu behalten, die Menge an Informationen effektiv für das Unternehmen nutzbar zu machen, vor allem auch nachhaltig für kommende Entscheidungsfindungen, müssen die Daten analysiert und integriert werden. Diese Optimierung der Entscheidungsfindung durch Zugang zu Informationen, deren Analyse und Auswertung wird häufig unter dem Begriff "Business Intelligence" zusammengefasst. Der Wert der vorhandenen Informationen hängt stark von dem erwähnten Zugang und einer ausdrucksstarken Repräsentation ab. RIA-Techniken ermöglichen eine einfache Verfügbarkeit der verarbeiteten Geschäftsdaten über Inter- und Intranet ohne große Anforderungen an ihre Nutzbarkeit zu stellen. Sie bieten zudem spezialisierte leistungsfähige und in großem Maße programmierbare Visualisierungstechniken. Die Diplomarbeit soll zwei Schwerpunkte habe. Zum Einen wird sie sich mit Arten der Informationsvisualisierung im Allgemeinen und deren Eignung für Geschäfsdaten beschäftigen. Der Fokus liegt hierbei auf Daten und Informationen in Management-Informationsberichten. Ziel ist eine Visualisierungsform, die es dem Nutzer ermöglicht, die zu kommunizierenden Informationen effizient auszuwerten. Zum anderen untersucht die Diplomarbeit die Vor- und Nachteile des Einsatzes von RIAs. Der Implementierungsteil umfasst eine RIA als "Proof of Concept", deren Hauptaugenmerk auf eine dynamische Interaktion und optimierte Informationsvisualisierung gerichtet sein soll. Die Diplomarbeit wird bei der Altran CIS in Koblenz durchgeführt.
Die Erstellung räumlicher Abbilder aus planaren Ansichten gewinnt immer mehr Bedeutung in der modernen Medizintechnik. 3D-Rekonstruktionen haben wesentlich zur besseren Detektion,wie auch zu Optimierung und Innovation in der Diagnostik und Behandlungsmethodik bestimmter Krankheitsbilder beigetragen. Durch die Verfahren der Bildverarbeitung ist es möglich, aus Bildsequenzen eine 3D-Abbildung der gefilmten Szene zu erstellen. Ziel dieser Diplomarbeit soll es sein, zu untersuchen, inwieweit sich aus der Aufnahmetechnik aus einer Reihe unkalibrierter Endoskopiebilder weitere Rückschlüsse über die Oberflächenbeschaffenheit des betrachteten Gewebes ziehen lassen. Hierbei wird das Phänomen zugrundegelegt, daß bei der Aufnahme der Bilder Glanzlichter auftreten, wenn die Beleuchtung am Kamerakopf orthogonal zur Gewebeoberfläche auftrifft. Diese Glanzlichter geben daher implizit Aufschluss über die Oberflächenorientierung des Gewebes. Aufgabe ist es nun, diese Glanzlichter in einer Reihe von unkalibrierten Endoskopieaufnahmen zu finden, die Bilder aus der Sequenz einander zuzuordnen, also Korrespondenzen zwischen den Bildern zu finden, und unter Einbeziehung der Kamerageometrie Rückschlüsse auf die Gewebeoberfläche zu ziehen. Zuerst müssen hierfür die Glanzlichter in den Einzelbildern der Sequenz gefunden werden. Dazu wird ein Verfahren verwendet, welches die Glanzlichter durch eine Zerlegung des HSV-Farbraums detektiert und deren Mittelpunkt errechnet. Um die Kamerageometrie zu schätzen, werden mihilfe eines Punktverfolgers Punktkorrespondenzen zwischen den Einzelbildern erstellt, anhand derer sich die Fundamentalmatrix durch RANSAC errechnen läßt. Unter Anwendung eines Autokalibrierungsverfahrens werden aus den geschätzten Fundamentalmatrizen dann in einem abschließenden Schritt die internen Kameraparameter ermittelt. So sollte möglich sein, die Glanzlichter durch eine Sequenz von Bildern zu verfolgen und die Oberflächennormalen einem Referenzbild zuzuordnen.
In dieser Arbeit wurden effektive und flexible Ansätze zur Erstellung von Shaderprogrammen für grafikkartenbasiertes Volumenrendering untersucht sowie ein Framework mit diesem Einsatzzweck konzipiert und prototypisch umgesetzt. Dazu wurden zunächst Ansätze zur Metaprogrammierung von Shadern vorgestellt, die Programmiersprachen für Shader um zusätzliche Möglichkeiten zur Kapselung von Code erweitern. Eine Umfrage zu Anforderungen an Volumenrendering bei MEVIS zeigte, dass dort ein Shaderframework für Volumenrendering ein Expertenwerkzeug wäre.Der Analyseteil stellte die zentralen Anforderungen an das zu erstellende Framework vor: Erstellung von Shadern des Volumenrenderers mittels Rapid Prototyping, modularer Aufbau der Shaderprogramme, Eignung für verschiedene Volumenrendering-Algorithmen und die Möglichkeit detaillierter Anpassungen am Volumenrendering-Shader, um für den Einsatz durch Experten geeignet zu sein.
Diese Arbeit macht sich zur Aufgabe, das effiziente Navigieren in virtuellen Szenen näher zu betrachten, um bereits bestehende Navigationsmetaphern genauer zu erforschen und für unterschiedliche Einsatzgebiete anwendbar zu machen. Betrachtet werden Softwareprodukte für durchschnittliche Desktop-Benutzer, die mit Standard-Eingabegeräten arbeiten. Hierzu werden zunächst bestehende Navigationsmetaphern analysiert und Möglichkeiten der Benutzerperspektive sowie andere Hilfsmittel im Hinblick auf ihr aktuelles Anwendungsgebiet diskutiert. Anschließend wird ein theoretisches Testszenario erstellt, in dem alle analysierten Metaphern betrachtet und verglichen werden können. Ein Teil dieses Szenarios wird praktisch umgesetzt, in eine Testumgebung integriert und anhand von Benutzertests evaluiert. Zuletzt werden Möglichkeiten aufgezeigt, inwiefern die betrachteten Navigationsmetaphern in verschiedenen Einsatzgebieten sinnvoll und effizient anwendbar gemacht werden können.
In dieser Arbeit wird die Umsetzung und Modifikation des Verfahrens von Finlayson et al. zur Schattenentfernung in einzelnen Farbbildern unter Verwendung des Retinex-Algorithmus vorgestellt. Für die benötigte Detektion von Schattenkanten wurde ein Verfahren von Finlayson et al. umgesetzt und angepasst. Die erforderliche Kamerakalibrierung wurde dabei nicht mit Tageslicht, sondern unter Verwendung künstlicher Lichtquellen realisiert. Anhand von Campus-Bildsequenzen wird ein qualitativer Vergleich des umgesetzten Verfahrens mit dem von Weiss zur Schattenentfernung in Bildserien vorgenommen. Außerdem wird ein erster Ansatz vorgestellt, wie Verfahren zur Schattenentfernung quantitativ bewertet werden können. Die Erzeugung der benötigten Ground-truth-Daten wird mit Hilfe von Laboraufnahmen realisiert, sodass keine manuelle Segmentierung von Schatten erforderlich ist. Anhand der Ergebnisse von Experimenten wird gezeigt, inwieweit die definierten Maße eine Bewertung und einen Vergleich der beiden Verfahren erlauben.
Die automatische Detektion der Lage und Ausrichtung von Unterwasser-Kabeln oder -Pipelines in Kamerabildern ermöglicht es, Unterwasserfahrzeuge autonome Kontrollfahrten durchführen zu lassen. Durch Pflanzenwuchs auf und in der Nähe von Kabeln bzw. Pipelines wird deren visuelle Erfassung jedoch erschwert: Die Bestimmug der Lage über die Detektion von Kanten mit anschließender Linien-Extraktion schlägt oft fehl. Probabilistische Ansätze sind hier den deterministischen überlegen. Durch die Modellierung von Wahrscheinlichkeiten kann trotz geringer Anzahl von extrahierten Merkmalen eine Aussage über den Zustand des Systems getroffen werden. Diese Arbeit stellt ein neues auf Partikelfiltern basierendes Tracking-System für die Verfolgung von Kabeln und Pipelines in Bildsequenzen vor. Umfangreiche Experimente auf realistischen Unterwasser-Videos zeigen die Robustheit und Performanz des gewählten Ansatzes sowie Vorteile gegenüber vorangegangenen Arbeiten.
Der Zwang zur Entwicklung immer neuer Technologien hat den Entwicklungsaufwand vieler Spiele enorm in die Höhe getriebenen. Aufwändigere Grafiken und Spiele-Engines erfordern mehr Künstler, Grafiker, Designer und Programmierer, weshalb die Teams immer größer werden. Bereits jetzt liegt die Entwicklungszeit für einen Ego-Shooter bei über 3 Jahren, und es entstehen Kosten bis in den zweistelligen Millionenbereich. Neue Techniken, die entwickelt werden sollen, müssen daher nach Aufwand und Nutzen gegeneinander abgewogen werden. In dieser Arbeit soll daher eine echtzeitfähige Lösung entwickelt werden, die genaue und natürlich aussehende Animationen zur Visualisierung von Charakter-Objekt-Interaktionen dynamisch mithilfe von Inverser Kinematik erstellt. Gleichzeitig soll der Aufwand, der für die Nutzung anfällt, minimiert werden, um möglichst geringe zusätzliche Entwicklungskosten zu generieren.
Die Computergrafik befasst sich mit der Erzeugung von virtuellen Bildern. Im Bereich der 3D-Computergrafik werden die dargestellten Objekte im dreidimensionalen Raum beschrieben. Dazu bedient man sich diverser Generierungsverfahren. Einer dieser so genannten Renderer ist das Raytracing-Verfahren. Es erfreut sich in der Computergrafik wegen der erreichten Bildqualität bei ueberschaubarer Komplexität großer Beliebtheit. Dabei wird versucht, immer realistischere Ergebnisse zu erreichen. In der Vergangenheit wurde Raytracing deswegen beispielsweise um globale Beleuchtungsmodelle oder um reflektierende beziehungsweise um transparente Objekte erweitert. Dabei wurde aber ein wichtiger Punkt häufig vernachlässigt, welcher ebenfalls den Grad an Realismus deutlich erhöhen kann: die Kamera. Meistens geht man auch heutzutage von einem vereinfachten Lochkameramodell aus. Aus diesem Grund genügen solche Modelle nicht den Ansprüchen physikalisch-korrekter Renderingverfahren. Eine wirklich umfassend korrekte Abbildung von Szenen darf also nicht vernachlässigen, dass ein generiertes Bild durch ein Linsensystem noch einmal entscheidend beeinflusst wird. In dieser Arbeit wird deswegen ein physikalisch korrektes Kameramodell vorgestellt, welches die geometrischen Eigenschaften des Linsensystems berücksichtigt und die Belichtung auf der Bildebene korrekt berechnet.