Study Thesis
Refine
Year of publication
- 2009 (16) (remove)
Document Type
- Study Thesis (16) (remove)
Keywords
- Autonomes Robotersystem (2)
- Robotik (2)
- 3-D-Laserscannen (1)
- 3D-Videospiel (1)
- Algorithmus (1)
- Austausch (1)
- Auszeichnungssprache (1)
- Automatische Klassifikation (1)
- CosiMail (1)
- E-Mail (1)
Institute
- Institut für Computervisualistik (16) (remove)
MoleARlert is the result of a study-project of the Computer Graphics Working Group of the University of Koblenz-Landau. The project was led by Prof. Dr. Stefan Müller and Dipl.-Inf. Stefan Rilling. The system has been devolped by twelve students. This paper describes the developed system and focuses on the further developments made by the author in order to improve the degree of maturity of the system. Another important aspect of this work is the realtime access to a webcam from the open source 3D game engine OGRE.
live video performances at cultural events since 2005. Until now, we have been developing single video-performance applications that mostly met the demands of a certain project. What we did not achieve so far is a) a modular software design and, b) a feature for deskewing planar surfaces that are projected at a non perpendicular angle (assuming the use of visual projectors). This paper deals with solving the first problem by desiging a modular framework and the second problem by implementing an user-friendly module for deskewing planar surfaces. The deskewing process is completely manual, letting the user edit the coordinates of the surfaces" cornerpoints by dragging the points with the mouse. For this, the cornerpoints" x- and y-values are manipulated and the z-value is left constant. While in this way, the 3D-interaction with a 2D-interface can be avoided, the exclusivley two-dimensional transformation of planar surfaces introduces undesired texture-mapping artifacts produced by the triangulation-based rendering of graphic-cards. In order to avoid these artifacts, a selected method called "adaptive subdivision" is presented that corrects the introduced rendering errors.
Die Ausgabe von immer echter und realistischer aussehenden Bildern auf Bildschirmen ist heute ein wichtiger Bestandteil in der Konzeption, Präsentation und Simulation von neuen Produkten in der Industrie. Trotz der auch immer physikalisch echter werdenden Grafiksimulationen ist man bei der Ausgabe auf Bildschirme angewiesen, die einen limitierenden Faktor darstellen: Leuchtdichten in Simulationen gehen dabei weit über tatsächlich darstellbare Leuchtdichten von Monitoren hinaus. Das menschliche Auge ist hingegen in der Lage, einen großen Dynamikumfang zu sehen, sich an gegebene Beleuchtungsverhältnisse anzupassen und auch kleinste Unterschiede in der Helligkeit einer Szene wahrzunehmen. Für die Ausgabe solcher High-dynamic-Range-Bilder auf herkömmlichen Monitoren müssen sogenannte Tonemappingverfahren jene Bilder auf den darstellbaren Bereich reduzieren. Manche dieser Verfahren bedienen sich dabei direkt der Physiologie des Auges, um eine realistische Ausgabe zu erzeugen, andere dienen eher zur Stilisierung. Ziel dieser Studienarbeit ist die Entwicklung eines Tonemappingverfahrens, das ein vertrauenswürdiges Ergebnis liefert. Ein solches Ergebnis ist erreicht, wenn der Betrachter keine Unstimmigkeiten im Bild vorfindet, die der Realität widersprechen. Der Gesamteindruck soll dem entsprechen, was der Nutzer sehen würde, stünde er direkt neben der aufgenommenen Szene. Für eine abschließende Evaluation wurde insbesondere eine reale Boxszene am Computer nachmodelliert und gerendert. Neben einem HDR-Foto kann damit der neu entstandene Tonemapping-Operator untersucht und mit bereits vorhandenen Tonemappingverfahren verglichen werden. 13 Probanden haben an dieser Evaluation teilgenommen, um die Leistungsfähigkeit und Qualität zu bewerten.
Das sichere Befahren von komplexen und unstruktierten Umgebungen durch autonome Roboter ist seit den Anfängen der Robotik ein Problem und bis heute eine Herausforderung geblieben. In dieser Studienarbeit werden drei Verfahren basierend auf 3-D-Laserscans, Höhenvarianz, der Principle Component Analysis (PCA) und Tiefenbildverarbeitung vorgestellt, die es Robotern ermöglichen, das sie umgebende Terrain zu klassifizieren und die Befahrbarkeit zu bewerten, sodass eine sichere Navigation auch in Bereichen möglich wird, die mit reinen 2-D-Laserscannern nicht sicher befahren werden können. Hierzu werden 3-D-Laserscans mit einem 2-D-Laserscanner erstellt, der auf einer Roll-Tilt-Einheit basierend auf Servos montiert ist, und gleichzeitig auch zur Kartierung und Navigation eingesetzt wird. Die einzeln aufgenommenen 2-D-Scans werden dann anhand des Bewegungsmodells der Roll-Tilt-Einheit in ein emeinsames 3-D-Koordinatensystem transformiert und mit für die 3-D-Punktwolkenerarbeitung üblichen Datenstrukturen (Gittern, etc.) und den o.g. Methoden klassifiziert. Die Verwendung von Servos zur Bewegung des 2-D-Scanners erfordert außerdem eine Kalibrierung und Genauigkeitsbetrachtung derselben, um zuverlässige Ergebnisse zu erzielen und Aussagen über die Qualität der 3-D-Scans treffen zu können. Als Ergebnis liegen drei Implementierungen vor, welche evolutionär entstanden sind. Das beschriebene Höhenvarianz-Verfahren wurde im Laufe dieser Studienarbeit von einem Principle Component Analysis basierten Verfahren, das bessere Ergebnisse insbesondere bei schrägen Untergründen und geringer Punktdichte bringt, abgelöst. Die Verfahren arbeiten beide zuverlässig, sind jedoch natürlich stark von der Genauigkeit der zur Erstellung der Scans verwendeten Hardware abhängig, die oft für Fehlklassifikationen verantwortlich war. Die zum Schluss entwickelte Tiefenbildverarbeitung zielt darauf ab, Abgründe zu erkennen und tut dies bei entsprechender Erkennbarkeit des Abgrunds im Tiefenbild auch zuverlässig.
The student research project presents a 3D real-time solution of grid-based navier-stokes computational fluid dynamics. Current features are dynamic voxelization of objects in the fluid volume taking influence on the fluid flow, simulation of temperature changes depending on the global environment temperature, the local temperature and local density, dynamic illumination approximating light-scattering effects and real-time volume visualization, using a view-aligned volume slicing technique combined with trillinear interpolation of density values between voxels of the fluid volume. With these features we are able to simulate and render high-quality smoke, fire, vapor and clouds in real-time. We used the GPU for all dynamic fluid computations and additional rendering features. In addition, we created a small OpenGL rendering application, demonstrating the possibility of integration of the fluid solver into a real-time application.
Rissmuster enthalten zahlreiche Informationen über die Entstehung der Risse und können für die Technik oder die Kulturgeschichte von großem Wert sein. So vereinfacht etwa die automatische oder halbautomatische Klassifizierung von Abbildungen solcher Rissmuster die Echtheitsprüfung antiker Artefakte oder die Materialforschung. Teilweise existieren bereits Klassifizierungsverfahren, die sich für die computergestützte Auswertung einsetzen lassen. Da es bislang kein Verfahren zur objektivierten Auswertung und Analyse von Rissmustern gab, entstand 2007 in Zusammenarbeit mit der Stuttgarter Staatlichen Akademie der Bildenden Künste das Projektpraktikum Rissmusteranalyse (Primus), das die automatische Klassifikation von Rissmuster-Aufnahmen ermöglicht. Daran angebunden sollte ein Datenbanksystem die Bilder samt ihrer Analyseergebnisse verwalten und darstellen können. Eine einfach zu bedienende grafische Benutzeroberfläche soll verschiedene Methoden anbieten, die mit jeweils unterschiedlichen Bildverarbeitungsverfahren eine robuste Klassifikation der Rissmuster und den anschließenden Transfer in die Datenbank ermöglichen. Zunächst werden die aktuelle Situation des Projektes Primus und dessen grundlegende Strukturen dargestellt, unter besonderer Berücksichtigung der verwendeten Programmiersprache Qt. Den Schwerpunkt der Arbeit bildet das Redesign der Benutzeroberfläche und deren Erweiterung um neue Komponenten wie Qt-Objekte und einen separaten Tracer.
In dieser Arbeit wird die Implementierung des SURF-Feature-Detektors auf der GPU mit Hilfe von CUDA detailliert beschrieben und die Ergebnisse der Implementation ausgewertet. Eine Einführung in das Programmiermodell von CUDA sowie in die Funktionsweise des Hesse-Detektors des SURF-Algorithmus sind ebenfalls enthalten.
Der Aufbau der Studienarbeit ist wie folgt: Nach einer kurzen Einführung in das Thema des Scanmatchings wird anhand der theoretischen Basis von Icp, Idc und MbIcp der aktuelle Stand der Technik vorgestellt. Im nächsten Kapitel folgt die Beschreibung des eigenen Ansatzes. Dieser umfasst die strukturellen Aspekte der Implementation, eigeneModifikationen und die Einbindung der Verfahren in die Kartenerstellung von Robbie. Im Anschluss findet sich die Evaluation der Verfahren. Dort werden Effizienztests der wichtigsten Programmparameter durchgeführt und die Wirkungsweise des Scanmatchers im Zuge der Kartenerstellung evaluiert. In letzten Kapitel folgt dann eine Zusammenfassung der Ergebnisse mit Ausblick aufweitere Nutzungs- und Forschungsbereiche.
Wie bereitet man komplizierte, technische Sachverhalte einfach und verständlich auf, damit sie auch der normalen Benutzer ohne tiefergehendes technisches Hintergrundwissen schnell und ohne lange Einarbeitungszeit und langwierige Erklärungen zu nutzen weiß? In dieser Studenarbeit geht es um genau diese Frage - Nichtinformatikern die Vorzüge und die Arbeit mit semantischen (Such)anfragen zu erleichtern, wenn nicht sogar überhaupt erst zu ermöglichen, sowie die Neuentwicklung und SPARQL-Erweiterung Networked Graphs von Simon Schenk innerhalb der AG Staab/Universität Koblenz zu präsentieren.