Institut für Computervisualistik
Refine
Year of publication
- 2018 (25) (remove)
Document Type
- Bachelor Thesis (19)
- Master's Thesis (4)
- Doctoral Thesis (2)
Language
- German (25) (remove)
Keywords
- Bildverarbeitung (2)
- Astrophysik (1)
- Augmented Reality (1)
- Bildanalyse (1)
- Computergrafik (1)
- Computervisualistik (1)
- Deep Learning (1)
- Extended Reality (1)
- Fell (1)
- Fell Rendering (1)
Technologische Fortschritte auf dem Gebiet der integrierten Halbleitertechnik, die unter anderem auch zur gestiegenen Leistungsfähigkeit der Kamerasensoren beitragen, konzentrierten sich bisher primär auf die Schnelligkeit und das Auflösungsvermögen der Sensoren. Die sich ständig verändernde Entwicklung hat jedoch direkte Folgen auf das physikalische Verhalten einer Kamera und damit auch Konsequenzen für die erreichbare geometrische Genauigkeit einer photogrammetrischen 3D-Rekonstruktion. Letztere stand bisher nicht im Fokus der Forschung und ist eine Aufgabe, der sich diese Arbeit im Sinne der Photogrammetrie und Messtechnik stellt. Aktuelle Untersuchungen und Erfahrungen aus industriellen Projekten zeigen in diesem Zusammenhang, dass das geometrisch-physikalische Verhalten digitaler Kameras - für höchste photogrammetrische Ansprüche - noch nicht ausreichend modelliert ist. Direkte Aussagen zur erreichbaren Genauigkeit bei gegebener Hardware erweisen sich daher bislang als unzureichend. Ferner kommt es aufgrund der unpräzisen Modellierung zu Einbußen in der Zuverlässigkeit der erreichten Ergebnisse. Für den Entwickler präziser kamerabasierter Messverfahren folgt daraus, dass zu einer optimalen Schätzung der geometrischen Genauigkeit und damit auch vollständigen Ausschöpfung der Messkamera geeignete mathematische Modelle erforderlich sind, die das geometrisch physikalische Verhalten bestmöglich beschreiben. Diese Arbeit beschreibt, wie die erreichbare Genauigkeit einer Bündelblockausgleichung, schon a priori mithilfe des EMVA1288 Standards approximiert werden kann. Eine in diesem Zusammenhang wichtige Teilaufgabe ist die Schaffung einer optimalen Messanordnung. Hierzu gehören Untersuchungen der üblicherweise verwendeten Kalibrierkörper und die Beseitigung von systematischen Fehlern vor und nach der Bündelblockausgleichung. Zum Nachweis dieser Systematiken wird eine auf statistischem Lernen basierende Methode beschrieben und untersucht. Erst wenn alle genauigkeitsmindernden Einflüsse berücksichtigt sind, wird der Anteil des Sensors in den Messdaten sichtbar und damit auch mathematisch parametrisierbar. Die Beschreibung des Sensoreinflusses auf die erreichbare Genauigkeit der Bündelblockausgleichung erfolgt in drei Schritten. Der erste Schritt beschreibt den Zusammenhang zwischen ausgewählten EMVA1288-Kennzahlen und der Unsicherheit eines Grauwertes. Der zweite Schritt ist eine Modellierung dieser Grauwertunsicherheit als Zentrumsunsicherheit einer Zielmarke. Zur Beschreibung dieser Unsicherheit innerhalb der Bündelblockausgleichung wird ein stochastisches Modell, basierend auf dem EMVA1288-Standard, vorgeschlagen. Ausgehend vom Rauschen des Zielmarkenmittelpunktes wird im dritten Schritt die Unsicherheit im Objektraum beispielhaft mit Hilfe von physikalisch orientierten Simulationen approximiert. Die Wirkung der vorgeschlagenen Methoden wird anhand von Realkalibrierungen nachgewiesen. Abschließend erfolgt die Diskussion der vorgeschlagenen Methoden und erreichten Ergebnisse sowie ein Ausblick auf kommende Untersuchungen.
In der Computergrafik stellte das echtzeitfähige
Rendern von Haaren und Fell ein Problem dar. Die
Berechnung der Beleuchtung, Schattierung und
Transparenz erfordert einen hohen Rechenaufwand,
welcher sich negativ auf die Performanz auswirkt.
Doch durch verbesserte Hardware und neue Verfahren
ist es möglich, solch komplexe Effekte in Echtzeit
zu simulieren. In folgender Arbeit werden die
Grundlagen des Renderings von Haaren erläutert.
Außerdem wurde im Rahmen der Arbeit eine
echtzeitfähige Demo implementiert, deren zugrunde
liegende Verfahren und Funktionalitäten beschrieben
werden. Um die Demo zu evaluieren wurde die mögliche
Anzahl an Bildern pro Sekunde bei Modellen
unterschiedlicher Komplexität gemessen. Schließlich
wurden die Ergebnisse mit Bildern von echten Haaren
verglichen.
The cytological examination of bone marrow serves as clarification of variations in blood smears. It is also used for the clarification of anemia, as exclusion of bone marrow affection at lymphoma and at suspicion of leukemia. The morphological evaluation of hematopoietic cells is the basis for the creation of the diagnosis and for decision support for further diagnostics. Even for experienced hematologists the manual classification of hematopoietic cells is time-consuming, error-prone and subjective. For this reason new methods in the field of image processing and pattern recognition for the automatic classification including preprocessing steps are developed for a computer-assisted microscopy system. These methods are evaluated by means of a huge reference database. The proposed image analysis procedures comprise methods for the automated detection of smears, for the determination of relevant regions, for the localization and segmentation of single hematopoietic cells as well as for the feature extraction and classification task. These methods provide the basis for the first system for the automated, morphological analysis of bone marrow aspirates for leukemia diagnosis and are therefore a major contribution for a better and more efficient patient care in the future.
Es wird ein Augmented-Reality Ansatz zur Erforschung modularer OSGi-Softwaresysteme präsentiert. Der Prototyp wird unter der Verwendung der Microsoft HoloLens implementiert. Module, wie Komponenten und Packages, werden in einer virtuellen Stadt dargestellt. Dieser Ansatz ermöglicht es dem Anwender, die Software-Architektur mittels intuitiver Navigation zu erkunden: Spracheingabe, Blickpunkt- und Gestenkontrolle. Eine multifunktionale Benutzeroberfläche wird vorgestellt, die für verschiedene Zielgruppen adaptiert werden kann. Viele veröffentlichte Visualisierungen weisen keine klare Zielgruppendefinition auf. Das Konzept kann leicht auf andere Darstellungsformen, wie beispielsweise der Inselmetapher übertragen werden. Erste Ergebnisse einer Evaluierung, die mittels kleiner strukturierter Interviews gewonnen werden konnten, werden präsentiert. Die Probanden mussten vier Programm-verständnis Aufgaben lösen und ihren Aufwand, sowie ihre Arbeitsbelastung einschätzen. Die Ergebnisse bilden eine gute Grundlage für weitere Forschung im Bereich der Software- Visualisierung in Augmented Reality.
VR Fresken
(2018)
Das Projekt VR Fresken setzte sich zum Ziel, mit Hilfe von virtueller Realität im Rahmen einer Museumsausstellung historisch rekonstruierte Räume und deren Deckenfresken interaktiv erlebbar zu machen. In dieser Arbeit werden die eingesetzten Techniken und Technologien beleuchtet, der Anwendungsfall der VR für den Einsatz im Museum untersucht, sowie eine Evaluation der Software im Alltagsbetrieb im Museum durchgeführt.
Helicopters are crucial in today’s life. A vast amount of applications prove
their range, which are not coverable by other types of aircraft. But they are
very complex systems, both, technically and physically. This is one of the
reasons why pilot training for helicopters is quite challenging. In the last
two decades flight simulators became a supplementary instrument in the
educational process of pilots. With flight simulators it is possible to replay
uncommon or dangerous situations. In this thesis a simple flight simulator
for helicopters will be developed based on rigid body physics. The foundation is a simplified rotor model which omits complex fluid dynamics. This
helps to keep the implementation simple and illustrative as well as provide simulation rates at real-time. The modules are implemented within
the Unreal Engine in such way, that changing helicopter characteristics is
very easy.
In this bachelor thesis a code for astrophysical self-gravitating fluid
simulation is developed. The code runs mainly on the GPU. Minimal
simplifications of the physical model and some parameters for accuracy
and tuning allow simulations to be performed at interactive framerates
on most modern consumer grade computers that feature a dedicated
graphics card. It is used to simulate the birth of stars from a turbulent
molecular cloud. Multiple features of star formation, like accretion
discs and fragmentation, can be observed in the simulation, even when
low particle counts are used.
The present thesis describes the development of an OpenGL-based tool visualizing cavities of proteins, which can be observed during a static docking simulation. The goal is to achieve knowledge about interactions between proteins and ligands based on information about distances between them. At first chemical basics, which motivate the topic and are important for understanding the topic and the used algorithms, are presented. Furthermore existing software, which deals with similar issues, is described. Next the prerequisites for the development of the program are presented and the tool is described in detail. Concluding the tool is evaluated concerning performance and usage and a summarizing conclusion is given. The program turns out as a helpful tool for current research and a good base for further and deeper research projects.
Algorithmische Komposition
(2018)
Algorithmic composition is an interdisciplinary topic that unites music and science. The computer is able to generate algorithmic music with the aid of a specific algorithm. In this bachelor thesis, algorithmic composition is realized with the biology-inspired algorithms called Lindenmayer-system and cellular automaton. In order to realize the compositions, several techniques are presented as well as implemented and evaluated. Those techniques map the generated data from the algorithms on a meaningful musical result.