Institut für Computervisualistik
Filtern
Erscheinungsjahr
- 2010 (17) (entfernen)
Dokumenttyp
- Diplomarbeit (9)
- Studienarbeit (5)
- Bachelorarbeit (3)
Sprache
- Deutsch (17) (entfernen)
Gehört zur Bibliographie
- nein (17) (entfernen)
Schlagworte
- 3D (2)
- Mustererkennung (2)
- 2-D (1)
- Augmented Reality (1)
- Autorensystem (1)
- Balancetheorie (1)
- Benutzerschnittstelle (1)
- Bild (1)
- Bildanalyse-Verfahren (1)
- Bildverarbeitung (1)
- CB2 (1)
- Cascada (1)
- Computergraphik (1)
- DTI (1)
- GPU Programmierung (1)
- Geometryshader (1)
- Glint Center Estimation Algorithmus (1)
- Globale Beleuchtung (1)
- HDR-Kamera (1)
- Inverses Modell (1)
- JGraph (1)
- Kamera (1)
- Klassifikationsframework (1)
- Lokale Bildmerkmale (1)
- Medizinische Visualisierung (1)
- Mensch-Maschine-Schnittstelle (1)
- Modellierungstool (1)
- Objekterkennung (1)
- Physiksimulation (1)
- Posebestimmung (1)
- Poseschätzung (1)
- Pupil Center Estimation Algorithmus (1)
- Qt/C++ (1)
- RIP-MTI (1)
- RIP-XT (1)
- RMTI (1)
- Robotik (1)
- Routing (1)
- SIFT-Algorithmus (1)
- SIFT-Merkmale (1)
- STOR (1)
- SURF-Algorithmus (1)
- Ungarische Methode (1)
- User Interface (1)
- VOXEL (1)
- Visualisierung (1)
- Vorwärtsmodell (1)
- Voxel (1)
- XTpeer (1)
- menschliches Auge (1)
Institut
- Institut für Computervisualistik (17) (entfernen)
In der vorliegenden Arbeit wird dem Leser aufgezeigt, welche Methoden zur Kurvenskelettierung von 3D-Modellen existieren und welche Ansätze bei bisherigen Forschungsergebnissen von Skelettierungsmethoden in der Bildverarbeitung verfolgt werden. Der Autor geht im weiteren Verlauf auf einen aktuellen Kurvenskelettierungsansatz ein. Die Implementierung dieses Ansatzes wird detailliert analysiert und ein algorithmisches Verfahren entwickelt, um die Kurvenskelette der analysierten Methode hin zu 3D-Skeletten einer eigenen Kurvenskelettdefinition zu modifizieren, mit der es möglich ist, Merkmalsvektoren für Ähnlichkeitsvergleiche zwischen 3D-Objekten zu berechnen. Es wird eine Ground Truth durch menschliche Ähnlichkeitsbestimmung gebildet. Des Weiteren wird auf Grundlage der modifizierten Skelette eine Ähnlichkeitsberechnung durchgeführt. Danach wird die menschliche Ähnlichkeitsbestimmung der algorithmisch berechneten Ähnlichkeitsberechnung gegenüber gestellt und nach bekannten Verfahren aus dem Information Retrieval ausgewertet.
Für die realistische Betrachtung einer virtuellen Szene spielt neben der direkten Beleuchtung auch die Ausbreitung des indirekten Lichtes eine wichtige Rolle. Die Berechnung der indirekten Beleuchtung benötigt grundsätzlich Informationen über die gesamte Szene, nicht nur über den für die Kamera sichtbaren Ausschnitt, der in bildraumbasierten Techniken zum Einsatz kommt. Mittels Voxelisierung kann die Szene in eine dreidimensionale, diskrete und GPU-freundliche Repräsentation überführt werden. In dieser Arbeit werden Voxelrepräsentationen hinsichtlich ihrer Eignung für den globalen Lichtaustausch in dynamischen und großen Szenen untersucht. Nach einer Einführung und einem Literaturüberblick über existierende Voxelisierungs- und Beleuchtungsverfahren, die Voxel als Grundlage nutzen, wird ein Voxelisierungsverfahren entwickelt, das sich für Szenen mit dynamischen Objekten eignet. Auf der Grundlage des Strahlenschnitt-Tests mit binärer Voxelhierarchie werden dann zwei Beleuchtungsalgorithmen umgesetzt, implementiert und evaluiert: Monte-Carlo-Integration der Hemisphäre eines Szenenpunktes und Beleuchtung der Szenenpunkte mit virtuellen Punktlichtquellen.
Im Rahmen dieser Diplomarbeit wird ein Verfahren zur markerlosen Pose-Rekonstruktion vorgestellt. Die Modellierung des menschlichen Körpers geschieht auf Basis der Starrkörperphysik. Mittels eines probabilistischen Ansatzes wird das Modell in eine volumetrische Rekonstruktion der Szene eingepasst. Die hierfür zu bewältigende Suche in hochdimensionalen Zustandsräumen wird mittels eines Partikelfilters in Kombination mit Simulierter Abkühlung vorgenommen. Eine Berücksichtigung anthropometrischer Besonderheiten sowie kinematischer Grenzen wird zur weiteren Stützung des Verfahrens vorgenommen. Die vollständig Umsetzung des Verfahrens durch dreidimensionale Beobachtungs- und Messmodelle führt zu einer exakten Poserekonstruktion und vermeidet Mehrdeutigkeiten während der Auswertung.
Die Entwicklung von Benutzerschnittstellen hat sich mit den fortschreitenden technischen Möglichkeiten ebenfalls weiter entwickelt. Neben den klassischen User Interfaces, die den Anwender bei der Aufgabenbewältigung unterstützen sollen, entwickeln sich intensiv erlebbare User Interfaces bei denen die Bedienung als intuitiv wahrgenommen wird. Doch was bedeutet Intuitivität in Bezug auf eine Mensch-Maschine-Schnittstelle? Die vorliegende Diplomarbeit beschäftigt sich mit dieser Thematik. Es werden Theorien und Modelle betrachtet, die versuchen intuitive Benutzbarkeit zu erklären. Anschließend werden zwei Konzepte aus der Software-Ergonomie herausgegriffen und in abgewandelter Form in zwei Prototypen umgesetzt. Hierfür wird ein Fernglasgehäuse in ein Eingabegerät für eine Stereoleinwand umgebaut. In der anschließenden Evaluation wird untersucht, welcher der Prototypen als intuitiver und attraktiver wahrgenommen wird. Hierfür werden beide hinsichtlich der Kriterien für intuitive Benutzbarkeit untersucht, welche zuvor aus den Modellen und Theorien herausgefiltert wurden.
Orientierung aus Silhouetten
(2010)
Anhand der sogenannten "Analyse durch Synthese" soll in der folgenden Qualifikationsarbeit versucht werden, zum Zeitpunkt einer Aufnahme auf dem Campus der Universität Koblenz die Orientierung der Kamera zu bestimmen. Die Lösungsidee für diese Problemstellung liegt in Form eines merkmalsbasierten Ansatzes vor. Zu diesem Zweck ist die grobe Position im 3D-Campusmodell der Universität Koblenz zum Zeitpunkt der entsprechenden Aufnahme gegeben. Um das Bild einer realen Aufnahme mit einem künstlichen Bild des 3D-Modells vergleichen zu können, ist ein Ähnlichkeitsmaß notwendig, welches die Ähnlichkeit zwischen diesen beiden Bildern mit einem Wert ausdrückt. Der Vergleich erfolgt anhand der Silhouette der einzelnen Bilder, während die Orientierung der Kamera mit Hilfe eines nicht linearen Opitimierungsverfahrens bestimmt wird.
Es gibt einige Gaze Tracking Systeme, sowohl high- als auch low-cost. Low-cost Systeme gehen meist mit low-resolution Kameras einher. Da hier die Bildqualität schlechter ist, müssen die Algorithmen umso besser arbeiten. Aber wie soll man die Algorithmen die der Erkennung der Blickrichtung dienen, testen, wenn die Bildqualität geringer ist und man nie korrekte Aussagen über die Referenzpunkte treffen kann? Hier greift die Idee dieser Arbeit: Mit Hilfe synthetischer Augenbilder testet man die betreffenden Algorithmen und kann diese, da die Referenzpunkte bekannt sind, analysieren. Eine Veränderung der Komplexität dieser Bilder z. B. mit Hilfe eines zuschaltbaren Gaußrauschens oder eines weiteren Reflektionspunktes, macht es möglich, diese in Stufen der Realität anzunähern. Im Idealfall kann man die Algorithmen mit den aus den Testreihen gewonnenen Erkenntnissen verbessern und bei Anwendung innerhalb eines low-resolution Systems dessen Genauigkeit erhöhen.
Einer der Forschungsschwerpunkte der AG Rechnernetze ist das Routing Information Protocol. Eine eigene kompatible Erweiterung dieses Routingprotokolls ist der Routing Information Protocol with Metric-based Topology Investigation (RMTI [ehemals RIP-MTI]). Um dieses Protokoll testen und mit seinem Vorgänger vergleichen zu können, wird die Virtualisierungssoftware VNUML eingesetzt. In diesen virtualisierten Netzwerken werden Router, die das RMTI-Protokoll einsetzten, mittels der Zebra/Quagga Routing Software Suite beobachtet. Dabei wird das Verhalten des Protokolls in unterschiedlichsten Simulationssituationen analysiert und bewertet. Um solche Testabläufe zentral zu steuern und protokollieren zu können wurde die Anwendung RIP-XT (XTPeer) erstellt und in fortführenden Diplomarbeiten kontinuierlich erweitert. Sie ist Schnittstelle zu den Zebra/Quagga-Routern und kann diese steuern. Zusätzlich sammelt und analysiert sie die Routing-Informationen der Router.Über ein GUI kann ein Benutzer diese Abläufe steuern. Um einen visuellen Überblick über eine Netzwerktopologie zu erhalten, besitzt das GUI auch eine Topologie-Anzeige. Die Anzeige repräsentiert das Gesamte Netzwerk durch Symbole, über die auch Interaktionen mit der Simulation möglich sind. Ziel dieser Diplomarbeit war es, die bisherige Topologie-Anzeige zu überarbeiten, um sie für neue Anforderungen anzupassen. Des weiteren wurden funktionale Erweiterungen in das GUI des RIP-XTs eingebettet.
Im Mittelpunkt dieser Diplomarbeit stand die Entwicklung eines Modells zur Charakterisierung einer HDR-Kamera mit CMOS-Sensorelement und logarithmischer Kamerakennlinie. Unter Beachtung der spezifischen Eigenschaften der Kamera sollte ein Verfahren gefunden werden, um von der Kamera aufgenommene Farbwerte, farbmetrisch korrekt in einen geräteunabhängigen Farbraum zu überführen. Zu diesem Zweck wurde im Rahmen dieser Arbeit ein zweiteiliges Charakterisierungsmodell entwickelt, welches zwischen Vorwärtsmodell und Inversem Modell unterscheidet.
Das Ziel der Arbeit besteht darin, Dominosteine in 2-D Bildern robust zu erkennen und zu klassifizieren. Als Eingabedaten fungieren alle Arten von Intensitätsbildern, und die Ausgabe besteht aus klassifizierten Dominosteinen. Das Problem, das gelöst werden soll, besteht darin, bei so vielen Dominosteinen wie möglich exakt zu bestimmen, um wlechen Dominstein es sich handelt. Zur Problemlösung werden Modellklassen verwendet, in denen explizites Wissen zur Merkmalsfindung und Objetkerkennung enthalten ist. Dazu wird eine Segmentierung entwickelt, die einem Dominostein ermöglicht, seine Bestandteile im Bild zu lokalisieren. Bei der Zuordnung zwischen den im Bild gefundenen und im Modell vorhandenen Komponenten entstehen mehrere Hypothesen. Um diese zu bewerten, werden unterschiedliche Abstandsfunktionen entwickelt und avaluiert. Für die Zuordnung von Segmentierungs Objekten zu Modellbestandteilene wir die Ungarische Methode verwendet.
Globale Beleuchtungssimulationen versuchen die physikalischen Eigenschaften von Licht und dessen Ausbreitung möglichst korrekt zu berechnen. Dabei werden diese üblicherweise im dreidimensionalen Objektraum berechnet und sind deshalb sehr rechenintensiv und von der Anzahl der Polygone der Szene abhängig. Objektraum-basierte Verfahren ermöglichen durch komlexe Berechnungen allerdings auch gute Annährungen physikalisch korrekter Beleuchtungen. Die Beleuchtungsberechnung in den Bildraum zu verlagern hat aber den großen Vorteil, dass die Berechnung hier unabhängig von der Größe und Komplexität der Szene durchführbar ist. Einzig die Auflösung entscheidet über den Rechenaufwand. Dieser Geschwindigkeitsvorteil beinhaltet jedoch einen Kompromiss was die physikalische Korrektheit der Beleuchtungssimulation angeht. Bei bisherigen Bildraum-Verfahren war es nicht möglich, für die Kamera nicht sichtbare Teile der Szene und deren Beleuchtungsinformationen, in die Berechnung mit einzubeziehen. Dies erscheint logisch, da über Geometrie die aus Sicht der Kamera nicht eingefangen wurde, im Bildraum zunächst keinerlei Informationen zur Verfügung stehen. Ein bekanntes Beispiel zur Annährung einer globalen Beleuchtung im Bildraum ist das Verfahren "Screen Space Ambient Occlusion". Dieses liefert zwar sehr gut Selbstverschattungen und wirkt dadurch realitätsnah, erzeugt aber keinen korrekten Lichtaustausch. Da die Beleuchtung von dem Inhalt des aktuellen Bildausschnitts abhängig ist, entstehen visuelle Artefakte, die vor allem bei Kamerabewegungen störend auffallen. Ziel der Studienarbeit ist es daher diese Artefakte durch die Verwendungen von Textur-Atlanten zu vermeiden. Dies wird durch eine Bildraum-basierte Beleuchtungssimulation ermöglicht, die die gesamte Szene zur Berechnung der Beleuchtung miteinbezieht und nicht nur die Sicht der Kamera. Dabei wird in einem Textur-Atlas die gesamte Szene gespeichert.