Diplomarbeit
Filtern
Dokumenttyp
- Diplomarbeit (81) (entfernen)
Schlagworte
- Bildverarbeitung (4)
- Analyse durch Synthese (3)
- Augmented Reality (3)
- Markerloses Tracking (3)
- Modellbasiertes Tracking (3)
- Volumendaten (3)
- Computergrafik (2)
- Computerspiel (2)
- Frau (2)
- Kamera (2)
Institut
- Institut für Computervisualistik (81) (entfernen)
Die Arbeit befasst sich mit atlasbasierter Segmentierung von CT-Datensätzen mit Hilfe von elastischen Registrierungsmethoden. Ziel ist die vollautomatische Segmentierung eines beliebigen Eingabedatensatzes durch Registrierung mit einem vorsegmentierten Referenzdatensatz, dem Atlanten. Ein besonderes Augenmerk liegt dabei auf der Implementierung und Evaluation elastischer Registrierungsverfahren, da rigide Registrierungsmethoden besonders in Bereichen hoher anatomischer Varianzen keine genaue Segmentierung gewährleisten. Im Vordergrund steht zunächst die Generierung zweier Atlanten, die als durchschnittliche Referenzdatensätze Informationen über die anatomische Varianz männlicher und weiblicher Bevölkerungsgruppen enthalten. Weiter werden vier etablierte elastische Registrierungsarten implementiert und im Hinblick auf eine atlasbasierte Segmentierung der wichtigen Organe des menschlichen Torsos evaluiert: BSpline-Registrierung, Demons-Registrierung, Level-Set-Motion-Registrierung und FEM-Registrierung. Robustheit und Genauigkeit der implementierten Verfahren wurden anhand von Lungen- und Abdomendatensätzen sowohl intra- als auch interpatientenspezifisch ausgewertet. Es wird gezeigt, dass vor allem die elastische BSpline-Registrierung hier genauere Segmentierungsergebnisse liefern kann, als es mit einer rigiden Registrierung möglich ist.
Im Rahmen dieser Arbeit werden die Möglichkeiten und Grenzen des Geometry-Shaders in Bezug auf die Triangulierung von Freiformflächen untersucht. Dazu steht die Konzeption und Entwicklung eines Geometry-Shaders im Vordergrund, der Freiformflächen möglichst performant zur Laufzeit triangulieren kann. Hierzu werden NURBS-Datensätze eingelesen, trianguliert und dargestellt.
Diese Diplomarbeit präsentiert ein interaktives System, welches die Vorzüge eines handelsüblichen Whiteboards mit denen eines Computers kombiniert. Die Inhalte des Whiteboards werden von einer Kamera aufgenommen, vom Computer verarbeitet und für eine Applikation als Eingabe verwendet bzw. durch geeignete Grafiken ergänzt. Dadurch erweitert das Whiteboard die Benutzeroberfläche des Computers. Der Anwender ist in der Lage über handgezeichnete Primitive (Viereck, Dreieck, Kreis) bzw. Kombinationen der Primitive das entwickelte interaktive Spiel zu spielen.
Im Rahmen dieser Diplomarbeit wurde ein Raytracer auf Voxel-Octrees für SSE-fähige CPUs implementiert. Als Grundlage diente das Augenblick-SDK der Firma Numenus. Es konnte gezeigt werden dass das Raytracing von Volumendaten exzellent skaliert und sich vor allem für sehr große, statische Datenmengen eignet.
Diese Arbeit beschäftigt sich mit Konzepten für die Anzeige eines frei programmierbaren Kombinationsinstrumentes (FPK). Ziel ist es, die zunächst theoretischen Anzeigekonzepte auf Basis einer zu ermittelnden Hard- und Softwareplattform zu entwickeln. Zu Beginn wird die Evolution von analogen, mechanischen Kombinationsinstrumenten zum FPK beschrieben. Darauf folgt ein Überblick bereits bestehender FPK-Konzepte mit einer genaueren Sicht auf dargestellte Anzeigeelemente. Dabei wird besonders auf die Personenwarnung in der Night-view-Anzeige und eine Anzeige der ökologischen Fahreffizienz eingegangen. Die Arbeit ist Teil eines in Entwicklung befindlichen FPK-Projektes. Basierend auf den durch dieses Projekt vorgegebenen Anforderungen wird eine geeignete Soft- und Hardwareplattform für die Umsetzung eines FPK ermittelt. Dabei zeigt sich, dass die optimale Plattform nur durch eine präzise Änderungsdefinition des graphischen Systems bestimmt werden kann. Da die Projektanforderungen nicht präzise genug sind, wird Adobe Flash in Verbindung mit Actionscript zur Umsetzung der Anzeigekonzepte eingesetzt, um Plattformunabhängigkeit zu erreichen. Mittels Techniken des User-centered Designs wurden Konzepte einzelner und kombinierter Anzeigeelemente entwickelt. Dabei wurde besonders darauf geachtet, die Gestaltungsmöglichkeiten durch die Größe der zur Verfügung stehenden Anzeigefläche des FPK auszunutzen. Nach theoretischen Überlegungen bezüglich des Verwendungskontexts und wahrnehmungspsychologischer Erkenntnisse werden entwickelte Konzepte skizzenhaft beschrieben und die erstellten Animationen erläutert. Den Schluss bildet eine Evaluation einzelner Prinzipien. In einer Umfrage mit 14 Probanden konnte die intuitive Erkennbarkeit einzelner Konzepte teilweise bestätigt oder widerlegt werden. Die Wirksamkeit einer entwickelten Warnmeldung zur Steuerung der Aufmerksamkeit wurde anhand eines Tests mit Nutzern in einer Simulation bestätigt. Die Warnmeldung und andere Konzepte sind nur in einem FPK umzusetzen. So wird gezeigt, dass der Einsatz eines FPK zu einer erhöhten Sicherheit und besseren Bedienbarkeit führen kann. Das FPK sollte jedoch nicht isoliert vom restlichen HMI betrachtet werden, damit seine Möglichkeiten voll ausgeschöpft werden können. Der Einsatz echter 3-D-Graphik für FPK ist zweifelhaft. Über den Bedarf muss im Einzelfall nach einem Test auf Usability entschieden werden. Die Evaluation zeigt, dass Konventionen eines herkömmlichen Kombinationsinstrumentes auch bei der Gestaltung von Anzeigeelementen für ein FPK genutzt werden sollten, um eine Lesbarkeit zu garantieren.
In der vorliegenden Arbeit werden verschiedene Ansätze zur Kalibrierung eines optischen Mikroskops behandelt. Dabei werden sowohl State-of-the-Art-Verfahren der Literatur implementiert als auch Verbesserungen an diesen Algorithmen durchgeführt, um die Ergebnisse stabiler und die Kalibrierung flexibler zu gestalten. Hierzu werden Algorithmen entwickelt, die einzelne Parameter der Kalibrierung vorkalibrieren können und somit das Endergebnis der eigentlichen Kalibrierung verbessern. Des weiteren werden diverse Techniken behandelt, die Störungen in den Eingabedaten unterdrücken und dadurch eine korrekte Modellschätzung für die Kalibrierung ermöglichen. Die Algorithmen werden dabei sowohl auf realen als auch auf synthetischen Daten untersucht und miteinander verglichen.
Point Rendering
(2009)
Das Ziel dieser Arbeit war es, bestehende Point Rendering Verfahren zu untersuchen und darauf aufbauend einen eigenen Point Renderer zu entwickeln. Mit diesem sollte dann die Anwendbarkeit auf weniger komplexe Modelle geprüft werden. Dabei galt es auftretende Probleme zu analysieren und gegebenenfalls Lösungsansätze zu finden.
Implementierung eines Subsurface Scattering Shader Plugins für die Augenblick Raytracing Engine
(2009)
In dieser Ausarbeitung werden drei Beleuchtungsverfahren und mögliche Implementierungen zur Realisierung eines Subsurface Scattering Shaders vorgestellt und diskutiert. Subsurface Scattering bezeichnet allgemein den Lichttransport in die Oberfläche von Objekten hinein und durch sie hindurch. Die korrekte Darstellung dieses Phänomens ist sehr komplex und ist nicht mittels einer einfachen BRDF und gängiger Beleuchtungsverfahren darstellbar. Die drei Verfahren sind: Physikalisch korrektes Subsurface Scattering durch das Monte Carlo Pathtracing, vereinfachtes Subsurface Scattering durch Nutzung eines Licht-Lots, stark vereinfachtes Subsurface Scattering durch ein normalenabhängiges Aufhellen der Kanten. Durch die Nutzung des Monte Carlo Pathtracers können zudem Beleuchtungseffekte wie das sogennante Colorbleeding, dass heißt Lichttransport von einer farbigen Fläche auf eine andere mittels indirekter Beleuchtung, ermöglicht werden. Jedes Verfahren beinhaltet eine andere Kombination der bekanntlich gegenläufigen Eigenschaften Performanz und Korrektheit, je nachdem in welchem Rahmen und Aufgabenbereich Subsurface Scattering benötigt wird.Am Schluss der Arbeit werden Ergebnisse präsentiert, diskutiert und ein Ausblick auf weiterführende Arbeiten gegeben. Alle drei Verfahren wurden als Plugin für den Raytracer Augenblick von Oliver Abert realisiert.
In dieser Arbeit werden drei Verfahren zur Objektentfernung aus Bildern einander gegenübergestellt. Zwei der ausgewählten Verfahren stammen aus dem Bereich der sogenannten Inpainting-Verfahren, während das dritte dem Forschungsgebiet der medizinischen Bildverarbeitung entnommen ist. Die Evaluation dieser Verfahren zeigt ihre jeweiligen Vor- und Nachteile auf und prüft ihre Anwendbarkeit auf das spezifische Problem, ein Farbkalibriermuster aus strukturdominierten Bildern zu entfernen. Auf der Grundlage dieser Eigenschaften werden abschließend mehrere Erweiterungen vorgestellt, die eine verbesserte Anwendbarkeit auf das gestellte Problem erreichen.
Zielsetzung Ziel der Diplomarbeit ist die Erforschung und Evaluation verschiedener multimodaler Interaktions- und Präsentationstechniken mit der Nintendo Wii Fernbedienung. Der zentrale Ansatz besteht darin, die verschiedenen alternativen Ein- und Ausgabemöglichkeiten der Nintendo Wiimote für Multimediapräsentationen im Bereich Bildung und Lehre nutzbar zu machen. Gesucht ist eine möglichst benutzerfreundliche Kombination verschiedener Präsentationslösungen in einem Eingabegerät, zu einem Bruchteil der Kosten existierender Lösungen. WiinterAct Um die Verbindung zwischen den multimodalen Interaktionsmöglichkeiten der Nintendo Wii Fernbedienung und den gewünschten Präsentationstechniken am Computer herzustellen, wurde die Software WiinterAct entwickelt. Mit Hilfe von WiinterAct lässt sich eine beliebige Präsentationssoftware über die Bedienknöpfe der Wiimote oder per Gestenerkennung steuern. Zusätzlich wurden alternative Mauszeigermanipulationsmöglichkeiten implementiert. So kann der Mauszeiger per interaktiver Laserpointer Metapher oder über ein interaktives Whiteboard auf Basis der Wiimote bewegt werden. Die hierfür nötige 4-Punkt-Kalibrierung wurde dabei stark vereinfacht. Neben einer intuitiven Visualisierung der Accelerometer- und Infrarotdaten aus der Wiimote wurde ferner eine Demoapplikation (FittsLaWii) zum Messen der Eingabegeschwindigkeit und Benutzerfreundlichkeit verschiedener Interaktionsmethoden bzw. Interaktionsgeräten entwickelt. Fazit Zusammenfassend lassen sich die Ergebnisse der Arbeit in viele andere Bereiche der Mensch-Computer-Interaktion übertragen.
Das Wissen über die genaue Position und Lage eines unbemannten Luftfahrzeugs spielt während der Durchführung einer autonomen Mission eine dominante Rolle. Unbemannte Luftfahrzeuge sind daher mit einer Vielzahl an Sensoren ausgestattet. Jeder dieser Sensoren leistet einen Beitrag zu diesem Ziel, wobei ein Sensor entweder eine absolute oder eine relative Angabe über den derzeitigen Aufenthaltsort oder die Fluglage ermöglicht. Alle Sensoren werden zu einer Gesamtlösung verknüpft, der Navigationslösung. Das am häufigsten eingesetzte - und auch meistens einzige - Verfahren zur absoluten Positionsbestimmung ist die Satellitennavigation. Diese ist abhängig von einer direkten Sichtlinie der mitgeführten Empfangsantenne zu den Satelliten. Falls es zu einer Unterbrechung dieser Sichtlinie kommt, ist eine genaue, absolute Positionsangabe nicht mehr möglich. Die Navigationslösung hat somit nur noch Sensoren zur Verfügung, die eine relative Positions- bzw. Lageangabe ermöglichen. Hierzu gehören das mitgeführte Magnetometer und das Inertialmesssystem. Beide unterliegen dem Phänomen der Drift. Dieses bedeutet, dass die Genauigkeit der Positions- und Lageangabe bei einem Ausfall der Satellitennavigation mit fortschreitender Zeit zunehmend unzuverlässig wird. Um diese Drift in einem bestimmten Rahmen zu kompensieren, kann ein Bildsensor verwendet werden. Dieser ermöglicht eine bildbasierte Bewegungsschätzung und stellt somit einen zusätzlichen Sensor zur Messung von relativen Lage- und Positionsänderungen dar. Ziel der Arbeit ist es, ein Verfahren zur bildbasierten Bewegungsschätzung für einen unbemannten Helikopter zu entwickeln und zu evaluieren.
Die Idee des Displacement Mappings ist 30 Jahre alt und wurde im Laufe der Zeit immer weiterentwickelt, verbessert und realistischer. Die meisten Verfahren basieren auf der Simulation von Geometrie, d.h. das Displacement Mapping Verfahren rechnet auf speziellen Texturen, um den Eindruck von Tiefe zu verstärken. Echte Displacement Mapping Verfahren verändern tatsächlich die Geometrie, doch davon wurde in der Vergangenheit Abstand genommen, da die Berechnung auf der CPU zu aufwändig war bzw. das Ergebnis nicht den Aufwand rechtfertigte. Dazu mussten bisher die Punkte von der Applikation im geeigneten Detailgrad erzeugt werden. Die Verfahren der Geometrieerzeugung sind daher weniger performant. Außerdem können die texturbasierten Simulationsverfahren bereits blickwinkelabhängige Effekte, Selbstverschattung und auch Selbstverdeckungen darstellen. Als Nachteil sind die Randprobleme bei diesen Verfahren zu nennen. Dennoch hat Displacement Mapping mit diesen Verfahren zunehmend Einzug in die Spieleindustrie gehalten, für die es bisher zu rechenaufwändig war. Hier bieten die neusten Erweiterungen der GPU interessante Potentiale, da mit Geometry Shadern die Möglichkeit besteht, echte Geometry beschleunigt und adaptiv zu erzeugen. Ziel dieser Arbeit ist es verschiedene Verfahren für echtes Displacement Mapping mit dem Geometry Shader zu untersuchen. Dabei wird neue Geometrie aus einer Textur heraus erzeugt. Hierbei werden Polygone und Punkte generiert. In der Textur werden neben den Normalen noch die Höhenwerte im Alphawert gespeichert. Außerdem wird noch ein Verfahren untersucht, welches Volumeninformationen simuliert, um Überhänge und schwebende Objekte zu erzeugen.
Markerloses Tracking im Bereich des modellbasierten Ansatzes Analyse durch Synthese nutzt den Vergleich von Kamerabild mit einer synthetischen Computergraphik, um die Kamerapose zu bestimmen. Hier werden ein High Dynamic Range Videokamerabild und eine photorealistische Computergraphik verglichen. Die Computergraphik ist Ergebnis einer Lichtsimulation basierend auf HDR Bildern einer Kamera mit Fischaugenobjektiv. Auf Basis der Ähnlichkeit von natürlichen Merkmalen soll die Relevanz verschiedener Rendering Parameter untersucht werden.
Ziel dieser Diplomarbeit ist es, katadioptrische Stereosysteme aufzubauen und zu testen. Hierfür gilt es, die Komponenten auszuwählen und zu beschaffen. Es soll ein System mit einem Planspiegel und eines mit einem gekrümmten Spiegel aufgebaut werden. Die Vorgehensweise in beiden Fällen unterscheidet sich jedoch deutlich voneinander. Das Planspiegel-System wird unter den Vorraussetzungen angefertigt, dass es möglichst kostengünstig ist und bietet sich vor allem deshalb für eine solches Vorgehen an, da es mit handelsüblichen Komponenten realisierbar ist. Die Verwendung dieser Komponenten bringt allerdings Einschränkungen in der Bildqualität mit sich. Hinzu kommt noch die Tatsache, dass es sich um eine Computational Camera mit geringer Komplexität handelt, da es direkt rektifizierte Ergebnisse liefert und aufgrund dessen leicht zu implementieren ist. Diese Kombination von Eigenschaften macht es zu einem geeigneten Kandidaten für eine solche Herangehensweise. Das radiale System wird hingegen unter der Prämisse maximaler Qualität gebaut. Der verwendete Spiegel ist eine Einzelanfertigung und zusätzlich wird ein zirkuläres Fisheye-Objektiv benötigt, was die Kosten für ein solches System relativ hoch werden lässt. Des Weiteren ist die Dekodierung der Rohaufnahmen deutlich komplexer, als bei den bereits rektifizierten Aufnahmen des Planspiegel-Systems. Nach erfolgreichem Aufbau der beiden Gesamtsysteme sollen diese unter qualitativen Aspekten miteinander verglichen werden.
Die Arbeit befasst sich mit der Thematik "Frauen und Computerspiele". Um einen kurzen Überblick über die Thematik zu geben, werden zunächst einige aktuelle Studien präsentiert. Anschließend werden bisherige Erkenntnisse zu den Vorlieben weiblicher Computerspieler herausgestellt. Insbesondere wird untersucht, was Frauen motiviert, Computerspiele zu spielen, welche Themen und Konfliktlösungen sie bevorzugen. Auch die Zugangsweise zum Computer wird betrachtet und die Frage, wie hoch die Fehlertoleranz von Frauen bei Computerspielen ist. Um die Präferenzen weiblicher Spieler untersuchen zu können, wird ein Casual Game mit zwei unterschiedlichen Leveln entwickelt. Das erste ähnelt vom Aufbau her Casual Games, die aktuell im Internet zu finden sind und schon einige Frauen begeistert haben, z.B. "Cake Mania". In das Spiel, insbesondere in das zweite Level, sind zusätzliche Elemente eingebaut, welche den ausgearbeiteten Vorlieben entsprechen. Abschließend wird das Spiel weiblichen Testpersonen über das Internet zur Verfügung gestellt, und über einen Online-Fragebogen werden die herausgearbeiteten Thesen überprüft.
Im Mittelpunkt dieser Diplomarbeit stand die Entwicklung eines Modells zur Charakterisierung einer HDR-Kamera mit CMOS-Sensorelement und logarithmischer Kamerakennlinie. Unter Beachtung der spezifischen Eigenschaften der Kamera sollte ein Verfahren gefunden werden, um von der Kamera aufgenommene Farbwerte, farbmetrisch korrekt in einen geräteunabhängigen Farbraum zu überführen. Zu diesem Zweck wurde im Rahmen dieser Arbeit ein zweiteiliges Charakterisierungsmodell entwickelt, welches zwischen Vorwärtsmodell und Inversem Modell unterscheidet.
Für die realistische Betrachtung einer virtuellen Szene spielt neben der direkten Beleuchtung auch die Ausbreitung des indirekten Lichtes eine wichtige Rolle. Die Berechnung der indirekten Beleuchtung benötigt grundsätzlich Informationen über die gesamte Szene, nicht nur über den für die Kamera sichtbaren Ausschnitt, der in bildraumbasierten Techniken zum Einsatz kommt. Mittels Voxelisierung kann die Szene in eine dreidimensionale, diskrete und GPU-freundliche Repräsentation überführt werden. In dieser Arbeit werden Voxelrepräsentationen hinsichtlich ihrer Eignung für den globalen Lichtaustausch in dynamischen und großen Szenen untersucht. Nach einer Einführung und einem Literaturüberblick über existierende Voxelisierungs- und Beleuchtungsverfahren, die Voxel als Grundlage nutzen, wird ein Voxelisierungsverfahren entwickelt, das sich für Szenen mit dynamischen Objekten eignet. Auf der Grundlage des Strahlenschnitt-Tests mit binärer Voxelhierarchie werden dann zwei Beleuchtungsalgorithmen umgesetzt, implementiert und evaluiert: Monte-Carlo-Integration der Hemisphäre eines Szenenpunktes und Beleuchtung der Szenenpunkte mit virtuellen Punktlichtquellen.
Im Rahmen dieser Diplomarbeit wird ein Verfahren zur markerlosen Pose-Rekonstruktion vorgestellt. Die Modellierung des menschlichen Körpers geschieht auf Basis der Starrkörperphysik. Mittels eines probabilistischen Ansatzes wird das Modell in eine volumetrische Rekonstruktion der Szene eingepasst. Die hierfür zu bewältigende Suche in hochdimensionalen Zustandsräumen wird mittels eines Partikelfilters in Kombination mit Simulierter Abkühlung vorgenommen. Eine Berücksichtigung anthropometrischer Besonderheiten sowie kinematischer Grenzen wird zur weiteren Stützung des Verfahrens vorgenommen. Die vollständig Umsetzung des Verfahrens durch dreidimensionale Beobachtungs- und Messmodelle führt zu einer exakten Poserekonstruktion und vermeidet Mehrdeutigkeiten während der Auswertung.
Die Ermittlung der Position und Orientierung einer Kamera aus Punktkorrespondenzen zwischen 3D-Positionen und deren Bildpositionen ist im Rechnersehen unter dem Begriff Poseschätzung bekannt. Viele moderne Anwendungen profitieren von dem Wissen über die Lage einer Kamera im Raum zum Zeitpunkt der Bildentstehung. Für eine robuste Schätzung der Pose wird in dieser Arbeit zunächst anhand eines Stereoalgorithmus aus einer Bildserie ein Modell in Form einer Menge von SIFT-Merkmalen erstellt. Bei der Modellerstellung kommt eine handelsübliche monokulare Kamera zum Einsatz, die frei Hand geführt werden kann. Es ist dafür kein Wissen über die Position der Kamera während der Modellerstellung nötig. In einem zweiten Schritt wird die Pose einer Kamera bestimmt, deren Bild teilweise Inhalte des zuvor erstellten Modells aufweist. Die Zuordnungen der im Bild gefundenen SIFT-Merkmale zu den Modellmerkmalen mit bekannter 3D-Position bilden die Basis der linearen Optimierungsverfahren, die zur Lösung des Poseproblems angewandt werden. Das System beruht dabei auf einer zuvor kalibrierten Kamera und der manuellen Selektion geeigneter SIFT-Merkmale zur Initialisierung der Epipolargeometrie während des Modellaufbaus.
Orientierung aus Silhouetten
(2010)
Anhand der sogenannten "Analyse durch Synthese" soll in der folgenden Qualifikationsarbeit versucht werden, zum Zeitpunkt einer Aufnahme auf dem Campus der Universität Koblenz die Orientierung der Kamera zu bestimmen. Die Lösungsidee für diese Problemstellung liegt in Form eines merkmalsbasierten Ansatzes vor. Zu diesem Zweck ist die grobe Position im 3D-Campusmodell der Universität Koblenz zum Zeitpunkt der entsprechenden Aufnahme gegeben. Um das Bild einer realen Aufnahme mit einem künstlichen Bild des 3D-Modells vergleichen zu können, ist ein Ähnlichkeitsmaß notwendig, welches die Ähnlichkeit zwischen diesen beiden Bildern mit einem Wert ausdrückt. Der Vergleich erfolgt anhand der Silhouette der einzelnen Bilder, während die Orientierung der Kamera mit Hilfe eines nicht linearen Opitimierungsverfahrens bestimmt wird.