Refine
Document Type
- Diploma Thesis (81) (remove)
Keywords
- Bildverarbeitung (4)
- Analyse durch Synthese (3)
- Augmented Reality (3)
- Markerloses Tracking (3)
- Modellbasiertes Tracking (3)
- Volumendaten (3)
- Computergrafik (2)
- Computerspiel (2)
- Frau (2)
- Kamera (2)
Institute
- Institut für Computervisualistik (81) (remove)
In dieser Arbeit wurden die vorhandenen Verfahren zur Gefäßsegmentierung eingehend untersucht. Die Vielfalt der verwendeten Ansätze wurde in unterschiedlichen Klassifizierungsversuchen aufgezeigt. Es gibt bisher kein Verfahren zur Segmentierung von Netzhautbildern, das für alle Arten von Bildern gleich gute Ergebnisse liefert. Alle Verfahren haben ihre Stärken und Schwächen. Unter Berücksichtigung der verwendeten Heidelberg Retina Tomographie Bilder wurde ein mögliches Verfahren zur Segmentierung der Blutgefäße mit angepassten Filtern ausgewählt, umgesetzt und evaluiert. Abweichend zu dem traditionellen Konzept der angepassten Filter, wird in diesem Verfahren die Filtermaske nicht rotiert, um alle Gefäßrichtungen zu erfassen, sondern es wird ein quadratischer LoG-Filter angewendet. Die Filter- und andere Parameter werden nicht während des Verarbeitungsprozesses verändert, sondern sie werden im voraus berechnet und an die Eigenschaften der HRT Bilder angepasst. Dadurch ist dieses Verfahren weniger rechenaufwendig. Zur Detektion der Gefäße werden die linienähnlichen Strukturen hervorgehoben und danach mit einem passenden Schwellwert binarisiert. Deshalb ist ein hoher Kontrast zwischen dem Gefäß und dem Hintergrund, sowie eine gleichmäßige Ausleuchtung sehr wichtig. Dies wird in einem Vorverarbeitungsschritt [Chrastek04] erreicht. Bei den Verfahren mit angepassten Filtern ist ein Nachbearbeitungsprozess notwendig, um falsch detektierte Strukturen zu entfernen. Für die Nachbearbeitung wurden in diesem Verfahren die morphologischen Operatoren verwendet. Der Algorithmus zur Detektion der linienähnlichen Strukturen könnte sehr gut mit einem trackingbasierten Ansatz kombiniert werden, was den Nachbearbeitungsprozess mit morphologischen Operatoren ersetzten würde. Die Sensitivität des Segmentierungsalgorithmus mit vorher berechneten Parametern ist 81% und die Spezifität 96%. Eine leichte Änderung der verwendeten Parameter führt zu einer Variation diesen beiden Maßzahlen. Eine weitere Erhöhung der Sensitivität kann durch die Optimierung des Nachbearbeitungsprozesses erreicht werden. Vermeer et al. sind in deren Implementierung auf vergleichbare Ergebnisse für Sensitivität und Spezifität gekommen.
Die Erstellung räumlicher Abbilder aus planaren Ansichten gewinnt immer mehr Bedeutung in der modernen Medizintechnik. 3D-Rekonstruktionen haben wesentlich zur besseren Detektion,wie auch zu Optimierung und Innovation in der Diagnostik und Behandlungsmethodik bestimmter Krankheitsbilder beigetragen. Durch die Verfahren der Bildverarbeitung ist es möglich, aus Bildsequenzen eine 3D-Abbildung der gefilmten Szene zu erstellen. Ziel dieser Diplomarbeit soll es sein, zu untersuchen, inwieweit sich aus der Aufnahmetechnik aus einer Reihe unkalibrierter Endoskopiebilder weitere Rückschlüsse über die Oberflächenbeschaffenheit des betrachteten Gewebes ziehen lassen. Hierbei wird das Phänomen zugrundegelegt, daß bei der Aufnahme der Bilder Glanzlichter auftreten, wenn die Beleuchtung am Kamerakopf orthogonal zur Gewebeoberfläche auftrifft. Diese Glanzlichter geben daher implizit Aufschluss über die Oberflächenorientierung des Gewebes. Aufgabe ist es nun, diese Glanzlichter in einer Reihe von unkalibrierten Endoskopieaufnahmen zu finden, die Bilder aus der Sequenz einander zuzuordnen, also Korrespondenzen zwischen den Bildern zu finden, und unter Einbeziehung der Kamerageometrie Rückschlüsse auf die Gewebeoberfläche zu ziehen. Zuerst müssen hierfür die Glanzlichter in den Einzelbildern der Sequenz gefunden werden. Dazu wird ein Verfahren verwendet, welches die Glanzlichter durch eine Zerlegung des HSV-Farbraums detektiert und deren Mittelpunkt errechnet. Um die Kamerageometrie zu schätzen, werden mihilfe eines Punktverfolgers Punktkorrespondenzen zwischen den Einzelbildern erstellt, anhand derer sich die Fundamentalmatrix durch RANSAC errechnen läßt. Unter Anwendung eines Autokalibrierungsverfahrens werden aus den geschätzten Fundamentalmatrizen dann in einem abschließenden Schritt die internen Kameraparameter ermittelt. So sollte möglich sein, die Glanzlichter durch eine Sequenz von Bildern zu verfolgen und die Oberflächennormalen einem Referenzbild zuzuordnen.
In dieser Arbeit wird die Umsetzung und Modifikation des Verfahrens von Finlayson et al. zur Schattenentfernung in einzelnen Farbbildern unter Verwendung des Retinex-Algorithmus vorgestellt. Für die benötigte Detektion von Schattenkanten wurde ein Verfahren von Finlayson et al. umgesetzt und angepasst. Die erforderliche Kamerakalibrierung wurde dabei nicht mit Tageslicht, sondern unter Verwendung künstlicher Lichtquellen realisiert. Anhand von Campus-Bildsequenzen wird ein qualitativer Vergleich des umgesetzten Verfahrens mit dem von Weiss zur Schattenentfernung in Bildserien vorgenommen. Außerdem wird ein erster Ansatz vorgestellt, wie Verfahren zur Schattenentfernung quantitativ bewertet werden können. Die Erzeugung der benötigten Ground-truth-Daten wird mit Hilfe von Laboraufnahmen realisiert, sodass keine manuelle Segmentierung von Schatten erforderlich ist. Anhand der Ergebnisse von Experimenten wird gezeigt, inwieweit die definierten Maße eine Bewertung und einen Vergleich der beiden Verfahren erlauben.
This work represents a quantitative analysis and visualisation of scar tissue of the left ventricular myocard. The scar information is shown in the late enhancement data, that highlights the avitale tissue with the help of a contrast agent. Through automatic methods, the scar is extracted from the image data and quantifies the size, location and transmurality. The transmurality shows a local measurement between the heart wall und the width of the scar. The developed methods help the cardiologist to analyse the measurement, the reason and the degree of the heart failure in a short time period. He can further control the results by several visual presentations. The deformation of the scar tissue over the heart cycle is implemented in another scientific work. A visual improvement of the deformation result which extracts the scar out of the data is aspired. The avital tissue is shown in a more comfortable way by eliminating the unnecessary image information and therefore improves the visual analysis of the pumping heart. Both methods show a detailed analysis of the scar tissue. This supports the clinic practical throughout the manual analysis.
Ziel dieser Arbeit war es, ein (ggf. aus Teilverfahren zusammengesetztes) Gesamtsystem zur Generierung von Stadt- und Gebäudemodellen zu entwickeln und umzusetzen. Dabei war insbesondere wichtig, dass die baulichen Elemente einer Stadt durch realistisch wirkende, dreidimensionale Formen repräsentiert und auch in großer Anzahl unter Echtzeit-Bedingungen dargestellt werden können.
In dieser Arbeit soll ein dreidimensionales, echtzeitfähiges Landschaftsmodell des Mittelrheintals erstellt werden. Dabei soll die Modellerstellung soweit wie möglich automatisiert werden. Als Datengrundlage dienen das digitale Landschaftsmodell ATKIS-Basis DLM sowie das digitale Geländemodell (DGM), welches die notwendigen Höheninformationen zur Erzeugung des dreidimensionalen Modells enthält. Insbesondere soll dabei untersucht werden, wie sich die Generierung von Landschaftsmerkmalen wie Infrastruktur und Vegetation durch ein parametrisierbares Modell automatisieren lässt, und inwieweit sich die verwendeten Daten für einen solchen Automatisierungsprozess eignen.
Point Rendering
(2009)
Das Ziel dieser Arbeit war es, bestehende Point Rendering Verfahren zu untersuchen und darauf aufbauend einen eigenen Point Renderer zu entwickeln. Mit diesem sollte dann die Anwendbarkeit auf weniger komplexe Modelle geprüft werden. Dabei galt es auftretende Probleme zu analysieren und gegebenenfalls Lösungsansätze zu finden.
Orientierung aus Silhouetten
(2010)
Anhand der sogenannten "Analyse durch Synthese" soll in der folgenden Qualifikationsarbeit versucht werden, zum Zeitpunkt einer Aufnahme auf dem Campus der Universität Koblenz die Orientierung der Kamera zu bestimmen. Die Lösungsidee für diese Problemstellung liegt in Form eines merkmalsbasierten Ansatzes vor. Zu diesem Zweck ist die grobe Position im 3D-Campusmodell der Universität Koblenz zum Zeitpunkt der entsprechenden Aufnahme gegeben. Um das Bild einer realen Aufnahme mit einem künstlichen Bild des 3D-Modells vergleichen zu können, ist ein Ähnlichkeitsmaß notwendig, welches die Ähnlichkeit zwischen diesen beiden Bildern mit einem Wert ausdrückt. Der Vergleich erfolgt anhand der Silhouette der einzelnen Bilder, während die Orientierung der Kamera mit Hilfe eines nicht linearen Opitimierungsverfahrens bestimmt wird.
Der Zwang zur Entwicklung immer neuer Technologien hat den Entwicklungsaufwand vieler Spiele enorm in die Höhe getriebenen. Aufwändigere Grafiken und Spiele-Engines erfordern mehr Künstler, Grafiker, Designer und Programmierer, weshalb die Teams immer größer werden. Bereits jetzt liegt die Entwicklungszeit für einen Ego-Shooter bei über 3 Jahren, und es entstehen Kosten bis in den zweistelligen Millionenbereich. Neue Techniken, die entwickelt werden sollen, müssen daher nach Aufwand und Nutzen gegeneinander abgewogen werden. In dieser Arbeit soll daher eine echtzeitfähige Lösung entwickelt werden, die genaue und natürlich aussehende Animationen zur Visualisierung von Charakter-Objekt-Interaktionen dynamisch mithilfe von Inverser Kinematik erstellt. Gleichzeitig soll der Aufwand, der für die Nutzung anfällt, minimiert werden, um möglichst geringe zusätzliche Entwicklungskosten zu generieren.