Filtern
Erscheinungsjahr
- 2007 (4) (entfernen)
Dokumenttyp
- Studienarbeit (3)
- Diplomarbeit (1)
Schlagworte
- Bildverarbeitung (4) (entfernen)
In der Bildverarbeitung werden zunehmend Algorithmen unter Verwendung von prägnanten Merkmalen implementiert. Prägnante Merkmale können sowohl für die optische Kameraposebestimmung als auch für die Kalibrierung von Stereokamerasystemen verwendet werden. Für solche Algorithmen ist die Qualität von Merkmalen in Bildern ein entscheidender Faktor. In den letzten Jahren hat sich an dieser Stelle das von D. Lowe 2004 vorgestellte SIFT-Verfahren hervorgetan. Problematisch bei der Anwendung dieses Verfahrens ist seine hohe Komplexität und der daraus resultierende hohe Rechenaufwand. Um das Verfahren zu beschleunigen, wurden bereits mehrere Implementationen veröffentlicht, die teils weiterhin ausschließlich die CPU nutzen, teils neben der CPU auch die GPU zur Berechnung bestimmter Teilbereiche des SIFT verwenden. Diese Implementationen gilt es zu hinterfragen. Ebenso ist die Qualität der Merkmale zu untersuchen, um die Verwendbarkeit von SIFT-Merkmalen für andere Bereiche der Bildverarbeitung gewährleisten zu können. Zur Visualisierung der Ergebnisse wurde eine GUI erstellt.
In dieser Arbeit werden mehrere Verfahren zur Superresolution, die zwei unterschiedlichen Ansätzen zuzuordnen sind, implementiert und miteinander verglichen. IBP, ein Verfahren, welches der Tomographie ähnelt, stellt den klassischen Ansatz der Superresolution dar. Das Prinzip von IBP ist leicht verständlich und relativ einfach zu implementieren, hat aber den Nachteil, keine eindeutigen Lösungen zu produzieren, da es schwer ist, Vorwissen mit einfließen zu lassen. Bei den statistischen Verfahren erweist es sich als äußerst zeitkritisch, die Systemmatrix M vorzuberechnen. Capel und Zisserman haben beim Maximum-Likelihood-Verfahren eine starke Rauschanfälligkeit festgestellt. Der Vergleich ergibt, dass IBP in punkto Bildqualität Maßstäbe setzt, zumindest bei kaum verrauschten Eingangsbildern und guter Registrierung. Allerdings stellen viele Eingangsbilder wegen des linearen Laufzeitverhaltens ein Problem dar. Die statistischen Verfahren liefern bei stark verrauschten Eingangsbildern bessere Ergebnisse als IBP. Durch viele Eingangsbilder lassen sich diese noch weiter verbessern. Die bei vorberechneten Systemmatrizen nahezu konstante Laufzeit und ihre Robustheit bei Rauschen prädestinieren die statistischen Verfahren für solche Bildserien. Ungenau registrierte Eingangsbilder wiederum führen bei allen Verfahren zu unscharfen Ergebnissen.
In dieser Arbeit werden jeweils ein Verfahren aus den beiden Bereichen der Bildregistrierung implementiert und beschrieben. Eine direkte und eine merkmalsbasierte Methode werden verglichen und auf ihre Grenzen hin überprüft. Die implementierten Verfahren funktionieren gut und registrieren beide verschiedene Bildserien subpixelgenau. Bei der direkten Methode ist vor allem die Wahl des Transformationsmodells ausschlaggebend. Auch das Einbetten der Methode in eine Gaußpyramidenstruktur hat sich als wichtig herausgestellt. Da die merkmalsbasierte Methode aus verschiedenen Komponenten aufgebaut ist, kann jeder einzelne Schritt durch unterschiedliche Verfahren ausgetauscht werden, so z.B. die Detektion der Merkmale durch Tomasi-Kanade, SIFT oder Moravec. In der direkten Methode kann die Genauigkeit der Ergebnisse zum einen durch den gewählten Schwellwert und zum anderen durch die Anzahl der Pyramidenstufen beeinflusst werden. Bei der merkmalsbasierten Methode wiederum können unterschiedlich viele Merkmale benutzt werden, die einen unterschiedlich hohen Schwellwert besitzen können. Es wird gezeigt, dass beide Methoden zu guten Ergebnissen führen, wenn davon ausgegangen wird, dass die Verschiebung sowie die Rotation gering sind. Bei stärkeren Veränderungen jedoch wird die direkte Methode recht ungenau, während die merkmalsbasierte Methode noch gute Ergebnisse erzielt. An ihre Grenze gerät sie erst, wenn entweder der Bildinhalt sich stark ändert, oder die Rotationen einen Winkel von 20° überschreitet. Beide Verfahren arbeiten also subpixelgenau, können aber unter verschiedenen Voraussetzungen zu Ungenauigkeiten führen. Werden die jeweiligen Probleme der beiden Methoden beachtet und am besten bei der Aufnahme oder vor der Registrierung eliminiert, so können sehr gute Ergebnisse erzielt werden.
In dieser Arbeit wurden die vorhandenen Verfahren zur Gefäßsegmentierung eingehend untersucht. Die Vielfalt der verwendeten Ansätze wurde in unterschiedlichen Klassifizierungsversuchen aufgezeigt. Es gibt bisher kein Verfahren zur Segmentierung von Netzhautbildern, das für alle Arten von Bildern gleich gute Ergebnisse liefert. Alle Verfahren haben ihre Stärken und Schwächen. Unter Berücksichtigung der verwendeten Heidelberg Retina Tomographie Bilder wurde ein mögliches Verfahren zur Segmentierung der Blutgefäße mit angepassten Filtern ausgewählt, umgesetzt und evaluiert. Abweichend zu dem traditionellen Konzept der angepassten Filter, wird in diesem Verfahren die Filtermaske nicht rotiert, um alle Gefäßrichtungen zu erfassen, sondern es wird ein quadratischer LoG-Filter angewendet. Die Filter- und andere Parameter werden nicht während des Verarbeitungsprozesses verändert, sondern sie werden im voraus berechnet und an die Eigenschaften der HRT Bilder angepasst. Dadurch ist dieses Verfahren weniger rechenaufwendig. Zur Detektion der Gefäße werden die linienähnlichen Strukturen hervorgehoben und danach mit einem passenden Schwellwert binarisiert. Deshalb ist ein hoher Kontrast zwischen dem Gefäß und dem Hintergrund, sowie eine gleichmäßige Ausleuchtung sehr wichtig. Dies wird in einem Vorverarbeitungsschritt [Chrastek04] erreicht. Bei den Verfahren mit angepassten Filtern ist ein Nachbearbeitungsprozess notwendig, um falsch detektierte Strukturen zu entfernen. Für die Nachbearbeitung wurden in diesem Verfahren die morphologischen Operatoren verwendet. Der Algorithmus zur Detektion der linienähnlichen Strukturen könnte sehr gut mit einem trackingbasierten Ansatz kombiniert werden, was den Nachbearbeitungsprozess mit morphologischen Operatoren ersetzten würde. Die Sensitivität des Segmentierungsalgorithmus mit vorher berechneten Parametern ist 81% und die Spezifität 96%. Eine leichte Änderung der verwendeten Parameter führt zu einer Variation diesen beiden Maßzahlen. Eine weitere Erhöhung der Sensitivität kann durch die Optimierung des Nachbearbeitungsprozesses erreicht werden. Vermeer et al. sind in deren Implementierung auf vergleichbare Ergebnisse für Sensitivität und Spezifität gekommen.