Filtern
Erscheinungsjahr
- 2006 (28) (entfernen)
Dokumenttyp
- Studienarbeit (18)
- Diplomarbeit (10)
Schlagworte
- GPU (2)
- Stereosehen (2)
- Volumendaten (2)
- Adaptive Abtastung (1)
- Augmented Reality (1)
- Axis Aligned Bounding Box (AABB) (1)
- Besuchersoftware (1)
- Bildverarbeitung (1)
- Cg (1)
- Communication System (1)
- Computeranimation (1)
- Computergrafik (1)
- Computergraphik (1)
- DCMTK (1)
- DICOM (1)
- DIN EN ISO 9241 (1)
- Datenstruktur (1)
- Dreidimensionale Visualisierung (1)
- Dynamische Programmierung (1)
- Echtzeitanimationssystem (1)
- Echtzeitfähigkeit (1)
- Fragmentshader (1)
- Framework (1)
- GPGPU-Programmierung (1)
- GPU-Programmierung (1)
- Geländemodell (1)
- Gradientenanalyse (1)
- Graphikprozessor (1)
- HDR-Bild (1)
- Information-Retrieval (1)
- J2ME (1)
- KD-Bäume und Binary-Space-Partitioning-Bäume (1)
- Linienkorrelationen (1)
- Maya (1)
- Mind Maps (1)
- Mobile Kommunikation (1)
- Mobiles Informatinssystem (1)
- Modellbasiertes Tracking (1)
- Modulares Softwaresystem (1)
- Myokard (1)
- Netzwerkmanagement (1)
- Netzwerkmonitoring (1)
- Netzwerktechnik (1)
- Nicht-photorealistisches Rendering (1)
- Oktonärbäume (1)
- PACS- Picture Archiving (1)
- PBRT (1)
- Phantom Omni (1)
- Potenzialfeld (1)
- Punktkorrelationen (1)
- Ray casting (1)
- Relativitätstheorie (1)
- Roboter (1)
- Robotik (1)
- Schatten (1)
- Selbstlokalisation (1)
- Separating-Axis-Theorem (1)
- Shader (1)
- Shaderhochsprache (1)
- Software- Ergonomie (1)
- Stereografie (1)
- Stereoskopie (1)
- Szeneneditor (1)
- Tanzspiel (1)
- Tiefenbild (1)
- Tiefenkarte (1)
- Tonemapping (1)
- Tonemapping-Verfahren (1)
- Uniforme Raumunterteilung (1)
- Video (1)
- Visualisierung (1)
- Volumen-Rendering (1)
- Webcam (1)
- Wiki (1)
- XML (1)
- depth map (1)
- disparity map (1)
- dynamic programming (1)
- image processing (1)
- medizinische Bilddaten (1)
- relativity (1)
- stereo vision (1)
- visualization (1)
Institut
- Institut für Computervisualistik (28) (entfernen)
Die Leistungsfähigkeit moderner Graphikkarten steigt zur Zeit schneller an, als die von CPUs. Dabei kann diese Leistung nicht nur zur Darstellung von 3D Welten, sondern auch für allgemeine Berechnungen (GPGPU) verwendet werden. Diese Diplomarbeit untersucht daher, ob mit Hilfe der GPU Volumendaten schneller gefiltert werden können, als mit der CPU. Dies soll insbesondere am Beispiel von Rausch-Filtern, die auf Videosequenzen angewendet werden, untersucht werden. Dabei soll das Video als Volumen repräsentiert und mit Volumenfiltern gefiltert werden. So soll eine höhere Qualität und eine kürzere Berechnungszeit als mit herkömmlichen CPU und Frame-basierten Verfahren erreicht werden, insbesondere auch bei den z.Z. stark aufkommenden hochauflösenden HDTV-Standards. Das Framework soll jedoch nicht auf Videosequenz-Bearbeitung beschränkt sein, sondern so konzipiert werden, dass es z.B. in bestehende Volumenvisualisierungssysteme integriert werden kann. Das Ziel der Arbeit ist die Einarbeitung in die notwendigen theoretischen Grundlagen, daran anschließend die prototypische Implementierung des Frameworks mit abschließender Bewertung der erreichten Ergebnisse insbesondere der Geschwindigkeit im Vergleich zu existierenden Systemen.
Die moderne Bildgebung in der Medizin arbeitet oft mit Daten höheren Tonwertumfangs. So haben beispielsweise Bilder aus CT-Geräten einen Dynamikbereich von 12 Bit, was 4096 Graustufen entspricht. Im Bereich der photorealistischen Computergrafik und zunehmend in der Bildverarbeitung sind Bilddaten viel höheren Tonwertumfangs üblich, die als HDR-Bilder (High Dynamic Range) bezeichnet werden. Diese haben eine Bittiefe von 16, oftmals sogar 32 Bit und können dadurch sehr viel mehr Informationen speichern, als herkömmliche 8-Bit-Bilder. Um diese Bilder auf üblichen Monitoren darstellen zu können, muss man die Bildinformation auf den Tonwertumfang des Ausgabegerätes abbilden, was man als Tonemapping bezeichnet. Es existieren zahlreiche solcher Tonemapping-Verfahren, die sich durch ihre Arbeitsweise, Geschwindigkeit und visuelle Qualität unterscheiden lassen. Im Rahmen dieser Studienarbeit sollen Tonemapping-Verfahren auf medizinische Bilddaten angewendet werden. Dabei soll sowohl die visuelle Qualität, als auch die Geschwindigkeit im Vordergrund stehen.
Die vorliegende Diplomarbeit thematisiert die quantitative Analyse und die Visualisierung von Infarktgewebe des linken Herzmuskels. Im Mittelpunkt der Untersuchung steht das Ausmaß der Narbe und deren Deformation ueber den Herzzyklus. Fuer die Narbenausdehnung stehen so genannte Late-Enhancement-Daten zur Verfuegung, die das avitale Gewebe durch ein Kontrastmittel hervorheben. Anhand von automatisierten Verfahren wird die Narbe aus den Bilddaten extrahiert und auf ihre Groesse, Lokalisation und Transmuralitaet quantifiziert. Die Transmuralitaet gibt dabei das lokale Verhaeltnis zwischen der Herzwand- und der Narbenbreite an. Des Weiteren wird die Narbe für die Beurteilung der Beschaffenheit dreidimensional in dem Analysefenster dargestellt. Der Mediziner kann durch das entwickelte Verfahren innerhalb kuerzester Zeit Aussagen ueber das Ausmass und den Ursprung des Herzinfarktes treffen und zudem die Ergebnisse durch verschiedene visuelle Darstellungen kontrollieren. Die Deformation des Narbengewebes über den Herzzyklus und deren Integration mit den dynamischen Cine-Daten wurde bereits in einer vorangegangenen Diplomarbeit umgesetzt. Im Rahmen dieser Arbeit wird eine visuelle Verbesserung der Deformationsergebnisse angestrebt, die das Narbengewebe aus den Volumendaten extrahiert. Das avitale Gewebe wird durch das Eliminieren von uninteressanten Bildinformationen hervorgehoben und verbessert somit die visuelle Analyse der Narbendeformation ueber den Herzzyklus. Beide Verfahren liefern eine detaillierte und eindeutige Analyse des Infarktgewebes, die die manuelle Untersuchung in der klinischen Praxis ergaenzen kann.