Filtern
Erscheinungsjahr
- 2006 (28) (entfernen)
Dokumenttyp
- Studienarbeit (18)
- Diplomarbeit (10)
Schlagworte
- GPU (2)
- Stereosehen (2)
- Volumendaten (2)
- Adaptive Abtastung (1)
- Augmented Reality (1)
- Axis Aligned Bounding Box (AABB) (1)
- Besuchersoftware (1)
- Bildverarbeitung (1)
- Cg (1)
- Communication System (1)
- Computeranimation (1)
- Computergrafik (1)
- Computergraphik (1)
- DCMTK (1)
- DICOM (1)
- DIN EN ISO 9241 (1)
- Datenstruktur (1)
- Dreidimensionale Visualisierung (1)
- Dynamische Programmierung (1)
- Echtzeitanimationssystem (1)
- Echtzeitfähigkeit (1)
- Fragmentshader (1)
- Framework (1)
- GPGPU-Programmierung (1)
- GPU-Programmierung (1)
- Geländemodell (1)
- Gradientenanalyse (1)
- Graphikprozessor (1)
- HDR-Bild (1)
- Information-Retrieval (1)
- J2ME (1)
- KD-Bäume und Binary-Space-Partitioning-Bäume (1)
- Linienkorrelationen (1)
- Maya (1)
- Mind Maps (1)
- Mobile Kommunikation (1)
- Mobiles Informatinssystem (1)
- Modellbasiertes Tracking (1)
- Modulares Softwaresystem (1)
- Myokard (1)
- Netzwerkmanagement (1)
- Netzwerkmonitoring (1)
- Netzwerktechnik (1)
- Nicht-photorealistisches Rendering (1)
- Oktonärbäume (1)
- PACS- Picture Archiving (1)
- PBRT (1)
- Phantom Omni (1)
- Potenzialfeld (1)
- Punktkorrelationen (1)
- Ray casting (1)
- Relativitätstheorie (1)
- Roboter (1)
- Robotik (1)
- Schatten (1)
- Selbstlokalisation (1)
- Separating-Axis-Theorem (1)
- Shader (1)
- Shaderhochsprache (1)
- Software- Ergonomie (1)
- Stereografie (1)
- Stereoskopie (1)
- Szeneneditor (1)
- Tanzspiel (1)
- Tiefenbild (1)
- Tiefenkarte (1)
- Tonemapping (1)
- Tonemapping-Verfahren (1)
- Uniforme Raumunterteilung (1)
- Video (1)
- Visualisierung (1)
- Volumen-Rendering (1)
- Webcam (1)
- Wiki (1)
- XML (1)
- depth map (1)
- disparity map (1)
- dynamic programming (1)
- image processing (1)
- medizinische Bilddaten (1)
- relativity (1)
- stereo vision (1)
- visualization (1)
Institut
- Institut für Computervisualistik (28) (entfernen)
In dieser Studienarbeit wird ein Verfahren zur Extraktion eines Oberflächenbegrenzungsmodells aus einem Tiefenbild vorgestellt. Das Modell beschreibt die im Tiefenbild dargestellte Szene durch die Geometrie und die Topologie der planaren Flächen, die in der Szene gefunden werden. Die Geometrie ist gegeben durch die Angabe der Ebenengleichungen der gefundenen Flächen sowie der 3D-Koordinaten der Eckpunkte der Polygone, die diese Flächen beschreiben. Die Informationen über die Topologie der Szene besteht aus einer Nachbarschaftsliste, die für jede Flaeche angibt, über welche Kante diese Fläche mit welcher anderen Fläche verbunden ist. Aufbauend auf einem Algorithmus zur Tiefenbildsegmentierung aus PUMA werden die Polygone bestimmt, die die Flächen der Szene beschreiben. Anschließend wird versucht, diese Polygone über Kanten und Eckpunkte zu verbinden, um ein möglichst geschlossenes Modell der Szene zu erhalten.
Die Zeitschrift c't stellte in der Ausgabe 02/2006 einen Bausatz für einen kleinen mobilen Roboter vor, den c't-Bot, der diese Studienarbeit inspirierte. Dieser Bausatz sollte die Basis eines Roboters darstellen, der durch eine Kamera erweitert und mit Hilfe von Bildverarbeitung in der Lage sein sollte, am RoboCupSoccer-Wettbewerb teilzunehmen. Während der Planungsphase veränderten sich die Ziele: Statt einem Fußballroboter sollte nun ein Roboter für die neu geschaffene RoboCup-Rescue-League entwickelt werden. In diesem Wettbewerb sollen Roboter in einer für sie unbekannten Umgebung selbstständig Wege erkunden, bzw. Personen in dieser Umgebung finden. Durch diese neue Aufgabenstellung war sofort klar, dass der c't-Bot nicht ausreichte, und es musste ein neuer Roboter entwickelt werden, der mittels Sensoren die Umgebung wahrnehmen, durch eine Kamera Objekte erkennen und mit Hilfe eines integrierten Computers diese Bilder verarbeiten sollte. Die Entstehung dieses Roboters ist das Thema dieser Studienarbeit.
Das performante Rendering großer Volumendaten stellt trotz stetig gestiegener Prozessorleistungen nach wie vor hohe Anforderungen an jedes zugrunde liegende Visualisierungssystem. Insbesondere trifft dies auf direkte Rendering-Methoden mithilfe des Raycasting-Verfahrens zu, welches zum einen eine sehr hohe Qualität und Genauigkeit der generierten Bilder bietet, zum anderen aber aufgrund der dafür nötigen hohen Abtastrate relativ langsam ist. In dieser Studienarbeit wird ein Verfahren zur Beschleunigung des Raycasting- Visualierungsansatzes vorgestellt, das auf adaptivem Sampling beruht. Dabei werden statische Volumendaten zunächst in einem Vorverarbeitungsschritt einer Gradientenanalyse unterzogen, um so ein Interessensvolumen zu erstellen, das wichtige und weniger wichtige Bereiche kennzeichnet. Dieses Volumen wird anschließend von einem Raycaster genutzt, um adaptiv für jeden Abtaststrahl die Schrittweite zu bestimmen.