Filtern
Erscheinungsjahr
Dokumenttyp
- Bachelorarbeit (100)
- Diplomarbeit (81)
- Studienarbeit (76)
- Masterarbeit (46)
- Dissertation (18)
- Ausgabe (Heft) zu einer Zeitschrift (12)
- Konferenzveröffentlichung (3)
Sprache
- Deutsch (282)
- Englisch (52)
- Mehrsprachig (2)
Schlagworte
- Bildverarbeitung (16)
- Augmented Reality (13)
- Robotik (10)
- Computergrafik (9)
- Computergraphik (9)
- Computervisualistik (9)
- OpenGL (8)
- GPGPU (5)
- GPU (5)
- Line Space (5)
Institut
- Institut für Computervisualistik (336) (entfernen)
Erweiterung der Spielegraphik von Cam2Dance durch den Einsatz von Shadern und komplexen Modellen
(2006)
Schatten erhöhen sichtbar den Realitätsgrad von gerenderten Bildern. Außerdem unterstützen sie den Benutzer in der Augmented Reality beim Greifen und Manipulieren von virtuellen Objekten, da sie das Einschätzen von Position und Größe dieser Objekte leichter machen. 1978 veröffentlichte Lance Williams den Shadow Mapping-Algorithmus, der einen Schatten in virtuellen Umgebungen erstellt. Diese Diplomarbeit stellt einen Modifikation des Standard Shadow Mapping-Algorithmus vor, der zusätzlich in Augmented/Mixed Reality-Umgebungen genutzt werden kann. Der Ansatz erweitert den Standard Algorithmus zunächst um einem PCF-Filter. Dieser Filter behandelt das Aliasing-Problem und erstellt außerdem weiche Schattenkanten. Damit der Schattenalgorithmus aber einen Schatten in einer Mixed Reality-Umgebung erstellen kann, werden Phantomobjekte benötigt. Diese liefern dem Algorithmus die Position und die Geometrie der realen Objekte. Zur Erstellung der Schatten geht der Ansatz folgendermaßen vor: Zuerst zeichnet der Algorithmus das Kamerabild. Danach wird eine Shadow Map mit allen virtuellen Objekten erstellt. Beim Rendern der virtuellen Objekte wird mit dem Shadow Mapping ein Schatten von allen virtuellen Objekten auf sich selbst und auf allen anderen virtuellen Objekten erzeugt. Danach werden alle Phantomobjekte gerendert. Der Fragmentshader führt wieder den Tiefentest durch. Liegt ein Fragment im Schatten, so bekommt es die Farbe des Schattens, ansonsten wird die Transparenz auf eins gesetzt. Damit werden alle Schatten von den virtuellen auf den realen Objekten erzeugt. Die Ergebnisse des Ansatzes zeigen, dass dieser in Echtzeit in Mixed Reality-Umgebungen genutzt werden kann. Außerdem zeigt ein Vergleich mit einem modifizierten Shadow Volume-Algorithmus, der ebenfalls für Mixed Reality-Umgebungen genutzt werden kann, dass der eigene Ansatz einen realistischer wirkenden Schatten in kürzerer Zeit erzeugt. Somit erhöht der Ansatz den Realitätsgrad in Augmented Reality-Anwendungen und hilft dem Benutzer bei der besseren Einschätzung von Distanzen und Größen der virtuellen Objekte.
Emotion Video
(2006)
Gefühle durch ein Medium übertragen, das klingt unglaublich und doch hat es einen grossen Reiz. Was könnten wir alles machen? Wir könnten dabei sein, wenn ein Astronaut in den Weltraum fliegt oder einen Sonnenaufgang in der Südsee erleben ohne dort zu sein. Man könnte die Gefühle eines Gewinners ebenso weitergeben, wie die einer Person, die Angst hat. Aber auch andere Aspekte, wie die Arbeit aus Sicht eines Profis zu betrachten oder etwas Neues kennenzulernen wäre möglich. Den eigenen Tag, die letzte Woche oder sogar weit zurückliegende Ereignisse aus dem eigenen Leben noch einmal erleben, das alles macht den Anreiz an diesem Thema aus. Der Aufbau dieser Arbeit soll die Entwicklung von der Entstehung von Emotionen beim Menschen über die technischen Möglichkeiten zur Aufzeichnung von Sinneswahrnehmungen bis zum Gesamtkonzept mit prototypischer Umsetzung zeigen. Zunächst soll geklärt werden, was nötig ist um Emotionen "einzufangen" und zu konservieren und welche Möglichkeiten sich für die Wiedergabe dieser anbieten. Zentral soll ein Konzept sein, welches die momentanen technischen Möglichkeiten berücksichtigt, aber auch darüber hinaus aufzeigt, was wichtig und nötig wäre um dem Ziel möglichst nahe zu kommen, Emotionen zu übertragen. Dieses Konzept soll im Anschluss prototypisch umgesetzt werden um es so zu evaluieren. Dabei soll eine erweiterbare Plattform zunächst zur Aufzeichnung visueller und auditiver Reize entwickelt werden.
Szeneneditor für ein Echtzeitanimationssystem und andere XML konfigurierte und erweiterbare Systeme
(2006)
In dieser Studienarbeit wird ein Verfahren zur Extraktion eines Oberflächenbegrenzungsmodells aus einem Tiefenbild vorgestellt. Das Modell beschreibt die im Tiefenbild dargestellte Szene durch die Geometrie und die Topologie der planaren Flächen, die in der Szene gefunden werden. Die Geometrie ist gegeben durch die Angabe der Ebenengleichungen der gefundenen Flächen sowie der 3D-Koordinaten der Eckpunkte der Polygone, die diese Flächen beschreiben. Die Informationen über die Topologie der Szene besteht aus einer Nachbarschaftsliste, die für jede Flaeche angibt, über welche Kante diese Fläche mit welcher anderen Fläche verbunden ist. Aufbauend auf einem Algorithmus zur Tiefenbildsegmentierung aus PUMA werden die Polygone bestimmt, die die Flächen der Szene beschreiben. Anschließend wird versucht, diese Polygone über Kanten und Eckpunkte zu verbinden, um ein möglichst geschlossenes Modell der Szene zu erhalten.
Die Zeitschrift c't stellte in der Ausgabe 02/2006 einen Bausatz für einen kleinen mobilen Roboter vor, den c't-Bot, der diese Studienarbeit inspirierte. Dieser Bausatz sollte die Basis eines Roboters darstellen, der durch eine Kamera erweitert und mit Hilfe von Bildverarbeitung in der Lage sein sollte, am RoboCupSoccer-Wettbewerb teilzunehmen. Während der Planungsphase veränderten sich die Ziele: Statt einem Fußballroboter sollte nun ein Roboter für die neu geschaffene RoboCup-Rescue-League entwickelt werden. In diesem Wettbewerb sollen Roboter in einer für sie unbekannten Umgebung selbstständig Wege erkunden, bzw. Personen in dieser Umgebung finden. Durch diese neue Aufgabenstellung war sofort klar, dass der c't-Bot nicht ausreichte, und es musste ein neuer Roboter entwickelt werden, der mittels Sensoren die Umgebung wahrnehmen, durch eine Kamera Objekte erkennen und mit Hilfe eines integrierten Computers diese Bilder verarbeiten sollte. Die Entstehung dieses Roboters ist das Thema dieser Studienarbeit.
Das performante Rendering großer Volumendaten stellt trotz stetig gestiegener Prozessorleistungen nach wie vor hohe Anforderungen an jedes zugrunde liegende Visualisierungssystem. Insbesondere trifft dies auf direkte Rendering-Methoden mithilfe des Raycasting-Verfahrens zu, welches zum einen eine sehr hohe Qualität und Genauigkeit der generierten Bilder bietet, zum anderen aber aufgrund der dafür nötigen hohen Abtastrate relativ langsam ist. In dieser Studienarbeit wird ein Verfahren zur Beschleunigung des Raycasting- Visualierungsansatzes vorgestellt, das auf adaptivem Sampling beruht. Dabei werden statische Volumendaten zunächst in einem Vorverarbeitungsschritt einer Gradientenanalyse unterzogen, um so ein Interessensvolumen zu erstellen, das wichtige und weniger wichtige Bereiche kennzeichnet. Dieses Volumen wird anschließend von einem Raycaster genutzt, um adaptiv für jeden Abtaststrahl die Schrittweite zu bestimmen.
Die Leistungsfähigkeit moderner Graphikkarten steigt zur Zeit schneller an, als die von CPUs. Dabei kann diese Leistung nicht nur zur Darstellung von 3D Welten, sondern auch für allgemeine Berechnungen (GPGPU) verwendet werden. Diese Diplomarbeit untersucht daher, ob mit Hilfe der GPU Volumendaten schneller gefiltert werden können, als mit der CPU. Dies soll insbesondere am Beispiel von Rausch-Filtern, die auf Videosequenzen angewendet werden, untersucht werden. Dabei soll das Video als Volumen repräsentiert und mit Volumenfiltern gefiltert werden. So soll eine höhere Qualität und eine kürzere Berechnungszeit als mit herkömmlichen CPU und Frame-basierten Verfahren erreicht werden, insbesondere auch bei den z.Z. stark aufkommenden hochauflösenden HDTV-Standards. Das Framework soll jedoch nicht auf Videosequenz-Bearbeitung beschränkt sein, sondern so konzipiert werden, dass es z.B. in bestehende Volumenvisualisierungssysteme integriert werden kann. Das Ziel der Arbeit ist die Einarbeitung in die notwendigen theoretischen Grundlagen, daran anschließend die prototypische Implementierung des Frameworks mit abschließender Bewertung der erreichten Ergebnisse insbesondere der Geschwindigkeit im Vergleich zu existierenden Systemen.
Die moderne Bildgebung in der Medizin arbeitet oft mit Daten höheren Tonwertumfangs. So haben beispielsweise Bilder aus CT-Geräten einen Dynamikbereich von 12 Bit, was 4096 Graustufen entspricht. Im Bereich der photorealistischen Computergrafik und zunehmend in der Bildverarbeitung sind Bilddaten viel höheren Tonwertumfangs üblich, die als HDR-Bilder (High Dynamic Range) bezeichnet werden. Diese haben eine Bittiefe von 16, oftmals sogar 32 Bit und können dadurch sehr viel mehr Informationen speichern, als herkömmliche 8-Bit-Bilder. Um diese Bilder auf üblichen Monitoren darstellen zu können, muss man die Bildinformation auf den Tonwertumfang des Ausgabegerätes abbilden, was man als Tonemapping bezeichnet. Es existieren zahlreiche solcher Tonemapping-Verfahren, die sich durch ihre Arbeitsweise, Geschwindigkeit und visuelle Qualität unterscheiden lassen. Im Rahmen dieser Studienarbeit sollen Tonemapping-Verfahren auf medizinische Bilddaten angewendet werden. Dabei soll sowohl die visuelle Qualität, als auch die Geschwindigkeit im Vordergrund stehen.
Die vorliegende Diplomarbeit thematisiert die quantitative Analyse und die Visualisierung von Infarktgewebe des linken Herzmuskels. Im Mittelpunkt der Untersuchung steht das Ausmaß der Narbe und deren Deformation ueber den Herzzyklus. Fuer die Narbenausdehnung stehen so genannte Late-Enhancement-Daten zur Verfuegung, die das avitale Gewebe durch ein Kontrastmittel hervorheben. Anhand von automatisierten Verfahren wird die Narbe aus den Bilddaten extrahiert und auf ihre Groesse, Lokalisation und Transmuralitaet quantifiziert. Die Transmuralitaet gibt dabei das lokale Verhaeltnis zwischen der Herzwand- und der Narbenbreite an. Des Weiteren wird die Narbe für die Beurteilung der Beschaffenheit dreidimensional in dem Analysefenster dargestellt. Der Mediziner kann durch das entwickelte Verfahren innerhalb kuerzester Zeit Aussagen ueber das Ausmass und den Ursprung des Herzinfarktes treffen und zudem die Ergebnisse durch verschiedene visuelle Darstellungen kontrollieren. Die Deformation des Narbengewebes über den Herzzyklus und deren Integration mit den dynamischen Cine-Daten wurde bereits in einer vorangegangenen Diplomarbeit umgesetzt. Im Rahmen dieser Arbeit wird eine visuelle Verbesserung der Deformationsergebnisse angestrebt, die das Narbengewebe aus den Volumendaten extrahiert. Das avitale Gewebe wird durch das Eliminieren von uninteressanten Bildinformationen hervorgehoben und verbessert somit die visuelle Analyse der Narbendeformation ueber den Herzzyklus. Beide Verfahren liefern eine detaillierte und eindeutige Analyse des Infarktgewebes, die die manuelle Untersuchung in der klinischen Praxis ergaenzen kann.