Filtern
Dokumenttyp
- Studienarbeit (4)
- Diplomarbeit (2)
- Bachelorarbeit (1)
- Masterarbeit (1)
Sprache
- Deutsch (8) (entfernen)
Schlagworte
- Computergraphik (8) (entfernen)
Institut
Simulationen in der Computergraphik haben das Ziel, die Realität so genau wie möglich in einer Szene einzufangen. Dafür werden intern und extern wirkende Kräfte berechnet, aus denen Beschleunigungen berechnet werden. Mit diesen werden letztendlich die Positionen von Geometrien oder Partikeln verändert.
Position Based Dynaimcs arbeitet direkt auf den Positionen. Durch Constraints wird eine Menge von Regeln aufgestellt, die zu jedem Zeitpunkt in der Simulation gelten sollen. Ist dies nicht der Fall, so werden die Positionen so verändert, dass sie den Constraints entsprechen. In dieser Arbeit wird ein PBD-Framework implementiert, in dem Solide und Fluide simuliert werden. Die Constraints werden durch ein Gauss-Seidel-Lösungsverfahren und ein Gauss-Jakobi-Lösungsverfahren gelöst. Die Berechnungen finden dabei komplett auf der GPU statt. Die Ergebnisse sind physikalisch plausible Simulationen, die in Echtzeit laufen.
Diese Arbeit vermittelt die mathematischen Grundlagen des Ray-Casting Algorithmus und bespricht eine interaktive Umsetzung auf Grafikkarten mit Hilfe einer modernen Schnittstelle. Die Implementation erfolgt im Rahmen eines umfassenden Programmes, welches weitere Techniken und Verbesserungen des Algorithmus für den Nutzer anwählbar macht. Unter anderem wird von Transferfunktionen und lokaler Beleuchtung Gebrauch gemacht, um realistische Materialien darstellen zu können. Die Benutzeroberfläche bietet die Möglichkeit, Volumina zu importieren, Transferfunktionen zu definieren, Parameter der Darstellung einzustellen und weitere Techniken zu aktivieren, deren Grundlagen und Umsetzung ebenfalls in dieser Arbeit dargelegt werden. Der Nutzen der anwählbaren Optionen wird je nach Fall auf optische Qualität oder Vorteil in der Performance hin untersucht.
Diese Arbeit beschreibt einen Ansatz zur webbasierten und GPU-unterstützten medizinischen Visualisierung. Der Schwerpunkt liegt auf der client-seitigen Ausführung von direktem Volumen-Rendering mittels WebGL und der Übertragung von medizinischen Datensätzen von Server zu Client. Die Motivation dieser Arbeit liegt vor allem in den neuesten Entwicklungen von Webtechnologien begründet, da es bisher nicht möglich war hardwarebeschleunigte 3D-Grafik direkt im Webbrowser darzustellen. Erst seit der Entwicklung der 3D-Grafik-Programmierschnittstelle WebGL besteht die Möglichkeit GPU-unterstütztes Volumenrendering im Browser-Kontext ohne den Einsatz zusätzlicher Software zu realisieren. Es wird ein webbasiertes Volumenrendering-System vorgestellt, das die Umsetzung von Volumen-Raycasting mit WebGL zur direkten Darstellung von Volumendaten in Echtzeit behandelt. Für die technische Umsetzung wurden das Google Web Toolkit und die Google App Engine als Infrastruktur verwendet.
Die Diffusions-Tensor-Bildgebung (DTI) ist eine Technik aus der Magnet-Resonanz-Bildgebung (MRI) und basiert auf der Brownschen Molekularbewegung (Diffusion) der Wassermoleküle im menschlichen Gewebe. Speziell im inhomogenen Hirngewebe ist die Beweglichkeit der Moleküle stark eingeschränkt. Hier hindern die Zellmembranen der langgestreckten Axone die Diffusion entlang nicht-paralleler Richtungen. Besonderen Wert hat die Diffusions-Tensor-Bildgebung in der Neurochirugie bei der Intervention und Planung von Operationen. Basierend auf den mehrdimensionalen DTI-Tensor-Datensätzen kann für den jeweiligen Voxel das Diffsusionsverhalten abgeleitet werden. Der größte Eigenvektor des Tensors bestimmt dabei die Hauptrichtung der Diffusion und somit die Orientierung der entsprechenden Nervenfasern. Ziel der Studienarbeit ist die Erstellung einer Beispielapplikation zur Visualisierung von DTI-Daten mit Hilfe der Grafikhardware. Dazu werden zunächst die relevanten Informationen für die Erzeugung von geometrischen Repräsentationen (Streamlines, Tubes, Glyphen, Cluster...) aus den Eingabedaten berechnet. Für die interaktive Visualisierung sollen die Möglichkeiten moderner Grafikhardware, insbesondere Geometryshader ausgenutzt werden. Die erzeugten Repräsentationen sollen nach Möglichkeit in ein DVR (Cascada) integriert werden. Für die Arbeit wird eine eigene Applikation entwickelt, die bestehende Bausteine (Volumenrepräsentation, Volumenrendering, Shadersystem) aus Cascada analysiert und integriert.
Markerloses Tracking im Bereich des modellbasierten Ansatzes Analyse durch Synthese nutzt den Vergleich von Kamerabild mit einer synthetischen Computergraphik, um die Kamerapose zu bestimmen. Hier werden ein High Dynamic Range Videokamerabild und eine photorealistische Computergraphik verglichen. Die Computergraphik ist Ergebnis einer Lichtsimulation basierend auf HDR Bildern einer Kamera mit Fischaugenobjektiv. Auf Basis der Ähnlichkeit von natürlichen Merkmalen soll die Relevanz verschiedener Rendering Parameter untersucht werden.
Ziel dieser Studienarbeit ist es, eine vorhandene video-see-through Augmented Reality Visualisierung (ARToolKit) anhand von Shaderprogrammierung mit der OpenGL Shading Language um nicht-photorealistische Renderingverfahren zu ergänzen. Dabei sollen nicht nur die virtuellen Objekte mit diesen Verfahren dargestellt, sondern auch die realen vom ARSystem gelieferten Bilder analog stilisiert werden, sodass die Unterscheidbarkeit zwischen Realität und Virtualität abnimmt.
Zunächst soll das Thema Non-Photorealistic Rendering vorgestellt werden, bevor auf die Theorie der implementierten Verfahren eingegangen wird. Im Vergleich zur klassischen Graphik-Pipeline wird anschließend auf die Pipeline-Stufen eingegangen, die sich bei moderner Graphikhardware programmieren lassen. Mit Cg wird eine Shader-Hochsprache präsentiert, die zur Programmierung von Graphikkarten eingesetzt wird. Danach wird die Graphikbibliothek Direct3D und das Framework DXUT vorgestellt. Vom softwaretechnischen Entwurf ausgehend, wird die Implementierung der einzelnen Verfahren des Non-Photorealistic Rendering dargestellt. Anschließend wird die Planung und Realisierung der Benutzerschnittstelle erläutert. Die erzielten Ergebnisse werden anhand von Bildschirmphotos aufgezeigt und es wird kurz auf die Darstellungsgeschwindigkeit eingegangen. Abschließend sollen sinnvolle Erweiterungen des Programms und interessante Verfahren, die nicht implementiert wurden, erläutert werden.
Fristete der Computer vor wenigen Jahrzehnten sein Dasein noch in Rechenzentren weniger, großer Universitäten und Firmen, so sind Computer und deren Rechenleistung heute allgemein verbreitet. Gerade in den letzten Jahren hat dabei auch die computergenerierte Bilderzeugung große Fortschritte gemacht, und die Entwicklung hält rasant an. Auf diese Weise erzeugte Bilder und Bildsequenzen sind aus den visuellen Medien nicht mehr wegzudenken, sie werden in denmeisten Film- oder Fernsehproduktionen eingesetzt. Dokumentationen, Wissenssendungen und Nachrichtenformate setzen solche Bilder zur Vermittlung von Inhalten ein. Spezialeffekte werden Filmen mit dem Computer hinzugefügt. Ausschließlich mit dem Rechner erstellte Filme, deren Entwicklung vor ungefähr dreißig Jahren mit einfachen und kurzen Sequenzen begann, stehen heute realen Filmen in Länge, visueller und erzählerischer Qualität kaum noch nach. Doch nicht nur bei der Erstellung von Filmen ist der Computer nicht mehr wegzudenken. Computerspiele stellen in vielen Bereichen die treibende Kraft hinter der Computerentwicklung dar. Sie sind die "Killerapplikation", denn es sind vor allem Spiele, die zur Zeit nach leistungsfähigeren Computerkomponenten für Heimcomputer,wie Prozessoren und Graphikkarten, verlangen. Auch die visuelle Qualität von Computerspielen nimmt stetig zu, und hat ein sehr realitätsnahes Niveau erreicht. Ob Dokumentation, Film oder Spiel, die Erzeugung computergenerierten Inhalts besteht aus vielen Teilen. Die Erzeugung der Bilder ist nur ein kleiner Teil davon. Der Begriff Computeranimationwird oft für den gesamten Prozess der Erstellung eines Films im Computer verwendet. Im Speziellen beschäftigt sich die Animation mit der Bewegung. Die Erstellung von Bewegungsabläufen wird für Animationsfilme, Computerspiele und auch für Spezialeffekte in realen Filmen benötigt. Heute existiert eine Vielzahl von Programmen und Werkzeugen, welche die Erstellung von Animationen im Computer ermöglichen. Verbreitete Applikationen wie MAYA1, LIGHTWAVE2 oder BLENDER3 stützen sich dabei auf grundlegende Konzepte, die hinter der Erstellung von Animationssequenzen im Computer stehen. Die Arbeit setzt sich mit diesen Grundlagen auseinander und entwickelt darauf aufbauend einen Animationseditor, der die notwendige Funktionalität für die Erstellung von Animationssequenzen bereitstellt.