Filtern
Erscheinungsjahr
Dokumenttyp
- Bachelorarbeit (100) (entfernen)
Schlagworte
- Computervisualistik (8)
- OpenGL (7)
- Computergrafik (5)
- Android (4)
- Graphik (4)
- Line Space (4)
- Augmented Reality (3)
- C++ (3)
- Compute Shader (3)
- Computergraphik (3)
- GPGPU (3)
- Linespace (3)
- OpenGL Shading Language (3)
- Programmierung (3)
- Virtual Reality (3)
- Applikation (2)
- Bildverarbeitung (2)
- Datenstruktur (2)
- Global Illumination (2)
- Grafikkarte (2)
- Immersion (2)
- Informatik (2)
- Path Tracing (2)
- Physiksimulation (2)
- Raytracing (2)
- Realistische Computergrafik (2)
- Rendering (2)
- Shader (2)
- Smartphone (2)
- VOXEL (2)
- 3D (1)
- Android development (1)
- Androidentwicklung (1)
- App (1)
- Assembly (1)
- Astrophysik (1)
- Automatische Klassifikation (1)
- Autorensystem (1)
- Beleuchtung (1)
- Beschleunigungsensor (1)
- Bildanalyse (1)
- Blickpunktabhängig (1)
- Bounding Volume Hierarchy (1)
- Brechung (1)
- Coloskopie (1)
- Compute-Shader (1)
- Computer Graphics (1)
- Constitutive Model (1)
- Cybersickness (1)
- Darmpolyp (1)
- Digitale Bilder (1)
- ECSA (1)
- Echtzeit Raytracing (1)
- Entity Component System Architecture (1)
- Entwicklung (1)
- Erweiterte Realität (1)
- Eulerian grid (1)
- Extended Reality (1)
- Fabric Simulation (1)
- Fast Convolution (1)
- Fell (1)
- Fell Rendering (1)
- Flow-Erlebnis (1)
- Fluidsimulation (1)
- Fourier (1)
- Fresnel (1)
- GPU (1)
- Gerstner (1)
- Geste (1)
- Gesteninterpretation (1)
- Glint Center Estimation Algorithmus (1)
- Globale Beleuchtung (1)
- Grafik (1)
- Grafikprogrammierung (1)
- Graphicsprogramming (1)
- Grundschule (1)
- Haare (1)
- Halbschatten (1)
- HoloLens (1)
- Innenarchitektur (1)
- Jump'n Run-Spiel (1)
- Kartesisches Euler-Gitter (1)
- Kartesisches Gitter (1)
- Kinect (1)
- Kollaboration (1)
- Kollisionserkennung (1)
- Konturfindung (1)
- Leap-Motion (1)
- Lehrer (1)
- Lernspiel (1)
- Light Injection (1)
- Material Point Method (1)
- Material point method (1)
- Materialmodell (1)
- Materie-Punkt-Methode (1)
- Merkmalsdetektion (1)
- Modellierungstool (1)
- Montage (1)
- Motion Sickness (1)
- Musik (1)
- N-Body Simulation (1)
- N-Körper Simulation (1)
- Nvidia CUDA (1)
- OpenCL (1)
- Par (1)
- Partikel (1)
- Partikelsystem (1)
- Pathtracing (1)
- Pre-Integration (1)
- Pupil Center Estimation Algorithmus (1)
- Ray Tracer (1)
- Ray tracing (1)
- Ray-Casting (1)
- Reflections (1)
- Reflektionen (1)
- Reflexion (1)
- Reverberation (1)
- Schnee (1)
- Schnelle Faltung (1)
- Sensor (1)
- Sensorensteuerung (1)
- Specular (1)
- Spiel (1)
- Stadt (1)
- Starrkörper (1)
- Sterne (1)
- Steuerung (1)
- Stoffsimulation (1)
- Text (1)
- Texterkennung (1)
- Touchscreen (1)
- Transfer function (1)
- Transferfunktion (1)
- VR (1)
- VST (1)
- Virtuelle Realität (1)
- Visualisierung (1)
- Volumen (1)
- Volumen-Rendering (1)
- Volumendaten (1)
- Voxelisierung (1)
- Wasseroberfläche (1)
- Wellen (1)
- Wiederhall (1)
- accelerometer (1)
- android (1)
- area light (1)
- fur rendering (1)
- general purpose (1)
- graphics card (1)
- indirect lighting (1)
- indirektes Licht (1)
- interactive application (1)
- interaktive Applikation (1)
- interaktiven (1)
- jump'n run game (1)
- line space (1)
- menschliches Auge (1)
- multidimensional transfer function (1)
- multidimensionale Transferfunktion (1)
- physics simulation (1)
- prozedural (1)
- ray casting (1)
- raycasting (1)
- raytracing (1)
- reflection (1)
- refraction (1)
- rigid body (1)
- sensor control (1)
- shader (1)
- snow (1)
- soft shadow (1)
- volume rendering (1)
- volume visualization (1)
- volumenrendering (1)
- voxelization (1)
- water surface (1)
- waves (1)
Institut
- Institut für Computervisualistik (100) (entfernen)
Die Koloskopie ist der Goldstandard zur Aufspürung von gefährlichen Darmpolypen, die sich zu Krebs entwickeln können. In einer solchen Untersuchung sucht der Arzt in den vom Endoskop gelieferten Bildern nach Polypen und kann diese gegebenenfalls entfernen. Um den Arzt bei der Suche zu unterstützen, erforscht die Universität Koblenz-Landau zur Zeit Methoden, die zur automatischen Detektion von Polypen auf endoskopischen Bildern verwendet werden können. Wie auch bei anderen Systemen zur Mustererkennung werden hierzu zunächst Merkmale aus den Bildern extrahiert und mit diesen ein Klassifikator trainiert. Dieser kann dann für die Klassifikation von ihm unbekannten Bildern eingesetzt werden. In dieser Arbeit wurde das vorhandene System zur Polypendetektion um Merkmalsdetektoren erweitert und mit den bereits vorhandenen verglichen. Implementiert wurden Merkmale basierend auf der Diskreten Wavelet-Transformation, auf Grauwertübergangsmatrizen und auf Local Binary Patterns. Verschiedene Modifikationen dieser Merkmale wurden getestet und evaluiert.
Diese Bachelorarbeit befasst sich mit der Entwicklung eines Autorensystems zum modellieren von 3D Szenen mit physikalischer Beschreibung. Ähnlich einem herkömmlichen 3D Modellierungstool soll ein Benutzer Szenen erstellen können mit dem Unterschied, dass bei der Erstellung der Geometrie physikalische Eigenschaften direkt berechnet und eingestellt werden können. Wichtig für solche Systeme ist vor allem ihre Erweiterbarkeit und Anpassungsfähigkeit an die entsprechenden Anforderungen des Benutzers. Der Fokus liegt hierbei auf der Entwicklung einer einfachen Architektur, die leicht erweiterbar und veränderbar ist.
Es gibt einige Gaze Tracking Systeme, sowohl high- als auch low-cost. Low-cost Systeme gehen meist mit low-resolution Kameras einher. Da hier die Bildqualität schlechter ist, müssen die Algorithmen umso besser arbeiten. Aber wie soll man die Algorithmen die der Erkennung der Blickrichtung dienen, testen, wenn die Bildqualität geringer ist und man nie korrekte Aussagen über die Referenzpunkte treffen kann? Hier greift die Idee dieser Arbeit: Mit Hilfe synthetischer Augenbilder testet man die betreffenden Algorithmen und kann diese, da die Referenzpunkte bekannt sind, analysieren. Eine Veränderung der Komplexität dieser Bilder z. B. mit Hilfe eines zuschaltbaren Gaußrauschens oder eines weiteren Reflektionspunktes, macht es möglich, diese in Stufen der Realität anzunähern. Im Idealfall kann man die Algorithmen mit den aus den Testreihen gewonnenen Erkenntnissen verbessern und bei Anwendung innerhalb eines low-resolution Systems dessen Genauigkeit erhöhen.
In der vorliegenden Arbeit wird dem Leser aufgezeigt, welche Methoden zur Kurvenskelettierung von 3D-Modellen existieren und welche Ansätze bei bisherigen Forschungsergebnissen von Skelettierungsmethoden in der Bildverarbeitung verfolgt werden. Der Autor geht im weiteren Verlauf auf einen aktuellen Kurvenskelettierungsansatz ein. Die Implementierung dieses Ansatzes wird detailliert analysiert und ein algorithmisches Verfahren entwickelt, um die Kurvenskelette der analysierten Methode hin zu 3D-Skeletten einer eigenen Kurvenskelettdefinition zu modifizieren, mit der es möglich ist, Merkmalsvektoren für Ähnlichkeitsvergleiche zwischen 3D-Objekten zu berechnen. Es wird eine Ground Truth durch menschliche Ähnlichkeitsbestimmung gebildet. Des Weiteren wird auf Grundlage der modifizierten Skelette eine Ähnlichkeitsberechnung durchgeführt. Danach wird die menschliche Ähnlichkeitsbestimmung der algorithmisch berechneten Ähnlichkeitsberechnung gegenüber gestellt und nach bekannten Verfahren aus dem Information Retrieval ausgewertet.
Texture-based text detection in digital images using wavelet features and support vector machines
(2010)
In dieser Bachelorarbeit wird ein neues texturbasiertes Verfahren zur Detektion von Texten in digitalen Bildern vorgestellt. Das Verfahren kann im wesentlichen in zwei Hauptaufgaben unterteilt werden, in Detektion von Textblöcken und Detektion von einzelnen Wörtern, wobei die einzelnen Wörter aus den detektierten Textblöcken extrahiert werden. Im Groben agiert das entwickelte Verfahren mit mehreren Support Vector Machines, die mit Hilfe von waveletbasierten Merkmalen mögliche Textregionen eines Bildes zu wirklichen Textregionen klassiffzieren. Die möglichen Textregionen werden dabei durch unterschiedlich ausgerichtete Kantenprojektionen bestimmt. Das Resultat des Verfahrens sind X/Y Koordinaten, Breite und Höhe von rechteckigen Regionen eines Bildes, die einzelne Wörter enthalten. Dieses Wissen kann weiterverarbeitet werden, beispielsweise durch eine Texterkennungssoftware, um an die wichtigen und sehr nützlichen Textinformationrneines Bildes zu gelangen.
Die folgende Arbeit analysiert die Funktionsweise und Programmiermöglichkeiten von Compute Shadern. Dafür wird zunächst in Kapitel 2 eine Einführung in Compute Shader gegeben, in der gezeigt wird, wie diese funktionieren und wie sie programmiert werden können. Zusätzlich wird das Zusammenspiel von Compute Shadern und OpenGL 4.3 anhand zweier einführender Beispiele gezeigt. Kapitel 3 beschreibt dann eine N-Körper Simulation, welche implementiert wurde um die Rechenleistung von Compute Shadern und den Einsatz von gemeinsamen Speicher zu zeigen. Danach wird in Kapitel 4 gezeigt, inwiefern sich Compute Shader für physikalische Simulationen eignen und wo Probleme auftauchen können. In Kapitel 5 wird ein eigens konzipierter und entwickelter Algorithmus zur Erkennung von Linien in Bildern beschrieben und anschließend mit der Hough Transformation verglichen. Zuletzt wird in Kapitel 6 ein abschließendes Fazit gezogen.
Das Kommunikationsverhalten hat sich in den letzten Jahren durch die Smartphonenutzung verändert. Die Nutzer kommunizieren oft nur noch über den elektronischen Weg. Die persönliche Kommunikation, außerhalb des Smartphones, nimmt ab. Das Umfeld gerät unterdessen in Vergessenheit. In der vorliegenden Arbeit werden verschiedene Spielkonzepte entwickelt, welche die Kommunikation steigern sollen. Realisiert wird der Ansatz in einer prototypischen Stadtführer-App, nach den Spielkonzepten von "Scotland Yard" und "Schnitzeljagd". Während der Nutzung müssen die Spieler verschiedene Aufgaben lösen. Welches Spielkonzept sich in Bezug auf die Kommunikationsförderung am besten eignet, wird in einer Evaluation analysiert.
Der Markt der mobilen Endgeräte entwickelt sich schnell weiter und es kommen schon Kinder im frühsten Alter mit solchen Technologien in Berührung. Daher ist es wichtig, Kinder richtig an die Geräte heranzuführen. Von Vorteil wäre eine Einbindung von Smartphones und Tablets, im Bezug auf den Lernprozess, in den Unterricht. Die vorliegende Arbeit behandelt deshalb das Konzept einer Lernspielapp, die durch Pädagogen konfiguriert werden kann. Die Evaluation soll Aufschluss über die Motivation der Kinder geben und die Aufgeschlossenheit der Pädagogen gegenüber neuen Medien ermitteln.
3D-Modelle werden heute in vielen Bereichen wie Multimedia Anwendungen, Robotik oder der Filmindustrie immer wichtiger. Besonders interessant ist dabei die Erstellung eines 3D-Modells aus einer monokularen Bilderserie, da die hierfür nötigen Kameras immer günstiger, kleiner und ausgereifter produziert werden. Geeignetere Kameras werden in immer mehr Geräten wie Smartphones, Tablet-PCs, Autos etc. verbaut, wodurch sich ein großes Potential für die Verwendung dieser Rekonstruktionstechnik ergibt.
Als Grundlage dieser Arbeit dient eine mit einer kalibrierten Kamera aufgenommene Bilderserie. Aus dieser werden 2D-Punktkorrespondenzen, mit den verbreiteten SURF-Features oder den A-KAZE-Features gewonnen. Aufbauend auf den 2D-Punktkorrespondenzen kann aus diesen mit Hilfe verschiedener Algorithmen ein 3D-Modell in Form einer Punktwolke und Kameraposen rekonstruiert werden.
Um Fehler in dem entstandenen Modell gering zu halten, wird insbesondere aufrnden Bündelausgleich zur Fehlerminimierung eingegangen. Anschließend wird dasrnneben dieser Arbeit entstandene Programm zur 3D-Rekonstuktion und Visualisierung des 3D-Modells erläutert. Das implementierte System wird anschließend anhand von Statistiken evaluiert und die hieraus gewonnenen Erkentnisse präsentiert.
Abschließend werden die Ergebnisse dieser Arbeit zusammengefasst und einrnAusblick auf mögliche Weiterentwicklungen gegeben.
Diese Arbeit vermittelt einen grundlegenden Überblick über die Funktionsweise und Implementierung von aktuellen Voxelisierungsstrategien auf der GPU. Neben etablierten Voxelisierungsverfahren mithilfe der Rasterisierungspipeline werden neue Möglichkeiten mithilfe von GPGPU-Programmierung untersucht. Auf der Basis der Programmiersprache C++ und der Grafikbibliothek OpenGL wird die Implementierung mehrerer Verfahren erläutert.rnDie Verfahren werden hinsichtlich der Performanz und der Qualität der Voxelisierung verglichen und im Bezug auf mögliche Anwendungsfälle kritisch bewertet. Weiterhin werden zwei Beispielanwendungen beschrieben, in denen die Verwendung einer voxelisierten Szene eine Erweiterung von bestehenden Echtzeitgrafikverfahren ermöglicht. Zu diesem Zweck werden die Konzepte und die Implementierungen von Transmittance Shadow Mapping und von Reflective Shadow Mapping, das um voxelbasierte Umgebungsverdeckung erweitert wird, erläutert. Abschließend wird die anhaltende Relevanz von Voxelisierung in einem Ausblick auf aktuelle Forschungen und weitere Anwendungen und Erweiterungen der vorgestellten Verfahren aufgezeigt.
Meine Bachelorarbeit ist als Fortsetzung und Weiterentwicklung der Studienarbeit "Erstellung einer HTML 5-basierten Lernoberflache zur Unterstützung der Zielgruppe der AnfängerInnen für das Softwareprogramm CrypTool 2" von Liane Syre, eingereicht am 13.08.2013 an der Universität Koblenz-Landau, konzipiert. Die Inhalte ihrer Studienarbeit dienen somit als Grundlage für die hier vorliegende Bachelorarbeit.
Ich habe im Rahmen meiner Bachelorarbeit einen Prototyp eines teilweise automatisierten Lerntagebuchs entwickelt, welchen ich im Folgenden Vorstellen mochte. Außerdem stelle ich meine ebenfalls eigenständig konzipierte LearnCrypTo-Homepage in dieser Arbeit vor.
Nach einer Einleitung in die Thematik (Kapitel 2) folgt eine Literaturstudie zu Serious Games als Teilbereich des Media-based Learning (Kapitel 3), in welchem auch explizit auf die Führung eines Lerntagebuches und didaktische Konzepte eingegangen wird.
Es folgt eine Beschreibung wichtiger Aspekte bei der Erstellung einer Lernsoftware und gehe im Kontext der Serious Games noch mal auf die Spielerstellung ein (Kapitel 4).
Da meine Bachelorarbeit vor allem darauf ausgerichtet ist, CrypTool 2 AnfängerInnen nahe zu bringen, erläutere ich sodann die für benannte Zielgruppe wichtigsten Funktionen von CrypTool 2 (Kapitel 5).
Dann gehe ich naher auf Inhalt und Aufbau meiner eigens erstellten LearnCrypTo-Homepage ein (Kapitel 6).
Ich erläutere gegen Schluss meiner Arbeit ausgewählte technische Aspekte (Kapitel 7).
In einem abschließenden Fazit versuche ich, die Ergebnisse meiner Arbeit zu bewerten und wage einen kleinen Ausblick (Kapitel 8).
Im Verlaufe der Arbeit wird vermehrt mit einer hauptsachlich englischen Terminologie gearbeitet. Um Missverständnissen vorzubeugen werde ich die englischen Begriffe bei ihrer ersten Verwendung in meiner Arbeit ins Deutsche übersetzen und im Folgenden dann weiter mit der englischen Bezeichnung arbeiten.
Um Lesbarkeit zu fordern benutze ich in meiner Arbeit das generische Maskulinum.
Online Handschrifterkennung chinesischer Schriftzeichen auf androidfähigen mobilen Endgeräten
(2014)
Um mobile Wörterbücher oder Übersetzer zu verwenden, braucht es eine Eingabe. Diese muss zuvor verarbeitet werden, um nutzbar zu sein. Für chinesische Zeichen bietet sich die Handschrift an, da die Schrift hauptsächlich aus Piktogrammen und Ideogrammen besteht.
In dieser Bachelorarbeit wird ein prototypisches Erkennungssystem auf einem mobilen Endgerät implementiert. Die Erkennung soll dabei online und somit während des Schreibens erfolgen. Dies kann dem Benutzer Zeit ersparen, indem verschiedene erkannte Vorschläge zur Laufzeit gegeben werden.
Es werden Grundlagen erläutert und ein Überblick über den aktuellen Stand der Forschung gegeben. Ein Ansatz wird ausgewählt und implementiert, der möglichst schnell ist und wenig Speicherplatz erfordert. Die Implementation wird getestet und es wird gezeigt, dass es möglich ist, eine schnelle Erkennung auf einem kleinen Gerät laufen zu lassen. Es werden Verbesserungen und Erweiterungen vorgeschlagen, sowie ein Ausblick gegeben.
In den letzten Jahren ist eine steigende Verbreitung von Touchscreen-Geräten zu verzeichnen. Ihre Bedienung unterscheidet sich grundlegend von der mit Maus und Tastatur. Durch die Eingabe mit Gesten oder mehreren Fingern kann es schwierig sein den Aktionen eines Anderen zu folgen. Probleme entstehen durch die Verdeckung des Bildschirms mit der Eingabehand. Sieht man nur den Bildschirminhalt, zum Beispiel bei einer Videoübertragung, gehen Informationen über die Eingabe verloren.
In dieser Arbeit wird ein System entwickelt, das die kollaborative Arbeit an voneinander entfernten Touchscreen-Geräten verbessern soll. Dazu wird aus den Tiefendaten eines Kinect Sensors eine grafische Repräsentation der Eingabehand erstellt. Durch Einblendung dieser Visualisierung soll es einem Anwender erleichtert werden den Eingaben eines Anwenders zu folgen. Bedienkonzepte, wie zum Beispiel Gesten, sollen dadurch besser vermittelt werden. Außerdem soll so die Möglichkeit geschaffen werden, Informationen über eine gemeinsame Problematik effizienter auszutauschen. Deshalb wurde ein Testsystem mit zwei Arbeitsplätzen entwickelt. Darin übernimmt ein Anwender die Rolle des Erklärenden und führt einen zweiten Anwender, den Ausführenden, durch verschiedene Testszenarien. Hierbei stehen ihm bei einem Teil der Aufgaben die Visualisierung der Hand zur Verfügung, während er in anderen Aufgaben nur verbal mit seinem Gegenüber kommunizieren kann.
Im Rahmen einer Evaluation wird das System auf seine Effizienz zur Bedienung von Touchscreen-Systemen überprüft. Des Weiteren wird untersucht, inwieweit die grafische Qualität den gestellten Anforderungen genügt, um einen Mehrwert für die Anwendung zu bieten.
Winzige vom Wind getriebene Wellen, flache, lange Wellen, steile sich überlagernde Wellen oder stürmische Brecher, sie alle kommen in jedem der Weltmeere und sogar in kleinen Seen vor. Die Wasseroberfläche ist eines der vielfältigsten Naturphänomene. Nicht nur die Bewegung der Wellen, auch die Spiegelung von Himmel, Sonne und Küste machen die Meeresoberfläche einzigartig. Gerade diese einzigartige Komplexität stellt ihre ganz eigenen Herausforderungen an die Nachahmung solcher Phänomene. Deshalb stellt die Berechnung von Wellen schon seit gut 400 Jahren Mathematiker vor eine große Aufgabe.
In den letzten fünfzig Jahren hat sich diese Herausforderung immer mehr in den Bereich der Informatik verschoben. Computergrafiker versuchen seit Jahrzehnten Wasser realistisch darzustellen. Die Forschung auf diesem Gebiet reicht mittlerweile von einfachen Ansätzen wie Rauschfiltern bis zu mathematisch hoch komplexen Ansätzen, wie der Fourier Transformation.
In der nachfolgenden Arbeit wird sowohl auf die geschichtliche Entwicklung der heutigen Wellentheorien, als auch auf die mathematischen Grundlagen dieser eingegangen. Schwerpunkt der Arbeit ist es, diese Methoden in OpenGL 3.3 zu implementieren.
In dieser Bachelorarbeit wird die Frage behandelt, ob ein Jump'n Run-Spiel mit Sensorensteuerung für Android-Geräte sinnvoll ist. Hierzu wurde ein Spiel entwickelt, das in unterschiedlichen Level einmal mit und ohne Sensoren steuerbar ist. In einer zweiten Version wird das Spiel komplett anhand von Sensoren gesteuert, damit man später die Steuerungen vergleichen kann. Es wird erklärt, wie das Spiel geplant, entworfen und untersucht wurde. Zudem wird geprüft, ob es schon Spiele mit Sensorensteuerung generell gibt. Die Engine, mit der das Spiel entwickelt wurde, wird ebenfalls vorgestellt. Abschließend erfolgt die Auswertung eines dafür ausgearbeiteten Nutzertests über die Spieltauglichkeit des Spiels hinsichtlich der Steuerung.
Die vorliegende Arbeit befasst sich mit der Anwendung und Optimierung globaler Beleuchtung in dreidimensionalen Szenen. Dabei wird nicht nur die direkte Beleuchtung in Abhängigkeit einer oder mehrerer Lichtquellen, sondern auch indirekte Beleuchtung durch umliegende Objekte berücksichtigt. Schwerpunkt dieser Arbeit ist es, die Ergebnisse eines globalen Beleuchtungsverfahrens durch die Implementation unter OpenGL 4.4 zu verbessern. Dies geschieht mithilfe einer Voxelisierung der Szene. Durch eine Traversierung der entstehenden Voxel-Struktur werden zusätzliche Informationen der Szene entnommen, was zu einer realistisch wirkenden globalen Beleuchtung beiträgt.
Diese Arbeit vermittelt die mathematischen Grundlagen des Ray-Casting Algorithmus und bespricht eine interaktive Umsetzung auf Grafikkarten mit Hilfe einer modernen Schnittstelle. Die Implementation erfolgt im Rahmen eines umfassenden Programmes, welches weitere Techniken und Verbesserungen des Algorithmus für den Nutzer anwählbar macht. Unter anderem wird von Transferfunktionen und lokaler Beleuchtung Gebrauch gemacht, um realistische Materialien darstellen zu können. Die Benutzeroberfläche bietet die Möglichkeit, Volumina zu importieren, Transferfunktionen zu definieren, Parameter der Darstellung einzustellen und weitere Techniken zu aktivieren, deren Grundlagen und Umsetzung ebenfalls in dieser Arbeit dargelegt werden. Der Nutzen der anwählbaren Optionen wird je nach Fall auf optische Qualität oder Vorteil in der Performance hin untersucht.
Diese Arbeit beschreibt den Entwurf und die Umsetzung einer prototypischen Android-Applikation zum Dokumentieren von Reiserouten. Nach einer kurzen Einführung in die grundlegenden Aspekte des Reisens, der notwendigen Hilfsmittel sowie das Betriebssystem Android wird das Konzept und die Anforderungen an die Anwendung vorgestellt. Anschließend werden die Realisierung der Implementierung erläutert und die Ergebnisse der Evaluation offengelegt.
Ziel der Bachelorarbeit war es, eine moderne Art des Geländespiels "Schnitzeljagd" zu entwickeln. Dieses sollte möglichst auf jedem aktuellen Smartphone spielbar sein, welches mit dem Betriebssystem Android arbeitet. Das Gelände ist begrenzt auf den Universitätscampus Koblenz, somit dient das Spiel auch dazu, den Campus besser kennenzulernen.
Den Benutzern der Campusjagd wird eine mobile Applikation geboten, welche sie anhand von Hinweisen und Rätseln über den kompletten Campus führt, um letztendlich an einen Zielort zu gelangen, an welchem sich ein "Schatz" befindet. Anstatt wie üblich auf dem Gelände Schnitzel bzw. Schnipsel mit Hinweisen zu verstecken, werden bei der Campusjagd QR-Codes aufgehängt, um so den Weg zu markieren. Zur Täuschung sind auch irrelevante Codes zu finden. Die Codes müssen in der richtigen Reihenfolge abgelaufen werden, d. h. von einem Code erhält der Spieler den Hinweis zum jeweiligen Nächsten. Außerdem ist es möglich, dass aus einem QR-Code mehrere Hinweise für nächste Stationen angezeigt werden.
Ziel der Bachelorarbeit war die Evaluation und Optimierung von verschiedenen Eye-Tracking Algorithmen für die subpixelgenaue Bestimmung der relevanten Merkmale bezüglich Genauigkeit. Die extrahierten Merkmale sind das Pupillen- und Glintzentrum. Die Algorithmen sind mit preiswerten Kameras einsetzbar. Es wurde ein synthetisches Modell des Auges modifiziert und verwendet, mit dem die Methoden mit bekannter Ground Truth evaluiert wurden.
Erweiterung der Konzeption und Implementierung einer Screening Applikation für mobile Endgeräte
(2014)
In dieser Bachelorarbeit werden ein bereits existierendes, generisches Konzept und ein existierender Prototyp für eine Smartphone Applikation zur Aufnahme,Überwachung und Dokumentation von äußerlichen Symptomen oder Betrachtungenrnam menschlichen Körper weiterentwickelt. Die bestehenden Funktionalitätenrnwerden anhand einer Analyse des bisherigen Prototypen ergänzt. Es werden das Konzept sowie dessen Funktionsbausteine, die im bestehenden Prototyp in der Android-Plattform implementiert wurden, auf Schwächen untersucht undrnerweitert. Darüber hinaus werden Optimierungs- und Erweiterungsmöglichkeiten für weiterführende Projekte aufgezeigt.
Die Animation von Modellen ist zu einem wichtigen Teil in den unterschiedlichsten und alltäglichen Bereichen unseres Lebens geworden. Es ist eine anspruchsvolle Aufgabe der Computergrafik eine natürliche Deformation von organischen Modellen zu generieren. Skinning ist eine übliche Methode um Modelle zu animieren ohne die Animation jedes Vertices. Die Oberfläche des Modells wird automatisch durch die Manipulation einzelner Knochen eines Skeletts deformiert.
Diese Bachelorarbeit befasst sich mit dem meist genutzen Algorithmus,dem Linear Blend Skinning Algorithmus, der bezüglich des visuellen Eindrucks und der Performanz optimiert werden soll. Zusätzlich werden Instancing Methoden vorgestellt und in der Anwendung mit Skinning Methoden kombiniert um deren Vor- und Nachteile aufzuzeigen.
Bei der Mensch-Maschine-Interaktion spielt die Verfolgung und Identifizierung von Personen eine wichtige Rolle. Im Rahmen dieser Arbeit ist für den Serviceroboter Lisa, der Arbeitsgruppe Aktives Sehen, ein Framework erstellt worden, um verschiedene Verfahren zur Erkennung, Verfolgung und Identifizierung von Personen zu kombinieren. Zuerst wird mittels 2D Lasers an eine Beindetektion durchgeführt um Hypothesen für Personen aufzustellen. Diese Annahme muss noch durch eine Analyse der Kinect-Punktewolke bestätigt werden. Nach erfolgreicher Bestätigung wird ein Online-Boosting auf RGB-Daten zur Identifizierung durchgeführt. Die Beindaten werden zudem mit einem linearen Kalman-Filter für die Schätzung der Personenbewegung genutzt. Durch die Kombination von Kalman-Filter mit Beindetektion und Online-Boosting soll Personenverfolgung ermöglicht werden. Des Weiteren soll eine Verwechslung von Personen - durch kurzzeitige Verdeckung oder fehlerhaftes assoziieren von Beinen - verhindert werden.
Diese Arbeit stellt den Faltungshall vor, ein Verfahren, das es ermöglicht, in neutral klingenden Räumen aufgenommenes Audiomaterial mit realistisch klingendem Nachhall zu versehen. Dabei wird vor allem auf die Möglichkeit eingegangen, den Effekt auf einer GPU mit Hilfe von OpenCL zu berechnen, um die hohe Parallelisierbarkeit des Problems zu seiner Lösung zu nutzen. Ziel ist es, ein VST-Plugin entwickeln zu können, das den GPU-beschleunigten Faltungsalgorithmus in verschiedener Audiosoftware nutzbar macht.
Die hier vorliegende Arbeit stellt eine Anwendung zur Simulation von Objekten vor, die zwischen den Aggregatzuständen fest und flüssig wechseln können. Dazu wird ein Temperatursystem verwendet. Dabei liegen die Schwerpunkte auf der Simulation von Fluiden, basierend auf einem Partikelsystem, der Generierung einer Oberfläche aus diesem und der Darstellung von Metall. Zusätzlich soll die Anwendung interaktiv sein und muss die Kriterien der Echtzeitfähigkeit erfüllen. Dazu werden verschiedene Shadertypen eingesetzt, um die Berechnungen auf der GPU zu parallelisieren. Weiterhin werden weitere Einsatzmöglichkeiten, sowie mögliche Verbesserungen der Anwendung aufgezeigt.
Diese Arbeit befasst sich mit einer 3D-Interaktion von primitiven Objekten, welche von Gesten gesteuert wird. Dabei werden Funktionen, welche auf eine absolute Positionierung angewiesen sind, mit Hilfe eines Touchscreens implementiert. Als zweites Eingabegerät dient die Leap-Motion, welche Gesten anhand von zwei CCD-Kameras und drei Infrarot-LEDs aufnimmt. Die Gesten bestehen dabei aus der Translation, Rotation und Skalierung von Objekten, sowie aus einer Steuerung, die die Bewegung im Raum ermöglicht. Zur visuellen Umsetzung wurde die Arbeit in Blender mit der Blender Game Engine unter Python geschrieben. Nur das Auswählen der Objekte wurde mit Hilfe des Touchscreens realisiert. Diese Steuerung wurde anschließend mit einer reinen Maussteuerung evaluiert. Diese beiden Eingabemöglichkeiten unterscheiden sich darin, dass die Gestensteuerung nicht etabliert ist. Sie besitzt allerdings den Vorteil, dass sie im dreidimensionalen Raum ausgeführt werden kann. Die Maus hingegen ist geläufig, beschreibt aber nur einen zweidimensionalen Raum als Eingabe. Es stellt sich also die Frage, ob bei der dreidimensionalen Interaktion von Objekten eine Maussteuerung oder eine Gestensteuerung bevorzugt wird. Das Ergebnis beläuft sich daran, dass die Maus favorisiert wird. Jedoch liegt die Gestensteuerung in manchen Bereichen nah an dem Ergebnis der Maus.
Die Entwicklung der echtzeitfähigen Computergrafik ermöglicht mittlerweile immer realistischere Bilder und die Hardware kann dafür optimal ausgenutzt werden, wodurch immer glaubwürdigere Lichtverhältnisse simuliert werden können. Eine große Anzahl von Algorithmen, effizient implementiert auf der Grafikkarte (GPU, auch Grafikprozessor)), sind fähig komplexe Lichtsituationen zu simulieren. Effekternwie Schatten, Lichtbrechung und Lichtreflexion können mittlerweile glaubwürdig erzeugt werden. Besonders durch Reflexionen wird der Realismus der Darstellung erhöht, da sie glänzende Materialien, wie z.B. gebürstete Metalle, nasse Oberflächen, insbesondere Pfützen oder polierte Böden, natürlich erscheinen lassen. Dabei geben sie einen Eindruck der Materialeigenschaften, wie Rauheit oder Reflexionsgrad.rnAußerdem können Reflexionen vom Blickpunkt abhängen: Eine verregnete Straße zum Beispiel würde Licht, abhängig von der Entfernung des Betrachters reflektieren und verwaschene Lichtreflexe erzeugen. Je weiter der Betrachter von der Lichtquelle entfernt ist, desto gestreckter erscheinen diese. Ziel dieser Bachelorarbeit ist, eine Übersicht über existierende Render-Techniken für Reflexionen zu geben, um den aktuellen Stand der Technik abzubilden. Reflexion entsteht durch den Einfall von Licht auf Oberflächen, die dieses in eine andere Richtung zurückwerfen. Um dieses Phänomen zu verstehen, wird eine Auffassung von Licht benötigt. Kapitel 2.1 beschreibt daher ein physikalisches Modell von Licht, gefolgt von Kapitel 2.2, das anhand von Beispielen ästhetisch wirkender Reflexionseffekte aus der realenrnWelt und den Medien die Motivation dieser Arbeit darlegt. In Kapitel 3 soll die generelle Vorgehensweise beim Rendern von Reflexionen deutlich gemacht werden. Danach wird in Kapitel 4 eine grobe Übersicht über existierende Ansätze gegeben. In Abschnitt 5 werden dann drei wesentliche Algorithmen vorgestellt, die zur Zeit oft in Spiel- und Grafikengines verwendet werden: Screen Space Reflections (SSR), Parallax-corrected cube mapping (PCCM) und Billboard Reflections (BBR). Diese drei Ansätze wurden zusammen in einem Framework implementiert. Dieses wird in Kapitel 5 vorgestellt und erklärt, gefolgt von detaillierten Beschreibungen der drei Techniken. Nachdem ihre Funktionsweise erklärt wurde, werden die Ansätze analysiert und auf ihre visuelle Qualität sowie ihre Echtzeitfähigkeit getestet. Abschließend werden die einzelnen Verfahren miteinander verglichen, um ihre Vor- und Nachteile zu untersuchen. Außerdem werden die gewonnenen Erfahrungen beschrieben und Verbesserungsansätze vorgeschlagen. Danach wird ein kurzer Ausblick zur voraussichtlichen Entwicklung von Render-Techniken spekularer Effekte gegeben.
In dieser Arbeit wird eine interaktive Applikation für das Android OS entwickelt. Bei der Applikation handelt es sich um ein Virtual-Reality-Spiel. Das Spiel gehört zum Ego-Shooter-Genre und spielt in einem Weltraumszenario. Durch den Einsatz eines Stereo-Renderers ist es möglich, das Spiel in Kombination mit einer Virtual-Reality-Brille zu spielen.
Simulation von Schnee
(2015)
Physik-Simulationen erlauben die Erstellung dynamischer Szenen auf dem Rechner. Sie lassen die Computergrafik lebendig werden und finden unter anderem Anwendung in Film, Spiel und Ingenieurswesen. Durch GPGPU-Techniken kann diese Arbeit erstmals auf der Grafikkarte stattfinden. Die dynamische Simulation von Schnee ist ein Gebiet, das aufgrund seiner physikalischen Komplexität noch wenig erforscht ist. Die Materie-Punkt-Methode ist das erste Modell, dass in der Lage ist die Dynamik und verschiedenen Arten von Schnee darzustellen.
Die hybride Nutzung von Lagrange-Partikeln und einem kartesischen Euler-Gitter ermöglichen das Lösen der partiellen Differentialgleichungen. Die Partikel werden dazu auf die Gitterknoten transformiert. Durch Anwendung der Finite-Elemente-Methode auf das Gitter können Gradienten zur Aktualisierung der Geschwindigkeit berechnet werden. Die Geschwindigkeiten werden dann auf die Partikel zurückgewichtet, um diese in der Simulation voranschreiten zu lassen. Gepaart mit einem spezifischen Materialmodell wird die dynamische Natur von Schnee erlangt. Diese schließt Kollision und Bruch mit ein.
Diese Bachelorarbeit verbindet die kürzlich erschienenen GPGPU-Techniken von OpenGL mit der Materie-Punkt-Methode, um die verschiedenen Schneearten dynamisch, visuell ansprechend und effizient zu simulieren
Das Thema dieser Arbeit ist die Entwicklung einer hardwarebeschleunigten Einzelbildkompression zur Videoübertragung. Verfahren zur Einzelbildkompressionrn existieren bereits seit längerer Zeit. Jedoch genügen die gängigen Verfahren nicht den Anforderungen der Echtzeit und Performanz, um während einer Videoübertragung ohne spürbare Latenz zum Einsatz zu kommen. In dieser Arbeit soll einer der geläufigsten Algorithmen zur Bildkompression auf Parallelisierbarkeit, unter zu Hilfenahme der Grafikkarte, untersucht werden, um Echtzeitfähigkeit während der Kompression und Dekompression von computergenerierten Bildern zu erreichen. Die Ergebnisse werden evaluiert und in den Rahmen aktueller Verfahren parallelisierter Kompressionstechniken eingeordnet.
Die vorliegende Arbeit befasst sich mit der Entwicklung einer interaktiven Applikation unter Android, welche das Spielen eines Kartenspiels ermöglicht. Exemplarisch wurde das hebräische Spiel Yaniv implementiert. Schwerpunkt ist die Herausarbeitung benötigter Hintergrundkomponenten und die dazugehörige Umsetzung in jener Applikation. Benötigte Spielprozesse werden durchleuchtet und eine mögliche Lösungsvariante aufgezeigt.
Bei der eindeutigen Isolation und Klassifizierung von Merkmalen in 3D-Multi-Attribut-Volumendaten sind multidimensionale Transferfunktionen unabdingbar. Jedoch wird bei mehreren Dimensionen das Verständnis der Daten sowie die Interaktion mit diesen zu einer Herausforderung. Weder die Kontrolle der vielseitigen Eingabeparameter noch die Visualisierung im höherdimensionalen Raum sind trivial.
Ziel dieser Arbeit ist die Erstellung eines Transferfunktionseditors, der durch die Verwendung von verschiedenen Visualisierungs- und Interaktionstechniken, z.B. der Verwendung von parallelen Koordinatenachsen, die Erstellung multidimensionaler Transferfunktionen unterstützt. Dabei sollen unterschiedliche Dimensionen interaktiv ausgewählt und kombiniert werden und die Veränderungen der Transferfunktion durch visuelles Feedback im gerenderten Volumen bestätigt werden.
Das Rendering-Verfahren des Ray-Tracings ermöglicht die realitätsnahe Umsetzung der Bildgenerierung einer modellierten Szene und ist aufgrund seiner Arbeitsweise in der Lage, optische Phänomene und komplexe Beleuchtungsszenarien darzustellen. Allerdings bedarf es bei der Bilderzeugung einer enormen Anzahl an Berechnungen pro Pixel, wodurch Realisierungen eines Ray-Tracers in der Praxis Ergebnisse erzielen, die weit unter der in der Computergraphik angestrebten Echzeitdarstellung von 60 Bildern pro Sekunde entfernt liegen. Aktuelle Modelle der Graphics Processing Unit (GPU) ermöglichen die hochgradige Parallelisierung der Ausführung von allgemeinen Berechnungen. Mit Hilfe der Graphik-API OpenGL wird diese Parallelisierung nutzbar gemacht und ein vollständig auf der GPU ausgeführter Ray-Tracer entworfen und realisiert. Der entwickelte Ansatz wird durch die Integration eines Uniform Grids - einer beschleunigenden Datenstruktur des Ray-Tracings - erweitert, woraus eine Steigerung der Performanz zu erwarten ist.
Ziel dieser Arbeit ist die Implementierung eines auf der GPU ausgeführten Ray-Tracers und die Erweiterung des Ansatzes durch die Verwendung eines Uniform Grids. Die Ermittlung der erzielbaren Leistung wird im Anschluss durchgeführt. Bei der Entwicklung und Implementierung werden mögliche Probleme bei der Umsetzung bezüglich der GPU-Programmierung aufgezeigt und analysiert.
Thematik dieser Arbeit ist das dreidimensionale Image-Warping für diffuse und reflektierende Oberflächen. Das Warpingverfahren für den reflektierenden Fall gibt es erst seit 2014. Bei diesem neuen Algorithmus treten Artefakte auf, sobald ein Bild für einen alternativen Blickwinkel auf eine sehr unebene Fläche berechnet werden soll.
In dieser Arbeit wird der Weg von einem Raytracer, der die Eingabetexturen erzeugt, über das Warpingverfahren für beide Arten der Oberflächen, bis zur Optimierung des Reflective-Warping-Verfahrens erarbeitet. Schließlich werden die Ergebnisse der Optimierung bewertet und in den aktuellen sowie zukünftigen Stand der Technik eingeordnet.
Die vorliegende Arbeit stellt eine Rigid-Body Physik-Engine vor, deren Schwerpunkt auf der Kollisionserkennung per GPU liegt. Die steigende Performanz und Zugänglichkeit moderner Grafikkarten sorgt dafür, dass sich diese auch für Algorithmen nutzen lassen, die nicht nur zur Bilderzeugung gedacht sind. Dieser Vorteil wird genutzt, um eine effiziente auf Partikeln basierende Kollisionserkennung zu implementieren. Mit Hilfe einer Testumgebung wird dann der Performance-Unterschied zwischen CPU und GPU dargestellt.
In dieser Arbeit präsentieren wir Methoden zum Schätzen von Kamerabewegungen einer RGB-D-Kamera in sechs Freiheitsgraden und dem Erstellen von 3D-Karten. Als erstes werden die RGB- und Tiefendaten registriert und synchronisiert. Nach der Vorverarbeitung extrahieren wir FAST-Merkmale in zwei aufeinander folgenden Bildern. Daraus wird eine Korrespondenzmenge erstellt und Ausreißer werden herausgefiltert. Anschließend projizieren wir die Korrespondenzmenge in 3D, um die Bewegung aus 3D-3D-Korrespondezen mittels Least-Squares zu bestimmen. Weiterhin präsentieren wir Methoden, um 3D-Karten aus Bewegungsschätzungen und RGB-D-Daten zu erstellen. Dafür benutzen wir das OctoMap-Framework und erstellen wahlweise auch inkrementelle Karten aus Punktewolken. Anschließend evaluieren wir das System mit dem weit verbreiteten RGB-D-Benchmark.
Diese Arbeit präsentiert einen Ansatz zur Optimierung der Berechnung von Halbschatten flächiger Lichtquellen. Die Lichtquelle wird durch Sampling uniform abgetastet. Als Datenstruktur wird ein N-tree verwendet, durch den die Strahlen als Paket traversiert werden. Der N-tree speichert in seinen Knoten einen Linespace, der Informationen über Geometrie innerhalb eines Schaftes bietet. Diese Sichtbarkeitsinformation wird als Kriterium für eine Terminierung eines Strahles genutzt. Zusätzlich wird die Grafikkarte (kurz GPU – engl. „graphics processing unit“) zur Beschleunigung durch Parallelisierung benutzt. Die Szene wird zunächst mit OpenGL gerendert und anschließend der Schattenwert für jedes Pixel auf der GPU berechnet. Im Anschluss werden die CPU- und GPU-Implementationen verglichen. Dabei zeigt die GPU-Implementation eine Beschleunigung von 86% gegenüber der CPU-Implementation und bietet eine gute Skalierung mit zunehmender Dreieckszahl. Die Verwendung des Linespace beschleunigt das Verfahren gegenüber der Durchführung von Schnitttests und zeigt für eine große Anzahl an Strahlen keine visuellen Nachteile.
Augmented Reality besitzt viele denkbare Anwendungsbereiche, in denen Alltag oder Arbeitsprozesse vereinfacht werden können. Dadurch, dass viele Hersteller sehr unterschiedliche Augmented Reality Brillen anbieten, wird die Auswahl des richtigen Systems und eine systemübergreifende Entwicklung jedoch erschwert. Im Rahmen dieser Bachelorarbeit wird daher eine Anwendung entwickelt, mit der Augmented Reality Brillen auf einem Virtual Reality System simuliert werden können. Damit soll eine plattformübergreifende Entwicklung sowie die Auswahl des richtigen Systems vereinfacht werden.
Da die Simulation für mobile Endgeräte konzipiert werden soll, sollen möglichst realistische Umgebungen als Panorama vorgerendert werden können. Um diese auf Virtual Reality Systemen als stereoskopische Bilder darstellen zu können, werden verschiedene Verfahren zur Konvertierung in solche vorgestellt. Es wird ein Editor entwickelt, mit dem verschiedene Szenarien erstellt, Augmented Reality Systeme konfiguriert und schließlich auf einem Virtual Reality System angezeigt werden können. Abschließend wird untersucht, wie gut die Simulation gelungen ist und welche Verbesserungsmöglichkeiten es gibt.
Bei der musikalischen Grundausbildung von Kindern und Jugendlichen besteht eine spezielle Herausforderung darin, den Kindern das Notenlesen und -schreiben näher zu bringen. Bei der Ausbildung von jungen Nachwuchssängerinnen und -sängern eines Chores ist es zudem wichtig sie damit vertraut zu machen niedergeschriebene Noten direkt in Töne umzusetzen.
Eine interessante Idee ist es, den Kindern während des Unterrichts die Töne auf einem Klavier oder Keyboard vorzuspielen und diese gleichzeitig auf einem Bildschirm in Notenschrift visuell darzustellen.
Ziel dieser Bachelorarbeit ist die Implementierung eines solchen Systems, welches das Einspielen von Noten mit Hilfe eines MIDI-fähigen Keyboards und die anschließende visuelle Wiedergabe der Noten in Notenschrift umsetzt. Die prototypische Anwendung arbeitet in drei Schritten.
Sie erhält über ein angeschlossenes Keyboard die Noten in Form von MIDIDatensätzen als Eingabe. Diese MIDI-Informationen werden dann in das MusicXML-Format überführt. Ausgehend von dieser Notation in Music-XML wird abschließend die visuelle Ausgabe in Form von Notenschrift generiert und angezeigt.
Der natürliche Prozess der Verwitterung ist ein komplexer Vorgang, der von unterschiedlichsten Parametern beeinflusstwird. Hauptbestandteil dieses Prozesses ist das Zusammenziehen des Fruchtvolumens infolge von Wasserverlust durch Transpiration sowie die Veränderung der Fruchtfarbe und Oberfläche. Es wurden bereits Verfahren entwickelt, die diese Eigenschaften mit Hilfe von Parametrisierung sowie physikalischer Ansätze simulieren. Die in dieser Arbeit erstellte Anwendung simuliert das Fruchtfleisch durch ein Tetraedernetz und die Veränderung der Haut mit Hilfe von dynamischer Texturanpassung. Der entwickelte Algorithmus arbeitet in linearer Laufzeit und seine Ergebnisse werden anhand selbst erstellter Fruchtmodelle präsentiert.
Die vorliegende Arbeit befasst sich mit der Entwicklung eines Pixel-Sticks, ein digitales Hilfsmittel für das Light Painting. Schwerpunkte sind die Entwicklung von Hard- und Software des Sticks, sowie einer Android Applikation für die Bedienung.
Der Einbezug des Smartphones unterscheidet diesen Pixel-Stick anderen Varianten. Neben der grundlegenden Steuerung ist es möglich, Bilder direkt von dem Smartphone auf den Stick zu übertragen.
Die vorliegende Bachelorarbeit thematisiert eine durch die Eye-Tracking-Technologie gestützte Untersuchung mit dem E-Lern System Compass. Die Untersuchung fand in Form eines Experimentes statt, welches bei den Probanden die Fähigkeit der Erkennung der Subjekt- Verb-Kongruenz in deutschen Sätzen testen sollte. Ideengebend zu der Versuchskonstellation war eine ähnliche Studie im englisch sprachigen Raum.
Die Einbindung des E-Learning System Compass bezweckte dabei die Beobachtung des Lernverhaltens der Testpersonen. Ausgewertet und bewertet werden konnten die Versuchsreihen durch die Eye-Tracker Software, der während des Versuchs die Augenbewegungen der Testpersonen auf den gezeigten und erstellten Sätzen aufzeichnete und daraus messbare Daten erzeugte. Augenbewegungen wie Fixationen oder Regressionen auf bestimmte Stimuli wurden dabei erwartet und auch gehofft zu messen.
Das Ergebnis der Ausführungen zeigt eindeutig, dass Fehler in der Kongruenz zwischen Subjekt und Verb häufig gemacht werden und die Fehlerrate in Verbindung zur Satzlänge proportional ansteigt.
Virtueller Dirigent
(2016)
Ihm Rahmen einer Bachelorarbeit wurde eine "Virtual Reality"-Anwendung entwickelt. Ein Benuzter erhält die Möglichkeit die Rolle eines Dirigenten zu übernehmen und ein virtuelles Orchester zu leiten. Die Leitung erfolgt mit Hilfe von Handgesten. Mithilfe einer Evaluation der Anwendung wurden allgemeine Anforderungen an "Virtual Reality"-Spiele festgehalten.
Entwicklung eines augmentierten Montageszenarios mit Lego-Bausteinen für die Microsoft HoloLens
(2017)
Augmented Reality ist schon seit einigen Jahren in verschiedenen Formen verfügbar. Durch Fortschritte in der Technik können nun auch kompakte Augmented Reality Brillen hergestellt werden, wodurch sich viele neue Möglichkeiten der Interaktion und Anwendung von Augmented Reality eröffnen.
Diese Arbeit beschäftigt sich mit der Microsoft HoloLens und den Möglichkeiten, welche die Brille für Verbraucher und Industrie bieten kann. Im Rahmen dieser Arbeit wurde eine interaktive und augmentierte Anwendung entwickelt, um die Grenzen und Möglichkeiten der Microsoft HoloLens zu bewerten. Dazu wurde exemplarisch ein Montageszenario nachgestellt, bei dem ein Modell aus Lego-Bausteinen zusammengesetzt wird. Die HoloLens zeigt dabei schrittweise an, wo die nächsten Bausteine platziert werden sollen. Dabei stellte sich heraus, dass die HoloLens schon heute Vorteile bei der Montage bietet und gut zur Unterstützung von Arbeitsschritten verwendet werden kann, es wurden allerdings auch einige Schwächen deutlich.
In dieser Arbeit werden zwei Verfahren zur Berechnung der globalen Beleuchtung vorgestellt. Das Erste ist eine Erweiterung von Reflective Shadow-Maps um einen Schattentest, womit Verdeckungsbehandlung erreicht wird. Das zweite Verfahren ist ein neuer, auf Light-Injection basierender, bidirektionaler Ansatz. Dabei werden Strahlen aus Sicht der Lichtquelle verfolgt und in der Linespace Datenstruktur in Schächten gespeichert, die eine Diskretisierung der Raumrichtungen darstellen. Die Linespaces sind dabei in ein Uniform Grid eingebettet. Beim Auslesen der vorberechneten indirekten Beleuchtung sind im Idealfall keine Traversierung der Datenstruktur und keine weitere Strahlverfolgung mehr notwendig. Damit wird eine Varianzreduzierung und eine schnellere Berechnung im Vergleich zu Pathtracing erzielt, wobei sich insbesondere Vorteile in stark indirekt beleuchteten Bereichen und bei Glas ergeben. Die Berechnung der globalen Beleuchtung ist allerdings approximativ und führt zu sichtbaren Artefakten.
In dieser Arbeit werden Methoden und Maße getestet, nach denen beim Pathtracing eine Auswahl zwischen Line Space und Bounding Volume Hierarchie getroffen werden kann, die die Vorteile der beiden Datenstrukturen ausnutzen. Die Strukturen sind innerhalb der Bounding Box jedes Objekts (Objektlokal) definiert und jeder Line Space enthält in den Shafts jeweils eine Kandidaten-ID. Als Implementations- basis dient ein eigenes C++ und OpenGL Framework, in dem das Pathtracing und die Line Space Generierung über Compute Shader stattfindet. Die Maße schließen die Wahrscheinlichkeitsverteilung, die Effektabhängigkeit, sowie einen Distanz- grenzwert ein und werden gegen verschiedene Szenen getestet. Die Ergebnisse zeigen in den meisten Situationen einen deutlichen Geschwindigkeitszuwachs bei teils nur geringen visuellen Unterschieden, wobei das Wahrscheinlichkeitsmaß die qualitativ hochwertigsten Bilder für den gegebenen Leistungszuwachs erbringt. Die grundlegenden Probleme des Line Space im Vergleich mit der BVH, nämlich der hohe Speicherverbrauch und die lange Generierungszeit, bleiben aber trotz der objektlokalen Struktur, der minimalen Datenmenge pro Shaft und der Compute Shader Implementierung, erhalten.
Diese Arbeit zeigt eine neue Technik der Computergrafik zur Simulation von globaler Beleuchtung durch Path Tracing in Echtzeit. Das Path Tracing wird dafür mit Compute Shadern auf der Grafikkarte (GPU) realisiert, um das Rendering hoch parallelisiert auszuführen. Zur Beschleunigung der Strahlverfolgung wird dabei der
Line Space in verschiedenen Varianten als Datenstruktur verwendet, um leere Bereiche in der Szene schneller zu überspringen. Der Line Space speichert Szeneninformationen basierend auf einer Voxelisierung in richtungsabhängige Shafts und wird sowohl auf der GPU generiert, als auch traversiert. Mit diesem Verfahren kann eine Szene physikalisch korrekt indirekt beleuchtet und mit weichen Schatten schattiert werden. Außerdem kann das Path Tracing damit weitgehend unabhängig von der Polygonanzahl mit über 100 Bildern pro Sekunde klar in Echtzeit durchgeführt werden und ist somit deutlich schneller als mit einem vergleichbaren Voxel-Gitter. Die Bildqualität wird davon nicht negativ beeinflusst und die Schattenqualität ist in den meisten Fällen deutlich besser als bei der Verwendung von Shadow-Mapping.
Part-of-Speech tagging is the process of assigning words with similar grammatical properties to a part of speech (PoS). In the English language, PoS-tagging algorithms generally reach very high accuracy. This thesis undertakes the task to test against these accuracies in PoS-tagging as a qualitative measure in classification capabilities for a recently developed neural network model, called graph convolutional network (GCN). The novelty proposed in this thesis is to translate a corpus into a graph as a direct input for the GCN. The experiments in this thesis serve as a proof of concept with room for improvements.
Diese Arbeit befasst sich mit verschiedenen Möglichkeiten zur Interaktion
mit dreidimensionalen, virtuellen Objekten in der realen Umgebung des
Nutzers. Im Vordergrund stehen Interaktionsmöglichkeiten, welche durch
neue AR-Technologien aufkommen.
Dazu wird ein spielerischer Prototyp einer Applikation für die von Microsoft
entwickelte HoloLens konzipiert und implementiert. Der Prototyp
des Spiels besteht aus drei Phasen. Die erste Phase ist die Aufnahme der
realen Umgebung des Nutzers. In der zweiten Phase kann der Nutzer die
reale Umgebung mit der Hilfe von virtuellen Objekten erweitern. In der
dritten Phase muss der Nutzer einen virtuellen Avatar durch die reale Umgebung
navigieren.
Die Interaktionsmöglichkeiten der HoloLens wie Gaze, Gesture und VoiceInput
werden in den Kategorien Menüführung, Positionierung von virtuellen
Objekten im dreidimensionalen Raum und Steuerung eines Avatars einer
Evaluation unterzogen.
Diese Arbeit beschäftigt sich mit verschiedenen Ansätzen zur Beschleunigung von Raytracing Berechnungen auf dem Grafikprozessor (GPU). Dazu wird ein Voxelgrid verwendet, welches durch die Linespace-Datenstruktur erweitert wird. Der Linespace besteht aus richtungsbasierten Schäften (Shafts) und speichert die in ihm liegenden Objekte in einer Kandidatenliste. Es werden unterschiedliche Methoden zur Sortierung und Traversierung des Linespace vorgestellt und evaluiert. Die Methoden können keinen Anstieg der Bildfrequenz erreichen, ohne gleichzeitig in einer Verringerung der Bildqualität zu resultieren.
Diese Arbeit zeigt die Verwendung einer lokalen Linespace Datenstruktur, welche auf Basis eines bestehenden GPU-basierten Raytracers mit globa- ler Linespace Datenstruktur konzipiert und implementiert wird. Für jedes Szenenobjekt wird ein N-Tree generiert, dessen Knoten jeweils einen Line- space besitzen. Dieser speichert in seinen SchäftenInformationen über exis- tierende Geometrie. Ein Schaft stellt ein Volumen zwischen zwei Flächen auf der Knotenaußenseite dar. Dies ermöglicht bei der Strahlverfolgung ein schnelleres Überspringen leerer Räume. Identische Objekte können auf bereits berechnete Linespaces zurückgreifen, wodurch der Speicherbedarf um bis zu 94,13% und die Initialisierungszeit der Datenstruktur um bis zu 97,15% vermindert werden kann. Aufgrund der lokalen Zugriffsmöglich- keiten könnendynamische Szenen visualisiertwerden. Dabei ist ebenso ein Anstieg der Qualität zu beobachten.
Diese Bachelorarbeit befasst sich mit der Entwicklung einer Anwendung für die HoloLens von Microsoft. Die Anwendung dient der Vermarktung von Werbeflächen der Firma awk AUSSSENWERBUNG GmbH. Anhand der Entwicklung wird die Frage beantwortet, welches die Möglichkeiten und Grenzen der HoloLens in Verbindung mit der Mixed Reality Platform sind. Dabei wird auch auf die Probleme eingegangen, welche bei der Ent- wicklung einer Anwendung für eine neue Technologie, wie die HoloLens auftreten. Neben der neuen Technologie, ergeben sich auch durch den Ein- satzort der Anwendung weitere Herausforderungen. Diverse Anwendungs- beispiele und Präsentationen lassen vermuten, dass die HoloLens primär für Anwendungen innerhalb von Räumen ausgelegt ist. Die zu entwickeln- de Anwendung ist dagegen für die Verwendung außerhalb geschlossener Räume konzipiert. Bei der Entwicklung konnten Erkenntnisse über die- se neue Technologie gewonnen werden. Zum einen wurde deutlich, dass sowohl die HoloLens, als auch die Entwicklungsumgebung noch an eini- gen Stellen verbessert werden können. Zum anderen, dass die HoloLens nicht für den Einsatz im Freien geeignet ist. Trotz der Schwierigkeiten bei der Entwicklung konnten auch die vielen Möglichkeiten der HoloLens be- leuchtet werden.
Hubschrauber sind aus heutiger Sicht unverzichtbar. Eine Reihe von Anwendungsgebieten zeigt das Einsatzspektrum, die andere Flugmuster im Vergleich zum Hubschrauber nicht leisten können. Allerdings handelt es sich bei einem Hubschrauber um ein sowohl technologisch als auch physikalisch hochkomplexes System. Entsprechend aufwendig ist die Aus- und Weiterbildung von Piloten. Gerade in den letzten zwei Jahrzehnten hat sich daher die Flugsimulation als wertvolle Ergänzung zum klassischen Training herausgestellt. Mittels Flugsimulatoren ist es möglich, schwierige oder gar gefährliche Situationen bedarfsgerecht nachzuempfinden und zu üben. Im Rahmen dieser Arbeit soll ein vereinfachter Hubschraubersimulator, basierend auf Starkörperkinematik, entwickelt werden. Dabei wird ein idealisiertes Rotormodell angenommen und auf komplexe strömungsmechanische Phänomene verzichtet, um eine Implementation übersichtlich zu illustrieren und echtzeitfähig zu sein. Dabei sind die Module dementsprechend in der Unreal Engine umgesetzt, dass eine Adaption an andere Flugmuster ohne großen Aufwand möglich ist.
Algorithmische Komposition
(2018)
Algorithmische Komposition ist ein interdisziplinärer Forschungsbereich, der die beiden Bereiche Musik und Wissenschaft miteinander verknüpft. Der Computer wird in den Mittelpunkt des Kompositionsprozesses gestellt und komponiert mithilfe eines Algorithmus Musik. In dieser Arbeit wird die Algorithmische Komposition unter Verwendung der biologisch inspirierten Algorithmen Lindenmayer-System und Zellulärer Automat untersucht. Dabei werden ausgewählte Verfahren vorgestellt, implementiert und evaluiert, die die erzeugten Daten der Algorithmen in ein sinnvolles musikalisches Ergebnis transformieren.
In keinem Bereich der Informatik hat sich die Hardware so rasant entwickelt,
wie im Bereich der Computergraphik. Dabei bietet die GPU, neben
der reinen Darstellung von Dreiecken, inzwischen auch eine Reihe weiterer
Pipeline-Schritte, die auch die Darstellung von anderen graphischen
Objekten, wie zum Beispiel den Freiformflächen, ermöglicht.
Diese Arbeit beschäftigt sich mit dem Rendering von Freiformflächen,
insbesondere dem der Bézierflächen. Dafür wurde für das Rendering Framework
der Universität Koblenz (CVK) eine entsprechende Implementierung
zur Verwaltung und Darstellung von Bézierflächen erstellt. Dazu wurde
zunächst die Triangulation und schließlich die Tessellierung der Bézierflächen
mit Normalen und Texturkoordinaten, sowie die Behandlung von
Trimmkurven erstellt.
Das Ziel der vorliegenden Bachelorarbeit war die Untersuchung
verschiedener Methoden zur Ermittlung und Verbesserung der User
Experience eines Softwareproduktes einer mittelständigen Firma. Hierzu
wurde zunächst ein geeignetes Designkonzept und dazu passende Methoden
der Evaluation und des Testings ermittelt und dann auf das Produkt
angewendet. Mit dem Leitgedanken des User-Centered-Designs wurden
Methoden ausgewählt, welche die Nutzerinnen/Nutzer ins Zentrum der
Untersuchung stellten.
So konnte mit Hilfe der Nutzerinnen/Nutzer des Produktes
herausgefunden werden, wie die User-Experience ausfällt und wie diese
noch verbessert werden kann. In einer Fokusgruppe sind Prototypen für
die Verbesserung und Weiterentwicklung der Software entstanden.
Diese Bachelorarbeit ist sowohl für Sofwaredesignerinnen/-designer,
als auch für Studentinnen/Studenten der Mensch-Maschine-Kommunikation
interessant.
In der Computergrafik stellte das echtzeitfähige
Rendern von Haaren und Fell ein Problem dar. Die
Berechnung der Beleuchtung, Schattierung und
Transparenz erfordert einen hohen Rechenaufwand,
welcher sich negativ auf die Performanz auswirkt.
Doch durch verbesserte Hardware und neue Verfahren
ist es möglich, solch komplexe Effekte in Echtzeit
zu simulieren. In folgender Arbeit werden die
Grundlagen des Renderings von Haaren erläutert.
Außerdem wurde im Rahmen der Arbeit eine
echtzeitfähige Demo implementiert, deren zugrunde
liegende Verfahren und Funktionalitäten beschrieben
werden. Um die Demo zu evaluieren wurde die mögliche
Anzahl an Bildern pro Sekunde bei Modellen
unterschiedlicher Komplexität gemessen. Schließlich
wurden die Ergebnisse mit Bildern von echten Haaren
verglichen.
Das Ziel dieser Bachelorarbeit ist es, die diskrete Fouriertransformation, die diskrete Kosinustransformation und die Hadamard-Walsh Transformation im Kontext der Bildverarbeitung zu vermitteln und diese unter ausgewählten Gesichtspunkten zu vergleichen. Hierfür soll allgemein das Wissen für den aus der linearen Algebra stammenden Begriff der Transformation gefördert werden und auf die Bildverarbeitung übertragen werden. Anschließend wird das Verständnis für die Fouriertransformation sukzessive aufgebaut und mit den beiden weiteren Transformationen verknüpft. Abschließend werden die Transformationen verglichen und ihr Nutzen innerhalb der Bildverarbeitung erläutert.
In dieser Bachelorarbeit wird ein Simulationscode für astrophysikalische
Simulationen von Fluiden unter dem Einfluss ihrer eigenen
Gravitation entwickelt. Der Code wird hauptsächlich von der GPU
ausgeführt. Leichte Vereinfachungen der physikalischen Modelle und
einige Parameter zum Steuern von Genauigkeit und Rechenaufwand
ermöglichen das Simulieren mit interaktiver Bildwiederholrate auf den
meisten handelsüblichen, modernen Computern mit einer dedizierten
Grafikkarte. Der Simulationscode wird verwendet, um die Entstehung
von Sternen aus einer Gaswolke zu simulieren. Einige Merkmale der
Sternentstehung, wie zum Beispiel Akkretionsscheiben und Fragmentierung,
lassen sich selbst bei niedrigen Partikelzahlen beobachten.
In dieser Bachelorarbeit wird ein System zur Simulation der Bewegung von Molekülen entworfen. Die Berechnungen der Kräfte zwischen chemisch gebundenen Atomen sowie zwischenmolekularer Kräfte werden fast vollständig auf der GPU durchgeführt. Die Visualisation der Simulation findet in einer interaktiven Bildwiederholrate statt. Um eine Darstellung in Echtzeit auf den meisten handelsüblichen Grafikkarten zur ermöglichen, sind geschickte Optimierungen und leichte Abstraktionen der physikalischen Modelle notwendig. Zu jeder Zeit kann die Ausführungsgeschwindigkeit der Simulation verändert oder vollständig gestoppt werden. Außerdem lassen sich einige Parameter der zugrundeliegenden physikalischen Modelle der Simulation zur Laufzeit verändern. Mit den richtigen Einstellung der Parametern lassen sich bestimmte Phänomene der Molekulardynamik, wie zum Beispiel die räumliche Struktur der Moleküle, beobachten.
Die folgende Arbeit beschreibt die prototypische Konzeption und Entwicklung des Stat-Raising Spiels "Adventurer's Guild" mithilfe der Spielengine Ren'Py. Das Spiel soll eine durch Spielentscheidungen und Planung von Aktivitäten beeinflussbare Narrative haben und Spaß machen sowie optisch ansprechend sein.
Nach einem Überblick über das "Stat-Raising" als Genre sollen die existierenden Spiele "Dandelion - Wishes Brought to You", "Pastry Lovers", "Long Live the Queen" und "Magical Diary" analysiert werden, um anhand dessen die Schwächen und Stärken der verschiedenen Umsetzungen herauszufiltern.
Die daraus gewonnenen Erkenntnisse werden für die anschließende Konzeption eines neuen Stat-Raising Spiels genutzt.
Die Spielmechaniken und die getroffenen Designentscheidungen des resultierenden Spiels werden anschließend mit Screenshots gezeigt und ausführlich erklärt.
In einer finalen Bewertung wird das Spiel hinsichtlich der Aufgabenstellung untersucht. Im Ausblick werden weitere Ausbau- und Verbesserungsmöglichkeiten des Spiels aufgezeigt.
Das fotorealistische Rendering von Fell ist ein oft gesehenes Problem in der Computergrafik und wird besonders bei Animationsfilmen häufig gebraucht. In dieser Arbeit werden zwei Beleuchtungsmodelle, ursprünglich zum Rendern von menschlichen Haaren, vorgestellt. Dies ist zum einen das Modell von Marschner et al. aus dem Jahr 2003, welches als Grundlage für viele neuere Modelle gilt, sowie das Modell von d’Eon et al. aus dem Jahr 2011. Beide Modelle werden innerhalb eines Pathtracers, welcher globale Beleuchtung simuliert, implementiert. Es werden die Besonderheiten von Haar-Fasern aus Fell im Gegensatz zu menschlichen Haar-Fasern aufgezeigt und folglich erläutert, warum die präsentierten Modelle auch für viele Fellarten genutzt werden können. Dabei liegt der Fokus auf einer realistischen visuellen Darstellung. Zusätzlich wird die Performance beider Modelle verglichen und Verbesserungsvorschläge durch die Nutzung von zylinder förmigen Schnittpunktobjekten für den Pathtracer gegeben und anhand der Implementation evaluiert.
Volumetrische Beleuchtung
(2018)
Volumetrische Beleuchtung ist ein verbreitetes Beleuchtungsphänomen in der Natur und trägt in weiten Teilen zu dem realistischen Erscheinen von computergenerierten Bildern bei. Diese Arbeit befasst sich mit den physikalischen Hintergründen dieses Phänomens, listet bekannte Modelle zur Visualisierung von volumetrischer Beleuchtung in der Computergrafik auf und vergleicht anschließend drei Verfahren, mit denen eine volumetrische Beleuchtung mit heutiger Grafikhardware visualisiert werden kann. Diese Verfahren werden anhand einer Implementation in OpenGL hinsichlich ihrer Möglichkeiten und Einschränkungen, sowie ihres Rechenaufwands miteinander verglichen.
Die vorliegende Arbeit gibt einen Überblick über die Rahmenbedingungen der Programmierung von Grafikkarten. Dazu werden die zur wichtigsten am Markt vorhandenen Application Programming Interfaces (APIs) vorgestellt und miteinander verglichen. Anschließend werden zwei Standardalgorithmen aus der Datenverarbeitung, Prefix Sum und Radixsort vorgestellt und im Hinblick auf die Implementierung mit paralleler Programmierung auf der GPU zu untersucht. Beide Algorithmen wurden unter Nutzung der OpenGL-API und OpenGL Compute Shadern implementiert. Abschließend wurden die Ausführungszeiten der beiden Algorithmen miteinander verglichen.
Die vorliegende Arbeit beschreibt die Entwicklung eines OpenGL-basierten Tools zur Visualisierung von Hohlräumen in Proteinen, welche während eines statischen Dockings beobachtet werden können. Ziel ist es, anhand von Informationen über Abstände zwischen Proteinen und Liganden, Schluss- folgerungen über Interaktionen zu ziehen, um daraus Ansätze für die Entwicklung künstlicher Liganden zu gewinnen. Zunächst wird auf chemische Grundlagen eingegangen, die das Thema motivieren und für das Verständnis der Thematik und der genutzten Algorithmen wichtig sind. Des Weiteren wird bestehende Software vorgestellt, die ähnliche Sachverhalte löst. Anschließend werden die Voraussetzungen zur Entwicklung des Programmes genannt, woraufhin dieses detailliert beschrieben wird. Zum Abschluss wird das Tool in Hinblick auf Performance und Nutzen evaluiert und ein zusammenfassendes Fazit getroffen, in dem sich das Programm als gute Hilfe für bestehende Forschungen und gute Basis für weitere, tiefergehende Forschungsprojekte erweist.
Das Ziel dieser Bachelorarbeit bestand darin, die Verbindung zwischen den Technologien Augmented und Virtual Reality zu veranschaulichen und ein sinnvolles Zusammenspiel der beiden Darstellungsformen zu kreieren. Hierfür wurde eine Anwendung im Bereich der Innenarchitektur implementiert, bei welcher man einen Raumplan mittels Augmented Reality intuitiv gestalten und sich anschließend einen realitätsnahen Eindruck des eingerichteten Zimmers mit einer Virtual Reality Simulation machen kann. Auf Basis des nötigen Grundwissens wurde ein Konzept für dieses Projekt ausgearbeitet und anschließend mit verschiedenen Entwicklungssystemen realisiert. Diese Implementierung wurde im Rahmen einer Evaluationsreihe getestet und darauffolgend optimiert. Das Ergebnis bestätigt die Annahme, dass sich Augmented und Virtual Reality mit ihren jeweiligen Stärken evident miteinander verbinden lassen. Diese Arbeit ist sowohl für Studierende im Bereich Informatik als auch für Interessenten an innovativen Lösungen relevant.
In dieser Arbeit wird ein System zur Erzeugung und Darstellung stereoskopischen Video-Panoramen vorgestellt. Neben der theoretischen Grundlagen werden der Aufbau und die Funktionsweise dieses Systems erläutert.
Dazu werden spezielle Kameras verwendet, die Panoramen aufnehmen
können und zur Wiedergabe synchronisiert werden. Anschließend wird ein Renderer implementiert, welcher die Panoramen mithilfe einer VirtualReality Brille stereoskopisch darstellen kann. Dafür werden separate Aufnahmen für die beiden Augen gemacht und getrennt wiedergegeben. Zum Abschluss wird das entstandene Video-Panorama mit einem Panorama eines schon bestehenden Systems verglichen.
VR Fresken
(2018)
Das Projekt VR Fresken setzte sich zum Ziel, mit Hilfe von virtueller Realität im Rahmen einer Museumsausstellung historisch rekonstruierte Räume und deren Deckenfresken interaktiv erlebbar zu machen. In dieser Arbeit werden die eingesetzten Techniken und Technologien beleuchtet, der Anwendungsfall der VR für den Einsatz im Museum untersucht, sowie eine Evaluation der Software im Alltagsbetrieb im Museum durchgeführt.
Wie beeinflussen spieletechnische Eigenschaften eines Videospiels den Spielspaß? Diese Arbeit wird eine Antwort auf diese Frage suchen, indem sie ein selbst programmiertes Videospiel dafür nutzt, welches von Grund auf dafür erstellt wird. Das Videospiel wird in zwei Varianten programmiert, welche sich nur in seinen spieletechnischen Eigenschaften unterscheidet. Verschiedene Probanden werden das Videospiel dann spielen und im Nachhinein eine Umfrage diesbezüglich beantworten. Um möglichst fehlerfreie Umfragewerte zu bekommen, die lediglich Werteänderungen durch Änderung der spieletechnischen Eigenschaften aufzeigt, wurden gründliche Überlegungen zum Game Design und zum Spielkonzept gemacht. Die Ergebnisse vermuten, dass die spieletechnischen Eigenschaften eines Videospiels einen sehr großen Einfluss auf den Spielspaß haben. Jedoch sind diese Eigenschaften nicht allein dafür verantwortlich, warum ein Videospiel Spaß machen kann. Psychologische Aspekte sind auch bei Änderungen von spieletechnischen Eigenschaften zu beachten.
Raytracing mit Vulkan
(2018)
Der Schwerpunkt der vorliegenden Bachelorarbeit war die Entwicklung eines einfachen Raytracerprogrammes unter der Verwendung der Vulkan API, und das Einschätzen des Mehraufwandes im Vergleich zum Performancegewinn. Das Programm wird in dieser Arbeit vorgestellt. Die Vulkan Komponente des Programms wird detailliert erklärt. Anschließend wird das Programm mit einem, unter der Verwendung von OpenGL geschriebenen, ähnlichen Raytracerprogramm verglichen. Beide Programme verwenden dabei den gleichen Raytracer, der im Fragmentshader implementiert ist. Der Test ergibt, dass der mithilfe von Vulkan geschriebene Raytracer deutlich langsamer ist, als das zum Vergleich dienende OpenGL Programm.
In dieser Arbeit wird das Echtzeitrendering von Wolken von der Theorie bis hin zur Entwicklung derselben behandelt. Dabei sollen die visuellen Eigenschaften der Wolken sowie die unterschiedliche Wolkentypen simuliert werden. Dabei ist die Berechnung der Beleuchtung essentiell für ein glaubwürdiges Ergebnis. Die Rendertechniken nutzen dabei unterschiedliche Noise-Texturen; für die Modulierung der Wolken sind es hauptsächlich Perlin- und Perlin-Worley-Texturen. Das Rendern der Wolken wird per Compute-Shader durchgeführt um die Echtzeitfähigkeit zu gewährleisten. Um die Performance zu steigern, werden Temporal Reprojektion und andere Optimierungstechniken angewendet.
Diese Bachelorarbeit beschäftigt sich mit dem Entwurf und der Implementation einer virtuellen Realitätserfahrung. Ziel ist es, zwei Fragen zu beantworten: Ist es möglich, eine immersive virtuelle Anwendung zu erschaffen, die hauptsächlich Impulse und Trigger benutzt, um Angst und Schrecken bei den Benutzern zu erzeugen? Zweitens, ist diese Immersion ausreichend, die Benutzer so zu illusionieren, dass sie die virtuelle Welt für die Reale halten. Zur Erschaffung dieser Erfahrung wurde die Programmierumgebung Unity3D sowie Visual Studios 2017 verwendet. Um festzustellen, ob diese VR-Anwendung tatsächlich immersiv für den Anwender ist, wurde ein Experiment mit sieben Probanden durchgeführt. Nach der Spieltestung wurden die Probanden zu Ihren Erfahrungen mittels eines Fragebogens befragt. Es konnte dadruch gezeigt werden, dass diese Anwendungen Tendenzen zur Immersion aufweisen. Jedoch waren sich die Benutzer der Situation, in der sie sich befanden, stets bewusst. Daraus lässt sich schlussfolgern, dass die Immersion nicht stark genug war, um die Probanden bezüglich der virtuellen und realen Welt zu täuschen.
In dieser Bachelorarbeit wird ein System zur Kameratracking implementiert, dass auf Basis eines Partikelfilters arbeitet. Dazu wird ein Markertracking realisiert und anhand der Markerposition die Kameraposition errechnet. Der Marker soll mit ein Partikelfilter gefunden werden und um das zu bewerkstelligen werden mögliche Markerpositionen simuliert, auch Partikel genannt, und mit Likelyhood Funktionen gewichtet. Fokus liegt auf der Evaluation von verschiedenen Likelyhood-Funktionen des Partikelfilters. Die Likelyhood-Funktionen wurden in CUDA umgesetzt als Teil der Implementation.
Diese Arbeit behandelt die Konzeption und Implementation eines Action-Rollenspiels mithilfe der Game Engine Unity. Im Rahmen einer Evaluation sollte das Spiel hinsichtlich der Bedienbarkeit der integrierten Steuerungsarten, der visuellen Überzeugung der Animationen und der Benutzerfreundlichkeit über zur Verfügung gestellte Hilfsmittel und Visualisierungen bewertet werden. Zusätzlich sollten Schwachstellen und Probleme im Spiel über offenes Feedback herausgefunden werden. Die Auswertung der Evaluation ergab, dass das Spiel im Hinblick auf die Bedienbarkeit und Benutzerfreundlichkeit zwar noch ausbaufähig ist, aber insgesamt einen guten Eindruck bei den Probanden hinterlassen hat.
Simulation von Schnee
(2019)
Mit Hilfe von Physiksimulationen lassen sich viele
Naturphänomene auf dem Rechner nachbilden. Ziel ist, eine physikalische
Gegebenheit möglichst korrekt zu berechnen, um daraus Schlüsse für die
reale Welt zu ziehen. Anwendungsgebiete sind beispielsweise die Medizin,
die Industrie, aber auch Spiele oder Filme.
Schnee ist aufgrund seines physikalischen Aufbaus und seinen Eigenschaften
ein sehr komplexes Naturphänomen. Um Schnee zu simulieren, müssen
verschiedene Materialeigenschaften beachtet werden.
Die wichtigste Methode, die sich mit der Simulation von Schnee und seiner
Dynamik befasst, ist die Material-Point-Method. In ihr werden die auf
der Kontinuumsmechanik basierenden Lagrange-Partikel mit einem kartesischen
Gitter vereint. Das Gitter ermöglicht die Kommunikation zwischen
den eigentlich nicht verbunden Schneepartikeln. Zur Berechnung werden
Daten der Partikel auf die Gitterknoten übertragen. Dort werden Berechnungen
mit Informationen über benachbarte Partikel durchgeführt. Die Ergebnisse
werden danach zurück auf die Partikel übertragen.
Durch GPGPU-Techniken lassen sich physikalische Simulationen auf der
Grafikkarte implementieren. Verfahren wie die Material-Point-Method lassen
sich durch diese Techniken gut parallelisieren.
Diese Arbeit geht auf die physikalischen Grundlagen der Material-Point-
Method ein, und implementiert diese mit Hilfe von Compute-Shadern auf
der Grafikkarte. Anschließend werden Performanz und Qualität bewertet.
The development of a game engine is considered a non-trivial problem. [3] The architecture of such simulation software must be able to manage large amounts of simulation objects in real-time while dealing with “crosscutting concerns” [3,p. 36] between subsystems. The use of object oriented paradigms to model simulation objects in class hierarchies has been reported as incompatible with constantly changing demands during game development [2, p. 9], resulting in anti-patterns and eventual, messy refactoring.[13]
Alternative architectures using data oriented paradigms revolving around object composition and aggregation have been proposed as a result. [13, 9, 1, 11]
This thesis describes the development of such an architecture with the explicit goals to be simple, inherently compatible with data oriented design, and to make reasoning about performance characteristics possible. Concepts are formally defined to help analyze the problem and evaluate results. A functional implementation of the architecture is presented together with use cases common to simulation software.
In dieser Bachelorarbeit geht es um den Einsatz des Wii Balance Boards
in -Realität-Anwendungen. Als Anwendungsbeispiel wird ein Snowboard
Spiel implementiert, in dem der virtuelle Avatar mit den Drucksensoren
des Wii Balance Board gesteuert werden kann. Der Anwender soll mit seiner
Körperbalancierung, spielerisch und intuitiv in der virtuellen Umgebung
manövrieren. Es werden die Immersion und der Einfluss auf Motion-
Sickness beziehungsweise Cybersickness erforscht. Außerdem wird dasWii
Balance Board mit dem Xbox Controller verglichen was die Steuerung betrifft.
Ziel der Arbeit ist es zu evaluieren, ob das Wii Balance Board in
der Lage ist, freies Bewegen in der virtuellen Umgebung zu ermöglichen.
Außerdem soll untersucht werden, welcher der beiden Geräte vorteilhafter
ist. Die Umfrageergebnisse laufen darauf hinaus, dass das Wii Balance
Board einen wesentlich positiveren Einfluss auf die Immersion hat, als der
Controller, trotz der besseren Spielergebnisse. Außerdem hat die Untersuchung
ergeben, dass die Verwendung des Wii Balance Board viel häufiger
für Motion-Sickness und Cybersickness Fälle verantwortlich ist.
Simulation von Rauch
(2019)
Diese Bachelorarbeit befasst sich mit der Simulation von Rauch mittels einem Partikelsystem. Hierbei werden die Möglichkeiten untersucht Rauch möglichst realistisch in einem Partikelsystem zu implementieren und in Echtzeit berechnen zu lassen. Die physikalische Simulation basiert dabei auf den Arbeiten von Müller und Ren, welche sich mit den physikalischen Eigenschaften von Fluiden und Gasen beschäftigen. Die Simulation wurde mittels C++, OpenGL und der in OpenGL verfügbaren Compute-Shader auf der GPU implementiert. Dabei wurde ein besonderes Augenmerk darauf gelegt, dass diese möglichst performant ist. Hierfür werden Techniken von Hoetzlein benutzt um das Partikelsystem zu beschleunigen. Daraufhin wurden zwei Beschleunigungsverfahren implementiert und werden noch gegenübergestellt. Dabei werden die Laufzeit, sowie verbrauchter Speicherplatz der GPU betrachtet.
Die Mitralklappe ist eine der vier Herzklappen des Menschen. Sie befindet sich in der linken Herzkammer und agiert als ein unidirektionales Ventil, welches den Blutfluss vom linken Atrium zum linken Ventrikel steuert. Eine funktionierende Mitralklappe verhindert den Rückfluss von Blut in den Lungenkreislauf, wodurch sie einen unverzichtbaren Anteil zu einem gesunden Herzkreislauf beiträgt. Pathologien der Mitralklappe können eine Reihe von Symptomen hervorrufen, welche in ihrer Schwere von Brustschmerzen und Ermüdung bis zum Lungenödem (dem Eindringen von Flüssigkeit in die Lunge) reichen können. Im schlimmsten Fall kann dieses zum Atemversagen führen.
Dysfunktionale Mitralklappen können mithilfe komplexer chirurgischer Eingriffe wiederhergestellt werden, welche in hohem Maße von intensiver Planung und präoperativer Analyse profitieren. Visualisierungstechniken eröffnen die Möglichkeit, solche Vorbereitungsprozesse zu unterstützen und können zudem einer postoperativen Evaluation dienlich sein. Die vorliegende Arbeit erweitert die Forschung in diesem Bereich. Sie stützt sich auf patientenspezifische Segmentierungen der Mitralklappe, wie sie am Deutschen Krebsforschungszentrum entwickelt werden. Solche Segmentierungen resultieren in 3D-Modellen der Mitralklappe. Der Kern dieser Arbeit wird sich mit der Konstruktion einer 2D-Ansicht dieser Modelle befassen. Die 2D-Visualisierung wird durch Methoden der globalen Parametrisierung erzeugt, welche es erlauben, bijektive Abbildungen zwischen einem planaren Parameterraum und Oberflächen in höheren Dimensionen zu erstellen.
Eine ebene Repräsentation der Mitralklappe ermöglicht Ärzten einen unmittelbaren Blick auf deren gesamte Oberfläche, analog zu einer Karte. Dies erlaubt die Begutachtung der Fläche und Form ohne die Notwendigkeit unterschiedlicher Blickwinkel. Teile der Klappe, die in der 3D-Ansicht von Geometrie verdeckt sind, werden in der 2D-Darstellung sichtbar.
Ein weiterer Beitrag dieser Arbeit ist die Untersuchung verschiedener Visualisierungen der 3D- und 2D-Mitralklappenrepräsentationen. Merkmale der Klappe können durch Assoziation mit spezifizierten Farbschemata hervorgehoben werden. So können zum Beispiel Pathologie-Indikatoren direkt vermittelt werden.
Qualität und Wirkungsgrad der vorgestellten Methoden wurden in einer Studie am Universitätsklinikum Heidelberg evaluiert.
This work describes a novel software tool for visualizing anatomical segmentations of medical images. It was developed as part of a bachelor's thesis project, with a view to supporting research into automatic anatomical brain image segmentation. The tool builds on a widely-used visualization approach for 3D image volumes, where sections in orthogonal directions are rendered on screen as 2D images. It implements novel display modes that solve common problems with conventional viewer programs. In particular, it features a double-contour display mode to aid the user's spatial orientation in the image, as well as modes for comparing two competing segmentation labels pertaining to one and the same anatomical region. The tool was developed as an extension to an existing open-source software suite for medical image processing. The visualization modes are, however, suitable for implementation in the context of other viewer programs that follow a similar rendering approach.
The modified code can be found here: soundray.org/mm-segmentation-visualization.tar.gz.
Innerhalb dieser Arbeit wird die Theorie des Video-Seethroughs anhand einer Panoramaerstellung aus mehreren Kamerabildern verschiedener Perspektiven grundlegend dargestellt. Darauf basierend wurde ein System konzipiert und umgesetzt, bei dem Videostreams durch perspektivische Verzerrung zu einem Panoramabild zusammengesetzt werden. Anschließend wird dieses auf die Innenseite eines Zylinders projiziert, in dessen Mitte sich die virtuelle Position des Betrachters befindet. Schließlich
sollen die entstandenen Videopanoramen in einer VR-Brille dargestellt werden. Innerhalb der Implementierung werden außerdem einige Optimierungen vorgestellt, unter anderem solche, die das System - über die Aufgabenstellung hinaus - echtzeitfähig machen. Des Weiteren wird das erarbeitete
System bewertet und mit zwei anderen Verfahren verglichen.
Diese Bachelorarbeit befasst sich mit der Konzeption, Implementierung und Evaluation eines Jump'n'Run Spiels und der Betrachtung des Einflusses von Erfolgssystemen auf Spieler. Im Spiel Age of Tunes spielt man Bardur, den bartlosen Barden und muss versuchen, die verfluchten magischen Geschöpfe in der Welt Harmonica zu befreien. Der Schwerpunkt der Arbeit lag bei der sauberen Konzeption und schrittweisen Entwicklung des Spiels, ansprechender graphischer Qualität, Einbindung von Gegnern, einem Minispiel und der Betrachtung von Auswirkungen eines Erfolgssystems auf Spieler. In einer abschließenden Evaluation konnten das Spiel und das Verhalten bezüglich der Erfolge bewertet werden.
Diese Bachelorarbeit beschreibt die Konzeption, Implementierung und Evaluation einer spielerischen Augmented Reality-Anwendung für mobile Endgeräte. Aufbauend auf dem ARCore SDK wurde das Spiel pARcours entwickelt, bei dem der Spieler virtuelle Objekte in der realen Umgebung platzieren kann, um sich so seinen eigenen Parcours aufzubauen. Dieser muss mit einem ebenfalls virtuellen Flugobjekt absolviert werden. Der Schwerpunkt bei der Umsetzung des Spiels lag auf der Interaktion mit den virtuellen Objekten und deren Kollisionserkennung mit realen Oberflächen. Weiterhin wurden verschiedene Eingabemöglichkeiten für das Aufbauen der Parcours und die Steuerung der Flugobjekte untersucht. Durch eine abschließende Evaluation konnten sowohl das Spiel und die verschiedenen Eingabemethoden als auch ARCore in Bezug auf die Entwicklung von Augmented Reality-Anwendungen bewertet werden.
Raytracing von NURBS
(2019)
NURBS sind eine Art von Splines, die besondere Eigenschaften besitzen.
Das ray tracen von NURBS ist eine der Darstellungsmöglichkeiten von NURBS.
Dies ist durch das konkrete berechnen von Schnittpunkten mit Strahlen
möglich. Durch die vielseitige Möglichkeiten der Modellierung mittels NURBS
sind diese beliebt in Anwendungen die im Maschinenbau verwendet werden
und auch anderen CAD-Programmen. Diese Arbeit befasst sich mit der
Berechnung von NURBS-Kurven und -Oberflächen, dem direkten rendern
von diesen und wägt ab ob sich der Aufwand dafür im Vergleich zu Tesselierung
lohnt.
Eine genaue Schneesimulation ist der Schlüssel zur Erfassung der charakteristischen Visualisierung von Schnee. Aufwendige Methoden existieren, die versuchen Schneeverhalten ganzheitlich zu ergreifen. Die Rechenkomplexität dieser Ansätze hindert sie daran, Echtzeitfähigkeit zu erreichen. Diese Arbeit stellt drei Methoden vor, die unter Verwendung der GPU eine echtzeitfähige Deformation einer Schneeoberoberfläche darstellen. Die Ansätze werden hinsichtlich ihrer wahrheitsgetreuen Schneedarstellung untersucht und nach ihrer Fähigkeit, mit einer zunehmenden Anzahl von schneeverformenden Objekten zu skalieren. Die Ergebnisse zeigen, dass die Methoden bei mehreren hunderten schneeverformenden Objekten ihre Echtzeitfähigkeit beibehalten. Jedoch benachteiligen die charakteristischen Einschränkungen jener Methoden die visuellen Resultate. Ein experimenteller Ansatz ist es, die Anzahl der schneeverformenden Objekte zu reduzieren und durch Zusammenfügen der Methoden ein genaueres, kombiniertes Verformungsmuster zu erzeugen.
Ziel dieser Arbeit ist es, ein einfaches Konzept zur Überwachung von Hunden, die mehrere Stunden alleine zu Hause sind, zu entwickeln. Die prototypische Implementierung einer solchen„DogCam“ kann als Proof of Concept angesehen werden. Die Grundlage für die Implementierung des Prototypen sind die im Rahmen einer Anforderungsanalyse herausgearbeiteten Anforderungen. Weiterhin zeigt die vorliegende Arbeit auf, welche Verbesserungen und Erweiterungen der prototypischen „DogCam“ möglich sind und welche ähnlichen Projekte bereits existieren.
Ziel dieser Bachelorarbeit war es, in die Musiknoten-Erkennungs Software AudiVeris eine Bildvorverarbeitung einzubauen, damit auch aus fehlerbehafteten Notenbildern Daten extrahiert werden können. Der Ablauf startet mit einer Binarisierung durch ein regionales Otsu Verfahren. Daraufhin wird das Notenblatt nach etwaigen Krümmungen abgesucht, wie sie z.B. eine Buchfalz verursachen würde. Dazu wird die Hough-Transformation zur Linienfindung und der K-Means-Algorithmus zur Cluster-Detektion verwendet. Aufbauend wird das Notenbild unter Benutzung der gefundenen Krümmung geebnet.
Ist es möglich, allein mittels VR-Headset bei Nutzern Immersion zu
erzeugen? Zur Beantwortung dieser Frage werden zwei Simulationen einer
Achterbahnfahrt ohne haptisches Feedback mittels der Unreal Engine
4.20.3 für ein HTC-Vive VR Headset entwickelt und implementiert. Die
zweite Simulation unterscheidet sich von der ersten durch die Darbietung
außergewöhnlicher Ereignisse während der Fahrt, für die vermutet wird,
dass sie das Immersionserleben verstärken. Elf Probanden nahmen an der
Untersuchung teil. Die Auswertung eines Fragebogens zur Erfassung der
Intensität der Immersion und der Antworten auf offenen Fragen zeigt, dass
Immersion in beiden Simulation erfolgreich erzeugt werden konnte. Manche
Merkmale der Simulation vertieften bei einzelnen Probanden das immersive
Erleben, bei anderen dagegen nicht. Die Bedeutung der Ergebnisse
und Optimierungsmöglichkeiten für künftige Studien werden diskutiert.
Die folgende Bachelorarbeit gibt einen Überblick über verschiedene Ansätze und Verfahren zur prozeduralen Generierung von dreidimensionalen Stadtmodellen. Dabei wird vor allem die Nutzung generativer Grammatiken näher untersucht und in einer eigens implementierten Anwendung integriert. Der Schwerpunkt war es, ein vorgegebenes, primäres Straßennetz einzubinden und darauffolgend ein sekundäres Straßennetz sowie verschiedene Gebäude prozedural zu generieren. Die Anwendung ermöglicht es, umfangreiche und unterschiedlich strukturierte Stadtmodelle auf effiziente Weise zu erzeugen. Hinsichtlich des Realismus und Variantenreichtums weisen die Ergebnisse jedoch Grenzen auf.
Um realistische Bewegungsabläufe zu simulieren, müssen Muskeln anatomisch korrekt modelliert werden können. Bisher ist es in SimPack nur möglich, Muskeln als gerade Linie zwischen zwei Punkten zu definieren. In dieser Arbeit wird ein Ansatz vorgestellt, bei dem Ellipsen definiert werden können, durch die ein Muskel laufen muss. Dabei entsteht vor allem das Problem, die Länge dieses Muskels durch die Ellipsen zu berechnen. Es wird ein Algorithmus vorgestellt, der den kürzesten Weg eines Muskelpfades durch diese Ellipsen berechnet. Dieser Algorithmus wird anschließend in Fortran 90 umgesetzt und in ein bestehendes Muskelmodell in SimPack integriert.
Im Bereich der Computergraphik bilden die Nicht-Photorealistischen Renderingverfahren einen Schwerpunkt in der technischen und wissenschaftlichen Visualisierung, vor allem aber in den künstlerischen Bereichen. Verschiedene Kunststile, sowie Zeichenmaterialien und ihre Eigenschaften stellen unterschiedliche Herausforderungen dar. Eine dieser Herausforderungen ist hierbei die Simulation flüssiger Zeichenmittel.
Diese Arbeit beschäftigt sich mit der Erstellung eines interaktiven Zeichensystems für ein flüssiges Zeichenmittel, der Aquarellmalerei. Für die Simulation wird eine raue Zeichengrundlage generiert, sowie die Fluid Simulation und das optische Farbverhalten der Aquarellmalerei implementiert.
Global-Illumination ist eine wichtige Komponente beim Rendering von realistischen Bildern. Der Rechenaufwand für die akkurate Simulation dieser Effekte ist jedoch zu hoch für die Berechnung in Echtzeit. In dieser Arbeit werden Light-Propagation-Volumes, Scren-Space-Reflections und mehrere Varianten von Screen-Space-Ambient-Occlusion als Lösungen für Echtzeitrendering untersucht. Es wird gezeigt, dass alle schnell genug für den Einsatz in Echtzeitanwendungen sind. Die einzelnen Techniken approximieren nur einige Aspekte des Transports von Licht, ergänzen sich jedoch gegenseitig.
In keinem Bereich der Informatik hat sich die Hardware so rasant entwickelt wie im Bereich der Computergrafik. So können wir heute komplexe, geometrische Szenen in Echtzeit in immersiven Systemen darstellen und auch aufwendige Simulationen integrieren.
Ziel dieser Arbeit ist es, die Simulation von Farbspritzern in einer virtuellen Welt zu realisieren. Hierzu wird mithilfe von Unity eine Anwendung umgesetzt, die drei verschiedene Techniken verwendet, mit denen die Umgebung mithilfe von Farbspritzern eingefärbt werden kann. Auf Basis dieser Anwendung werden die Grenzen und Möglichkeiten der Techniken in virtuellen Umgebungen genauer untersucht.
Diese Untersuchung zeigt, dass eine inverse Projektion die besten Ergebnisse vorweist.
Bildsynthese durch Raytracing gewinnt durch Hardware-Unterstützung in Verbraucher-Grafikkarten eine immer größer werdende Relevanz. Der Linespace dient dabei als eine neue, vielversprechende Beschleunigungsstruktur. Durch seine richtungsbasierte Natur ist es sinnvoll, ihn in andere Datenstrukturen zu integrieren. Bisher wurde er in ein Uniform-Grid integriert. Problematisch werden einheitlich große Voxel allerdings bei Szenen mit variierbarem Detailgrad. Diese Arbeit führt den adaptiven Linespace ein, eine Kombination aus Octree und Linespace. Die Struktur wird hinsichtlich ihrer Beschleunigungsfähigkeit untersucht und mit dem bisherigen Grid-Ansatz verglichen. Es wird gezeigt, dass der adaptive Linespace für hohe Grid-Auflösungen besser skaliert, durch eine ineffiziente GPU-Nutzung allerdings keine optimalen Werte erzielt.
In der Computergrafik stellte die Berechnung von Reflexionen lange ein
Problem dar. Doch mit der ständigen Weiterentwicklung der Hardware
und Vorstellung neuer Verfahren ist eine realitätsnahe,
echtzeitfähige(durchschnittlich 60 FPS) Berechnung von Reflexionen möglich. In der folgenden Ausarbeitung werden verschiedene Reflexionsverfahren vorgestellt. Alle mathematischen und physikalischen Grundlagen werden gegeben, um die Algorithmen nachvollziehen zu können. Da eine Reflexion immer das Abtasten eines reflektierten Vektors bedeutet, werden zwei verschiedene Abtastungsverfahren für blickabhängige Reflexionen vorgestellt und anschließend implementiert. Zuletzt werden die Verfahren auf Basis von Qualität und Performance gegenübergestellt.
In dieser Arbeit wird die Konzeption, Implementierung und Evaluierung einer Augmented Reality-App beschrieben. Diese wurde mit dem Ziel entwickelt, Objekte im realen Raum mit virtuellen Hilfsmitteln auszumessen, sodass diese Anwendung einen Holzgliedermaßstab ersetzen kann. Hinzu kommt die praktische Speicherung der Messwerte. Angefertigt wurde die App mit der Unity Engine und programmiert in C#.
Schwerpunkte dieser Arbeit sind die Benutzerfreundlichkeit der App, sowie die Eignung von AR Foundation für das Ausmessungstool.
Die Anwendung wird auf die genannten Kriterien im Rahmen eines Nutzertests in einer abschließenden Evaluation bewertet.
Als Ergebnis ließ sich festhalten, dass sich die AR-App noch im Prototyp-Stadium befindet, aber im Allgemeinen schon als benutzerfreundlich gilt. Kleinere Änderungen sollen und müssen noch vorgenommen werden, um auch den Umgang mit dem AR-Tool zu vereinfachen.
Molecular dynamics (MD) as a field of molecular modelling has great potential to revolutionize our knowledge and understanding of complex macromolecular structures. Its field of application is huge, reaching from computational chemistry and biology over material sciences to computer-aided drug design. This thesis on one hand provides insights into the underlying physical concepts of molecular dynamics simulations and how they are applied in the MD algorithm, and also briefly illustrates different approaches, as for instance the molecular mechanics and molecular quantum mechanics approaches.
On the other hand an own all-atom MD algorithm is implemented utilizing and simplifying a version of the molecular mechanics based AMBER force field published by \big[\cite{cornell1995second}\big]. This simulation algorithm is then used to show by the example of oxytocin how individual energy terms of a force field function. As a result it has been observed, that applying the bond stretch forces alone caused the molecule to be compacted first in certain regions and then as a whole, and that with adding more energy terms the molecule got to move with increasing flexibility.
Diese Bachelorarbeit erforscht eine Methode zur 3D-Objekterkennung und Posenschätzung, basierend auf dem Punkte-Paare-Eigenschaften-Verfahren (PPE) von Drost et. al. [Dro+10]. Die Methoden der Posenschätzung haben sich in den letzten Jahre zwar deutlich verbessert, stellen jedoch weiterhin ein zentrales Problem im Bereich der Computervisualistik dar. Im Rahmen dieser Arbeit wurde ein Programm implementiert, welches Punktewolkenszenen als Ausgangspunkt erhält und daraus eine Objekterkennung und Posenschätzung durchführt. Das Programm deckt alle Schritte eines Objekterkennungsprogramm ab, indem es 3D-Modelle von Objekten verarbeitet, um deren PPE zu extrahieren. Diese Eigenschaften werden gruppiert und in einer Tabelle gespeichert. Anhand des Auswahlverfahrens, bei dem die Übereinstimmung der Eigenschaften überprüft wird, können potenzielle Posen des Objekts ermittelt werden. Die Posen mit der größten Übereinstimmung werden miteinander verglichen, um ähnliche Posen zu gruppieren. Die Gruppen mit der höchsten Übereinstimmung werden erneut überprüft, sodass am Ende nur eine Pose ausgewählt wird. Das Programm wurde anhand von Real– und Simulationsdaten Daten getestet. Die erhaltenen Ergebnisse wurden anschließend analysiert und evaluiert.