Filtern
Erscheinungsjahr
Dokumenttyp
- Bachelorarbeit (100) (entfernen)
Schlagworte
- Computervisualistik (8)
- OpenGL (7)
- Computergrafik (5)
- Android (4)
- Graphik (4)
- Line Space (4)
- Augmented Reality (3)
- C++ (3)
- Compute Shader (3)
- Computergraphik (3)
- GPGPU (3)
- Linespace (3)
- OpenGL Shading Language (3)
- Programmierung (3)
- Virtual Reality (3)
- Applikation (2)
- Bildverarbeitung (2)
- Datenstruktur (2)
- Global Illumination (2)
- Grafikkarte (2)
- Immersion (2)
- Informatik (2)
- Path Tracing (2)
- Physiksimulation (2)
- Raytracing (2)
- Realistische Computergrafik (2)
- Rendering (2)
- Shader (2)
- Smartphone (2)
- VOXEL (2)
- 3D (1)
- Android development (1)
- Androidentwicklung (1)
- App (1)
- Assembly (1)
- Astrophysik (1)
- Automatische Klassifikation (1)
- Autorensystem (1)
- Beleuchtung (1)
- Beschleunigungsensor (1)
- Bildanalyse (1)
- Blickpunktabhängig (1)
- Bounding Volume Hierarchy (1)
- Brechung (1)
- Coloskopie (1)
- Compute-Shader (1)
- Computer Graphics (1)
- Constitutive Model (1)
- Cybersickness (1)
- Darmpolyp (1)
- Digitale Bilder (1)
- ECSA (1)
- Echtzeit Raytracing (1)
- Entity Component System Architecture (1)
- Entwicklung (1)
- Erweiterte Realität (1)
- Eulerian grid (1)
- Extended Reality (1)
- Fabric Simulation (1)
- Fast Convolution (1)
- Fell (1)
- Fell Rendering (1)
- Flow-Erlebnis (1)
- Fluidsimulation (1)
- Fourier (1)
- Fresnel (1)
- GPU (1)
- Gerstner (1)
- Geste (1)
- Gesteninterpretation (1)
- Glint Center Estimation Algorithmus (1)
- Globale Beleuchtung (1)
- Grafik (1)
- Grafikprogrammierung (1)
- Graphicsprogramming (1)
- Grundschule (1)
- Haare (1)
- Halbschatten (1)
- HoloLens (1)
- Innenarchitektur (1)
- Jump'n Run-Spiel (1)
- Kartesisches Euler-Gitter (1)
- Kartesisches Gitter (1)
- Kinect (1)
- Kollaboration (1)
- Kollisionserkennung (1)
- Konturfindung (1)
- Leap-Motion (1)
- Lehrer (1)
- Lernspiel (1)
- Light Injection (1)
- Material Point Method (1)
- Material point method (1)
- Materialmodell (1)
- Materie-Punkt-Methode (1)
- Merkmalsdetektion (1)
- Modellierungstool (1)
- Montage (1)
- Motion Sickness (1)
- Musik (1)
- N-Body Simulation (1)
- N-Körper Simulation (1)
- Nvidia CUDA (1)
- OpenCL (1)
- Par (1)
- Partikel (1)
- Partikelsystem (1)
- Pathtracing (1)
- Pre-Integration (1)
- Pupil Center Estimation Algorithmus (1)
- Ray Tracer (1)
- Ray tracing (1)
- Ray-Casting (1)
- Reflections (1)
- Reflektionen (1)
- Reflexion (1)
- Reverberation (1)
- Schnee (1)
- Schnelle Faltung (1)
- Sensor (1)
- Sensorensteuerung (1)
- Specular (1)
- Spiel (1)
- Stadt (1)
- Starrkörper (1)
- Sterne (1)
- Steuerung (1)
- Stoffsimulation (1)
- Text (1)
- Texterkennung (1)
- Touchscreen (1)
- Transfer function (1)
- Transferfunktion (1)
- VR (1)
- VST (1)
- Virtuelle Realität (1)
- Visualisierung (1)
- Volumen (1)
- Volumen-Rendering (1)
- Volumendaten (1)
- Voxelisierung (1)
- Wasseroberfläche (1)
- Wellen (1)
- Wiederhall (1)
- accelerometer (1)
- android (1)
- area light (1)
- fur rendering (1)
- general purpose (1)
- graphics card (1)
- indirect lighting (1)
- indirektes Licht (1)
- interactive application (1)
- interaktive Applikation (1)
- interaktiven (1)
- jump'n run game (1)
- line space (1)
- menschliches Auge (1)
- multidimensional transfer function (1)
- multidimensionale Transferfunktion (1)
- physics simulation (1)
- prozedural (1)
- ray casting (1)
- raycasting (1)
- raytracing (1)
- reflection (1)
- refraction (1)
- rigid body (1)
- sensor control (1)
- shader (1)
- snow (1)
- soft shadow (1)
- volume rendering (1)
- volume visualization (1)
- volumenrendering (1)
- voxelization (1)
- water surface (1)
- waves (1)
Institut
- Institut für Computervisualistik (100) (entfernen)
Die vorliegende Arbeit befasst sich mit der Anwendung und Optimierung globaler Beleuchtung in dreidimensionalen Szenen. Dabei wird nicht nur die direkte Beleuchtung in Abhängigkeit einer oder mehrerer Lichtquellen, sondern auch indirekte Beleuchtung durch umliegende Objekte berücksichtigt. Schwerpunkt dieser Arbeit ist es, die Ergebnisse eines globalen Beleuchtungsverfahrens durch die Implementation unter OpenGL 4.4 zu verbessern. Dies geschieht mithilfe einer Voxelisierung der Szene. Durch eine Traversierung der entstehenden Voxel-Struktur werden zusätzliche Informationen der Szene entnommen, was zu einer realistisch wirkenden globalen Beleuchtung beiträgt.
Molecular dynamics (MD) as a field of molecular modelling has great potential to revolutionize our knowledge and understanding of complex macromolecular structures. Its field of application is huge, reaching from computational chemistry and biology over material sciences to computer-aided drug design. This thesis on one hand provides insights into the underlying physical concepts of molecular dynamics simulations and how they are applied in the MD algorithm, and also briefly illustrates different approaches, as for instance the molecular mechanics and molecular quantum mechanics approaches.
On the other hand an own all-atom MD algorithm is implemented utilizing and simplifying a version of the molecular mechanics based AMBER force field published by \big[\cite{cornell1995second}\big]. This simulation algorithm is then used to show by the example of oxytocin how individual energy terms of a force field function. As a result it has been observed, that applying the bond stretch forces alone caused the molecule to be compacted first in certain regions and then as a whole, and that with adding more energy terms the molecule got to move with increasing flexibility.
Innerhalb dieser Arbeit wird die Theorie des Video-Seethroughs anhand einer Panoramaerstellung aus mehreren Kamerabildern verschiedener Perspektiven grundlegend dargestellt. Darauf basierend wurde ein System konzipiert und umgesetzt, bei dem Videostreams durch perspektivische Verzerrung zu einem Panoramabild zusammengesetzt werden. Anschließend wird dieses auf die Innenseite eines Zylinders projiziert, in dessen Mitte sich die virtuelle Position des Betrachters befindet. Schließlich
sollen die entstandenen Videopanoramen in einer VR-Brille dargestellt werden. Innerhalb der Implementierung werden außerdem einige Optimierungen vorgestellt, unter anderem solche, die das System - über die Aufgabenstellung hinaus - echtzeitfähig machen. Des Weiteren wird das erarbeitete
System bewertet und mit zwei anderen Verfahren verglichen.
In keinem Bereich der Informatik hat sich die Hardware so rasant entwickelt wie im Bereich der Computergrafik. So können wir heute komplexe, geometrische Szenen in Echtzeit in immersiven Systemen darstellen und auch aufwendige Simulationen integrieren.
Ziel dieser Arbeit ist es, die Simulation von Farbspritzern in einer virtuellen Welt zu realisieren. Hierzu wird mithilfe von Unity eine Anwendung umgesetzt, die drei verschiedene Techniken verwendet, mit denen die Umgebung mithilfe von Farbspritzern eingefärbt werden kann. Auf Basis dieser Anwendung werden die Grenzen und Möglichkeiten der Techniken in virtuellen Umgebungen genauer untersucht.
Diese Untersuchung zeigt, dass eine inverse Projektion die besten Ergebnisse vorweist.
Die vorliegende Arbeit befasst sich mit der Entwicklung eines Pixel-Sticks, ein digitales Hilfsmittel für das Light Painting. Schwerpunkte sind die Entwicklung von Hard- und Software des Sticks, sowie einer Android Applikation für die Bedienung.
Der Einbezug des Smartphones unterscheidet diesen Pixel-Stick anderen Varianten. Neben der grundlegenden Steuerung ist es möglich, Bilder direkt von dem Smartphone auf den Stick zu übertragen.
Die vorliegende Arbeit befasst sich mit der Entwicklung einer interaktiven Applikation unter Android, welche das Spielen eines Kartenspiels ermöglicht. Exemplarisch wurde das hebräische Spiel Yaniv implementiert. Schwerpunkt ist die Herausarbeitung benötigter Hintergrundkomponenten und die dazugehörige Umsetzung in jener Applikation. Benötigte Spielprozesse werden durchleuchtet und eine mögliche Lösungsvariante aufgezeigt.
Das Kommunikationsverhalten hat sich in den letzten Jahren durch die Smartphonenutzung verändert. Die Nutzer kommunizieren oft nur noch über den elektronischen Weg. Die persönliche Kommunikation, außerhalb des Smartphones, nimmt ab. Das Umfeld gerät unterdessen in Vergessenheit. In der vorliegenden Arbeit werden verschiedene Spielkonzepte entwickelt, welche die Kommunikation steigern sollen. Realisiert wird der Ansatz in einer prototypischen Stadtführer-App, nach den Spielkonzepten von "Scotland Yard" und "Schnitzeljagd". Während der Nutzung müssen die Spieler verschiedene Aufgaben lösen. Welches Spielkonzept sich in Bezug auf die Kommunikationsförderung am besten eignet, wird in einer Evaluation analysiert.
Thematik dieser Arbeit ist das dreidimensionale Image-Warping für diffuse und reflektierende Oberflächen. Das Warpingverfahren für den reflektierenden Fall gibt es erst seit 2014. Bei diesem neuen Algorithmus treten Artefakte auf, sobald ein Bild für einen alternativen Blickwinkel auf eine sehr unebene Fläche berechnet werden soll.
In dieser Arbeit wird der Weg von einem Raytracer, der die Eingabetexturen erzeugt, über das Warpingverfahren für beide Arten der Oberflächen, bis zur Optimierung des Reflective-Warping-Verfahrens erarbeitet. Schließlich werden die Ergebnisse der Optimierung bewertet und in den aktuellen sowie zukünftigen Stand der Technik eingeordnet.
3D-Modelle werden heute in vielen Bereichen wie Multimedia Anwendungen, Robotik oder der Filmindustrie immer wichtiger. Besonders interessant ist dabei die Erstellung eines 3D-Modells aus einer monokularen Bilderserie, da die hierfür nötigen Kameras immer günstiger, kleiner und ausgereifter produziert werden. Geeignetere Kameras werden in immer mehr Geräten wie Smartphones, Tablet-PCs, Autos etc. verbaut, wodurch sich ein großes Potential für die Verwendung dieser Rekonstruktionstechnik ergibt.
Als Grundlage dieser Arbeit dient eine mit einer kalibrierten Kamera aufgenommene Bilderserie. Aus dieser werden 2D-Punktkorrespondenzen, mit den verbreiteten SURF-Features oder den A-KAZE-Features gewonnen. Aufbauend auf den 2D-Punktkorrespondenzen kann aus diesen mit Hilfe verschiedener Algorithmen ein 3D-Modell in Form einer Punktwolke und Kameraposen rekonstruiert werden.
Um Fehler in dem entstandenen Modell gering zu halten, wird insbesondere aufrnden Bündelausgleich zur Fehlerminimierung eingegangen. Anschließend wird dasrnneben dieser Arbeit entstandene Programm zur 3D-Rekonstuktion und Visualisierung des 3D-Modells erläutert. Das implementierte System wird anschließend anhand von Statistiken evaluiert und die hieraus gewonnenen Erkentnisse präsentiert.
Abschließend werden die Ergebnisse dieser Arbeit zusammengefasst und einrnAusblick auf mögliche Weiterentwicklungen gegeben.
Raytracing von NURBS
(2019)
NURBS sind eine Art von Splines, die besondere Eigenschaften besitzen.
Das ray tracen von NURBS ist eine der Darstellungsmöglichkeiten von NURBS.
Dies ist durch das konkrete berechnen von Schnittpunkten mit Strahlen
möglich. Durch die vielseitige Möglichkeiten der Modellierung mittels NURBS
sind diese beliebt in Anwendungen die im Maschinenbau verwendet werden
und auch anderen CAD-Programmen. Diese Arbeit befasst sich mit der
Berechnung von NURBS-Kurven und -Oberflächen, dem direkten rendern
von diesen und wägt ab ob sich der Aufwand dafür im Vergleich zu Tesselierung
lohnt.
In dieser Arbeit präsentieren wir Methoden zum Schätzen von Kamerabewegungen einer RGB-D-Kamera in sechs Freiheitsgraden und dem Erstellen von 3D-Karten. Als erstes werden die RGB- und Tiefendaten registriert und synchronisiert. Nach der Vorverarbeitung extrahieren wir FAST-Merkmale in zwei aufeinander folgenden Bildern. Daraus wird eine Korrespondenzmenge erstellt und Ausreißer werden herausgefiltert. Anschließend projizieren wir die Korrespondenzmenge in 3D, um die Bewegung aus 3D-3D-Korrespondezen mittels Least-Squares zu bestimmen. Weiterhin präsentieren wir Methoden, um 3D-Karten aus Bewegungsschätzungen und RGB-D-Daten zu erstellen. Dafür benutzen wir das OctoMap-Framework und erstellen wahlweise auch inkrementelle Karten aus Punktewolken. Anschließend evaluieren wir das System mit dem weit verbreiteten RGB-D-Benchmark.
In den letzten Jahren ist eine steigende Verbreitung von Touchscreen-Geräten zu verzeichnen. Ihre Bedienung unterscheidet sich grundlegend von der mit Maus und Tastatur. Durch die Eingabe mit Gesten oder mehreren Fingern kann es schwierig sein den Aktionen eines Anderen zu folgen. Probleme entstehen durch die Verdeckung des Bildschirms mit der Eingabehand. Sieht man nur den Bildschirminhalt, zum Beispiel bei einer Videoübertragung, gehen Informationen über die Eingabe verloren.
In dieser Arbeit wird ein System entwickelt, das die kollaborative Arbeit an voneinander entfernten Touchscreen-Geräten verbessern soll. Dazu wird aus den Tiefendaten eines Kinect Sensors eine grafische Repräsentation der Eingabehand erstellt. Durch Einblendung dieser Visualisierung soll es einem Anwender erleichtert werden den Eingaben eines Anwenders zu folgen. Bedienkonzepte, wie zum Beispiel Gesten, sollen dadurch besser vermittelt werden. Außerdem soll so die Möglichkeit geschaffen werden, Informationen über eine gemeinsame Problematik effizienter auszutauschen. Deshalb wurde ein Testsystem mit zwei Arbeitsplätzen entwickelt. Darin übernimmt ein Anwender die Rolle des Erklärenden und führt einen zweiten Anwender, den Ausführenden, durch verschiedene Testszenarien. Hierbei stehen ihm bei einem Teil der Aufgaben die Visualisierung der Hand zur Verfügung, während er in anderen Aufgaben nur verbal mit seinem Gegenüber kommunizieren kann.
Im Rahmen einer Evaluation wird das System auf seine Effizienz zur Bedienung von Touchscreen-Systemen überprüft. Des Weiteren wird untersucht, inwieweit die grafische Qualität den gestellten Anforderungen genügt, um einen Mehrwert für die Anwendung zu bieten.
Diese Arbeit vermittelt die mathematischen Grundlagen des Ray-Casting Algorithmus und bespricht eine interaktive Umsetzung auf Grafikkarten mit Hilfe einer modernen Schnittstelle. Die Implementation erfolgt im Rahmen eines umfassenden Programmes, welches weitere Techniken und Verbesserungen des Algorithmus für den Nutzer anwählbar macht. Unter anderem wird von Transferfunktionen und lokaler Beleuchtung Gebrauch gemacht, um realistische Materialien darstellen zu können. Die Benutzeroberfläche bietet die Möglichkeit, Volumina zu importieren, Transferfunktionen zu definieren, Parameter der Darstellung einzustellen und weitere Techniken zu aktivieren, deren Grundlagen und Umsetzung ebenfalls in dieser Arbeit dargelegt werden. Der Nutzen der anwählbaren Optionen wird je nach Fall auf optische Qualität oder Vorteil in der Performance hin untersucht.
Simulation von Schnee
(2015)
Physik-Simulationen erlauben die Erstellung dynamischer Szenen auf dem Rechner. Sie lassen die Computergrafik lebendig werden und finden unter anderem Anwendung in Film, Spiel und Ingenieurswesen. Durch GPGPU-Techniken kann diese Arbeit erstmals auf der Grafikkarte stattfinden. Die dynamische Simulation von Schnee ist ein Gebiet, das aufgrund seiner physikalischen Komplexität noch wenig erforscht ist. Die Materie-Punkt-Methode ist das erste Modell, dass in der Lage ist die Dynamik und verschiedenen Arten von Schnee darzustellen.
Die hybride Nutzung von Lagrange-Partikeln und einem kartesischen Euler-Gitter ermöglichen das Lösen der partiellen Differentialgleichungen. Die Partikel werden dazu auf die Gitterknoten transformiert. Durch Anwendung der Finite-Elemente-Methode auf das Gitter können Gradienten zur Aktualisierung der Geschwindigkeit berechnet werden. Die Geschwindigkeiten werden dann auf die Partikel zurückgewichtet, um diese in der Simulation voranschreiten zu lassen. Gepaart mit einem spezifischen Materialmodell wird die dynamische Natur von Schnee erlangt. Diese schließt Kollision und Bruch mit ein.
Diese Bachelorarbeit verbindet die kürzlich erschienenen GPGPU-Techniken von OpenGL mit der Materie-Punkt-Methode, um die verschiedenen Schneearten dynamisch, visuell ansprechend und effizient zu simulieren
This work describes a novel software tool for visualizing anatomical segmentations of medical images. It was developed as part of a bachelor's thesis project, with a view to supporting research into automatic anatomical brain image segmentation. The tool builds on a widely-used visualization approach for 3D image volumes, where sections in orthogonal directions are rendered on screen as 2D images. It implements novel display modes that solve common problems with conventional viewer programs. In particular, it features a double-contour display mode to aid the user's spatial orientation in the image, as well as modes for comparing two competing segmentation labels pertaining to one and the same anatomical region. The tool was developed as an extension to an existing open-source software suite for medical image processing. The visualization modes are, however, suitable for implementation in the context of other viewer programs that follow a similar rendering approach.
The modified code can be found here: soundray.org/mm-segmentation-visualization.tar.gz.
Das Rendering-Verfahren des Ray-Tracings ermöglicht die realitätsnahe Umsetzung der Bildgenerierung einer modellierten Szene und ist aufgrund seiner Arbeitsweise in der Lage, optische Phänomene und komplexe Beleuchtungsszenarien darzustellen. Allerdings bedarf es bei der Bilderzeugung einer enormen Anzahl an Berechnungen pro Pixel, wodurch Realisierungen eines Ray-Tracers in der Praxis Ergebnisse erzielen, die weit unter der in der Computergraphik angestrebten Echzeitdarstellung von 60 Bildern pro Sekunde entfernt liegen. Aktuelle Modelle der Graphics Processing Unit (GPU) ermöglichen die hochgradige Parallelisierung der Ausführung von allgemeinen Berechnungen. Mit Hilfe der Graphik-API OpenGL wird diese Parallelisierung nutzbar gemacht und ein vollständig auf der GPU ausgeführter Ray-Tracer entworfen und realisiert. Der entwickelte Ansatz wird durch die Integration eines Uniform Grids - einer beschleunigenden Datenstruktur des Ray-Tracings - erweitert, woraus eine Steigerung der Performanz zu erwarten ist.
Ziel dieser Arbeit ist die Implementierung eines auf der GPU ausgeführten Ray-Tracers und die Erweiterung des Ansatzes durch die Verwendung eines Uniform Grids. Die Ermittlung der erzielbaren Leistung wird im Anschluss durchgeführt. Bei der Entwicklung und Implementierung werden mögliche Probleme bei der Umsetzung bezüglich der GPU-Programmierung aufgezeigt und analysiert.
Der Markt der mobilen Endgeräte entwickelt sich schnell weiter und es kommen schon Kinder im frühsten Alter mit solchen Technologien in Berührung. Daher ist es wichtig, Kinder richtig an die Geräte heranzuführen. Von Vorteil wäre eine Einbindung von Smartphones und Tablets, im Bezug auf den Lernprozess, in den Unterricht. Die vorliegende Arbeit behandelt deshalb das Konzept einer Lernspielapp, die durch Pädagogen konfiguriert werden kann. Die Evaluation soll Aufschluss über die Motivation der Kinder geben und die Aufgeschlossenheit der Pädagogen gegenüber neuen Medien ermitteln.
In dieser Arbeit werden zwei Verfahren zur Berechnung der globalen Beleuchtung vorgestellt. Das Erste ist eine Erweiterung von Reflective Shadow-Maps um einen Schattentest, womit Verdeckungsbehandlung erreicht wird. Das zweite Verfahren ist ein neuer, auf Light-Injection basierender, bidirektionaler Ansatz. Dabei werden Strahlen aus Sicht der Lichtquelle verfolgt und in der Linespace Datenstruktur in Schächten gespeichert, die eine Diskretisierung der Raumrichtungen darstellen. Die Linespaces sind dabei in ein Uniform Grid eingebettet. Beim Auslesen der vorberechneten indirekten Beleuchtung sind im Idealfall keine Traversierung der Datenstruktur und keine weitere Strahlverfolgung mehr notwendig. Damit wird eine Varianzreduzierung und eine schnellere Berechnung im Vergleich zu Pathtracing erzielt, wobei sich insbesondere Vorteile in stark indirekt beleuchteten Bereichen und bei Glas ergeben. Die Berechnung der globalen Beleuchtung ist allerdings approximativ und führt zu sichtbaren Artefakten.
Bei der musikalischen Grundausbildung von Kindern und Jugendlichen besteht eine spezielle Herausforderung darin, den Kindern das Notenlesen und -schreiben näher zu bringen. Bei der Ausbildung von jungen Nachwuchssängerinnen und -sängern eines Chores ist es zudem wichtig sie damit vertraut zu machen niedergeschriebene Noten direkt in Töne umzusetzen.
Eine interessante Idee ist es, den Kindern während des Unterrichts die Töne auf einem Klavier oder Keyboard vorzuspielen und diese gleichzeitig auf einem Bildschirm in Notenschrift visuell darzustellen.
Ziel dieser Bachelorarbeit ist die Implementierung eines solchen Systems, welches das Einspielen von Noten mit Hilfe eines MIDI-fähigen Keyboards und die anschließende visuelle Wiedergabe der Noten in Notenschrift umsetzt. Die prototypische Anwendung arbeitet in drei Schritten.
Sie erhält über ein angeschlossenes Keyboard die Noten in Form von MIDIDatensätzen als Eingabe. Diese MIDI-Informationen werden dann in das MusicXML-Format überführt. Ausgehend von dieser Notation in Music-XML wird abschließend die visuelle Ausgabe in Form von Notenschrift generiert und angezeigt.
Diese Bachelorarbeit befasst sich mit der Entwicklung eines Autorensystems zum modellieren von 3D Szenen mit physikalischer Beschreibung. Ähnlich einem herkömmlichen 3D Modellierungstool soll ein Benutzer Szenen erstellen können mit dem Unterschied, dass bei der Erstellung der Geometrie physikalische Eigenschaften direkt berechnet und eingestellt werden können. Wichtig für solche Systeme ist vor allem ihre Erweiterbarkeit und Anpassungsfähigkeit an die entsprechenden Anforderungen des Benutzers. Der Fokus liegt hierbei auf der Entwicklung einer einfachen Architektur, die leicht erweiterbar und veränderbar ist.
Diese Bachelorarbeit beschreibt die Konzeption, Implementierung und Evaluation einer spielerischen Augmented Reality-Anwendung für mobile Endgeräte. Aufbauend auf dem ARCore SDK wurde das Spiel pARcours entwickelt, bei dem der Spieler virtuelle Objekte in der realen Umgebung platzieren kann, um sich so seinen eigenen Parcours aufzubauen. Dieser muss mit einem ebenfalls virtuellen Flugobjekt absolviert werden. Der Schwerpunkt bei der Umsetzung des Spiels lag auf der Interaktion mit den virtuellen Objekten und deren Kollisionserkennung mit realen Oberflächen. Weiterhin wurden verschiedene Eingabemöglichkeiten für das Aufbauen der Parcours und die Steuerung der Flugobjekte untersucht. Durch eine abschließende Evaluation konnten sowohl das Spiel und die verschiedenen Eingabemethoden als auch ARCore in Bezug auf die Entwicklung von Augmented Reality-Anwendungen bewertet werden.
Augmented Reality besitzt viele denkbare Anwendungsbereiche, in denen Alltag oder Arbeitsprozesse vereinfacht werden können. Dadurch, dass viele Hersteller sehr unterschiedliche Augmented Reality Brillen anbieten, wird die Auswahl des richtigen Systems und eine systemübergreifende Entwicklung jedoch erschwert. Im Rahmen dieser Bachelorarbeit wird daher eine Anwendung entwickelt, mit der Augmented Reality Brillen auf einem Virtual Reality System simuliert werden können. Damit soll eine plattformübergreifende Entwicklung sowie die Auswahl des richtigen Systems vereinfacht werden.
Da die Simulation für mobile Endgeräte konzipiert werden soll, sollen möglichst realistische Umgebungen als Panorama vorgerendert werden können. Um diese auf Virtual Reality Systemen als stereoskopische Bilder darstellen zu können, werden verschiedene Verfahren zur Konvertierung in solche vorgestellt. Es wird ein Editor entwickelt, mit dem verschiedene Szenarien erstellt, Augmented Reality Systeme konfiguriert und schließlich auf einem Virtual Reality System angezeigt werden können. Abschließend wird untersucht, wie gut die Simulation gelungen ist und welche Verbesserungsmöglichkeiten es gibt.
Im Bereich der Computergraphik bilden die Nicht-Photorealistischen Renderingverfahren einen Schwerpunkt in der technischen und wissenschaftlichen Visualisierung, vor allem aber in den künstlerischen Bereichen. Verschiedene Kunststile, sowie Zeichenmaterialien und ihre Eigenschaften stellen unterschiedliche Herausforderungen dar. Eine dieser Herausforderungen ist hierbei die Simulation flüssiger Zeichenmittel.
Diese Arbeit beschäftigt sich mit der Erstellung eines interaktiven Zeichensystems für ein flüssiges Zeichenmittel, der Aquarellmalerei. Für die Simulation wird eine raue Zeichengrundlage generiert, sowie die Fluid Simulation und das optische Farbverhalten der Aquarellmalerei implementiert.
Texture-based text detection in digital images using wavelet features and support vector machines
(2010)
In dieser Bachelorarbeit wird ein neues texturbasiertes Verfahren zur Detektion von Texten in digitalen Bildern vorgestellt. Das Verfahren kann im wesentlichen in zwei Hauptaufgaben unterteilt werden, in Detektion von Textblöcken und Detektion von einzelnen Wörtern, wobei die einzelnen Wörter aus den detektierten Textblöcken extrahiert werden. Im Groben agiert das entwickelte Verfahren mit mehreren Support Vector Machines, die mit Hilfe von waveletbasierten Merkmalen mögliche Textregionen eines Bildes zu wirklichen Textregionen klassiffzieren. Die möglichen Textregionen werden dabei durch unterschiedlich ausgerichtete Kantenprojektionen bestimmt. Das Resultat des Verfahrens sind X/Y Koordinaten, Breite und Höhe von rechteckigen Regionen eines Bildes, die einzelne Wörter enthalten. Dieses Wissen kann weiterverarbeitet werden, beispielsweise durch eine Texterkennungssoftware, um an die wichtigen und sehr nützlichen Textinformationrneines Bildes zu gelangen.
Um realistische Bewegungsabläufe zu simulieren, müssen Muskeln anatomisch korrekt modelliert werden können. Bisher ist es in SimPack nur möglich, Muskeln als gerade Linie zwischen zwei Punkten zu definieren. In dieser Arbeit wird ein Ansatz vorgestellt, bei dem Ellipsen definiert werden können, durch die ein Muskel laufen muss. Dabei entsteht vor allem das Problem, die Länge dieses Muskels durch die Ellipsen zu berechnen. Es wird ein Algorithmus vorgestellt, der den kürzesten Weg eines Muskelpfades durch diese Ellipsen berechnet. Dieser Algorithmus wird anschließend in Fortran 90 umgesetzt und in ein bestehendes Muskelmodell in SimPack integriert.
Ziel der Bachelorarbeit war die Evaluation und Optimierung von verschiedenen Eye-Tracking Algorithmen für die subpixelgenaue Bestimmung der relevanten Merkmale bezüglich Genauigkeit. Die extrahierten Merkmale sind das Pupillen- und Glintzentrum. Die Algorithmen sind mit preiswerten Kameras einsetzbar. Es wurde ein synthetisches Modell des Auges modifiziert und verwendet, mit dem die Methoden mit bekannter Ground Truth evaluiert wurden.
VR Fresken
(2018)
Das Projekt VR Fresken setzte sich zum Ziel, mit Hilfe von virtueller Realität im Rahmen einer Museumsausstellung historisch rekonstruierte Räume und deren Deckenfresken interaktiv erlebbar zu machen. In dieser Arbeit werden die eingesetzten Techniken und Technologien beleuchtet, der Anwendungsfall der VR für den Einsatz im Museum untersucht, sowie eine Evaluation der Software im Alltagsbetrieb im Museum durchgeführt.
Die Entwicklung der echtzeitfähigen Computergrafik ermöglicht mittlerweile immer realistischere Bilder und die Hardware kann dafür optimal ausgenutzt werden, wodurch immer glaubwürdigere Lichtverhältnisse simuliert werden können. Eine große Anzahl von Algorithmen, effizient implementiert auf der Grafikkarte (GPU, auch Grafikprozessor)), sind fähig komplexe Lichtsituationen zu simulieren. Effekternwie Schatten, Lichtbrechung und Lichtreflexion können mittlerweile glaubwürdig erzeugt werden. Besonders durch Reflexionen wird der Realismus der Darstellung erhöht, da sie glänzende Materialien, wie z.B. gebürstete Metalle, nasse Oberflächen, insbesondere Pfützen oder polierte Böden, natürlich erscheinen lassen. Dabei geben sie einen Eindruck der Materialeigenschaften, wie Rauheit oder Reflexionsgrad.rnAußerdem können Reflexionen vom Blickpunkt abhängen: Eine verregnete Straße zum Beispiel würde Licht, abhängig von der Entfernung des Betrachters reflektieren und verwaschene Lichtreflexe erzeugen. Je weiter der Betrachter von der Lichtquelle entfernt ist, desto gestreckter erscheinen diese. Ziel dieser Bachelorarbeit ist, eine Übersicht über existierende Render-Techniken für Reflexionen zu geben, um den aktuellen Stand der Technik abzubilden. Reflexion entsteht durch den Einfall von Licht auf Oberflächen, die dieses in eine andere Richtung zurückwerfen. Um dieses Phänomen zu verstehen, wird eine Auffassung von Licht benötigt. Kapitel 2.1 beschreibt daher ein physikalisches Modell von Licht, gefolgt von Kapitel 2.2, das anhand von Beispielen ästhetisch wirkender Reflexionseffekte aus der realenrnWelt und den Medien die Motivation dieser Arbeit darlegt. In Kapitel 3 soll die generelle Vorgehensweise beim Rendern von Reflexionen deutlich gemacht werden. Danach wird in Kapitel 4 eine grobe Übersicht über existierende Ansätze gegeben. In Abschnitt 5 werden dann drei wesentliche Algorithmen vorgestellt, die zur Zeit oft in Spiel- und Grafikengines verwendet werden: Screen Space Reflections (SSR), Parallax-corrected cube mapping (PCCM) und Billboard Reflections (BBR). Diese drei Ansätze wurden zusammen in einem Framework implementiert. Dieses wird in Kapitel 5 vorgestellt und erklärt, gefolgt von detaillierten Beschreibungen der drei Techniken. Nachdem ihre Funktionsweise erklärt wurde, werden die Ansätze analysiert und auf ihre visuelle Qualität sowie ihre Echtzeitfähigkeit getestet. Abschließend werden die einzelnen Verfahren miteinander verglichen, um ihre Vor- und Nachteile zu untersuchen. Außerdem werden die gewonnenen Erfahrungen beschrieben und Verbesserungsansätze vorgeschlagen. Danach wird ein kurzer Ausblick zur voraussichtlichen Entwicklung von Render-Techniken spekularer Effekte gegeben.
Hubschrauber sind aus heutiger Sicht unverzichtbar. Eine Reihe von Anwendungsgebieten zeigt das Einsatzspektrum, die andere Flugmuster im Vergleich zum Hubschrauber nicht leisten können. Allerdings handelt es sich bei einem Hubschrauber um ein sowohl technologisch als auch physikalisch hochkomplexes System. Entsprechend aufwendig ist die Aus- und Weiterbildung von Piloten. Gerade in den letzten zwei Jahrzehnten hat sich daher die Flugsimulation als wertvolle Ergänzung zum klassischen Training herausgestellt. Mittels Flugsimulatoren ist es möglich, schwierige oder gar gefährliche Situationen bedarfsgerecht nachzuempfinden und zu üben. Im Rahmen dieser Arbeit soll ein vereinfachter Hubschraubersimulator, basierend auf Starkörperkinematik, entwickelt werden. Dabei wird ein idealisiertes Rotormodell angenommen und auf komplexe strömungsmechanische Phänomene verzichtet, um eine Implementation übersichtlich zu illustrieren und echtzeitfähig zu sein. Dabei sind die Module dementsprechend in der Unreal Engine umgesetzt, dass eine Adaption an andere Flugmuster ohne großen Aufwand möglich ist.
In der Computergrafik stellte die Berechnung von Reflexionen lange ein
Problem dar. Doch mit der ständigen Weiterentwicklung der Hardware
und Vorstellung neuer Verfahren ist eine realitätsnahe,
echtzeitfähige(durchschnittlich 60 FPS) Berechnung von Reflexionen möglich. In der folgenden Ausarbeitung werden verschiedene Reflexionsverfahren vorgestellt. Alle mathematischen und physikalischen Grundlagen werden gegeben, um die Algorithmen nachvollziehen zu können. Da eine Reflexion immer das Abtasten eines reflektierten Vektors bedeutet, werden zwei verschiedene Abtastungsverfahren für blickabhängige Reflexionen vorgestellt und anschließend implementiert. Zuletzt werden die Verfahren auf Basis von Qualität und Performance gegenübergestellt.
Diese Arbeit zeigt eine neue Technik der Computergrafik zur Simulation von globaler Beleuchtung durch Path Tracing in Echtzeit. Das Path Tracing wird dafür mit Compute Shadern auf der Grafikkarte (GPU) realisiert, um das Rendering hoch parallelisiert auszuführen. Zur Beschleunigung der Strahlverfolgung wird dabei der
Line Space in verschiedenen Varianten als Datenstruktur verwendet, um leere Bereiche in der Szene schneller zu überspringen. Der Line Space speichert Szeneninformationen basierend auf einer Voxelisierung in richtungsabhängige Shafts und wird sowohl auf der GPU generiert, als auch traversiert. Mit diesem Verfahren kann eine Szene physikalisch korrekt indirekt beleuchtet und mit weichen Schatten schattiert werden. Außerdem kann das Path Tracing damit weitgehend unabhängig von der Polygonanzahl mit über 100 Bildern pro Sekunde klar in Echtzeit durchgeführt werden und ist somit deutlich schneller als mit einem vergleichbaren Voxel-Gitter. Die Bildqualität wird davon nicht negativ beeinflusst und die Schattenqualität ist in den meisten Fällen deutlich besser als bei der Verwendung von Shadow-Mapping.
Diese Bachelorarbeit befasst sich mit der Entwicklung einer Anwendung für die HoloLens von Microsoft. Die Anwendung dient der Vermarktung von Werbeflächen der Firma awk AUSSSENWERBUNG GmbH. Anhand der Entwicklung wird die Frage beantwortet, welches die Möglichkeiten und Grenzen der HoloLens in Verbindung mit der Mixed Reality Platform sind. Dabei wird auch auf die Probleme eingegangen, welche bei der Ent- wicklung einer Anwendung für eine neue Technologie, wie die HoloLens auftreten. Neben der neuen Technologie, ergeben sich auch durch den Ein- satzort der Anwendung weitere Herausforderungen. Diverse Anwendungs- beispiele und Präsentationen lassen vermuten, dass die HoloLens primär für Anwendungen innerhalb von Räumen ausgelegt ist. Die zu entwickeln- de Anwendung ist dagegen für die Verwendung außerhalb geschlossener Räume konzipiert. Bei der Entwicklung konnten Erkenntnisse über die- se neue Technologie gewonnen werden. Zum einen wurde deutlich, dass sowohl die HoloLens, als auch die Entwicklungsumgebung noch an eini- gen Stellen verbessert werden können. Zum anderen, dass die HoloLens nicht für den Einsatz im Freien geeignet ist. Trotz der Schwierigkeiten bei der Entwicklung konnten auch die vielen Möglichkeiten der HoloLens be- leuchtet werden.
In dieser Bachelorarbeit wird ein Simulationscode für astrophysikalische
Simulationen von Fluiden unter dem Einfluss ihrer eigenen
Gravitation entwickelt. Der Code wird hauptsächlich von der GPU
ausgeführt. Leichte Vereinfachungen der physikalischen Modelle und
einige Parameter zum Steuern von Genauigkeit und Rechenaufwand
ermöglichen das Simulieren mit interaktiver Bildwiederholrate auf den
meisten handelsüblichen, modernen Computern mit einer dedizierten
Grafikkarte. Der Simulationscode wird verwendet, um die Entstehung
von Sternen aus einer Gaswolke zu simulieren. Einige Merkmale der
Sternentstehung, wie zum Beispiel Akkretionsscheiben und Fragmentierung,
lassen sich selbst bei niedrigen Partikelzahlen beobachten.
Die vorliegende Arbeit beschreibt die Entwicklung eines OpenGL-basierten Tools zur Visualisierung von Hohlräumen in Proteinen, welche während eines statischen Dockings beobachtet werden können. Ziel ist es, anhand von Informationen über Abstände zwischen Proteinen und Liganden, Schluss- folgerungen über Interaktionen zu ziehen, um daraus Ansätze für die Entwicklung künstlicher Liganden zu gewinnen. Zunächst wird auf chemische Grundlagen eingegangen, die das Thema motivieren und für das Verständnis der Thematik und der genutzten Algorithmen wichtig sind. Des Weiteren wird bestehende Software vorgestellt, die ähnliche Sachverhalte löst. Anschließend werden die Voraussetzungen zur Entwicklung des Programmes genannt, woraufhin dieses detailliert beschrieben wird. Zum Abschluss wird das Tool in Hinblick auf Performance und Nutzen evaluiert und ein zusammenfassendes Fazit getroffen, in dem sich das Programm als gute Hilfe für bestehende Forschungen und gute Basis für weitere, tiefergehende Forschungsprojekte erweist.
Algorithmische Komposition
(2018)
Algorithmische Komposition ist ein interdisziplinärer Forschungsbereich, der die beiden Bereiche Musik und Wissenschaft miteinander verknüpft. Der Computer wird in den Mittelpunkt des Kompositionsprozesses gestellt und komponiert mithilfe eines Algorithmus Musik. In dieser Arbeit wird die Algorithmische Komposition unter Verwendung der biologisch inspirierten Algorithmen Lindenmayer-System und Zellulärer Automat untersucht. Dabei werden ausgewählte Verfahren vorgestellt, implementiert und evaluiert, die die erzeugten Daten der Algorithmen in ein sinnvolles musikalisches Ergebnis transformieren.
Diese Arbeit beschäftigt sich mit verschiedenen Ansätzen zur Beschleunigung von Raytracing Berechnungen auf dem Grafikprozessor (GPU). Dazu wird ein Voxelgrid verwendet, welches durch die Linespace-Datenstruktur erweitert wird. Der Linespace besteht aus richtungsbasierten Schäften (Shafts) und speichert die in ihm liegenden Objekte in einer Kandidatenliste. Es werden unterschiedliche Methoden zur Sortierung und Traversierung des Linespace vorgestellt und evaluiert. Die Methoden können keinen Anstieg der Bildfrequenz erreichen, ohne gleichzeitig in einer Verringerung der Bildqualität zu resultieren.
In dieser Arbeit wird die Konzeption, Implementierung und Evaluierung einer Augmented Reality-App beschrieben. Diese wurde mit dem Ziel entwickelt, Objekte im realen Raum mit virtuellen Hilfsmitteln auszumessen, sodass diese Anwendung einen Holzgliedermaßstab ersetzen kann. Hinzu kommt die praktische Speicherung der Messwerte. Angefertigt wurde die App mit der Unity Engine und programmiert in C#.
Schwerpunkte dieser Arbeit sind die Benutzerfreundlichkeit der App, sowie die Eignung von AR Foundation für das Ausmessungstool.
Die Anwendung wird auf die genannten Kriterien im Rahmen eines Nutzertests in einer abschließenden Evaluation bewertet.
Als Ergebnis ließ sich festhalten, dass sich die AR-App noch im Prototyp-Stadium befindet, aber im Allgemeinen schon als benutzerfreundlich gilt. Kleinere Änderungen sollen und müssen noch vorgenommen werden, um auch den Umgang mit dem AR-Tool zu vereinfachen.
Bei der Mensch-Maschine-Interaktion spielt die Verfolgung und Identifizierung von Personen eine wichtige Rolle. Im Rahmen dieser Arbeit ist für den Serviceroboter Lisa, der Arbeitsgruppe Aktives Sehen, ein Framework erstellt worden, um verschiedene Verfahren zur Erkennung, Verfolgung und Identifizierung von Personen zu kombinieren. Zuerst wird mittels 2D Lasers an eine Beindetektion durchgeführt um Hypothesen für Personen aufzustellen. Diese Annahme muss noch durch eine Analyse der Kinect-Punktewolke bestätigt werden. Nach erfolgreicher Bestätigung wird ein Online-Boosting auf RGB-Daten zur Identifizierung durchgeführt. Die Beindaten werden zudem mit einem linearen Kalman-Filter für die Schätzung der Personenbewegung genutzt. Durch die Kombination von Kalman-Filter mit Beindetektion und Online-Boosting soll Personenverfolgung ermöglicht werden. Des Weiteren soll eine Verwechslung von Personen - durch kurzzeitige Verdeckung oder fehlerhaftes assoziieren von Beinen - verhindert werden.
Ziel dieser Arbeit ist es, ein einfaches Konzept zur Überwachung von Hunden, die mehrere Stunden alleine zu Hause sind, zu entwickeln. Die prototypische Implementierung einer solchen„DogCam“ kann als Proof of Concept angesehen werden. Die Grundlage für die Implementierung des Prototypen sind die im Rahmen einer Anforderungsanalyse herausgearbeiteten Anforderungen. Weiterhin zeigt die vorliegende Arbeit auf, welche Verbesserungen und Erweiterungen der prototypischen „DogCam“ möglich sind und welche ähnlichen Projekte bereits existieren.
Entwicklung eines augmentierten Montageszenarios mit Lego-Bausteinen für die Microsoft HoloLens
(2017)
Augmented Reality ist schon seit einigen Jahren in verschiedenen Formen verfügbar. Durch Fortschritte in der Technik können nun auch kompakte Augmented Reality Brillen hergestellt werden, wodurch sich viele neue Möglichkeiten der Interaktion und Anwendung von Augmented Reality eröffnen.
Diese Arbeit beschäftigt sich mit der Microsoft HoloLens und den Möglichkeiten, welche die Brille für Verbraucher und Industrie bieten kann. Im Rahmen dieser Arbeit wurde eine interaktive und augmentierte Anwendung entwickelt, um die Grenzen und Möglichkeiten der Microsoft HoloLens zu bewerten. Dazu wurde exemplarisch ein Montageszenario nachgestellt, bei dem ein Modell aus Lego-Bausteinen zusammengesetzt wird. Die HoloLens zeigt dabei schrittweise an, wo die nächsten Bausteine platziert werden sollen. Dabei stellte sich heraus, dass die HoloLens schon heute Vorteile bei der Montage bietet und gut zur Unterstützung von Arbeitsschritten verwendet werden kann, es wurden allerdings auch einige Schwächen deutlich.
Das Ziel dieser Bachelorarbeit ist es, die diskrete Fouriertransformation, die diskrete Kosinustransformation und die Hadamard-Walsh Transformation im Kontext der Bildverarbeitung zu vermitteln und diese unter ausgewählten Gesichtspunkten zu vergleichen. Hierfür soll allgemein das Wissen für den aus der linearen Algebra stammenden Begriff der Transformation gefördert werden und auf die Bildverarbeitung übertragen werden. Anschließend wird das Verständnis für die Fouriertransformation sukzessive aufgebaut und mit den beiden weiteren Transformationen verknüpft. Abschließend werden die Transformationen verglichen und ihr Nutzen innerhalb der Bildverarbeitung erläutert.
Die folgende Arbeit beschreibt die prototypische Konzeption und Entwicklung des Stat-Raising Spiels "Adventurer's Guild" mithilfe der Spielengine Ren'Py. Das Spiel soll eine durch Spielentscheidungen und Planung von Aktivitäten beeinflussbare Narrative haben und Spaß machen sowie optisch ansprechend sein.
Nach einem Überblick über das "Stat-Raising" als Genre sollen die existierenden Spiele "Dandelion - Wishes Brought to You", "Pastry Lovers", "Long Live the Queen" und "Magical Diary" analysiert werden, um anhand dessen die Schwächen und Stärken der verschiedenen Umsetzungen herauszufiltern.
Die daraus gewonnenen Erkenntnisse werden für die anschließende Konzeption eines neuen Stat-Raising Spiels genutzt.
Die Spielmechaniken und die getroffenen Designentscheidungen des resultierenden Spiels werden anschließend mit Screenshots gezeigt und ausführlich erklärt.
In einer finalen Bewertung wird das Spiel hinsichtlich der Aufgabenstellung untersucht. Im Ausblick werden weitere Ausbau- und Verbesserungsmöglichkeiten des Spiels aufgezeigt.
In dieser Bachelorarbeit wird die Frage behandelt, ob ein Jump'n Run-Spiel mit Sensorensteuerung für Android-Geräte sinnvoll ist. Hierzu wurde ein Spiel entwickelt, das in unterschiedlichen Level einmal mit und ohne Sensoren steuerbar ist. In einer zweiten Version wird das Spiel komplett anhand von Sensoren gesteuert, damit man später die Steuerungen vergleichen kann. Es wird erklärt, wie das Spiel geplant, entworfen und untersucht wurde. Zudem wird geprüft, ob es schon Spiele mit Sensorensteuerung generell gibt. Die Engine, mit der das Spiel entwickelt wurde, wird ebenfalls vorgestellt. Abschließend erfolgt die Auswertung eines dafür ausgearbeiteten Nutzertests über die Spieltauglichkeit des Spiels hinsichtlich der Steuerung.
Eine genaue Schneesimulation ist der Schlüssel zur Erfassung der charakteristischen Visualisierung von Schnee. Aufwendige Methoden existieren, die versuchen Schneeverhalten ganzheitlich zu ergreifen. Die Rechenkomplexität dieser Ansätze hindert sie daran, Echtzeitfähigkeit zu erreichen. Diese Arbeit stellt drei Methoden vor, die unter Verwendung der GPU eine echtzeitfähige Deformation einer Schneeoberoberfläche darstellen. Die Ansätze werden hinsichtlich ihrer wahrheitsgetreuen Schneedarstellung untersucht und nach ihrer Fähigkeit, mit einer zunehmenden Anzahl von schneeverformenden Objekten zu skalieren. Die Ergebnisse zeigen, dass die Methoden bei mehreren hunderten schneeverformenden Objekten ihre Echtzeitfähigkeit beibehalten. Jedoch benachteiligen die charakteristischen Einschränkungen jener Methoden die visuellen Resultate. Ein experimenteller Ansatz ist es, die Anzahl der schneeverformenden Objekte zu reduzieren und durch Zusammenfügen der Methoden ein genaueres, kombiniertes Verformungsmuster zu erzeugen.
Es gibt einige Gaze Tracking Systeme, sowohl high- als auch low-cost. Low-cost Systeme gehen meist mit low-resolution Kameras einher. Da hier die Bildqualität schlechter ist, müssen die Algorithmen umso besser arbeiten. Aber wie soll man die Algorithmen die der Erkennung der Blickrichtung dienen, testen, wenn die Bildqualität geringer ist und man nie korrekte Aussagen über die Referenzpunkte treffen kann? Hier greift die Idee dieser Arbeit: Mit Hilfe synthetischer Augenbilder testet man die betreffenden Algorithmen und kann diese, da die Referenzpunkte bekannt sind, analysieren. Eine Veränderung der Komplexität dieser Bilder z. B. mit Hilfe eines zuschaltbaren Gaußrauschens oder eines weiteren Reflektionspunktes, macht es möglich, diese in Stufen der Realität anzunähern. Im Idealfall kann man die Algorithmen mit den aus den Testreihen gewonnenen Erkenntnissen verbessern und bei Anwendung innerhalb eines low-resolution Systems dessen Genauigkeit erhöhen.
Diese Bachelorarbeit befasst sich mit der Konzeption, Implementierung und Evaluation eines Jump'n'Run Spiels und der Betrachtung des Einflusses von Erfolgssystemen auf Spieler. Im Spiel Age of Tunes spielt man Bardur, den bartlosen Barden und muss versuchen, die verfluchten magischen Geschöpfe in der Welt Harmonica zu befreien. Der Schwerpunkt der Arbeit lag bei der sauberen Konzeption und schrittweisen Entwicklung des Spiels, ansprechender graphischer Qualität, Einbindung von Gegnern, einem Minispiel und der Betrachtung von Auswirkungen eines Erfolgssystems auf Spieler. In einer abschließenden Evaluation konnten das Spiel und das Verhalten bezüglich der Erfolge bewertet werden.
Online Handschrifterkennung chinesischer Schriftzeichen auf androidfähigen mobilen Endgeräten
(2014)
Um mobile Wörterbücher oder Übersetzer zu verwenden, braucht es eine Eingabe. Diese muss zuvor verarbeitet werden, um nutzbar zu sein. Für chinesische Zeichen bietet sich die Handschrift an, da die Schrift hauptsächlich aus Piktogrammen und Ideogrammen besteht.
In dieser Bachelorarbeit wird ein prototypisches Erkennungssystem auf einem mobilen Endgerät implementiert. Die Erkennung soll dabei online und somit während des Schreibens erfolgen. Dies kann dem Benutzer Zeit ersparen, indem verschiedene erkannte Vorschläge zur Laufzeit gegeben werden.
Es werden Grundlagen erläutert und ein Überblick über den aktuellen Stand der Forschung gegeben. Ein Ansatz wird ausgewählt und implementiert, der möglichst schnell ist und wenig Speicherplatz erfordert. Die Implementation wird getestet und es wird gezeigt, dass es möglich ist, eine schnelle Erkennung auf einem kleinen Gerät laufen zu lassen. Es werden Verbesserungen und Erweiterungen vorgeschlagen, sowie ein Ausblick gegeben.
In dieser Arbeit wird ein System zur Erzeugung und Darstellung stereoskopischen Video-Panoramen vorgestellt. Neben der theoretischen Grundlagen werden der Aufbau und die Funktionsweise dieses Systems erläutert.
Dazu werden spezielle Kameras verwendet, die Panoramen aufnehmen
können und zur Wiedergabe synchronisiert werden. Anschließend wird ein Renderer implementiert, welcher die Panoramen mithilfe einer VirtualReality Brille stereoskopisch darstellen kann. Dafür werden separate Aufnahmen für die beiden Augen gemacht und getrennt wiedergegeben. Zum Abschluss wird das entstandene Video-Panorama mit einem Panorama eines schon bestehenden Systems verglichen.
Die vorliegende Arbeit gibt einen Überblick über die Rahmenbedingungen der Programmierung von Grafikkarten. Dazu werden die zur wichtigsten am Markt vorhandenen Application Programming Interfaces (APIs) vorgestellt und miteinander verglichen. Anschließend werden zwei Standardalgorithmen aus der Datenverarbeitung, Prefix Sum und Radixsort vorgestellt und im Hinblick auf die Implementierung mit paralleler Programmierung auf der GPU zu untersucht. Beide Algorithmen wurden unter Nutzung der OpenGL-API und OpenGL Compute Shadern implementiert. Abschließend wurden die Ausführungszeiten der beiden Algorithmen miteinander verglichen.