Refine
Year of publication
- 2009 (20) (remove)
Document Type
- Study Thesis (20) (remove)
Language
- German (20) (remove)
Keywords
- Autonomes Robotersystem (2)
- Robotik (2)
- 3-D-Laserscannen (1)
- 3D-Videospiel (1)
- Algorithmus (1)
- Austausch (1)
- Auszeichnungssprache (1)
- Automatische Klassifikation (1)
- CosiMail (1)
- E-Mail (1)
Die Entwicklung im Bereich der Videospiele generierte in den letzten Monaten durch innovative Konzepte und neue Steuerungsmöglichkeiten ein hohes Maß an Aufmerksamkeit. Einen Meilenstein setzte die Firma Nintendo R mit dem sogenannten WiiTM Balance BoardTM . Dies ist ein Eingabegerät in Form eines Brettes, auf das sich der Spieler stellen muss, um ein Spiel mittels seiner Körperbalance steuern zu können. Mit dieser Form der Steuerung konnten neue Spielkonzepte erstellt und umgesetzt werden. Dadurch wurden erstmals Personengruppen angesprochen, die zuvor wenig bis gar kein Interesse an Videospielen hatten. Die Computerspielebranche hingegen verfolgt weiter das Ziel eine möglichst reale Spielumgebung zu schaffen und hält an ihren gewöhnlichen Steuerungen mittels Tastatur, Maus und Joystick fest. Im Rahmen dieser Studienarbeit wurde ein 3D-Computerspiel entwickelt, welches das Konzept der Videospiele verfolgt und die Möglichkeit bietet, mittels eigener Körperbalance zu steuern.
Das sichere Befahren von komplexen und unstruktierten Umgebungen durch autonome Roboter ist seit den Anfängen der Robotik ein Problem und bis heute eine Herausforderung geblieben. In dieser Studienarbeit werden drei Verfahren basierend auf 3-D-Laserscans, Höhenvarianz, der Principle Component Analysis (PCA) und Tiefenbildverarbeitung vorgestellt, die es Robotern ermöglichen, das sie umgebende Terrain zu klassifizieren und die Befahrbarkeit zu bewerten, sodass eine sichere Navigation auch in Bereichen möglich wird, die mit reinen 2-D-Laserscannern nicht sicher befahren werden können. Hierzu werden 3-D-Laserscans mit einem 2-D-Laserscanner erstellt, der auf einer Roll-Tilt-Einheit basierend auf Servos montiert ist, und gleichzeitig auch zur Kartierung und Navigation eingesetzt wird. Die einzeln aufgenommenen 2-D-Scans werden dann anhand des Bewegungsmodells der Roll-Tilt-Einheit in ein emeinsames 3-D-Koordinatensystem transformiert und mit für die 3-D-Punktwolkenerarbeitung üblichen Datenstrukturen (Gittern, etc.) und den o.g. Methoden klassifiziert. Die Verwendung von Servos zur Bewegung des 2-D-Scanners erfordert außerdem eine Kalibrierung und Genauigkeitsbetrachtung derselben, um zuverlässige Ergebnisse zu erzielen und Aussagen über die Qualität der 3-D-Scans treffen zu können. Als Ergebnis liegen drei Implementierungen vor, welche evolutionär entstanden sind. Das beschriebene Höhenvarianz-Verfahren wurde im Laufe dieser Studienarbeit von einem Principle Component Analysis basierten Verfahren, das bessere Ergebnisse insbesondere bei schrägen Untergründen und geringer Punktdichte bringt, abgelöst. Die Verfahren arbeiten beide zuverlässig, sind jedoch natürlich stark von der Genauigkeit der zur Erstellung der Scans verwendeten Hardware abhängig, die oft für Fehlklassifikationen verantwortlich war. Die zum Schluss entwickelte Tiefenbildverarbeitung zielt darauf ab, Abgründe zu erkennen und tut dies bei entsprechender Erkennbarkeit des Abgrunds im Tiefenbild auch zuverlässig.
Globale Beleuchtung im Bildraum unter besonderer Berücksichtigung der Sichtbarkeitsbestimmung
(2009)
Die Simulation einer globalen Beleuchtung im dreidimensionalen Objektraum ist sehr rechenintensiv und hängt von der Komplexität der Szene ab. Dabei ist besonders die Berechnung der Sichtbarkeit aufwändig, also der Test, ob sich zwei Punkte in der Szene gegenseitig sehen können. Verfahren, die die globale Beleuchtung vom Objektraum in den Bildraum verlagern (Screen-Space, Image-Space), umgehen das Problem der Szenenkomplexität und haben somit einen wesentlichen Geschwindigkeitsvorteil. Auf diese Weise erzeugte Effekte sind zwar naturgemäß nicht physikalisch korrekt, da die aus Sicht der Kamera verdeckte Geometrie ignoriert wird, dennoch können sie für die menschliche Wahrnehmung überzeugend sein und realistisch wirken. Schlagworte hierfür sind "Fake-"Global-Illumination oder auch "Quasi-"Global-Illumination. Ein bekanntes Beispiel für ein bildraum-basiertes Verfahren zur Annäherung einer globalen Beleuchtung mithilfe weicher Schatten ist Screen Space Ambient Occlusion (SSAO). In dieser Studienarbeit wird untersucht, inwieweit sich die Sichtbarkeitsbestimmung im Bildraum nicht nur für nah gelegene Geometrie wie beim Ambient Occlusion, sondern in Bezug auf die gesamte Szene realisieren lässt. Aktuelle Ansätze werden dahingehend untersucht und das geeignetste Verfahrend wird als Grundlage für die Implementierung eines Testszenarios für Screen-Space Global Illumination genutzt. Das umgesetzte Verfahren wird anhand verschiedener Testszenen bewertet.
Die Motivation für diese Arbeit bestand darin, den Studierenden in den Rechnerpools der Universität Koblenz die Möglichkeit zu geben, mit der Simulationssoftware VNUML (Virtual Network User Mode Linux) zu arbeiten. Eingesetzt wird diese Software in den Vorlesungen und Übungen zu Rechnernetzen I und II, was eine Anwendung der Software für die Studenten unumgänglich macht. In der Vergangenheit gab es jedoch immer wieder Probleme bei der Installation und Einrichtung auf den privaten Rechnern, obwohl in früheren Studienarbeiten mehrfach vereinfachte Installationsroutinen entwickelt worden waren. Ein weiteres Problem für die Verwendung von VNUML stellt auch die Tatsache dar, dass die Software nur in einer Linux-Umgebung lauffähig ist. Da aber nicht alle Studierenden das Betriebssystem Linux benutzen und viele vor einer Installation allein zur Verwendung von VNUML zurückschrecken, war es schon länger angedacht, diese Software an den Rechnern der Universität zur Verfügung zu stellen. In dieser Arbeit wird der Prozess beschrieben, wie eine Installation der VNUML-Software in den Rechnerpools möglich war, welche Probleme dabei aufgetreten sind und welche Alternativen zur gewählten Vorgehensweise möglich gewesen wären. Das Ergebnis bietet auch eine sehr einfache Installation für den privaten Anwender, ohne dass hierfür eine eigenständige Linux-Installation nötig wäre. Auch wurden während der Entwicklung immer weitere Verbesserungen vorgenommen, welche die Anwenderfreundlichkeit der endgültigen Lösung weiter erhöhten. Die Möglichkeiten und Ideen sind dabei auch so vielfältig, dass sich die Arbeitsgruppe noch weiter mit diesem Thema beschäftigen wird und weitere Optimierungen vorgenommen werden können.
Die Ausgabe von immer echter und realistischer aussehenden Bildern auf Bildschirmen ist heute ein wichtiger Bestandteil in der Konzeption, Präsentation und Simulation von neuen Produkten in der Industrie. Trotz der auch immer physikalisch echter werdenden Grafiksimulationen ist man bei der Ausgabe auf Bildschirme angewiesen, die einen limitierenden Faktor darstellen: Leuchtdichten in Simulationen gehen dabei weit über tatsächlich darstellbare Leuchtdichten von Monitoren hinaus. Das menschliche Auge ist hingegen in der Lage, einen großen Dynamikumfang zu sehen, sich an gegebene Beleuchtungsverhältnisse anzupassen und auch kleinste Unterschiede in der Helligkeit einer Szene wahrzunehmen. Für die Ausgabe solcher High-dynamic-Range-Bilder auf herkömmlichen Monitoren müssen sogenannte Tonemappingverfahren jene Bilder auf den darstellbaren Bereich reduzieren. Manche dieser Verfahren bedienen sich dabei direkt der Physiologie des Auges, um eine realistische Ausgabe zu erzeugen, andere dienen eher zur Stilisierung. Ziel dieser Studienarbeit ist die Entwicklung eines Tonemappingverfahrens, das ein vertrauenswürdiges Ergebnis liefert. Ein solches Ergebnis ist erreicht, wenn der Betrachter keine Unstimmigkeiten im Bild vorfindet, die der Realität widersprechen. Der Gesamteindruck soll dem entsprechen, was der Nutzer sehen würde, stünde er direkt neben der aufgenommenen Szene. Für eine abschließende Evaluation wurde insbesondere eine reale Boxszene am Computer nachmodelliert und gerendert. Neben einem HDR-Foto kann damit der neu entstandene Tonemapping-Operator untersucht und mit bereits vorhandenen Tonemappingverfahren verglichen werden. 13 Probanden haben an dieser Evaluation teilgenommen, um die Leistungsfähigkeit und Qualität zu bewerten.
In dieser Arbeit wird die Implementierung des SURF-Feature-Detektors auf der GPU mit Hilfe von CUDA detailliert beschrieben und die Ergebnisse der Implementation ausgewertet. Eine Einführung in das Programmiermodell von CUDA sowie in die Funktionsweise des Hesse-Detektors des SURF-Algorithmus sind ebenfalls enthalten.
MoleARlert is the result of a study-project of the Computer Graphics Working Group of the University of Koblenz-Landau. The project was led by Prof. Dr. Stefan Müller and Dipl.-Inf. Stefan Rilling. The system has been devolped by twelve students. This paper describes the developed system and focuses on the further developments made by the author in order to improve the degree of maturity of the system. Another important aspect of this work is the realtime access to a webcam from the open source 3D game engine OGRE.
Die Visualisierung von Volumendaten findet unter anderem in der Medizin, bei der Abbildung von Geodaten oder bei Simulationen ihre Anwendung. Ein effizientes Verfahren zur Darstellung von Volumendaten bietet das Raycasting, das durch die hohe Leistung von Consumerhardware hervorragende Qualität und große Flexibilität in Echtzeit ermöglicht. Beim Raycasting-Verfahren werden Strahlen durch ein Volumen verfolgt und anhand (regelmäßiger) Samples entlang des Strahles Farbund Opazitätswerte bestimmt. "Ray Textures" [Raspe et al. 2008] sind ein Konzept zur Steuerung verschiedener Strahlparameter durch das Einzeichnen beliebiger Bereiche auf einer Textur. Der bisherige Ansatz ist jedoch softwarebasiert und umfasst nur einen begrenzten Funktionsumfang. Ziel dieser Studienarbeit ist eine eigenständige Implementation eines GPU-Volumen-Raycasters und die Umsetzung des RayTexture Ansatzes komplett auf der GPU. Im Vordergrund steht dabei die Unterstützung (nahezu) beliebiger Pinselformen und -modi, das Mapping der 2D-Interaktion auf das 3D-Rendering und die Steuerung weiterer Strahlparameter in Echtzeit. Die Schwerpunkte der Studienarbeit sind im Einzelnen die Implementation eines GPUVolumen- Raycasters, die Umsetzung des Ray Texture Ansatzes komplett auf der GPU, die Vorstellung der Ergebnisse anhand mehrerer Beispielszenarien und die Dokumentation der Ergebnisse.
The student research project presents a 3D real-time solution of grid-based navier-stokes computational fluid dynamics. Current features are dynamic voxelization of objects in the fluid volume taking influence on the fluid flow, simulation of temperature changes depending on the global environment temperature, the local temperature and local density, dynamic illumination approximating light-scattering effects and real-time volume visualization, using a view-aligned volume slicing technique combined with trillinear interpolation of density values between voxels of the fluid volume. With these features we are able to simulate and render high-quality smoke, fire, vapor and clouds in real-time. We used the GPU for all dynamic fluid computations and additional rendering features. In addition, we created a small OpenGL rendering application, demonstrating the possibility of integration of the fluid solver into a real-time application.
Die Studienarbeit soll eine Vorstellung davon vermitteln, in welcher ökonomischen Größenordnung Kopierschutzmaßnahmen anzusiedeln sind. Es wird erläutert, dass die Wirksamkeit von Schutzmechanismen neben der eigentlichen Funktionalität einen ausschlaggebenden Einfluss auf die Wirtschaftlichkeit eines Produktes nimmt. Dieser Grundsatz liegt in der Verantwortung der Softwarehersteller. Gesetzliche Rahmenbedingungen im Urheberrecht regeln den Umgang mit digitalen Gütern von staatlicher Seite aus. Das Zusammenspiel der beiden Institutionen, Staat und Privatunternehmen, wird in dieser Arbeit untersucht. Beschrieben wird ein Überblick über Schutzmechanismen von Computerspielen, indem die aktuell gebräuchlichen Kopierschutzmechanismen in ihrer Funktionsweise und Wirksamkeit vorgestellt werden. Ein anschließender Vergleich soll Aufschluss auf mögliche Unterschiede oder Gemeinsamkeiten geben. Anhand der hierbei gewonnenen Erkenntnisse folgt dann eine kritische Beurteilung mit einem Ausblick auf zukünftige Trends und Entwicklungen zur Vermeidung der Softwarepiraterie. Diese Arbeit soll nicht als Anleitung zur Softwarepiraterie missverstanden werden und soll auch nicht als Anregung dazu missbraucht werden.