Filtern
Erscheinungsjahr
Dokumenttyp
- Studienarbeit (138) (entfernen)
Schlagworte
- Robotik (9)
- Bildverarbeitung (5)
- Computergraphik (4)
- Computersimulation (4)
- VNUML (4)
- Augmented Reality (3)
- Mustererkennung (3)
- Netzwerksimulation (3)
- SPARQL (3)
- Semantic Web (3)
Institut
- Institut für Computervisualistik (76)
- Institut für Informatik (19)
- Institut für Softwaretechnik (13)
- Institut für Wirtschafts- und Verwaltungsinformatik (12)
- Fachbereich 4 (9)
- Institute for Web Science and Technologies (5)
- Institut für Integrierte Naturwissenschaften (3)
- An-Institute (1)
- Institut für Kulturwissenschaft (1)
Das Projekt Ziel der Studienarbeit war, eine physikalisch basierte Echtzeitsimulation eines volumetrischen Fluids in Form einer Rauchentwicklung auf der GPU zu realisieren und diese in eine Echtzeitanwendung zu integrieren. Motivation Mit Hilfe von Fluidsimulationen lassen sich einige der faszinierendst anzuschauenden Naturphänomene wie Rauch, Wolken oder auch Feuer und Wasser realistisch darstellen. Ausserdem könnten mit physikalischbasierten Fluidsimulationen eine große Fülle neuer Interaktionsmöglichkeiten innerhalb einer simulierten Welt realisiert werden. Wasser könnte realistisch fließen und Gegenstände mit sich reißen oder ganze Landschaften überfluten, Wind- und Luftströmungen könnten Segelschiffe antreiben oder sogar zerstörerische Wettereffekte wie Tornados simulieren etc... Die Fluidsimulation Der Rauch kann um Objekte im Fluidvolumen strömen, auf Temperaturunterschiede reagieren und dynamisch beleuchtet werden. Die Fluidsimulation nutzt dabei einen rasterbasierten Ansatz um die Navier-Stokes Gleichungen zu lösen und Partikel durch das Volumen zu transportieren. Objekte können voxelisiert werden und den Fluss im Fluidvolumen beeinflussen. Eine Temperatursimulation sorgt für eine realistische Rauchentwicklung, in dem Partikel, die sich von eine Wärmequelle entfernen zu Boden fallen. Der Rauch kann zudem durch die approximierte Simulation von Licht-Streuungseffekten (scattering) dynamisch und realitätsnah in Echtzeit beleuchtet werden Für eine möglichst artefaktfreie dreidimensionale Visualisierung des Volumens kommt als Rendering-Verfahren View-aligned Volume Slicing zum Einsatz. Ergebnis Das Ergebnis der Arbeit zeigt, Fluidsimulationen lassen sich heute mit Hilfe der GPU in Echtzeit in erstaunlicher Qualität darstellen und sogar in Echtzeitanwendungen integrieren. Es wurde neben der Fluidsimulation ein OpenGL-Renderer als Echtzeitanwendung entworfen, um die Möglichkeiten der Integration einer Fluidsimulation in eine solche Anwendung zu demonstrieren. In dem Programm können zudem zahlreiche Parameter der Fluidsimulation zur Laufzeit manipuliert und gespeichert werden. Der Nutzer kann sich so mit den vielfältigen Möglichkeiten und faszinierenden Effekten einer Fluidsimulation vertraut machen.
Pokern erfreut sich einer immer größer werdenden Beliebtheit. Seitdem das Pokern über Internet immer populärer wird, haben viele User Ihre Leidenschaft für das Glücksspiel neu entdeckt. Besonders beliebt ist dabei die Variante Texas Hold"Em, in der es im Vergleich zum klassischen Poker neben den Karten auf der Hand auch noch eine gewisse Anzahl von Gemeinschaftskarten gibt, die nach und nach aufgedeckt werden. Dadurch erhöht sich der strategische Anteil enorm. Jeder Spieler kennt außer seinen eigenen Karten auch einen Teil der gegnerischen Karten und muss überlegen, welche Wendung die nächste aufgedeckte Gemeinschaftskarte herbeiführen kann. Dabei gibt es unzählige Strategien, die dem Spieler Verhaltensweisen zu seinen Karten näher bringen. Diese beruhen auf komplexen mathematischen Berechnungen und gewährleisten beim Einhalten bestimmter Regeln eine statistisch sehr hohe Gewinnrate. Doch das Regelwerk bei diesen Strategien ist ziemlich groß. Es ist genau festgelegt wie sich der Spieler verhalten soll. Die Strategie fordert penible Einhaltung aller Regeln, damit sie zum Erfolg führt. Dadurch wird aus dem Glücksspiel Poker ein mathematisch vorbestimmter Handlungsablauf, der keinen Platz zum bluffen lässt. Außerdem lernt der Spieler auf diese Art nicht viel über die Wahrscheinlichkeiten, die das Pokerspiel birgt, da er alle Handlungsweisen in seinem Strategieregelwerk nachschlagen kann und nicht selber denken muss. Welche Möglichkeiten bleiben also noch um seine Gewinnchancen oder die Chancen auf eine gute Hand abschätzen zu können? Im Bereich des Internet-Pokerns hat der Nutzer die Möglichkeit auf bestimmte Programme mit manueller Eingabe der aktuellen Spielkarten oder auf sogenannte Pokerbots zurückzugreifen. Diese Pokerbots lesen aus dem Speicher die Karten vom Bildschirm aus und sind so in der Lage dem Spieler entweder durch Angabe der Wahrscheinlichkeiten zur Seite zu stehen oder sogar die Steuerung des Spiels für den User zu übernehmen. Doch wie kann ein Spieler ohne mathematische Kenntnisse oder langjährige Pokererfahrung in einem realen Pokerspiel etwas über die Wahrscheinlichkeiten seiner Pokerhand erfahren? Wie wahrscheinlich ist es, dass er mit dem nächsten Blatt eine Straße oder ein Full House bekommt?
Die hohen Infrastrukturkosten machen das Überprüfen von Theorien bezüglich großer Rechnernetze zu einer schwierigen und teuren Aufgabe. Ein möglicher Ansatz dieses Problem zu beheben ist die Verwendung von virtueller anstelle von physikalischer Infrastrukur. OPNets IT Guru ist ein Programm, das entworfen wurde zur Simulation großer Netze und zur Repräsentation relevanter Informationen. Es gestattet großflächige Änderungen zu testen oder Theorien zu überpruefen ohne den Aufwand einer physikalischen Infrastruktur.
Das Ziel dieser Studienarbeit ist es, einen Roboterarm in einen bestehenden Software-Stackrnzu integrieren, damit ein darauf basierender Roboter beim Wettbewerb RoboCup @Home teilnehmen kann. Der Haushaltsroboter Lisa (Lisa Is a Service Android) muss für den @Home-Wettbewerb unter anderem Gegenstände aus Regalen entnehmen und an Personen weiterreichen. Bisher war dafür nur ein Gripper, also ein an der mobilen Plattform in Bodennähe angebrachter "Zwicker" vorhanden. Nun steht dem Roboter ein "Katana Linux Robot" der Schweizer Firma Neuronics zur Verfügung, ein Roboter in Form eines Arms. Dieser wird auf LISA montiert und nimmt über verschiedene Schnittstellen Befehle entgegen. Er besteht aus sechs Gliedern mit entsprechend vielen Freiheitsgraden. Im Robbie-Softwarestack muss ein Treiber für diesen Arm integriert und eine Pfadplanung erstellt werden. Letztere soll bei der Bewegung des Arms sowohl Kollisionen mit Hindernissen vermeiden als auch natürlich wirkende Bewegungsabläufe erstellen.
Nagios unter VNUML
(2011)
In recent development, attempts have been made to integrate UML and OWL into one hybrid modeling language, namely TwoUse. This aims at making use of the benefits of both modeling languages and overcoming the restrictions of each. In order to create a modeling language that will actually be used in software development an integration with OCL is needed. This integration has already been described at the contextual level in, however an implementation is lacking so far. The scope of this paper is the programatical implementation of the integration of TwoUse with OCL. In order to achieve this, two different OCL implementations that already provide parsing and interpretation functionalities for expressions over regular UML. This paper presents two attempts to extend existing OCL implementations, as well as a comparison of the existing approaches.
Im Rahmen dieser Studienarbeit wird eine Software zur Demonstration der Fähigkeiten eines Gaze Trackers beschrieben und im praktischen Teil auch implementiert. Den Anfang macht ein Überblick über vorhandene Anwendungen an der Universität Koblenz, sowie in der freien Wirtschaft. Anschließend kommt die Sprache auf die Funktionalität des Cursors, der Klicks anhand einer Dwell Time ermittelt und im gesamten Programm einsetzbar ist. Dazu werden verschiedene Optimierungen vorgestellt und mathematisch hergeleitet.
Taktstraße
(2008)
Eine Taktstraße ermöglicht eine automatisierte Verarbeitung eines Werkstückes mit Hilfe von Förderbändern, Lichtschranken, Schiebern und Bearbeitungsstationen. Für eine vorgegebene Taktstraße wird eine Ansteuerung entwickelt. Dazu wird der Mikrocontroller ATMega16 von Atmel eingesetzt. Ein externer Controller sendet über den TWI-Bus Steuerbefehle an den mit der Taktstraße verbundenen Controller. Um die Taktstraße bedienbar zu machen, wird eine geeignete Platine entworfen sowie eine LCD-Bibliothek als Ausgabe- und Informationsmedium. Die Arbeit umfasst alle für ein Projekt im Rahmen eines Informatikstudiums benötigten Entwicklungsstadien von der Projektplanung über die Aneignung von spezifischem Grundlagenwissen, die Hard- und Softwareentwicklung bis hin zu ausführlichen Entwicklungs- und Testphasen.
Im Rahmen dieser Studienarbeit wurden acht verschiedene Algorithmen unterschiedlichen Umfangs und Komplexität zur Pupillenmittelpunktssuche implementiert und im Vergleich mit dem Originalalgorithmus ausgewertet. Die Berechnung des Hornhautreflektionsmittelpunkts wurde modifiziert, so dass die Helligkeitswerte der Hornhautreflektion bei der Berechnung des Schwerpunkts gewichtet werden. Bei der Auswertung wurde festgestellt, dass drei der acht Algorithmen, der Starburst-Algorithmus für hochauflösende Bilder, Daugmans Algorithmus für Aufnahmen bei sichtbarem Licht und der Average Coordinate Algorithmus von Daunys und Ramanauskas, Mängel in Zusammenhang mit dem gegebenen System aufweisen, so dass diese momentan nicht für die Mittelpunktssuche im Gazetracker geeignet sind. Die restlichen Algorithmen zeigten im grafischen Vergleich ähnlich gute Ergebnisse und wurden im Test verglichen, wobei der Algorithmus von Perez, Garcia, Mendez, Munoz, Pedraza und Sanches und der Algorithmus von Poursaberi und Araabi die besten Ergebnisse aufwiesen in Bezug auf Dichte der Punkte, Fehlerpunkte und Outlier.
Mittels SPARQL können Anfragen in Form von RDF Tripeln auf RDF Dokumente gestellt werden. OWL-DL Ontologien sind eine Teilmenge von RDF und können über spezifische OWL-DL Ausdrücke erstellt werden. Solche Ontologien über RDF Tripel anzufragen kann je nach Anfrage kompliziert werden und eine vermeidbare Fehlerquelle darstellen.
Die SPARQL-DL Abstract Syntax (SPARQLAS) löst dieses Problem indem Anfragen mittels OWL Functional-Style Syntax oder einer der Manchester Syntax ähnlichen Syntax gestellt werden. SPARQLAS ist eine echte Teilmenge von SPARQL und verwendet nur die nötigsten Konstrukte, um mit möglichst wenig Schreibaufwand schnell die gewünschten Ergebnisse zu Anfragen auf OWL-DL Ontologien zu erhalten.
Durch die Verringerung des Umfangs einer Anfrage und der Verwendung einer dem Nutzer bekannten Syntax lassen sich komplexe und verschachtelte Anfragen auf OWL-DL Ontologien einfacher realisieren. Zur Erstellung der spezifischen SPARQLAS Syntax wird das Eclipse Plugin EMFText verwendet. Die Implementation von SPARQLAS beinhaltet zudem noch eine ATL Transformation zu SPARQL. Diese Transformation erspart die Entwicklung eines Programms zur direkten SPARQLAS Verarbeitung und erleichtert so die Integration von SPARQLAS in bereits laufende Entwicklungsumgebungen.
Große Gebiete lassen sich auf Grund von Schattenbildung und begrenzter Scanreichweite nicht mit einem einzigen 3D-Scan aufnehmen. Um konsistente dreidimensionale Karten dieses Gebietes zu erzeugen müssen also mehrere Scans zusammengefügt werden. Soll dieses Matchen der Scans automatisch geschehen, so kann es wegen fehlerhaften Translations- und Rotationsdaten, die die unterschiedlichen Positionen der Scans beschreiben,zu inkonsistenten Karten kommen. Um dies zu vermeiden wird in dieser Arbeit ein schneller Iterativ Closest Points Algorithmus implementiert, der versucht, Fehler in diesen sechs Freiheitsgraden zu korrigieren. Das Verfahren soll im Rahmen dieser Arbeit in die schon vorhandene Software unseres Roboters eingebunden werden.
In dieser Studienarbeit werden neben den Grundlagen der Web Services, Komponenten und APIs zur Realisierung des Sticky Loggings aufgezeigt. Es wird ein Szenario zum Testen des Sticky Loggings beschrieben und als Web Services implementiert. Der Sticky-Logging-Formalismus wird erklärt und es wird eine API zur Erstellung der StickyLogs implementiert. Die StickyLogs werden innerhalb des SOAP-Attachments der SOAP-Nachrichten zwischen den Web Services ausgetauscht. Dazu wird eine Realisierung mit einem Messagehandler unter JAX-WS programmiert und erläutert.
In dieser Arbeit werden einige bekannte Spam Klassiffzierungsmethoden, welche für viele Anwendungen schon im Einsatz sind, kurz erläutert, um sie in einem neuen Szenario zu analysieren. In diesem Szenario wird nicht wie bei E-Mails üblich davon ausgegangen, dass die Nachrichten unbegrenzter Länge sein können, sondern dass es sich hierbei um Nachrichten begrenzter Länge handelt. Auch die Darstellungsform und der vermutliche Inhalt solcher Nachrichten werden aus einem speziellen Kontext heraus betrachtet. So wird davon ausgegangen, dass die Nachrichten auf einem Ticker eines Bildschirmes zu sehen sind, welcher in einer Universität angebracht ist. Somit werden die Nachrichteninhalte sich eher auf das universitäre Umfeld beziehen, wobei angenommen wird, dass die Nachrichteninhalte nur von einer abgeschlossenen Gruppe von Personen eingestellt werden. Nach der Erzeugung einiger Spam- und Hamnachrichten, die auf die Kriterien des Szenarios zutreσfn, werden Klassiffzierungsmethoden evaluiert. Am Ende der Analyse folgt eine Diskussion über die Verwendbarkeit jener Methoden in diesem Szenario. Abgeschlossen wird diese Untersuchung von einem Programm, welches die entsprechenden Methoden zur Klassifizierung implementiert.
Ziel dieser Studienarbeit ist es, eine vorhandene video-see-through Augmented Reality Visualisierung (ARToolKit) anhand von Shaderprogrammierung mit der OpenGL Shading Language um nicht-photorealistische Renderingverfahren zu ergänzen. Dabei sollen nicht nur die virtuellen Objekte mit diesen Verfahren dargestellt, sondern auch die realen vom ARSystem gelieferten Bilder analog stilisiert werden, sodass die Unterscheidbarkeit zwischen Realität und Virtualität abnimmt.
IPv6 Autokonfiguration
(2008)
Diese Studienarbeit stellt verschiedene Möglichkeiten der automatischen Konfiguration von Netzwerkknoten unter IPv6, dem designierten Nachfolger des Internetprotokolls, vor. Dabei wird recht ausführlich in IPv6-Netzwerke eingeführt, wobei aber vorausgesetzt wird, dass der Leser Kenntnisse über das IP-Protokoll der Version 4 hat. Es werden sowohl die zustandslose als auch DHCPv6 ausführlich in der Theorie als auch im praktischen Einsatz gezeigt. Dafür wird das VNUML-System eingesetzt, das an der Technischen Universität Madrid entwickelt wurde und das es ermöglicht, mehrere Linuxsysteme auf einem Wirtsrechner zu simulieren.
Die vorliegende Arbeit behandelt die Entwicklung einer Simulationsumgebung zur Darstellung von Objekten im Weltraum und ihrer gravitativen Wechselwirkung zu einander.
Vorab werden in Kapitel 1 Motivation und Zielsetzung der Arbeit erläutert, des Weiteren werden die verwendeten Werkzeuge benannt. Die nötigen astronomischen Grundlagen werden in Form von Begriffserklärungen und der Vorstellung der dieser Arbeit zugrunde liegenden physikalischen Gesetze in Kapitel 2 beschrieben.
Kapitel 3 befasst sich mit dem Aufbau der einzelnen Klassen. Hier wird insbesondere auf die Berechnung der Positionen und Geschwindigkeiten der simulierten Himmelskörper und den Aufbau und die Funktionsweise der verwendeten Elemente der Graphikengine Ogre3D eingegangen.
Im Kapitel 4 wird der Einsatz des Werkzeugs 3ds Max zur Erstellung der Geometrieobjekte und Materialien erläutert.
Abschließend wird in Kapitel 5 ein Fazit gezogen und mögliche zukünftige Erweiterungen erwogen.
Die Vorwärtsfahrt mit einem einachsigen Anhänger stellt für die meisten Fahrer keine große Schwierigkeit dar. Das Zugfahrzeug gibt die Richtung vor und der Anhänger wird mitgezogen. Jedoch ist das Rückwärtsfahren mit Anhänger für den ungeübten Fahrer oft sehr kompliziert, da die Lenkmanöver für eine bestimmte Richtungsänderung nicht intuitiv sind und ein "Umdenken" erfordern. Will man beispielsweise den Anhänger um eine Linkskurve fahren, so muss das Zugfahrzeug zunächst nach rechts gelenkt werden, damit der Anhänger linksherum geschoben wird. Schnell passieren Fehler und ein Unfall mit Sachschaden kann eine mögliche Folge sein. Besonders Fahrer, die nur gelegentlich mit einem Anhänger unterwegs sind, haben bei der Rückwärtsfahrt mit Anhänger Probleme.
Diese Arbeit stellt eine Erweiterung zum SpoGA-Server dar. Grundlage war die Idee, kleinen Gruppen einen gesicherten zeitbegenzten Zugang zu einem WLAN zu geben. Diese Idee wurde um die Möglichkeit der Planung ganzer Veranstaltungen erweitert. Nun ist es möglich, ganze Gruppen für Veranstaltungen an einem WLAN anzumelden. In Zusammenarbeit mit den beiden anderen Arbeiten zu diesem Thema wurde ein funktionsfähiger Prototyp entwickelt. SpoGA und E-IMS Server arbeiten beide eigenständig, zusammen jedoch bilden sie ein sehr funktionelles Werkzeug zur Organisation, Planung und Durchführung einer Veranstaltung mit Internetzugang für die Gäste.
Die nächste Generation des World Wide Web, das Semantic Web, erlaubt Benutzern, Unmengen an Informationen über die Grenzen von Webseiten und Anwendungen hinaus zu veröffentlichen und auszutauschen. Die Prinzipien von Linked Data beschreiben Konventionen, um diese Informationen maschinenlesbar zu veröffentlichen. Obwohl es sich aktuell meist um Linked Open Data handelt, deren Verbreitung nicht beschränkt, sondern explizit erwünscht ist, existieren viele Anwendungsfälle, in denen der Zugriff auf Linked Data in Resource Description Framework (RDF) Repositories regelbar sein soll. Bisher existieren lediglich Ansätze für die Lösung dieser Problemstellung, weshalb die Veröffentlichung von vertraulichen Inhalten mittels Linked Data bisher nicht möglich war.
Aktuell können schützenswerte Informationen nur mit Hilfe eines externen Betreibers kontrolliert veröffentlicht werden. Dabei werden alle Daten auf dessen System abgelegt und verwaltet. Für einen wirksamen Schutz sind weitere Zugriffsrichtlinien, Authentifizierung von Nutzern sowie eine sichere Datenablage notwendig.
Beispiele für ein solches Szenario finden sich bei den sozialen Netzwerken wie Facebook oder StudiVZ. Die Authentifizierung aller Nutzer findet über eine zentrale Webseite statt. Anschließend kann beispielsweise über eine Administrationsseite der Zugriff auf Informationen für bestimmte Nutzergruppen definiert werden. Trotz der aufgezeigten Schutzmechanismen hat der Betreiber selbst immer Zugriff auf die Daten und Inhalte aller Nutzer.
Dieser Zustand ist nicht zufriedenstellend.
Die Idee des Semantic Webs stellt einen alternativen Ansatz zur Verfügung. Der Nutzer legt seine Daten an einer von ihm kontrollierten Stelle ab, beispielsweise auf seinem privaten Server. Im Gegensatz zum zuvor vorgestellten Szenario ist somit jeder Nutzer selbst für Kontrollmechanismen wie Authentifizierung und Zugriffsrichtlinien verantwortlich.
Innerhalb der vorliegenden Arbeit wird ein Framework konzeptioniert und entworfen, welches es mit Hilfe von Regeln erlaubt, den Zugriff auf RDF-Repositories zu beschränken. In Kapitel 2 werden zunächst die bereits existierenden Ansätze für die Zugriffssteuerung vertraulicher Daten im Sematic Web vorgestellt. Des Weiteren werden in Kapitel 3 grundlegende Mechanismen und Techniken erläutert, welche in dieser Arbeit Verwendung finden. In Kapitel 4 wird die Problemstellung konkretisiert und anhand eines Beispielszenarios analysiert.
Nachdem Anforderungen und Ansprüche erhoben sind, werden in Kapitel 6 verschiedene Lösungsansätze, eine erste Implementierung und ein Prototyp vorgestellt. Abschließend werden die Ergebnisse der Arbeit und die resultierenden Ausblicke in Kapitel 7 zusammengefasst.
In dieser Studienarbeit sollen verschiedene Routing-Lookup Algorithmen aufgelistet und verglichen werden, mit denen eine Routing-Tabelle erstellt und angepasst werden kann. Dazu werden hier nur dynamische Verfahren in Betracht gezogen. Allgemein wird die Funktionsweise einer Routing-Tabelle erklärt und drei Verfahren bzw. Algorithmen analysiert und bewertet. Die Algorithmen werden anhand von Beispielen erläutert und in einem abschließenden Kapitel gegenüber gestellt. Dabei werden die Vor- und Nachteile der einzelnen Verfahren aufgelistet.
In dieser Studienarbeit wird ein Verfahren zur Extraktion eines Oberflächenbegrenzungsmodells aus einem Tiefenbild vorgestellt. Das Modell beschreibt die im Tiefenbild dargestellte Szene durch die Geometrie und die Topologie der planaren Flächen, die in der Szene gefunden werden. Die Geometrie ist gegeben durch die Angabe der Ebenengleichungen der gefundenen Flächen sowie der 3D-Koordinaten der Eckpunkte der Polygone, die diese Flächen beschreiben. Die Informationen über die Topologie der Szene besteht aus einer Nachbarschaftsliste, die für jede Flaeche angibt, über welche Kante diese Fläche mit welcher anderen Fläche verbunden ist. Aufbauend auf einem Algorithmus zur Tiefenbildsegmentierung aus PUMA werden die Polygone bestimmt, die die Flächen der Szene beschreiben. Anschließend wird versucht, diese Polygone über Kanten und Eckpunkte zu verbinden, um ein möglichst geschlossenes Modell der Szene zu erhalten.
Die Entwicklung im Bereich der Videospiele generierte in den letzten Monaten durch innovative Konzepte und neue Steuerungsmöglichkeiten ein hohes Maß an Aufmerksamkeit. Einen Meilenstein setzte die Firma Nintendo R mit dem sogenannten WiiTM Balance BoardTM . Dies ist ein Eingabegerät in Form eines Brettes, auf das sich der Spieler stellen muss, um ein Spiel mittels seiner Körperbalance steuern zu können. Mit dieser Form der Steuerung konnten neue Spielkonzepte erstellt und umgesetzt werden. Dadurch wurden erstmals Personengruppen angesprochen, die zuvor wenig bis gar kein Interesse an Videospielen hatten. Die Computerspielebranche hingegen verfolgt weiter das Ziel eine möglichst reale Spielumgebung zu schaffen und hält an ihren gewöhnlichen Steuerungen mittels Tastatur, Maus und Joystick fest. Im Rahmen dieser Studienarbeit wurde ein 3D-Computerspiel entwickelt, welches das Konzept der Videospiele verfolgt und die Möglichkeit bietet, mittels eigener Körperbalance zu steuern.
Die Siedlungsgeschichte im Rhein-Mosel-Dreieck reicht zurück bis in die römische Zeit. Entlang der beiden großen Flüsse finden sich zahlreiche Beispiele historischer Architektur. In diese Kategorie lässt sich auch die ehemalige Burganlage im Kondertal einordnen, die sich auf dem Nordwest-Ausläufer des Hinterberges befindet. Um eine genauere Vorstellung der Burganlage zu erhalten, sollte ein Computermodell erstellt werden. Die praktische Umsetzung dieses Modells ist Thema der vorliegenden Studienarbeit. Von der Erstellung eines "einfachen 3D-Modells" mittels einer dazu mächtigen Software kam man schnell ab. Stattdessen sollte das Ziel der Arbeit ein Programm sein, dass es dem Benutzer ermöglicht die Burganlage interaktiv aufzubauen und in beliebiger Form zu verändern.
Graphen sind eine gute Wahl um strukturierte Daten zu repräsentieren. TGraphen (typisierte, attributierte, geordnete und gerichtete Graphen) sind eine sehr generische Graphenart, die in vielen Bereichen verwendet werden können. Das Java Graphenlabor (JGraLab) bietet eine effiziente Implementierung von TGraphen mit all ihren Eigenschaften. Zusätzlich stellt es, unter anderem, die Anfragesprache GReQL2 zur Verfügung, die dazu verwendet werden kann, Daten aus einem Graphen zu extrahieren. Es verfügt jedoch nicht über eine generische Bibliothek von gängigen Graphalgorithmen. Diese Studienarbeit ergänzt JGraLab durch eine generische Algorithmenbibliothek namens Algolib, die eine generische und erweiterbare Implementierung einiger wichtiger gängiger Graphalgorithmen enthält. Das Hauptaugenmerk dieser Arbeit liegt auf der Generizität von Algolib, ihrer Erweiterbarkeit und der Methoden der Softwaretechnik die benutzt wurden um beides zu erreichen. Algolib ist auf zwei Weisen erweiterbar. Bereits enthaltene Algorithmen können erweitert werden um speziellere Probleme zu lösen und weitere Algorithmen können auf einfache Weise der Bibliothek hinzugefügt werden.
In dieser Arbeit wurden insgesamt fünf verwandte, aber variante Definitionen der Hermite-Normalform vorgestellt, angefangen bei der ursprünglichen Version von Charles Hermite. Anschließend wurden vier Basisalgorithmen zur Berechnung der Hermite-Normalform ganzzahliger Matrizen im Detail und anhand von vollständigen Beispielen präsentiert. Hierbei wurde vor allem Wert darauf gelegt, linear-algebraische Grundlagen wie beispielsweise die Verwendung von Permutationsmatrizen für unimodulare Spaltenoperationen verständlich zu vermitteln.
Globale Beleuchtung im Bildraum unter besonderer Berücksichtigung der Sichtbarkeitsbestimmung
(2009)
Die Simulation einer globalen Beleuchtung im dreidimensionalen Objektraum ist sehr rechenintensiv und hängt von der Komplexität der Szene ab. Dabei ist besonders die Berechnung der Sichtbarkeit aufwändig, also der Test, ob sich zwei Punkte in der Szene gegenseitig sehen können. Verfahren, die die globale Beleuchtung vom Objektraum in den Bildraum verlagern (Screen-Space, Image-Space), umgehen das Problem der Szenenkomplexität und haben somit einen wesentlichen Geschwindigkeitsvorteil. Auf diese Weise erzeugte Effekte sind zwar naturgemäß nicht physikalisch korrekt, da die aus Sicht der Kamera verdeckte Geometrie ignoriert wird, dennoch können sie für die menschliche Wahrnehmung überzeugend sein und realistisch wirken. Schlagworte hierfür sind "Fake-"Global-Illumination oder auch "Quasi-"Global-Illumination. Ein bekanntes Beispiel für ein bildraum-basiertes Verfahren zur Annäherung einer globalen Beleuchtung mithilfe weicher Schatten ist Screen Space Ambient Occlusion (SSAO). In dieser Studienarbeit wird untersucht, inwieweit sich die Sichtbarkeitsbestimmung im Bildraum nicht nur für nah gelegene Geometrie wie beim Ambient Occlusion, sondern in Bezug auf die gesamte Szene realisieren lässt. Aktuelle Ansätze werden dahingehend untersucht und das geeignetste Verfahrend wird als Grundlage für die Implementierung eines Testszenarios für Screen-Space Global Illumination genutzt. Das umgesetzte Verfahren wird anhand verschiedener Testszenen bewertet.
Für die Netzwerkprogrammierung hat sich auf breiter Front das Socket API nach Vorbild der Berkley Sockets durchgesetzt. Die "normalen" Sockets in Form von Stream- oder Datagram-Sockets erleichtern zwar die Programmierarbeit, verschleiern jedoch auch zahlreiche Details der Netzwerkkommunikation vor dem Programmierer. So ist man beispielsweise auf die Nutzung der Protokolle TCP oder UDP eingeschränkt und agiert zwangsläufig bereits auf dem Application-Layer des TCP/IP Referenzmodells. Für den Zugriff auf tiefer gelegene Netzwerkschichten, d.h. für den Zugriff auf die Headerdaten eines Netzwerkpaketes, hält das Socket API die sogenannten RAW Sockets bereit. Mit ihnen ist es möglich, alle IP Pakete inklusive Headerdaten zu lesen oder von Grund auf neu zu generieren. Hiermit ist es nun auch möglich, Protokolle zu verwenden, die dem Anwendungsprogrammierer bislang nicht zugänglich waren (z.B. ICMP oder OSPF) oder sogar eigene IP basierte Protokolle zu entwickeln. RAW Sockets stoßen an ihre Grenzen, wenn es darum geht auf den Data-Link-Layer der Netzwerkkommunikation zuzugreifen. Unter Linux gibt es hierfür einen weiteren Socket-Typ: Den PACKET Socket. Die Studienarbeit möchte einen Einstieg in die Programmierung mit den eher unbekannten RAW und PACKET Sockets schaffen. Dabei werden einige Beispielprogramme vorgestellt und mögliche Anwendungsgebiete aufgezeigt.
Ein Werkzeug zur schnellen Erstellung individueller Schriftarten für die jeweiligen akuten Bedürfnisse wäre ein hilfreiches Instrument für Grafiker und Typographen. Die Anforderung für ein solches Instrument kann kaum sein, gute Schriftsätze zu erzeugen, dies liegt in den Händen des Gestalters, jedoch sollte sie jedem, der sich mit dem Thema befassen möchte, einen leichten Einstieg in die Gestaltung geben. Diese Arbeit versucht somit eine möglichst simple Lösung für das komplexe Thema der Schriftgestaltung zu liefern.
Seit Beginn des World Wide Web hat sich die Erzeugung und Verteilung digitaler Güter (digital assets) entschieden verändert. Zur Erzeugung, Bearbeitung, Verteilung und Konsumierung bedarf es heute nicht mehr spezieller physischer Gerätschaften. Dadurch hat sich die Geschwindigkeit, in der Medien generiert und transportiert werden, enorm gesteigert. Auch die Möglichkeiten der Kooperation waren dadurch einem Wandel unterlegen bzw. wurden mancherorts erst möglich gemacht.
Die Nutzung des Internets ermöglichte zwar die Loslösung digitaler Güter von ihren physischen Trägermedien, die Bestimmungen des Urheberrechts gelten jedoch weiterhin. Dies führt gerade bei juristisch weniger erfahrenen Nutzern zu Unsicherheit darüber, wie ein konkretes digitales Gut genutzt werden darf. Andererseits wird von vielen Nutzern das gewohnte Tauschen von Medien auch auf das digitale Umfeld übertragen. Die Urheberrechtsverletzungen, die zuvor im privaten Umfeld im kleinen Rahmen stattfanden, geschehen nun global und für alle sichtbar. Da diese Form des Tausches das primäre Geschäftsmodell der Verwerter gefährdet, wird versucht, die Nutzung digitaler Güter einzuschränken bzw. für nicht berechtigte Nutzer zu unterbinden. Dies geschah und geschieht unter anderem mit Verfahren der digitalen Rechte-Verwaltung (Digital Rights Management - DRM).
Diese Verfahren sind unter Nutzern bisweilen umstritten oder werden sogar offen abgelehnt, da sie die Nutzung digitaler Güter im Vergleich zum physischen Pendant erschweren können. Zudem erwiesen sich viele dieser Verfahren als nicht sicher, so dass die verwendeten Verschlüsselungsverfahren gebrochen wurden. Mit einer "Nutzungsrechte-Verwaltung" (Usage Rights Management - URM) soll DRM im Kernprinzip zwar erhalten bleiben. Die praktische Umsetzung soll aber in eine andere Richtung vorstoßen. Der Nutzer bekommt die volle Kontrolle über die digitalen Güter (ohne die restriktiven Maßnahmen klassischer DRM-Umsetzungen), aber auch wieder die volle Verantwortung. Unterstützt wird er dabei von Software, die ihn über die rechtlichen Möglichkeiten informiert und auf Wunsch des Nutzers auch software-technische Schranken in der Benutzung setzt, ähnlich der Rechtedurchsetzung (Enforcement) bei klassischen DRM-Systemen.
URM nutzt dabei die offene Rechtedefinitionssprache ODRL. Die vorliegende Studienarbeit ist Teil des URM-Projektes der Forschungsgruppe IT-Risk-Management, welches wiederum Teil des SOAVIWA-Projektes ist. Ziel der Studienarbeit ist es, eine Java-Klasse zu entwickeln, mit der in ODRL verfasste Lizenzen als Java-Objekte abgebildet werden. Weitere zu entwickelnde Komponenten sollen diese Objekte verwalten und das Modifizieren und Erzeugen neuer Objekte zulassen. Alle Komponenten sollen Bestandteil des bereits anfänglich implementierten Toolkit für URM (TURM) sein.
Die Motivation für diese Arbeit bestand darin, den Studierenden in den Rechnerpools der Universität Koblenz die Möglichkeit zu geben, mit der Simulationssoftware VNUML (Virtual Network User Mode Linux) zu arbeiten. Eingesetzt wird diese Software in den Vorlesungen und Übungen zu Rechnernetzen I und II, was eine Anwendung der Software für die Studenten unumgänglich macht. In der Vergangenheit gab es jedoch immer wieder Probleme bei der Installation und Einrichtung auf den privaten Rechnern, obwohl in früheren Studienarbeiten mehrfach vereinfachte Installationsroutinen entwickelt worden waren. Ein weiteres Problem für die Verwendung von VNUML stellt auch die Tatsache dar, dass die Software nur in einer Linux-Umgebung lauffähig ist. Da aber nicht alle Studierenden das Betriebssystem Linux benutzen und viele vor einer Installation allein zur Verwendung von VNUML zurückschrecken, war es schon länger angedacht, diese Software an den Rechnern der Universität zur Verfügung zu stellen. In dieser Arbeit wird der Prozess beschrieben, wie eine Installation der VNUML-Software in den Rechnerpools möglich war, welche Probleme dabei aufgetreten sind und welche Alternativen zur gewählten Vorgehensweise möglich gewesen wären. Das Ergebnis bietet auch eine sehr einfache Installation für den privaten Anwender, ohne dass hierfür eine eigenständige Linux-Installation nötig wäre. Auch wurden während der Entwicklung immer weitere Verbesserungen vorgenommen, welche die Anwenderfreundlichkeit der endgültigen Lösung weiter erhöhten. Die Möglichkeiten und Ideen sind dabei auch so vielfältig, dass sich die Arbeitsgruppe noch weiter mit diesem Thema beschäftigen wird und weitere Optimierungen vorgenommen werden können.
Wie bereitet man komplizierte, technische Sachverhalte einfach und verständlich auf, damit sie auch der normalen Benutzer ohne tiefergehendes technisches Hintergrundwissen schnell und ohne lange Einarbeitungszeit und langwierige Erklärungen zu nutzen weiß? In dieser Studenarbeit geht es um genau diese Frage - Nichtinformatikern die Vorzüge und die Arbeit mit semantischen (Such)anfragen zu erleichtern, wenn nicht sogar überhaupt erst zu ermöglichen, sowie die Neuentwicklung und SPARQL-Erweiterung Networked Graphs von Simon Schenk innerhalb der AG Staab/Universität Koblenz zu präsentieren.
Rettungsroboter helfen nach Katastrophen wie z.B. Erdbeben dabei, in zerstörten Gebäuden Überlebende zu finden. Die Aufgabe, die Umgebung effizient möglichst vollständig abzusuchen und dabei eine Karte zu erstellen, die den Rettungskräften bei der Bergung der Opfer zur Orientierung dient, soll der Roboter autonom erfüllen. Hierzu wird eine Explorationsstrategie benötigt; eine Strategie zur Navigation in bekanntem und zur Erkundung von unbekanntem Gelände. Für den mobilen Roboter "Robbie" der Arbeitsgruppe Aktives Sehen wurde in dieser Arbeit ein Grenzen-basierter Ansatz zur Lösung des Explorationsproblems ausgewählt und implementiert. Hierzu werden Grenzen zu unbekanntem Gelände aus der Karte, die der Roboter erstellt, extrahiert und angefahren. Grundlage der Navigation zu einem so gefundenen Wegpunkt bildet die sog. Pfad-Transformation (Path-Transform).
Ziel der Arbeit ist es, einen MP3-Player zu entwickeln, der eine Benutzerinteraktion ermöglicht, wie es gängige Computerprogramme zur Wiedergabe von Musik tun. Der Benutzer soll über eine grafische Oberfläche MP3-Dateien laden, abspielen und in Playlisten organisieren können. Ferner soll es möglich sein, Metadaten wie Titel, Autor, Genre, Veröffentlichungsjahr und vieles weitere als zusätzlichen Tag zu speichern und zu editieren. Diese Informationen soll die Software auch beim Abspielen eines Musikstückes auslesen und dem Nutzer übersichtlich anzeigen. Hier scheitern die meisten Player aufgrund ihres kleinen Displays. Außerdem soll der MP3-Player auch rudimentäre Funktionen zur Echtzeitmanipulation der Musikwiedergabe bieten. Als Hardware zum Abspielen der Musikdateien dient die Spielekonsole Nintendo DS, welche aufgrund ihrer beiden Displays genügend Anzeigemöglichkeiten für eine grafische Benutzerführung bietet. Eines der beiden Displays dient zudem als Touchscreen und kann für Eingaben verwendet werden.
Wireshark und VNUML Im Rahmen dieser Studienarbeit sollen einige Netzwerk-Protokolle mit dem Protokollanalyser Wireshark beobachtet und der Umgang damit beschrieben werden. Wireshark ist ein Ableger von "Ethereal", einem der bekanntesten Protokoll-Analyser. Wireshark analysiert Netzwerkverkehr, zeichnet ihn auf und stellt ihn übersichtlich dar. Für die Simulation des Netzwerks wird VNUML verwendet. Da VNUML nur unter Linux verwendet werden kann, wird andLinux als virtuelle Maschine dazwischen geschaltet um auch in Windows arbeiten zu können.