Bachelor Thesis
Refine
Year of publication
Document Type
- Bachelor Thesis (230) (remove)
Language
- German (230) (remove)
Keywords
- Computervisualistik (7)
- Android (5)
- Computergrafik (5)
- OpenGL (5)
- Augmented Reality (3)
- GPGPU (3)
- Line Space (3)
- Routing (3)
- Simulation (3)
- Smartphone (3)
Institute
- Institut für Computervisualistik (88)
- Fachbereich 4 (57)
- Institut für Management (39)
- Institut für Wirtschafts- und Verwaltungsinformatik (21)
- Institut für Informatik (12)
- Institut für Softwaretechnik (6)
- Fachbereich 6 (1)
- Institut für Evangelische Theologie (1)
- Institut für Germanistik (1)
- Institut für Integrierte Naturwissenschaften, Abt. Geographie (1)
In this thesis, the methods of a feasibility study are applied to analyze whether or not the foundation of an academic based startup focusing on IT-consulting is possible. For this purpose the concept of consulting, the demand for the offering of consulting services as well as the relevant market are analyzed. Furthermore, empirical research through face-to-face interviews with IT-companies located in the region of Koblenz is utilized in order to gain further insight about the feasibility of said business venture. The result of the research is to be presented in a concrete recommendation for further actions.
3D-models are getting more important in many areas such as multimedia applications, robotics or film industries. Of particular interest is the creation of 3D-models from a series of monocular images. This is because the cameras that are required for this purpose are becoming cheaper, smaller and more sophisticated at the same time. Increasingly often, suitable cameras are already integrated in devices like smartphones, tablet PCs or cars for example. Hence, there is a great potential for applications of this reconstruction technique.
This thesis is based on the use of a series of images that were taken with arncalibrated camera. The first step is to extract point correspondences from this image series making use of the well-known SURF- and A-KAZE-features. Starting from the point correspondences, it is possible to reconstruct a 3D-Modell with different algorithms that consists of a point cloud and camera poses. To reduce errors in the 3D-model, this thesis especially focuses on explaining the bundle adjustment algorithm, which is being used for a non-linear error minimization of a cost function.
The thesis also introduces the application for the 3D-reconstruction and the visualization of the results, that was developed in the course of this thesis.
The implemented system is evaluated based on statistics and the newly aquiredrnknowledge is presented. The thesis concludes with a summary of its results, and a number of ideas for potential future applications and developments.
This thesis deals with the mapping from Ecore to grUML. Thereby the transformation of models in Ecore to graphs in grUML is as well considered as the conversion of Ecore metamodels to grUML schemas. At first the modeling languages Ecore and grUML are described separately. Thereby the metamodels of the languages are explained and the API is presented. Subsequent differences and similarities of grUML and Ecore are exemplified and based on this a mapping is defined. Also requirements for the implementation of the transformation are noted. After that details of the realisation follow. Finally the results of the transformation are shown with the help of some examples.
Absicherung und Verifikation einer Instant Messaging-Kommunikation über Diffie Hellman Key Agreement
(2009)
Im Rahmen dieser Bachelorarbeit soll die Absicherung und Verifikation einer Instant Messaging-Kommunikation beschrieben und in Form eines Plugins für ein bestehendes Instant Messaging-System realisiert werden. Dazu werden zunächst die Anforderungen an das System erhoben und mit Vorhandenen Konzepten und Systemen am Markt verglichen. Darauf aufbauend wird ein eigenes Konzept entwickelt und die Umsetzung in der Programmiersprache Java beschrieben. Der Fokus dieser Arbeit liegt dabei auf der Absicherung des Chat-Kanals einer Instant Messaging-Kommunikation, aber es werden geeignete Schnittstellen beschrieben und implementiert, die eine Erweiterung der angewendeten Verfahren für beliebige Datensätze ermöglicht.
Im Vergleich zu herkömmlicher Computergrafik (perspektivische Projektion) bietet Raytracing entscheidende Vorteile, die hauptsächlich in der vergleichsweise hohen physikalischen Korrektheit der Methode begründet sind. Die Schwächen liegen hingegen im immensen Rechenaufwand.
Ein Raytracer ist vergleichsweise so rechenintensiv, weil für jeden Pixel mindestens ein Strahl verschickt werden muss. Dieser muss gegen alle Objekte im Raum geschnitten werden. Hinzu kommen noch die Strahlen, die entstehen, wenn Strahlen an Objekten reflektiert werden (Rekursion). Um diesen Rechenaufwand zu verkleinern und zusätzlich ein besseres Bild zu erzeugen, soll der adaptive Sampler den Raytracer unterstützen. Der adaptive Sampler soll während des Rendervorgangs den progressiven Fortschritt in der Bildgenerierung beobachten und Pixel von der weiteren Berechnung ausschließen, für die sich ein zusätzliches Verschießen von Strahlen nicht mehr lohnt.
Anders als der rein progressive Raytracer hört der adaptive Sampler mit dem Konvergieren des Bildes auf zu rechnen. Der adaptive Sampler soll so dafür sorgen, dass schneller ein besseres Bild erzeugt wird und somit die Performanz gesteigert wird. Insgesamt erwartet man sich vom adaptiven Sampler Vorteile bei der Berechnung von bestimmten Szenen. Unter anderem eine Verbesserung bei Szenen mit rein diffus beleuchteten Bildbereichen, sowie eine Verbesserung bei Szenen mit unterschiedlich rechenintensiven Bildbereichen. Ein normaler Raytracer kann nicht beurteilen, wie sinnvoll seine Schüsse sind. Er kann nur mehr Strahlen verschießen, in der Hoffnung, das Bild damit effektiv zu verbessern.
Es gibt jedoch viele Szenarien, bei denen eine linear steigende Schussanzahl pro Pixel keine gleichmäßige Verbesserung im Bild erzeugt. Das bedeutet, dass Bereiche im Bild schon gut aussehen, während andere noch sehr verrauscht sind. Man möchte nun Bildbereiche, die bereits konvergiert sind, in denen sich ein weiterer Beschuss also nicht mehr bemerkbar macht, ausschließen und die Rechenleistung dort nutzen, wo man sie noch braucht.
Wichtig dabei ist, dass Pixel nicht ungewollt zu früh von der Berechnung ausgeschlossen werden, die nicht weit genug konvergiert sind. Der adaptive Sampler soll so lange arbeiten, bis jeder Pixel dauerhaft keine Änderungen mehr vorweist. Das bedeutet, dass die Wahrscheinlichkeit für eine signifikante Farbänderung eines Pixels durch Verschießen eines Strahls (bei mehreren Lichtquellen in RenderGin mehrere Strahlen pro Pixel) klein genug ist. Es wird zwar intern keine Wahrscheinlichkeit berechnet, jedoch bekommt der Raytracer eine Art Gedächtnis: Er speichert die Veränderungen im beleuchteten Bild und deren Verlauf in eigenen Gedächtnisbildern. Das "Gedächtnis" für das alte Bild (Zustand des Bildes in der letzten Iteration über die Pixel) repräsentiert dabei das Kurzzeitgedächtnis. Es ist absolut genau. Das Langzeitgedächtnis wird von drei verschiedenen Bildern repräsentiert. Das erste gibt die Anzahl der verschossenen Strahlen pro Pixel an. Das zweite ist ein Wahrheitswertebild, das für jeden Pixel angibt, ob dieser noch in die Berechnung einbezogen werden soll. Das dritte Bild gibt an, wie oft jeder Pixel eine Farbänderung vollzogen hat, die geringer ist als der geforderte Maximalabstand eines Pixels zu sich selbst (vor und nach dem Verschießen eines weiteren Strahls).
Mit diesen drei Bildern ist es möglich, zusätzliche quantitative Informationen zu den qualitativen Informationen des Vergleichs vom neuen und alten Bild zu berücksichtigen.
In dieser Arbeit kläre ich die Frage, ob die gewünschten Effekte eintreten und ob bei Integration in die bestehende Struktur von RenderGin ein Performanzgewinn möglich ist. Die Umsetzung eines adaptiven Samplers ist als Plug-In in der Software RenderGin von Numenus GmbH geschehen. RenderGin ist ein echtzeitfähiger, progressiver Raytracer, der sich durch seine Performanz auszeichnet. Die Bildgenerierung geschieht allein auf der CPU, die Grafikkarte wird lediglich zur Anzeige des erzeugten Bildes benötigt.
Die Umsetzung und Programmierung des Plug-Ins ist in Microsoft Visual Studio 2010 geschehen unter Verwendung des RenderGin SDK der Numenus GmbH.
Algorithmische Komposition
(2018)
Algorithmic composition is an interdisciplinary topic that unites music and science. The computer is able to generate algorithmic music with the aid of a specific algorithm. In this bachelor thesis, algorithmic composition is realized with the biology-inspired algorithms called Lindenmayer-system and cellular automaton. In order to realize the compositions, several techniques are presented as well as implemented and evaluated. Those techniques map the generated data from the algorithms on a meaningful musical result.
Due to the incorrect allocation management and the continuous increase of internet-capable devices, IPv4-adresses are nearly exhausted. For this reason and because of new requirements demanded by the technique of the internet the IPv6-protocol has been developed. The IPv6-protocol provides a larger adress space and will gradually replace the IPv4-protocol. However, the routing-protocols have to be adapted to the new internetprotocol. This paper will introduce and analyse the dynamic Routing-Information-Protocol RIPng which in itself is an inter-gateway protocol (IGP). The routers inside the network can exchange information about their different connections over this protocol. Furthermore, this paper will explain the basics of the IPv6-protocol, of the used protocol-algorithm as well as of the RIPv2-protocol. In the practical part of the paper the Counting-to-Infinity-Problem and some attributes of RIPng will be reviewed under the IPv6-protocol.
Analyse von Geschäftsprozessen einer NPO zur Ausarbeitung der Anforderungen an eine Fachanwendung
(2008)
Im Rahmen einer Systemanalyse werden die Prozesse eines Anbieters von Ferienfreizeiten untersucht und modelliert sowie Schwachstellen ausfindig gemacht. Anhand dieser Grundlage und einer Anforderungserhebung unter den beteiligten Stakeholdern wird ein Soll-Konzept erarbeitet, welches zu Verbesserungen der allgemeinen Organisation und des Informationsflusses führen soll. Abschließend wird eine Handlungsempfehlung für das weitere Vorgehen ausgesprochen.
Diese Bachelorarbeit wurde bei der Rasselstein GmbH in Andernach, dem größten Weißblech produzierenden Standort der Welt, durchgeführt. Sie ist zurzeit im Begriff, ein systematisches, einheitliches Geschäftsprozessmanagement einzuführen. Im Zuge dessen wurden im Rahmen dieser Arbeit ausgewählte Massenprozesse aus dem Office-Bereich zunächst durch die Nutzung verschiedener Modellierungssprachen erfasst. Es handelt sich hierbei um Dienstleistungsprozesse, die sich durch ihr vielfaches Auftreten in der Büroumgebung besonders zum Steuern und Überwachen eignen. Der Einsatz zweier Sprachen begründet sich durch die Tatsache, jeweils differenzierte Aspekte hervorheben zu können, was zu einer umfänglichen, multiperspektivischen Gesamtdarstellung der Prozesse führt. In einem nachfolgenden Schritt wurden diese Prozesse ausführlich mit Blick auf Verbesserungspotenziale analysiert, Schwachstellen entfernt und optimierte Prozesse im Sollzustand geschaffen. Es wurde dadurch beispielhaft aufgezeigt, wie Massenprozesse im Office-Bereich in einem international tätigen Industrieunternehmen untersucht werden können. Besonders durch die Aufstellung eines, aus den gewonnenen Erkenntnissen abgeleiteten, Modells soll ein wissenschaftlicher Beitrag auf dem Forschungsgebiet der Büroprozesse geleistet werden. Neben einer daraus resultierenden Unterstützung der Arbeiten der Forschungsgruppe Betriebliche Anwendungssysteme der Universität Koblenz-Landau wurde damit ebenfalls ein Beitrag für die Rasselstein GmbH generiert. Durch die Arbeiten auf dem Gebiet der Geschäftsprozessmodellierung und -optimierung, unter Zuhilfenahme eines neu eingeführten, adäquaten Prozessmanagementtools, konnten Ergebnisse erzielt werden, die von der Unternehmung für nachfolgende Projekte genutzt werden. Die Erstellung eines umfangreichen Grundlagenkapitels diente einerseits dem Zweck, bei der Rasselstein GmbH ein fundiertes Wissen über das Geschäftsprozessmanagement zu vermitteln und andererseits, besonders in ausgewählten Kapiteln, Erkenntnisse zu aktuellen Themen der Forschungsgruppe zusammenzutragen. Schließlich wurden die ausgewählten, optimierten Office-Prozesse unter dem Fokus auf die Steuerung und Überwachung derselben betrachtet. Am Beispiel der Rasselstein GmbH wurde aufgezeigt, wo Chancen, Risiken und Schwierigkeiten zur Realisierung dieser Thematik in einem Industrieunternehmen liegen.