Filtern
Erscheinungsjahr
- 2011 (65) (entfernen)
Dokumenttyp
- Ausgabe (Heft) zu einer Zeitschrift (27)
- Diplomarbeit (18)
- Bachelorarbeit (16)
- Konferenzveröffentlichung (2)
- Masterarbeit (1)
- Studienarbeit (1)
Schlagworte
- computer clusters (4)
- parallel algorithms (3)
- Google App Engine (2)
- Google Web Toolkit (2)
- Objektverfolgung (2)
- Personalausweis (2)
- Rechnernetze (2)
- WebGL (2)
- artifcial neural networks (2)
- artificial neural networks (2)
Institut
- Fachbereich 4 (65) (entfernen)
Cloud Computing is a topic that has gained momentum in the last years. Current studies show that an increasing number of companies is evaluating the promised advantages and considering making use of cloud services. In this paper we investigate the phenomenon of cloud computing and its importance for the operation of ERP systems. We argue that the phenomenon of cloud computing could lead to a decisive change in the way business software is deployed in companies. Our reference framework contains three levels (IaaS, PaaS, SaaS) and clarifies the meaning of public, private and hybrid clouds. The three levels of cloud computing and their impact on ERP systems operation are discussed. From the literature we identify areas for future research and propose a research agenda.
This paper describes results of the simulation of social objects, the dependence of schoolchildren's professional abilities on their personal characteristics. The simulation tool is the artificial neural network (ANN) technology. Results of a comparison of the time expense for training the ANN and for calculating the weight coefficients with serial and parallel algorithms, respectively, are presented.
An estimation of the number of multiplication and addition operations for training artififfcial neural networks by means of consecutive and parallel algorithms on a computer cluster is carried out. The evaluation of the efficiency of these algorithms is developed. The multilayer perceptron, the Volterra network and the cascade-correlation network are used as structures of artififfcial neural networks. Different methods of non-linear programming such as gradient and non-gradient methods are used for the calculation of the weight coefficients.
Die Identifizierung von wiederverwendbarem Source-Code für die Implementierung von SOA Services ist noch immer ein ungelöstes Problem. Diese Masterarbeit beschreibt einen Ansatz zur Identifizierung von Legacy-Code, der für eine Service-Implementierung geeignet ist. Der Ansatz basiert auf dynamischer Analyse und dem Einsatz von Data Mining Techniken. Im Rahmen des SOAMIG Projekts wurden durch dynamische Analyse Geschäftsprozesse auf Source- Code abgebildet. Der große Umfang der daraus resultierenden Traces macht eine Nachbearbeitung der Ergebnisse notwendig. In dieser Masterarbeit wurde die Anwendbarkeit von Data Mining Techniken zur Nachbearbeitng der dynamischen Traces untersucht. Zwei Data Mining Verfahren, Cluster-Analyse und Link- Analyse, wurden auf die dynamischen Traces einer Java/Swing Beispielsoftware angewendet. Die Ergebnisse deuten auf eine gute Verwendbarkeit der beiden Data Mining Techniken zur Identifizierung von Legacy-Code für die Service-Implementierung hin.
This paper describes a parallel algorithm for selecting activation functionsrnof an artifcial network. For checking the efficiency of this algorithm a count of multiplicative and additive operations is used.
Um den wachsenden Anforderungen an die Automobilindustrie gerecht zu werden, reduzieren Automobilhersteller stetig die Fertigungstiefe und verlagern wertschöpfende Anteile zunehmend auf die Zulieferer. Dies macht es erforderlich, dass Unternehmen enger zusammenarbeiten und fördert die Entstehung komplexer Logistiknetzwerke.
Um den damit einhergehenden Anforderungen an den Informationsaustausch zu begegnen, wurde 2009 das Projekt RFID-based Automotive Network (RAN) ins Leben gerufen. Die Initiative hat sich zum Ziel gesetzt, eine standardisierte Architektur für eine effiziente Materialflusssteuerung entlang der gesamtem Supply Chain zu schaffen. Kernkomponente dieser Architektur ist der Infobroker, eine Informationseinheit, die über Auto-ID-Technologie erfasste Daten aus dem Materialfluss automatisiert an Teilnehmer der Supply Chain kommuniziert. Die Abschlussarbeit beschäftigt sich in Kooperation mit der IBS AG, einem Softwareunternehmen und Konsortialpartner im Projekt, mit einem Teilbereich des Austausches von Warendaten.
Zunächst werden theoretische Grundlagen geschaffen, indem auf Merkmale einer Supply Chain eingegangen und anschließend Standardisierungsbestrebungen beschrieben werden. Um den Bezug zum Projekt herstellen zu können, wird im Supply Chain Kapitel näher auf die Automobilindustrie und Trends in diesem Sektor eingegangen. Im Bereich der Standardisierung werden Standards im elektronischen Datenaustausch vertiefend dargestellt, um auch hier eine Überleitung zum Infobroker-Konzept zu schaffen. Im Analyseteil werden zu Beginn Projekte mit ähnlicher Problemstellung wie bei RAN vorgestellt und durch die Beschreibung von Gemeinsamkeiten und Unterschieden ein Bezug hergestellt. Daraufhin werden anhand von Projektdokumenten Anforderungen an das System beschrieben und mehrere Modelle zur Problemstellung entworfen. Mit Rich Pictures werden die IST-Problematik und der SOLL-Zustand zunächst beschrieben. Darauf aufbauend wird der Fluss von Warendaten zwischen zwei Unternehmen veranschaulicht und die Funktion des Infobrokers beim Informationsaustausch verdeutlicht. Ziel ist die Schaffung eines Verständnisses für die Herausforderungen des Projektes und wie die vorgeschlagenen Konzepte der RAN-Initiative zur Optimierung einer Automotive Supply Chain beitragen können.
MapReduce with Deltas
(2011)
The MapReduce programming model is extended slightly in order to use deltas. Because many MapReduce jobs are being re-executed over slightly changing input, processing only those changes promises significant improvements. Reduced execution time allows for more frequent execution of tasks, yielding more up-to-date results in practical applications. In the context of compound MapReduce jobs, benefits even add up over the individual jobs, as each job gains from processing less input data. The individual steps necessary in working with deltas are being analyzed and examined for efficiency. Several use cases have been implemented and tested on top of Hadoop. The correctness of the extended programming model relies on a simple correctness criterion.
Die RoboCup Rescue Liga wurde mit dem Ziel eines internationalen Austauschs zur Entwicklung von Rettungsrobotern gegründet. In Katastrophenregionen sollen diese Roboter verschüttete Opfer orten, deren gesundheitliche Verfassung erkennen und diese Informationen rechtzeitig an Rettungskräfte weitergeben.
An der Universität Koblenz wird seit mehreren Jahren der Rettungsroboter Robbie entwickelt. Über die gezielte Ansteuerung von Sensoren kann er Informationen über seine Umgebung sammeln und mit Hilfe dieser Informationen autonom in unbekannten Regionen agieren. Dafür erstellt Robbie eine 2D-Karte seiner Umgebung, um anhand dieser Karte navigieren und sich selbst lokalisieren zu können. Diese Karte stößt allerdings bei der Navigation über unebenes Gelände (wie z.B. Geröllhaufen) und spätestens in mehrschichtigen Katastrophengebieten auf ihre Grenzen, weswegen eine 3D-Kartierung benötigt wird.
Anhand des RoboCup Rescue Szenarios wird im Rahmen dieser Bachelorarbeit ein 3D-Kartierungsalgorithmus implementiert und hierfür die Probleme der 2D- und 3D-Kartierung ausführlich untersucht.
In diesem Arbeitsbericht werden zuvor nicht identifizierte Bedrohungen bezüglich des Wahlgeheimnisses des in [BKG11] vorgeschlagenen Konzeptes zur Authentifizierung von Wählern bei elektronischen Wahlen mittels des neuen Personalausweises aufgezeigt. Überdies wird mit der Einführung einer zwischengelagerten Anonymisierungsschicht eine Lösung vorgeschlagen, wie eben diese Bedrohungen abgewehrt werden können.