Refine
Year of publication
Document Type
- Part of Periodical (132)
- Bachelor Thesis (68)
- Diploma Thesis (47)
- Master's Thesis (34)
- Study Thesis (9)
- Conference Proceedings (5)
- Doctoral Thesis (2)
- Article (1)
Keywords
- Simulation (5)
- ontology (5)
- Bluetooth (4)
- computer clusters (4)
- Android <Systemplattform> (3)
- Augmented Reality (3)
- Customer Relationship Management (3)
- Enterprise 2.0 (3)
- Informatik (3)
- Knowledge Compilation (3)
- Mikrocontroller AVR (3)
- Petri-Netze (3)
- Routing (3)
- University (3)
- parallel algorithms (3)
- Akkreditierung (2)
- Campus Information System (2)
- Cloud Computing (2)
- Computersimulation (2)
- DOCHOUSE (2)
- Datensicherheit (2)
- Distance Vector Routing (2)
- Distanz Vektor Routing (2)
- E-Government (2)
- E-KRHyper (2)
- Enhanced Reality (2)
- Fallstudie (2)
- Google App Engine (2)
- Google Web Toolkit (2)
- IBM Lotus Quickr (2)
- Interaktion (2)
- Java (2)
- Linked Open Data (2)
- Mikrocontroller (2)
- OWL (2)
- Objektverfolgung (2)
- Ontology (2)
- Personalausweis (2)
- RDF (2)
- Rechnernetz (2)
- Rechnernetze (2)
- Router (2)
- Semantic Web (2)
- Smartphone (2)
- Tablet PC (2)
- Visualisierung (2)
- Web Analytics (2)
- WebGL (2)
- artifcial neural networks (2)
- artificial neural networks (2)
- classification (2)
- constraint logic programming (2)
- governance (2)
- mobile phone (2)
- privacy protection (2)
- probability propagation nets (2)
- risk (2)
- simulation (2)
- social media (2)
- 101companies (1)
- 2D/3D-Segmentierung (1)
- 3-D-Modell (1)
- 3D-Color-Structure-Code (1)
- 3D-Kartierung (1)
- 3D-Modell (1)
- 3D-RETISEG (1)
- 8C model (1)
- ABox (1)
- API (1)
- API Analysis (1)
- API Migratiom (1)
- ATMega 16 (1)
- ATmega644 (1)
- ATtiny2313 (1)
- Absorptive capacity (1)
- Ad-Hoc Routing (1)
- Adaptive Services Grid (ASG) (1)
- Adobe Flex (1)
- Agenten (1)
- Agents (1)
- Aggregation (1)
- Aktualisierung (1)
- Alex Bernstein (1)
- Amazon Mechanical Turks (1)
- Ambient Occlusion (1)
- Android (1)
- Android 2 (1)
- Android 3 (1)
- Android 4 (1)
- Annotation (1)
- Annotationsmodell (1)
- App (1)
- App <Programm> (1)
- ArcGIS (1)
- Archivierung (1)
- Artificial Intelligence (1)
- Aspect-orientation (1)
- Aspekt-Orientierung (1)
- Ausstellung (1)
- Authentifizierung (1)
- Authentisierung (1)
- Automated Theorem Proving (1)
- Automated Theorem Proving Systems (1)
- Automatisches Beweisverfahren (1)
- Autonomes Fahrzeug (1)
- B2B (1)
- B2B Integration (1)
- BPMN (1)
- Bachelorstudiengang (1)
- Bayes Procedures (1)
- Bebauungsdichte (1)
- Beschreibungslogik (1)
- Bewegung (1)
- Bewegungsablauf (1)
- Bewegungssteuerung (1)
- Bilderkennung (1)
- Browser (1)
- Burg (1)
- Business Collaboration (1)
- C-Programmierung (1)
- CIDR (1)
- CSMs (1)
- Calculus (1)
- CamInSens (1)
- Campus Koblenz (1)
- Casual Games (1)
- Chaos (1)
- Classification (1)
- Clustering (1)
- Colonoscopy (1)
- Common Annotation Framework (1)
- Computational biology (1)
- Computer Networks (1)
- Computeranimation (1)
- Computergraphik (1)
- Computermodell (1)
- Computerspiel (1)
- Conference (1)
- Congestion Control (1)
- Content Analysis (1)
- Content Management (1)
- Context-aware processes (1)
- Core Ontology on Multimedia (1)
- Core Ontology on Multimedia (COMM) (1)
- Creativity (1)
- Criteria Matrix (1)
- Crowdsourcing (1)
- Darmspiegelung (1)
- Data Mining (1)
- Data analysis (1)
- Datenanalyse (1)
- Datenbrille (1)
- Datenschutz (1)
- Datenschutz, Datensicherheit, Apps, Informatik im Kontext (1)
- Defi-Now! (1)
- Defibrillator (1)
- Delphi-Studie (1)
- Delta (1)
- Description Logic (1)
- Description Logics (1)
- Design Pattern (1)
- Diabetes (1)
- Diabetische Retinopathie (1)
- Dienstleistungsproduktivität (1)
- Digitale Steuerung (1)
- Dimensionality Reduction (1)
- Dimensionsreduzierung (1)
- Discussion Forums (1)
- Distributed process execution (1)
- Drahtloses lokales Netz (1)
- Dreidimensionale Bildverarbeitung (1)
- Dynamische Analyse (1)
- E-Business (1)
- E-Hyper Tableau (1)
- E-IMS (1)
- E-KRHyper theorem prover (1)
- E-Learning (1)
- E-Mail (1)
- E-Partizipation (1)
- E-Procurement (1)
- E-government (1)
- E-services (1)
- ECMS 2012 (1)
- EEPROM (1)
- EPROM (1)
- ERP-Systeme (1)
- Echtzeit-Raytracer "Augenblick" (1)
- Echtzeitphysik (1)
- Echtzeitsystem (1)
- Einchip-Computer (1)
- Electronic Government (1)
- Elektrischer Servomotor (1)
- Emergenz (1)
- Emil (1)
- Enterprise Information Management (1)
- Enterprise Systems (1)
- Enterprise-Resource-Planning (1)
- Entwicklung (1)
- Entwurfsmuster (1)
- Erste Hilfe (1)
- European Conference on Modelling and Simulation (1)
- Evaluation (1)
- Facebook App (1)
- Facebook Application (1)
- Fahrzeug (1)
- Farbkalibrierung (1)
- Feature Extraction (1)
- Finanzberatung (1)
- First aid (1)
- FlexViz (1)
- Forensik (1)
- Forschungslandkarte (1)
- Forschungsprojekt KMU 2.0 (1)
- Framework (1)
- Freiheitsgrad (1)
- Föderiertes System (1)
- GPGPU (1)
- GPS (1)
- GSM-Standard (1)
- Game Design (1)
- Generative Model (1)
- Generative Modellierung (1)
- Geocaching (1)
- Germany (1)
- Gesundheitswesen (1)
- Good Government (1)
- Grails (1)
- Grails 1.2 (1)
- Graph Technology (1)
- GraphUML (1)
- HTML 5.0 (1)
- Haskell (1)
- Healthcare institution (1)
- Historisierung (1)
- Horn Clauses (1)
- Hypertableaux (1)
- IASON (1)
- IEC 61131 (1)
- IP 6 (1)
- IP-Adressen (1)
- IPv6 (1)
- IT Outsourcing (1)
- IT Security (1)
- IT Services (1)
- IT security analysis (1)
- IT-Risk-Management (1)
- IT-Sicherheitsmodelle (1)
- Image (1)
- Incremental Algorithms (1)
- Infobroker (1)
- Information Flow Ontology (1)
- Information Supply Chain (1)
- Informationsmanagement (1)
- Informationssystem (1)
- Innovation (1)
- Innovationsmanagement (1)
- Integriertes Informationssystem (1)
- Intelligent Information Network (1)
- Interaktionselemente (1)
- Internet (1)
- Internet Voting (1)
- Internetregulierung (1)
- Internetworking (1)
- Interpersonale Kommunikation (1)
- Interpretierer (1)
- Intranet-Zugang (1)
- JCryp-Tool (1)
- Java <Programmiersprache> (1)
- JavaScript (1)
- Kalibrierung (1)
- Kamera (1)
- Kamerakalibrierung (1)
- Kantenverfolgung (1)
- Katastrophentheorie (1)
- Kinematik (1)
- Klassifikation (1)
- Kletterer (1)
- Knowledge Sharing (1)
- Koloskopie (1)
- Kommunikationsprotokoll (1)
- Kondertal (1)
- Kontextbezogener Dienst (1)
- Konzept (1)
- Kooperatives Informationssystem (1)
- Krankenhausinformationssystem (1)
- Kryptographie (1)
- Künstliche Intelligenz (1)
- Laser (1)
- Leistungsmessung (1)
- Lernsoftware (1)
- Linked Data Modeling (1)
- Logging (1)
- Logik (1)
- Logistik (1)
- Lokalisation (1)
- MIA (1)
- MPEG-7 (1)
- Manöver-Visualisierung (1)
- MapReduce (1)
- Markov Zufallsfelder (1)
- Maschinelles Sehen (1)
- Massenkommunikation (1)
- Masterstudiengang (1)
- Matching (1)
- Mediator framework (1)
- Medical Image Analysis (1)
- Medizinische Bildanalyse (1)
- Medizinische Bildverarbeitung (1)
- Medizinische Visualisierung (1)
- Mehragentensystem (1)
- Mehrbenutzer-Annotationssystem (1)
- Menschenmengen-Evakuierung (1)
- Merkmalsextrahierung (1)
- Migration (1)
- Mindestlohn (1)
- Minimum wage (1)
- Mister X (1)
- Mixed method (1)
- Mobile BI (1)
- Mobile Business Intelligence (1)
- Mobile Information Systems (1)
- Mobiles Umfeld (1)
- Model View Presenter (1)
- Model-Driven Engineering (1)
- Modell (1)
- Montageablauf (1)
- Morphologische Operatoren (1)
- Motivation (1)
- Multi-robot System (1)
- Multiagent System (1)
- Multiagentensystem (1)
- Multimedia Metadata Ontology (1)
- Natural Feature Tracking (1)
- Netlogo (1)
- Network Virtualization (1)
- Netzwerk Routing (1)
- Netzwerk Virtualisierung (1)
- Netzwerk kleiner und mittlerer Unternehmen (1)
- Neuronales Netz (1)
- OCR (1)
- ODRL (1)
- OWL <Informatik> (1)
- Object Recognition (1)
- Objective-C (1)
- Online Community (1)
- Online-Befragung (1)
- Online-Überwachung (1)
- Onlinewahl (1)
- Ontologie (1)
- Ontologie <Wissensverarbeitung> (1)
- Ontology alignment (1)
- Open Source (1)
- OpenVDB (1)
- Optische Zeichenerkennung (1)
- Outsourcing (1)
- PHP (1)
- POIs (1)
- Parallelmanipulator (1)
- Path Tracing (1)
- Personal Key Infrastruktur (1)
- Personalised Information Systems (1)
- Petri Nets (1)
- Petri net (1)
- Petrinetz (1)
- Pfadnachverfolgung (1)
- Plugin (1)
- Politik (1)
- Politische Kampagne (1)
- Politische Meinungsbildung (1)
- Polypendetektion (1)
- Pose (1)
- Privatvermögen (1)
- Probability (1)
- Probability propagation nets (1)
- Proceedings (1)
- Process tracing (1)
- Programmiergerät (1)
- Programmiersprachen (1)
- Programmierumgebung (1)
- Projekt iCity (1)
- Propagation (1)
- Prozedurale Synthese (1)
- Prozessmanagement (1)
- Public-Key-Infrastruktur (1)
- Pulsweitenmodulation (1)
- Quality assessment system (1)
- Qualität (1)
- RDF Graphs (1)
- RDF modeling (1)
- RIPng (1)
- RMIS (1)
- Ray tracing (1)
- Raytracing (1)
- ReDSeeDS-Project (1)
- Real-Life Game (1)
- Real-Life Spiel (1)
- Real-Time (1)
- Realistisches Kameramodell (1)
- Reengineering (1)
- Registratur (1)
- Regression (1)
- Reisedokument (1)
- Repast (1)
- Rescueanalyser (1)
- Research Map (1)
- Resource Description Framework (RDF) (1)
- Retina Befundbilder (1)
- Retina Fundus Bilder (1)
- Retina Fundus Images (1)
- Rettungsroboter (1)
- Risikomanagement-Informationssysteme (1)
- Robbie (1)
- Robert P. Abelson (1)
- Robocup 2008 (1)
- Route Aggregation (1)
- Routen-Aggregation (1)
- Routing Information Protocol (1)
- Routing Information Protocol (RIP) (1)
- Routing Information Protokoll (1)
- Routing Loops (1)
- Routing with Metric based Topology Investigation (RMTI) (1)
- SOAMIG (1)
- SOMA (1)
- SPARQL (1)
- Schema Information (1)
- Schlussfolgern (1)
- Schutzprofil (1)
- Search engine (1)
- Security (1)
- Security Routing (1)
- Selbstorganisation (1)
- Semantics (1)
- Semantik (1)
- Serielle Schnittstelle (1)
- Service identification (1)
- Service-Identifizierung (1)
- Service-Oriented Architectures (SOA) (1)
- Service-oriented Architectures (SOA) (1)
- Serviceorientierte Architektur (1)
- Serviceroboter (1)
- Shared Annotation Model (1)
- Shared Annotations (1)
- Sicherheit Routing (1)
- Simulationswerkzeug (1)
- Smartphone Applikation (1)
- Social Games (1)
- Social Networking Platforms (1)
- Software (1)
- Software Development (1)
- Software migration (1)
- Software techniques for object recognition (STOR) (1)
- Software-Customizing (1)
- Software-Migration (1)
- Softwareentwicklung (1)
- Softwareentwurf (1)
- Softwareergonomie (1)
- Softwarespezifikation (1)
- Softwarewartung (1)
- Soziales System (1)
- Spiel (1)
- Spielkonsole (1)
- SpoGa (1)
- Sport (1)
- Sports (1)
- Stakeholder (1)
- Stakeholder-Beteiligung (1)
- Stakeholderanalyse (1)
- Starrkörper (1)
- Staukontrollmechanismen (1)
- Stereosehen (1)
- Steuerung (1)
- Stewart-Plattform (1)
- Stochastic Logic (1)
- Stomp (1)
- Strassenkreuzung (1)
- Suchmaschine (1)
- Supernetting (1)
- Supply Chain Management (1)
- Support System (1)
- Survey Research (1)
- Syntax (1)
- Systembiologie (1)
- Szenengraph (1)
- TAP (1)
- TBox (1)
- TCP/IP (1)
- Taktstraße (1)
- Tarrain Klassifikation (1)
- Taxonomy (1)
- Technologiemanagement (1)
- Temporale Datenhaltung (1)
- Tesseract (1)
- Text Analysis (1)
- Text Mining (1)
- Theorem prover (1)
- Tokens (1)
- Tool Evaluation (1)
- Traceability (1)
- Tracing (1)
- Transferfunktion (1)
- Transformation (1)
- Translation (1)
- UML (1)
- USB (1)
- Umfrage (1)
- Umgebungslicht (1)
- Unified Modeling Language (UML ) (1)
- United Internet AG (1)
- Universität Koblenz-Landau (1)
- Usability (1)
- Validierung (1)
- Veranstaltung (1)
- Verteilte Systeme (1)
- Verwaltungsautomation (1)
- Videospiel (1)
- Videospiele (1)
- Virtual Networks (1)
- Virtualisierung (1)
- Virtuelles Netz (1)
- Visibility Skeleton (1)
- Vocabulary Mapping (1)
- Vocabulary Reuse (1)
- Vocabulary Trainer (1)
- Volume Raycasting (1)
- Volumen-Rendering (1)
- WLAN Fingerprinting (1)
- Web 2.0 (1)
- Web 2.0- basierte Stakeholderplattform (1)
- Web Analytics Framework (1)
- Web Mining (1)
- Web Ontology Language (OWL) (1)
- Web Services (1)
- Web-application framework (1)
- Web-programming technologies (1)
- Web3D (1)
- Webanwendung (1)
- Website (1)
- Wechselkursänderung (1)
- Werbung (1)
- WiFi Fingerprinting (1)
- Wii (1)
- Wikipedia (1)
- Wirtschaftsprojekt (1)
- Wissensbasis (1)
- Wissensvermittlung (1)
- Word-of-Mouth (1)
- Wrapping (1)
- XSD (1)
- Xcode (1)
- Zertifikat (1)
- activation functions of neurons (1)
- adaptive resonance theory (1)
- agent-based model (1)
- agent-based simulation (1)
- agentenbasierte Modellierung (1)
- application programming interfaces (1)
- archiving (1)
- artiffficial neural networks (1)
- artififfcial neural networks (1)
- automatisierte Videoüberwachung (1)
- benefits (1)
- blood analysis (1)
- business process management (1)
- by-stander effect (1)
- camera calibration (1)
- catastrophy theory (1)
- categorisation (1)
- chaos (1)
- collaborative technologies (1)
- colour calibration (1)
- computer science (1)
- concept (1)
- contexts of use (1)
- core ontologies (1)
- crowd evacuation (1)
- currency exchange rates (1)
- delivery drone (1)
- description logic (1)
- design thinking (1)
- deutsche Hochschulen (1)
- deutschsprachiger Markt (1)
- development (1)
- diabetic retinopathy (1)
- directed acyclic graphs (1)
- distinct object identifiers (1)
- drone (1)
- e-Commerce (1)
- e-ID (1)
- eGroupware (1)
- eID (1)
- ePA (1)
- eXperience methodology (1)
- edge linking (1)
- elektronische Anwendung (1)
- emergence (1)
- entrepreneurial design thinking (1)
- entrepreneurial thinking (1)
- entrepreneurship education (1)
- estimation of algorithm efficiency (1)
- ethnic conflicts (1)
- ethnische Konflikte (1)
- event model (1)
- event-based systems (1)
- events (1)
- faceted search (1)
- finite state automata (1)
- game (1)
- gradient method of training weight coefficients (1)
- hybrid automata (1)
- hybrid systems (1)
- hypertableaux (1)
- iCity project (1)
- iOS (1)
- iOS 5 (1)
- iOS-SDK (1)
- id card (1)
- image processing (1)
- information flow regulation (1)
- information system (1)
- interaction (1)
- interaktiv (1)
- jOWL (1)
- knowledge base (1)
- knowledge work (1)
- kollaboratives Lernen (1)
- legacy software (1)
- lineare Algebra (1)
- mathematical model (1)
- media competence model (1)
- medical image processing (1)
- metadata formats (1)
- metadata standards (1)
- metasearch engine (1)
- migration (1)
- minimum self-contained graphs (1)
- mobile application (1)
- mobile devices (1)
- mobile facets (1)
- mobile interaction (1)
- mobile phones (1)
- morphological operators (1)
- movement (1)
- multi-agent systems (1)
- multimedia metadata (1)
- myAnnotations (1)
- nPA (1)
- norm (1)
- online survey (1)
- parallel calculations (1)
- personal information management (1)
- persönliches Informationsmanagement (1)
- physical interaction (1)
- physische Interaktion (1)
- points of interest (1)
- policy modelling (1)
- polyp detection (1)
- privacy and personal data (1)
- privacy competence model (1)
- procedural content generation (1)
- psychisches Verhalten (1)
- psychological behavior (1)
- public key infrastructure (1)
- quality (1)
- realtime physics (1)
- regular dag languages (1)
- retina fundus images (1)
- revenue management (1)
- risks (1)
- scene analysis (1)
- search engine (1)
- security awareness (1)
- self-organisation (1)
- semantic desktop (1)
- semantics (1)
- semantischer Desktop (1)
- sensor data (1)
- shiq (1)
- smartphone app (1)
- social media data (1)
- social object (1)
- social simulation (1)
- social system (1)
- stereotracking (1)
- summative evaluation (1)
- survey (1)
- teams (1)
- technology acceptance model (1)
- time series (1)
- tool-integration (1)
- tracking (1)
- traffic survey (1)
- travel document (1)
- unique name assumption (1)
- usability study (1)
- video game (1)
- video games (1)
- videogames (1)
- virtual goods (1)
- virtuelle Netze (1)
- visualization (1)
- Übersetzung (1)
- Überwachung (1)
- Überwachungstechnik (1)
Institute
- Fachbereich 4 (298) (remove)
Quadrokopter sind Helikopter mit vier in einer Ebene angeordneten Rotoren. Kleine unbemannte Modelle, die oft nur eine Schubkraft von wenigen Newton erzeugen können, sind im Spielzeug- und Modellbaubereich beliebt, werden aber auch von Militär und Polizei als Drohne für Aufklärungs- und Überwachungsaufgaben eingesetzt. Diese Diplomarbeit befasst sich mit den theoretischen Grundlagen der Steuerung eines Quadrokopters und entwickelt darauf aufbauend eine kostengünstige Steuerplatine für einen Modellquadrokopter.
Die theoretischen Grundlagen enthalten eine Untersuchung der Dynamik eines frei fliegenden Quadrokopters, bei der Bewegungsgleichungen hergeleitet und mit den Ergebnissen verglichen werden, die in "Design and control of quadrotors with application to autonomous flying" ([Bou07]) vorgestellt wurden. Weiterhin wird die Funktionsweise verschiedener Sensoren beschrieben, die zur Bestimmung der aktuellen räumlichen Ausrichtung geeignet sind, und es werden Verfahren besprochen, mit denen die Ausrichtung aus den Messwerten dieser Sensoren abgeschätzt werden kann. Zusätzlich wird in den Schiefkörper der Quaternionen eingeführt, in dem dreidimensionale Rotationen kompakt dargestellt und effizient verkettet werden können.
Daran anschließend wird die Entwicklung einer einfachen Steuerplatine beschrieben, die sowohl einen autonomen Schwebeflug als auch Fernsteuerung ermöglicht. Die Platine wurde auf einem X-Ufo-Quadrokopter der Firma Silverlit entwickelt und getestet, der daher ebenfalls vorgestellt wird. Die eingesetzten Bauteile und deren Zusammenspiel werden besprochen. Dabei ist insbesondere die WiiMotionPlus hervorzuheben, die als kostengünstiges Gyrosensormodul verwendet wird. Daneben werden verschiedene Aspekte der Steuersoftware erläutert: die Auswertung der Sensordaten, die Zustandsschätzung mit Hilfe des expliziten komplementären Filters nach Mahony et al. ([MHP08]), die Umsetzung des Ausrichtungsreglers sowie die Erzeugung der Steuersignale für die Motoren. Sowohl die Steuersoftware als auch Schaltplan und Platinenlayout der Steuerplatine liegen dieser Arbeit auf einer CD bei. Schaltplan und Platinenlayout sind zusätzlich im Anhang der Arbeit abgedruckt.
In this master thesis some new helpful features will be added to the Spanning Tree Simulator. This simulator was created by Andreas Sebastian Janke in his bachelor thesis [Jan10b] in 2010. It is possible to visualize networks which are defined in a configuration file. Each of them is a XML representation of a network consisting of switches and hosts. After loading such a file into the program it is possible to run the Spanning Tree Algorithm IEEE 802.1D. In contrast to the previous version only the switches are implemented as threads. When the algorithm is finished a spanning tree is built. This means, that messages cannot run into loops anymore. This is important because loops can cause a total breakdown of the communication in a network, if the running routing protocols cannot handle loops.
Magnetic resonance (MR) tomography is an imaging method, that is used to expose the structure and function of tissues and organs in the human body for medical diagnosis. Diffusion weighted (DW) imaging is a specific MR imaging technique, which enables us to gain insight into the connectivity of white matter pathways noninvasively and in vivo. It allows for making predictions about the structure and integrity of those connections. In clinical routine this modality finds application in the planning phase of neurosurgical operations, such as in tumor resections. This is especially helpful if the lesion is deeply seated in a functionally important area, where the risk of damage is given. This work reviews the concepts of MR imaging and DW imaging. Generally, at the current resolution of diffusion weighted data, single white matter axons cannot be resolved. The captured signal rather describes whole fiber bundles. Beside this, it often appears that different complex fiber configurations occur in a single voxel, such as crossings, splittings and fannings. For this reason, the main goal is to assist tractography algorithms who are often confound in such complex regions. Tractography is a method which uses local information to reconstruct global connectivities, i.e. fiber tracts. In the course of this thesis, existing reconstruction methods such as diffusion tensor imaging (DTI) and q-ball imaging (QBI) are evaluated on synthetic generated data and real human brain data, whereas the amount of valuable information provided by the individual reconstruction mehods and their corresponding limitations are investigated. The output of QBI is the orientation distribution function (ODF), where the local maxima coincides with the underlying fiber architecture. We determine those local maxima. Furthermore, we propose a new voxel-based classification scheme conducted on diffusion tensor metrics. The main contribution of this work is the combination of voxel-based classification, local maxima from the ODF and global information from a voxel- neighborhood, which leads to the development of a global classifier. This classifier validates the detected ODF maxima and enhances them with neighborhood information. Hence, specific asymmetric fibrous architectures can be determined. The outcome of the global classifier are potential tracking directions. Subsequently, a fiber tractography algorithm is designed that integrates along the potential tracking directions and is able to reproduce splitting fiber tracts.
Activity recognition with smartphones is possible by using its internal sensors without using any external sensor. First of all, previous works and their techniques will be regarded and from these works an own implementation for the activity recognition will be derived. Most of the previous works only use the accelerometer for the activity recognition task. For this reason, this bachelor thesis analyzes the benefit of further sensors, such as the magnetic field, the linear acceleration or the gyroscope. The activity recognition is performed by classification algorithms. Decision Tree, Naive Bayes and Support Vector machines will be used. Sensor data of subjects will be collected and saved by using an own developed application. This data is needed as training data for the classification algorithms.
The result is a model which represents the structure of the data. To validate the model, a test dataset will be used which is different from the training dataset. The results confirm previous works which indicated that the activity recognition task is possible by only using the accelerometer. Orientation, gyroscope and linear acceleration cannot be used for all problems of the activity recognition. Apart from that, the Decision Tree seems to be the best classification algorithm if the model has no training data of the current user.
The objective of this contribution is to conceptually analyze the potentials of entrepreneurial design thinking as being a rather new method for entrepreneurship education. Based on a literature review of different design thinking concepts we carve out a generic design thinking model upon we conceptually build a new model that considers entrepreneurial thinking as a valuable characteristic.
The results of our work show that the characteristics of entrepreneurial design thinking can enhance entrepreneurship education by supporting respective action fields of entrepreneurial learning. In addition we reveal that entrepreneurial design thinking offers beneficial guidelines for the design of entrepreneurship education programs.
Cloud-Computing ist aktuell ein besonderer Trend in der IT-Branche. ERP-Systeme sind in den heutigen Unternehmen ebenfalls nicht mehr wegzudenken. Durch die Analyse ausgewählter Literatur wird aufgezeigt, dass Cloud-Computing als Betriebsmodell für ERP-Systeme besonderer Untersuchung bedarf, da beim Zusammenspiel dieser Technologien noch unterschiedliche Herausforderungen geklärt werden müssen. Darauf aufbauend werden mit Hilfe von drei verschiedenen Praxispartnern Fallstudien zu deren Cloud-ERP-Lösungen erstellt, um in einem nächsten Schritt die theoretische Literatur mit den praktischen Ergebnissen zu vergleichen.
Ziel dieser Arbeit ist es mit Hilfe der Forschungsfragen, differenzierte Nutzenaspekte von Cloud-ERP-Lösungen aufzudecken und zu erklären, wie die Theorie mit praktischen Erfahrungswerten von Experten übereinstimmt. Durch die Fallstudien wird deutlich, dass sich die drei unterschiedlichen Cloud-ERP-Anbieter vor allem durch den Umfang ihrer Software und die Unternehmensgrößen der Zielgruppen im Markt differenzieren. Zusätzlich zeigt sich im Analyseteil und Fazit der Arbeit, dass über die in der Theorie identifizierten Nutzenaspekte hinaus, zusätzliche Nutzenaspekte durch die Kombination von Cloud-ERP-Lösungen generiert werden können und dass es aktuell schon eine spezielle Zielgruppe für Cloud-ERP-Lösungen gibt. Für die Zukunft bleibt abzuwarten, wie sich der Cloud-ERP-Markt weiterentwickeln wird und welche weiteren Funktionalitäten in die Cloud ausgelagert werden können, sodass sich On-Demand ERP-Systeme zu einer Konkurrenz von On-Premise-Lösungen entwickeln können.
Within the scope of this bachelor thesis, a survey targeting the alumni of the Department 4: Computer Science of the University of Koblenz-Landau was planned, realized and evaluated. The goal was to support the Task Force Bachelor Master that was in charge of the re-accreditation process of the study courses. At first, the theoretical fundament of the survey design was acquired via desk research. Moreover, the analysis of past surveys of similar character lead to getting an impression of the requirements. Under consideration of recent changes, a survey prototype was created and improved following the insights from a pre-test. Using the open source tool LimeSurvey, the final version was implemented. The platform was used as the technical basis of the survey. The recipients included members of alumni clubs as well as recent alumni from the last years.
The survey lead to insights about the satisfaction of the alumni with their study course and the study situation in general. Furthermore, the opinion regarding two new master courses, E-Government and Web Science, was requested. The feedback from four of the study courses was enough to give significant results, for the other five courses it was only possible to interpret the general statements. All in all, there was a high rate of satisfaction with the studies.
Additionally, it was possible to collect suggestions for improvements and criticism. The main topics were internationality, emphasis on study topics, freedom of choice/specialization and relevancy to practice. As a result of the survey, a recommendation was verbalized, that should lead to an improvement in quality and need of the teaching in the Department 4: Computer Science in combination with the detailed results.
The Multimedia Metadata Ontology (M3O) provides a generic modeling framework for representing multimedia metadata. It has been designed based on an analysis of existing metadata standards and metadata formats. The M3O abstracts from the existing metadata standards and formats and provides generic modeling solutions for annotations, decompositions, and provenance of metadata. Being a generic modeling framework, the M3O aims at integrating the existing metadata standards and metadata formats rather than replacing them. This is in particular useful as today's multimedia applications often need to combine and use more than one existing metadata standard or metadata format at the same time. However, applying and specializing the abstract and powerful M3O modeling framework in concrete application domains and integrating it with existing metadata formats and metadata standards is not always straightforward. Thus, we have developed a step-by-step alignment method that describes how to integrate existing multimedia metadata standards and metadata formats with the M3O in order to use them in a concrete application. We demonstrate our alignment method by integrating seven different existing metadata standards and metadata formats with the M3O and describe the experiences made during the integration process.
The E-Government research area has gained in importance in Europe and specially Germany in the last few years, causing the number of researchers, institutes and publications to increase rapidly. This makes it difficult for outsiders to get an overview of the relevant actors in the E-Government field. This issue can be addressed by implementing a research map for the E-Government field, where all relevant actors and objects and their information are shown on the map according to their location. In order to give a complete overview, information which was valid at a certain time in the past needs to be available on the research map. This can be only achieved if the contents of the research map are historicized. This means that a new version of an object needs to be created and saved in the database, if changes occur to the object. Older versions need to be retained on the database, so that the user is able to navigate the website based on temporal information. Past experience has shown that the temporal aspects of historicization should be managed and planned during the conceptual phase of the website rather than during implementation. This Bachelor thesis proposes a concept for the E-Government research map which includes the modeling of relevant temporal dimensions needed to historicize the contents of the research map.
Opinion Mining : Using Twitter as a source of opinion for the prediction of stock market prices
(2012)
Neben den theoretischen Grundkonzepten der automatisierten Fließtextanalyse, die das Fundament dieser Arbeit bilden, soll ein Überblick in den derzeitigen Forschungsstand bei der Analyse von Twitter-Nachrichten gegeben werden. Hierzu werden verschiedene Forschungsergebnisse der, derzeit verfügbaren wissenschaftlichen Literatur erläutert, miteinander verglichen und kritisch hinterfragt. Deren Ergebnisse und Vorgehensweisen sollen in unsere eigene Forschung mit eingehen, soweit sie sinnvoll erscheinen. Ziel ist es hierbei, den derzeitigen Forschungsstand möglichst gut zu nutzen.
Ein weiteres Ziel ist es, dem Leser einen Überblick über verschiedene maschinelle Datenanalysemethoden zur Erkennung von Meinungen zu geben. Dies ist notwendig, um die Bedeutung der im späteren Verlauf der Arbeit eingesetzten Analysemethoden in ihrem wissenschaftlichen Kontext besser verstehen zu können. Da diese Methoden auf verschiedene Arten durchgeführt werden können, werden verschiedene Analysemethoden vorgestellt und miteinander verglichen. Hierdurch soll die Machbarkeit der folgenden Meinungsauswertung bewiesen werden. Um eine hinreichende Genauigkeit bei der folgenden Untersuchung zu gewährleisten, wird auf ein bereits bestehendes und evaluiertes Framework zurückgegriffen. Dieses ist als API 1 verfügbar und wird daher zusätzlich behandelt. Der Kern Inhalt dieser Arbeit wird sich der Analyse von Twitternachrichten mit den Methoden des Opinion Mining widmen.
Es soll untersucht werden, ob sich Korrelationen zwischen der Meinungsausprägung von Twitternachrichten und dem Börsenkurs eines Unternehmens finden lassen. Es soll dabei die Stimmungslage der Firma Google Inc. über einen Zeitraum von einem Monat untersucht und die dadurch gefunden Erkenntnisse mit dem Börsenkurs des Unternehmens verglichen werden. Ziel ist es, die Erkenntnisse von (Sprenger & Welpe, 2010) und (Taytal & Komaragiri, 2009) auf diesem Gebiet zu überprüfen und weitere Fragestellungen zu beantworten.
In this bachelor thesis a tangible augmented reality game was developed, which should have a additional benefit compared to conventional computer or augmented reality games. The main part of the thesis explains the game concept, the development and the evaluation of the game. In the evaluation the flow-experience, as measurement for the games" amusement, was analysed with a user test and the developed game was compared with other smartphone games. Also augmented reality, tangible user interface and tangible augmented reality was introduced and the advantages and disadvantages was explained. The history of augmented reality was introduced too.
In dieser Diplomarbeit wurde ein System entwickelt, dass eine Navigation für Fußgänger ermöglicht. Wie beabsichtigt wurde das System für die Benutzung auf einem iPhone realisiert.
Obwohl die Karten der neuen Generation vonNAVTEQ sich noch in Entwicklung befinden, konnten erste Eindrücke gesammelt werden, wie die Navigation der Fußgänger in Zukunft aussehen wird. Das System arbeitet aber auch mit Kartendaten von OpenStreetMap, die die klassische Repräsentation der Kartendaten haben. Die Positionierung kann später, wenn der Galileo-Empfänger zur Verfügung steht, umgestellt werden und Positionsdaten mit höherer Präzision für die Navigation bereitstellen. Die Routenberechnung konnte mit einem CH-ähnlichen Verfahren durch Vorberechnung beschleunigt werden und erlaubt trotzdem eine Änderung des Profils, ohne dass eine neue Vorberechnung nötig ist. Anders als beim einfachen CH, wo nach einer Änderung des Profils für die Berechnung der Routenkosten eine neue Vorberechnung nötig ist, die im Vergleich zu der Berechnung einer Route aufwendig ist. In Abbildung 8.1 ist die demonstrative Navigation mit dem fertigen System abgebildet. Diese zeigt eine Berechnung der Routen für 3 unterschiedliche Profile, die unterschiedliche Steigungsgrade bevorzugen. Daraus ergeben sich unterschiedliche Routen.
3D-Curve-Skeletons are often used, because the object surface repesentation is less complex and also needs less computing power in further processing, compared to the representation created by the Medial Axis Transformation introduced 1967 by Harry Blum.
This theses aims at developing a 3D curve skelton approximation algorithm that keeps these advantages and is also able to handle different scenarios of the object surface input data.
The principles of project management are due to the influences of economic conditions and technological development in transition [Wills 1998 & Jonsson et al. 2001]. The increasing in-ternationalization, shortened time to market, changing labor costs and the increasing involve-ment of professionals distributed geographical locations are drivers of the transformations of the project landscape [Evaristo/van Fenema 1999]. Resulting from this, the use of collabora-tive technologies is a crucial factor for the success of a project. [Romano et al. 2002]. Previous research on the use of collaborative technologies for project management purposes focuses especially the development of model-like, universal system architectures to identify the requirements for a specially designed collaborative project management system. This thesis investigates the challenges and benefits that arise when an organisation imple-ments business software for the purpose of collaborative project management.
In der Diplomarbeit soll die Verwendung und Möglichkeit zur Einbindung eines Eyetrackers in der Bildersuche untersucht werden. Eyetracker sind Geräte zur Blickerfassung. Sie werden häufig in Design- und Usabilitystudien verwendet, um Informationen über den Umgang der Benutzer mit dem Produkt zu untersuchen. Seit einiger Zeit werden Augenbewegungen auch zur Erkennung von benutzerrelevanten Informationen und Bereichen verwendet, wie zum Beispiel bei dem Projekt Text 2.05 [4]. Hierbei werden Blickrichtung und -fixierung benutzt, um eine Interaktion mit dem Leser eines Textes auf eine möglichst einfache, dabei aber subtile Weise zu ermöglichen.
This paper critically examines the Google Calendar. For this purpose, the offered functions of the core product are studied on privacy aspects. On one hand, it is identified, to which extent the product could infringe the users" privacy, on the other accuring risks are discussed. Furthermore, the functions in terms of their use for both, the service provider Google and for the user, are considered. A detailed analysis demonstrates the critical aspects, in which we have to decide between privacy and functionality. The identified solutions to minimize discussed risks of IT security mechanisms, are presented, discussed and analyzed in terms of their feasibility. Afterwards the individual solutions are summarized in a security concept and other requirements are explained. Finally, a Firefox-Addon which implements the described solution concept should be created, to resolve the existing weaknesses to the best of its ability. Ultimately, the functionality of the addon with technical implementation is illustrated in detail.
In this thesis the feasibility of a GPGPU (general-purpose computing on graphics processing units) approach to natural feature description on mobile phone GPUs is assessed. To this end, the SURF descriptor [4] has been implemented with OpenGL ES 2.0/GLSL ES 1.0 and evaluated across different mobile devices. The implementation is multiple times faster than a comparable CPU variant on the same device. The results proof the feasibility of modern mobile graphics accelerators for GPGPU tasks especially for the detection phase in natural feature tracking used in augmented reality applications. Extensive analysis and benchmarking of this approach in comparison to state of the art methods have been undertaken. Insights into the modifications necessary to adapt and modify the SURF algorithm to the limitations of a mobile GPU are presented. Further, an outlook for a GPGPU-based tracking pipeline on a mobile device is provided.
Computers assist humans in many every-day situations. Their advancing miniaturisation broadens their fields of use and leads to an even higher significance and spread throughout society. Already, these small and powerful machines are wide-spread in every-day objects and the spread increases still as the mobility-aspect grows in importance. From laptops, smartphones and tables to systems worn on the body (wearable computing) or even inside the body as cyber-implants, these systems help humans actively and context-sensitively in the accomplishment of their every-day business.
A part of the wearable-computing-domain is taken up by the development of Head-mounted displays (HMD). These helmets or goggles feature one or more displays enabling their users to see computer-rendered images or images of their environment enriched with computer-generated information. At the moment, most of this HMD feature LC-Displays, but newer systems start appearing that allow the projection of the image onto the user's retina. Newest break-throughs in the field of study already produced contact lenses with an integrated display. The data shown by a HMD is compiled using a multitude of sensors, like a Head-Tracker or a GPS. Increasing computational performance and miniaturisation lead to a wide spread of HMD in a lot of fields.rnThe multiple scenarios in which a HMD can be used to help improve human-perception and -interaction led the "Institut für Integrierte Naturwissenschaften" of the University of Koblenz-Landau to come up with a HMD on the basis of Apple's iOS-devices featuring Retina Displays. The high pixel density of these displays combined with condensor lenses into a HMD offer a highly immersive environment for stereoscopic imagery, while other systems only display a relatively small image projected a few feet away of the user. Furthermore, the iPhone/ iPod Touch and iPad exhibit a lot of potential given by their variety of offered sensors and computational power. While producing a similarly feature-rich HMD is very costy, using simple iPod Touches 4th Gen as the basis of a HMD results in a very inexpensive solution with a high potential. The increasing popularity and spread of Apple devices would reduce the costs even more, as users of the HMD could simply integrate their device into the system. A software designed with the specific intent to support a large variety of Apple iOS-devices that could easily be extended to support newer devices, would allow for a universal use of such a HMD-solution as the new device could simply replace an old device.rnrnThe focus of this thesis is the conception and development of an application designed for Apple's iOS 5 operating system that will be used in a HMD evolving around the use of Apple iOS-devices featuring Retina Displays. The Rollercoaster2000-project depicting a ride in a virtual rollercoaster will be used as the application's core. A server will syncronize the display of clients conntected to it which are combined to form a HMD. Furthermore the gyroscope of the iOS-devices combined into a HMD will be used to track the wearer's head-movements. Another feature will be the use of the devices cameras as a mean of orientation while wearing the HMD.
As a first step in the realization of a software meeting the set specifications is the introduction of the Objective-C programming languages used to develop iOS-Applications. In conjunction with the compiler and runtime environment, Objective-C makes up the base of the second step, the introduction of the iOS-SDK. Aimed with this iOS-app-development-knowledge, the last part of the thesis consists of the ascertainment of requirements and development of a software complying to the goals of a software written specifically for the used in a HMD.
Particle swarm optimization is an optimization technique based on simulation of the social behavior of swarms.
The goal of this thesis is to solve 6DOF local pose estimation using a modified particle swarm technique introduced by Khan et al. in 2010. Local pose estimation is achieved by using continuous depth and color data from a RGB-D sensor. Datasets are aquired from different camera poses and registered into a common model. Accuracy and computation time of the implementation is compared to state of the art algorithms and evaluated in different configurations.
This thesis addresses the implementation of a particle simulation of an explosion. The simulation will be displayed via ray tracing in near real time. The implementation makes use of the openCL standard. The focus of research in this thesis is to analyse the performance of this combination of components.
The natural and the artificial environment of mankind is of enormous complexity, and our means of understanding this complex environment are restricted unless we make use of simplified (but not oversimplified) dynamical models with the help of which we can explicate and communicate what we have understood in order to discuss among ourselves how to re-shape reality according to what our simulation models make us believe to be possible. Being both a science and an art, modelling and simulation isrnstill one of the core tools of extended thought experiments, and its use is still spreading into new application areas, particularly as the increasing availability of massive computational resources allows for simulating more and more complex target systems.
In the early summer of 2012, the 26th European Conference on Modelling andrnSimulation (ECMS) once again brings together the best experts and scientists in the field to present their ideas and research, and to discuss new challenges and directions for the field.
The 2012 edition of ECMS includes three new tracks, namely Simulation-BasedrnBusiness Research, Policy Modelling and Social Dynamics and Collective Behaviour, and extended the classical Finance and Economics track with Social Science. It attracted more than 110 papers, 125 participants from 21 countries and backgrounds ranging from electrical engineering to sociology.
This book was inspired by the event, and it was prepared to compile the most recent concepts, advances, challenges and ideas associated with modelling and computer simulation. It contains all papers carefully selected from the large number of submissions by the programme committee for presentation during the conference and is organised according to the still growing number tracks which shaped the event. The book is complemented by two invited pieces from other experts that discussed an emerging approach to modelling and a specialised application. rnrnWe hope these proceedings will serve as a reference to researchers and practitioners in the ever growing field as well as an inspiration to newcomers to the area of modelling and computer simulation. The editors are honoured and proud to present you with this carefully compiled selection of topics and publications in the field.
Die Diskussion zum Thema Mindestlohn ist ein stets aktuelles und findet zur Jahreswende 2011/2012, in der diese Arbeit entstanden ist, von der Politik und Wirtschaft besonders viel Aufmerksamkeit. Die Aktualität dieses Themas und ihre Dynamik werden besonders darin bemerkbar, dass bei der Untersuchung der deutschen Literatur zu diesem Thema viele der Aussagen und Thesen nicht mehr zutreffen. Das eingangs aufgeführte Zitat von der amtierenden Bundesministerin für Arbeit und Soziales, Ursula von der Leyen, bringt zum Ausdruck, dass mittlerweile in der Politik ein Konsens darüber existiert, dass vollzeitbeschäftigte Arbeitnehmer in der Lage sein müssen, ihren Lebensunterhalt aus ihrem Einkommen zu sichern. Dies stellt für die christlich-demokratische Regierungspartei einen Dogmenwechsel dar. Während die CDU in den letzten Jahrzehnten auf die Tarifbindung gesetzt und einen Mindestlohn kategorisch abgelehnt hat, geht sie nun dazu über, Lohnuntergrenzen für alle Branchen zum Ziel ihrer Regierungsarbeit zu machen. Dies ist in starkem Maße darauf zurückzuführen, dass auf dem Arbeitsmarkt in den letzten Jahren die Lohnspreizung, die traditionell in Deutschland niedrig war, eine stark divergente Entwicklung genommen hat.
Ein weiterer Grund ist die abnehmende Rolle der Tarifbindung der letzten Jahre. Die Folge dieser Entwicklungen ist, dass 1,2 Millionen Menschen, somit vier Prozent der Beschäftigten, für Löhne unter fünf Euro. Weitere 2,2 Millionen Menschen arbeiten für Stundenlöhne unter sechs Euro, 3,7 Millionen Menschen verdienen unter sieben Euro und 5,1 Millionen Menschen arbeiten für Löhne unter acht Die Frage inwieweit ein Leben in Würde unter diesen Voraussetzungen möglich ist, beschäftigt große Teile der Gesellschaft. Denn damit sind das Volumen und die Lohnhöhe des Niedriglohnsektors auf ein Niveau gesunken, welche gesellschaftlich und politisch nicht mehr einfach zu vertreten sind. Zur Abwendung dieser Entwicklung wird das wirtschaftspolitische Instrument Mindestlohn, als probates Mittel, häufig in die Diskussion gebracht. So haben in der Vergangenheit viele Staaten den Mindestlohn auf unterschiedliche Art eingesetzt. Die Einführung eines flächendeckenden Mindestlohns in der Bundesrepublik wird vor allem mit den folgenden Zielen befürwortet.
Der Mindestlohn soll zum einen gewährleisten, dass Vollzeitbeschäftigte ein Einkommen erzielen, dass mindestens ihrem soziokulturellen Existenzminimum entspricht. Andererseits soll die Einführung des Mindestlohns die Notwendigkeit des Aufstockens mit dem Arbeitslosengeld II hemmen und somit die öffentlichen Kassen entlasten. Die Gegner des Mindestlohns lehnen die Einführung eines flächendeckenden allgemeinverbindlichen Mindestlohns, vor allem aufgrund arbeitsmarkttheoretischer Überlegungen, kategorisch ab. Diese vertreten die Ansicht, dass die Mechanismen des Arbeitsmarktes eine selbstregulierende Wirkung besitzen und ergänzt um die Tarifautonomie ausreichend geregelt sind. Eine drohende Vernichtung bestehender Arbeitsplätze und eine ausbleibende Schaffung neuer Arbeitsplätze werden als Folge der Einführung von Mindestlohn weiterhin argumentiert.
Hinzu kommt, dass in der Theorie je nach Denkschule und Position eine entgegengesetzte Auswirkung auf den Arbeitsmarkt prognostiziert werden kann. Vor dem Hintergrund der aktuellen Debatte untersucht die vorliegende Arbeit die Auswirkung der Einführung eines Mindestlohns. Um eine objektive Wertung für die vorliegende Problemstellung zu finden, wird mit Hilfe von Netlogo die computergestützte agentenbasierte Simulation benutzt. Anhand eines fiktiven Marktes mit fiktiven Akteuren/"Agenten" wird der Versuch unternommen, eine modellhafte Darstellung des Arbeitsmarktes abzubilden. Insbesondere soll untersucht werden, inwieweit die Einführung eines Mindestlohns, branchenspezifisch oder flächendeckend, den Beschäftigungsgrad und die Höhe der Löhne beeinflusst.
Gartner predicts that 33 per cent of total accesses to Business Intelligence (BI) functionalities will be done until 2013 using mobile devices. While mobile devices have already spread to a high extent in private life they have recently become more and more part of the professional life as well and businesses are seeking to develop smart scenarios on how to integrate the new technologies in their processes. The development of mobile software applications is also booming in the field of BI. The research topic of Mobile Business Intelligence (mBI) is focussing on how to expand traditional BI concepts to the new mobility dimension thus enabling to apply BI functionalities on mobile devices, such as smartphones and tablet computers. The increasing significance of mBI for research in combination with the tremendous economic growth potential forecasted for the next years is the driver for writing this thesis. The main aspect of the present thesis is a concept on how to develop a consistent mBI Strategy aligning all structures, processes and stakeholders to one standard set of goals and guidelines. Crucial points when implementing an mBI strategy are the definition of goals, the identification of risks and opportunities, the adaptation of mBI to the user context, the integration of mBI into the existing IT landscape, as well as a proper set-up of system architectures and security concepts. Besides analyzing the aspect of mBI strategy this thesis also considers the market situation of mBI. Clearly defined goals and the systematic development of a consistent mBI strategy which is in line with these goals can be considered as a crucial prerequisite for companies to successfully implement mBI.
The measurement of the benefits of collaborative technologies is a challenge caused by sociological influences on these systems. In this work, the introduction of a collaborative system into an existing IT environment is examined, so that a value can be identified for the company. The analysis of frameworks has shown that the benefits can be reaped through better management and organization of in-company resources and optimization of the underlying process.
Integration von CRM-Systemen mit Kollaborations-Systemen am Beispiel von DocHouse und Lotus Quickr
(2012)
Der vorliegende Arbeitsbericht "Integration von CRM-Systemen mit Kollaborations-Systemen am Beispiel von DocHouse/ BRM und IBM Lotus Quickr" ist Ergebnis einer studentischen Projektarbeit. Ziel des Projekts war es Integrationsszenarien zwischen einem CRM-System und einem Kollaborati-onssystem zu erarbeiten und eine prototypische Schnittstelle mit entsprechender Funktion zwischen den Systemen DocHouse/ BRM und IBM Lotus Quickr zu implementieren.
Ein besonderer Dank geht in diesem Zusammenhang an Herr Wolfgang Brugger (Geschäftsführer der DocHouse GmbH), der die Idee einer solchen Entwicklung hatte und die FG BAS mit deren Durchführung betraute. Die Erstellung des Konzepts und des Prototyps wurde vom Winter 2010 bis Sommer 2011 von den Studenten Björn Lilge, Ludwig Paulsen, Marco Wolf, Markus Aldenhövel, Martin Surrey und Mike Reuthers im Rahmen ihres Projektpraktikums durchgeführt. Das Projektteam wurde bei der Konzeption und Implementierung inhaltlich und organisatorisch von Dipl.-Wirt.-Inform. Roland Diehl betreut.
Die vorliegende Fallstudie entstand als Untersuchungsobjekt zu einer Bachelorarbeit und wurde nach der eXperience Fallstudienmethodik erstellt. Ziel der Bachelorarbeit war die Identifizierung von Nutzenaspekten in diesem konkreten Fall. Im Anwenderunternehmen DOCHOUSE wurde hier eine Schnittstelle zwischen dem internen CRM-System und einem kollaborativen System für den externen Zugriff eingeführt.
Ein besonderer Dank geht in diesem Zusammenhang an Herr Wolfgang Brugger (Geschäftsführer DOCHOUSE GmbH), der die Erstellung der Fallstudie motiviert hat und die FG BAS mit deren Durchführung betraute. Die Fallstudie wurde im Winter 2011 von dem Studenten Martin Surrey und Roland Diehl, wissenschaftlicher Mitarbeiter der Forschungsgruppe, erhoben.
Large and unknown data sets can be easily and systematically discovered by using faceted search. If implementing applications for smartphones, it needs to be considered that unlike desktop applications you can only use smaller screen sizes and there are limited possibilities for interaction between user and smartphone. These limitations can negatively influence the usability of an application. With FaThumb and MobileFacets, two mobile applications exist, which implement and use faceted search, although only MobileFacets is designed for current smartphones with touchscreen. However, FaThumb provides a novel facet navigation, which is newly realized in MFacets for present smartphones within this work.
Moreover, this work deals with the performance of a summative evaluation between both applications, MFacets and MobileFacets, with regards to usability and presents the evaluated results.
The purpose of this master thesis is to enable the Robot Lisa to process complex commands and extract the necessary information in order to perform a complex task as a sequence of smaller tasks. This is intended to be achieved by the improvement of the understanding that Lisa has of her environment by adding semantics to the maps that she builds. The complex command itself will be expected to be already parsed. Therefore the way the input is processed to become a parsed command is out of the scope of this work. Maps that Lisa builds will be improved by the addition of semantic annotations that can include any kind of information that might be useful for the performance of generic tasks. This can include (but not necessarily limited to) hierarchical classifications of locations, objects and surfaces. The processing of the command in addition to some information of the environment shall trigger the performance of a sequence of actions. These actions are expected to be included in Lisa- currently implemented tasks and will rely on the currently existing modules that perform them.
Nevertheless the aim of this work is not only to be able to use currently implemented tasks in a more complex sequence of actions but also make it easier to add new tasks to the complex commands that Lisa can perform.
Diese Masterarbeit beschreibt und evaluiert die im Rahmen der Arbeit entwickelten Erweiterungen zur Schellings Segregationsimulation. Der Nobelpreisträger Thomas C. Schelling simulierte als erster ab 1969 die Segregation. Die dabei entstandenen Ergebnisse erlaubten eine genauere Analyse der auftretenden Phänomene. Uri Wilensky, Mitarbeiter der "Northwestern University", entwickelte seit 1999 eine Segregationssimulation in NetLogo.
Im Rahmen meiner Masterarbeit habe ich das NetLogo-Model von Uri Wilensky in sechs unterschiedlichen Szenarien weiterentwickelt.
Replikation einer Multi-Agenten-Simulationsumgebung zur Überprüfung auf Integrität und Konsistenz
(2012)
In dieser Master -Arbeit möchte ich zunächst eine Simulation vorstellen, mit der das Verhalten von Agenten untersucht wird, die in einer generierten Welt versuchen zu über leben und dazu einige Handlungsmöglichkeiten zur Auswahl haben. Anschließend werde ich kurz die theoretischen Aspekte beleuchten, welche hier zu Grunde liegen. Der Hauptteil meiner Arbeit ist meine Replikation einer Simulation, die von Andreas König im Jahr 2000 in Java angefertigt worden ist [Kö2000] . Ich werde hier seine Arbeit in stark verkürzter Form darstellen und anschließend auf meine eigene Entwicklung eingehen.
Im Schlussteil der Arbeit werde ich die Ergebnisse meiner Simulation mit denen von Andreas König vergleichen und die verwendeten Werkzeuge (Java und NetLogo) besprechen. Zum Abschluss werde ich in einem Fazit mein Vorhaben kurz zusammenfassen und berichten was sich umsetzen ließ, was nicht funktioniert hat und warum.
This thesis aims to clarify the question of how stakeholders can participate in a project. We discuss methods on how to select the relevant stakeholders from the whole set of the stakeholders and how to involve these stakeholders in the participatory process. The participation process does not only classical methods of participation such as workshops, especially before modern Web 2.0 techniques.
Die wesentliche Zielsetzung der Bachelor-Arbeit war es, entlang der Anforderungen an DMS/WMS aus dem DOMEA-Konzept und aus dem Kommunalen Gebietsrechenzentrum Koblenz (KGRZ) verschiedene Systeme zu evaluieren. Weiteres Ziel war es, ein System, das die Anforderungen am besten erfüllt, zu identifizieren. Entlang der Evaluation wurde exemplarisch der Workflow des KGRZ untersucht, bewertet und ggf. angepasst. Des Weiteren wurde auf die Frage eingegangen, ob ein einheitliches System im Rahmen des Föderalismus nicht nur in Koblenz sondern auch Rheinland-Pfalz weit eingesetzt werden kann, oder ob ämterspezifische Lösungen vorteilhafter sind.
Especially e-government projects have a complex stakeholder structure: governments, businesses, non-profits and private stakeholders in different forms and roles are involved or affected by e-government projects. Consequently, the success of ICT projects critically depends on the integration of different stakeholder groups in the design processes of e-government solutions. In this context, stakeholder participation is sought therefore useful initiatives like open government and good governance drive this process forward. Although it is important to analyze the objectives, expectations and power characteristics of project participants and project stakeholders, the determinations of the stakeholder groups through a so called stakeholder analysis are insufficiently methodically developed.
The aim of this bachelor thesis is to pick up the stakeholder theories, stakeholder participation theories, stakeholder analysis and transfer it to an administrative level as well as to check their applicability. This will be done by explaining and systematizing appropriate procedures for the classification and mapping of stakeholder groups, through well-known stakeholder theories of Freeman, Mitchel and Rowley. In order to generate recommendations for future e-government projects, the application of stakeholder theories in two e-government projects with stakeholder involvement will be reviewed. It is also important to work out how stakeholder groups can be actively involved in the developmental processes in concrete e-government projects by using Web 2.0 possibilities. The role of Web 2.0 applications as an additional channel of communication and participation tool will be presented and evaluated.
The result is a guide, which supports successful participation of stakeholders in projects, by analyzing the process for stakeholder identification, stakeholder grouping and prioritization and showing instructions and benefits for using Web 2.0.
The World Wide Web (WWW) has become a very important communication channel. Its usage has steadily grown within the past. Interest by website owners in identifying user behaviour has been around since Tim Berners-Lee developed the first web browser in 1990. But as the influence of the online channel today eclipses all other media the interest in monitoring website usage and user activities has intensified as well. Gathering and analysing data about the usage of websites can help to understand customer behaviour, improve services and potentially increase profit.
It is further essential for ensuring effective website design and management, efficient mass customization and effective marketing. Web Analytics (WA) is the area addressing these considerations. However, changing technologies and evolving Web Analytic methods and processes present a challenge to organisations starting with Web Analytic programmes. Because of lacking resources in different areas and other types of websites especially small and medium-sized enterprises (SME) as well as non-profit organisations struggle to operate WA in an effective manner.
This research project aims to identify the existing gap between theory, tool possibilities and business needs for undertaking Web Analytic programmes. Therefore the topic was looked at from three different ways: the academic literature, Web Analytic tools and an interpretative case study. The researcher utilized an action research approach to investigate Web Analytics presenting an holistic overview and to identify the gaps that exists. The outcome of this research project is an overall framework, which provides guidance for SMEs who operate information websites on how to proceed in a Web Analytic programme.
The advantage of virtual networks is to test routing-algorithms or distributed software in an easy-to-use, cheap and well-arranged way. Optimized Link State Routing (OLSR) and Babel are two modern routing-algorithms for mobile ad-hoc networks that distinguish faulty links from good link connections in their routing process. Typically virtual networks provide nearly perfect link connections without any network traffic disruptions. The Traffic Control (tc) tool is able to manipulate connections in terms of delay and packet loss.
In this bachelor thesis virtual network scenarios are created with VNUML and Qemu and manipulated with tc in order to analyze the behavior of ad-hoc routing algorithms like Babel and OLSR. The behavior of well-known TCP congestion control algorithms, e.g., TCP Vegas and TCP Reno are analyzed, too.
In this paper, we compare two approaches for exploring large,rnhierarchical data spaces of social media data on mobile devicesrnusing facets. While the first approach arranges thernfacets in a 3x3 grid, the second approach makes use of arnscrollable list of facets for exploring the data. We have conductedrna between-group experiment of the two approachesrnwith 24 subjects (20 male, 4 female) executing the same set ofrntasks of typical mobile users" information needs. The resultsrnshow that the grid-based approach requires significantly morernclicks, but subjects need less time for completing the tasks.rnFurthermore, it shows that the additional clicks do not hamperrnthe subjects" satisfaction. Thus, the results suggest thatrnthe grid-based approach is a better choice for faceted searchrnon touchscreen mobile devices. To the best of our knowledge,rnsuch a summative evaluation of different approaches for facetedrnsearch on mobile devices has not been done so far.
Web-programming is a huge field of different technologies and concepts. Each technology implements a web-application requirement like content generation or client-server communication. Different technologies within one application are organized by concepts, for example architectural patterns. The thesis describes an approach for creating a taxonomy about these web-programming components using the free encyclopaedia Wikipedia. Our 101companies project uses implementations to identify and classify the different technology sets and concepts behind a web-application framework. These classifications can be used to create taxonomies and ontologies within the project. The thesis also describes, how we priorize useful web-application frameworks with the help of Wikipedia. Finally, the created implementations concerning web-programming are documented.
The goal of this Bachelor thesis is to implement and evaluate the "Simulating of Collective Misbelief"-model into the NetLogo programming language. Therefore, the model requirements have to be specified and implemented into the NetLogo environment. Further tool-related re-quirements have to be specified to enable the model to work in NetLogo. After implementation several simulations will be conducted to answer the research question stated above.
In dieser Arbeit wurde die Realisierung einer mobilen Sicherheitslösung für Überwachungszwecke vorgestellt, welche unter Zuhilfenahme des staatlich geförderten Forschungsprojekts CamInSens entwickelt wurde. CamInSens soll erreichen, in überwachten Gefahrenbereichen die erhaltenen Video- und Sensorendaten so zu analysieren, dass Bedrohungen möglichst frühzeitig erkannt und behandelt werden können. Das Ziel dieser Arbeit war, auf Basis von verarbeiteten Daten aus CamInSens eine Interaktion und Visualisierung zu entwickeln, die bei einem späteren Praxiseinsatz mobilem Sicherheitspersonal dabei hilft, in Bedrohungssituationen fundierte Entscheidungen treffen zu können. Zu diesem Zweck wurde nicht nur eine Software implementiert, sondern auch eine Marktsichtung hinsichtlich geeigneter Geräte und einsetzbarer Softwarebibliotheken durchgeführt.
Software projects typically rely on several, external libraries. The interface provided by such a library is called API (application programming interface). APIs often evolve over time, thereby implying the need to adapt applications that use them. There are also reasons which may call for the replacement of one library by another one, what also results in a need to adapt the applications where the library is replaced. The process of adapting applications to use a different API is called API migration. Doing API migration manually is a cumbersome task. Automated API migration is an active research field. A related field of research is API analysis which can also provide data for developing API migration tools.
The following thesis investigates techniques and technologies for API analysis and API migration frameworks. To this end, design patterns are leveraged. These patterns are based on experience with API analysis and migration within the Software Languages Team.
In automated theorem proving, there are some problems that need information on the inequality of certain constants. In most cases this information is provided by adding facts which explicitly state that two constants are unequal. Depending on the number of constants, a huge amount of this facts can clutter the knowledge base and distract the author and readers of the problem from its actual proposition. For most cases it is save to assume that a larger knowledge base reduces the performance of a theorem prover, which is another drawback of explicit inequality facts. Using the unique name assumption in those reasoning tasks renders the introduction of inequality facts obsolete as the unique name assumptions states that two constants are identical iff their interpretation is identical. Implicit handling of non-identical constants makes the problems easier to comprehend and reduces the execution time of reasoning. In this thesis we will show how to integrate the unique name assumption into the E-hyper tableau calculus and that the modified calculus is sound and complete. The calculus will be implemented into the E-KRHyper theorem prover and we will show, by empiric evaluation, that the changed implementation, which is able to use the unique name assumption, is superior to the traditional version of E-KRHyper.
In dieser Ausarbeitung beschreibe ich die Ergebnisse meiner Untersuchungen zur Erweiterung des LogAnswer-Systemsmit nutzerspezifischen Profilinformationen. LogAnswer ist ein natürlichsprachliches open-domain Frage-Antwort-System. Das heißt: es beantwortet Fragen zu beliebigen Themen und liefert dabei konkrete (möglichst knappe und korrekte) Antworten zurück. Das System wird im Rahmen eines Gemeinschaftsprojekts der Arbeitsgruppe für künstliche Intelligenz von Professor Ulrich Furbach an der Universität Koblenz-Landau und der Arbeitsgruppe Intelligent Information and Communication Systems (IICS) von Professor Hermann Helbig an der Fernuniversität Hagen entwickelt. Die Motivation meiner Arbeit war die Idee, dass der Prozess der Antwortfindung optimiert werden kann, wenn das Themengebiet, auf das die Frage abzielt, im Vorhinein bestimmt werden kann. Dazu versuchte ich im Rahmen meiner Arbeit die Interessensgebiete von Nutzern basierend auf Profilinformationen zu bestimmen. Das Semantic Desktop System NEPOMUK wurde verwendet um diese Profilinformationen zu erhalten. NEPOMUK wird verwendet um alle Daten, Dokumente und Informationen, die ein Nutzer auf seinem Rechner hat zu strukturieren. Dazu nutzt das System ein sogenanntes Personal Information Model (PIMO) in Form einer Ontologie. Diese Ontologie enthält unter anderem eine Klasse "Topic", welche die wichtigste Grundlage für das Erstellen der in meiner Arbeit verwendeten Nutzerprofile bildete. Konkret wurde die RDF-Anfragesprache SPARQL verwendet, um eine Liste aller für den Nutzer relevanten Themen aus der Ontologie zu filtern. Die zentrale Idee meiner Arbeit war es nun diese Profilinformationen zur Optimierung des Ranking von Antwortkandidaten einzusetzen. In LogAnswer werden zu jeder gestellten Frage bis zu 200 potentiell relevante Textstellen aus der deutschen Wikipedia extrahiert. Diese Textstellen werden auf Basis von Eigenschaften (wie z.B. lexikalische Übereinstimmungen zwischen Frage und Textstelle) geordnet, da innerhalb des zur Verfügung stehenden Zeitlimits nicht alle Kandidaten bearbeitet werden können.
Mein Ansatz verfolgte das Ziel, diesen Algorithmus durch Nutzerprofile so zu erweitern, dass Antwortkandidaten, welche für den Benutzer relevante Informationen enthalten, höher in der Rangfolge eingeordnet werden. Zur Umsetzung dieser Idee musste eine Methode gefunden werden, um zu bestimmen ob ein Antwortkandidat mit dem Profil übereinstimmt. Da sich die in einer Textstelle enthaltenen Informationen in den meisten Fällen auf das übergeordnete Thema des Artikels beziehen, ohne den Namen des Artikels explizit zu erwähnen, wurde in meiner Implementierung der Artikelname betrachtet, um zu ermitteln, zu welchem Themengebiet die Textstelle Informationen liefert. Als zusätzliches Hilfsmittel wurde außerdem die DBpedia-Ontologie eingesetzt, welche die Informationen der Wikipedia strukturiert im RDF Format enthält. Mit Hilfe dieser Ontologie war es möglich, jeden Artikel in Kategorien einzuordnen, die dann mit den im Profil enthaltenen Stichworten verglichen wurden. Zur Untersuchung der Auswirkungen des Ansatzes auf das Ranking-Verfahren wurden mehrere Testläufe mit je 200 Testfragen durchgeführt. Die erste Testmenge bestand aus zufällig ausgewählten Fragen, die mit meinem eigenen Nutzerprofil getestet wurden. Dieser Testlauf lieferte kaum nutzbare Ergebnisse, da nur bei 29 der getesteten Fragen überhaupt ein Antwortkandidat mit dem Profil in Verbindung gebracht werden konnte. Außerdem konnte eine potentielle Verbesserung der Ergebnisse nur bei einer dieser 29 Fragen festgestellt werden, was zu der Schlussfolgerung führte, dass der Einsatz von Profildaten nicht für Anwendungsfälle geeignet ist, in denen die Fragen keine Korrelation mit dem genutzten Profil aufweisen.
Da die Grundannahme meiner Arbeit war, dass Nutzer in erster Linie Fragen zu den Interessensgebieten stellen, welche sich aus ihrem Profil ableiten lassen, sollten die weiteren Testläufe genau diesen Fall beleuchten. Dazu wurden 200 Testfragen aus dem Bereich Sport ausgewählt und mit einem Profil getestet, welches Stichworte zu unterschiedlichen Sportarten enthielt. Die Tests mit den Sportfragen waren wesentlich aussagekräftiger. Auch hier deuteten die Ergebnisse darauf hin, dass der Ansatz kein großes Potential zur Verbesserung des Rankings hat. Eine genauere Betrachtung einiger ausgewählter Beispiele zeigte allerdings, dass die Integration von Profildaten für bestimmte Anwendungsfälle, wie z.B. offene Fragen für die es mehr als eine korrekte Antwort gibt, durchaus zu einer Verbesserung der Ergebnisse führen kann. Außerdem wurde festgestellt, dass viele der schlechten Ergebnisse auf Inkosistenzen in der DBpedia-Ontologie und grundsätzliche Probleme im Umgang mit Wissensbasen in natürlicher Sprache beruhen.
Die Schlussfolgerung meiner Arbeit ist, dass der in dieser Arbeit vorgestellte Ansatz zur Integration von Profilinformationen für den aktuellen Anwendungsfall von LogAnswer nicht geeignet ist, da vor allem Faktenwissen aus sehr unterschiedlichen Domänen abgefragt wird und offene Fragen nur einen geringen Anteil ausmachen.
A trending topic in Semantic Web research deals with the processing of queries over Linked Open Data (LOD). As has been shown in literature, the loose nature of the "web of data" and data sources within can be accounted for by employing federated query processing strategies. This approach, however, is all the more dependent on both up-to-date statistical summaries (data statistics) of the sources in use and accurate and precise estimation of cardinalities and selectivities. In general, federated data sources are to be seen as black-boxes w.r.t. data statistics, as no interchange of such information can be expected. Because of this, it is possible for individual data statistics to become obsolete, if the corresponding source is subjected to data changes cumulating over time. In this thesis an adaptive system is being proposed, that complements a given RDF-based query federator. Through observation and analysis of the error of the cardinality estimation of incoming queries, it tries to infer the obsolescence of individual data statistics, triggering updates of data statistics found to be obsolete. An evaluation of the system shows, that the approach to this solution is plausible. Yet, in practice no satisfying results could be acquired, that would prove a true practicality. Still, parts of the system proposed may be re-used for related tasks that could be more promising.
Ziel dieser Diplomarbeit ist es, innerhalb von sechs Monaten eine gamebasierte Anwendung für Android-Smartphones zu entwickeln, die durch eng beieinander liegende Stationen historisches Wissen vermittelt. Die einzelnen Spielstationen sollen mit Hilfe von GPS1-Positionen festgelegt und erkannt werden. Als Gelände wurde die Burgruine Reichenstein in der Verbandsgemeinde Puderbach im Westerwald ausgewählt. Es soll untersucht werden, wie viele GPS-Stationen auf engem Raum unterzubringen sind und wie weit sie voneinander entfernt sein müssen, um gute Ergebnisse erzielen zu können. Dazu ist es nötig, sowohl den Grundriss der Burg als auch die Beschaffenheit des Geländes mit einzubeziehen.
An den einzelnen Stationen sollen auf spielerische Art und Weise historische Informationen über die Burgruine Reichenstein vermittelt werden. Neben der Recherche, der Konzepterstellung und der Implementierung umfasst diese Arbeit auch eine Evaluation, die eine Bewertung der Anwendung ermöglicht.
Robotics research today is primarily about enabling autonomous, mobile robots to seamlessly interact with arbitrary, previously unknown environments. One of the most basic problems to be solved in this context is the question of where the robot is, and what the world around it, and in previously visited places looks like " the so-called simultaneous localization and mapping (SLAM) problem. We present a GraphSLAM system, which is a graph-based approach to this problem. This system consists of a frontend and a backend: The frontend- task is to incrementally construct a graph from the sensor data that models the spatial relationship between measurements. These measurements may be contradicting and therefore the graph is inconsistent in general. The backend is responsible for optimizing this graph, i. e. finding a configuration of the nodes that is least contradicting. The nodes represent poses, which do not form a regular vector space due to the contained rotations. We respect this fact by treating them as what they really are mathematically: manifolds. This leads to a very efficient and elegant optimization algorithm.
Augmented Reality bedeutet eine reale Umgebung mit, meistens grafischen, virtuellen Inhalten zu erweitern. Oft sind dabei die virtuellen Inhalte der Szene jedoch nur ein Overlay und interagieren nicht mit den realen Bestandteilen der Szene. Daraus ergibt sich ein Authentizitätsproblem für Augmented Reatliy Anwendungen. Diese Arbeit betrachtet Augmented Reality in einer speziellen Umgebung, mit deren Hilfe eine authentischere Darstellung möglich ist. Ziel dieserArbeitwar die Erstellung eines Systems, das Zeichnungen durch Techniken der Augmented Reality mit virtuellen Inhalten erweitert. Durch das Anlegen einer Repräsentation soll es der Anwendung dabei möglich sein die virtuellen Szeneelementemit der Zeichnung interagieren zu lassen. Dazu wurden verschiedene Methoden aus den Bereichen des Pose Tracking und der Sketch Recognition disktutiert und für die Implementierung in einem prototypischen System ausgewählt. Als Zielhardware fungiert ein Android Smartphone. Kontext der Zeichnungen ist eine Dungeon Karte, wie sie in Rollenspielen vorkommt. Die virtuellen Inhalte nehmen dabei die Form von Bewohnern des Dungeons an, welche von einer Agentensimulation verwaltet werden. Die Agentensimulation ist Gegenstand einer eigenen Diplomarbeit [18]. Für das Pose Tracking wurde ARToolkitPlus eingesetzt, ein optisches Tracking System, das auf Basis von Markern arbeitet. Die Sketch Recognition ist dafür zuständig die Inhalte der Zeichnung zu erkennen und zu interpretieren. Dafür wurde ein eigener Ansatz implementiert der Techniken aus verschiedenen Sketch Recognition Systemen kombiniert. Die Evaluation konzentriert sich auf die technischen Aspekte des Systems, die für eine authentische Erweiterung der Zeichnung mit virtuellen Inhalten wichtig sind.
In the period between 1985 and 1994 ethnic conflicts had a part for more than 50% of the total number of conflicts. Oftentimes, conflicts may arise between different ethnic groups or between one ethnic group and the state. The reasons for this are varied in ranging from social deprivation to the threat of collective identity. An essential key role is played by the political elite, which takes advantage of political and economic crises in order to mobilize certain ethnic groups.
This thesis attempts to investigate such ethnic conflicts on the case of former Yugoslavia, focusing in particular on the role of the political elite. For this purpose, the approach of an agent-based simulation is been followed. The agent-based model, which is carried by ArcGIS, EmIL and Repast allows a thorough investigation of such conflicts. The main feature lies in the ability of agents to be able to develop a normative behavior, so that compex social behaviors can be simulated.
This Thesis deals with the state of Customer Relationship Management (CRM) in companies and the opportunities that are offered by these. The motivation for this thesis results from the request to classify the value of CRM. Furthermore, we want to do a research on how far a CRM-System is able to support and improve company processes. In addition, we want to get an overview of possible conditions that are linked with such a system. For the use case the motivation follows from the opportunity to optimize inefficient processes. As a result, this thesis tries to present perspectives which can improve company processes; moreover conduce to a bigger value creation.
This thesis covers in detail with customer-related processes of the company Alere and its quality in terms of the prospective implementation of a CRM-System. As there are only a few standard requirements for the processes, it is not possible to make a statement about process quality. These circumstances need a tool that is able to fulfil specified requirements. This gap shall be closed by a CRM-System. If we want to close this gap efficiently we first have to research the actual customer-related processes with the aim to specify the new system requirements.
The thesis shall deliver an insight into the topic with the goal to show the advantages of a CRM-System. Additionally, the identification of weak points, based on the use case and the motivation follows. With these data we will optimize the customer-related processes based on the CRM-System functions. Several departments of the company have contact with the customers. Because of this fact the focus lies on documentation, central data storage and loss-free communication between customers and staff and among the staff. The thesis shall deliver different results. First of all, a catalogue of requirements for the customer-related processes which bases on the basics.
Furthermore, the modelling of the customer-related processes. In addition a catalogue of the weak points of the customer related processes and after that a specification of requirements for the CRM-System to optimize the customer-related processes.
Finally the thesis shall generate the modelling of the optimized customer-related processes. The last result the thesis shall deliver is the discussion and conclusion.
Only little information is available about the diffusion of cloud computing in German higher educational institutions. A better understanding of the state of the art in this field would support the modernization of the higher educational institutions in Germany and allow the development of more adequate cloud products and more appropriate business models for this niche. For this purpose, a literature research on Cloud Computing and IT-diffusion will be run and an empirical investigation with an online questionnaire addressed to higher educational institutions in Germany will be performed to illustrate the state of the art of Cloud Computing in German higher educational institutions as well as the threats and opportunities perceived by employees of higher educational institutions data centers connected to the usage of the cloud.
In addition to that, different experts from universities and businesses will be interviewed to complete the knowledge and information collected through the online questionnaire and during the research phase. The expected results will serve to create a recommendation for higher educational institutions in Germany about either they should migration to the cloud or not and introduce a list of guiding questions of critical issues to consider before using cloud-computing technologies.
Diese Arbeit beschreibt einen Ansatz zur webbasierten und GPU-unterstützten medizinischen Visualisierung. Der Schwerpunkt liegt auf der client-seitigen Ausführung von direktem Volumen-Rendering mittels WebGL und der Übertragung von medizinischen Datensätzen von Server zu Client. Die Motivation dieser Arbeit liegt vor allem in den neuesten Entwicklungen von Webtechnologien begründet, da es bisher nicht möglich war hardwarebeschleunigte 3D-Grafik direkt im Webbrowser darzustellen. Erst seit der Entwicklung der 3D-Grafik-Programmierschnittstelle WebGL besteht die Möglichkeit GPU-unterstütztes Volumenrendering im Browser-Kontext ohne den Einsatz zusätzlicher Software zu realisieren. Es wird ein webbasiertes Volumenrendering-System vorgestellt, das die Umsetzung von Volumen-Raycasting mit WebGL zur direkten Darstellung von Volumendaten in Echtzeit behandelt. Für die technische Umsetzung wurden das Google Web Toolkit und die Google App Engine als Infrastruktur verwendet.
Software integration is an engineering task where image-based approaches are still considered slow and error-prone. In this thesis, we apply image-based software integration to the domain of online Poker systems. That is, we implement the poker expert system PokerBot which can play online. We use the method of screen scraping to capture the screen information needed to interact with the Poker server. The consequent use of Template Matching leads to an efficient implementation. Substantial e ort was also addressed to the artificial intelligence aspects of PokerBot. The purpose of AI is here to mimic human playing style by translating a well-documented Pokerguide into formalized, executable language.
This thesis deals with the distribution of large virtual networks to multiple physical hosts using the virtualization tools VNUML and EDIV. While VNUML is responsible for simulating the network, EDIV has its focus primarily on the distributiion. After a short explanation of basic terms and concepts from the field of network simulation, the two previously mentioned virtualization tools are described in detail. This starts in both cases with a detailed description regarding the proper installation and configuration, followed by a demonstration of the most important functions, such as starting or stopping a simulation. The creation of a suitable network scenario and the information scripts provided by EDIV are two further points described in this context. To use the presented possibilities of those tools in practice, an own network scenario is designed and distributed to several hosts, so that the different functions of EDIV can be shown and described accurately.
Due to the incorrect allocation management and the continuous increase of internet-capable devices, IPv4-adresses are nearly exhausted. For this reason and because of new requirements demanded by the technique of the internet the IPv6-protocol has been developed. The IPv6-protocol provides a larger adress space and will gradually replace the IPv4-protocol. However, the routing-protocols have to be adapted to the new internetprotocol. This paper will introduce and analyse the dynamic Routing-Information-Protocol RIPng which in itself is an inter-gateway protocol (IGP). The routers inside the network can exchange information about their different connections over this protocol. Furthermore, this paper will explain the basics of the IPv6-protocol, of the used protocol-algorithm as well as of the RIPv2-protocol. In the practical part of the paper the Counting-to-Infinity-Problem and some attributes of RIPng will be reviewed under the IPv6-protocol.
In this thesis we exercise a wide variety of libraries, frameworks and other technologies that are available for the Haskell programming language. We show various applications of Haskell in real-world scenarios and contribute implementations and taxonomy entities to the 101companies system. That is, we cover a broad range of the 101companies feature model and define related terms and technologies. The implementations illustrate how different language concepts of Haskell, such as a very strong typing system, polymorphism, higher-order functions and monads, can be effectively used in the development of information systems. In this context we demonstrate both advantages and limitations of different Haskell technologies.
Die Arbeit zeigt die Entwicklung einer virtuellen Welt als Facebook App. Grundlage bietet hierfür ein Szenengraph, der an die Anforderungen der virtuellen Welt angepasst wurde. Bei der Entwicklung liegt ein Schwerpunkt auf neuer und zum Teil noch experimenteller Web-Technologie (Google Web Toolkit, Google App Engine). In der virtuellen Welt schlüpft der Benutzer in die Rolle eines Avatars. Er kann Räume seiner Facebook-Freunde besuchen, seinen eigenen Raum gestalten und neue 3D-Modelle für den Avatar oder die Inneneinrichtung in die virtuelle Welt hochladen.
Diese Diplomarbeit beschreibt die Entwicklung einer Web Service orientierten Umgebung zur Verarbeitung von Pegeldaten mehrerer Gewässer in Zusammenarbeit mit der Bundesanstalt für Gewässerkunde (BfG). Sie dokumentiert den gesamten Entwicklungsablauf und gibt eine Einführung in die verwendeten Technologien. Für XHydro, ein Austauschformat zum wirtschaftlichen und organisationsübergreifenden Austausch von Zeitreihen, wird zusätzlich eine Bewertung des Systems inklusive Verbesserungsvorschlägen gegeben.
Echtzeitsysteme spielen in der heutigen Zeit in vielen Anwendungsbereichen eine bedeutende Rolle. Beispiele hierfür finden sich in der Robotik, der Fabrikautomation, der Medizintechnik, aber auch in Bereichen aus dem täglichen Leben, wie im Automobilbereich oder in der Mobilkommunikation. Trotz der ständig wiederkehrenden Begegnung mit ihnen im Alltag, sind Echtzeitsysteme häufig innerhalb von größeren Systemen eingebettet und können somit nur selten vom jeweiligen Nutzer bewusst als eigenständig wahrgenommen werden.
Um spezifische Eigenschaften des Gebiets Echtzeitsysteme im Schulunterricht oder in der Ausbildung an Hochschulen den Lernenden sichtbar zu machen, existiert im Labor der Arbeitsgruppe Echtzeitsysteme der Universität Koblenz-Landau ein Versuchsaufbau mit dem Namen "Wippe", bei dem eine Kamera die Bewegung einer Kugel auf einer ebenen Fläche aufnehmen und vermessen kann. Durch die Neigung der Fläche in zwei Achsen ist die Wippe prinzipiell in der Lage, die Kugel zu bewegen und zum Halten zu bringen. Insbesondere soll verhindert werden, dass die Kugel von der Fläche fällt. Die vorliegende Arbeit beschäftigt sich mit der Analyse und Überarbeitung des Wippe-Systems. Außerdem wird ein Regelalgorithmus für eine automatische Steuerung des Systems realisiert.
Das Wippe-Experiment soll für didaktische Zwecke eingesetzt werden und ein offenes System darstellen, welches die Merkmale und Eigenschaften eines Echtzeitsystems exemplarisch verdeutlicht.
Distance vector routing protocols are interior gateway protocols in which every router sets up a routing table with the help of the information it receives from its neighboring routers. The routing table contains the next hops and associated distances on the shortest paths to every other router in the network. Security mechanisms implemented in distance vector routing protocols are insufficient. It is rather assumed that the environment is trustworthy. However, routers can be malicious for several reasons and manipulate routing by injecting false routing updates. Authenticity and integrity of transmitted routing updates have to be guaranteed and at the same time performance and benefits should be well-balanced.
In this paper several approaches that aim at meeting the above mentioned conditions are examined and their advantages and disadvantages are compared.
QEMU ist eine Open-Source Virtualisierungssoftware, durch die Computersysteme simuliert werden können. Durch VDE (Virtual Distributed Ethernet) ist es möglich, mehrere durch QEMU virtualisierte Computer miteinander zu verbinden und so ein virtuelles Netzwerk zu erzeugen. Mithilfe von Virtualisierung können Netze zum Testen von Netzwerkanwendungen und -protokollen erzeugt werden, deren Aufbau oder Nutzung ohne Virtualisierung impraktikabel oder schlicht unerschwinglich wäre. Ziel dieser Arbeit ist es, ein Programm zu entwickeln, welches eine in einer Szenario-Datei hinterlegte Netzwerktopologie mit QEMU und VDE-Switches aufbauen kann. Es soll ein Vergleich angestellt werden zwischen Netzen, die mit QEMU aufgebaut wurden und solchen, die über VNUML aufgebaut wurden.
Cloud Computing is a topic that has gained momentum in the last years. Current studies show that an increasing number of companies is evaluating the promised advantages and considering making use of cloud services. In this paper we investigate the phenomenon of cloud computing and its importance for the operation of ERP systems. We argue that the phenomenon of cloud computing could lead to a decisive change in the way business software is deployed in companies. Our reference framework contains three levels (IaaS, PaaS, SaaS) and clarifies the meaning of public, private and hybrid clouds. The three levels of cloud computing and their impact on ERP systems operation are discussed. From the literature we identify areas for future research and propose a research agenda.
This paper describes results of the simulation of social objects, the dependence of schoolchildren's professional abilities on their personal characteristics. The simulation tool is the artificial neural network (ANN) technology. Results of a comparison of the time expense for training the ANN and for calculating the weight coefficients with serial and parallel algorithms, respectively, are presented.
An estimation of the number of multiplication and addition operations for training artififfcial neural networks by means of consecutive and parallel algorithms on a computer cluster is carried out. The evaluation of the efficiency of these algorithms is developed. The multilayer perceptron, the Volterra network and the cascade-correlation network are used as structures of artififfcial neural networks. Different methods of non-linear programming such as gradient and non-gradient methods are used for the calculation of the weight coefficients.
Identifying reusable legacy code able to implement SOA services is still an open research issue. This master thesis presents an approach to identify legacy code for service implementation based on dynamic analysis and the application of data mining techniques. rnrnAs part of the SOAMIG project, code execution traces were mapped to business processes. Due to the high amount of traces generated by dynamic analyses, the traces must be post-processed in order to provide useful information. rnrnFor this master thesis, two data mining techniques - cluster analysis and link analysis - were applied to the traces. First tests on a Java/Swing legacy system provided good results, compared to an expert- allocation of legacy code.
This paper describes a parallel algorithm for selecting activation functionsrnof an artifcial network. For checking the efficiency of this algorithm a count of multiplicative and additive operations is used.
To meet the growing demands in the automotive industry, car manufacturers constantly reduce the depth of production and shift value-adding processes to the suppliers. This requires that companies work together more closely and promotes the creation of complex logistics networks. To meet the requirements for information exchange, a consortium of automobile manufacturers launched the project RFID-based Automotive Network (RAN) in 2009. The initiative aims at creating a standardized architecture for efficient material flow management along the entire supply chain. Core component of this architecture is the Informationbroker, an information unit which automatically communicates data which is captured via Auto-ID technology to supply chain participants. The thesis focuses in cooperation with the IBS AG, a software company and consortium partner in the project, on the exchange of goods data.
At first, theoretical foundations are presented by describing the characteristics of a supply chain and explaining standardization efforts and related processes. The chapter on the supply chain focuses on trends in the automotive industry to create a link to the project. The topic of standardization provides in-depth information on electronic data exchange standards in order to additionally create a transition to the Informationbroker concept. In the analytical part, reference projects will be presented with a similar problem and set in relation to RAN. According to project documents, system requirements will be defined and models will be created in order to illustrate the problem. Rich Pictures are used to describe the basis and target state.
Based on these models, the flow of goods related data is depicted between two companies and the role of the Informationbroker for the information exchange is clarified. The thesis aims at establishing an understanding of the challenges of the project and how the proposed concepts of the initiative can lead to an optimization of an automotive supply chain.
MapReduce with Deltas
(2011)
The MapReduce programming model is extended slightly in order to use deltas. Because many MapReduce jobs are being re-executed over slightly changing input, processing only those changes promises significant improvements. Reduced execution time allows for more frequent execution of tasks, yielding more up-to-date results in practical applications. In the context of compound MapReduce jobs, benefits even add up over the individual jobs, as each job gains from processing less input data. The individual steps necessary in working with deltas are being analyzed and examined for efficiency. Several use cases have been implemented and tested on top of Hadoop. The correctness of the extended programming model relies on a simple correctness criterion.
The RoboCup Rescue League was founded with the intention to serve as an international communication platform for development of rescue robots. In regions hit by catastrophes, those robots are meant to find buried people, detect their physical condition and send the proper information to rescue teams.
At the university of Koblenz the rescue robot "Robbie" has been in development for years. Robbie accumulates information about his environment by targeted control of sensors and can act autonomous in unknown regions with help of the previous collected data. He creates an internal 2D map of his environment. This map provides enough information to navigate through space and to localize himself. Unfortunately, 2D maps have a huge drawback. When confronted with uneven terrain or even multilayered disaster areas, this technique will meet its limitations. Considered that most afflicted areas will probably have a bumpy ground, it is important to improve this technique.
That is why 3D-mapping is being required. With the help of RoboCup Rescue Scenario this Bachelor Thesis is going to implement a 3D-mapping algorithm and evaluate the flaws of 2D- and 3D-mapping problems thoroughly.
In diesem Arbeitsbericht werden zuvor nicht identifizierte Bedrohungen bezüglich des Wahlgeheimnisses des in [BKG11] vorgeschlagenen Konzeptes zur Authentifizierung von Wählern bei elektronischen Wahlen mittels des neuen Personalausweises aufgezeigt. Überdies wird mit der Einführung einer zwischengelagerten Anonymisierungsschicht eine Lösung vorgeschlagen, wie eben diese Bedrohungen abgewehrt werden können.
Expert-driven business process management is an established means for improving efficiency of organizational knowledge work. Implicit procedural knowledge in the organization is made explicit by defining processes. This approach is not applicable to individual knowledge work due to its high complexity and variability. However, without explicitly described processes there is no analysis and efficient communication of best practices of individual knowledge work within the organization. In addition, the activities of the individual knowledge work cannot be synchronized with the activities in the organizational knowledge work.rnrnSolution to this problem is the semantic integration of individual knowledgernwork and organizational knowledge work by means of the patternbased core ontology strukt. The ontology allows for defining and managing the dynamic tasks of individual knowledge work in a formal way and to synchronize them with organizational business processes. Using the strukt ontology, we have implemented a prototype application for knowledge workers and have evaluated it at the use case of an architectural fifirm conducting construction projects.
Planning routes for trucks with a trailer is a complex procedure. In order to simplify this process, a route is segmented into elementary components, which represents basic motions of the considered vehicle. These elementary components are called maneuvers and are composed of two party. First, paths are constructed for certain reference points. Second, the vehicle is enclosed by a corridor during the execution of a maneuver. The paths of the vehicle have to take driveability into consideration. They must respect the kinematic constraints of the vehicle. The maneuver corridor can be used as a basis to guarantee collision-free motion planing. No part of the vehicle leaves the corridor during the maneuver. There are different types of maneuvers. Currently, the bending maneuver, the cusp maneuver and the straight line maneuver can be distinguished. In addition, a maneuver can be created with two different construction methods, the conventional and the iterative method.
In this thesis, a data structure to construct a maneuver is designed and implemented. The data structure is integrated into an already existing tool. The user can interact with the software to adjust various parameters of a maneuver. Afterwards the maneuver is generated based on these parameters. This also includes a visualization within the software, which can plot the parts of a maneuver. The visualization can be exported to an image file.
Ziel dieser Arbeit ist es, eine Anwendung für ein Augmented Reality Fernrohr zu entwickeln, die verschiedene Interaktions- und Explorationsmöglichkeiten umsetzt. Darüber hinaus sollen Erkenntnisse über den Einfluss auf die Vermittlung von Wissen gewonnen werden. Dafür soll innerhalb von sechs Monaten neben der Einarbeitung in die verschiedenen Themengebiete, dem Entwurf eines Konzepts und der Implementierung der Anwendung auch eine gründliche Evaluation durchgeführt werden. Da der Standort des Fernrohrs im Rahmen der Bundesgartenschau 2011 [BUG] in Koblenz am Rheinufer in der Nähe der Talstation der Seilbahn ist, bietet es sich an die Festung Ehrenbreitstein in den Fokus zu setzen. Dabei soll vor allem die Festungsarchitektur im Mittelpunkt stehen. Die Anwendung soll dem Benutzer einen Überblick über die Festungsanlagen geben und nebenbei auch einige geschichtliche Fakten vermitteln.
Um die verschiedenen Anforderungen und die damit verbundenen Aufgaben zu erfüllen und strukturiert zu erarbeiten, wurde vor Beginn der Arbeit ein Projektplan erstellt, der die 6 Monate in fünf verschiedenen Phasen unterteilt, die jeweils mit Meilensteinen enden. Die Phase soll die Einarbeitung in die Grundlagen, die Entwicklung des Konzepts und die softwaretechnische Planung umfassen. Die nächste Phase beschäftigt sich mit der Präevaluation, die genaueren Aufschluss über die Qualität des entwickelten Konzepts geben soll. Im Anschluss an die Auswertung der Präevaluation kommt die erste Implementierungsphase, die mit einem Prototypen abschließen soll. Im zweiten Implementierungsschritt sollen dann die grafischen Inhalte erstellt und die prototypische Anwendung mit Inhalten gefüllt werden.
Zum Abschluss des Projekts wird eine Evaluation durchgeführt, die Erkenntnisse über den Einfluss von Augmented Reality auf die Vermittlung von Wissen liefern soll.
In this study, the author evaluates four visualization methods (FlexViz, the Jambalaya applet, Experimental jOWL TouchGraph, and Plone ontology) from the pool of currently available web based visualization methods.
Further, this study attempts to answer of the following research questions: 1. What are the requirements for ontology visualization? 2. How is comparative analysis and evaluation carried out? 3. How can a chosen method be tested? Based on the results of the evaluation, the visualization method FlexViz was found to be the most suitable for the given scenario. The deployment of FlexViz was carried out and integrated within Plone CMS and logical parts of the VCD ontology are tested. Finally, FlexViz was analyzed from different stakeholder- perspectives. Results showed that FleViz is a reliable tool for visualizing, understanding and analyzing a developed ontology because of its user-friendly and interactive interface, but performs poorly in regards to the editing, extension and development process.
Der neue Personalausweis bietet mit der eID-Funktion die Möglichkeit sich online gegenüber anderen auszuweisen. Dafür ist eine Software notwendig, die auf dem lokalen Computer installiert ist. Diese Arbeit zeigt eine mögliche Vorgehensweise beim Entwurf und der Implementierung der notwendigen Funktionen solch einer Software.
API migration refers to the change of a used API to a different API in a program. A special case is called wrapper-based API migration. The API change is done without touching the program but the old API is reimplemented by means of the from now on used one. This so called wrapper has the interface of the reimplemented API but uses the implementation of the new one.
This is an interesting approach because the wrapper can be used in each program, which uses the old API.
To make this approach reproducible we study a ranking-based method for implementing a wrapper, where we always implement the method with the highest priority depending on failing test cases. Thus, we can reconstruct each implementation step.
We first develop an infrastructure to run and log test suites of Java projects that use an API, which we want to change.
We then build a wrapper for a given API using the ranking-based approach.
Das Zeitfenster ab 1964 bis heute verzeichnet einen Geburtenrückgang. Diese Tatsache hat insofern negative Auswirkung, als dass es für die sozialen Sicherungen Gefahren birgt, nicht mehr finanziert werden zu können. Des Weiteren ist über einen langen Zeitraum mit einem Fachkräftemangel zu rechnen, sollte sich der Geburtenrückgang weiterhin fortsetzen.
In dieser Ausarbeitung wird der Zusammenhang zwischen dem Bildungsgrad der Frau und dem Anteil kindeloser Frauen und der Anzahl an Kindern untersucht. Sollte dabei ein Zusammenhang bestehen, so müssten vor allem Akademikerinnen den höchsten Anteil an Kinderlosigkeit und die niedrigste Kinderzahl je Frau aufweisen. Im Umkehrschluss müssten Frauen mit Hauptschulabschluss oder Frauen ohne Schulabschluss die niedrigsten Anteile an Frauen ohne Kinder und die höchsten Zahlen an Kindern je Frau vermelden.
Das Ziel dieser Bachelorarbeit ist es ein Schätzkonzept zu validieren, das im Rahmen eines Projektes auf der Universität Koblenz-Landau entwickelt wurde, um den Anteil kinderloser Frauen und die Anzahl an Kindern je Frau zu schätzen
Im Vergleich zu herkömmlicher Computergrafik (perspektivische Projektion) bietet Raytracing entscheidende Vorteile, die hauptsächlich in der vergleichsweise hohen physikalischen Korrektheit der Methode begründet sind. Die Schwächen liegen hingegen im immensen Rechenaufwand.
Ein Raytracer ist vergleichsweise so rechenintensiv, weil für jeden Pixel mindestens ein Strahl verschickt werden muss. Dieser muss gegen alle Objekte im Raum geschnitten werden. Hinzu kommen noch die Strahlen, die entstehen, wenn Strahlen an Objekten reflektiert werden (Rekursion). Um diesen Rechenaufwand zu verkleinern und zusätzlich ein besseres Bild zu erzeugen, soll der adaptive Sampler den Raytracer unterstützen. Der adaptive Sampler soll während des Rendervorgangs den progressiven Fortschritt in der Bildgenerierung beobachten und Pixel von der weiteren Berechnung ausschließen, für die sich ein zusätzliches Verschießen von Strahlen nicht mehr lohnt.
Anders als der rein progressive Raytracer hört der adaptive Sampler mit dem Konvergieren des Bildes auf zu rechnen. Der adaptive Sampler soll so dafür sorgen, dass schneller ein besseres Bild erzeugt wird und somit die Performanz gesteigert wird. Insgesamt erwartet man sich vom adaptiven Sampler Vorteile bei der Berechnung von bestimmten Szenen. Unter anderem eine Verbesserung bei Szenen mit rein diffus beleuchteten Bildbereichen, sowie eine Verbesserung bei Szenen mit unterschiedlich rechenintensiven Bildbereichen. Ein normaler Raytracer kann nicht beurteilen, wie sinnvoll seine Schüsse sind. Er kann nur mehr Strahlen verschießen, in der Hoffnung, das Bild damit effektiv zu verbessern.
Es gibt jedoch viele Szenarien, bei denen eine linear steigende Schussanzahl pro Pixel keine gleichmäßige Verbesserung im Bild erzeugt. Das bedeutet, dass Bereiche im Bild schon gut aussehen, während andere noch sehr verrauscht sind. Man möchte nun Bildbereiche, die bereits konvergiert sind, in denen sich ein weiterer Beschuss also nicht mehr bemerkbar macht, ausschließen und die Rechenleistung dort nutzen, wo man sie noch braucht.
Wichtig dabei ist, dass Pixel nicht ungewollt zu früh von der Berechnung ausgeschlossen werden, die nicht weit genug konvergiert sind. Der adaptive Sampler soll so lange arbeiten, bis jeder Pixel dauerhaft keine Änderungen mehr vorweist. Das bedeutet, dass die Wahrscheinlichkeit für eine signifikante Farbänderung eines Pixels durch Verschießen eines Strahls (bei mehreren Lichtquellen in RenderGin mehrere Strahlen pro Pixel) klein genug ist. Es wird zwar intern keine Wahrscheinlichkeit berechnet, jedoch bekommt der Raytracer eine Art Gedächtnis: Er speichert die Veränderungen im beleuchteten Bild und deren Verlauf in eigenen Gedächtnisbildern. Das "Gedächtnis" für das alte Bild (Zustand des Bildes in der letzten Iteration über die Pixel) repräsentiert dabei das Kurzzeitgedächtnis. Es ist absolut genau. Das Langzeitgedächtnis wird von drei verschiedenen Bildern repräsentiert. Das erste gibt die Anzahl der verschossenen Strahlen pro Pixel an. Das zweite ist ein Wahrheitswertebild, das für jeden Pixel angibt, ob dieser noch in die Berechnung einbezogen werden soll. Das dritte Bild gibt an, wie oft jeder Pixel eine Farbänderung vollzogen hat, die geringer ist als der geforderte Maximalabstand eines Pixels zu sich selbst (vor und nach dem Verschießen eines weiteren Strahls).
Mit diesen drei Bildern ist es möglich, zusätzliche quantitative Informationen zu den qualitativen Informationen des Vergleichs vom neuen und alten Bild zu berücksichtigen.
In dieser Arbeit kläre ich die Frage, ob die gewünschten Effekte eintreten und ob bei Integration in die bestehende Struktur von RenderGin ein Performanzgewinn möglich ist. Die Umsetzung eines adaptiven Samplers ist als Plug-In in der Software RenderGin von Numenus GmbH geschehen. RenderGin ist ein echtzeitfähiger, progressiver Raytracer, der sich durch seine Performanz auszeichnet. Die Bildgenerierung geschieht allein auf der CPU, die Grafikkarte wird lediglich zur Anzeige des erzeugten Bildes benötigt.
Die Umsetzung und Programmierung des Plug-Ins ist in Microsoft Visual Studio 2010 geschehen unter Verwendung des RenderGin SDK der Numenus GmbH.
Potential vermögender Kunden
(2011)
This bachelor thesis deals with the potential of wealthy clients in the private banking sector, as well as with financial services offered in this domain. For this purpose a comparison of the international potential in the German-speaking world was conducted which was ascertained with the help of statistical series.
The reference period for this comparison extends over thernyears from 2000 to 2009. Especially in this time period one was able to notice capital restructuring due to the finance crisis and its impacts. The results out of the analysis of the changing potential are then used to find possibilities of reorganizing offered financial services in the private banking sector. While doing so, the achievement of a high service level has the highest priority as this is the main reason for customers to remain with a certain bank. In addition to that this thesis also mentions new possibilities concerning the banking sector as well as consequences of different models of consultant payments.
Im Rahmen dieser Abschlußarbeit wurde ein Plugin zur Visualisierung/Simulation von Public-Key-Infrastrukturen für die Kryptographie-Lernsoftware JCryp-Tool entwickelt und implementiert. Public-Key-Infrastrukturen stellen einen Bereich in der Kryptographie dar, mit dem viele Anwender von IT-Systemen in Berührung kommen.
Terrainklassifikation mit Markov-Zufallsfeldern auf Basis von fusionierten Kamera- und Laserdaten
(2011)
A mobile system, that has to navigate automatically in an outdoor environment,rnneeds to have knowledge about its surrounding terrain. Laser-range-finders, sometimes combined with cameras, are often used to analyse terrain. Several problems, like missing or noisy data, lead to erroneous identification of environment.
The target of this work is to add a context-sensitive classification component and data of other sensors to a procedure, based on 3d-data, obtained by a laser-range-finder. The first upgrade consists of a Markov Random Field, which is used to model the relationships between neighbouring terrainsegments and allows a segmentation of the whole terrain.
The second upgrade fuses laserdata with pictures from cameras to obtain additional terrainfeatures.
In the "Institut MTI Mittelrhein" the impact of training and experience on motion and motion planning in sports is examined. As a part of these investigations, the motion behaviour of a sports climber is analyzed on a sports climbing wall. The aim of this thesis is the segmentation and marker-based detection of the movement of a climber in video recordings. The segmented markers from each image are tracked by a tracking procedure over time. The motion tracks will be exported to the motion analysis software Simi Motion in a format suitable for further analysis.
In this diploma thesis a skeleton-based matching technique for 2D shapes is introduced. First, current approaches for the matching of shapes will be presented. The basics of skeleton-based matchings will be introduced. In the context of this thesis, a skeleton-based matching approach was implemented as presented in the original paper. This implementation is evaluated by performing a similarity search in three shape databases. Strengths and limitations of the approach are pointed out. In addition, the introduced algorithm will be examined with respect to extending it towards matching of 3D objects. In particular, the approach is applied to medical data sets: Pre- and postoperative CT images of the abdominal aorta of one patient will be compared. Problems and approaches for matching of 3D objects in general and blood vessels in particular will be presented.
This bachelor thesis deals basically with the design and the implementation of a data structure describing maneuvers for car-like robots. This data structure affords planning feasible routes which admit a continuous modification of the steering angle.
The focus of this thesis rests on turn maneuvers, which consist of two clothoid arcs and one circular arc. One of the key aspects is the design of a concept for creating a corridor for these maneuvers. A corridor shall enclose the area which the vehicle covers during the corresponding maneuver. It finally provides a basis to guarantee collision freedom. Furthermore, a planning module is designed and implemented within this bachelor thesis. Based on specified construction lines, the planning module creates feasible routes made up of maneuvers.
Domestic robots will become more important in current time. They will find use in everyday situations like cleaning the floor, mowing the lawn or helping to monitor buildings and outdoor installations. However, most of these robots lack in a "human" face, a crucial factor.
In this bachelor thesis a virtual, exchangeable face for the robot Lisa of the study group "Active Vision" of the University Koblenz will be developed. Psychological studies by Krach et al. (2008) have shown that robots with features attractrnattention of the observers and are considered to be more intelligent.
Computerfaces or also Talkingheads are not only used with robots but also in videogames and animation movies. But the movement and mime of the face is usually constructed by hand that provides a fixed course of motions. More interesting is the usage in applications free of barrier. In this field the phonemes are extracted from an incoming audio signal and are assigned to the appropriate visemes.
Within this bachelor thesis this occurrence is achieved with the help of the Text-to-Speech-Synthesizer Festival whereby the movement of the lips change dynamically according to the given text. Not only is the correct movement of the lips of great importance, but also the showingrnof emotions. With the help of a special emoticon arithmetic which is added to the text that is to be synthesized the visualization of emotions is possible.
We present a non-linear camera pose estimator, which is able to handle a combined input of point and line feature correspondences. For three or more correspondences, the estimator works on any arbitrary number and choice of the feature type, which provides an estimation of the pose on a preferably small and flexible amount of 2D-3D correspondences. We also give an analysis of different minimization techniques, parametrizations of the pose data, and of error measurements between 2D and 3D data. These will be tested for the usage of point features, lines and the combination case. The result shows the most stable and fast working non-linear parameter set for pose estimation in model-based tracking.
As Enterprise 2.0 (E2.0) initiatives are gradually moving out of the early experimentation phase it is time to focus greater attention on examining the structures, processes and operations surrounding E2.0 projects. In this paper we present the findings of an empirical study to investigate and understand the reasons for initiating E2.0 projects and the benefits being derived from them. Our study comprises seven in-depth case studies of E2.0 implementations. We develop a classification and means of visualising the scope of E2.0 initiatives and use these methods to analyse and compare projects.
Our findings indicate a wide range of motivations and combinations of technology in use and show a strong emphasis towards the content management functionality of E2.0 technologies.
With the ongoing process of building business networks in today- economy, business to-business integration (B2B Integration) has become a strategic tool for utilizing and optimizing information exchange between business partners. Industry and academia have made remarkable progress in implementing and conceptualizing different kinds of electronic inter-company relationships in the last years. Nevertheless, academic findings generally focus exclusively on certain aspects of the research object, e.g. document standards, process integration or other descriptive criteria. Without arncommon framework these results stay unrelated and their mutual impact on each other remains largely unexplained. In this paper we explore motivational factors of B2B integration in practice. In a research project using a uniform taxonomy (eXperience methodology) we classified real-world B2B integration projects from a pool of over 400 case studies using a pre-developed framework for integration scenarios. The result of our partly exploratory research shows the influence of the role of a company in the supply chain and its motive to invest in a B2B solution.
Diese Arbeit hat die Entwicklung eines Verfahrens zum Ziel, dass Bewegung und auftretende Bewegungsunschärfe durch Verfahren des Non-Photorealistic Renderings darstellt. Dabei soll das angestrebte Verfahren den Verlauf der Bewegung für ein dargestelltes Bild ermitteln und mit Speed Lines annähern. Das sich bewegende Objekt bzw. der sich bewegende Teil des Objekts wird abhängig von der Stärke der Bewegung teilweise bis komplett ausgeblendet. Das Verfahren soll echtzeitfähig sein. Aufgrund von vorgestellten Verfahren im Bereich NPR und Motion Blur entwickelt die Arbeit eigene Ansätze, die die genannten Anforderungen umsetzen. Dabei beachtet die Arbeit zwei Aspekte: Sie nimmt so wenige Änderungen wie möglich am verwendeten Szenegraphen vor und führt nach Möglichkeit zur Laufzeit keine Berechnungen auf Seiten der CPU durch. So soll ein Verfahren entstehen, das als Post-Processing Verfahren in Anwendungen integriert werden kann, interaktive Wiederholungsraten ermöglicht und damit auch in Spielen zur Anwendung kommen kann.
Ziel dieser Diplomarbeit ist die Entwicklung einer Software, die Standorte von Gegenständen barrierefrei für sehbehinderte Menschen auf einem mobilen Gerät ausgibt. Hierzu soll ein Konzept der Orientierung von bekannten und mit Markern versehenen Objekten im Raum entwickelt werden. Eine barrierefreie Ausgabe für sehbehinderte Menschen muss ebenfalls ausgewählt werden. Das Programm soll markierte, weiter entfernte Objekte erfassen und beschreiben. Dadurch würde der wahrnehmbare Bereich von sehbehinderten Personen erweitert. Dieser wahrnehmbare Bereich beschränkt sich meist auf den Boden, sehbehinderte Menschen können ihn gefahrlos mit den Füßen abtasten, und die durch die Armlänge begrenzte Reichweite in Brustnähe. Das zu entwickelnde System kann eine Lebenshilfe für Menschen sein, die ohne oder nur mit wenigen visuellen Informationen auskommen müssen. Die prototypische Umsetzung erfolgt auf einem Laptop mit externer Kamera und Maus. Die Evaluation des Systems bezieht sich auf die für sehbehinderte Menschen barrierefreie Ausgabe von Informationen. Zu diesem Zweck wird eine für sehbehinderte Menschen sichere Testumgebung geschaffen, in der die ausgewählte Ausgabeform evaluiert wird.
We present the user-centered, iterative design of Mobile Facets, a mobile application for the faceted search and exploration of a large, multi-dimensional data set of social media on a touchscreen mobile phone. Mobile Facets provides retrieval of resources such as places, persons, organizations, and events from an integration of different open social media sources and professional content sources, namely Wikipedia, Eventful, Upcoming, geo-located Flickr photos, and GeoNames. The data is queried live from the data sources. Thus, in contrast to other approaches we do not know in advance the number and type of facets and data items the Mobile Facets application receives in a specific contextual situation. While developingrnMobile Facets, we have continuously evaluated it with a small group of fifive users. We have conducted a task-based, formative evaluation of the fifinal prototype with 12 subjects to show the applicability and usability of our approach for faceted search and exploration on a touchscreen mobile phone.
Das allgemeine Erreichbarkeitsproblem in Stellen/Transitions-Netzen behandelt die Frage, ob eine bestimmte Zielmarkierung aus einer anderen Markierung erreichbar ist. Die lineare Algebra als Teilgebiet der Mathematik kann zur Beschreibung und Analyse von Petri-Netzen herangezogen werden. Jedoch stellen Kreise in Netzen bei der Erreichbarkeitsanalyse ein Problem für sie dar: ob für bestimmte Transitionen erforderliche Marken sofort, erst nach dem Durchlaufen bestimmter Kreise oder gar nicht zur Verfügung stehen, ist nicht erkennbar, hat jedoch unmittelbare Auswirkungen auf die Erreichbarkeit. Es gibt verschiedene Möglichkeiten, dieses Problem linear-algebraisch anzugehen. In dieser Arbeit werden vorhandene Verfahren sowie neue Lösungsansätze auf Basis der Reproduzierbarkeit der leeren Markierung diskutiert.
The Budget Management System IRM@ doesn"t comply anymore with the needs of Rhineland-Palatinate for a modern management information system. Therefore this bachelor thesis introduces the concept "KoRe Light" as a reporting system for cost accounting, which is based on the data of the system IRM@. For the public budget management, this system should be used as a base for decision making. System analysis is the type of systems engineering used, which consists of analysis, conceptual design and implementation.
Implementation is no part of this thesis anymore. Focus of the conceptual design is in the enhanced search function, which allows more comprehensive and easier to read reports. The result contains the components use case diagram, requirements definition, data model, process model and mock-ups for "KoRe Light". In conclusion recommendations for the implementation and a short résumé are given.
This bachelor thesis deals with the comparison related to the similarity of recorded WiFi patterns during the tracing of a path through the streets of a large city. Both MAC address only comparison has been investigated as well as the incorporation of RSSI values, whereby the localization accuracy has been evaluated. Methods for the detection of different types and combinations of loops in the path are demonstrated likewise the attempt to estimate the degree of urban development in the environment of the user by assessing the received signal strength and signal-to-noise ratio of GPS satellites and GSM cell towers.
In order to observe a user- proximity to a certain spot on a large public square the absorption of WiFi signals by the human body has been taken into account. Finally, the results of a comparison of the computing performance of a modern smartphone versus the alternative of remote calculation on a server including data transmission via cellular data network are presented.
The interaction with the Wii Remote controller consists mainly in calculating rotations of the controller. The subject of this project is to make a real 1 on 1 mapping of the orientation and position of the Wiimote in a virtual application possible. The position of the Wiimote shall be calculated by stereotracking with two cameras.
The project shall be demonstrated in different applications.
Designing Core Ontologies
(2011)
One of the key factors that hinders integration of distributed, heterogeneous information systems is the lack of a formal basis for modeling the complex, structured knowledge that is to be exchanged. To alleviate this situation, we present an approach based on core ontologies. Core ontologies are characterized by a high degree of axiomatization and formal precision. This is achieved by basing on a foundational ontology. In addition, core ontologies should follow a pattern-oriented design approach. By this, they are modular and extensible. Core ontologies allow for reusing the structured knowledge they define as well as integrating existing domainrnknowledge. The structured knowledge of the core ontologies is clearly separated from the domain-specific knowledge. Such core ontologies allow for both formally conceptualize their particular fields and to be flexibly combined to cover the needsrnof concrete, complex application domains. Over the last years, we have developed three independent core ontologies for events and objects, multimedia annotations, and personal information management. In this paper, we present the simultaneousrnuse and integration of our core ontologies at the example of a complex, distributed socio-technical system of emergency response. We describe our design approach for core ontologies and discuss the lessons learned in designing them. Finally, we elaborate on the beauty aspects of our core ontologies.