Diploma Thesis
Refine
Year of publication
Document Type
- Diploma Thesis (196) (remove)
Keywords
- Augmented Reality (4)
- Bildverarbeitung (4)
- RIP-MTI (4)
- Routing (4)
- Analyse durch Synthese (3)
- Interaktion (3)
- Java (3)
- Kamera (3)
- Logistik (3)
- Markerloses Tracking (3)
- Modellbasiertes Tracking (3)
- Objektverfolgung (3)
- Volumendaten (3)
- API (2)
- Autonome Fahrzeuge (2)
- Computergrafik (2)
- Computergraphik (2)
- Computersimulation (2)
- Computerspiel (2)
- Delta (2)
- E-Learning (2)
- Echtzeitsysteme (2)
- Evaluation (2)
- Fahrzeug (2)
- Frau (2)
- GPGPU (2)
- GPS (2)
- Google App Engine (2)
- Google Web Toolkit (2)
- Konvergenz (2)
- Modelltransformation (2)
- Navigation (2)
- Petri-Netze (2)
- Program Slicing (2)
- RFID (2)
- RIP (2)
- RMTI (2)
- Routing Information Protocol (2)
- Schatten (2)
- Segmentierung (2)
- Selbstlokalisation (2)
- Shader (2)
- Simulation (2)
- TGraph (2)
- Textur-Mapping (2)
- Tracking (2)
- VOXEL (2)
- Virtuelle Realität (2)
- Visualisierung (2)
- WebGL (2)
- Whiteboard (2)
- Wikipedia (2)
- XTPeer (2)
- Zielverfolgung (2)
- 101companies (1)
- 2-D (1)
- 3-D-Modelle (1)
- 3D (1)
- 3D Painting (1)
- 3D-Abbildungen (1)
- 3D-Modelle (1)
- API Analysis (1)
- API Migratiom (1)
- ARIS (1)
- Administration (1)
- Adobe Flex (1)
- Agent (1)
- Algorithm Engineering (1)
- Ambient Occlusion (1)
- Analyse (1)
- Anforderungskatalog (1)
- Angiographiebilder (1)
- Anhänger (1)
- Animationsfilm (1)
- Animationsverfahren (1)
- Anwendungsintegration (1)
- Anzeige (1)
- ArcGIS (1)
- Architekturbewertung (1)
- Aspect-orientation (1)
- Aspekt-Orientierung (1)
- Augenblick-SDK (1)
- Augmented Reality Szenario (1)
- Aussagenlogik (1)
- Automatisches Beweisverfahren (1)
- Avatar (1)
- Avatare (1)
- Axis Aligned Bounding Box (AABB) (1)
- BPMS (1)
- Bedarfsanalyse (1)
- Beleuchtungsverfahren (1)
- Benutzerorientierung (1)
- Benutzerprofil (1)
- Benutzerschnittstelle (1)
- Beschreibungslogik (1)
- Besuchersoftware (1)
- Bewegung (1)
- Bewegungsmodell (1)
- Bewegungssteuerung (1)
- Bild (1)
- Bildanalyse-Verfahren (1)
- Bildregistrierung (1)
- Bildsensor (1)
- Bordinstrument (1)
- Bounding Volume Hierarchie (1)
- Browser (1)
- Business Continuity Management (1)
- Business Intelligence (1)
- CAD (1)
- CMS (1)
- CSG (1)
- CSMs (1)
- CSV (1)
- CT-Datensätze (1)
- CTI (1)
- CTI -Problem (1)
- CamInSens (1)
- Casual Game (1)
- Casual Games (1)
- Charakter-Objekt-Interaktion (1)
- Charakteranimation (1)
- Circumscription (1)
- Cisco Catalyst 3500XL (1)
- Closed Source (1)
- Clusteranalyse (1)
- CodeBlue (1)
- CollaborativeWriting (1)
- Communication System (1)
- Computational biology (1)
- Computer Networks (1)
- Computer-aided diagnosis (1)
- Computeranimation (1)
- Computerbased Communication (1)
- Computerspiele (1)
- Computertomographie (1)
- Computerunterstützte Kommunikation (1)
- Content Management (1)
- Controlling (1)
- Counting-to-Infinity (1)
- DEMO_net (1)
- DIN EN ISO 9241 (1)
- DNNF (1)
- DPLL (1)
- Data-Mining (1)
- Datenanalyse (1)
- Datenaustausch (1)
- Datenschutz (1)
- Datenschutzpolicy (1)
- Defi-Now! (1)
- Defibrillator (1)
- Design Pattern (1)
- Designwerkzeug (1)
- Desktop (1)
- Digital Storytelling (1)
- Dijkstras Algorithmus (1)
- Disaster Recovery (1)
- Displacement Mapping (1)
- Display (1)
- Distance Vector Routing (1)
- Distanz Vektor Routing (1)
- Distanz-Vektor (1)
- Drahtmodell (1)
- Dreidimensionale Bildverarbeitung (1)
- Dreidimensionale Visualisierung (1)
- Dreidimensionales Modell (1)
- E-Commerce (1)
- E-Hyper Tableau (1)
- E-KRHyper (1)
- E-Partizipation (1)
- E-Procurement (1)
- EEG (1)
- EU-Dienstleistungsrichtlinie (1)
- Eating Disorder (1)
- Echtzeit-Raytracer "Augenblick" (1)
- Echtzeitfähigkeit (1)
- Echtzeitsystem (1)
- Eclipse (1)
- Eclipse <Programmierumgebung> (1)
- Electronic Commerce (1)
- Electronic Government (1)
- Elektroencephalographie (1)
- Elektronische Signaturen (1)
- EmIL (1)
- Emergence in the Loop (EMIL) (1)
- Emil (1)
- Empfehlung (1)
- Enterprise Architecture (1)
- Enterprise Architecture Frameworks (1)
- Enterprise Resource Planning (1)
- Entwurfsmuster (1)
- Epipolargeometrie (1)
- Erste Hilfe (1)
- Erweiterte Realität (1)
- Erweiterte Realität <Informatik> (1)
- Essstörung (1)
- Europäischer Binnenmarkt (1)
- Evaluierung (1)
- Event (1)
- FPIC (1)
- Facebook App (1)
- Facebook Application (1)
- Fachinformationssysteme (1)
- Fahrerlose Transportsysteme (1)
- Fahrsimulator (1)
- Fernsehtechnik (1)
- Filmdarstellung (1)
- Filmfiguren (1)
- Filmgestalt (1)
- Firewall (1)
- First aid (1)
- Flugkörper (1)
- Fluiddynamik (1)
- Flächenmodell (1)
- Framework (1)
- Framework <Informatik> (1)
- Frameworks (1)
- Frei Programmierbares Kombinationsinstrument (1)
- Funkerkennung (1)
- Funktionelle NMR-Tomographie (1)
- GPGPU-Programmierung (1)
- GPU (1)
- GReQL 2 (1)
- GReTL (1)
- GUPRO (1)
- Gaps (1)
- Gebäudemodelle (1)
- Gefühl (1)
- Geodaten (1)
- Geoinformation (1)
- Geometry (1)
- Geometry-Shader (1)
- Geschäftsmodell (1)
- Gittererzeugung (1)
- Globale Beleuchtung (1)
- Grafikkarte (1)
- Grafikprozessor (1)
- Grails (1)
- Grails 1.2 (1)
- Graphikhardware (1)
- HDR-Bilder (1)
- HDR-Kamera (1)
- HTML 5.0 (1)
- Handlungsempfehlungen (1)
- Haptik (1)
- Herzerkrankungen (1)
- High dynamic Range (1)
- High-Traffic (1)
- Hochgeschwindigkeitstracking (1)
- Human motion (1)
- Hypertableaux (1)
- IK-Algorithmus (1)
- InFO (1)
- Incremental Algorithms (1)
- Information Flow Ontology (1)
- Information Retrieval (1)
- Information system (1)
- Informationsvisualisierung (1)
- Inhaltsanalyse (1)
- Innovation (1)
- Innovationsmanagement (1)
- Inpainting-Verfahren (1)
- Interactive Video Retrieval (1)
- Interaktives Whiteboard (1)
- Interior Gateway Protokoll (1)
- Internet (1)
- Interoperabilität (1)
- Inverse Kinematik (1)
- Inverses Modell (1)
- J2EE (1)
- J2ME (1)
- JCryp-Tool (1)
- JGraLab (1)
- JGraph (1)
- JML (1)
- Java <Programmiersprache> (1)
- Java Modeling Language (1)
- Java. Programmiersprache (1)
- JavaScript (1)
- KD-Bäume und Binary-Space-Partitioning-Bäume (1)
- Kalibrieren <Messtechnik> (1)
- Kalibrierung (1)
- Kamerakalibrierung (1)
- Katadioptrisches Stereosystem (1)
- Katastrophenschutz (1)
- Kirk-Coleman-Modell (1)
- Knowledge Compilation (1)
- Kohärenzanalyse (1)
- Kontinuität (1)
- Kontinuitätsmanagement (1)
- Krisenmanagement (1)
- Kriterienkatalog (1)
- Künstliche Intelligenz (1)
- Landschaftsgestaltung (1)
- Landschaftsmodell (1)
- Laser (1)
- Laserscanner (1)
- Lebensmittelallergie (1)
- Leitstandmodul (1)
- Lernen (1)
- Lernsoftware (1)
- LexLearn (1)
- Lexikon (1)
- Lichttransport (1)
- Linienkorrelationen (1)
- Logik (1)
- Lokale Bildmerkmale (1)
- Malen (1)
- Mammographie (1)
- Manöver-Visualisierung (1)
- MapReduce (1)
- Markov Zufallsfelder (1)
- Marktanalyse (1)
- Maschinelles Sehen (1)
- Matching (1)
- Matchingverfahren (1)
- Mediator framework (1)
- Medizinische Visualisierung (1)
- Medizintechnik (1)
- Mensch-Maschine-Schnittstelle (1)
- Merkmalsbewertung (1)
- Metriken (1)
- Mikroanalytisches Modell (1)
- Mikroanalytisches Simulationsmodell (1)
- Mikrocontroller (1)
- Mikrosensus (1)
- Mikrosimulationsmodell (1)
- Mikroskopie (1)
- Mobile Health (1)
- Mobile Kommunikation (1)
- MobileFacets System (1)
- Mobiles Informatinssystem (1)
- Mobiltelefon (1)
- Model View Presenter (1)
- Modellfahrzeug (1)
- Modellieren (1)
- Modellierung (1)
- Monitoring (1)
- Motion Capturing (1)
- Multiagentensystem (1)
- Multivariate Datenanalyse (1)
- Mustererkennung (1)
- Myokard (1)
- NURBS (1)
- Natural Feature Tracking (1)
- Network Virtualization (1)
- Netzhaut (1)
- Netzwerk Routing (1)
- Netzwerk Virtualisierung (1)
- Netzwerkmanagement (1)
- Netzwerkmonitoring (1)
- Netzwerktechnik (1)
- Nintendo Wii Fernbedienung (1)
- Norm (1)
- Normentstehung (1)
- Notfall (1)
- Notfallmanagement (1)
- Notfallvorsorge (1)
- Nutzungsanalyse (1)
- Nutzungsrechte (1)
- OSS (1)
- Oberflächenorientierung (1)
- Oberflächenstruktur (1)
- Objective-C (1)
- Objektentfernung (1)
- Octree Textur (1)
- Oktalbaum (1)
- Oktonärbäume (1)
- Online-Befragung (1)
- Ontologie (1)
- Ontologie. Wissensverarbeitung (1)
- Ontology API model (1)
- Open Source (1)
- Open Source Software (1)
- Optisches Mikroskop (1)
- P2P (1)
- P3P (1)
- P3P-Policy-Generator (1)
- PACS- Picture Archiving (1)
- PDA (1)
- PHP (1)
- Personalausweis (1)
- Petri-Netz-Theorie (1)
- Planspiegel-System (1)
- Plugin (1)
- Point Rendering (1)
- Pollenanalyse (1)
- Posebestimmung (1)
- Poseschätzung (1)
- Positionsbestimmung (1)
- PostgreSQL (1)
- Preisbildung (1)
- Privacy (1)
- Programmanalyse (1)
- Programmiersprache (1)
- Propositional Logic (1)
- Prozessanalyse <Prozessmanagement> (1)
- Präsentation (1)
- Public-Key-Infrastruktur (1)
- Punktkorrelationen (1)
- Quantitative Inhaltsanalyse (1)
- Query Expansion (1)
- RCP (1)
- RDF <Informatik> (1)
- RFCO (1)
- RIP-MTI Algorithmus (1)
- RIP-XT (1)
- Radiales System (1)
- Ray Tracing (1)
- Ray tracing (1)
- Raytracing (1)
- Realistisches Kameramodell (1)
- Rechnernetz (1)
- Rechnernetze (1)
- Register (1)
- Registrierung <Bildverarbeitung> (1)
- Regler (1)
- Regulierung (1)
- Reisedokument (1)
- Relationale Datenbank (1)
- Relevance Feedback (1)
- Rendering (1)
- Repast (1)
- Rescueanalyser (1)
- Restrukturierung (1)
- Retinex-Algorithmus (1)
- Rich Internet Application (1)
- Risk (1)
- Robotik (1)
- Router (1)
- Router-based Flow Control Ontology (1)
- Routing Information Protokoll (1)
- Routing information protocol (1)
- Routing-Loop (1)
- SIFT-Algorithmus (1)
- SIFT-Merkmale (1)
- SIMD (1)
- SOA (1)
- STOR (1)
- STP (1)
- SURF-Algorithmus (1)
- Schleifenerkennung (1)
- Schlussfolgern (1)
- Schwachstellen (1)
- Security (1)
- Security Routing (1)
- Selbsthilfe (1)
- Self-help (1)
- Semantic Desktop (1)
- Semantic Web (1)
- Separating-Axis-Theorem (1)
- Serdar Ayalp (1)
- Shaderframework (1)
- Shaderprogramm (1)
- Sicherheit (1)
- Sicherheit Routing (1)
- Simulationswerkzeug (1)
- Smartphone Applikation (1)
- Social Games (1)
- Software Engineering (1)
- Software- Ergonomie (1)
- Softwareentwicklung (1)
- Softwareentwurf (1)
- Softwareergonomie (1)
- Softwarespezifikation (1)
- Softwarewartung (1)
- Soziale Netzwerke (1)
- Spielkonsole (1)
- Sprachverarbeitung (1)
- Stadtmodelle (1)
- Standortbestimmung (1)
- Starrkörper (1)
- Statistische Analyse (1)
- Stereobildfolgen (1)
- Stereosehen (1)
- Stilisierung (1)
- Stomp (1)
- Strategie (1)
- Strategy (1)
- Suat Algin (1)
- Subsurface Scattering (1)
- Supply Chain Management (1)
- Systembiologie (1)
- Szenengraph (1)
- TRECVID (1)
- Tablet PC (1)
- Tarrain Klassifikation (1)
- Taxonomy (1)
- Technologiemanagement (1)
- Technology Management (1)
- Telemedizin (1)
- Tenneco Automotive (1)
- Textur (1)
- Texturierung (1)
- Tone-Mapping (1)
- Tone-Mapping-Verfahren (1)
- Tourismus (1)
- Tracking-System (1)
- Trackingsystem (1)
- Transaction concept (1)
- Transaktion (1)
- Transaktionskonzept (1)
- Transferfunktion (1)
- Transform Feedback (1)
- Transport (1)
- Triangulierung (1)
- Triangulierungsverfahren (1)
- URM (1)
- Umgebungslicht (1)
- Ungarische Methode (1)
- Uniforme Raumunterteilung (1)
- Unternehmen (1)
- Unternehmensarchitektur (1)
- Unterwasser-Pipeline (1)
- Unterwasserfahrzeug (1)
- Unterwasserkabel (1)
- Usability (1)
- Usage Rights Management (1)
- User Interface (1)
- Uses and gratifications approach (1)
- VDE (1)
- VDE-Switch (1)
- VLAN (1)
- VTP (1)
- Verortung (1)
- Vertex Buffer Object (1)
- Vertex Buffer Objekt (1)
- Virtual Square (1)
- Virtual characters (1)
- Virtualisierung (1)
- Virtuelle Menschen (1)
- Virtuelles Netz (1)
- Visibility Skeleton (1)
- Visuelle Odometrie (1)
- Vocabulary Trainer (1)
- Volume Hatching (1)
- Volume Raycasting (1)
- Volumen (1)
- Volumen-Rendering (1)
- Volumenmodell (1)
- Volumenrendering (1)
- Vorliebe (1)
- Vorwärtsmodell (1)
- Voxel (1)
- WSN (1)
- Web-application framework (1)
- Web-programming technologies (1)
- Web3D (1)
- Webanwendung (1)
- Webseiten (1)
- Weibliches Publikum (1)
- Wertschöpfungskette (1)
- Wii (1)
- Wiimote (1)
- Wiki (1)
- Wissenskompilation (1)
- Wissensmanagement (1)
- Wissensvermittlung (1)
- Wolkensimulation (1)
- Workflow (1)
- World Wide Web (1)
- XML-Dokument (1)
- XTpeer (1)
- Xcode (1)
- Zeichentrickfilm (1)
- Zirkumskription (1)
- Zukunftsszenario (1)
- agent (1)
- agent-based model (1)
- agentenbasierte Modellierung (1)
- augmented reality (1)
- automatisierte Videoüberwachung (1)
- by-stander effect (1)
- camera calibration (1)
- convergence analysis (1)
- data-mining (1)
- description logic (1)
- distinct object identifiers (1)
- e-ID (1)
- eGovernment (1)
- eID (1)
- ePA (1)
- ediv (1)
- ethnic conflicts (1)
- ethnische Konflikte (1)
- evaluation (1)
- event (1)
- high-traffic (1)
- hypertableaux (1)
- iOS (1)
- iOS 5 (1)
- iOS-SDK (1)
- id card (1)
- interaction (1)
- java (1)
- lineare Algebra (1)
- logistic (1)
- markerless tracking (1)
- medical care (1)
- mobile health care (1)
- model-driven engineering (1)
- modellgetriebene Softwareentwicklung (1)
- movement (1)
- nPA (1)
- natural language processing (1)
- natürliche Sprache (1)
- octree texture (1)
- person (1)
- projektives Malen (1)
- requirements analysis (1)
- rip (1)
- rmti (1)
- shiq (1)
- smartphone app (1)
- stereotracking (1)
- syntaktische Analyse (1)
- texturing (1)
- travel document (1)
- unique name assumption (1)
- usability study (1)
- usage-mining (1)
- virtual human (1)
- vnuml (1)
- wireless sensor networks (1)
- xtpeer (1)
- Überwachung (1)
- Überwachungstechnik (1)
Institute
- Institut für Computervisualistik (81)
- Fachbereich 4 (47)
- Institut für Wirtschafts- und Verwaltungsinformatik (27)
- Institut für Informatik (24)
- Institut für Softwaretechnik (14)
- Institute for Web Science and Technologies (3)
- Institut für Kommunikationspsychologie und Medienpädagogik (2)
- Fachbereich 5 (1)
- Institut für Management (1)
3D-Curve-Skeletons are often used, because the object surface repesentation is less complex and also needs less computing power in further processing, compared to the representation created by the Medial Axis Transformation introduced 1967 by Harry Blum.
This theses aims at developing a 3D curve skelton approximation algorithm that keeps these advantages and is also able to handle different scenarios of the object surface input data.
Robotics research today is primarily about enabling autonomous, mobile robots to seamlessly interact with arbitrary, previously unknown environments. One of the most basic problems to be solved in this context is the question of where the robot is, and what the world around it, and in previously visited places looks like " the so-called simultaneous localization and mapping (SLAM) problem. We present a GraphSLAM system, which is a graph-based approach to this problem. This system consists of a frontend and a backend: The frontend- task is to incrementally construct a graph from the sensor data that models the spatial relationship between measurements. These measurements may be contradicting and therefore the graph is inconsistent in general. The backend is responsible for optimizing this graph, i. e. finding a configuration of the nodes that is least contradicting. The nodes represent poses, which do not form a regular vector space due to the contained rotations. We respect this fact by treating them as what they really are mathematically: manifolds. This leads to a very efficient and elegant optimization algorithm.
This thesis presents an analysis of API usage in a large corpus of Java software retrieved from the open source repositories hosted at SourceForge. Most larger software projects use software libraries, which offer a public "application programming interface" or API as an interface for the programmer. In order to facilitate the transition between different APIs, there are emerging research projects in the field of automated API migration. However, there is a lack of basic statistical background information about in-the-wild usage of APIs as such measurements have, until now, only been done on rather small corpora. We thus present an analysis method suitable for measurements with large corpora. First, we create a corpus of open source projects hosted on SourceForge, as well as a corpus of software libraries. Then, all projects in the corpus are compiled with an instrumented compiler. We use a compiler plugin for javac that gives detailed information about every method created by the compiler. This information is stored in a database and analyzed.
Research has shown that people recognize personality, gender, inner states and many other items of information by simply observing human motion. Therefore the expressive human motion seems to be a valuable non-verbal communication channel. On the quest for more believable characters in virtual three dimensional simulations a great amount of visual realism has been achieved during the last decades. However, while interacting with synthetic characters in real-time simulations, often human users still sense an unnatural stiffness. This disturbance in believability is generally caused by a lack of human behavior simulation. Expressive motions, which convey personality and emotional states can be of great help to create more plausible and life-like characters. This thesis explores the feasibility of an automatic generation of emotionally expressive animations from given neutral character motions. Such research is required since common animation methods, such as manual modeling or motion capturing techniques, are too costly to create all possible variations of motions needed for interactive character behavior. To investigate how emotions influence human motion relevant literature from various research fields has been viewed and certain motion rules and features have been extracted. These movement domains were validated in a motion analysis and implemented in a system in an exemplary manner capable of automating the expression of angry, sad and happy states in a virtual character through its body language. Finally, the results were evaluated in user test.
Ein Switch (engl. Schalter; auch Weiche) ist eine Netzwerk-Komponente zur Verbindung mehrerer Computer bzw. Netz-Segmente in einem lokalen Netzwerk (LAN). Da Switches den Netzwerkverkehr analysieren und logische Entscheidungen treffen, werden sie auch als intelligente Hubs bezeichnet. Die Funktionsweise eines Switches ist der einer Bridge sehr ähnlich, daher wurde anfangs auch der Begriff Multi-Port-Bridge genutzt 1. Ziel der Diplomarbeit ist es, eine Dokumentation auf die Beine zu stellen, der interessierten Studenten der Informationstechnologie die Möglichkeit bietet, einerseits anhand von physikalischen Switches Administrationsaufgaben nachzuempfinden und andererseits anhand von virtuellen Switches größere Netzwerktopologien aufzubauen. Diese Virtualisierung wird durch das von Virtual Square entwickelte Tool VDE erreicht. Die physikalischen Switches bestehen aus vier Catalyst 3500 XL. Im Laufe dieser Arbeit wird sowohl die Bedienung der einzelnen Systeme untereinander, wie auch die Vernetzung der virtuellen Switches mit den physikalischen Switches erläutert. In diesem Zusammenhang wird auch auf Protokolle und Methoden wie das Spanning Tree Protokoll oder die Virtualisierung eines Netzes durch VLANs eingegangen. Zum Schluss kann der Leser das gelernte in einigen praktischen Aufgaben anwenden.
In der vorliegenden Diplomarbeit wurde gezeigt, wie sich Ambient Occlusion in einer Szene aus frei transformierbaren Starrkörpern unter Verwendung von Coherent Shadow Maps in interaktiven Frameraten berechnen und darstellen lässt. Die Vorteile von Ambient Occlusion im Vergleich zu klassischen lokalen Beleuchtungsmodellen wurden aufgezeigt - den Ansatzpunkt bildet die Approximation von Umgebungslicht und indirekter Beleuchtung durch einen konstanten Farbwert - und die vereinfachenden Annahmen, die im Vergleich zu einer Simulation globaler Beleuchtung gemacht werden, wurden nachgezeichnet - Die Gültigkeit von Ambient Occlusion beschränkt sich demnach eigentlich auf eine direkte Beleuchtung diffuser Materialien mit konstanter Leuchtdichte. Um einen umfassenden Überblick zu gewährleisten, wurden zahlreiche existierende Ansätze zur Berechnung von Ambient Occlusion ausführlich vorgestellt. Anschließend wurde auf die Berechnung der Visibilität mittels CSMs eingegangen. Es wurde gezeigt wie sich die Komprimierungsrate von CSMs durch eine gleichmäßige Verteilung der zu komprimierenden Depth Maps deutlich erhöhen lässt und ein XML-konformes Dateiformat, das die beliebige Wiederverwendung einmal komprimierter Depth Maps erlaubt, wurde eingeführt.
Analyse TV-basierter Interaktion für Senioren: Umsetzung und Evaluation im Gesundheitsbereich
(2007)
In dieser Arbeit wurde nach einer detaillierten Erklärung der Begriffe Ad-hoc Network, MANET und VANET eine Auflistung und anschließend ein Vergleich der verschiedenen Routingverfahren, die in VANETs auftreten können, durchgeführt. Unter diesen Routing Verfahren wurde das Geocasting ausgesucht, weil es sich für die hohe Mobilität der einzelnen Knoten für geeignet gezeigt hat. Anschließend wurde auf die Sicherheitsanforderungen eingegangen. Dabei wurden die Begriffe Datenintegrität, Informationsvertraulichkeit, Verfügbarkeit, Verbindlichkeit, Anonymisierung und Peudomisierung eingeführt und ihre Wichtigkeit bei VANETs anhand von Beispielen gezeigt. In Abschnitt 2.4 wurden einige Angriffszenarien genannt, wobei sie in passive und aktive Angriffe kategorisiert wurden. Anhand eines Hybridmodells wurden jeder Schicht mögliche Angriffe zugeordnet und ausführlich diskutiert. Die Angriffe, die bereits definiert wurden, sind dann in einer Tabelle zusammengefasst worden. In dieser Tabelle wurde das Risiko berechnet, das ein Angriff bei VANETs hervorrufen kann. Angriffe auf der Anwendungsschicht sind mit sehr hohem Risiko angesiedelt und stellen eine große Gefahr für VANETs dar. Deshalb wurden manche dieser Angriffe dann mit konkreten Beispielen gezeichnet und dargestellt. Das Verbreiten von falschen Informationen auf Autobahnen ist das ausgewählte Szenario für das Angriffserkennungssystem. Dabei wurde ein Konzept erstellt, wie dieses IDS vorzugehen hat, wenn ein Fahrzeug eine Nachricht bekommt, um zu überprüfen, ob sie richtig oder falsch ist. Dabei wurden Randbedingungen aufgestellt, damit das IDS richtig funktioniert. Dieses Konzept wurde anhand einer Simulation realisiert, um zu überprüfen, ob es tatsächlich seine Aufgabe erfolgreich erfüllt. Nach der Beschreibung der Simulationsimplementierung und ihren wichtigsten Komponente wurden Tests durchgeführt, um die Funktionalität der Erkennung zu testen. Dabei wurde festgestellt, dass die Dichte des Verkehrs, Entfernung des Eregnismelders von der Ereigniszone und die Anzahl der empfangenen Nachrichten in jedem Fahrzeug eine große Rolle bei der Erkennung von Ereignissen spielt.
Dynamische Nachfragebündelung und diverse Auktionsformen stehen exemplarisch für neue Formen der Preisbildung im Electronic Commerce. Eine Vielzahl dynamischer Preisbildungsmechanismen aber auch neue Möglichkeiten der statischen Preisfindung im Sinne der klassischen Preispolitik (bspw. individuelle Preisdifferenzierung) werden erst durch die Nutzung neuer Informations- und Kommunikationstechnologien ermöglicht und - im geeigneten Kontext - in ökonomischer Hinsicht effizient umsetzbar. Eine sinnvolle Nutzung dieses stark erweiterten Möglichkeitsraumes erfordert die Einordnung der Angemessenheit der Nutzung einzelner Preisbildungsmechanismen aus ökonomischer Sicht. Diese Arbeit gibt einen systematischen Überblick über sowohl statische als auch dynamische Preisbildungsmechanismen. Darauf aufbauend wird ein Bezugsrahmen entwickelt, welcher wesentliche Kriterien zur Unterstützung der Wahl geeigneter Preisbildungsmechanismen enthält. Im Anschluss erfolgt der Entwurf eines Referenzmodells zur Beschreibung dynamischer und statischer Aspekte von Auktionsformen, welche üblicherweise als die zentrale Form dynamischer Preisbildungsmechanismen eingeordnet werden. Für den Zweck der Modellierung statischer Aspekte wird eine eigene Sprache in Form eines Meta-Modells entwickelt, welches geeignete Konzepte zur Beschreibung von Auktionsformen bereitstellt. Die Modellierung dynamischer Aspekte erfolgt unter Anwendung der Prozessbeschreibungselemente der Modellierungssprache MEMOOrgML. Abschließend werden die Möglichkeiten zur Adaption und Anwendung sowohl der entwickelten Prozessmodelle als auch des vorgeschlagenen Meta-Modells diskutiert.
Die Herstellung eines Europäischen Binnenmarktes, wie sie durch den Vertrag zur Gründung der Europäischen Gemeinschaft vorgesehen ist, beinhaltet unter anderem die freie grenzüberschreitende Erbringung von Dienstleistungen. Dem stehen jedoch mehrfach die Bestimmungen im Recht der EU-Mitgliedstaaten entgegen, die den freien Zugang von Dienstleistungserbringern aus anderen EU-Mitgliedstaaten zum nationalen Markt blockieren. Gründe für derartige Maßnahmen können sehr unterschiedlich sein, z.B.: der Schutz innerstaatlicher Anbieter, die Gewährleistung von Schutznormen des nationalen Arbeitsrechts oder die Verhinderung eines ruinösen Unterbietungswettlaufs. Die Richtlinie soll bürokratische Hindernisse abbauen, den grenzüberschreitenden Handel mit Dienstleistungen fördern und damit zur Verwirklichung des einheitlichen Binnenmarktes beitragen. Die Europäische Kommission hat am 12. Dezember 2006 die EU-Dienstleistungsrichtlinie verabschiedet. Jeder Mitgliedstaat der EU verpflichtet sich bis zum Jahr 2009 die Richtlinie umzusetzen und zugleich einen Bericht der Kommission vorzulegen. Innerhalb der Diplomarbeit werden mehrere Themenbereiche bearbeitet. Zu Beginn erfolgt eine allgemeine Einführung in die EU-Dienstleistungsrichtlinie. Als nächstes erfolgt eine Analyse aktueller Ansätze zur Umsetzung der EU-Richtlinie in Deutschland, Österreich und Großbritannien, dabei wird der Fortschritt der Länder anhand der Kernstrukturen der Direktive betrachtet. Zusätzlich wird für jedes betrachtete Land ein mögliches Anmeldeszenario, ohne die Vorgaben der Richtlinie, vorgestellt. Zur Vervollständigung der Betrachtung erfolgt zum Schluss eine länderübergreifende Auswertung. Diese wird sich sowohl auf die zurzeit vorherrschende Ländersituation als auch auf die erzielten Ergebnisse innerhalb der Direktive beziehen.
In einer Welt, die immer mehr durch den Einsatz von Technik geprägt wird, gewinnen Systeme, welche eigenständig Aufgaben in einem vorgegebenen Kontext übernehmen können, mehr und mehr an Bedeutung. Solche Systeme werden als autonome Systeme bezeichnet, die ein eigenständiges Verhalten und Interaktionen mit ihrer Umwelt und anderen Systemen beinhalten. Zu diesen Systemen zählen auch autonome mobile Roboter. Sie sind sozusagen intelligente Fahrzeuge, die ihnen übertragene Aufgaben ohne menschliche Unterstützung durchführen können. Um ihre Umwelt wahrzunehmen, mit ihr interagieren und in ihr navigieren zu können benötigen diese Systeme verschiedene Arten von Sensoren. Somit ist die Robotikforschung stark interdisziplinär. Diese Arbeit befasst sich ausschliesslich mit dem Bereich der Navigation, insbesondere mit der Positionsbestimmung, welche für eine gute Navigation die Grundlage bildet. Ein heutzutage häufig benutztes, weltweit verfügbares System zur Positionsbestimmung ist GPS. Ziel dieser Arbeit ist der Anschluss eines GPS-Moduls an einen Mikrocontroller und der Versuch die Positionsgenauigkeit lokal zu präzisieren, um so einem autonomen System die Möglichkeit zur eröffnen, Aufgaben, die eine höhere Genauigkeit erfordern, zu bewerkstelligen.
Der Idee des Semantic Desktop liegen die gleichen Konzepte zugrunde wie dem Semantic Web mit dem Unterschied, dass sie nun auf die Applikationen und Daten eines durchschnittlichen Desktops angewendet werden. Insbesondere geht es darum, die unterschiedlichen Sichten auf Daten, die durch unterschiedliche Anwendungen erzeugt werden, über eine kontextübergreifende Beschreibung zu integrieren. Z.B. können sich zwei Programme darin unterscheiden, dass eine E-Mail-Adresse in dem einen als aktiver Link dargestellt wird, über den sich direkt eine E-Mail versenden lässt, in dem anderen aber lediglich als Zeichenkette. In der angestrebten idealen Welt des Semantic Desktop würde diese Adresse unabhängig von ihrem Anzeigekontext auch als solche erkannt und behandelt. Ziel der Arbeit ist die Entwicklung einer Integrationsmöglichkeit, die es Applikationen erlaubt, Informationen über ihre Inhalte auszutauschen. Hierzu werden zunächst die Anforderungen an die zu erarbeitende Kommunikationskomponente aufgeführt und daraus das technische Umfeld abgeleitet. Dabei wird vor allem auf die einzusetzenden Technologien eingegangen, und die angewendeten Konzepte werden erläutert. Die Entwicklung und Beschreibung einer Testanwendung schließen den technischen Teil ab. Zuletzt wird die gesamte Entwicklung kritisch diskutiert und ein Ausblick auf mögliche fortführende Entwicklungen geboten.
Diese Arbeit beschäftigt sich mit Konzepten für die Anzeige eines frei programmierbaren Kombinationsinstrumentes (FPK). Ziel ist es, die zunächst theoretischen Anzeigekonzepte auf Basis einer zu ermittelnden Hard- und Softwareplattform zu entwickeln. Zu Beginn wird die Evolution von analogen, mechanischen Kombinationsinstrumenten zum FPK beschrieben. Darauf folgt ein Überblick bereits bestehender FPK-Konzepte mit einer genaueren Sicht auf dargestellte Anzeigeelemente. Dabei wird besonders auf die Personenwarnung in der Night-view-Anzeige und eine Anzeige der ökologischen Fahreffizienz eingegangen. Die Arbeit ist Teil eines in Entwicklung befindlichen FPK-Projektes. Basierend auf den durch dieses Projekt vorgegebenen Anforderungen wird eine geeignete Soft- und Hardwareplattform für die Umsetzung eines FPK ermittelt. Dabei zeigt sich, dass die optimale Plattform nur durch eine präzise Änderungsdefinition des graphischen Systems bestimmt werden kann. Da die Projektanforderungen nicht präzise genug sind, wird Adobe Flash in Verbindung mit Actionscript zur Umsetzung der Anzeigekonzepte eingesetzt, um Plattformunabhängigkeit zu erreichen. Mittels Techniken des User-centered Designs wurden Konzepte einzelner und kombinierter Anzeigeelemente entwickelt. Dabei wurde besonders darauf geachtet, die Gestaltungsmöglichkeiten durch die Größe der zur Verfügung stehenden Anzeigefläche des FPK auszunutzen. Nach theoretischen Überlegungen bezüglich des Verwendungskontexts und wahrnehmungspsychologischer Erkenntnisse werden entwickelte Konzepte skizzenhaft beschrieben und die erstellten Animationen erläutert. Den Schluss bildet eine Evaluation einzelner Prinzipien. In einer Umfrage mit 14 Probanden konnte die intuitive Erkennbarkeit einzelner Konzepte teilweise bestätigt oder widerlegt werden. Die Wirksamkeit einer entwickelten Warnmeldung zur Steuerung der Aufmerksamkeit wurde anhand eines Tests mit Nutzern in einer Simulation bestätigt. Die Warnmeldung und andere Konzepte sind nur in einem FPK umzusetzen. So wird gezeigt, dass der Einsatz eines FPK zu einer erhöhten Sicherheit und besseren Bedienbarkeit führen kann. Das FPK sollte jedoch nicht isoliert vom restlichen HMI betrachtet werden, damit seine Möglichkeiten voll ausgeschöpft werden können. Der Einsatz echter 3-D-Graphik für FPK ist zweifelhaft. Über den Bedarf muss im Einzelfall nach einem Test auf Usability entschieden werden. Die Evaluation zeigt, dass Konventionen eines herkömmlichen Kombinationsinstrumentes auch bei der Gestaltung von Anzeigeelementen für ein FPK genutzt werden sollten, um eine Lesbarkeit zu garantieren.
Computers assist humans in many every-day situations. Their advancing miniaturisation broadens their fields of use and leads to an even higher significance and spread throughout society. Already, these small and powerful machines are wide-spread in every-day objects and the spread increases still as the mobility-aspect grows in importance. From laptops, smartphones and tables to systems worn on the body (wearable computing) or even inside the body as cyber-implants, these systems help humans actively and context-sensitively in the accomplishment of their every-day business.
A part of the wearable-computing-domain is taken up by the development of Head-mounted displays (HMD). These helmets or goggles feature one or more displays enabling their users to see computer-rendered images or images of their environment enriched with computer-generated information. At the moment, most of this HMD feature LC-Displays, but newer systems start appearing that allow the projection of the image onto the user's retina. Newest break-throughs in the field of study already produced contact lenses with an integrated display. The data shown by a HMD is compiled using a multitude of sensors, like a Head-Tracker or a GPS. Increasing computational performance and miniaturisation lead to a wide spread of HMD in a lot of fields.rnThe multiple scenarios in which a HMD can be used to help improve human-perception and -interaction led the "Institut für Integrierte Naturwissenschaften" of the University of Koblenz-Landau to come up with a HMD on the basis of Apple's iOS-devices featuring Retina Displays. The high pixel density of these displays combined with condensor lenses into a HMD offer a highly immersive environment for stereoscopic imagery, while other systems only display a relatively small image projected a few feet away of the user. Furthermore, the iPhone/ iPod Touch and iPad exhibit a lot of potential given by their variety of offered sensors and computational power. While producing a similarly feature-rich HMD is very costy, using simple iPod Touches 4th Gen as the basis of a HMD results in a very inexpensive solution with a high potential. The increasing popularity and spread of Apple devices would reduce the costs even more, as users of the HMD could simply integrate their device into the system. A software designed with the specific intent to support a large variety of Apple iOS-devices that could easily be extended to support newer devices, would allow for a universal use of such a HMD-solution as the new device could simply replace an old device.rnrnThe focus of this thesis is the conception and development of an application designed for Apple's iOS 5 operating system that will be used in a HMD evolving around the use of Apple iOS-devices featuring Retina Displays. The Rollercoaster2000-project depicting a ride in a virtual rollercoaster will be used as the application's core. A server will syncronize the display of clients conntected to it which are combined to form a HMD. Furthermore the gyroscope of the iOS-devices combined into a HMD will be used to track the wearer's head-movements. Another feature will be the use of the devices cameras as a mean of orientation while wearing the HMD.
As a first step in the realization of a software meeting the set specifications is the introduction of the Objective-C programming languages used to develop iOS-Applications. In conjunction with the compiler and runtime environment, Objective-C makes up the base of the second step, the introduction of the iOS-SDK. Aimed with this iOS-app-development-knowledge, the last part of the thesis consists of the ascertainment of requirements and development of a software complying to the goals of a software written specifically for the used in a HMD.
Augmented Reality ist eine neuartige, auf vielen Gebieten einsetzbare Technologie. Eines dieser Gebiete ist die Touristeninformation. Hier ermöglicht die AR dem Anwender eine schier endlose Fülle der verschiedensten Möglichkeiten. Mit Ihrer Hilfe kann der Benutzer nicht nur die Zeit bereisen, er kann auch Unsichtbares sehen. Doch stellt sich die Frage, ob die AR auch für weiterreichende Zwecke geeignet ist. Ist es möglich mit ihrer Hilfe Wissen nachhaltig zu vermitteln? Und wenn ja, wie kann dies geschehen? In althergebrachter Form von Texten und Bildern, oder auf interaktive und spielerische Weise? Was muß beachtet werden bei dem Versuch eine AR Anwendung für die Wissensübermittlung zu erstellen? Wie kann der Benutzer mit Ihr umgehen? Weiss der Benutzer später auch wirklich mehr? Die vorliegende Diplomarbeit geht diesen Fragen nach, indem sie zuerst der AR einen genaueren Blick widmet. Sie betrachtet die möglichen einsetzbaren Medien und gibt Vorschläge für interaktive Anwendungen, die mit Hilfe von AR ausgeführt werden. Zum Schluß untersucht sie anhand einer erstellten Beispielanwendung, ob der Benutzer mit Hilfe der AR etwas lernen und auch behalten kann.
Aspect-orientation in PHP
(2012)
Diese Diplomarbeit hat das Thema der fehlenden Cross-Cutting-Concerns(CCCs)-Unterstützung in PHP zum Inhalt. Die Basis bilden zu definierende Anforderungen an eine AOP-Realisierung im PHP-Umfeld. Es wird analysiert, wie und ob verwandte Sprachen und Paradigmen es gestatten, CCCs zu unterstützen. Darüber hinaus wird die Möglichkeit erörtert, AOP in PHP ohne PHP-Erweiterung zu realisieren. Weiter werden die bisherigen Ansätze, AOP in PHP umzusetzen, qualitativ untersucht. Die vorliegende Arbeit zielt darauf ab, eine eigene AOP-PHP-Lösung zu präsentieren, die nicht die Schwächen existierender Lösungen teilt.
Die Arbeit befasst sich mit atlasbasierter Segmentierung von CT-Datensätzen mit Hilfe von elastischen Registrierungsmethoden. Ziel ist die vollautomatische Segmentierung eines beliebigen Eingabedatensatzes durch Registrierung mit einem vorsegmentierten Referenzdatensatz, dem Atlanten. Ein besonderes Augenmerk liegt dabei auf der Implementierung und Evaluation elastischer Registrierungsverfahren, da rigide Registrierungsmethoden besonders in Bereichen hoher anatomischer Varianzen keine genaue Segmentierung gewährleisten. Im Vordergrund steht zunächst die Generierung zweier Atlanten, die als durchschnittliche Referenzdatensätze Informationen über die anatomische Varianz männlicher und weiblicher Bevölkerungsgruppen enthalten. Weiter werden vier etablierte elastische Registrierungsarten implementiert und im Hinblick auf eine atlasbasierte Segmentierung der wichtigen Organe des menschlichen Torsos evaluiert: BSpline-Registrierung, Demons-Registrierung, Level-Set-Motion-Registrierung und FEM-Registrierung. Robustheit und Genauigkeit der implementierten Verfahren wurden anhand von Lungen- und Abdomendatensätzen sowohl intra- als auch interpatientenspezifisch ausgewertet. Es wird gezeigt, dass vor allem die elastische BSpline-Registrierung hier genauere Segmentierungsergebnisse liefern kann, als es mit einer rigiden Registrierung möglich ist.
Ziel dieser Diplomarbeit ist es, katadioptrische Stereosysteme aufzubauen und zu testen. Hierfür gilt es, die Komponenten auszuwählen und zu beschaffen. Es soll ein System mit einem Planspiegel und eines mit einem gekrümmten Spiegel aufgebaut werden. Die Vorgehensweise in beiden Fällen unterscheidet sich jedoch deutlich voneinander. Das Planspiegel-System wird unter den Vorraussetzungen angefertigt, dass es möglichst kostengünstig ist und bietet sich vor allem deshalb für eine solches Vorgehen an, da es mit handelsüblichen Komponenten realisierbar ist. Die Verwendung dieser Komponenten bringt allerdings Einschränkungen in der Bildqualität mit sich. Hinzu kommt noch die Tatsache, dass es sich um eine Computational Camera mit geringer Komplexität handelt, da es direkt rektifizierte Ergebnisse liefert und aufgrund dessen leicht zu implementieren ist. Diese Kombination von Eigenschaften macht es zu einem geeigneten Kandidaten für eine solche Herangehensweise. Das radiale System wird hingegen unter der Prämisse maximaler Qualität gebaut. Der verwendete Spiegel ist eine Einzelanfertigung und zusätzlich wird ein zirkuläres Fisheye-Objektiv benötigt, was die Kosten für ein solches System relativ hoch werden lässt. Des Weiteren ist die Dekodierung der Rohaufnahmen deutlich komplexer, als bei den bereits rektifizierten Aufnahmen des Planspiegel-Systems. Nach erfolgreichem Aufbau der beiden Gesamtsysteme sollen diese unter qualitativen Aspekten miteinander verglichen werden.
Automatische und manuelle Informationszusammenstellung in der Nachbearbeitung von Reality Szenarien
(2007)
Als thematische Fortsetzung der beiden vorangegangenen Diplomarbeiten "Abstrakte Interaktionskonzepte in Erweiterten Realitäten" von Philipp Schaer und "Vor- und Nachbereitung einer Augmented Reality Applikation" von Anke Schneider im Rahmen des Mitte 2005 gegründeten Forschungsprojektes "Enhanced Reality" an der Universität Koblenz, befasste sich diese Arbeit mit dem Aufbau und der Informationszusammenstellung in der Nachbereitungsphase eines Augmented Reality Szenarios. Als kurzen Einstieg in das Forschungsgebiet der Augmented Reality diente eine Einordnung und Begriffsklärung sowie die Vorstellung verschiedener Anwendungsfelder zu Beginn der Arbeit. Danach wurde die Bedeutung der einzelnen Phasen Vorbereitung, AR-Tour und Nachbereitung im allgemeinen Ablauf eines AR Szenarios erläutert und versucht, Parallelen zum dramaturgischen Konzept des Digital Storytelling herzustellen. Die Nachbereitung im Sinne einer neuen Vorbereitungsphase anzulegen, wurde dabei als entscheidender Faktor zur positiven Beeinflussung des Spannungsverlaufs innerhalb eines AR Szenarios bewertet. Anhand von drei aktuellen Beispielen zu AR Edutainment bzw. Eduventure Projekten konnte die Idee und die Art der Wissens- und Informationsvermittlung, die durch eine AR-Tour stattfinden soll, näher gebracht werden. Hauptaugenmerk lag dabei auf der Herausstellung eines Ansatzes für eine mögliche Nachbereitungsphase, die bei den vorgestellten Projekten bisher noch keine Berücksichtigung gefunden hat.
RMTI (RIP with Metric based Topology Investigation) wurde in der AG Rechnernetze an der Universität Koblenz-Landau entwickelt. RMTI stellt eine Erweiterung zum RIP (Routing Information Protocol) dar, die das Konvergenzverhalten bei Netzwerkveränderungen, insb. bei Routingschleifen, verbessern soll. Dies geschieht durch Erkennen von Routingschleifen und Reduzieren des Count-to-infinity Problems. Um dieses gewünschte Verhalten nachweisen zu können, bedarf eine reichhaltige Evaluierung des RMTI- Algorithmus. Hierzu wurde in der gleichen Arbeitsgruppe die Client-/Server-Applikation XTPeer entwickelt. In Kombination mit anderen Software wie VNUML und Quagga Routing Suite lässt sich per XT-Peer der Algorithmus evaluieren. Die Applikation XTPeer generiert durch die Simulationen Daten. Diese können in Form von XML konforme SDF-Dateien exportiert werden. Diese können ohne weitere Auswertungen wieder in die XTPeer Applikation importiert werden. Die Evaluierung der Simulationen findet automatisiert nur an der aktuellen Simulation statt. Evaluierung über mehrere Simulationen muss der Benutzer manuell berechnen. Um diese Evaluierungsarbeiten für den Benutzer zu vereinfachen, verfolgt die vorliegende Diplomarbeit daher das Ziel, die XTPeer Applikation mit einem Auswertungsmodul zu erweitern. Die Auswertungen soll sich über alle gespeicherten Simulationsdaten und nicht wie bisher nur über die aktuell laufende Simulation erstrecken. Dies ermöglicht bessere statistisch verwertbare Aussagen. Zusätzlich können diese Auswertungsergebnisse grafisch unterstrichen werden.
Quadrokopter sind Helikopter mit vier in einer Ebene angeordneten Rotoren. Kleine unbemannte Modelle, die oft nur eine Schubkraft von wenigen Newton erzeugen können, sind im Spielzeug- und Modellbaubereich beliebt, werden aber auch von Militär und Polizei als Drohne für Aufklärungs- und Überwachungsaufgaben eingesetzt. Diese Diplomarbeit befasst sich mit den theoretischen Grundlagen der Steuerung eines Quadrokopters und entwickelt darauf aufbauend eine kostengünstige Steuerplatine für einen Modellquadrokopter.
Die theoretischen Grundlagen enthalten eine Untersuchung der Dynamik eines frei fliegenden Quadrokopters, bei der Bewegungsgleichungen hergeleitet und mit den Ergebnissen verglichen werden, die in "Design and control of quadrotors with application to autonomous flying" ([Bou07]) vorgestellt wurden. Weiterhin wird die Funktionsweise verschiedener Sensoren beschrieben, die zur Bestimmung der aktuellen räumlichen Ausrichtung geeignet sind, und es werden Verfahren besprochen, mit denen die Ausrichtung aus den Messwerten dieser Sensoren abgeschätzt werden kann. Zusätzlich wird in den Schiefkörper der Quaternionen eingeführt, in dem dreidimensionale Rotationen kompakt dargestellt und effizient verkettet werden können.
Daran anschließend wird die Entwicklung einer einfachen Steuerplatine beschrieben, die sowohl einen autonomen Schwebeflug als auch Fernsteuerung ermöglicht. Die Platine wurde auf einem X-Ufo-Quadrokopter der Firma Silverlit entwickelt und getestet, der daher ebenfalls vorgestellt wird. Die eingesetzten Bauteile und deren Zusammenspiel werden besprochen. Dabei ist insbesondere die WiiMotionPlus hervorzuheben, die als kostengünstiges Gyrosensormodul verwendet wird. Daneben werden verschiedene Aspekte der Steuersoftware erläutert: die Auswertung der Sensordaten, die Zustandsschätzung mit Hilfe des expliziten komplementären Filters nach Mahony et al. ([MHP08]), die Umsetzung des Ausrichtungsreglers sowie die Erzeugung der Steuersignale für die Motoren. Sowohl die Steuersoftware als auch Schaltplan und Platinenlayout der Steuerplatine liegen dieser Arbeit auf einer CD bei. Schaltplan und Platinenlayout sind zusätzlich im Anhang der Arbeit abgedruckt.
Im Rahmen der Arbeit wurde ein mehrstufiger Algorithmus entwickelt, der es ermöglicht, aus Bildfolgen eine Trajektorie der Kamerabewegung zu rekonstruieren. Die Kalibrierung der Kamera beruht auf dem Verfahren von Zhang und ermöglicht den Ausgleich der durch das Objektiv entstehenden radialen Verzerrung der Bilder. Die sich anschließende Detektion prägnanter Merkmale wird durch den SIFT-Operator geleistet, welcher neben subpixelgenauer Lokalisation der Merkmale zusätzlich einen stark markanten Deskriptor zu deren Beschreibung liefert. Außerdem sind die Merkmale invariant gegenüber Rotationen, was für einige mögliche Anwendungsfälle sehr relevant ist. Die Suche nach Korrespondenzen wurde auf Basis der Distance Ratio ausgeführt. Hier wurde eine komplette Formalisierung der Korrelationsbeziehung zwischen Merkmalsvektoren präsentiert, welche eindeutig eine symmetrische Beziehung zwischen SIFT-Merkmalsvektoren definiert, die den an eine Korrespondenz gestellten Ansprüchen gerecht wird. Zusätzlich wurde motiviert, warum die sonst in der Bildverarbeitung gängige Methode der Hierarchisierung zur Reduktion des Aufwands in diesem speziellen Fall zu schlechteren Inlier-Raten in den gefundenen Korrespondenzen führen kann. Anschließend wurde ein genereller Überblick über den RANSAC-Algorithmus und die aus ihm entspringenden Derivate gegeben.
Das Wissen über die genaue Position und Lage eines unbemannten Luftfahrzeugs spielt während der Durchführung einer autonomen Mission eine dominante Rolle. Unbemannte Luftfahrzeuge sind daher mit einer Vielzahl an Sensoren ausgestattet. Jeder dieser Sensoren leistet einen Beitrag zu diesem Ziel, wobei ein Sensor entweder eine absolute oder eine relative Angabe über den derzeitigen Aufenthaltsort oder die Fluglage ermöglicht. Alle Sensoren werden zu einer Gesamtlösung verknüpft, der Navigationslösung. Das am häufigsten eingesetzte - und auch meistens einzige - Verfahren zur absoluten Positionsbestimmung ist die Satellitennavigation. Diese ist abhängig von einer direkten Sichtlinie der mitgeführten Empfangsantenne zu den Satelliten. Falls es zu einer Unterbrechung dieser Sichtlinie kommt, ist eine genaue, absolute Positionsangabe nicht mehr möglich. Die Navigationslösung hat somit nur noch Sensoren zur Verfügung, die eine relative Positions- bzw. Lageangabe ermöglichen. Hierzu gehören das mitgeführte Magnetometer und das Inertialmesssystem. Beide unterliegen dem Phänomen der Drift. Dieses bedeutet, dass die Genauigkeit der Positions- und Lageangabe bei einem Ausfall der Satellitennavigation mit fortschreitender Zeit zunehmend unzuverlässig wird. Um diese Drift in einem bestimmten Rahmen zu kompensieren, kann ein Bildsensor verwendet werden. Dieser ermöglicht eine bildbasierte Bewegungsschätzung und stellt somit einen zusätzlichen Sensor zur Messung von relativen Lage- und Positionsänderungen dar. Ziel der Arbeit ist es, ein Verfahren zur bildbasierten Bewegungsschätzung für einen unbemannten Helikopter zu entwickeln und zu evaluieren.
Die Selbstlokalisation von Robotern ist schon seit Jahren ein aktuelles Forschungsthema, das insbesondere durch immer weiterentwickelte Techniken und Verfahren verbessert werden kann. Insbesondere finden Laserscanner in der Robotik immer häufiger Anwendung. In dieser Arbeit wird untersucht, ob durch die Fusionierung von Kamerabildern und 3D-Laserscannerdaten eine robuste und schnelle Selbstlokalisation theoretisch sowie praktisch realisierbar ist.
Business continuity planning
(2008)
Unternehmenskrisen lassen die Weltwirtschaft aufhorchen - gerade in jüngster Zeit häufen sich die Nachrichten über Notfälle und folgenschwere Fehlentscheidungen in Organisationen aller Art. Vieles bekommt die Außenwelt aber gar nicht erst mit, wenn die Ausweitung von Störungen noch in letzter Sekunde verhindert werden kann. Und wenn das Ausmaß zu groß wird? Dann droht oft das wirtschaftliche Aus. Business Continuity Planning ist der Vorsorgeprozess, der eine Institution auf den Ausnahmefall vorbereitet und garantiert, dass deren Existenz zu jeder Zeit gesichert ist und alle geschäftskritischen Prozesse auch während einer Krise aufrecht erhalten werden können. Diese Diplomarbeit erleichtert den Einstieg in das Thema Business Continuity Planning und in die erfolgreiche Umsetzung von Notfallmaßnahmen. Aus dem Blickwinkel der IT werden wertvolle Definitionen und Abgrenzungen gegeben und die Problemstellungen und Lösungswege einer individuellen Notfallvorsorge aufgegriffen. Fokussiert wird ein umfassender Überblick über die zentralen Teilbereiche des Planungsprozesses (und ihrer Erfolgskriterien) und ein praktischer Einblick in das Krisenmanagement.
Augmented Reality bedeutet eine reale Umgebung mit, meistens grafischen, virtuellen Inhalten zu erweitern. Oft sind dabei die virtuellen Inhalte der Szene jedoch nur ein Overlay und interagieren nicht mit den realen Bestandteilen der Szene. Daraus ergibt sich ein Authentizitätsproblem für Augmented Reatliy Anwendungen. Diese Arbeit betrachtet Augmented Reality in einer speziellen Umgebung, mit deren Hilfe eine authentischere Darstellung möglich ist. Ziel dieserArbeitwar die Erstellung eines Systems, das Zeichnungen durch Techniken der Augmented Reality mit virtuellen Inhalten erweitert. Durch das Anlegen einer Repräsentation soll es der Anwendung dabei möglich sein die virtuellen Szeneelementemit der Zeichnung interagieren zu lassen. Dazu wurden verschiedene Methoden aus den Bereichen des Pose Tracking und der Sketch Recognition disktutiert und für die Implementierung in einem prototypischen System ausgewählt. Als Zielhardware fungiert ein Android Smartphone. Kontext der Zeichnungen ist eine Dungeon Karte, wie sie in Rollenspielen vorkommt. Die virtuellen Inhalte nehmen dabei die Form von Bewohnern des Dungeons an, welche von einer Agentensimulation verwaltet werden. Die Agentensimulation ist Gegenstand einer eigenen Diplomarbeit [18]. Für das Pose Tracking wurde ARToolkitPlus eingesetzt, ein optisches Tracking System, das auf Basis von Markern arbeitet. Die Sketch Recognition ist dafür zuständig die Inhalte der Zeichnung zu erkennen und zu interpretieren. Dafür wurde ein eigener Ansatz implementiert der Techniken aus verschiedenen Sketch Recognition Systemen kombiniert. Die Evaluation konzentriert sich auf die technischen Aspekte des Systems, die für eine authentische Erweiterung der Zeichnung mit virtuellen Inhalten wichtig sind.
Mit dem Projektpraktikum "MicSim" wurde 2004 der Grundstein für ein auf Java basierendes Mikrosimulationssystem gelegt. Für das gleichnamige Produkt diente UMDBS von Prof. Dr. Thomas Sauerbier, Fachhochschule Giessen-Friedberg als Vorlage, welche eine Modellimplementierung in MISTRAL vorsieht. Da MISTRAL eine veraltete prozedurale Programmiersprache ist und somit nicht mehr dem objektorientierten Zeitgeist entspricht, entschloss sich die Projektgruppe eine gänzlich neue objektorientierte Umgebung zu erstellen. Diese sollte sowohl den Funktionsumfang von UMDBS beinhalten, als auch eine bequeme Möglichkeit bieten, objektorientierte Modelle einer Mikrosimulation in Java zu erstellen. Das Projektpraktikum endete 2005 mit einem lauffähigen objektorientierten Nachfolger von UMDBS. Da jedoch MicSim noch einige Schwachstellen aufwies, wurde dieses System in der Studienarbeit "MicSim - Agentenbasierte Mikrosimulation" von Pascal Berger, Dennis Fuchs, Peter Hassenpflug und Christian Klein 2006 weiterentwickelt und zu dem heutigen "CoMICS" umbenannt. Jedoch konnten nicht alle Probleme der Software beseitigt werden. So blieb das schlecht skalierende Ablaufverhalten einer Simulation und die unzureichende Unterstützung des Benutzers bei syntaktischen Programmierfehlern weiterhin bestehen. Dies führte zu dem Entschluss, ausgehend von CoMICS, die Idee eines java-basierten Mikrosimulationssystems weiter auszubauen. Im Zuge einer Analyse dieses Systems kristallisierten sich sehr schnell einige Punkte heraus, die uns verbesserungswürdig erschienen. Die gravierendste Veränderung stellte hierbei die Umstellung auf eine event-orientierte Mikrosimulation dar. Hierzu mussten die komplette Modellstruktur, Ablauflogik und sogar jegliche Modellierungswerkzeuge neu entwickelt werden. All dies führte dazu, dass CoMICS II von Grund auf neu entwickelt werden musste.
Diese Arbeit hat die Entwicklung eines Verfahrens zum Ziel, dass Bewegung und auftretende Bewegungsunschärfe durch Verfahren des Non-Photorealistic Renderings darstellt. Dabei soll das angestrebte Verfahren den Verlauf der Bewegung für ein dargestelltes Bild ermitteln und mit Speed Lines annähern. Das sich bewegende Objekt bzw. der sich bewegende Teil des Objekts wird abhängig von der Stärke der Bewegung teilweise bis komplett ausgeblendet. Das Verfahren soll echtzeitfähig sein. Aufgrund von vorgestellten Verfahren im Bereich NPR und Motion Blur entwickelt die Arbeit eigene Ansätze, die die genannten Anforderungen umsetzen. Dabei beachtet die Arbeit zwei Aspekte: Sie nimmt so wenige Änderungen wie möglich am verwendeten Szenegraphen vor und führt nach Möglichkeit zur Laufzeit keine Berechnungen auf Seiten der CPU durch. So soll ein Verfahren entstehen, das als Post-Processing Verfahren in Anwendungen integriert werden kann, interaktive Wiederholungsraten ermöglicht und damit auch in Spielen zur Anwendung kommen kann.
Software projects typically rely on several, external libraries. The interface provided by such a library is called API (application programming interface). APIs often evolve over time, thereby implying the need to adapt applications that use them. There are also reasons which may call for the replacement of one library by another one, what also results in a need to adapt the applications where the library is replaced. The process of adapting applications to use a different API is called API migration. Doing API migration manually is a cumbersome task. Automated API migration is an active research field. A related field of research is API analysis which can also provide data for developing API migration tools.
The following thesis investigates techniques and technologies for API analysis and API migration frameworks. To this end, design patterns are leveraged. These patterns are based on experience with API analysis and migration within the Software Languages Team.
Animated children’s films can be seen as integral parts of western children’s culture and are very popular among their young target group. Accordingly an accurate scientific examination of these film’s contents seems useful. Previous quantitative content analyses are mainly concerned with “classic” Disney animated films. There is less research regarding more modern computer-animated films from different film studios. Thus the aim of the quantitative content analysis in this study is to contribute to the research field by examining portrayals in 20 very popular computer-animated films from 2000 to 2013. The focus here is on the relations between demographic, physical, linguistic as well as on personality-based and behavioral features of the film characters and their “goodness” or rather “evilness”. In conjunction with analyses of extreme groups the features of particularly “good” or rather particularly “evil” film characters are also taken into account.
In addition the features of film characters undergoing a fundamental change of their “goodness” or “evilness” during the film plot are examined. Hereby a comprehensive picture of depiction-tendencies regarding the “goodness” or rather the “evilness” of animated film characters and of the extent to which they may be associated with certain stereotypes should be enabled. In the theoretical part of this study important findings from the actual state of research concerning typical depictions in animated children’s films are summed up. Then theories and empirical findings about possible effects on children who watch such films are described. Subsequently in the empirical part of the study the methodological approach in this content analysis is explained and the corresponding results are mentioned and discussed with regard to possible effects and pedagogical conclusions. The findings indicate that the portrayal of “good” and “evil” in the films examined as a whole can be considered as stereotypical only in some points: For example “good” film characters are significantly more attractive and achieve better results at the end of a film compared to “evil” characters. But in total the findings of this content analysis can be viewed rather positive, also regarding potential effects on children. Nevertheless further research on that topic can deemed to be of concern.
A trending topic in Semantic Web research deals with the processing of queries over Linked Open Data (LOD). As has been shown in literature, the loose nature of the "web of data" and data sources within can be accounted for by employing federated query processing strategies. This approach, however, is all the more dependent on both up-to-date statistical summaries (data statistics) of the sources in use and accurate and precise estimation of cardinalities and selectivities. In general, federated data sources are to be seen as black-boxes w.r.t. data statistics, as no interchange of such information can be expected. Because of this, it is possible for individual data statistics to become obsolete, if the corresponding source is subjected to data changes cumulating over time. In this thesis an adaptive system is being proposed, that complements a given RDF-based query federator. Through observation and analysis of the error of the cardinality estimation of incoming queries, it tries to infer the obsolescence of individual data statistics, triggering updates of data statistics found to be obsolete. An evaluation of the system shows, that the approach to this solution is plausible. Yet, in practice no satisfying results could be acquired, that would prove a true practicality. Still, parts of the system proposed may be re-used for related tasks that could be more promising.
Im Laufe der Zeit fallen in einem Unternehmen große Mengen von Daten und Informationen an. Die Daten stehen im Zusammenhang mit unternehmensinternen Vorgängen, mit dem Marktumfeld, in dem das Unternehmen positioniert ist, und auch mit den Wettbewerbern. Sie sind vielfältiger Art, normalerweise inhomogen und aus verteilten Datenquellen zu beziehen. Um in dieser Flut von Daten die Übersicht zu behalten, die Menge an Informationen effektiv für das Unternehmen nutzbar zu machen, vor allem auch nachhaltig für kommende Entscheidungsfindungen, müssen die Daten analysiert und integriert werden. Diese Optimierung der Entscheidungsfindung durch Zugang zu Informationen, deren Analyse und Auswertung wird häufig unter dem Begriff "Business Intelligence" zusammengefasst. Der Wert der vorhandenen Informationen hängt stark von dem erwähnten Zugang und einer ausdrucksstarken Repräsentation ab. RIA-Techniken ermöglichen eine einfache Verfügbarkeit der verarbeiteten Geschäftsdaten über Inter- und Intranet ohne große Anforderungen an ihre Nutzbarkeit zu stellen. Sie bieten zudem spezialisierte leistungsfähige und in großem Maße programmierbare Visualisierungstechniken. Die Diplomarbeit soll zwei Schwerpunkte habe. Zum Einen wird sie sich mit Arten der Informationsvisualisierung im Allgemeinen und deren Eignung für Geschäfsdaten beschäftigen. Der Fokus liegt hierbei auf Daten und Informationen in Management-Informationsberichten. Ziel ist eine Visualisierungsform, die es dem Nutzer ermöglicht, die zu kommunizierenden Informationen effizient auszuwerten. Zum anderen untersucht die Diplomarbeit die Vor- und Nachteile des Einsatzes von RIAs. Der Implementierungsteil umfasst eine RIA als "Proof of Concept", deren Hauptaugenmerk auf eine dynamische Interaktion und optimierte Informationsvisualisierung gerichtet sein soll. Die Diplomarbeit wird bei der Altran CIS in Koblenz durchgeführt.
Dynamisches Tone Mapping einer High Dynamic Range Echtzeit 3D-Umgebung mit der Grafik Hardware
(2007)
The thesis "E-Partizipation Virtual Ressourcen Portal" describes the conception and implementation of the Virtual Resource Centre (VRC), an international resource and knowledge portal for multidisciplinary research and application areas in the domain of eParticipation. The need for such a portal was developed in the context of the European DEMO_net project, the eParticipation network of excellence. The aim of this portal is to improve the spreading of the actual knowledge of the connected researchers and practitioner in the domain of eParticipation. For this, the collaboration and discussion with each other in different distributed projects will be improved and the results of the works will be published and saved. A well structured and an easy to handle portal is necessary therefore, as many connected institutions are not familiar with technological businesses. Further aims of the VRC are avoiding redundant developments to report excellent research facilities for the different subjects and to dynamically list the running projects in selectable categories. The technical base for the portal is a web content management system (WCMS), provided with many increments. To detect a suitable WCMS, the systems Plone, TYPO3 and Xoops are compared by a value benefit analyses. The special requirements for the VCR are fulfilled by the development and integration of increments, which include and provide the administration of publications, the overview of projects and research areas, etc. using an actual Web 2.0 functionality. This thesis is based on two different research methods, where the basic method design research is. Design research describes a compendium of how a portal can be modeled and realized in five phases. Another used method is the hypertext design model, which is used to build a model of the VRC. In the description of the implementation the changes in the WCMS, the user administration and the access control are explained as a guideline. In the conclusion of the thesis, an overview over the challenges and a recommendation for further developments and potential work is shown.
Die Idee des Displacement Mappings ist 30 Jahre alt und wurde im Laufe der Zeit immer weiterentwickelt, verbessert und realistischer. Die meisten Verfahren basieren auf der Simulation von Geometrie, d.h. das Displacement Mapping Verfahren rechnet auf speziellen Texturen, um den Eindruck von Tiefe zu verstärken. Echte Displacement Mapping Verfahren verändern tatsächlich die Geometrie, doch davon wurde in der Vergangenheit Abstand genommen, da die Berechnung auf der CPU zu aufwändig war bzw. das Ergebnis nicht den Aufwand rechtfertigte. Dazu mussten bisher die Punkte von der Applikation im geeigneten Detailgrad erzeugt werden. Die Verfahren der Geometrieerzeugung sind daher weniger performant. Außerdem können die texturbasierten Simulationsverfahren bereits blickwinkelabhängige Effekte, Selbstverschattung und auch Selbstverdeckungen darstellen. Als Nachteil sind die Randprobleme bei diesen Verfahren zu nennen. Dennoch hat Displacement Mapping mit diesen Verfahren zunehmend Einzug in die Spieleindustrie gehalten, für die es bisher zu rechenaufwändig war. Hier bieten die neusten Erweiterungen der GPU interessante Potentiale, da mit Geometry Shadern die Möglichkeit besteht, echte Geometry beschleunigt und adaptiv zu erzeugen. Ziel dieser Arbeit ist es verschiedene Verfahren für echtes Displacement Mapping mit dem Geometry Shader zu untersuchen. Dabei wird neue Geometrie aus einer Textur heraus erzeugt. Hierbei werden Polygone und Punkte generiert. In der Textur werden neben den Normalen noch die Höhenwerte im Alphawert gespeichert. Außerdem wird noch ein Verfahren untersucht, welches Volumeninformationen simuliert, um Überhänge und schwebende Objekte zu erzeugen.
Shadows add a level of realism to a rendered image. Furthermore, they support the user of an augmented reality application through the interactions of virtual objects. The reason for this is that shadows make it easier to judge the position and the size of a virtual object. In 1978, Lance Williams published the shadow mapping algorithm with the aim to render a shadow of objects in a virtual scene. This master thesis presents a modified shadow mapping approach that can additionally be used in Augmented/Mixed Reality applications. First of all the standard algorithm ist extended by a PCF-filter. This filter is used to handle the aliasing-problem on the edges of the shadow and also to soften the shadow. Phantom objects are necessary to be able to operate this approach in a Mixed Reality application. These objects simulate the position and the geometry of the real objects for the algorithm. The approach consists of three steps: First the camera image is drawn into the framebuffer. After that a shadow map, of the virtual objects only, is created. When rendering these objects shadow mapping creates the shadows of virtual objects onto other virtual objects and on themselves. Afterwards the phantom objects are rendered. The depth test is performed on the fragment shader. If a fragment lies in a shadowed region it will get the color of the shadow. However, if it is beeing lit its transpareny value will be set to 1 so that it will not be seen. By applying this procedure all shadows from the virtual objects onto the real objects will be drawn. The results show that the approach can be used in real time in Mixed Reality environments. Additionally a comparison with a modified version of a shadow volume algorithm that can also be used for Mixed Reality applications shows that the approach of this master thesis casts a more realistic shadow in a shorter period of time. All in all this approach increases the level of realism in augmented reality applications and it helps the user measure distances and sizes of the virtual objects more easily.
In dieser Diplomarbeit wurde eine Echtzeitanwendung entwickelt, die Gras darstellt und zugleich äußere Einflüsse wie Wind oder Kollisionen auf das Gras berücksichtigt. Ein Level-of-Detail-System ermöglicht die Darstellung und Physiksimulation einer großen Wiese in drei Stufen. Semi-transparente Texturquads zur Darstellung und Partikel mit Constraints an der Stelle der Graspatches stellen die feinste Detailstufe in allernächster Nähe zum Betrachter dar. Die Partikel, die nur auf der feinsten Detailstufe verwendet werden, werden mittels einer Physik-Engine berechnet und reagieren auf verschiedene Starrkörper. Die zweite Detailstufe besteht ebenfalls aus Texturquads, die um das erste Detaillevel herum generiert werden. Diese sind jedoch spärlicher verteilt, sehen auf Grund der Distanz zum Betrachter allerdings identisch mit denen aus der ersten Stufe aus. Als letzte Repräsentationsform von Gras kommt eine einfache Bodentextur zur Anwendung. Durch dieses Level-of-Detail-System ist es möglich eine unendlich große Wiese zu simulieren, da die Gräser zur Laufzeit generiert werden. Ein umfangreiches Benutzerinterface ermöglicht die Veränderung einiger Simulationsparameter in Echtzeit und die Generierung verschieden großer Rasenflächen. Zusätzlich lassen sich verschiedene Objekte in der Simulationsumgebung bewegen um die Kollisionsbehandlung testen zu können.
Diese Arbeit macht sich zur Aufgabe, das effiziente Navigieren in virtuellen Szenen näher zu betrachten, um bereits bestehende Navigationsmetaphern genauer zu erforschen und für unterschiedliche Einsatzgebiete anwendbar zu machen. Betrachtet werden Softwareprodukte für durchschnittliche Desktop-Benutzer, die mit Standard-Eingabegeräten arbeiten. Hierzu werden zunächst bestehende Navigationsmetaphern analysiert und Möglichkeiten der Benutzerperspektive sowie andere Hilfsmittel im Hinblick auf ihr aktuelles Anwendungsgebiet diskutiert. Anschließend wird ein theoretisches Testszenario erstellt, in dem alle analysierten Metaphern betrachtet und verglichen werden können. Ein Teil dieses Szenarios wird praktisch umgesetzt, in eine Testumgebung integriert und anhand von Benutzertests evaluiert. Zuletzt werden Möglichkeiten aufgezeigt, inwiefern die betrachteten Navigationsmetaphern in verschiedenen Einsatzgebieten sinnvoll und effizient anwendbar gemacht werden können.
Standards are widely-used in the computer science and IT industry. Different organizations like the International Organization for Standardization (SO) are involved in the development of computer related standards. An important domain of standardization is the specification of data formats enabling the exchange of information between different applications. Such formats can be expressed in a variety of schema languages thereby defining sets of conformant documents. Often the use of multiple schema languages is required due to their varying expressive power and different kind of validation requirements.rnThis also holds for the Specification Common Cartridge which is maintained by the IMS Global Learning Consortium. The specification defines valid zip packages that can be used to aggregate different learning objects. These learning objects are represented by a set of files which are a part of the package and can be imported into a learning management system. The specification makes use of other specifications to constrain the contents of valid documents. Such documents are expressed in the eXtensible Markup Language and may contain references to other files also part of the package. The specification itself is a so-called domain profile. A domain profile allows the modification of one or more specifications to meet the needs of a particular community. Test rules can be used to determine a set of tasks in order to validate a concrete package. The execution is done by a testsystem which, as we will show, can be created automatically. Hence this method may apply to other package based data formats that are defined as a part of a specification.
This work will examine the applicability of this generic test method to the data formats that are introduced by the so called Virtual Company Dossier. These formats are used in processes related to public e-procurement. They allow the packaging of evidences that are needed to prove the fulfillment of criteria related to a public tender. The work first examines the requirements that are common to both specifications. This will introduce a new view on the requirements by introducing a higher level of abstraction. The identified requirements will then be used to create different domain profiles each capturing the requirements of a package based data format. The process is normally guided by supporting tools that ease the capturing of a domain profile and the creation of testsystems. These tools will be adapted to support the new requirements. Furtheron the generic testsystem will be modified. This system is used as a basis when a concrete testsystem is created.
Finally the author comes to a positive conclusion. Common requirements have been identified and captured. The involved systems have been adapted allowing the capturing of further types of requirements that have not been supported before. Furthermore the background of the specifications quite differ. This indicates that the use of domain profiles and generic test technologies may be suitable in a wide variety of other contexts.
Ein Interpreter für GReQL 2
(2006)
Im Rahmen dieser Diplomarbeit wird die Auswertungskomponente fuer die Graphanfragesprache GREQL 2, welche von Katrin Marchewka beschrieben wurde, entworfen, welche Anfragen diese Sprache interpretiert. Die Auswertungskomponente besteht aus den Bausteinen Auswerter, Parser, Optimierer, Funktionsbibliothek und dem Containerframework JValue. Der Parser wurde bereits von Katrin Marchewka implementiert, der Optimierer bleibt einer Anschlußarbeit vorbehalten. Innerhalb dieser Arbeit werden die Bausteine Auswerter, Funktionsbibliothek und JValue als Prototypen implementiert. Aufgrund der Erfahrungen mit der Auswertungskomponente fuer den GREQL 2-Vorgaenger GREQL 1 ist das Primaerziel dieser Arbeit der Entwurf einer sauberen, klaren, erweiterbaren und zukunftsfähigen Architektur, wobei die aktuellen Prinzipien der Softwaretechnik beüecksichtigt werden sollen.
In dieser Arbeit wurden effektive und flexible Ansätze zur Erstellung von Shaderprogrammen für grafikkartenbasiertes Volumenrendering untersucht sowie ein Framework mit diesem Einsatzzweck konzipiert und prototypisch umgesetzt. Dazu wurden zunächst Ansätze zur Metaprogrammierung von Shadern vorgestellt, die Programmiersprachen für Shader um zusätzliche Möglichkeiten zur Kapselung von Code erweitern. Eine Umfrage zu Anforderungen an Volumenrendering bei MEVIS zeigte, dass dort ein Shaderframework für Volumenrendering ein Expertenwerkzeug wäre.Der Analyseteil stellte die zentralen Anforderungen an das zu erstellende Framework vor: Erstellung von Shadern des Volumenrenderers mittels Rapid Prototyping, modularer Aufbau der Shaderprogramme, Eignung für verschiedene Volumenrendering-Algorithmen und die Möglichkeit detaillierter Anpassungen am Volumenrendering-Shader, um für den Einsatz durch Experten geeignet zu sein.
Die Arbeit zeigt die Entwicklung einer virtuellen Welt als Facebook App. Grundlage bietet hierfür ein Szenengraph, der an die Anforderungen der virtuellen Welt angepasst wurde. Bei der Entwicklung liegt ein Schwerpunkt auf neuer und zum Teil noch experimenteller Web-Technologie (Google Web Toolkit, Google App Engine). In der virtuellen Welt schlüpft der Benutzer in die Rolle eines Avatars. Er kann Räume seiner Facebook-Freunde besuchen, seinen eigenen Raum gestalten und neue 3D-Modelle für den Avatar oder die Inneneinrichtung in die virtuelle Welt hochladen.
Ziel der vorliegenden Arbeit ist die Entwicklung von Zukunftsszenarien, anhand derer die Entwicklung der Technik und des Einsatzes elektronischer Signaturen im europäischen eGovernment im Jahr 2020 untersucht werden kann. Mit Hilfe der Ergebnisse im Vergleich zur aktuellen Situation soll ein Forschungsplan entworfen werden, der vorhandene Lücken schließt und die Weiterentwicklung des Themas auf die zukünftigen Veränderungen unserer Gesellschaft vorbereitet.
Computers and especially computer networks have become an important part of our everyday life. Almost every device we use is equipped with a computer or microcontroller. Recent technology has even boosted this development by miniaturization of the size of microcontrollers. These are used to either process or collect data. Miniature senors may sense and collect huge amounts of information coming from nature, either from environment or from our own bodies. To process and distribute the data of these sensors, wireless sensor networks (WSN) have been developed in the last couple of years. Several microcontrollers are connected over a wireless connection and are able to collect, transmit and process data for various applications. Today, there are several WSN applications available, such as environment monitoring, rescue operations, habitat monitoring and smart home applications. The research group of Prof. Elaine Lawrence at the University of Technology, Sydney (UTS) is focusing on mobile health care with WSN. Small sensors are used to collect vital data. This data is sent over the network to be processed at a central device such as computer, laptop or handheld device. The research group has developed several prototypes of mobile health care. This thesis will deal with enhancing and improving the latest prototype based on CodeBlue, a hardware and software framework for medical care.
The aim of this diploma thesis is to analyse the actual business architecture at the administration of the university Koblenz-Landau. Another subject matter of the article focuses on the existing application architecture. This architecture is necessary to support the employees work. The Enterprise Architecture will be described by models. They are an important instrument for the exchange of information between different stakeholders. Actual research projects from different universities are represented at the beginning of this elaboration. Subsequent to this, important enterprise architecture frameworks and methods for archiving the tasks are introduced. The concept for the analysis is represented at the outset of the empirical part. After that, a description of the as-is architecture follows. The actual state is modelled by process maps, planning schemes, data flow graphics and a process model. In the next step, an evaluation and identification of weak points is done. Different recommendations to improve the use of information technology at the administration are presented at the end of this degree dissertation. An existing cross-functional process will be analysed, modelled and evaluated. It- about the registration and authorization of projects supported by third-party funds. Finally, a prototype is introduced. The advantages and functionalities of a new system can be shown with this first model. Notices about the next steps, a conclusion and an outlook conclude the work.
Ziel der Arbeit ist es, Kriterien und Gütemaße zur Bewertung von Merkmalen aus der Musterklassifikation zu finden und diese so in eine graphische Evaluationsumgebung zu integrieren, dass der Nutzer befähigt wird, Erkenntnisse über die Struktur des Merkmalsraumes und die Qualität der einzelnen Merkmale zu erlangen, so dass er zielführend eine möglichst optimale Teilmenge - im Sinne der Klassifikationsgüte und der Anzahl der Merkmale - gewinnen kann. Zunächst werden allgemeine visuelle Merkmale von Pollenkörnern und die manuelle Pollenzählung vorgestellt sowie eine Übersicht über das Pollenmonitor-Projekt zur automatisierten Pollen-Erkennung gegeben. Einem Überblick über die Grundlagen der Mustererkennung mit den Teilschritten Merkmalsextraktion und Klassifikation folgt eine Vorstellung von Kriterien zur Merkmalsbewertung und Verfahren zur Merkmalsselektion. Im Mittelpunkt stehen Entwurf und Umsetzung der Evaluationsumgebung sowie Experimente zur Bewertung und Selektion optimaler Teilmengen aus dem Testdatensatz
Ziel dieser Arbeit ist es, Techniken zu zeigen, die es ermöglichen in der heutigen Zeit ohne besonderen Mehraufwand große und authentische Spielewelten zu schaffen. Nicht nur das räumliche Ausmaß der Welt soll ohne zusätzlichen Aufwand wachsen, sondern auch der Abwechslungsreichtum und somit Wiederspielwert soll ansteigen. All dies soll am Szenario einer futuristischen Großstadt gezeigt werden. Bereits die US-amerikanische Spielefirma Blizzard Entertainment Incorporated hat mit der Spielereihe Diablo gezeigt, dass es möglich ist, authentische Welten aus einem kleinen Vorrat von Bausteinen zu erzeugen, so dass diese Welten qualitativ hochwertig sind und einen enormen Wiederspielwert besitzen.
Die Arbeit befasst sich mit der Thematik "Frauen und Computerspiele". Um einen kurzen Überblick über die Thematik zu geben, werden zunächst einige aktuelle Studien präsentiert. Anschließend werden bisherige Erkenntnisse zu den Vorlieben weiblicher Computerspieler herausgestellt. Insbesondere wird untersucht, was Frauen motiviert, Computerspiele zu spielen, welche Themen und Konfliktlösungen sie bevorzugen. Auch die Zugangsweise zum Computer wird betrachtet und die Frage, wie hoch die Fehlertoleranz von Frauen bei Computerspielen ist. Um die Präferenzen weiblicher Spieler untersuchen zu können, wird ein Casual Game mit zwei unterschiedlichen Leveln entwickelt. Das erste ähnelt vom Aufbau her Casual Games, die aktuell im Internet zu finden sind und schon einige Frauen begeistert haben, z.B. "Cake Mania". In das Spiel, insbesondere in das zweite Level, sind zusätzliche Elemente eingebaut, welche den ausgearbeiteten Vorlieben entsprechen. Abschließend wird das Spiel weiblichen Testpersonen über das Internet zur Verfügung gestellt, und über einen Online-Fragebogen werden die herausgearbeiteten Thesen überprüft.
Program slicing is a technique for extracting that parts of a program which influence a previously defined, so-called slicing criterion. The latter mostly takes the form of a source code statement and a set of variables. Over the years an abundance of variants and enhancements has evolved from the original notion of a program slice. One of these developments is called chopping. A chop only contains those statements which are necessary to sustain the effects of a certain statement on another statement. Corresponding to the slicing criterion, the two statements have to be available in advance. This diploma thesis deals with the development of a service model in order to support the computation of a slice or a chop, given an original program and a slicing or chopping criterion respectively. A service model is a framework of communicating services so that each service performs a specific task within the concept of program slicing. The three main tasks, without considering further decomposition, are the mapping of program code into a representation suitable for slicing, the slicing itself and the display of the slice as code. The key benefit of service-orientation is that a service encapsulates the underlying algorithms. Hence the possibility of improving or substituting them without changing the interfaces of the related service relieves the developer of the need of adapting adjoining services. Thus, service-orientation fosters maintainability and improvability. Besides the definition of the services, this thesis also partially formally defines the data flow between them, i.e. their interfaces. It also features graph class definitions for most data structures. An accurate description of the interfaces encourages reuse, provided the services are of adequate granularity.
Zum Zeitpunkt der Erstellung der Diplomarbeit wird in der Forschungsgruppe "IT-Risk-Management" von Prof. Dr. Rüdiger Grimm an der Universität Koblenz-Landau eine neue Methode zur Unterstützung der Einhaltung des Urheberrechts entwickelt. Der als Usage Rights Management (URM) bezeichnete Ansatz soll Benutzer über ihre Nutzungsrechte an den, auf dem eigenen Rechner vorhandenen, digitalen Mediendateien informieren. Ein weiterer Bestandteil des URMs ist die Unterstützung des Nutzers mit den Dateien rechtskonform umzugehen. Das Ziel der vorliegenden Diplomarbeit ist es, ein System zum Datenaustausch zu entwerfen und prototypisch umzusetzen. Dieses System soll den Benutzern die Möglichkeit geben, sowohl unter URM stehende digitale Mediendateien von anderen Personen einsehen und downloaden zu können als auch eigene URM-Dateien anderen Benutzern zur Verfügung stellen zu können. Diese Anforderungen sollen mittels eines lizenzbewussten P2P-Client umgesetzt werden.
In dieser Arbeit wird ein zweigeteilter Regler für die Pfadverfolgung eines Modellfahrzeugs mit einachsigem Anhänger entwickelt. Darüber hinaus wird ein Beweis für die Stabilität und die Konvergenzeigenschaft der gefundenen Regelungsgesetze geliefert. Das Verfahren wird anschließend in die bestehende Steuersoftware des Versuchsfahrzeuges integriert und eine Testumgebung erstellt, um das Regelungsverfahren damit abschließend zu evaluieren.
Die Diplomarbeit "Entwicklung eines Telemedizinregister-Anforderungskatalog" behandelt die Erstellung eines Anforderungskatalogs für die Entwicklung eines im telemedizinischen Bereich anwendbaren Registers zur Unterstützung von Abrechnungsvorgängen. Diese werden im deutschen Gesundheitswesen zwischen telemedizinischen Dienstleistern und Kostenträgern in Zusammenhang mit der integrierten Versorgungsform durchgeführt, um die Finanzierung durchgeführter telemedizinischer Behandlungen abzurechnen. Dabei dient das Telemedizinregister als eine datenvorhaltende Speicherstelle, die Kopien von Behandlungsdaten telemedizinischer Dienstleister aufnimmt und deren Verarbeitungsprozesse im Register protokolliert. Den beteiligten Kostenträgern wird Zugriff auf dieses Telemedizinregister gewährt, um die Validität der Therapiedaten überprüfen zu können, die ihnen durch telemedizinische Dienstleister zur Analyse vorgelegt werden. Die Arbeit beschreibt die theoretischen Grundlagen der Bereiche Datenschutz und Telemedizin, mit denen Anforderungslisten und ein SOLL-Modell eines Telemedizinregisters erstellt werden. Dieses Modell setzt sich aus Datenmodellen und Prozessbeschreibungen zusammen und wird mit Hilfe eines praktischen Beispiels einer telemedizinischen Behandlung überprüft. Die Integration verschiedener Standards, welche bei Datenaustausch-Prozessen eingesetzt werden können, ist ein weiterer Teil zur Konzeptionierung des Telemedizinregisters, zu dem mögliche Anwendungsfelder zur Erweiterung der Funktionalität beschrieben werden.
Das Ziel der Arbeit ist es, weibliche Vorlieben bei Computerspielen zu untersuchen. Dazu werden Thesen, die bereits in vorangegangenen Arbeiten aufgestellt wurden, durch ein geeignetes Testszenario in der Praxis untersucht. Hierbei werden zwei Testapplikationen entwickelt. Eine Applikation wird entsprechend den Thesen bzgl. weiblicher Spielpraeferenzen umgesetzt, die andere orientiert sich nicht an diesen Erkenntnissen und beinhaltet Spielelemente, die fuer Frauen weniger ansprechend sein sollen. Die Versuchspersonen spielen im Rahmen des abschließenden Testszenarios beide Applikationen. Durch einen Fragebogen wird ermittelt, wie die verschiedenen Konzepte auf die Testpersonen wirken und ob die herangezogenen Thesen bestaetigt werden koennen. Eine Vielzahl der betrachteten Thesen koennen so gefestigt werden. Deutlich geschlechtsspezifische Vorlieben stellen sich etwa in Bezug auf den Konflikt und die Auswahl der Spielfigur heraus. Andere Aspekte wie die Puzzle-Sequenzen stossenen bei beiden Geschlechtern auf grosse Zustimmung.
Im Rahmen dieser Diplomarbeit wird ein TGraph-basiertes Modell-Vergleichsverfahren entwickelt. Dieses Verfahren soll eine anwendbare Berechnung von Deltas für TGraph-basierte Modelle ermöglichen. Modelle können durch TGraphen repräsentiert werden. Für die Erzeugung und Verarbeitung von TGraphen wurde am Institut für Softwaretechnik das Java Graph Laboratory, kurz JGraLab, entwickelt. Es handelt sich dabei um eine Java Klassenbibliothek, die eine hoch effiziente API zur Verarbeitung von TGraphen bereitstellt. [Ebe87, ERW08, ERSB08] Basierend auf der JGraLab API wird ein System entwickelt, das unterschiedliche Werkzeuge zur Verwaltung von Modellen bereitstellt. Der Fokus dieser Diplomarbeit liegt dabei auf der Entwicklung eines Werkzeugs, das zu zwei gegebenen TGraphen ein Delta berechnet.
Gerade bei der Garten- und Landschaftsgestaltung eröffnen sich viele kreative Möglichkeiten, die zwar der Landschaftsarchitekt, aber nicht dessen Kunde auf Anhieb überblicken kann. Es fehlt eine strukturierte Anwendung mit dessen Hilfe der Kunde auch ohne Fachkenntnisse diese Möglichkeiten erkennen und nutzen kann. Ziel dieser Arbeit ist eine webbasierte Auswahlumgebung zu schaffen, die Benutzer Schritt für Schritt durch die Anwendung führt und dabei den gestalterischen Ansprüchen von Landschaftsarchitekten genügt. Für Nutzer ohne Fachkenntnisse soll eine leicht verständliche Selektion ermöglicht werden mit Hilfe themengebundener Einschränkungen (z.B. nur mediterane Objekte/Pflanzen), die jedoch auch Erweiterungen erlauben. Um dem Benutzer seine gewählten Pflanzen und Objekte auch anschaulich zu machen, soll jederzeit eine Vorschau zur Verfügung stehen. Je nach Auswahl, kann eine X3D-Datei dynamisch erzeugt und mittels X3D-Browser dargestellt werden.
Planning routes for trucks with a trailer is a complex procedure. In order to simplify this process, a route is segmented into elementary components, which represents basic motions of the considered vehicle. These elementary components are called maneuvers and are composed of two party. First, paths are constructed for certain reference points. Second, the vehicle is enclosed by a corridor during the execution of a maneuver. The paths of the vehicle have to take driveability into consideration. They must respect the kinematic constraints of the vehicle. The maneuver corridor can be used as a basis to guarantee collision-free motion planing. No part of the vehicle leaves the corridor during the maneuver. There are different types of maneuvers. Currently, the bending maneuver, the cusp maneuver and the straight line maneuver can be distinguished. In addition, a maneuver can be created with two different construction methods, the conventional and the iterative method.
In this thesis, a data structure to construct a maneuver is designed and implemented. The data structure is integrated into an already existing tool. The user can interact with the software to adjust various parameters of a maneuver. Afterwards the maneuver is generated based on these parameters. This also includes a visualization within the software, which can plot the parts of a maneuver. The visualization can be exported to an image file.
Diese Diplomarbeit analysiert die Voraussetzungen für eine Simulation mit Normen, schlägt einen Coderahmen vor und stellt ein Modellierungs- und Codegenerierungs-Plugin für Eclipse, das auf einem Metamodell für Multi-Agenten-Simulationen basiert, zur Verfügung. Mit Hilfe des Plugins werden zwei Beispiele, die Normen aus verschiedenen Blickwinkeln betrachten, implementiert und diskutiert. Das erste ist das Kirk-Coleman-Modell, welches sich mit dem Verhalten von Menschen in einer 3-Personen-Gruppe beschäftigt. Das zweite Modell beinhaltet den fördernden Effekt von Sanktionierung auf Kooperation. Abschließend werden die erarbeiteten Lösungsansätze und Alternativen diskutiert und Vorschläge für das EU-Projekt "Emergence in the Loop" (EMIL) abgeleitet.
E-Learning Anwendungen sind heutzutage im Trend. Jedoch nicht nur aus diesem Grund sind sie vom großen Interesse. Im Vordergrund steht ihr didaktisches Konzept. Heutzutage ist es technisch möglich, die Teilnehmer interaktiv in einen
E- Learning Kurs einzubinden. Die Lernschritte können durch die Anwendung kontrolliert werden. Im Gegensatz zu einer Vorlesung, kann die Theorie direkt mit der Praxis verknüpft werden. Das Ziel der Arbeit ist die Erstellung eines Konzeptes und die Entwicklung eines Prototypen einer interaktiven Entwicklungsumgebung von Java für Programmieranfänger. In dieser Arbeit wurden aktuelle E-Learning Plattformen zu Java analysiert. Aus den gewonnen Erkenntnissen wurde ein Konzept für eine E-Learningplattform entwickelt. Dieses Konzept wurde erfolgreich als Prototyp implementiert. Für die Implementation wurden bewährte Technologien, wie das Django-Framework und das Javascript-Framework Vue.js eingesetzt. Der Kurs wurde von neun Teilnehmern getestet. Zusätzlich wurde eine Umfrage zu der Kursanwendung durchgeführt. Das Testergebnis bestätigt, dass die Teilnehmer den Kurs bestanden haben.
Abstract For a significant length of time, computer simulation programs have been the preferred tools of sociologists to analyse " thus confirm or refute " sociological theories, scenarios, presumptions and assumptions. Many different simulation platforms for various domains exist. The EmIL project aims to create a new simulation platform specifically to analyse norm emergence. This platform is divided into sections, thereby allowing the analysis of individual norm emergence: this is not currently possible, thus EmIL-S may represent a significant improvement over current simulation platforms. This diploma thesis describes the concepts behind the project and provides a prototype for the simulation program EmIL-S. The creation of the prototype and the underlying development process are described in detail. The experience gained during this process is analysed and described. In the course of this analysis, the malfunctions and errors within EmIL-S are explained; the solutions to these malfunctions and errors are noted, along with other proposed improvements. This diploma thesis can also be used as a helpful manual to build simulations within the simulation platform.
Das Ziel der Arbeit besteht darin, Dominosteine in 2-D Bildern robust zu erkennen und zu klassifizieren. Als Eingabedaten fungieren alle Arten von Intensitätsbildern, und die Ausgabe besteht aus klassifizierten Dominosteinen. Das Problem, das gelöst werden soll, besteht darin, bei so vielen Dominosteinen wie möglich exakt zu bestimmen, um wlechen Dominstein es sich handelt. Zur Problemlösung werden Modellklassen verwendet, in denen explizites Wissen zur Merkmalsfindung und Objetkerkennung enthalten ist. Dazu wird eine Segmentierung entwickelt, die einem Dominostein ermöglicht, seine Bestandteile im Bild zu lokalisieren. Bei der Zuordnung zwischen den im Bild gefundenen und im Modell vorhandenen Komponenten entstehen mehrere Hypothesen. Um diese zu bewerten, werden unterschiedliche Abstandsfunktionen entwickelt und avaluiert. Für die Zuordnung von Segmentierungs Objekten zu Modellbestandteilene wir die Ungarische Methode verwendet.
Diese Diplomarbeit präsentiert ein interaktives System, welches die Vorzüge eines handelsüblichen Whiteboards mit denen eines Computers kombiniert. Die Inhalte des Whiteboards werden von einer Kamera aufgenommen, vom Computer verarbeitet und für eine Applikation als Eingabe verwendet bzw. durch geeignete Grafiken ergänzt. Dadurch erweitert das Whiteboard die Benutzeroberfläche des Computers. Der Anwender ist in der Lage über handgezeichnete Primitive (Viereck, Dreieck, Kreis) bzw. Kombinationen der Primitive das entwickelte interaktive Spiel zu spielen.
Die Entwicklung von Benutzerschnittstellen hat sich mit den fortschreitenden technischen Möglichkeiten ebenfalls weiter entwickelt. Neben den klassischen User Interfaces, die den Anwender bei der Aufgabenbewältigung unterstützen sollen, entwickeln sich intensiv erlebbare User Interfaces bei denen die Bedienung als intuitiv wahrgenommen wird. Doch was bedeutet Intuitivität in Bezug auf eine Mensch-Maschine-Schnittstelle? Die vorliegende Diplomarbeit beschäftigt sich mit dieser Thematik. Es werden Theorien und Modelle betrachtet, die versuchen intuitive Benutzbarkeit zu erklären. Anschließend werden zwei Konzepte aus der Software-Ergonomie herausgegriffen und in abgewandelter Form in zwei Prototypen umgesetzt. Hierfür wird ein Fernglasgehäuse in ein Eingabegerät für eine Stereoleinwand umgebaut. In der anschließenden Evaluation wird untersucht, welcher der Prototypen als intuitiver und attraktiver wahrgenommen wird. Hierfür werden beide hinsichtlich der Kriterien für intuitive Benutzbarkeit untersucht, welche zuvor aus den Modellen und Theorien herausgefiltert wurden.
Die Leistungsfähigkeit moderner Graphikkarten steigt zur Zeit schneller an, als die von CPUs. Dabei kann diese Leistung nicht nur zur Darstellung von 3D Welten, sondern auch für allgemeine Berechnungen (GPGPU) verwendet werden. Diese Diplomarbeit untersucht daher, ob mit Hilfe der GPU Volumendaten schneller gefiltert werden können, als mit der CPU. Dies soll insbesondere am Beispiel von Rausch-Filtern, die auf Videosequenzen angewendet werden, untersucht werden. Dabei soll das Video als Volumen repräsentiert und mit Volumenfiltern gefiltert werden. So soll eine höhere Qualität und eine kürzere Berechnungszeit als mit herkömmlichen CPU und Frame-basierten Verfahren erreicht werden, insbesondere auch bei den z.Z. stark aufkommenden hochauflösenden HDTV-Standards. Das Framework soll jedoch nicht auf Videosequenz-Bearbeitung beschränkt sein, sondern so konzipiert werden, dass es z.B. in bestehende Volumenvisualisierungssysteme integriert werden kann. Das Ziel der Arbeit ist die Einarbeitung in die notwendigen theoretischen Grundlagen, daran anschließend die prototypische Implementierung des Frameworks mit abschließender Bewertung der erreichten Ergebnisse insbesondere der Geschwindigkeit im Vergleich zu existierenden Systemen.
Issue of a catalog of criteria for the guarantee of the technical security of e-Commerce-web pages
(2007)
Das Ziel dieser Diplomarbeit ist es einen Kriterienkatalog zu erarbeiten, anhand dessen die technische Sicherheit von E-Commerce-Webseiten automatisiert überprüft werden kann. Dazu wird wie folgt vorgegangen. Nach einer Einleitung, die die Ausgangslage und die Motivation dieser Diplomarbeit zeigt, wird eine Aufbauanalyse von E-Commerce Webangeboten durchgeführt. Es werden gezielt die technischen Bausteine betrachtet, die für den Aufbau benötigt werden. Anschließend werden technische Schwachstellen (Fehlerquellen) von E-Commerce Webangeboten dargelegt. Der Schwerpunkt liegt dabei auf Programmierfehlern, Konfigurationsfehlern, Konzeptionsfehlern und Fehlern resultierend aus menschlichem Handeln. Parallel zu den Schwachstellen werden die jeweiligen Bedrohungspotentiale für einen E-Commerce Anbieter erörtert. Hierauf folgt eine kurze Vorstellung der generellen Risikopotentiale der verschiedenen Parteien, die bei einer E-Commerce Transaktion beteiligt sind. In dem darauf folgenden Schritt werden etablierte Kriterienkataloge vorgestellt. Diese werden kritisch bewertet, inwieweit sie befähigt sind zur Erstellung des angestrebten Kriterienkataloges beizutragen. Es werden klassische Kataloge wie das Orange Book, Common Criteria aber auch aktuelle Kataloge wie der BSI Grundschutzkatalog begutachtet. In dem nächsten Schritt werden die eigentlichen Kriterien in Listen einsortiert. Es wird differenziert analysiert "was" überprüft werden kann und "was" nicht. Daraufhin werden die Kriterien anhand von Schwachstellen in ein Ebenenmodell unterteilt. Das Ebenenmodell orientiert sich an Vorgaben des BSI und besteht aus der Protokollebene, der Dienstebene und der Anwendungsebene. Im Anschluss daran findet eine Gewichtung aller Kriterien anhand ihrer Automatisierbarkeit, ihrem Schadenspotenial und ihrer Verbreitung statt. Im vorletzten Schritt werden Lösungen vorgestellt, auf welche Weise der Kriterienkatalog automatisiert werden kann. Um einen Marktüberblick zu bieten werden verschiedene Web Vulnerability Scanner von kommerziellen Anbietern in Hinblick auf ihren Funktionsumfang, ihre Preisgestaltung und ihrer Bedienung verglichen. Der letzte Schritt dieser Diplomarbeit behandelt im Gegensatz zu den vorhergehenden Kapiteln weniger die theoretische Ebene. Er bietet stattdessen Anhand von Praxisszenarien dem Leser die Möglichkeit die Auswirkungen von Schwachstellen und Attacken auf reale Anwendungen nach zu vollziehen.
The interaction with the Wii Remote controller consists mainly in calculating rotations of the controller. The subject of this project is to make a real 1 on 1 mapping of the orientation and position of the Wiimote in a virtual application possible. The position of the Wiimote shall be calculated by stereotracking with two cameras.
The project shall be demonstrated in different applications.
Diese Diplomarbeit befasst sich damit, den SURF-Algorithmus zur performanten Extraktion von lokalen Bildmerkmalen aus Graustufenbildern auf Farbbilder zu erweitern. Dazu werden zuerst verschiedene quelloffene Implementationen mit der Originalimplementation verglichen. Die Implementation mit der größten Ähnlichkeit zum Original wird als Ausgangsbasis genutzt, um verschiedene Erweiterungen zu testen. Dabei werden Verfahren adaptiert, die den SIFT-Algorithmus auf Farbbilder erweitern. Zur Evaluation der Ergebnisse wird zum Einen die Unterscheidungskraft der Merkmale sowie deren Invarianz gegenüber verschiedenen Bildtransformationen gemessen. Hier werden verschiedene Verfahren einander gegenüber gestellt. Zum Anderen wird auf Basis des entwickelten Algorithmus ein Framework zur Objekterkennung auf einem autonomen Robotersystem entwickelt und dieses evaluiert.
Der RIPMTI-Algorithmus wurde entwickelt um die Schleifenerkennung in Rechnernetzen zu verbessern. Das Count-To-Infinity-Problem (kurz: CTI) führt dazu, dass ein Netzwerk nur sehr langsam in einen konvergenten Zustand gelangt. Der Hopcount-Wert 16, der als künstliche Beschränkung des CTI eingeführt wurde, beschränkt leider auch die maximale Topologietiefe eines Netzwerkes. Diese Arbeit soll zeigen wie sich eine schrittweise Erhöhung des Hopcount-Wertes und darüber hinaus die Änderung der Updatezeiten jedes Routers auf die Konvergenzzeiten unterschiedlicher Netzwerk-Szenarios auswirkt.
The thesis at hand evaluates Open Source Business Process Management (BPM) Systems in the context of the R4eGov1 Project. The provision of concepts and tools to support and enable interoperability in pan-European networks of pubic administrations is one of the major objectives that R4eGov is aiming at. Thereby a strong focus lies on the interoperability of cross-organizational processes from the viewpoint of modeling, execution and monitoring. BPM can increase the effectiveness and efficiency of cross-organizational processes by restructuring them towards the needs of the entities involved. BPM is dependent on BPM systems that combine technologies of process modeling, business process analysis and execution along with their integration into adequate runtime environments and rule engines. The evaluation that is performed within the thesis investigates how far BPM systems can support several requirements of interoperability that have been developed by the R4eGov project. It also targets at analyzing those BPM system according to generic requirements on BPM and software tools. The investigation is build upon common BPM theories and standards for modeling business processes. It describes the origin and interdependencies of BPM and Workflow Management (WfM), highlighting similarities and differences from the technological and historical perspective. Moreover, it introduces web service standards and technologies that are used to build service-oriented architectures allowing greater flexibility in BPM. In addition the thesis introduces methods and best practices to evaluate software tools. It contains an evaluation framework for BPM tools that has been based on the software product evaluation standard ISO/IEC 14598. The evaluation framework comprises the definition of an R4eGov scenario and a catalogue of criteria for evaluating a set of selected Open Source BPM systems. The definition of the catalogue of criteria is build upon generic requirements on BPM systems and those that are specifically to R4eGov. The chosen methods and the core elements of the evaluation framework will be applied to the selected BPM systems Intalio BPMS,NetBeans IDE, and JBoss jBPM. Finally the results of the applied R4eGov scenario and of the applied catalogue of criteria are being discussed by highlighting individual strengths and weaknesses of the systems.
Im Rahmen dieser Diplomarbeit wurden Texte untersucht, die von Grundschulkindern unter bestimmten Bedingungen und Voraussetzungen geschrieben wurden. Die Texte entstanden im Rahmen des Projektes VERA (Vergleichsarbeiten in der Grundschule), das von Prof. Dr. Andreas Helmke und Juniorprof. Dr. Ingmar Hosenfeld durchgeführt wird. Es wurden circa 1000 handgeschriebene Geschichten transliteriert und teilweise korrigiert. Nähere Informationen zur Entstehung und Bearbeitung der Texte sind in Kapitel 4 zu finden. Für diese Diplomarbeit wurden die Texte mit dem Saarbrücker Message Extraction System (SMES), der am Deutschen Forschungsinstitut für Künstliche Intelligenz (DFKI) entwickelt wurde, verarbeitet. Zusätzlich wurden die Texte einer Analyse von Hand unterzogen, um eine Aussage über die Qualität von SMES machen zu können. Die vorliegende Diplomarbeitbeschreibt die Konzeption des Parsingansatzes und eine durchgeführte Evaluation. Außerdem erden Vorschläge für einfache und sinnvolle Verbesserungen und Änderungen gemacht, die für den gegebenen Korpus sinnvoll erscheinen. Ziel dieser Arbeit ist es, zu zeigen, welche Arbeits- und Verarbeitungsschritte notwendig und sinnvoll sind, um anschließend eine Aussage darüber treffen zu können, welche computerlinguistischen Methoden sich eignen, um die Entscheidung treffen zu können, welche Module man entwickeln kann, um den Lehrern und Schülern eine adäquate Lernhilfe zur Verfügung stellen zu können. Die Herausforderung bestand darin, zunächst ein linguistisches Mittel zu finden, das in Bezug auf die vorliegende Textart als am besten geeignet erschien und diese Wahl zu begründen. Anschließend galt es die Arbeitsweise und die Resultate der getroffenen Wahl genau zu untersuchen und heraus zu finden, welche einfachen Modifikationen man in das bereits bestehende System einbetten kann, um das Ergebnis weiter zu verbessern.
In automated theorem proving, there are some problems that need information on the inequality of certain constants. In most cases this information is provided by adding facts which explicitly state that two constants are unequal. Depending on the number of constants, a huge amount of this facts can clutter the knowledge base and distract the author and readers of the problem from its actual proposition. For most cases it is save to assume that a larger knowledge base reduces the performance of a theorem prover, which is another drawback of explicit inequality facts. Using the unique name assumption in those reasoning tasks renders the introduction of inequality facts obsolete as the unique name assumptions states that two constants are identical iff their interpretation is identical. Implicit handling of non-identical constants makes the problems easier to comprehend and reduces the execution time of reasoning. In this thesis we will show how to integrate the unique name assumption into the E-hyper tableau calculus and that the modified calculus is sound and complete. The calculus will be implemented into the E-KRHyper theorem prover and we will show, by empiric evaluation, that the changed implementation, which is able to use the unique name assumption, is superior to the traditional version of E-KRHyper.
In this thesis the feasibility of a GPGPU (general-purpose computing on graphics processing units) approach to natural feature description on mobile phone GPUs is assessed. To this end, the SURF descriptor [4] has been implemented with OpenGL ES 2.0/GLSL ES 1.0 and evaluated across different mobile devices. The implementation is multiple times faster than a comparable CPU variant on the same device. The results proof the feasibility of modern mobile graphics accelerators for GPGPU tasks especially for the detection phase in natural feature tracking used in augmented reality applications. Extensive analysis and benchmarking of this approach in comparison to state of the art methods have been undertaken. Insights into the modifications necessary to adapt and modify the SURF algorithm to the limitations of a mobile GPU are presented. Further, an outlook for a GPGPU-based tracking pipeline on a mobile device is provided.
In der Diplomarbeit soll die Verwendung und Möglichkeit zur Einbindung eines Eyetrackers in der Bildersuche untersucht werden. Eyetracker sind Geräte zur Blickerfassung. Sie werden häufig in Design- und Usabilitystudien verwendet, um Informationen über den Umgang der Benutzer mit dem Produkt zu untersuchen. Seit einiger Zeit werden Augenbewegungen auch zur Erkennung von benutzerrelevanten Informationen und Bereichen verwendet, wie zum Beispiel bei dem Projekt Text 2.05 [4]. Hierbei werden Blickrichtung und -fixierung benutzt, um eine Interaktion mit dem Leser eines Textes auf eine möglichst einfache, dabei aber subtile Weise zu ermöglichen.
In dieser Arbeit wird das MobileFacets System präsentiert, dass ein bequemes facettiertes Browsen und Suchen von semantischen Daten auf einem mobilen Endgerät ermöglicht. Anwender bekommen in Abhängigkeit ihres lokalen Ortskontextes, weitreichende Informationen wie Orte, Personen, Organisationen oder Events dargeboten. Basierend auf der Theorie von Facetten, wird das facettierte Browsen zur Erkundung von strukturierten Datensätzen anhand einer Client Anwendung realisiert. Die Anwendung bedient sich dabei eines lokalen Servers, der für Anfragen der Clients, die Anbindung an externe Datenquellen und die Aufbereitung der strukturierten Daten zuständig ist.
Im Mittelpunkt dieser Diplomarbeit stand die Entwicklung eines Modells zur Charakterisierung einer HDR-Kamera mit CMOS-Sensorelement und logarithmischer Kamerakennlinie. Unter Beachtung der spezifischen Eigenschaften der Kamera sollte ein Verfahren gefunden werden, um von der Kamera aufgenommene Farbwerte, farbmetrisch korrekt in einen geräteunabhängigen Farbraum zu überführen. Zu diesem Zweck wurde im Rahmen dieser Arbeit ein zweiteiliges Charakterisierungsmodell entwickelt, welches zwischen Vorwärtsmodell und Inversem Modell unterscheidet.
Mit Hilfe von Stereobildfolgen, die ein Stereokamerasystem liefert, wird versucht Informationen aus der betrachtenden Szene zu gewinnen. Die Zuordnung von Bildpunkten, die in beiden Bildern eines Stereobildpaares vorkommen und einen gemeinsamen Weltpunkt beschreiben, ermöglichen die Bestimmung einer Tiefeninformation. Das Extrahieren von Bildpunkten und deren Zuordnung sind die entscheidenen Faktoren zur Gewinnung der Tiefeninformation. Die Tiefe erlaubt es Aussagen über die Struktur der aufgenommenen Szene zu machen. Bei Übertragung dieser Idee auf das Verfolgen von gemeinsamen Weltpunkten in Bildsequenzen ist es möglich eine relative Positions- und Lageschätzung des Kamerasystems zur vorher aktuellen Position zu bestimmen. Schwierigkeiten ergeben sich aus Verdeckungen von Weltpunkten für den jeweiligen Sensor, sowie fehlerhaften Bildpunktzuordnungen. Die Geschwindigkeit des kombinierten Vorgang aus Extraktion und Punktzuordnung stellt eine weitere Anforderung an das System.
Skalierbarkeit und garantierte Ausliererung sind essentielle Eigenschaften eines jeden Routingalgorithmus. Beides bietet bei drahtlosen Ad-hoc Netzwerken die Kombination aus Greedy- und Face- Routing, sofern ein planarer Graph zur Verfügung steht. Doch gerade die fehlerfreie Planarisierung bereitet bei realistischen Netzwerken Schwierigkeiten. Daher soll mit dieser Arbeit die Frage beantwortet werden, zu welcher Fehlerrate es führt, wenn der Graph lediglich mit lokalen Methoden teilplanarisiert wird. Dazu wurde eine Simulationsumgebung geschaffen, um unter Anwendung des Log-Normal-Shadowing-Modells zufällige Konnektivitätsgraphen zu generieren. Diese wurden anschließend durch zwei unterschiedliche, lokale Strategien teilplanarisiert. Es wurden neun verschiedene Settings definiert, die sich aus drei unterschiedlichen Graphendichten und drei unterschiedlichen Werten für den Sigmaparameter des Log-Normal-Shadowing-Modells ergeben. Für jedes Setting wurde in 2000 Simulationsdurchläufen das Verhalten von Greedy-, Face- und kombiniertem Greedy-Face-Routing untersucht und ausgewertet. Zum Abschluss wurden die Ergebnisse dieser Simulation bewertet und diskutiert.
Forwarding loops
(2013)
Einer der Forschungsschwerpunkte der AG Rechnernetze ist das Routing Information Protocol. Eine eigene kompatible Erweiterung dieses Routingprotokolls ist der Routing Information Protocol with Metric-based Topology Investigation (RMTI [ehemals RIP-MTI]). Um dieses Protokoll testen und mit seinem Vorgänger vergleichen zu können, wird die Virtualisierungssoftware VNUML eingesetzt. In diesen virtualisierten Netzwerken werden Router, die das RMTI-Protokoll einsetzten, mittels der Zebra/Quagga Routing Software Suite beobachtet. Dabei wird das Verhalten des Protokolls in unterschiedlichsten Simulationssituationen analysiert und bewertet. Um solche Testabläufe zentral zu steuern und protokollieren zu können wurde die Anwendung RIP-XT (XTPeer) erstellt und in fortführenden Diplomarbeiten kontinuierlich erweitert. Sie ist Schnittstelle zu den Zebra/Quagga-Routern und kann diese steuern. Zusätzlich sammelt und analysiert sie die Routing-Informationen der Router.Über ein GUI kann ein Benutzer diese Abläufe steuern. Um einen visuellen Überblick über eine Netzwerktopologie zu erhalten, besitzt das GUI auch eine Topologie-Anzeige. Die Anzeige repräsentiert das Gesamte Netzwerk durch Symbole, über die auch Interaktionen mit der Simulation möglich sind. Ziel dieser Diplomarbeit war es, die bisherige Topologie-Anzeige zu überarbeiten, um sie für neue Anforderungen anzupassen. Des weiteren wurden funktionale Erweiterungen in das GUI des RIP-XTs eingebettet.
Learning or doing ones homework isn’t among the first things students like to do. They rather play videogames — a situation every teacher knows. One chance to solve this problem is to combine learning and video games.
Scientists are discussing game-based learning and gamification in this context. To shed some light at the meaning of these terms, especially on gamification, is one of the purposes of this thesis. Gamification doesn’t mean to cover boring
learning content with some sort of game mechanics or to reward a right answer with a minigame, that has no connection to the teaching and learning content at all. In contrast, gamification is the inclusion of game elements in learning applications to motivate students to use these applications to learn.
Learning languages takes special profit of computer-assisted learning. Using an online learning environment enables the students to get in touch with each other and exchange experiences. Certain game elements can be used to let students participate in a sort of competition. Here they can compare their knowledge in a game-based manner.
In the context of this thesis, a prototype will be developed that connects game elements to a learning application for “German as a Foreign Language“. The
purpose of this prototype is to show teachers possibilites to motivate their students. A usability test will be conducted, the collected data will be evaluated and improvements will be proposed. As a result of this thesis, it is shown that the prototype includes promising approches and was evaluated successfully. Nonetheless the prototype needs to be tested more thoroughly and improvements need to be implemented. Furthermore, evaluation methods need to be developed to take the peculiarities of games and their special characteristics into account.
Diese Arbeit stellt ein Werkzeug zur Verfügung, das strukturierte Tests des RIP-MTI Algorithmus vereinfachen, beschleunigen und automatisieren kann. Die vormals zwei Dimensionen Topologie und Updatekonstellation, auf die die MTI-Erweiterung getestet werden musste, konnten auf den variablen Anteil der Topologie vereinfacht werden. Die zeitliche Reihenfolge des Auftretens der Updates kann zentral gesteuert werden. Bisher mussten Tests händisch und sehr aufwändig über Skripte auf der Konsole gesteuert werden. Die entwickelte Testumgebung "XTPeer" ermöglicht es, die gleichen und viele weitere Tests mit kleinem Aufwand durchzuführen.
Ray Tracing als Bildsyntheseverfahren ist relevant für viele Anwendungsbereiche, da es Aspekte des Lichttransports physikalisch korrekt simulieren kann. Aufgrund des hohen Berechnungsaufwands sind der Einsatz von Datenstrukturen zur Beschleunigung und die parallele Verarbeitung notwendig. GPUs sind inzwischen hoch parallele, programmierbare Prozessoren mit zahlreichen Kernen und eignen sich aufgrund ihrer hohen Leistungsfähigkeit dazu, aufwändige, parallelisierbare Probleme zu lösen. In dieser Arbeit geht es um GPU Ray Tracing, beschleunigt durch Bounding Volume Hierarchien (BVH). Auf Basis relevanter Veröffentlichungen zu Aufbau und Traversierung von BVHs und der Abbildung des Ray Tracing Prozesses auf die GPU Architektur wird ein GPU Ray Tracer konzeptioniert und entwickelt. Während der BVH Aufbau vorab auf dem Host stattfindet, wird der gesamte Ray Tracing Prozess durch mehrere Kernel komplett auf der GPU ausgeführt. Die Implementierung der Kernel erfolgt in Form von OpenGL Compute Shader Programmen, und die Aufteilung des Ray Tracers auf mehrere Kernel ist durch die GPU Achitektur und das SIMT Ausführungsmodell motiviert. Für die Speicherorganisation der binären BVHs werden zwei Varianten betrachtet, klassisch und als MBVH, wobei sich die MBVH Organisation als effizienter erweist. Zudem werden verschiedene Varianten für die Traversierung ohne Stack und für die Stack-basierte Traversierung umgesetzt und bewertet. Der in mehrere Kernel strukturierte GPU Ray Tracer wird zudem mit einer Einzelkernel Version verglichen. Die besten Ergebnisse erreicht die Traversierung ohne Stack mit einem while-while Ablauf und MBVH im Rahmen des aufgeteilten GPU Ray Tracers.
Ziel dieser Arbeit war es, den in [Rhe06] dargestellten operationalen Ansatz zur Modelltransformation mit Hilfe der am Institut für Softwaretechnik der Universität Koblenz-Landau vorhandenen Bibliotheken "JGraLab" und "GReQL" in Java zu implementieren. Die Implementierung sollte beweisen, dass der aufgezeigte Transformationsansatz in der Praxis umsetzbar ist. Dies wurde durch verschiedene Beispiele bewiesen. Die geplante Verwendung in weiteren Projekten des IST wird für die Zukunft zeigen, ob sich weitere Transformationen umsetzten lassen oder wo die Grenzen des Ansatzes sind. Des weiteren ist denkbar, die Transformationen nicht mehr in zwei Schritten (Schematransformation vor Graphtransformation), sondern beide Schritte auf einmal ablaufen zu lassen. Dieser Schritt setzt jedoch voraus, dass JGraLab dies ebenfalls unterstützt.
Implementierung eines Subsurface Scattering Shader Plugins für die Augenblick Raytracing Engine
(2009)
In dieser Ausarbeitung werden drei Beleuchtungsverfahren und mögliche Implementierungen zur Realisierung eines Subsurface Scattering Shaders vorgestellt und diskutiert. Subsurface Scattering bezeichnet allgemein den Lichttransport in die Oberfläche von Objekten hinein und durch sie hindurch. Die korrekte Darstellung dieses Phänomens ist sehr komplex und ist nicht mittels einer einfachen BRDF und gängiger Beleuchtungsverfahren darstellbar. Die drei Verfahren sind: Physikalisch korrektes Subsurface Scattering durch das Monte Carlo Pathtracing, vereinfachtes Subsurface Scattering durch Nutzung eines Licht-Lots, stark vereinfachtes Subsurface Scattering durch ein normalenabhängiges Aufhellen der Kanten. Durch die Nutzung des Monte Carlo Pathtracers können zudem Beleuchtungseffekte wie das sogennante Colorbleeding, dass heißt Lichttransport von einer farbigen Fläche auf eine andere mittels indirekter Beleuchtung, ermöglicht werden. Jedes Verfahren beinhaltet eine andere Kombination der bekanntlich gegenläufigen Eigenschaften Performanz und Korrektheit, je nachdem in welchem Rahmen und Aufgabenbereich Subsurface Scattering benötigt wird.Am Schluss der Arbeit werden Ergebnisse präsentiert, diskutiert und ein Ausblick auf weiterführende Arbeiten gegeben. Alle drei Verfahren wurden als Plugin für den Raytracer Augenblick von Oliver Abert realisiert.
This paper consists of the observation of existing first aid applications for smartphones and comparing them to a first aid application developed by the University of Koblenz called "Defi Now!". The main focus lies on examining "Defi Now!" in respect to its usability based on the dialogue principles referring to the seven software ergonomic principles due to the ISO 9241-110 standard. These are known as suitability for learning, controllability, error tolerance, self-descriptiveness, conformity with user expectations, suitability for the task, and suitability for individualization.
Therefore a usability study was conducted with 74 participants. A questionnaire was developed, which was to be filled out by the test participants anonymously. The test results were used for an optimization of the app referring its' usability.
Improvements to the RMTI network routing daemon implementation and preparation of a public release
(2011)
Routing with Metric based Topology Investigation (RMTI) is an algorithm meant to extend distance-vector routing protocols. It is under research and development at the University of Koblenz-Landau since 1999 and currently implemented on top of the well-known Routing Information Protocol (RIP). Around midyear 2009, the latest implementation of RMTI included a lot of deprecated functionality. Because of this, the first goal of this thesis was the reduction of the codebase to a minimum. Beside a lot of reorganization and a general cleanup, this mainly involved the removal of some no longer needed modes as well as the separation of the formerly mandatory XTPeer test environment. During the second part, many test series were carried out in order to ensure the correctness of the latest RMTI implementation. A replacement for XTPeer was needed and several new ways of testing were explored. In conjunction with this thesis, the RMTI source code was finally released to the public under a free software license.
Ziel dieser Diplomarbeit ist die Entwicklung einer Software, die Standorte von Gegenständen barrierefrei für sehbehinderte Menschen auf einem mobilen Gerät ausgibt. Hierzu soll ein Konzept der Orientierung von bekannten und mit Markern versehenen Objekten im Raum entwickelt werden. Eine barrierefreie Ausgabe für sehbehinderte Menschen muss ebenfalls ausgewählt werden. Das Programm soll markierte, weiter entfernte Objekte erfassen und beschreiben. Dadurch würde der wahrnehmbare Bereich von sehbehinderten Personen erweitert. Dieser wahrnehmbare Bereich beschränkt sich meist auf den Boden, sehbehinderte Menschen können ihn gefahrlos mit den Füßen abtasten, und die durch die Armlänge begrenzte Reichweite in Brustnähe. Das zu entwickelnde System kann eine Lebenshilfe für Menschen sein, die ohne oder nur mit wenigen visuellen Informationen auskommen müssen. Die prototypische Umsetzung erfolgt auf einem Laptop mit externer Kamera und Maus. Die Evaluation des Systems bezieht sich auf die für sehbehinderte Menschen barrierefreie Ausgabe von Informationen. Zu diesem Zweck wird eine für sehbehinderte Menschen sichere Testumgebung geschaffen, in der die ausgewählte Ausgabeform evaluiert wird.
The impact of innovation in order to secure a company- existence is increasing. Especially in the field of information and communication systems, modified conditions, reduced product life cycles (in some markets e.g. in the software market down to a few months), and increased competition force many companies to adapt their innovation speed. Long-term profit will just be obtained by those companies that will manage to consolidate or further to enlarge their competitive position with technological innovation. The increasing relevance of new developments requires a separate treatment of technological innovations and demands for a technology and innovation management. Not every innovation is thereby a result of a single, spontaneous idea. Many innovations evolve from the integration or combination of already existing technologies. Especially in markets with insignificant growing rates, this kind of innovation is quite important. The purpose of this thesis is the identification of existing deficiencies within established recommendations for a strategic technology and innovation management concerning technological integration. Based on the technological innovation, a possibility for the exposure to the developed innovations will be formulated. Finally, this thesis provides an own approach about this kind of innovation that will be examined.