Refine
Year of publication
- 2010 (93) (remove)
Document Type
- Part of Periodical (25)
- Diploma Thesis (21)
- Study Thesis (17)
- Bachelor Thesis (14)
- Doctoral Thesis (11)
- Master's Thesis (5)
Language
- German (65)
- English (27)
- Multiple languages (1)
Keywords
- Vorlesungsverzeichnis (4)
- Routing (3)
- Web 2.0 (3)
- 3D (2)
- API (2)
- Datenaustausch (2)
- Datenschutz (2)
- GPS (2)
- Geschäftsprozess (2)
- Mustererkennung (2)
- Netzwerk (2)
- RMTI (2)
- Robotik (2)
- TGraph (2)
- hybrid automata (2)
- multi-agent systems (2)
- ontology (2)
- 2-D (1)
- Abbildung <Mathematik> (1)
- Absolutismus (1)
- Agentenorientiertes Software Engineering (1)
- Algorithm Engineering (1)
- Anforderungsprofil (1)
- Annotationsmodell (1)
- Artificial Neural Networks (1)
- Audiodatei (1)
- Augmented Reality (1)
- Ausstellung (1)
- Authentisierung (1)
- Automatisches Beweisverfahren (1)
- Autorensystem (1)
- Autoritarismus (1)
- BPMN (1)
- Balancetheorie (1)
- Benutzerschnittstelle (1)
- Beschaffung (1)
- Bild (1)
- Bildanalyse (1)
- Bildanalyse-Verfahren (1)
- Bildverarbeitung (1)
- Bioindikator (1)
- Biometric Authentication (1)
- Biotransformation (1)
- Biozönose (1)
- Browser (1)
- Business intelligence (1)
- CB2 (1)
- CSCW (1)
- Cascada (1)
- Closed Source (1)
- Common Annotation Framework (1)
- Computational logic (1)
- Computer Supported Cooperative Work (1)
- Computergraphik (1)
- Container Entity Modell (1)
- Context-aware processes (1)
- Controlling (1)
- Core Ontology on Multimedia (1)
- DTI (1)
- Decision-support (1)
- Delta (1)
- Demoskopie (1)
- Description Logic (1)
- Description Logics (1)
- Diagnostik (1)
- Digitale Bilder (1)
- Dijkstras Algorithmus (1)
- Distributed process execution (1)
- E-KRHyper (1)
- E-Learning (1)
- E-Mail (1)
- E-Partizipation (1)
- E-participation (1)
- EPC (1)
- EPK (1)
- EU (1)
- Eclipse <Programmierumgebung> (1)
- Ecore (1)
- Einchip-Computer (1)
- Elektronisches Wasserzeichen (1)
- Emergenzen (1)
- Enterprise Architect (1)
- Entscheidungsunterstützung (1)
- Entwurfssprache (1)
- Europäischer Schadensbericht (1)
- Fertilitaet (1)
- Fingerprint Recognition (1)
- Flusssediment (1)
- Forensik (1)
- Formale Ontologie (1)
- Forschungsprojekt KMU 2.0 (1)
- GPU Programmierung (1)
- Ganzheitlichkeit (1)
- Geoinformation (1)
- Geometryshader (1)
- Geschäftsmodell (1)
- Gesundheitsbezogene Lebensqualität (1)
- Glint Center Estimation Algorithmus (1)
- Globale Beleuchtung (1)
- Grundwasserfauna (1)
- Grundwasserfauna-Index (1)
- HDR-Kamera (1)
- Handlungskompetenz (1)
- Handlungsorientierung (1)
- Headtracking (1)
- Heuristiken (1)
- Hyperspace-Modell (1)
- ICM (1)
- IM-Systeme (1)
- IP-Adressen (1)
- IPTV (1)
- Informatik (1)
- Informationsmanagement (1)
- Informationsmanagementsystem (1)
- Innovation (1)
- Innovationsmanagement (1)
- Instant Messaging (1)
- Interpretierer (1)
- Invarianzmessung (1)
- Inverses Modell (1)
- JGraph (1)
- JML (1)
- Java (1)
- Java Modeling Language (1)
- Java. Programmiersprache (1)
- Kamera (1)
- Klassifikationsframework (1)
- Klausellogik (1)
- Knowledge Compilation (1)
- Kollektivismus (1)
- Kompetenz (1)
- Kompetenzdiagnostik (1)
- Kompetenzentwicklung (1)
- Konfirmatorische Faktorenanalyse (1)
- Kontamination (1)
- Konvergenz (1)
- Künstliche Neuronale Netze (1)
- Laacher See <Region> (1)
- Lokale Bildmerkmale (1)
- Mapping <Mathematics> (1)
- Maßtheorie (1)
- Measure-theory (1)
- Medizinische Visualisierung (1)
- Mehrbenutzer-Annotationssystem (1)
- Mensch-Maschine-Schnittstelle (1)
- Mesobenthos (1)
- Mesophiler Laubwald (1)
- Metamodel (1)
- Mikrocontroller (1)
- Mikrocontroller AVR (1)
- Mikrozensus (1)
- Model-Driven Engineering (1)
- Modellieren (1)
- Modellierungskompetenz (1)
- Modellierungstool (1)
- Monitoring (1)
- Multi-Agenten-Systeme (1)
- Multiagentensysteme (1)
- Multimedia Metadata Ontology (1)
- Nationalismus (1)
- Naturpotential (1)
- Naturräumliche Gliederung (1)
- Naturschutz (1)
- Network (1)
- Networks (1)
- Netzwerk Protokollen (1)
- Netzwerk kleiner und mittlerer Unternehmen (1)
- Neuronales Netz (1)
- Norm (1)
- Nutzungsrechte (1)
- OCL <Programmiersprache> (1)
- OSS (1)
- OWL (1)
- OWL <Informatik> (1)
- Objekterkennung (1)
- Offener Innovationsprozess (1)
- Office-Prozess (1)
- Ontologie. Wissensverarbeitung (1)
- Ontology (1)
- Ontology API model (1)
- Open Innovation (1)
- Open Source (1)
- Open Source Software (1)
- Opinion mining (1)
- Optimierung (1)
- Oracle Generation (1)
- Oraklegenerierung (1)
- P2P (1)
- PEPPOL (1)
- POIs (1)
- Pan European Public Procurement OnLine (1)
- Personal Key Infrastruktur (1)
- Petri net (1)
- Pfadplanung (1)
- Physiksimulation (1)
- Plug in (1)
- Posebestimmung (1)
- Poseschätzung (1)
- Probability propagation nets (1)
- Process tracing (1)
- Programmierumgebung (1)
- Projekt iCity (1)
- Projektlernen (1)
- Projektunterricht (1)
- Protocol (1)
- Prozessmanagement (1)
- Prädikatenlogik (1)
- Pupil Center Estimation Algorithmus (1)
- Qt/C++ (1)
- RIP (1)
- RIP-MTI (1)
- RIP-XT (1)
- Rechnernetz (1)
- Referenzmetamodell (1)
- Religiosität (1)
- Response-Shift (1)
- RoboCup (1)
- SIFT-Algorithmus (1)
- SIFT-Merkmale (1)
- SOA-Webservice (1)
- SPARQL (1)
- STOF Model (1)
- STOR (1)
- SURF-Algorithmus (1)
- Semantic Web (1)
- Service-orientierte Architektur (1)
- Sesame (1)
- Shared Annotation Model (1)
- Shared Annotations (1)
- Sicherheit (1)
- Sicherheitsanforderungen (1)
- Software Engineering (1)
- Softwareentwicklung (1)
- Softwaremodellierung (1)
- Softwaretest (1)
- Softwaretesting (1)
- Soziale Online Systeme (1)
- Sozialwissenschaftliche Simulation (1)
- Soziologie (1)
- Soziooekonomisches Panel (1)
- Spannender Baum (1)
- Spanning Tree (1)
- Speaker Recognition (1)
- Specification (1)
- Spezifikation (1)
- Statistische Analyse (1)
- Tableau <Logik> (1)
- Test Generation (1)
- Testgenerierung (1)
- Text (1)
- Texterkennung (1)
- Transformation (1)
- UML (1)
- UML Activity Diagrams (1)
- UML Aktivitätsdiagramm (1)
- URM (1)
- Uferfiltration (1)
- Ungarische Methode (1)
- Universitäre Lehrveranstaltung (1)
- Unterrichtsforschung (1)
- Unterwasserwelt (1)
- Usage Rights Management (1)
- User Interface (1)
- VCD (1)
- VNUML (1)
- VOXEL (1)
- Verbraucherforschung (1)
- Virtual Company Dossier (1)
- Virtuelle Welt (1)
- Virtueller Raum (1)
- Visualisierung (1)
- Vorwärtsmodell (1)
- Voxel (1)
- Webserver (1)
- Webservice Sail (1)
- Wii (1)
- Wii-Kamera (1)
- Wiki (1)
- Wikipedia (1)
- Wireshark (1)
- World Wide Web 2.0 (1)
- XTPeer (1)
- XTpeer (1)
- Zertifikat (1)
- Zoobenthos (1)
- absolutism (1)
- amtliche Haushaltsbefragungen (1)
- andLinux (1)
- andLinux. (1)
- application programming interfaces (1)
- aquatic environment (1)
- assessment (1)
- authoritarianism (1)
- backpropagation (1)
- bank filtration (1)
- benthos (1)
- bias (1)
- biocenosis (1)
- bioindicator (1)
- biotransformation (1)
- business process (1)
- collectivism (1)
- confirmatory factor analysis (1)
- constraint logic programming (1)
- contamination (1)
- convergence analysis (1)
- cultural dimensions (1)
- distributed information systems (1)
- ediv (1)
- events (1)
- grUML (1)
- groundwater fauna (1)
- groundwater-fauna-index (1)
- health-related quality of life (1)
- hybride Automaten (1)
- hydrological interactions (1)
- hydrologische Interaktionen (1)
- iCity project (1)
- kollaboratives Lernen (1)
- mPayments (1)
- mathematical modeling (1)
- mathematische Kompetenz (1)
- mathematisches Modellieren (1)
- measurement of invariance (1)
- menschliches Auge (1)
- micro-agent (1)
- mobile interaction (1)
- mobile phone (1)
- model-driven engineering (1)
- modeling competency (1)
- modulares System (1)
- multiagent systems (1)
- multimedia metadata (1)
- myAnnotations (1)
- nationalism (1)
- networks (1)
- neural (1)
- nichtamtliche Haushaltsbefragungen (1)
- official household surveys (1)
- oncological rehabilitation (1)
- onkologische Rehabilitation (1)
- path planning (1)
- points of interest (1)
- privacy (1)
- privacy protection (1)
- public key infrastructure (1)
- recurrent (1)
- reference meta model (1)
- religiousness (1)
- response-shift (1)
- rich multimedia presentations (1)
- rip (1)
- river sediments (1)
- rmti (1)
- robotics (1)
- security (1)
- security requirements (1)
- semantic annotation (1)
- semantics (1)
- social simulation (1)
- unofficial household surveys (1)
- visualization (1)
- vnuml (1)
- xtpeer (1)
Institute
- Institut für Computervisualistik (19)
- Fachbereich 4 (18)
- Institut für Informatik (18)
- Institut für Wirtschafts- und Verwaltungsinformatik (17)
- Institute for Web Science and Technologies (9)
- Institut für Management (6)
- Zentrale Einrichtungen (6)
- Institut für Softwaretechnik (5)
- Fachbereich 8 (2)
- Institut für Integrierte Naturwissenschaften (2)
Opinion Mining
(2010)
Das Opinion Mining stellt eine Methode dar, mit der Meinungen aus dem WWW gefiltert und intelligent aufbereitet werden können, um Stimmungsanalysen zu einzelnen Produkten und Dienstleistungen zu erstellen. Opionion Mining bietet den Unternehmen somit eine innovative Möglichkeit, ihre Marketingkommmunikation planbarer und wirkungsvoller zu gestalten und ein deutlich erhöhtes Maß an Involvement und Relevanz innerhalb bestimmter Zielgruppen zu erreichen. Zunächst werden die theoretischen Grundlagen des Web 2.0 und relevanter Methoden der Business Intelligence erläutert. Die empirische Untersuchung bildet den Schwerpunkt der Arbeit. Auf die Entwicklung eines Vorgehensmodells folgt die praktische Anwendung dieses Modells auf ein Produkt. Die Ergebnisse werden im Review-Scan im Hinblick auf Forschung und Praxis ausgewertet und diskutiert.
In this thesis a web service (SOA) is designed and implemented that can detect a watermark in an audio file by remote control. The thesis forms part of the URM (Usage Rights Management) project, which is developed at the University of Koblenz-Landau. The project deals with a concept of a licencing process that keeps users informed about their rights on acquired digital content. Taking WAV files as an example, the thesis represents a rudimentary way of extracting information from a digital medium.
Neue Technologien und Innovationen stellen heutzutage wichtige Schlüsselelemente der Wachstums und Erfolgssicherung von Unternehmen dar. Durch einen in Geschwindigkeit und Intensität immer schneller zunehmenden Wettbewerb nehmen Innovationen eine immer zentralere Rolle im Praxisalltag von Unternehmen ein. Dieser technische Fortschritt treibt auch in der Wissenschaft das Thema des Innovationsmanagements in den letzten Jahrzehnten immer stärker voran und wird dort ausgiebig diskutiert. Die Bedeutung von Innovationen wächst dabei ebenfalls aus der Sicht der Kunden, welche heutzutage viel differenzierter als früher Produkte und Dienste nachfragen und somit Unternehmen vor neue Herausforderungen stellen. Überdies stellen Innovationen heute ein entscheidendes Bindeglied zwischen Marktorientierung und erhofften Unternehmenserfolg dar. Seit einigen Jahren lässt sich eine Öffnung der Unternehmensgrenzen für externe Quellen wie Kunden, Zulieferer, Universitäten oder teilweise auch Mitbewerber erkennen. Diese Thematik wird innerhalb der betriebswirtschaftlichen Forschung unter dem Begriff Open Innovation diskutiert. Das Paradigma eines innerbetrieblichen, geschlossenen Forschungsund Entwicklungsbetriebs wird darin zugunsten eines gemeinsamen, kollaborativen Prozesses zwischen Unternehmen und den oben erwähnten verschiedenen Partnern aufgelöst. Diese Öffnung des unternehmensinternen Innovationsprozesses erforscht die Wissenschaft insbesondere in Bezug auf die frühen Phasen der Produktentwicklung mit der Fragestellung, inwieweit kollaborative Prozesse den Ideenreichtum und dadurch die Innovationskraft eines Unternehmens erhöhen können. Zahlreiche Fallstudien sind in denletzten Jahren entstanden, welche sich dem Thema Open Innovation angenommen haben. Zumeist wurden dabei einzelne Unternehmen bei der Einführung der "Lead User" Methodik begleitet, an dessen Ende oft wertvolle Ideen für die entsprechenden Unternehmen generiert werden konnten. In den späten Phasen der Produktentwicklung ist eine entsprechende Kundenfokussierung durch die Möglichkeiten der Produktindividualisierung vergleichbar erforscht, wie es sich durch die umfassende Forschung hinsichtlich einer Produktindividualisierung zeigt. Trotz dieser Erkenntnisse hinsichtlich der Potenziale von offenen Innovationsprozessen nutzen viele Unternehmen das Wissen ihrer Kunden unzureichend. Dies erscheint zunächst unverständlich, da die Forschung aufzeigt, dass die Kundeneinbindung als eine vielversprechende Ressource für erfolgreiche Innovationen dienen kann. Die Managementforschung beschäftigt sich dennoch erst in den letzten Jahren verstärkt mit geöffneten Innovationsprozessen " eine Ausnahme stellen dabei jedoch die frühen Arbeiten von Hippel- dar. Bisherige Forschungsergebnisse gehen davon aus, dass eine Einbindung des Kunden besonders in den vorderen und hinteren Phasen des Innovationsprozesses stattfindet. Die Motivation dieser Arbeit liegt nun darin, konkrete Maßnahmen entlang des gesamten Innovationsprozesses zu identifizieren und diese auf ihre Anwendbarkeit hin zu prüfen. Gegenstand der Betrachtungen ist die technologische Innovation Internetprotokoll basiertes Fernsehen (IPTV), welches klassische unidirektionale Informationsangebote " analog zu den Entwicklungen des Internets " zu bidirektional nutzbaren Angeboten ausweitet.
In der aktuellen Hochschullandschaft findet man hauptsächlich die Unterrichtsform des Frontalunterrichts. Das bedeutet, der Lehrende hält während der Vorlesungszeit einen monologartigen Vortrag über den Unterrichtsstoff. Hierbei nehmen die Studenten nur passiv am Geschehen teil bzw. protokollieren das vom Professor Vorgetragene um es später zu Hause eigenständig nachzuarbeiten. E-Learning hingegen lässt den Lernenden aktiv Einfluss darauf nehmen, wie und in welchem Tempo er Lehrinhalte bearbeitet. In dieser Studienarbeit soll ein E-Learning-Kurs für den Themenbereich der Computergrafik erstellt werden. Die Arbeit besteht aus drei Teilen. Neben dieser schriftlichen Ausarbeitung habe ich einen E-Learning-Kurs mit Hilfe des Learning Management Systems WebCT1erstellt und hierfür zwei Applets erstellt, die Übungsaufgaben zu den Themen Koordinatentransformationen und Szenegraphen erstellen.
Response-Shift bezeichnet eine Veränderung des Bewertungshintergrunds für subjektive Konzepte wie bspw. der gesundheitsbezogenen Lebensqualität (GLQ) im Rahmen der Auseinandersetzung mit einer schweren bzw. chronischen Erkrankung. Krebserkrankungen werden als Auslöser eines Response-Shifts angesehen. Response-Shift kann in drei verschiedenen Formen auftreten: Als Rekalibrierung, Reprioritisierung und Neukonzeptualisierung der GLQ. Eine Erfassung dieser drei Response-Shift-Prozesse bei einer homogenen Stichprobe von PCa-Patienten in der onkologischen Rehabilitation liegt in Deutschland bisher nicht vor. Es wurden von insgesamt 212 Prostatakrebspatienten (PCa-Patienten) in der Anschlussheilbehandlung Daten zur GLQ mittels des EORTC-QLQ-C30 vor Beginn der Maßnahme sowie 3 Monate nach Beginn erhoben und in die Auswertung zur Response-Shift-Erfassung aufgenommen. Die Prozesse Rekalibrierung, Reprioritisierung und Neukonzeptualisierung wurden mit Hilfe der konfirmatorischen Faktorenanalyse (KFA) erfasst. Eine Rekalibrierung läßt sich auf der Ebene der Messfehler und Intercepts überprüfen. Die Reprioritisierung und Neukonzeptualisierung kann anhand der Veränderung der Faktorladungen untersucht werden. Bei dem Vorgehen handelt es sich um einen Ansatz aus der Invarianzmessung von Variablen und Parametern im Längsschnitt. In der vorliegenden Arbeit wurde untersucht, ob in der Gesamtstichprobe ein Response-Shift auftritt, und falls ja, in welcher Form (Fragestellung 1). Weiterhin sollte anhand von Subgruppenanalysen (Medianisierung) geprüft werden, welchen Einfluss einerseits das Ausmaß der Veränderung der globalen Lebensqualität (Fragestellung 2) und andererseits die Variablen Benefit-Finding, Selbstwirksamkeit sowie Positive und Negative Affektivität (Fragestellung 3) auf einen Response-Shift haben. Es konnte ein Basismodell der GLQ zu zwei Messzeitpunkten bei den PCa-Patienten identifiziert werden, dass als geeignet bezeichnet wurde, um einen Response Shift in der vorliegenden Stichprobe zu untersuchen (ï£2/df = 1.50, RMSEA = 0.05, CFI = 0.98, TLI = 0.97). Ein so genanntes Nullmodell, in dem alle Response-Shift relevanten Parameter für beide Messzeitpunkte als gleich angenommen wurde, wies eine inakzeptable Modellpassung auf (ï£2/df = 5.30, RMSEA = 0.14, CFI = 0.76, TLI = 0.71). Über die Ableitung geschachtelter Modellvergleiche konnte ausgehend von dem Nullmodell ein Response-Shift-Modell berechnet werden, dass wiederum eine gute Passung aufwies (ï£2/df= 1.31, RMSEA = 0.04, CFI = 0.99, TLI = 0.98). In der vorliegenden Gesamtstichprobe wurden Rekalibrierungsprozesse auf den Skalen Physische, Kognitive und Rollenfunktionsfähigkeit identifiziert, die sich auf die Kalkulation der beobachteten Effekte auf Skalenebene auswirkten. Es konnte gezeigt werden, dass Response Shift einen erheblichen Einfluss auf die beobachteten Effekten auf Skalenebene hat (Fragestellung 1). So schätzen PCa-Patienten ihre Physische und Rollenfunktionsfähigkeit zum 2. Messzeitpunkt positiver ein, ohne dass dies auf Veränderungen der GLQ zurückgeführt werden kann. Unabhängig von der Veränderung der GLQ zwischen den Messzeitpunkten schätzen die Patienten ihre Kognitive Funktionsfähigkeit zum Postmesszeitpunkt negativer ein als zur ersten Messung. In den Subgruppenanalysen zeigt sich, dass das Ausmaß der Veränderung der globalen Lebensqualität einen Einfluss auf die Anzahl von Response-Shift-Prozessen hat. Dies gilt ebenso für die Variablen Benefit-Finding, Selbstwirksamkeit und Positive Affektivität. Jedoch lassen sich Unterschiede im Ausmaß von Response-Shift-Effekten zwischen verschiedenen Subgruppen nicht eindeutig nachweisen (Fragestellung 2 und 3). Response Shift sollte bei Untersuchungen der GLQ bei Krebserkrankungen mehr Berücksichtigung finden. Das setzt jedoch voraus, dass die Methoden zur Erfassung des Phänomens weiterentwickelt werden. Mit der hier eingesetzt Methode der KFA im Längsschnitt steht ein geeignetes Verfahren zur Verfügung, das Response-Shift bei einfachen Prä-Post-Messungen erfassen kann. Praktisch relevant erscheint das Ergebnis der Arbeit im Zusammenhang mit der Überprüfung der Wirksamkeit von Maßnahmen der onkologischen Rehabilitation. Werden zur Evaluation Skalen eingesetzt, die response-shift-beeinflusst sind, darf nicht ohne Weiteres auf eine Veränderung des zugrundeliegenden Konstrukts geschlussfolgert werden. In der vorliegenden Arbeit würde die Veränderung der GLQ anhand der Veränderung der manifesten Werte der Skalen Physische und Rollenfunktionsfähigkeit eher überschätzt. Anhand der Skala Kognitive Funktionsfähigkeit würden Veränderungen der GLQ jedoch eher unterschätzt. Somit bietet sich der KFA-Ansatz an, um die Änderungssensitivität von Lebensqualitätsinstrumenten zu prüfen und diese entsprechend weiter zu entwickeln. Außerdem bietet die Methode Möglichkeiten, um inhaltliche Einflussfaktoren auf einen Response-Shift zu prüfen.
TGraphBrowser
(2010)
This thesis describes the implementation of a web server that enables a browser to display graphs created with the Java Graph Laboratory (JGraLab). The user has the choice between a tabular view and a graphical presentation. In both views it is possible to navigate through the graph. Since graphs with thousands of elements may be confusing for the user, he or she is given the option to filter the displayed vertices and edges by their types. Furthermore, the number of graph elements shown can be limited by means of a GreQL query or by directly entering their ids.
In this thesis a Java program is developed that can be used to visualize networks previously described in configuration files. These networks must consist of layer 2 switches and hosts only. After loading such a configuration file, the program will visualize the network, and the spanning tree algorithm IEEE 802.1D may be started. The program allows the user to modify specific attributes of switches and hosts. The hosts will be able to exchange messages. The switches are realized as threads so that they can run independently and parallel to each other. The absence of central coordination and control prevents the switches from sharing global knowledge. This characteristic renders the implementation closer to the way an actual network functions.
A network like the internet is a set of subnets that are connected to each other by a router. A router is a computer, containing multiple network devices to be connected to multiple subnets. So, it is able to forward packages from one subnet to another. A network can be represented as a graph with its routers as vertices and subnets as edges. This graph is called the topology of the network. A packet send to a host outside the own subnet usually will be send first to the so-called default router. This router (like any router) contains a table (the so-called forwarding table) with every subnet. Additionally for each net, the table contains the router through which the subnet can be reached best. So, the packet will be forwarded from router to router until it reaches the destination subnet. On this way every router looks up in its forwarding table for the best next router. A routing protocol takes care of the automatic exchange of informations between the routers to build the forwarding tables and keep them up to date. If the forwarding tables of all routers are up to date the network is called convergent. The time needed to build or update the routing tables is called the convergence time The RIP routing protocol is a well known and well explored distance vector protocol. But there are only few examinations about the convergence properties (e.g. the time needed to converge or the traffic volume produced by the routing messages). This work tries to examine a relationship between the topology properties of a network and the convergence properties of the rip routing protocol. Therefore, over 5000 single measurements were performed and statistically analyzed. Mathematical formulas have been derived from the results that are able to approximate the convergence properties of a network from its topology properties.
Das Ziel der Arbeit besteht darin, Dominosteine in 2-D Bildern robust zu erkennen und zu klassifizieren. Als Eingabedaten fungieren alle Arten von Intensitätsbildern, und die Ausgabe besteht aus klassifizierten Dominosteinen. Das Problem, das gelöst werden soll, besteht darin, bei so vielen Dominosteinen wie möglich exakt zu bestimmen, um wlechen Dominstein es sich handelt. Zur Problemlösung werden Modellklassen verwendet, in denen explizites Wissen zur Merkmalsfindung und Objetkerkennung enthalten ist. Dazu wird eine Segmentierung entwickelt, die einem Dominostein ermöglicht, seine Bestandteile im Bild zu lokalisieren. Bei der Zuordnung zwischen den im Bild gefundenen und im Modell vorhandenen Komponenten entstehen mehrere Hypothesen. Um diese zu bewerten, werden unterschiedliche Abstandsfunktionen entwickelt und avaluiert. Für die Zuordnung von Segmentierungs Objekten zu Modellbestandteilene wir die Ungarische Methode verwendet.
Informatik hautnah erleben
(2010)
In vielen Köpfen - sowohl bei Erwachsenen wie auch bei Schülern - geistert der Glaube, dass Informatik die Wissenschaft der "Computerlehre" ist. Schon der berühmte Satz "In der Informatik geht es genauso wenig um Computer wie in der Astronomie um Teleskope", der dem Informatiker Edsger W. Dijkstra (1930 - 2002) zugeschrieben wird, drückt historisch schon früh den Gedanken aus, dass die Informatik den Computer nur als ein Hilfsmittel und Medium nutzt, genauso wie die Mathematik den Taschenrechner. Die Fehlvorstellung, die leider auch häufig in den Schulen vermittelt wird, zeigt, dass hier Aufklärung nötig ist.
This thesis deals with the mapping from Ecore to grUML. Thereby the transformation of models in Ecore to graphs in grUML is as well considered as the conversion of Ecore metamodels to grUML schemas. At first the modeling languages Ecore and grUML are described separately. Thereby the metamodels of the languages are explained and the API is presented. Subsequent differences and similarities of grUML and Ecore are exemplified and based on this a mapping is defined. Also requirements for the implementation of the transformation are noted. After that details of the realisation follow. Finally the results of the transformation are shown with the help of some examples.
Ontologies play an important role in knowledge representation for sharing information and collaboratively developing knowledge bases. They are changed, adapted and reused in different applications and domains resulting in multiple versions of an ontology. The comparison of different versions and the analysis of changes at a higher level of abstraction may be insightful to understand the changes that were applied to an ontology. While there is existing work on detecting (syntactical) differences and changes in ontologies, there is still a need in analyzing ontology changes at a higher level of abstraction like ontology evolution or refactoring pattern. In our approach we start from a classification of model refactoring patterns found in software engineering for identifying such refactoring patterns in OWL ontologies using DL reasoning to recognize these patterns.
The process of pattern recognition is divided into several sub-steps where ultimately patterns on unknown data samples are expected to be detected and automatically labeled. Classiffers are most commonly used for this and are being trained on known test data samples. Many existing software applications provide tools for selected tasks in pattern recognition but not for all steps in the training phase. Therefore in this work a framework was developed which implements common tasks of image classiffcation systems as individual components. It is plugin aware, easily extensible and provides a graphical user interface.
E-Mail-Forensik - IP-Adressen und ihre Zuordnung zu Internet-Teilnehmern und ihren Standorten
(2010)
Wesentliches Element des weltweiten Internets bildet der Adressraum der IP-Adressen, die den am Internet teilnehmenden Geräten ("IP-Hosts") zugewiesen sind. IP-Adressen (der Version 4) bestehen aus vier Zahlen zwischen 0 und 255 und repräsentieren viermal acht Bits, mit welchen insgesamt über vier Milliarden Adressen unterschieden werden können. Die zentrale Organisation IANA vergibt an fünf regionale Adressregistraturen Adressräume, welche sie an lokale Registraturen, Telecomanbieter und Internet-Service-Provider weiter verteilen. Diese Adressverteilung ist relativ stabil. Diese Zuordnung ist öffentlich zugänglich über so genannte whois-Abfragen aus Datenbanken der regionalen Registraturen. Die Internet-Service-Provider (ISP) vergeben IP-Adressen an ihre Nutzer. Die Zuordnung wird teilweise statisch mit langfristiger Bindung vorgenommen und teilweise dynamisch nur für die Dauer einer Datenverbindung. Die dynamische Adressverwaltung erlaubt es Internet-Service-Providern, mehr Nutzer zu bedienen, als ihr Adressraum an verschiedenen IPAdressen zulässt, da die Adressen von Geräten, die aus dem Internet ausscheiden, nicht wie bei der statischen Vergabe frei gehalten werden müssen, sondern an sich neu mit dem ISP verbindende Geräte vergeben werden können. In internen Tabellen verwalten die Internet-Service-Provider die Zuordnung von IP-Adressen zu den konkreten Anschlüssen ihrer Nutzer, außerdem protokollieren sie, welcher Anschluss wann welche IP-Adresse hatte . Diese Daten sind öffentlich nicht zugänglich, sondern müssen bei Bedarf mit gesetzlich geregelten Einschränkungen (Datenschutz) erfragt werden.
Die Umbruchphase in der beruflichen Erstausbildung - unter besonderer Berücksichtigung der Berufsschulen - zeigt Wirkung auf schulische, didaktische und pädagogische Konzeptionen. Die kaum noch überschaubaren technologischen, ingenieur- und naturwissenschaftlichen Entwicklungen der letzten Jahrzehnte haben die Inhalte einer gewerblich-technischen Ausbildung, aber auch die zunehmenden Anforderungen an die fachliche, methodische, emotionale und persönliche Kompetenz radikal verändert und werden sich weiterhin verändern. Wenn auch die Berufausbildung durch die Entwicklung neuer Berufsbilder und angepasster Lehrpläne versucht darauf zu reagieren, geht es in erster Linie doch um ein neues Lernverständnis. Vorbei sind die Zeiten, in denen das einmal erworbene berufliche Können lebenslang vorhält. Vor-dringlicher denn je fordert der rasante technologische Veränderungsprozess eine lebenslange Lernkompetenz. Mittlerweile reicht in den meisten Fällen die Bereitschaft allein nicht mehr aus, sich aus eigenem Antrieb neue Kompetenzen während der beruflichen Tätigkeit anzueignen, die Lerner müssen auch dazu befähigt sein. Unverkennbar zeigt sich in der Berufsschule als Folge davon eine deutliche Hinwendung zu offenen Lernformen. Daraus lässt sich schließen, dass bisherige Konzepte den Erwerb von anspruchsvollen Handlungs- und Lernkompetenzen nicht erfüllen können. Es stellt sich die Frage, inwieweit der Projektunterricht als Unterrichtskonzept in der Lage ist, neben der Vermittlung der erforderlichen neuen Handlungskompetenzen, auch die Bereitschaft der Lernenden zu wecken, eigenverantwortlich und selbstständig lebensbegleitend zu lernen und sich weiter zu qualifizieren. Sich auf Projektunterricht einzulassen, kann durchaus als Wagnis nicht nur hinsichtlich des Verlaufes als auch des Ergebnisses gesehen werden. Eine treffende Umschreibung bieten DE BIE/LOUWERSE (1977, 211): "Es kann nicht genug betont werden, daß Projektunterricht größere Anstrengungen, mehr Einsatz, mehr Disziplin und eine größere Frustrationstoleranz erfordert als der traditionelle Unterricht. Im Projektunterricht gibt es kein festes System und keinen Dozenten, der die Vorbereitung und die Durchführung übernimmt, und man kann daher auch nicht die Mängel auf sie projizieren oder Frustrationen auf sie abwälzen. Projektunterricht stellt größere Anforderungen als der traditionelle Unterricht; deshalb erfordert er auch "reifere" Teilnehmer - sowohl was die Studenten wie die Dozenten betrifft. - Mit der Aufarbeitung des Projektunterrichts in einer gewerblichen Berufsschule in Form einer Fallstudie greift der Autor ein zentrales betriebs- und berufspädagogisches Thema auf. Er gliedert seine Fallstudie in sechs Kapitel. Nach der allgemeinen Betrachtung des Lernens richtet sich sein Fokus im ersten Abschnitt auf die Anforderungen in der heutigen Zeit und vor allem auf das in der Berufsschule gemäß Lehrplan geforderte Konzept der Handlungskompetenz. Die beiden folgenden Kapitel beschäftigen sich mit dem Projektunterricht. In Teil zwei werden zunächst die Grundlagen herausgearbeitet und über den historischen Rückblick auf die Inhalts- und Berührungspunkte dieser Lernart hingewiesen. Die Problematik angesichts der zahlreichen Projektautoren mit ihren unterschiedlichen Standpunkten wird bei der Begriffsklärung nur zu deutlich. Darauf aufbauend erfolgt in Kapitel drei die Beleuchtung des Projektunterrichts als didaktisches Modell. FLECHSIGS Konzeption didaktischer Modelle zeigt auf, dass der Projektunterricht wesentlich zur individuellen Förderung der Persönlichkeit beiträgt und beispielhaft eine Fülle von Lernmöglichkeiten für Schüler und Lehrer bietet. Teil vier beinhaltet das Konzept der Fallstudie zum "projektorientierten Unterricht". Projekt "Lampe" ist als Beitrag zur Verbesserung der Unterrichtsqualität im Rahmen der Schulentwicklung an der Berufsschule zu verstehen. Der Verfasser verfolgt mit dem Projekt "Lampe" zweierlei: Zum einen sollen die bisher vereinzelt gemachten Erfahrungen mit selbstständigen Lernprozessen gebündelt und in eine komplexe Aufgabe transferiert werden, andererseits erstrebt er, den Anforderungen an den klassischen Projektunterricht so nah wie möglich zu kommen. Die Untersuchung wird geleitet von folgender Hauptthese: "Volljährige Schüler, die in einer eigenen Lehrwerkstatt mit hauptberuflichen Ausbildern ihren Beruf erlernen, den Abschluss der "Mittleren Reife" mitbringen, überdurchschnittliche Leistungen im Rahmen der Ausbildung nachweisen können, stehen offenen Lehr- und Lernformen (in diesem Fall dem Projektlernen) positiv gegenüber." Der Autor erhob die für die empirische Auswertung maßgeblichen Informationen in Teil fünf über ein von jedem Schüler anonym am Ende jeder Projektwoche auszufüllendes Meinungsbarometer. Gegenstand der Auswertung war die gesamte Population. Die Fallstudie weist folgende Vorgehensweise auf: Die zentralen Fragestellungen mündeten in das Meinungsbarometer. Die darin enthaltenen Fragebogenkategorien wurden mit der Faktorenanalyse auf ihre Zusammensetzung hin überprüft und aufgrund des Ergebnisses für die Auswertung neu gruppiert. Über die Korrelationsprüfung der Fragebogenkomponenten traten die Zusammenhänge zwischen dem Fragebogen und den in den zentralen Fragestellungen genannten Items hervor. rnAbschließend erfolgte die Untersuchung der korrelierenden Variablen unter Einbezug der Schulbildung mit der Varianzanalyse und die Bewertung der Hauptthese. Die umfangreichen Daten der Ergebnisse erhalten trotz der hohen Informationsdichte durch die Darstellung in Tabellen, Polygonzügen und Histogrammen ein hohes Maß an Anschaulichkeit. Teil sechs bietet einen Ausblick auf die zukünftige Gestaltung des Projekts "Lampe".
Diese Diplomarbeit befasst sich damit, den SURF-Algorithmus zur performanten Extraktion von lokalen Bildmerkmalen aus Graustufenbildern auf Farbbilder zu erweitern. Dazu werden zuerst verschiedene quelloffene Implementationen mit der Originalimplementation verglichen. Die Implementation mit der größten Ähnlichkeit zum Original wird als Ausgangsbasis genutzt, um verschiedene Erweiterungen zu testen. Dabei werden Verfahren adaptiert, die den SIFT-Algorithmus auf Farbbilder erweitern. Zur Evaluation der Ergebnisse wird zum Einen die Unterscheidungskraft der Merkmale sowie deren Invarianz gegenüber verschiedenen Bildtransformationen gemessen. Hier werden verschiedene Verfahren einander gegenüber gestellt. Zum Anderen wird auf Basis des entwickelten Algorithmus ein Framework zur Objekterkennung auf einem autonomen Robotersystem entwickelt und dieses evaluiert.
Einige akademische Arbeiten behaupten, dass Software, die in einem offenen Prozess erstellt wurde, strukturierter ist, als Programme, die im geschlossenen Umfeld entstanden sind. Die Rede ist hier von Open Source und Closed Source. Der Nachweis dieser Annahme wird mit der Technik der so genannten Design Structure Matrix (DSM) erbracht. DSM erlauben die Visualisierung der Struktur einer Software und ermöglichen das Berechnen von Metriken, mit denen dann der Level an Modularität der einzelnen Open Source Software (OSS) verglichen werden kann. Unter zu Hilfename dieser Technik geht die Diplomarbeit der Frage nach, ob ein Zusammenhang zwischen Geschäftsmodell und OSS existiert.
So far VNUML (Virtual Network User Mode Linux) has been used by the group for Computer Networks at the University of Koblenz in such a way as to test its own protocol enhancement for RIP (Routing Information Protocol) on strengths and weaknesses. The modified version of RIP is called RMTI (RIP with minimal topology information). In particular, special test scenarios have been used to investigate wether a Count-to-Infinity (CTI) problem can be completely avoided and how quickly the network converges after the failure or breakdown of a router. Tius thesis investigates whether the MTI enhancement also provides for better performance in larger networks. Furthermore, it will be investigated if it is worth using the script tool EDIV ((spanish: Escenarios DIstribuidos con VNUML, english: Distributed Scenarios using VNUML) due to its enhanced scalability and whether the distribution of an XML scenario on several computers has a significant impact on the convergence time. Apart from simulations, test scenarios will be developed and tested in order to generate results about the efficiency and scalability of the Distance Vector Routing Protocol.
Multi-agent systems are a mature approach to model complex software systems by means of Agent-Oriented Software Engineering (AOSE). However, their application is not widely accepted in mainstream software engineering. Parallel to this the interdisciplinary field of Agent-based Social Simulation (ABSS) finds increasing recognition beyond the purely academic realm which starts to draw attention from the mainstream of agent researchers. This work analyzes factors to improve the uptake of AOSE as well as characteristics which separate the two fields AOSE and ABSS to understand their gap. Based on the efficiency-oriented micro-agent concept of the Otago Agent Platform (OPAL) we have constructed a new modern and self-contained micro-agent platform called µ². The design takes technological trends into account and integrates representative technologies, such as the functionally-inspired JVM language Clojure (with its Transactional Memory), asynchronous message passing frameworks and the mobile application platform Android. The mobile version of the platform shows an innovative approach to allow direct interaction between Android application components and micro-agents by mapping their related internal communication mechanisms. This empowers micro-agents to exploit virtually any capability of mobile devices for intelligent agent-based applications, robotics or simply act as a distributed middleware. Additionally, relevant platform components for the support of social simulations are identified and partially implemented. To show the usability of the platform for simulation purposes an interaction-centric scenario representing group shaping processes in a multi-cultural context is provided. The scenario is based on Hofstede's concept of 'Cultural Dimensions'. It does not only confirm the applicability of the platform for simulations but also reveals interesting patterns for culturally augmented in- and out-group agents. This explorative research advocates the potential of micro-agents as a powerful general system modelling mechanism while bridging the convergence between mobile and desktop systems. The results stimulate future work on the micro-agent concept itself, the suggested platform and the deeper exploration of mechanisms for seemless interaction of micro-agents with mobile environments. Last but not least the further elaboration of the simulation model as well as its use to augment intelligent agents with cultural aspects offer promising perspectives for future research.
This thesis introduces fnnlib, a C++ library for recurrent neural network simulations that I developed between October 2009 and March 2010 at Osaka University's Graduate School of Engineering. After covering the theory behind recurrent neural networks, backpropagation through time, recurrent neural networks with parametric bias, continuous-time recurrent neural networks, and echo state networks, the design of the library is explained. All of the classes as well as their interrelationships are presented along with reasons as to why certain design decisions were made. Towards the end of the thesis, a small practical example is shown. Also, fnnlib is compared to other neural network libraries.
Die Diffusions-Tensor-Bildgebung (DTI) ist eine Technik aus der Magnet-Resonanz-Bildgebung (MRI) und basiert auf der Brownschen Molekularbewegung (Diffusion) der Wassermoleküle im menschlichen Gewebe. Speziell im inhomogenen Hirngewebe ist die Beweglichkeit der Moleküle stark eingeschränkt. Hier hindern die Zellmembranen der langgestreckten Axone die Diffusion entlang nicht-paralleler Richtungen. Besonderen Wert hat die Diffusions-Tensor-Bildgebung in der Neurochirugie bei der Intervention und Planung von Operationen. Basierend auf den mehrdimensionalen DTI-Tensor-Datensätzen kann für den jeweiligen Voxel das Diffsusionsverhalten abgeleitet werden. Der größte Eigenvektor des Tensors bestimmt dabei die Hauptrichtung der Diffusion und somit die Orientierung der entsprechenden Nervenfasern. Ziel der Studienarbeit ist die Erstellung einer Beispielapplikation zur Visualisierung von DTI-Daten mit Hilfe der Grafikhardware. Dazu werden zunächst die relevanten Informationen für die Erzeugung von geometrischen Repräsentationen (Streamlines, Tubes, Glyphen, Cluster...) aus den Eingabedaten berechnet. Für die interaktive Visualisierung sollen die Möglichkeiten moderner Grafikhardware, insbesondere Geometryshader ausgenutzt werden. Die erzeugten Repräsentationen sollen nach Möglichkeit in ein DVR (Cascada) integriert werden. Für die Arbeit wird eine eigene Applikation entwickelt, die bestehende Bausteine (Volumenrepräsentation, Volumenrendering, Shadersystem) aus Cascada analysiert und integriert.
Im Mittelpunkt dieser Diplomarbeit stand die Entwicklung eines Modells zur Charakterisierung einer HDR-Kamera mit CMOS-Sensorelement und logarithmischer Kamerakennlinie. Unter Beachtung der spezifischen Eigenschaften der Kamera sollte ein Verfahren gefunden werden, um von der Kamera aufgenommene Farbwerte, farbmetrisch korrekt in einen geräteunabhängigen Farbraum zu überführen. Zu diesem Zweck wurde im Rahmen dieser Arbeit ein zweiteiliges Charakterisierungsmodell entwickelt, welches zwischen Vorwärtsmodell und Inversem Modell unterscheidet.
Headtracking mit Wii-Cam
(2010)
Ziel der Studienarbeit war es, mit der Kamera aus der Wii-Fernbedienung die Kopfbewegungen eines Menschen anhand von Infrarot-LEDs bestimmen zu können. Daraus sollte dann die Blickrichtung des Menschen ermittelt und in einem kleinen Demonstrationsprogramm dargestellt werden. Besondere Herausforderung dabei war das mathematische Problem zur Errechnung der Kopfbewegung. Der erste Ansatz scheiterte, da sich die einzelnen Bewegungen gegenseitig bedingten. Deshalb wurde als Lösungshilfe der POSIT-Algorithmus von DeMenthon hinzugezogen. Er macht es möglich von einem bekannten Objekt die Rotationsmatrix zu bestimmen. Daraus können dann die einzelnen Drehungen des Kopfes berechnet werden. Der OpenGL-Raum ist natürlich nur ein Beispiel für eine Anwendung des Programms. Man könnte es auch für viele andere Anwendungen benutzen, wie beispielsweise für Flugsimulationen. Außerdem wird die Möglichkeit geboten, das LED-Objekt zu ändern und gegebenfalls zu optimieren. Durch die zusätzliche Ausgabe der Translation ist dieses Programm außerdem sehr gut für Weiterentwicklungen geeignet.
With the Multimedia Metadata Ontology (M3O), we have developed a sophisticated model for representing among others the annotation, decomposition, and provenance of multimedia metadata. The goal of the M3O is to integrate the existing metadata standards and metadata formats rather than replacing them. To this end, the M3O provides a scaffold needed to represent multimedia metadata. Being an abstract model for multimedia metadata, it is not straightforward how to use and specialize the M3O for concrete application requirements and existing metadata formats and metadata standards. In this paper, we present a step-by-step alignment method describing how to integrate and leverage existing multimedia metadata standards and metadata formats in the M3O in order to use them in a concrete application. We demonstrate our approach by integrating three existing metadata models: the Core Ontology on Multimedia (COMM), which is a formalization of the multimedia metadata standard MPEG-7, the Ontology for Media Resource of the W3C, and the widely known industry standard EXIF for image metadata
Diese Arbeit behandelt verschiedene Ansätze zur Ermittlung einer Heuristik, welche zur Bestimmung einer optimalen Konfiguration des Theorembeweisers E-KRHyper eingesetzt werden soll. Es wird erläutert, wie der Beweiser durch eine angepasste Voreinstellung optimiert werden kann und die erarbeiteten Ansätze zur Ermittlung dieser Voreinstellung werden vorgestellt. Anhand der erzielten Ergebnisse werden die Ansätze anschließend bewertet und für eines der vorgestellten Verfahren wird außerdem eine Idee zur Implementierung vorgestellt.
The determination of a cameras position and orientation from point correspondences between 3d-positions and their image positions in computervision is known as pose estimation. Many modern applications benefit from the knowledge about the cameras absolute orientation in the reference frame at the time of image formation. To this extend a model is built from a sequence of images using structurefrom- motion techniques and SIFT features. The model is built from a single offthe- shelf monocular camera which can be moved freehand. No a priori knowledge of the cameras position is needed while model construction. In a second step the pose of a camera wich shows partial content of the constructed model is computed. Mapping these model features and the features of the new image leads to the 3d- 2d-correspondences which are the basis of linear optimization methods for solving the camera pose. The system relies on a precalibrated camera and a manual selection of adequate SIFT features for initial epipolar geometry estimation while model construction.
In dieser Arbeit wurde nach einer detaillierten Erklärung der Begriffe Ad-hoc Network, MANET und VANET eine Auflistung und anschließend ein Vergleich der verschiedenen Routingverfahren, die in VANETs auftreten können, durchgeführt. Unter diesen Routing Verfahren wurde das Geocasting ausgesucht, weil es sich für die hohe Mobilität der einzelnen Knoten für geeignet gezeigt hat. Anschließend wurde auf die Sicherheitsanforderungen eingegangen. Dabei wurden die Begriffe Datenintegrität, Informationsvertraulichkeit, Verfügbarkeit, Verbindlichkeit, Anonymisierung und Peudomisierung eingeführt und ihre Wichtigkeit bei VANETs anhand von Beispielen gezeigt. In Abschnitt 2.4 wurden einige Angriffszenarien genannt, wobei sie in passive und aktive Angriffe kategorisiert wurden. Anhand eines Hybridmodells wurden jeder Schicht mögliche Angriffe zugeordnet und ausführlich diskutiert. Die Angriffe, die bereits definiert wurden, sind dann in einer Tabelle zusammengefasst worden. In dieser Tabelle wurde das Risiko berechnet, das ein Angriff bei VANETs hervorrufen kann. Angriffe auf der Anwendungsschicht sind mit sehr hohem Risiko angesiedelt und stellen eine große Gefahr für VANETs dar. Deshalb wurden manche dieser Angriffe dann mit konkreten Beispielen gezeichnet und dargestellt. Das Verbreiten von falschen Informationen auf Autobahnen ist das ausgewählte Szenario für das Angriffserkennungssystem. Dabei wurde ein Konzept erstellt, wie dieses IDS vorzugehen hat, wenn ein Fahrzeug eine Nachricht bekommt, um zu überprüfen, ob sie richtig oder falsch ist. Dabei wurden Randbedingungen aufgestellt, damit das IDS richtig funktioniert. Dieses Konzept wurde anhand einer Simulation realisiert, um zu überprüfen, ob es tatsächlich seine Aufgabe erfolgreich erfüllt. Nach der Beschreibung der Simulationsimplementierung und ihren wichtigsten Komponente wurden Tests durchgeführt, um die Funktionalität der Erkennung zu testen. Dabei wurde festgestellt, dass die Dichte des Verkehrs, Entfernung des Eregnismelders von der Ereigniszone und die Anzahl der empfangenen Nachrichten in jedem Fahrzeug eine große Rolle bei der Erkennung von Ereignissen spielt.
Im Vordergrund dieser Arbeit stehen die Geschäftsprozessmodelle und deren Überführung in das für eine Weiterverarbeitung in JGraLab benötigte TGraph-Format. Für die Modellierung der Geschäftsprozesse im SOAMIG-Projekt fiel die Auswahl, aus Gründen der Verbreitung und der Kompetenzen der SOAMIG-Partner, zugunsten der drei bereits erwähnten Modellierungssprachen UML Aktivitätsdiagramme, BPMN und EPK aus. Obwohl sich diese drei Notationen allesamt für die Erstellung von Geschäftsprozessmodellen bewährt haben und auch in Kombination in der Praxis eingesetzt werden, so differenzieren sie sich dennoch durch verschiedene Zielsetzungen bei ihrer Entwicklung. Die aufgrund der Zielsetzungen und der hohen Funktionsvielfalt resultierenden Unterschiede und Inkompatibilitäten der Sprachen untereinander bei der Modellierung von Geschäftsprozessen erschweren eine einheitliche Transformation nach JGraLab und die Behandlung der zu erhebenden Geschäftsprozessmodelle in JGraLab. Für jede Sprache müsste ein eigener Regelsatz und eine maßgeschneiderte Konvertierungsmöglichkeit festgelegt werden. Um eine sprach- und werkzeugunabhängige Geschäftsprozessmodellierung zu ermöglichen werden in dieser Arbeit zuerst die im SOAMIG-Projekt benötigten Sprachkonzepte und -elemente für die Modellierung von Geschäftsprozessen der UML Aktivitätsdiagramme, der BPMN und der EPK vorgestellt. Im nächsten Schritt werden notationsübergreifende Abbildungen der Srachkonzepte und -elemente aufeinander beschrieben, Defizite und Lücken der Sprachen aufgedeckt und durch eigene Auslegungen der Notationen gefüllt, und schließlich Metamodelle der drei Sprachen, aufgrund der gewonnen Erkentnisse sowie ein Referenzmetamodell auf Basis dieser Metamodelle erstellt und dargestellt. Im letzten Teil dieser Arbeit wird die exemplarische Realisierung eines Modell-zu-Referenzmodell Konverters auf Basis der BPMN und des Modellierungswerkzeuges BizAgi Process Modeler der Firma BizAgi Ltd vorgestellt, und der Lösungsansatz anhand des Beispiels eines Geschäftsprozesses validiert. Die Konvertierer ermöglichen die Abbildung eines Geschäftsprozessmodelles auf ein semantisch-äquivalentes Referenzmetamodell-konformes Modell, auf dessen Basis weitere Arbeitsschritte vor der/ für die Migration, unabhängig von der ursprünglich eingesetzten Modellierungssprache, definiert werden können.
Entwicklung eines generischen Sesame-Sails für die Abbildung von SPARQL-Anfragen auf Webservices
(2010)
Diese Arbeit soll eine Möglichkeit aufzeigen, aufbauend auf dem Sesame Framework Datenbestände von nicht-semantischen Web-Diensten im Sinne des Semantic Web auszuwerten. Konkret wird ein Sail (Webservice-Sail) entwickelt, das einen solchen Web-Dienst wie eine RDF-Quelle abfragen kann, indem es SPARQL-Ausdrücke in Methodenaufrufe des Dienstes übersetzt und deren Ergebnisse entsprechend auswertet und zurückgibt. Um eine möglichst große Anzahl von Webservices abdecken zu können, muss die Lösung entsprechend generisch gehalten sein. Das bedeutet aber insbesondere auch, dass das Sail auf die Modalitäten konkreter Services eingestellt werden muss. Es muss also auch eine geeignete Konfigurationsrepräsentation gefunden werden, um eine möglichst gute Unterstützung eines zu verwendenden Web-Dienstes durch das Webservice-Sail zu gewährleisten. Die Entwicklung einer solchen Repräsentation ist damit auch Bestandteil dieser Arbeit.
The novel mobile application csxPOI (short for: collaborative, semantic, and context-aware points-of-interest) enables its users to collaboratively create, share, and modify semantic points of interest (POI). Semantic POIs describe geographic places with explicit semantic properties of a collaboratively created ontology. As the ontology includes multiple subclassiffcations and instantiations and as it links to DBpedia, the richness of annotation goes far beyond mere textual annotations such as tags. With the intuitive interface of csxPOI, users can easily create, delete, and modify their POIs and those shared by others. Thereby, the users adapt the structure of the ontology underlying the semantic annotations of the POIs. Data mining techniques are employed to cluster and thus improve the quality of the collaboratively created POIs. The semantic POIs and collaborative POI ontology are published as Linked Open Data.
In dieser Studie sollte hinsichtlich der Entwicklung eines faunistisch begründeten Monitoringkonzeptes für hydrologische Interaktionen untersucht werden, inwieweit die Meiofauna in Hyporheal und Grundwasser in der Lage ist, Oberflächenwasser-Grundwasser-Interaktionen zu reflektieren und die hydrologischen Verhältnisse einer Uferfiltrationsanlage aufzuzeigen. Dafür wurden hydrochemische und faunistische Analysen bezüglich ihrer Aussagekraft miteinander verglichen. Außerdem wurde die Anwendbarkeit des Grundwasser-Fauna-Index (GFI) zur Beurteilung der Stärke des Oberflächenwassereinflusses auf unterirdisches Wasser überprüft. Für die Untersuchung wurde die Uferfiltrationsanlage Flehe der Stadtwerke Düsseldorf ausgewählt, auf deren Gelände 70 vertikale Entnahmebrunnen über eine Strecke von 1,4 km eine Brunnengalerie bilden, die im Jahr insgesamt 11 Mio. m3 Wasser fördert. Am Untersuchungsstandort wurden insgesamt 15 Observationspegel von Februar 2005 bis Januar 2006 faunistisch und hydrochemisch beprobt. Die physikochemische Untersuchung ergab eine Aufteilung des Untersuchungsgebietes in vier Zonen. Neben dem Oberflächenwasser des Rheins [OW Rhein] konnten das Uferfiltrationswasser zwischen Rhein und den Entnahmebrunnen [Hyporheal], alluviales Grundwasser hinter der Brunnengalerie [Alluv. GW] und bei größerer Entfernung zum Rhein landseitiges Grundwasser [landseitiges GW] differenziert werden. Dabei wies der Rhein die typische Charakteristik eines Fließgewässers auf, gekennzeichnet durch eine große Temperaturamplitude mit einem Sommermaximum, hohen Sauerstoffkonzentrationen mit einem Wintermaximum und erhöhten AOX-, DOC- und SAK254nm-Werten. Am Uferfiltrat der Gruppe [Hyporheal] wurde die Wirksamkeit der mikrobiellen Abbauprozesse während der Uferfiltration mit deutlichen Reduzierungen der DOC- und SAK- und Sauerstoffkonzentrationen ersichtlich. Die Gruppe [Alluv. GW] und verstärkt das [landseitige GW] waren durch eine höhere elektrische Leitfähigkeit und erhöhten Bor- und Sulfatkonzentrationen sowie z. T. geringen Sauerstoffgehalten gekennzeichnet. Anhand dieser hydrochemischen Differenzen konnte die unterschiedliche Herkunft des Wassers im Untersuchungsgebiet ermittelt werden Die faunistischen Untersuchungen zeigten ein differenzierteres Bild von den hydrologischen Verhältnissen als die Hydrochemie. Insgesamt konnten fünf ökologische Gruppen ermittelt werden. Die Gruppe [Hyporheal 1] der A-Pegelreihe wies als einzige euryöke Arten auf, die einen stärkeren Oberflächenwassereinfluss anzeigten. Im [Hyporheal 2] der B-Pegelreihe konnte eine artenreiche ökotonale Fauna nachgewiesen werden, während die Proben des alluvialen Grundwassers der C-Pegelreihe [Alluv. GW (Pumpe)] den Einfluss der Entnahmebrunnen reflektierten. In den Pegeln des alluvialen Grundwassers [Alluv. GW] wurde aufgrund der geringeren Beeinflussung der Pumpen artenreichere Zoozönosen vorgefunden. Das [landseitige GW] wies schließlich eine arten- und abundanzarme Fauna auf, die charakteristisch ist für Grundwasser mit geringem Oberflächenwassereinfluss. Folglich konnte die Fauna nicht nur die Herkunft des Grundwassers anzeigen, sondern auch den Einfluss und die Intensität des Oberflächenwassers auf das Grundwasser sowie anthropogene Störungen wie eine verstärkte Kolmation bzw. die Effekte der Wasserentnahme durch die Brunnen. Die Meiofauna im Grundwasserleiter der Uferfiltrationsanlage dürfte somit als Indikator für hydrologische Verhältnisse gut geeignet sein. Der Grundwasser-Fauna-Index konnte als der wichtigste Faktor aller physikochemischen Parameter ermittelt werden, der die faunistischen Gruppen am stärksten beeinflusst. Außerdem war der GFI in der Lage, die Auswirkung und Intensität des Einflusses von Oberflächenwasser auf die einzelnen Probestandorte anzuzeigen. Die hier dargestellten Ergebnisse zeigen, dass die Grundwasserfauna und der GFI viel versprechende Methoden zur Bewertung der hydrologischen Verhältnisse, insbesondere des Einflusses von Oberflächenwasser auf das Grundwasser sind. Daher sind sie als Ergänzung zur hydrochemischen Analyse zu empfehlen und können auch einen wichtigen Beitrag für die Vulnerabilitätsabschätzung leisten.
Im Rahmen dieser Arbeit soll das Software-Modellierungstool Enterprise Architect so erweitert werden, dass die Trennung der Belange entsprechend dem erweiterten Hyperspace-Modell von Lohmann ermöglicht wird. Daneben soll auch die Bestimmung so genannter Slices ermöglicht werden. Bei einem Slice handelt es sich um die Menge aller Belange und syntaktischen Einheiten, welche mit einem oder mehreren Belangen direkt oder transitiv verknüpft sind. Die Idee der Bestimmung solcher Slices ist graphenorientiert: Die transitive Hülle der ausgewählten Belange und der mit diesen verknüpften Belange wird bestimmt. Dies kann auf bestimmte Kantenarten, welche die Arten der Verknüpfung von Belangen widerspiegeln, eingeschränkt werden. Bevor dies implementiert werden kann, muss untersucht werden, ob die Funktionalität mit den im Enterprise Architect gegebenen Möglichkeiten realisiert werden kann. Ist dies nicht der Fall, so müssen Modelle aus dem Enterprise Architect zunächst mit Hilfe von JGraLab in Graphen überführt werden, damit anschließend die Slices unter Anwendung der Graphenabfragesprache Graph Repository Query Language (GreQL) bestimmt werden können. Die Funktionalitäten sollen in einem gemeinsamen Software-Baustein realisiert werden, der sich konform zu den für den Enterprise Architect vorgegebenen Schnittstellen verhalten muss und keine Konflikte im Programmablauf verursachen kann.
This minor thesis shows a way to optimise a generated oracle to achieve shorter runtimes. Shorter runtimes of test cases allows the execution of more test cases in the same time. The execution of more test cases leads to a higher confidence in the software-quality. Oracles can be derived from specifications. However specifications are used for different purposes and therefore are not necessarily executable. Even if the are executable it might be with only a high runtime. Those two facts come mostly from the use of quantifiers in the logic. If the quantifier-range is not bounded, respectively if the bounds are outside the target language-datatype-limits, the specification is too expressive to be exported into a program. Even if the bounds inside the used datatype-limits, the quantification is represented as a loop which leads to a runtime blowup, especially if quantifiers are nested. This work explains four different possibilities to reduce the execution time of the oracle by manipulating the quantified formular whereas this approach is only applicable if the quantified variables are of type Integer.
Culture and violence
(2010)
The basic assumption of this study is that specific cultural conditions may lead to psychopathological reactions through which an increase in interpersonal violence may happen. The objective of this study was to define to what extent homicide rates across national cultures might be associated with the strength of their attitudes toward specific beliefs and values, and their scores in specific cultural dimensions. To answer this question, nine independent variables were defined six of which were related to the people- attitudes pertaining importance of religion (Religiosity), excessive feeling of choice and control (Omnipotence), clear-cut distinction between good and evil (Absolutism), proud of their nationality (Nationalism), approval of competition (Competitiveness), and high respect for authorities and emphasis on obedience (Authoritarianism). The data for these variables were collected from World Values Survey. For two cultural dimensions, Collectivism, and Power Distance, Hofstede- scores were used. The 9th variable was GNI per capita. After estimation of 7% missing values in the whole data through multiple imputation, a sample of 81 nations was used for further statistical analyses.
Results: Stepwise regression analysis indicated Omnipotence and GNI as the strongest predictors of homicide (β = .44 P = .000; β = -.27 P = .006 respectively). The 9 independent variables were loaded on two factors, socio-economic development (SED) and psycho-cultural factor (Psy-Cul), which were negatively correlated (-.47). The Psy-Cul was interpreted as an indicator of narcissism, and a mediator between SED and homicide. Hierarchical cluster analysis made a clear distinction among three main groups of Western, Developing, and post-Communist nations on the basis of the two factors.
The present work starts with an introduction of methods for three-dimensional curve skeletonization. Different kinds of historic and recent skeletonization approaches are analysed in detail. Later on, a state-of-the-art skeletonization algorithm is introduced. This algorithm deals as a basis for the own approach presented subsequently. After the description and definition of a new method improving the state-of-the-art algorithm, experiments are conducted to get appraisable results. Next, a ground truth is described which has been set up manually by humans. The human similarity evaluations are compared with the results of the automatic computer-based similarity measures provided by the own approach. For this comparison, standard evaluation criteria from the field of information retrieval have been used.
Die Studienarbeit analysiert mit Hilfe einer erweiterten Balancetheorie die Relationen des Roboters zu den Personen im Kamerabild und den Personen untereinander. Es wurde gezeigt, dass die Abstraktion der Balancetheorie auf eine konkrete Anwendung übertragen werden kann. Allerdings muss die Theorie erweitert und teilweise eingeschränkt werden, um sie flexibler, aber gleichzeitig passend zur Anwendung zu gestalten. Dadurch wird die theoretische Grundlage, auf der die Arbeit beruht, ebenfalls verändert. Damit diese Modifikationen nicht den Rahmen der psychologischen Grundlage verlassen, müssen sie wiederum mit psychologischen Mitteln untersucht werden. Das würde allerdings den Umfang dieser Arbeit überschreiten, aber bietet ein Ansatz für eine interdisziplinäre Zusammenarbeit der Psychologie und Robotik. Die Interaktion und das Verhalten der Maschinen nach menschlicher Vorlage zu gestalten, ist für beide Disziplinen von Interesse. Im Kontext der Entwicklung einer ausreichenden Interaktion zwischen der Maschine und dem Menschen, wäre es interessant zu erforschen, welche sozialen Merkmale detektiert werden müssten, zum Beispiel im Spektrum der Mimik. Darüberhinaus ermöglicht die Recognize-Pipeline ein Ansatz, die Interaktion über das Kamerabild hinaus zu verfolgen. Dadurch kann der Roboter das Gesicht mit vergangenen Interaktionen assoziieren und dem entsprechend agieren. Allerdings bedarf die Pipeline-Struktur weiterer Arbeit. So werden bestehende Datenbanken über ein Gesicht nicht mit neuen Bildern erweitert, so fern sie notwendig sind. Auch kann keine automatische Korrektur erfolgen, falls fehlerhafte Informationen in die Datenbank gelangen. So kann es vorkommen, dass das selbe Gesicht zwei unterschiedliche IDs erhält, wenn das Gesicht nicht wiedererkannt wird. Auch können sehr ähnliche Gesichter zusammenfallen zu einer ID. Solche Fehler müssten für eine stabile Anwendung selbständig korrigierbar sein.
Geschäftsordnung des Interdisziplinären Promotionszentrums der Universität Koblenz-Landau
Ordnung für die Prüfung im Bachelorstudiengang und im Masterstudiengang BioGeoWissenschaften der Universität Koblenz-Landau
Ordnung zur Aufhebung der Ordnung für die Prüfung im Bachelorstudiengang Ecological Impact Assessment und der Ordnung für die Prüfung im Masterstudiengang Ecological Impact Assessment in Freshwater Ecosystems an der Universität Koblenz-Landau
Gemeinsame Prüfungsordnung für den Bachelorstudiengang und den Masterstudiengang "Psychologie" des Fachbereichs Psychologie der Universität Koblenz-Landau, Campus Landau
Ordnung zur Aufhebung der Diplomprüfungsordnung für Studierende der Psychologie an der Universität Koblenz-Landau, Abteilung Landau
Ordnung zur Änderung der Prüfungsordnung für den Bachelorstudiengang "Sozialwissenschaften" und den Masterstudiengang "Moderne Gesellschaften im Wandel" des Fachbereichs 6: Kultur- und Sozialwissenschaften an der Universität Koblenz-Landau