Refine
Year of publication
- 2010 (93) (remove)
Document Type
- Part of Periodical (25)
- Diploma Thesis (21)
- Study Thesis (17)
- Bachelor Thesis (14)
- Doctoral Thesis (11)
- Master's Thesis (5)
Language
- German (65)
- English (27)
- Multiple languages (1)
Keywords
- Vorlesungsverzeichnis (4)
- Routing (3)
- Web 2.0 (3)
- 3D (2)
- API (2)
- Datenaustausch (2)
- Datenschutz (2)
- GPS (2)
- Geschäftsprozess (2)
- Mustererkennung (2)
- Netzwerk (2)
- RMTI (2)
- Robotik (2)
- TGraph (2)
- hybrid automata (2)
- multi-agent systems (2)
- ontology (2)
- 2-D (1)
- Abbildung <Mathematik> (1)
- Absolutismus (1)
- Agentenorientiertes Software Engineering (1)
- Algorithm Engineering (1)
- Anforderungsprofil (1)
- Annotationsmodell (1)
- Artificial Neural Networks (1)
- Audiodatei (1)
- Augmented Reality (1)
- Ausstellung (1)
- Authentisierung (1)
- Automatisches Beweisverfahren (1)
- Autorensystem (1)
- Autoritarismus (1)
- BPMN (1)
- Balancetheorie (1)
- Benutzerschnittstelle (1)
- Beschaffung (1)
- Bild (1)
- Bildanalyse (1)
- Bildanalyse-Verfahren (1)
- Bildverarbeitung (1)
- Bioindikator (1)
- Biometric Authentication (1)
- Biotransformation (1)
- Biozönose (1)
- Browser (1)
- Business intelligence (1)
- CB2 (1)
- CSCW (1)
- Cascada (1)
- Closed Source (1)
- Common Annotation Framework (1)
- Computational logic (1)
- Computer Supported Cooperative Work (1)
- Computergraphik (1)
- Container Entity Modell (1)
- Context-aware processes (1)
- Controlling (1)
- Core Ontology on Multimedia (1)
- DTI (1)
- Decision-support (1)
- Delta (1)
- Demoskopie (1)
- Description Logic (1)
- Description Logics (1)
- Diagnostik (1)
- Digitale Bilder (1)
- Dijkstras Algorithmus (1)
- Distributed process execution (1)
- E-KRHyper (1)
- E-Learning (1)
- E-Mail (1)
- E-Partizipation (1)
- E-participation (1)
- EPC (1)
- EPK (1)
- EU (1)
- Eclipse <Programmierumgebung> (1)
- Ecore (1)
- Einchip-Computer (1)
- Elektronisches Wasserzeichen (1)
- Emergenzen (1)
- Enterprise Architect (1)
- Entscheidungsunterstützung (1)
- Entwurfssprache (1)
- Europäischer Schadensbericht (1)
- Fertilitaet (1)
- Fingerprint Recognition (1)
- Flusssediment (1)
- Forensik (1)
- Formale Ontologie (1)
- Forschungsprojekt KMU 2.0 (1)
- GPU Programmierung (1)
- Ganzheitlichkeit (1)
- Geoinformation (1)
- Geometryshader (1)
- Geschäftsmodell (1)
- Gesundheitsbezogene Lebensqualität (1)
- Glint Center Estimation Algorithmus (1)
- Globale Beleuchtung (1)
- Grundwasserfauna (1)
- Grundwasserfauna-Index (1)
- HDR-Kamera (1)
- Handlungskompetenz (1)
- Handlungsorientierung (1)
- Headtracking (1)
- Heuristiken (1)
- Hyperspace-Modell (1)
- ICM (1)
- IM-Systeme (1)
- IP-Adressen (1)
- IPTV (1)
- Informatik (1)
- Informationsmanagement (1)
- Informationsmanagementsystem (1)
- Innovation (1)
- Innovationsmanagement (1)
- Instant Messaging (1)
- Interpretierer (1)
- Invarianzmessung (1)
- Inverses Modell (1)
- JGraph (1)
- JML (1)
- Java (1)
- Java Modeling Language (1)
- Java. Programmiersprache (1)
- Kamera (1)
- Klassifikationsframework (1)
- Klausellogik (1)
- Knowledge Compilation (1)
- Kollektivismus (1)
- Kompetenz (1)
- Kompetenzdiagnostik (1)
- Kompetenzentwicklung (1)
- Konfirmatorische Faktorenanalyse (1)
- Kontamination (1)
- Konvergenz (1)
- Künstliche Neuronale Netze (1)
- Laacher See <Region> (1)
- Lokale Bildmerkmale (1)
- Mapping <Mathematics> (1)
- Maßtheorie (1)
- Measure-theory (1)
- Medizinische Visualisierung (1)
- Mehrbenutzer-Annotationssystem (1)
- Mensch-Maschine-Schnittstelle (1)
- Mesobenthos (1)
- Mesophiler Laubwald (1)
- Metamodel (1)
- Mikrocontroller (1)
- Mikrocontroller AVR (1)
- Mikrozensus (1)
- Model-Driven Engineering (1)
- Modellieren (1)
- Modellierungskompetenz (1)
- Modellierungstool (1)
- Monitoring (1)
- Multi-Agenten-Systeme (1)
- Multiagentensysteme (1)
- Multimedia Metadata Ontology (1)
- Nationalismus (1)
- Naturpotential (1)
- Naturräumliche Gliederung (1)
- Naturschutz (1)
- Network (1)
- Networks (1)
- Netzwerk Protokollen (1)
- Netzwerk kleiner und mittlerer Unternehmen (1)
- Neuronales Netz (1)
- Norm (1)
- Nutzungsrechte (1)
- OCL <Programmiersprache> (1)
- OSS (1)
- OWL (1)
- OWL <Informatik> (1)
- Objekterkennung (1)
- Offener Innovationsprozess (1)
- Office-Prozess (1)
- Ontologie. Wissensverarbeitung (1)
- Ontology (1)
- Ontology API model (1)
- Open Innovation (1)
- Open Source (1)
- Open Source Software (1)
- Opinion mining (1)
- Optimierung (1)
- Oracle Generation (1)
- Oraklegenerierung (1)
- P2P (1)
- PEPPOL (1)
- POIs (1)
- Pan European Public Procurement OnLine (1)
- Personal Key Infrastruktur (1)
- Petri net (1)
- Pfadplanung (1)
- Physiksimulation (1)
- Plug in (1)
- Posebestimmung (1)
- Poseschätzung (1)
- Probability propagation nets (1)
- Process tracing (1)
- Programmierumgebung (1)
- Projekt iCity (1)
- Projektlernen (1)
- Projektunterricht (1)
- Protocol (1)
- Prozessmanagement (1)
- Prädikatenlogik (1)
- Pupil Center Estimation Algorithmus (1)
- Qt/C++ (1)
- RIP (1)
- RIP-MTI (1)
- RIP-XT (1)
- Rechnernetz (1)
- Referenzmetamodell (1)
- Religiosität (1)
- Response-Shift (1)
- RoboCup (1)
- SIFT-Algorithmus (1)
- SIFT-Merkmale (1)
- SOA-Webservice (1)
- SPARQL (1)
- STOF Model (1)
- STOR (1)
- SURF-Algorithmus (1)
- Semantic Web (1)
- Service-orientierte Architektur (1)
- Sesame (1)
- Shared Annotation Model (1)
- Shared Annotations (1)
- Sicherheit (1)
- Sicherheitsanforderungen (1)
- Software Engineering (1)
- Softwareentwicklung (1)
- Softwaremodellierung (1)
- Softwaretest (1)
- Softwaretesting (1)
- Soziale Online Systeme (1)
- Sozialwissenschaftliche Simulation (1)
- Soziologie (1)
- Soziooekonomisches Panel (1)
- Spannender Baum (1)
- Spanning Tree (1)
- Speaker Recognition (1)
- Specification (1)
- Spezifikation (1)
- Statistische Analyse (1)
- Tableau <Logik> (1)
- Test Generation (1)
- Testgenerierung (1)
- Text (1)
- Texterkennung (1)
- Transformation (1)
- UML (1)
- UML Activity Diagrams (1)
- UML Aktivitätsdiagramm (1)
- URM (1)
- Uferfiltration (1)
- Ungarische Methode (1)
- Universitäre Lehrveranstaltung (1)
- Unterrichtsforschung (1)
- Unterwasserwelt (1)
- Usage Rights Management (1)
- User Interface (1)
- VCD (1)
- VNUML (1)
- VOXEL (1)
- Verbraucherforschung (1)
- Virtual Company Dossier (1)
- Virtuelle Welt (1)
- Virtueller Raum (1)
- Visualisierung (1)
- Vorwärtsmodell (1)
- Voxel (1)
- Webserver (1)
- Webservice Sail (1)
- Wii (1)
- Wii-Kamera (1)
- Wiki (1)
- Wikipedia (1)
- Wireshark (1)
- World Wide Web 2.0 (1)
- XTPeer (1)
- XTpeer (1)
- Zertifikat (1)
- Zoobenthos (1)
- absolutism (1)
- amtliche Haushaltsbefragungen (1)
- andLinux (1)
- andLinux. (1)
- application programming interfaces (1)
- aquatic environment (1)
- assessment (1)
- authoritarianism (1)
- backpropagation (1)
- bank filtration (1)
- benthos (1)
- bias (1)
- biocenosis (1)
- bioindicator (1)
- biotransformation (1)
- business process (1)
- collectivism (1)
- confirmatory factor analysis (1)
- constraint logic programming (1)
- contamination (1)
- convergence analysis (1)
- cultural dimensions (1)
- distributed information systems (1)
- ediv (1)
- events (1)
- grUML (1)
- groundwater fauna (1)
- groundwater-fauna-index (1)
- health-related quality of life (1)
- hybride Automaten (1)
- hydrological interactions (1)
- hydrologische Interaktionen (1)
- iCity project (1)
- kollaboratives Lernen (1)
- mPayments (1)
- mathematical modeling (1)
- mathematische Kompetenz (1)
- mathematisches Modellieren (1)
- measurement of invariance (1)
- menschliches Auge (1)
- micro-agent (1)
- mobile interaction (1)
- mobile phone (1)
- model-driven engineering (1)
- modeling competency (1)
- modulares System (1)
- multiagent systems (1)
- multimedia metadata (1)
- myAnnotations (1)
- nationalism (1)
- networks (1)
- neural (1)
- nichtamtliche Haushaltsbefragungen (1)
- official household surveys (1)
- oncological rehabilitation (1)
- onkologische Rehabilitation (1)
- path planning (1)
- points of interest (1)
- privacy (1)
- privacy protection (1)
- public key infrastructure (1)
- recurrent (1)
- reference meta model (1)
- religiousness (1)
- response-shift (1)
- rich multimedia presentations (1)
- rip (1)
- river sediments (1)
- rmti (1)
- robotics (1)
- security (1)
- security requirements (1)
- semantic annotation (1)
- semantics (1)
- social simulation (1)
- unofficial household surveys (1)
- visualization (1)
- vnuml (1)
- xtpeer (1)
Institute
- Institut für Computervisualistik (19)
- Fachbereich 4 (18)
- Institut für Informatik (18)
- Institut für Wirtschafts- und Verwaltungsinformatik (17)
- Institute for Web Science and Technologies (9)
- Institut für Management (6)
- Zentrale Einrichtungen (6)
- Institut für Softwaretechnik (5)
- Fachbereich 8 (2)
- Institut für Integrierte Naturwissenschaften (2)
This thesis presents an analysis of API usage in a large corpus of Java software retrieved from the open source repositories hosted at SourceForge. Most larger software projects use software libraries, which offer a public "application programming interface" or API as an interface for the programmer. In order to facilitate the transition between different APIs, there are emerging research projects in the field of automated API migration. However, there is a lack of basic statistical background information about in-the-wild usage of APIs as such measurements have, until now, only been done on rather small corpora. We thus present an analysis method suitable for measurements with large corpora. First, we create a corpus of open source projects hosted on SourceForge, as well as a corpus of software libraries. Then, all projects in the corpus are compiled with an instrumented compiler. We use a compiler plugin for javac that gives detailed information about every method created by the compiler. This information is stored in a database and analyzed.
Conventional security infrastructures in the Internet cannot be directly adopted to ambient systems, especially if based on short-range communication channels: Personal, mobile devices are used and the participants are present during communication, so privacy protection is a crucial issue. As ambient systems cannot rely on an uninterrupted connection to a Trust Center, certiffed data has to be veriffed locally. Security techniques have to be adjusted to the special environment. This paper introduces a public key infrastructure (PKI) to provide secure communication channels with respect to privacy, confidentiality, data integrity, non-repudiability, and user or device authentication. It supports three certiffcate levels with a different balance between authenticity and anonymity. This PKI is currently under implementation as part of the iCity project.
The development of a pan-European public E-Procurement system is an important target of the European Union to enhance the efficiency, transparency and competitiveness of public procurement procedures conducted within the European single market. A great obstacle for cross-border electronic procurement is the heterogeneity of national procurement systems in terms of technical, organizational and legal differences. To overcome this obstacle the European Commission funds several initiatives that contribute to the aim of achieving interoperability for pan-European public procurement. Pan European Public Procurement OnLine (PEPPOL) is one of these initiatives that aims at piloting an interoperable pan-European E-Procurement solution to support businesses and public purchasing entities from different member states to conduct their procurement processes electronically.rnrnAs interoperability and inter-connection of distributed heterogeneous information systems are the major requirements in the European procurement domain, and the VCD sub-domain in particular, service-oriented architecture (SOA) seems to provide a promising approach to realize such an architecture, as it promotes loose coupling and interoperability. This master thesis therefore discusses the SOA approach and how its concepts, methodologies and technologies can be used for the development of interoperable IT systems for electronic public procurement. This discussion is enhanced through a practical application of the discussed SOA methodologies by conceptualizing and prototyping of a sub-system derived from the overall system domain of the Virtual Company Dossier. For that purpose, important aspects of interoperability and related standards and technologies will be examined and put into the context of public electronic procurement. Furthermore, the paradigm behind SOA will be discussed, including the derivation of a top-down development methodology for service-oriented systems.
This thesis deals with the mapping from Ecore to grUML. Thereby the transformation of models in Ecore to graphs in grUML is as well considered as the conversion of Ecore metamodels to grUML schemas. At first the modeling languages Ecore and grUML are described separately. Thereby the metamodels of the languages are explained and the API is presented. Subsequent differences and similarities of grUML and Ecore are exemplified and based on this a mapping is defined. Also requirements for the implementation of the transformation are noted. After that details of the realisation follow. Finally the results of the transformation are shown with the help of some examples.
In dieser Arbeit wurde nach einer detaillierten Erklärung der Begriffe Ad-hoc Network, MANET und VANET eine Auflistung und anschließend ein Vergleich der verschiedenen Routingverfahren, die in VANETs auftreten können, durchgeführt. Unter diesen Routing Verfahren wurde das Geocasting ausgesucht, weil es sich für die hohe Mobilität der einzelnen Knoten für geeignet gezeigt hat. Anschließend wurde auf die Sicherheitsanforderungen eingegangen. Dabei wurden die Begriffe Datenintegrität, Informationsvertraulichkeit, Verfügbarkeit, Verbindlichkeit, Anonymisierung und Peudomisierung eingeführt und ihre Wichtigkeit bei VANETs anhand von Beispielen gezeigt. In Abschnitt 2.4 wurden einige Angriffszenarien genannt, wobei sie in passive und aktive Angriffe kategorisiert wurden. Anhand eines Hybridmodells wurden jeder Schicht mögliche Angriffe zugeordnet und ausführlich diskutiert. Die Angriffe, die bereits definiert wurden, sind dann in einer Tabelle zusammengefasst worden. In dieser Tabelle wurde das Risiko berechnet, das ein Angriff bei VANETs hervorrufen kann. Angriffe auf der Anwendungsschicht sind mit sehr hohem Risiko angesiedelt und stellen eine große Gefahr für VANETs dar. Deshalb wurden manche dieser Angriffe dann mit konkreten Beispielen gezeichnet und dargestellt. Das Verbreiten von falschen Informationen auf Autobahnen ist das ausgewählte Szenario für das Angriffserkennungssystem. Dabei wurde ein Konzept erstellt, wie dieses IDS vorzugehen hat, wenn ein Fahrzeug eine Nachricht bekommt, um zu überprüfen, ob sie richtig oder falsch ist. Dabei wurden Randbedingungen aufgestellt, damit das IDS richtig funktioniert. Dieses Konzept wurde anhand einer Simulation realisiert, um zu überprüfen, ob es tatsächlich seine Aufgabe erfolgreich erfüllt. Nach der Beschreibung der Simulationsimplementierung und ihren wichtigsten Komponente wurden Tests durchgeführt, um die Funktionalität der Erkennung zu testen. Dabei wurde festgestellt, dass die Dichte des Verkehrs, Entfernung des Eregnismelders von der Ereigniszone und die Anzahl der empfangenen Nachrichten in jedem Fahrzeug eine große Rolle bei der Erkennung von Ereignissen spielt.
Diese Bachelorarbeit wurde bei der Rasselstein GmbH in Andernach, dem größten Weißblech produzierenden Standort der Welt, durchgeführt. Sie ist zurzeit im Begriff, ein systematisches, einheitliches Geschäftsprozessmanagement einzuführen. Im Zuge dessen wurden im Rahmen dieser Arbeit ausgewählte Massenprozesse aus dem Office-Bereich zunächst durch die Nutzung verschiedener Modellierungssprachen erfasst. Es handelt sich hierbei um Dienstleistungsprozesse, die sich durch ihr vielfaches Auftreten in der Büroumgebung besonders zum Steuern und Überwachen eignen. Der Einsatz zweier Sprachen begründet sich durch die Tatsache, jeweils differenzierte Aspekte hervorheben zu können, was zu einer umfänglichen, multiperspektivischen Gesamtdarstellung der Prozesse führt. In einem nachfolgenden Schritt wurden diese Prozesse ausführlich mit Blick auf Verbesserungspotenziale analysiert, Schwachstellen entfernt und optimierte Prozesse im Sollzustand geschaffen. Es wurde dadurch beispielhaft aufgezeigt, wie Massenprozesse im Office-Bereich in einem international tätigen Industrieunternehmen untersucht werden können. Besonders durch die Aufstellung eines, aus den gewonnenen Erkenntnissen abgeleiteten, Modells soll ein wissenschaftlicher Beitrag auf dem Forschungsgebiet der Büroprozesse geleistet werden. Neben einer daraus resultierenden Unterstützung der Arbeiten der Forschungsgruppe Betriebliche Anwendungssysteme der Universität Koblenz-Landau wurde damit ebenfalls ein Beitrag für die Rasselstein GmbH generiert. Durch die Arbeiten auf dem Gebiet der Geschäftsprozessmodellierung und -optimierung, unter Zuhilfenahme eines neu eingeführten, adäquaten Prozessmanagementtools, konnten Ergebnisse erzielt werden, die von der Unternehmung für nachfolgende Projekte genutzt werden. Die Erstellung eines umfangreichen Grundlagenkapitels diente einerseits dem Zweck, bei der Rasselstein GmbH ein fundiertes Wissen über das Geschäftsprozessmanagement zu vermitteln und andererseits, besonders in ausgewählten Kapiteln, Erkenntnisse zu aktuellen Themen der Forschungsgruppe zusammenzutragen. Schließlich wurden die ausgewählten, optimierten Office-Prozesse unter dem Fokus auf die Steuerung und Überwachung derselben betrachtet. Am Beispiel der Rasselstein GmbH wurde aufgezeigt, wo Chancen, Risiken und Schwierigkeiten zur Realisierung dieser Thematik in einem Industrieunternehmen liegen.
Innovation can help a forward-looking company to rise up very quickly, furthermore, innovative products and services bring a company to a stage where it can win new segments of customers and be ahead of the competition. For their innovation process, the companies can distinguish between open and closed innovation. In this case, we will focus on open innovation and how companies share their innovation processes for the benefit of the company. They use information and innovation systems to define their innovation process, as well as, track innovative ideas and the phase of their development. There are always pros and cons when it comes to open innovation processes in an organization. We will try to look at certain examples in the business world to illustrate how good or bad an open innovation process can be for a company. In this Bachelor thesis, we will try to point out the essential criteria for an open innovation process and illustrate companies which have used open innovation processes. In some cases it went successfully and for some companies it went unsuccessfully.
In einer Welt, die immer mehr durch den Einsatz von Technik geprägt wird, gewinnen Systeme, welche eigenständig Aufgaben in einem vorgegebenen Kontext übernehmen können, mehr und mehr an Bedeutung. Solche Systeme werden als autonome Systeme bezeichnet, die ein eigenständiges Verhalten und Interaktionen mit ihrer Umwelt und anderen Systemen beinhalten. Zu diesen Systemen zählen auch autonome mobile Roboter. Sie sind sozusagen intelligente Fahrzeuge, die ihnen übertragene Aufgaben ohne menschliche Unterstützung durchführen können. Um ihre Umwelt wahrzunehmen, mit ihr interagieren und in ihr navigieren zu können benötigen diese Systeme verschiedene Arten von Sensoren. Somit ist die Robotikforschung stark interdisziplinär. Diese Arbeit befasst sich ausschliesslich mit dem Bereich der Navigation, insbesondere mit der Positionsbestimmung, welche für eine gute Navigation die Grundlage bildet. Ein heutzutage häufig benutztes, weltweit verfügbares System zur Positionsbestimmung ist GPS. Ziel dieser Arbeit ist der Anschluss eines GPS-Moduls an einen Mikrocontroller und der Versuch die Positionsgenauigkeit lokal zu präzisieren, um so einem autonomen System die Möglichkeit zur eröffnen, Aufgaben, die eine höhere Genauigkeit erfordern, zu bewerkstelligen.
Globale Beleuchtungssimulationen versuchen die physikalischen Eigenschaften von Licht und dessen Ausbreitung möglichst korrekt zu berechnen. Dabei werden diese üblicherweise im dreidimensionalen Objektraum berechnet und sind deshalb sehr rechenintensiv und von der Anzahl der Polygone der Szene abhängig. Objektraum-basierte Verfahren ermöglichen durch komlexe Berechnungen allerdings auch gute Annährungen physikalisch korrekter Beleuchtungen. Die Beleuchtungsberechnung in den Bildraum zu verlagern hat aber den großen Vorteil, dass die Berechnung hier unabhängig von der Größe und Komplexität der Szene durchführbar ist. Einzig die Auflösung entscheidet über den Rechenaufwand. Dieser Geschwindigkeitsvorteil beinhaltet jedoch einen Kompromiss was die physikalische Korrektheit der Beleuchtungssimulation angeht. Bei bisherigen Bildraum-Verfahren war es nicht möglich, für die Kamera nicht sichtbare Teile der Szene und deren Beleuchtungsinformationen, in die Berechnung mit einzubeziehen. Dies erscheint logisch, da über Geometrie die aus Sicht der Kamera nicht eingefangen wurde, im Bildraum zunächst keinerlei Informationen zur Verfügung stehen. Ein bekanntes Beispiel zur Annährung einer globalen Beleuchtung im Bildraum ist das Verfahren "Screen Space Ambient Occlusion". Dieses liefert zwar sehr gut Selbstverschattungen und wirkt dadurch realitätsnah, erzeugt aber keinen korrekten Lichtaustausch. Da die Beleuchtung von dem Inhalt des aktuellen Bildausschnitts abhängig ist, entstehen visuelle Artefakte, die vor allem bei Kamerabewegungen störend auffallen. Ziel der Studienarbeit ist es daher diese Artefakte durch die Verwendungen von Textur-Atlanten zu vermeiden. Dies wird durch eine Bildraum-basierte Beleuchtungssimulation ermöglicht, die die gesamte Szene zur Berechnung der Beleuchtung miteinbezieht und nicht nur die Sicht der Kamera. Dabei wird in einem Textur-Atlas die gesamte Szene gespeichert.
RMTI (RIP with Metric based Topology Investigation) wurde in der AG Rechnernetze an der Universität Koblenz-Landau entwickelt. RMTI stellt eine Erweiterung zum RIP (Routing Information Protocol) dar, die das Konvergenzverhalten bei Netzwerkveränderungen, insb. bei Routingschleifen, verbessern soll. Dies geschieht durch Erkennen von Routingschleifen und Reduzieren des Count-to-infinity Problems. Um dieses gewünschte Verhalten nachweisen zu können, bedarf eine reichhaltige Evaluierung des RMTI- Algorithmus. Hierzu wurde in der gleichen Arbeitsgruppe die Client-/Server-Applikation XTPeer entwickelt. In Kombination mit anderen Software wie VNUML und Quagga Routing Suite lässt sich per XT-Peer der Algorithmus evaluieren. Die Applikation XTPeer generiert durch die Simulationen Daten. Diese können in Form von XML konforme SDF-Dateien exportiert werden. Diese können ohne weitere Auswertungen wieder in die XTPeer Applikation importiert werden. Die Evaluierung der Simulationen findet automatisiert nur an der aktuellen Simulation statt. Evaluierung über mehrere Simulationen muss der Benutzer manuell berechnen. Um diese Evaluierungsarbeiten für den Benutzer zu vereinfachen, verfolgt die vorliegende Diplomarbeit daher das Ziel, die XTPeer Applikation mit einem Auswertungsmodul zu erweitern. Die Auswertungen soll sich über alle gespeicherten Simulationsdaten und nicht wie bisher nur über die aktuell laufende Simulation erstrecken. Dies ermöglicht bessere statistisch verwertbare Aussagen. Zusätzlich können diese Auswertungsergebnisse grafisch unterstrichen werden.
This thesis deals with the development of an authoring system for modeling 3D environments with physical description. In contrast to creating scenes in other common modeling tools, one can now compute and describe physical entities of a scene additional to the usual geometry. It is very important for those authoring systems to be extendable and customizable for specific requirement of the user. The focus lies on developing simple program architecture, which is easy to extend and to modify.
Die Diffusions-Tensor-Bildgebung (DTI) ist eine Technik aus der Magnet-Resonanz-Bildgebung (MRI) und basiert auf der Brownschen Molekularbewegung (Diffusion) der Wassermoleküle im menschlichen Gewebe. Speziell im inhomogenen Hirngewebe ist die Beweglichkeit der Moleküle stark eingeschränkt. Hier hindern die Zellmembranen der langgestreckten Axone die Diffusion entlang nicht-paralleler Richtungen. Besonderen Wert hat die Diffusions-Tensor-Bildgebung in der Neurochirugie bei der Intervention und Planung von Operationen. Basierend auf den mehrdimensionalen DTI-Tensor-Datensätzen kann für den jeweiligen Voxel das Diffsusionsverhalten abgeleitet werden. Der größte Eigenvektor des Tensors bestimmt dabei die Hauptrichtung der Diffusion und somit die Orientierung der entsprechenden Nervenfasern. Ziel der Studienarbeit ist die Erstellung einer Beispielapplikation zur Visualisierung von DTI-Daten mit Hilfe der Grafikhardware. Dazu werden zunächst die relevanten Informationen für die Erzeugung von geometrischen Repräsentationen (Streamlines, Tubes, Glyphen, Cluster...) aus den Eingabedaten berechnet. Für die interaktive Visualisierung sollen die Möglichkeiten moderner Grafikhardware, insbesondere Geometryshader ausgenutzt werden. Die erzeugten Repräsentationen sollen nach Möglichkeit in ein DVR (Cascada) integriert werden. Für die Arbeit wird eine eigene Applikation entwickelt, die bestehende Bausteine (Volumenrepräsentation, Volumenrendering, Shadersystem) aus Cascada analysiert und integriert.
Diese Arbeit untersucht die Biozönosen kontaminierter schlammig-schluffiger Sedimente in Stillwasserzonen großer Flüsse. Diese feinkörnigen und weichgründigen Sedimente beherbergen Lebensgemeinschaften, die zu einem großen Teil als Meiozoobenthos angesprochen werden und im Vergleich zu den Makrozoobenthos-Biozönosen grobkörniger und hartgründiger Fließgewässer und den Meiobenthos-Biozönosen der Küsten-, Tiden- und Ästuarbereiche bisher nur unzulänglich untersucht worden sind. Da die feinkörnigen Sedimente eine große Kapazität zur Schadstoffbindung haben, sind sie generell von großem ökotoxikologischen und wasserbaulichen Interesse. Ziele der Arbeit: (1) Entwicklung einer quantitativen Methode zur Bestandserfassung. (2) Untersuchung der lokalen und saisonalen Dynamik der benthischen Metazoen- Biozönose in Schluffsedimenten. (3) Ermittlung der Einflüsse chemischer und physikalischer Sedimenteigenschaftenrnauf die Biozönosen. (4) Beschreibung der Resilienz der Benthos-Biozönosen schluffiger Sedimente; Einfluss katastrophaler Ereignisse.
Mobile payment has been a payment option in the market for a long time now and was predicted to become a widely used payment method. However, over the years, the market penetration rate of mPayments has been relatively low, despite it having all characteristics required of a convenient payment method. The primaryrnreason for this has been cited as a lack of customer acceptance mainly caused due to the lack of perceived security by the end-user. Although biometric authentication is not a new technology, it is experiencing a revival in the light of the present day terror threats and increased security requirements in various industries. The application of biometric authentication in mPayments is analysed here and a suitable biometric authentication method for use with mPayments is recommended. The issue of enrolment, human and technical factors to be considered are discussed and the STOF business model is applied to a BiMoP (biometric mPayment) application.
Ontologies play an important role in knowledge representation for sharing information and collaboratively developing knowledge bases. They are changed, adapted and reused in different applications and domains resulting in multiple versions of an ontology. The comparison of different versions and the analysis of changes at a higher level of abstraction may be insightful to understand the changes that were applied to an ontology. While there is existing work on detecting (syntactical) differences and changes in ontologies, there is still a need in analyzing ontology changes at a higher level of abstraction like ontology evolution or refactoring pattern. In our approach we start from a classification of model refactoring patterns found in software engineering for identifying such refactoring patterns in OWL ontologies using DL reasoning to recognize these patterns.
The novel mobile application csxPOI (short for: collaborative, semantic, and context-aware points-of-interest) enables its users to collaboratively create, share, and modify semantic points of interest (POI). Semantic POIs describe geographic places with explicit semantic properties of a collaboratively created ontology. As the ontology includes multiple subclassiffcations and instantiations and as it links to DBpedia, the richness of annotation goes far beyond mere textual annotations such as tags. With the intuitive interface of csxPOI, users can easily create, delete, and modify their POIs and those shared by others. Thereby, the users adapt the structure of the ontology underlying the semantic annotations of the POIs. Data mining techniques are employed to cluster and thus improve the quality of the collaboratively created POIs. The semantic POIs and collaborative POI ontology are published as Linked Open Data.
The goal of this minor thesis is to integrate a robotic arm into an existing robotics software. A robot built on top of this stack should be able to participate successfully RoboCup @Home league. The robot Lisa (Lisa is a service android) needs to manipulate objects, lifting them from shelves or handing them to people. Up to now, the only possibility to do this was a small gripper attached to the robot platform. A "Katana Linux Robot" of Swiss manufacturer Neuronics has been added to the robot for this thesis. This arm needs a driver software and path planner, so that the arm can reach its goal object "intelligently", avoiding obstacles and creating smooth, natural motions.
This dissertation provides an interdisciplinary contribution to the project ReGLaN-Health & Logistics. ReGLaN-Health & Logistics, is an international cooperation deriving benefits from the capabilities of scientists working on different fields. The aim of the project is the development of a socalled SDSS that supports decision makers working within health systems with a special focus on rural areas. In this dissertation, one important component for the development of the DSS named EWARS is proposed and described in detail. This component called SPATTB is developed with the intention of dealing with spatial data, i.e. data with additional geocoded information with regard to the special requirements of the EWARS.rnrnAn important component in the process of developing the EWARS is the concept of GIS. Classically, geocoded information with a vectorial character numerically describing spatial phenomena is managed and processed in a GIS. For the development of the EWARS, the manageability of the type of data exemplarily given by (x,y,o) with coordinates x,y ) and Ozon-concentration o is not sufficient. It is described, that the manageable data has to be extended to data of type (x,y,f ), where (x,y) are the geocoded information, but where f is not only a numerical value but a functional description of a certain phenomenom. An example for the existence and appearance of that type of data is the geocoded information about the variation of the Ozon-concentration in time or depending on temperature. A knowledge-base as important subsystem of DSS containing expert knowledge is mentioned. This expert-knowledge can be made manageable when using methods from the field of fuzzy logic. Thereby mappings, socalled fuzzy-sets, are generated. Within the EWARS, these mappings will be used with respect to additional geocoded data. The knowledge about the geocoded mapping information only at a finite set of locations (x,y) associated with mapping information f is not sufficient in applications that need continuous statements in a certain geographical area. To provide a contribution towards solving this problem, methods from the field of computer geometry and CAD, so-called Bezier-methods, are used for interpolating this geocoded mapping information. Classically, these methods operates on vectors a the multidimensional vector-space whose elements contain real-valued components but in terms of dealing with mapping information, there has to be an extension on topological vector spaces since mapping spaces can be defined as such spaces. This builds a new perspective and possibility in the application of these methods. Therefore, the according algorithms have to be extended; this work is presented. The field of Artificial Neural Networks plays an important role for the processing and management of the data within the EWARS, where features of biological processes and structures are modeled and implemented as algorithms. Generally, the developed methods can be divided as usable in terms of interpolation or approximation functional coherences and in such being applicable to classification problems. In this dissertation one method from each type is regarded in more detailed. Thereby, the classical algorithms of the so-called Backpropagation-Networks for approximation and the Kohonen-Networks for classification are described. Within the thesis, an extension of these algorithms is then proposed using coherences from mathematical measure-theory and approximation theory. The mentioned extension of these algorithms is based on a preprocessing of the mapping data using integration methods from measure theory.
Culture and violence
(2010)
The basic assumption of this study is that specific cultural conditions may lead to psychopathological reactions through which an increase in interpersonal violence may happen. The objective of this study was to define to what extent homicide rates across national cultures might be associated with the strength of their attitudes toward specific beliefs and values, and their scores in specific cultural dimensions. To answer this question, nine independent variables were defined six of which were related to the people- attitudes pertaining importance of religion (Religiosity), excessive feeling of choice and control (Omnipotence), clear-cut distinction between good and evil (Absolutism), proud of their nationality (Nationalism), approval of competition (Competitiveness), and high respect for authorities and emphasis on obedience (Authoritarianism). The data for these variables were collected from World Values Survey. For two cultural dimensions, Collectivism, and Power Distance, Hofstede- scores were used. The 9th variable was GNI per capita. After estimation of 7% missing values in the whole data through multiple imputation, a sample of 81 nations was used for further statistical analyses.
Results: Stepwise regression analysis indicated Omnipotence and GNI as the strongest predictors of homicide (β = .44 P = .000; β = -.27 P = .006 respectively). The 9 independent variables were loaded on two factors, socio-economic development (SED) and psycho-cultural factor (Psy-Cul), which were negatively correlated (-.47). The Psy-Cul was interpreted as an indicator of narcissism, and a mediator between SED and homicide. Hierarchical cluster analysis made a clear distinction among three main groups of Western, Developing, and post-Communist nations on the basis of the two factors.