Filtern
Erscheinungsjahr
Dokumenttyp
- Ausgabe (Heft) zu einer Zeitschrift (355) (entfernen)
Sprache
- Deutsch (270)
- Englisch (84)
- Mehrsprachig (1)
Schlagworte
- Vorlesungsverzeichnis (55)
- Forschen in Koblenz (7)
- Junges Forschen (7)
- Wissenschaft Koblenz (7)
- Bluetooth (4)
- computer clusters (4)
- ontology (4)
- Knowledge Compilation (3)
- Petri-Netze (3)
- parallel algorithms (3)
- Augmented Reality (2)
- Campus Information System (2)
- Customer Relationship Management (2)
- DOCHOUSE (2)
- Datensicherheit (2)
- E-KRHyper (2)
- Enhanced Reality (2)
- Equality (2)
- Fallstudie (2)
- IBM Lotus Quickr (2)
- Informatik (2)
- Kryptographie (2)
- Linked Open Data (2)
- OWL (2)
- Ontology (2)
- Semantic Web (2)
- Telearbeit (2)
- Theorem Proving (2)
- University (2)
- artifcial neural networks (2)
- artificial neural networks (2)
- classification (2)
- constraint logic programming (2)
- mobile phone (2)
- multimedia metadata (2)
- privacy protection (2)
- probability propagation nets (2)
- risk (2)
- social media (2)
- 2D/3D-Segmentierung (1)
- 3-D-Modell (1)
- 3D-Color-Structure-Code (1)
- 3D-RETISEG (1)
- ABox (1)
- Absorptive capacity (1)
- Adaptive Services Grid (ASG) (1)
- Allgemeine Systemtheorie (1)
- Amazon Mechanical Turks (1)
- Annotationsmodell (1)
- Ausstellung (1)
- Authentifizierung (1)
- Authentisierung (1)
- Automated Theorem Proving (1)
- Automated Theorem Proving Systems (1)
- B2B (1)
- Bachelorstudiengang (1)
- Bayes Procedures (1)
- Bilderkennung (1)
- CCRDMT (1)
- COVID-19 (1)
- Calculus (1)
- Campus Koblenz (1)
- Case Study (1)
- Cloud Computing (1)
- Colonoscopy (1)
- Common Annotation Framework (1)
- Computer Supported Cooperative Work (1)
- Conference (1)
- Context-aware processes (1)
- Core Ontology on Multimedia (1)
- Core Ontology on Multimedia (COMM) (1)
- Creativity (1)
- Crowdsourcing (1)
- DPLL procedure (1)
- Darmspiegelung (1)
- Datenbrille (1)
- Datenschutz (1)
- Delphi-Studie (1)
- Description Logic (1)
- Description Logics (1)
- Dienstleistungsproduktivität (1)
- Discussion Forums (1)
- Distributed process execution (1)
- Dokumentation (1)
- E-KRHyper theorem prover (1)
- E-Mail (1)
- E-government (1)
- E-services (1)
- ERP-Systeme (1)
- Eigenschaften von Teammitgliedern (1)
- Eisenbahn-Unfalluntersuchungsstellen (1)
- Eisenbahnunfalldatenbank (1)
- Eisenbahnunfallkosten (1)
- Enterprise Systems (1)
- Enterprise-Resource-Planning (1)
- Entscheidungsprozess (1)
- Evaluation (1)
- Fernarbeitsregelungen (1)
- Forensik (1)
- Forschungsprojekt KMU 2.0 (1)
- Generation Z (1)
- Generative Model (1)
- Gesundheitswesen (1)
- Graph Technology (1)
- GraphUML (1)
- Healthcare institution (1)
- Heimarbeit (1)
- Herausforderungen (1)
- Homeoffice (1)
- Horn Clauses (1)
- Hyper Tableau Calculus (1)
- IASON (1)
- IEC 61131 (1)
- IP-Adressen (1)
- IPTV (1)
- IT Outsourcing (1)
- IT Security (1)
- IT Services (1)
- IT security analysis (1)
- IT-Risk-Management (1)
- IT-Sicherheitsmodelle (1)
- Image (1)
- Innovation (1)
- Innovationsmanagement (1)
- Intelligent Information Network (1)
- Interaktionselemente (1)
- Internet (1)
- Internet Voting (1)
- Java (1)
- Jungunternehmen (1)
- KRHyper (1)
- KSAO (1)
- Kalibrierung (1)
- Klimawandel (1)
- Knowledge Sharing (1)
- Koloskopie (1)
- Kontextbezogener Dienst (1)
- Krankenhausinformationssystem (1)
- Leistungsmessung (1)
- Linked Data Modeling (1)
- Logistik (1)
- MIA (1)
- MPEG-7 (1)
- Masterstudiengang (1)
- Mehrbenutzer-Annotationssystem (1)
- Mixed method (1)
- Mobile Arbeit (1)
- Mobile Information Systems (1)
- Mobiles Umfeld (1)
- Model-Driven Engineering (1)
- Multi-robot System (1)
- Multiagent System (1)
- Multimedia Metadata Ontology (1)
- National Investigation Bodies (1)
- Netzwerk kleiner und mittlerer Unternehmen (1)
- Neuronales Netz (1)
- Nutzen Condition Monitoring (1)
- ODRL (1)
- Object Recognition (1)
- Online Community (1)
- Online-Überwachung (1)
- Onlinewahl (1)
- Ontology alignment (1)
- Open Innovation (1)
- Open Source (1)
- Outsourcing (1)
- POIs (1)
- Personal Key Infrastruktur (1)
- Personalausweis (1)
- Personalised Information Systems (1)
- Petri Nets (1)
- Petri net (1)
- Petrinetz (1)
- Polypendetektion (1)
- Pose (1)
- Predictive Maintenance (1)
- Probability (1)
- Probability propagation nets (1)
- Process tracing (1)
- Programmiersprachen (1)
- Projekt iCity (1)
- Propagation (1)
- Prozessmanagement (1)
- Quality assessment system (1)
- RDF (1)
- RDF Graphs (1)
- RDF modeling (1)
- RDMT (1)
- RMIS (1)
- Railway Diagnostics & Monitoring Technologies (1)
- Railway Research (1)
- Railway Research Topics (1)
- Railway Safety (1)
- Railway Safety Research (1)
- ReDSeeDS-Project (1)
- Regionalbanken (1)
- Resource Description Framework (RDF) (1)
- Risikomanagement-Informationssysteme (1)
- Robocup 2008 (1)
- Router (1)
- Routing Information Protocol (RIP) (1)
- Routing Loops (1)
- Routing with Metric based Topology Investigation (RMTI) (1)
- SOAMIG (1)
- SOMA (1)
- SPARQL (1)
- Schema Information (1)
- Schutzprofil (1)
- Search engine (1)
- Security (1)
- Semantics (1)
- Semantik (1)
- Service-Oriented Architectures (SOA) (1)
- Service-oriented Architectures (SOA) (1)
- Shared Annotation Model (1)
- Shared Annotations (1)
- Social Networking Platforms (1)
- Software (1)
- Software Development (1)
- Software techniques for object recognition (STOR) (1)
- Software-Customizing (1)
- Startups (1)
- Stochastic Logic (1)
- Support System (1)
- Survey Research (1)
- Syntax (1)
- Systemtheorie (1)
- TAP (1)
- TBox (1)
- Tableau Calculus (1)
- Technikfolgenabschätzung (1)
- Technologiefrüherkennung (1)
- Technologiemanagement (1)
- Theorem prover (1)
- Tokens (1)
- Traceability (1)
- Transformation (1)
- UML (1)
- Umfrage (1)
- Unfallkostenberechnung (1)
- Unified Modeling Language (UML ) (1)
- United Internet AG (1)
- Universität Koblenz-Landau (1)
- Virtuelle Teams (1)
- Virtuelle Zusammenarbeit (1)
- Vocabulary Mapping (1)
- Vocabulary Reuse (1)
- Vorausschauende Instandhaltung (1)
- Wachstum (1)
- Wayside Train Monitoring Systems (1)
- Web 2.0 (1)
- Web Ontology Language (OWL) (1)
- Website (1)
- Wechselkursänderung (1)
- Werbung (1)
- Word-of-Mouth (1)
- XML (1)
- XSD (1)
- Zertifikat (1)
- activation functions of neurons (1)
- adaptive resonance theory (1)
- application programming interfaces (1)
- artiffficial neural networks (1)
- artififfcial neural networks (1)
- assessment model (1)
- behavior of employers (1)
- blood analysis (1)
- business process management (1)
- categorisation (1)
- core ontologies (1)
- currency exchange rates (1)
- delivery drone (1)
- design thinking (1)
- deutschsprachiger Markt (1)
- digital workplace (1)
- directed acyclic graphs (1)
- disability-adjusted life year (1)
- drone (1)
- e-Commerce (1)
- e-learning (1)
- e-service (1)
- e-service quality (1)
- elektronische Anwendung (1)
- elektronische Anwendungen (1)
- entrepreneurial design thinking (1)
- entrepreneurial thinking (1)
- entrepreneurship education (1)
- estimation of algorithm efficiency (1)
- event model (1)
- event-based systems (1)
- events (1)
- expectations (1)
- faceted search (1)
- finite state automata (1)
- first-order logic (1)
- gaze information (1)
- governance (1)
- gradient method of training weight coefficients (1)
- human resources management (1)
- hybrid automata (1)
- hybrid systems (1)
- hybrid work (1)
- iCity project (1)
- identification of organization (1)
- image processing (1)
- image semantics (1)
- information system (1)
- knowledge management system (1)
- knowledge work (1)
- kollaboratives Lernen (1)
- leader (1)
- leadership (1)
- legacy software (1)
- living book (1)
- mathematical model (1)
- media competence model (1)
- metadata formats (1)
- metadata standards (1)
- methodology (1)
- migration (1)
- minimum self-contained graphs (1)
- mobile application (1)
- mobile devices (1)
- mobile facets (1)
- mobile interaction (1)
- mobile phones (1)
- model generation (1)
- multi-agent systems (1)
- myAnnotations (1)
- nachhaltigkeitsorientierter Führungsstil (1)
- parallel calculations (1)
- personal information management (1)
- personality characteristics (1)
- persönliches Informationsmanagement (1)
- points of interest (1)
- polyp detection (1)
- privacy and personal data (1)
- privacy competence model (1)
- public key infrastructure (1)
- quality adjusted life year (1)
- regression analysis (1)
- regular dag languages (1)
- remote work (1)
- reputation of company (1)
- rich multimedia presentations (1)
- risks (1)
- scene analysis (1)
- security awareness (1)
- semantic annotation (1)
- semantic desktop (1)
- semantics (1)
- semantischer Desktop (1)
- sensor data (1)
- sequent calculi (1)
- social media data (1)
- social networks (1)
- social object (1)
- social simulation (1)
- summative evaluation (1)
- tagging (1)
- teams (1)
- technology acceptance model (1)
- time series (1)
- tracking (1)
- traffic survey (1)
- value of a statistical life (1)
- virtual goods (1)
- visualization (1)
- web-portal medical e-services (1)
- work from anywhere (1)
- work from home (1)
Institut
- Zentrale Einrichtungen (171)
- Fachbereich 4 (132)
- Institut für Informatik (38)
- Institut für Wirtschafts- und Verwaltungsinformatik (35)
- Institut für Management (32)
- Institute for Web Science and Technologies (15)
- Institut für Computervisualistik (12)
- Institut für Anglistik und Amerikanistik (7)
- Institut für Evangelische Theologie (7)
- Institut für Kulturwissenschaft (7)
- Institut für Softwaretechnik (6)
- Fachbereich 5 (5)
- Institut für Erziehungswissenschaft (4)
- Fachbereich 7 (1)
- Institut für Pädagogik, Abteilung Schulpädagogik/Allgemeine Didaktik (1)
The term "Augmented Reality (AR)" denotes the superposition of additional virtual objects and supplementary information over real images. The joint project Enhanced Reality (ER)1 aims at a generic AR-system. The ER-project is a cooperation of six different research groups of the Department of Computer Science at the University of Koblenz-Landau. According to Ronald Azuma an AR-system combines real and virtual environments, where the real and virtual objects are registered in 3-D, and it provides interactivity in real time [Azu97]. Enhanced Reality extends Augmented Reality by requiring the virtual objects to be seamlessly embedded into the real world as photo-realistic objects according to the exact lighting conditions. Furthermore, additional information supplying value-added services may be displayed and interaction of the user may even be immersive. The short-term goal of the ER-project is the exploration of ER-fundamentals using some specific research scenarios; the long-term goal is the development of a component-based ER-framework for the creation of ER-applications for arbitrary application areas. ER-applications are developed as single-user applications for users who are moving in a real environment and are wearing some kind of visual output device like see-through glasses and some mobile end device. By these devices the user is able to see reality as it is, but he can also see the virtual objects and the additional information about some value-added service. Furthermore he might have additional devices whereby he can interact with the available virtual objects. The development of a generic framework for ER-applications requires the definition of generic components which are customizable and composable to build concrete applications and it requires a homogeneous data model which supports all components equally well. The workgroup "Software Technology"2 is responsible for this subproject. This report gives some preliminary results concerning the derivation of a component-based view of ER. There are several augmented reality frameworks like ARVIKA, AMIRE, DWARF, MORGAN, Studierstube and others which offer some support for the development of AR-applications. All of them ease the use of existing subsystems like AR-Toolkit, OpenGL and others and leverage the generation process for realistic systems by making efficient use of those subsystems. Consequently, they highly rely on them.
The lack of a formal event model hinders interoperability in distributed event-based systems. Consequently, we present in this paper a formal model of events, called F. The model bases on an upper-level ontology and pro-vides comprehensive support for all aspects of events such as time and space, objects and persons involved, as well as the structural aspects, namely mereological, causal, and correlational relationships. The event model provides a flexible means for event composition, modeling of event causality and correlation, and allows for representing different interpretations of the same event. The foundational event model F is developed in a pattern-oriented approach, modularized in different ontologies, and can be easily extended by domain specifific ontologies.
This paper describes a parallel algorithm for selecting activation functionsrnof an artifcial network. For checking the efficiency of this algorithm a count of multiplicative and additive operations is used.
In this article we analyze the privacy aspects of a mobile sensor application used for recording urban travel patterns as part of a travel-survey service. This service has been developed and field-tested within the Live+Gov EU Project. The privacy analysis follows a structured approach established in. Eight privacy recommendations are derived, and have already led to corresponding enhancements of the travel-survey service.
Conventional security infrastructures in the Internet cannot be directly adopted to ambient systems, especially if based on short-range communication channels: Personal, mobile devices are used and the participants are present during communication, so privacy protection is a crucial issue. As ambient systems cannot rely on an uninterrupted connection to a Trust Center, certiffed data has to be veriffed locally. Security techniques have to be adjusted to the special environment. This paper introduces a public key infrastructure (PKI) to provide secure communication channels with respect to privacy, confidentiality, data integrity, non-repudiability, and user or device authentication. It supports three certiffcate levels with a different balance between authenticity and anonymity. This PKI is currently under implementation as part of the iCity project.
Dieses Dokument legt den Standard für die Transformation von grUML-Schemas (GraphUML, [BHR+09]) nach XSD (XML Schema Definition) fest und ist im Rahmen des Arbeitspakets 5.2 "Prototypische SOAMIG-Parser und -Unparser realisieren" im SOAMIG-Projekt entstanden. Das Ziel ist der Austausch von TGraphen (typisierten, attributierten, angeordneten, gerichte Graphen [ERW08]) über XML-Dokumente. Zur Spezifikation des Austauschformats wird XSD eingesetzt. Dies erlaubt eine Validierung der XML-Instanzen auf syntaktischer Ebene. Der Ausgangspunkt ist ein gegebenes Schemas in grUML-Notation1, welches nach XSD transformiert werden soll. Mit der generierten XSD existiert ein Beschreibungsmittel für Graph-Instanzen in XML. Die dadurch beschriebenen XML-Dokumente sind flach, d.h. alle Elemente sind direkt dem root-Element untergeordnet.
Semantic descriptions of non-textual media available on the web can be used to facilitate retrieval and presentation of media assets and documents containing them. While technologies for multimedia semantic descriptions already exist, there is as yet no formal description of a high quality multimedia ontology that is compatible with existing (semantic) web technologies. We explain the complexity of the problem using an annotation scenario. We then derive a number of requirements for specifying a formal multimedia ontology, including: compatibility with MPEG-7, embedding in foundational ontologies, and modularisation including separation of document structure from domain knowledge. We then present the developed ontology and discuss it with respect to our requirements.
An empirical study to evaluate the location of advertisement panels by using a mobile marketing tool
(2009)
The efficiency of marketing campaigns is a precondition for business success. This paper discusses a technique to transfer advertisement content vie Bluetooth technology and collects market research information at the same time. Conventional advertisement media were enhanced by devices to automatically measure the number, distance, frequency and exposure time of passersby, making information available to evaluate both the wireless media as well as the location in general. This paper presents a study analyzing these data. A cryptographic one-way function protects privacy during data acquisition.
Unfälle verursachen jährlich einen hohen volkswirtschaftlichen Schaden für die betroffenen Personen, die Unternehmen und den Staat. Die genaue Bezifferung der Höhe des Schadens stellt ein großes Problem dar, weil die wissenschaftlichen Studien mit ihren unterschiedlichen Berechnungsmodellen stark voneinander abweichen. Angesichts der geringen Unfallhäufigkeiten im Schienenverkehr ist die Kostenberechnung in wenigen wissenschaftlichen Untersuchungen von Bedeutung. Das Ziel dieser Arbeit ist, einen Überblick über die Vorgehensweisen bei der Berechnung von Unfallkosten zu geben und die auftretenden Probleme herauszustellen. Grundsätzlich teilen sich die Unfallkosten in Personen- und Sachschäden auf. Bei den Personenschäden werden neben den materiellen Schäden, die immateriellen Schäden mitbetrachtet. Dies führt zu Schwierigkeiten in der Bewertung, weil die Verluste schwer zu beziffern sind. Zu den Hauptkomponenten der Personenschäden zählen in Unfallkostenmodellen die Schäden für den Ausfall der menschlichen Arbeitskraft, die Kosten für die medizinische Versorgung und die Kosten zur Wiederherstellung der Rechtslage. Ein Modell zur Berechnung von Personenschäden im Schienenverkehr, das ausschließlich die Schäden in Deutschland einbezieht, liegt zum jetzigen Stand der Forschung nicht vor. Vom Bundesamt für Straßenwesen (BASt) wurde ein umfangreiches Kostenmodell zur Berechnung von Unfallkosten entwickelt. Das Ergebnis dieses Modells ist, dass der Kostensatz für einen Getöteten 1,1 Millionen Euro, für einen Schwerverletzten 106.000 Euro und für einen Leichtverletzten 5.000 Euro beträgt. In dieser Arbeit wird aufgezeigt, dass dieses Modell in vielen Bereichen für den Schienenverkehr von Bedeutung ist und in diesem Kontext angewendet werden kann. Neben diesem Modell, welches auf statistisch erhobenen Kennzahlen beruht, werden verschiedene Ansätze untersucht, die den Wert eines menschlichen Lebens beschreiben. Die untersuchten Modelle unterscheiden sich in ihrer Berechnungsweise und Ergebnisse weichen voneinander ab. Bei der Berechnung der Sachschäden sind die Anschaffungskosten eines Objekts entscheidend. Zur Eingrenzung der Sachschäden liegt der Fokus in dieser Arbeit auf den Beschädigungen an der Infrastruktur und am Zugmaterial. Mithilfe des Kostenkennwertekatalogs der Deutschen Bahn AG können die Anschaffungskosten für bestimmte Infrastrukturkomponenten ermittelt werden und bilden die Grundlage für die Schadensberechnung.
So genannte Risikomanagement-Informationssysteme (RMIS) unterstützen Unternehmen darin, ihr Risiko-Management unternehmensweit durchzuführen. Im vorliegenden Beitrag analysieren wir mit Hilfe der Scoring-Methode die inhaltlichen Anforderungen an ein RMIS und zeigen, wie das zu einer begründeten Auswahl für die Anschaffung eines RMIS führt. Dazu diskutieren wir erstens, welche Anforderungen an ein RMIS gestellt werden, zweitens klassifizieren wir die auf dem Markt existierenden RMIS bezüglich ihrer Anwendungsziele und drittens erstellen wir einen Anforderungskatalog und ein dreistufiges Verfahren zur Handhabung des Auswahlprozesses. Dieses wird im Rahmen einer erfolgreich durchgeführten Fallstudie im Rahmen einer Masterarbeit [11] in einem konkreten Konzern, der Telekommunikations- und Internetzugang anbietet (United Internet AG, Montabaur), erläutert und evaluiert. 1.
In den folgenden acht Beispielen wird gezeigt, wie elektronische Anwendungen mithilfe kryptographischer Verfahren abgesichert werden. In jedem Beispiel erklären wir das Ziel der Verschlüsselung, erläutern den technischen Hintergrund, besprechen im Detail den Ablauf der Anwendung mit ihrer Verschlüsselung und diskutieren Stärken und Schwächen des Verfahrens. Das erste Beispiel der Verschlüsselungsprotokolle ist noch nicht sehr konkret, sondern es bildet die Grundlage der folgenden Beispiele. Denn jede Anwendung setzt eines der beiden Typen von Verschlüsselungsprotokollen ein, die im ersten Beispiel erklärt werden. Dann folgen die Beispiele Sicheres World Wide Web mit SSL, die Verschlüsselung der Luftschnittstelle im Mobilfunk, die sichere Identifikation des Karteninhabers einer ec-Karte am Geldauszahlungsautomaten, der Schutz von WLANs gegen fremde Lauscher und Eindringlinge, die sichere Identifikation elektronischer Schlüssel, darunter der Funkschlüssel bei Autotüren, das kontaktlose Flugticket zum Ausdrucken einer Boardingkarte und schließlich die Verschlüsselung im Pay-TV. Die Beschreibung der kryptografischen Anwendungen dieses Kapitels wird in einem Arbeitspapier des Instituts für Wirtschafts- und Verwaltungsinformatik der Universität Koblenz-Landau weitergepflegt und dort stets aktuell zum Download bereitgehalten [Grimm, Hundacker, Meletiadou 2006]. http://www.uni-koblenz.de/FB4/Institutes/IWVI/AGGrimm/Downloads
In den folgenden neun Beispielen wird gezeigt, wie elektronische Anwendungen mithilfe kryptografischer Verfahren abgesichert werden. In jedem Beispiel erklären wir das Ziel der Verschlüsselung, erläutern den technischen Hintergrund, zeigen den Ablauf der Anwendung mit ihrer Verschlüsselung und diskutieren Stärken und Schwächen des Verfahrens.
This paper offers an informal overview and discussion on first order predicate logic reasoning systems together with a description of applications which are carried out in the Artificial Intelligence Research Group of the University in Koblenz. Furthermore the technique of knowledge compilation is shortly introduced.
In this paper, we demonstrate by means of two examples how to work with probability propagation nets (PPNs). The fiirst, which comes from the book by Peng and Reggia [1], is a small example of medical diagnosis. The second one comes from [2]. It is an example of operational risk and is to show how the evidence flow in PPNs gives hints to reduce high losses. In terms of Bayesian networks, both examples contain cycles which are resolved by the conditioning technique [3].
Die Reputation von Unternehmen ist einer zunehmenden Gefahr ausgesetzt, die sich aus der (unreflektierten) Nutzung sozialer Netzwerke durch die eigenen Mitarbeiter ergibt. Die Treiber und Hemmnisse eines solchen Nutzerverhaltens von Arbeitnehmern in sozialen Netzwerken wurden bislang nur unzureichend erforscht. Der vorliegende Beitrag untersucht unter Verwendung der Boundary Theorie am Beispiel der Plattform Facebook, inwieweit die Persönlichkeitsmerkmale Neurotizismus und Extraversion, die Organisationsidentifikation und die Unternehmensreputation ein zustimmendes Verhalten von Nutzern begünstigen. Eine experimentelle Online-Studie mit 494 Probanden zeigt, dass insbesondere eine hohe Unternehmensreputation und Organisationsidentifikation zu einem erhöhten zustimmenden Verhalten führen.
In Enhanced Reality Umgebungen nimmt der Betrachter die Umgebung und zusätzliche, in eine halbdurchsichtige Datenbrille eingeblendete Informationen wahr. Das Kalibrierungsproblem der Datenbrille ist die Aufgabe, die eingeblendete Information mit dem korrekten realen Hintergrund zur Deckung zu bringen. Heutige Datenbrillen sind vergleichsweise klobig und schwer, deshalb kommt es häufig zu leichtem Verrutschen der Brille. Wird dieses Verrutschen nicht in die Position der Einblendung in der Brille einbezogen, so passt die Einblendung nicht mehr zum realen Hintergrund. Dies wird in Abbildung 1.1 exemplarisch dargestellt. Nach initialer Kalibrierung der teildurchsichtigen Datenbrille auf das Auge des Betrachters soll deshalb bei relativer Lageveränderung der Datenbrille zum Auge (durch leichtes Verrutschen) eine Re-Kalibrierung in Echtzeit automatisch erfolgen. Eine automatische Re-Kalibrierung bei Verrutschen wird von uns erstmalig erforscht.
Avoidance of routing loops
(2009)
We introduce a new routing algorithm which can detect routing loops by evaluating routing updates more thoroughly. Our new algorithm is called Routing with Metric based Topology Investigation (RMTI), which is based on the simple Routing Information Protocol (RIP) and is compatible to all RIP versions. In case of a link failure, a network can reorganize itself if there are redundant links available. Redundant links are only available in a network system like the internet if the topology contains loops. Therefore, it is necessary to recognize and to prevent routing loops. A routing loop can be seen as a circular trace of a routing update information which returns to the same router, either directly from the neighbor router or via a loop topology. Routing loops could consume a large amount of network bandwidth and could impact the endtoend performance of the network. Our RMTI approach is capable to improve the efficiency of Distance Vector Routing.
IT-Risk-Management ist ein Bereich, der in den letzten 2 Jahren stark diskutiert und sich verändert hat. Die Anlässe findet man sowohl in den terroristischen Überfällen und entsprechenden Konsequenzen für Unternehmen als auch an die Naturkatastrophen oder Fehlinvestitionen und undurchsichtigen Geschäfte mancher Unternehmen. Daher wurden Richtlinien und Gesetze entworfen, die Vorstände verpflichten, das eigene Unternehmen gegen konkrete Risiken zu schützen. Der Detaillierungsgrad der Vorschläge ist je nach Bereich unterschiedlich. Sind aber Unternehmen bereit, die hohen Investitionen, die mit solchen umfangreichen Projekten zusammenhängen, auf sich zu nehmen um diese Richtlinien zu verfolgen? Wo sehen sie die Vorteile einer IT-Risk-Management-Strategie und wo die Herausforderungen? Welche Entwicklungen oder Veränderung wünschen sie sich? Das sind Fragen, die in der vorliegenden Studie, Experten des Bereich IT-Risk-Management gestellt wurden um die Zukunft des IT-Risk-Managements beeinflussen zu können. Diese Fragestellungen wurden in der vorliegenden Studie untersucht, dazu haben wir Experten des Bereichs IT-Risk-Managements mit Hilfe der Delphi-Methode befragt. Der vorliegende Bericht fasst die wichtigsten Ergebnisse zusammen.
Ziel des Verbundprojektes 3D-RETISEG ist es, ein optimiertes echtzeitfähiges Soft- und Hardwarepaket zur 2D/3D-Segmentierung und Klassifizierung basierend auf hierarchischen Inselstrukturen, und zur schnellen Volumenvisualisierung sehr großer Volumendaten aus komprimierten Datensätzen zu entwickeln. Die Entwicklungen sollen in konkreten Anwendungsfällen der Forschung und der Wirtschaft als marktreifes Modul in das Softwarepaket VGStudioMax integriert werden. In der Medizin, speziell bei der Segmentierung von Volumendatensätzen, die durch unterschiedliche Tomographietechniken (z.B. CT und MRI) erzeugt werden, liefern zweidimensionale Verfahren häufig eine unzureichende Qualität aufgrund der anisotropen Berücksichtigung der Rauminformationen. Bisher entwickelte dreidimensionale Verfahren sind, neben der der schlechten Verfügbarkeit ihrer Implementierungen, häufig nur für bestimmte Fragestellungen dediziert und daher für andere Anwendungsfälle schlecht adaptierbar. Weiterhin benötigen Verfahren, die gute Ergebnisse liefern, meist eine hohe Laufzeit. Dies ist aber speziell in medizinischen Anwendungen von großem Nachteil, da hier die Qualität der Ergebnisse in letzter Instanz von einem Experten beurteilt wird. Damit das Ergebnis schnell zu benutzerdefinierten Optimierungen durch Veränderung der Verfahrensparameter zur Verfügung steht, sollte ein Verfahren nur sehr kurze Rechenzeiten benötigen. Weist ein Verfahren eine geringe Laufzeit auf, so kann es außerdem intra-operativ eingesetzt werden. Der hier im Projekt verwendete 3D-Color-Structure-Code verspricht, ein besseres und generisches Verfahren zu ermöglichen.
In this paper we describe a network for distributing personalized information within a pervasive university. We discuss the system architecture of our Bluetooth-based CampusNews-system, both, from the administrator and the user viewpoint. We furthermore present first statistical data about the usage of the partial installation at the Koblenz campus together with an outlook to future work.
In this paper we describe a network for distributing personalized Information in a metropolitan area. We discuss the system architecture of our Bluetooth-based information system as well as the reasoning process that fits users" needs with potential messages. We furthermore present our findings on parallelizing Bluetooth connection setup and performance.
CAMPUS NEWS - artificial intelligence methods combined for an intelligent information network
(2008)
In this paper we describe a network for distributing personalised information with the usage of artificial intelligence methods. Reception of this information should be possible with everyday mobile equipment. Intelligent filtering and spam protection aim at integrating this technology into our environment. Information on the system architecture and usage of the installation are also presented.
Campuszeitung Ausg. 1/2012
(2015)
Themen: Schwerpunkte der Forschungsinitiative Forschungsinitiative des Landes fördert vier Schwerpunkte
Student der Universität in Koblenz gewinnt Sonderpreis
Studieren bewegt
Wanderer zwischen den Kulturen
Alphajump erleichtert Berufseinstieg für Studierende
Apps für Deutschland
QR-Codes auf dem Campus und weitere
Campuszeitung Ausg. 1/2013
(2015)
Campuszeitung Ausg. 1/2014
(2015)
Campuszeitung Ausg. 1/2015
(2015)
Campuszeitung Ausg. 1/2016
(2016)
Campuszeitung Ausg. 1/2017
(2017)
Campuszeitung Ausg. 2/2011
(2015)
Themen: Methodenzentrum am Campus Koblenz
"Macbeth" mal ganz anders
Gründungsbüro eröffnet
KOpEE-Kongress
20 Jahre ZFUW
10 Jahre Semantic Web Forschung
Lahnsteiner Schüler auf dem Campus
Westpoint meets Universität in Koblenz MINT-Aktionstag 2011 auf dem Campus
Auftakt Women Career Center
Absolventenfeiern
PTHV und Uni stärken Kooperation
Campuszeitung Ausg. 2/2014
(2015)
The aim of this paper is to identify and understand the risks and issues companies are experiencing from the business use of social media and to develop a framework for describing and categorising those social media risks. The goal is to contribute to the evolving theorisation of social media risk and to provide a foundation for the further development of social media risk management strategies and processes. The study findings identify thirty risk types organised into five categories (technical, human, content, compliance and reputational). A risk-chain is used to illustrate the complex interrelated, multi-stakeholder nature of these risks and directions for future work are identified.
Ontologies play an important role in knowledge representation for sharing information and collaboratively developing knowledge bases. They are changed, adapted and reused in different applications and domains resulting in multiple versions of an ontology. The comparison of different versions and the analysis of changes at a higher level of abstraction may be insightful to understand the changes that were applied to an ontology. While there is existing work on detecting (syntactical) differences and changes in ontologies, there is still a need in analyzing ontology changes at a higher level of abstraction like ontology evolution or refactoring pattern. In our approach we start from a classification of model refactoring patterns found in software engineering for identifying such refactoring patterns in OWL ontologies using DL reasoning to recognize these patterns.
Cloud Computing is a topic that has gained momentum in the last years. Current studies show that an increasing number of companies is evaluating the promised advantages and considering making use of cloud services. In this paper we investigate the phenomenon of cloud computing and its importance for the operation of ERP systems. We argue that the phenomenon of cloud computing could lead to a decisive change in the way business software is deployed in companies. Our reference framework contains three levels (IaaS, PaaS, SaaS) and clarifies the meaning of public, private and hybrid clouds. The three levels of cloud computing and their impact on ERP systems operation are discussed. From the literature we identify areas for future research and propose a research agenda.
The novel mobile application csxPOI (short for: collaborative, semantic, and context-aware points-of-interest) enables its users to collaboratively create, share, and modify semantic points of interest (POI). Semantic POIs describe geographic places with explicit semantic properties of a collaboratively created ontology. As the ontology includes multiple subclassiffcations and instantiations and as it links to DBpedia, the richness of annotation goes far beyond mere textual annotations such as tags. With the intuitive interface of csxPOI, users can easily create, delete, and modify their POIs and those shared by others. Thereby, the users adapt the structure of the ontology underlying the semantic annotations of the POIs. Data mining techniques are employed to cluster and thus improve the quality of the collaboratively created POIs. The semantic POIs and collaborative POI ontology are published as Linked Open Data.
We present a non-linear camera pose estimator, which is able to handle a combined input of point and line feature correspondences. For three or more correspondences, the estimator works on any arbitrary number and choice of the feature type, which provides an estimation of the pose on a preferably small and flexible amount of 2D-3D correspondences. We also give an analysis of different minimization techniques, parametrizations of the pose data, and of error measurements between 2D and 3D data. These will be tested for the usage of point features, lines and the combination case. The result shows the most stable and fast working non-linear parameter set for pose estimation in model-based tracking.
In this paper, we compare two approaches for exploring large,rnhierarchical data spaces of social media data on mobile devicesrnusing facets. While the first approach arranges thernfacets in a 3x3 grid, the second approach makes use of arnscrollable list of facets for exploring the data. We have conductedrna between-group experiment of the two approachesrnwith 24 subjects (20 male, 4 female) executing the same set ofrntasks of typical mobile users" information needs. The resultsrnshow that the grid-based approach requires significantly morernclicks, but subjects need less time for completing the tasks.rnFurthermore, it shows that the additional clicks do not hamperrnthe subjects" satisfaction. Thus, the results suggest thatrnthe grid-based approach is a better choice for faceted searchrnon touchscreen mobile devices. To the best of our knowledge,rnsuch a summative evaluation of different approaches for facetedrnsearch on mobile devices has not been done so far.
An estimation of the number of multiplication and addition operations for training artififfcial neural networks by means of consecutive and parallel algorithms on a computer cluster is carried out. The evaluation of the efficiency of these algorithms is developed. The multilayer perceptron, the Volterra network and the cascade-correlation network are used as structures of artififfcial neural networks. Different methods of non-linear programming such as gradient and non-gradient methods are used for the calculation of the weight coefficients.
Das Interesse am Konzept Crowdfunding ist in den letzten Jahren sowohl aus der Wirtschaft als auch aus der Wissenschaft gestiegen. Neben Künstlern und Entrepreneuren finanzieren nun auch Wissenschaftler ihre Projekte durch zahlreiche kleine Beiträge aus der Crowd. Allerdings spiegelt die wahrgenommene Nutzung in Deutschland nicht die Vorteile einer Crowdfunding-Kampagne wider, insbesondere nicht im internationalen Vergleich. Die vorliegende Studie untersucht diesen Umstand, indem sie die Motive und Barrieren für eine Finanzierung durch Crowdfunding identifiziert, um Empfehlungen für Forschungseinrichtungen zur Förderung von Crowdfunding zu formulieren. Durch eine Literaturanalyse werden erste Erkenntnisse ermittelt, welche dann für die Durchführung von qualitativen Interviews mit elf Wissenschaftlern, die bereits eine Crowdfunding-Kampagne erfolgreich abgeschlossen haben, verwendet werden. Die Ergebnisse zeigen, dass ForscherInnen in Deutschland Crowdfunding in erster Linie dazu verwenden, Aufmerksamkeit für das Thema und die wissenschaftliche Gemeinschaft im Allgemeinen zu schaffen. Die größten Barrieren sind der enorme Aufwand, der mit einer Kampagne verbunden ist, und die mangelnde Reputation des Konzepts des Crowdfunding seitens der deutschen Wissenschaft. Zudem eignen sich nur Themen und Projekte mit einer hohen Öffentlichkeitswirksamkeit und einem Fördervolumen von maximal fünfstelligen Beträgen. Darüber hinaus konnte die öffentliche Wahrnehmung der Experten während der Kampagne als zusätzliche Barriere identifiziert werden.
Diese Ergebnisse führen zu drei Empfehlungen für Forschungseinrichtungen zur Förderung von Crowdfunding: Es wird empfohlen das Bewusstsein für das Thema Crowdfunding als zusätzliche Form der Forschungsfinanzierung zu sensibilisieren und die Vorteile einer Crowdfunding-Kampagne hervorzuheben. Universitäten sollten mit Crowdfunding Akteuren (bspw. Plattformen und Experten) zusammenarbeiten und die Netzwerkeffekte einer Universität sollten genutzt werden. Die Universitäten sollten Unterstützung leisten, um die Arbeitsbelastung auf interdisziplinäre Teams zu verteilen, um so das Verhältnis zwischen Aufwand und Ertrag zu optimieren. Die gewählte Methodik und der Geltungsbereich der Thesis eröffnen weitere Forschungsmöglichkeiten, die die Perspektive der Universitäten und die Bedingungen in anderen Ländern untersuchen könnten. Darüber hinaus ist eine groß angelegte quantitative Studie erforderlich, um die identifizierten Konzepte statistisch zu validieren.
Die Forschungsarbeit beschäftigt sich mit der zentralen Frage, welche Erfolgsfaktoren einen Effekt auf eine erfolgreiche Crowdfunding Kampagne haben. Als Untersuchungsfeld stehen deutsche Startup-Unternehmen im Fokus, die bereits erfolgreiche CrowdfundingKampagnen durchgeführt haben.
Zur Beantwortung dieser Frage wird zunächst eine systematische Literaturanalyse durchgeführt, durch die relevante Erfolgsfaktoren für eine Crowdfunding-Kampagne ermittelt werden. Diese Faktoren werden anschließend einem Mixed-Method-Ansatz unterzogen, bei dem qualitative Ergebnisse, basierend auf einer Fallstudienforschung, mit den statistisch ausgewerteten quantitativen Ergebnissen aus der Fragebogenforschung verglichen und überprüft werden. Dabei liegt der Fokus insbesondere auf der Identifikation von signifikanten Wirkungszusammenhängen zwischen den Erfolgsfaktoren und einer erfolgreichen Crowdfunding-Kampagne.
Im Ergebnis konnten diesbezüglich Wirkungszusammenhänge innerhalb dieser Thesis nachgewiesen werden. Sechs der festgestellten Zusammenhänge aus der qualitativen Analyse werden durch die quantitative Analyse bestätigt. Es konnte jedoch keine Signifikanz der Korrelationen festgestellt werden. Auch die Hypothese, dass sich die Erfolgsaussichten einer Kampagne durch eine höhere Anzahl jeweils kombinierter Erfolgsfaktoren erhöhen, wurde sowohl in der qualitativen als auch in der quantitativen Betrachtung widerlegt. Demnach galt es für den Autor der vorliegenden Thesis künftige Forschungsfelder zu definieren, die die ermittelten Ergebnisse erweitern und konkretisieren. Es bleibt beispielsweise einer weiterführenden Forschung überlassen, zu klären, ob bestimmte Kombinationen der Erfolgsfaktoren zu signifikanten Wirkungszusammenhängen führen. Darüber hinaus bietet sich eine weiterführende statistische Regressionsanalyse an, um die kausalen Effekte zu untersuchen und Prognosen für erfolgreiche Crowdfunding-Kampagnen zu formulieren.
Information systems research has started to use crowdsourcing platforms such as Amazon Mechanical Turks (MTurk) for scientific research, recently. In particular, MTurk provides a scalable, cheap work-force that can also be used as a pool of potential respondents for online survey research. In light of the increasing use of crowdsourcing platforms for survey research, the authors aim to contribute to the understanding of its appropriate usage. Therefore, they assess if samples drawn from MTurk deviate from those drawn via conventional online surveys (COS) in terms of answers in relation to relevant e-commerce variables and test the data in a nomological network for assessing differences in effects.
The authors compare responses from 138 MTurk workers with those of 150 German shoppers recruited via COS. The findings indicate, inter alia, that MTurk workers tend to exhibit more positive word-of mouth, perceived risk, customer orientation and commitment to the focal company. The authors discuss the study- results, point to limitations, and provide avenues for further research.
In diesem Arbeitsbericht werden zuvor nicht identifizierte Bedrohungen bezüglich des Wahlgeheimnisses des in [BKG11] vorgeschlagenen Konzeptes zur Authentifizierung von Wählern bei elektronischen Wahlen mittels des neuen Personalausweises aufgezeigt. Überdies wird mit der Einführung einer zwischengelagerten Anonymisierungsschicht eine Lösung vorgeschlagen, wie eben diese Bedrohungen abgewehrt werden können.
Designing Core Ontologies
(2011)
One of the key factors that hinders integration of distributed, heterogeneous information systems is the lack of a formal basis for modeling the complex, structured knowledge that is to be exchanged. To alleviate this situation, we present an approach based on core ontologies. Core ontologies are characterized by a high degree of axiomatization and formal precision. This is achieved by basing on a foundational ontology. In addition, core ontologies should follow a pattern-oriented design approach. By this, they are modular and extensible. Core ontologies allow for reusing the structured knowledge they define as well as integrating existing domainrnknowledge. The structured knowledge of the core ontologies is clearly separated from the domain-specific knowledge. Such core ontologies allow for both formally conceptualize their particular fields and to be flexibly combined to cover the needsrnof concrete, complex application domains. Over the last years, we have developed three independent core ontologies for events and objects, multimedia annotations, and personal information management. In this paper, we present the simultaneousrnuse and integration of our core ontologies at the example of a complex, distributed socio-technical system of emergency response. We describe our design approach for core ontologies and discuss the lessons learned in designing them. Finally, we elaborate on the beauty aspects of our core ontologies.
The estimation of various social objects is necessary in different fields of social life, science, education, etc. This estimation is usually used for forecasting, for evaluating of different properties and for other goals in complex man-machine systems. At present this estimation is possible by means of computer and mathematical simulation methods which is connected with significant difficulties, such as: - time-distributed process of receiving information about the object; - determination of a corresponding mathematical device and structure identification of the mathematical model; - approximation of the mathematical model to real data, generalization and parametric identification of the mathematical model; - identification of the structure of the links of the real social object. The solution of these problems is impossible without a special intellectual information system which combines different processes and allows predicting the behaviour of such an object. However, most existing information systems lead to the solution of only one special problem. From this point of view the development of a more general technology of designing such systems is very important. The technology of intellectual information system development for estimation and forecasting the professional ability of respondents in the sphere of education can be a concrete example of such a technology. Job orientation is necessary and topical in present economic conditions. It helps tornsolve the problem of expediency of investments to a certain sphere of education. Scientifically validated combined diagnostic methods of job orientation are necessary to carry out professional selection in higher education establishments. The requirements of a modern society are growing, with the earlier developed techniques being unable to correspond to them sufficiently. All these techniques lack an opportunity to account all necessary professional and personal characteristics. Therefore, it is necessary to use a system of various tests. Thus, the development of new methods of job orientation for entrants is necessary. The information model of the process of job orientation is necessary for this purpose. Therefore, it would be desirable to have an information system capable of giving recommendations concerning the choice of a trade on the basis of complex personal characteristics of entrants.
Digital happiness
(2016)
Emotionen in der digitalen Welt gewinnen durch die immer weiter voranschreitende Digitalisierung in den vergangenen Jahren mehr an Bedeutung. Sowohl im Alltag als auch im Berufs- und Bildungsumfeld ist der Einsatz von Medien fast unumgänglich. In dieser Arbeit wird das noch relativ unbeachtete Thema „Digital Happiness“ genauer betrachtet. In der Literatur werden Emotionen in der digitalen Welt verstärkt untersucht, aber gerade zu dem Thema „Digital Happiness“ gibt es bisher noch nicht viele Erkenntnisse.
In diesem Forschungspraktikum werden die Unterschiede in der Kommunikation von Gefühlen in der computergestützten Kommunikation und der face-to-face Kommunikation, sowie welchen Einfluss diese haben, näher untersucht. Aber auch die Wahrnehmung und Äußerung von Emotionen in der realen und digitalen Welt werden betrachtet. Es wird eine erste Definition von „Digital Happiness“ erarbeitet und ein Modell mit den zugehörigen Determinanten, welche „Digital Happiness“ beeinflussen, entwickelt.
Um diese Ziele zu erreichen, wird eine Literaturanalyse nach der Methode von Webster & Watson (2002) durchgeführt. Hierfür werden 15 Artikel ausgewählt und genauer analysiert, um den aktuellen Stand der Forschung darzustellen. Diese werden in einer Konzeptmatrix eingeordnet. Außerdem werden besondere Phänomene, wie z.B. Quantified Self, näher betrachtet, um weitere Einflussfaktoren feststellen zu können. Basierend auf der Literaturanalyse wird eine qualitative Untersuchung nach Mayring (2014) durchgeführt. Es wird ein Interviewleitfaden entwickelt, der als Grundlage für die Untersuchung der festgestellten Determinanten der Literaturanalyse dient. Diese sollen durch 30 Interviews mit Nutzern von Informations- und Kommunikationstechnologien bestätigt oder widerlegt werden.
Mit Hilfe der durchgeführten Interviews lässt sich ein Großteil der Determinanten aus der Literatur bestätigen. Es wurden auch einige neue Determinanten festgestellt. Diese Ergebnisse werden in das abschließende Modell eingearbeitet. Dieses Modell bietet eine Grundlage für weitere Forschungen im Bereich „Digital Happiness“. Schlussendlich werden noch verschiedene Implikationen für die Forschung und Praxis festgestellt, welche weiteren Forschungsbedarf erkennen lassen.
Die vorliegende Fallstudie entstand als Untersuchungsobjekt zu einer Bachelorarbeit und wurde nach der eXperience Fallstudienmethodik erstellt. Ziel der Bachelorarbeit war die Identifizierung von Nutzenaspekten in diesem konkreten Fall. Im Anwenderunternehmen DOCHOUSE wurde hier eine Schnittstelle zwischen dem internen CRM-System und einem kollaborativen System für den externen Zugriff eingeführt.
Ein besonderer Dank geht in diesem Zusammenhang an Herr Wolfgang Brugger (Geschäftsführer DOCHOUSE GmbH), der die Erstellung der Fallstudie motiviert hat und die FG BAS mit deren Durchführung betraute. Die Fallstudie wurde im Winter 2011 von dem Studenten Martin Surrey und Roland Diehl, wissenschaftlicher Mitarbeiter der Forschungsgruppe, erhoben.
Semantic desktop environments aim at improving the effectiveness and efficiency of users carrying out daily tasks within their personal information management infrastructure (PIM). They support the user by transferring and exploiting the explicit semantics of data items across different PIM applications. Whether such an approach does indeed reach its aim of facilitating users" life and—if so—to which extent, however, remains an open question that we address in this paper with the first summative evaluation of a semantic desktop approach. We approach the research question exploiting our own semantic desktop infrastructure, X-COSIM. As data corpus, we have used over 100 emails and 50 documents extracted from the organizers of a conference-like event at our university. The evaluation has been carried out with 18 subjects. We have developed a test environment to evaluate COSIMail and COSIFile, two semantic PIM applications based on X-COSIM. As result, we have found a significant improvement for typical PIM tasks compared to a standard desktop environment.
E-KRHyper is a versatile theorem prover and model generator for firstorder logic that natively supports equality. Inequality of constants, however, has to be given by explicitly adding facts. As the amount of these facts grows quadratically in the number of these distinct constants, the knowledge base is blown up. This makes it harder for a human reader to focus on the actual problem, and impairs the reasoning process. We extend E-Hyper- underlying E-KRhyper tableau calculus to avoid this blow-up by implementing a native handling for inequality of constants. This is done by introducing the unique name assumption for a subset of the constants (the so called distinct object identifiers). The obtained calculus is shown to be sound and complete and is implemented into the E-KRHyper system. Synthetic benchmarks, situated in the theory of arrays, are used to back up the benefits of the new calculus.