Filtern
Erscheinungsjahr
Dokumenttyp
- Ausgabe (Heft) zu einer Zeitschrift (132)
- Bachelorarbeit (68)
- Diplomarbeit (47)
- Masterarbeit (34)
- Studienarbeit (9)
- Konferenzveröffentlichung (5)
- Dissertation (2)
- Wissenschaftlicher Artikel (1)
Schlagworte
- Simulation (5)
- ontology (5)
- Bluetooth (4)
- computer clusters (4)
- Android <Systemplattform> (3)
- Augmented Reality (3)
- Customer Relationship Management (3)
- Enterprise 2.0 (3)
- Informatik (3)
- Knowledge Compilation (3)
- Mikrocontroller AVR (3)
- Petri-Netze (3)
- Routing (3)
- University (3)
- parallel algorithms (3)
- Akkreditierung (2)
- Campus Information System (2)
- Cloud Computing (2)
- Computersimulation (2)
- DOCHOUSE (2)
- Datensicherheit (2)
- Distance Vector Routing (2)
- Distanz Vektor Routing (2)
- E-Government (2)
- E-KRHyper (2)
- Enhanced Reality (2)
- Fallstudie (2)
- Google App Engine (2)
- Google Web Toolkit (2)
- IBM Lotus Quickr (2)
- Interaktion (2)
- Java (2)
- Linked Open Data (2)
- Mikrocontroller (2)
- OWL (2)
- Objektverfolgung (2)
- Ontology (2)
- Personalausweis (2)
- RDF (2)
- Rechnernetz (2)
- Rechnernetze (2)
- Router (2)
- Semantic Web (2)
- Smartphone (2)
- Tablet PC (2)
- Visualisierung (2)
- Web Analytics (2)
- WebGL (2)
- artifcial neural networks (2)
- artificial neural networks (2)
- classification (2)
- constraint logic programming (2)
- governance (2)
- mobile phone (2)
- privacy protection (2)
- probability propagation nets (2)
- risk (2)
- simulation (2)
- social media (2)
- 101companies (1)
- 2D/3D-Segmentierung (1)
- 3-D-Modell (1)
- 3D-Color-Structure-Code (1)
- 3D-Kartierung (1)
- 3D-Modell (1)
- 3D-RETISEG (1)
- 8C model (1)
- ABox (1)
- API (1)
- API Analysis (1)
- API Migratiom (1)
- ATMega 16 (1)
- ATmega644 (1)
- ATtiny2313 (1)
- Absorptive capacity (1)
- Ad-Hoc Routing (1)
- Adaptive Services Grid (ASG) (1)
- Adobe Flex (1)
- Agenten (1)
- Agents (1)
- Aggregation (1)
- Aktualisierung (1)
- Alex Bernstein (1)
- Amazon Mechanical Turks (1)
- Ambient Occlusion (1)
- Android (1)
- Android 2 (1)
- Android 3 (1)
- Android 4 (1)
- Annotation (1)
- Annotationsmodell (1)
- App (1)
- App <Programm> (1)
- ArcGIS (1)
- Archivierung (1)
- Artificial Intelligence (1)
- Aspect-orientation (1)
- Aspekt-Orientierung (1)
- Ausstellung (1)
- Authentifizierung (1)
- Authentisierung (1)
- Automated Theorem Proving (1)
- Automated Theorem Proving Systems (1)
- Automatisches Beweisverfahren (1)
- Autonomes Fahrzeug (1)
- B2B (1)
- B2B Integration (1)
- BPMN (1)
- Bachelorstudiengang (1)
- Bayes Procedures (1)
- Bebauungsdichte (1)
- Beschreibungslogik (1)
- Bewegung (1)
- Bewegungsablauf (1)
- Bewegungssteuerung (1)
- Bilderkennung (1)
- Browser (1)
- Burg (1)
- Business Collaboration (1)
- C-Programmierung (1)
- CIDR (1)
- CSMs (1)
- Calculus (1)
- CamInSens (1)
- Campus Koblenz (1)
- Casual Games (1)
- Chaos (1)
- Classification (1)
- Clustering (1)
- Colonoscopy (1)
- Common Annotation Framework (1)
- Computational biology (1)
- Computer Networks (1)
- Computeranimation (1)
- Computergraphik (1)
- Computermodell (1)
- Computerspiel (1)
- Conference (1)
- Congestion Control (1)
- Content Analysis (1)
- Content Management (1)
- Context-aware processes (1)
- Core Ontology on Multimedia (1)
- Core Ontology on Multimedia (COMM) (1)
- Creativity (1)
- Criteria Matrix (1)
- Crowdsourcing (1)
- Darmspiegelung (1)
- Data Mining (1)
- Data analysis (1)
- Datenanalyse (1)
- Datenbrille (1)
- Datenschutz (1)
- Datenschutz, Datensicherheit, Apps, Informatik im Kontext (1)
- Defi-Now! (1)
- Defibrillator (1)
- Delphi-Studie (1)
- Delta (1)
- Description Logic (1)
- Description Logics (1)
- Design Pattern (1)
- Diabetes (1)
- Diabetische Retinopathie (1)
- Dienstleistungsproduktivität (1)
- Digitale Steuerung (1)
- Dimensionality Reduction (1)
- Dimensionsreduzierung (1)
- Discussion Forums (1)
- Distributed process execution (1)
- Drahtloses lokales Netz (1)
- Dreidimensionale Bildverarbeitung (1)
- Dynamische Analyse (1)
- E-Business (1)
- E-Hyper Tableau (1)
- E-IMS (1)
- E-KRHyper theorem prover (1)
- E-Learning (1)
- E-Mail (1)
- E-Partizipation (1)
- E-Procurement (1)
- E-government (1)
- E-services (1)
- ECMS 2012 (1)
- EEPROM (1)
- EPROM (1)
- ERP-Systeme (1)
- Echtzeit-Raytracer "Augenblick" (1)
- Echtzeitphysik (1)
- Echtzeitsystem (1)
- Einchip-Computer (1)
- Electronic Government (1)
- Elektrischer Servomotor (1)
- Emergenz (1)
- Emil (1)
- Enterprise Information Management (1)
- Enterprise Systems (1)
- Enterprise-Resource-Planning (1)
- Entwicklung (1)
- Entwurfsmuster (1)
- Erste Hilfe (1)
- European Conference on Modelling and Simulation (1)
- Evaluation (1)
- Facebook App (1)
- Facebook Application (1)
- Fahrzeug (1)
- Farbkalibrierung (1)
- Feature Extraction (1)
- Finanzberatung (1)
- First aid (1)
- FlexViz (1)
- Forensik (1)
- Forschungslandkarte (1)
- Forschungsprojekt KMU 2.0 (1)
- Framework (1)
- Freiheitsgrad (1)
- Föderiertes System (1)
- GPGPU (1)
- GPS (1)
- GSM-Standard (1)
- Game Design (1)
- Generative Model (1)
- Generative Modellierung (1)
- Geocaching (1)
- Germany (1)
- Gesundheitswesen (1)
- Good Government (1)
- Grails (1)
- Grails 1.2 (1)
- Graph Technology (1)
- GraphUML (1)
- HTML 5.0 (1)
- Haskell (1)
- Healthcare institution (1)
- Historisierung (1)
- Horn Clauses (1)
- Hypertableaux (1)
- IASON (1)
- IEC 61131 (1)
- IP 6 (1)
- IP-Adressen (1)
- IPv6 (1)
- IT Outsourcing (1)
- IT Security (1)
- IT Services (1)
- IT security analysis (1)
- IT-Risk-Management (1)
- IT-Sicherheitsmodelle (1)
- Image (1)
- Incremental Algorithms (1)
- Infobroker (1)
- Information Flow Ontology (1)
- Information Supply Chain (1)
- Informationsmanagement (1)
- Informationssystem (1)
- Innovation (1)
- Innovationsmanagement (1)
- Integriertes Informationssystem (1)
- Intelligent Information Network (1)
- Interaktionselemente (1)
- Internet (1)
- Internet Voting (1)
- Internetregulierung (1)
- Internetworking (1)
- Interpersonale Kommunikation (1)
- Interpretierer (1)
- Intranet-Zugang (1)
- JCryp-Tool (1)
- Java <Programmiersprache> (1)
- JavaScript (1)
- Kalibrierung (1)
- Kamera (1)
- Kamerakalibrierung (1)
- Kantenverfolgung (1)
- Katastrophentheorie (1)
- Kinematik (1)
- Klassifikation (1)
- Kletterer (1)
- Knowledge Sharing (1)
- Koloskopie (1)
- Kommunikationsprotokoll (1)
- Kondertal (1)
- Kontextbezogener Dienst (1)
- Konzept (1)
- Kooperatives Informationssystem (1)
- Krankenhausinformationssystem (1)
- Kryptographie (1)
- Künstliche Intelligenz (1)
- Laser (1)
- Leistungsmessung (1)
- Lernsoftware (1)
- Linked Data Modeling (1)
- Logging (1)
- Logik (1)
- Logistik (1)
- Lokalisation (1)
- MIA (1)
- MPEG-7 (1)
- Manöver-Visualisierung (1)
- MapReduce (1)
- Markov Zufallsfelder (1)
- Maschinelles Sehen (1)
- Massenkommunikation (1)
- Masterstudiengang (1)
- Matching (1)
- Mediator framework (1)
- Medical Image Analysis (1)
- Medizinische Bildanalyse (1)
- Medizinische Bildverarbeitung (1)
- Medizinische Visualisierung (1)
- Mehragentensystem (1)
- Mehrbenutzer-Annotationssystem (1)
- Menschenmengen-Evakuierung (1)
- Merkmalsextrahierung (1)
- Migration (1)
- Mindestlohn (1)
- Minimum wage (1)
- Mister X (1)
- Mixed method (1)
- Mobile BI (1)
- Mobile Business Intelligence (1)
- Mobile Information Systems (1)
- Mobiles Umfeld (1)
- Model View Presenter (1)
- Model-Driven Engineering (1)
- Modell (1)
- Montageablauf (1)
- Morphologische Operatoren (1)
- Motivation (1)
- Multi-robot System (1)
- Multiagent System (1)
- Multiagentensystem (1)
- Multimedia Metadata Ontology (1)
- Natural Feature Tracking (1)
- Netlogo (1)
- Network Virtualization (1)
- Netzwerk Routing (1)
- Netzwerk Virtualisierung (1)
- Netzwerk kleiner und mittlerer Unternehmen (1)
- Neuronales Netz (1)
- OCR (1)
- ODRL (1)
- OWL <Informatik> (1)
- Object Recognition (1)
- Objective-C (1)
- Online Community (1)
- Online-Befragung (1)
- Online-Überwachung (1)
- Onlinewahl (1)
- Ontologie (1)
- Ontologie <Wissensverarbeitung> (1)
- Ontology alignment (1)
- Open Source (1)
- OpenVDB (1)
- Optische Zeichenerkennung (1)
- Outsourcing (1)
- PHP (1)
- POIs (1)
- Parallelmanipulator (1)
- Path Tracing (1)
- Personal Key Infrastruktur (1)
- Personalised Information Systems (1)
- Petri Nets (1)
- Petri net (1)
- Petrinetz (1)
- Pfadnachverfolgung (1)
- Plugin (1)
- Politik (1)
- Politische Kampagne (1)
- Politische Meinungsbildung (1)
- Polypendetektion (1)
- Pose (1)
- Privatvermögen (1)
- Probability (1)
- Probability propagation nets (1)
- Proceedings (1)
- Process tracing (1)
- Programmiergerät (1)
- Programmiersprachen (1)
- Programmierumgebung (1)
- Projekt iCity (1)
- Propagation (1)
- Prozedurale Synthese (1)
- Prozessmanagement (1)
- Public-Key-Infrastruktur (1)
- Pulsweitenmodulation (1)
- Quality assessment system (1)
- Qualität (1)
- RDF Graphs (1)
- RDF modeling (1)
- RIPng (1)
- RMIS (1)
- Ray tracing (1)
- Raytracing (1)
- ReDSeeDS-Project (1)
- Real-Life Game (1)
- Real-Life Spiel (1)
- Real-Time (1)
- Realistisches Kameramodell (1)
- Reengineering (1)
- Registratur (1)
- Regression (1)
- Reisedokument (1)
- Repast (1)
- Rescueanalyser (1)
- Research Map (1)
- Resource Description Framework (RDF) (1)
- Retina Befundbilder (1)
- Retina Fundus Bilder (1)
- Retina Fundus Images (1)
- Rettungsroboter (1)
- Risikomanagement-Informationssysteme (1)
- Robbie (1)
- Robert P. Abelson (1)
- Robocup 2008 (1)
- Route Aggregation (1)
- Routen-Aggregation (1)
- Routing Information Protocol (1)
- Routing Information Protocol (RIP) (1)
- Routing Information Protokoll (1)
- Routing Loops (1)
- Routing with Metric based Topology Investigation (RMTI) (1)
- SOAMIG (1)
- SOMA (1)
- SPARQL (1)
- Schema Information (1)
- Schlussfolgern (1)
- Schutzprofil (1)
- Search engine (1)
- Security (1)
- Security Routing (1)
- Selbstorganisation (1)
- Semantics (1)
- Semantik (1)
- Serielle Schnittstelle (1)
- Service identification (1)
- Service-Identifizierung (1)
- Service-Oriented Architectures (SOA) (1)
- Service-oriented Architectures (SOA) (1)
- Serviceorientierte Architektur (1)
- Serviceroboter (1)
- Shared Annotation Model (1)
- Shared Annotations (1)
- Sicherheit Routing (1)
- Simulationswerkzeug (1)
- Smartphone Applikation (1)
- Social Games (1)
- Social Networking Platforms (1)
- Software (1)
- Software Development (1)
- Software migration (1)
- Software techniques for object recognition (STOR) (1)
- Software-Customizing (1)
- Software-Migration (1)
- Softwareentwicklung (1)
- Softwareentwurf (1)
- Softwareergonomie (1)
- Softwarespezifikation (1)
- Softwarewartung (1)
- Soziales System (1)
- Spiel (1)
- Spielkonsole (1)
- SpoGa (1)
- Sport (1)
- Sports (1)
- Stakeholder (1)
- Stakeholder-Beteiligung (1)
- Stakeholderanalyse (1)
- Starrkörper (1)
- Staukontrollmechanismen (1)
- Stereosehen (1)
- Steuerung (1)
- Stewart-Plattform (1)
- Stochastic Logic (1)
- Stomp (1)
- Strassenkreuzung (1)
- Suchmaschine (1)
- Supernetting (1)
- Supply Chain Management (1)
- Support System (1)
- Survey Research (1)
- Syntax (1)
- Systembiologie (1)
- Szenengraph (1)
- TAP (1)
- TBox (1)
- TCP/IP (1)
- Taktstraße (1)
- Tarrain Klassifikation (1)
- Taxonomy (1)
- Technologiemanagement (1)
- Temporale Datenhaltung (1)
- Tesseract (1)
- Text Analysis (1)
- Text Mining (1)
- Theorem prover (1)
- Tokens (1)
- Tool Evaluation (1)
- Traceability (1)
- Tracing (1)
- Transferfunktion (1)
- Transformation (1)
- Translation (1)
- UML (1)
- USB (1)
- Umfrage (1)
- Umgebungslicht (1)
- Unified Modeling Language (UML ) (1)
- United Internet AG (1)
- Universität Koblenz-Landau (1)
- Usability (1)
- Validierung (1)
- Veranstaltung (1)
- Verteilte Systeme (1)
- Verwaltungsautomation (1)
- Videospiel (1)
- Videospiele (1)
- Virtual Networks (1)
- Virtualisierung (1)
- Virtuelles Netz (1)
- Visibility Skeleton (1)
- Vocabulary Mapping (1)
- Vocabulary Reuse (1)
- Vocabulary Trainer (1)
- Volume Raycasting (1)
- Volumen-Rendering (1)
- WLAN Fingerprinting (1)
- Web 2.0 (1)
- Web 2.0- basierte Stakeholderplattform (1)
- Web Analytics Framework (1)
- Web Mining (1)
- Web Ontology Language (OWL) (1)
- Web Services (1)
- Web-application framework (1)
- Web-programming technologies (1)
- Web3D (1)
- Webanwendung (1)
- Website (1)
- Wechselkursänderung (1)
- Werbung (1)
- WiFi Fingerprinting (1)
- Wii (1)
- Wikipedia (1)
- Wirtschaftsprojekt (1)
- Wissensbasis (1)
- Wissensvermittlung (1)
- Word-of-Mouth (1)
- Wrapping (1)
- XSD (1)
- Xcode (1)
- Zertifikat (1)
- activation functions of neurons (1)
- adaptive resonance theory (1)
- agent-based model (1)
- agent-based simulation (1)
- agentenbasierte Modellierung (1)
- application programming interfaces (1)
- archiving (1)
- artiffficial neural networks (1)
- artififfcial neural networks (1)
- automatisierte Videoüberwachung (1)
- benefits (1)
- blood analysis (1)
- business process management (1)
- by-stander effect (1)
- camera calibration (1)
- catastrophy theory (1)
- categorisation (1)
- chaos (1)
- collaborative technologies (1)
- colour calibration (1)
- computer science (1)
- concept (1)
- contexts of use (1)
- core ontologies (1)
- crowd evacuation (1)
- currency exchange rates (1)
- delivery drone (1)
- description logic (1)
- design thinking (1)
- deutsche Hochschulen (1)
- deutschsprachiger Markt (1)
- development (1)
- diabetic retinopathy (1)
- directed acyclic graphs (1)
- distinct object identifiers (1)
- drone (1)
- e-Commerce (1)
- e-ID (1)
- eGroupware (1)
- eID (1)
- ePA (1)
- eXperience methodology (1)
- edge linking (1)
- elektronische Anwendung (1)
- emergence (1)
- entrepreneurial design thinking (1)
- entrepreneurial thinking (1)
- entrepreneurship education (1)
- estimation of algorithm efficiency (1)
- ethnic conflicts (1)
- ethnische Konflikte (1)
- event model (1)
- event-based systems (1)
- events (1)
- faceted search (1)
- finite state automata (1)
- game (1)
- gradient method of training weight coefficients (1)
- hybrid automata (1)
- hybrid systems (1)
- hypertableaux (1)
- iCity project (1)
- iOS (1)
- iOS 5 (1)
- iOS-SDK (1)
- id card (1)
- image processing (1)
- information flow regulation (1)
- information system (1)
- interaction (1)
- interaktiv (1)
- jOWL (1)
- knowledge base (1)
- knowledge work (1)
- kollaboratives Lernen (1)
- legacy software (1)
- lineare Algebra (1)
- mathematical model (1)
- media competence model (1)
- medical image processing (1)
- metadata formats (1)
- metadata standards (1)
- metasearch engine (1)
- migration (1)
- minimum self-contained graphs (1)
- mobile application (1)
- mobile devices (1)
- mobile facets (1)
- mobile interaction (1)
- mobile phones (1)
- morphological operators (1)
- movement (1)
- multi-agent systems (1)
- multimedia metadata (1)
- myAnnotations (1)
- nPA (1)
- norm (1)
- online survey (1)
- parallel calculations (1)
- personal information management (1)
- persönliches Informationsmanagement (1)
- physical interaction (1)
- physische Interaktion (1)
- points of interest (1)
- policy modelling (1)
- polyp detection (1)
- privacy and personal data (1)
- privacy competence model (1)
- procedural content generation (1)
- psychisches Verhalten (1)
- psychological behavior (1)
- public key infrastructure (1)
- quality (1)
- realtime physics (1)
- regular dag languages (1)
- retina fundus images (1)
- revenue management (1)
- risks (1)
- scene analysis (1)
- search engine (1)
- security awareness (1)
- self-organisation (1)
- semantic desktop (1)
- semantics (1)
- semantischer Desktop (1)
- sensor data (1)
- shiq (1)
- smartphone app (1)
- social media data (1)
- social object (1)
- social simulation (1)
- social system (1)
- stereotracking (1)
- summative evaluation (1)
- survey (1)
- teams (1)
- technology acceptance model (1)
- time series (1)
- tool-integration (1)
- tracking (1)
- traffic survey (1)
- travel document (1)
- unique name assumption (1)
- usability study (1)
- video game (1)
- video games (1)
- videogames (1)
- virtual goods (1)
- virtuelle Netze (1)
- visualization (1)
- Übersetzung (1)
- Überwachung (1)
- Überwachungstechnik (1)
Institut
- Fachbereich 4 (298) (entfernen)
Ein neueres Thema innerhalb des Forschungsbereichs Semantic Web behandelt die Verarbeitung von Anfragen über Linked Open Data (LOD). Wie in der Literatur bereits diskutiert wurde, lässt sich der losen Zergliederung innerhalb des "Web of Data" und dessen Datenquellen durch moderne föderierte Verarbeitungsstrategien bezüglich eingehender Anfragen begegnen. Dieser Ansatz ist jedoch umso mehr abhängig von aktuellen statistischen Informationen (Datenstatistiken) über sämtliche der benutzten Datenquellen einerseits, und genauen Schätzungen von Kardinalitäten und Selektivitäten andererseits. Da föderierte Datenquellen im Allgemeinen keine Auskunft über die Statistik der von ihnen verwalteten Daten geben, schlagen sich Änderungen an diesen Daten nicht automatisch in den zentralen Datenstatistikkatalogen nieder - die verwalteten Datenstatistiken werden obsolet. In der vorliegenden Arbeit wird die Erweiterung eines RDF-basierten Query-Federators beschrieben, die die Obsoleszenz von zentral verwalteten Datenstatistiken beurteilen und eine gegebenenfalls notwendige Aktualisierung einzelner Datenstatistiken unternehmen können soll. Als Grundlage dazu dient die Beobachtung auftretender Fehler in der Kardinalitätsschätzung ausgewerteter Queries. Eine Evaluation des Systems wird anschließend beschrieben. Die Ergebnisse zeigen die prinzipielle Richtigkeit der zugrundeliegenden Überlegungen, die praktische Anwendbarkeit kann jedoch nicht überzeugend demonstriert werden. Die Wiederverwendung der entwickelten Systemerweiterung für vielversprechendere Ansätze erscheint jedoch möglich und wird diskutiert.
Die Magnetresonanztomographie (MRT) ist ein bildgebendes Verfahren, das in der medizinischen Diagnostik zur Darstellung von Struktur und Funktion der Gewebe und Organe im Körper eingesetzt wird. Diffusionsgewichtete Bildgebung ist ein spezielles bildgebendes MRT Verfahren, welches es ermöglicht, nichtinvasiv und in vivo Einblicke in den Verlauf von Nervenbahnen zu geben. Es erlaubt damit, Aussagen über die Struktur und Integrität dieser Verbindungsbahnen zu treffen. Im klinischen Alltag findet diese Modalität Anwendung in der neurochirurgischen Operationsplanung, wie beispielsweise bei Resektionen von Läsionen, die in wichtigen funktionellen oder tiefiegenden Arealen liegen, wo die Beschädigungsgefahr wichtiger Nervenbahnen gegeben ist. Kommt es im Zuge der Operation zu einer etwaigen Durchtrennung von wichtigen Bahnen, kann dies zu erheblichen funktionellen Beeinträchtigung führen. Diese Arbeit gibt eine Einführung in die MRT-Bildgebung und wird sich im Speziellen mit der Aufnahme von diffusionsgewichtetenMRT- Daten beschäftigen. Generell besteht das Problem, dass das Auflösungsvermögen von Diffusionsdaten relativ niedrig ist in Relation zum Aufnahmeobjekt. So werden in einem einzelnen 3D Volumenelement, auch Voxel genannt, eine Reihe von Nerventrakten abgebildet, die sich beispielsweise kreuzen, aufsplitten oder auffächern. Hier besteht die Notwendigkeit, diese Voxel zu identifizieren und zu klassifizieren, um auch in schwierigen Regionen aus den lokalen Diffusionsdaten die Verläufe von Nervenbündeln möglichst exakt zu rekonstruieren. Diese Rekonstruktion wird durch die sogenannte Traktographie realisiert. Im Zuge dieser Arbeit werden wir existierende Rekonstruktionsmethoden, wie beispielsweise diffusion tensor imaging (DTI) und q-ball imaging (QBI) auf synthetisch generierten Daten untersuchen. Wir werden herausstellen, welche wertvollen Informationen die rekonstruierten Daten liefern können und welche individuellen Einschränkungen es gibt. QBI rekonstruiert eine orientation distribution function (ODF), deren lokalen Maxima in vielen Fällen mit den Richtungen der Nervenbahnen übereinstimmen. Wir bestimmen diese lokalen Maxima. Auf den Metriken des Diffusionstensors wird eine neue voxelbasierte Klassifikation vorgestellt. Die Vereinigung von voxelbasierter Klassifikation, lokalen Maxima und globalen Informationen aus der Nachbarschaft eines Voxels ist der Hauptbeitrag dieser Arbeit und führt zur Entwicklung eines globalen Klassifikators, der mögliche Traktographie-Richtungen vorgibt und asymmetrische Konfigurationen ermittelt. Im Anschluss wird ein eigener Traktographie-Algorithmus vorgestellt, der auf den Ergebnissen des globalen Klassifikators arbeitet und somit auch Aufsplittungen von Nervenbahnen abbilden kann.
Computer unterstützen Menschen zunehmend in Alltagssituationen. Ihre fortwährend voranschreitende Miniaturisierung erlaubt die Erschließung weiterer Einsatzmöglichkeiten und trägt zu einer wachsenden Bedeutung und Verbreitung in der Gesellschaft bei. Längst sind solche Systeme in vielerlei Alltagsgegenständen Realität und ihre Mobilität spielt eine immer größer werdende Rolle: von Laptops über Smartphones und Tablets hin zu am oder im Körper tragbaren Systemen (engl. wearable computing) wie Hörgeräte und Pulsuhren, unterstützen sie den Menschen aktiv und kontextsensitiv in ihrem Alltag.
Als ein Teilgebiet des wearable computing gilt die Entwicklung von Head-mounted Displays (kurz HMD). Das sind Helme oder Brillen die dem Benutzer auf einer oder mehreren Darstellungsflächen computergenerierte Bilder (virtual reality) oder mit Zusatzinformationen versehene Aufnahmen der Umgebung (enhanced reality) präsentieren. Aktuell sind HMDs welche LC-Displays nutzen weit verbreitet, innovativer sind solche welche das Bild direkt auf die Netzhaut des Benutzers projizieren. Neuste Entwicklungen deuten auf weitere Miniaturisierung des Konzepts, hin zu Kontaktlinsen mit integriertem Bildschirm. Für die Sammlung dazustellender Daten werden eine Vielzahl Sensoren hinzugezogen, wie Head-Tracker oder GPS. Auch durch Erweiterungen im Bereich der Bedienbarkeit - zum Beispiel durch Spracheingabe über ein Mikrofon - und die Steigerung des Immersionsgefühls - zum Beispiel durch stereoskopische Bilder oder integrierte Kopfhörer - wandeln sich HMDs von einfachen Anzeigen hin zu stetig besser ausgerüsteten Geräten mit ständig wachsenden Einsatzgebieten. Längst werden HMDs in einer Vielzahl von Feldern benutzt. rnIm Vordergrund dieser Arbeit steht der Entwurf und die Erstellung einer Anwendung für das Betriebssystem Apple iOS 5, als softwaretechnischen Beitrag zur Entwicklung eines HMD auf Basis von Apple-Mobilgeräten mit hochauflösendem Retina Display. Das RollerCoaster2000-Projekt soll zur Darstellung des grafischen Inhalts genutzt werden, aus Gründen einer freien Lizenz, frei zugänglichen Quellcodes sowie einer effizienten OpenGL-ES-Portierung. Dabei soll ein leichter Austausch oder die Erweiterung dieses grafischen Grundgerüsts gegeben sein um die Einsatzmöglichkeiten des HMD zu erhöhen. Über die reine Nutzung als Darstellungsmedium soll die erstellte Anwendung die vielfältigen, sensorischen Fähigkeiten und Vernetzungsmöglichkeiten aktueller Apple-Endgeräte nutzen um mehrere Geräte zu einer Datenbrille zu verbinden und die Kopfbewegungen des Benutzers auszuwerten, in der virtuellen Szene abzubilden und zwischen den Geräten synchron zu halten. Zur leichten Orientierung des Benutzers während der Bedienung soll außerdem auf die integrierte Gerätekamera zugegriffen werden.
Um die Realisierung einer den Kriterien gerecht werdenden Anwendung zu ermöglichen wird in dieser Arbeit in den Bereich der iOS-Entwicklung eingeführt. Zuerst erfolgt eine Einleitung in die historischen Entwicklungen auf dem Gebiet der mobilen Entwicklung für Apple-Mobilgeräte, von der Entstehung des objektorientierten Paradigmas hin zur heutigen Ausprägung des iOS-SDK. Letzteres ergibt sich dabei aus der Summe einer Vielzahl, stark kohärenter Komponenten. Dazu gehören die Grundsteine einer jeden iOS-Applikation, die objektorientierte, dynamische und streng typisierte Sprache Objective-C sowie den durch Apple an die eigenen Bedürfnisse angepassten LLVM-Compiler und die von Apple angepasste LLVM-Laufzeitumgebung. Zudem sind das Cocoa Framework und die Entwicklungsumgebung Xcode, die zur Erstellung mobiler Anwendungen von Apple entwickelt wurden, Gegenstand dieser Arbeit. Anhand der gewonnenen Kenntnisse im Bereich der mobilen Anwendungsentwicklung werden Anforderungen an eine Anwendung für ein HMD erhoben und die Erstellung einer, diesen Kriterien genügenden, Software beschrieben.
Prozedurale Synthese, das Erzeugen von Computerspielinhalten durch die Verwendung von pseudo-zufälligen Algorithmen, ist ein Themenbereich mit wachsendem Interesse in wirtschaftlichen und akademischen Kreisen, verdankt sowohl durch ihre Eignung zur Senkung von Entwicklungszeit und -kosten als auch durch die Möglichkeit, prozedurale Synthese zur Erzeugung von interessanten und einmaligen Spielwelten einzusetzen. Obwohl viele aktuelle Computerspiele prozedural generierte Inhalte verwenden, gebrauchen nur wenige diese Methoden zur Erzeugung realistischer Weltraum-Spielumgebungen, und die Umsetzbarkeit der Anwendung prozeduraler Synthese zur Entwicklung eines solchen Spiels wurde untersucht. Aktuelle Modelle aus der Forschung wurden verwendet, um eine in Echtzeit laufende astronomische Simulation in Python zu entwickeln, welche Stern- und Planetenobjekte in einer fiktiven Galaxie prozedural erzeugt, die als Spielwelt eines einfachen 2DWeltraumspiels dient, in welchem der Spieler nach intelligentem Leben suchen muss.
Zur Entwicklung von Webanwendungen und Webseiten existieren viele verschiedene Technologien und Konzepte. Jede dieser Technologien implementiert bestimmte Anforderungen, wie z.B. das Erzeugen von Inhalten oder die Kommunikation zwischen Client und Server. Verschiedene Konzepte helfen, diese Technologien innerhalb einer Webanwendung zusammenzufügen. Nicht zuletzt Architekturstile und -muster gehören zu diesen Konzepten. Die Diplomarbeit beschreibt einen Ansatz zur Erstellung einer Taxonomie dieser Technologien und Konzepte unter Zuhilfenahme der freien Enzyclopädie Wikipedia, im speziellen der Kategorie "Web-Application Framework". Unser 101companies Projekt benutzt Implementationen, um die einem Web-Application-Framework zugrunde liegenden Technologien zu identifizieren und zu klassifizieren. Innerhalb des Projekts werden Taxonomien und Ontologien mit Hilfe dieser Klassifikationen erstellt. Zusätzlich beschreibt die Ausarbeitung, wie nützliche Web-Application-Frameworks mit der Hilfe von Wikipedia priorisiert werden. Abschließend enthält die Diplomarbeit auch die Dokumentation der betreffenden Implementationen.
The paper deals with a specific introduction into probability propagation nets. Starting from dependency nets (which in a way can be considered the maximum information which follows from the directed graph structure of Bayesian networks), the probability propagation nets are constructed by joining a dependency net and (a slightly adapted version of) its dual net. Probability propagation nets are the Petri net version of Bayesian networks. In contrast to Bayesian networks, Petri nets are transparent and easy to operate. The high degree of transparency is due to the fact that every state in a process is visible as a marking of the Petri net. The convenient operability consists in the fact that there is no algorithm apart from the firing rule of Petri net transitions. Besides the structural importance of the Petri net duality there is a semantic matter; common sense in the form of probabilities and evidencebased likelihoods are dual to each other.
Diese Arbeit setzt sich kritisch mit dem Google Kalender auseinander. Zu diesem Zweck werden die angebotenen Funktionen des Kernprodukts auf Aspekte des Datenschutzes untersucht. Es wird zum einen ermittelt, in welchem Umfang das Produkt die Privatsphäre der Nutzer verletzen kann, zum anderen werden die dadurch entstehenden Risiken aufgezeigt. Des Weiteren werden die Funktionen im Hinblick auf ihren Nutzen, sowohl für den Dienstanbieter Google, als auch für den Nutzer betrachtet. Eine eingehende Analyse zeigt die kritischen Stellen auf, an denen zwischen Datenschutz und Funktionalität entschieden werden muss. Die Lösungsmöglichkeiten, um die aufgezeigten Risiken mit Mechanismen der IT-Sicherheit zu minimieren, werden im Folgenden vorgestellt, diskutiert und in Bezug auf ihre Umsetzbarkeit untersucht. Die einzelnen Lösungsansätze werden daraufhin in einem Sicherheitskonzept zusammengefasst und weitere Anforderungen erläutert. Abschließend soll ein Addon für Firefox erstellt werden, welches das beschriebene Lösungskonzept umsetzt, um so die bestehenden Schwachstellen bestmöglich zu beheben. Letztlich wird der Funktionsumfang des Addons mit technischer Umsetzung im Einzelnen erläutert.
Im Rahmen dieser Masterarbeit wird der Spanning Tree Simulator um diverse Funktionalitäten erweitert. Dieser wurde in der Bachelorarbeit [Jan10b] von Andreas Sebastian Janke im Jahr 2010 entwickelt. Mithilfe eines Conguration-Files kann ein beliebiges Netzwerk ins Programm geladen und grafisch dargestellt werden. Solch ein Configuration-File muss in XML geschrieben werden und repräsentiert ein Netzwerk bestehend aus Switches und Hosts. Anschließend kann auf diesem Netzwerk der Spanning Tree Algorithmus IEEE 802.1D laufen gelassen werden. Anders als in der Bachelorarbeit sind jetzt nur noch die Switches als Threads realisiert, um weniger Systemressourcen zu benötigen. Nach Abschluss des Algorithmus entsteht ein Spannbaum, der die Schleifen im vorliegenden Netzwerk aufbricht. Dies ist notwendig, da diese beim Verschicken von Nachrichten zu einer stetig steigenden Auslastung des Netzes führen können.
Mittels facettierter Suche lassen sich große, unbekannte Datensätze einfach und gezielt erkunden. Bei der Implementation von Anwendungen für Smartphones ist zu beachten, dass im Gegensatz zu Desktop-Anwendungen ein kleinerer Bildschirm und nur beschränkte Möglichkeiten zur Interaktion zwischen Benutzer und Smartphone zur Verfügung stehen. Diese Beschränkungen können die Benutzbarkeit einer Anwendung negativ beeinflussen. Mit FaThumb und MobileFacets existieren zwei mobile Anwendungen, die die facettierte Suche umsetzen und verwenden, aber nur MobileFacets ist für gegenwärtige Smartphones mit Touchscreenbildschirm ausgelegt.
Jedoch bietet FaThumb eine neuartige Facettennavigation, die durch MFacets in dieser Arbeit für aktuelle Smartphones neu realisiert wird. Außerdem befasst sich diese Arbeit mit der Durchführung einer summativen Evaluation zwischen den beiden Anwendungen, MFacets und MobileFacets, bezüglich der Benutzbarkeit und präsentiert die ausgewerteten Ergebnisse.
Particle Swarm Optimization ist ein Optimierungsverfahren, das auf der Simulation von Schwärmen basiert.
In dieser Arbeit wird ein modifizierter Algorithmus, der durch Khan et al. 2010 eingeführt wurde, zur Schätzung der lokalen Kamerapose in 6DOF verwendet. Die Poseschätzung basiert auf kontinuierlichen Farb-und Tiefendaten, die durch einen RGB-D Sensor zur Verfügung gestellt werden. Daten werden von unterschiedlichen Posen aufgenommen und als gemeinsames Model registriert. Die Genauigkeit und Berechnungsdauer der Implementierung wird mit aktuellen Algorithmen verglichen und in unterschiedlichen Konfigurationen evaluiert.
Diese Bachelorarbeit beschreibt den Entwurf und die Implementierung eines Übersetzungsprogramms für die Android Plattform. Die Besonderheit der Anwendung ist die selbstständige Texterkennung mit Hilfe des Kamerabildes. Diese Methode soll den Übersetzungsvorgang in bestimmten Situationen erleichtern und beschleunigen. Nach einer Einführung in die Texterkennung, die ihr zugrundeliegenden Technologien und das Betriebssystem Android, werden sinnvolle Anwendungsmöglichkeiten vorgestellt. Anschließend wird ein Entwurf der Anwendung erstellt und die Implementierung erläutert. Zum Schluss wird eine Evaluation durchgeführt, dessen Absicht das Aufzeigen von Stärken und Schwächen der Anwendung ist.
Die vorliegende Fallstudie entstand als Untersuchungsobjekt zu einer Bachelorarbeit und wurde nach der eXperience Fallstudienmethodik erstellt. Ziel der Bachelorarbeit war die Identifizierung von Nutzenaspekten in diesem konkreten Fall. Im Anwenderunternehmen DOCHOUSE wurde hier eine Schnittstelle zwischen dem internen CRM-System und einem kollaborativen System für den externen Zugriff eingeführt.
Ein besonderer Dank geht in diesem Zusammenhang an Herr Wolfgang Brugger (Geschäftsführer DOCHOUSE GmbH), der die Erstellung der Fallstudie motiviert hat und die FG BAS mit deren Durchführung betraute. Die Fallstudie wurde im Winter 2011 von dem Studenten Martin Surrey und Roland Diehl, wissenschaftlicher Mitarbeiter der Forschungsgruppe, erhoben.
The Multimedia Metadata Ontology (M3O) provides a generic modeling framework for representing multimedia metadata. It has been designed based on an analysis of existing metadata standards and metadata formats. The M3O abstracts from the existing metadata standards and formats and provides generic modeling solutions for annotations, decompositions, and provenance of metadata. Being a generic modeling framework, the M3O aims at integrating the existing metadata standards and metadata formats rather than replacing them. This is in particular useful as today's multimedia applications often need to combine and use more than one existing metadata standard or metadata format at the same time. However, applying and specializing the abstract and powerful M3O modeling framework in concrete application domains and integrating it with existing metadata formats and metadata standards is not always straightforward. Thus, we have developed a step-by-step alignment method that describes how to integrate existing multimedia metadata standards and metadata formats with the M3O in order to use them in a concrete application. We demonstrate our alignment method by integrating seven different existing metadata standards and metadata formats with the M3O and describe the experiences made during the integration process.
Standards haben längst Einzug in das Gebiet der Informatik gehalten. Verschiedenste Organisationen beschäftigen sich mit der Beschließung von Normen für die standardisierte Lösung von Problemen in der Informatik. Ein wichtiger Teilaspekt ist die Spezifizierung von Datenformaten, die die Interoperabilität von Programmen sichern kann. Dabei existieren viele verschiedene Schemasprachen, die auf unterschiedliche Anforderungen ausgelegt sind, und mit deren Hilfe die Menge der konformen Dokumente beschrieben werden kann. Die Kombination mehrerer Schemasprachen ist sinnvoll, da die Mächtigkeit einer Sprache oftmals nicht ausreicht, um die Anforderungen zu erfassen. So auch im Fall der, von IMS entwickelten, Spezifikation Common-Cartridge. Das Common-Cartridge-Format beschreibt valide Zip-Pakete, die dazu genutzt werden können, verschiedene Lernobjekte zu aggregieren und als zusammenhängende Lerneinheit in eine Lernplattform zu importieren. Die Spezifikation benutzt bereits vorhandene und bewährte Spezifikationen, um Teile gültiger XML-Dokumente zu beschreiben. Diese sind selbst Teil eines Pakets und können Referenzen enthalten, die den Inhalt mit der Paketstruktur in Verbindung bringen. Dabei wird das Common-Cartridge-Format durch ein sogenanntes Domain-Profile erfasst. Ein solches erlaubt die Anpassung einer oder mehrerer Standards bzw. Spezifikationen, um die Bedürfnisse einer bestimmten Domäne abzudecken. Zudem können sogenannte Testregeln definiert werden, die für die Bestimmung der für ein Datenpaket auszuführenden Testaufgaben genutzt werden können. Letztlich kann die automatische Erstellung eines Testsystems veranlasst werden, welches diese Aufgaben ausführen kann. Somit stellt sich die Frage, ob ein Domain-Profile ebenso dazu eignet ist, die Anforderungen anderer paket-basierter Datenformate zu erfassen, und ob die nötigen Änderungen an den unterstützenden Tools vorgenommen werden können. Schließlich würde dies die Überprüfung gestellter Anforderungen ermöglichen.
Diese Arbeit soll sich mit einer beispielhaften Anwendung des Verfahrens befassen, um diese Fragen nach Möglichkeit zu beantworten. Dazu soll der verwendete Ansatz auf die Datenformate übertragen werden, die Teil der Spezifikation des Virtual Company Dossiers - VCD - sind. Diese legen ebenso paket-basierte Formate fest, die innerhalb eines elektronischen Ausschreibungsprozesses verwendet werden. Sie ermöglichen die Erfassung von Evidenzen, die die notwendige Qualifikation eines Bewerbers, sowie die Erfüllung der, mit dem Ausschreibungsverfahren verbundenen Kriterien nachweisen.
Im praktischen Teil werden somit zuerst die Ähnlichkeiten der beiden Formate herausgearbeitet. Diese dienten der Identifizierung abstrakter Anforderungen, die, soweit möglich, mit den gleichen Formalismen festgehalten wurden. Dabei wurden Änderungen an den unterstützenden Tools vorgenommen, um die Erfassung aller VCD-spezifischen Anforderungen zu ermöglichen. So wurden das Format, und das Tool zur Erstellung von Applikationsprofilen, angepasst. Schließlich erfolgten Änderungen am generischen Testsystem, welches zur Herleitung konkreter Testsysteme genutzt wird. Letztlich stellte sich heraus, dass ähnliche Anforderungen bestehen, und die unterstützenden Tools in einer Weise angepasst werden konnten, die die Menge der erfassbaren Anforderungen erweitert. Da der Hintergrund der beteiligten Spezifikationen sich zudem signifikant unterscheidet, ist davon auszugehen, dass das Verfahren in einem weiten Spektrum von Anwendungsfällen eingesetzt werden kann.
In einigen Bereichen des automatischen Theorembeweisens benötigt man das Wissen, dass Konstanten paarweise ungleich sind. Um dieses zu erreichen, fügt man Fakten, die dieses Wissen explizit angeben, zu den Wissensbasen hinzu. Wenn man diese Eigenschaft für viele Konstanten definieren muss, wird die Klauselmenge der Wissensbasen schnell sehr umfangreich und wegen der vielen - eigentlich irrelevanten - Ungleichheiten kann man den Blick auf das eigentlich formalisierte Problem verlieren. Da die Größe der Wissensbasis in vielen Fällen Einfluss auf die Geschwindigkeit hat, ist es auch aus diesem Grund sinnvoll, die Anzahl dieser Fakten gering zu halten. Die unique name assumption erlaubt auf die Einführung der Ungleichheits-Fakten zu verzichten, da sie festlegt, dass zwei Konstanten genau dann gleich sind, wenn ihre Interpretationen identisch sind. Auf diesem Wege lässt sich das Aufblähen von Wissensbasen mit Ungleichheits-Fakten verhinde. In dieser Arbeit wird der E-Hyper-Tableau-Kalkül erweitert um die unique name assumption nutzen zu können. Der in dieser Arbeit entwickelte Kalkül ist vollständig und korrekt, was durch formale Beweise in dieser Arbeit belegt wird. Um zu zeigen, dass die native Behandlung von Ungleichheiten dem Einführen von Ungleichheits-Fakten überlegen ist, wird der Kalkül in den Theorembeweiser E-KRHyper implementieren. Der Theorembeweiser E-KRHyper ist ein etabliertes System und basiert in seiner ursprünglichen Version auf dem E-Hyper-Tableau. Mit systematischen Tests wird dann gezeigt, dass die entwickelte Implementierung des erweiterten Kalküls nie schlechter ist, als der original E-KRHyper, diesen aber in einigen Fällen in der Ausführungsgeschwindigkeit deutlich übertrifft.
Hinsichtlich der rapide anwachsenden Menge an jährlich produzierten Daten und der wachsenden Akzeptanz des Enterprise 2.0, müssen sich Unternehmen immer stärker mit dem Management ihrer Daten befassen. Inhalt, der unkoordiniert erstellt und abgelegt wird, kann zu Datensilos führen (Williams & Hardy 2011, S.57), welche lange Suchzeiten, unzugängliche Daten und in der Konsequenz monetäre Verluste hervorrufen können. Das "sich ausdehnende digitale Universum" zwingt Unternehmen zur Entwicklung neuer Archivierungslösungen und Records Management Richtlinien (Gantz et al. 2007, S.13). Enterprise Content Management (ECM) ist das Untersuchungsfeld, welches sich mit diesen Anforderungen beschäftigt. Es ist im wissenschaftlichen Kontext des Enterprise Information Management angesiedelt. Ziel dieser Bachelor-Arbeit ist es, herauszufinden in welchem Umfang aktuelle Enterprise Content Management Systeme (ECMS) diese neuen Anforderungen, vor allem die Archivierung von Daten aus dem Enterprise 2.0, unterstützen. Zu diesem Zweck wurden drei Szenarien erstellt, mit deren Hilfe zwei verschiedene Arten von ECMS (ein Open Source - und ein proprietäres System), ausgewählt auf Grundlage einer kurzen Marktübersicht, evaluiert werden sollen. Die Anwendung der Szenarien zeigt, dass sich die Software Anbieter über die Probleme der Industrie im Klaren sind: beide Programme stellen Funktionen zur Archivierung von Daten aus online Teamarbeit sowie Möglichkeiten zum Records Management zur Verfügung. Aber die Integration beider Funktionalitäten ist nicht oder nur unvollständig gelöst. An dieser Stelle werden neue Fragen - wie z.B. "Welche im Enterprise 2.0 anfallenden Daten besitzen die Wichtigkeit, als "Business Record" gespeichert zu werden?" - aufgeworfen und müssen in zukünftiger Forschung betrachtet werden.
Dualizing marked Petri nets results in tokens for transitions (t-tokens). A marked transition can strictly not be enabled, even if there are sufficient "enabling" tokens (p-tokens) on its input places. On the other hand, t-tokens can be moved by the firing of places. This permits flows of t-tokens which describe sequences of non-events. Their benefiit to simulation is the possibility to model (and observe) causes and effects of non-events, e.g. if something is broken down.
Die Messung der Produktivität von Dienstleistungen ist trotz zunehmender Relevanz immer noch ein wenig durchdrungenes Forschungsfeld. Ursachen hierfür sind vor allem in den besonderen Merkmalen von Dienstleistungen - Immaterialität und Integrativität - zu suchen. Eine typische Dienstleistung der B2B Softwarebranche ist die Anpassung von Systemen an die Bedürfnisse des Kunden - das sogenannte Customizing. Die Ausschöpfung des Customizing-Potentials von Standardsoftware und -produkten und eine stärkere Einbeziehung des Kunden in Innovationsprozesse werden jedoch dadurch erschwert, dass die Produktivität dieser Dienstleistung nur unzureichend mess- und somit bewertbar zu sein scheint.
Der vorliegende Beitrag beschreibt die Entwicklung eines Modells zur Messung der Produktivität von Dienstleistungen auf der Basis unterschiedlicher Vorstudien im Rahmen des CustomB2B Projektes an der Universität Koblenz-Landau.
Cloud-Computing ist aktuell ein besonderer Trend in der IT-Branche. ERP-Systeme sind in den heutigen Unternehmen ebenfalls nicht mehr wegzudenken. Durch die Analyse ausgewählter Literatur wird aufgezeigt, dass Cloud-Computing als Betriebsmodell für ERP-Systeme besonderer Untersuchung bedarf, da beim Zusammenspiel dieser Technologien noch unterschiedliche Herausforderungen geklärt werden müssen. Darauf aufbauend werden mit Hilfe von drei verschiedenen Praxispartnern Fallstudien zu deren Cloud-ERP-Lösungen erstellt, um in einem nächsten Schritt die theoretische Literatur mit den praktischen Ergebnissen zu vergleichen.
Ziel dieser Arbeit ist es mit Hilfe der Forschungsfragen, differenzierte Nutzenaspekte von Cloud-ERP-Lösungen aufzudecken und zu erklären, wie die Theorie mit praktischen Erfahrungswerten von Experten übereinstimmt. Durch die Fallstudien wird deutlich, dass sich die drei unterschiedlichen Cloud-ERP-Anbieter vor allem durch den Umfang ihrer Software und die Unternehmensgrößen der Zielgruppen im Markt differenzieren. Zusätzlich zeigt sich im Analyseteil und Fazit der Arbeit, dass über die in der Theorie identifizierten Nutzenaspekte hinaus, zusätzliche Nutzenaspekte durch die Kombination von Cloud-ERP-Lösungen generiert werden können und dass es aktuell schon eine spezielle Zielgruppe für Cloud-ERP-Lösungen gibt. Für die Zukunft bleibt abzuwarten, wie sich der Cloud-ERP-Markt weiterentwickeln wird und welche weiteren Funktionalitäten in die Cloud ausgelagert werden können, sodass sich On-Demand ERP-Systeme zu einer Konkurrenz von On-Premise-Lösungen entwickeln können.