Refine
Year of publication
Document Type
- Master's Thesis (190) (remove)
Keywords
- Augmented Reality (3)
- Computersimulation (3)
- Datenschutz (3)
- Internet of Things (3)
- virtual reality (3)
- Beschaffung (2)
- E-Partizipation (2)
- E-participation (2)
- Simulation (2)
- Sport (2)
- simulation (2)
- 2019 European Parliament Election (1)
- 360 Grad (1)
- 360 degree (1)
- 3D-Scan (1)
- 3D-Visualisierung (1)
- API analysis (1)
- API-Analyse (1)
- AR (1)
- Adhäsion (1)
- Agentenorientiertes Software Engineering (1)
- Akzeptanz (1)
- Alex Bernstein (1)
- Analysis of social platform (1)
- Articles for Deletion (1)
- Artificial Intelligence (1)
- Association Rules (1)
- Auslandsaufenthalt (1)
- Auslassung (1)
- Ausrichtungswerkzeug (1)
- Austenitischer Stahl (1)
- BRDF (1)
- Bakterien (1)
- Bedarfsforschung (1)
- Belief change, concept contraction, EL (1)
- Biofilm (1)
- Biofouling (1)
- Biometric Authentication (1)
- Bioreaktor (1)
- Blog marketing (1)
- Breaking (1)
- Breeding tree selection (1)
- Bruchsimulation (1)
- Business Intelligence (1)
- Business Process Management Recommender Systems Survey (1)
- Business intelligence (1)
- Bürgerbeiteiligung (1)
- CSCA (1)
- Case Study Analysis (1)
- Challenges (1)
- Cicero (1)
- Classification (1)
- Clustering (1)
- Computer Supported Cooperative Work (1)
- Computergrafik (1)
- Computergraphik (1)
- Computervisualistik (1)
- Corvus frugilegus (1)
- Criteria Matrix (1)
- DMN (1)
- DTI (1)
- Data Mining (1)
- Data analysis (1)
- Data flow analysis (1)
- Datenanalyse (1)
- Datenaustausch (1)
- Datenfluss (1)
- Datenflussanalyse (1)
- Datenflussmodell (1)
- Demoskopie (1)
- Developer profiling (1)
- Diffusionsbildgebung (1)
- Digital Rights Management (1)
- Distanzfeld (1)
- Dokumentation (1)
- Dynamische Analyse (1)
- EU (1)
- Echtzeit (1)
- Echtzeit-Interaktion (1)
- Echtzeitphysik (1)
- Effectiveness (1)
- Einkauf (1)
- Entwickler Profil (1)
- Epifluoreszenzmikroskopie (1)
- Eyetracking (1)
- Fahrerassistenzsystem (1)
- Fahrverhalten (1)
- Feature Modeling (1)
- Fehlertypen (1)
- Fiber Tracking (1)
- Fingerprint Recognition (1)
- Folie (1)
- Fracturing (1)
- Französisch (1)
- Französisch als L1 (1)
- Französisch als L2 (1)
- Freilandlabor (1)
- Fremdsprachenunterricht (1)
- Function Words (1)
- GDS (1)
- GMI-Controlling (1)
- GPU (1)
- Gebrauchstauglichkeit (1)
- Gehirn (1)
- Geschäftsmodellinnovation (1)
- Gewässerchemie (1)
- Gonioreflectometer (1)
- Grounded Theory (1)
- Handsfree editing (1)
- Herausforderung (1)
- Human resources management (1)
- I-messages (1)
- IBM Bluemix (1)
- IceCube (1)
- Implizite Oberfläche (1)
- Indirekte Beleuchtung (1)
- Informatik (1)
- Innovation (1)
- InstaHub (1)
- Interferenz <Linguistik> (1)
- Interimsprache (1)
- International organization (1)
- Interoperability (1)
- Interoperabilität (1)
- Interpersonale Kommunikation (1)
- IoT (1)
- Kinematik (1)
- Klassifikation (1)
- Knieverletzungen (1)
- Knowledge Engineering (1)
- Kundenmanagement (1)
- Kunststoff (1)
- Lernort (1)
- Liaison (1)
- MSR (1)
- Markerfunktion (1)
- Maschinelles Lernen (1)
- Massenkommunikation (1)
- Material Point Method (1)
- Matting (1)
- MeVisLab (1)
- Media Asset Management (1)
- Mehragentensystem (1)
- Menschenmengen-Evakuierung (1)
- Meteor (1)
- Mikrocontroller (1)
- Mikroskopie (1)
- Mindestlohn (1)
- Minimum wage (1)
- Mitral Valve (1)
- Mitralklappe (1)
- Mixed Reality (1)
- Mobile BI (1)
- Mobile Business Intelligence (1)
- Mobile Commerce (1)
- Mobile Parking (1)
- Mobile Payment (1)
- Mobile Ticketing (1)
- Mobilkommunikation (1)
- Modell (1)
- Modellfahrzeug (1)
- Motivation (1)
- Multi-Agenten-Systeme (1)
- Multimediale Assets (1)
- Nachhaltigkeit (1)
- Natural Image Matting (1)
- Natural Language Processing (1)
- Netlogo (1)
- Netzwerkmanagement (1)
- Neutino (1)
- Nutzerzufriedenheit (1)
- ONDEX (1)
- OPD-SHRM (1)
- OVTK (1)
- OWL (1)
- Ontologie <Wissensverarbeitung> (1)
- OpenVDB (1)
- Opinion mining (1)
- Organizational Change (1)
- Orientierungsstufe (1)
- PEPPOL (1)
- Pan European Public Procurement OnLine (1)
- Pfadverfolgung (1)
- Physiksimulation (1)
- Planspiel 2.0 (1)
- Point Rendering (1)
- Political Communication (1)
- Politische Kampagne (1)
- Politische Meinungsbildung (1)
- Polymere (1)
- Position Based Dynamics (1)
- Prozessmanagement (1)
- Punktrendering (1)
- Raman-Spektroskopie (1)
- Raumplanung (1)
- Raytracing (1)
- ReMiP (1)
- Real-Time (1)
- Rechtemanagement (1)
- Recommender Systems, Business Process Modeling, Literature Review (1)
- Reddit (1)
- Reengineering (1)
- Regression (1)
- Requirement-Engineering (1)
- Responsible Research and Innovation (1)
- Reverse Engineering (1)
- Robert P. Abelson (1)
- Robust Principal Component Analysis (1)
- Rook (1)
- STOF Model (1)
- Sand (1)
- Sattelkraftfahrzeug (1)
- Sattelzug (1)
- Schnee (1)
- Segmentation (1)
- Segmentierung (1)
- Semantic Web (1)
- Semantisches Wiki (1)
- Sensing as a Service (1)
- Service identification (1)
- Service-Identifizierung (1)
- Service-orientierte Architektur (1)
- Serviceorientierte Architektur (1)
- Shattering (1)
- Sicherheit (1)
- Sicherheitsanforderungen (1)
- Software (1)
- Software Engineering (1)
- Software Repositories (1)
- Software migration (1)
- Software-Migration (1)
- Softwaretest (1)
- Solutions (1)
- Sonorisierung (1)
- Sozialwissenschaftliche Simulation (1)
- Spaß (1)
- Speaker Recognition (1)
- Spektroskopie (1)
- Sports (1)
- Sprechtherapie (1)
- Statische Analyse (1)
- Statistical Shape Model (1)
- Supply Chain Management (1)
- Sustainability (1)
- Technology Acceptance Model (1)
- Testen (1)
- Text Analysis (1)
- Text Mining (1)
- Text classification (1)
- Tool Evaluation (1)
- Tracking (1)
- USB (1)
- Ultraschall (1)
- Ultrasound (1)
- Umfrage in Koblenz (1)
- Unterricht (1)
- VCD (1)
- Vegetation distribution (1)
- Verantwortung (1)
- Verbraucherforschung (1)
- Verification (1)
- Verkehrssprache (1)
- Videospiele (1)
- Virtual Company Dossier (1)
- WEB (1)
- WSDL (1)
- Web 2.0 (1)
- Web Analytics (1)
- Web Analytics Framework (1)
- Web Mining (1)
- Web Services (1)
- Web log (1)
- Weblog (1)
- Wiki (1)
- Wikipedia (1)
- World Wide Web 2.0 (1)
- Wärme (1)
- XML (1)
- You-messages (1)
- Zerbrechen (1)
- adhesion (1)
- bacteria (1)
- biofilm (1)
- biomass (1)
- bioreactor (1)
- blockchain (1)
- cognitive load (1)
- computer games (1)
- crowd evacuation (1)
- cultural dimensions (1)
- data (1)
- data sharing (1)
- data warehouse (1)
- distributed information systems (1)
- distributed ledger (1)
- e-service quality (1)
- eGovernment (1)
- eSourcing (1)
- flow (1)
- framework (1)
- functional web testing tools (1)
- grassland (1)
- healthcare (1)
- heat exchanger (1)
- hybride App (1)
- image warping (1)
- interaktiv (1)
- internet of things (1)
- iot development platforms (1)
- leap motion (1)
- mPayments (1)
- machine learning (1)
- micro-agent (1)
- multi-agent systems (1)
- performance optimization (1)
- physical interaction (1)
- physische Interaktion (1)
- polymer films (1)
- privacy (1)
- psychisches Verhalten (1)
- psychological behavior (1)
- ray tracing (1)
- realtime physics (1)
- revenue management (1)
- rtx (1)
- security (1)
- security requirements (1)
- social simulation (1)
- stainless steel (1)
- stereoscopic rendering (1)
- surface energy (1)
- surface roughness (1)
- survey in Koblenz (1)
- tracking (1)
- vegetation modeling (1)
- videogames (1)
- visualization (1)
- volume rendering (1)
- vulkan (1)
- warp divergence (1)
Institute
- Institut für Computervisualistik (46)
- Fachbereich 4 (34)
- Institut für Management (33)
- Institut für Wirtschafts- und Verwaltungsinformatik (27)
- Institute for Web Science and Technologies (19)
- Institut für Informatik (14)
- Institut für Softwaretechnik (6)
- Fachbereich 1 (1)
- Fachbereich 3 (1)
- Fachbereich 6 (1)
- Institut für Integrierte Naturwissenschaften, Abt. Biologie (1)
- Institut für Kulturwissenschaft (1)
- Institut für Psychologie (1)
- Institut für Sportwissenschaft (1)
- Institut für Umweltwissenschaften (1)
- Institut für naturwissenschaftliche Bildung (1)
- Zentrum für Fernstudien und Universitäre Weiterbildung (1)
Business rules have become an important tool to warrant compliance at their business processes. But the collection of these business rules can have various conflicting elements. This can lead to a violation of the compliance to be achieved. This conflicting elements are therefore a kind of inconsistencies, or quasi incon- sistencies in the business rule base. The target for this thesis is to investigate how those quasi inconsistencies in business rules can be detected and analyzed. To this aim, we develop a comprehensive library which allows to apply results from the scientific field of inconsistency measurement to business rule formalisms that are actually used in practice.
Today, augmented reality is becoming more and more important in several areas like industrial sectors, medicine, or tourism. This gain of importance can easily be explained by its powerful extension of real world content. Therefore, augmented realty became a way to explain and enhance the real world information. Yet, to create a system which can enhance a scene with additional information, the relation between the system and the real world must be known. In order to establish this relationship a commonly used method is optical tracking. The system calculates its relation to the real world from camera images. To do so, a reference which is known is needed in the scene to serve as an orientation. Today, this is mostly a 2D-marker or a 2D-texture. These are placed in the real world scenery to serve as a reference. But, this is an intrusion in the scene. That is why it is desirable that the system works without such an additional aid. An strategy without manipulating the scene is object-tracking. In this approach, any object from the scene can be used as a reference for the system. As an object is far more complex than a marker, it is harder for the system to establish its relationship with the real world. That is why most methods for 3D-object-tracking reduce the object by not using the whole object as reference. The focus of this thesis is to research how a whole object can be used as a reference in a way that either the system or the camera can be moved in any 360 degree angle around the object without loosing the relation to the real world. As a basis the augmented reality framework, the so called VisionLib, is used. Extensions to this system for 360 degree tracking are implemented in different ways and analyzed in the scope of this work. Also, the different extensions are compared. The best results were achieved by improving the reinitialization process. With this extension, current camera images of the scene are given to the system. With the hek of these images, the system can calculate the relation to the real world faster in case the relation went missing.
Web application testing is an active research area. Garousi et al. did a systematic mapping study and classified 79 papers published between 2000-2011. However, there seems to be a lack of information exchange between the scientific community and tool developers.
This thesis systematically analyzes the field of functional, system level web application testing tools. 194 candidate tools were collected in the tool search and screened, with 23 tools being selected as foundation of this thesis. These 23 tools were systematically used to generate a feature model of the domain. The methodology to support this is an additional contribution of this thesis. It processes end user documentation of tools belonging to an examined domain and creates a feature model. The feature model gives an overview over the existing features, their alternatives and their distribution. It can be used to identify trends and problems, extraordinary features, help decision making of tool purchase or guide scientists how to focus research.
The development of a pan-European public E-Procurement system is an important target of the European Union to enhance the efficiency, transparency and competitiveness of public procurement procedures conducted within the European single market. A great obstacle for cross-border electronic procurement is the heterogeneity of national procurement systems in terms of technical, organizational and legal differences. To overcome this obstacle the European Commission funds several initiatives that contribute to the aim of achieving interoperability for pan-European public procurement. Pan European Public Procurement OnLine (PEPPOL) is one of these initiatives that aims at piloting an interoperable pan-European E-Procurement solution to support businesses and public purchasing entities from different member states to conduct their procurement processes electronically.rnrnAs interoperability and inter-connection of distributed heterogeneous information systems are the major requirements in the European procurement domain, and the VCD sub-domain in particular, service-oriented architecture (SOA) seems to provide a promising approach to realize such an architecture, as it promotes loose coupling and interoperability. This master thesis therefore discusses the SOA approach and how its concepts, methodologies and technologies can be used for the development of interoperable IT systems for electronic public procurement. This discussion is enhanced through a practical application of the discussed SOA methodologies by conceptualizing and prototyping of a sub-system derived from the overall system domain of the Virtual Company Dossier. For that purpose, important aspects of interoperability and related standards and technologies will be examined and put into the context of public electronic procurement. Furthermore, the paradigm behind SOA will be discussed, including the derivation of a top-down development methodology for service-oriented systems.
With the emergence of current generation head-mounted displays (HMDs), virtual reality (VR) is regaining much interest in the field of medical imaging and diagnosis. Room-scale exploration of CT or MRI data in virtual reality feels like an intuitive application. However in VR retaining a high frame rate is more critical than for conventional user interaction seated in front of a screen. There is strong scientific evidence suggesting that low frame rates and high latency have a strong influence on the appearance of cybersickness. This thesis explores two practical approaches to overcome the high computational cost of volume rendering for virtual reality. One lies within the exploitation of coherency properties of the especially costly stereoscopic rendering setup. The main contribution is the development and evaluation of a novel acceleration technique for stereoscopic GPU ray casting. Additionally, an asynchronous rendering approach is pursued to minimize the amount of latency in the system. A selection of image warping techniques has been implemented and evaluated methodically, assessing the applicability for VR volume rendering.
Advanced Auditing of Inconsistencies in Declarative Process Models using Clustering Algorithms
(2021)
To have a compliant business process of an organization, it is essential to ensure a onsistent process. The measure of checking if a process is consistent or not depends on the business rules of a process. If the process adheres to these business rules, then the process is compliant and efficient. For huge processes, this is quite a challenge. Having an inconsistency in a process can yield very quickly to a non-functional process, and that’s a severe problem for organizations. This thesis presents a novel auditing approach for handling inconsistencies from a post-execution perspective. The tool identifies the run-time inconsistencies and visualizes them in heatmaps. These plots aim to help modelers observe the most problematic constraints and help them make the right remodeling decisions. The modelers assisted with many variables can be set in the tool to see a different representation of heatmaps that help grasp all the perspectives of the problem. The heatmap sort and shows the run-time inconsistency patterns, so that modeler can decide which constraints are highly problematic and should address a re-model. The tool can be applied to real-life data sets in a reasonable run-time.
Despite the inception of new technologies at a breakneck pace, many analytics projects fail mainly due to the use of incompatible development methodologies. As big data analytics projects are different from software development projects, the methodologies used in software development projects could not be applied in the same fashion to analytics projects. The traditional agile project management approaches to the projects do not consider the complexities involved in the analytics. In this thesis, the challenges involved in generalizing the application of agile methodologies will be evaluated, and some suitable agile frameworks which are more compatible with the analytics project will be explored and recommended. The standard practices and approaches which are currently applied in the industry for analytics projects will be discussed concerning enablers and success factors for agile adaption. In the end, after the comprehensive discussion and analysis of the problem and complexities, a framework will be recommended that copes best with the discussed challenges and complexities and is generally well suited for the most data-intensive analytics projects.
Software systems are often developed as a set of variants to meet diverse requirements. Two common approaches to this are "clone-and-owning" and software product lines. Both approaches have advantages and disadvantages. In previous work we and collaborators proposed an idea which combines both approaches to manage variants, similarities, and cloning by using a virtual platform and cloning-related operators.
In this thesis, we present an approach for aggregating essential metadata to enable a propagate operator, which implements a form of change propagation. For this we have developed a system to annotate code similarities which were extracted throughout the history of a software repository. The annotations express similarity maintenance tasks, which can then either be executed automatically by propagate or have to be performed manually by the user. In this work we outline the automated metadata extraction process and the system for annotating similarities; we explain how the implemented system can be integrated into the workflow of an existing version control system (Git); and, finally, we present a case study using the 101haskell corpus of variants.
The paper is a study focusing on exploring which factors and examining the impact of those factors influencing the entrepreneurial intention among students in the Construction industry, specifically among students of Hanoi Construction University and Hanoi Architecture University. The study also mentions some solution of this findings for entrepreneurship in the Construction field in Vietnam that the author might think of based on this research work for future study. The Theory of planned behavior is used as the theoritical framework for this study. Both qualitative and quantitative methods are employed. The questionaire will be conducted among students of the two universities mentioned above. Then, an exploratory factor analysis (EFA) will performed to test the validity of the constructs. The research findings provide factors and their impact factors influencing the entrepreneurial intention and propose some solutions to improve the entrepreneurship in the Construction field in Vietnam.
Im Rahmen der Masterthesis „Analyse des Managements invasiver gebietsfremder Arten am Beispiel des Roten Amerikanischen Sumpfkrebses (Procambarus clarkii) während und im Anschluss an notwendige Sanierungsarbeiten am Hochwasserrückhaltebecken Breitenauer See östlich von Heilbronn“ wurde das Vorkommen des invasiven Roten Amerikanischen Sumpfkrebses am Breitenauer See umfangreich kartiert. Auch die nahegelegene Sulm mit bekanntem Vorkommen des Signalkrebses sowie das Nonnenbachsystem mit bekanntem Vorkommen des Steinkrebses wurden erfasst. Der Fokus lag auf der Beantwortung dreier Kernfragen. Zunächst wurde untersucht, ob und wie ein dauerhaftes IAS-Management (invasive alien species) des Roten Amerikanischen Sumpfkrebses am Breitenauer See nachhaltig durchgeführt werden kann, um inakzeptable ökologische Effekte zu vermeiden. Die zweite Fragestellung bezog sich auf die Wirksamkeit ergriffener Risikomanagementmaßnahmen während der Ablassaktion des Breitenauer Sees. Abschließend war fraglich, wie sich der Rote Amerikanische Sumpfkrebs verhält, wenn sein besiedeltes Gewässer trockenfällt.
The purpose of this thesis is to explore the sentiment distributions of Wikipedia concepts.
We analyse the sentiment of the entire English Wikipedia corpus, which includes 5,669,867 articles and 1,906,375 talks, by using a lexicon-based method with four different lexicons.
Also, we explore the sentiment distributions from a time perspective using the sentiment scores obtained from our selected corpus. The results obtained have been compared not only between articles and talks but also among four lexicons: OL, MPQA, LIWC, and ANEW.
Our findings show that among the four lexicons, MPQA has the highest sensitivity and ANEW has the lowest sensitivity to emotional expressions. Wikipedia articles show more sentiments than talks according to OL, MPQA, and LIWC, whereas Wikipedia talks show more sentiments than articles according to ANEW. Besides, the sentiment has a trend regarding time series, and each lexicon has its own bias regarding text describing different things.
Moreover, our research provides three interactive widgets for visualising sentiment distributions for Wikipedia concepts regarding the time and geolocation attributes of concepts.
Since the invention of U-net architecture in 2015, convolutional networks based on its encoder-decoder approach significantly improved results in image analysis challenges. It has been proven that such architectures can also be successfully applied in different domains by winning numerous championships in recent years. Also, the transfer learning technique created an opportunity to push state-of-the-art benchmarks to a higher level. Using this approach is beneficial for the medical domain, as collecting datasets is generally a difficult and expensive process.
In this thesis, we address the task of semantic segmentation with Deep Learning and make three main contributions and release experimental results that have practical value for medical imaging.
First, we evaluate the performance of four neural network architectures on the dataset of the cervical spine MRI scans. Second, we use transfer learning from models trained on the Imagenet dataset and compare it to randomly initialized networks. Third, we evaluate models trained on the bias field corrected and raw MRI data. All code to reproduce results is publicly available online.
The erosion of the closed innovation paradigm in conjunction with increasing competitive pressure has boosted the interest of both researchers and organizations in open innovation. Despite such rising interest, several companies remain reluctant to open their organizational boundaries to practice open innovation. Among the many reasons for such reservation are the pertinent complexity of transitioning toward open innovation and a lack of understanding of the procedures required for such endeavors. Hence, this thesis sets out to investigate how organizations can open their boundaries to successfully transition from closed to open innovation by analyzing the current literature on open innovation. In doing so, the transitional procedures are structured and classified into a model comprising three phases, namely unfreezing, moving, and institutionalizing of changes. Procedures of the unfreezing phase lay the foundation for a successful transition to open innovation, while procedures of the moving phase depict how the change occurs. Finally, procedures of the institutionalizing phase contribute to the sustainability of the transition by employing governance mechanisms and performance measures. Additionally, the individual procedures are characterized along with their corresponding barriers and critical success factors. As a result of this structured depiction of the transition process, a guideline is derived. This guideline includes the commonly employed actions of successful practitioners of open innovation, which may serve as a baseline for interested parties of the paradigm. With the derivation of the guideline and concise depiction of the individual transitional phases, this thesis consequently reduces the overall complexity and increases the comprehensibility of the transition and its implications for organizations.
Der Zweck dieser Arbeit ist es, sich auf die kritischen Forschungsherausforderungen und -themen zu konzentrieren, die UI/UX-Designprinzipien umgeben, mit einem Schwerpunkt auf kulturübergreifenden Konzepten aus der Perspektive von E-Learning-Plattformen. Zu diesem Zweck betrachten wir zunächst die kulturellen Dimensionen auf der Grundlage des Hofstede-Rahmens mit dem Ziel, wichtige kulturelle Werte zu identifizieren. Als zweites Ziel der Forschung erleichtert eine Reihe von Kriterien, die so genannte Usability-Heuristik von Nielsen, die Erkennung von Usability Problemen bei der Gestaltung von Benutzeroberflächen (UI). Die Usability-Heuristiken umfassen zehn Variablen, die die Interaktion zwischen dem Benutzer und einem Produkt oder System beeinflussen. Wenn wir uns näher mit
diesen Themen befassen, werden wir in der Lage sein, eine Matrix mit Beziehungen zwischen der heuristischen Bewertung von Nielsen und dem kulturellen Rahmen von Geert Hofstede aufzudecken. Abschließend erörtern wir das mögliche Potenzial kultureller Werte zur Beeinflussung von Benutzeroberflächen für E-Learning-Plattformen. In der Tat gibt es einige Funktionen in E-Learning-Plattformen, die aufgrund der Kultur weniger diskutiert werden, obwohl sie sehr praktisch in die Plattformen integriert werden können.
Kleine und mittelständische Unternehmen stehen durch den permanenten Wandel unserer Wirtschaft [Baumann & Schulte, 2002, S. 5] immer größeren Herausforderungen gegenüber, die sie bewältigen müssen [Bullinger & Buck, 2007]. Um diesen Herausforderungen zu begegnen, muss die Organisation der Geschäftsprozesse innerhalb des Unternehmens effektiv und effizient erfolgen, damit ein möglichst hohes Maß an Transparenz erreicht werden kann.
Um eine effektivere und effizientere Unternehmenssteuerung zu gewährleisten und damit den Unternehmer entlasten zu können, sowie Transparenz zu schaffen, muss der Einsatz von zielgerichteten Methoden zur Schaffung von Kompetenzen im Bereich Prozessmanagement gerade in kleinen und mittelständischen Handwerksunternehmen im Vordergrund stehen. Diese haben aber auf Grund ihrer geringen Größe meist nicht das Know-how und die Ressourcen, sich neben den operativen Aufgaben mit den neuen Strategien der Betriebsführung zu beschäftigen [Kuiper, et al., 2012, S. 107].
Eine Möglichkeit Transparenz zu schaffen liegt in der Erhebung von Kennzahlen. In dieser Arbeit werden verschiedene Kennzahlensysteme betrachtet und ihre Eignung für den Einsatz in kleinen und mittelständischen Unternehmen anhand von definierten Kriterien verglichen. Das Ergebnis dieses Vergleiches zeigt, dass die in der Literatur identifizierten Kennzahlensysteme für kleine und mittelständische Unternehmen nicht deren Anforderungen entsprechen. Die Systeme liefern darüber hinaus nur wenige konkrete Methoden, wie Kennzahlen in KMU erhoben werden können.
Im Zuge dieser Arbeit werden auch kleine und mittelständische Handwerksunternehmen nach deren Nutzung und Wissen in Bezug auf Kennzahlen befragt. Das Ergebnis dieser Befragung zeigt, dass in den meisten Unternehmen nur sehr wenig Wissen in diesem Bereich vorhanden ist.
Auf Grundlage der Ergebnisse der vergleichenden Analyse bestehender Kennzahlensysteme aus dem ersten Teil dieser Arbeit und der Analyse der Unternehmensbefragung, wird im letzten Teil dieser Arbeit ein Vorschlag für ein prozessorientiertes Kennzahlensystem entwickelt und vorgestellt. Dieser Vorschlag für ein Kennzahlensystem ist insbesondere auf die Bedürfnisse von kleinen und mittelständischen Handwerksunternehmen ausgerichtet. Aber auch mit diesem System können nicht alle Schwierigkeiten die kleine und mittelständische Unternehmen bei der Arbeit mit Kennzahlen haben, eliminiert werden. Das System gibt eine strukturierte Vorgehensweise vor, und erläutert konkrete Maßnahmen, die zur Überwindung von Barrieren bei der effektiven Arbeit mit Kennzahlen, durchgeführt werden können.
The thesis develops and evaluates a hypothetical model of the factors that influence user acceptance of weblog technology. Previous acceptance studies are reviewed, and the various models employed are discussed. The eventual model is based on the technology acceptance model (TAM) by Davis et al. It conceptualizes and operationalizes a quantitative survey conducted by means of an online questionnaire, strictly from a user perspective. Finally, it is tested and validated by applying methods of data analysis.
This thesis focuses on approximate inference in assumption-based argumentation frameworks. Argumentation provides a significant idea in the computerization of theoretical and practical reasoning in AI. And it has a close connection with AI, engaging in arguments to perform scientific reasoning. The fundamental approach in this field is abstract argumentation frameworks developed by Dung. Assumption-based argumentation can be regarded as an instance of abstract argumentation with structured arguments. When facing a large scale of data, a challenge of reasoning in assumption-based argumentation is how to construct arguments and resolve attacks over a given claim with minimal cost of computation and acceptable accuracy at the same time. This thesis proposes and investigates approximate methods that randomly select and construct samples of frameworks based on graphical dispute derivations to solve this problem. The presented approach aims to improve reasoning performance and get an acceptable trade-off between computational time and accuracy. The evaluation shows that for reasoning in assumption-based argumentation, in general, the running time is reduced with the cost of slightly low accuracy by randomly sampling and constructing inference rules for potential arguments over a query.
This thesis analyzes the online attention towards scientists and their research topics. The studies compare the attention dynamics towards the winners of important scientific prizes with scientists who did not receive a prize. Web signals such as Wikipedia page views, Wikipedia edits, and Google Trends were used as a proxy for online attention. One study focused on the time between the creation of the article about a scientist and their research topics. It was discovered that articles about research topics were created closer to the articles of prize winners than to scientists who did not receive a prize. One possible explanation could be that the research topics are more closely related to the scientist who got an award. This supports that scientists who received the prize introduced the topics to the public. Another study considered the public attention trends towards the related research topics before and after a page of a scientist was created. It was observed that after a page about a scientist was created, research topics of prize winners received more attention than the topics of scientists who did not receive a prize. Furthermore, it was demonstrated that Nobel Prize winners get a lower amount of attention before receiving the prize than the potential nominees from the list of Citation Laureates of Thompson Reuters. Also, their popularity is going down faster after receiving it. It was also shown that it is difficult to predict the prize winners based on the attention dynamics towards them.
Die Diskussion zum Thema Mindestlohn ist ein stets aktuelles und findet zur Jahreswende 2011/2012, in der diese Arbeit entstanden ist, von der Politik und Wirtschaft besonders viel Aufmerksamkeit. Die Aktualität dieses Themas und ihre Dynamik werden besonders darin bemerkbar, dass bei der Untersuchung der deutschen Literatur zu diesem Thema viele der Aussagen und Thesen nicht mehr zutreffen. Das eingangs aufgeführte Zitat von der amtierenden Bundesministerin für Arbeit und Soziales, Ursula von der Leyen, bringt zum Ausdruck, dass mittlerweile in der Politik ein Konsens darüber existiert, dass vollzeitbeschäftigte Arbeitnehmer in der Lage sein müssen, ihren Lebensunterhalt aus ihrem Einkommen zu sichern. Dies stellt für die christlich-demokratische Regierungspartei einen Dogmenwechsel dar. Während die CDU in den letzten Jahrzehnten auf die Tarifbindung gesetzt und einen Mindestlohn kategorisch abgelehnt hat, geht sie nun dazu über, Lohnuntergrenzen für alle Branchen zum Ziel ihrer Regierungsarbeit zu machen. Dies ist in starkem Maße darauf zurückzuführen, dass auf dem Arbeitsmarkt in den letzten Jahren die Lohnspreizung, die traditionell in Deutschland niedrig war, eine stark divergente Entwicklung genommen hat.
Ein weiterer Grund ist die abnehmende Rolle der Tarifbindung der letzten Jahre. Die Folge dieser Entwicklungen ist, dass 1,2 Millionen Menschen, somit vier Prozent der Beschäftigten, für Löhne unter fünf Euro. Weitere 2,2 Millionen Menschen arbeiten für Stundenlöhne unter sechs Euro, 3,7 Millionen Menschen verdienen unter sieben Euro und 5,1 Millionen Menschen arbeiten für Löhne unter acht Die Frage inwieweit ein Leben in Würde unter diesen Voraussetzungen möglich ist, beschäftigt große Teile der Gesellschaft. Denn damit sind das Volumen und die Lohnhöhe des Niedriglohnsektors auf ein Niveau gesunken, welche gesellschaftlich und politisch nicht mehr einfach zu vertreten sind. Zur Abwendung dieser Entwicklung wird das wirtschaftspolitische Instrument Mindestlohn, als probates Mittel, häufig in die Diskussion gebracht. So haben in der Vergangenheit viele Staaten den Mindestlohn auf unterschiedliche Art eingesetzt. Die Einführung eines flächendeckenden Mindestlohns in der Bundesrepublik wird vor allem mit den folgenden Zielen befürwortet.
Der Mindestlohn soll zum einen gewährleisten, dass Vollzeitbeschäftigte ein Einkommen erzielen, dass mindestens ihrem soziokulturellen Existenzminimum entspricht. Andererseits soll die Einführung des Mindestlohns die Notwendigkeit des Aufstockens mit dem Arbeitslosengeld II hemmen und somit die öffentlichen Kassen entlasten. Die Gegner des Mindestlohns lehnen die Einführung eines flächendeckenden allgemeinverbindlichen Mindestlohns, vor allem aufgrund arbeitsmarkttheoretischer Überlegungen, kategorisch ab. Diese vertreten die Ansicht, dass die Mechanismen des Arbeitsmarktes eine selbstregulierende Wirkung besitzen und ergänzt um die Tarifautonomie ausreichend geregelt sind. Eine drohende Vernichtung bestehender Arbeitsplätze und eine ausbleibende Schaffung neuer Arbeitsplätze werden als Folge der Einführung von Mindestlohn weiterhin argumentiert.
Hinzu kommt, dass in der Theorie je nach Denkschule und Position eine entgegengesetzte Auswirkung auf den Arbeitsmarkt prognostiziert werden kann. Vor dem Hintergrund der aktuellen Debatte untersucht die vorliegende Arbeit die Auswirkung der Einführung eines Mindestlohns. Um eine objektive Wertung für die vorliegende Problemstellung zu finden, wird mit Hilfe von Netlogo die computergestützte agentenbasierte Simulation benutzt. Anhand eines fiktiven Marktes mit fiktiven Akteuren/"Agenten" wird der Versuch unternommen, eine modellhafte Darstellung des Arbeitsmarktes abzubilden. Insbesondere soll untersucht werden, inwieweit die Einführung eines Mindestlohns, branchenspezifisch oder flächendeckend, den Beschäftigungsgrad und die Höhe der Löhne beeinflusst.
Hintergrund
Das neue Modell einer Knieorthese Condlya 4 soll die Bewegungsfreiheit im Knie nur geringfügig einschränken, so dass viele sportliche Bewegungen weiterhin gewährleistet sind. Dennoch stabilisiert die Orthese das Gelenk soweit, dass Scherbewegungen vermieden werden und während der Rehabilitationsphase nach Knieverletzungen und Instabilitäten bereits nach kurzer Zeit mit dem Sport wieder begonnen werden kann.
Das Ziel der Arbeit
Ziel der Masterarbeit war es mittels Bewegungsanalyse den Einfluss der Knieorhese auf die Bewegungsqualität des Handstands zu prüfen. Zu dieser 2D- Analyse wurden die Bewegungsabläufe mit mehreren digitalen Hochgeschwindigkeitskameras (OptiTrack Flex 3) aus zwei Ebenen gefilmt. Über die an anatomischen Fixpunkten angebrachten Markern wurden die Aufnahmen mit der Software MyoVideo am Rechner mittels automatischem Marker Tracking verarbeitet. Damit konnten die zeitlichen Verläufe von Marker-Koordinaten und Gelenkwinkeln aufgezeigt werden.
Ergebnisse
Die Ergebnisse dieser Untersuchung bestätigten, dass die untersuchte Knieorthese Condyla 4 für den Sport geeignet ist und keinen negativen Einfluss auf die Bewegungsqualität des Handstands nimmt. Die Anwendung der Knieorthese lässt sich dadurch auch auf andere Elemente aus dem Bereich des Turnens übertragen, bei denen die unteren Extremitäten ähnlichen Belastungen ausgesetzt sind.