Masterarbeit
Filtern
Erscheinungsjahr
- 2019 (37) (entfernen)
Dokumenttyp
- Masterarbeit (37) (entfernen)
Schlagworte
- Datenschutz (2)
- 2019 European Parliament Election (1)
- 3D-Scan (1)
- AR (1)
- Association Rules (1)
- Augmented Reality (1)
- BRDF (1)
- Belief change, concept contraction, EL (1)
- Business Process Management Recommender Systems Survey (1)
- Challenges (1)
- Computergraphik (1)
- Data flow analysis (1)
- Datenfluss (1)
- Datenflussanalyse (1)
- Datenflussmodell (1)
- Echtzeit (1)
- Effectiveness (1)
- Gebrauchstauglichkeit (1)
- Gonioreflectometer (1)
- Handsfree editing (1)
- Human resources management (1)
- Informatik (1)
- InstaHub (1)
- International organization (1)
- Internet of Things (1)
- Maschinelles Lernen (1)
- OPD-SHRM (1)
- Orientierungsstufe (1)
- Planspiel 2.0 (1)
- Political Communication (1)
- Position Based Dynamics (1)
- Raumplanung (1)
- Recommender Systems, Business Process Modeling, Literature Review (1)
- Simulation (1)
- Solutions (1)
- Statische Analyse (1)
- Sustainability (1)
- Unterricht (1)
- hybride App (1)
- leap motion (1)
- machine learning (1)
- ray tracing (1)
- rtx (1)
- tracking (1)
- virtual reality (1)
- vulkan (1)
Thesis is devoted to the topic of challenges and solutions for human resources management (HRM) in international organizations. The aim is to investigate methodological approaches to assessment of HRM challenges and solutions, and to apply them on practice, to develop ways of improvement of HRM of a particular enterprise. The practical research question investigated is “Is the Ongoing Professional Development – Strategic HRM (OPD-SHRM) model a better solution for HRM system of PrJSC “Philip Morris Ukraine”?”
To achieve the aim of this work and to answer the research question, we have studied theoretical approaches to explaining and assessing HRM in section 1, analyzed HRM system of an international enterprise in section 2, and then synthesized theory and practice to find intersection points in section 3.
Research findings indicate that the main challenge of HRM is to balance between individual and organizational interests. Implementation of OPD-SHRM is one of the solutions. Switching focus from satisfaction towards success will bring both tangible and intangible benefits for individuals and organization. In case of PrJSC “Philip Morris Ukraine”, the maximum forecasted increase is 330% in net profit, 350% in labor productivity, and 26% in Employee Development and Engagement Index.
Current political issues are often reflected in social media discussions, gathering politicians and voters on common platforms. As these can affect the public perception of politics, the inner dynamics and backgrounds of such debates are of great scientific interest. This thesis takes user generated messages from an up-to-date dataset of considerable relevance as Time Series, and applies a topic-based analysis of inspiration and agenda setting to it. The Institute for Web Science and Technologies of the University Koblenz-Landau has collected Twitter data generated beforehand by candidates of the European Parliament Election 2019. This work processes and analyzes the dataset for various properties, while focusing on the influence of politicians and media on online debates. An algorithm to cluster tweets into topical threads is introduced. Subsequently, Sequential Association Rules are mined, yielding wide array of potential influence relations between both actors and topics. The elaborated methodology can be configured with different parameters and is extensible in functionality and scope of application.
Unkontrolliert gewachsene Software-Architekturen zeichnen sich i.d.R. durch fehlende oder schlecht nachvollziehbare Strukturen aus. Hierfür können als Gründe beispielsweise mangelhafte Definitionen oder ein langsames Erodieren sein. Dies ist auch unter dem Begriff "Big Ball of Mud" bekannt. Langfristig erhöhen solche architekturellen Mängel nicht nur die Entwicklungskosten, sondern können letztendlich auch Veränderungen vollständig verhindern.
Die Software-Architektur benötigt somit eine kontinuierliche Weiterentwicklung, um solchen Effekten entgegen wirken zu können. Eine gute Software-Architektur unterstützt die Software-Entwicklung und erhöht die Produktivität. Auf der Ebene von Quellcode existieren bereits etablierte Vorgehensweisen zur kontrollierten Verbesserung der Qualität. Im Gegensatz hierzu existieren für Verbesserungen einer Software-Architektur jedoch keine allgemeingültigen Vorgehensweisen, welche unabhängig vom Anwendungsfall angewandt werden können. An diesem Punkt setzt die vorliegende Arbeit an.
Bisherige Arbeiten beschäftigen sich einerseits nur mit Teilpunkten des Problems. Anderseits existieren zwar bereits Vorgehensweisen zum Treffen von Architekturentscheidungen, jedoch agieren diese auf einer stark abstrakten Ebene ohne praktische Beispiele. Diese Arbeit stellt eine leichtgewichtige Vorgehensweise zum gezielten Verbessern einer Software-Architektur vor. Die Vorgehensweise basiert auf einem generischen Problemlösungsprozess. Auf dieser Basis ist ein Prozess zum Lösen von Problemen einer Software-Architektur entwickelt worden. Im Fokus der Arbeit stehen zur Eingrenzung des Umfanges architektonische Probleme aufgrund geforderter Variabilität sowie externer Abhängigkeiten.
Die wissenschaftliche Methodik, welcher der Arbeit zugrunde liegt, agiert im Rahmen der Design Science Research (DSR). Über mehrere Iterationen hinweg wurde eine Vorgehensweise entwickelt, welche sich an Softwareentwickler mit zwei bis drei Jahren Erfahrung und Kenntnissen über Grundlage der Softwareentwicklung und Software-Architektur richtet. Fünf Schritte inkl. Verweise auf aussagekräftige Literatur leiten Anwender anschließend durch den Prozess zur gezielten Verbesserung einer Software-Architektur.
Belief revision is the subarea of knowledge representation which studies the dynamics of epistemic states of an agent. In the classical AGM approach, contraction, as part of the belief revision, deals with the removal of beliefs in knowledge bases. This master's thesis presents the study and the implementation of concept contraction in the Description Logic EL. Concept contraction deals with the following situation. Given two concept C and D, assuming that C is subsumed by D, how can concept C be changed so that it is not subsumed by D anymore, but is as similar as possible to C? This approach of belief change is different from other related work because it deals with contraction in the level of concepts and not T-Boxes and A-Boxes in general. The main contribution of the thesis is the implementation of the concept contraction. The implementation provides insight into the complexity of contraction in EL, which is tractable since the main inference task in EL is also tractable. The implementation consists of the design of five algorithms that are necessary for concept contraction. The algorithms are described, illustrated with examples, and analyzed in terms of time complexity. Furthermore, we propose an new approach for a selection function, adapt for the concept contraction. The selection function uses metadata about the concepts in order to select the best from an input set. The metadata is modeled in a framework that we have designed, based on standard metadata frameworks. As an important part of the concept contraction, the selection function is responsible for selecting the best concepts that are as similar as possible to concept C. Lastly, we have successfully implemented the concept contraction in Python, and the results are promising.
To construct a business process model manually is a highly complex and error-prone task which takes a lot of time and deep insights into the organizational structure, its operations and business rules. To improve the output of business analysts dealing with this process, different techniques have been introduced by researchers to support them during construction with helpful recommendations. These supporting recommendation systems vary in their way of what to recommend in the first place as well as their calculations taking place under the hood to recommend the most fitting element to the user. After a broad introduction into the field of business process modeling and its basic recommendation structures, this work will take a closer look at diverse proposals and descriptions published in current literature regarding implementation strategies to effectively and efficiently assist modelers during their business process model creation. A critical analysis of presentations in the selected literature will point out strengths and weaknesses of their approaches, studies and descriptions of those. As a result, the final concept matrix in this work will give a precise and helpful overview about the key features and recommendation methods used and implemented in previous research studies to pinpoint an entry into future works without the downsides already spotted by fellow researchers.
Commonsense reasoning can be seen as a process of identifying dependencies amongst events and actions. Understanding the circumstances surrounding these events requires background knowledge with sufficient breadth to cover a wide variety of domains. In the recent decades, there has been a lot of work in extracting commonsense knowledge, a number of these projects provide their collected data as semantic networks such as ConceptNet and CausalNet. In this thesis, we attempt to undertake the Choice Of Plausible Alternatives (COPA) challenge, a problem set with 1000 questions written in multiple-choice format with a premise and two alternative choices for each question. Our approach differs from previous work by using shortest paths between concepts in a causal graph with the edge weight as causality metric. We use CausalNet as primary network and implement a few design choices to explore the strengths and drawbacks of this approach, and propose an extension using ConceptNet by leveraging its commonsense knowledge base.
Implementation of Agile Software Development Methodology in a Company – Why? Challenges? Benefits?
(2019)
The software development industry is enhancing day by day. The introduction of agile software development methodologies was a tremendous structural change in companies. Agile transformation provides unlimited opportunities and benefits to the existing and new developing companies. Along with benefits, agile conversion also brings many unseen challenges. New entrants have the advantage of being flexible and cope with the environmental, consumer, and cultural changes, but existing companies are bound to rigid structure.
The goal of this research is to have deep insight into agile software development methodology, agile manifesto, and principles behind the agile manifesto. The prerequisites company must know for agile software development implementation. The benefits a company can achieve by implementing agile software development. Significant challenges that a company can face during agile implementation in a company.
The research objectives of this study help to generate strong motivational research questions. These research questions cover the cultural aspects of company agility, values and principles of agile, benefits, and challenges of agile implementation. The project management triangle will show how benefits of cost, benefits of time, and benefits of quality can be achieved by implementing agile methodologies. Six significant areas have been explored, which shows different challenges a company can face during implementation agile software development methodology. In the end, after the in depth systematic literature review, conclusion is made following some open topics for future work and recommendations on the topic of implementation of agile software development methodology in a company.
Business Process Querying (BPQ) is a discipline in the field of Business Process Man- agement which helps experts to understand existing process models and accelerates the development of new ones. Its queries can fetch and merge these models, answer questions regarding the underlying process, and conduct compliance checking in return. Many languages have been deployed in this discipline but two language types are dominant: Logic-based languages use temporal logic to verify models as finite state machines whereas graph-based languages use pattern matching to retrieve subgraphs of model graphs directly. This thesis aims to map the features of both language types to features of the other to identify strengths and weaknesses. Exemplarily, the features of Computational Tree Logic (CTL) and The Diagramed Modeling Language (DMQL) are mapped to one another. CTL explores the valid state space and thus is better for behavioral querying. Lacking certain structural features and counting mechanisms it is not appropriate to query structural properties. In contrast, DMQL issues structural queries and its patterns can reconstruct any CTL formula. However, they do not always achieve exactly the same semantic: Patterns treat conditional flow as sequential flow by ignoring its conditions. As a result, retrieved mappings are invalid process execution sequences, i.e. false positives, in certain scenarios. DMQL can be used for behavioral querying if these are absent or acceptable. In conclusion, both language types have strengths and are specialized for different BPQ use cases but in certain scenarios graph-based languages can be applied to both. Integrating the evaluation of conditions would remove the need for logic-based languages in BPQ completely.
Data visualization is an effective way to explore data. It helps people to get a valuable insight of the data by placing it in a visual context. However, choosing a good chart without prior knowledge in the area is not a trivial job. Users have to manually explore all possible visualizations and decide upon ones that reflect relevant and desired trend in the data, are insightful and easy to decode, have a clear focus and appealing appearance. To address these challenges we developed a Tool for Automatic Generation of Good viSualizations using Scoring (TAG²S²). The approach tackles the problem of identifying an appropriate metric for judging visualizations as good or bad. It consists of two modules: visualization detection: given a data-set it creates a list of combination of data attributes for scoring and visualization ranking: scores each chart and decides which ones are good or bad. For the later, an utility metric of ten criteria was developed and each visualization detected in the first module is evaluated on these criteria. Only those visualizations that received enough scores are then presented to the user. Additionally to these data parameters, the tool considers user perception regarding the choice of visual encoding when selecting a visualization. To evaluate the utility of the metric and the importance of each criteria, test cases were developed, executed and the results presented.
Vereine, wie zum Beispiel die Pfadfinder, stützen sich auf die Arbeit ihrer ehrenamtlichen Mitglieder, welche eine Vielzahl von Aufgaben zu erledigen haben. Oftmals kommt es in den Reihen der Mitglieder zu plötzlichen Änderungen in den Organisationsteams und Ämtern, wobei Planungsschritte verloren gehen und Unerfahrenheit bezüglich der Planung besteht. Da die speziellen Anforderungen durch bereits existierende Tools nicht abgedeckt werden, wird zur Unterstützung von Vereinen in Bezug auf die genannte Problematik in dieser Arbeit ScOuT, ein Planungstool für die Organisationsverwaltung, konzipiert und entwickelt. Der Schwerpunkt lag darauf verschiedene geeignete Richtlinien und heuristische Methoden zu identifizieren und zu verwenden, um eine gebrauchstaugliche Benutzeroberfläche erstellen zu können. Das entwickelte Produkt wurde im Rahmen der Arbeit empirisch durch eine Benutzerumfrage bezüglich der Gebrauchstauglichkeit ausgewertet. Das Ergebnis dieser Studie zeigt, dass bereits ein hohes Maß des angestrebten Ziels durch den Einbezug der Richtlinien und Methoden erreicht werden konnte.
Daraus lässt sich im großen Kontext schließen, dass mithilfe von benutzerspezifischen Konzeptideen und der Anwendung geeigneter Richtlinien und Methoden eine zielführende Grundlage für eine gebrauchstaugliche Anwendung zur Unterstützung von Vereinen erstellt werden kann.
Simulationen in der Computergraphik haben das Ziel, die Realität so genau wie möglich in einer Szene einzufangen. Dafür werden intern und extern wirkende Kräfte berechnet, aus denen Beschleunigungen berechnet werden. Mit diesen werden letztendlich die Positionen von Geometrien oder Partikeln verändert.
Position Based Dynaimcs arbeitet direkt auf den Positionen. Durch Constraints wird eine Menge von Regeln aufgestellt, die zu jedem Zeitpunkt in der Simulation gelten sollen. Ist dies nicht der Fall, so werden die Positionen so verändert, dass sie den Constraints entsprechen. In dieser Arbeit wird ein PBD-Framework implementiert, in dem Solide und Fluide simuliert werden. Die Constraints werden durch ein Gauss-Seidel-Lösungsverfahren und ein Gauss-Jakobi-Lösungsverfahren gelöst. Die Berechnungen finden dabei komplett auf der GPU statt. Die Ergebnisse sind physikalisch plausible Simulationen, die in Echtzeit laufen.
The erosion of the closed innovation paradigm in conjunction with increasing competitive pressure has boosted the interest of both researchers and organizations in open innovation. Despite such rising interest, several companies remain reluctant to open their organizational boundaries to practice open innovation. Among the many reasons for such reservation are the pertinent complexity of transitioning toward open innovation and a lack of understanding of the procedures required for such endeavors. Hence, this thesis sets out to investigate how organizations can open their boundaries to successfully transition from closed to open innovation by analyzing the current literature on open innovation. In doing so, the transitional procedures are structured and classified into a model comprising three phases, namely unfreezing, moving, and institutionalizing of changes. Procedures of the unfreezing phase lay the foundation for a successful transition to open innovation, while procedures of the moving phase depict how the change occurs. Finally, procedures of the institutionalizing phase contribute to the sustainability of the transition by employing governance mechanisms and performance measures. Additionally, the individual procedures are characterized along with their corresponding barriers and critical success factors. As a result of this structured depiction of the transition process, a guideline is derived. This guideline includes the commonly employed actions of successful practitioners of open innovation, which may serve as a baseline for interested parties of the paradigm. With the derivation of the guideline and concise depiction of the individual transitional phases, this thesis consequently reduces the overall complexity and increases the comprehensibility of the transition and its implications for organizations.
Mit dem Erscheinen moderner Virtual Reality (VR) Headsets auf dem Verbrauchermarkt, gab es den bisher größten Aufschwung in der Geschichte der VR Technologie. Damit einhergehend rücken aber auch die Problematiken aktueller VR Hardware immer mehr in den Vordergrund. Insbesondere die Steuerung in VR war schon immer ein komplexes Thema.
Eine mögliche Lösung bietet die Leap Motion: Ein Hand-Tracking Gerät, welches ursprünglich für den Desktop-Einsatz entwickelt wurde, aber mit dem letzten größeren Softwareupdate an üblichen VR Headsets angebracht werden kann. Dieses Gerät ermöglicht ein sehr genaues Tracking beider Hände und aller Finger. Damit ist es möglich, diese vollständig in der VR Welt zu replizieren und zur Steuerung zu verwenden.
Ziel dieser Arbeit ist es, virtuelle Benutzeroberflächen zu entwerfen, die mit der Leap Motion bedient werden können. Dies soll eine natürliche Interaktion zwischen dem Benutzer und der VR-Umgebung ermöglichen. Danach werden mit Hilfe einer Demoanwendung Probanden-Tests durchgeführt, um ihre Leistung zu bewerten und mit herkömmlichen VR-Reglern zu vergleichen.
Datenflussmodelle in der Literatur weisen oftmals einen hohen Detailgrad auf, der sich auf die auf den Modellen durchgeführten Datenflussanalysen überträgt und diese somit schwerer verständlich macht. Da ein Datenflussmodell, das von einem Großteil der Implementierungsdetails des modellierten Programms abstrahiert, potenziell leichter verständliche Datenflussanalysen erlaubt, beschäftigt sich die vorliegende Masterarbeit mit der Spezifikation und dem Aufbau eines stark abstrahierten Datenflussmodells und der Durchführung von Datenflussanalysen auf diesem Modell. Das Modell und die darauf arbeitenden Analysen wurden testgetrieben entwickelt, sodass ein breites Spektrum möglicher Datenflussszenarien abgedeckt werden konnte. Als konkrete Datenflussanalyse wurde unter anderem eine statische Sicherheitsprüfung in Form einer Erkennung unzureichender Nutzereingabenbereinigungen durchgeführt. Bisher existiert kein Datenflussmodell auf einer ähnlich hohen Abstraktionsebene. Es handelt sich daher um einen einzigartigen Lösungsentwurf, der Entwicklern die Durchführung von Datenflussanalysen erleichtert, die keine Expertise auf diesem Gebiet haben.
Despite the inception of new technologies at a breakneck pace, many analytics projects fail mainly due to the use of incompatible development methodologies. As big data analytics projects are different from software development projects, the methodologies used in software development projects could not be applied in the same fashion to analytics projects. The traditional agile project management approaches to the projects do not consider the complexities involved in the analytics. In this thesis, the challenges involved in generalizing the application of agile methodologies will be evaluated, and some suitable agile frameworks which are more compatible with the analytics project will be explored and recommended. The standard practices and approaches which are currently applied in the industry for analytics projects will be discussed concerning enablers and success factors for agile adaption. In the end, after the comprehensive discussion and analysis of the problem and complexities, a framework will be recommended that copes best with the discussed challenges and complexities and is generally well suited for the most data-intensive analytics projects.
In dieser Arbeit wird eine Unterrichtsreihe beschrieben, welche aus den drei Bereichen „mathematische Relationen“, „Datenbanken in Sozialen Netzwerken“ und „Datenschutz“ zusammengesetzt ist. Zu jedem Bereich wird ein eigener Unterrichtsentwurf präsentiert.
Außerdem wurde im Rahmen der vorliegenden Arbeit ein Programm zur Visualisierung der Relationen des Sozialen Netzwerks Instahub entworfen, welches im Anschluss an die Beschreibung der Unterrichtsreihe aufgeführt wird.
Diese Arbeit soll das von Dietz und Oppermann entwickelte Planspiel „Datenschutz 2.0“ an den heutigen Alltag der Schüler anpassen, die Benutzung in der Sekundarstufe II ermöglichen und die technischen und gesetzlichen Problematiken des Planspiels beheben. Das mit dem Planspiel aufgegriffene Thema Datenschutz ist im rheinland-pfälzischen Informatik-Lehrplan für die Sekundarstufe II verankert. Hier wird der Begriff Datenschutz in der Reihe „Datenerhebung unter dem Aspekt Datenschutz beurteilen“ genannt. Jedoch werden in dem Planspiel keine Daten erhoben, sondern die selbst hinterlassenen Datenspuren untersucht. Diese Form des Datenschutzes ist im Grundkurs in der vorgeschlagenen Reihe „Datensicherheit unter der Berücksichtigung kryptologischer Verfahren erklären und beachten“ unter dem Thema Kommunikation in Rechnernetzen zu finden. Im Leistungskurs steht die Datensicherheit in gleichbenannter Reihe und Thema und in der Reihe „Datenerhebung unter dem Aspekt Datenschutz beurteilen“ im Thema Wechselwirkung zwischen Informatiksysteme, Individuum und Gesellschaft.
Das Internet of Things (IoT) ist ein schnell wachsendes, technologisches Konzept, das darauf abzielt, verschiedenste physikalische und virtuelle Objekte in einem globalen Netzwerk zu vereinen um Interaktion und Kommunikation zwischen diesen Objekten zu ermöglichen (Atzori, Iera and Morabito, 2010). Die Einsatzmöglichkeiten dieser Technologie sind vielfältig und könnten Gesellschaft und Wirtschaft in ähnlicher Weise verändern wie die Nutzung des Internets (Chase, 2013). Darüber hinaus nimmt das Internet of Things eine zentrale Rolle in der Realisation von visionären Zukunftskonzepten ein, beispielsweise Smart City oder Smart Healthcare. Zudem verspricht die Anwendung dieser Technologie Möglichkeiten, verschiedene Aspekte der Nachhaltigkeit zu verbessern und zu einem bewussteren, effizienteren und schonenderen Umgang mit natürlichen Ressourcen beizutragen (Maksimovic, 2017). Das Handlungsprinzip der Nachhaltigkeit gewinnt im gesellschaftlichen und akademischen Diskurs zunehmend an Bedeutung und trägt den teils schädlichen Produktions- und Konsummustern des vergangenen Jahrhunderts Rechnung (Mcwilliams et al., 2016). Im Zusammenhang mit Nachhaltigkeit ist die fortschreitende Verbreitung von IoT Technologie allerdings auch mit Risiken verknüpft, die im Rahmen des Vorsorgeprinzips rechtzeitig bedacht werden müssen (Harremoës et al., 2001). Dazu zählen der massive Energie- und Rohstoffbedarf der Produktion und des Betriebs von IoT Objekten, sowie deren Entsorgung (Birkel et al., 2019). Die genauen Zusammenhänge und Auswirkungen von IoT im Bezug auf Nachhaltigkeit sind bisher nur unzureichend erforscht und nehmen keine zentrale Rolle in der Diskussion dieser Technologie ein (Behrendt, 2019). Diese Arbeit hat daher das Ziel, einen umfassenden Überblick der Zusammenhänge zwischen IoT Technologie und Nachhaltigkeitsaspekten zu erarbeiten.
Um dieses Ziel zu verwirklichen, verwendet diese Arbeit die Grounded Theory Methodik in Verbindung mit einer umfassenden Literaturanalyse. Die analysierte Literatur besteht dabei aus Forschungsbeiträgen, die besonders dem Gebiet der Informationstechnik (IT) entstammen. Auf Grundlage dieser Literaturanalyse wurden Aspekte, Lösungsansätze, Effekte und Barrieren im Kontext von IoT und Nachhaltigkeit erarbeitet. Im Laufe der Analyse kristallisierten sich zwei zentrale Sichtweisen auf IoT im Zusammenhang mit Nachhaltigkeit heraus. IoT für Nachhaltigkeit (IoT4Sus) beschreibt dabei den Einsatz und die Nutzung von IoT generierten Informationen, um eine Verbesserung im Hinblick auf verschiedene Nachhaltigkeitsaspekte zu erzielen. Nachhaltigkeit für IoT (Sus4IoT) hingegen fokussiert Nachhaltigkeitsaspekte der eingesetzten Technologie und zeigt Lösungen auf um, mit der Produktion und dem Betrieb verknüpfte, negative Auswirkungen auf Nachhaltigkeit zu verringern. Die erarbeiteten Aspekte und Beziehungen wurden in einem umfangreichen Rahmenwerk, dem CCIS Framework, festgehalten und dargestellt. Dieses Rahmenwerk stellt ein Werkzeug zur Erfassung relevanter Aspekte und Beziehungen in diesem Bereich dar und trägt damit zur Bewusstseinsbildung in diesem Kontext bei. Darüber hinaus empfiehlt das Rahmenwerk ein Handlungsprinzip um die Performance von IoT Systemen im Rahmen der Nachhaltigkeit zu optimieren.
Der zentrale Beitrag dieser Arbeit besteht in der Bereitstellung des CCIS Framework, sowie der darin enthaltenen Informationen hinsichtlich der Aspekte und Beziehungen von IoT und Nachhaltigkeit.