Masterarbeit
Filtern
Erscheinungsjahr
- 2019 (37) (entfernen)
Dokumenttyp
- Masterarbeit (37) (entfernen)
Schlagworte
- Datenschutz (2)
- 2019 European Parliament Election (1)
- 3D-Scan (1)
- AR (1)
- Association Rules (1)
- Augmented Reality (1)
- BRDF (1)
- Belief change, concept contraction, EL (1)
- Business Process Management Recommender Systems Survey (1)
- Challenges (1)
Most social media platforms allow users to freely express their opinions, feelings, and beliefs. However, in recent years the growing propagation of hate speech, offensive language, racism and sexism on the social media outlets have drawn attention from individuals, companies, and researchers. Today, sexism both online and offline with different forms, including blatant, covert, and subtle lan- guage, is a common phenomenon in society. A notable amount of work has been done over identifying sexist content and computationally detecting sexism which exists online. Although previous efforts have mostly used peoples’ activities on social media platforms such as Twitter as a public and helpful source for collecting data, they neglect the fact that the method of gathering sexist tweets could be biased towards the initial search terms. Moreover, some forms of sexism could be missed since some tweets which contain offensive language could be misclassified as hate speech. Further, in existing hate speech corpora, sexist tweets mostly express hostile sexism, and to some degree, the other forms of sexism which also appear online was disregarded. Besides, the creation of labeled datasets with manual exertion, relying on users to report offensive comments with a tremendous effort by human annotators is not only a costly and time-consuming process, but it also raises the risk of involving discrimination under biased judgment.
This thesis generates a novel sexist and non-sexist dataset which is constructed via "UnSexistifyIt", an online web-based game that incentivizes the players to make minimal modifications to a sexist statement with the goal of turning it into a non-sexist statement and convincing other players that the modified statement is non-sexist. The game applies the methodology of "Game With A Purpose" to generate data as a side-effect of playing the game and also employs the gamification and crowdsourcing techniques to enhance non-game contexts. When voluntary participants play the game, they help to produce non-sexist statements which can reduce the cost of generating new corpus. This work explores how diverse individual beliefs concerning sexism are. Further, the result of this work highlights the impact of various linguistic features and content attributes regarding sexist language detection. Finally, this thesis could help to expand our understanding regarding the syntactic and semantic structure of sexist and non-sexist content and also provides insights to build a probabilistic classifier for single sentences into sexist or non-sexist classes and lastly find a potential ground truth for such a classifier.
Implementation of Agile Software Development Methodology in a Company – Why? Challenges? Benefits?
(2019)
The software development industry is enhancing day by day. The introduction of agile software development methodologies was a tremendous structural change in companies. Agile transformation provides unlimited opportunities and benefits to the existing and new developing companies. Along with benefits, agile conversion also brings many unseen challenges. New entrants have the advantage of being flexible and cope with the environmental, consumer, and cultural changes, but existing companies are bound to rigid structure.
The goal of this research is to have deep insight into agile software development methodology, agile manifesto, and principles behind the agile manifesto. The prerequisites company must know for agile software development implementation. The benefits a company can achieve by implementing agile software development. Significant challenges that a company can face during agile implementation in a company.
The research objectives of this study help to generate strong motivational research questions. These research questions cover the cultural aspects of company agility, values and principles of agile, benefits, and challenges of agile implementation. The project management triangle will show how benefits of cost, benefits of time, and benefits of quality can be achieved by implementing agile methodologies. Six significant areas have been explored, which shows different challenges a company can face during implementation agile software development methodology. In the end, after the in depth systematic literature review, conclusion is made following some open topics for future work and recommendations on the topic of implementation of agile software development methodology in a company.
Das Ziel dieser Masterarbeit war es ein CRM System für das Assist Team der CompuGroup Medical zu entwickeln, welches Open Innovation in die Entwicklung der Minerva 2.0 Software integriert. Um dies zu erreichen wurden CRM Methoden mit Social Networ- king Systemen kombiniert, basierend auf der Forschung von Lin und Chen (2010, S. 11 – 30). Um die definierten Ziele zu erreichen wurde Literatur analysiert, wie ein CRM System und eine Online Community erfolgreich implementiert werden können und dies auf die Entwicklung der Minerva Community angewendet. Dabei wurde sich an den Design Science Richtlinien von Hevner u. a. (2004, S. 75 – 104) orientiert. Das fertige Produkt wurde basierend auf Kunden- und Managementanforderungen entworfen und wurde an- schließend aus Kunden- und Firmenperspektive evaluiert.
In dieser Arbeit wird eine Unterrichtsreihe beschrieben, welche aus den drei Bereichen „mathematische Relationen“, „Datenbanken in Sozialen Netzwerken“ und „Datenschutz“ zusammengesetzt ist. Zu jedem Bereich wird ein eigener Unterrichtsentwurf präsentiert.
Außerdem wurde im Rahmen der vorliegenden Arbeit ein Programm zur Visualisierung der Relationen des Sozialen Netzwerks Instahub entworfen, welches im Anschluss an die Beschreibung der Unterrichtsreihe aufgeführt wird.
Soll die Inneneinrichtung eines Raums geplant werden, stehen verschiedene
Programme für Computer, Smartphones oder Head-Mounted Displays
zur Verfügung. Problematisch ist hierbei der Transfer der Planung in die
reale Umgebung. Deshalb wird ein Ansatz mit Augmented Reality entwickelt,
durch den die Planung des Raums unter realen Umständen veranschaulicht
wird. Möchten mehrere Personen ihre Ideen beitragen, erfordern
herkömmliche Systeme die Zusammenarbeit an einem Endgerät. Ziel dieser
Masterarbeit ist es, eine kollaborative Anwendung zur Raumplanung
in Augmented Reality zu konzipieren und zu entwickeln. Die Umsetzung
erfolgt in Unity mit ARCore und C#.
As a result of the technical progress, processes have to be adjusted. On the one hand, the digital transformation is absolutely necessary for every organization to operate efficient and sustainable, on the other hand whose accomplishment is a tremendous challenge. The huge amount of personal data, which accrue in this context, is an additional difficulty.
Against the background of the General Data Protection Regulation (GDPR), this thesis focuses on process management and ways of optimizing processes in a Human Resources Department. Beside the analysis of already existing structures and workflows, data management and especially the handling of personal data in an application process are examined. Both topics, the process management and the data protection are vitally important by itself, but it is necessary to implement the requirements of data protection within the appropriate position of a corresponding process. Relating to this, the thesis deals with the research question of what barriers may occur by a sustainable process integration and to which extend the GDPR prevent an unobstructed workflow within the Human Resources Department of the Handwerkskammer Koblenz. Additionally, answering the question of which subprocesses are convenient for a process automation is highly significant.
In scope of these questions Business Process Management is the solution. By means of the graphical representation standard, Business Process Model and Notation, a process model with the relevant activities, documents and responsibilities of the recruitment process is designed. Based on a target-actual comparison it becomes apparent, that standardized process steps with less exceptions and a large amount of information are basically convenient for automation respectively partial automation. After the different phases of the recruitment process are documented in detail, a Workflow-Management-System can ex-port the transformed models, so the involved employees just have to carry out a task list with assigned exercises. Against the background of the data protection regulations, access rights and maturities can be determined. Subsequently only authorized employees have admission to the personal data of applicants. Because of impending sanctions by violation against the GDPR, the implementation of the relevant legal foundations within the recruitment process is necessary and appropriate. Relating to the defined research questions, it appears that in principle not every activity is appropriate for a process automation. Especially unpredictable and on a wide range of factors depending subprocesses are unsuitable. Additionally, media discontinuities and redundant data input are obstacles to an enduring process integration. Nevertheless, a coherent consideration of the topics of business process management and the data protection regulations is required.
Belief revision is the subarea of knowledge representation which studies the dynamics of epistemic states of an agent. In the classical AGM approach, contraction, as part of the belief revision, deals with the removal of beliefs in knowledge bases. This master's thesis presents the study and the implementation of concept contraction in the Description Logic EL. Concept contraction deals with the following situation. Given two concept C and D, assuming that C is subsumed by D, how can concept C be changed so that it is not subsumed by D anymore, but is as similar as possible to C? This approach of belief change is different from other related work because it deals with contraction in the level of concepts and not T-Boxes and A-Boxes in general. The main contribution of the thesis is the implementation of the concept contraction. The implementation provides insight into the complexity of contraction in EL, which is tractable since the main inference task in EL is also tractable. The implementation consists of the design of five algorithms that are necessary for concept contraction. The algorithms are described, illustrated with examples, and analyzed in terms of time complexity. Furthermore, we propose an new approach for a selection function, adapt for the concept contraction. The selection function uses metadata about the concepts in order to select the best from an input set. The metadata is modeled in a framework that we have designed, based on standard metadata frameworks. As an important part of the concept contraction, the selection function is responsible for selecting the best concepts that are as similar as possible to concept C. Lastly, we have successfully implemented the concept contraction in Python, and the results are promising.
Geschäftsregeln sind zu einem wichtigen Instrument geworden, um die Einhaltung der Vorschriften in ihren Geschäftsprozessen zu gewährleisten. Aber die Sammlung dieser Geschäftsregeln kann verschiedene widersprüchliche Elemente beinhalten. Dies kann zu einer Verletzung der zu erreichenden Compliance führen. Diese widersprüchlichen Elemente sind daher eine Art Inkonsistenzen oder Quasi-Inkonsistenzen in der Geschäftsregelbasis. Ziel dieser Arbeit ist es, zu untersuchen, wie diese Quasi-Inkonsistenzen in Geschäftsregeln erkannt und analysiert werden können. Zu diesem Zweck entwickeln wir eine umfassende Bibliothek, die es ermöglicht, Ergebnisse aus dem wissenschaftlichen Bereich der Inkonsistenzmessung auf Geschäftsregelformalismen anzuwenden, die tatsächlich in der Praxis verwendet werden.
The status of Business Process Management (BPM) recommender systems is not quite clear as research states. The use of recommenders familiarized itself with the world during the rise of technological evolution in the past decade.Ever since then, several BPM recommender systems came about. However, not a lot of research is conducted in this field. It is not well known to what broad are the technologies used and how are they used. Moreover, this master’s thesis aims at surveying the BPM recommender systems existing. Building on this, the recommendations come in different shapes. They can be positionbased where an element is to be placed at an element’s front, back or to autocomplete a missing link. On the other hand, Recommendations can be textual, to fill the labels of the elements. Furthermore, the literature review for BPM recommender systems took place under the guides of a literature review framework. The framework suggests 5stages of consecutive stages for this sake. The first stage is defining a scope for the research. Secondly, conceptualizing the topic by choosing key terms for literature research. After that in the third stage, comes the research stage.As for the fourth stage, it suggests choosing analysis features over which the literature is to be synthesized and compared. Finally, it recommends defining the research agenda to describe the reason for the literature review. By invoking the mentioned methodology, this master’s thesis surveyed 18 BPM recommender systems. It was found as a result of the survey that there
are not many different technologies for implementing the recommenders. It was also found that the majority of the recommenders suggest nodes that are yet to come in the model, which is called forward recommending. Also, one of the results of the survey indicated the scarce use of textual recommendations to BPM labels. Finally, 18 recommenders are considered less than excepted for a developing field therefore as a result, the survey found a shortage in the number of BPM recommender systems. The results indicate several shortages in several aspects in the field of BPM recommender systems. On this basis, this master’s thesis recommends the future work on it the results.
The erosion of the closed innovation paradigm in conjunction with increasing competitive pressure has boosted the interest of both researchers and organizations in open innovation. Despite such rising interest, several companies remain reluctant to open their organizational boundaries to practice open innovation. Among the many reasons for such reservation are the pertinent complexity of transitioning toward open innovation and a lack of understanding of the procedures required for such endeavors. Hence, this thesis sets out to investigate how organizations can open their boundaries to successfully transition from closed to open innovation by analyzing the current literature on open innovation. In doing so, the transitional procedures are structured and classified into a model comprising three phases, namely unfreezing, moving, and institutionalizing of changes. Procedures of the unfreezing phase lay the foundation for a successful transition to open innovation, while procedures of the moving phase depict how the change occurs. Finally, procedures of the institutionalizing phase contribute to the sustainability of the transition by employing governance mechanisms and performance measures. Additionally, the individual procedures are characterized along with their corresponding barriers and critical success factors. As a result of this structured depiction of the transition process, a guideline is derived. This guideline includes the commonly employed actions of successful practitioners of open innovation, which may serve as a baseline for interested parties of the paradigm. With the derivation of the guideline and concise depiction of the individual transitional phases, this thesis consequently reduces the overall complexity and increases the comprehensibility of the transition and its implications for organizations.
Data visualization is an effective way to explore data. It helps people to get a valuable insight of the data by placing it in a visual context. However, choosing a good chart without prior knowledge in the area is not a trivial job. Users have to manually explore all possible visualizations and decide upon ones that reflect relevant and desired trend in the data, are insightful and easy to decode, have a clear focus and appealing appearance. To address these challenges we developed a Tool for Automatic Generation of Good viSualizations using Scoring (TAG²S²). The approach tackles the problem of identifying an appropriate metric for judging visualizations as good or bad. It consists of two modules: visualization detection: given a data-set it creates a list of combination of data attributes for scoring and visualization ranking: scores each chart and decides which ones are good or bad. For the later, an utility metric of ten criteria was developed and each visualization detected in the first module is evaluated on these criteria. Only those visualizations that received enough scores are then presented to the user. Additionally to these data parameters, the tool considers user perception regarding the choice of visual encoding when selecting a visualization. To evaluate the utility of the metric and the importance of each criteria, test cases were developed, executed and the results presented.
Simulationen in der Computergraphik haben das Ziel, die Realität so genau wie möglich in einer Szene einzufangen. Dafür werden intern und extern wirkende Kräfte berechnet, aus denen Beschleunigungen berechnet werden. Mit diesen werden letztendlich die Positionen von Geometrien oder Partikeln verändert.
Position Based Dynaimcs arbeitet direkt auf den Positionen. Durch Constraints wird eine Menge von Regeln aufgestellt, die zu jedem Zeitpunkt in der Simulation gelten sollen. Ist dies nicht der Fall, so werden die Positionen so verändert, dass sie den Constraints entsprechen. In dieser Arbeit wird ein PBD-Framework implementiert, in dem Solide und Fluide simuliert werden. Die Constraints werden durch ein Gauss-Seidel-Lösungsverfahren und ein Gauss-Jakobi-Lösungsverfahren gelöst. Die Berechnungen finden dabei komplett auf der GPU statt. Die Ergebnisse sind physikalisch plausible Simulationen, die in Echtzeit laufen.
Stylized image triangulation
(2019)
Die stilisierte Triangulierung ist ein beliebtes Stilmittel bei der Abstraktion von Bildern. Ergebnisse sind auf Covern von Magazinen zu finden oder als Kunstwerk zu kaufen. Eingesetzt wird diese Stilisierung auch bei mobilen Anwendungen oder gar bei Programmen, die sich ausschließlich mit der automatisierten Triangulation befassen.
Diese Arbeit basiert auf einer Veröffentlichung, die die adaptive dynamische Triangulierung als Optimierungsproblem versteht und damit, hinsichtlich der visuellen und technischen Qualität, neue Ergebnisse erzielt. Ziel dieser Arbeit ist es, dieses Verfahren möglichst vielen Nutzern zugänglich zu machen. Dazu wird eine mobile Anwendung - Mesh - entworfen und umgesetzt. Ein Host-Client System wird entwickelt, um die ressourcenbedürftige Berechnung nicht auf dem mobilen Endgerät ausführen zu müssen. Im Zuge dessen wird das Verfahren für die CPU portiert und zusätzlich ein Webserver entwickelt, der die Kommunikation zwischen dem Triangulierungsverfahren und der mobilen Anwendung herstellt. Die App «Mesh» bietet die Möglichkeit, ein beliebiges Bild zu dem Server zu senden, das nach der Bearbeitung heruntergeladen werden kann.
Ein Forschungsaspekt der Arbeit thematisiert die Optimierung des Verfahrens. Dafür wird der Gradientenabstieg, der die Energieminimierung durchführt, anhand verschiedener Ansätze untersucht. Die Einschränkung der Schrittmöglichkeiten, diagonale Schrittrichtungen und eine dynamische Neupositionierung werden getestet. Es zeigt sich, dass sich bei diagonaler Schrittrichtung, anstatt horizontaler und vertikaler, keine Verbesserung verzeichnen lässt. Die Einschränkung der Schrittrichtung, dass ein Punkt seine vorherige Position nicht erneut einnehmen kann, verursacht einen Verlust an optischer Qualität. Jedoch wird der globale angestrebte Approximationsfehler in kürzerer Zeit erreicht. Die vektorbasierte Variante der flexiblen Schrittrichtung resultiert mit längerer Berechnungszeit in qualitativ hochwertigeren Ergebnissen, sodass ästhetischere Resultate erzielt werden.
Ein weiterer Bestandteil dieser Arbeit setzt sich mit der Imitation eines Kunststils auseinander. Die Werke von Josh Bryan dienen als Inspiration. Mittels eines GLSL-Shaders soll durch die Verwendung von Pseudozufälligkeit ein natürlicheres Aussehen einer schraffierten Triangulierung erreicht werden. Ergebnisse zeigen, dass der Ansatz Möglichkeiten der Verbesserung aufweist, dass jedoch eine präzisere Triangulierung für eine hochwertige Imitation notwendig ist. Als letzter Bestandteil wird ein Renderstil präsentiert, der ausgehend von einem beliebigen Ausgangspunkt, die Dreiecke der Triangulation versetzt, sodass Lücken entstehen. Durch die freie Wahl des Zentrums des Effekts, ist ein Einsatz bei Animationen denkbar.
Im Rahmen dieser Masterarbeit wird das Prinzip des hybriden Ray Tracing, einer Kombination einer Rasterisierungs-Pipeline mit Ray Tracing-Verfahren für einzelne Effekte, vorgestellt und eine Anwendung implementiert, welche innerhalb einer hybriden Ray Tracing-Pipeline Schatten, Umgebungsverdeckung
und Reflexionen berechnet und diese Effekte mit der direkten Beleuchtung kombiniert.
Das hybride Ray Tracing basiert auf der Idee, die Performance und Flexibilität von Rasterisierungs-Pipelines mit Ray Tracing zu kombinieren, um die Limitation der Rasterisierung, nicht auf die gesamte Umgebungsgeometrie an jedem Punkt zugreifen zu können, aufzuheben.
Im Rahmen der Implementation wird in die verwendete RTX-API sowie die Grafikschnittstelle Vulkan eingeführt und diese anhand der Implementation erklärt. Auf Grundlage der Ergebnisse und der Erkenntnisse bei der Nutzung der API wird diese, ihre Einsatzzwecke und Ausgereiftheit belangend, eingeschätzt.
Datenflussmodelle in der Literatur weisen oftmals einen hohen Detailgrad auf, der sich auf die auf den Modellen durchgeführten Datenflussanalysen überträgt und diese somit schwerer verständlich macht. Da ein Datenflussmodell, das von einem Großteil der Implementierungsdetails des modellierten Programms abstrahiert, potenziell leichter verständliche Datenflussanalysen erlaubt, beschäftigt sich die vorliegende Masterarbeit mit der Spezifikation und dem Aufbau eines stark abstrahierten Datenflussmodells und der Durchführung von Datenflussanalysen auf diesem Modell. Das Modell und die darauf arbeitenden Analysen wurden testgetrieben entwickelt, sodass ein breites Spektrum möglicher Datenflussszenarien abgedeckt werden konnte. Als konkrete Datenflussanalyse wurde unter anderem eine statische Sicherheitsprüfung in Form einer Erkennung unzureichender Nutzereingabenbereinigungen durchgeführt. Bisher existiert kein Datenflussmodell auf einer ähnlich hohen Abstraktionsebene. Es handelt sich daher um einen einzigartigen Lösungsentwurf, der Entwicklern die Durchführung von Datenflussanalysen erleichtert, die keine Expertise auf diesem Gebiet haben.
Thesis is devoted to the topic of challenges and solutions for human resources management (HRM) in international organizations. The aim is to investigate methodological approaches to assessment of HRM challenges and solutions, and to apply them on practice, to develop ways of improvement of HRM of a particular enterprise. The practical research question investigated is “Is the Ongoing Professional Development – Strategic HRM (OPD-SHRM) model a better solution for HRM system of PrJSC “Philip Morris Ukraine”?”
To achieve the aim of this work and to answer the research question, we have studied theoretical approaches to explaining and assessing HRM in section 1, analyzed HRM system of an international enterprise in section 2, and then synthesized theory and practice to find intersection points in section 3.
Research findings indicate that the main challenge of HRM is to balance between individual and organizational interests. Implementation of OPD-SHRM is one of the solutions. Switching focus from satisfaction towards success will bring both tangible and intangible benefits for individuals and organization. In case of PrJSC “Philip Morris Ukraine”, the maximum forecasted increase is 330% in net profit, 350% in labor productivity, and 26% in Employee Development and Engagement Index.
Commonsense reasoning can be seen as a process of identifying dependencies amongst events and actions. Understanding the circumstances surrounding these events requires background knowledge with sufficient breadth to cover a wide variety of domains. In the recent decades, there has been a lot of work in extracting commonsense knowledge, a number of these projects provide their collected data as semantic networks such as ConceptNet and CausalNet. In this thesis, we attempt to undertake the Choice Of Plausible Alternatives (COPA) challenge, a problem set with 1000 questions written in multiple-choice format with a premise and two alternative choices for each question. Our approach differs from previous work by using shortest paths between concepts in a causal graph with the edge weight as causality metric. We use CausalNet as primary network and implement a few design choices to explore the strengths and drawbacks of this approach, and propose an extension using ConceptNet by leveraging its commonsense knowledge base.
Willingness to pay and willingness to accept on a two-sided platform - The use case of DoBeeDo
(2019)
It is widely known that especially for technology-based start-ups, entrepreneurs need to set up the boundaries of the business and define the product/service to offer in order to minimize the risk of failure. The goal of this thesis is to not only emphasize the importance of the business model development and evaluation but also show an example customer validation process for an emerging start-up named DoBeeDo, which is a mobile app operating on a two-sided market. During the process of customer validation a survey has been conducted to evaluate the interest of the target groups as well as the fit of their expectations using the Willingness to Pay and Willingness to Accept measures. The paper includes an analysis and evaluation of the gathered results and assesses whether the execution of the Customer Development Model can be continued.
Unkontrolliert gewachsene Software-Architekturen zeichnen sich i.d.R. durch fehlende oder schlecht nachvollziehbare Strukturen aus. Hierfür können als Gründe beispielsweise mangelhafte Definitionen oder ein langsames Erodieren sein. Dies ist auch unter dem Begriff "Big Ball of Mud" bekannt. Langfristig erhöhen solche architekturellen Mängel nicht nur die Entwicklungskosten, sondern können letztendlich auch Veränderungen vollständig verhindern.
Die Software-Architektur benötigt somit eine kontinuierliche Weiterentwicklung, um solchen Effekten entgegen wirken zu können. Eine gute Software-Architektur unterstützt die Software-Entwicklung und erhöht die Produktivität. Auf der Ebene von Quellcode existieren bereits etablierte Vorgehensweisen zur kontrollierten Verbesserung der Qualität. Im Gegensatz hierzu existieren für Verbesserungen einer Software-Architektur jedoch keine allgemeingültigen Vorgehensweisen, welche unabhängig vom Anwendungsfall angewandt werden können. An diesem Punkt setzt die vorliegende Arbeit an.
Bisherige Arbeiten beschäftigen sich einerseits nur mit Teilpunkten des Problems. Anderseits existieren zwar bereits Vorgehensweisen zum Treffen von Architekturentscheidungen, jedoch agieren diese auf einer stark abstrakten Ebene ohne praktische Beispiele. Diese Arbeit stellt eine leichtgewichtige Vorgehensweise zum gezielten Verbessern einer Software-Architektur vor. Die Vorgehensweise basiert auf einem generischen Problemlösungsprozess. Auf dieser Basis ist ein Prozess zum Lösen von Problemen einer Software-Architektur entwickelt worden. Im Fokus der Arbeit stehen zur Eingrenzung des Umfanges architektonische Probleme aufgrund geforderter Variabilität sowie externer Abhängigkeiten.
Die wissenschaftliche Methodik, welcher der Arbeit zugrunde liegt, agiert im Rahmen der Design Science Research (DSR). Über mehrere Iterationen hinweg wurde eine Vorgehensweise entwickelt, welche sich an Softwareentwickler mit zwei bis drei Jahren Erfahrung und Kenntnissen über Grundlage der Softwareentwicklung und Software-Architektur richtet. Fünf Schritte inkl. Verweise auf aussagekräftige Literatur leiten Anwender anschließend durch den Prozess zur gezielten Verbesserung einer Software-Architektur.