Masterarbeit
Filtern
Erscheinungsjahr
Dokumenttyp
- Masterarbeit (189) (entfernen)
Schlagworte
- Augmented Reality (3)
- Computersimulation (3)
- Datenschutz (3)
- Internet of Things (3)
- virtual reality (3)
- Beschaffung (2)
- E-Partizipation (2)
- E-participation (2)
- Simulation (2)
- Sport (2)
- simulation (2)
- 2019 European Parliament Election (1)
- 360 Grad (1)
- 360 degree (1)
- 3D-Scan (1)
- 3D-Visualisierung (1)
- API analysis (1)
- API-Analyse (1)
- AR (1)
- Adhäsion (1)
- Agentenorientiertes Software Engineering (1)
- Akzeptanz (1)
- Alex Bernstein (1)
- Analysis of social platform (1)
- Articles for Deletion (1)
- Artificial Intelligence (1)
- Association Rules (1)
- Auslandsaufenthalt (1)
- Auslassung (1)
- Ausrichtungswerkzeug (1)
- Austenitischer Stahl (1)
- BRDF (1)
- Bakterien (1)
- Bedarfsforschung (1)
- Belief change, concept contraction, EL (1)
- Biofilm (1)
- Biofouling (1)
- Biometric Authentication (1)
- Bioreaktor (1)
- Blog marketing (1)
- Breaking (1)
- Breeding tree selection (1)
- Bruchsimulation (1)
- Business Intelligence (1)
- Business Process Management Recommender Systems Survey (1)
- Business intelligence (1)
- Bürgerbeiteiligung (1)
- CSCA (1)
- Case Study Analysis (1)
- Challenges (1)
- Cicero (1)
- Classification (1)
- Clustering (1)
- Computer Supported Cooperative Work (1)
- Computergrafik (1)
- Computergraphik (1)
- Computervisualistik (1)
- Corvus frugilegus (1)
- Criteria Matrix (1)
- DMN (1)
- DTI (1)
- Data Mining (1)
- Data analysis (1)
- Data flow analysis (1)
- Datenanalyse (1)
- Datenaustausch (1)
- Datenfluss (1)
- Datenflussanalyse (1)
- Datenflussmodell (1)
- Demoskopie (1)
- Developer profiling (1)
- Diffusionsbildgebung (1)
- Digital Rights Management (1)
- Distanzfeld (1)
- Dokumentation (1)
- Dynamische Analyse (1)
- EU (1)
- Echtzeit (1)
- Echtzeit-Interaktion (1)
- Echtzeitphysik (1)
- Effectiveness (1)
- Einkauf (1)
- Entwickler Profil (1)
- Epifluoreszenzmikroskopie (1)
- Eyetracking (1)
- Fahrerassistenzsystem (1)
- Fahrverhalten (1)
- Feature Modeling (1)
- Fehlertypen (1)
- Fiber Tracking (1)
- Fingerprint Recognition (1)
- Folie (1)
- Fracturing (1)
- Französisch (1)
- Französisch als L1 (1)
- Französisch als L2 (1)
- Freilandlabor (1)
- Fremdsprachenunterricht (1)
- Function Words (1)
- GDS (1)
- GMI-Controlling (1)
- GPU (1)
- Gebrauchstauglichkeit (1)
- Gehirn (1)
- Geschäftsmodellinnovation (1)
- Gewässerchemie (1)
- Gonioreflectometer (1)
- Grounded Theory (1)
- Handsfree editing (1)
- Herausforderung (1)
- Human resources management (1)
- I-messages (1)
- IBM Bluemix (1)
- IceCube (1)
- Implizite Oberfläche (1)
- Indirekte Beleuchtung (1)
- Informatik (1)
- Innovation (1)
- InstaHub (1)
- Interferenz <Linguistik> (1)
- Interimsprache (1)
- International organization (1)
- Interoperability (1)
- Interoperabilität (1)
- Interpersonale Kommunikation (1)
- IoT (1)
- Kinematik (1)
- Klassifikation (1)
- Knieverletzungen (1)
- Knowledge Engineering (1)
- Kundenmanagement (1)
- Kunststoff (1)
- Lernort (1)
- Liaison (1)
- MSR (1)
- Markerfunktion (1)
- Maschinelles Lernen (1)
- Massenkommunikation (1)
- Material Point Method (1)
- Matting (1)
- MeVisLab (1)
- Media Asset Management (1)
- Mehragentensystem (1)
- Menschenmengen-Evakuierung (1)
- Meteor (1)
- Mikrocontroller (1)
- Mikroskopie (1)
- Mindestlohn (1)
- Minimum wage (1)
- Mitral Valve (1)
- Mitralklappe (1)
- Mixed Reality (1)
- Mobile BI (1)
- Mobile Business Intelligence (1)
- Mobile Commerce (1)
- Mobile Parking (1)
- Mobile Payment (1)
- Mobile Ticketing (1)
- Mobilkommunikation (1)
- Modell (1)
- Modellfahrzeug (1)
- Motivation (1)
- Multi-Agenten-Systeme (1)
- Multimediale Assets (1)
- Nachhaltigkeit (1)
- Natural Image Matting (1)
- Natural Language Processing (1)
- Netlogo (1)
- Netzwerkmanagement (1)
- Neutino (1)
- Nutzerzufriedenheit (1)
- ONDEX (1)
- OPD-SHRM (1)
- OVTK (1)
- OWL (1)
- Ontologie <Wissensverarbeitung> (1)
- OpenVDB (1)
- Opinion mining (1)
- Organizational Change (1)
- Orientierungsstufe (1)
- PEPPOL (1)
- Pan European Public Procurement OnLine (1)
- Pfadverfolgung (1)
- Physiksimulation (1)
- Planspiel 2.0 (1)
- Point Rendering (1)
- Political Communication (1)
- Politische Kampagne (1)
- Politische Meinungsbildung (1)
- Polymere (1)
- Position Based Dynamics (1)
- Prozessmanagement (1)
- Punktrendering (1)
- Raman-Spektroskopie (1)
- Raumplanung (1)
- Raytracing (1)
- ReMiP (1)
- Real-Time (1)
- Rechtemanagement (1)
- Recommender Systems, Business Process Modeling, Literature Review (1)
- Reddit (1)
- Reengineering (1)
- Regression (1)
- Requirement-Engineering (1)
- Responsible Research and Innovation (1)
- Reverse Engineering (1)
- Robert P. Abelson (1)
- Robust Principal Component Analysis (1)
- Rook (1)
- STOF Model (1)
- Sand (1)
- Sattelkraftfahrzeug (1)
- Sattelzug (1)
- Schnee (1)
- Segmentation (1)
- Segmentierung (1)
- Semantic Web (1)
- Semantisches Wiki (1)
- Sensing as a Service (1)
- Service identification (1)
- Service-Identifizierung (1)
- Service-orientierte Architektur (1)
- Serviceorientierte Architektur (1)
- Shattering (1)
- Sicherheit (1)
- Sicherheitsanforderungen (1)
- Software (1)
- Software Engineering (1)
- Software Repositories (1)
- Software migration (1)
- Software-Migration (1)
- Softwaretest (1)
- Solutions (1)
- Sonorisierung (1)
- Sozialwissenschaftliche Simulation (1)
- Spaß (1)
- Speaker Recognition (1)
- Spektroskopie (1)
- Sports (1)
- Sprechtherapie (1)
- Statische Analyse (1)
- Statistical Shape Model (1)
- Supply Chain Management (1)
- Sustainability (1)
- Technology Acceptance Model (1)
- Testen (1)
- Text Analysis (1)
- Text Mining (1)
- Text classification (1)
- Tool Evaluation (1)
- Tracking (1)
- USB (1)
- Ultraschall (1)
- Ultrasound (1)
- Umfrage in Koblenz (1)
- Unterricht (1)
- VCD (1)
- Vegetation distribution (1)
- Verantwortung (1)
- Verbraucherforschung (1)
- Verification (1)
- Verkehrssprache (1)
- Videospiele (1)
- Virtual Company Dossier (1)
- WEB (1)
- WSDL (1)
- Web 2.0 (1)
- Web Analytics (1)
- Web Analytics Framework (1)
- Web Mining (1)
- Web Services (1)
- Web log (1)
- Weblog (1)
- Wiki (1)
- Wikipedia (1)
- World Wide Web 2.0 (1)
- Wärme (1)
- XML (1)
- You-messages (1)
- Zerbrechen (1)
- adhesion (1)
- bacteria (1)
- biofilm (1)
- biomass (1)
- bioreactor (1)
- blockchain (1)
- cognitive load (1)
- computer games (1)
- crowd evacuation (1)
- cultural dimensions (1)
- data (1)
- data sharing (1)
- data warehouse (1)
- distributed information systems (1)
- distributed ledger (1)
- e-service quality (1)
- eGovernment (1)
- eSourcing (1)
- flow (1)
- framework (1)
- functional web testing tools (1)
- grassland (1)
- healthcare (1)
- heat exchanger (1)
- hybride App (1)
- image warping (1)
- interaktiv (1)
- internet of things (1)
- iot development platforms (1)
- leap motion (1)
- mPayments (1)
- machine learning (1)
- micro-agent (1)
- multi-agent systems (1)
- performance optimization (1)
- physical interaction (1)
- physische Interaktion (1)
- polymer films (1)
- privacy (1)
- psychisches Verhalten (1)
- psychological behavior (1)
- ray tracing (1)
- realtime physics (1)
- revenue management (1)
- rtx (1)
- security (1)
- security requirements (1)
- social simulation (1)
- stainless steel (1)
- stereoscopic rendering (1)
- surface energy (1)
- surface roughness (1)
- survey in Koblenz (1)
- tracking (1)
- vegetation modeling (1)
- videogames (1)
- visualization (1)
- volume rendering (1)
- vulkan (1)
- warp divergence (1)
Institut
- Institut für Computervisualistik (46)
- Fachbereich 4 (34)
- Institut für Management (33)
- Institut für Wirtschafts- und Verwaltungsinformatik (27)
- Institute for Web Science and Technologies (18)
- Institut für Informatik (14)
- Institut für Softwaretechnik (6)
- Fachbereich 1 (1)
- Fachbereich 3 (1)
- Fachbereich 6 (1)
Das World Wide Web (WWW) ist heute zu einem sehr wichtigen Kommunikationskanal geworden, dessen Nutzung in der Vergangenheit stetig gestiegen ist. Websitebesitzer haben schon seit der Entwicklung des ersten Web Browser von Tim Berners-Lee im Jahre 1990 Interesse daran, das Verhalten von Benutzern zu erkennen und zu verstehen. Durch den Einfluss, den der Onlinekanal heute erzielt und welcher alle anderen Medien übersteigt, ist auch das Interesse im Beobachten von Website-Benutzungen und Benutzeraktivitäten noch weiter gestiegen. Das Sammeln und Analysieren von Daten über die Benutzung von Websites kann helfen, Benutzerverhalten zu verstehen, Services zu verbessern und Gewinn zu steigern.
Darüber hinaus ist es Voraussetzung für effektives Website Design und Management, effektive Mass Customization und effektives Marketing. Das Themengebiet, welches diese Aspekte betrachtet, heißt Web Analytics (WA).rnAllerdings führen sich ändernde Technologien und sich entwickelnde Web Analytics Methoden und Prozesse zu großen Herausforderungen für Unternehmen, die Web Analytic Programme durchführen. Aufgrund fehlender Ressourcen in den verschiedensten Bereichen, sowie einer hier oft aufzufindenden anderen Art von Websites, ist es vor allem für Klein- und Mittelständige Unternehmen (KMU) sowie Non-Profit Organisationen schwer, Web Analytics in einer effektiven Weise zu betreiben.
Dieses Forschungsvorhaben zielt daher darauf ab, die vorhandene Lücke zwischen der Theorie, den Möglichkeiten die Tools bieten und den betrieblichen Anforderungen zu identifizieren. Hierfür wird das Thema von drei verschiedenen, jedoch aufeinander aufbauenden Richtungen betrachtet: der akademischen Literatur, Web Analytic Programmen und einer Fallstudie. Mit Hilfe eines Action Research Ansatzes war es möglich, einen ganzheitlichen Überblick des Themengebiets Web Analytics zu erhalten und bestehende Lücken aufzudecken. Das Ergebnis dieser wissenschaftlichen Arbeit ist ein Framework, welches KMUs die Informations-Websites betreiben dabei hilft, Web Analytic Initiativen durch zu führen.
Paketmanager für Quellcode wie zum Beispiel Cabal verwalten unter anderem die Abhängigkeiten zwischen Paketen. Softwareprojekte nutzen jedoch selten sämtliche Funktionalitäten, die ihre Abhängigkeiten bereitstellen. Das führt zur unnötigen Kompilation unbenutzter Code-Fragmente und zu vermeintlichen Versionskonflikten, wo gar keine Konflikte sind. In zwei Fallstudien zeigen wir, wie relevant diese zwei Probleme sind. Danach beschreiben wir, wie wir sie vermeiden können, indem wir Abhängigkeiten nicht zwischen ganzen Paketen, sondern zwischen einzelnen Code-Fragmenten feststellen.
Konstituenten-Parsing versucht, syntaktische Struktur aus einem Satz zu extrahieren. Diese Parsing-Systeme sind in vielen maschinellen Sprachverarbeitungsanwendungen hilfreich, wie z.B. bei der Grammatikprüfung, der Beantwortung von Fragen und der Informationsextraktion. In dieser Masterarbeit geht es um die Implementierung eines Konstituentenparsers für die deutsche Sprache mit Hilfe von neuronalen Netzen. In der Vergangenheit wurden wiederkehrende neuronale Netze beim Aufbau eines Parsers und auch bei vielen maschinellen Sprachverarbeitungsanwendungen verwendet. Dabei werden Module des neuronalen Netzes mit Selbstaufmerksamkeit intensivgenutzt, um Sätze effektiv zu verstehen. Bei mehrschichtigen Selbstaufmerksamkeitsnetzwerken erreicht das konstituierende
Parsen 93,68% F1-Scoret. Dies wird noch weiter verbessert, indem sowohl Zeichen- als auch Worteinbettungen als Darstellung des Inputs verwendet werden. Ein F1-Score von 94,10% wurde am besten durch den Konstituenten-Parser erreicht, der nur den bereitgestellten Datensatz verwendet. Mit Hilfe externer Datensätze wie der deutschen Wikipedia werden vortrainierte ELMo-Modelle zusammen mit Selbstbeobachtungsnetzwerken verwendet, die einen F1-Score von 95,87% erreichen.
Data Mining im Fußball
(2014)
Data Mining ist die Anwendung verschiedener Verfahren, um nützliches Wissen automatisch aus einer großen Menge von Daten zu extrahieren. Im Fußball werden seit der Saison 2011/2012 umfangreiche Daten der Spiele der 1. und 2. Bundesliga aufgenommen und gespeichert. Hierbei werden bis zu 2000 Ereignisse pro Spiel aufgenommen.
Es stellt sich die Frage, ob Fußballvereine mithilfe von Data Mining nützliches Wissen aus diesen umfangreichen Daten extrahieren können.
In der vorliegenden Arbeit wird Data Mining auf die Daten der 1. Fußballbundesliga angewendet, um den Wert bzw. die Wichtigkeit einzelner Fußballspieler für ihren Verein zu quantifizieren. Hierzu wird der derzeitige Stand der Forschung sowie die zur Verfügung stehenden Daten beschrieben. Im Weiteren werden die Klassifikation, die Regressionsanalyse sowie das Clustering auf die vorhandenen Daten angewendet. Hierbei wird auf Qualitätsmerkmale von Spielern, wie die Nominierung eines Spielers für die Nationalmannschaft oder die Note, welche Spieler für ihre Leistungen in Spielen erhalten eingegangen. Außerdem werden die Spielweisen der zur Verfügung stehenden Spieler betrachtet und die Möglichkeit der Vorhersage einer Saison mithilfe von Data Mining überprüft. Der Wert einzelner Spieler wird mithilfe der Regressionsanalyse sowie einer Kombination aus Cluster- und Regressionsanalyse ermittelt.
Obwohl nicht in allen Anwendungen ausreichende Ergebnisse erzielt werden können zeigt sich, dass Data Mining sinnvolle Anwendungsmöglichkeiten im Fußball bietet. Der Wert einzelner Spieler kann mithilfe der zwei Ansätze gemessen werden und bietet eine einfache Visualisierung der Wichtigkeit eines Spielers für seinen Verein.
Große Mengen qualitativer Daten machen die Verwendung computergestützter Verfahren bei deren Analyse unvermeidlich. In dieser Thesis werden Text Mining als disziplinübergreifender Ansatz, sowie die in den empirischen Sozialwissenschaften üblichen Methoden zur Analyse von schriftlichen Äußerungen vorgestellt. Auf Basis dessen wird ein Prozess der Extraktion von Konzeptnetzwerken aus Texten skizziert, und die Möglichkeiten des Einsatzes von Verfahren zur Verarbeitung natürlicher Sprachen aufgezeigt. Der Kern dieses Prozesses ist die Textverarbeitung, zu deren Durchführung Softwarelösungen die sowohl manuelles als auch automatisiertes Arbeiten unterstützen, notwendig sind. Die Anforderungen an diese Werkzeuge werden unter Berücksichtigung des initiierenden Projektes GLODERS, welches sich der Erforschung von Schutzgelderpressung durchführenden Gruppierungen als Teil des globalen Finanzsystems widmet, beschrieben, und deren Erfüllung durch die zwei hervorstechendsten Kandidaten dargelegt. Die Lücke zwischen Theorie und Praxis wird durch die prototypische Anwendung der Methode unter Einbeziehung der beiden Lösungen an einem dem Projekt entspringenden Datensatz geschlossen.
Recently the workflow control as well as compliance analysis of the Enterprise Resource Planning systems are of a high demand. In this direction, this thesis presents the potential of developing a Workflow Management System upon a large Enterprise Resource Planning system by involving business rule extraction, business process discovery, design of the process, integration and compliance analysis of the system. Towards this, usability, limitations and challenges of every applied approach are deeply explained in the case of an existing system named SHD ECORO.
In recent years head mounted displays (HMD) and their abilities to create virtual realities comparable with the real world moved more into the focus of press coverage and consumers. The reason for this lies in constant improvements in available computing power, miniaturisation of components as well as the constantly shrinking power consumption. These trends originate in the general technical progress driven by advancements made in smartphone sector. This gives more people than ever access to the required components to create these virtual realities. However at the same time there is only limited research which uses the current generation of HMDs especially when comparing the virtual and real world against each other. The approach of this thesis is to look into the process of navigating both real and virtual spaces while using modern hardware and software. One of the key areas are the spatial and peripheral perception without which it would be difficult to navigate a given space. The influence of prior real and virtual experiences on these will be another key aspect. The final area of focus is the influence on the emotional state and how it compares to the real world. To research these influences a experiment using the Oculus Rift DK2 HMD will be held in which subjects will be guided through a real space as well as a virtual model of it. Data will be gather in a quantitative manner by using surveys. Finally, the findings will be discussed based on a statistical evaluation. During these tests the different perception of distances and room size will the compared and how they change based on the current reality. Furthermore, the influence of prior spatial activities both in the real and the virtual world will looked into. Lastly, it will be checked how real these virtual worlds are and if they are sufficiently sophisticated to trigger the same emotional responses as the real world.
Commonsense reasoning can be seen as a process of identifying dependencies amongst events and actions. Understanding the circumstances surrounding these events requires background knowledge with sufficient breadth to cover a wide variety of domains. In the recent decades, there has been a lot of work in extracting commonsense knowledge, a number of these projects provide their collected data as semantic networks such as ConceptNet and CausalNet. In this thesis, we attempt to undertake the Choice Of Plausible Alternatives (COPA) challenge, a problem set with 1000 questions written in multiple-choice format with a premise and two alternative choices for each question. Our approach differs from previous work by using shortest paths between concepts in a causal graph with the edge weight as causality metric. We use CausalNet as primary network and implement a few design choices to explore the strengths and drawbacks of this approach, and propose an extension using ConceptNet by leveraging its commonsense knowledge base.
Koordinations- und Bewusstseinsmechanismen sind in Computer-Supported Cooperative Work (CSCW) und bei traditioneller Groupware von Wichtigkeit. Die Wissenschaft ist bestrebt, deren Bedeutung bei der Nutzung von Groupware und die damit verknüpfte Zusammenarbeit von Menschen tiefgründig zu untersuchen, um ihre Anwendung und Effizienz zu beschreiben. Dabei wurde bisher noch keine Klassifizierung der Mechanismen vorgenommen, um deren Gemeinsamkeiten und Unterschiede sowie ihre Anwendung herauszuarbeiten und ihrer Bedeutung im kollaborativem Umfeld nachzugehen. Zudem fehlt die Betrachtung der Mechanismen in neuen Formen von Groupware. In der Wissenschaft als auch in der Praxis haben Enterprise Collaboration Systems (ECS), die Social Software Funktionalität beinhalten, wachsende Bedeutung. Basierend auf der Kombination von traditioneller Groupware und Social Software Komponenten beinhalten diese auch Mechanismen, die die Kollaboration vereinfachen sollen, jedoch bisher noch nicht hinreichend untersucht wurde.
Das Ziel dieser wissenschaftlichen Arbeit ist es daher, Beispiele für Koordinierungs- und Bewusstseinsmechanismen in der akademischen Literatur zu identifizieren um einen ersten Überblick über diese zu verschaffen. Aufbauend darauf ist es zudem Ziel, die Beispielmechanismen zu klassifizieren. Basierend auf einer Literaturanalyse werden Konzepte aus der Literatur übernommen und auf die ausgewählten Mechanismen angewendet um diese zu analysieren und zu klassifizieren. Dabei werden die Gemeinsamkeiten und Unterschiede der Mechanismen herauszuarbeiten und beschrieben. Um ein Verständnis für die Anwendung von Koordinations- und Bewusstseinsmechanismen zu verdeutlichen, werden einige Mechanismen exemplarisch visualisiert. Die Beispiele beziehen sich auf die verschiedenen Klassifizierungsgruppen. Die Auswahl der Mechanismen für die Visualisierung basiert auf deren signifikanten Unterschiede in ihrer Funktionalität. Anschließend werden die ausgewählten Mechanismen, die in der Literatur traditioneller Groupware identifiziert wurden, in kleinen Ausmaß in sozial integrierter ECS kon-trollier. Dabei gilt es herauszufinden, ob die Beispielmechanismen vorzufinden sind und ob neue Mechanismen identifiziert werden können. Als Praxisbeispiel von ECS mit Sozialer Software dient die kollaborative Plattform von IBM Connections. IBM Connections wird an der Universität Koblenz eingesetzt, um die Plattform „UniConnect“ zu betreiben. Anhand einer ersten Toolanalyse wird herausgearbeitet, welche von den identifizierten Beispielen an Mechanismen in IBM Connections angewendet werden. Diese Arbeit stellt erste Schritte in der Untersuchung von Koordinierungs- und Bewusstseinsmechanismen in ECS mit Social Software dar. Darüber hinaus sollen Beispiele für neue, bisher unbekannte Mechanismen herausgearbeitet werden, die im Zuge des sozialen Faktors zu kollaborativen Arbeit eingesetzt werden.
Der Beitrag soll dazu dienen, Beispiele von Koordinierungs- und Bewusstseinsmechanismen in der Literatur zu identifizieren, zu analysieren und diese zusammenbringen um einen ersten Überblick zu erhalten. Desweiten wird eine erste Klassifizierung anhand der Unterschiedlichkeiten der Mechanismen vorgenommen. Nebenbei soll der Betrag einen Anreiz für weitere Untersuchungen schaffen, Koordinierungs- und Bewusstseinsmechanismen in sozial integrierter ECS tiefer zu untersuchen.