Filtern
Erscheinungsjahr
- 2018 (98) (entfernen)
Dokumenttyp
- Dissertation (35)
- Bachelorarbeit (30)
- Masterarbeit (18)
- Ausgabe (Heft) zu einer Zeitschrift (14)
- Konferenzveröffentlichung (1)
Schlagworte
- Vorlesungsverzeichnis (4)
- Bildverarbeitung (2)
- 1H-NMR Relaxometry (1)
- Aesthetics (1)
- Agoraphobie (1)
- Analysis of social platform (1)
- Astrophysik (1)
- Augmented Reality (1)
- Barrieren (1)
- Berufsausbildung (1)
Institut
- Institut für Computervisualistik (29)
- Institut für Wirtschafts- und Verwaltungsinformatik (9)
- Institute for Web Science and Technologies (9)
- Institut für Management (8)
- Zentrale Einrichtungen (8)
- Fachbereich 7 (7)
- Institut für Umweltwissenschaften (7)
- Fachbereich 4 (4)
- Fachbereich 6 (3)
- Fachbereich 8 (2)
Diese Arbeit verbindet die Geschäftstätigkeit von Winzern im Weinbau mit einer innovativen technologischen Anwendung des Internet of Things. Die Arbeit des Winzers kann dadurch unterstützt und bereichert werden – bis hin zu einer bisher nicht möglichen Bewirtschaftungsoptimierung, insbesondere bei einer Überwachung einzelner Lagen bis hin zum einzelnen Rebstock. Exemplarisch werden Temperatur-, Luftfeuchtigkeit- und Bodenfeuchtigkeit-Daten gemessen, übertragen, gespeichert und bereitgestellt. Durch ein modulares Design des Systems können heute verfügbare Sensoren und gleichartige Niedervolt-Sensoren, die künftig entwickelt werden, sofort eingesetzt werden.
Durch IoT-Geräte im Weinberg erhält der Winzer eine neue Qualität der Genauigkeit der Vorhersage auf Basis aktueller Zustandsdaten seines Weinbergs. Zusätzlich kann er bei unvorhergesehenen Wetterbedingungen sofort eingreifen. Die sofortige Nutzbarkeit der Daten wird durch eine Cloud Infrastruktur möglich gemacht. Dabei wird eine offene Service-Infrastruktur genutzt. Im Gegensatz zu anderen bisher veröffentlichten kommerziellen Ansätzen ist dabei die beschriebene Lösung quelloffen.
Als eigenständiger Bestandteil der Arbeit wurde ein physikalischer Prototyp zur Messung relevanter Parameter im Weinberg neu entworfen und bis zur Erfüllung der gesetzten Spezifikationen entwickelt. Die skizzierten Merkmale und Anforderungen an eine funktionierende Datensammlung und ein autonom übertragendes IoT-Gerät wurden entwickelt, beschrieben und die Erfüllung durch das Prototypgerät demonstriert. Durch Literaturrecherche und unterstützende, orientierende Interviews von Winzern wurden die Theorie und die praktische Anwendung synchronisiert und qualifiziert.
Für die Entwicklung des Prototyps wurden die allgemeinen Prinzipien der Entwicklung eines elektronischen Geräts befolgt, insbesondere die Entwicklungsregeln von Design Science Research und die Prinzipien des Quality Function Deployment. Als ein Merkmal des Prototyps wurden einige Prinzipien wie die Wiederverwendung von bewährten Konstruktionen und die Materialpreise der Bausteine des Prototypen wurden ebenfalls in Betracht gezogen (z. B. Gehäuse; Arduino; PCB). Teilezahl-Reduktionsprinzipien, Dekomplexierung und vereinfachte Montage, Prüfung und Vor-Ort-Service wurden in den Entwicklungsprozess durch den modularen Aufbau der funktionellen Weinberg- Gerätekomponenten integriert, wie es der Ansatz des innovativen Schaltschrankbau- System Modular-3 beschreibt.
Das Software-Architekturkonzept basiert auf einer dreischichtigen Architektur inklusive der TTN-Infrastruktur. Das Frontend ist als Rich-Web-Client realisiert, als ein WordPress- Plugin. WordPress wurde aufgrund der weiten Verbreitung über das gesamte Internet und der Einfachheit in der Bedienung ausgewählt, was eine schnelle und einfache Benutzereinweisung ermöglicht. Relevante Qualitätsprobleme wurden im Hinblick auf exemplarische Funktionalität, Erweiterbarkeit, Erfüllung von Anforderungen, Verwendbarkeit und Haltbarkeit des Gerätes und der Software getestet und diskutiert.
Der Prototyp wurde mit Erfolg im Labor und im Einsatzgebiet unter verschiedenen Bedingungen charakterisiert und getestet, um eine Messung und Analyse der Erfüllung aller Anforderungen durch die geplante und realisierte elektronische Konstruktion und Anordnung des Prototypen, zu ermöglichen.
Die entwickelte Lösung kann als Grundlage für eine zukünftige Anwendung und Entwicklung in diesem speziellen Anwendungsfall und ähnlichen Technologien dienen. Ein Ausblick möglicher zukünftiger Arbeiten und Anwendungen schließt diese Arbeit ab.
Ontologien sind wichtige Werkzeuge zur Wissensrepräsentation und elementare Bausteine des Semantic Web. Sie sind jedoch nicht statisch und können sich über die Zeit verändern. Die Gründe hierfür sind vielfältig: Konzepte innerhalb einer Ontologie können fehlerhaft modelliert worden sein, die von der Ontologie repräsentierte Domäne kann sich verändern oder eine Ontologie kann wiederverwendet werden und muss an den neuen Kontext angepasst oder mit bestehenden Ontologien verbunden werden. Die Schwierigkeit dieses Prozesses hat zur Entstehung des Forschungsfeldes der Ontology Change geführt. Das Entfernen von Wissen aus Ontologien ist ein wichtiger Aspekt dieses Änderungsprozesses, da selbst das Hinzufügen neuen Wissens zu einer Ontologie das Entfernen bestehenden Wissens notwendig machen kann, falls dieses mit den neuen Vorstellungen in Konflikt steht. Dieses Entfernen muss jedoch wohldurchdacht sein, da das Ändern bestehender Konzepte leicht zu viel Wissen aus der Ontologie entfernen oder die semantische Bedeutung der Konzepte auf eine potenziell unerwartete Weise verändern kann. In dieser Arbeit wird daher ein formaler Operator zum präzisen Entfernen von Wissen aus Konzepten vorgestellt. Dieser basiert auf der Beschreibungslogik EL und baut partiell auf den Postulaten für Belief Set und Belief Base Contraction sowie der Arbeit von Suchanek et al. auf. Hierfür wird zunächst ein Einstieg in das Thema Ontologien und die Ontologiesprache OWL 2 gegeben und das Problemfeld der Ontology Change wird erläutert. Es wird dann gezeigt, wie ein formaler Operator diesen Prozess unterstützen kann und weshalb die Beschreibungslogik EL einen guten Ausgangspunkt für die Entwicklung eines solchen Operators darstellt. Anschließend wird ein Einblick in das Feld der Beschreibungslogiken gegeben. Hierfür wird die Geschichte der Beschreibungslogik kurz umrissen, Anwendungsgebiete werden genannt und es werden Standardprobleme in dieser Logik erläutert. In diesem Zusammenhang wird die Beschreibungslogik EL formal eingeführt. In einem nächsten Schritt werden verwandte Arbeiten untersucht und es wird gezeigt, warum das Recovery- und Relevance-Postulat für das Entfernen von Wissen aus Konzepten nicht unmittelbar anwendbar ist. Die hier gewonnenen Erkenntnisse werden anschließend dazu genutzt, die Anforderungen an den Operator zu formalisieren. Diese basieren hauptsächlich auf den Postulaten für Belief Set und Belief Base Contraction. Zusätzlich werden weitere Eigenschaften formuliert welche den Verlust des Recovery- bzw. Relevance-Postulates ausgleichen sollen. In einem nächsten Schritt wird der Operator definiert und es wird gezeigt, dass diese Definition das präzise Entfernen von Wissen aus EL-Konzepten gestattet. Mittels formaler Beweise wird zudem gezeigt, dass diese Definition alle zuvor aufgestellten Anforderungen erfüllt. In einem weiteren Beispiel wird dargestellt, wie der Operator in Verbindung mit sogenannten Laconic Justifications verwendet werden kann, um einen menschlichen Ontology-Editor durch das automatisierte Entfernen von unerwünschten Konsequenzen aus der Ontologie zu unterstützen. Aufbauend auf Algorithmen, welche aus der formalen Definition des Operators abgeleitet wurden, wird ein Plugin zum Entfernen von Wissen aus Ontologien für den Ontology-Editor Protégé vorgestellt. Anschließend werden die bisherigen Erkenntnisse zusammengefasst und es wird ein Fazit gezogen. Die Arbeit schließt mit einem Ausblick über mögliche zukünftige Forschung.
In dieser Bachelorarbeit wird ein System zur Simulation der Bewegung von Molekülen entworfen. Die Berechnungen der Kräfte zwischen chemisch gebundenen Atomen sowie zwischenmolekularer Kräfte werden fast vollständig auf der GPU durchgeführt. Die Visualisation der Simulation findet in einer interaktiven Bildwiederholrate statt. Um eine Darstellung in Echtzeit auf den meisten handelsüblichen Grafikkarten zur ermöglichen, sind geschickte Optimierungen und leichte Abstraktionen der physikalischen Modelle notwendig. Zu jeder Zeit kann die Ausführungsgeschwindigkeit der Simulation verändert oder vollständig gestoppt werden. Außerdem lassen sich einige Parameter der zugrundeliegenden physikalischen Modelle der Simulation zur Laufzeit verändern. Mit den richtigen Einstellung der Parametern lassen sich bestimmte Phänomene der Molekulardynamik, wie zum Beispiel die räumliche Struktur der Moleküle, beobachten.
Verschiedene Methoden (Gewichtsverlust, elektrochemische und Sprühkorrosionsmessungen) wurden eingesetzt, um die Korrosionsinhibierung von vier Sarkosinderivaten und einer kommerziellen Verbindung als Synergist zu bewerten. Das Basismetall war kohlenstoffarmer Stahl CR4, der unter verschiedenen Bedingungen getestet wurde. Als Arbeitsmedien wurden hauptsächlich neutrales Wasser und 0.1 M NaCl eingesetzt. Der Schutzfilm wurde auf der Stahloberfläche durch direkte Apsorption der Prüfsubstanzen während des Eintauchprozesses gebildet. Ein stark verbesserter Korrosionsschutz mit direkter Korrelation zwischen Molekulargewicht und Kohlenstoffkettenlänge der Prüfsubstanzen konnte nachgewiesen werden. Die Schutzwirkung der ausgewählten Sarkosinverbindungen auf Stahl CR4 erhöht sich in 0.1 M NaCl mit zunehmender Konzentration. In allen getesteten Methoden und Konzentrationen erwies sich Oleoylsarcosin (O) als bester Inhibitor. Es wurden Wirksamkeiten bis zu 97 % in der potentiodynamischen Polarisation (PP), 83 % bei der elektrochemische Impedanzspektroskopie (EIS) und 85 % in der Gewichtsabnahme (WL) bei 100 mmol/L als höchster hier getesteten Konzentration erzielt. Der zweitbeste Inhibitor ist Myristoylsarcosin (M) mit Effektivitäten bis zu 82 % in PP, 69 % in EIS und 75 % in WL ebenfalls bei der höchsten Konzentration. Der Inhibitor mit der kürzesten Kette in dieser Testreihe ist Lauroylsarcosin (L). L ergab Schutzwirkungen von etwas über 50 % bei 75 und 100 mmol/L und unter 50 % bei 25 und 50 mmol/L in allen angewandten Methoden. Zudem werden die Gesamteffizienzen aller verwendeten Prüfsubstanzen durch längere Einwirkzeiten beim Eintauchen der CR4 Stahlproben erhöht, wie für 50 mmol/L gezeigt werden konnte. Die Untersuchung ergab 10 Minuten als beste Zeit bezüglich Kosten- und Schutzeffizienz. Der kommerzielle Inhibitor Oley-Imidazol (OI) verbesserte die Wirksamkeit von Cocoylsarcosin (C), der natürlichen Mischung aus Kokosnussöl mit Kohlenstoffkettenlängen von C8 - C18, und verbesserte den Schutz in einer 1:1 (mol) Kombination (C+OI). Hierbei stieg der Wirkungsgrad von 47 % auf 91 % in PP, von 40 % auf 84 % in EIS und von 45 % auf 82 % in WL bei der höchsten Konzentration. Mit Hilfe von Sprühkorrosionstests wurden alle vorliegenden Sarkosinsubstanzen auf Stahl CR4 in einem realistischeren System untersucht. Der beste Inhibitor nach einem 24 Stunden-Test war O, gefolgt von der Kombination C+OI und M mit entsprechenden Wirkungsgraden von bis zu 99 % (O), 80 % (C+OI) bzw. 79 % (M). Die erhaltenen Ergebnisse zeigen eine gute Stabilität der Prüfsubstanzen bezüglich des gebildeten Schutzfilms auch nach 24 h. Alle verwendeten Methoden ergaben in der aktuellen Untersuchung übereinstimmende Ergebnisse und die gleiche Reihenfolg der Inhibitoren. Darüber hinaus wird angenommen, dass der Adsorptionsprozess der Prüfsubstanzen der Langmuir-Isotherme folgt. Die Response Surface Methodik (RSM) ist eine vom Box-Behnken Design (BBD) abhängige Optimierungsmethode. Diese wurde im aktuellen System angewandt, um die optimale Effektivität für Inhibitor O beim Korrosionsschutz von Stahl CR4 in Salzwasser zu ermitteln. Hierfür wurden vier unabhängige Variablen benutzt: Inhibitorkonzentration (A), Tauchbeschichtungszeit (B), Temperatur (C) und NaCl-Konzentration (D); jeweils in drei Stufen: untere (-1), mittlere (0) und obere (+1). Nach dem vorliegenden Ergebnis hat die Temperatur als Einzelparameter den größten Einfluss auf den Schutzprozess, gefolgt von der Inhibitorkonzentration. Anhand der Berechnung ergibt sich ein optimaler Wirkungsgrad von 99 % durch folgende Parameter- und Pegelkombination: oberer Wert (+1) jeweils für Inhibitorkonzentration, Tauchbeschichtungszeit und NaCl-Konzentration sowie ein unterer Wert (-1) für die Temperatur.
Entwicklung eines Social Collaboration Analytics Dashboard-Prototyps für Beiträge von UniConnect
(2018)
Seit der vergangenen Dekade steigt die Nutzung von sogenannten Enterprise Collaboration Systems (ECS) in Unternehmen. Diese versprechen sich mit der Einführung eines solchen zur Gattung der Social Software gehörenden Kollaborationssystems, die menschliche Kommunikation und Kooperation der eigenen Mitarbeiter zu verbessern. Durch die Integration von Funktionen, wie sie aus Social Media bekannt sind, entstehen große Mengen an Daten. Darunter befinden sich zu einem erheblichen Teil textuelle Daten, die beispielsweise mit Funktionen wie Blogs, Foren, Statusaktualisierungen oder Wikis erstellt wurden. Diese in unstrukturierter Form vorliegenden Daten bieten ein großes Potenzial zur Analyse und Auswertung mittels Methoden des Text Mining. Die Forschung belegt dazu jedoch, dass Umsetzungen dieser Art momentan nicht gebräuchlich sind. Aus diesem Grund widmet sich die vorliegende Arbeit diesem Mangel. Ziel ist die Erstellung eines Dashboard-Prototyps, der sich im Rahmen von Social Collaboration Analytics (SCA) mit der Auswertung von textuellen Daten befasst. Analyseziel ist die Identifikation von populären Themen, die innerhalb von Communities oder communityübergreifend von den Plattformnutzern in den von ihnen erstellten Beiträgen aufgegriffen werden. Als Datenquelle wurde das auf IBM Connections aufbauende ECS UniConnect ausgewählt. Dieses wird vom University Competence Center for Collaboration Technologies (UCT) an der Universität Koblenz-Landau betrieben. Grundlegend für die korrekte Funktionsweise des Dashboards sind mehrere Java-Klassen, deren Umsetzungen auf verschiedenen Methoden des Text Mining basieren. Vermittelt werden die Analyseergebnisse im Dashboard durch verschiedene Diagrammarten, Wordclouds und Tabellen.
Algorithmische Komposition
(2018)
Algorithmische Komposition ist ein interdisziplinärer Forschungsbereich, der die beiden Bereiche Musik und Wissenschaft miteinander verknüpft. Der Computer wird in den Mittelpunkt des Kompositionsprozesses gestellt und komponiert mithilfe eines Algorithmus Musik. In dieser Arbeit wird die Algorithmische Komposition unter Verwendung der biologisch inspirierten Algorithmen Lindenmayer-System und Zellulärer Automat untersucht. Dabei werden ausgewählte Verfahren vorgestellt, implementiert und evaluiert, die die erzeugten Daten der Algorithmen in ein sinnvolles musikalisches Ergebnis transformieren.
This thesis addresses the automated identification and localization of a time-varying number of objects in a stream of sensor data. The problem is challenging due to its combinatorial nature: If the number of objects is unknown, the number of possible object trajectories grows exponentially with the number of observations. Random finite sets are a relatively new theory that has been developed to derive at principled and efficient approximations. It is based around set-valued random variables that contain an unknown number of elements which appear in arbitrary order and are themselves random. While extensively studied in theory, random finite sets have not yet become a leading paradigm in practical computer vision and robotics applications. This thesis explores random finite sets in visual tracking applications. The first method developed in this thesis combines set-valued recursive filtering with global optimization. The problem is approached in a min-cost flow network formulation, which has become a standard inference framework for multiple object tracking due to its efficiency and optimality. A main limitation of this formulation is a restriction to unary and pairwise cost terms. This circumstance makes integration of higher-order motion models challenging. The method developed in this thesis approaches this limitation by application of a Probability Hypothesis Density filter. The Probability Hypothesis Density filter was the first practically implemented state estimator based on random finite sets. It circumvents the combinatorial nature of data association itself by propagation of an object density measure that can be computed efficiently, without maintaining explicit trajectory hypotheses. In this work, the filter recursion is used to augment measurements with an additional hidden kinematic state to be used for construction of more informed flow network cost terms, e.g., based on linear motion models. The method is evaluated on public benchmarks where a considerate improvement is achieved compared to network flow formulations that are based on static features alone, such as distance between detections and appearance similarity. A second part of this thesis focuses on the related task of detecting and tracking a single robot operator in crowded environments. Different from the conventional multiple object tracking scenario, the tracked individual can leave the scene and later reappear after a longer period of absence. Therefore, a re-identification component is required that picks up the track on reentrance. Based on random finite sets, the Bernoulli filter is an optimal Bayes filter that provides a natural representation for this type of problem. In this work, it is shown how the Bernoulli filter can be combined with a Probability Hypothesis Density filter to track operator and non-operators simultaneously. The method is evaluated on a publicly available multiple object tracking dataset as well as on custom sequences that are specific to the targeted application. Experiments show reliable tracking in crowded scenes and robust re-identification after long term occlusion. Finally, a third part of this thesis focuses on appearance modeling as an essential aspect of any method that is applied to visual object tracking scenarios. Therefore, a feature representation that is robust to pose variations and changing lighting conditions is learned offline, before the actual tracking application. This thesis proposes a joint classification and metric learning objective where a deep convolutional neural network is trained to identify the individuals in the training set. At test time, the final classification layer can be stripped from the network and appearance similarity can be queried using cosine distance in representation space. This framework represents an alternative to direct metric learning objectives that have required sophisticated pair or triplet sampling strategies in the past. The method is evaluated on two large scale person re-identification datasets where competitive results are achieved overall. In particular, the proposed method better generalizes to the test set compared to a network trained with the well-established triplet loss.
Die Digitalisierung und die mediale Weiterentwicklung sind Kernprozesse des aktuellen digitalen Zeitalters. Damit auch Unternehmen vom technischen Fortschritt profitieren können, müssen jeweilige Kompetenzen vorhanden sein oder erworben werden. Unternehmen stehen hier also vor der Aufgabe mit der Masse an Neuheiten und Möglichkeiten nicht überfordert zu sein und diese im besten Fall für die eigene Leistungssteigerung nutzen zu können.
Da kleine und mittelständische Unternehmen 99 % aller Unternehmen in Deutschland darstellen und nicht bekannt ist, wie vor allem die sehr kleinen Unternehmen und ihre Mitarbeiter mit o.g. Entwicklung mitziehen können, wird genau diese Thematik in der vorliegenden Arbeit erforscht. Die Forschungsfrage besteht somit aus zwei Teilforschungsfragen. Zum einen: „Wird sich in den Kleinstunternehmen um die Kompetenzförderung der Mitarbeiter gekümmert?“ und zum anderen: „Wo sind hier die Chancen und Herausforderungen für Unternehmen dieser Größe?“
Um die Forschungsfrage zu beantworten, wurde sich einer qualitativen Forschungsmethode bedient, dem leitfadengestützten Interview. Die interviewten Unternehmen bewegten sich alle im Medien- und IT-Bereich. Somit konnte sich durch die aufgezeichneten und transkribierten Daten ein realer Einblick in die aktuelle Situation in Kleinstunternehmen verschafft werden.
Die Antworten der Interviews zeigten, dass Unternehmen mit sehr geringen Mitarbeiteranzahlen, von ihren Mitarbeitern abhängiger sind als andere. Also ist das Engagement der Mitarbeiter entscheidend für den Erfolg des Ganzen. Dieses zu fördern und die Mitarbeiterzufriedenheit zu gewährleisten ist die Aufgabe der Unternehmensleitung.
Unternehmen, in denen die Förderung der Mitarbeiter mehr Beachtung erfährt, bilden also die perfekte Anlaufstelle für Berufseinsteiger, die sich und ihren gesamten Erfahrungshorizont noch weiterentwickeln müssen und/oder wollen.
Hubschrauber sind aus heutiger Sicht unverzichtbar. Eine Reihe von Anwendungsgebieten zeigt das Einsatzspektrum, die andere Flugmuster im Vergleich zum Hubschrauber nicht leisten können. Allerdings handelt es sich bei einem Hubschrauber um ein sowohl technologisch als auch physikalisch hochkomplexes System. Entsprechend aufwendig ist die Aus- und Weiterbildung von Piloten. Gerade in den letzten zwei Jahrzehnten hat sich daher die Flugsimulation als wertvolle Ergänzung zum klassischen Training herausgestellt. Mittels Flugsimulatoren ist es möglich, schwierige oder gar gefährliche Situationen bedarfsgerecht nachzuempfinden und zu üben. Im Rahmen dieser Arbeit soll ein vereinfachter Hubschraubersimulator, basierend auf Starkörperkinematik, entwickelt werden. Dabei wird ein idealisiertes Rotormodell angenommen und auf komplexe strömungsmechanische Phänomene verzichtet, um eine Implementation übersichtlich zu illustrieren und echtzeitfähig zu sein. Dabei sind die Module dementsprechend in der Unreal Engine umgesetzt, dass eine Adaption an andere Flugmuster ohne großen Aufwand möglich ist.
Wie beeinflussen spieletechnische Eigenschaften eines Videospiels den Spielspaß? Diese Arbeit wird eine Antwort auf diese Frage suchen, indem sie ein selbst programmiertes Videospiel dafür nutzt, welches von Grund auf dafür erstellt wird. Das Videospiel wird in zwei Varianten programmiert, welche sich nur in seinen spieletechnischen Eigenschaften unterscheidet. Verschiedene Probanden werden das Videospiel dann spielen und im Nachhinein eine Umfrage diesbezüglich beantworten. Um möglichst fehlerfreie Umfragewerte zu bekommen, die lediglich Werteänderungen durch Änderung der spieletechnischen Eigenschaften aufzeigt, wurden gründliche Überlegungen zum Game Design und zum Spielkonzept gemacht. Die Ergebnisse vermuten, dass die spieletechnischen Eigenschaften eines Videospiels einen sehr großen Einfluss auf den Spielspaß haben. Jedoch sind diese Eigenschaften nicht allein dafür verantwortlich, warum ein Videospiel Spaß machen kann. Psychologische Aspekte sind auch bei Änderungen von spieletechnischen Eigenschaften zu beachten.