Filtern
Erscheinungsjahr
- 2018 (98) (entfernen)
Dokumenttyp
- Dissertation (35)
- Bachelorarbeit (30)
- Masterarbeit (18)
- Ausgabe (Heft) zu einer Zeitschrift (14)
- Konferenzveröffentlichung (1)
Schlagworte
- Vorlesungsverzeichnis (4)
- Bildverarbeitung (2)
- 1H-NMR Relaxometry (1)
- Aesthetics (1)
- Agoraphobie (1)
- Analysis of social platform (1)
- Astrophysik (1)
- Augmented Reality (1)
- Barrieren (1)
- Berufsausbildung (1)
Institut
- Institut für Computervisualistik (29)
- Institut für Wirtschafts- und Verwaltungsinformatik (9)
- Institute for Web Science and Technologies (9)
- Institut für Management (8)
- Zentrale Einrichtungen (8)
- Fachbereich 7 (7)
- Institut für Umweltwissenschaften (7)
- Fachbereich 4 (4)
- Fachbereich 6 (3)
- Fachbereich 8 (2)
- Institut für Informatik (2)
- Arbeitsbereich Biopsychologie, Klinische Psychologie und Psychotherapie (1)
- Arbeitsbereich Entwicklungspsychologie und Pädagogische Psychologie (1)
- Fachbereich 5 (1)
- Institut für Germanistik (1)
- Institut für Integrierte Naturwissenschaften (1)
- Institut für Integrierte Naturwissenschaften, Abt. Biologie (1)
- Institut für Integrierte Naturwissenschaften, Abt. Chemie (1)
- Institut für Integrierte Naturwissenschaften, Abt. Physik (1)
- Institut für Kommunikationspsychologie und Medienpädagogik (1)
- Institut für Kulturwissenschaft (1)
- Institut für Pädagogik, Abteilung Pädagogik (1)
- Institut für Sonderpädagogik (1)
- Institut für Sozialwissenschaften (1)
- Institut für Sportwissenschaft (1)
- Institut für naturwissenschaftliche Bildung (1)
- Universitätsbibliothek Koblenz-Landau (1)
In dieser Bachelorarbeit wird ein Simulationscode für astrophysikalische
Simulationen von Fluiden unter dem Einfluss ihrer eigenen
Gravitation entwickelt. Der Code wird hauptsächlich von der GPU
ausgeführt. Leichte Vereinfachungen der physikalischen Modelle und
einige Parameter zum Steuern von Genauigkeit und Rechenaufwand
ermöglichen das Simulieren mit interaktiver Bildwiederholrate auf den
meisten handelsüblichen, modernen Computern mit einer dedizierten
Grafikkarte. Der Simulationscode wird verwendet, um die Entstehung
von Sternen aus einer Gaswolke zu simulieren. Einige Merkmale der
Sternentstehung, wie zum Beispiel Akkretionsscheiben und Fragmentierung,
lassen sich selbst bei niedrigen Partikelzahlen beobachten.
Eine Service Excellence Kultur wird von einer Vielzahl an Faktoren beeinflusst. Es existieren sowohl Faktoren, die das Zustandekommen einer Service Excellence Kultur fördern, als auch Faktoren, die hemmend wirken. Basiseigenschaften einer Service Excellence Kultur resultieren aus den internen Umstände einer Organisation. Die Mitarbeiter einer Organisation gelten als Schlüssel-Akteure bezüglich exzellentem Service. Fördernde interne Umstände entstehen aus dem Verhalten des Managements gegenüber den Angestellten. Dies kann sich in Form von Empowerment und Encouragement, also der Ermächtigung und der Ermutigung ausdrücken. Die interne Exzellenz ist der optimale interne Organisationszustand, um eine Service Excellence Kultur zu erzeugen. Aus einer internen Exzellenz heraus agieren die Front-Line-Employees mittels standardisierter sowie innovativer Prozesse mit den Kunden, und streben an, diese zufrieden zu stellen und Begeisterung zu erzeugen. Ein hemmender Faktor ist die Komplexität der Kundenprobleme, da dadurch die Erreichung von Kundenzufriedenheit und Begeisterung erschwert wird. In der IT-Dienstleistungsbranche spielt die Komplexität eine besondere Rolle. Durch die häufig individuellen und technischen Probleme entsteht eine erhöhte Komplexität, die eine Herausforderung für die Service-Mitarbeiter zur Folge hat. Damit dennoch Kundenzufriedenheit mit exzellentem Service erzeugt werden kann, gilt es, den Mitarbeiter mit einem detaillierten Handlungsleitfaden durch den Service-Prozess zu leiten. Zudem ist eine Wissensdatenbank von Nutzen, da jeder Service-Fall zum Wissensaufbau genutzt werden kann. Ein weiteres förderndes Element in einer Service Excellence Kultur ist die technische Unterstützung des Front-Line-Employees durch geeignete Software, die ihm grundlegende Aufgaben abnimmt.
Navigation is a natural way to explore and discover content in a digital environment. Hence, providers of online information systems such as Wikipedia---a free online encyclopedia---are interested in providing navigational support to their users. To this end, an essential task approached in this thesis is the analysis and modeling of navigational user behavior in information networks with the goal of paving the way for the improvement and maintenance of web-based systems. Using large-scale log data from Wikipedia, this thesis first studies information access by contrasting search and navigation as the two main information access paradigms on the Web. Second, this thesis validates and builds upon existing navigational hypotheses to introduce an adaptation of the well-known PageRank algorithm. This adaptation is an improvement of the standard PageRank random surfer navigation model that results in a more "reasonable surfer" by accounting for the visual position of links, the information network regions they lead to, and the textual similarity between the link source and target articles. Finally, using agent-based simulations, this thesis compares user models that have a different knowledge of the network topology in order to investigate the amount and type of network topological information needed for efficient navigation. An evaluation of agents' success on four different networks reveals that in order to navigate efficiently, users require only a small amount of high-quality knowledge of the network topology. Aside from the direct benefits to content ranking provided by the "reasonable surfer" version of PageRank, the empirical insights presented in this thesis may also have an impact on system design decisions and Wikipedia editor guidelines, i.e., for link placement and webpage layout.
Retrospektive Analyse der Ausbreitung und dynamische Erkennung von Web-Tracking durch Sandboxing
(2018)
Aktuelle quantitative Analysen von Web-Tracking bieten keinen umfassenden Überblick über dessen Entstehung, Ausbreitung und Entwicklung. Diese Arbeit ermöglicht durch Auswertung archivierter Webseiten eine rückblickende Erfassung der Entstehungsgeschichte des Web-Trackings zwischen den Jahren 2000 und 2015. Zu diesem Zweck wurde ein geeignetes Werkzeug entworfen, implementiert, evaluiert und zur Analyse von 10000 Webseiten eingesetzt. Während im Jahr 2005 durchschnittlich 1,17 Ressourcen von Drittparteien eingebettet wurden, zeigt sich ein Anstieg auf 6,61 in den darauffolgenden 10 Jahren. Netzwerkdiagramme visualisieren den Trend zu einer monopolisierten Netzstruktur, in der bereits ein einzelnes Unternehmen 80 % der Internetnutzung überwachen kann.
Trotz vielfältiger Versuche, dieser Entwicklung durch technische Maßnahmen entgegenzuwirken, erweisen sich nur wenige Selbst- und Systemschutzmaßnahmen als wirkungsvoll. Diese gehen häufig mit einem Verlust der Funktionsfähigkeit einer Webseite oder mit einer Einschränkung der Nutzbarkeit des Browsers einher. Mit der vorgestellten Studie wird belegt, dass rechtliche Vorschriften ebenfalls keinen hinreichenden Schutz bieten. An Webauftritten von Bildungseinrichtungen werden Mängel bei Erfüllung der datenschutzrechtlichen Pflichten festgestellt. Diese zeigen sich durch fehlende, fehlerhafte oder unvollständige Datenschutzerklärungen, deren Bereitstellung zu den Informationspflichten eines Diensteanbieters gehören.
Die alleinige Berücksichtigung klassischer Tracker ist nicht ausreichend, wie mit einer weiteren Studie nachgewiesen wird. Durch die offene Bereitstellung funktionaler Webseitenbestandteile kann ein Tracking-Unternehmen die Abdeckung von 38 % auf 61 % erhöhen. Diese Situation wird durch Messungen von Webseiten aus dem Gesundheitswesen belegt und aus technischer sowie rechtlicher Perspektive bewertet.
Bestehende systemische Werkzeuge zum Erfassen von Web-Tracking verwenden für ihre Messung die Schnittstellen der Browser. In der vorliegenden Arbeit wird mit DisTrack ein Framework zur Web-Tracking-Analyse vorgestellt, welches eine Sandbox-basierte Messmethodik verfolgt. Dies ist eine Vorgehensweise, die in der dynamischen Schadsoftwareanalyse erfolgreich eingesetzt wird und sich auf das Erkennen von Seiteneffekten auf das umliegende System spezialisiert. Durch diese Verhaltensanalyse, die unabhängig von den Schnittstellen des Browsers operiert, wird eine ganzheitliche Untersuchung des Browsers ermöglicht. Auf diese Weise können systemische Schwachstellen im Browser aufgezeigt werden, die für speicherbasierte Web-Tracking-Verfahren nutzbar sind.
The concept of hard and soft news (HSN) is regarded as one of the most important concepts in journalism research. Despites this popularity, two major research voids can be assigned to the concept. First, it lacks conceptual clarity: the concept gets used interchangeably with related concepts such as sensationalism, which has led to fuzzy demarcations of HSN. Also, it is still not agreed on of which dimensions the concept in composed. Second, little is known about the factors that influence the production of news in terms of their hard or soft nature. The present disserta-tion casts a twofold glance on the HSN concept – it aims to assess the conceptual status of the concept and production of hard and soft news.
At the outset, this dissertation delineates the theoretical base for three manuscripts in total and presented considerations on concepts in social sciences in general and hard and soft news in particular as well as the production of news, particularly of hard and soft news. The first paper proposed a theoretical frame-work model to distinguish HSN and related concepts. Based on a literature review of in total five concepts, this model suggested a hierarchy in which these concepts can be discerned according to their occurrence in media content. The second pa-per focused on the inner coherence of the HSN concept in its most recent academ-ic understanding. The results of a factorial survey with German newspaper jour-nalists showed that, indeed, four out of five dimensions of the HSN concept com-prised what the journalists understood by it. Hence, the most recent academic un-derstanding is to a great extent coherent. The third study shed light on the produc-tion of HSN, focusing on the influence of individual journalists’ and audience’s characteristics on whether news was presented in hard or soft way. The findings of a survey with simulated decision scenarios among German print journalists showed that the HSN dimensions were susceptible to different journalistic influ-ences and that a perceived politically uninterested audience led to a softer cover-age. The dissertation concluded with connecting these findings with the considera-tions on concept evaluation and the production of news. Implications for research on and with the concept of HSN were presented, before concluding with limitations and suggestions for future research.
In dieser Bachelorarbeit wird ein System zur Simulation der Bewegung von Molekülen entworfen. Die Berechnungen der Kräfte zwischen chemisch gebundenen Atomen sowie zwischenmolekularer Kräfte werden fast vollständig auf der GPU durchgeführt. Die Visualisation der Simulation findet in einer interaktiven Bildwiederholrate statt. Um eine Darstellung in Echtzeit auf den meisten handelsüblichen Grafikkarten zur ermöglichen, sind geschickte Optimierungen und leichte Abstraktionen der physikalischen Modelle notwendig. Zu jeder Zeit kann die Ausführungsgeschwindigkeit der Simulation verändert oder vollständig gestoppt werden. Außerdem lassen sich einige Parameter der zugrundeliegenden physikalischen Modelle der Simulation zur Laufzeit verändern. Mit den richtigen Einstellung der Parametern lassen sich bestimmte Phänomene der Molekulardynamik, wie zum Beispiel die räumliche Struktur der Moleküle, beobachten.
Die folgende Arbeit beschreibt die prototypische Konzeption und Entwicklung des Stat-Raising Spiels "Adventurer's Guild" mithilfe der Spielengine Ren'Py. Das Spiel soll eine durch Spielentscheidungen und Planung von Aktivitäten beeinflussbare Narrative haben und Spaß machen sowie optisch ansprechend sein.
Nach einem Überblick über das "Stat-Raising" als Genre sollen die existierenden Spiele "Dandelion - Wishes Brought to You", "Pastry Lovers", "Long Live the Queen" und "Magical Diary" analysiert werden, um anhand dessen die Schwächen und Stärken der verschiedenen Umsetzungen herauszufiltern.
Die daraus gewonnenen Erkenntnisse werden für die anschließende Konzeption eines neuen Stat-Raising Spiels genutzt.
Die Spielmechaniken und die getroffenen Designentscheidungen des resultierenden Spiels werden anschließend mit Screenshots gezeigt und ausführlich erklärt.
In einer finalen Bewertung wird das Spiel hinsichtlich der Aufgabenstellung untersucht. Im Ausblick werden weitere Ausbau- und Verbesserungsmöglichkeiten des Spiels aufgezeigt.
Tradierte Managementsysteme und primär auf die Erfüllung finanzieller Ziele ausgerichtete Führungsansätze scheinen heute der wirtschaftlichen Dynamik nicht mehr gewachsen. Die Zahl ausgebrannter Führungskräfte und Mitarbeiter nimmt zu. Ebenso der volkswirtschaftliche Schaden durch schlechte Führungsleistung. Zwar beeinflussen externe Faktoren wie globaler Wettbewerb, aufkeimende Handelskriege, die Digitalisierung in Wirtschaft und Gesellschaft die Rahmensetzungen für Unternehmen. Die Entscheidung über Erfolg oder Misserfolg verlagert sich aber signifikant nach Innen.
Diese Arbeit zeigt auf, dass Wissenschaftler und erfolgreiche CEOs einen Paradigmenwechsel fordern, da sie Kommunikationsbereitschaft und Kommunikationsfähigkeit als die relevanten Erfolgsfaktoren identifizieren. Unterstützend bestätigen interdisziplinäre Erkenntnisse und Forschungsergebnisse anderer Disziplinen – speziell der Neurowissenschaften, die Wirksamkeit einer Kommunikationskultur, die alle Sinne des Menschen aktiviert.
Das Phänomen der Kommunikation ganzheitlich zu verstehen und mittels dialogbasiertem Management umzusetzen, wird zum neuen Erfolgsschlüssel und wirkt sich auf alle unternehmerischen Prozesse, Führungs- und Interaktionssituationen aus. Unabhängig von Betriebsgröße und Branche. Die durch Dialog in Gang gesetzte positive reziproke Eskalation führt dazu, dass Kollegen/Mitarbeiter ihr Können und ihr Engagement in viel höherem Maße freiwillig zur Verfügung stellen, als es z.B. finanzielle Anreizsysteme je bewirken können.
Die Empirie dieser Forschungsarbeit spiegelt das Wissen der 22 hoch erfolgreichen österreichischen CEOs, Führungskräfte und Firmeneigentümer über Interne Kommunikation und deren Annäherung an diese Führungsaufgabe wider. In der Folge sind Leit-Ideen das vernetzte Ergebnis der theoretischen und empirischen Analysen. Diese daraus destillierten Leit-Ideen stehen für einen radikal dialogbasierten Kommunikationsansatz, der sämtliche Management-, Geschäfts- und Unterstützungsprozesse determiniert.
Verstehen CEOs und Führungskräften eine dialogbasierte Interne Kommunikation als eindeutig ihnen zufallende Führungsaufgabe, kann heute und in Zukunft die Querschnittsmaterie Interne Kommunikation zum größten Ressourcen-Pool für unternehmerischen Erfolg werden, so die diesbezüglichen Schlussfolgerungen.
Das fotorealistische Rendering von Fell ist ein oft gesehenes Problem in der Computergrafik und wird besonders bei Animationsfilmen häufig gebraucht. In dieser Arbeit werden zwei Beleuchtungsmodelle, ursprünglich zum Rendern von menschlichen Haaren, vorgestellt. Dies ist zum einen das Modell von Marschner et al. aus dem Jahr 2003, welches als Grundlage für viele neuere Modelle gilt, sowie das Modell von d’Eon et al. aus dem Jahr 2011. Beide Modelle werden innerhalb eines Pathtracers, welcher globale Beleuchtung simuliert, implementiert. Es werden die Besonderheiten von Haar-Fasern aus Fell im Gegensatz zu menschlichen Haar-Fasern aufgezeigt und folglich erläutert, warum die präsentierten Modelle auch für viele Fellarten genutzt werden können. Dabei liegt der Fokus auf einer realistischen visuellen Darstellung. Zusätzlich wird die Performance beider Modelle verglichen und Verbesserungsvorschläge durch die Nutzung von zylinder förmigen Schnittpunktobjekten für den Pathtracer gegeben und anhand der Implementation evaluiert.
Finanzordnung Abteilung Landau
Satzung der örtlichen Studierendenschaft an der Universität Koblenz-Landau, Campus Landau
Wahlordnung der örtlichen Studierendenschaft der Universität Koblenz-Landau, Campus Landau
Habilitationsordnung des Fachbereichs 3: Mathematik / Naturwissenschaften der Universität Koblenz-Landau, Campus Koblenz
Satzung zur Festsetzung von Zulassungszahlen an der Universität Koblenz-Landau für das Studienjahr 2018/2019
Satzung zur Festsetzung der Normwerte für den Ausbildungsaufwand (Curricularnormwerte) der Universität Koblenz-Landau
Ordnung für die Prüfung im Masterstudiengang Master of Engineering Ceramic Science and Engineering - Nichtmetallisch-anorganische Werkstoffe und Technologien (NAWT) - an der Hochschule Koblenz und der Universität Koblenz-Landau (Kooperativer Masterstudiengang)
Zweiundzwanzigste Ordnung zur Änderung der Prüfungsordnung für die Prüfung im lehramtsbezogenen Bachelorstudiengang an der Universität Koblenz-Landau
Neunzehnte Ordnung zur Änderung der Prüfungsordnung für die Prüfung in den Masterstudiengängen für das Lehramt an Grundschulen, das Lehramt an Realschulen plus, das Lehramt an Förderschulen sowie das Lehramt an Gymnasien an der Universität Koblenz-Landau
Zehnte Ordnung zur Änderung der Prüfungsordnung für die Prüfung im lehramtsbezogenen Bachelorstudiengang Berufsbildende Schulen an der Universität Koblenz-Landau, der Hochschule Koblenz und der philosophisch-Theologischen Hochschule Vallendar
Neunte Ordnung zur Änderung der Ordnung für die Prüfung im Masterstudiengang Lehramt an berufsbildenden Schulen an der Universität Koblenz-Landau, der Hochschule Koblenz und der Philosophisch-Theologischen Hochschule Vallendar
Achtzehnte Ordnung zur Änderung der Ordnung für die Prüfung im lehramtsbezogenen Zertifikatsstudiengang (Erweiterungsprüfung) an der Universität Koblenz-Landau
Sechzehnte Ordnung zur Änderung der Prüfungsordnung für die Prüfung im Zwei-Fach-Bachelorstudiengang an der Universität Koblenz-Landau
Zweite Ordnung zur Änderung der Gemeinsamen Prüfungsordnung für den Bachelorstudiengang „Angewandte Naturwissenschaften“ und den Masterstudiengang „Chemie und Physik funktionaler Materialien“ an der Universität Koblenz-Landau
Vierte Ordnung zur Änderung der Ordnung für die Prüfung im Bachelorstudiengang und im Masterstudiengang BioGeoWissenschaften der Universität Koblenz-Landau
Zweite Ordnung zur Änderung der Gemeinsamen Prüfungsordnung für den Bachelorstudiengang „Mathematische Modellierung“ und den Masterstudiengang „Mathematical Modeling of Complex Systems“ an der Universität Koblenz-Landau
In der aquatischen Umwelt stellen Wasser-Sediment-Grenzschichten (WSG) die wichtigsten Bereiche bezüglich der Austauschprozesse zwischen dem Wasserkörper und dem Sediment dar. Diese räumlich begrenzten Regionen sind durch starke biogeochemische Gradienten charakterisiert, die die Speziierung und den Verbleib natürlicher und artifizielle Substanzen maßgeblich bestimmen. Abgesehen von biologischen Prozessen (z.B. grabende Organismen oder Photosynthese) ist der Austausch zwischen Wasser und Sediment von Diffusion oder Kolloid-gesteuerten Transport bestimmt. Dies erfordert Methoden, die es ermöglichen, die feinen Strukturen der Grenzschichten abzubilden und zwischen den unterschiedlichen Prozessen zu unterscheiden.
Hinsichtlich neu entwickelter Substanzen, die voraussichtlich in die aquatische Umwelt gelangen werden, sind artifizielle Nanomaterialien (engineered nanomaterials; ENMs) aufgrund ihrer zunehmenden Nutzung in Produkten und Anwendungen von großer Relevanz. Da sie auf der Grundlage ihrer Größe definiert werden (<100 nm), umfassen sie eine Vielzahl verschiedenster Materialien mit unterschiedlichem Verhalten in der Umwelt. Erreichen sie aquatische Systeme, mischen sie sich mit natürlich vorkommenden Kolloiden (<1 μm), die nanoskalige Partikel beinhalten.
Ausgehend von existierenden methodischen Lücken bezüglich der Charakterisierung von ENMs (als neu aufgekommene Substanzen) und WSG (als betroffene Umweltkompartimente) war das Ziel der vorliegenden Dissertation, die Entwicklung, Validierung und Anwendung einer geeigneten analytischen Basis, um ENMs an WSG untersuchen zu können. Die Herausforderungen lagen dabei in i) der Entwicklung von Methoden, die eine räumlich hochaufgelöste Beprobung von Sedimentporen-wasser erlauben. ii) Der Bereitstellung routinetauglicher Methoden zur Charakterisierung metall-basierter ENMs und iii) der Entwicklung von Methoden zur Größenfraktionierung von Porenwässern, um größenbezogene Elementverteilungsmustern an WSG erhalten zu können.
Im ersten Teil erfolgte die Entwicklung von Filter-Probenahmesonden, die in ein neuartiges Probenahmesystem integriert wurden, welches mit einem kommerziell verfügbaren Microprofiling-system kombiniert wurde (microprofiling micro sampling system; missy). Nach umfangreicher Validierung konnte in Experimenten die Tauglichkeit des missy für eine minimal-invasive und auto-matisierte Beprobung von Sedimentporenwasser bei parallelen Messungen mittels Mikrosensoren gezeigt werden. Es wurde somit erstmal möglich, im Millimetermaßstab Multielementinformationen für Sedimenttiefenprofile zu erhalten und diese in einen direkten Zusammenhang mit verschiedenen Sedimentparametern zu setzten.Aufgrund der zu erwartenden Freisetzung von ENMs in die Umwelt, war es das Ziel, Methoden bereitzustellen, die eine Untersuchung von Transportprozessen und dem Verbleib von ENMs an WSG ermöglichen. Da standardisierte Methoden noch immer fehlen, erfolgte die Entwicklung routinetauglicher Ansätze zur Bestimmung der Massenkonzentration sowie der gelösten Fraktion von ENM-Suspensionen. Somit konnten erstmals Methoden bereitgestellt werden, die eine routinetaugliche Bestimmung von zwei der wichtigsten Eigenschaften kolloidaler Systeme ermöglichen, die ebenfalls für die Entwicklung geeigneter Risikoabschätzungen und Regularien benötigt werden.
Basierend auf dieser methodischen Grundlage erfolge die Entwicklung geeigneter Verfahren zur Bestimmung der gelösten und kolloidalen Fraktionen in Sedimentporenwässern. Dies ermöglichte es erstmalig, fraktionsbezogene Elementinformationen für Sedimenttiefenprofile in millimetergenauer Auflösung zu erhalten, was eine Unterscheidung zwischen Diffusion und kolloid-gesteuerten Transportprozessen gestattet.
Zusätzlich zu den forschungsorientierten Teilen der vorgelegten Dissertation wurden in einer weiteren, als Anhang beigefügten Publikation (Appendix III) Fragen zu einem möglichen Eintrag nanoskaliger Stoffe in Oberflächengewässer vor dem Hintergrund des aktuell gültigen Deutschen Wasserrechtes adressiert.
This thesis addresses the automated identification and localization of a time-varying number of objects in a stream of sensor data. The problem is challenging due to its combinatorial nature: If the number of objects is unknown, the number of possible object trajectories grows exponentially with the number of observations. Random finite sets are a relatively new theory that has been developed to derive at principled and efficient approximations. It is based around set-valued random variables that contain an unknown number of elements which appear in arbitrary order and are themselves random. While extensively studied in theory, random finite sets have not yet become a leading paradigm in practical computer vision and robotics applications. This thesis explores random finite sets in visual tracking applications. The first method developed in this thesis combines set-valued recursive filtering with global optimization. The problem is approached in a min-cost flow network formulation, which has become a standard inference framework for multiple object tracking due to its efficiency and optimality. A main limitation of this formulation is a restriction to unary and pairwise cost terms. This circumstance makes integration of higher-order motion models challenging. The method developed in this thesis approaches this limitation by application of a Probability Hypothesis Density filter. The Probability Hypothesis Density filter was the first practically implemented state estimator based on random finite sets. It circumvents the combinatorial nature of data association itself by propagation of an object density measure that can be computed efficiently, without maintaining explicit trajectory hypotheses. In this work, the filter recursion is used to augment measurements with an additional hidden kinematic state to be used for construction of more informed flow network cost terms, e.g., based on linear motion models. The method is evaluated on public benchmarks where a considerate improvement is achieved compared to network flow formulations that are based on static features alone, such as distance between detections and appearance similarity. A second part of this thesis focuses on the related task of detecting and tracking a single robot operator in crowded environments. Different from the conventional multiple object tracking scenario, the tracked individual can leave the scene and later reappear after a longer period of absence. Therefore, a re-identification component is required that picks up the track on reentrance. Based on random finite sets, the Bernoulli filter is an optimal Bayes filter that provides a natural representation for this type of problem. In this work, it is shown how the Bernoulli filter can be combined with a Probability Hypothesis Density filter to track operator and non-operators simultaneously. The method is evaluated on a publicly available multiple object tracking dataset as well as on custom sequences that are specific to the targeted application. Experiments show reliable tracking in crowded scenes and robust re-identification after long term occlusion. Finally, a third part of this thesis focuses on appearance modeling as an essential aspect of any method that is applied to visual object tracking scenarios. Therefore, a feature representation that is robust to pose variations and changing lighting conditions is learned offline, before the actual tracking application. This thesis proposes a joint classification and metric learning objective where a deep convolutional neural network is trained to identify the individuals in the training set. At test time, the final classification layer can be stripped from the network and appearance similarity can be queried using cosine distance in representation space. This framework represents an alternative to direct metric learning objectives that have required sophisticated pair or triplet sampling strategies in the past. The method is evaluated on two large scale person re-identification datasets where competitive results are achieved overall. In particular, the proposed method better generalizes to the test set compared to a network trained with the well-established triplet loss.
Volumetrische Beleuchtung
(2018)
Volumetrische Beleuchtung ist ein verbreitetes Beleuchtungsphänomen in der Natur und trägt in weiten Teilen zu dem realistischen Erscheinen von computergenerierten Bildern bei. Diese Arbeit befasst sich mit den physikalischen Hintergründen dieses Phänomens, listet bekannte Modelle zur Visualisierung von volumetrischer Beleuchtung in der Computergrafik auf und vergleicht anschließend drei Verfahren, mit denen eine volumetrische Beleuchtung mit heutiger Grafikhardware visualisiert werden kann. Diese Verfahren werden anhand einer Implementation in OpenGL hinsichlich ihrer Möglichkeiten und Einschränkungen, sowie ihres Rechenaufwands miteinander verglichen.
Systemische Neonicotinoide gehören zu den weltweit meist genutzten Insektiziden. Neben ihrer Anwendung in der Landwirtschaft werden sie zunehmend zur Bekämpfung von Baumschädlingen in
der Forstwirtschaft eingesetzt. Die im Herbst von Laubbäumen fallenden Blätter können allerdings
immer noch Neonicotinoide enthalten. Gelangen diese kontaminierten Blätter schließlich in
nahegelegene Bäche werden die wasserlöslichen Neonicotinoide wieder mobilisiert und somit
potenziell aquatische Nicht-Zielorganismen über die Wasserphase exponiert. Obwohl der Standardtestorganismus Daphnia magna (Crustacea; Cladocera) relativ unempfindlich gegenüber
Neonicotinoiden ist, sind viele andere aquatische Invertebraten bereits bei einer Exposition im ng/L- bis niedrigem μg/L-Bereich negativ beeinträchtigt. Besonders laubzersetzende Invertebraten (= Shredder) könnten, zusätzlich zu einer Exposition über die Wasserphase, durch den Eintrag von Neonicotinoid-kontaminiertem Laub in ein Fließgewässer negativ beeinträchtigt werden, da Laub für sie eine essentielle Nahrungsquelle darstellt. Jedoch erhielt dieser Expositionspfad im Zusammenhang mit aquatischen Shreddern und Neonicotinoid-kontaminiertem Pflanzenmaterial bisher kaum Aufmerksamkeit seitens der Forschung und findet keine Berücksichtigung in der aquatischen Umweltrisikobewertung. Das Hauptziel dieser Arbeit war daher (1) Neonicotinoidrückstände in Blättern zu quantifizieren sowie für Shredder relevante Expositionswege zu identifizieren, (2)
ökotoxikologische Effekte einer Exposition über die Wasserphase sowie über die Nahrung für zwei
Modell-Shredder Gammarus fossarum (Amphipoda) und Chaetopteryx villosa (Insecta) zu untersuchen, und schließlich (3) biotische und abiotische Faktoren zu betrachten, welche eine Exposition unter Feldbedingungen potenziell beeinträchtigen könnten.
Im Rahmen dieser Arbeit konnten Rückstände der Neonicotinoide Imidacloprid, Thiacloprid und
Acetamiprid in Blätter behandelter Schwarzerlen quantifiziert werden. Ein entwickeltes „Worst-Case
Modell“ prognostizierte niedrige Imidaclopridwasserkonzentrationen für einen Bach in welchen Imidacloprid-kontaminierte Blätter eingetragen werden. Jedoch konnte mit Hilfe des Modells die Aufnahme über die Nahrung als ein für aquatische Shredder relevanter Expositionspfad identifiziert werden. Der Konsum von Neonicotinoid-kontaminierten Blättern führte, bei gleichzeitiger Exposition über die Wasserphase (= kombinierte Exposition), in beiden Testorganismen zu stärkeren Effekten als die alleinige Exposition über die Wasserphase. Des Weiteren gelang es in einem weiteren Laborexperiment die beiden Expositionswege mittels einer Durchflussanlage zu separieren. Hierbei führte die separate Exposition von G. fossarum sowohl über die Nahrung (= Konsum von Thiaclopridkontaminierten Blättern) als auch über die Wasserphase zu vergleichbaren Effektgrößen. Zudem ließen sich die unter einer kombinierten Exposition beobachteten Effektgrößen weitestgehend mit dem Referenzmodell der „Unabhängigen Wirkung“ vorhersagen, was eine Wirkung auf unterschiedliche molekulare Zielorte vermuten lässt. Die durch Imidacloprid ausgelöste toxischen Effekte auf G. fossarum konnten schließlich durch eine Behandlung der Blätter mit UV-Strahlung (repräsentativ für Sonnenlicht) sowie durch Leaching in Wasser reduziert werden. Jedoch waren beide Shredder-Spezies nicht dazu in der Lage aktiv eine Aufnahme von Neonicotinoiden über die Nahrung zu vermeiden. Daher geht aus dieser Arbeit die Empfehlung hervor, bereits während der Registrierung von systemischen Pestiziden, auf nahrungsbedingte Effekte zu testen und dadurch aquatische Shredder als auch assoziierte Ökosystemfunktionen (z.B. Laubabbau) zu schützen.
Die vorliegende Arbeit gibt einen Überblick über die Rahmenbedingungen der Programmierung von Grafikkarten. Dazu werden die zur wichtigsten am Markt vorhandenen Application Programming Interfaces (APIs) vorgestellt und miteinander verglichen. Anschließend werden zwei Standardalgorithmen aus der Datenverarbeitung, Prefix Sum und Radixsort vorgestellt und im Hinblick auf die Implementierung mit paralleler Programmierung auf der GPU zu untersucht. Beide Algorithmen wurden unter Nutzung der OpenGL-API und OpenGL Compute Shadern implementiert. Abschließend wurden die Ausführungszeiten der beiden Algorithmen miteinander verglichen.
Die vorliegende Arbeit beschreibt die Entwicklung eines OpenGL-basierten Tools zur Visualisierung von Hohlräumen in Proteinen, welche während eines statischen Dockings beobachtet werden können. Ziel ist es, anhand von Informationen über Abstände zwischen Proteinen und Liganden, Schluss- folgerungen über Interaktionen zu ziehen, um daraus Ansätze für die Entwicklung künstlicher Liganden zu gewinnen. Zunächst wird auf chemische Grundlagen eingegangen, die das Thema motivieren und für das Verständnis der Thematik und der genutzten Algorithmen wichtig sind. Des Weiteren wird bestehende Software vorgestellt, die ähnliche Sachverhalte löst. Anschließend werden die Voraussetzungen zur Entwicklung des Programmes genannt, woraufhin dieses detailliert beschrieben wird. Zum Abschluss wird das Tool in Hinblick auf Performance und Nutzen evaluiert und ein zusammenfassendes Fazit getroffen, in dem sich das Programm als gute Hilfe für bestehende Forschungen und gute Basis für weitere, tiefergehende Forschungsprojekte erweist.
Fresh water resources like rivers and reservoirs are exposed to a drastically changing world. In order to safeguard these lentic ecosystems, they need stronger protection in times of global change and population growth. In the last years, the exploitation pressure on drinking water reservoirs has increased steadily worldwide. Besides securing the demands of safe drinking water supply, international laws especially in Europe (EU Water Framework Directive) stipulate to minimize the impact of dams on downstream rivers. In this study we investigate the potential of a smart withdrawal strategy at Grosse Dhuenn Reservoir to improve the temperature and discharge regime downstream without jeopardizing drinking water production. Our aim is to improve the existing withdrawal strategy for operating the reservoir in a sustainable way in terms of water quality and quantity. First, we set-up and calibrated a 1D numerical model for Grosse Dhuenn Reservoir with the open-source community model “General Lake Model” (GLM) together with its water quality module “Aquatic Ecodynamics” library (AED2). The reservoir model reproduced water temperatures and hypolimnetic dissolved oxygen concentrations accurately over a 5 year period. Second, we extended the model source code with a selective withdrawal functionality (adaptive offtake) and added operational rules for a realistic reservoir management. Now the model is able to autonomously determine the best withdrawal height according to the temperature and flow requirements of the downstream river and the raw water quality objectives. Criteria for the determination of the withdrawal regime are selective withdrawal, development of stratification and oxygen content in the deep hypolimnion. This functionality is not available in current reservoir models, where withdrawal heights are generally provided a priori to the model and kept fixed during the simulation. Third, we ran scenario simulations identifying an improved reservoir withdrawal strategy to balance the demands for downstream river and raw water supply. Therefore we aimed at finding an optimal parallel withdrawal ratio between cold hypolimnetic water and warm epilimnetic or metalimnetic water in order to provide a pre-defined temperature in the downstream river. The reservoir model and the proposed withdrawal strategy provide a simple and efficient tool to optimize reservoir management in a multi-objective view for mastering future reservoir management challenges.
Die in den letzten Jahren fortschreitende Digitalisierung hat zur Ausbreitung und Popularisierung von Internet of Things (IoT) Technologie beigetragen (Mattern and Floerkemeier, 2010; Evans, 2013). Darüber hinaus wurde die Gesundheitsdomäne als eine der am stärksten aktiven IoT Bereiche identifiziert (Steele and Clarke, 2013). Die vorliegende Bachelorarbeit gibt einen Überblick über IoT gestützte Gamification und entwickelt ein Framework welches IoT und Gamification im Kontext einer Versicherung kombiniert. Beim Untersuchen von Gamification wurde ein konzeptuelles Modell entwickelt welches insbesondere die Rolle von IoT in einem solchen Ansatz verdeutlicht. Diesbezüglich wurde festgestellt, dass IoT bei der Aufgabenstellung Anwendung findet und diese zum einen in einem großen Rahmen ermöglicht sowie innovative und komplexere Aufgaben erlaubt. In diesem Zusammenhang wurden besonders die Vorteile und Notwendigkeit von tragbaren IoT Geräten erläutert. Eine Stakeholder Analyse beschäftigte sich mit den Vorteilen, welche durch IoT und Gamification erreicht werden können. Hierbei konnten zwei daraus erwachsende Paradigmenwechsel, für Versicherung und Versicherungsnehmer, identifiziert werden. Basierend auf den zuvor gewonnenen Erkenntnissen der Untersuchung der Gamification Ansätze und der Stakeholder Analyse wurde ein IoT gestütztes Gamification Framework entwickelt. Das Framework weißt einen Level-basierten Aufbau auf, welcher den Benutzer entlang des Entwurfsprozess leiten soll. Sowohl das erstellen, als auch das analysieren eines bestehenden Ansatzes ist mit dem Framework möglich. Darüber hinaus wurde das Framework anhand von Pokémon Go instanziiert um mögliche Mängel zu identifizieren und zu erklären. Die vorliegende Bachelorarbeit liefert eine Grundlage auf deren Basis umfassendere kontextbezogene Forschung betrieben werden kann