Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (249) (entfernen)
Sprache
- Englisch (249) (entfernen)
Schlagworte
- Pestizid (6)
- Pflanzenschutzmittel (5)
- Landwirtschaft (4)
- Software Engineering (4)
- ecotoxicology (4)
- Biodiversität (3)
- Bodenchemie (3)
- Insektizid (3)
- Nanopartikel (3)
- Pesticides (3)
Institut
- Fachbereich 7 (73)
- Institut für Informatik (29)
- Institut für Integrierte Naturwissenschaften, Abt. Biologie (23)
- Fachbereich 8 (20)
- Institut für Umweltwissenschaften (19)
- Institute for Web Science and Technologies (11)
- Institut für Computervisualistik (9)
- Institut für Integrierte Naturwissenschaften, Abt. Chemie (9)
- Mathematisches Institut (8)
- Institut für Anglistik und Amerikanistik (7)
Empirische Studien in der Softwaretechnik verwenden Software Repositories als Datenquellen, um die Softwareentwicklung zu verstehen. Repository-Daten werden entweder verwendet, um Fragen zu beantworten, die die Entscheidungsfindung in der Softwareentwicklung leiten, oder um Werkzeuge bereitzustellen, die bei praktischen Aspekten der Entwicklung helfen. Studien werden in die Bereiche Empirical Software Engineering (ESE) und Mining Software Repositories (MSR) eingeordnet. Häufig konzentrieren sich Studien, die mit Repository-Daten arbeiten, auf deren Ergebnisse. Ergebnisse sind aus den Daten abgeleitete Aussagen oder Werkzeuge, die bei der Softwareentwicklung helfen. Diese Dissertation konzentriert sich hingegen auf die Methoden und High-Order-Methoden, die verwendet werden, um solche Ergebnisse zu erzielen. Insbesondere konzentrieren wir uns auf inkrementelle Methoden, um die Verarbeitung von Repositories zu skalieren, auf deklarative Methoden, um eine heterogene Analyse durchzuführen, und auf High-Order-Methoden, die verwendet werden, um Bedrohungen für Methoden, die auf Repositories arbeiten, zu operationalisieren. Wir fassen dies als technische und methodische Verbesserungen zusammen um zukünftige empirische Ergebnisse effektiver zu produzieren. Wir tragen die folgenden Verbesserungen bei. Wir schlagen eine Methode vor, um die Skalierbarkeit von Funktionen, welche über Repositories mit hoher Revisionszahl abstrahieren, auf theoretisch fundierte Weise zu verbessern. Wir nutzen Erkenntnisse aus abstrakter Algebra und Programminkrementalisierung, um eine Kernschnittstelle von Funktionen höherer Ordnung zu definieren, die skalierbare statische Abstraktionen eines Repositorys mit vielen Revisionen berechnen. Wir bewerten die Skalierbarkeit unserer Methode durch Benchmarks, indem wir einen Prototyp mit MSR/ESE Wettbewerbern vergleichen. Wir schlagen eine Methode vor, um die Definition von Funktionen zu verbessern, die über ein Repository mit einem heterogenen Technologie-Stack abstrahieren, indem Konzepte aus der deklarativen Logikprogrammierung verwendet werden, und mit Ideen zur Megamodellierung und linguistischen Architektur kombiniert werden. Wir reproduzieren bestehende Ideen zur deklarativen Logikprogrammierung mit Datalog-nahen Sprachen, die aus der Architekturwiederherstellung, der Quellcodeabfrage und der statischen Programmanalyse stammen, und übertragen diese aus der Analyse eines homogenen auf einen heterogenen Technologie-Stack. Wir liefern einen Proof-of-Concept einer solchen Methode in einer Fallstudie. Wir schlagen eine High-Order-Methode vor, um die Disambiguierung von Bedrohungen für MSR/ESE Methoden zu verbessern. Wir konzentrieren uns auf eine bessere Disambiguierung von Bedrohungen durch Simulationen, indem wir die Argumentation über Bedrohungen operationalisieren und die Auswirkungen auf eine gültige Datenanalysemethodik explizit machen. Wir ermutigen Forschende, „gefälschte“ Simulationen ihrer MSR/ESE-Szenarien zu erstellen, um relevante Erkenntnisse über alternative plausible Ergebnisse, negative Ergebnisse, potenzielle Bedrohungen und die verwendeten Datenanalysemethoden zu operationalisieren. Wir beweisen, dass eine solche Art des simulationsbasierten Testens zur Disambiguierung von Bedrohungen in der veröffentlichten MSR/ESE-Forschung beiträgt.
Focusing on the triangulation of detective fiction, masculinity studies and disability studies, "Investigating the Disabled Detective – Disabled Masculinity and Masculine Disability in Contemporary Detective Fiction" shows that disability challenges common ideals of (hegemonic) masculinity as represented in detective fiction. After a theoretical introduction to the relevant focal points of the three research fields, the dissertation demonstrates that even the archetypal detectives Dupin and Holmes undermine certain nineteenth-century masculine ideals with their peculiarities. Shifting to contemporary detective fiction and adopting a literary disability studies perspective, the dissertation investigates how male detectives with a form of neurodiversity or a physical impairment negotiate their masculine identity in light of their disability in private and professional contexts. It argues that the occupation as a detective supports the disabled investigator to achieve ‘masculine disability’. Inversing the term ‘disabled masculinity’, predominantly used in research, ‘masculine disability’ introduces a decisively gendered reading of neurodiversity and (acquired) physical impairment in contemporary detective fiction. The term implies that the disabled detective (re)negotiates his masculine identity by implementing the disability in his professional investigations and accepting it as an important, yet not defining, characteristic of his (gender) identity. By applying this approach to five novels from contemporary British and American detective fiction, the dissertation demonstrates that masculinity and disability do not negate each other, as commonly assumed. Instead, it emphasises that disability allows the detective, as much as the reader, to rethink masculinity.
Die aus nachwachsenden Rohstoffen hergestellten biologisch abbaubaren Polymere Polymilchsäure (polylactic acid, PLA) und Polyhydroxybuttersäure (polyhydroxybutyrate, PHB) wurden im Rahmen dieser Arbeit mit hydrierten amorphen Kohlenstoffschichten (amorphous hydrogenated carbon, a-C:H) bei unterschiedlichen Winkeleinstellungen mit verschiedenen Dicken beschichtet. Ähnlich wie herkömmliche Polymere haben Biopolymere oft ungeeignete Oberflächeneigenschaften für industrielle Zwecke, z.B. eine geringe Härte. Für manche Anwendungen ist es daher notwendig und vorteilhaft, die Oberflächeneigenschaften von Biopolymeren unter Beibehaltung der Haupteigenschaften des Trägermaterials zu modifizieren. Eine geeignete Oberflächenmodifikation ist das Aufbringen von dünnen a-C:H Schichten. Ihre Eigenschaften hängen wesentlich vom sp²- und sp³-Hybridisierungsverhältnis der Kohlenstoffatome und dem Gehalt an Wasserstoffatomen ab. Das sp²/sp³-Verhältnis sollte in der vorliegenden Arbeit durch Variation der Beschichtungsgeometrie gesteuert werden. Da Beschichtungen bei 0°, direkt vor der Plasmaquelle, einen höheren Anteil an sp³ und indirekt (180°) beschichtete ein höheren Anteil an sp² aufweisen, wird in dieser Arbeit gezeigt, dass es möglich ist, das sp²/sp³ -Verhältnis zu kontrollieren. Dazu werden die einzelnen Proben in den Winkeln 0, 30, 60, 90, 120, 150 und 180° vor der Plasmaquelle platziert und mit einer Dauer von 2.5, 5.0, 7.5 und 10.0 Minuten beschichtet. Für den Winkeln 0° ergaben sich die Schichtdicken von 25, 50, 75 und 100 nm. Die a-C:H Schichten wurden alle mit Radiofrequenzplasma-unterstützter chemischer Gasphasenabscheidung und Acetylen als C und H Quelle abgeschieden, nachdem sie 10 Minuten lang mit einem Sauerstoffplasma vorbehandelt worden waren. Nach dieser O₂-Behandlung und der a-C:H Abscheidung werden die Oberflächen mit makroskopischen und mikroskopischen Messmethoden untersucht und die Daten anschließend analysiert. Die Oberflächenmorphologie wird mit Hilfe der Rasterelektronenmikroskopie und der Rasterkraftmikroskopie erfasst. Auf diese Weise können auch Informationen über die Stabilität der Schicht und die Oberflächenrauhigkeit gesammelt werden. Mit Kontaktwinkelmessungen (contact angle, CA) wird nicht nur die Benetzbarkeit, sondern auch die Kontaktwinkelhysterese durch Auf- und Abpumpen des Tropfenvolumens bestimmt. Durch Messung des CA von verschiedenen Flüssigkeiten und deren Vergleich werden die freie Oberflächenenergie (surface free energy, SFE) und ihre polaren und dispersiven Bestandteile bestimmt. Die Veränderungen der Barriereeigenschaften werden durch Wasserdampftransmissionstests (water vapor transmission rate, WVTR) überprüft. Die chemische Analyse der Oberfläche erfolgt zum einen durch Fourier-Transformations-Infrarotspektroskopie mit spiegelnder Reflexion und zum anderen durch Synchrotron unterstützte Techniken wie der Nahkanten-Röntgenabsorptionsfeinstruktur und der Röntgen-Photoelektronenspektroskopie. Bei der Analyse der Oberflächen nach der O₂ Behandlung, von der zunächst angenommen wurde, dass sie nur der Reinigung und Aktivierung der Oberfläche für die a-C:H Beschichtung dient, wurde festgestellt, dass die Veränderungen drastischer sind als ursprünglich angenommen. Wird PLA zum Beispiel bei 0° für 10 Minuten behandelt, steigt die Rauheit um das Fünffache. Mit zunehmendem Winkel verringert sich diese wieder, bis sie bei 180° wieder dem Ausgangswert entspricht. Bei PHB hingegen wird durchgehend ein ähnlicher Wert gemessen. Für beide Polymere lässt sich zeigen, dass der polare Anteil der SFE zunimmt. In der WVTR ist bei PLA eine Abnahme der Permeabilität und bei PHB ein Anstieg des Ausgangswertes zu beobachten. Die chemische Oberflächenanalyse zeigt, dass die O₂ Behandlung kaum Auswirkungen auf die Oberflächenbindungen hat. Insgesamt kann in dieser Arbeit gezeigt werden, dass sich die O₂ Behandlung auf die Eigenschaften der Oberfläche auswirkt und nicht ausschließlich als Reinigungs- und Aktivierungsprozess betrachtet werden kann. Bei direkter a-C:H Beschichtung (bei 0°) ist sowohl bei PLA als auch bei PHB ein Schichtversagen bei 10.0 Minuten aufgrund von Eigenspannung zu beobachten. Dies ist bei PHB in geringerem Maße auch bei 30° zu erkennen. Die Durchlässigkeit der Polymere wird bei einer fünf minütigen Beschichtung um 47% reduziert und auch die Schicht bei 10.0 Minuten führt diesen Effekt trotz auftretender Risse weiter. Die Aufbringung von a-C:H Schichten zeigt für beide Polymertypen bei direkter Beschichtung eine Dominanz von sp³-Bindungen. Mit zunehmendem Winkel nimmt diese ab und bei indirekten Beschichtungen werden sp²-Bindungen dominierend. Dieses Ergebnis ist für alle Schichtdicken ähnlich, nur der Winkel, bei dem der Wechsel der dominanten Bindung stattfindet, ist unterschiedlich. Es wird gezeigt, dass es möglich ist, die Oberflächeneigenschaften durch eine winkelabhängige Beschichtung zu steuern und somit das Verhältnis sp²/sp³ zu kontrollieren.
In Geschäftsbeziehungen, z. B. im internationalen Eisenbahnverkehr, können große Datenmengen zwischen den beteiligten Parteien ausgetauscht werden. Für den Austausch solcher Daten wird erwartet, dass das Risiko betrogen zu werden, z. B. durch den Erhalt gefälschter Daten, marginal ist, als auch angemessene Kosten sowie ein vorhersehbarer Gewinn. Da die ausgetauschten Daten für wichtige Geschäftsentscheidungen verwendet werden können, besteht für eine Partei ein hoher Anreiz, die Daten zu ihren Gunsten zu manipulieren. Um diese Art von Manipulation zu unterbinden existieren Mechanismen zur Sicherstellung der Integrität und Authentizität der Daten. In Kombination mit einem Protokoll für einen fairen Austausch kann sichergestellt werden, dass die Integrität und Authentizität dieser Daten auch über einen Austausch mit einer anderen Partei hinweg erhalten bleibt. Gleichzeitig stellt ein solches Protokoll sicher, dass der Austausch der Daten nur bei gleichzeitigem Austausch mit der vereinbarten Gegenleistung, z. B. einer Bezahlung erfolgt, aber auch, dass die Bezahlung nur erfolgt, wenn die Integrität und Authentizität der Daten wie vorher vereinbart, gegeben ist. Um jedoch Fairness garantieren zu können, muss ein Fair Exchange Protokoll eine vertrauenswürdige dritte Partei einbeziehen. Um Betrug durch eine einzelne zentralisierte Partei zu vermeiden, die als vertrauenswürdige dritte Partei agiert, schlägt die aktuelle Forschung vor, die vertrauenswürdige dritte Partei zu dezentralisieren, indem z. B. ein Distributed Ledger-basiertes Fair-Exchange Protokoll verwendet wird. Bei der Bewertung der Fairness eines solchen Austauschs vernachlässigen die aktuellen Ansätze jedoch die Kosten, die den Parteien entstehen, die den Fair Exchange durchführen. Dies kann zu einer Verletzung der skizzierten Erwartung angemessener Kosten führen, insbesondere wenn Distributed Ledger beteiligt sind, deren Benutzung in der Regel mit nicht-vernachlässigbaren Kosten verbunden ist. Darüber hinaus ist die Geschwindigkeit typischer Distributed-Ledger-basierter Fair Exchange-Protokolle begrenzt, was einer breiten Verwendung im Wege steht.
Um diese Herausforderungen zu überwinden, stellen wir in dieser Arbeit die Grundlage für eine Datenaustauschplattform vor, die einen vollständig dezentralisierten Fair Exchange mit angemessenen Kosten und Geschwindigkeit ermöglicht. Als theoretische Grundlage führen wir das Konzept der cost fairness ein, die die Kosten für die Fairnessbewertung berücksichtigt, indem verlangt wird, dass eine Partei, die dem Fair Exchange-Protokoll folgt, niemals einseitige Nachteile erleidet. Wir weisen nach, dass cost fairness nicht mit typischen öffentlichen Distributed Ledgers erreicht werden kann, sondern maßgeschneiderte Distributed Ledger-Instanzen erfordert, die in der Regel nicht vollständig dezentralisiert sind. Wir zeigen jedoch, dass die meisten einseitigen Kosten durch Angriffe einer unehrlichen Partei im Rahmen einer Grieving Attack verursacht werden können. Um einen Fair Exchange zu angemessenen Kosten und Geschwindigkeit zu ermöglichen, stellen wir FairSCE vor, ein Distributed Ledger-basiertes Fair Exchange-Protokoll, welches Distributed Ledger State Channels verwendet und einen Mechanismus zum Schutz vor Grieving Attacks enthält, wodurch die möglichen einseitigen Kosten auf ein Minimum reduziert werden. Auf der Grundlage unserer Evaluation von FairSCE sind die Worst Case-Kosten für den Datenaustausch selbst bei Vorhandensein von böswilligen Parteien bekannt, was eine Abschätzung des möglichen Nutzens und damit eine vorläufige Schätzung des wirtschaftlichen Nutzens ermöglicht. Um eine eindeutige Bewertung der korrekten übertragenen Daten zu ermöglichen und gleichzeitig sensible Teile der Daten zu maskieren, stellen wir außerdem einen Ansatz für das Hashing hierarchisch strukturierter Daten vor, mit dem die Integrität und Authentizität der übertragenen Daten sichergestellt werden kann.
How to begin? This short question addresses a problem that is anything but simple, especially when regarding something as sophisticated and multilayered as musical theatre. However, scholars of this vast research area have mostly neglected this question so far. This study analyses and compares the initial sections of late Victorian popular musical theatre and is therefore a contribution to several fields of research: the analysis of initial sections of musical theatre in general, the analysis of the music of popular musical theatre in particular, and therefore operetta studies. The 1890s are especially interesting times for popular musical theatre in London: The premiered works include the last collaborations of Gilbert and Sullivan as well as offshoots of Savoy opera; but the so-called ‘naughty nineties’ also saw the emergence of a new genre, musical comedy, which captured the late Victorian zeitgeist like no other. This new form of theatrical entertainment was carefully and consciously constructed and promoted as modern and fashionable, walking a fine line between respectability and mildly risqué excitement.
Because a deep understanding of the developments and new tendencies concerning popular musical theatre in the 1890s is crucial in order to interpret differences as well as similarities, the analyses of the opening numbers are preceded by a detailed discussion of the relevant genres: comic opera, musical comedy, musical play and operetta. Since the producers of the analysed works wanted to distance themselves from former and supposedly old-fashioned traditions, this book also considers influences from their British predecessors, but also from Viennese operetta and French opéra bouffe.
The goal of this PhD thesis is to investigate possibilities of using symbol elimination for solving problems over complex theories and analyze the applicability of such uniform approaches in different areas of application, such as verification, knowledge representation and graph theory. In the thesis we propose an approach to symbol elimination in complex theories that follows the general idea of combining hierarchical reasoning with symbol elimination in standard theories. We analyze how this general approach can be specialized and used in different areas of application.
In the verification of parametric systems it is important to prove that certain safety properties hold. This can be done by showing that a property is an inductive invariant of the system, i.e. it holds in the initial state of the system and is invariant under updates of the system. Sometimes this is not the case for the condition itself, but for a stronger condition it is. In this thesis we propose a method for goal-directed invariant strengthening.
In knowledge representation we often have to deal with huge ontologies. Combining two ontologies usually leads to new consequences, some of which may be false or undesired. We are interested in finding explanations for such unwanted consequences. For this we propose a method for computing interpolants in the description logics EL and EL⁺, based on a translation to the theory of semilattices with monotone operators and a certain form of interpolation in this theory.
In wireless network theory one often deals with classes of geometric graphs in which the existence or non-existence of an edge between two vertices in a graph relies on properties on their distances to other nodes. One possibility to prove properties of those graphs or to analyze relations between the graph classes is to prove or disprove that one graph class is contained in the other. In this thesis we propose a method for checking inclusions between geometric graph classes.
Die Aufmerksamkeit politischer Entscheidungsträger weltweit richtet sich in den letzten 10 Jahren verstärkt auf die Kreativwirtschaft als signifikanter Wachstums- und Beschäftigungsmotor in Städten. Die Literatur zeigt jedoch, dass Kreativschaffende zu den gefährdetsten Arbeitskräften in der heutigen Wirtschaft gehören. Aufgrund des enorm deregulierten und stark individualisierten Umfelds werden Misserfolg oder Erfolg eher individuellen Fähigkeiten und Engagement zugeschrieben und strukturelle oder kollektive Aspekte vernachlässigt. Diese Arbeit widmet sich zeitlichen, räumlichen und sozialen Aspekten digitaler behavioraler Daten, um zu zeigen, dass es tatsächlich strukturelle und historische Faktoren gibt, die sich auf die Karrieren von Individuen und Gruppen auswirken. Zu diesem Zweck bietet die Arbeit einen computergestützten, sozialwissenschaftlichen Forschungsrahmen, der das theoretische und empirisches Wissen aus jahrelanger Forschung zu Ungleichheit mit computergestützten Methoden zum Umgang mit komplexen und umfangreichen digitalen Daten verbindet. Die Arbeit beginnt mit der Darlegung einer neuartigen Methode zur Geschlechtererkennung, welche sich Image Search und Gesichtserkennungsmethoden bedient. Die Analyse der kollaborativen Verhaltensweisen sowie der Zitationsnetzwerke männlicher und weiblicher Computerwissenschaftler*innen verdeutlicht einige der historischen Bias und Nachteile, welchen Frauen in ihren wissenschaftlichen Karrieren begegnen. Zur weiterfuhrenden Elaboration der zeitlichen Aspekte von Ungleichheit, wird der Anteil vertikaler und horizontaler Ungleichheit in unterschiedlichen Kohorten von Wissenschaftler*innen untersucht, die ihre Karriere zu unterschiedlichen Zeitpunkten begonnen haben. Im Weiteren werden einige der zugrunde liegenden Mechanismen und Prozesse von Ungleichheit in kreativen Berufen analysiert, wie der Matthew-Effekt und das Hipster-Paradoxon. Schließlich zeigt diese Arbeit auf, dass Online-Plattformen wie Wikipedia bestehenden Bias reflektieren sowie verstärken können.
The diversity within amphibian communities in cultivated areas in Rwanda and within two selected, taxonomically challenging groups, the genera Ptychadena and Hyperolius, were investigated in this thesis. The amphibian community of an agricultural wetland near Butare in southern Rwanda comprised 15 anuran species. Rarefaction and jackknife analyses corroborated that the complete current species richness of the assemblage had been recorded, and the results of acoustic niche analysis suggested species saturation of the community. Surveys at many other Rwandan localities showed that the species recorded in Butare are widespread in cultivated and pristine wetlands. The species were readily distinguishable using morphological, bioacoustic, and molecular (DNA barcoding) features, but only eight of the 15 species could be assigned unambiguously to nominal species. The remaining represented undescribed or currently unrecognized taxa, including three species of Hyperolius, two Phrynobatrachus species, one Ptychadena species, and one species of Amietia. The diversity of the Ridged Frogs in Rwanda was investigated in two studies (Chapters III and IV). Three species of Ptychadena were recorded in wetlands in the catchment of the Nile. They can be distinguished by morphological characters (morphometrics and qualitative features) as well as by their advertisement calls and genetics. The Rwandan species of the P. mascareniensis group was shown to differ from the topotypic population as well as from other genetic lineages in sub-Saharan Africa and an old available name, P. nilotica, was resurrected from synonymy for this lineage. Two further Ptychadena species were identified among voucher specimens from Rwanda deposited in the collection of the RMCA, P. chrysogaster and P. uzungwensis. Morphologically they can be unambiguously distinguished from each other and the three other Rwandan species. A key based on qualitative morphological characters was developed, which allows unequivocal identification of specimens of all species that have been recorded from Rwanda. DNA was isolated from a Rwandan voucher specimen of P. chrysogaster, and the genetic analysis corroborated the species" distinct status.
A species of Hyperolius collected in the Nyungwe National Park was compared to all other Rwandan species of the genus and to morphologically or genetically similar species from neighbouring countries. Its distinct taxonomic status was justified by morphological, bioacoustic, and molecular evidence and it was described as a new species, H. jackie. A species of the H. nasutus group collected at agricultural sites in Rwanda was described as a new species in the course of a revision of the species of the Hyperolius nasutus group. The group was shown to consist of 15 distinct species which can be distinguished from each other genetically, bioacoustically, and morphologically.
The aerial performance, i.e. parachuting, of the Disc-fingered Reed Frog, Hyperolius discodactylus, was described. It represents a novel observation of a behaviour that has been known from a number of Southeast Asian and Neotropical frog species. Parachuting frogs, including H. discodactylus, exhibit certain morphological characteristics and, while airborne, assume a distinct posture which is best-suited for maneuvering in the air. Another study on the species addressed the validity of the taxon H. alticola which had been considered either a synonym of H. discodactylus or a distinct species. Type material of both taxa was re-examined and the status of H. alticola reassessed using morphological data from historic and new collections, call recordings, and molecular data from animals collected on recent expeditions. A northern and a southern genetic clade were identified, a divide that is weakly supported by diverging morphology of the vouchers from the respective localities. No distinction in advertisement call features could be recovered to support this split and both genetic and morphological differences between the two geographic clades are marginal and not always congruent and more likely reflect population-level variation. Therefore it was concluded that H. alticola is not a valid taxon and should be treated as a synonym of H. discodactylus.
On the recognition of human activities and the evaluation of its imitation by robotic systems
(2023)
This thesis addresses the problem of action recognition through the analysis of human motion and the benchmarking of its imitation by robotic systems.
For our action recognition related approaches, we focus on presenting approaches that generalize well across different sensor modalities. We transform multivariate signal streams from various sensors to a common image representation. The action recognition problem on sequential multivariate signal streams can then be reduced to an image classification task for which we utilize recent advances in machine learning. We demonstrate the broad applicability of our approaches formulated as a supervised classification task for action recognition, a semi-supervised classification task for one-shot action recognition, modality fusion and temporal action segmentation.
For action classification, we use an EfficientNet Convolutional Neural Network (CNN) model to classify the image representations of various data modalities. Further, we present approaches for filtering and the fusion of various modalities on a representation level. We extend the approach to be applicable for semi-supervised classification and train a metric-learning model that encodes action similarity. During training, the encoder optimizes the distances in embedding space for self-, positive- and negative-pair similarities. The resulting encoder allows estimating action similarity by calculating distances in embedding space. At training time, no action classes from the test set are used.
Graph Convolutional Network (GCN) generalized the concept of CNNs to non-Euclidean data structures and showed great success for action recognition directly operating on spatio-temporal sequences like skeleton sequences. GCNs have recently shown state-of-the-art performance for skeleton-based action recognition but are currently widely neglected as the foundation for the fusion of various sensor modalities. We propose incorporating additional modalities, like inertial measurements or RGB features, into a skeleton-graph, by proposing fusion on two different dimensionality levels. On a channel dimension, modalities are fused by introducing additional node attributes. On a spatial dimension, additional nodes are incorporated into the skeleton-graph.
Transformer models showed excellent performance in the analysis of sequential data. We formulate the temporal action segmentation task as an object detection task and use a detection transformer model on our proposed motion image representations. Experiments for our action recognition related approaches are executed on large-scale publicly available datasets. Our approaches for action recognition for various modalities, action recognition by fusion of various modalities, and one-shot action recognition demonstrate state-of-the-art results on some datasets.
Finally, we present a hybrid imitation learning benchmark. The benchmark consists of a dataset, metrics, and a simulator integration. The dataset contains RGB-D image sequences of humans performing movements and executing manipulation tasks, as well as the corresponding ground truth. The RGB-D camera is calibrated against a motion-capturing system, and the resulting sequences serve as input for imitation learning approaches. The resulting policy is then executed in the simulated environment on different robots. We propose two metrics to assess the quality of the imitation. The trajectory metric gives insights into how close the execution was to the demonstration. The effect metric describes how close the final state was reached according to the demonstration. The Simitate benchmark can improve the comparability of imitation learning approaches.
Durch die zunehmende Wichtigkeit und Dringlichkeit des Klimawandels sind Unternehmen aufgefordert, einen Beitrag zu nachhaltiger Entwicklung zu leisten, insbesondere durch die jüngeren Generationen. Bisherige Beiträge von Unternehmen werden jedoch als unzureichend kritisiert, was insbesondere am mangelnden Engagement der Mitarbeiterinnen und Mitarbeiter für Nachhaltigkeit in Unternehmen liegen könnte. In diesem Zusammenhang wurde in den letzten Jahren Gamification als ein vielversprechendes, innovatives Tool um nachhaltige Verhaltensweisen der Mitarbeiterinnen und Mitarbeiter am Arbeitsplatz zu motivieren, vorgeschlagen und zunehmend erforscht. Es gibt jedoch nur wenige Studien und anwendbare Gamification-Lösungen, die mehr als ein spezifisches Nachhaltigkeitsthema behandeln und somit eine ganzheitliche Perspektive auf nachhaltige Verhaltensweisen am Arbeitsplatz einnehmen. Darüber hinaus mangelt es bisheriger Forschung an einem umfassenden Verständnis dafür, wie verschiedene Gamification-Elemente spezifische psychologische Effekte hervorrufen, wie sich diese in Verhaltensänderungen manifestieren und wie diese wiederum kumulativ in messbaren Unternehmensergebnissen resultieren. Der Weg von Gamification als ”Input” zu unternehmerischer Nachhaltigkeit als ”Output” ist also bislang unerforscht.
Diese Dissertation schließt diese Lücke, indem eine ganzheitliche gamifizierte Intervention konzipiert, gestaltet und evaluiert wird, die Mitarbeiterinnen und Mitarbeiter bei verschiedenen nachhaltigen Verhaltensweisen in ihren täglichen Aktivitäten unterstützt. Das Projekt verwendet einen designwissenschaftlichen Forschungsansatz, der die Mitarbeiterinnen und Mitarbeiter eng in die schrittweise Entwicklung der Lösung einbezieht. Als Teil des iterativen Designprozesses werden in dieser Dissertation sechs Studien vorgestellt, um das theoretische Verständnis von Gamification für nachhaltige Verhaltensweisen von Mitarbeiterinnen und Mitarbeitern zu erweitern. Zunächst wird ein umfassender Überblick über die bestehende Forschung zu Gamification für nachhaltiges Mitarbeiterverhalten gegeben, wobei Gamification-Designs und Ergebnisse früherer Studien analysiert und eine Agenda für die weitere Forschung aufgezeigt werden (Studie 1). Danach werden theoretische Grundlagen der Forschung zu Gamification, Serious Games und Game-based Learning (Studie 2) und empirische Gestaltungsprinzipien
für Gamification und persuasive Systeme (Studie 3) als Basis für die erfolgreiche Gestaltung gamifizierter Anwendungen systematisch untersucht. Anschließend werden in empirischen Studien Motivationen der Mitarbeiterinnen und Mitarbeiter für nachhaltiges Verhalten erforscht und ihre Erwartungen an Gestaltungsmerkmale beleuchtet (Studie 4) sowie kontextuelle Herausforderungen und Gestaltungsdilemmata bei der Implementierung von Gamification in einem organisatorischen Kontext aufgezeigt (Studie 5). Schließlich wird in einer quantitativen Feldstudie (Studie 6) untersucht, wie verschiedene Gamification-Designs nachhaltiges Mitarbeiterverhalten und unternehmerische Nachhaltigkeitskennzahlen in Organisationen beeinflussen. Basierend auf den Ergebnissen wird in dieser Dissertation ein umfassendes Framework für Gamification für nachhaltiges Mitarbeiterverhalten präsentiert, welches Design-, individuelle Verhaltens- und Unternehmensperspektiven einbezieht. Schließlich werden darauf aufbauend praktische Empfehlungen für die Gestaltung von Gamification zur Förderung nachhaltigen Mitarbeiterverhaltens am Arbeitsplatz präsentiert.
Leichte Sprache (LS) ist eine vereinfachte Varietät des Deutschen in der barrierefreie Texte für ein breites Spektrum von Menschen, einschließlich gering literalisierten Personen mit Lernschwierigkeiten, geistigen oder entwicklungsbedingten Behinderungen (IDD) und/oder komplexen Kommunikationsbedürfnissen (CCN), bereitgestellt werden. LS-Autor*innen sind i.d.R. der deutschen Standardsprache mächtig und gehören nicht der genannten Personengruppe an. Unser Ziel ist es, diese zu befähigen, selbst am schriftlichen Diskurs teilzunehmen. Hierfür bedarf es eines speziellen Schreibsystems, dessen linguistische Unterstützung und softwareergonomische Gestaltung den spezifischen Bedürfnissen der Zielgruppe gerecht wird. EasyTalk ist ein System basierend auf computerlinguistischer Verarbeitung natürlicher Sprache (NLP) für assistives Schreiben in einer erweiterten Variante von LS (ELS). Es stellt den Nutzenden ein personalisierbares Vokabular mit individualisierbaren Kommunikationssymbolen zur Verfügung und unterstützt sie entsprechend ihres persönlichen Fähigkeitslevels durch interaktive Benutzerführung beim Schreiben. Intuitive Formulierungen für linguistische Entscheidungen minimieren das erforderliche grammatikalische Wissen für die Erstellung korrekter und kohärenter komplexer Inhalte. Einfache Dialoge kommunizieren mit einem natürlichsprachlichen Paraphrasengenerator, der kontextsensitiv Vorschläge für Satzkomponenten und korrekt flektierte Wortformen bereitstellt. Außerdem regt EasyTalk die Nutzer*innen an, Textelemente hinzuzufügen, welche die Verständlichkeit des Textes für dessen Leserschaft fördern (z.B. Zeit- und Ortsangaben) und die Textkohärenz verbessern (z.B. explizite Diskurskonnektoren). Um das System auf die Bedürfnisse der Zielgruppe zuzuschneiden, folgte die Entwicklung von EasyTalk den Grundsätzen der menschzentrierten Gestaltung (UCD). Entsprechend wurde das System in iterativen Entwicklungszyklen ausgereift, kombiniert mit gezielten Evaluierungen bestimmter Aspekte durch Gruppen von Expert*innen aus den Bereichen CCN, LS und IT sowie L2-Lernende der deutschen Sprache. Eine Fallstudie, in welcher Mitglieder der Zielgruppe das freie Schreiben mit dem System testeten, bestätigte, dass Erwachsene mit geringen Lese-, Schreib- und Computerfähigkeiten mit IDD und/oder CCN mit EasyTalk eigene persönliche Texte in ELS verfassen können. Das positive Feedback aller Tests inspiriert Langzeitstudien mit EasyTalk und die Weiterentwicklung des prototypischen Systems, wie z.B. die Implementierung einer s.g. Schreibwerkstatt.
In the last years, the public interest in epidemiology and mathematical modeling of disease spread has increased - mainly caused by the COVID-19 pandemic, which has emphasized the urgent need for accurate and timely modelling of disease transmission. However, even prior to that, mathematical modelling has been used for describing the dynamics and spread of infectious diseases, which is vital for developing effective interventions and controls, e.g., for vaccination campaigns and social restrictions like lockdowns. The forecasts and evaluations provided by these models influence political actions and shape the measures implemented to contain the virus.
This research contributes to the understanding and control of disease spread, specifically for Dengue fever and COVID-19, making use of mathematical models and various data analysis techniques. The mathematical foundations of epidemiological modelling, as well as several concepts for spatio-temporal diffusion like ordinary differential equation (ODE) models, are presented, as well as an originally human-vector model for Dengue fever, and the standard (SEIR)-model (with the potential inclusion of an equation for deceased persons), which are suited for the description of COVID-19. Additionally, multi-compartment models, fractional diffusion models, partial differential equations (PDE) models, and integro-differential models are used to describe spatial propagation of the diseases.
We will make use of different optimization techniques to adapt the models to medical data and estimate the relevant parameters or finding optimal control techniques for containing diseases using both Metropolis and Lagrangian methods. Reasonable estimates for the unknown parameters are found, especially in initial stages of pandemics, when little to no information is available and the majority of the population has not got in contact with the disease. The longer a disease is present, the more complex the modelling gets and more things (vaccination, different types, etc.) appear and reduce the estimation and prediction quality of the mathematical models.
While it is possible to create highly complex models with numerous equations and parameters, such an approach presents several challenges, including difficulties in comparing and evaluating data, increased risk of overfitting, and reduced generalizability. Therefore, we will also consider criteria for model selection based on fit and complexity as well as the sensitivity of the model with respect to specific parameters. This also gives valuable information on which political interventions should be more emphasized for possible variations of parameter values.
Furthermore, the presented models, particularly the optimization using the Metropolis algorithm for parameter estimation, are compared with other established methods. The quality of model calculation, as well as computational effort and applicability, play a role in this comparison. Additionally, the spatial integro-differential model is compared with an established agent-based model. Since the macroscopic results align very well, the computationally faster integro-differential model can now be used as a proxy for the slower and non-traditionally optimizable agent-based model, e.g., in order to find an apt control strategy.
In a world where language defines the boundaries of one's understanding, the words of Austrian philosopher Ludwig Wittgenstein resonate profoundly. Wittgenstein's assertion that "Die Grenzen meine Sprache bedeuten die Grenzen meiner Welt" (Wittgenstein 2016: v. 5.6) underscores the vital role of language in shaping our perceptions. Today, in a globalized and interconnected society, fluency in foreign languages is indispensable for individual success. Education must break down these linguistic barriers, and one promising approach is the integration of foreign languages into content subjects.
Teaching content subjects in a foreign language, a practice known as Content Language Integrated Learning (CLIL), not only enhances language skills but also cultivates cognitive abilities and intercultural competence. This approach expands horizons and aligns with the core principles of European education (Leaton Gray, Scott & Mehisto 2018: 50). The Kultusministerkonferenz (KMK) recognizes the benefits of CLIL and encourages its implementation in German schools (cf. KMK 2013a).
With the rising popularity of CLIL, textbooks in foreign languages have become widely available, simplifying teaching. However, the appropriateness of the language used in these materials remains an unanswered question. If textbooks impose excessive linguistic demands, they may inadvertently limit students' development and contradict the goal of CLIL.
This thesis focuses on addressing this issue by systematically analyzing language requirements in CLIL teaching materials, emphasizing receptive and productive skills in various subjects based on the Common European Framework of Reference. The aim is to identify a sequence of subjects that facilitates students' language skill development throughout their school years. Such a sequence would enable teachers to harness the full potential of CLIL, fostering a bidirectional approach where content subjects facilitate language learning.
While research on CLIL is extensive, studies on language requirements for bilingual students are limited. This thesis seeks to bridge this gap by presenting findings for History, Geography, Biology, and Mathematics, allowing for a comprehensive understanding of language demands. This research endeavors to enrich the field of bilingual education and CLIL, ultimately benefiting the academic success of students in an interconnected world.
The trends of industry 4.0 and the further enhancements toward an ever changing factory lead to more mobility and flexibility on the factory floor. With that higher need of mobility and flexibility the requirements on wireless communication rise. A key requirement in that setting is the demand for wireless Ultra-Reliability and Low Latency Communication (URLLC). Example use cases therefore are cooperative Automated Guided Vehicles (AGVs) and mobile robotics in general. Working along that setting this thesis provides insights regarding the whole network stack. Thereby, the focus is always on industrial applications. Starting on the physical layer, extensive measurements from 2 GHz to 6 GHz on the factory floor are performed. The raw data is published and analyzed. Based on that data an improved Saleh-Valenzuela (SV) model is provided. As ad-hoc networks are highly depended onnode mobility, the mobility of AGVs is modeled. Additionally, Nodal Encounter Patterns (NEPs) are recorded and analyzed. A method to record NEP is illustrated. The performance by means of latency and reliability are key parameters from an application perspective. Thus, measurements of those two parameters in factory environments are performed using Wireless Local Area Network (WLAN) (IEEE 802.11n), private Long Term Evolution (pLTE) and 5G. This showed auto-correlated latency values. Hence, a method to construct confidence intervals based on auto-correlated data containing rare events is developed. Subsequently, four performance improvements for wireless networks on the factory floor are proposed. Of those optimization three cover ad-hoc networks, two deal with safety relevant communication, one orchestrates the usage of two orthogonal networks and lastly one optimizes the usage of information within cellular networks.
Finally, this thesis is concluded by an outlook toward open research questions. This includes open questions remaining in the context of industry 4.0 and further the ones around 6G. Along the research topics of 6G the two most relevant topics concern the ideas of a network of networks and overcoming best-effort IP.
Harvesting Season?
(2022)
Seit etwa zwanzig Jahren existieren Bemühungen Kunden zum Kauf von Lebensmitteln im Internet zu bewegen. Dabei waren die Marktstrukturen des digitalen Lebensmittelhandels zu Beginn noch stark fragementiert und schlecht abgestimmt. Durch die technologische Weiterentwicklung in den vergangenen Dekade hat der digitale Lebensmittelkauf an Attraktivität gewonnen. Die Nutzungsadaption dieser Diensteleistungen variiert dabei jedoch sehr stark zwischen unterschiedlichen Regionen. Besonders in Deutschland stagniert der digitalen Lebensmittelhandel auf einem vergleichweise niedrigen Niveau. Diesbezüglich analysiert diese Dissertation sowohl die händlerseitigen Marktstrukturen, als auch die Erwartungen und Hindernisse deutscher Konsumenten gegenüber der Serviceleistung.
Das Jahr 2020 konnotiert einen Wendepunkt für den Online Lebensmittelhandel, als, im Zuge politischer Maßnahmen zur Reduzierung der COVID-19 Infektionen, tägliche Routinen wie der Lebensmitteleinkauf starken Regulierungen unterlagen. Gleichzeitig hat es der digitale Lebensmittelhandel trotz dieser Gelegenheit noch nicht geschafft sich flächendeckend in Deutschland zu etablieren. Dies kann auf fehlende Investments, aber auch unzulängliche Digitalisierungsmaßnahmen zurückgeführt werden. Eine stärkere Synchronisierung zwischen digitalem und stationärem Angebot, bessere Integration digitaler Lebensmitteldienste auf regionaler Ebene sowie angepasste, zielgruppenadäquate digitale Lösungen zum effizienten Abbau von Nutzungsbarrieren. Die Wichtigkeit stabiler Lebensmittelketten und –verteilung konnte durch die COVID-19 Pandemie illustriert werden. Weitere Forschung sollte helfen den digitalen Lebensmittelhandel zu einer nachhaltigen und stabilen Supplementierung des stationären Angebots zu entwickeln.
Die heutige Landwirtschaft ist in hohem Maße auf den Einsatz von Pestiziden angewiesen, um verschiedene Schädlinge zu bekämpfen und die Ernteerträge zu maximieren. Trotz detaillierter Vorschriften für den Einsatz von Pestiziden, die auf einem komplexen System der Risikobewertung beruhen, hat sich gezeigt, dass der weit verbreitete Einsatz dieser biologisch aktiven Substanzen eine Gefahr für die Umwelt darstellt. In Oberflächengewässern wurde beobachtet, dass die Pestizidbelastung die als noch umweltverträglich angesehenen Konzentrationen übersteigt und sich negativ auf die Ökologie der Fließgewässer auswirkt, was die Frage aufwirft, ob die derzeitige Risikobewertung einen nachhaltigen Einsatz von Pestiziden gewährleistet. Um diese Frage zu beantworten, hat das umfassende "Kleingewässer-Monitoring" (KgM) in den Jahren 2018 und 2019 das Vorkommen von Pestiziden und die damit verbundenen ökologischen Auswirkungen in 124 Fließgewässern in ganz Deutschland untersucht.
Basierend auf fünf wissenschaftlichen Publikationen, die aus dem KgM hervorgegangen sind, werden in dieser Arbeit die Pestizidbelastung in Fließgewässern, die ökologischen Auswirkungen und die regulatorischen Implikationen bewertet. Mehr als 1000 Wasserproben wurden auf über 100 Pestizid-Analyten untersucht, um das Vorkommen zu charakterisieren (Publikation 1). Die gemessenen Konzentrationen und Auswirkungen wurden zur Validierung der in der Risikobewertung vorhergesagten Umweltkonzentrationen und Wirkungschwellen verwendet (Veröffentlichung 2). Durch die gemeinsame Analyse von realen Pestizidanwendungsdaten und gemessenen Pestizidmischungen in Fließgewässern wurde die Missachtung von Pestizidmischungen in der Umwelt in der Risikobewertung beurteilt (Veröffentlichung 3). Das Risikopotenzial von Mischungen in Fließgewässern wurde zusätzlich mit Hilfe eines Verdachtsscreenings für 395 Chemikalien und einer Batterie von In-vitro-Bioassays untersucht (Publikation 4). Schließlich wurden die Ergebnisse des KgM verwendet, um die Eignung staatlicher Monitoringprogramme zur Identifizierung von Pestizidrisiken in Oberflächengewässern zu bewerten (Publikation 5).
Die Ergebnisse dieser Arbeit zeigen das weit verbreitete Vorkommen von Pestiziden in den Nichtzielökosystemen der Fließgewässer. Die Wasserproben wiesen eine Vielzahl von Pestiziden auf, die in komplexen Mischungen vor allem in kurzzeitigen Spitzenwerten nach Niederschlagsereignissen auftraten (Veröffentlichungen 1 & 4). Die jeweiligen Höchstwerte der Pestizidkonzentration wurden mit dem Rückgang empfindlicher Wirbellosenarten in Verbindung gebracht und überstiegen in etwa 80 % der landwirtschaftlich geprägten Fließgewässer die gesetzlich zulässigen Konzentrationen, welche als Schwellenwerte zum Teil noch als unzureichend für den Schutz der Wirbellosengemeinschaft angesehen wurden (Publikation 2). Das gleichzeitige Vorkommen von Pestiziden in Fließgewässern führte zu einem Risiko, das in der auf eine einzelne Substanzen ausgerichteten Risikobewertung in realistischen Worst-Case-Szenarien um einen Faktor von etwa 3,2 unterschätzt wurde. Dies wird durch die hohe Häufigkeit, mit der Nichtzielorganismen den Pestiziden ausgesetzt sind, weiter verstärkt (Veröffentlichung 3). Wasserproben, die nach Regenfällen entnommen wurden, verursachten in den Bioassays deutliche Effekte, die nur zu einem geringen Teil durch die vielen detektierten Analyten erklärbar waren, was auf die Relevanz unbekannter chemischer oder biologischer Mischungskomponenten hinweist (Publikation 4). Schließlich wurde festgestellt, dass die behördliche Überwachung von Oberflächengewässern gemäß der Wasserrahmenrichtlinie (WRRL) die Risiken von Pestiziden erheblich unterschätzt, da hier etwa drei Viertel der kritischen Pestizide und mehr als die Hälfte der gefährdeten Gewässer übersehen worden wären (Veröffentlichung 5).
Im Wesentlichen liefert diese Arbeit eine neue Ebene der Validierung der Risikobewertung von Pestiziden in aquatischen Ökosystemen, indem das Auftreten von Pestiziden und ihre Auswirkungen auf die Umwelt in einem bisher einzigartigen Maßstab bewertet werden. Die Ergebnisse zeigen generell, dass der derzeitige landwirtschaftliche Einsatz von Pestiziden zu erheblichen Auswirkungen auf die Fließgewässerökologie führt, die über das von der Risikobewertung tolerierte Maß hinausgehen. In dieser Arbeit wurden die Unterschätzung der Pestizidexposition, die potenzielle Unzulänglichkeit der gesetzlichen Schwellenwerte und die allgemeine Trägheit des Zulassungsverfahrens als Hauptursachen dafür ermittelt, dass entsprechende gesetzlich verankerte, ökologische Zielsetzungen momentan erwiesenermaßen nicht erreicht werden. Um einen nachhaltigen Einsatz von Pestiziden zu gewährleisten, schlägt die Arbeit wesentliche Änderungen der Risikobewertung vor. Monitoringprogramme wie das KgM, die über die derzeitigen staatlichen Überwachungsbemühungen hinausgehen, werden weiterhin erforderlich sein, um die Regulierungsbehörden für Pestizide ständig über die Gültigkeit ihrer prospektiven Risikobewertung zu informieren, die immer mit Unsicherheiten behaftet sein wird.
In den letzten Jahrzehnten wurde deutlich, dass die Welt mit einer beispiellosen, vom Menschen verursachten Biodiversitätskrise konfrontiert ist. Eine der am stärksten bedrohten Artengruppen stellen dabei die Amphibien dar, so gelten laut IUCN 41% der Amphibienarten als gefährdet. Jedoch können selbst bei Arten die als "least concern" klassifiziert sind Populationsrückgänge auf lokaler Ebene beobachtet werden. Mit einer veränderten Landnutzung und dem Einsatz von Pestiziden sind zwei der Hauptursachen für diese Gefährdung direkt mit intensiver Landwirtschaft verbunden. Daher ist das Wissen um die Situation von Amphibien in der Agrarlandschaft von entscheidender Bedeutung für Schutzmaßnahmen. In der vorliegenden Arbeit wurden Amphibienpopulationen in der durch Weinbau geprägten Gegend um Landau in der Pfalz (Deutschland) im Hinblick auf Lebensraumnutzung, Pestizidexposition, biometrische Merkmale sowie der Alters- und genetischer Populationsstruktur untersucht. Da Agrarflächen oft zur Fragmentierung von Landschaften führen, ging ich der Frage nach ob dies auch auf Weinberge zutrifft und ob eingesetzte Pestizide zur Fragmentierung beitragen, ob also eine chemische Landschaftsfragmentierung vorliegt. Durch die Telemetrierung von Erdkröten (Bufo bufo) konnte ich zeigen, dass diese Art direkt in Weinbergen gefunden werden kann, diese aber generell eher meidet. Die Analyse der genetischen Struktur von Grasfröschen (Rana temporaria) ergab, dass Weinberge als Barriere für Amphibien anzusehen sind. Um herauszufinden, ob Pestizide zu der daraus resultierenden Landschaftsfragmentierung beitragen, führte ich einen Wahlversuch im Labor durch, bei dem ich ein Vermeidungsverhalten gegenüber kontaminierten Böden fand, was zu einer chemischen Landschaftsfragmentierung führen könnte. Durch die Kombination von Telemetriedaten mit Daten über Pestizidanwendungen von lokalen Winzern konnte ich zeigen, dass ein großer Teil der Erdkröten mit Pestiziden in Kontakt kommt. Außerdem konnte gezeigt werden, dass sich die Agrarlandschaft und hier wahrscheinlich Pestizide negativ auf die Fortpflanzungsfähigkeit von Erdkröten auswirkt. Bei der Untersuchung von Fadenmolchen (Lissotriton helveticus) stellte ich fest, dass adulte Molche aus Gewässern in der Agrarlandschaft kleiner sind als Individuen aus Gewässern im Wald. Da kein Unterschied in der Altersstruktur festgestellt werden konnte, könnten diese Größenunterschiede auf suboptimale Bedingungen für Larven und/oder Jungtiere hindeuten, wenngleich Gewässer in der Agrarlandschaft geeignete Lebensräume für adulte Teichmolche sein könnten. Ich komme zu dem Schluss, dass die beste Maßnahme zum Schutz von Amphibien in der Agrarlandschaft eine heterogene Kulturlandschaft mit einem Mosaik aus verschiedenen Lebensräumen wäre, die ohne oder zumindest mit weniger Pestiziden auskommt. Grüne Korridore zwischen Populationen und Teillebensräumen würden es wandernden Individuen ermöglichen, landwirtschaftliche und damit pestizidbelastete Flächen zu vermeiden. Dies würde das Risiko der Pestizidexposition von Amphibien verringern und gleichzeitig die Fragmentierung der Landschaft und damit die Isolation von Populationen verhindern.
This thesis was motivated by the need to advance the knowledge on the variability and dynamics of energy fluxes in lakes and reservoirs, as well as about the physical processes that regulate the fluxes at both the air and water side of the air-water interface.
In the first part, I re-examine how mechanical energy, resulting from its major source – the vertical wind energy flux - distributes into the various types of water motions, including turbulent flows and surface and internal waves. Although only a small fraction of the wind energy flux from the atmosphere is transferred to the water, it is crucial for physical, biogeochemical and ecological processes in lentic ecosystems. Based on extensive air- and water-side measurements collected at two small water bodies (< 10 km2), we estimated the energy fluxes and energy content in surface and in internal waves. Overall, the estimated energy fluxes and energy content agree well with results reported for larger water bodies, suggesting that the energetics driving the water motions in enclosed basins is similar, independently of the basin size. Our findings highlight the importance of the surface waves that receive the largest fraction of the wind energy flux, which strongly nonlinearly increases for wind speeds exceeding 3 m s-1. We found that the existing parameterization of the wave height as a function of wind speed and fetch length did not reproduce the measured wave amplitude in lakes. On average, the highest energy content was observed in basin-scale internal waves, together with high-frequency internal waves exhibiting seasonal variability and varies among the aquatic systems. During our analysis, we discovered the diurnal variability of the energy dissipation rates in the studied lake, suggesting biogenic turbulence generation, which appears to be a widespread phenomenon in lakes and reservoirs.
In the second part of the thesis, I addressed current knowledge gaps related to the bulk transfer coefficients (also known as the drag coefficient, the Stanton number and the Dalton number), which are of a particular importance for the bulk estimation of the surface turbulent fluxes of momentum, sensible and latent heat in the atmospheric boundary layer. Their inaccurate representation may lead to significant errors in flux estimates, affecting, for example, the weather and climate predictions or estimations of the near-surface current velocities in lake hydrodynamic models. Although the bulk transfer coefficients have been extensively studied over the past several decades (mainly in marine and large-lake environments), there has been no systematic analysis of measurements obtained at lakes of different size. A significant increase of the transfer coefficients at low wind speeds (< 3 m s-1) has been observed in several studies, but, to date, it has remained unexplained. We evaluated
the bulk transfer coefficients using flux measurements from 31 lakes and reservoirs. The estimates were generally within the range reported in previous studies for large lakes and oceans. All transfer coefficients increased substantially at low wind speeds, which was found to be associated with the presence of gusts and capillary waves (except the Dalton number). We found that the Stanton number is systematically higher than the Dalton number. This challenges the assumption made in the Bowen-ratio method, which is widely used for estimating evaporation rates from micrometeorological measurements. We found that the variability of the transfer coefficients among the lakes could be associated with lake surface area. In flux parameterizations at lake surfaces, it is recommended to consider variations in the drag coefficient and the Stanton number due to wind gustiness and capillary wave roughness while the Dalton number could be considered as constant at all wind speeds.
In the third part of the thesis, I address the key drivers of the near-surface turbulence that control the gas exchange in a large regulated river. As all inland waters, rivers are an important natural source of greenhouse gases. The effects of the widespread alteration and regulation of river flow for human demands on gas exchange is largely unknown. In particular, the near-surface turbulence in regulated rivers has been rarely measured and its drivers have not been identified. While in lakes and reservoirs, near-surface turbulence is mainly related to atmospheric forcing, in shallow rivers and streams it is generated by bottom friction of the gravity-forced flow. The studied large regulated river represents a transition between these two cases. Atmospheric forcing and gravity were the dominant drivers of the near-surface turbulence for a similar fraction of the measurement period. Based on validated scalings, we derived a simple model for estimating the relative contributions of wind and bottom friction to near-surface turbulence in lotic ecosystems with different flow depths. Large diel variability in the near-surface energy dissipation rates due to flow regulation leads to the same variability in gas exchange. This suggests that estimates of gas fluxes from rivers are biased by measurements performed predominantly during daytime.
In addition, the novelty in all the analyses described above is the use of the turbulent surface fluxes measured directly by the eddy-covariance technique – at the moment of writing, the most advanced method. Overall, this thesis is of a potential interest for a broad range of scientific disciplines, including limnology, micrometeorology and open channel hydraulics.
This dissertation is dedicated to a new concept for capturing renunciation-oriented attitudes and beliefs — sufficiency orientation. Sufficiency originates in the interdisciplinary sustain-ability debate. In contrast to efficiency and consistency, sufficiency considers human behaviour as the cause of socio-ecological crises and strives for a reduction in consumption respecting the planetary boundaries. The present work places sufficiency in a psychological research context and explores it qualitatively and quantitatively. On the basis of five manuscripts, the overarching question pursued is to what extent sufficiency orientation contributes to socio-ecological transformation. Based on one qualitative study and five further quantitative studies, sufficiency orientation is investigated in different behavioural contexts that are of particular importance with regard to CO2 emissions. In addition, sufficiency orientation is linked to a wider range of psychologically relevant theories that help gain an overview of correlates and possible causes for the development of a sufficiency orientation.
Manuscript 1 uses expert interviews (N = 21) to develop a heuristic framework on a transformation towards societal sufficiency orientation including barriers and enablers, as well as ambiguities on such a change. The derived elements are interpreted in the light of the leverage points approach. This framework can serve as a heuristic for future research and to develop measures concerning sufficiency orientation.
As part of an online study (N = 648), Manuscript 2 examines the extent to which sufficiency orientation can be embedded in classic models for explaining pro-environmental intentions and behaviour (Theory of Planned Behaviour, Norm Activation Model), and showed a significant contribution to the explanation of intentions and behaviour in the field of plastic consumption.
Manuscript 3 reports two framing experiments (Study 1, N = 123, Study 2, N = 330) to investigate how pro-social justice sensitivity contributes to making sufficiency orientation more salient and promoting it. While sufficiency orientation and pro-social facets of justice sensitivity were positively related to each other, there was no effect of the framing intervention in the hypothesised direction. The results indicate that justice-related information at least in the presented manner is more likely to generate reactance.
Manuscript 4 presents an online study (N = 317) and targets the importance of sufficiency orientation for predicting actual greenhouse gas emissions in relation to flight behav-iour and policy support for the decarbonisation of mobility. In addition, the connection between sufficiency orientation and global identity is examined. It turns out that sufficiency orientation is superior to global identity in predicting actual emissions and decarbonisation policies. Contrary to expectations, sufficiency orientation and the form of global identity operationalised in the presented study shows a positive correlation and are compatible.
Manuscript 5 reports a reflective diary intervention (N = 252) that should lead to a short- and long-term increase in sufficiency orientation by satisfying basic psychological needs through induced self-reflection. For both groups with or without the intervention, sufficiency orientation increased slightly but significantly. Although no specific effect of the manipulation was found, basic psychological need satisfaction turns out to be the largest predictor for sufficiency orientation. Subjective well-being is positively associated with sufficiency orientation, while time affluence shows no clear associations in the study.
Overall, the results highlight the relevance of sufficiency orientation in relation to socio-ecological transformation and actual behavioural change. Sufficiency orientation is related to low-emission behaviour and support for political measures to decarbonize infrastructures. These results contribute to the discussion on the intention-behaviour gap in regard to impact-relevant behaviour, i.e. behaviour producing high emissions. The present findings suggest, that sufficiency orientation could be related to a strong intention-behavioural consistency. However, further research is needed to validate these results and improve the measurement of sufficiency orientation. Furthermore, the studies provided insights on correlates of sufficiency orientation: justice sensitivity, global identity, subjective well-being and left-wing liberal political ideologies are all found to be positively related to sufficiency orien-tation. Moreover, basic psychological need satisfaction was identified as a potential mechanism that can support the emergence of sufficiency orientation, however, causality remains unclear. From these findings, the work derives practical implications how to possibly strengthen sufficiency orientation on the micro, meso and macro levels of society.
Taken together, the dissertation provides important insights into a new and still developing concept, and shows its connectivity to psychological theories. However, future research is required in order to grasp more precisely the complexity of sufficiency orientation and to understand origins and predictors of sufficiency orientation. This work contributes to the interdisciplinary debate on socio-ecological transformation and points out that sufficiency orientation can serve to a future worth living as being related to reduced consumption.
Soziale Netzwerke sind allgegenwärtige Strukturen, die wir jeden Tag generieren und bereichern, während wir uns über Plattformen der sozialen Medien, E-Mails und jede andere Art von Interaktion mit Menschen verbinden. Während diese Strukturen für uns nicht greifbar sind, sind sie sehr wichtige Informationsträger. Zum Beispiel kann die politische Neigung unserer Freunde ein Näherungswert sein, um unsere eigenen politischen Präferenzen zu identifizieren. Gleichermaßen
kann die Kreditwürdigkeit unserer Freunde entscheidend bei der Gewährung oder Ablehnung unserer eigenen Kredite sein. Diese Erklärungskraft wird bei der Gesetzgebung, bei Unternehmensentscheidungen und in der Forschung genutzt, da sie maschinellen Lerntechniken hilft, genaue Vorhersagen zu treffen. Diese Verallgemeinerungen kommen jedoch häufig nur der Mehrheit der Menschen zugute, welche die allgemeine Struktur des Netzwerks prägen, und benachteiligen unterrepräsentierte Gruppen, indem sie ihre Mittel und Möglichkeiten begrenzen. Daher ist es wichtig zuerst zu verstehen, wie sich soziale Netzwerke bilden, um dann zu überprüfen, inwieweit ihre Mechanismen der Kantenbildung dazu beitragen, soziale Ungleichheiten in Algorithmen des maschinellen Lernens zu verstärken.
Zu diesem Zweck schlage ich im ersten Teil dieser Arbeit HopRank und Janus vor, zwei Methoden um die Mechanismen der Kantenbildung in realen ungerichteten sozialen Netzwerken zu charakterisieren. HopRank ist ein Modell der Daten-Hamsterei in Netzwerken. Sein Schlüsselkonzept ist ein gezinkter zufälliger Wanderer, der auf Übergangswahrscheinlichkeiten zwischen K-Hop-Nachbarschaften basiert. Janus ist ein Bayessches Rahmenwerk, mit dem wir plausible Hypothesen der Kantenbildung in Fällen identifizieren und bewerten können, in denen Knoten zusätzliche Daten enthalten. Im zweiten Teil dieser Arbeit untersuche ich die Auswirkungen dieser Mechanismen - welche die Kantenbildung in sozialen Netzwerken erklären - auf das maschinelle Lernen. Insbesondere untersuche ich den Einfluss von Homophilie, bevorzugter Bindung, Kantendichte, Anteil von Minderheiten und der Richtung von Verbindungen sowohl auf Leistung als auch auf systematische Fehler von kollektiver Klassifizierung und auf die Sichtbarkeit von Minderheiten in Top-K-Rängen. Meine Ergebnisse zeigen eine starke Korrelation zwischen der Netzwerkstruktur und den Ergebnissen des maschinellen Lernens. Dies legt nahe, dass die systematische Diskriminierung spezieller Personen: (i) durch den Netzwerktyp vorweggenommen und (ii) durch strategisches Verbinden im Netzwerk verhindert werden kann.
This study examines the contribution of saving and credit cooperatives (SACCOS) on the improvement of members‘ socio economic development in Rwanda: Opportunities and challenges‖, Evidence from Umwalimu SACCO- Huye District‖. The appearance of saving and credit cooperatives or credit unions has been known as remedy for social ills rooted in poverty because of its efficiency in loans or credits dispensation, social equality for enhancement and reduction of poverty amongst low income earners. Therefore, millions and millions of poor people and non-bankable in developing countries (or third world countries) have been provided access to formal financial services through saving and credit cooperatives‘ programs.
The targeted population concerned by the study was 1,940 members of USACCO from which a sample of 92 respondents was purposively selected. The study has adopted a combination of correlation and descriptive research design. It has employed both quantitative and qualitative approaches. The study used both primary and secondary data. The primary data was collected using questionnaire and interview and, while secondary data was collected using documentations techniques whereby, Manual of procedures and Credit policies of USACCO and financial reports have been consulted. The analysis of data was done using SPSS version 21. The data was presented in form of tables, charts and graphs designed by SPSS v. 21. The bio-characteristics of respondents showed that, the majority of respondents were women with 55.4%, majority of respondents‘ age is between 26 to 45 years Furthermore, and majority 77.20% of respondents were married. 100% of respondents attended school, where the majority of respondents attended secondary school with certificate A2.
The study has revealed that Umwalimu SACCO services offered to its members have a positive effect on the improvement of members‘ welfare. It was found that USACCO services have slightly affected income level of members, assets acquired, access to education and medical care as well as small income generating activities established by members in Huye District. The analysis of data also revealed that there are some variables which have effected USACCO members‘ socio-economic status, these were listed as: Education background of a member, number of dependents, the occupation of a member, and number of loans got from USACCO, government programs against teachers‘ welfare, and membership duration played very important role on the improvement of standard living of teachers. All these variables were found to have positive effects on teachers‘ socio-economic status, except the family size of respondents.
In addition, the findings showed that, the majority of respondents confirmed that, they did not find opportunities to save with other financial institutions, and other respondents did not have access to loan from other financial institutions due to complicated loan requirements. In addition, after they
have joined USACCO, their deplorable status somewhat changed, both socially and economically which has contributed to the improvement of their welfare. Therefore, the study testified that, the welfare of USACCO members in terms of assets acquired, income increased was improved compared to situation before joining USACCO. The study concludes that ―the level of improvement of living conditions of teachers depends largely to the level of loan granted by USACCO to teachers and membership duration. If the level of teachers‘ loan and saving increases, there will be also improvement of teachers‘ wellbeing‖ and finally, USACCO financial service is a veritable instrument for better improvement of economic and social conditions of teachers. The study recommends that, USACCO should provide frequent and regular trainings on business management game to their members. This could help members for good management of their loans and reducing loan defaulters‘ cases observed at USACCO. Challenges observed were lack of physical collateral security required by USACCO, complicated loan requirements terms and conditions and insufficient trainings on business management game.
Instructor feedback on written assignments is one of the most important elements in the writing process, especially for students writing in English as a foreign language. However, students are often critical of both the amount and quality of the feedback they receive. In order to better understand what makes feedback effective, this study explored the nature of students’ assessments of the educational alliance, and how their receptivity to, perceptions of, and decisions about using their instructors’ feedback differed depending on how strong they believed the educational alliance to be. This exploratory case study found that students not only assessed the quality of the educational alliance based on goal compatibility, task relevance, and teacher effectiveness, but that there was also a reciprocal relationship between these elements. Furthermore, students’ perceptions of the educational alliance directly influenced how they perceived the feedback, which made the instructor’s choice of feedback method largely irrelevant. Stronger educational alliances resulted in higher instances of critical engagement, intrinsic motivation, and feelings of self-efficacy. The multidirectional influence of goal, task, and bond mean that instructors who want to maximize their feedback efforts need to attend to all three.
Motiviert wurde die vorliegende Arbeit durch die dynamischen Phänomene, die bei grundlegenden katalytischen Oberflächenreaktionen beobachtet werden, insbesondere durch Bi- und Tristabilität und die Wechselwirkungen zwischen diesen stabilen Zuständen. In diesem Zusammenhang wurden drei Reaktions-Diffusions-Modelle entwickelt und auf Bifurkationen analytisch und mittels numerischer Simulationen untersucht.
Das erste Modell wurde entwickelt, um die bistabile CO-Oxidation auf Ir(111) um Wasserstoff und dessen Oxidationsreaktionen zu erweitern. Das Differentialgleichungssystem wurde im Rahmen der Bifurkationstheorie analysiert, wobei drei Zweige stabiler Lösungen gefunden wurden. Einer der Zustände ist durch hohe Bildungsraten gekennzeichnet (upper rate, UR), während die anderen beiden Zweige niedrige Bildungsraten aufweisen (lower rate (LR) \& very low rate (VLR)).
Die Kurve der Sattel-Knoten-Bifurkationen bildet zwei Spitzen aus, wodurch die sich überschneidenden Zustände die Form eines Schwalbenschwanzes bilden. Eine Temperaturerhöhung führt zur Entfaltung und damit zu einer Komplexitätserniedrigung des Systems.
Um die experimentelle (Un-)Zugänglichkeit dieser Zustände zu veranschaulichen wurde eine Reihe von numerischen Simulationen durchgeführt, die mögliche Experimente widerspiegeln. Relaxationsexperimente zeigen teilweise lange Konvergenzzeiten. Quasi-statisches Scannen des Versuchsparameters zeigt die Existenz aller drei Zustände innerhalb des tristabilen Region und ihre jeweilige Umwandlung beim Verlassen desselben.
Ein erster Versuch bezüglich Reaktions-Diffusions-Fronten zwischen den stabilen Zuständen wurde durchgeführt. In 1D dominiert UR, während in 2D die Interphase zwischen UR und VLR durch den LR Zustand durchdrungen wird.
Anschließend wurde ein generisches `Parodie'-Monospezies-Modell für die umfassende Untersuchung von Reaktions-Diffusions-Fronten verwendet. Als Reaktionsterm wurde ein Polynom fünften Grades gewählt. Dies resultiert aus einem polynomischen Potential sechster Ordnung, das mit der ``Schmetterlingsbifurkation'' verbunden ist. Dies garantiert abhängig von dem vierdimensionalen Parameterraum bis zu drei stabile Lösungen ($u_{0}$,$u_{1}$,$u_{2}$).
Das Modell wurde eingehend untersucht, wobei Regionen mit ähnlichem Verhalten identifiziert wurden. Es wurde ein Term für die Frontgeschwindigkeit zwischen zwei stabilen Zuständen abgeleitet, der eine Abhängigkeit von der relativen Potentialdifferenz der beiden Zustände zeigt. Es wurden Äquipotentialkurven gefunden, bei denen die Geschwindigkeit der zugehörigen Front verschwindet. Numerische Simulationen auf einer zweidimensionalen, endlichen Scheibe unterstützten diese Ergebnisse.
Außerdem wurde die Front-Splitting-Instabilität beobachtet, bei der die Frontlösung $u_{02}$ instabil wird und sich in $u_{01}$ und $u_{12}$ mit je unterschiedlichen Geschwindigkeiten aufteilt. Eine gute Schätzung zu den Grenzen der Front-Splitting-Region wurde gegeben und mit Hilfe von numerischen Zeitentwicklungen überprüft.
Schließlich wurde das etablierte kontinuierliche Modell räumlich diskretisiert, wobei eine einfache Domäne in 1D und drei verschiedene Gitter in 2D (quadratisch, hexagonal, dreieckig) verwendet wurden. Bei niedrigen Diffusivitäten oder großen Abständen zwischen den gekoppelten Knoten können die Fronten `einfrieren', falls die Parameter in der Nähe einer Äquipotentiallinie liegen. Dieses Phänomen ist als Propagationsversagen (PF) bekannt und sein Ausmaß im Parameterraum (Pinning Region) wurde in 1D untersucht. In 2D wurde zunächst eine Schätzung für die Frontausbreitung in ausgezeichnete Gitterrichtungen mittels einer Pseudo-2D-Näherung vorgenommen.
Nahe der Pinning-Region weichen die Frontgeschwindigkeiten erheblich von der kontinuierlichen Erwartung ab, da die exakte Form des Potentials signifikant wird. Größe und Form der Pinning-Regionen wird von der Kopplungsstärke, dem Gitter, die Frontausrichtung zum Gitter und die Frontlösung selbst entschieden. Das Bifurkationsdiagramm zeigt eine schlängelnde Kurve innerhalb der Pinning-Region, wobei jeder abwechselnde Zweig aus stabilen bzw. instabilen, eingefrorenen Fronten besteht.
Numerische Simulationen bestätigten die Beobachtungen bezüglich des PF und der Gitterabhängigkeit. Darüber hinaus wurde der Einfluss der Frontorientierung auf die Geschwindigkeit genauer untersucht. Es wurde gezeigt, dass Fronten mit ausgezeichneter Orientierung zum Gitter mehr oder weniger anfällig für PF sind. Hieraus resultiert die Möglichkeit zur Stabilisierung von metastabilen Mustern, welche die Gittergeometrie widerspiegelt. Die Quantifizierung der winkelabhängigen Frontausbreitung zeigt plausible Ergebnisse mit einer guten Übereinstimmung zum Pseudo-2D-Ansatz.
This study was conducted in Nyungwe National Park (NNP); a biodiversity hotspot Mountain rainforest of high conservation importance in Central Africa, but with little knowledge of its insect communities including butterflies, good indicators of climate change, and forest ecosystem health. The study aimed at availing baseline data on butterfly species diversity and distribution in NNP, for future use in monitoring climate change-driven shifts and the effects of forest fragmentation on the biodiversity of Nyungwe. Butterflies were collected seasonally using fruit-baited traps and hand nets along elevational transects spanning from 1700 m up to 2950 m of altitude. Two hundred forty-two species including 28 endemics to the Albertine Rift and 18 potential local climate change indicators were documented. Species richness and abundance declined with increasing elevation and higher seasonal occurrence was observed during the dry season. This was the first study on the spatial and temporal distribution of butterflies in NNP and further studies could be conducted to add more species and allow a depth understanding of the ecology of Nyungwe butterflies.
Semantic-Web-Technologien haben sich als Schlüssel für die Integration verteilter und heterogener Datenquellen im Web erwiesen, da sie die Möglichkeit bieten, typisierte Verknüpfungen zwischen Ressourcen auf dynamische Weise und nach den Prinzipien von sogenannten Dataspaces zu definieren. Die weit verbreitete Einführung dieser Technologien in den letzten Jahren führte zu einer großen Menge und Vielfalt von Datensätzen, die als maschinenlesbare RDF-Daten veröffentlicht wurden und nach ihrer Verknüpfung das sogenannte Web of Data bilden. Angesichts des großen Datenumfangs werden diese Verknüpfungen normalerweise durch Berechnungsmethoden generiert, den Inhalt von RDF-Datensätzen analysieren und die Entitäten und Schemaelemente identifizieren, die über die Verknüpfungen verbunden werden sollen. Analog zu jeder anderen Art von Daten müssen Links die Kriterien für Daten hoher Qualität erfüllen (z. B. syntaktisch und semantisch genau, konsistent, aktuell), um wirklich nützlich und leicht zu konsumieren zu sein. Trotz der Fortschritte auf dem Gebiet des maschinellen Lernens ist die menschliche Intelligenz für die Suche nach qualitativ hochwertigen Verbindungen nach wie vor von entscheidender Bedeutung: Menschen können Algorithmen trainieren, die Ausgabe von Algorithmen in Bezug auf die Leistung validieren, und auch die resultierenden Links erweitern. Allerdings sind Menschen – insbesondere erfahrene Menschen – nur begrenzt verfügbar. Daher kann die Ausweitung der Datenqualitätsmanagementprozesse von Dateneigentümern/-verlegern auf ein breiteres Publikum den Lebenszyklus des Datenqualitätsmanagements erheblich verbessern.
Die jüngsten Fortschritte bei Human Computation und bei Peer-Production-Technologien eröffneten neue Wege für Techniken zur Verwaltung von Mensch-Maschine-Daten, die es ermöglichten, Nicht-Experten in bestimmte Aufgaben einzubeziehen und Methoden für kooperative Ansätze bereitzustellen. Die in dieser Arbeit vorgestellten Forschungsarbeiten nutzen solche Technologien und untersuchen Mensch-Maschine-Methoden, die das Management der Verbindungsqualität im Semantic Web erleichtern sollen. Zunächst wird unter Berücksichtigung der Dimension der Verbindungsgenauigkeit eine Crowdsourcing Methode zur Ontology Alignment vorgestellt. Diese Methode, die auch auf Entitäten anwendbar ist, wird als Ergänzung zu automatischen Ontology Alignment implementiert. Zweitens werden neuartige Maßnahmen zur Dimension des Informationsgewinns eingeführt, die durch die Verknüpfungen erleichtert werden. Diese entropiezentrierten Maßnahmen liefern Datenmanagern Informationen darüber, inwieweit die Entitäten im verknüpften Datensatz Informationen in Bezug auf Entitätsbeschreibung, Konnektivität und Schemaheterogenität erhalten. Drittens wenden wir Wikidata - den erfolgreichsten Fall eines verknüpften Datensatzes, der von einer Gemeinschaft von Menschen und Bots kuratiert, verknüpft und verwaltet wird - als Fallstudie an und wenden deskriptive und prädiktive Data Mining-Techniken an, um die Ungleichheit der Teilnahme und den Nutzerschwung zu untersuchen. Unsere Ergebnisse und Methoden können Community-Managern helfen, Entscheidungen darüber zu treffen, wann/wie mit Maßnahmen zur Nutzerbindung eingegriffen werden soll. Zuletzt wird eine Ontologie zur Modellierung der Geschichte der Crowd-Beiträge auf verschiedenen Marktplätzen vorgestellt. Während der Bereich des Mensch-Maschine-Datenmanagements komplexe soziale und technische Herausforderungen mit sich bringt, zielen die Beiträge dieser Arbeit darauf ab, zur Entwicklung dieses noch aufstrebenden Bereichs beizutragen.
Soziale Medien bieten eine leistungsstarke Möglichkeit für Menschen, Meinungen und Gefühle zu einem bestimmten Thema auszutauschen, sodass andere von diesen Gedanken und Gefühlen profitieren können. Dieses Verfahren erzeugt eine riesige Menge an unstrukturierten Daten, wie Texte, Bilder und Verweise, die durch täglich anwachsende Kommentare zu verwandten Diskussionen ständig zunimmt. Die riesige Menge an unstrukturierten Daten stellt jedoch ein Risiko für den Prozess der Informationsextraktion dar, sodass die Entscheidungsfindung zu einer großen Herausforderung wird. Dies liegt daran, dass die Datenflut zu einem Verlust von nützlichen Daten aufgrund ihrer unangemessenen Darstellung und ihrer Anhäufung führen kann. Insofern leistet diese Arbeit einen Beitrag zum Gebiet der Sentimentanalyse und des Opinion Mining, das darauf abzielt, Emotionen und Meinungen aus riesigen Text- und Bilddatensätzen zu extrahieren. Das ultimative Ziel ist es, jeden Text oder jedes Bild als Ausdruck einer positiven, negativen oder neutralen Emotion zu klassifizieren, um bei der Entscheidungsfindung zu helfen. Sentiment- und Meinungsklassifikatoren wurden für Text- und Bilddatensätze aus sozialen Medien entwickelt, z. B. für Firmen- oder Produktbewertungen, Blogbeiträge und sogar Twitter-Nachrichten. In dieser Arbeit wird zunächst eine neue Methode zur Reduktion der Dimension von Textdaten auf Basis von Data-Mining-Ansätzen vorgestellt und anschließend das Sentiment auf Basis von neuronalen und Deep Neural Network-Klassifikationsalgorithmen untersucht. Anschließend untersuchen wir im Gegensatz zur Sentiment-Analyseforschung in Textdatensätzen die Sentiment Ausdrucks- und Polaritätsklassifikation innerhalb und über Bilddatensätze hinweg, indem wir tiefe neuronale Netze auf Basis des Aufmerksamkeitsmechanismus aufbauen.
Manmade dams have been constructed from centuries for multiple purposes, and in the past decades they have been constructed in a fast pace, with the hotspot in tropical and subtropical regions. However, studies that explore hydrodynamics in these areas are scarce and biased to the rich literature available for temperate regions. Lakes and reservoirs have the same controlling mechanisms for physical processes and primary production, hence, analyses that were initially conceptualized for lakes are frequently applied for reservoirs. Nevertheless, longitudinal gradients in reservoirs challenges the application of these approaches.
Degradation of water quality in reservoirs is a major concern, and it is expected to be aggravated with climate change. Therefore, studies that explore mechanisms controlling water quality are essential for the maintenance of these systems, especially in tropical and subtropical regions. The aim of this thesis is to comprehend the role of hydrodynamic processes in the fate of nutrients in reservoirs and its implications on water quality, in a subtropical region. With focus on the relevance of different density current patterns. For that, analyses combining field measurements and numerical simulations were performed in a medium to small size subtropical drinking water reservoir for a complete seasonal cycle. Measurements were conducted combining several approaches: traditional sampling, sensors in high temporal and spatial resolution, and remote sensing. Besides, hydrodynamic models were set up and calibrated to reproduce observations, and to simulate scenarios that assisted on the analysis.
Results showed that different flow paths of density currents did not influence on phytoplankton dynamics. At the regions where the main nutrient supply was the river inflow (upstream), the density currents did not vary, the euphotic zone usually covered the entire depth, and vertical mixing was observed on a daily basis, turning the flow path of the density currents irrelevant. At downstream regions, the remobilization of nutrients in the sediment was the main source for primary production. Even though density currents had a seasonal pattern in the downstream region, thermal stratification conditions were the driver for variations in chlorophyll-a concentrations, with peaks after vertical mixing. This mechanism had in its favor the frequent anoxic conditions in the hypolimnion that enhanced the dissolution of reactive phosphorus from the sediment. Anoxic conditions were easily reached because the sediment in the downstream area was rich in organic matter. Phytoplankton produced in the upstream area was transported by the density currents, and for this reason, large concentrations of chl-a was observed below the euphotic zone. Further, the extensive measurements of temperature, and flow velocities, together with the hydrodynamic models, provided insights about the hydrodynamics of reservoirs. For instance, that the relevant processes occurred along the longitudinal, and mixing conditions varied along it. The relevance of inflow conditions regarding the presence of structures such as forebays and pre-dams, and the degree of stream shading in the catchment was assessed. And turbulence and internal waves had different features than the documented for high latitudes. Those findings can assist on the management of reservoirs, based on the comprehension of the physical processes.
The use of agricultural plastic covers has become common practice for its agronomic benefits such as improving yields and crop quality, managing harvest times better, and increasing pesticide and water use efficiency. However, plastic covers are suspected of partially breaking down into smaller debris and thereby contributing to soil pollution with microplastics. A better understanding of the sources and fate of plastic debris in terrestrial systems has so far been hindered by the lack of adequate analytical techniques for the mass-based and polymer-selective quantification of plastic debris in soil. The aim of this dissertation was thus to assess, develop, and validate thermoanalytical methods for the mass-based quantification of relevant polymers in and around agricultural fields previously covered with fleeces, perforated foils, and plastic mulches. Thermogravimetry/mass spectrometry (TGA/MS) enabled direct plastic analyses of 50 mg of soil without any sample preparation. With polyethylene terephthalate (PET) as a preliminary model, the method limit of detection (LOD) was 0.7 g kg−1. But the missing chromatographic separation complicated the quantification of polymer mixtures. Therefore, a pyrolysis-gas chromatography/mass spectrometry (Py-GC/MS) method was developed that additionally exploited the selective solubility of polymers in specific solvents prior to analysis. By dissolving polyethylene (PE), polypropylene (PP), and polystyrene (PS) in a mixture of 1,2,4-trichlorobenzene and p-xylene after density separation, up to 50 g soil became amenable to routine plastic analysis. Method LODs were 0.7–3.3 mg kg−1, and the recovery of 20 mg kg−1 PE, PP, and PS from a reference loamy sand was 86–105%. In the reference silty clay, however, poor PS recoveries, potentially induced by the additional separation step, suggested a qualitative evaluation of PS. Yet, the new solvent-based Py-GC/MS method enabled a first exploratory screening of plastic-covered soil. It revealed PE, PP, and PS contents above LOD in six of eight fields (6% of all samples). In three fields, PE levels of 3–35 mg kg−1 were associated with the use of 40 μm thin perforated foils. By contrast, 50 μm PE films were not shown to induce plastic levels above LOD. PP and PS contents of 5–19 mg kg−1 were restricted to single observations in four fields and potentially originated from littering. The results suggest that the short-term use of thicker and more durable plastic covers should be preferred to limit plastic emissions and accumulation in soil. By providing mass-based information on the distribution of the three most common plastics in agricultural soil, this work may facilitate comparisons with modeling and effect data and thus contribute to a better risk assessment and regulation of plastics. However, the fate of plastic debris in the terrestrial environment remains incompletely understood and needs to be scrutinized in future, more systematic research. This should include the study of aging processes, the interaction of plastics with other organic and inorganic compounds, and the environmental impact of biodegradable plastics and nanoplastics.
Softwaresprachen und Technologien zu verstehen, die bei der Entwicklung einer Software verwendet werden, ist eine alltägliche Herausforderung für Software Engineers. Textbasierte Dokumentationen und Codebeispiele sind typische Hilfsmittel, die zu einem besseren Verständnis führen sollen. In dieser Dissertation werden verschiedene Forschungsansätze beschrieben, wie existierende Textpassagen und Codebeispiele identifiziert und miteinander verbunden werden können. Die Entdeckung solcher bereits existierender Ressourcen soll dabei helfen Softwaresprachen und Technologien auf einem konzeptionellen Level zu verstehen und zu vergleichen. Die Forschungsbeiträge fokussieren sich auf die folgenden Fragen, die später präzisiert werden. Welche existierenden Ressourcen lassen sich systematisch identifizieren, um strukturiertes Wissen zu extrahieren? Wie lassen sich die Ressourcen extrahieren? Welches Vokabular wird bereits in der Literatur verwendet, um konzeptionelles Wissen zur Struktur und Verwendung einer Software auszudrücken? Wie lassen sich Beiträge auf Wikipedia wiederverwenden? Wie können Codebeispiele zur Verwendung von ausgewählten Technologien auf GitHub gefunden werden? Wie kann ein Modell, welches Technologieverwendung repräsentiert, reproduzierbar konstruiert werden? Zur Beantwortung der Forschungsfragen werden qualitative Forschungsmethoden verwendet, wie zum Beispiel Literaturstudien. Des Weiteren werden Methoden entwickelt und
evaluiert, um relevante Artikel auf Wikipedia, relevante Textpassagen in der Literatur und Codebeispiele auf GitHub zu verlinken. Die theoretischen Beiträge werden in Fallstudien evaluiert. Die folgenden wissenschaftlichen Beiträge werden dabei erzielt: i.) Eine Referenzsemantik zur Formalisierung von Typen und Relationen in einer sprachfokussierten Beschreibung von Software; ii.) Ein Korpus bestehend aus Wikipedia Artikeln zu einzelnen Softwaresprachen; iii) Ein Katalog mit textuell beschriebenen Verwendungsmustern einer Technologie zusammen mit Messergebnissen zu deren Frequenz auf GitHub; iv.) Technologiemodelle, welche sowohl mit verschiedenen existierenden Codebeispielen als auch mit Textpassagen verknüpft sind.
To render the surface of a material capable of withstanding mechanical and electrochemical loads, and to perform well in service, the deposition of a thin film or coating is a solution. In this project, such a thin film deposition is carried out. The coating material chosen is titanium nitride (TiN) which is a ceramic material known to possess a high hardness (>10 GPa) as well as good corrosion resistance. The method of deposition selected is high power impulse magnetron sputtering (HiPIMS) that results in coatings with high quality and enhanced properties. Sputtering is a physical process that represents the removal or dislodgment of surface atoms by energetic particle bombardment. The term magnetron indicates that a magnetic field is utilized to increase the efficiency of the sputtering process. In HiPIMS, a high power is applied in pulses of low duty cycles to a cathode that is sputtered and that consists of the coating material. As result of the high power, the ionization of the sputtered material takes place giving the possibility to control these species with electric and magnetic field allowing thereby the improvement and tuning of coating properties. However, the drawback of HiPIMS is a low deposition rate.
In this project, it is demonstrated first that it is possible to deposit TiN coating using HiPIMS with an optimized deposition rate, by varying the magnetic field strength. It was found that low magnetic field strength (here 22mT) results in a deposition rate similar to that of conventional magnetron sputtering in which the average power is applied continuously, called also direct current magnetron sputtering (dcMS). The high deposition rate at low magnetic field strength was attributed to a reduction in the back attraction probability of the sputtered species. The magnetic field strength did not show noticeable influence on the mechanical properties. The proposed explanation was that the considered peak current density interval 1.22-1.72 A∙cm-2 does not exhibit dramatic changes in the plasma dynamics.
In a second part, using the optimized deposition rate, the optimized chemical composition of TiN was determined. It was shown that the chemical composition of TiN does not significantly influence the corrosion performance but impacts considerably the mechanical properties. It was also shown that the corrosion resistance of the coatings deposited using HiPIMS was higher than that of the coatings deposited using dcMS.
The third study was the effect of annealing post deposition on the properties of TiN coating deposited using HiPIMS. The hardness of the coatings showed a maximum at 400°C reaching 24.8 GPa. Above 400°C however, a lowering of the hardness was measured and was due to the oxidation of TiN which led to the formation of TiN-TiO2 composites with lower mechanical properties.
The coating microscopic properties such as crystal orientation, residual stresses, average grain size were determined from X-ray diffraction data and the roughness was measured using atomic force microscopy. These properties were found to vary with the magnetic field strength, the chemical composition as well as the annealing temperature.
Diet-related effects of antimicrobials in aquatic decomposer-shredder and periphyton-grazer systems
(2022)
Leaf-associated microbial decomposers as well as periphyton serve as important food sources for detritivorous and herbivorous macroinvertebrates (shredders and grazers) in streams. Shredders and grazers, in turn, provide not only collectors with food but also serve as prey for predators. Therefore, decomposer-shredder and periphyton-grazer systems (here summarized as freshwater biofilm-consumer systems) are highly important for the energy and nutrient supply in heterotrophic and autotrophic stream food webs. However, both systems can be affected by chemical stressors, amongst which antimicrobials (e.g., antibiotics, fungicides and algaecides) are of particular concern. Antimicrobials can impair shredders and grazers not only via waterborne exposure (waterborne effect pathway) but also through dietary exposure and microorganism-mediated alterations in the food quality of their diet (dietary effect pathway). Even though the relevance of the latter pathway received more attention in recent years, little is known about the mechanisms that are responsible for the observed effects in shredders and grazers. Therefore, the first objective of this thesis was to broaden the knowledge of indirect antimicrobial effects in a model shredder and grazer via the dietary pathway. Moreover, although freshwater biofilm-consumer systems are most likely exposed to antimicrobial mixtures comprised of different stressor groups, virtually nothing is known of these mixture effects in both systems. Therefore, the second objective was to assess and predict diet-related antimicrobial mixture effects in a model freshwater biofilm-consumer system. During this thesis, positive diet-related effects of a model antibiotic on the energy processing and physiology of the shredder Gammarus fossarum were observed. They were probably triggered by shifts in the leaf-associated microbial community in favor of aquatic fungi that increased the food quality of leaves for the shredder. Contrary to that, a model fungicide induced negative effects on the energy processing of G. fossarum via the dietary pathway, which can be explained by negative impacts on the microbial decomposition efficiency leading to a reduced food quality of leaf litter for gammarids. For diet-related antimicrobial effects in periphyton-grazer systems, a model algaecide altered the periphyton community composition by increasing nutritious and palatable algae. This resulted in an enhanced consumption and physiological fitness of the grazer Physella acuta. Finally, it was shown that complex horizontal interactions among leaf-associated microorganisms are involved, making diet-related antimicrobial mixture effects in the shredder G. fossarum difficult to predict. Thus, this thesis provides new insights into indirect diet-related effects of antimicrobials on shredders and grazers as well as demonstrates uncertainties of antimicrobial mixture effect predictions for freshwater biofilm-consumer systems. Moreover, the findings in this thesis are not only informative for regulatory authorities, as indirect effects and effects of mixtures across chemical classes are not considered in the environmental risk assessment of chemical substances, but also stimulate future research to close knowledge gaps identified during this work.
Binnengewässer spielen eine aktive Rolle im globalen Kohlenstoffkreislauf. Sie nehmen Kohlenstoff von stromaufwärts gelegenen Landmassen auf und transportieren ihn stromabwärts, bis er schließlich den Ozean erreicht. Auf diesem Weg sind vielfältige Prozesse zu beobachten, die zu einer (dauerhaften) Rückhaltung des Kohlenstoffs durch Einlagerung in Sedimenten sowie zu direkter Emission in die Atmosphäre führen. Es ist dringend notwendig diese Kohlenstoffflüsse und ihre anthropogene Veränderung zu quantifizieren. In diesem Zusammenhang muss die Aufmerksamkeit auf ein weit verbreitetes Merkmal von Gewässern gerichtet werden: ihre teilweise Austrocknung. Dies führt dazu, dass ehemals überschwemmte Sedimente in direkten Kontakt mit der Atmosphäre gelangen, genannt „dry inland waters“. Ein Merkmal der „dry inland waters“ sind überproportional hohe Kohlendioxid (CO2)-Emissionen. Diese Erkenntnis beruhte jedoch bisher auf lokalen Fallstudien, und es fehlt an Wissen über die globale Verbreitung und die grundlegenden Mechanismen dieser Emissionen. Vor diesem Hintergrund zielt diese Arbeit darauf ab, das Ausmaß und die Mechanismen der Kohlenstoffemissionen der „dry inland waters“ auf globaler und lokaler Ebene besser zu verstehen und die Auswirkungen von „dry inland waters“ auf den globalen Kohlenstoffkreislauf zu bewerten. Die spezifischen Forschungsfragen dieser Arbeit lauteten: (1) Wie fügen sich gasförmige Kohlenstoffemissionen von „dry inland waters“ in den globalen Kohlenstoffkreislauf und in die globalen Treibhausgasbudgets ein? (2) Welche Auswirkungen haben saisonale und langfristige Austrocknung auf den Kohlenstoffkreislauf von Gewässern? Diese Arbeit hat gezeigt, dass „dry inland waters“im globalen Maßstab unverhältnismäßig große Mengen an CO2 emittieren und dass diese Emissionen in allen Ökosystemen vergleichbaren Mechanismen folgen. Die Quantifizierung der globalen Wasserstandsschwankungen in Stauseen und die globale Berechnung der Kohlenstoffflüsse legen nahe, dass Stauseen mehr Kohlenstoff freisetzen als sie in den Sedimenten einlagern, was das derzeitige Verständnis von Stauseen als Nettokohlenstoffsenken in Frage stellt. Auf lokaler Ebene hat diese Arbeit gezeigt, dass sowohl die heterogenen Emissionsmuster verschiedener typischer Uferbereiche als auch die saisonalen Schwankungen der Kohlenstoffemissionen aus der „drawdown area“ berücksichtigt werden müssen. Darüber hinaus hat diese Arbeit gezeigt, dass die Remobilisierung von Kohlenstoff aus den Sedimenten bei dauerhafter Austrocknung von Gewässern die beobachteten Emissionsraten erklären kann, was die Hypothese einer positiven Rückkopplung zwischen Klimawandel und der Austrocknung von Gewässern unterstützt. Insgesamt unterstreicht die vorliegende Arbeit die Bedeutung der Emissionen aus trockenen Gewässerbereichen für den globalen Kohlenstoffkreislauf von Gewässern.
Invasive species play increasing roles worldwide. Invasions are considered successful when species establish and spread in their exotic range. Subsequently, dispersal is a major determinant of species’ range dynamics. Mermessus trilobatus, native to North America, has rapidly spread in Europe via aerial dispersal. Here we investigated the interplay of ecological and evolutionary processes behind its colonisation success.
First, we examined two possible ecological mechanisms. Similar to other invasive invertebrates, the colonisation success of Mermessus trilobatus might be related to human-induced habitat disturbance. Opposite to this expectation, our results showed that densities of Mermessus trilobatus decreased with soil disturbance in grasslands suggesting that its invasion success was not connected to a ruderal strategy. Further, invasive species often escape the ecological pressures from novel enemies in their exotic ranges. Unexpectedly, invasive Mermessus trilobatus was more sensitive to a native predator than native Erigone dentipalpis during our predator susceptibility trials. This indicates that the relation between the invasive spider and its native predator is dominated by prey naïveté rather than enemy release.
The remaining three chapters of the thesis investigated the dispersal behaviour of this invasive species. Hitherto, studies of passive aerial dispersal used wind as the primary dispersal-initiating factor despite a recent demonstration of the effects of the atmospheric electric fields on spiders’ pre-dispersal behaviour. During our experiments, only the wind facilitated the flight, although electric fields induced pre-dispersal behaviour in spiders. Consequently, studies around passive aerial dispersal should control electric fields but use wind as a stimulating factor.
Rapidly expanding species might be disproportionately distributed in their exotic range, with an accumulation of dispersive genotypes at the leading edge of their range. Such imbalanced spatial segregation is possible when the dispersal behaviour of expanding species is heritable. Our results showed that the dispersal traits of Mermessus trilobatus were heritable through both parents and for both sexes with recessive inheritance of high dispersal ability in this species.
Following the heritability experiments, we documented an accelerated spread of Mermessus trilobatus in Europe and tested whether dispersal, reproduction or competing ability was at the source of this pattern. Our results showed that the accumulation of more mobile but not reproductive or competitive genotypes at the expansion front of this invasive species gave rise to an accelerated range expansion by more than 1350 km in under 45 years.
Invasive Mermessus trilobatus is inferior to native sympatric species with respect to competing ability (Eichenberger et al., 2009), disturbance tolerance and predation pressure. Nevertheless, the species successfully established in its exotic range and spread by accelerating its expansion rate. Rapid reproduction that balances the high ecological pressures might be the other potential mechanism behind its colonisation success in Europe and deserves further investigation.
Intensivierung der Landwirtschaft führt weltweit zu einem fortschreitenden Verlust der biologischen Vielfalt in Agrarlandschaften. Die daraus resultierende Homogenität der Landschaft, die mit der Ausweitung von Monokulturflächen und dem Verlust naturnaher Lebensräume einhergeht, hat schwerwiegende Auswirkungen auf Arthropoden in Agrarlandschaften. Während Ackerflächen aufgrund intensiver und häufiger Störungen für viele Arten ungeeignete Habitate darstellen, können naturnahe Lebensräume in Agrarökosystemen als wichtige Rückzugsflächen fungieren. Die Erschaffung von naturnahen Lebensräumen durch Agrarumweltmaßnahmen in intensiven Agrarlandschaften, wie der Maifelder Agrarlandschaft in Westdeutschland, sollen den negativen Auswirkungen der landwirtschaftlichen Intensivierung entgegenwirken. Allerdings ist die Wirksamkeit dieser Maßnahmen für den Artenschutz noch umstritten. Aus diesem Grund wird in dieser Arbeit die Artenvielfalt der Käfer (Coleoptera) und Spinnen (Araneida) auf Weizenfeldern und verschiedenen naturnahen Lebensräumen (grasbewachsene Feldränder angrenzend an Weizen- und Rapsfelder; klein- und großflächige, mit Wildblumenmischungen eingesäte, Stilllegungsflächen; dauerhafte Grünlandbrachen) miteinander verglichen. Hierfür wurden die Arthropoden in den Jahren 2019 und 2020 mit Bodenfallen und Saugproben erfasst. Die vorliegenden Ergebnisse zeigen, dass die Landnutzung die Käfer- und Spinnendiversität im Untersuchungsgebiet beeinflusst, mit einer deutlich höheren Artenvielfalt auf den Grünlandbrachen als auf den Weizenfeldern. Überraschenderweise bestanden zwischen allen naturnahen Lebensräumen nur geringe Unterschiede, jedoch beherbergten sie unterschiedliche Artengemeinschaften. Hier unterschieden sich vor allem die Käfer- und Spinnengemeinschaften der großflächigen Grünlandbrachen deutlich von allen anderen untersuchten Landnutzungstypen. Insbesondere für Habitatspezialisten und gefährdete Arten stellten die Grünlandbrachen wichtige Lebensräume dar, wahrscheinlich aufgrund ihrer variablen Bodenfeuchtigkeit und komplexen Lebensraumstruktur. Im Gegensatz dazu wiesen Weizenfelder homogene Arthropodengemeinschaften mit einem geringeren Merkmalsreichtum auf und wurden von einigen wenigen räuberischen Arten dominiert, die sich an derartig intensive Lebensräume angepasst haben. Die Ergebnisse deuten darauf hin, dass sich alle Schutzmaßnahmen ergänzen, indem sie auf unterschiedliche Weise zur Förderung der Käfer und Spinnen auf landwirtschaftlichen Flächen beitragen können. Selbst kleinflächige naturnahe Lebensräume und bestehende Habitatgrenzen in einer landwirtschaftlichen Matrix scheinen wertvolle Lebensräume für Arthropoden in Agrarökosystemen darzustellen, indem sie zur Erhöhung der taxonomischen Vielfalt beitragen. Feldränder und kleine, mit Wildblumen eingesäte Flächen, können isolierte naturnahe Lebensräume miteinander verbinden und zu einer heterogenen Agrarlandschaft beitragen. Folglich führt eine Kombination verschiedener klein- und großflächiger Begrünungsmaßnahmen zu einer erhöhten Landschaftsheterogenität, die sich wiederum positiv auf die Käfer- und Spinnenvielfalt auswirkt. In Anbetracht des weltweit anhaltenden Verlustes der Artenvielfalt in Agrarlandschaften, sollten Agrarumweltmaßnahmen in Zukunft gefördert werden, da sie für den Arthropodenschutz in intensiven Agrarlandschaften, wie im Maifeld, besonders bedeutsam sind.
The ongoing loss of species is a global threat to biodiversity, affecting ecosystems worldwide. This also concerns arthropods such as insects and spiders, which are especially endangered in agricultural ecosystems. Here, one of the main causing factors is management intensification. In areas with a high proportion of traditionally managed grassland, extensive hay meadows that are cut only once per year can still hold high levels of biodiversity, but are threatened by conversion into highly productive silage grassland. The Westerwald mountain range, western Germany, is such a region. In this thesis, I compare the local diversity of bees, beetles, hoverflies, leafhoppers, and spiders of five grassland management regimes along a gradient of land-use intensity. These comprise naturally occurring grassland fallows, three types of traditionally managed hay meadows, and intensively used silage grassland. By using three different sampling methods, I recorded ground-dwelling, flower-visiting, and vegetation-dwelling species. The results show that in most cases species richness and diversity are highest on fallows, whereas variation among different managed grassland types is very low. Also, for most sampled taxa, fallows harbour the most distinct species assemblages, while that of other management regimes are largely overlapping. Management has the largest effect on species composition, whereas environmental parameters are of minor importance. Long-term grassland fallows seem to be highly valuable for arthropod conservation, even in a landscape with a low overall land-use intensity, providing structural heterogeneity. In conclusion, such fallows should be subsidized agri-environmental schemes, to preserve insect and spider diversity.
Eine nachhaltige Intensivierung der Landwirtschaft ist notwendig, um die wachsende Weltbevölkerung zu ernähren ohne die Bodenqualität durch verstärkte Bodendegradation zu verschlechtern. Plastikmul-che (PM) werden weltweit zunehmend eingesetzt, um Wachstum und Ertrag von Feldfrüchten zu ver-bessern und somit die landwirtschaftliche Produktivität zu steigern. Zunehmend finden sich aber auch kritische Aspekte der PM-Anwendung auf die Bodenqualität sowie widersprüchliche Ergebnisse in der wissenschaftlichen Literatur. Grund könnte die Anwendung in verschiedenen Klimaten und bei unter-schiedlichen Feldkulturen, Böden und landwirtschaftlichen Techniken sein. Ein genauerer Blick ist so-mit notwendig, um den PM-Einfluss auf die Bodenprozesse unter verschiedenen Klima- und Anbaube-dingungen umfassend zu verstehen und hinsichtlich einer nachhaltigen Landwirtschaft zu bewerten.
Ziel dieser Doktorarbeit war es, zu verstehen, inwieweit eine mehrjährige PM-Anwendung verschiedene Bodeneigenschaften und -prozesse unter gemäßigt, humidem Klima in Mitteleuropa beeinflusst und die Folgen für die Bodenqualität zu bewerten. Hierfür untersuchte ich in einer dreijährigen Feldstudie, wie PM (schwarzes Polyethylen, 50 μm) das Mikroklima, die Strukturstabilität, die organische Bodensub-stanz (OBS) und die Konzentrationen bestimmter Fungizide und Mykotoxine in drei Bodenschichten (0–10, 10–30 and 30–60 cm) im Vergleich zu Strohmulch (SM) beeinflusst. Beide Bodenabdeckungen wurden in einer Dammkultur mit Tröpfchenberegnung im Erdbeeranbau eingesetzt.
Die PM veränderten das Mikroklima des Bodens hin zu höheren Temperaturen und niedrigeren Was-sergehalten. Hauptfaktor für das gesteigerte Pflanzenwachstum unter gegebenem Klima dürfte somit die höhere Bodentemperatur sein. Die niedrigere Bodenfeuchte unter PM zeigte, dass die verhinderte Nie-derschlagsversickerung stärker den Wasserhaushalt beeinflusste als die reduzierte Evaporation, was auf eine ineffiziente Niederschlagsnutzung hinweist. Die PM veränderten den Wasserkreislauf hin zu ver-mehrt seitlichen Wasserflüssen von der Furche zum Damm und weniger vertikalen Sickerwasserflüssen im Damm. Letzteres verringerte die Stickstoffauswaschung im Oberboden (0–10 cm) in der Anwachs-phase der Erdbeeren. PM verhinderte eine abrupte Bodendurchnässung und Überschusswasser bei Re-genfällen und somit Aggregatzerstörung. So wurde eine lockere und stabile Bodenstruktur erhalten, die Bodenverdichtung und Bodenerosion vorbeugt. PM veränderte Kohlenstoffaustausch und -umwandlung hin zu einer größeren und stabileren OBS. Somit kompensierte die unterirdische Biomassenproduktion unter PM den temperaturbedingt beschleunigten OBS Abbau sowie den fehlenden Eintrag oberirdischer Biomasse. Das SM erhöhte jedoch die labile und totale OBS im Oberboden nach dem ersten Versuchs-jahr und steigerte das mikrobielle Wachstum durch den oberirdischen Biomasseeintrag. PM verringerte den Fungizideintrag in den Boden und verursachte kein erhöhtes Mykotoxinvorkommen. Somit stellt PM kein erhöhtes Risiko für Bodenkontaminationen und die Bodenqualität dar. Diese Doktorarbeit zeigte, dass sich die PM-Effekte zeitlich, saisonal und zwischen den Bodenschichten unterschieden, womit die Bedeutung der Faktoren Bodentiefen und Zeit für zukünftige Studien belegt wurde.
Verglichen mit ariden Gebieten, waren die beobachteten PM-Einflüsse klein, ausgeblieben oder anders. Als Grund hierfür vermute ich, dass PM in humidem Klima die Bodenfeuchte verringerte anstatt zu erhöhen und dass unter SM das Stroh und Blätterwerk einen PM-ähnlichen „Abdeckungseffekt“ verur-sachte. Eine Generalisierung der PM-Effekte über verschiedenen Klimazonen ist somit kaum möglich, da sich die Effekte in Art und Ausmaß in Abhängigkeit vom Klima unterscheiden. Die PM-Effekte auf die Bodenqualität müssen somit differenziert beurteilt werden. Ich schlussfolgere, dass PM in humiden Klimaten Bodendegradationen vermindern könnte (z.B., OBS Abbau, Erosion, Nährstoffauswaschung, Verdichtung und Kontamination) und somit hilft, Bodenqualität zu erhalten und eine nachhaltige, land-wirtschaftliche Intensivierung zu ermöglichen. Allerdings ist weitere Forschung nötig um meine Ergeb-nisse auf größeren Skalen, über längere Zeitperioden und bei verschiedenen Böden und Feldfrüchte zu überprüfen, verbleibende offene Fragen zu beantworten und Verbesserungen zu entwickeln, um die Nachteile der PM zu überwinden (z.B. Bodenverunreinigung mit Plastik, Entsorgung der Mulche).
The decline of biodiversity can be observed worldwide and its consequences are alarming. It is therefore crucial that nature must be protected and, where possible, restored. A wide variety of different project options are possible. Yet in the context of limited availability of resources, the selection of the most efficient measures is increasingly important. For this purpose, there is still a lack of information. This pertains, as outlined in the next paragraph, in particular, to information at different scales of projects.
Firstly, there is a lack of information on the concrete added value of biodiversity protection projects. Secondly, there is a lack of information on the actual impacts of such projects and on the costs and benefits associated with a project. Finally, there is a lack of information on the links between the design of a project, the associated framework conditions and the perception of specific impacts. This paper addresses this knowledge gap by providing more information on the three scales by means of three empirical studies on three different biodiversity protection projects in order to help optimize future projects.
The first study “Assessing the trade-offs in more nature-friendly mosquito control in the Upper Rhine region” examines the added value of a more nature-friendly mosquito control in the Upper Rhine Valley of Germany using a contingent valuation method. Recent studies show that the widely used biocide Bti, which is used as the main mosquito control agent in many parts of the world, has more negative effects on nature than previously expected. However, it is not yet clear whether the population supports a more nature-friendly mosquito control, as such an adaptation could potentially lead to higher nuisance. This study attempts to answer this question by assessing the willingness to pay for an adapted mosquito control strategy that reduces the use of Bti, while maintaining nuisance protection within settlements. The results show that the majority of the surveyed population attaches a high value to a more nature-friendly mosquito control and is willing to accept a higher nuisance outside of the villages.
The second study “Inner city river restoration projects: the role of project components for acceptance” examines the acceptance of a river restoration project in Rhineland-Palatinate, Germany. Despite much effort, many rivers worldwide are still in poor condition. Therefore, a rapid implementation of river restoration projects is of great importance. In this context, acceptance by society plays a fundamental role, however, the factors determining such acceptance are still poorly understood. In particular, the complex interplay between the acceptance or rejection of specific project components and the acceptance of the overall project require further exploration. This study addresses this knowledge gap by assessing the acceptance of the project, its various ecological and social components, and the perception of real and fictitious costs as well as the benefits of the components. Our findings demonstrate that while acceptance of the overall project is generally rather high, many respondents reject one or more of the project's components. Complementary social project components, like a playground, find less support than purely ecological components. Overall, our research shows that complementary components may increase or decrease acceptance of the overall project. We, furthermore, found that differences in the acceptance of the individual components depend on individual concerns, such as perceived flood risk, construction costs, expected noise and littering as well as the quality of communication, attachment to the site, and the age of the respondents.
The third study “What determines preferences for semi-natural habitats in agrarian landscapes? A choice-modelling approach across two countries using attributes characterizing vegetation” investigates people's aesthetic preferences for semi-natural habitats in agricultural landscapes. The EU-Common Agricultural Policy promotes the introduction of woody and grassy semi-natural habitats (SNH) in agricultural landscapes. While the benefits of these structures in terms of regulating ecosystem services are already well understood, the effects of SNH on visual landscape quality is still not clear. This study investigates the factors determining people’s visual preferences in the context of grassy and woody SNH elements in Swiss and Hungarian landscapes using picture-based choice experiments. The results suggest that respondents’ choices strongly depend on specific vegetation characteristics that appear and disappear over the year. In particular, flowers as a source of colours and green vegetation as well as ordered structure and the proportion of uncovered soil in the picture play an important role regarding respondents’ aesthetic perceptions of the pictures.
The three empirical studies can help to make future projects in the study areas of biodiversity protection more efficient. While this thesis highlights the importance of exploring biodiversity protection projects at different scales, further analyses of the different scales of biodiversity protection projects are needed to provide a sound basis to develop guidance on identifying the most efficient biodiversity protection projects.
In den vergangenen Jahrzehnten haben sich Einzelpartikelanalyse (EPA) und Kryotransmissionselektronenmikroskopie(Kryo-EM) zu einer der führenden Technologien für die strukturelle Analyse von biologischen Makromolekülen entwickelt. Dies erlaubt die Untersuchung biologischer Strukturen in einem möglichst naturgetreuen Zustand auf molekularer Ebene. In den letzten fünf Jahren überwand die EPA erstmals die Auflösungsgrenze von 2°A und erreichte somit atomare Auflösung, was bislang nur mittels Röntgenkristallographie möglich war. Ein bestehendes Problem der Kryo-EM ist der schwache Bildkontrast. Seit der Einführung der Kryo-EM in den 1980er Jahren, wurde an Phasenplatten als mögliches Werkzeug, zur Verbesserung des Bildkontrasts geforscht. Hier limitierten immer technische Probleme bei der Herstellung oder geräteseitige Limitierungen, wie z.B. Hysterese der Linsen, den erfolgreichen Einsatz solcher Phasenplatten. Insbesondere ein automatisierter Arbeitsablauf für die Steuerung des Mikroskops und die Aufnahme der Bilder ließ sich nie realisieren. In dieser Doktorarbeit wurde eine neue Zernike-Phasenplatte entwickelt und untersucht. Freistehende Metallfilme dienten als Phasenplattenmaterial, um Alterungsund Kontaminationsprobleme der bislang üblichen kohlenstoffbasierten Phasenplatten zu überwinden. In ersten Experimenten zur Materialwahl wurde Iridium als geeignetes Metall identifiziert. Der zweite Teil der Arbeit behandelt die Untersuchung der Iridium-Phasenplatten hinsichtlich ihrer Eigenschaften und ihrem Verhalten im Elektronenmikroskop. Ein Resultat dieser Experimente ist der sogenannte rocking-Modus, bei dem die Phasenplatte während der Aufnahme bewegt wird und wodurch sich Streuungs- und andere Artefakte, die bei den Zernike-Phasenplatten üblicherweise auftreten, verhindern oder deutlich reduzieren ließen. Die Entwicklung eines angepassten Workflow ermöglichte die Aufnahme von EPADatens ätzen mit Phasenplatte über mehrere Tage. Für die Evaluierung der Phasenplattendaten wurden Datensätze von Apoferritin mit und ohne Phasenplatte aufgenommen und miteinander verglichen.
Water is used in a way as if it were available infinitely. Droughts, increased rainfall or flooding already lead to water shortages and, thus, deprive entire population groups of the basis of their livelihoods. There is a growing fear that conflicts over water will increase, especially in arid climate zones, because life without water - whether for humans, animals or plants - is not possible.
More than 60 % of the African population depend on land and water resources for their livelihoods through pastoralism, fishing and farming. The water levels of rivers and lakes are decreasing. Hence, the rural population which is dependent on land and water move towards water-rich and humid areas. This internal migration increases the pressure on available water resources. Driven by the desire to strengthen the economic development, African governments align their political agendas with the promotion of macro international and national economic projects.
This doctoral thesis examines the complex interrelationships between water shortages, governance, vulnerability, adaptive capacity and violent and non-violent conflicts at Lake Naivasha in Kenya and Lake Wamala in Uganda. In order to satisfy the overall complexity, this doctoral thesis combines various theoretical and empirical aspects in which a variety of methods are applied to different geographical regions, across disciplines, and cultural and political boundaries.
The investigation reveals that Lake Naivasha is more affected by violent conflicts than Lake Wamala. Reasons for this include population growth, historically grown ethnic conflicts, corruption and the preferential treatment of national and international economic actors. The most common conflict response tools are raiding and the blockage of water access. However, deathly encounters, destruction of property and cattle slaughtering are increasingly used to gain access to water and land.
The insufficient implementation of the political system and the governments’ prioritization to foster economic development results, on the one hand, in the commercialization of water resources and increases, on the other hand, non-violent conflict between national and sub-national political actors. While corruption, economic favours and patronage defuse this conflict, resource access becomes more difficult for the local population. Resulting thereof, a final hypothesis is developed which states that the localization of the political conflict aggravates the water situation for the local population and, thereby, favours violent conflicts over water access and water use in water-rich areas.
Das Web ist ein wesentlicher Bestandteil der Transformation unserer Gesellschaft in das digitale Zeitalter. Wir nutzen es zur Kommunikation, zum Einkaufen und für unsere berufliche Tätigkeit. Der größte Teil der Benutzerinteraktion im Web erfolgt über Webseiten. Daher sind die Benutzbarkeit und Zugänglichkeit von Webseiten relevante Forschungsbereiche, um das Web nützlicher zu machen. Eyetracking ist ein Werkzeug, das in beiden Bereichen hilfreich sein kann. Zum einen um Usability-Tests durchzuführen, zum anderen um die Zugänglichkeit zu verbessern. Es kann verwendet werden, um die Aufmerksamkeit der Benutzer auf Webseiten zu verstehen und Usability-Experten in ihrem Entscheidungsprozess zu unterstützen. Darüber hinaus kann Eyetracking als Eingabemethode zur Steuerung einer Webseite verwendet werden. Dies ist besonders nützlich für Menschen mit motorischen Beeinträchtigungen, die herkömmliche Eingabegeräte wie Maus und Tastatur nicht benutzen können. Allerdings werden Webseiten aufgrund von Dynamiken, d. h. wechselnden Inhalten wie animierte Menüs und Bilderkarussells, immer komplexer. Wir brauchen allgemeine Ansätze zum Verständnis der Dynamik auf Webseiten, die eine effiziente Usability-Analyse und eine angenehme Interaktion mit Eyetracking ermöglichen. Im ersten Teil dieser Arbeit berichten wir über unsere Forschung zur Verbesserung der blickbasierten Analyse von dynamischen Webseiten. Eyetracking kann verwendet werden, um die Blicke von Nutzern auf Webseiten zu erfassen. Die Blicke zeigen einem Usability-Experten, welche Teile auf der Webseite gelesen, überflogen oder übersprungen worden sind. Die Aggregation von Blicken ermöglicht einem Usability-Experten allgemeine Eindrücke über die Aufmerksamkeit der Nutzer, bevor sie sich mit dem individuellen Verhalten befasst. Dafür müssen alle Blicke entsprechend des von den Nutzern erlebten Inhalten verstanden werden. Die Benutzererfahrung wird jedoch stark von wechselnden Inhalten beeinflusst, da diese einen wesentlichen Teil des angezeigten Bildes ausmachen können. Wir grenzen unterschiedliche Zustände von Webseiten inklusive wechselnder Inhalte ab, so dass Blicke von mehreren Nutzern korrekt aggregiert werden können. Im zweiten Teil dieser Arbeit berichten wir über unsere Forschung zur Verbesserung der blickbasierten Interaktion mit dynamischen Webseiten. Eyetracking kann verwendet werden, um den Blick während der Nutzung zu erheben. Der Blick kann als Eingabe zur Steuerung einer Webseite interpretiert werden. Heutzutage wird die Blicksteuerung meist zur Emulation einer Maus oder Tastatur verwendet, was eine komfortable Bedienung erschwert. Es gibt wenige Webbrowser-Prototypen, die Blicke direkt zur Interaktion mit Webseiten nutzen. Diese funktionieren außerdem nicht auf dynamischen Webseiten. Wir haben eine Methode entwickelt, um Interaktionselemente wie Hyperlinks und Texteingaben effizient auf Webseiten mit wechselnden Inhalten zu extrahieren. Wir passen die Interaktion mit diesen Elementen für Eyetracking an, so dass ein Nutzer bequem und freihändig im Web surfen kann. Beide Teile dieser Arbeit schließen mit nutzerzentrierten Evaluationen unserer Methoden ab, wobei jeweils die Verbesserungen der Nutzererfahrung für Usability-Experten bzw. für Menschen mit motorischen Beeinträchtigungen untersucht werden.
ZUSAMMENFASSUNG
Gebäude und Infrastrukturen prägen das Bild unserer Kulturlandschaften und erbringen essentielle Dienstleistungen für die menschliche Gesellschaft. Sie wirken sich jedoch auch unweigerlich auf die natürliche Umwelt aus, z.B. durch die strukturelle Veränderung von Lebensräumen. Überdies gelten sie aufgrund der Freisetzung chemischer Inhaltsstoffe aus den eingesetzten Baumaterialien als potentielle Verursacher negativer Umweltauswirkungen. Galvanische Anoden und organische Beschichtungen, die an Stahlbauwerken regelmäßig zum Schutz vor Korrosion zum Einsatz kommen, sind als Baumaterialien für die Verkehrsinfrastruktur von besonderer Bedeutung. In direktem Kontakt mit einem Wasserkörper oder indirekt über den Abfluss nach einem Niederschlagsereignis können zahlreiche Chemikalien in aquatische Lebensräume emittiert werden und eine Gefahr für Wasserorganismen darstellen. Zur Beurteilung der Umweltverträglichkeit von Bauprodukten existiert bislang kein einheitlicher Untersuchungs- und Bewertungsansatz. Zudem stellen galvanische Anoden und organische Beschichtungen aufgrund ihrer Zusammensetzung besondere Herausforderungen an deren ökotoxikologische Charakterisierung. Ziel der vorliegenden Arbeit war es daher, die Gefährdung der aquatischen Umwelt durch galvanische Anoden und Korrosionsschutzbeschichtungen mithilfe ökotoxikologischer Untersuchungen zu beurteilen und standardisierte Bewertungsverfahren für diese Materialien zu entwickeln.
Die Untersuchung des möglichen Umwelteinflusses durch die Anwendung von Anoden an Offshore-Anlagen erfolgte auf drei trophischen Ebenen. Um eine möglichst realistischste und zuverlässige Abschätzung zu gewährleisten, wurden die Experimente in natürlichem Meerwasser und unter natürlichen pH-Bedingungen durchgeführt. Zudem erfolgte die Exposition gegenüber dem Anodenmaterial und deren Hauptbestandteilen Zink und Aluminum unter Simulation eines Worst-Case-Szenarios. Das untersuchte Anodenmaterial verursachte eine schwache Hemmung des Algenwachstums; auf die getesteten Leuchtbakterien und Flohkrebse zeigte es keine akute Toxizität. Allerdings wurde eine Erhöhung der Aluminium- und Indiumgehalte in den Krebsen festgestellt. Auf Grundlage dieser Ergebnisse wurde keine direkte Gefahr für marine Organismen durch den Einsatz galvanischer Aluminium-Anoden identifiziert. Eine Anreicherung von Metallen in Krebstieren und ein daraus resultierender Eintrag ins marine Nahrungsnetz kann jedoch nicht ausgeschlossen werden.
Die Umweltverträglichkeit organischer Beschichtungssysteme wurde exemplarisch für eine Auswahl relevanter Produkte auf Basis von Epoxidharzen (EP) und Polyurethanen bewertet. Dazu wurden beschichtete Probeplatten schrittweise über 64 Tage ausgelaugt. Die gewonnenen Eluate wurden systematisch auf ihre ökotoxikologischen Effekte (akute Toxizität gegenüber Algen und Leuchtbakterien, mutagene und estrogenartige Wirkungen) und chemische Zusammensetzung analysiert. Dabei zeigten sich insbesondere die EP-basierten Beschichtungen durch die Verursachung erheblicher bakterieller Toxizität und estrogenartiger Wirkung auffällig. Als primärer Urheber dieser Effekte wurde das kontinuierlich freigesetzte 4-tert-Butylphenol identifiziert, dessen Konzentration in allen Proben die predicted no effect concentration für Süßwasser überschritt. Gleichzeitig hat sich gezeigt, dass die Gesamttoxizität nicht durch den Gehalt an 4-tert-Butylphenol in den Produkten bestimmt wird, sondern vom Freisetzungsmechanismus dieser Verbindung aus den untersuchten Polymeren abhängig ist. Diese Ergebnisse deuten darauf hin, dass eine Optimierung der Zusammensetzung, beispielsweise aufgrund einer besseren Polymerisation der Inhaltsstoffe, zu einer Reduzierung von Emissionen und damit zu einer verminderten Belastung der Umwelt führen kann.
Regen, Temperaturwechsel und Sonneneinstrahlung können zur Verwitterung polymerer Korrosionsschutzbeschichtungen führen. Um den Einfluss lichtbedingter Alterung auf die Ökotoxizität von Deckbeschichtungen zu erfassen, wurde die Emissionen und damit verbundene negative Auswirkungen von UV-bestrahlten und unbehandelten EP-basierten Produkten miteinander verglichen. Nach statischer Auslaugung stand dabei die Untersuchung estrogenartiger und bakterien-toxischer Wirkungen im Fokus, die sowohl im klassischen Mikrotiterplattenformat als auch in Kopplung mit Dünnschichtplatten detektiert wurden. Beide untersuchten Materialien zeigten nach Bestrahlung eine signifikante Abnahme der ökotoxikologischen Effekte bei gleichzeitiger Verringerung der Freisetzung von 4-tert-Butylphenol. Jedoch wurden auch Bisphenol A und verschiedene Strukturanaloga als photolytische Abbauprodukte der Polymere nachgewiesen, die ebenfalls zur beobachteten Wirkung beitrugen. Die Identifizierung bioaktiver Inhaltsstoffe konnte dabei durch die erfolgreiche Kombination der in-vitro-Bioassays mit chemischen Analysen im Sinne einer effektgeleiteten Analytik unterstützt werden. Die vorliegenden Ergebnisse liefern wichtige Hinweise für die Beurteilung der generellen Eignung von Deckbeschichtungen auf Basis von Epoxidharzen.
Das im Rahmen der vorliegenden Studie entwickelte Untersuchungskonzept konnte erfolgreich auf eine Auswahl relevanter Baumaterialien angewendet werden. Die gezielte Anpassung einzelner Standardmethoden erlaubte dabei eine individuelle Produktbewertung. Gleichzeitig wurde sowohl die Zweckmäßigkeit der angewendeten ökotoxikologischen Methoden für die Untersuchung von Materialien unbekannter und komplexer Zusammensetzung bestätigt als auch die Basis für eine systematische Bewertung der Umweltverträglichkeit von Korrosionsschutzprodukten geschaffen. Vor dem Hintergrund der Europäischen Bauprodukteverordnung kann der gewählte Ansatz dem einfachen Vergleich verschiedener Baumaterialien z.B. innerhalb einer Produktgruppe dienen und damit die Auswahl umweltverträglicher Produkte vereinfachen und zur Optimierung einzelner Rezepturen beitragen.
Method development for the quantification of pharmaceuticals in aqueous environmental matrices
(2021)
Als Folge des Weltbevölkerungswachstums und des daraus resultierenden Wassermangels ist das Thema Wasserqualität zunehmend im Fokus der Öffentlichkeit. In diesem Kontext stellen anthropogene organische Stoffe - oft als Mikroschadstoffe bezeichnet - eine Bedrohung für die Wasserressourcen dar. Besonders Pharmazeutika werden aufgrund ihrer permanenten Einleitung, ihres steigenden Verbrauchs und ihrer wirkungsbasierten Strukturen mit besonderer Besorgnis diskutiert. Pharmazeutika werden hauptsächlich über Kläranlagen in die Umwelt eingeleitet, zusammen mit ihren Metaboliten und den vor Ort gebildeten Transformationsprodukten (TPs). Wenn sie die aquatische Umwelt erreichen, verteilen sie sich zwischen den verschiedenen Umweltkompartimenten, insbesondere der Wasserphase, Schwebstoffen (SPM) und Biota. In den letzten Jahrzehnten wurden Pharmazeutika in der Wasserphase umfassend untersucht. Allerdings wurden extrem polare Pharmazeutika aufgrund des Mangels an robusten Analysemethoden nur selten überwacht. Zudem wurden Metaboliten und TPs selten in Routineanalysemethoden einbezogen, obwohl ihre Umweltrelevanz nachgewiesen ist. Darüber hinaus wurden Pharmazeutika nur sporadisch in SPM und Biota untersucht und es fehlen adäquate Multi-Analyt-Methoden, um umfassende Ergebnisse über ihr Vorkommen in diesen Matrices zu erhalten. Die vorliegende Arbeit wird, diese Wissenslücken durch die Entwicklung generischer Multi-Analyt-Methoden zur Bestimmung von Pharmazeutika in der Wasserphase, SPM und Biota geschlossen und das Vorkommen und die Verteilung von Pharmazeutika in diesen Kompartimenten bewertet. Für einen vollständigen Überblick wurde ein besonderer Schwerpunkt auf polare Pharmazeutika, pharmazeutische Metaboliten und TPs gelegt. Insgesamt wurden drei innovative Multi-Analyt-Methoden entwickelt, deren Analyten ein breites Spektrum an physikalisch-chemischen Eigenschaften abdecken. Zuerst wurde eine zuverlässige Multi-Analyt-Methode entwickelt um extrem polare Pharmazeutika, deren Metaboliten und TPs in wässrigen Umweltproben zu untersuchen. Die ausgewählten Analyten deckten einen signifikanten Bereich erhöhter Polarität ab und die Methode ist leicht um weitere Analyten erweiterbar. Diese Vielseitigkeit konnte durch die Verwendung der Gefriertrocknung als Probenvorbereitung und der zwitterionischen Hydrophile Interaktionschromatographie (HILIC) im Gradientenelutionsmodus erreicht werden. Die Eignung der HILIC-Chromatographie zur gleichzeitigen Quantifizierung einer großen Bandbreite von Mikroschadstoffe in wässrigen Umweltproben wurde gründlich untersucht. Es wurde auf mehrere Einschränkungen hingewiesen: eine sehr komplexe und zeitaufwändige Methodenentwicklung, eine sehr hohe Empfindlichkeit hinsichtlich der Änderung des Acetonitril-Wasser-Verhältnisses im Eluenten oder im Verdünnungsmittel und hohe positive Matrixeffekte für bestimmte Analyten. Diese Einschränkungen können jedoch durch die Verwendung eines präzisen Protokolls und entsprechend markierter interner Standards überwunden werden und werden durch die Vorteile von HILIC, die die chromatographische Trennung von extrem polaren Mikroverunreinigungen ermöglicht, überkompensiert. Die Untersuchung von Umweltproben zeigte erhöhte Konzentrationen der Analyten in der Wasserphase. Insbesondere Gabapentin, Metformin, Guanylharnstoff und Oxypurinol wurden bei Konzentrationen im µg/LBereich im Oberflächenwasser gemessen. Für die Bestimmung von 57 Pharmazeutika und 47 Metaboliten und TPs, die an SPM sorbiert sind, wurde anschließend eine verlässliche Multi-Analyt-Methode etabliert, die eine Quantifizierung bis in den niedrigen ng/g-Bereich erlaubt. Diese Methode wurde konzipiert, um einen großen Polaritätsbereich abzudecken, insbesondere unter Einbeziehung extrem polarer Pharmazeutika. Das Extraktionsverfahren basierte auf einer Druckflüssigkeitsextraktion (PLE), gefolgt von einer Reinigung durch Lösungsmittelaustausch und Detektion durch direkte Injektion-Umkehrphasen-LCMS/MS und Gefriertrocknung-HILIC-MS/MS. Das Sorptionspotential der Pharmazeutika wurde anhand von Laborexperimenten untersucht. Abgeleitete Verteilungskoeffizienten Kd variierten um fünf Größenordnungen unter den Analyten und bestätigten ein hohes Sorptionspotential für positiv geladene und unpolare Pharmazeutika. Das Vorkommen von Pharmazeutika in SPM deutscher Flüsse wurde durch die Untersuchung jährlicher Mischproben bewertet, die zwischen 2005 und 2015 an vier Standorten am Rhein und einem Standort an der Saar entnommen wurden. Dabei zeigte sich das ubiquitäre Vorkommen von an SPM sorbierten Pharmazeutika in diesen Flüssen. Insbesondere positiv geladene Analyten, auch sehr polare und unpolare Pharmazeutika zeigten nennenswerte Konzentrationen. Für viele Pharmazeutika wurde eine deutliche Korrelation zwischen den jährlich in Deutschland konsumierten Mengen und den in SPM gemessenen Konzentrationen festgestellt. Untersuchungen der zusammengesetzten räumlichen Verteilung von SPM erlaubten es, durch den Vergleich der Verschmutzungsmuster entlang des Flusses Hinweise auf spezifische industrielle Einleitungen zu erhalten. Diese Ergebnisse zeigten zum ersten Mal das Potential von SPM für die Überwachung von positiv geladenen und unpolaren Pharmazeutika in Oberflächengewässern. Für Pharmazeutika mit erhöhter Sorptionsaffinität (Kd uber 500 L/kg) erlauben SPM-Analysen sogar die Überwachung niedrigerer Emissionen. Schließlich wurde eine zuverlässige und generische Multi-Analyt-Methode zur Untersuchung von 35 Pharmazeutika und 28 Metaboliten und TPs in Fischplasma, Fischleber und Fischfilet entwickelt. Für diese Matrix war es eine große Herausforderung eine adäquate Aufreinigung zu entwickeln, die eine ausreichende Trennung der störenden Matrix von den Analyten ermöglicht. Bei der endgültigen Methode wurde die Extraktion von Fischgewebe durch Zellaufschluss durchgeführt, gefolgt von einem nicht diskriminierenden Clean-up auf der Basis von Kieselgel-Festphasenextraktion (SPE) und Materialien mit eingeschränkter Zugänglichkeit (RAM). Die Anwendung der entwickelten Methode auf die Messung von Brassen- und Karpfengeweben aus deutschen Flüssen zeigte, dass selbst polare Mikroverunreinigungen wie z.B. Pharmazeutika in Fischgeweben ubiquitär vorhanden sind. Insgesamt wurden 17 Analyten zum ersten Mal in Fischgewebe nachgewiesen, darunter 10 Metaboliten/TPs. Die Bedeutung der Überwachung von Metaboliten und TPs in Fischgeweben wurde durch deren Nachweis in ähnlichen Konzentrationen wie bei ihren Ausgangsstoffe bestätigt. Es zeigte sich, dass Leber und Filet für die Überwachung von Pharmazeutika in Fischen geeignet ¨ sind, während Plasma aufgrund sehr niedriger Konzentrationen und erschwerter Probenahme ungeeignet ist. Erhöhte Konzentrationen bestimmter Metaboliten deuten auf eine mögliche Bildung menschlicher Metaboliten in Fischen hin. Die gemessenen Konzentrationen weisen jedoch auf ein geringes Bioakkumulationspotential für Pharmazeutika in Fischgeweben hin.
Viele chemische Verbindungen, einschließlich Spurenelemente aus natürlichen und anthropogenen Quellen, verbleiben temporär oder endgültig in den Sedimenten der Oberflächengewässer. Ob diese als Quelle oder Senke von Metallen und Metalloiden (Metall(oid)e) fungieren, hängt von der Dynamik der biogeochemischen Prozesse ab, die an der Wasser-Sediment-Grenzschicht (sediment water interface - SWI) ablaufen. Wichtige Informationen zu biogeochemischen Prozessen sowie zur Exposition, zum Verbleib und zum Transport von Schadstoffen an der SWI lassen sich durch die Ermittlung von Konzentrationsprofilen im Sedimentporenwasser gewinnen. Dabei besteht die Herausforderung zum einen darin eine räumliche Auflösung zu realisieren, die es erlaubt, bestehende Gradienten adäquat zu erfassen und zu gleich hinreichend viele Parameter aufzunehmen, um die komplexen Prozesse zu verstehen. Zum anderen gilt es die Bildung von Probenahme-Artefakten zu verhindern, die durch die labile Natur der SWI sowie die steilen biogeochemischen Gradienten verursacht werden.
Vor diesem Hintergrund wurde im ersten Teil dieser Arbeit ein System zur automatisierten, minimal-invasiven Untersuchung der SWI entwickelt und erprobt. Das System ermöglicht die Beprobung des Sedimentporenwassers ungestörter oder manipulierter Sedimente bei gleichzeitiger Erfassung von Parametern wie Redoxpotential, Sauerstoffgehalt und pH-Wert. Im Rahmen eines Inkubationsexperimentes wurde der Einfluss von Versauerung und mechanischer Störung (Resuspension) auf die Mobilität von 13 Metall(oid)en untersucht, die mittels Tripel-Quadrupol induktiv gekoppelter Plasma-Massenspektrometrie (ICP-QQQ-MS) quantifiziert wurden. Während die meisten Metalle in Folge von Sulfid-Verwitterung freigesetzt wurden hatte die mechanische Störung einen großen Einfluss auf die Mobilität der oxidbildenden Elemente As, Mo, Sb, U und V. Zusätzlich wurde gezeigt, dass das Probenahme-System zudem Optionen zur Untersuchung der Größenfraktionierung von Metall(oid)en sowie der Speziierung von As(III/V) und Sb(III/V) bietet.
Im zweiten Teil dieser Arbeit wurde der Fokus - mit einem ähnlichen experimentellen Design - auf die Prozesse gelegt, die zur Freisetzung von Metall(oid)en führen. Zu diesem Zweck wurden zwei Inkubationsexperimente mit unterschiedlicher Sauerstoffversorgung parallel durchgeführt. Erstmals wurden mittels ICP-QQQ-MS die Nichtmetalle Kohlenstoff, Phosphor und Schwefel in einem Analyselauf gemeinsam mit 13 Metall(oid)en in Sedimentporenwasser quantifiziert. Die Größenfraktionierung der Metall(oid)e wurde über den gesamten Verlauf der Experimente überwacht. Es bestätigte sich, dass Sediment-Resuspension die Mobilität von Metalloiden wie As, Sb und V fördert, während die Freisetzung der meisten Metalle weitgehend auf die Verwitterung von Pyrit zurückzuführen war. Der kolloidale Beitrag (0,45 - 16 μm) zur Mobilisierung war nur für wenige Elemente relevant.
Schließlich wurde das Probenahmesystem im Rahmen eines neuen Ansatzes zur Sedimentbewertung eingesetzt. Dabei wurden ungestörte Sedimentkerne unterschiedlich kontaminierter Positionen im Trave-Ästuar untersucht und neben 16 Metall(oid)en, die Nichtmetalle C, P und S sowie die Ionen NH4+, PO43- und SO42- berücksichtigt. Durch den ersten umfangreichen Vergleich mit in-situ Dialyse-basierter Porenwasserbeprobung wurde die Eignung des entwickelten Ansatzes zur Erfassung der Feldbedingungen nachgewiesen. Die Porenwasseruntersuchungen zusammen mit ergänzenden Resuspensionsexperimenten in biogeochemischen Mikrokosmen und sequentieller Extraktion ergaben, dass das am geringsten „belastetste“ Sediment des Untersuchungsgebiets das größte Risiko für die Freisetzung von Metall(oid)en darstellt. Jedoch betrugen die potenziell freigesetzten Mengen je kg Sediment nur wenige Promille der durchschnittlichen täglichen Fracht der Trave.
Rivers play an important role in the global water cycle, support biodiversity and ecological integrity. However, river flow and thermal regimes are heavily altered in dammed rivers. These impacts are being exacerbated and become more apparent in rivers fragmented by multiple dams. Recent studies mainly focused on evaluating the cumulative impact of cascade reservoirs on flow or thermal regimes, but the role of upstream reservoirs in shaping the hydrology and hydrodynamics of downstream reservoirs remains poorly understood. To improve the understanding of the hydrodynamics in cascade reservoirs, long-term observational data are used in combination with numerical modeling to investigate the changes in flow and thermal regime in three cascade reservoirs at the upper reach of the Yangtze River. The three studied reservoirs are Xiluodu (XLD), Xiangjiaba (XJB) and Three Gorges Reservoir (TGR). In addition, the effects of single reservoir operation (at seasonal/daily time scale) on hydrodynamics are examined in a large tributary of TGR. The results show that the inflow of TGR has been substantially altered by the two upstream reservoirs with a higher discharge in spring and winter and a reduced peak flow in summer. XJB had no obvious contribution to the variations in inflow of TGR. The seasonal water temperature of TGR was also widely affected by the upstream two reservoirs, i.e., an increase in winter and decrease in spring, associated with a delay in water temperature rise and fall. These effects will probably be intensified in the coming years due to the construction of new reservoirs. The study also underlines the importance of reservoir operation in shaping the hydrodynamics of TGR. The seasonal dynamics of density currents in a tributary bay of TGR are closely related to seasonal reservoir operations. In addition, high-frequency water level fluctuations and flow velocity variations were observed in response to periodic tributary bay oscillations, which are driven by the diurnal discharge variations caused by the operation of TGR. As another consequence of operation of cascade reservoirs, the changes in TGR inflow weakened spring thermal stratification and caused warming in spring, autumn and winter. In response to this change, the intrusions from TGR occurred more frequently as overflow and earlier in spring, which caused a sharp reduction in biomass and frequency of phytoplankton blooms in tributary bays of TGR. This study suggests that high-frequency bay oscillations can potentially be used as an efficient management strategy for controlling algal blooms, which can be included in future multi-objective ecological conservation strategies.
Die voranschreitende Vernetzung von Fahrzeugen wird einen erheblichen Einfluss auf die Mobilitätslösungen von Morgen haben. Solche Systeme werden stark auf den zeitnahen Austausch von Informationen angewiesen sein, um die funktionale Zuverlässigkeit, Sicherheit von Fahrfunktionen und somit den Schutz von Insassen zu gewährleisten. Allerdings zeigt sich bei näherer Betrachtung der verwendeten Kommunikationsmodelle heutiger Netzwerke, wie beispielsweise dem Internet, dass diese Modelle einem host-zentrierten Prinzip folgen. Dieses Prinzip stellt das Management von Netzwerken mit einem hohen Grad an mobilen Teilnehmern vor große Herausforderungen hinsichtlich der effizienten Verteilung von Informationen. In den vergangen Jahren hat sich das Information-Centric Networking (ICN) Paradigma als vielversprechender Kandidat für zukünftige datenorientierte mobile Netzwerke empfohlen. Basierend auf einem lose gekoppelten Kommunikationsmodell unterstzützt ICN Funktionen wie das Speichern und Verarbeiten von Daten direkt auf der Netzwerkschicht. Insbesondere das aktive, gezielte Platzieren von Daten nahe der Benutzer stellt einen vielversprechenden Ansatz zur Erhöhung der Datenbereitstellung in mobilen Netzen dar. Die vorliegende Arbeit legt den Fokus auf die Erforschung von Strategien zum orchestrieren und aktiven Platzieren von Daten für Fahrzeuganwendungen im Netzwerk für mobile Teilnehmer. Im Rahmen einer Analyse unterschiedlicher Fahrzeugapplikationen und deren Anforderungen, werden neue Strategien für das aktive Platzieren vorgestellt. Unter Verwendung von Netzwerksimulationen werden diese Strategien umfangreich untersucht und in im Rahmen eines prototypischen Aufbaus unter realen Bedingungen ausgewertet. Die Ergebnisse zeigen Verbesserungen in der zeitnahen Zustellung von Inhalten (die Verfügbarkeit spezifischer Daten wurde im Vergleich zu existierenden Strategien um bis zu 35% erhöht), während die Auslieferungszeiten verkürzt wurden. Allerdings bedingt das aktive Platzieren und Speichern von Daten auch Risiken der Datensicherheit und Privatsphäre. Auf der Basis einer Sicherheitsanalyse stellt der zweite Teil der Arbeit ein Konzept zur Zugriffskontrolle von gespeicherten Daten in verteilten Fahrzeugnetzwerken vor. Abschließend werden offene Problemstellungen und Forschungsrichtungen im Kontext Sicherheit von verteilten Berechnungsarchitekturen für vernetze Fahrzeugnetzwerke diskutiert.
Die Biodiversität von Vertebraten nimmt weltweit rapide ab, wobei Amphibien die am stärksten gefährdete Wirbeltiergruppe darstellen. In der EU sind 21 von 89 Amphibienarten bedroht. Die intensiv genutzte europäische Agrarlandschaft ist eine der Hauptursachen für diese Rückgänge. Da die Agrarlandschaft einen bedeutenden Lebensraum für Amphibien darstellt, kann die Exposition zu Pestiziden negative Auswirkungen auf Amphibienpopulationen haben. Derzeit erfordert die europäischen Risikobewertung von Pestiziden für Vertebraten spezifische Ansätze für Fische hinsichtlich der aquatischen Vertebratentoxizität und für Vögel sowie Säugetiere in Bezug auf die terrestrische Vertebratentoxizität. Die besonderen Eigenschaften von Amphibien werden jedoch nicht berücksichtigt. Daher war das übergeordnete Ziel dieser Arbeit, die
ökotoxikologischen Effekte von Pestiziden auf mitteleuropäische Froschlurche zu untersuchen. Dazu wurden Effekte auf aquatische und terrestrische Amphibienstadien sowie auf deren Reproduktion untersucht. Anschließend wurden in dieser Arbeit in Erwartung einer Risikobewertung von Pestiziden für Amphibien mögliche regulatorische Risikobewertungsansätze diskutiert.
Für die untersuchten Pestizide und Amphibienarten wurde festgestellt, dass die akute aquatische Toxizität von Pestiziden mit dem bestehenden Ansatz der aquatischen Risikobewertung auf der Grundlage von Fischtoxizitätsdaten abgedeckt werden kann. Jedoch wurden bei terrestrischen Juvenilen nach dermaler Exposition zu umweltrealistischen Pestizidkonzentrationen sowohl letale als auch subletale Effekte beobachtet, die mit keinem verfügbaren Risikobewertungsansatz erfasst werden können. Daher sollten Pestizide vor der Zulassung auch auf eine potenzielle terrestrische Toxizität mit Hilfe von Risikobewertungsinstrumenten geprüft werden. Darüber hinaus müssen die Auswirkungen von Bei- und Hilfsstoffen von Pestiziden bei einer zukünftigen Risikobewertung besonders berücksichtigt werden, da sie die Toxizität von Pestiziden gegenüber aquatischen und terrestrischen Amphibienstadien erhöhen können.
Des Weiteren wurde gezeigt, dass die chronische Dauer einer kombinierten aquatischen und terrestrischen Exposition die Reproduktion von Amphibien negativ beeinflusst. Gegenwärtig
können solche Effekte von der bestehenden Risikobewertung nicht erfasst werden, da Daten aus Feldszenarien, die die Auswirkungen mehrerer Pestizide auf die Reproduktion von Amphibien abbilden, zu selten sind, um einen Vergleich mit Daten anderer terrestrischer Wirbeltiere wie Vögel und Säugetiere zu ermöglichen. In Anbetracht dieser Erkenntnisse sollten sich zukünftige Untersuchungen nicht nur mit akuten und letalen Effekten, sondern auch mit chronischen und subletalen Effekten auf Populationsebene befassen. Da sich die Exposition gegenüber Pestiziden negativ auf Amphibienpopulationen auswirken kann, sollte ihr Einsatz noch sorgfältiger überlegt werden, um einen weiteren Rückgang der Amphibien zu vermeiden. Insgesamt unterstreicht diese Arbeit die dringende Notwendigkeit einer protektiven Pestizidrisikobewertung für Amphibien, um Amphibienpopulationen in Agrarlandschaften zu erhalten und zu fördern.
Der Klimawandel stellt eine existenzielle Bedrohung für das menschliche Überleben, die soziale Organisation der Gesellschaft und die Stabilität der Ökosysteme dar. Er ist daher zutiefst beängstigend. Im Angesicht von Bedrohungen wollen sich Menschen häufig schützen, anstatt sich proaktiv zu verhalten. Wenn psychologische Ressourcen zur Bewältigung nicht ausreichen, reagieren Menschen oft mit verschiedenen Formen der Leugnung. Diese Dissertation leistet einen Beitrag zum Verständnis des vielschichtigen Phänomens der Klimawandelleugnung aus psychologischer Sicht.
Es gibt vier Forschungslücken in der Literatur zur Klimawandelleugnung: Erstens hat das Spektrum der Klimawandelleugnung als Selbst-schützende Reaktion auf die Klimakrise innerhalb der Psychologie bisher keine Beachtung gefunden. Zweitens wurde psychologische Grundbedürfnisbefriedigung, ein fundamentaler Indikator für menschliches Funktionieren und die Fähigkeit, mit Bedrohungen umzugehen, bisher nicht als Prädiktor für Klimawandelleugnung untersucht. Drittens sind Beziehungen des Spektrums der Klimawandelleugnung zu klimarelevanten Emotionen, insbesondere der Klimaangst, bisher nicht empirisch untersucht worden. Viertens wurde bisher nicht untersucht, wie sich das Spektrum der Klimawandelleugnung zu etablierten Prädiktoren der Klimawandelleugnung, d.h. rechtsideologischen Überzeugungen und männlichem Geschlecht, verhält. Um diese Lücken zu schließen, untersuche ich, wie sich das Spektrum der Klimawandelleugnung im deutschen Kontext manifestiert und wie es mit psychologischer Grundbedürfnisbefriedigung und -frustration, umweltfreundlichem Verhalten, Klimaangst, ideologischer Uberzeugung und Geschlecht zusammenhängt.
Fünf Manuskripte zeigen, dass Klimawandelleugnung im deutschen Kontext auf einem Spektrum existiert, das von der Verzerrung von Fakten (interpretative Leugnung, insbesondere Leugnung der persönlichen und globalen Folgenschwere) bis zur Leugnung von Implikationen reicht (implikatorische Leugnung, insbesondere Vermeidung, Leugnung von Schuld und Rationalisierung der eigenen Beteiligung). Über alle Analysen hinweg war niedrige psychologische Grundbedürfnisbefriedigung Prädiktor für das Spektrum der Klimawandelleugnung, das wiederum mit umweltfreundlichem Verhalten assoziiert war. Klimawandelleugnung stand generell in einem negativen Zusammenhang mit Klimaangst, mit Ausnahme einer positiven Assoziation von Vermeidung und Klimaangst. Rechtsideologische Überzeugung war der stärkste Prädiktor für Klimawandelleugnung über das gesamte Spektrum hinweg. Niedrige Bedürfnisbefriedigung und männliches Geschlecht waren weitere, aber schwächere Prädiktoren für implikatorische Leugnung.
Diese Ergebnisse legen nahe, dass das Spektrum der Klimawandelleugnung viele psychologische Funktionen erfüllt. Klimawandelleugnung ist möglicherweise sowohl eine Selbst-schützende Strategie, um Emotionen herunter zu regulieren, als auch um sich vor dem Verlust von Privilegien zu schützen. Kurz gesagt stellt Klimawandelleugnung eine Barriere für Klimaschutzmaßnahmen dar, die möglicherweise erst dann überwunden wird, wenn Menschen über ausreichende psychologische Ressourcen verfügen, um sich der Bedrohung durch den Klimawandel zu stellen und mit zugrundeliegenden Selbst-schützenden, emotionalen Reaktionen umzugehen.
Virtual Reality ist ein ein Bereich wachsenden Interesses, da es eine besonders intuitive Art der Benutzerinteraktion darstellt. Noch immer wird nach Lösungen zu technischen Problemstellungen gesucht, wie etwa der Latenz zwischen der Nutzereingabe und der Reaktion der Darstellung oder dem Kompromiss zwischen der visuellen Qualität und der erreichten Framerate. Dies gilt insbesondere für visuelle Effekte auf spekularen und halbtransparenten Oberflächen und in Volumen. Eine Lösung stellt das in dieser Arbeit vorgestellte verteilte Rendersystem dar, in dem die Bildsynthese in einen präzisen, aber kostenaufwändigen physikbasierten Renderthread mit niedriger Bildwiederholrate und einen schnellen Reprojektionsthread mit hoher Bildwiederholrate aufgeteilt wird, wodurch die Reaktionsgeschwindigkeit und Interaktivität erhalten bleiben. In diesem Zusammenhang werden zwei neue Reprojektionsverfahren vorgestellt, die einerseits Reflexionen und Refraktionen auf geraytracten Oberflächen und andererseits volumetrische Lichtausbreitung beim Raymarching abdecken. Das vorgestellte Setup kann in verschiedenen Gebieten zum Einsatz kommen um das VR Erlebnis zu verbessern. Im Zuge dieser Arbeit wurden drei innovative Trainingsanwendungen umgesetzt, um den Mehrwert von Virtual Reality im Bezug auf drei Stufen des Lernens zu untersuchen: Beobachtung, Interaktion und Zusammenarbeit. Für jede Stufe wurde ein interdisziplinäres Curriculum, das bislang mit traditionellen Medien unterrichtet wurde, in eine VR Umgebung übertragen, um zu untersuchen, wie gut sich virtuelle Realität als eine natürliche, flexible und effiziente Lernmethode eignet.
Typischerweise erweitern Augmented Reality (AR)-Anwendungen die Sicht des Benutzers auf die reale Welt um virtuelle Objekte.
In den letzten Jahren hat AR zunehmend an Popularität und Aufmerksamkeit gewonnen. Dies hat zu Verbesserungen der benötigten Technologien geführt. AR ist dadurch für fast jeden zugänglich geworden.
Forscher sind dem Ziel einer glaubwürdigen AR, in der reale und virtuelle Welten nahtlos miteinander verbunden sind, einen großen Schritt näher gekommen. Sie konzentrieren sich hauptsächlich auf Themen wie Tracking, Anzeige-Technologien und Benutzerinteraktion und schenken der visuellen und physischen Kohärenz bei der Kombination realer und virtueller Objekte wenig Aufmerksamkeit. Beispielsweise sollen virtuelle Objekte nicht nur auf die Eingaben des Benutzers reagieren, sondern auch mit realen Objekten interagieren. Generell wird AR glaubwürdiger und realistischer, wenn virtuelle Objekte fixiert oder verankert in der realen Szene erscheinen, sich nicht von der realen Szene unterscheiden und auf Veränderungen dieser Szene reagieren.
Diese Arbeit untersucht drei Herausforderungen im Bereich Maschinelles Sehen um dem Ziel einer glaubwürdig kombinierten Welt näher zu kommen, in der virtuelle Objekte wie reale erscheinen und sich ebenso verhalten.
Diese Dissertation konzentriert sich als erstes auf das bekannte Tracking- und Registrierungsproblem. Hierzu wird die Herausforderung von Tracking und Registrierung diskutiert und ein Ansatz vorgestellt, um die Position und den Blickpunkt des Benutzers zu schätzen, so dass virtuelle Objekte in der realen Welt fest verankert erscheinen. Linienmodelle, die dem Erscheinungsbild entsprechen und nur für Trackingzwecke relevante Kanten beinhalten, ermöglichen eine absolute Registrierung in der realen Welt und ein robustes Tracking. Einerseits ist es nicht notwendig, viel Zeit in die manuelle Erstellung geeigneter Modelle zu investieren, andererseits ist das Tracking in der Lage mit Änderungen innerhalb des zu verfolgenden Objekts oder Szene umzugehen. Versuche haben gezeigt, dass die Verwendung von solchen Linienmodellen die Robustheit, Genauigkeit und Re-initialisierungsgeschwindigkeit des Tracking-Prozesses verbessert haben.
Zweitens beschäftigt sich diese Dissertation mit dem Thema der Oberflächenrekonstruk\-tion einer realen Umgebung und präsentiert einen Algorithmus zur Optimierung einer laufenden Oberflächenrekonstruktion. Vollständige 3D-Oberflächenrekonstruktionen einer Szene
eröffnen neue Möglichkeiten um realistischere AR-Anwendungen zu erstellen. Verschiedene Interaktionen zwischen realen und virtuellen Objekten, wie Kollisionen und Verdeckungen, können physikalisch korrekt behandelt werden. Während sich die bisherigen Methoden darauf konzentrierten die Oberflächenrekonstruktionen nach einem Aufnahmeschritt zu verbessern, wird die Rekonstruktion während der Aufnahme erweitert, Löcher werden geschlossen und Rauschen wird reduziert. Um eine unbekannte Umgebung zu erkunden muss der Benutzer keine Vorbereitungen treffen. Das Scannen der Szene oder eine vorhergehende Auseinandersetzung mit der zugrundeliegenden Technologie ist somit nicht notwendig.
In Experimenten lieferte der Ansatz realistische Ergebnisse, bei denen bekannte Oberflächen für verschiedene Oberflächentypen erweitert und Löcher plausibel gefüllt wurden.
Anschließend konzentriert sich diese Dissertation auf die Behandlung von realistischen Verdeckungen zwischen realer und virtueller Welt. Hierzu wird die Herausforderung der Verdeckung als Alpha Matting Problem formuliert. Die vorgestellte Methode überwindet die Grenzen moderner Methoden, indem ein Überblendungskoeffizienten pro Pixel der gerenderten virtuellen Szene schätzt wird, anstatt nur deren Sichtbarkeit zu berechnen. In mehreren Experimenten und Vergleichen mit anderen Methoden hat sich die Verdeckungsbehandlung durch Alpha Matting als robust erwiesen und kann mit Daten, die durch preiswerte Sensoren aufgenommen wurden, umgehen. Hinsichtlich der Qualität, des Realismus und der praktischen Anwendbarkeit übertrifft die Methode die Ergebnisse von bisherigen Ansätzen.
Des Weiteren kann die Methode mit verrauschten Tiefendaten umgehen und liefert realistische Ergebnisse in Regionen, in denen Vorder- und Hintergrund nicht strikt voneinander trennbar sind (z.B. bei Objekten mit einer undeutlichen Kontur oder durch Bewegungsunschärfe).
Efficient Cochlear Implant (CI) surgery requires prior knowledge of the cochlea’s size and its characteristics. This information helps to select suitable implants for different patients. Registered and fused images helps doctors by providing more informative image that takes advantages of different modalities. The cochlea’s small size and complex structure, in addition to the different resolutions and head positions during imaging, reveals a big challenge for the automated registration of the different image modalities. To obtain an automatic measurement of the cochlea length and the volume size, a segmentation method of cochlea medical images is needed. The goal of this dissertation is to introduce new practical and automatic algorithms for the human cochlea multi-modal 3D image registration, fusion, segmentation and analysis. Two novel methods for automatic cochlea image registration (ACIR) and automatic cochlea analysis (ACA) are introduced. The proposed methods crop the input images to the cochlea part and then align the cropped images to obtain the optimal transformation. After that, this transformation is used to align the original images. ACIR and ACA use Mattes mutual information as similarity metric, the adaptive stochastic gradient descent (ASGD) or the stochastic limited memory Broyden–Fletcher–Goldfarb–Shanno (s-LBFGS) optimizer to estimate the parameters of 3D rigid transform. The second stage of nonrigid registration estimates B-spline coefficients that are used in an atlas-model-based segmentation to extract cochlea scalae and the relative measurements of the input image. The image which has segmentation is aligned to the input image to obtain the non-rigid transformation. After that the segmentation of the first image, in addition to point-models are transformed to the input image. The detailed transformed segmentation provides the scala volume size. Using the transformed point-models, the A-value, the central scala lengths, the lateral and the organ of corti scala tympani lengths are computed. The methods have been tested using clinical 3D images of total 67 patients: from Germany (41 patients) and Egypt (26 patients). The atients are of different ages and gender. The number of images used in the experiments is 217, which are multi-modal 3D clinical images from CT, CBCT, and MRI scanners. The proposed methods are compared to the state of the arts ptimizers related medical image registration methods e.g. fast adaptive stochastic gradient descent (FASGD) and efficient preconditioned tochastic gradient descent (EPSGD). The comparison used the root mean squared distance (RMSE) between the ground truth landmarks and the resulted landmarks. The landmarks are located manually by two experts to represent the round window and the top of the cochlea. After obtaining the transformation using ACIR, the landmarks of the moving image are transformed using the resulted transformation and RMSE of the transformed landmarks, and at the same time the fixed image landmarks are computed. I also used the active length of the cochlea implant electrodes to compute the error aroused by the image artifact, and I found out an error ranged from 0.5 mm to 1.12 mm. ACIR method’s RMSE average was 0.36 mm with a standard deviation (SD) of 0.17 mm. The total time average required for registration of an image pair using ACIR was 4.62 seconds with SD of 1.19 seconds. All experiments are repeated 3 times for justifications. Comparing the RMSE of ACIR2017 and ACIR2020 using paired T-test shows no significant difference (p-value = 0.17). The total RMSE average of ACA method was 0.61 mm with a SD of 0.22 mm. The total time average required for analysing an image was 5.21 seconds with SD of 0.93 seconds. The statistical tests show that there is no difference between the results from automatic A-value method and the manual A-value method (p-value = 0.42). There is no difference also between length’s measurements of the left and the right ear sides (p-value > 0.16). Comparing the results from German and Egypt dataset shows there is no difference when using manual or automatic A-value methods (p-value > 0.20). However, there is a significant difference when using ACA2000 method between the German and the Egyptian results (p-value < 0.001). The average time to obtain the segmentation and all measurements was 5.21 second per image. The cochlea scala tympani volume size ranged from 38.98 mm3 to 57.67 mm3 . The combined scala media and scala vestibuli volume size ranged from 34.98 mm 3 to 49.3 mm 3 . The overall volume size of the cochlea should range from 73.96 mm 3 to 106.97 mm 3 . The lateral wall length of scala tympani ranged from 42.93 mm to 47.19 mm. The organ-of-Corti length of scala tympani ranged from 31.11 mm to 34.08 mm. Using the A-value method, the lateral length of scala tympani ranged from 36.69 mm to 45.91 mm. The organ-of-Corti length of scala tympani ranged from 29.12 mm to 39.05 mm. The length from ACA2020 method can be visualised and has a well-defined endpoints. The ACA2020 method works on different modalities and different images despite the noise level or the resolution. In the other hand, the A-value method works neither on MRI nor noisy images. Hence, ACA2020 method may provide more reliable and accurate measurement than the A-value method. The source-code and the datasets are made publicly available to help reproduction and validation of my result.