Dissertation
Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (245) (entfernen)
Sprache
- Englisch (245) (entfernen)
Schlagworte
- Pestizid (6)
- Pflanzenschutzmittel (5)
- Landwirtschaft (4)
- Software Engineering (4)
- ecotoxicology (4)
- Biodiversität (3)
- Bodenchemie (3)
- Insektizid (3)
- Nanopartikel (3)
- Pesticides (3)
Institut
- Fachbereich 7 (73)
- Institut für Informatik (27)
- Institut für Integrierte Naturwissenschaften, Abt. Biologie (23)
- Fachbereich 8 (20)
- Institut für Umweltwissenschaften (19)
- Institute for Web Science and Technologies (11)
- Institut für Computervisualistik (9)
- Institut für Integrierte Naturwissenschaften, Abt. Chemie (9)
- Mathematisches Institut (8)
- Institut für Anglistik und Amerikanistik (7)
Das Ziel der vorliegenden Promotionsarbeit lag darin, physiologische (Herzratenvariabilitätsmaße) und biomechanische Parameter (Schuhmerkmale) und deren mögliche vorhersagende Wirkung auf psychologische Stimmungszustände zu untersuchen. 420 Teilnehmer (275 männlich und 145 weiblich, Alter: M=34.7 Jahre ± 9.7) nahmen an einem 60-minütigen langsamen Ausdauerlauf teil, währenddessen sie Fragen über ein mobiles Antwort- und Aufnahmegerät eingespielt bekamen. Wir untersuchten unterschiedliche Facetten von Stimmungszuständen, physiologischen und biomechanischen Parametern. Mittels einer latenten Wachstumskurvenanalyse wurden mögliche kreuzverzögerte Effekte untersucht. Ergebnisse zeigten unter anderem statistisch signifikante Zusammenhänge (p ≤.05) für die Vorhersage psychologischer Stimmungszustände aus den biomechanischen Maßen, sowie die Vorhersage physiologischer Parameter aus diesen psychologischen Stimmungszuständen.
Human action recognition from a video has received growing attention in computer vision and has made significant progress in recent years. Action recognition is described as a requirement to decide which human actions appear in videos. The difficulties involved in distinguishing human actions are due to the high complexity of human behaviors as well as appearance variation, motion pattern variation, occlusions, etc. Many applications use human action recognition on captured video from cameras, resulting in video surveillance systems, health monitoring, human-computer interaction, and robotics. Action recognition based on RGB-D data has increasingly drawn more attention to it in recent years. RGB-D data contain color (Red, Green, and Blue (RGB)) and depth data that represent the distance from the sensor to every pixel in the object (object point). The main problem that this thesis deals with is how to automate the classification of specific human activities/actions through RGB-D data. The classification process of these activities utilizes a spatial and temporal structure of actions. Therefore, the goal of this work is to develop algorithms that can distinguish these activities by recognizing low-level and high-level activities of interest from one another. These algorithms are developed by introducing new features and methods using RGB-D data to enhance the detection and recognition of human activities. In this thesis, the most popular state-of-the-art techniques are reviewed, presented, and evaluated. From the literature review, these techniques are categorized into hand-crafted features and deep learning-based approaches. The proposed new action recognition framework is based on these two categories that are approved in this work by embedding novel methods for human action recognition. These methods are based on features extracted from RGB-D data that are
evaluated using machine learning techniques. The presented work of this thesis improves human action recognition in two distinct parts. The first part focuses on improving current successful hand-crafted approaches. It contributes into two significant areas of state-of-the-art: Execute the existing feature detectors, and classify the human action in the 3D spatio-temporal domains by testing a new combination of different feature representations. The contributions of this part are tested based on machine learning techniques that include unsupervised and supervised learning to evaluate this suitability for the task of human action recognition. A k-means clustering represents the unsupervised learning technique, while the supervised learning technique is represented by: Support Vector Machine, Random Forest, K-Nearest Neighbor, Naive Bayes, and Artificial Neural Networks classifiers. The second part focuses on studying the current deep-learning-based approach and how to use it with RGB-D data for the human action recognition task. As the first step of each contribution, an input video is analyzed as a sequence of frames. Then, pre-processing steps are applied to the video frames, like filtering and smoothing methods to remove the noisy data from each frame. Afterward, different motion detection and feature representation methods are used to extract features presented in each frame. The extracted features
are represented by local features, global features, and feature combination besides deep learning methods, e.g., Convolutional Neural Networks. The feature combination achieves an excellent accuracy performance that outperforms other methods on the same RGB-D datasets. All the results from the proposed methods in this thesis are evaluated based on publicly available datasets, which illustrate that using spatiotemporal features can improve the recognition accuracy. The competitive experimental results are achieved overall. In particular, the proposed methods can be better applied to the test set compared to the state-of-the-art methods using the RGB-D datasets.
In the new epoch of Anthropocene, global freshwater resources are experiencing extensive degradation from a multitude of stressors. Consequently, freshwater ecosystems are threatened by a considerable loss of biodiversity as well as substantial decrease in adequate and secured freshwater supply for human usage, not only on local scales, but also on regional to global scales. Large scale assessments of human and ecological impacts of freshwater degradation enable an integrated freshwater management as well as complement small scale approaches. Geographic information systems (GIS) and spatial statistics (SS) have shown considerable potential in ecological and ecotoxicological research to quantify stressor impacts on humans and ecological entitles, and disentangle the relationships between drivers and ecological entities on large scales through an integrated spatial-ecological approach. However, integration of GIS and SS with ecological and ecotoxicological models are scarce and hence the large scale spatial picture of the extent and magnitude of freshwater stressors as well as their human and ecological impacts is still opaque. This Ph.D. thesis contributes novel GIS and SS tools as well as adapts and advances available spatial models and integrates them with ecological models to enable large scale human and ecological impacts identification from freshwater degradation. The main aim was to identify and quantify the effects of stressors, i.e climate change and trace metals, on the freshwater assemblage structure and trait composition, and human health, respectively, on large scales, i.e. European and Asian freshwater networks. The thesis starts with an introduction to the conceptual framework and objectives (chapter 1). It proceeds with outlining two novel open-source algorithms for quantification of the magnitude and effects of catchment scale stressors (chapter 2). The algorithms, i.e. jointly called ATRIC, automatically select an accumulation threshold for stream network extraction from digital elevation models (DEM) by assuring the highest concordance between DEM-derived and traditionally mapped stream networks. Moreover, they delineate catchments and upstream riparian corridors for given stream sampling points after snapping them to the DEM-derived stream network. ATRIC showed similar or better performance than the available comparable algorithms, and is capable of processing large scale datasets. It enables an integrated and transboundary management of freshwater resources by quantifying the magnitude of effects of catchment scale stressors. Spatially shifting temporal points (SSTP), outlined in chapter 3, estimates pooled within-time series (PTS) variograms by spatializing temporal data points and shifting them. Data were pooled by ensuring consistency of spatial structure and temporal stationarity within a time series, while pooling sufficient number of data points and increasing data density for a reliable variogram estimation. SSTP estimated PTS variograms showed higher precision than the available method. The method enables regional scale stressors quantification by filling spatial data gaps integrating temporal information in data scarce regions. In chapter 4, responses of the assumed climate-associated traits from six grouping features to 35 bioclimatic indices for five insect orders were compared, their potential for changing distribution pattern under future climate change was evaluated and the most influential climatic aspects were identified (chapter 4). Traits of temperature preference grouping feature and the insect order Ephemeroptera exhibited the strongest response to climate as well as the highest potential for changing distribution pattern, while seasonal radiation and moisture were the most influential climatic aspects that may drive a change in insect distribution pattern. The results contribute to the trait based freshwater monitoring and change prediction. In chapter 5, the concentrations of 10 trace metals in the drinking water sources were predicted and were compared with guideline values. In more than 53% of the total area of Pakistan, inhabited by more than 74 million people, the drinking water was predicted to be at risk from multiple trace metal contamination. The results inform freshwater management by identifying potential hot spots. The last chapter (6) synthesizes the results and provides a comprehensive discussion on the four studies and on their relevance for freshwater resources conservation and management.
In the present study the flora and vegetation of Kakamega Forest, an East African rainforest in Western Kenya, was investigated. Kakamega Forest is highly degraded and fragmented and is an ideal model to study the anthropogenic influence on the forest inventory. The main focus was to analyse the influence of human impact on the vascular plant species composition. During five field phases in the years 2001 to 2004 a total of 19 study sites scattered over the whole forest including all fragments were investigated regarding forest structure, species composition and plant communities. The different forest sites were analysed by three different methods, phytosociological relevés, line-transect and with the variable-area transect method. The forest survey revealed about 400 taxa of vascular plant species, among them 112 trees, 62 shrubs, 58 climbers and 114 herbs. Several species are restricted to this forest in Kenya, but only one endemic species, the herb Commelina albiflora, could be discovered. About 15 species were recorded as new for Kenya and probably at least one species is new to science. Kakamega Forest is a unique mixture of Guineo-Congolian and Afromontane floral elements. About one half of the vascular plant species has its origin in the lowland forests of the Congo basin and one third originates from Afromontane habitats. The present study represents the first description of plant communities of Kakamega Forest. An analysis of different forest sites and plantations resulted in 17 different vegetation units. For the mature forest sites eleven plant communities were described. The young succession stage consists of two plant communities. Since the disturbance history and the age of the different plant communities could be estimated, their chronology was also described. An exception are the study sites within the plantations and afforested sites. The four defined vegetation units were not described as plant communities, because they are highly affected by man and do not belong to the natural succession of Kakamega Forest. Nevertheless, the regeneration potential of such forests was investigated. Due to the different succession stages the changing species composition along a disturbance gradient could be analysed. Most of Kakamega Forest consists of middle-aged secondary forest often surrounded by very young secondary forest. A true primary rainforest could not be found due the massive influence by over-exploitation. In all parts of the forest the anthropogenic influence could be observed. The forest develops towards a climax stage, but a 2 Abstract comparison with former surveys shows that the regeneration is much slower than expected. Human impact has to be avoided to allow the forest to develop into a primary-like rainforest. But several climax tree species might be missing anyway, because after the broad logging activities in the past there are not enough seed trees remaining. Species richness was highest in disturbed forest sites. A mixture of pioneer, climax and bushland species could be recorded there. Therefore, a high species richness is not a suitable indicator for forest quality. The proportion of climax species typical for Kakamega Forest would be a better measure. Compared to the main forest block the forest fragments do not lack in diversity as expected due to fragmentation processes. Instead, the only near primary forest could be recorded in Kisere, a northern fragment. The high amount of climax species and the more or less undisturbed forest structure is a result of the strict protection by the Kenya Wildlife Service and due to low logging activities. Differences in species composition between the studied forest sites are either a result of the different logging history or management regime rather than due to different edaphic or climatic conditions.
Die Beschreibung des Verhaltens eines Multi-Agenten-Systems (MAS) ist eine fordernde Aufgabe, besonders dann, wenn es in sicherheitskritischen Umgebungen eingesetzt werden soll. Denn in solchen Umgebungen muss die Beschreibung besonders sorgfältig ausgeführt werden um Seiteneffekte zu vermeiden, die ungewünschte oder sogar zerstörerische Folgen haben könnten. Deshalb sind formale Methoden nützlich, die auf mathematischen Modellen des zu entwerfenden Systems basieren. Sie erlauben es nicht nur das System formal auf verschiedenen Abstraktionsebenen zu spezifizieren, sondern auch seine Konsistenz noch vor der Implementierung zu verifizieren. Das Ziel der formalen Spezifikation ist eine präzise und eindeutige Beschreibung des Verhaltens des Multi-Agenten-Systems, während die Verifikation darauf abzielt, geforderte Eigenschaften dieses Systems zu beweisen. Üblicherweise wird das Verhalten eines Agenten als diskrete Änderung seines Zustands im Bezug auf externe oder interne Aktionen aufgefasst. Jedes mal, wenn eine Aktion auftritt, ändert sich der Zustand des Agenten. Deshalb sind Zustandsübergangsdiagramme bzw. endliche Automaten ein naheliegender Ansatz das Verhalten zu modellieren. Ein weiterer Vorteil einer solchen Beschreibung ist, dass sie sich für das sogenannte Model Checking eignet. Dabei handelt es sich um eine automatische Analysetechnik, die bestimmt, ob das Modell des Systems spezifizierten Eigenschaften genügt. Allerdings muss in realistischen, physikalischen Umgebungen neben dem diskreten auch das kontinuierliche Verhalten des Multi-Agenten-Systems betrachtet werden. Dabei könnte es sich beispielsweise um die Schussbewegung eines Fußballspieler-Agenten, den Prozess des Löschens durch einen Feuerwehr-Agenten oder jedes andere Verhalten handeln, das auf zeitlichen physikalischen Gesetzen basiert. Die üblichen Zustandsübergangsdiagramme sind nicht ausreichend, um diese beiden Verhaltensarten zu kombinieren. Hybride Automaten stellen jedoch eine elegante Lösung dar. Im Wesentlichen erweitern sie die üblichen Zustandsübergangsdiagramme durch Methoden, die sich mit kontinuierlichen Aktionen befassen. Die Zustandsübergänge modellieren weiterhin die diskreten Verhaltenswechsel, während Differentialgleichungen verwendet werden um das kontinuierliche Verhalten zu beschreiben. Besonders geeignet erscheinen Hybride Automaten, weil ihre formale Semantik die Verifikation durch Model Checking erlaubt. Deshalb ist das Hauptziel dieser Arbeit, Hybride Automaten für die Modellierung und die Verifikation des Verhaltens von Multi-Agenten-Systemen einzusetzen. Jedoch bringt ihr Einsatz mehrere Probleme mit sich, die betrachtet werden sollten. Zu diesen Problemfeldern zählen Komplexität, Modularität und die Aussagestärke der Modelle. Diese Arbeit befasst sich mit diesen Problemen und liefert mögliche Lösungen.
Die Wechselwirkungen zwischen Polysacchariden und Wasser am Beispiel der Modellsubstanz Hyaluronan
(2013)
Die Wasseraufnahme von Polysacchariden wird derzeit intensiv erforscht. Wechselwirkungen zwischen Wasser und herkömmlichen oder modifizierten Polysacchariden und Polysaccharid-basierten Biokonjugaten bestimmen maßgeblich deren Funktionalität. Trotz intensiver Forschung gibt es weiterhin eine Reihe offener Fragen darüber, wie Wasser die Struktur der Polysaccharide beeinflusst und welche Konsequenzen das für ihre industrielle und medizinische Anwendung hat. Die Wechselwirkungen zwischen Wasser und Polysacchariden werden oft durch übereinanderliegende "Schichten" von Wasser verbildlicht, dessen physikalische Eigenschaften sich in Abhängigkeit vom Abstand zur Polysaccharid-Moleküloberfläche verändern.
In der vorliegenden Arbeit wurden solche "Wasserschichten" in dem Modell"Polysaccharid Hyaluronan (HYA), einem Natriumsalzsalz bestehend aus ß -1,4-Verknüpfungen der ß -1,3-verknüpften D-Glucuronsäure und des N-Acetyl-D-Glucosamins, untersucht. Mithilfe der Dynamischen Differenzkalorimetrie (engl.: Differential Scanning Calorimetry, DSC) können diese Wasserschichten hinsichtlich ihres Gefrierverhaltens unterschieden werden. Bei HYA-Molekülgewichten von 100 bis 740kDa betrug die Menge "nicht gefrierbaren" Wassers, d.h. von Wasser in unmittelbarer Nähe der HYA Molekülketten, 0.74gH2O/gHYA und bei einem Molekülgewicht von 139kDa betrug sie 0.84gH2O/gHYA. Die Menge von "gefrierbar gebundenem" Wasser, also des Anteiles, der zwar noch vom HYA Molekül beeinflusst wird, aber trotzdem gefrierbar ist, betrug zwischen 0.74 und 2gH2O/gHYA. Oberhalb dieses Wassergehaltes liegt nur "nicht gefrierbares" und "freies" Wasser vor, da die Schmelzenthalpie bei höheren Wassergehalten der von reinem Wasser entspricht. Die Charakterisierung der Wasserbindung durch die Bestimmung von Schmelzenthalpien unterliegt experimentellen Einschränkungen. Daher wurde ein neuer Ansatz basierend auf der Bestimmung von Verdampfungsenthalpien vorgeschlagen. Verdampfungsenthalpien von HYA unterhalb eines Wassergehaltes von 0.34gH2O/gHYA wiesen auf einen zusätzlichen möglicherweise exothermen Prozess hin, der auch in der protonierten Form des HYA beobachtet werden konnte.
Dieser Prozess wurde durch die Kissinger-Akahira-Sunose Methode bestätigt, die Bestimmung der tatsächlichen Verdampfungs und Desorptionsenthalpien des Wassers in allen Stadien des Verdampfungsprozesses erlaubt. Tatsächlich nahm die scheinbare Verdampfungsenthalpie bis zu einem Wassergehalt von 0.34gH2O/gHYA zu und sank dann wieder zu niedrigeren Werten ab, die allerdings immer noch deutlich über der Verdampfungsenthalpie von reinem Wasser lagen. Mithilfe von zeitlich aufgelöster Kernspinresonanz Technik (engl.: Time Domain Nuclear Magnetic Resonance, TD-NMR) wurde gezeigt, dass es sich bei besagtem Prozess um die Plastifizierung von HYA handelt.
Außerdem konnte das mithilfe der DSC bestimmte "nicht gefrierbare" Wasser in zwei weitere Fraktionen unterteilt werden. Ein Anteil von 15% dieses Wassers tritt direkt in Wechselwirkung mit den polaren funktionellen Gruppen und wird als "strukturell integriertes" Wasser bezeichnet und ein Anteil von 85% ist zwischen HYA Molekülketten eingebettet und wird als "strukturell eingeschränktes" Wasser bezeichnet. Da der Erweichungspunkt in der Nähe des Gleichgewichtswassergehalts liegt, bietet die er die Möglichkeit, die physikalische Struktur von HYA durch Trocknung zu beeinflussen. Dafür wurden drei Proben des ursprünglichen HYA unter unterschiedlichen Bedingungen getrocknet und ihre physikalischen Eigenschaften untersucht. Die Proben unterschieden sich in der Kinetik der erneuten Wasseraufnahme, im Glasübergangsverhalten und in ihrer Morphologie. Die Eigenschaften der Wasserfraktionen wurden in Lösungen mit 10"25 mg HYA/mL bestimmt. Feldzyklus-NMR (eng.: Fast-field-cycling FFC-NMR) Messungen zeigten drei Wasserfraktionen die mit dem Abstand zur HYA Moleküloberfläche abnehmende Korrelationszeiten zwischen 10"6 bis 10"10 s aufwiesen.
Außerdem wurde die Bildung schwacher relativ kurzlebiger Wasserbrücken zwischen den HYA Molekülketten beobachtet. Anders als für anorganische Elektrolyte, ist die Wasseraufnahme durch organische Polyelektrolyte ein dynamischer Prozess, der nicht nur die Analysetechnik und die experimentellen Bedingungen sondern auch die Konformation der Polyelektrolyte und deren thermische und Wassergehalts-Vorgeschichte widerspiegelt. Dadurch können einige Polysaccharidstrukturen nur durch Veränderung der Probenvorbereitung und ohne chemische Modifikationen verändert und Produkte mit spezifischen physiko-chemischen Eigenschaften gewonnen werden.
Synthetische Nanopartikel sind neuartige Schadstoffe. Aufgrund ihrer häufigeren Anwendung wird sich ihre Konzentration in der Umwelt in Zukunft voraussichtlich stark erhöhen. Die Untersuchung des Schicksals von synthetischen Kolloiden in der Umwelt erweist sich als schwierig, bedingt durch deren mögliche komplexe Wechselwirkungen mit den Bestandteilen aquatischer Systeme. Eine zentrale Rolle spielt hierbei die Lösungschemie. Insbesondere die Wechselwirkungen mit gelösten organischen Stoffen (DOM) sind bisher wenig verstanden.
Das Ziel dieser Arbeit bestand darin, angepasste analytische Methoden zu entwickeln, um die Effekte von DOM auf das Schicksal synthetische Kolloide in der Umwelt zu untersuchen.rnEine Literaturrecherche über die Wechselwirkungen den DOM mit anorganischen Kolloiden hat ergeben, dass es einen Mangel an systematischen Charakterisierungen von Kolloiden und DOM in den meisten Studien gibt, obwohl diese wesentlich wäre. Des Weiteren wäre die Erforschung der Fraktionierung von DOM auf Kolloiden bedeutend sowie die Untersuchungen der Effekte von DOM auf die dynamische Struktur von Agglomeraten. Für die Charakterisierung von niedrigkonzentrierten Agglomeraten in Umweltmedien werden passende analytische Techniken benötigt. Solche Techniken müssen genau, spezifisch, artefaktfrei (minimale Probenvorbereitung) und matrixunabhängig bei niedrigen Konzentrationen sein. Keine der üblichen Methoden (Mikroskopie, Lichtstreuungsmethode, Trenntechnicken) erfüllt alle diese Voraussetzungen. Jedoch stellt die Hydrodynamische Chromatographie gekoppelt mit Massenspektrometrie mit induktiv gekoppeltem Plasma (HDC-ICP-MS) einen vielversprechenden Kompromiss dar. Mit dieser Methode kann die Größe von anorganischen Partikeln in komplexen Medien und in Konzentrationsbereichen unter ppb elementspezifisch gemessen werden. Allerdings wurden die Begrenzungen der Methode nicht systematisch untersucht.
Während dieser Doktorarbeit wurde das Potenzial dieser Methode weiter untersucht. Der einfache Trennmechanismus ermöglicht einen großen Spielraum für die Elutionsparameter und eine universelle Kalibrierung kann für Partikel mit unterschiedlicher Zusammensetzung und unterschiedlicher Oberflächenchemie angewendet werden. Eine schwache Auflösung der Partikelgröße sowie die Effekte der Partikelform auf den Retentionsfaktor stellen die wichtigsten Begrenzungen der Methode dar.rnDie Anwendung von HDC gekoppelt mit Einzelpartikel ICP-MS (HDC-SP-ICP-MS) bietet neue Möglichkeiten für die Partikelformerkennung und die Differenzierung zwischen primären Partikeln und Homoagglomeraten. Diese Kopplungstechnik ist deswegen hochattraktiv, um Effekte von DOM auf der Stabilität von Kolloiden zu untersuchen. Die Vielseitigkeit der HDC-ICP-MS konnte durch verschiedene erfolgreiche Anwendungen hervorgehoben werden. Insbesondere wurde sie genutzt, um die Stabilität von zitrat-stabilisierte Silberkolloiden in synthetischem Flusswasser unter Anwesenheit verschiedener Typen DOM zu untersuchen. Diese Partikel waren mehr als eine Stunde stabil unabhängig von pH und vom Typ der DOM. Dieses Ergebnis deckt sich mit den Ergebnissen einer parallel publizierten Studie über die Stabilität von Silberkolloiden in Rheinwasser. Die direkte Untersuchung von DOM-Adsorption auf Kolloiden war mit UV- und Fluoreszenzdetektoren nicht möglich. Vorversuche wiesen darauf hin, dass die fluoreszierenden Huminsaüremoleküle auf Silberkolloiden nicht adsorbieren. Lösungen für die verbleibenden Schwierigkeiten in der Analyse der Wechselwirkungen der DOM werden vorgeschlagen und die vielfältigen Entwicklungs- und Anwendungserspektiven von HDC-(SP)-ICP-MS in den Umweltwissenschaften werden im Detail diskutiert.
Aquatische Ökosysteme sind einer Vielzahl an Umweltstressoren sowie Mischungen chemischer Substanzen ausgesetzt, darunter Petroleum und Petrochemikalien, Metalle und Pestizide. Aquatische Gemeinschaften wirbelloser Arten werden als Bioindikatoren genutzt,
um Langzeit- sowie integrale Effekte aufzuzeigen. Die Information über das Vorkommen von Arten kann dabei um weitere Informationen zu Eigenschaften dieser Arten ergänzt werden.
SPEAR-Bioindikatoren fassen diese Informationen für Artengemeinschaften zusammen.
Ziel der vorliegenden Doktorarbeit war es, die Spezifität von SPEAR-Indikatoren gegenüber
einzelnen Chemikaliengruppen zu verbessern – speziell für Ölsand-Bestandteile,
Kohlenwasserstoffe und Metalle.
Für die Entwicklung eines Bioindikators für diskontinuierliche Belastung mit organischen Ölbestandteilen wurde eine Freilandbeprobung in der kanadischen Ölsand-Abbauregion im nördlichen Alberta durchgeführt. Die Arteneigenschaften „physiologische Sensitivitiät
gegenüber organischen Chemikalien“ sowie „Generationszeit“ wurden in einem Indikator,
SPEARoil, integriert, welcher die Sensitivität der Artengemeinschaften gegenüber Ölsand-Belastung in Abhängigkeit von luktuierenden hydrologischen Bedingungen aufzeigt.
Äquivalent zum SPEARorganic-Ansatz wurde eine Rangliste der physiologischen Sensitivität einzelner Arten gegenüber Kohlenwasserstoff-Belastung durch Rohöl oder Petroleum
entwickelt. Hierfür wurden Informationen aus ökotoxikologischen Kurzzeit-Laborversuchen durch Ergebnisse aus Schnell- und Mesokosmen-Tests ergänzt. Die daraus entwickelten
Shydrocarbons-Sensitivitätswerte können in SPEAR-Bioindikatoren genutzt werden.
Um Metallbelastung in Gewässern mittels Bioindikatoren spezifisch nachweisen zu können,
wurden die Arteneigenschaften „physiologische Metallsensitivität“ und „Ernährungsweise“
von Artengemeinschaften in australischen Feldstudien ausgewertet. Sensitivitätswerte für
Metalle erklärten die Effekte auf die Artengemeinschaften im Gewässer jedoch unzureichend.
Die „Ernährungsweise“ hingegen war stark mit der Metallbelastung korreliert. Der Anteil räuberischer Invertebratenarten in einer Gemeinschaft kann daher als Indikator für Metallbelastung in Gewässern dienen.
Weiterhin wurden verschiedene Belastungsanzeiger für Chemikalien-Cocktails in der Umwelt anhand von Pestizid-Datensätzen verglichen. Belastungsanzeiger, die auf der 5%-Fraktion
einer Species-Sensitivity-Distribution beruhen, eigneten sich am besten, gefolgt von Toxic Unit-Ansätzen, die auf der sensitivsten Art einer Gemeinschaft oder Daphnia magna beruhen.
Leaf litter breakdown is a fundamental process in aquatic ecosystems, being mainly mediated by decomposer-detritivore systems that are composed of microbial decomposers and leaf-shredding, detritivorous invertebrates. The ecological integrity of these systems can, however, be disturbed, amongst others, by chemical stressors. Fungicides might pose a particular risk as they can have negative effects on the involved microbial decomposers but may also affect shredders via both waterborne toxicity and their diet; the latter by toxic effects due to dietary exposure as a result of fungicides’ accumulation on leaf material and by negatively affecting fungal leaf decomposers, on which shredders’ nutrition heavily relies. The primary aim of this thesis was therefore to provide an in-depth assessment of the ecotoxicological implications of fungicides in a model decomposer-detritivore system using a tiered experimental approach to investigate (1) waterborne toxicity in a model shredder, i.e., Gammarus fossarum, (2) structural and functional implications in leaf-associated microbial communities, and (3) the relative importance of waterborne and diet-related effects for the model shredder.
Additionally, knowledge gaps were tackled that were related to potential differences in the ecotoxicological impact of inorganic (also authorized for organic farming in large parts of the world) and organic fungicides, the mixture toxicity of these substances, the field-relevance of their effects, and the appropriateness of current environmental risk assessment (ERA).
In the course of this thesis, major differences in the effects of inorganic and organic fungicides on the model decomposer-detritivore system were uncovered; e.g., the palatability of leaves for G. fossarum was increased by inorganic fungicides but deteriorated by organic substances. Furthermore, non-additive action of fungicides was observed, rendering mixture effects of these substances hardly predictable. While the relative importance of the waterborne and diet-related effect pathway for the model shredder seems to depend on the fungicide group and the exposure concentration, it was demonstrated that neither path must be ignored due to additive action. Finally, it was shown that effects can be expected at field-relevant fungicide levels and that current ERA may provide insufficient protection for decomposer-detritivore systems. To safeguard aquatic ecosystem functioning, this thesis thus recommends including leaf-associated microbial communities and long-term feeding studies using detritus feeders in ERA testing schemes, and identifies several knowledge gaps whose filling seems mandatory to develop further reasonable refinements for fungicide ERA.
The establishment of aquatic alien species can strongly affect community and food web structure of the invaded systems and thus represents a major threat to native biodiversity. One of the most important aquatic invasive species in European rivers is the Ponto-Caspian amphipod Dikerogammarus villosus. The species invaded most of the major European waterways within two decades, often associated with a decline of many other macroinvertebrate species, including other amphipods. Based on laboratory results predation by the so called ‘killer shrimp’ is often regarded as the key driver for observed displacement effects, but recent studies indicated a minor relevance of predation by D. villosus in the field. To allow the determination of exact predator-prey interactions from field samples, I established 22 group-specific rDNA primers for freshwater taxa suitable for prey species identification in dietary samples (Chapter II) and an approach for the screening of D. villosus gut contents using 16 of these primers. Combining genetic gut content analyses, with one of these primers, and stable isotope analyses, I examined the importance of intraguild predation (IGP) by D. villosus, which is often assumed the key driver for the displacement of native amphipod species, at an invasion front of the species in Switzerland (Chapter III). The results of this study revealed a low importance of IGP during this particular D. villosus invasion and indicated an overall sparsely predacious feeding behaviour of the species. As the feeding behaviour of D. villosus is supposed to differ between habitats and this study was only conducted at a few sampling sites of one river, I also investigated the role of predation by D. villosus at multiple sites of the River Rhine system, covering a broad range of microhabitats (Chapter IV). In keeping with the results from the invasion front results of this study strongly indicated a sparsely predacious feeding but rather a flexible feeding behaviour of D. villosus even within the same microhabitat.
However, established populations of D. villosus have changed aquatic food webs and can be expected to affect aquatic-terrestrial energy fluxes. In Chapter V of my thesis, I present a field study investigating the impact of D. villosus on the diet of two riparian spider taxa. The results of this study indicate an effect of D. villosus on the terrestrial food web via cross-ecosystem resource flow.
In conclusion, D. villosus influences terrestrial food webs by altering cross-ecosystem resource fluxes, but it is rather an opportunistic omnivore than a predator in the field.
In den vergangenen Jahrzehnten haben sich Einzelpartikelanalyse (EPA) und Kryotransmissionselektronenmikroskopie(Kryo-EM) zu einer der führenden Technologien für die strukturelle Analyse von biologischen Makromolekülen entwickelt. Dies erlaubt die Untersuchung biologischer Strukturen in einem möglichst naturgetreuen Zustand auf molekularer Ebene. In den letzten fünf Jahren überwand die EPA erstmals die Auflösungsgrenze von 2°A und erreichte somit atomare Auflösung, was bislang nur mittels Röntgenkristallographie möglich war. Ein bestehendes Problem der Kryo-EM ist der schwache Bildkontrast. Seit der Einführung der Kryo-EM in den 1980er Jahren, wurde an Phasenplatten als mögliches Werkzeug, zur Verbesserung des Bildkontrasts geforscht. Hier limitierten immer technische Probleme bei der Herstellung oder geräteseitige Limitierungen, wie z.B. Hysterese der Linsen, den erfolgreichen Einsatz solcher Phasenplatten. Insbesondere ein automatisierter Arbeitsablauf für die Steuerung des Mikroskops und die Aufnahme der Bilder ließ sich nie realisieren. In dieser Doktorarbeit wurde eine neue Zernike-Phasenplatte entwickelt und untersucht. Freistehende Metallfilme dienten als Phasenplattenmaterial, um Alterungsund Kontaminationsprobleme der bislang üblichen kohlenstoffbasierten Phasenplatten zu überwinden. In ersten Experimenten zur Materialwahl wurde Iridium als geeignetes Metall identifiziert. Der zweite Teil der Arbeit behandelt die Untersuchung der Iridium-Phasenplatten hinsichtlich ihrer Eigenschaften und ihrem Verhalten im Elektronenmikroskop. Ein Resultat dieser Experimente ist der sogenannte rocking-Modus, bei dem die Phasenplatte während der Aufnahme bewegt wird und wodurch sich Streuungs- und andere Artefakte, die bei den Zernike-Phasenplatten üblicherweise auftreten, verhindern oder deutlich reduzieren ließen. Die Entwicklung eines angepassten Workflow ermöglichte die Aufnahme von EPADatens ätzen mit Phasenplatte über mehrere Tage. Für die Evaluierung der Phasenplattendaten wurden Datensätze von Apoferritin mit und ohne Phasenplatte aufgenommen und miteinander verglichen.
Das Web ist ein wesentlicher Bestandteil der Transformation unserer Gesellschaft in das digitale Zeitalter. Wir nutzen es zur Kommunikation, zum Einkaufen und für unsere berufliche Tätigkeit. Der größte Teil der Benutzerinteraktion im Web erfolgt über Webseiten. Daher sind die Benutzbarkeit und Zugänglichkeit von Webseiten relevante Forschungsbereiche, um das Web nützlicher zu machen. Eyetracking ist ein Werkzeug, das in beiden Bereichen hilfreich sein kann. Zum einen um Usability-Tests durchzuführen, zum anderen um die Zugänglichkeit zu verbessern. Es kann verwendet werden, um die Aufmerksamkeit der Benutzer auf Webseiten zu verstehen und Usability-Experten in ihrem Entscheidungsprozess zu unterstützen. Darüber hinaus kann Eyetracking als Eingabemethode zur Steuerung einer Webseite verwendet werden. Dies ist besonders nützlich für Menschen mit motorischen Beeinträchtigungen, die herkömmliche Eingabegeräte wie Maus und Tastatur nicht benutzen können. Allerdings werden Webseiten aufgrund von Dynamiken, d. h. wechselnden Inhalten wie animierte Menüs und Bilderkarussells, immer komplexer. Wir brauchen allgemeine Ansätze zum Verständnis der Dynamik auf Webseiten, die eine effiziente Usability-Analyse und eine angenehme Interaktion mit Eyetracking ermöglichen. Im ersten Teil dieser Arbeit berichten wir über unsere Forschung zur Verbesserung der blickbasierten Analyse von dynamischen Webseiten. Eyetracking kann verwendet werden, um die Blicke von Nutzern auf Webseiten zu erfassen. Die Blicke zeigen einem Usability-Experten, welche Teile auf der Webseite gelesen, überflogen oder übersprungen worden sind. Die Aggregation von Blicken ermöglicht einem Usability-Experten allgemeine Eindrücke über die Aufmerksamkeit der Nutzer, bevor sie sich mit dem individuellen Verhalten befasst. Dafür müssen alle Blicke entsprechend des von den Nutzern erlebten Inhalten verstanden werden. Die Benutzererfahrung wird jedoch stark von wechselnden Inhalten beeinflusst, da diese einen wesentlichen Teil des angezeigten Bildes ausmachen können. Wir grenzen unterschiedliche Zustände von Webseiten inklusive wechselnder Inhalte ab, so dass Blicke von mehreren Nutzern korrekt aggregiert werden können. Im zweiten Teil dieser Arbeit berichten wir über unsere Forschung zur Verbesserung der blickbasierten Interaktion mit dynamischen Webseiten. Eyetracking kann verwendet werden, um den Blick während der Nutzung zu erheben. Der Blick kann als Eingabe zur Steuerung einer Webseite interpretiert werden. Heutzutage wird die Blicksteuerung meist zur Emulation einer Maus oder Tastatur verwendet, was eine komfortable Bedienung erschwert. Es gibt wenige Webbrowser-Prototypen, die Blicke direkt zur Interaktion mit Webseiten nutzen. Diese funktionieren außerdem nicht auf dynamischen Webseiten. Wir haben eine Methode entwickelt, um Interaktionselemente wie Hyperlinks und Texteingaben effizient auf Webseiten mit wechselnden Inhalten zu extrahieren. Wir passen die Interaktion mit diesen Elementen für Eyetracking an, so dass ein Nutzer bequem und freihändig im Web surfen kann. Beide Teile dieser Arbeit schließen mit nutzerzentrierten Evaluationen unserer Methoden ab, wobei jeweils die Verbesserungen der Nutzererfahrung für Usability-Experten bzw. für Menschen mit motorischen Beeinträchtigungen untersucht werden.
Human population pressure increased with the population growth around the NNP and Cyamudongo with disturbance impacts on the forests isolating populations into fragments and today, Cyamudongo natural forest is located a way at a distance of at least 8.5 km horizontal distance to Nyungwe main block with a surface area estimated at 300 ha. Under Cyamudongo project implementation, there was a need to understand how the flora diversity responded to human imposed challenges and to forest restoration initiatives. Three physiognomic landscapes forest were identified and considered for three phases of vegetation survey in Cyamudongo and related to the closest area of Nyungwe main block. In this study, 15 transects were laid in each physiognomic forest landscape and 10 and 5 plots were set respectively in Cyamudongo and Gasumo study area. In total, 315 phytosociological relevés were performed and the Braun-Blanquet methods used for three times vegetation surveys. Species life-forms and chorophyte were evaluated and tree species dbh and height have been measured. Data were subjected to different statistical analyses using different softwares such as PAST, R 3.5.2, and SPSS. The mapping was done using Arc GIS and the Multi-Spectral Remote Sensing used to find NDVI for the vegetation classification.
NDVI trends showed that there has been fluctuations in vegetation classifications of the studied area. In this study, 494 vascular plant species from 106 families were harbored in the study area and distributed differently among forest landscapes and study phases. Although, 43.54% were common to Cyamudongo and Gasumo landscapes while 48.54 % of species diversity were hold only by Cyamudongo and 7.92% confined to Gasumo and 12 in total were found new records for Rwanda while several others suspected require detailed research for identification showing how the flora diversity of Cyamudongo is of special interest and extremely important for discoveries.
The finding of the study on diversity indices, the PCA, CA and the Cluster analysis, all statistical analyses (MANOVA, ANOVA) and life form spectra unanimously showed that the anthropogenic disturbance shaped the vegetation cover, the floristic composition, the species diversity, the forest landscapes community structure, the life form spectrum and the phytoclimate of Cyamudongo and Gasumo forest landscapes. Although, the vegetation analysis couldn’t clearly identify communities and sub-communities at the initial and final vegetation surveys and cluster groups were heterogeneous as well as overlapping and species associations not clearly defined due to the high level of similarities in species composition among forest landscapes and vegetation surveys. The species diversity was found high in secondary forest and Gasumo landscape forest and low in the primary forest and the buffer zone of Cyamudongo and the disturbance with gaps openings was found to be associated to the species diversity with a seasonal variation. The patterns of dbh for the buffer zone and of the size classes of all landscapes with an inverted ‘J’ indicated a healthy regeneration in the forest landscapes and tree species explained a good regeneration and recruitment capacity. Different shapes in the pattern of dbh with respectively an inverted ‘J’, ‘J ‘and ‘U’ for the buffer zone, primary and together the secondary and Gasumo forest landscapes indicated differences in the landscapes health and degree of regeneration and recruitment capacity.
Findings from differents measuements showed at which extend human activities have shaped the flora diversity and structure of forest landcapes studied. For instance, disturbances due human activities were daily oberved and trees were logged by neighboring communities such as Batwa populations at Cyamudongo and local populations at Gasumo. Some species were evenly observed targeted for their barks such as Ocotea usambarensis, Parinari excelsa for medicines and many others for their wood quality, fire wood collection and for agricultural purposes.
In the period of Cyamudongo project implementation, important achievements included the increase of forest biomass and therefore the photosynthetic capacity and the evapotranspiration potential that influence the rainfall regime; the regulation of weather conditions and then species diversity; supporting local communities and limiting human activities; raising awareness on conservation and protection of biodiversity and improving of living conditions of neighboring populations by providing paid employment and so to restore to the Cyamudongo forest ecosystem functions. Moreover, Cyamudongo forest remains vulnerable as surrounded by local communities with a high population pressure relying on forest resources for its survival. Cyamudongo harbors a high level of endemism and is a small hotspot for biodiversity conservation. It is therefore recommended to strengthen conservation and protection measures and continue the support of local communities.
To assess the effect of organic compounds on the aquatic environment, organisms are typically exposed to toxicant solutions and the adverse effects observed are linked to the concentration in the surrounding media. As compounds generally need to be taken up into the organism and distributed to the respective target sites for the induction of effects, the internal exposure is postulated to best represent the observed effects.
The aim of this work is to contribute to an improved effect assessment of organic compounds by describing experimental and modelling methods to obtain information on the internal exposure of contaminants in organisms.
Chapter 2 details a protocol for the determination of bioconcentration parameter for uptake (k1) and elimination (k2) of organic compounds in zebrafish (Danio rerio) eggs. This enables the simulation of the internal exposure in zebrafish eggs from an ambient exposure concentration over time. The accumulated contaminant amount in zebrafish eggs was also determined, using a biomimetic extraction method. Different bioconc-entration estimation models for the determination of internal steady-state concentrat-ion of pharmaceutical compounds in fish to an environmental exposure are presented in Chapter 3. Bioconcentration factors were estimated from the compounds octanol: water partition coefficient (KOW) to determine the internal exposure to an ambient concentration.
To assess the integral bioavailable fraction from the water and sediment phase of environmental contaminants for rooted aquatic plants, the internal exposure in river-living Myriophyllum aquaticum plants were determined over time, presented in Chapter 4. The plants were collected at different time points, with the accumulated organic contaminants determined using a liquid extraction method.
In Chapter 5 a protocol was established to enable the non-invasive observation of effects in M. aquaticum plants exposed to contaminated sediments over time. Since the toxicant effects are a result of all uptake and distribution processes to the target site and the toxico-dynamic process leading to an observed effect during static exposure, information on the internal exposure could thus be gained from the temporal effect expression.rn
Die Struktur der organischen Bodensubstanz (OBS) ist ein seit Jahrzehnten unter Wissenschaftlern viel diskutiertes Thema. Die wichtigsten Modelle sind unter anderem das Polymer Modell und das Supramolekulare Modell. Während ersteres die OBS als Makromoleküle betrachtet, die amorphe und kristalline Bereiche enthält, erklärt letzteres die OBS als physikochemische Verbindung in der durch schwache hydrophobe Wechselwirkungen und Wasserstoffbrückenbindungen individuelle Moleküle primärer Struktur in einer Sekundärstruktur zusammengehalten werden. Die schwachen Wechselwirkungen innerhalb der Sekundärstruktur gewähren der OBS ihre charakteristische Mobilität. Eine wichtige Konsequenz dieses mehrdimensionalen Aufbaus ist es, dass abgesehen von der chemischen Zusammensetzung, die physikochemische Struktur der OBS eine entscheidende Rolle für ihre biogeochemischen Funktionen spielt. Aus diesem physikochemischen Verständnis der OBS Struktur heraus entstand das kürzlich eingeführte Konzept der durch Kationen und Wassermoleküle vermittelten Brücken zwischen OBS Segmenten (CaB und WaMB). Obwohl es in den letzten Jahren einige indirekte Anhaltspunkte für die Ausbildung von CaB und WaMB gab, gibt es bis heute kein klar umrissenes Verständnis di eser Prozesse. Experimentelle Probleme aufgrund sich überlagernder Effekte von wichtigen ebenfalls CaB beeinflussenden Parametern, wie pH und der Konzentration konkurrierender Kationen, erschweren die Untersuchung der CaB-bezogenen Einflüsse. Daher zielte diese Arbeit darauf ab, eine experimentelle Herangehensweise zu entwickeln um CaB innerhalb der OBS zu erzeugen und diese hinsichtlich verschiedener chemischer und physikochemischer Aspekte zu beurteilen. Dazu wurden zuerst die in den Proben schon vorhandenen Kationen entfernt und der pH Wert definiert eingestellt, bevor die Proben erneut mit bestimmten Kationen beladen wurden. So konnten pH- und Kationen-Effekte voneinander getrennt beobachtet werden.
Aus den Ergebnissen, die mit zwei unterschiedlichen Typen organischer Substanz erzielt worden sind, kann folgender Rückschluss gezogen werden: Unter der Voraussetzung, dass die Dichte der funktionellen Gruppen in der OBS hoch genug ist, so dass diese in ausreichender räumlicher Nähe zueinander arrangiert sind, können Kationen die OBS quervernetzen. Eine physikochemische strukturelle Umorientierung findet auch in Alterungsprozessen statt, die die Bildung von mehr und/oder stärkeren CaB und WaMB verursachen. Kationengröße und "ladung bestimmen sowohl die Erzeugung von CaB direkt bei der Kationenbehandlung, als auch die Effekte der Alterungsprozesse. Ein anfänglichrnstärker quervernetztes System ist weniger anfällig für strukturelle Änderungen und unterliegt weniger starken Alterungsprozessen als ein anfänglich schwächer quervernetztes. Verantwortlich für die strukturellen Veränderungen ist die der OBS innewohnende Mobilität innerhalb ihres physikochemischen Verbundes. Information über die strukturellen Voraussetzungen zur Bildung von CaB und deren Konsequenzen für die Matrixstabilität der OBS können helfen, Einblicke in die physikochemische Struktur der OBS zu erhalten. Außerdem zeigten die Qualität der OBS (bestimmt mithilfe thermischer Analytik) und deren Porenstruktur, die sich in einer Reihe von künstlich hergestellten Böden nach einigen Monaten der OBS Entwicklung gebildet hatten, dass die mineralischen Ausgangsmaterialien zwar eine Bedeutung für die chemische Natur der OBS Moleküle hatten, nicht jedoch für die physikalische Struktur der organisch-mineralischen Verbindungen.
In der vorliegenden Arbeit wurde außerdem erstmals die nanothermische Analyse mithilfe der Rasterkraftmikroskopie (AFM-nTA) für Boden eingesetzt, um thermische Eigenschaften und deren räumliche Verteilung im Nano- und Mikrometerbereich zu erfassen. Diese Methode ermöglichte es, physikochemische Prozesse, wie z.B. das Aufbrechen von WaMB in humusarmen Böden zu identifizieren, bei denen herkömmliche Methoden aufgrund zu niedriger Empfindlichkeit scheiterten. Weiterhin konnten durch eine verbesserte Anwendung der Methode und die Kombination mit anderen AFM-Parametern einige in Böden vorkommende Materialien in hoher räumlicher Auflösung unterschieden werden. Durch die Verwendung definierter Testmaterialien wurde versucht, diese Bodenmaterialien zu identifizieren. Das größte Potential dieser Methode liegt allerdings darin, die mikroskopische Heterogenität von Probenoberflächen zu quantifizieren, was z.B. dabei helfen kann, Prozess-relevante Hotspots aufzudecken.
Durch die Einbindung der AFM-nTA Technologie trägt die vorliegende Arbeit zum wissenschaftlichen Verständnis der Änderungen der physikochemischer Struktur der OBS durch Kationenquervernetzung bei. Die hier demonstrierte direkte Untersuchung der CaB kann möglicherweise zu einem großen Wissenssprung hinsichtlich dieser Wechselwirkungen verhelfen. Der beobachtete Alterungsprozess ergänzt gut das supramolekularen Verständnis der OBS. Die Einführung der nanothermischen Analyse in die Bodenkunde ermöglicht es, dem Problem der Heterogenität und der räumlichen Verteilung thermischer Eigenschaften zu begegnen. Ein anderer wichtiger Erfolg der AFM-nTA ist, dass sie genutzt werden kann um physikochemische Prozesse sehr geringer Intensität zu detektieren.
Eine Fremdsprache ist mit viel Zeit, Geduld und Motivation erlernbar. Um eine Fremdsprache jedoch zu beherrschen, braucht man vertiefte Kenntnisse der Grammatik, einen sehr großen Wortschatz und eine authentische, möglichst muttersprachenähnliche ("native-like") Aussprache. Das Forschungs-projekt leistet einen Beitrag zur Untersuchung der Aussprache.
Mittels einer empirischen Untersuchung der Aussprache von Anglistik-Studierenden an der Universität Koblenz-Landau (Campus Koblenz) wird einer der schwierigsten Laute des amerikanischen Englisch analysiert. Es ist bekannt, dass der amerikanische /r/-Laut von Deutschen sehr häufig falsch ausgesprochen wird (cf. Celce-Murcia et al. 2010 und Swan & Smith 2001). Oftmals sind sich die SprecherInnen ihrer fehlerhaften Aussprache nicht einmal bewusst. Dementsprechend behandelt dieses Forschungsprojekt die folgenden Hypothesen:
(1. Hypothese) Das post-vokalische /r/ in einer unbetonten Silbe am Ende eines Wortes wird häufig nicht ausgesprochen (wie im britischen Englisch). Mittels einer spektrographischen Analyse kann die Aussprache einiger englischer Ausdrücke wie answer, Arthur, either und rather besser untersucht werden, um festzustellen, wie oft dieses /r/ fehlt.
(2. Hypothese) Das /r/ vor einer betonten Silbe wird nur in bestimmten Fällen hörbar ausgesprochen. Oft ist dies vom folgenden Vokal im Wort abhängig. Es wird behauptet, dass der /r/-Laut durch Vokale, die durch eine Rundung der Lippen erzeugt werden, beeinflusst wird. Der Koartikulation zufolge wird der /r/-Laut durch einen labialisierten stimmhaften velaren Approximanten /w/ ersetzt. Anhand verschiedener Wörter wie crawled, rat, rode, room und tree wird die /r/-Qualität in unterschiedlichen Laut-Umgebungen untersucht werden, da hier jeweils ein anderer Vokal dem /r/ folgt.
(3. Hypothese) Nach der Analyse der 1. Hypothese wird die Vokalqualität der unbetonten Silbe der vier englischen Wörter noch einmal und genauer untersucht. Häufig wird der Schwa-Laut in diesen Wörtern durch einen anderen Laut ersetzt. In diesem Fall wird der /ɐ/-Laut ausgesprochen. Um sich ein Bild von der Vokalqualität dieses Lautes machen zu können, werden drei deutsche Ausdrücke analysiert. Danach werden die deutschen Ausdrücken und die englischen Wörter mit einander verglichen. Die drei deutschen Ausdrücke sind in der, Müller und unser.
Zur Gewinnung der empirischen Daten lesen die Studierenden einen englischen Text ("Arthur the rat") und einen kurzen deutschen Satz, welche elektronisch aufgezeichnet werden. Danach werden die Tonaufzeichnungen mit Hilfe der Software "Praat" untersucht und ausgewertet. Das Ziel ist eine minutiöse Analyse ausreichend vieler authentischer Tonaufzeichnungen, anhand derer die Sprachschwierigkeiten deutscher Englischlernender mit dem /r/-Laut prognostiziert werden können. Ein solches Ergebnis ermöglicht es, Ausspracheschwierigkeiten von Anfang an entgegenzuwirken, indem in einem weiteren Schritt (der jedoch über das Ziel der Arbeit hinausgeht) entsprechende Übungsmaterialien entwickelt und eingesetzt werden. Letzteres ist nicht möglich ohne die solide Grundlagenforschung des Forschungsprojekts.
Focusing on the triangulation of detective fiction, masculinity studies and disability studies, "Investigating the Disabled Detective – Disabled Masculinity and Masculine Disability in Contemporary Detective Fiction" shows that disability challenges common ideals of (hegemonic) masculinity as represented in detective fiction. After a theoretical introduction to the relevant focal points of the three research fields, the dissertation demonstrates that even the archetypal detectives Dupin and Holmes undermine certain nineteenth-century masculine ideals with their peculiarities. Shifting to contemporary detective fiction and adopting a literary disability studies perspective, the dissertation investigates how male detectives with a form of neurodiversity or a physical impairment negotiate their masculine identity in light of their disability in private and professional contexts. It argues that the occupation as a detective supports the disabled investigator to achieve ‘masculine disability’. Inversing the term ‘disabled masculinity’, predominantly used in research, ‘masculine disability’ introduces a decisively gendered reading of neurodiversity and (acquired) physical impairment in contemporary detective fiction. The term implies that the disabled detective (re)negotiates his masculine identity by implementing the disability in his professional investigations and accepting it as an important, yet not defining, characteristic of his (gender) identity. By applying this approach to five novels from contemporary British and American detective fiction, the dissertation demonstrates that masculinity and disability do not negate each other, as commonly assumed. Instead, it emphasises that disability allows the detective, as much as the reader, to rethink masculinity.
Investigating the environmental fate of iodinated X-ray contrast media in the urban water cycle
(2010)
Iodinated X-ray contrast media (ICM) are a group of emerging contaminants which have been detected at elevated concentrations in the aquatic environment. These compounds are excreted unmetabolized into hospital wastewater, and eventually treated at wastewater treatment plants (WWTPs). The removal of ICM in WWTPs has not been very effective and therefore the ICM enter the aquatic environment via WWTP effluent discharges. Research has investigated the removal of selected ICM via abiotic and biotic processes, however limited work has attempted to determine the fate of these compounds once released into the environment. This thesis investigates the biotransformation of four selected ICM (diatrizoate, iohexol, iomeprol, and iopamidol) in aerobic soil-water and sediment-water systems as well as in different environmental matrices. Iohexol, iomeprol and iopamidol were biotransformed to several TPs in the aerobic batch systems, while no biotransformation was observed for the ionic ICM, diatrizoate. In total 34 biotransformation products (TPs) of the three non-ionic ICM were identified. The combination of semi-preparative HPLC-UV, hybrid triple quadrupole-linear ion trap mass spectrometry (Qq-LIT-MS) was found to be an accurate approach for the structural elucidation of ICM TPs. The ICM TPs resulted in microbial transformation occurring at the side chains of the parent ICM, with the iodinated aromatic ring unmodified.
Die Anwendung von Chemikalien führt in vielen Fällen zu deren Emission in die Umwelt. Besonders organische Substanzen wie zum Beispiel Pharmazeutika, Biozide und Waschmittelinhaltsstoffe wurden in den letzten Jahren vermehrt als Umweltkontaminanten in Oberflächengewässern nachgewiesen. Die organischen Umweltkontaminanten, auch Spurenstoffe genannt, haben oftmals i) unbekannte ökotoxikologische Wirkungen, ii) unbekannte Verteilungsverhalten, und iii) sind bisher hinsichtlich der Emission kaum reguliert. Wie bei allen Substanzen können Spurenstoffe in der Umweltmatrix und insbesondere auch in der Kläranlage zu sogenannten Transformationsprodukten (TPs) umgewandelt werden. Um den durch Spurenstoffe verursachten Herausforderungen technologisch begegnen zu können, wird ein besseres Verständnis über diese Transformationsprozesse benötigt. Diese Dissertationsarbeit befasst sich deshalb mit der Aufklärung von Transformationsprozessen ausgewählter Spurenstoffe während der biologischen Abwasserreinigung.
Für die Untersuchung des Abbaus von Trimethoprim wurden Inkubationsversuche angewendet und die Auswirkung der steigenden Dotierungskonzentrationen systematisch untersucht. Es wurden insgesamt sechs TPs charakterisiert. Die Dotierungskonzentration hatte sowohl Auswirkungen auf die kinetischen Konstanten, als auch auf die Transformationsreaktionen. Ein solcher Einfluss der experimentellen Bedingungen wurde bisher in der Literatur noch nicht berichtet. Nur bei niedriger Dotierungskonzentration wurde am Ende des Transformationswegs ein stabiles TP gebildet, die 2,4-Diaminopyrimidin-5-carbonsäure (DAPC). Diese Substanz konnte in Laborversuchen den Großteil der abgebauten Menge von Trimethoprim erklären. Durch Untersuchungen an einer Referenzkläranlage konnte festgestellt werden, dass nur die Inkubationsversuche bei niedriger Dotierungskonzentration die realen Prozesse adäquat abbilden konnten. Die Anwendung hoher Dotierungskonzentrationen führte in Laborversuchen zu einer veränderten TP-Bildung.
Drei phenolische Spurenstoffe wurden in Bezug auf ihre Transformation, insbesondere hin zu potenziell toxischen nitrophenolischen TPs, untersucht: das Desinfektionsmittel ortho-Phenylphenol (OPP), das Kunststoffadditiv Bisphenol-A (BPA) und das Hustenmittel Dextrorphan. Nitrit wurde als ein potenzieller Auslöser für die Nitrierung postuliert. Inkubationsversuche in Reinstwasser wurden mit OPP in Anwesenheit von Nitrit durchgeführt und bestätigten, dass nitro-(und nitroso-) phenolische TPs unter leicht sauren Bedingungen gebildet werden. Da in kommunalen Kläranlagen der pH-Wert in Belebtschlamm zumeist zwischen 7,5 und 8,5 liegt und Nitrit als Zwischenprodukt oft nur in niedrigen Konzentration vorhanden ist, wurde die Bildung von signifikanten Konzentrationen nitrophenolischer TPs als unwahrscheinlich eingestuft. Aufgrund der Ergebnisse von Inkubationsversuchen mit inokulierten Belebtschlamm war festzustellen, dass die drei untersuchten Spurenstoffe schnell zu biologischen TPs umgewandelt wurden. Die Studie zeigte wie das Bildungspotenzial von nitrophenolischen TPs gesteigert wird, wenn bestimmte Bedingungen im Belebtschlamm vorliegen: saurer pH und erhöhte Nitritkonzentration. Zudem wurde auch gezeigt, dass die Bildung von nitrophenolischen TPs durch das Ansäuern oder das Einfrieren von Proben initiiert werden kann.
Die Transformation vom Antiphlogistikum Diclofenac wurde in zwei unterschiedlichen Kläranlagen verglichen. Die erste Kläranlage verwendet Aufwuchskörper für ein verstärktes Biofilmwachstum, während die zweite mit einer konventionellen nitrifizierenden Belebtschlammbehandlung ausgestattet ist. Trotz der unterschiedlichen Behandlungstechniken konnten in beiden Fällen ähnliche Transformationsreaktionen festgestellt werden. Der wesentliche Unterschied bestand in den veränderten Kinetiken: Geschwindigkeitskonstanten (kbiol) waren ca. 50 Mal höher in Kontakt mit Aufwuchskörpern als im konventionellen Belebtschlamm. Der Transformationsweg führte zur Bildung einer Vielzahl an gering konzentrierten TPs. Monitoring-Kampagnen an den zwei Kläranlagen wurden zur Bestätigung der Ergebnisse angeschlossen. In der konventionellen Kläranlage wurde keine signifikante Diclofenac Entfernung gemessen. Wohingegen im Aufwuchskörperreaktor eine mittlere Entfernung von 88% gemessen wurde. Damit wäre die vorgeschlagene Umweltqualitätsnorm von 0.05 μg/L möglicherweise auch ohne die Anwendung von weiteren Behandlungsschritten wie z.B. Aktivkohlefiltration oder Ozonung erreichbar.
Key mechanisms for the release of metal(loid)s from a construction material in hydraulic engineering
(2017)
Hydraulic engineering and thus construction materials are necessary to enable the navigability of water ways. Since, a variety of natural as well as artificial materials are used, this materials are world wide tested on a potential release of dangerous substances to prevent adverse effects on the environment. To determine the potential release, it is important to identify and to understand key mechanisms which are decisive for the release of hazardous substances. A limited correlation between the conditions used in regulatory tests and those found in environmental systems is given and hence, often the significance of results from standardised tests on construction materials is questioned, since they are not designed to mimic environmental conditions.
In Germany industrial by-products are used as armour stones in hydraulic engineering. Especially the by-product copper slag is used during the last 40 years for the construction of embankments, groynes and coastal protection. On the one hand, this material has a high density and natural resources (landscape) are protected. One the other hand, the material contains high quantities of metal(loid)s. Therefore the copper slag (product name: iron silicate stones) is very suitable as test material. Metal(loid)s examined were As, Sb and Mo as representatives for (hydr)oxide forming elements and Cd, Co, Cu, Fe, Ni, Pb and Zn were studied as representatives for elements forming cations during the release.
Questions addressed in this Thesis were: (i) can we transfer the results from batch experiments to construction scenarios under the prevalent environmental conditions, (ii) which long-term trends exist for the release of metal(loid)s from copper slags and (iii) how environmental conditions influence the leaching of metal(loid)s from water construction materials?
To answer the first question the surface depending release of the metal(loid)s from the construction materials was examined. Therefore, batch leaching experiments with different particle sizes and a constant liquid/solid ratio were performed. In a second step a comparison between different methods for the determination of the specific surface area of armour stones with a 3D laser scanning method as a reference were performed. In a last step it was possible to show that via a roughness factor the results of the specific surface area from small stones, measured with gas adsorption, can be connected with the results from armour stones, determined with an aluminium foil method. Based on calculations of the specific surface area, it was possible to significantly improve catchment scale calculation about the release of metal(loid)s and to evaluate a potential impact of construction materials in hydraulic engineering on the water chemistry of rivers and streams.
To answer the second question long-term leaching diffuse gradient in thin films supported experiments were performed for half a year. Diffuse gradients in thin films (DGT) is an in situ method to passive sample metal(loid)s in water, sediments and soils. They were used as a sink for metal(loid)s in the eluate to provide solution equilibriums. Thus the exchange of the eluent, which is performed normally in long-term experiments, was superfluous and long-term effects under undisturbed conditions were studied. The long-term leaching experiments with DGT have proven to be capable (i) to differentiate between the depletion of the material surface and the solution equilibriums and (ii) to study sorption processes with or without a further release of the analytes. This means for the practically relevant test material copper slag that: (i) the cations Cd, Co, Cu, Ni and Pb are confirmed to be released from the slag over the whole time period of six months, (ii) a surface depletion of Zn was detected, and (iii) that the (hydr)oxide forming elements As, Mo and Sb were released from the slag over the hole periods of six months but the release was masked by adsorption to Fe-oxide colloids, which were formed during the leaching experiments. It was confirmed, that sulphide minerals are the main source for long-term release of Cd, Cu, Ni, Pb and Mo.
To answer the third question short-term leaching experiments simulating environmental conditions in hydraulic engineering were performed. One factor is the salinity. The influence of this parameter was tested in batch experiments with sea salt solution (30 g/l), river Rhine water, ultra pure water and in addition with different NaCl concentration (5, 10, 20 and 30 g/l). In general, the ionic strength is an important factor for the metal(loid) release but the composition of the water (e.g. the HCO3- content) may superimpose this effect. Therefore, the concentrations of the metal(loid)s in the experiments with ultra-pure water spiked with sea salt or native river water and the ultra-pure water spiked with NaCl were significantly different. In a second experiment the influence of the environmental parameters and the interactions between the environmental parameters pH (4–10), sediment content (0 g–3.75 g), temperature (4 °C–36 °C) and ionic strength (0 g/l–30 g/l NaCl) on the release of metal(loid)s from the test material was examined. The statistical Design of Experiments (DoE) was used to study the influence of these factors as well as their interactions. All studied factors may impact the release of metal(loid)s from the test material to the eluent, whereas the release and the partitioning between sediment and eluate of metal(loid)s was impacted by interactions between the studied factors. The main processes were sorption, complexation, solubility, buffering and ion exchange. In addition, by separating the sediment from the slag after the experiments by magnetic separation, the enrichment of metal(loid)s in the sediment was visible. Thus, the sediment was the most important factor for the release of the metal(loid)s, via pH, temperature and ionic strength, because the sediment acted as a sink.
The work presented in this thesis investigated interactions of selected biophysical processes that affect zooplankton ecology at smaller scales. In this endeavour, the extent of changes in swimming behaviour and fluid disturbances produced by swimming Daphnia in response to changing physical environments were quantified. In the first research question addressed within this context, size and energetics of hydrodynamic trails produced by Daphnia swimming in non-stratified still waters were characterized and quantified as a function of organisms’ size and their swimming patterns.
The results revealed that neither size nor the swimming pattern of Daphnia affects the width of induced trails or dissipation rates. Nevertheless, as the size and swimming velocity of the organisms increased, trail volume increased in proportional to the cubic power of Reynolds number, and the biggest trail volume was about 500 times the body volume of the largest daphnids. Larger spatial extent of fluid perturbation and prolonged period to decay caused by bigger trail volumes would play a significant role in zooplankton ecology, e.g. increasing the risk of predation.
The study also found that increased trail volume brought about significantly enhanced total dissipated power at higher Reynolds number, and the magnitudes of total dissipated power observed varied in the range of (1.3-10)X10-9 W.
Furthermore, this study provided strong evidence that swimming speed of Daphnia and total dissipated power in Daphnia trails exceeded those of some other selected zooplankton species.
In recognizing turbulence as an intrinsic environmental perturbation in aquatic habitats, this thesis also examined the response of Daphnia to a range of turbulence flows, which correspond to turbu-lence levels that zooplankton generally encounter in their habitats. Results indicated that within the range of turbulent intensities to which the Daphnia are likely to be exposed in their natural habitats, increasing turbulence compelled the organisms to enhance their swimming activity and swim-ming speed. However, as the turbulence increased to extremely high values (10-4 m2s-3), Daphnia began to withdraw from their active swimming behaviour. Findings of this work also demonstrated that the threshold level of turbulence at which animals start to alleviate from largely active swimming is about 10-6 m2s-3. The study further illustrated that during the intermediate range of turbu-lence; 10-7 - 10-6 m2s-3, kinetic energy dissipation rates in the vicinity of the organisms is consistently one order of magnitude higher than that of the background turbulent flow.
Swarming, a common conspicuous behavioural trait observed in many zooplankton species, is considered to play a significant role in defining freshwater ecology of their habitats from food exploitation, mate encountering to avoiding predators through hydrodynamic flow structures produced by them, therefore, this thesis also investigated implications of Daphnia swarms at varied abundance & swarm densities on their swimming kinematics and induced flow field.
The results showed that Daphnia aggregated in swarms with swarm densities of (1.1-2.3)x103 L-1, which exceeded the abundance densities by two orders of magnitude (i.e. 1.7 - 6.7 L-1). The estimated swarm volume decreased from 52 cm3 to 6.5 cm3, and the mean neighbouring distance dropped from 9.9 to 6.4 body lengths. The findings of this work also showed that mean swimming trajectories were primarily horizontal concentric circles around the light source. Mean flow speeds found to be one order of magnitude lower than the corresponding swimming speeds of Daphnia. Furthermore, this study provided evidences that the flow fields produced by swarming Daphnia differed considerably between unidirectional vortex swarming and bidirectional swimming at low and high abundances respectively.
Softwaresprachen und Technologien zu verstehen, die bei der Entwicklung einer Software verwendet werden, ist eine alltägliche Herausforderung für Software Engineers. Textbasierte Dokumentationen und Codebeispiele sind typische Hilfsmittel, die zu einem besseren Verständnis führen sollen. In dieser Dissertation werden verschiedene Forschungsansätze beschrieben, wie existierende Textpassagen und Codebeispiele identifiziert und miteinander verbunden werden können. Die Entdeckung solcher bereits existierender Ressourcen soll dabei helfen Softwaresprachen und Technologien auf einem konzeptionellen Level zu verstehen und zu vergleichen. Die Forschungsbeiträge fokussieren sich auf die folgenden Fragen, die später präzisiert werden. Welche existierenden Ressourcen lassen sich systematisch identifizieren, um strukturiertes Wissen zu extrahieren? Wie lassen sich die Ressourcen extrahieren? Welches Vokabular wird bereits in der Literatur verwendet, um konzeptionelles Wissen zur Struktur und Verwendung einer Software auszudrücken? Wie lassen sich Beiträge auf Wikipedia wiederverwenden? Wie können Codebeispiele zur Verwendung von ausgewählten Technologien auf GitHub gefunden werden? Wie kann ein Modell, welches Technologieverwendung repräsentiert, reproduzierbar konstruiert werden? Zur Beantwortung der Forschungsfragen werden qualitative Forschungsmethoden verwendet, wie zum Beispiel Literaturstudien. Des Weiteren werden Methoden entwickelt und
evaluiert, um relevante Artikel auf Wikipedia, relevante Textpassagen in der Literatur und Codebeispiele auf GitHub zu verlinken. Die theoretischen Beiträge werden in Fallstudien evaluiert. Die folgenden wissenschaftlichen Beiträge werden dabei erzielt: i.) Eine Referenzsemantik zur Formalisierung von Typen und Relationen in einer sprachfokussierten Beschreibung von Software; ii.) Ein Korpus bestehend aus Wikipedia Artikeln zu einzelnen Softwaresprachen; iii) Ein Katalog mit textuell beschriebenen Verwendungsmustern einer Technologie zusammen mit Messergebnissen zu deren Frequenz auf GitHub; iv.) Technologiemodelle, welche sowohl mit verschiedenen existierenden Codebeispielen als auch mit Textpassagen verknüpft sind.
Virtual Reality ist ein ein Bereich wachsenden Interesses, da es eine besonders intuitive Art der Benutzerinteraktion darstellt. Noch immer wird nach Lösungen zu technischen Problemstellungen gesucht, wie etwa der Latenz zwischen der Nutzereingabe und der Reaktion der Darstellung oder dem Kompromiss zwischen der visuellen Qualität und der erreichten Framerate. Dies gilt insbesondere für visuelle Effekte auf spekularen und halbtransparenten Oberflächen und in Volumen. Eine Lösung stellt das in dieser Arbeit vorgestellte verteilte Rendersystem dar, in dem die Bildsynthese in einen präzisen, aber kostenaufwändigen physikbasierten Renderthread mit niedriger Bildwiederholrate und einen schnellen Reprojektionsthread mit hoher Bildwiederholrate aufgeteilt wird, wodurch die Reaktionsgeschwindigkeit und Interaktivität erhalten bleiben. In diesem Zusammenhang werden zwei neue Reprojektionsverfahren vorgestellt, die einerseits Reflexionen und Refraktionen auf geraytracten Oberflächen und andererseits volumetrische Lichtausbreitung beim Raymarching abdecken. Das vorgestellte Setup kann in verschiedenen Gebieten zum Einsatz kommen um das VR Erlebnis zu verbessern. Im Zuge dieser Arbeit wurden drei innovative Trainingsanwendungen umgesetzt, um den Mehrwert von Virtual Reality im Bezug auf drei Stufen des Lernens zu untersuchen: Beobachtung, Interaktion und Zusammenarbeit. Für jede Stufe wurde ein interdisziplinäres Curriculum, das bislang mit traditionellen Medien unterrichtet wurde, in eine VR Umgebung übertragen, um zu untersuchen, wie gut sich virtuelle Realität als eine natürliche, flexible und effiziente Lernmethode eignet.
In Europa ist die moderne Landwirtschaft eine der häufigsten Formen der Landnutzung, allerdings wird sie auch mit negativen Auswirkungen auf die Biodiversität in Agrarlandschaften in Verbindung gebracht. Lepidoptera (Nacht- und Tagfalter) bilden eine artenreiche Gruppe in Agrarsystemen, doch die Populationen vieler Falterarten sind rückläufig. Zu den Zielen der vorliegenden Arbeit gehörte es, Feldsäume in Agrarlandschaften zu erfassen und zu charakterisieren, Effekte realistischer Eintragsraten von Agrarchemikalien (Dünger und Pestizide) in Feldsäumen auf Lepidoptera zu untersuchen und Informationen zu den Bestäubungsleistungen von Nachtfaltern zu sammeln.
Feldsäume sind zwar häufige semi-natürliche Habitatelemente in Agrarökosystemen, aber es gibt nur wenige Informationen über ihre Struktur, Größe und Breite. Daher wurden Feldsäume in zwei deutschen Agrarlandschaften (je 4.000 ha) erfasst und es zeigte sich, dass ein Großteil dieser Säume schmaler als 3 m war (Rheinland-Pfalz: 85% der Feldsaumlänge, Brandenburg: 45% der Feldsaumlänge). In Deutschland müssen Landwirte bei solchen schmalen Feldsäumen keine Maßnahmen zur Verminderung von Pestizideinträgen (z.B. Pufferzonen) umsetzen. Agrarchemikalien werden deshalb insbesondere durch Überspritzung und Abdrift in schmale Feldsäume eingetragen. In solchen schmalen Feldsäumen konnten zwar Raupen nachgewiesen werden, doch ihre mittlere Abundanz war um 35 – 60% niedriger als auf Vergleichsflächen (Wiesen). Im Rahmen eines Feldversuchs sowie in Laborexperimenten zeigte sich, dass Raupen sensitiv auf Insektizideinträge (Pyrethroid, Lambda-Cyhalothrin) regieren. Zudem wurden auf insektizid-behandelten Silene latifolia Pflanzen 40% weniger Eier von Hadena bicruris Faltern gefunden als auf unbehandelten Kontrollpflanzen und die Blüten der behandelten Pflanzen wurden seltener von Nachtfaltern bestäubt. Lepidoptera können neben Insektizid- auch von Herbizideinträgen beeinflussen werden. Ranunculus acris L. Pflanzen wurden mit subletalen Raten eines Sulfonylurea-Herbizids behandelt und dann als Futterpflanzen für Mamestra brassicae L. Raupen genutzt; dies führte zu signifikant geringeren Raupengewichten, einer verlängerten Zeit bis zur Verpuppung und einer verlängerten Gesamtentwicklungsdauer verglichen mit Raupen, die an Kontrollpflanzen fraßen. Ursachen hierfür waren möglicherweise ein geringerer Nährwert oder eine höhere Konzentration von Abwehrstoffen in den herbizid-behandelten Pflanzen. Düngereinträge führten zu einer geringfügigen Erhöhung der Raupenabundanz in dem Feldversuch. Langfristig reduziert Dünger jedoch die Pflanzenvielfalt und dadurch wahrscheinlich auch die Raupendiversität.
Nachtfalter wie Noctuidae und Sphingidae sind Bestäuber für zahlreiche Pflanzenarten, z.B. viele Orchidaceae und Caryophyllaceae. Obwohl sie in den Agrarökosystemen der gemäßigten Breiten wahrscheinlich keine bedeutenden Bestäuber für Kulturpflanzen sind, können Nachtfalter aber für die Bestäubung der Wildpflanzen in semi-natürlichen Habitaten von Relevanz sein. Dabei wird die Rolle der Nachtfalter als Bestäuber zurzeit vermutlich unterschätzt und es werden Langzeitstudien benötigt, um die zeitlichen Schwankungen in ihrer Abundanz und Artenzusammensetzung berücksichtigen zu können.
Lepidopteren bilden eine artenreiche Organismengruppe in Agrarlandschaften, die auch wesentliche Ökosystem-Dienstleistungen erfüllen. Um Nacht- und Tagfalter besser zu schützen, sollten Einträge von Agrarchemikalien in (schmale) Feldsaumhabitate reduziert werden, beispielsweise durch Maßnahmen zur Risikominderung von Pestiziden und Agrarumweltprogramme.
This study had two main aims. The first one was to investigate the quality of lesson plans. Two important features of lesson plans were used as a basis to determine the quality of lesson plans. These are adaptability to preconditions and cognitive activation of students. The former refers to how the planning teacher considers the diversity of students pre-existing knowledge and skills. The latter refers to how the planning teacher sequences deep learning tasks and laboratory activities to promote the cognitive activation of students.
The second aim of the study was to explore teachers thinking about and explanation of externally generated feedback data on their students’ performance. The emphasis here was to understand how the teachers anticipate planning differentiated lessons to accommodate the variations in students learning outcomes revealed by the feedback data.
The study followed a qualitative approach with multiple sources of data. Concept maps, questionnaires, an online lesson planning tool, standardized tests, and semi-structured interviews were the main data collection instruments used in the study. Participants of this study were four physics teachers teaching different grade levels. For the purpose of generating feedback for the participant teachers, a test was administered to 215 students. Teachers were asked to plan five lessons for their ongoing practices. The analysis showed that the planned lessons were not adapted to the diversity in students pre-existing knowledge and skills. The analysis also indicated that the lessons planned had limitations with regard to cognitive activation of students. The analysis of the interview data also revealed that the participant teachers do not normally consider differentiating lessons to accommodate the differences in students learning, and place less emphasis on the cognitive activation of students. The analysis of the planned lessons showed a variation in teachers approach in integrating laboratory activities in the sequence of the lessons ranging from a complete absence through a demonstrative to an investigative approach. Moreover, the findings from the interviews indicated differences between the participant teachers espoused theory (i.e. what they said during interview) and their theory- in –use (i.e. what is evident from the planned lessons). The analysis of the interview data demonstrated that teachers did not interpret the data, identify learning needs, draw meaningful information from the data for adapting (or differentiating) instruction. They attributed their students’ poor performance to task difficulty, students’ ability, students’ motivation and interest. The teachers attempted to use the item level and subscale data only to compare the relative position of their class with the reference group. However, they did not read beyond the data, like identifying students learning needs and planning for differentiated instruction based on individual student’s performance.
In der vorliegenden Arbeit wurde untersucht, inwieweit durch lokale Wirtschaftsförderungsinitiativen in Namibia Projekte zur Minderung von Treibhausgasen angestoßen werden können. Dabei wurde insbesondere geprüft, ob der Clean Development Mechanism (CDM) des Kyotoprotokolls sinnvoll genutzt werden kann.
Dazu wurden zuerst die Faktoren (Potential für Minderungsprojekte, Geschäfts- und Investitionsklima, institutionelle Rahmenbedingungen, etc.), die die Initiierung von Projekten fördern oder behindern können, diskutiert. In einem weiteren Schritt wurde analysiert, welche Einstellung Klima- und Energieexperten und Personen, die im Bereich lokaler und regionaler Wirtschaftsförderung tätig sind, zur Forschungsfrage haben. Dazu wurden 229 Fragebögen, 28 individuelle Interviews und eine Fokusgruppendiskussion mit 20 Teilnehmern ausgewertet. Des Weiteren wurde die praktische Umsetzbarkeit entsprechender Maßnahmen mit Hilfe einer vom Autor initiierten "real life"-Fallstudie untersucht. Während der Entwicklung einer lokalen Wirtschaftsförderungsstrategie in der namibischen Region Otjozondjupa wurde auch das dortige Potential für Treibhausgasminderungsprojekte eingeschätzt, darauf basierend wurden Projektideen entwickelt und deren nachhaltige soziale und wirtschaftliche Auswirkungen beurteilt. Erfolg versprechende Projekte wurden anschließend in die Strategie zur Implementierung integriert.
Aufgrund verschiedener Faktoren wie beispielsweise der Komplexität von CDM, dem geringen Ausstoß von Treibhausgasen in Namibia, der schlechten Marktsituation für Emissionsrechte und unzureichender finanzieller Mittel hat die Initiierung von CDM-Projekten durch lokale Wirtschaftsförderung in Namibia den im Rahmen der vorliegenden durchgeführten Untersuchungen zufolge wenig Aussicht auf Erfolg. Jedoch besteht seitens der Akteure die grundsätzliche Bereitschaft, Minderungsprojekte in lokale Wirtschaftsförderung zu integrieren, wenn damit vorrangig die Ziele der Wirtschaftsförderung erreicht werden. Die Untersuchung zeigte, dass lokal initiierte Minderungsprojekte kaum zur Schaffung von Einkommensquellen oder Arbeitsplätzen beitragen. Stattdessen sollten eher nationale strategische Ziele verfolgt werden, wie z. B. eine flächendeckende Elektrizitätsversorgung oder die Verminderung der Abhängigkeit von Stromimporten. Dazu müsste bei lokaler Wirtschaftsförderung zukünftig auch der Energiesektor eine größere Rolle spielen, lokale Verwaltungen müssten die Verantwortung für die Initiierung von Energieprojekten übernehmen, nationale und lokale Behörden müssten effizienter zusammenarbeiten und die lokalen Rahmenbedingungen müssten so verbessert werden, dass der Privatsektor bereit ist, seine Rolle in der Wirtschaftsförderung zu übernehmen. Darüber hinaus sollten die Interessen der Bevölkerung berücksichtigt und alle Akteure frühzeitig in Entscheidungsprozesse eingebunden werden.
The Web contains some extremely valuable information; however, often poor quality, inaccurate, irrelevant or fraudulent information can also be found. With the increasing amount of data available, it is becoming more and more difficult to distinguish truth from speculation on the Web. One of the most, if not the most, important criterion used to evaluate data credibility is the information source, i.e., the data origin. Trust in the information source is a valuable currency users have to evaluate such data. Data popularity, recency (or the time of validity), reliability, or vagueness ascribed to the data may also help users to judge the validity and appropriateness of information sources. We call this knowledge derived from the data the provenance of the data. Provenance is an important aspect of the Web. It is essential in identifying the suitability, veracity, and reliability of information, and in deciding whether information is to be trusted, reused, or even integrated with other information sources. Therefore, models and frameworks for representing, managing, and using provenance in the realm of Semantic Web technologies and applications are critically required. This thesis highlights the benefits of the use of provenance in different Web applications and scenarios. In particular, it presents management frameworks for querying and reasoning in the Semantic Web with provenance, and presents a collection of Semantic Web tools that explore provenance information when ranking and updating caches of Web data. To begin, this thesis discusses a highly exible and generic approach to the treatment of provenance when querying RDF datasets. The approach re-uses existing RDF modeling possibilities in order to represent provenance. It extends SPARQL query processing in such a way that given a SPARQL query for data, one may request provenance without modifying it. The use of provenance within SPARQL queries helps users to understand how RDF facts arederived, i.e., it describes the data and the operations used to produce the derived facts. Turning to more expressive Semantic Web data models, an optimized algorithm for reasoning and debugging OWL ontologies with provenance is presented. Typical reasoning tasks over an expressive Description Logic (e.g., using tableau methods to perform consistency checking, instance checking, satisfiability checking, and so on) are in the worst case doubly exponential, and in practice are often likewise very expensive. With the algorithm described in this thesis, however, one can efficiently reason in OWL ontologies with provenance, i.e., provenance is efficiently combined and propagated within the reasoning process. Users can use the derived provenance information to judge the reliability of inferences and to find errors in the ontology. Next, this thesis tackles the problem of providing to Web users the right content at the right time. The challenge is to efficiently rank a stream of messages based on user preferences. Provenance is used to represent preferences, i.e., the user defines his preferences over the messages' popularity, recency, etc. This information is then aggregated to obtain a joint ranking. The aggregation problem is related to the problem of preference aggregation in Social Choice Theory. The traditional problem formulation of preference aggregation assumes a I fixed set of preference orders and a fixed set of domain elements (e.g. messages). This work, however, investigates how an aggregated preference order has to be updated when the domain is dynamic, i.e., the aggregation approach ranks messages 'on the y' as the message passes through the system. Consequently, this thesis presents computational approaches for online preference aggregation that handle the dynamic setting more efficiently than standard ones. Lastly, this thesis addresses the scenario of caching data from the Linked Open Data (LOD) cloud. Data on the LOD cloud changes frequently and applications relying on that data - by pre-fetching data from the Web and storing local copies of it in a cache - need to continually update their caches. In order to make best use of the resources (e.g., network bandwidth for fetching data, and computation time) available, it is vital to choose a good strategy to know when to fetch data from which data source. A strategy to cope with data changes is to check for provenance. Provenance information delivered by LOD sources can denote when the resource on the Web has been changed last. Linked Data applications can benefit from this piece of information since simply checking on it may help users decide which sources need to be updated. For this purpose, this work describes an investigation of the availability and reliability of provenance information in the Linked Data sources. Another strategy for capturing data changes is to exploit provenance in a time-dependent function. Such a function should measure the frequency of the changes of LOD sources. This work describes, therefore, an approach to the analysis of data dynamics, i.e., the analysis of the change behavior of Linked Data sources over time, followed by the investigation of different scheduling update strategies to keep local LOD caches up-to-date. This thesis aims to prove the importance and benefits of the use of provenance in different Web applications and scenarios. The exibility of the approaches presented, combined with their high scalability, make this thesis a possible building block for the Semantic Web proof layer cake - the layer of provenance knowledge.
Terrainklassifikation mit Markov Zufallsfeldern für autonome Roboter in unstrukturiertem Terrain
(2015)
Diese Doktorarbeit beschäftigt sich mit dem Problem der Terrainklassifikation im unstrukturierten Außengelände. Die Terrainklassifikation umfasst dabei das Erkennen von Hindernissen und flachen Bereichen mit der einhergehenden Analyse der Bodenoberfläche. Ein 3D Laser-Entfernungsmesser wurde als primärer Sensor verwendet, um das Umfeld des Roboters zu vermessen. Zunächst wird eine Gitterstruktur zur Reduktion der Daten eingeführt. Diese Datenrepräsentation ermöglicht die Integration mehrerer Sensoren, z.B. Kameras für Farb- und Texturinformationen oder weitere Laser-Entfernungsmesser, um die Datendichte zu erhöhen. Anschließend werden für alle Terrainzellen des Gitters Merkmale berechnet. Die Klassifikation erfolgt mithilfe eines Markov Zufallsfeldes für Kontextsensitivität um Sensorrauschen und variierender Datendichte entgegenzuwirken. Ein Gibbs-Sampling Ansatz wird zur Optimierung eingesetzt und auf der CPU sowie der auf GPU parallelisiert um Ergebnisse in Echtzeit zu berechnen. Weiterhin werden dynamische Hindernisse unter Verwendung verschiedener State-of-the-Art Techniken erkannt und über die Zeit verfolgt. Die berechneten Informationen, wohin sich andere Verkehrsteilnehmer bewegen und in Zukunft hinbewegen könnten, werden verwendet, um Rückschlüsse auf Bodenoberflächen zu ziehen die teilweise oder vollständig unsichtbar für die Sensoren sind. Die Algorithmen wurden auf unterschiedlichen autonomen Roboter-Plattformen getestet und eine Evaluation gegen von Menschen annotierte Grundwahrheiten von Karten aus mehreren Millionen Messungen wird präsentiert. Der in dieser Arbeit entwickelte Ansatz zur Terrainklassifikation hat sich in allen Anwendungsbereichen bewährt und neue Erkenntnisse geliefert. Kombiniert mit einem Pfadplanungsalgorithmus ermöglicht die Terrainklassifikation die vollständige Autonomie für radgetriebene Roboter in natürlichem Außengelände.
The semantic web and model-driven engineering are changing the enterprise computing paradigm. By introducing technologies like ontologies, metadata and logic, the semantic web improves drastically how companies manage knowledge. In counterpart, model-driven engineering relies on the principle of using models to provide abstraction, enabling developers to concentrate on the system functionality rather than on technical platforms. The next enterprise computing era will rely on the synergy between both technologies. On the one side, ontology technologies organize system knowledge in conceptual domains according to its meaning. It addresses enterprise computing needs by identifying, abstracting and rationalizing commonalities, and checking for inconsistencies across system specifications. On the other side, model-driven engineering is closing the gap among business requirements, designs and executables by using domain-specific languages with custom-built syntax and semantics. In this scenario, the research question that arises is: What are the scientific and technical results around ontology technologies that can be used in model-driven engineering and vice versa? The objective is to analyze approaches available in the literature that involve both ontologies and model-driven engineering. Therefore, we conduct a literature review that resulted in a feature model for classifying state-of-the-art approaches. The results show that the usage of ontologies and model-driven engineering together have multiple purposes: validation, visual notation, expressiveness and interoperability. While approaches involving both paradigms exist, an integrated approach for UML class-based modeling and ontology modeling is lacking so far. Therefore, we investigate the techniques and languages for designing integrated models. The objective is to provide an approach to support the design of integrated solutions. Thus, we develop a conceptual framework involving the structure and the notations of a solution to represent and query software artifacts using a combination of ontologies and class-based modeling. As proof of concept, we have implemented our approach as a set of open source plug-ins -- the TwoUse Toolkit. The hypothesis is that a combination of both paradigms yields improvements in both fields, ontology engineering and model-driven engineering. For MDE, we investigate the impact of using features of the Web Ontology Language in software modeling. The results are patterns and guidelines for designing ontology-based information systems and for supporting software engineers in modeling software. The results include alternative ways of describing classes and objects and querying software models and metamodels. Applications show improvements on changeability and extensibility. In the ontology engineering domain, we investigate the application of techniques used in model-driven engineering to fill the abstraction gap between ontology specification languages and programming languages. The objective is to provide a model-driven platform for supporting activities in the ontology engineering life cycle. Therefore, we study the development of core ontologies in our department, namely the core ontology for multimedia (COMM) and the multimedia metadata ontology. The results are domain-specific languages that allow ontology engineers to abstract from implementation issues and concentrate on the ontology engineering task. It results in increasing productivity by filling the gap between domain models and source code.
Diese Dissertation entsteht im Rahmen des Projekts Research-Group Learning and Neurosciences (ReGLaN)-Health and Logistics, welches die Optimierung der Gesundheitsversorgung in ländlichen Gebieten Südafrikas zum Ziel hat. Es besteht dabei eine Kooperation mit dem Council for Scientific and Industrial Research (CSIR) Meraka Institute mit Prof. Dr. Dr. Marlien Herselman, Pretoria, Südafrika, als zentrale Ansprechpartnerin. Die Dissertation befasst sich mit der mathematischen Modellierung für adaptive graphische Benutzerschnittstellen (GUI), die ein angepasstes Verhalten in Abhängigkeit von Geographischen Informationssystemen (GIS) besitzen und durch räumliche Fuzzy-Logik gesteuert werden. Innerhalb der Arbeit geht es um die mathematische Visualisierung von maßgeschneiderten Risiko- und Ressourcenkarten für epidemiologische Fragestellungen mit GIS und adaptives GUI-Design für eine Open Source (OS)-Anwendung für digitale Endgeräte zur räumlichen Entscheidungsunterstützung zugeschnitten auf unterschiedliche Benutzergruppen. Zur Evaluation und Initialisierung der GUI-Elemente wurde empirische Lehr-Lern-Forschung zum Umgang mit Geomedien und GUI-Elementen eingesetzt.
Mathematical models of species dispersal and the resilience of metapopulations against habitat loss
(2021)
Habitat loss and fragmentation due to climate and land-use change are among the biggest threats to biodiversity, as the survival of species relies on suitable habitat area and the possibility to disperse between different patches of habitat. To predict and mitigate the effects of habitat loss, a better understanding of species dispersal is needed. Graph theory provides powerful tools to model metapopulations in changing landscapes with the help of habitat networks, where nodes represent habitat patches and links indicate the possible dispersal pathways between patches.
This thesis adapts tools from graph theory and optimisation to study species dispersal on habitat networks as well as the structure of habitat networks and the effects of habitat loss. In chapter 1, I will give an introduction to the thesis and the different topics presented in this thesis. Chapter 2 will then give a brief summary of tools used in the thesis.
In chapter 3, I present our model on possible range shifts for a generic species. Based on a graph-based dispersal model for a generic aquatic invertebrate with a terrestrial life stage, we developed an optimisation model that models dispersal directed to predefined habitat patches and yields a minimum time until these patches are colonised with respect to the given landscape structure and species dispersal capabilities. We created a time-expanded network based on the original habitat network and solved a mixed integer program to obtain the minimum colonisation time. The results provide maximum possible range shifts, and can be used to estimate how fast newly formed habitat patches can be colonised. Although being specific for this simulation model, the general idea of deriving a surrogate can in principle be adapted to other simulation models.
Next, in chapter 4, I present our model to evaluate the robustness of metapopulations. Based on a variety of habitat networks and different generic species characterised by their dispersal traits and habitat demands, we modeled the permanent loss of habitat patches and subsequent metapopulation dynamics. The results show that species with short dispersal ranges and high local-extinction risks are particularly vulnerable to the loss of habitat across all types of networks. On this basis, we then investigated how well different graph-theoretic metrics of habitat networks can serve as indicators of metapopulation robustness against habitat loss. We identified the clustering coefficient of a network as the only good proxy for metapopulation robustness across all types of species, networks, and habitat loss scenarios.
Finally, in chapter 5, I utilise the results obtained in chapter 4 to identify the areas in a network that should be improved in terms of restoration to maximise the metapopulation robustness under limited resources. More specifically, we exploit our findings that a network’s clustering coefficient is a good indicator for metapopulation robustness and develop two heuristics, a Greedy algorithm and a deducted Lazy Greedy algorithm, that aim at maximising the clustering coefficient of a network. Both algorithms can be applied to any network and are not specific to habitat networks only.
In chapter 6, I will summarize the main findings of this thesis, discuss their limitations and give an outlook of future research topics.
Overall this thesis develops frameworks to study the behaviour of habitat networks and introduces mathematical tools to ecology and thus narrows the gap between mathematics and ecology. While all models in this thesis were developed with a focus on aquatic invertebrates, they can easily be adapted to other metapopulations.
Conversion of natural vegetation into cattle pastures and croplands results in altered emissions of greenhouse gases (GHG), such as carbon dioxide (CO2), methane (CH4), and nitrous oxide (N2O). Their atmospheric concentration increase is attributed the main driver of climate change. Despite of successful private initiatives, e.g. the Soy Moratorium and the Cattle Agreement, Brazil was ranked the worldwide second largest emitter of GHG from land use change and forestry, and the third largest emitter from agriculture in 2012. N2O is the major GHG, in particular for the agricultural sector, as its natural emissions are strongly enhanced by human activities (e.g. fertilization and land use changes). Given denitrification the main process for N2O production and its sensitivity to external changes (e.g. precipitation events) makes Brazil particularly predestined for high soil-derived N2O fluxes.
In this study, we followed a bottom-up approach based on a country-wide literature research, own measurement campaigns, and modeling on the plot and regional scale, in order to quantify the scenario-specific development of GHG emissions from soils in the two Federal States Mato Grosso and Pará. In general, N2O fluxes from Brazilian soils were found to be low and not particularly dynamic. In addition to that, expected reactions to precipitation events stayed away. These findings emphasized elaborate model simulations in daily time steps too sophisticated for regional applications. Hence, an extrapolation approach was used to first estimate the influence of four different land use scenarios (alternative futures) on GHG emissions and then set up mitigation strategies for Southern Amazonia. The results suggested intensification of agricultural areas (mainly cattle pastures) and, consequently, avoided deforestation essential for GHG mitigation.
The outcomes of this study provide a very good basis for (a) further research on the understanding of underlying processes causing low N2O fluxes from Brazilian soils and (b) political attempts to avoid new deforestation and keep GHG emissions low.
Die vorliegende Dissertation beschäftigt sich mit der Messung subjektiver Filmbewertungskriterien (SMEC). SMEC können definiert werden als Standards, die Zuschauer heranziehen, um Eigenschaften von Filmen (z. B. Story, Kamera) zu bewerten. Basierend auf Annahmen aus der Social Cognition Forschung können SMEC als mentale Repräsentationen von - oder Einstellungen gegenüber - spezifischen Filmeigenschaften verstanden werden und spielen eine wichtige Rolle bei der kognitiven und affektiven Informationsverarbeitung und Bewertung von Filmen. In fünf Phasen wurden Skalen zur Erfassung von SMEC entwickelt und validiert. In Phase I wurden mithilfe von offenen Fragen Beschreibungen für Filmbewertungskriterien gesammelt, mittels modifizierter Struktur-Lege-Technik inhaltsvalidiert und schließlich Itemformulierungen abgeleitet. In Phase II wurden die Items reduziert und faktorenanalytisch auf ihre latente Struktur untersucht. Das resultierende 8-Faktoren-Modell wurde anschließend in Phase III mithilfe weiterer Stichproben und konfirmatorischer Verfahren kreuzvalidiert. Latent State-Trait Analysen in Phase IV zeigten, dass es sich um reliable und relativ stabile Dimensionen handelt. Schließlich wurde in Phase V das nomologische Netzwerk der SMEC und verwandter Konstrukte (z. B. Filmbewertungen) untersucht. Insgesamt kann festgestellt werden, dass das SMEC-Konzept einen geeigneten Rahmen bietet, um Forschungsfragen zur Rolle von Filmbewertungskriterien und Bewertungsprozessen bei der Selektion, Rezeption und Wirkung von Filmen zu formulieren und dass die SMEC-Skalen ein geeignetes reliables und valides Instrument zur Untersuchung solcher Fragen darstellen.
Lakes and reservoirs are important sources of methane, a potent greenhouse gas. Although freshwaters cover only a small fraction of the global surface, their contribution to global methane emission is significant and this is expected to increase, as a positive feedback to climate warming and exacerbated eutrophication. Yet, global estimates of methane emission from freshwaters are often based on point measurements that are spatio-temporally biased. To better constrain the uncertainties in quantifying methane fluxes from inland waters, a closer examination of the processes transporting methane from sediment to atmosphere is necessary. Among these processes, ebullition (bubbling) is an important transport pathway and is a primary source of uncertainty in quantifying methane emissions from freshwaters. This thesis aims to improve our understanding of ebullition in freshwaters by studying the processes of methane bubble formation, storage and release in aquatic sediments. The laboratory experiments demonstrate that aquatic sediments can store up to ~20% (volumetric content) gas and the storage capacity varies with sediment properties. The methane produced is stored as gas bubbles in sediment with minimal ebullition until the storage capacity is reached. Once the sediment void spaces are created by gas bubble formation, they are stable and available for future bubble storage and transport. Controlled water level drawdown experiments showed that the amounts of gas released from the sediment scaled with the total volume of sediment gas storage and correlated linearly to the drop in hydrostatic pressure. It was hypothesized that not only the timing of ebullition is controlled by sediment gas storage, but also the spatial distribution of ebullition. A newly developed freeze corer, capable of characterizing sediment gas content under in situ environments, enabled the possibility to test the hypothesis in a large subtropical lake (Lake Kinneret, Israel). The results showed that gas content was variable both vertically and horizontally in the lake sediment. Sediment methane production rate and sediment characteristics could explain these variabilities. The spatial distribution of ebullition generally was in a good agreement with the horizontal distribution of depth-averaged (surface 1 m) sediment gas content. While discrepancies were found between sediment depth-integrated methane production and the snapshot ebullition rate, they were consistent in a long term (multiyear average). These findings provide a solid basis for the future development of a process-based ebullition model. By coupling a sediment transport model with a sediment diagenetic model, general patterns of ebullition hotspots can be predicted at a system level and the uncertainties in ebullition flux measurements can be better constrained both on long-term (months to years) and short-term (minutes to hours) scales.
Method development for the quantification of pharmaceuticals in aqueous environmental matrices
(2021)
Als Folge des Weltbevölkerungswachstums und des daraus resultierenden Wassermangels ist das Thema Wasserqualität zunehmend im Fokus der Öffentlichkeit. In diesem Kontext stellen anthropogene organische Stoffe - oft als Mikroschadstoffe bezeichnet - eine Bedrohung für die Wasserressourcen dar. Besonders Pharmazeutika werden aufgrund ihrer permanenten Einleitung, ihres steigenden Verbrauchs und ihrer wirkungsbasierten Strukturen mit besonderer Besorgnis diskutiert. Pharmazeutika werden hauptsächlich über Kläranlagen in die Umwelt eingeleitet, zusammen mit ihren Metaboliten und den vor Ort gebildeten Transformationsprodukten (TPs). Wenn sie die aquatische Umwelt erreichen, verteilen sie sich zwischen den verschiedenen Umweltkompartimenten, insbesondere der Wasserphase, Schwebstoffen (SPM) und Biota. In den letzten Jahrzehnten wurden Pharmazeutika in der Wasserphase umfassend untersucht. Allerdings wurden extrem polare Pharmazeutika aufgrund des Mangels an robusten Analysemethoden nur selten überwacht. Zudem wurden Metaboliten und TPs selten in Routineanalysemethoden einbezogen, obwohl ihre Umweltrelevanz nachgewiesen ist. Darüber hinaus wurden Pharmazeutika nur sporadisch in SPM und Biota untersucht und es fehlen adäquate Multi-Analyt-Methoden, um umfassende Ergebnisse über ihr Vorkommen in diesen Matrices zu erhalten. Die vorliegende Arbeit wird, diese Wissenslücken durch die Entwicklung generischer Multi-Analyt-Methoden zur Bestimmung von Pharmazeutika in der Wasserphase, SPM und Biota geschlossen und das Vorkommen und die Verteilung von Pharmazeutika in diesen Kompartimenten bewertet. Für einen vollständigen Überblick wurde ein besonderer Schwerpunkt auf polare Pharmazeutika, pharmazeutische Metaboliten und TPs gelegt. Insgesamt wurden drei innovative Multi-Analyt-Methoden entwickelt, deren Analyten ein breites Spektrum an physikalisch-chemischen Eigenschaften abdecken. Zuerst wurde eine zuverlässige Multi-Analyt-Methode entwickelt um extrem polare Pharmazeutika, deren Metaboliten und TPs in wässrigen Umweltproben zu untersuchen. Die ausgewählten Analyten deckten einen signifikanten Bereich erhöhter Polarität ab und die Methode ist leicht um weitere Analyten erweiterbar. Diese Vielseitigkeit konnte durch die Verwendung der Gefriertrocknung als Probenvorbereitung und der zwitterionischen Hydrophile Interaktionschromatographie (HILIC) im Gradientenelutionsmodus erreicht werden. Die Eignung der HILIC-Chromatographie zur gleichzeitigen Quantifizierung einer großen Bandbreite von Mikroschadstoffe in wässrigen Umweltproben wurde gründlich untersucht. Es wurde auf mehrere Einschränkungen hingewiesen: eine sehr komplexe und zeitaufwändige Methodenentwicklung, eine sehr hohe Empfindlichkeit hinsichtlich der Änderung des Acetonitril-Wasser-Verhältnisses im Eluenten oder im Verdünnungsmittel und hohe positive Matrixeffekte für bestimmte Analyten. Diese Einschränkungen können jedoch durch die Verwendung eines präzisen Protokolls und entsprechend markierter interner Standards überwunden werden und werden durch die Vorteile von HILIC, die die chromatographische Trennung von extrem polaren Mikroverunreinigungen ermöglicht, überkompensiert. Die Untersuchung von Umweltproben zeigte erhöhte Konzentrationen der Analyten in der Wasserphase. Insbesondere Gabapentin, Metformin, Guanylharnstoff und Oxypurinol wurden bei Konzentrationen im µg/LBereich im Oberflächenwasser gemessen. Für die Bestimmung von 57 Pharmazeutika und 47 Metaboliten und TPs, die an SPM sorbiert sind, wurde anschließend eine verlässliche Multi-Analyt-Methode etabliert, die eine Quantifizierung bis in den niedrigen ng/g-Bereich erlaubt. Diese Methode wurde konzipiert, um einen großen Polaritätsbereich abzudecken, insbesondere unter Einbeziehung extrem polarer Pharmazeutika. Das Extraktionsverfahren basierte auf einer Druckflüssigkeitsextraktion (PLE), gefolgt von einer Reinigung durch Lösungsmittelaustausch und Detektion durch direkte Injektion-Umkehrphasen-LCMS/MS und Gefriertrocknung-HILIC-MS/MS. Das Sorptionspotential der Pharmazeutika wurde anhand von Laborexperimenten untersucht. Abgeleitete Verteilungskoeffizienten Kd variierten um fünf Größenordnungen unter den Analyten und bestätigten ein hohes Sorptionspotential für positiv geladene und unpolare Pharmazeutika. Das Vorkommen von Pharmazeutika in SPM deutscher Flüsse wurde durch die Untersuchung jährlicher Mischproben bewertet, die zwischen 2005 und 2015 an vier Standorten am Rhein und einem Standort an der Saar entnommen wurden. Dabei zeigte sich das ubiquitäre Vorkommen von an SPM sorbierten Pharmazeutika in diesen Flüssen. Insbesondere positiv geladene Analyten, auch sehr polare und unpolare Pharmazeutika zeigten nennenswerte Konzentrationen. Für viele Pharmazeutika wurde eine deutliche Korrelation zwischen den jährlich in Deutschland konsumierten Mengen und den in SPM gemessenen Konzentrationen festgestellt. Untersuchungen der zusammengesetzten räumlichen Verteilung von SPM erlaubten es, durch den Vergleich der Verschmutzungsmuster entlang des Flusses Hinweise auf spezifische industrielle Einleitungen zu erhalten. Diese Ergebnisse zeigten zum ersten Mal das Potential von SPM für die Überwachung von positiv geladenen und unpolaren Pharmazeutika in Oberflächengewässern. Für Pharmazeutika mit erhöhter Sorptionsaffinität (Kd uber 500 L/kg) erlauben SPM-Analysen sogar die Überwachung niedrigerer Emissionen. Schließlich wurde eine zuverlässige und generische Multi-Analyt-Methode zur Untersuchung von 35 Pharmazeutika und 28 Metaboliten und TPs in Fischplasma, Fischleber und Fischfilet entwickelt. Für diese Matrix war es eine große Herausforderung eine adäquate Aufreinigung zu entwickeln, die eine ausreichende Trennung der störenden Matrix von den Analyten ermöglicht. Bei der endgültigen Methode wurde die Extraktion von Fischgewebe durch Zellaufschluss durchgeführt, gefolgt von einem nicht diskriminierenden Clean-up auf der Basis von Kieselgel-Festphasenextraktion (SPE) und Materialien mit eingeschränkter Zugänglichkeit (RAM). Die Anwendung der entwickelten Methode auf die Messung von Brassen- und Karpfengeweben aus deutschen Flüssen zeigte, dass selbst polare Mikroverunreinigungen wie z.B. Pharmazeutika in Fischgeweben ubiquitär vorhanden sind. Insgesamt wurden 17 Analyten zum ersten Mal in Fischgewebe nachgewiesen, darunter 10 Metaboliten/TPs. Die Bedeutung der Überwachung von Metaboliten und TPs in Fischgeweben wurde durch deren Nachweis in ähnlichen Konzentrationen wie bei ihren Ausgangsstoffe bestätigt. Es zeigte sich, dass Leber und Filet für die Überwachung von Pharmazeutika in Fischen geeignet ¨ sind, während Plasma aufgrund sehr niedriger Konzentrationen und erschwerter Probenahme ungeeignet ist. Erhöhte Konzentrationen bestimmter Metaboliten deuten auf eine mögliche Bildung menschlicher Metaboliten in Fischen hin. Die gemessenen Konzentrationen weisen jedoch auf ein geringes Bioakkumulationspotential für Pharmazeutika in Fischgeweben hin.
This thesis addresses the automated identification and localization of a time-varying number of objects in a stream of sensor data. The problem is challenging due to its combinatorial nature: If the number of objects is unknown, the number of possible object trajectories grows exponentially with the number of observations. Random finite sets are a relatively new theory that has been developed to derive at principled and efficient approximations. It is based around set-valued random variables that contain an unknown number of elements which appear in arbitrary order and are themselves random. While extensively studied in theory, random finite sets have not yet become a leading paradigm in practical computer vision and robotics applications. This thesis explores random finite sets in visual tracking applications. The first method developed in this thesis combines set-valued recursive filtering with global optimization. The problem is approached in a min-cost flow network formulation, which has become a standard inference framework for multiple object tracking due to its efficiency and optimality. A main limitation of this formulation is a restriction to unary and pairwise cost terms. This circumstance makes integration of higher-order motion models challenging. The method developed in this thesis approaches this limitation by application of a Probability Hypothesis Density filter. The Probability Hypothesis Density filter was the first practically implemented state estimator based on random finite sets. It circumvents the combinatorial nature of data association itself by propagation of an object density measure that can be computed efficiently, without maintaining explicit trajectory hypotheses. In this work, the filter recursion is used to augment measurements with an additional hidden kinematic state to be used for construction of more informed flow network cost terms, e.g., based on linear motion models. The method is evaluated on public benchmarks where a considerate improvement is achieved compared to network flow formulations that are based on static features alone, such as distance between detections and appearance similarity. A second part of this thesis focuses on the related task of detecting and tracking a single robot operator in crowded environments. Different from the conventional multiple object tracking scenario, the tracked individual can leave the scene and later reappear after a longer period of absence. Therefore, a re-identification component is required that picks up the track on reentrance. Based on random finite sets, the Bernoulli filter is an optimal Bayes filter that provides a natural representation for this type of problem. In this work, it is shown how the Bernoulli filter can be combined with a Probability Hypothesis Density filter to track operator and non-operators simultaneously. The method is evaluated on a publicly available multiple object tracking dataset as well as on custom sequences that are specific to the targeted application. Experiments show reliable tracking in crowded scenes and robust re-identification after long term occlusion. Finally, a third part of this thesis focuses on appearance modeling as an essential aspect of any method that is applied to visual object tracking scenarios. Therefore, a feature representation that is robust to pose variations and changing lighting conditions is learned offline, before the actual tracking application. This thesis proposes a joint classification and metric learning objective where a deep convolutional neural network is trained to identify the individuals in the training set. At test time, the final classification layer can be stripped from the network and appearance similarity can be queried using cosine distance in representation space. This framework represents an alternative to direct metric learning objectives that have required sophisticated pair or triplet sampling strategies in the past. The method is evaluated on two large scale person re-identification datasets where competitive results are achieved overall. In particular, the proposed method better generalizes to the test set compared to a network trained with the well-established triplet loss.
Semantic-Web-Technologien haben sich als Schlüssel für die Integration verteilter und heterogener Datenquellen im Web erwiesen, da sie die Möglichkeit bieten, typisierte Verknüpfungen zwischen Ressourcen auf dynamische Weise und nach den Prinzipien von sogenannten Dataspaces zu definieren. Die weit verbreitete Einführung dieser Technologien in den letzten Jahren führte zu einer großen Menge und Vielfalt von Datensätzen, die als maschinenlesbare RDF-Daten veröffentlicht wurden und nach ihrer Verknüpfung das sogenannte Web of Data bilden. Angesichts des großen Datenumfangs werden diese Verknüpfungen normalerweise durch Berechnungsmethoden generiert, den Inhalt von RDF-Datensätzen analysieren und die Entitäten und Schemaelemente identifizieren, die über die Verknüpfungen verbunden werden sollen. Analog zu jeder anderen Art von Daten müssen Links die Kriterien für Daten hoher Qualität erfüllen (z. B. syntaktisch und semantisch genau, konsistent, aktuell), um wirklich nützlich und leicht zu konsumieren zu sein. Trotz der Fortschritte auf dem Gebiet des maschinellen Lernens ist die menschliche Intelligenz für die Suche nach qualitativ hochwertigen Verbindungen nach wie vor von entscheidender Bedeutung: Menschen können Algorithmen trainieren, die Ausgabe von Algorithmen in Bezug auf die Leistung validieren, und auch die resultierenden Links erweitern. Allerdings sind Menschen – insbesondere erfahrene Menschen – nur begrenzt verfügbar. Daher kann die Ausweitung der Datenqualitätsmanagementprozesse von Dateneigentümern/-verlegern auf ein breiteres Publikum den Lebenszyklus des Datenqualitätsmanagements erheblich verbessern.
Die jüngsten Fortschritte bei Human Computation und bei Peer-Production-Technologien eröffneten neue Wege für Techniken zur Verwaltung von Mensch-Maschine-Daten, die es ermöglichten, Nicht-Experten in bestimmte Aufgaben einzubeziehen und Methoden für kooperative Ansätze bereitzustellen. Die in dieser Arbeit vorgestellten Forschungsarbeiten nutzen solche Technologien und untersuchen Mensch-Maschine-Methoden, die das Management der Verbindungsqualität im Semantic Web erleichtern sollen. Zunächst wird unter Berücksichtigung der Dimension der Verbindungsgenauigkeit eine Crowdsourcing Methode zur Ontology Alignment vorgestellt. Diese Methode, die auch auf Entitäten anwendbar ist, wird als Ergänzung zu automatischen Ontology Alignment implementiert. Zweitens werden neuartige Maßnahmen zur Dimension des Informationsgewinns eingeführt, die durch die Verknüpfungen erleichtert werden. Diese entropiezentrierten Maßnahmen liefern Datenmanagern Informationen darüber, inwieweit die Entitäten im verknüpften Datensatz Informationen in Bezug auf Entitätsbeschreibung, Konnektivität und Schemaheterogenität erhalten. Drittens wenden wir Wikidata - den erfolgreichsten Fall eines verknüpften Datensatzes, der von einer Gemeinschaft von Menschen und Bots kuratiert, verknüpft und verwaltet wird - als Fallstudie an und wenden deskriptive und prädiktive Data Mining-Techniken an, um die Ungleichheit der Teilnahme und den Nutzerschwung zu untersuchen. Unsere Ergebnisse und Methoden können Community-Managern helfen, Entscheidungen darüber zu treffen, wann/wie mit Maßnahmen zur Nutzerbindung eingegriffen werden soll. Zuletzt wird eine Ontologie zur Modellierung der Geschichte der Crowd-Beiträge auf verschiedenen Marktplätzen vorgestellt. Während der Bereich des Mensch-Maschine-Datenmanagements komplexe soziale und technische Herausforderungen mit sich bringt, zielen die Beiträge dieser Arbeit darauf ab, zur Entwicklung dieses noch aufstrebenden Bereichs beizutragen.
Das Web 2.0 stellt online Technologien zur Verfügung, die es Nutzern erlaubt gemeinsam Inhalte zu erstellen, zu publizieren und zu teilen. Dienste wie Twitter, CNet, CiteSeerX etc. sind Beispiele für Web 2.0 Plattformen, die zum einen Benutzern bei den oben beschriebenen Aktivitäten unterstützen und zum anderen als Quellen reichhaltiger Information angesehen werden können. Diese Plattformen ermöglichen es Nutzern an Diskussionen teilzunehmen, Inhalte anderer Nutzer zu kommentieren, generell Feedback zu geben (z.B. zu einem Produkt) und Inhalte zu publizieren, sei es im Rahmen eines Blogs oder eines wissenschaftlichen Artikels. Alle diese Aktivitäten führen zu einer großen Menge an unstrukturierten Daten. In diesem Überfluss an Informationen kann auf den persönlichen Informationsbedarf einzelner Benutzer nicht mehr individuell genug eingegangen werden kann. Methoden zur automatischen Analyse und Aggregation unstrukturierter Daten die von einzelnen Plattformen zur Verfügung gestellt werden, können dabei helfen den sich aus dem unterschiedlichen Kontext der Plattformen ergebenden Informationsbedarf zu beantworten. In dieser Arbeit stellen wir drei Methoden vor, die helfen den Informationsüberfluss zu verringern und es somit ermöglichen den Informationsbedarf einzelner Nutzer besser zu beantworten.
Der erste Beitrag dieser Arbeit betrachtet die zwei Hauptprobleme des Dienstes Twitter: die Kürze und die Qualität der Einträge und wie sich diese auf die Ergebnisse von Suchverfahren auswirken. Wir analysieren und identifizieren Merkmale für einzelne Kurznachrichten auch Twitter (sog. Tweets), die es ermöglichen die Qualität eines Tweets zu bestimmen. Basierend auf dieser Analyse führen wir den Begriff "Interestingness" ein, der als statisches Qualitätsmaß für Tweets dient. In einer empirischen Analyse zeigen wir, dass die vorgeschlagenen Maße dabei helfen qualitativ hochwertigere Information in Twitter zu finden und zu filtern. Der zweite Beitrag beschäftigt sich mit dem Problem der Inhaltsdiversifikation in einem kollaborativen sozialen System, z.B. einer online Diskussion die aus der sozialen Kollaboration der Nutzer einer Plattform entstanden ist. Ein Leser einer solchen Diskussion möchte sich einen schnellen und umfassenden Überblick über die Pro und Contra Argumente in der Diskussion verschaffen. Zu diesem Zweck wurde FREuD entwickelt, ein Ansatz der hilft das Diversifikationsproblem von Inhalten in den Griff zu bekommen. FREuD kombiniert Latent Semantic Analysis mit Sentiment Analyse. Die Evaluation von FREuD hat gezeigt, dass es mit diesem Ansatz möglich ist, einen umfassenden Überblick über die Unterthemen und die Aspekte einer Diskussion, sowie über die Meinungen der Diskussionteilnehmer zu liefern. Der dritte Beitrag dieser Arbeit ist eine neues Autoren-Thema-Zeit Modell, dass es ermöglicht Trendthemen und Benutzerinteressen in sozialen Medien zu erfassen. Der Ansatz löst dieses Problem indem er die Relationen zwischen Autoren, latenter Themen und zeitlicher Information mittels Bayes'schen Netzen modelliert. Unsere Evaluation zeigt einen verbesserte Erkennung von semantisch zusammenhaängenden Themen und liefert im weiteren Informationen darüber in wie weit die Veränderung im Interesse einzelner Autoren mit der Entwicklung einzelner Themengebiete zusammenhängt.
Aktuelle Entwicklungen in der Europäischen Gesetzgebung fordern die Umsetzung von Risikominderungsmaßnahmen, die diffuse Einträge von Pestiziden in Oberflächengewässer und deren Schadwirkung mindern sollen. Bepflanzte Gräben und Feuchtgebiete (vegetated treatment systems: VTS) bieten die Möglichkeit potenzielle Schadwirkung von Pestizideinträgen infolge von Oberflächenabflussereignissen zu mindern, die mit anderen Maßnahmen unvermeidbar wären. Versuche in experimentellen Feuchtgebieten und bepflanzten Gräben wurden durchgeführt, um die Funktionstüchtigkeit möglicher Systeme zu untersuchen. In fünf Rückhaltebecken und zwei bepflanzten Gräben in der Weinbauregion Südpfalz (Südwestdeutschland) wurde von 2006 bis 2009 eine umfangreiche Beprobung von belastetem Wasser nach Starkregenereignissen vorgenommen und die Reduktionsleistung der Systeme bezüglich der eingetragenen Konzentrationen ermittelt. Der Einfluss von Pflanzendichte, Größe der Systeme und Eigenschaften der eingetragenen, bzw. experimentell eingespeisten Substanzen war Schwerpunkt bei der Auswertung der Ergebnisse. Zur Vorhersage der Gewässerbelastung nach niederschlagsbezogenem Oberflächenabfluss wurde in einer Geoinformationsumgebung (GIS) ein Simulationswerkzeug entwickelt. Das Werkzeug arbeitet mit einer sehr exakten Datenbank von hoher räumlicher Auflösung auf Europäischer Ebene. Basierend auf den Erkenntnissen der Experimente, den Ergebnissen der beprobten Gewässer und weiteren Daten von anderen Systemen, die im EU-Life Projekt ArtWET erhoben wurden, ist ein zweites räumliches Werkzeug entstanden, das zur Entscheidungsunterstützung dient und mit dem Risikominderungsmaßnahmen simuliert werden können. Ergebnisse der Experimente und Feldstudien zeigen, dass in experimentellen Feuchtgebieten und bepflanzten Gräben Reduktionen von über 90% der eingetragenen Pestizidkonzentrationen möglich sind. Bepflanzte Gräben und Feuchtgebiete zeigten signifikant bessere Reduktion als unbepflanzte. Pflanzendichte und Sorptivität an organischen Kohlenstoff wurden als Variablen mit der größten Erklärungskraft für die Zielvariable Reduktion der Pestizidkonzentrationen identifiziert (im Gräben-Mesokosmos konnten 65% der Variabilität mit den Variablen Pflanzendichte und KOC erklärt werden. In der Feldstudie wurde gezeigt, dass Fungizidkonzentrationen innerhalb der Rückhaltebecken (Median 38%) und bepflanzten Gräben (Median 56%) signifikant reduziert wurden. Die Regressionsanalyse mit diesen Daten zeigte, dass neben der Pflanzendichte auch die Größe der Systeme Einfluss auf die Reduktion der Pestizidkonzentrationen hat (DP: R²=0.57, p<0.001; VD:
R²=0.19, p<0.001). Die Datenbank für die GIS Werkzeuge wurde mit frei verfügbaren Europäischen Daten aufgebaut. Der erweiterte, von der OECD empfohlene REXTOX Risikoindikator wurde modifiziert und für die Risikomodellierung für alle Agrargewässer auf Europäischer Ebene angewandt. Die Ergebnisse der Risikosimulationen bieten die Datenbasis für das zweite Werkzeug, in dem auch die VTS als Risikominderungsmaßnahme eingearbeitet sind. Die Berechnung der Risikominderungsmaßnahmen kann für die einzelnen Kulturen, ausgewählte Gebiete und unterschiedliche Pestizide durchgeführt werden. Kosten für die Risikominderungsmaßnahmen werden ermittelt. Die Ergebnisse liefern wichtige neue Erkenntnisse zur Nutzung von bepflanzten Systemen als Risikominderungsmaßnahmen für diffuse Pestizideinträge in Agrargewässer. Die Proben der Weinbaugewässer zeigen, dass auch die bisher schlecht untersuchte Gruppe der Fungizide nachteilige Auswirkungen auf aquatische Ökosysteme haben kann. Die entwickelten GIS Werkzeuge sind leicht anwendbar und damit nicht nur als Basis für zukünftige Untersuchungen geeignet, sondern auch als Entscheidungsunterstützung in der praktischen Umsetzung außerhalb der Forschung hilfreich. Auf Europäischer Ebene können die GIS-Werkzeuge einerseits externe Kosten der Gewässerverschmutzung durch diffuse Pflanzenschutzmitteleinträge berechnen, indem die Kosten der unterschiedlichen Risikominderungsmaßnahmen abgeschätzt werden. Andererseits kann die Simulation der Maßnahmen bei der Entscheidungsfindung zur Umsetzung der Vorgaben der Wasserrahmenrichtlinie helfen. Zukünftige Studien sind insbesondere im Bereich der Fungizidbelastung von Oberflächengewässern und der langfristigen Funktionstüchtigkeit von bewachsenen Gräben und Feuchtgebieten als Risikominderungsmaßnahmen notwendig.
Wir leben in einer Welt, in der sich Umweltkrisen immer weiter zuspitzen. Um diese Krisen zu entschärfen, braucht es einen sozial-ökologischen Wandel, der mit Verhaltensänderungen in verschiedenen Bereichen des täglichen Lebens einhergehen muss. Ausgehend von dieser gesellschaftlichen Aufgabe, befasst sich die vorliegende Dissertation mit der Frage, wie Verhaltensänderungen auf individueller Ebene angestoßen werden können. Mit dem weltweiten Problem von Plastik in der Umwelt wird ein aktuelles und sozialwissenschaftlich wenig erforschtes Themenfeld aufgegriffen. Es wird untersucht, welche psychologischen Faktoren einen Einfluss darauf haben, den eigenen Plastikkonsum zu reduzieren. Der Fokus liegt dabei insbesondere auf Plastikverpackungen, die den größten Anteil der derzeitigen Plastikproduktion ausmachen. Eine Barriere, die das Aufnehmen von neuen Verhaltensweisen erschwert, stellen die eigenen Gewohnheiten dar. Phasen von Umbrüchen, wie der Umzug in eine neue Stadt, gelten als vielversprechend zur Veränderung von Gewohnheiten. Die Dissertation untersucht daher, ob solche Phasen des Wandels ein Gelegenheitsfenster öffnen können, um alte Gewohnheiten zu durchbrechen und Verhaltensänderungen anzustoßen. Vier Manuskripte nähern sich diesem Thema von einem zunächst breiten Fokus einer Literaturstudie bis hin zu fokussierten Interventionsstudien an. Das Literaturreview (Manuskript 1) fasst 187 Studien zum Umgang mit Plastik aus sozialwissenschaftlicher Perspektive zusammen. Darauf aufbauend, untersucht eine Online-Studie (N = 648) plastikfreie Verhaltensintentionen (Manuskript 2). In einem Strukturgleichungsmodell werden Prädiktoren für Verhaltensintentionen im privaten sowie politischen Bereich analysiert. Zwei Experimentalstudien im Pre-Post-Design schließen an das Verhalten im Privaten an (Manuskript 3 + 4). Es wird untersucht, ob eine Intervention, die während der Fastenzeit (N =140) oder während eines Aktionsmonats (N = 366) präsentiert wird, ein Gelegenheitsfenster zur Konsumreduktion von Plastikverpackungen darstellen kann. Die Ergebnisse der empirischen Arbeiten weisen Moral- und Kontrollüberzeugungen als stärkste Prädiktoren für Verhaltensreduktionen aus. Der Zeitpunkt einer Intervention beeinflusst zudem die Wahrscheinlichkeit ein neues Verhalten auszuprobieren. Die Studien zeigen erste Belege, dass Gelegenheitsfenster umweltfreundliche Verhaltensänderungen im Kontext des Plastikkonsums erleichtern können. Theoretische und praktische Implikationen, wie Gelegenheitsfenstern zu einer sozial-ökologischen Transformation beigetragen können, werden diskutiert.
In IT-Systemen treten viele Datenschutzrisiken auf, wenn Datenschutzbedenken in den frühen Phasen des Entwicklungsprozesses nicht angemessen berücksichtigt werden. Die Datenschutz-Grundverordnung (DSGVO) schreibt das Prinzip des Datenschutz durch Technikgestaltung (PbD) vor. PbD erfordert den Schutz personenbezogener Daten von Beginn des Entwicklungsprozesses an, durch das frühzeitige Integrieren geeigneter Maßnahmen. Bei der Realisierung von PbD ergeben sich nachfolgende Herausforderungen: Erstens benötigen wir eine präzise Definition von Datenschutzbedenken. Zweitens müssen wir herausfinden, wo genau in einem System die Maßnahmen angewendet werden müssen. Drittens ist zur Auswahl geeigneter Maßnahmen, ein Mechanismus zur Ermittlung der Datenschutzrisiken erforderlich. Viertens müssen bei der Auswahl und Integration geeigneter Maßnahmen, neben den Risiken, die Abhängigkeiten zwischen Maßnahmen und die Kosten der Maßnahmen berücksichtigt werden.
Diese Dissertation führt eine modellbasierte Methodik ein, um die oben genannten Herausforderungen zu bewältigen und PbD zu operationalisieren. Unsere Methodik basiert auf einer präzisen Definition von Datenschutzbedenken und umfasst drei Untermethodiken: modellbasierte Datenschutzanalyse, modellbasierte Datenschutz-Folgenabschätzung und datenschutzfreundliche Systemmodellierung. Zunächst führen wir eine Definition für Datenschutzpräferenzen ein, anhand derer die Datenschutzbedenken präzisiert werden können und überprüft werden kann, ob die Verarbeitung personenbezogener Daten autorisiert ist. Zweitens präsentieren wir eine modellbasierte Methodik zur Analyse eines Systemmodells. Die Ergebnisse dieser Analyse ergeben die Menge der Verstöße gegen die Datenschutzpräferenzen in einem Systemmodell. Drittens führen wir eine modellbasierte Methode zur Datenschutzfolgenabschätzung ein, um konkrete Datenschutzrisiken in einem Systemmodell zu identifizieren. Viertens schlagen wir in Bezug auf die Risiken, Abhängigkeiten zwischen Maßnahmen und Kosten der Maßnahmen, eine Methodik vor, um geeignete Maßnahmen auszuwählen und in ein Systemdesign zu integrieren. In einer Reihe von realistischen Fallstudien bewerten wir unsere Konzepte und geben einen vielversprechenden Ausblick auf die Anwendbarkeit unserer Methodik in der Praxis.
Enterprise collaboration platforms are increasingly gaining importance in organisations. Integrating groupware functionality and enterprise social software (ESS), they have substantially been transforming everyday work in organisations. While traditional collaboration systems have been studied in Computer Supported Cooperative Work (CSCW) for many years, the large-scale, infrastructural and heterogeneous nature of enterprise collaboration platforms remains uncharted. Enterprise collaboration platforms are embedded into organisations’ digital workplace and come with a high degree of complexity, ambiguity, and generativity. When introduced, they are empty shells with no pre-determined purposes of use. They afford interpretive flexibility, and thus are shaping and being shaped by and in their social context. Outcomes and benefits emerge and evolve over time in an open-ended process and as the digital platform is designed through use. In order to make the most of the platform and associated continuous digital transformation, organisations have to develop the necessary competencies and capabilities.
Extant literature on enterprise collaboration platforms has proliferated and provide valuable insights on diverse topics, such as implementation strategies, adoption hurdles, or collaboration use cases, however, they tend to disregard their evolvability and related multiple time frames and settings. Thus, this research aims to identify, investigate, and theorise the ways that enterprise collaboration platforms are changing over time and space and the ways that organisations build digital transformation capabilities. To address this research aim two different case study types are conducted: i) in-depth longitudinal qualitative case study, where case narratives and visualisations capturing hard-to-summarise complexities in the enterprise collaboration platform evolution are developed and ii) multiple-case studies to capture, investigate, and compare cross-case elements that contribute to the shaping of enterprise collaboration platforms in different medium-sized and large organisations from a range of industries. Empirical data is captured and investigated through a multi-method research design (incl. focus groups, surveys, in-depth interviews, literature reviews, qualitative content analysis, descriptive statistics) with shifting units of analysis. The findings reveal unique change routes with unanticipated outcomes and transformations, context-specific change strategies to deal with multiple challenges (e.g. GDPR, works council, developments in the technological field, competing systems, integration of blue-collar workers), co-existing platform uses, and various interacting actors from the immediate setting and broader context. The interpretation draws on information infrastructure (II) as a theoretical lens and related sociotechnical concepts and perspectives (incl. inscriptions, social worlds, biography of artefacts). Iteratively, a conceptual model of the building of digital transformation capabilities is developed, integrating the insights gained from the study of enterprise collaboration platform change and developed monitoring change tools (e.g. MoBeC framework). It assists researchers and practitioners in understanding the building of digital transformation capabilities from a theoretical and practical viewpoint and organisations implement the depicted knowledge in their unique digital transformation processes.
The bio-insecticide Bacillus thuringiensis israelensis (Bti) has worldwide become the most commonly used agentin mosquito control programs that pursue two main objectives: the control of vector-borne diseases and the reduction of nuisance, mainly coming frommosquitoes that emerge in large quantities from seasonal wetlands. The Upper Rhine Valley, a biodiversity hotspot in Germany, has been treated withBti for decades to reduce mosquito-borne nuisance and increase human well-being.Although Btiis presumed to be an environmentally safe agent,adverse effects on wetland ecosystems are still a matter of debate especially when it comes to long-term and indirect effects on non-target organisms. In light of the above, this thesis aims at investigating direct and indirect effects of Bti-based mosquito control on non-target organisms within wetland food chains.Effects were examinedin studies with increasingeco(toxico)logical complexity, ranging from laboratory over mesocosm to field approaches with a focus on the non-biting Chironomidae and amphibian larvae (Rana temporaria, Lissotriton sp.).In addition, public acceptance of environmentally less invasive alternative mosquito control methods was evaluated within surveys among the local population.
Chironomids were the most severely affected non-target aquatic invertebrates. Bti substantially reduced larval and adult chironomid abundances and modified their species composition. Repeated exposures to commonly used Bti formulations induced sublethal alterations of enzymatic biomarkers activityin frog tadpoles. Bti-induced reductions of chironomid prey availability indirectly decreased body size of newts at metamorphosis and increased predation on newt larvae in mesocosm experiments. Indirect effects of severe reductions in midge biomassmight equally be passed through aquatic but also terrestrial food chains influencing predators of higher trophic levels. The majority ofaffectedpeople in the Upper Rhine Valley expressed a high willingness to contributefinancially to environmentally less harmful mosquito control.Alternative approaches could still include Bti applications excepting treatment of ecologically valuable areas. Potentially rising mosquito levels could be counteracted with local acting mosquito traps in domestic and urban areas because mosquito presence was experienced as most annoying in the home environment.
As Bti-based mosquito control can adversely affect wetland ecosystems, its large-scale applications, including nature conservation areas, should be considered more carefully to avoid harmful consequences for the environmentat the Upper Rhine Valley.This thesis emphasizesthe importance to reconsiderthe current practice of mosquito control and encourage research on alternative mosquito control concepts that are endorsed by the local population. In the context ofthe ongoing amphibian and insect declinesfurther human-induced effects onwetlands should be avoided to preserve biodiversity in functioning ecosystems.
Efficient Cochlear Implant (CI) surgery requires prior knowledge of the cochlea’s size and its characteristics. This information helps to select suitable implants for different patients. Registered and fused images helps doctors by providing more informative image that takes advantages of different modalities. The cochlea’s small size and complex structure, in addition to the different resolutions and head positions during imaging, reveals a big challenge for the automated registration of the different image modalities. To obtain an automatic measurement of the cochlea length and the volume size, a segmentation method of cochlea medical images is needed. The goal of this dissertation is to introduce new practical and automatic algorithms for the human cochlea multi-modal 3D image registration, fusion, segmentation and analysis. Two novel methods for automatic cochlea image registration (ACIR) and automatic cochlea analysis (ACA) are introduced. The proposed methods crop the input images to the cochlea part and then align the cropped images to obtain the optimal transformation. After that, this transformation is used to align the original images. ACIR and ACA use Mattes mutual information as similarity metric, the adaptive stochastic gradient descent (ASGD) or the stochastic limited memory Broyden–Fletcher–Goldfarb–Shanno (s-LBFGS) optimizer to estimate the parameters of 3D rigid transform. The second stage of nonrigid registration estimates B-spline coefficients that are used in an atlas-model-based segmentation to extract cochlea scalae and the relative measurements of the input image. The image which has segmentation is aligned to the input image to obtain the non-rigid transformation. After that the segmentation of the first image, in addition to point-models are transformed to the input image. The detailed transformed segmentation provides the scala volume size. Using the transformed point-models, the A-value, the central scala lengths, the lateral and the organ of corti scala tympani lengths are computed. The methods have been tested using clinical 3D images of total 67 patients: from Germany (41 patients) and Egypt (26 patients). The atients are of different ages and gender. The number of images used in the experiments is 217, which are multi-modal 3D clinical images from CT, CBCT, and MRI scanners. The proposed methods are compared to the state of the arts ptimizers related medical image registration methods e.g. fast adaptive stochastic gradient descent (FASGD) and efficient preconditioned tochastic gradient descent (EPSGD). The comparison used the root mean squared distance (RMSE) between the ground truth landmarks and the resulted landmarks. The landmarks are located manually by two experts to represent the round window and the top of the cochlea. After obtaining the transformation using ACIR, the landmarks of the moving image are transformed using the resulted transformation and RMSE of the transformed landmarks, and at the same time the fixed image landmarks are computed. I also used the active length of the cochlea implant electrodes to compute the error aroused by the image artifact, and I found out an error ranged from 0.5 mm to 1.12 mm. ACIR method’s RMSE average was 0.36 mm with a standard deviation (SD) of 0.17 mm. The total time average required for registration of an image pair using ACIR was 4.62 seconds with SD of 1.19 seconds. All experiments are repeated 3 times for justifications. Comparing the RMSE of ACIR2017 and ACIR2020 using paired T-test shows no significant difference (p-value = 0.17). The total RMSE average of ACA method was 0.61 mm with a SD of 0.22 mm. The total time average required for analysing an image was 5.21 seconds with SD of 0.93 seconds. The statistical tests show that there is no difference between the results from automatic A-value method and the manual A-value method (p-value = 0.42). There is no difference also between length’s measurements of the left and the right ear sides (p-value > 0.16). Comparing the results from German and Egypt dataset shows there is no difference when using manual or automatic A-value methods (p-value > 0.20). However, there is a significant difference when using ACA2000 method between the German and the Egyptian results (p-value < 0.001). The average time to obtain the segmentation and all measurements was 5.21 second per image. The cochlea scala tympani volume size ranged from 38.98 mm3 to 57.67 mm3 . The combined scala media and scala vestibuli volume size ranged from 34.98 mm 3 to 49.3 mm 3 . The overall volume size of the cochlea should range from 73.96 mm 3 to 106.97 mm 3 . The lateral wall length of scala tympani ranged from 42.93 mm to 47.19 mm. The organ-of-Corti length of scala tympani ranged from 31.11 mm to 34.08 mm. Using the A-value method, the lateral length of scala tympani ranged from 36.69 mm to 45.91 mm. The organ-of-Corti length of scala tympani ranged from 29.12 mm to 39.05 mm. The length from ACA2020 method can be visualised and has a well-defined endpoints. The ACA2020 method works on different modalities and different images despite the noise level or the resolution. In the other hand, the A-value method works neither on MRI nor noisy images. Hence, ACA2020 method may provide more reliable and accurate measurement than the A-value method. The source-code and the datasets are made publicly available to help reproduction and validation of my result.
Nanotemplates for the combined structural and functional analysis of membrane-associated proteins
(2019)
Die Inkubation von unilamellaren Lipid-Vesikeln mit einem als BPG bezeichneten Abschnitt des Proteins GRAF1 führte zur Entstehung von röhrenförmigen Strukturen. Eine Untersuchung mittels negativkontrastierter Elektronenmikroskopie zeigte eine körnige Beschichtung auf der Röhrenoberfläche. Durch die höhere Auflösung der Elektronentomographie war es möglich, helikale Oligomere auf den Röhren zu erkennen. Des Weiteren zeigte sich, dass die Röhren im Durchmesser inhomogen waren und Biegungen aufwiesen. Das hatte ebenfalls Unregelmäßigkeiten in der Ordnung der helikalen Struktur zur Folge. Das Herstellungsverfahren von unilamellaren Vesikeln mittels Extruder wurde so modifiziert, dass es anstatt von Vesikeln Nanoröhren entstehen ließ. Im Gegensatz zu den Röhren, die das Protein formte, wiesen diese eine lineare Struktur mit konstantem Durchmesser auf. Trotz der Inkubation mit BPG behielten diese ihre homogene Form und zeigten nun eine geordnete helikale Beschichtung auf ihrer Oberfläche. Allerdings waren sie nicht hoch genug konzentriert für die Kryoelektronenmikroskopie, und eine reine Erhöhung der Lipidkonzentration führte nicht zu einer höhren Anzahl von Röhren, sondern zu Lipidaggregation. Weitere Experimente zeigten, dass die Chelatliganden EDTA und EGTA in der Pufferlösung zur Entstehung unilamellarer Vesikel führten. Da EDTA und EGTA die Metallionen Mg2+ und Ca2+ absorbieren, wurden weitere Tests mit neuen Pufferlösungen durchgeführt. Zur Absorption bereits vorhandener Metallionen wurden beide Chelatliganden hinzugegeben und eine Variante mit zusätzlichem Magnesiumchlorid und eine weitere mit zusätzlichem Calciumchlorid hergestellt. Es wurde gezeigt, dass Magnesiumchlorid unilamellare Vesikel zur Folge hatte und Calciumchlorid zu einer höhren Konzentration der Nanoröhren führte. Daraus wurde geschlossen, dass Calciumionen die Enstehung von Nanoröhren fördern. Zur weiteren Optimierung der Konzentration wurde eine Varianzanalyse (CCD) der einflussreichsten Variablen im Extrusionsprozess durchgeführt:
- Eine höhere Anzahl von Frier-Tau-Zyklen zur Unterdrückung multilamellarer Vesikel hatte einen positiven Einfluss.
- Es konnte keine Korrelation zwischen der Extrudertemperatur und der Konzentration von Nanoröhren nachgewiesen werden.
- Mehr Extrusionszyklen hatten eine höhere Nanoröhrenkonzentration zur Folge.
Durch das optimierte Protokoll war die Konzentration hoch genug für die Kryoelektronenmikroskopie und eine helikale Rekonstruktion. Dennoch war eine 2D-Klassifizierung nicht erfolgreich, da die Nanoröhren im aufgenommenen Datensatz nicht homogen genug im Durchmesser waren und zudem eine unterschiedliche Anzahl an multilamellaren Rändern aufwiesen. Aus diesem Grund wurde ein Skript entwickelt, das die Röhren nach ihrem Durchmesser sortiert. Mit einer Untermenge des Datensatzes, dessen Röhren einen ähnlichen Durchmesser hatten, wurde eine weitere 2D-Klassifizierung durchgeführt. Daraus resultierten schließlich 2D-Klassen der helikalen Oberflächenstruktur.
Seit der Domestizierung von Wein vor über 6000 Jahren haben Weinbauern mit Krankheiten und Schädlingen ihrer Pflanzen zu kämpfen. Seitdem führen neue Anbaumethoden und ein besseres Verständnis der ökologischen Prozesse im Weinberg zu wachsenden Erträgen und steigender Traubenqualität. In dieser Arbeit beschreibe ich die Effekte zweier innovativer Anbaumethoden auf Schädlinge und Nützlinge im Weinbau; Pilzwiderstandsfähige Sorten (PIWIs) und das Reberziehungssystem Minimalschnitt im Spalier (SMPH). SMPH erlaubt eine drastische Reduktion des Arbeitsaufwands im Weinberg. PIWIs sind resistent gegenüber zwei der destruktivsten Pilzkrankheiten der Rebe und bleiben daher bei deutlich weniger Pflanzenschutzbehandlungen als herkömmliche Sorten gesund. Übermäßiger Gebrauch von Pestiziden wird mit einer Reihe von Problemen wie Gewässerverschmutzung, Gesundheitsfolgen beim Menschen, und Biodiversitätsverlust in Verbindung gebracht. In dieser Arbeit wurden Effekte von reduzierten Fungizid Spritzungen auf Nützlinge wie Raubmilben, Spinnen, Ameisen, Ohrwürmer und Florfliegen untersucht. Diese Gruppen profitierten entweder von den reduzierten Fungizidmengen, oder sie wurden nicht signifikant beeinflusst. Strukturelle Unterschiede in der SMPH Laubwand beeinflussten das Mikroklima im Vergleich zur Spaliererziehung. Sowohl strukturelle als auch mikroklimatische Veränderungen beeinflussten einige Arthropodengruppen im Wein.
Insgesamt lässt sich Schlussfolgern, dass sowohl PIWI Sorten als auch das Schnittsystem SMPH ein großes Potential haben, die Bedingungen für natürliche Schädlingskontrolle zu verbessern. Dies reiht sich in eine Liste anderer Vorteile dieser Managementmethoden, wie zum Beispiel eine Reduktion der Produktionskosten und verbesserte Nachhaltigkeit.
Non-Consumptive Effects of Spiders and Ants: Does Fear Matter in Terrestrial Interaction Webs?
(2014)
Die meisten Tiere haben natürliche Feinde. Neben dem Töten von Beute (Prädation), können Räuber auch die Physiologie, Morphologie und das Verhalten von Beutetieren beeinflussen. Spinnen sind eine ausgesprochen diverse und häufige Räubergruppe in terrestrischen Ökosystemen. Unsere Verhaltensexperimente haben gezeigt, dass nur wenige Insekten- und Spinnenarten das Verhalten in der Anwesenheit von Spinnengeruchstoffen ändern. Besonders Waldgrillen (Nemobius sylvestris) änderten ihr Verhalten aufgrund von Geruchsstoffen mehreren Spinnenarten. Dabei bewirkten Geruchstoffe von relativ größeren und häufigeren Spinnenarten stärkere Verhaltensänderungen.
Verhaltensänderungen unter Prädationsrisiko erhöhen die Überlebensrate von Beutetieren, sind aber oft mit Kosten verbunden. Grillen, die vorher schon mit Geruchstoffen der Listspinne (Pisaura mirabilis) konfrontiert wurden, konnten den Spinnen tatsächlich erfolgreicher entkommen. Während des Experiments haben Grillen unter Prädationsrisiko geringfügig mehr gefressen und weniger Gewicht verloren als Kontrollgrillen. Dies deutet darauf hin, dass Grillen durch das Prädationsrisiko verursachte Kosten kurzzeitig kompensieren können. In einem Wahlexperiment bevorzugten Grillen Pflanzen ohne Spinnengeruchsstoffe. Infolgedessen wurde an Pflanzen mit Spinnengeruchsstoffen weniger gefressen.
Auch Ameisen sind allgegenwärtige Räuber und können einen starken Einfluss auf Pflanzenfresser (Herbivore) aber auch auf andere Räuber haben. Wenn junge Spinnen mit Ameisengeruchstoffen konfrontiert wurden, stieg ihre Bereitschaft sich über größere Entfernungen auszubreiten. Junge Spinnen nutzen diese passive Ausbreitung über die Luft ("ballooning") um Ameisen zu entkommen und neue Lebensräume zu besiedeln.
In einem Freilandexperiment haben wir die Besiedlung von Pflanzen durch Arthropoden in Abhängigkeit von Spinnengeruchsstoffen untersucht. Dabei haben wir den Fraß an den Blättern und die Tiergemeinschaften erfasst. Vergleichbar zum Pflanzenwahlversuch im Labor wurde an Pflanzen mit Spinnengeruchstoffen weniger gefressen. Zusätzlich konnten wir Veränderungen in den Tiergemeinschaften feststellen: Kleine Spinnen und die Schwarze Gartenameise (Lasius niger) haben Pflanzen mit Spinnengeruchstoffen gemieden. Im Gegensatz dazu stieg die Anzahl der Arbeiterinnen der Roten Gartenameise (Myrmica rubra), möglicherweise um ihre Blattläuse gegen die drohende Gefahr zu verteidigen.
Obwohl Verhaltensänderungen auf Filterpapieren mit Spinnengeruchstoffen selten waren, haben unsere Experimente unter natürlicheren Bedingungen deutliche und weitreichende Reaktionen auf die mögliche Anwesenheit von Spinnen (Risikoeffekte) gezeigt. Unsere Resultate legen nahe, dass Risikoeffekte von Räuber die räumliche Verteilung von Pflanzenfraß verändern. Die Gesamtherbivorie wurde allerdings nicht reduziert, was erwartet wird wenn Räuber Pflanzenfresser töten. Wie stark sich Prädation und Risikoeffekte relativ auf die Beute auswirken ist entscheidend für den Einfluss von Räuber auf niedrigere Nahrungsebenen.
Initial goal of the current dissertation was the determination of image-based biomarkers sensitive for neurodegenerative processes in the human brain. One such process is the demyelination of neural cells characteristic for Multiple sclerosis (MS) - the most common neurological disease in young adults for which there is no cure yet. Conventional MRI techniques are very effective in localizing areas of brain tissue damage and are thus a reliable tool for the initial MS diagnosis. However, a mismatch between the clinical fndings and the visualized areas of damage is observed, which renders the use of the standard MRI diffcult for the objective disease monitoring and therapy evaluation. To address this problem, a novel algorithm for the fast mapping of myelin water content using standard multiecho gradient echo acquisitions of the human brain is developed in the current work. The method extents a previously published approach for the simultaneous measurement of brain T1, T∗ 2 and total water content. Employing the multiexponential T∗ 2 decay signal of myelinated tissue, myelin water content is measured based on the quantifcation of two water pools (myelin water and rest) with different relaxation times. Whole brain in vivo myelin water content maps are acquired in 10 healthy controls and one subject with MS. The in vivo results obtained are consistent with previous reports. The acquired quantitative data have a high potential in the context of MS. However, the parameters estimated in a multiparametric acquisition are correlated and constitute therefore an ill-posed, nontrivial data analysis problem. Motivated by this specific problem, a new data clustering approach is developed called Nuclear Potential Clustering, NPC. It is suitable for the explorative analysis of arbitrary dimensional and possibly correlated data without a priori assumptions about its structure. The developed algorithm is based on a concept adapted from nuclear physics. To partition the data, the dynamic behavior of electrically even charged nucleons interacting in a d-dimensional feature space is modeled. An adaptive nuclear potential, comprised of a short-range attractive (Strong interaction) and a long-range repulsive term (Coulomb potential), is assigned to each data point. Thus, nucleons that are densely distributed in space fuse to build nuclei (clusters), whereas single point clusters are repelled (noise). The algorithm is optimized and tested in an extensive study with a series of synthetic datasets as well as the Iris data. The results show that it can robustly identify clusters even when complex configurations and noise are present. Finally, to address the initial goal, quantitative MRI data of 42 patients are analyzed employing NPC. A series of experiments with different sets of image-based features show a consistent grouping tendency: younger patients with low disease grade are recognized as cohesive clusters, while those of higher age and impairment are recognized as outliers. This allows for the definition of a reference region in a feature space associated with phenotypic data. Tracking of the individual's positions therein can disclose patients at risk and be employed for therapy evaluation.
Über 10.000 verschiedene organische Substanzen wie Arzneistoffe, Inhaltsstoffe von Körperpflegemitteln und Biozide werden regelmäßig im Alltag eingesetzt. Die meisten Substanzen gelangen nach ihrer Verwendung in das häusliche Abwasser. Bisherige wissenschaftliche Untersuchungen haben ergeben, dass eine konventionelle biologische Abwasserreinigung in kommunalen Kläranlagen keine ausreichende Barriere für die Emission dieser anthropogenen Stoffe in die Oberflächengewässer darstellt.
Dies birgt unvorhersehbare Risiken für die aquatischen Lebensgemeinschaften und die Trinkwasserversorgung. Hinsichtlich ihres Vorkommens und Verhaltens in kommunalen Kläranlagen besteht daher insbesondere für erst kürzlich eingeführte und/oder in der Umwelt nachgewiesene Spurenstoffe (sogenannte "neuartige" Spurenstoffe, engl.: "emerging micropollutants") ein großer Forschungsbedarf. Um ein möglichst umfassendes Bild vom Verhalten neuartiger organischer Spurenstoffe in der kommunalen Abwasserbehandlung zu erhalten, wurden im Rahmen dieser Dissertation die folgenden Substanzklassen, welche ein weites Spektrum an physiko-chemischen Eigenschaften aufweisen, untersucht: Arzneistoffe (Betablocker und psychoaktive Substanzen), UV-Filtersubstanzen, Vulkanisationsbeschleuniger (Benzothiazole), Biozide (Antischuppenmittel, Konservierungsmittel, Desinfektionsmittel) und Pestizide (Phenylharnstoff- und Triazinherbizide).
Bäche gehören zu den gefährdetsten Ökosystemen, da sie diversen anthropogenen Stressoren ausgesetzt sind, wobei Pestizide für landwirtschaftliche Bäche am relevantesten erscheinen. Aufgrund der Diskrepanz zwischen modellierten und gemessenen Pestizid-konzentrationen ist Monitoring nötig um zukünftige Risikobewertungen und Zulassungen zu verbessern. Festzustellen ob biotische Stressreaktionen über große räumliche und zeitliche Skalen ähnlich sind, ist nötig um Schwellenwerte zum Schutz vor Stressoren abzuschätzen.
Diese Doktorarbeit beginnt mit einem Überblick über Pestizideintrittspfade in Bäche, sowie dem momentanen Stand des Pestizidmonitorings gefolgt von der Zielsetzung der Doktorarbeit. In Kapitel 2 werden Ergebnisse aus Schöpfproben von Routinemonitoring mehrerer Länder analysiert um die häufigsten Pestizidmischungen zu identifizieren. Diese Mischungen werden von wenigen Pestiziden gebildet, wobei Herbizide dominieren. Die nachgewiesenen Mischungen unterscheiden sich regional, da Nachweisgrenzen und Stoffumfang variieren. Aktuelles Routinemonitoring umfasst bisher keine Probenahmen während durch Starkregenereignisse hervorgerufene Pestizidspitzen, die wahrscheinlich Pestizidmischungen beeinflussen. In Kapitel 3 werden Sammelraten für 42 Pestizide bei der Benutzung von Passiv-sammlern vorgestellt und Empfehlungen zum Monitoring von feldrelevanten Pestizidspitzen gegeben. Damit konnte in Kapitel 4 ein Pestizidgradient in einer osteuropäischen Region aufgestellt werden in der die Landwirtschaftsintensität von niedrig bis hoch reicht. Dabei wurden Regenereignisse beprobt und eine Vielzahl von Pestiziden analysiert. Dies führte zu vielen gleichzeitig nachgewiesenen Pestiziden, von denen ein bis drei die Pestizidtoxizität bestimmten. Diese zeigte jedoch keinen Zusammenhang zur landwirtschaftlichen Intensität. Durch Mikrokosmenexperimente wurde in Kapitel 5 die Stressantwort von Pilzgemeinschaften, den Hyphomyceten, und deren assoziierter Ökosystemfunktion des Laubabbaus untersucht. Effekte einer feldrelevanten Fungizidmischung wurde über drei biogeographische Regionen sowie drei aufeinanderfolgende Zyklen von mikrobieller Laubkolonisation und -abbau untersucht. Trotz anfänglich unterschiedlichen Gemeinschaften waren Stressantworten sowie Erholungen in den untersuchten Regionen ähnlich, was auf ein generelles Muster hindeutet.
Insgesamt trägt diese Doktorarbeit zum verbesserten Verständnis von Vorkommen und Konzentrationen von Pestizidmischungen, deren Monitoring sowie ihren Auswirkungen auf eine Ökosystemfunktion bei. Wir konnten zeigen, dass die abgeschätzten Pestizidtoxizitäten potentiell Nichtzielorganismen und somit ganze Ökosystem beeinflussen. Routinemonitoring unterschätzt diese Gefahr bisher jedoch wahrscheinlich. Effekte, welche Verluste in Biodiversität sowie Funktionen hervorrufen, können verringert werden indem zugelassene Pestizide mit anhaltendem Monitoring neu bewertet werden und die Datenlage zu Pestizidwirkungen verbessert wird.
Viele Menschen kommunizieren und interagieren zunehmend über soziale Online-Netzwerke wie Twitter oder Facebook, oder tauschen Meinungen mit Freunden oder auch Fremden aus. Durch die zunehmende Verfügbarkeit des Internets wird auch Wissen für immer mehr Menschen offen verfügbar gemacht. Beispiele hierfür sind die Online-Enzyklopädie Wikipedia oder auch die vielfältigen Informationen in diversen Webforen und Webseiten. Diese zwei Netzwerkkategorien - Soziale Netzwerke und Wissensnetzwerke - verändern sich sehr schnell. Fast sekündlich befreunden sich neue Nutzer in sozialen Netzwerken und Wikipedia-Artikel werden überarbeitet und neu mit anderen Artikeln verlinkt. Diese Änderungen an der Verlinkung von Menschen oder Wissensbausteinen folgen bestimmten strukturellen Regeln und Charakteristiken, die weit weniger zufällig sind als man zunächst annehmen würde.
Das Ziel dieser Doktorarbeit ist es, drei charakteristische Verlinkungsmuster in diesen zwei Netzwerkkategorien vorherzusagen: das Hinzufügen von neuen Verlinkungen, das Entfernen bestehender Verbindungen und das Vorhandensein von latent negativen Verlinkungen. Zunächst widmen wir uns dem relativ neuen Problem der Vorhersage von Entlinkungen in einem Netzwerk. Hierzu gibt es zahlreiche soziologische Vorarbeiten, die nahelegen, dass die Ursachen zur Entstehung von Beziehungsabbrüchen komplementär zu den Gründen für neue Beziehungen sind. Obwohl diese Arbeiten eine strukturelle Ähnlichkeit der Probleme vermuten lassen, zeigen wir, dass beide Probleme nicht komplementär zueinander sind. Insbesondere zeigen wir, dass das dynamische Zusammenspiel von neuen Verlinkungen und Entlinkungen in Netzwerken durch die vier Zustände des Wachstums, des Zerfalls, der Stabilität und der Instabilität charakterisiert ist. Für Wissensnetzwerke zeigen wir, dass die Vorhersagbarkeit von Entlinkungen deutlich verbessert wird, wenn zeitliche Informationen wie der Zeitpunkt von einzelnen Netzwerkergeignissen mit genutzt werden. Wir präsentieren und evaluieren hierfür insgesamt vier verschiedene Strategien, die von zeitlichen Informationen Gebrauch machen. Für soziale Netzwerke analysieren wir, welche strukturellen Einflussfaktoren zur Entstehung und Löschung von Links zwischen Benutzern in Twitter indikativ sind. Auch hier zeigt sich, dass zeitliche Informationen darüber, dass eine Kante schon einmal gelöscht wurde, die Vorhersagbarkeit von Verlinkungen und insbesondere Entlinkungen enorm verbessert. Im letzten Teil der Doktorarbeit zeigen wir, wie negative Beziehungen (beispielsweise Misstrauen oder Feindschaft) aus positiven Beziehungen zwischen Nutzern (etwa Vertrauen und Freundschaft) abgeleitet werden können. Dies ist besonders relevant für Netzwerke, in denen nur positive Beziehungen kenntlich gemacht werden können. Für dieses Szenario zeigen wir, wie latent negative Beziehungen zwischen Nutzern dennoch erkannt werden können.
While reading this sentence, you probably gave (more or less deliberately) instructions to approximately 100 to 200 muscles of your body. A sceptical face or a smile, your fingers scrolling through the text or holding a printed version of this work, holding your head, sitting, and much more.
All these processes take place almost automatically, so they seem to be no real achievement. In the age of digitalization it is a defined goal to transfer human (psychological and physiological) behavior to machines (robots). However, it turns out that it is indeed laborious to obtain human facial expression or walking from robots. To optimize this transfer, a deeper understanding of a muscle's operating principle is needed (and of course an understanding of the human brain, which will, however, not be part of this thesis).
A human skeletal muscle can be shortened willingly, but not lengthened, thereto it takes an antagonist. The muscle's change in length is dependent on the incoming stimulus from the central nervous system, the current length of the muscle itself, and certain muscle--specific quantities (parameters) such as the maximum force. Hence, a muscle can be mathematically described by a differential equation (or more exactly a coupled differential--algebraic system, DAE), whose structure will be revealed in the following chapters. The theory of differential equations is well-elaborated. A multitude of applicable methods exist that may not be known by muscle modelers. The purpose of this work is to link the methods from applied mathematics to the actual application in biomechanics.
The first part of this thesis addresses stability theory. Let us remember the prominent example from middle school physics, in which the resting position of a ball was obviously less susceptible towards shoves when lying in a bowl rather than balancing at the tip of a hill. Similarly, a dynamical (musculo-skeletal) system can attain equilibrium states that react differently towards perturbations.
We are going to compute and classify these equilibria.
In the second part, we investigate the influence of individual parameters on model equations or more exactly their solutions. This method is known as sensitivity analysis.
Take for example the system "car" containing a value for the quantity "pressure on the break pedal while approaching a traffic light". A minor deviation of this quantity upward or downward may lead to an uncomfortable, abrupt stop or even to a collision, instead of a smooth stop with a sufficient gap.
The considered muscle model contains over 20 parameters that, if changed slightly, have varying effects on the model equation solutions at different instants of time. We will investigate the sensitivity of those parameters regarding different sub--models, as well as the whole model among different dynamical boundary conditions.
The third and final part addresses the \textit{optimal control} problem (OCP).
The muscle turns a nerve impulse (input or control) into a length change and therefore a force response (output). This forward process is computable by solving the respective DAE. The reverse direction is more difficult to manage. As an everyday example, the OCP is present regarding self-parking cars, where a given path is targeted and the controls are the position of the
steering wheel as well as the gas pedal.
We present two methods of solving OCPs in muscle modeling: the first is a conjunction of variational calculus and optimization in function spaces, the second is a surrogate-based optimization.
The stands surveyed are among the last closed canopy forests in Rwanda. Their exploration began in the early twentieth century and is still ongoing. Previous studies were mainly concerned with plant sociological issues and presented references to environmental factors in anecdotal form, at best using indirect ordination methods. The present study undertakes a classification of the vegetation with numerical methods and establishes quantitative relationships of the species’ distributional structure to environmental parameters using spatially explicit procedures. For this purpose, 94 samples were taken in 100 m² hexagonal plots. Of these, 70 samples are from Nyungwe, 14 are from Gishwati, and 10 are from Cyamudongo. Given the homogeneity of the terrain and vegetation, all vegetation types encountered, all types of stands, and all vegetation strata were included. The beta diversity is expressed by an average Bray-Curtis dissimilarity of 0.92, and in JOST’S (2007) numbers equivalents, 37.90 equally likely samples would be needed to represent the diversity encountered. Within the survey, 1198 species in 127 families were collected. Among the specimens are 6 local endemics and 40 Albertine Rift endemics. Resulting from UPGMA and FCM-NC, 20 to 40 plant communities were established depending on the level of resolution. It can be inferred by means of a Mantel correlogram that the mean zone of influence of a single vegetation stand, as sampled by a 100 m² plot in Nyungwe Forest, ranges between 0.016 and 3.42 km. Of the communities compiled using FCM-NC and UPGMA, 50% consist of individual samples. Beyond undersampling, natural small-scale discontinuities are reflected by this result. Partial db-RDA resulted in an explained variation of 9.60% and 14.41% for environmental and soil factors, respectively. Utilising variation partitioning analyses based on CCA and tb-RDA, between 21.70% and 37.80% of the variation in vegetation data could be explained. The spatially structured fraction of these parameters accounts for between 30.50% and 49.80% of the explained variation (100%). The purely environmental parameters account for a share of 10.30% to 16.30%, whereby the lower limit originates from the unimodal approach and has lost its statistical significance. The soil variables, also after partial analysis, account for a share of 19.00% to 35.70%. While the residual impact of the climatic parameters is hardly significant, the effect of the soil properties is prevalent. In general, the spatially structured fraction of the parameters is predominant here. While on the broad-scale climatic factors, the altitude a.s.l. and the geology are determining factors, some soil parameters and matrix components also show their impacts here. In the mid-range of the scale, it is the forest matrix, the soil types, and the geology that determine species distribution. While in the fine range of the scale, some unrecorded parameters seem to have an effect, there are also neutral processes that determine species composition.
In Part I: "The flow-decomposition problem", we introduce and discuss the flow-decomposition problem. Given a flow F, this problem consists of decomposing the flow into a set of paths optimizing specific properties of those paths. We introduce different types of decompositions, such as integer decompositions and alpha-decompositions, and provide two formulations of the set of feasible decompositions.
We show that the problem of minimizing the longest path in a decomposition is NP-hard, even for fractional solutions. Then we develop an algorithm based on column generation which is able to solve the problem.
Tight upper bounds on the optimal objective value help to improve the performance.
To find upper bounds on the optimal solution for the shortest longest path problem, we develop several heuristics and analyze their quality. On pearl graphs we prove a constant approximation ratio of 2 and 3 respectively for all heuristics. A numerical study on random pearl graphs shows that the solutions generated by the heuristics are usually much better than this worst-case bound.
In Part II: "Construction and analysis of evacuation models using flows over time", we consider two optimization models in the context of evacuation planning. The first model is a parameter-based quickest flow model with time-dependent supply values. We give a detailed description of the network construction and of how different scenarios are modeled by scenario parameters. In a second step we analyze the effect of the scenario parameters on the evacuation time. Understanding how the different parameters influence the evacuation time allows us to provide better advice for evacuation planning and allows us to predict evacuation times without solving additional optimization problems. To understand the effect of the time-dependent supply values, we consider the quickest path problem with time-dependent supply values and provide a solution algorithm. The results from this consideration are generalized to approximate the behavior of the evacuation times in the context of quickest flow problems.
The second model we consider is a path-based model for evacuation in the presence of a dynamic cost function. We discuss the challenges of this model and provide ideas for how to approach the problem from different angles. We relate the problem to the flow-decomposition problem and consider the computation of evacuation paths with dynamic costs for large capacities. For the latter method we provide heuristics to find paths and compare them to the optimal solutions by applying the methods to two evacuation scenarios. An analysis shows that the paths generated by the heuristic yield close to optimal solutions and in addition have several desirable properties for evacuation paths which are not given for the optimal solution.
On the recognition of human activities and the evaluation of its imitation by robotic systems
(2023)
This thesis addresses the problem of action recognition through the analysis of human motion and the benchmarking of its imitation by robotic systems.
For our action recognition related approaches, we focus on presenting approaches that generalize well across different sensor modalities. We transform multivariate signal streams from various sensors to a common image representation. The action recognition problem on sequential multivariate signal streams can then be reduced to an image classification task for which we utilize recent advances in machine learning. We demonstrate the broad applicability of our approaches formulated as a supervised classification task for action recognition, a semi-supervised classification task for one-shot action recognition, modality fusion and temporal action segmentation.
For action classification, we use an EfficientNet Convolutional Neural Network (CNN) model to classify the image representations of various data modalities. Further, we present approaches for filtering and the fusion of various modalities on a representation level. We extend the approach to be applicable for semi-supervised classification and train a metric-learning model that encodes action similarity. During training, the encoder optimizes the distances in embedding space for self-, positive- and negative-pair similarities. The resulting encoder allows estimating action similarity by calculating distances in embedding space. At training time, no action classes from the test set are used.
Graph Convolutional Network (GCN) generalized the concept of CNNs to non-Euclidean data structures and showed great success for action recognition directly operating on spatio-temporal sequences like skeleton sequences. GCNs have recently shown state-of-the-art performance for skeleton-based action recognition but are currently widely neglected as the foundation for the fusion of various sensor modalities. We propose incorporating additional modalities, like inertial measurements or RGB features, into a skeleton-graph, by proposing fusion on two different dimensionality levels. On a channel dimension, modalities are fused by introducing additional node attributes. On a spatial dimension, additional nodes are incorporated into the skeleton-graph.
Transformer models showed excellent performance in the analysis of sequential data. We formulate the temporal action segmentation task as an object detection task and use a detection transformer model on our proposed motion image representations. Experiments for our action recognition related approaches are executed on large-scale publicly available datasets. Our approaches for action recognition for various modalities, action recognition by fusion of various modalities, and one-shot action recognition demonstrate state-of-the-art results on some datasets.
Finally, we present a hybrid imitation learning benchmark. The benchmark consists of a dataset, metrics, and a simulator integration. The dataset contains RGB-D image sequences of humans performing movements and executing manipulation tasks, as well as the corresponding ground truth. The RGB-D camera is calibrated against a motion-capturing system, and the resulting sequences serve as input for imitation learning approaches. The resulting policy is then executed in the simulated environment on different robots. We propose two metrics to assess the quality of the imitation. The trajectory metric gives insights into how close the execution was to the demonstration. The effect metric describes how close the final state was reached according to the demonstration. The Simitate benchmark can improve the comparability of imitation learning approaches.
In dieser Doktorarbeit beschreibe ich das spektrale Verhalten von großen, dynamischen Netzwerken und formuliere das spektrale Evolutionsmodell. Das spektrale Evolutionsmodell beschreibt das Wachstum von Netzwerken, die sich im Laufe der Zeit ändern, und charakterisiert ihre Eigenwert-und Singulärwertzerlegung. Das spektrale Evolutionsmodell sagt aus, dass im Laufe der Zeit die Eigenwerte eines Netzwerks wachsen, und die Eigenvektoren nahezu konstant bleiben. Ich validiere das spektrale Evolutionsmodell empirisch mit Hilfe von über einhundert Netzwerkdatensätzen, und theoretisch indem ich zeige,dass es eine gewisse Anzahl von bekannten Algorithmen zur Kantenvorhersage verallgemeinert, darunter Graph-Kernel, Pfad-Zähl-Methoden, Rangreduktion und Triangle-Closing.
Die Sammlung von Datensätzen, die ich verwende enthält 118 distinkte Datensätze. Ein Datensatz, das soziale Netzwerk mit negativen Kanten des Slashdot-Zoo, wurde speziell während des Verfassens dieser Arbeit extrahiert. Ich zeige auch, dass das spektrale Evolutionsmodell als Generalisierung des Preferential-Attachment-Modells verstanden werden kann, wenn Wachstum in latenten Dimensionen einzeln betrachtet wird. Als Anwendungen des spektralen Evolutionsmodells führe ich zwei neue Algorithmen zur Kantenvorhersage ein, die in Empfehlungssystemen, Suchmaschinen, im Collaborative-Filtering, für die Vorhersage von Bewertungen, für die Vorhersage von Kantenvorzeichen und mehr verwendet werden können. Der erste Kantenvorhersagealgorithmus ergibt ein eindimensionales Curve-Fitting-Problem, aus dem eine spektrale Transformation gelernt wird. Die zweite Methode verwendet Extrapolation von Eigenwerten, um zukünftige Eigenwerte vorherzusagen. Als Spezialfälle zeige ich, dass das spektrale Evolutionsmodell auf gerichtete, ungerichtete, gewichtete, ungewichtete, vorzeichenbehaftete und bipartite Graphen erweitert werden kann. Für vorzeichenbehaftete Graphen führe ich neue Anwendungen der Laplace-Matrix zur Graphzeichnung, zur spektralen Clusteranalyse, und beschreibe neue Laplace-Graph-Kernel, die auf vorzeichenbehaftete Graphen angewendet werden können.
Ich definiere dazu den algebraischen Konflikt, ein Maß für den Konflikt, der in einem vorzeichenbehafteten Graphen vorhanden ist, und das auf der vorzeichenbehafteten Laplace-Matrix begründet ist. Ich beschreibe das Problem der Vorhersage von Kantenvorzeichen spektral, und führe die vorzeichenbehaftete Widerstands-Distanz ein. Für bipartite und gerichtete Graphen führe ich den Sinus-Hyperbolicus-und ungeraden Neumann-Kernel ein, welche den Exponential- und den Neumann-Kernel für ungerichtete unipartite Graphen verallgemeinern. Ich zeige zudem, dass das Problem der gerichteten und bipartiten Kantenvorhersage verwandt sind, dadurch dass beide durch die Evolution der Singulärwertzerlegung gelöst werden können.
Das Stereotype Content Modell (SCM, Fiske et al., 2002) schlägt zwei fundamentale Dimensionen der sozialen Wahrnehmung vor: Wärme, also die freundliche oder feindliche Intention des Bewertungsobjekts, und Kompetenz, also die Fähigkeit, besagte Intentionen in die Tat umzusetzen. Die praktischen Anwendungen des SCMs sind sehr weitreichend und haben zu der Annahme geführt, Wärme und Kompetenz seien universelle Dimensionen der sozialen Bewertung.
Die vorliegende Doktorarbeit hat fünf vor allem methodologische Schwächen der SCM- Forschung und -Literatur identifiziert: (I) Eine unzureichende anfängliche Skalenentwicklung; (II) die Nutzung variierender Skalen ohne hinreichende Prüfung der Skalenperformanz in der anschließenden SCM-Forschung; (III) die vorherrschende Nutzung von Analysemethoden der ersten Generation; (IV) die unzureichende Definition und empirische Testung der Universalitätsannahme des SCM; (V) die eingeschränkte Anwendung des SCM in Bezug auf einige soziale Gruppen. Diese Schwächen wurden in vier wissenschaftlichen Artikelmanuskripten aufgegriffen, welche allesamt streng den Empfehlungen der offenen Wissenschaft folgten.
Manuskript # 1 nutzte veröffentlichte Daten von englischen SCM-Skalen, um die Mess-Eigenschaften der genutzten Wärme- und Kompetenz-Skalen zu reanalysieren. Das Manuskript berichtet die Skalenreliabilität, -Dimensionalität und Vergleichbarkeit der Skalen über verschiedene Bewertungsobjekte hinweg sowie verschiedene Performanz-Parameter der einzelnen Indikatoren auf im Rahmen einer (Multi-Gruppen-) konfirmatorischen Faktor-Analyse. Die Befunde zeigen, dass zwei Drittel aller reanalysierten Skalen nicht die theoretisch angenommene Wärme- und Kompetenz-Dimensionalität haben. Weiterhin zeigten nur elf Prozent aller Skalen die Voraussetzungen für aussagekräftige Mittelwertsvergleiche zwischen Bewertungsobjekten. Manuskript # 2 beschreibt eine Replikation von Manuskript # 1 im deutschsprachigen Landes- und Sprachkontext und zeigt nahezu identische Ergebnisse wie Manuskript # 1. Manuskript # 3 untersucht die soziale Wahrnehmung von Subgruppen von Geflüchteten in Deutschland. Wir konnten zeigen, dass die soziale Kategorie der Geflüchteten generell unvorteilhaft in Bezug auf Wärme und Kompetenz wahrgenommen wurde, aber dass die soziale Wahrnehmung der Subgruppen von Geflüchteten sich in Abhängigkeit der geografischen Herkunft, der religiösen Zugehörigkeit und der Fluchtgründe unterschied. Diese Befunde wurden durch die Nutzung eines Reliabilitäts-korrigierenden Verfahrens zum Vergleich von Mittelwerten namens Alignment-Optimierung generiert. Manuskript # 4 entwickelte und testete eine leistungsfähige SCM-Skala zur Erfassung von Stereotypen von Berufsgruppen mittels explorativer und konfirmatorischer Faktorenanalysen.
The decline of biodiversity can be observed worldwide and its consequences are alarming. It is therefore crucial that nature must be protected and, where possible, restored. A wide variety of different project options are possible. Yet in the context of limited availability of resources, the selection of the most efficient measures is increasingly important. For this purpose, there is still a lack of information. This pertains, as outlined in the next paragraph, in particular, to information at different scales of projects.
Firstly, there is a lack of information on the concrete added value of biodiversity protection projects. Secondly, there is a lack of information on the actual impacts of such projects and on the costs and benefits associated with a project. Finally, there is a lack of information on the links between the design of a project, the associated framework conditions and the perception of specific impacts. This paper addresses this knowledge gap by providing more information on the three scales by means of three empirical studies on three different biodiversity protection projects in order to help optimize future projects.
The first study “Assessing the trade-offs in more nature-friendly mosquito control in the Upper Rhine region” examines the added value of a more nature-friendly mosquito control in the Upper Rhine Valley of Germany using a contingent valuation method. Recent studies show that the widely used biocide Bti, which is used as the main mosquito control agent in many parts of the world, has more negative effects on nature than previously expected. However, it is not yet clear whether the population supports a more nature-friendly mosquito control, as such an adaptation could potentially lead to higher nuisance. This study attempts to answer this question by assessing the willingness to pay for an adapted mosquito control strategy that reduces the use of Bti, while maintaining nuisance protection within settlements. The results show that the majority of the surveyed population attaches a high value to a more nature-friendly mosquito control and is willing to accept a higher nuisance outside of the villages.
The second study “Inner city river restoration projects: the role of project components for acceptance” examines the acceptance of a river restoration project in Rhineland-Palatinate, Germany. Despite much effort, many rivers worldwide are still in poor condition. Therefore, a rapid implementation of river restoration projects is of great importance. In this context, acceptance by society plays a fundamental role, however, the factors determining such acceptance are still poorly understood. In particular, the complex interplay between the acceptance or rejection of specific project components and the acceptance of the overall project require further exploration. This study addresses this knowledge gap by assessing the acceptance of the project, its various ecological and social components, and the perception of real and fictitious costs as well as the benefits of the components. Our findings demonstrate that while acceptance of the overall project is generally rather high, many respondents reject one or more of the project's components. Complementary social project components, like a playground, find less support than purely ecological components. Overall, our research shows that complementary components may increase or decrease acceptance of the overall project. We, furthermore, found that differences in the acceptance of the individual components depend on individual concerns, such as perceived flood risk, construction costs, expected noise and littering as well as the quality of communication, attachment to the site, and the age of the respondents.
The third study “What determines preferences for semi-natural habitats in agrarian landscapes? A choice-modelling approach across two countries using attributes characterizing vegetation” investigates people's aesthetic preferences for semi-natural habitats in agricultural landscapes. The EU-Common Agricultural Policy promotes the introduction of woody and grassy semi-natural habitats (SNH) in agricultural landscapes. While the benefits of these structures in terms of regulating ecosystem services are already well understood, the effects of SNH on visual landscape quality is still not clear. This study investigates the factors determining people’s visual preferences in the context of grassy and woody SNH elements in Swiss and Hungarian landscapes using picture-based choice experiments. The results suggest that respondents’ choices strongly depend on specific vegetation characteristics that appear and disappear over the year. In particular, flowers as a source of colours and green vegetation as well as ordered structure and the proportion of uncovered soil in the picture play an important role regarding respondents’ aesthetic perceptions of the pictures.
The three empirical studies can help to make future projects in the study areas of biodiversity protection more efficient. While this thesis highlights the importance of exploring biodiversity protection projects at different scales, further analyses of the different scales of biodiversity protection projects are needed to provide a sound basis to develop guidance on identifying the most efficient biodiversity protection projects.
Fresh water resources like rivers and reservoirs are exposed to a drastically changing world. In order to safeguard these lentic ecosystems, they need stronger protection in times of global change and population growth. In the last years, the exploitation pressure on drinking water reservoirs has increased steadily worldwide. Besides securing the demands of safe drinking water supply, international laws especially in Europe (EU Water Framework Directive) stipulate to minimize the impact of dams on downstream rivers. In this study we investigate the potential of a smart withdrawal strategy at Grosse Dhuenn Reservoir to improve the temperature and discharge regime downstream without jeopardizing drinking water production. Our aim is to improve the existing withdrawal strategy for operating the reservoir in a sustainable way in terms of water quality and quantity. First, we set-up and calibrated a 1D numerical model for Grosse Dhuenn Reservoir with the open-source community model “General Lake Model” (GLM) together with its water quality module “Aquatic Ecodynamics” library (AED2). The reservoir model reproduced water temperatures and hypolimnetic dissolved oxygen concentrations accurately over a 5 year period. Second, we extended the model source code with a selective withdrawal functionality (adaptive offtake) and added operational rules for a realistic reservoir management. Now the model is able to autonomously determine the best withdrawal height according to the temperature and flow requirements of the downstream river and the raw water quality objectives. Criteria for the determination of the withdrawal regime are selective withdrawal, development of stratification and oxygen content in the deep hypolimnion. This functionality is not available in current reservoir models, where withdrawal heights are generally provided a priori to the model and kept fixed during the simulation. Third, we ran scenario simulations identifying an improved reservoir withdrawal strategy to balance the demands for downstream river and raw water supply. Therefore we aimed at finding an optimal parallel withdrawal ratio between cold hypolimnetic water and warm epilimnetic or metalimnetic water in order to provide a pre-defined temperature in the downstream river. The reservoir model and the proposed withdrawal strategy provide a simple and efficient tool to optimize reservoir management in a multi-objective view for mastering future reservoir management challenges.
Bei einigen Arzneimittel (z.B. Antibiotika, Kontrastmittel, Betablocker) wird ein Teil des Wirkstoffs unmetabolisiert ausgeschieden und gelangt so über das Abwasser in kommunale Kläranlagen. Studien haben gezeigt, dass viele dieser Wirkstoffe durch eine konventionelle Abwasserbehandlung nicht effektiv abgebaut werden und somit in Oberflächengewässern nachweisbar sind. Eines der effektivsten Verfahren zur Entfernung organischer Mikroverunreinigungen und Mikroorganismen ist die Umkehrosmose. Ein bedeutender Nachteil dieses Verfahrens ist die Entsorgung der anfallenden Konzentrate, die erhöhte Konzentrationen von Mikroverunreinigungen und Mikroorganismen enthalten können. Dabei ist nicht auszuschließen, dass eine direkte Einleitung dieser Konzentrate das Ökosystem eines Gewässers schädigt. Um dieses Risiko zu minimieren, wäre eine gesonderte Behandlung des Konzentrats vor der Einleitung sinnvoll. In der hier vorliegenden Arbeit wurde die Ozonung als mögliches Oxidationsverfahren untersucht. Die untersuchten Konzentratproben stammen aus einer Kläranlage, in der der Ablauf nach Umkehrosmosebehandlung in das Grundwasser infiltriert wird. Durch die Untersuchungen konnte gezeigt werden, dass durch die angewendeten Ozondosen die ausgewählten Arzneistoffe weitgehend oxidiert wurden, obwohl das Umkehrosmosekonzentrat einen sehr hohen TOC "Gehaltes von bis zu 46 mg/L aufwies. Zur Vorbeugung von Membranfouling wird Membrananlagenzuläufen, in diesem Fall dem Kläranlagenablauf, häufig Chlor zugesetzt. Eine Vergleichsstudie mit vorchlorierten und nicht vorchlorierten Kläranlagenabläufen zeigte einen Anstieg der Ozonstabilität nach der Chlorierung. Daraus resultierte aber auch eine Abnahme an OH-Radikalen. Die höhere Ozonstabilität könnte dazu führen, dass über eine direkte Ozonreaktion die Oxidation von Stoffen mit einer höheren Geschwindigkeitskonstante zweiter Ordnung bevorzugt würde. Der Abbau der Stoffe, die hauptsächlich über OH-Radikale oxidiert werden, würde dann gleichzeitig herabgesetzt. Für die Wirkstoffgruppe der Betablocker, die permanent in Kläranlagenabläufen nachweisbar ist, wurden die Geschwindigkeitskonstanten mit Ozon- sowie OH-Radikalen ermittelt. Untersucht wurden Acebutolol, Atenolol, Metoprolol und Propranolol. Betablocker enthalten zwei funktionelle Gruppen, die reaktiv gegenüber Ozon sind, zum einen ein sekundäres Amin und zum anderen einen aktivierten aromatischen Ring. Die Amingruppe ist dafür verantwortlich, dass die Geschwindigkeit der Ozonreaktion pH-Wert abhängig ist, da nur das deprotonierte Amin schnell mit Ozon reagieren kann. Die Geschwindigkeitskonstante für die Reaktion von Acebutolol, Atenolol and Metoprolol mit Ozon liegt bei etwa 2000 M-1 s-1, wo hingegen Propranolol mit ~1.0 105 M-1 s-1 etwa zwei Größenordnungen schneller reagiert. Die Konstanten für die Reaktionen mit OH-Radikalen liegen bei 0.5-1.0 × 1010 M-1 s-1. Die während der Ozonreaktion von Metoprolol und Propranolol gebildeten Oxidationsprodukte (OPs) wurden über HPLC-Tandem-MS identifiziert. Die Ozonreaktionen führten zur Bildung 23 OPs im Fall des Metoprolols und etwa 30 OPs beim Propranolol. Um die Auswirkung des pH-Wertes sowie der OH-Radikalreaktion auf die OP-Bildung zu untersuchen, wurden die Experimente bei pH 3 und 8, sowie mit und ohne Zugabe des Radikalfängers tert-Butanol durchgeführt. Die Menge der gebildeten OH-Radikale wurde durch den Zusatz von para-Chlorbenzoesäure ermittelt. Metoprolol: Der Einfluss des protonierten und des nicht protonierten Metoprolols auf die Menge der gebildeten OH-Radikale wurde über einen Vergleich der gemessenen para-Chlorbenzoesäureabnahme mit modellierten Werten ermittelt (Model: Acuchem). Es lassen sich dabei bessere Übereinstimmungen erzielen, wenn die Modelannahmen bei der primären Ozonreaktion des nicht protonierten Moleküls auf einer stöichiometrischen Bildung eines OH-Radikalvorproduktes (•O2-) basieren. Die Modellierung der Reaktion der protonierten Spezies unterstützt ebenfalls die These der Bildung des Vorproduktes •O2-, allerdings in unterstöichiometrischer Menge. Die Untersuchung eines Abwassers und eines Kläranlagenablaufs, die mit 10 μmol/L Metoprolol versetzt wurden, zeigte eine OP-Bildung ähnlich der bei pH 8 ohne Radikalfängerzugabe. Dies deutet auf einen signifikanten Einfluss der OH-Radikalreaktion für die Bildung der OP in realer Abwassermatrix hin. Propranolol: Das primäre OP der Ozonreaktion des Propranolols (OP-291) wird über einen Angriff am Naphthalenring gebildet, der zu einer Ringöffnung und der Bildung zweier Aldehydfunktionen führt. OP-291 wird vermutlich über eine OH-Radikalreaktion weiter zu OP-307 oxidiert, welches anschließend zu OP-281 weitereagiert. Durch die mittels Massenspektrometrie identifizierten chemischen Strukturen der OPs, können die vorgeschlagenen Bildungsreaktionen sowohl über direkte Ozonreaktion als auch über OH-Radikalreaktion bestätigt werden. Als Fazit kann festgestellt werden, dass eine Ozonung eines Kläranlagenablaufes zu der Bildung einer Vielzahl von OPs führt, die alle ein unbekanntes toxikologisches Potential haben (z.B. Bildung von Aldehydfunktionen).
In a world where language defines the boundaries of one's understanding, the words of Austrian philosopher Ludwig Wittgenstein resonate profoundly. Wittgenstein's assertion that "Die Grenzen meine Sprache bedeuten die Grenzen meiner Welt" (Wittgenstein 2016: v. 5.6) underscores the vital role of language in shaping our perceptions. Today, in a globalized and interconnected society, fluency in foreign languages is indispensable for individual success. Education must break down these linguistic barriers, and one promising approach is the integration of foreign languages into content subjects.
Teaching content subjects in a foreign language, a practice known as Content Language Integrated Learning (CLIL), not only enhances language skills but also cultivates cognitive abilities and intercultural competence. This approach expands horizons and aligns with the core principles of European education (Leaton Gray, Scott & Mehisto 2018: 50). The Kultusministerkonferenz (KMK) recognizes the benefits of CLIL and encourages its implementation in German schools (cf. KMK 2013a).
With the rising popularity of CLIL, textbooks in foreign languages have become widely available, simplifying teaching. However, the appropriateness of the language used in these materials remains an unanswered question. If textbooks impose excessive linguistic demands, they may inadvertently limit students' development and contradict the goal of CLIL.
This thesis focuses on addressing this issue by systematically analyzing language requirements in CLIL teaching materials, emphasizing receptive and productive skills in various subjects based on the Common European Framework of Reference. The aim is to identify a sequence of subjects that facilitates students' language skill development throughout their school years. Such a sequence would enable teachers to harness the full potential of CLIL, fostering a bidirectional approach where content subjects facilitate language learning.
While research on CLIL is extensive, studies on language requirements for bilingual students are limited. This thesis seeks to bridge this gap by presenting findings for History, Geography, Biology, and Mathematics, allowing for a comprehensive understanding of language demands. This research endeavors to enrich the field of bilingual education and CLIL, ultimately benefiting the academic success of students in an interconnected world.
Kleine Bäche umfassen den größten Teil der Fließstrecke und des Einzugsgebiets in Gewässernetzen. Sie sind eng mit ihrem Einzugsgebiet verbunden und reagieren empfindlich auf Änderungen des Wasserhaushalts und der Landnutzung. Trotz ihrer geringen wirtschaftlichen Bedeutung sind diese Bäche entscheidend für den ökologischen und chemischen Zustand größerer Gewässer. Obwohl zahlreiche Studien die Auswirkungen anthropogener Stressoren oder Umweltveränderungen untersuchen, mangelt es am Verständnis der natürlichen Bedingungen und Prozesse, welche jedoch die Reaktion eines Baches auf anthropogene oder klimatische Veränderungen entscheidend beeinflussen. Eine der größten Bedrohungen für aquatische Ökosysteme ist der übermäßige anthropogene Eintrag von Nährstoffen. Nährstoffe steuern Nahrungsnetze in erster Linie über die Primärproduzenten und ihre Konsumenten, in kleinen Bächen Periphyton und Grazer. Die Periphyton-Grazer-Interaktion ist der Hauptpfad der autochthonen Produktion in das Nahrungsnetz, und die Stärke dieser Interaktion bestimmt weitgehend die ökologischen Auswirkungen von Nährstoff-einträgen. Daher zielt diese Arbeit darauf ab, wichtige biologische Prozesse der Periphyton-Grazer-Interaktionen zu beleuchten. Ich untersuchte verschiedene Aspekte der Periphyton-Grazer-Interaktionen anhand von Laborexperimenten mit Fokus auf methodischen Fragen und einer Feldstudie, in der ich die benthischen Gemeinschaften drei morphologisch ähnlicher, Phosphor limitierter, natürlicher kleiner Bächen verglich. Mit dem Laborexperiment zur Periphyton-Wachstumsrate konnte ich zeigen, dass das RNA/DNA-Verhältnis von Periphyton als Proxy für dessen Wachstumsrate in kontrollierten Experimenten verwendet und somit dieser wichtigen Prozesses in ökotoxikologische oder ökologische Experimente einbezogen werden kann. Des Weiteren konnte ich zeigen, dass die Fettsäurezusammensetzung von Eintagsfliegen-larven auf Veränderungen der in der Nahrung enthaltenen Fettsäuren innerhalb von zwei Wochen reagiert. Diese schnelle Anpassung der Fettsäurezusammensetzung der Konsumenten zeigt, dass selbst kurzfristige Änderungen der verfügbaren Primärproduzenten wichtige Auswirkungen auf die Versorgung höherer trophischer Ebenen mit physiologisch wichtigen mehrfach ungesättigten Fettsäuren haben. Mit den Ergebnissen der Feldstudie habe ich Lücken im Verständnis der Zusammenhänge zwischen der Phosphorverfügbarkeit im Einzugsgebiet und im Bach unter naturnahen Bedingungen aufgedeckt und gezeigt, dass scheinbar vergleichbare Bäche signifikant unterschiedliche benthische Gemeinschaften aufweisen. Diese Unterschiede wirken sich höchstwahrscheinlich auf die Reaktion der Bäche auf zukünftige Änderungen aus.
Die Biodiversität von Vertebraten nimmt weltweit rapide ab, wobei Amphibien die am stärksten gefährdete Wirbeltiergruppe darstellen. In der EU sind 21 von 89 Amphibienarten bedroht. Die intensiv genutzte europäische Agrarlandschaft ist eine der Hauptursachen für diese Rückgänge. Da die Agrarlandschaft einen bedeutenden Lebensraum für Amphibien darstellt, kann die Exposition zu Pestiziden negative Auswirkungen auf Amphibienpopulationen haben. Derzeit erfordert die europäischen Risikobewertung von Pestiziden für Vertebraten spezifische Ansätze für Fische hinsichtlich der aquatischen Vertebratentoxizität und für Vögel sowie Säugetiere in Bezug auf die terrestrische Vertebratentoxizität. Die besonderen Eigenschaften von Amphibien werden jedoch nicht berücksichtigt. Daher war das übergeordnete Ziel dieser Arbeit, die
ökotoxikologischen Effekte von Pestiziden auf mitteleuropäische Froschlurche zu untersuchen. Dazu wurden Effekte auf aquatische und terrestrische Amphibienstadien sowie auf deren Reproduktion untersucht. Anschließend wurden in dieser Arbeit in Erwartung einer Risikobewertung von Pestiziden für Amphibien mögliche regulatorische Risikobewertungsansätze diskutiert.
Für die untersuchten Pestizide und Amphibienarten wurde festgestellt, dass die akute aquatische Toxizität von Pestiziden mit dem bestehenden Ansatz der aquatischen Risikobewertung auf der Grundlage von Fischtoxizitätsdaten abgedeckt werden kann. Jedoch wurden bei terrestrischen Juvenilen nach dermaler Exposition zu umweltrealistischen Pestizidkonzentrationen sowohl letale als auch subletale Effekte beobachtet, die mit keinem verfügbaren Risikobewertungsansatz erfasst werden können. Daher sollten Pestizide vor der Zulassung auch auf eine potenzielle terrestrische Toxizität mit Hilfe von Risikobewertungsinstrumenten geprüft werden. Darüber hinaus müssen die Auswirkungen von Bei- und Hilfsstoffen von Pestiziden bei einer zukünftigen Risikobewertung besonders berücksichtigt werden, da sie die Toxizität von Pestiziden gegenüber aquatischen und terrestrischen Amphibienstadien erhöhen können.
Des Weiteren wurde gezeigt, dass die chronische Dauer einer kombinierten aquatischen und terrestrischen Exposition die Reproduktion von Amphibien negativ beeinflusst. Gegenwärtig
können solche Effekte von der bestehenden Risikobewertung nicht erfasst werden, da Daten aus Feldszenarien, die die Auswirkungen mehrerer Pestizide auf die Reproduktion von Amphibien abbilden, zu selten sind, um einen Vergleich mit Daten anderer terrestrischer Wirbeltiere wie Vögel und Säugetiere zu ermöglichen. In Anbetracht dieser Erkenntnisse sollten sich zukünftige Untersuchungen nicht nur mit akuten und letalen Effekten, sondern auch mit chronischen und subletalen Effekten auf Populationsebene befassen. Da sich die Exposition gegenüber Pestiziden negativ auf Amphibienpopulationen auswirken kann, sollte ihr Einsatz noch sorgfältiger überlegt werden, um einen weiteren Rückgang der Amphibien zu vermeiden. Insgesamt unterstreicht diese Arbeit die dringende Notwendigkeit einer protektiven Pestizidrisikobewertung für Amphibien, um Amphibienpopulationen in Agrarlandschaften zu erhalten und zu fördern.
Die Verabschiedung der Europäischen Wasserrahmenrichtlinie (WRRL) in 2000 markierte den Beginn einer neuen Ära in der europäischen Wasserpolitik. Mehr als ein Jahrzehnt später, verfehlt jedoch weiterhin die Mehrheit der europäischen Flüsse den guten ökologischen Zustand, eines der wichtigsten WRRL-Ziele.
Ein bedeutender Belastungsfaktor für Fließgewässerökosysteme sind Pflanzenschutzmittel (PSM). Die vorliegende Doktorarbeit unterstreicht die Notwendigkeit, alle wichtigen land-wirtschaftlichen PSM-Quellen und beeinflussenden Landschaftsfaktoren bei der Erstellung von WRRL-Bewirtschaftungsplänen und Maßnahmenprogrammen zu berücksichtigen. Die Ergebnisse und Empfehlungen dieser Doktorarbeit verbessern das Verständnis für eine zielgerichtete Bekämpfung von PSM-Belastungen zur Erreichung der WRRL-Ziele. Insgesamt wurden 663 Messstellen in den Bundesländern Sachsen, Sachsen-Anhalt, Thüringen und Hessen untersucht (Kapitel 3 und 4). Neben einer Analyse der Makrozoobenthos-Daten aus dem WRRL-Monitoringnetz, erfolgte eine detaillierte GIS-Analyse der wichtigsten landwirtschaftlichen PSM-Quellen (Ackerland, Kleingärten sowie kommunale Abwasserreinigungsanlagen) sowie Landschaftsfaktoren (Gewässerrandstreifen und bewaldete Abschnitte im Oberlauf). Basierend auf den Ergebnissen wurde eine Screening-Methode zur schnellen und kostengünstigen Identifizierung von potenziell mit PSM belasteten Stellen entwickelt. Mit Hilfe des Bioindikators SPEARpesticides konnten insektizide Langzeitwirkungen der Abwässer von Abwasserreinigungsanlagen auf die Struktur der Makrozoobenthos-Gemeinschaft bis in 1,5 km Entfernung flussabwärts (in einigen Fällen sogar 3 km) aufgezeigt werden. Die Ergebnisse für den Deutschen Saprobienindex zeigen zudem, dass Abwasserreinigungsanlagen weiterhin eine bedeutende Quelle für sauerstoffzehrende Substanzen sind. Als geeignete Maßnahmen zur Verminderung der Belastung und der Auswirkungen von PSM wurden Gewässerrandstreifen (mindestens 5 m breit) und bewaldete Oberläufe identifiziert.
Es wird befürchtet, dass die zukünftige Ausdehnung des Energiepflanzenanbaus zu einem Anstieg der diffusen PSM-Belastung von Ökosystemen in Agrarlandschaften führen könnte. Diese Fragestellung wurde im Rahmen der vorliegenden Doktorarbeit basierend auf einer Analyse der Entwicklung des Energiepflanzenanbaus in Deutschland und anhand einer Literaturrecherche zu mehrjährigen Energiepflanzen untersucht (Kapitel 5). Die Ergebnisse zeigen, dass eine großflächige Ausdehnung des Energiepflanzenanbaus nicht unbedingt zu einer Erhöhung oder Verringerung der Menge an PSM, die in die Umwelt gelangen, führen muss. Die potenziellen Auswirkungen hängen vielmehr von der zukünftigen Ausgestaltung der Agrarsysteme ab. Anstelle des Anbaus von einjährigen Energiepflanzen in Monokulturen, sollten diese in die bereits vorhandenen Nahrungsmittelanbausysteme integriert werden. Zudem könnten finanzielle Anreize sowie eine verstärkte Aus- und Fortbildung der Bauern dazu beitragen, die Nutzung von nachhaltigen Fruchtfolgen, innovativen Anbausystemen und mehrjährigen Energiepflanzen zu erhöhen. Dies würde die Vielfalt der Feldfrüchte erhöhen und könnte helfen, den PSM-Bedarf der bisherigen intensiven Nahrungsmittelanbausysteme zu verringern.
This thesis examined two specific cases of point and diffuse pollution, pesticides and salinisation, which are two of the most concerning stressors of Germany’s freshwater bodies. The findings of this thesis were organized into three major components, of which the first component presents the contribution of WWTPs to pesticide toxicity (Chapter 2). The second component focuses on the current and future background salt ion concentrations under climate change with the absence of anthropogenic activities (Chapter 3). Finally, the third major component shows the response of invertebrate communities in terms of species turnover to levels of salinity change, considered as a proxy for human-driven salinisation (Chapter 4).
The physical-biological interactions that affect the temporal variability of benthic oxygen fluxes were investigated to gain improved understanding of the factors that control these processes. This study, for the first time is able to resolve benthic diffusive boundary layer (DBL) dynamics using the newly developed lifetime-based laser induced fluorescence (τLIF) oxygen imaging system, which enables study of the role of small-scale fluid mechanics generated by benthic organism activity, and hence a more detailed analysis of oxygen transport mechanisms across the sediment-water interface (SWI).
The net benthic oxygen flux across the sediment-water interface is controlled by sediment oxygen uptake and oxygen transport. While the oxygen transport is largely influenced by turbulence driven by large-scale flows, sediment oxygen uptake is mainly affected by oxygen production and biological- and chemical-oxygen degradation of organic matter. Both processes can be enhanced by the presence of fauna and are intimately coupled. The benthic oxygen flux can be influenced by fauna in two ways, i.e. by modulating the availability of oxygen, which enhances the sediment oxygen uptake, and by enhancing the transport of oxygen.
In-situ and a series of laboratory measurements were conducted to estimate the short- and seasonal variability of benthic fluxes including the effects of burrow ventilation activity by tube-dwelling animals using eddy correlation (EC) and τLIF oxygen imaging techniques, respectively.
The in-situ benthic oxygen fluxes showed high variability at hourly and seasonal timescales, where statistical analysis indicated that current velocity and water depth were the most significant predictors of benthic oxygen flux at the waterside, which co-varied with the discharge, temperature, and oxygen concentration. The range of variability of seasonal fluxes corresponded to the friction velocities which were driven by large-scale flows. Application of a simplified analytical model that couples the effect of hydrodynamic forcing of the diffusive boundary layer with a temperature-dependent oxygen consumption rate within the sediment showed that friction velocity and temperature cause similar variability of the steady-state benthic oxygen flux.
The application of τLIF oxygen imaging system in bioturbation experiments enabled the investigation and discovery of insights into oxygen transport mechanisms across the sediment-water interface. Distinct oxygen structures above burrow openings were revealed, these were associated with burrow ventilation. The DBL was degraded in the presence of burrow ventilation. Advective transport generated by the energetic plumes released at burrow outlets was the dominant transport driving mechanism. The contribution of diffusive flux to the total estimated decreased with increasing larval density. For a range of larvae densities, commonly observed in ponds and lakes, sediment oxygen uptake rates increased up to 2.5-fold in the presence of tube-dwelling animals, and the oxygen transport rate exceeded chironomid respiration by up to a factor of 4.
The coupled physical-biological factors affecting net benthic oxygen flux can be represented by temperature, which is a prominent factor that accounts for both oxygen transport and sediment oxygen uptake. Low oxygen transport by flow coincided with high summer temperatures, amplified by a reduction of benthic population density and pupation. It can also, however, be offset by increased ventilation activity. In contrast, low temperature coincided with high oxygen concentrations, an abundance of larvae, and higher flow is offset by less burrow ventilation activity. Investigation of the effect of hydrodynamics on oxygen transport alone suggested that the expected increase of benthic oxygen flux under global warming can be offset by a reduction in flow velocity, which could ultimately lead to increasing carbon burial rates, and in a growing importance of anaerobic mineralization pathways with increasing emission rates of methane.
This study suggests a significant contribution of biological induced benthic oxygen flux to physical transport driven by large-scale flow-fields contributing to bottom-boundary layer turbulence.
Die Verwendung physiologischer Indikatoren, welche die Reaktion von Organismen auf Veränderungen ihrer Umwelt widerspiegeln, bietet ein großes Potenzial für ökologische Studien. Durch die Analyse des physiologischen Zustandes von Organismen ermöglichen diese Indikatoren eine schnellere Erfassung von Veränderungen in aquatischen Ökosystemen als es durch die Betrachtung ökologischer Indikatoren, wie z. B. der Struktur der Benthosgemeinschaft oder des Reproduktionserfolges einzelner Arten, möglich ist. Dieser Zeitvorteil kann sowohl die Effektivität der Habitatbewertung als auch experimenteller Studien in der aquatischen Ökologie erhöhen. In diesem Zusammenhang konzentriert sich die vorliegende Arbeit auf physiologische Messgrößen, wie die Konzentration von Energiespeicherstoffen, den zellulären Energiestatus (Adenylate Energy Charge) oder die Stoffwechselaktivität in vivo, die den energetischen Zustand oder den aktuellen Energieverbrauch von Organismen charakterisieren, sowie auf das RNA:DNA-Verhältnis als Wachstumsindikator. Obwohl diese Indikatoren in der marinen Ökologie, und in jüngerer Zeit auch in der Ökotoxikologie, regelmäßig verwendet werden, haben sie in der limnischen Ökologie bisher wenig Anwendung gefunden. Um die Anwendung physiologischer Indikatoren in diesem Bereich zu verstärken verfolgt die Dissertation zwei Ziele. Zum einen verdeutlicht sie das Potenzial der einzelnen physiologischen Indikatoren, zum anderen stellt sie Grundlagenwissen zu ausgewählten ökophysiologischen Aspekten einheimischer und gebietsfremder Arten der Ordnung Amphipoda bereit, die als Schlüsselarten aquatischer Lebensräume als besonders geeignet für die Bestimmung physiologischer Indikatoren angesehen werden. In diesem Sinne werden in Kapitel 2 sowohl die grundlegenden Annahmen, als auch die theoretischen und methodischen Grundlagen für die Bestimmung physiologischer Indikatoren aufgezeigt und ihre Anwendbarkeit in Fallstudien verdeutlicht. Die durchgeführten Experimentalstudien (Kapitel 3−5) liefern Informationen zu (i) den art- und geschlechtsspezifischen Unterschieden in der saisonalen Variation des energetischen Zustandes natürlicher Gammarus Populationen (G. fossarum, G. pulex), (ii) den Unterschieden in der Stoffwechsel- und Bewegungsaktivität verschiedener Amphipoda-Arten (G. fossarum, G. roeselii und D. villosus), sowie (iii) den direkten Auswirkungen von Ammoniak auf die Physiologie und die Bewegungsaktivität von D. villosus. In Kapitel 6 werden abschließend die grundlegenden Schlussfolgerungen aus den durchgeführten Feld- und Laborstudien, sowie ihre Relevanz und Auswirkungen für die Anwendung physiologischer Indikatoren in der limnischen Ökologie diskutiert.
Nandi forests (South and North Nandi forests) are situated in the Rift Valley Province of Kenya very close to Kakamega forest. From previous documents it has been seen that Kakamega and Nandi forests were connected to each other forming one big "U" shaped forest block till the beginnings of 1900s. Due to human pressures, currently there are three different forests form the previous one block forest. Although they were one forest, information on Nandi forests is very scanty when it is compared to that of Kakamega forest. The species composition and diversity as well as plant communities and population structure of Nandi forests have not been studied. Information is not available about the similarity status of South and North Nandi forests. Furthermore the natural regeneration potential (seedling bank) of these forests is not well studied and documented. Hence this study aims to fill these gaps.
In this study totally 76 quadrates (49 from South Nandi and 27 from North Nandi) were used to collect data. In the South Nandi forests 27 of the quadrates were laid in the better side of the forest (at Kobujoi) and the remaining 22 were in the heavily disturbed part of this forest (Bonjoge). The quadrates were arranged on transects that have one to one and half km which were parallel to the slope. The distance between the quadrates was 100 meter and transects are 500 m apart. The size of the main quadrate was 400 m2 (20 X 20 m) which also had five small plots (3 X 3 m) distributed on the four corners and in the center. Each woody plants (climbers, shrubs and trees) having more than one meter and greater than two centimeter diameter at breast height (dbh) were measured and recorded. Seedlings and herbaceous plants were sampled in the smaller plots. Individual plants were identified at species level and when it was not possible to identify in the field voucher specimen were prepared and latter identified at the East African Herbarium, National Museum of Kenya, and Nairobi. Clustering and ordination were performed using PC-ORD and CANOCO ecological softwares, respectively. For both clustering and ordination abundance data of the species was used. Shannon diversity index and evenness were computed using PC-ORD while similarity indices, Fisher alpha, rarefaction, species richness estimation (nonparametric species richness estimators) were conducted using EstimateS. Indicator species analysis was undertaken using PC-ORD. Basal area and height class distribution at forests level or site level (Bonjoge and Kobujoi) and diameter (dbh) class distribution for selected trees species were performed to evaluate population structure.
Furthermore importance value (IV) of woody plant species was calculated. SPSS version 16 was used to undertake both parametric (when data assume normal distribution) and nonparametric (when data are not assuming normal distribution) comparison of means, correlation and regression analysis.
In this study totally 321 vascular plant species comprising 92 families and 243 genera were identified in Nandi forests (both South and North Nandi forests). In South Nandi forest 253 plant species form 82 families and 201 genera were recorded while in North Nandi 181 species comprising 67 families and 155 genera were recorded. Jackknife second order estimators gave the highest species richness estimate for both South and North Nandi forests i.e. 284 and 209, respectively. In the case of highly disturbed and less disturbed parts of South Nandi forest 138 and 172 vascular plant species were recorded, respectively. Asteraceae, Rubiaceae and Euphorbiaceae are the top three species rich families of Nandi forests. In terms of different diversity measures (i.e. alpha and beta diversity, Fisher alpha, Shannon diversity and evenness indices) South Nandi is more diverse than North Nandi forest. Sörensen and Jaccard (classic) as well as their respective abundance based similarities showed that there is a low species similarity between South and Nandi forests. The cluster analysis resulted in three different plant communities and this result is supported by the ordination result.
South and North Nandi forest has inverted "J" height class distribution showing that larger proportion of woody plant individuals are found in the lower height classes. Similar pattern is observed when the diameters of all woody plants were considered together. However, different diameter class distributions (seven types) were identified when selected tree species were analyzed separately. It has been observed that the basal area of South Nandi forest is significantly lower than that of North Nandi forest (Mann-Whitney U =358, p < 0.001). Similarly Bonjoge has significantly lower basal area (t-value=3.77, p<0.01) than that of Kobujoi. Number of woody plat seedlings in South Nandi forest is significantly higher than that of North Nandi (Mann-Whitney U = 362.5, p<0.001). In the same way Bonjoge has significantly smaller number of ssedlings than Kobujoi (t-value 4.24, p<0.001). Most of species in both forests are able to resprout from stumps after physical damage; hence this helps the regeneration of the forests in addition to seedling banks. This study enables to fill some of the information gaps about Nandi forests especially of floristic composition, population structure, natural regeneration and human impacts on this ecosystem.
The three biodegradable polymers polylactic acid (PLA), polyhydroxybutyrate (PHB) and polybutylene adipate terephthalate (PBAT) were coated with hydrogenated amorphous carbon layers (a-C:H) in the context of this thesis. A direct alignment of the sample surface to the source was chosen, resulting in the deposition of a robust, r-type a-C:H. At the same time, a partly covered silicon wafer was placed together with the polymers in the coating chamber and was coated. Silicon is a hard material and serves as a reference for the applied layers. Due to the hardness of the material, no mixed phase occurs between the substrate and the applied layer (no interlayer formation). In addition, the thickness of the applied layer can be estimated with the help of the silicon sample.
The deposition of the layer was realized by radio frequency plasma enhanced chemical vapor deposition (RF-PECVD). For the coating the samples were pre-treated with an oxygen plasma. Acetylene was used as precursor gas for the plasma coating. Coatings with increasing thickness in 50 nm steps from 0-500 nm were realised.
The surface analysis was performed using several techniques: The morphology and layer stability were analyzed with scanning electron microscopy (SEM) measurements. The wettability was determined by contact angle technique. In addition, the contact angles provide macroscopic information about the bond types of the carbon atoms present on the surface. For microscopic analysis of the chemical composition of the sample and layer surfaces, diffuse reflectance Fourier transform infrared spectroscopy (DRIFT) as well as synchrotron based X-ray photon spectroscopy (XPS) and near edge X-ray absorption fine structure spectroscopy (NEXAFS) were used.
All coated polymers showed several cases of layer failure due to internal stress in the layers. However, these were at different layer thicknesses, so there was a substrate effect. In addition, it is visible in the SEM images that the coatings of PLA and PHB can cause the applied layer to wave, the so-called cord buckling. This does not occur with polymer PBAT, which indicates a possible better bonding of the layer to the polymer. The chemical analyses of the layer surfaces show for each material a layer thickness dependent ratio of sp² to sp³ bonds of carbon, which alternately dominate the layer. In all polymers, the sp³ bond initially dominates, but the sp² to sp³ ratio changes at different intervals. Although the polymers were coated in the same plasma, i.e. the respective layer thicknesses (50 nm, 100 nm, ...) were applied in the same plasma process, the respective systems differed considerably from each other. A substrate effect is therefore demonstrably present. In addition, it was found that a change in the dominant bond from sp³ to sp² is an indication ofan upcoming layer failure of the a-C:H layer deposited on the polymer. In the case of PLA, this occurs immediately with change to sp² as the dominant bond; in the case of PHB and PBAT, this occurs with different delay to increased layer thicknesses (at PHB 100 nm, at PBAT approx. 200 nm.
Overall, this thesis shows that there is a substrate effect in the coating of the biodegradable polymers PLA, PHB and PBAT, since despite the same coating there is a different chemical composition of the surface at the respective layer thicknesses. In addition, a layer failure can be predicted by analyzing the existing bond.
Eine nachhaltige Intensivierung der Landwirtschaft ist notwendig, um die wachsende Weltbevölkerung zu ernähren ohne die Bodenqualität durch verstärkte Bodendegradation zu verschlechtern. Plastikmul-che (PM) werden weltweit zunehmend eingesetzt, um Wachstum und Ertrag von Feldfrüchten zu ver-bessern und somit die landwirtschaftliche Produktivität zu steigern. Zunehmend finden sich aber auch kritische Aspekte der PM-Anwendung auf die Bodenqualität sowie widersprüchliche Ergebnisse in der wissenschaftlichen Literatur. Grund könnte die Anwendung in verschiedenen Klimaten und bei unter-schiedlichen Feldkulturen, Böden und landwirtschaftlichen Techniken sein. Ein genauerer Blick ist so-mit notwendig, um den PM-Einfluss auf die Bodenprozesse unter verschiedenen Klima- und Anbaube-dingungen umfassend zu verstehen und hinsichtlich einer nachhaltigen Landwirtschaft zu bewerten.
Ziel dieser Doktorarbeit war es, zu verstehen, inwieweit eine mehrjährige PM-Anwendung verschiedene Bodeneigenschaften und -prozesse unter gemäßigt, humidem Klima in Mitteleuropa beeinflusst und die Folgen für die Bodenqualität zu bewerten. Hierfür untersuchte ich in einer dreijährigen Feldstudie, wie PM (schwarzes Polyethylen, 50 μm) das Mikroklima, die Strukturstabilität, die organische Bodensub-stanz (OBS) und die Konzentrationen bestimmter Fungizide und Mykotoxine in drei Bodenschichten (0–10, 10–30 and 30–60 cm) im Vergleich zu Strohmulch (SM) beeinflusst. Beide Bodenabdeckungen wurden in einer Dammkultur mit Tröpfchenberegnung im Erdbeeranbau eingesetzt.
Die PM veränderten das Mikroklima des Bodens hin zu höheren Temperaturen und niedrigeren Was-sergehalten. Hauptfaktor für das gesteigerte Pflanzenwachstum unter gegebenem Klima dürfte somit die höhere Bodentemperatur sein. Die niedrigere Bodenfeuchte unter PM zeigte, dass die verhinderte Nie-derschlagsversickerung stärker den Wasserhaushalt beeinflusste als die reduzierte Evaporation, was auf eine ineffiziente Niederschlagsnutzung hinweist. Die PM veränderten den Wasserkreislauf hin zu ver-mehrt seitlichen Wasserflüssen von der Furche zum Damm und weniger vertikalen Sickerwasserflüssen im Damm. Letzteres verringerte die Stickstoffauswaschung im Oberboden (0–10 cm) in der Anwachs-phase der Erdbeeren. PM verhinderte eine abrupte Bodendurchnässung und Überschusswasser bei Re-genfällen und somit Aggregatzerstörung. So wurde eine lockere und stabile Bodenstruktur erhalten, die Bodenverdichtung und Bodenerosion vorbeugt. PM veränderte Kohlenstoffaustausch und -umwandlung hin zu einer größeren und stabileren OBS. Somit kompensierte die unterirdische Biomassenproduktion unter PM den temperaturbedingt beschleunigten OBS Abbau sowie den fehlenden Eintrag oberirdischer Biomasse. Das SM erhöhte jedoch die labile und totale OBS im Oberboden nach dem ersten Versuchs-jahr und steigerte das mikrobielle Wachstum durch den oberirdischen Biomasseeintrag. PM verringerte den Fungizideintrag in den Boden und verursachte kein erhöhtes Mykotoxinvorkommen. Somit stellt PM kein erhöhtes Risiko für Bodenkontaminationen und die Bodenqualität dar. Diese Doktorarbeit zeigte, dass sich die PM-Effekte zeitlich, saisonal und zwischen den Bodenschichten unterschieden, womit die Bedeutung der Faktoren Bodentiefen und Zeit für zukünftige Studien belegt wurde.
Verglichen mit ariden Gebieten, waren die beobachteten PM-Einflüsse klein, ausgeblieben oder anders. Als Grund hierfür vermute ich, dass PM in humidem Klima die Bodenfeuchte verringerte anstatt zu erhöhen und dass unter SM das Stroh und Blätterwerk einen PM-ähnlichen „Abdeckungseffekt“ verur-sachte. Eine Generalisierung der PM-Effekte über verschiedenen Klimazonen ist somit kaum möglich, da sich die Effekte in Art und Ausmaß in Abhängigkeit vom Klima unterscheiden. Die PM-Effekte auf die Bodenqualität müssen somit differenziert beurteilt werden. Ich schlussfolgere, dass PM in humiden Klimaten Bodendegradationen vermindern könnte (z.B., OBS Abbau, Erosion, Nährstoffauswaschung, Verdichtung und Kontamination) und somit hilft, Bodenqualität zu erhalten und eine nachhaltige, land-wirtschaftliche Intensivierung zu ermöglichen. Allerdings ist weitere Forschung nötig um meine Ergeb-nisse auf größeren Skalen, über längere Zeitperioden und bei verschiedenen Böden und Feldfrüchte zu überprüfen, verbleibende offene Fragen zu beantworten und Verbesserungen zu entwickeln, um die Nachteile der PM zu überwinden (z.B. Bodenverunreinigung mit Plastik, Entsorgung der Mulche).
Amphibian populations are declining worldwide for multiple reasons such as habitat destruction and climate change. An example for an endangered European amphibian is the yellow-bellied toad Bombina variegata. Populations have been declining for decades, particularly at the northern and western range margin. One of the extant northern range centres is the Westerwald region in Rhineland-Palatinate, Germany. To implement informed conservation activities on this threatened species, knowledge of its life-history strategy is crucial. This study therefore focused on different developmental stages to test predictions of life-history theory. It addressed (1) developmental, (2) demographic and (3) genetic issues of Bombina variegata as a model organism: (1) Carry-over effects from larval environment to terrestrial stages and associated vulnerability to predators were investigated using mesocosm approaches, fitness tests and predation trials. (2) The dynamics and demography of B. variegata populations were studied applying a capture-mark-recapture analysis and skeletochronology. The study was complemented through (3) an analysis of genetic diversity and structuring of B. variegata populations using 10 microsatellite loci. In order to reveal general patterns and characteristics among B. variegata populations, the study focused on three geographical scales: local (i.e. a former military training area), regional (i.e. the Westerwald region) and continental scale (i.e. the geographical range of B. variegata). The study revealed carry-over effects of larval environment on metamorph phenotype and behaviour causing variation in fitness in the early terrestrial stage of B. variegata. Metamorph size and condition are crucial factors for survival, as small-sized individuals were particularly prone to predator attacks. Yellow-bellied toads show a remarkable fast-slow continuum of the life-history trait longevity. A populations’ position within this continuum may be determined by local environmental stochasticity, i.e. an extrinsic source of variation, and the efficiency of chemical antipredator protection, i.e. an intrinsic source of variation. Extreme longevity seems to be an exception in B. variegata. Senescence was absent in this study. Weather variability affected reproductive success and thus population dynamics. The dispersal potential was low and short-term fragmentation of populations caused significant genetic differentiation at the local scale. Long-term isolation resulted in increased genetic distance at the regional scale. At the continental scale, populations inhabiting the marginal regions were deeply structured with reduced allelic richness. As consequence of environmental changes, short-lived and isolated B. variegata populations at the range margin may face an increased risk of extinction. Conservation measures should thus improve the connectivity among local populations and reinforce annual reproductive success. Further research on the intraspecific variation in B. variegata skin toxins is required to reveal potential effects on palatability and thus longevity.
Genetische Populationsstruktur europäischer Hyalodaphnia-Arten: Monopolisierung versus Genfluss
(2012)
Die genetische Populationsstruktur von Arten wird von verschiedenen Faktoren beeinflusst, z.B. vom Reproduktionsmodus. Ein spezieller Reproduktionsmodus ist die zyklische Parthenogenese, eine Abwechslung von Phasen asexueller und sexueller Reproduktion. Die klonale Diversität von zyklisch parthenogenetischen Zooplanktonorganismen wird durch die Größe der Dauerstadienbank im Sediment beeinflusst, d.h. durch die Anzahl der sexuell produzierten Dauereier die sich im Sediment akkumulieren. Weiterhin verringert klonale Erosion, ausgelöst durch stochastische und selektive Prozesse, die Diversität über die Zeit. Da zyklisch parthenogenetische Zooplanktonorganismen neue Habitate effektiv monopolisieren können, wurden die Auswirkungen von Genfluss als vernachlässigbar angenommen. Unter Monopolisierung wird die schnelle Vergrößerung der Population verstanden, was zu einem Vorteil für die ersten Ankömmlinge führt (priority-Effekt). Durch lokale Anpassung und das Aufbauen einer Dauerstadienbank wird Genfluss effektiv entgegen gewirkt, da später ankommende Genotypen sich nicht in der Population etablieren können. Das Ziel dieser Arbeit war die Evaluierung der Prozesse, die die populationsgenetische Struktur von zyklisch parthenogenetischen Zooplanktonorganismen beeinflussen, mit besonderem Fokus auf Monopolisierung und Genfluss. Als Organismen wurden Seenarten der Gattung Daphnia eingesetzt, für die zunächst 32 variable Mikrosatellitenmarker entwickelt wurden. Ein ausgewähltes Marker-Set von zwölf Mikrosatellitenmarkern wurde zusätzlich für die Art- und Hybriddetektion getestet. Mit diesem Marker-Set und einem zusätzlichen mitochondrialen DNA-Marker wurden Proben aus 44 europäischen Gewässern untersucht, die die Arten D. cucullata, D. galeata und D. longispina enthielten. Bei D. galeata sind viele Populationen durch eine geringe klonale Diversität charakterisiert, was darauf hindeutet, dass die Dauerstadienbank nur wenig zur klonalen Diversität beiträgt, wodurch die Effekte der klonalen Erosion sehr schnell detektiert werden. Die genetischen Muster zeigen weiterhin auf, dass rezente Expansion stattgefunden hat, die wahrscheinlich durch die anthropogene Veränderung limnischer Ökosysteme hervorgerufen und begünstigt wurde, wobei hier vor allem die Eutrophierung vieler europäischer Seen im Vordergrund steht. Bei D. longispina und D. cucullata wurde eine von D. galeata stark abweichende Populationsstruktur detektiert. Hohe genetische Differenzierung zwischen Populationen spricht für geringen Genfluss was im Einklang mit den Annahmen von Monopolisierung ist.
Weiterhin ist die klonale Diversität vieler Populationen sehr hoch und deutet somit einen großen Einfluss der Dauerstadienbank an, weshalb die Effekte der klonalen Erosion nicht oder nur gering detektiert wurden. Bei der Analyse der mitochondrialen DNA von D. longispina wurde ein Anstieg der Populationsgröße nach der letzten Eiszeit ermittelt, da die Entstehung vieler Gletscherseen, die ein ideales Habitat für D. longispina darstellen, zu einer Expansion dieser Art führte. Nicht nur die klonale Diversität der D. longispina-Populationen war hoch, sondern die genetische Diversität im Allgemeinen. Dies zeigt auf, dass während der Entstehung dieser Populationen Genfluss hoch gewesen sein muss. Um die Prozesse, die während der frühen Entwicklungsphase einer Population herrschen, besser beurteilen zu können, wurde eine experimentelle Studie durchgeführt, die den zeitlichen Vorteil von ankommenden Genotypen auf den Etablierungserfolg dieser Genotypen untersucht.
Es zeigte sich, dass früh ankommende Genotypen einen Vorteil in der Population haben. Bei ähnlicher Fitness war dieser Vorteil langfristig, aber Genotypen mit einer höheren Fitness dominierten die Population auf lange Sicht, unabhängig vom zeitlichen Vorteil den die einzelnen Genotypen zuvor hatten.rnZusammenfassend, die Ergebnisse dieser Arbeit zeigen, dass zusätzlich zu den bisher untersuchten Prozessen (lokale Anpassung, klonale Erosion und die Größe der Dauerstadienbank) auch Genfluss die Populationsstruktur zyklisch parthenogenetischer Zooplanktonorganismen effektiv beeinflussen kann. Zum Einen, während der Entstehung von Population können mehrere Genotypen zum Aufbau beitragen. Zum Anderen, bei starken Veränderungen der Umweltfaktoren kann Genfluss stark auf die Populationsstruktur wirken.
Natürliche Schädlingskontrolle und Bestäubung sind wichtige Ökosystemdienstleistungen für die Landwirtschaft. Diese können durch ökologische Landwirtschaft und naturnahe Lebensräume in der näheren oder weiteren Umgebung gefördert werden.
Das Potential naturnaher Lebensräume räuberische Fliegen(Kapitel 2 und 3)und Bienen (Kapitel 7) auf lokaler und Landschaftsebene zu fördern wurde in naturnahen Lebensräumen untersucht. Räuberische Fliegen bevorzugten verholzte Habitate und reagierten positiv auf die andschaftskomplexizität. Die Vielfalt von Bienen und die Häufigkeit von Honig- und Wildbienen in den naturnahen Lebensräumen wurde vor allem positiv von den vorhandenen Blütenressourcen beeinflusst.
Der Einfluss von ökologischer Landwirtschaft, angrenzenden naturnahen Lebensräumen und Landschaftskomplexizität auf natürliche Schädlingskontrolle (Kapitel 4) und Bestäubung (Kapitel 6) wurde in 18 Kürbisfeldern untersucht. Ökologische Landwirtschaft hatte keine starken Effekte auf die natürliche Schädlingskontrolle oder die Bestäubung von Kürbis. Die natürliche Schädlingskontrolle kann vor allem lokal durch das Blütenangebot in den angrenzenden Lebensräumen gefördert werden, weil dieses die Dichten der natürlichen Läusefeinde positiv beeinflusste und tendenziell die Läusedichte in den Kürbisfeldern reduzierte.
Kürbis ist ein beeindruckendes Beispiel für eine Schlüsselrolle von Wildbienen für den Bestäubungserfolg, weil Kürbis in Deutschland vor allem von Hummeln bestäubt wird trotz der höheren Besuchsdichten von Honigbienen. Die Bestäubung kann am besten durch Landschaftskomplexizität gefördert werden. Die Anzahl von Blütenbesuchen von Hummeln und infolgedessen auch die übertragene Pollenmenge wurden negativ von der landwirtschaftlich genutzten Fläche in der umgebenden Landschaft beeinflusst.
Der Einfluss von Läusedichten (Kapitel 8) und Bestäubung (Kapitel 5) auf den Kürbisertrag wurde ermittelt. Der Kürbisertrag wurde nicht beeinflusst von den beobachteten Läusedichten und war nicht bestäubungslimitiert bei der derzeitigen Menge an Bienenbesuchen.
Insbesondere naturnahe Lebensräume, die stetige und vielfältige Blütenressourcen bereitstellen, sind wichtig für Schädlingskontrolleure und Bestäuber. In Agrarlandschaften sollte ein ausreichender Anteil an verschiedenen Typen von naturnahen Lebensräumen erhalten und wiederhergestellt werden. Dadurch können natürliche Schädlingskontrolleure wie räuberische Fliegen, Bestäuber wie Hummeln,und die von ihnen geleistete Schädlingskontrolle und Bestäubung in Agrarlandschaften gefördert werden.
Die Aufmerksamkeit politischer Entscheidungsträger weltweit richtet sich in den letzten 10 Jahren verstärkt auf die Kreativwirtschaft als signifikanter Wachstums- und Beschäftigungsmotor in Städten. Die Literatur zeigt jedoch, dass Kreativschaffende zu den gefährdetsten Arbeitskräften in der heutigen Wirtschaft gehören. Aufgrund des enorm deregulierten und stark individualisierten Umfelds werden Misserfolg oder Erfolg eher individuellen Fähigkeiten und Engagement zugeschrieben und strukturelle oder kollektive Aspekte vernachlässigt. Diese Arbeit widmet sich zeitlichen, räumlichen und sozialen Aspekten digitaler behavioraler Daten, um zu zeigen, dass es tatsächlich strukturelle und historische Faktoren gibt, die sich auf die Karrieren von Individuen und Gruppen auswirken. Zu diesem Zweck bietet die Arbeit einen computergestützten, sozialwissenschaftlichen Forschungsrahmen, der das theoretische und empirisches Wissen aus jahrelanger Forschung zu Ungleichheit mit computergestützten Methoden zum Umgang mit komplexen und umfangreichen digitalen Daten verbindet. Die Arbeit beginnt mit der Darlegung einer neuartigen Methode zur Geschlechtererkennung, welche sich Image Search und Gesichtserkennungsmethoden bedient. Die Analyse der kollaborativen Verhaltensweisen sowie der Zitationsnetzwerke männlicher und weiblicher Computerwissenschaftler*innen verdeutlicht einige der historischen Bias und Nachteile, welchen Frauen in ihren wissenschaftlichen Karrieren begegnen. Zur weiterfuhrenden Elaboration der zeitlichen Aspekte von Ungleichheit, wird der Anteil vertikaler und horizontaler Ungleichheit in unterschiedlichen Kohorten von Wissenschaftler*innen untersucht, die ihre Karriere zu unterschiedlichen Zeitpunkten begonnen haben. Im Weiteren werden einige der zugrunde liegenden Mechanismen und Prozesse von Ungleichheit in kreativen Berufen analysiert, wie der Matthew-Effekt und das Hipster-Paradoxon. Schließlich zeigt diese Arbeit auf, dass Online-Plattformen wie Wikipedia bestehenden Bias reflektieren sowie verstärken können.
In Studien zur Toxizität von Chemikaliengemischen wurde festgestellt, dass Gemische aus Komponenten in Konzentrationen ohne erkennbare Wirkung als Einzelstoff (NOECs) als Resultat der gemeinsamen Wirkung der Substanzen Toxizität verursachen können. Die Risikobewertung von Chemikalien konzentriert sich jedoch häufig auf einzelne chemische Substanzen, obwohl die meisten lebenden Organismen im Wesentlichen chemischen Gemischen anstatt einzelnen Substanzen ausgesetzt sind. Die Konzepte der additiven Toxizität, Konzentrationsadditivität (CA) und der unabhängigen Wirkung (IA), werden häufig angewendet, um die Mischungstoxizität von Gemischen ähnlich wirkender und unähnlich wirkender Chemikalien vorherzusagen. Allerdings können lebende Organismen, ebenso wie die Umwelt, beiden Chemikalienarten zur gleichen Zeit und am gleichen Ort ausgesetzt sein. Darüber hinaus wäre es nahezu unmöglich, auf experimentellem Wege Toxizitätsdaten für jede denkbare Mischung zu gewinnen, da die Anzahl der Möglichkeiten beinahe unendlich groß ist. Aus diesem Grund muss ein integriertes Modell zur Vorhersage der Mischungstoxizität, welches auf einzelnen Mischungskomponenten mit verschiedenen Arten toxischer Wirkung (MoAs) basiert, entwickelt werden. Die Ziele der vorliegenden Studie sind, die Problematik der Vorhersage der Mischungstoxizität in der Umwelt zu analysieren und integrierte Modelle zu entwickeln, die die Beschränkungen der vorhandenen Vorhersagemodelle zur Abschätzung der Toxizität nicht-interaktiver Mischungen mittels computergestützter Modelle überwinden. Für diese Zielsetzung wurden in dieser Studie vier Unterthemen bearbeitet. Als Erstes wurden Anwendungsbereiche und Beschränkungen bereits bestehender Modelle analysiert und in die drei Kategorien dieser Studie eingruppiert. Aktuelle Ansätze zur Einschätzung der Mischungstoxizität und die Notwendigkeit eines neuen Forschungskonzepts zur Überwindung bestehender Einschränkungen, die aus neueren Studien hervorgehen, wurden diskutiert. Insbesondere diejenigen, die computergestützte Ansätze einbeziehen um die Toxizität chemischer Gemische, basierend auf den toxikologischen Daten einzelner Chemikalien, vorherzusagen. Als Zweites wurde anhand einer Fallstudie und mittels computergestützter Simulation festgestellt, dass die Key Critical Component (KCC) und die Composite Reciprocal (CR) methods, die im Entwurf des Technischen Leitfadens der Europäischen Union (EU) zu Berechnung der Predicted No Effect Concentration (PNEC) und des Derived No Effect Level (DNEL) von Gemischen beschrieben wurden, signifikant abweichende Ergebnisse hervorbringen. Als dritter und vierter Schritt dieser Studie wurden die zwei folgenden integrierten Nebenmodelle entwickelt und erfolgreich angewandt, um die dem CA und IA Modell innewohnenden Beschränkungen zu überwinden, welche theoretisch sowohl für Chemikalien mit ähnlichen, als auch mit abweichenden Reaktionen existieren: 1) Partial Least Squares-based Integrated Addition Model (PLS-IAM) und 2) Quantitative Structure-Activity Relationship-based Two-Stage Prediction (QSAR-TSP) Modell. In dieser Studie wurde gezeigt, dass das PLS-IAM angewandt werden könnte, wenn die toxikologischen Daten ähnlicher Gemische mit gleicher Zusammensetzung zur Verfügung stehen. Das QSAR-TSP Modell zeigt eine Möglichkeit zur Überwindung der kritischen Einschränkungen des herkömmlichen TSP Modells auf, bei der Kenntnisse der MoAs aller Chemikalien erforderlich sind. Diese Studie zeigt das hohe Potential der erweiterten integrierten Modelle, z.B. PLS-IAM und QSAR-TSP, die durch Berücksichtigung verschiedener nicht-interaktiver Komponenten mit unterschiedlichen MoA Gruppen, die Verlässlichkeit konventioneller Modelle erhöhen und das Verfahren der Risikobewertung von Gemischen aus wissenschaftlicher Sicht vereinfachen.
Die voranschreitende Vernetzung von Fahrzeugen wird einen erheblichen Einfluss auf die Mobilitätslösungen von Morgen haben. Solche Systeme werden stark auf den zeitnahen Austausch von Informationen angewiesen sein, um die funktionale Zuverlässigkeit, Sicherheit von Fahrfunktionen und somit den Schutz von Insassen zu gewährleisten. Allerdings zeigt sich bei näherer Betrachtung der verwendeten Kommunikationsmodelle heutiger Netzwerke, wie beispielsweise dem Internet, dass diese Modelle einem host-zentrierten Prinzip folgen. Dieses Prinzip stellt das Management von Netzwerken mit einem hohen Grad an mobilen Teilnehmern vor große Herausforderungen hinsichtlich der effizienten Verteilung von Informationen. In den vergangen Jahren hat sich das Information-Centric Networking (ICN) Paradigma als vielversprechender Kandidat für zukünftige datenorientierte mobile Netzwerke empfohlen. Basierend auf einem lose gekoppelten Kommunikationsmodell unterstzützt ICN Funktionen wie das Speichern und Verarbeiten von Daten direkt auf der Netzwerkschicht. Insbesondere das aktive, gezielte Platzieren von Daten nahe der Benutzer stellt einen vielversprechenden Ansatz zur Erhöhung der Datenbereitstellung in mobilen Netzen dar. Die vorliegende Arbeit legt den Fokus auf die Erforschung von Strategien zum orchestrieren und aktiven Platzieren von Daten für Fahrzeuganwendungen im Netzwerk für mobile Teilnehmer. Im Rahmen einer Analyse unterschiedlicher Fahrzeugapplikationen und deren Anforderungen, werden neue Strategien für das aktive Platzieren vorgestellt. Unter Verwendung von Netzwerksimulationen werden diese Strategien umfangreich untersucht und in im Rahmen eines prototypischen Aufbaus unter realen Bedingungen ausgewertet. Die Ergebnisse zeigen Verbesserungen in der zeitnahen Zustellung von Inhalten (die Verfügbarkeit spezifischer Daten wurde im Vergleich zu existierenden Strategien um bis zu 35% erhöht), während die Auslieferungszeiten verkürzt wurden. Allerdings bedingt das aktive Platzieren und Speichern von Daten auch Risiken der Datensicherheit und Privatsphäre. Auf der Basis einer Sicherheitsanalyse stellt der zweite Teil der Arbeit ein Konzept zur Zugriffskontrolle von gespeicherten Daten in verteilten Fahrzeugnetzwerken vor. Abschließend werden offene Problemstellungen und Forschungsrichtungen im Kontext Sicherheit von verteilten Berechnungsarchitekturen für vernetze Fahrzeugnetzwerke diskutiert.
This thesis presents novel approaches for integrating context information into probabilistic models. Data from social media is typically associated with metadata, which includes context information such as timestamps, geographical coordinates or links to user profiles. Previous studies showed the benefits of using such context information in probabilistic models, e.g.\ improved predictive performance. In practice, probabilistic models which account for context information still play a minor role in data analysis. There are multiple reasons for this. Existing probabilistic models often are complex, the implementation is difficult, implementations are not publicly available, or the parameter estimation is computationally too expensive for large datasets. Additionally, existing models are typically created for a specific type of content and context and lack the flexibility to be applied to other data.
This thesis addresses these problems by introducing a general approach for modelling multiple, arbitrary context variables in probabilistic models and by providing efficient inference schemes and implementations.
In the first half of this thesis, the importance of context and the potential of context information for probabilistic modelling is shown theoretically and in practical examples. In the second half, the example of topic models is employed for introducing a novel approach to context modelling based on document clusters and adjacency relations in the context space. They can cope with areas of sparse observations and These models allow for the first time the efficient, explicit modelling of arbitrary context variables including cyclic and spherical context (such as temporal cycles or geographical coordinates). Using the novel three-level hierarchical multi-Dirichlet process presented in this thesis, the adjacency of ontext clusters can be exploited and multiple contexts can be modelled and weighted at the same time. Efficient inference schemes are derived which yield interpretable model parameters that allow analyse the relation between observations and context.
Probability propagation nets
(2008)
In der vorliegenden Arbeit wird eine Petri-Netz-Repräsentation für die Propagation von Wahrscheinlichkeiten und Evidenzen (Likelihoods) vorgestellt und auf probabilistische Horn-Abduktion sowie Fehlerbäume und Bayes-Netze angewendet. Diese sogenannten Wahrscheinlichkeits-Propagations-Netze (probability propagation nets) machen Propagations-Prozesse transparent, indem sie strukturelle und dynamische Aspekte in einer homogenen Darstellung vereinen. Anhand populärer Beispiele wird verdeutlicht, dass Wahrscheinlichkeits-Propagations-Netze die Propagations-Prozesse - besonders im Hinblick auf die Bayes-Netz-Algorithmik - anschaulich darstellen und gut nachvollziehbar machen, so dass sie sich für die Analyse und Diagnose probabilistischer Modelle eignen. Durch die Repräsentation von Fehlerbäumen mit Wahrscheinlichkeits-Propagations-Netzen können diese Vorzüge auf die Modellierung technischer Systeme übertragen werden.
This dissertation is dedicated to a new concept for capturing renunciation-oriented attitudes and beliefs — sufficiency orientation. Sufficiency originates in the interdisciplinary sustain-ability debate. In contrast to efficiency and consistency, sufficiency considers human behaviour as the cause of socio-ecological crises and strives for a reduction in consumption respecting the planetary boundaries. The present work places sufficiency in a psychological research context and explores it qualitatively and quantitatively. On the basis of five manuscripts, the overarching question pursued is to what extent sufficiency orientation contributes to socio-ecological transformation. Based on one qualitative study and five further quantitative studies, sufficiency orientation is investigated in different behavioural contexts that are of particular importance with regard to CO2 emissions. In addition, sufficiency orientation is linked to a wider range of psychologically relevant theories that help gain an overview of correlates and possible causes for the development of a sufficiency orientation.
Manuscript 1 uses expert interviews (N = 21) to develop a heuristic framework on a transformation towards societal sufficiency orientation including barriers and enablers, as well as ambiguities on such a change. The derived elements are interpreted in the light of the leverage points approach. This framework can serve as a heuristic for future research and to develop measures concerning sufficiency orientation.
As part of an online study (N = 648), Manuscript 2 examines the extent to which sufficiency orientation can be embedded in classic models for explaining pro-environmental intentions and behaviour (Theory of Planned Behaviour, Norm Activation Model), and showed a significant contribution to the explanation of intentions and behaviour in the field of plastic consumption.
Manuscript 3 reports two framing experiments (Study 1, N = 123, Study 2, N = 330) to investigate how pro-social justice sensitivity contributes to making sufficiency orientation more salient and promoting it. While sufficiency orientation and pro-social facets of justice sensitivity were positively related to each other, there was no effect of the framing intervention in the hypothesised direction. The results indicate that justice-related information at least in the presented manner is more likely to generate reactance.
Manuscript 4 presents an online study (N = 317) and targets the importance of sufficiency orientation for predicting actual greenhouse gas emissions in relation to flight behav-iour and policy support for the decarbonisation of mobility. In addition, the connection between sufficiency orientation and global identity is examined. It turns out that sufficiency orientation is superior to global identity in predicting actual emissions and decarbonisation policies. Contrary to expectations, sufficiency orientation and the form of global identity operationalised in the presented study shows a positive correlation and are compatible.
Manuscript 5 reports a reflective diary intervention (N = 252) that should lead to a short- and long-term increase in sufficiency orientation by satisfying basic psychological needs through induced self-reflection. For both groups with or without the intervention, sufficiency orientation increased slightly but significantly. Although no specific effect of the manipulation was found, basic psychological need satisfaction turns out to be the largest predictor for sufficiency orientation. Subjective well-being is positively associated with sufficiency orientation, while time affluence shows no clear associations in the study.
Overall, the results highlight the relevance of sufficiency orientation in relation to socio-ecological transformation and actual behavioural change. Sufficiency orientation is related to low-emission behaviour and support for political measures to decarbonize infrastructures. These results contribute to the discussion on the intention-behaviour gap in regard to impact-relevant behaviour, i.e. behaviour producing high emissions. The present findings suggest, that sufficiency orientation could be related to a strong intention-behavioural consistency. However, further research is needed to validate these results and improve the measurement of sufficiency orientation. Furthermore, the studies provided insights on correlates of sufficiency orientation: justice sensitivity, global identity, subjective well-being and left-wing liberal political ideologies are all found to be positively related to sufficiency orien-tation. Moreover, basic psychological need satisfaction was identified as a potential mechanism that can support the emergence of sufficiency orientation, however, causality remains unclear. From these findings, the work derives practical implications how to possibly strengthen sufficiency orientation on the micro, meso and macro levels of society.
Taken together, the dissertation provides important insights into a new and still developing concept, and shows its connectivity to psychological theories. However, future research is required in order to grasp more precisely the complexity of sufficiency orientation and to understand origins and predictors of sufficiency orientation. This work contributes to the interdisciplinary debate on socio-ecological transformation and points out that sufficiency orientation can serve to a future worth living as being related to reduced consumption.
The history of human kind is characterized by social conflict. Every conflict can be the starting point of social change or the escalation into more destructive forms. The social conflict in regard to rising numbers of refugees and their acceptance that arose in most host countries in 2015 already took on destructive forms – in Germany, right-wing extremists attacked refugee shelters and even killed multiple people, including political leaders who openly supported refugees. Thus, incompatible expectancies and values of different parts of the society led to violent action tendencies, which tremendously threaten intergroup relations. Psychological research has developed several interventions in past decades to improve intergroup relations, but they fall short, for example, when it comes to the inclusion of people with extreme attitudes and to precisely differentiate potential prosocial outcomes of the interventions. Thus, this dissertation aimed to a) develop psychological interventions, that could also be applied to people with more extreme attitudes, thereby putting a special emphasis on collecting a diverse sample; b) gain knowledge about target- and outcome specific effects: Who benefits from which intervention and how can specific prosocial actions be predicted in order to develop interventions that guide needs-based actions; and c) shed light on potential underlying mechanisms of the interventions.
The dissertation will be introduced by the socio-political background that motivated the line of research pursued, before providing an overview of the conceptualization of social conflicts and potential psychological inhibitors and catalyzers for conflict transformation. Based on past research on socio-psychological interventions and their limitations, the aims of the dissertation will be presented in more detail, followed by a short summary of each manuscript. Overall, the present thesis comprises four manuscripts that were summarized in the general discussion into a road map for social-psychological interventions to put them into a broader perspective. The road map aspires to provide recommendations for increasing – either approach-oriented or support-oriented actions – by the socio-psychological interventions for a variety of host society groups depending on their pre-existing attitude towards refugees.
A Paradoxical Intervention targeting central beliefs of people with negative attitudes towards refugees influenced inhibitory and catalyzing factors for conflict transformation over the course of three experiments – thereby providing an effective tool to establish approach-oriented action tendencies, such as the willingness to get in contact with refugees. Further, the dissertation presents a novel mechanism – namely Cognitive Flexibility – which could explain the Paradoxical Interventions’ effect of past research. By positively affecting a context-free mindset, the Paradoxical Intervention could impact more flexible thought processes in general, irrespective of the topic tackled in the Paradoxical Intervention itself. For people with rather positive attitudes addressing emotions may increase specific support-oriented action tendencies. The dissertation provides evidence of a positive relation between moral outrage and hierarchy-challenging actions, such as solidarity-based collective action, and sympathy with prosocial hierarchy-maintaining support-oriented actions, such as dependency-oriented helping. These exclusive relations between specific emotions and action intentions provide important implications for the theorizing of emotion-behavior relations, as well as for practical considerations. In addition, a diversity workshop conducted with future diplomats showed indirect effects on solidarity-based collective action via diversity perception and superordinate group identification, thereby extending past research by including action intentions and going beyond the focus on grassroot-initiatives by presenting an implementable intervention for future leaders in a real world context.
Taken together, this dissertation provides important insights for the development of socio-psychological interventions. By integrating a diverse sample, including members of institutions on meso- and macro-levels (non-governmental organizations and future politicians) of our society, this dissertation presents a unique multi-perspective of host society members on the social conflict of refugee acceptance and support. Thereby, this work contributes to theoretical and practical advancement of how social psychology can contribute not only to negative peace – by for example (indirectly) reducing support of violence against refugees – but also to positive peace – by for example investigating precursors of hierarchy-challenging actions that enable equal rights.
Der Klimawandel stellt eine existenzielle Bedrohung für das menschliche Überleben, die soziale Organisation der Gesellschaft und die Stabilität der Ökosysteme dar. Er ist daher zutiefst beängstigend. Im Angesicht von Bedrohungen wollen sich Menschen häufig schützen, anstatt sich proaktiv zu verhalten. Wenn psychologische Ressourcen zur Bewältigung nicht ausreichen, reagieren Menschen oft mit verschiedenen Formen der Leugnung. Diese Dissertation leistet einen Beitrag zum Verständnis des vielschichtigen Phänomens der Klimawandelleugnung aus psychologischer Sicht.
Es gibt vier Forschungslücken in der Literatur zur Klimawandelleugnung: Erstens hat das Spektrum der Klimawandelleugnung als Selbst-schützende Reaktion auf die Klimakrise innerhalb der Psychologie bisher keine Beachtung gefunden. Zweitens wurde psychologische Grundbedürfnisbefriedigung, ein fundamentaler Indikator für menschliches Funktionieren und die Fähigkeit, mit Bedrohungen umzugehen, bisher nicht als Prädiktor für Klimawandelleugnung untersucht. Drittens sind Beziehungen des Spektrums der Klimawandelleugnung zu klimarelevanten Emotionen, insbesondere der Klimaangst, bisher nicht empirisch untersucht worden. Viertens wurde bisher nicht untersucht, wie sich das Spektrum der Klimawandelleugnung zu etablierten Prädiktoren der Klimawandelleugnung, d.h. rechtsideologischen Überzeugungen und männlichem Geschlecht, verhält. Um diese Lücken zu schließen, untersuche ich, wie sich das Spektrum der Klimawandelleugnung im deutschen Kontext manifestiert und wie es mit psychologischer Grundbedürfnisbefriedigung und -frustration, umweltfreundlichem Verhalten, Klimaangst, ideologischer Uberzeugung und Geschlecht zusammenhängt.
Fünf Manuskripte zeigen, dass Klimawandelleugnung im deutschen Kontext auf einem Spektrum existiert, das von der Verzerrung von Fakten (interpretative Leugnung, insbesondere Leugnung der persönlichen und globalen Folgenschwere) bis zur Leugnung von Implikationen reicht (implikatorische Leugnung, insbesondere Vermeidung, Leugnung von Schuld und Rationalisierung der eigenen Beteiligung). Über alle Analysen hinweg war niedrige psychologische Grundbedürfnisbefriedigung Prädiktor für das Spektrum der Klimawandelleugnung, das wiederum mit umweltfreundlichem Verhalten assoziiert war. Klimawandelleugnung stand generell in einem negativen Zusammenhang mit Klimaangst, mit Ausnahme einer positiven Assoziation von Vermeidung und Klimaangst. Rechtsideologische Überzeugung war der stärkste Prädiktor für Klimawandelleugnung über das gesamte Spektrum hinweg. Niedrige Bedürfnisbefriedigung und männliches Geschlecht waren weitere, aber schwächere Prädiktoren für implikatorische Leugnung.
Diese Ergebnisse legen nahe, dass das Spektrum der Klimawandelleugnung viele psychologische Funktionen erfüllt. Klimawandelleugnung ist möglicherweise sowohl eine Selbst-schützende Strategie, um Emotionen herunter zu regulieren, als auch um sich vor dem Verlust von Privilegien zu schützen. Kurz gesagt stellt Klimawandelleugnung eine Barriere für Klimaschutzmaßnahmen dar, die möglicherweise erst dann überwunden wird, wenn Menschen über ausreichende psychologische Ressourcen verfügen, um sich der Bedrohung durch den Klimawandel zu stellen und mit zugrundeliegenden Selbst-schützenden, emotionalen Reaktionen umzugehen.
Placing questions before the material or after the material constitute different reading situations. To adapt to these reading situations, readers may apply appropriate reading strategies. Reading strategy caused by location of question has been intensively explored in the context of text comprehension. (1) However, there is still not enough knowledge about whether text plays the same role as pictures when readers apply different reading strategies. To answer this research question, three reading strategies are experimentally manipulated by displaying question before or after the blended text and picture materials: (a) Unguided processing with text and pictures and without the question. (b) Information gathering to answer the questions after the prior experience with text and pictures. (c) Comprehending text and pictures to solve the questions with the prior information of the questions. (2) Besides, it is arguable whether readers prefer text or pictures when the instructed questions are in different difficulty levels. (3) Furthermore, it is still uncertain whether students from higher school tier (Gymnasium) emphasize more on text or on pictures than students from lower school tier (Realschule). (4) Finally, it is rarely mentioned whether higher graders are more able to apply reading strategies in text processing and picture processing than lower graders.
Two experiments were undertaken to investigate the usage of text and pictures in the perspectives of task orientation, question difficulty, school and grade. For a 2x2(x2x2x2) mixed design adopting eye tracking method, participants were recruited from grade 5 (N = 72) and grade 8 (N = 72). In Experiment 1, thirty-six 5th graders were recruited from higher tier (Gymnasium) and thirty-six 5th graders were from lower tier (Realschule). In Experiment 2, thirty-six 8th graders were recruited from higher tier and thirty-six were from lower tier. They were supposed to comprehend the materials combining text and pictures and to answer the questions. A Tobii XL60 eye tracker recorded their eye movements and their answers to the questions. Eye tracking indicators were analyzed and reported, such as accumulated fixation duration, time to the first fixation and transitions between different Areas of Interest. The results reveal that students process text differently from pictures when they follow different reading strategies. (1) Consistent with Hypothesis 1, students mainly use text to construct their mental model in unguided spontaneous processing of text and pictures. They seem to mainly rely on the pictures as external representations when trying to answer questions after the prior experience with the material. They emphasize on both text and pictures when questions are presented before the material. (2) Inconsistent with Hypothesis 2, students are inclined to emphasize on text and on pictures as question difficulty increases. However, the increase of focus on pictures is more than on text when the presented question is difficult. (3) Different from Hypothesis 3, the current study discovers that higher tier students did not differ from lower tier students in text processing. Conversely, students from higher tier attend more to pictures than students from lower tier. (4) Differed from Hypothesis 4, 8th graders outperform 5th graders mainly in text processing. Only a subtle difference is found between 5th graders and 8th graders in picture processing.
To sum up, text processing differs from picture processing when applying different reading strategies. In line with the Integrative Model of Text and Picture Comprehension by Schnotz (2014), text is likely to play a major part in guiding the processing of meaning or general reading, whereas pictures are applied as external representations for information retrieval or selective reading. When question is difficulty, pictures are emphasized due to their advantages in visualizing the internal structure of information. Compared to lower tier students (poorer problem solvers), higher tier students (good problem solvers) are more capable of comprehending pictures rather than text. Eighth graders are more efficient than 5th graders in text processing rather than picture processing. It also suggests that in designing school curricula, more attention should be paid to students’ competence on picture comprehension or text-picture integration in the future.
Die Diffusionsbildgebung misst die Bewegung von Wassermolekülen in Gewebe mittelsrnvariierender Gradientenfelder unter Verwendung der Magnetresonanztomographie(MRT). Diese Aufnahmetechnik stellt eine große Chance für in vivo Untersuchung von neuronalen Bahnen dar, da das lokale Diffusionsprofil Rückschlüsse über die Position und Richtung von Nervenbahnen erlaubt. Zu den Anwendungsgebieten der Diffusionsbildgebung zählt die Grundlagenforschung in den Neurowissenschaften, in denen Nervenbahnen als Verbindungen kortikaler Areale bestimmt werden, und die neurochirurgische Operationsplanung, in der rekonstruierte Bahnen als Risikostrukturen für Interventionen angesehen werden.
Die Diffusionstensor-MRT (DT-MRT) ist aufgrund ihrer schnellen Aufnahme- und Rekonstruktionsgeschwindigkeit derzeitig klinischer Standard zur Bestimmung von Nervenbahnen. Jedoch erlaubt die DT-MRT nicht die Darstellung von komplexen intravoxel Diffusionsverteilungen. Daher etablierte sich eine weitere Modellierungstechnik, die als High Angular Resolution Diffusion Imaging (HARDI) bekannt ist. HARDITechniken erhielten wachsendes Interesse in den Neurowissenschaften, da sie großes Potential zur exakteren Darstellung der Nervenbahnen im menschlichen Gehirn besitzen.
Um die Vorteile von HARDI-Techniken gegenüber DT-MRT voll auszuschöpfen, werden fortgeschrittene Methoden zur Rekonstruktion und Visualisierung der Bahnen benötigt. In der vorliegenden Arbeit werden neue Techniken vorgestellt, welche zur aktuellen Forschung hinsichtlich der Verarbeitung und Visualisierung von Diffusionsbildgebungsdaten beitragen. Ansätze zur Klassifizierung, Traktographie und Visualisierung wurden entwickelt um eine aussagekräftige Exploration neuronaler Bahnen und deren Beschaffenheit zu ermöglichen. Des Weiteren wurde eine interaktive Software für die neurochirurgische Operationsplanung implementiert, welche Nervenbahnen als Risikostrukturen berücksichtigt.
Die vorgestellten Forschungsergebnisse bieten einen erweiterten und aufgabenorientierten Einblick in neuronale Verbindungen sowohl für Neurowissenschaftler als auch für Neurochirurgen und tragen zum Einsatz von HARDI-Techniken in einer klinischen Umgebung bei.
Softwaresysteme haben einen zunehmenden Einfluss auf unser tägliches Leben. Viele Systeme verarbeiten sensitive Daten oder steuern wichtige Infrastruktur, was die Bereitstellung sicherer Software unabdingbar macht. Derartige Systeme werden aus Aufwands- und Kostengründen selten erneuert. Oftmals werden Systeme, die zu ihrem Entwurfszeitpunkt als sicheres System geplant und implementiert wurden, deswegen unsicher, weil sich die Umgebung dieser Systeme ändert. Dadurch, dass verschiedenste Systeme über das Internet kommunizieren, sind diese auch neuen Angriffsarten stetig ausgesetzt. Die Sicherheitsanforderungen an ein System bleiben unberührt, aber neue Erkenntnisse wie die Verwundbarkeit eines zum Entwurfszeitpunkt als sicher geltenden Verschlüsselungsalgorithmus erzwingen Änderungen am System. Manche Sicherheitsanforderungen können dabei nicht anhand des Designs sondern nur zur Laufzeit geprüft werden. Darüber hinaus erfordern plötzlich auftretende Sicherheitsverletzungen eine unverzügliche Reaktion, um eine Systemabschaltung vermeiden zu können. Wissen über geeignete Sicherheitsverfahren, Angriffe und Abwehrmechanismen ist grundsätzlich verfügbar, aber es ist selten in die Softwareentwicklung integriert und geht auf Evolutionen ein.
In dieser Arbeit wird untersucht, wie die Sicherheit langlebiger Software unter dem Einfluss von Kontext-Evolutionen bewahrt werden kann. Der vorgestellte Ansatz S²EC²O hat zum Ziel, die Sicherheit von Software, die modellbasiert entwickelt wird, mithilfe von Ko-Evolutionen wiederherzustellen.
Eine Ontologie-basierende Wissensbasis wird eingeführt, die sowohl allgemeines wie auch systemspezifisches, sicherheitsrelevantes Wissen verwaltet. Mittels einer Transformation wird die Verbindung der Wissensbasis zu UML-Systemmodellen hergestellt. Mit semantischen Differenzen, Inferenz von Wissen und der Erkennung von Inkonsistenzen in der Wissensbasis werden Kontext-Evolutionen erkannt.
Ein Katalog mit Regeln zur Verwaltung und Wiederherstellung von Sicherheitsanforderungen nutzt erkannte Kontext-Evolutionen, um mögliche Ko-Evolutionen für das Systemmodell vorzuschlagen, welche die Einhaltung von Sicherheitsanforderungen wiederherstellen.
S²EC²O unterstützt Sicherheitsannotationen, um Modelle und Code zum Zwecke einer Laufzeitüberwachung zu koppeln. Die Adaption laufender Systeme gegen Bedrohungen wird ebenso betrachtet wie Roundtrip-Engineering, um Erkenntnisse aus der Laufzeit in das System-Modell zu integrieren.
S²EC²O wird ergänzt um eine prototypische Implementierung. Diese wird genutzt, um die Anwendbarkeit von S²EC²O im Rahmen einer Fallstudie an dem medizinischen Informationssystem iTrust zu zeigen.
Die vorliegende Arbeit leistet einen Beitrag, um die Entwicklung und Wartung langlebiger Softwaresysteme in Bezug auf ihre Sicherheit zu begleiten. Der vorgestellte Ansatz entlastet Sicherheitsexperten bei ihrer Arbeit, indem er sicherheitsrelevante Änderungen des Systemkontextes erfasst, den Einfluss auf die Sicherheit der Software prüft und Ko-Evolutionen zur Bewahrung der Sicherheitsanforderungen ermöglicht.
Diese Arbeit befasst sich mit den reduzierten Basismethoden für parametrisierte quasilineare elliptische und parabolische partielle Differentialgleichungen mit stark monotonem Differentialoperator. Es werden alle Bestandteile der Methode mit reduzierter Basis vorgestellt: Basisgenerierung für reduzierte Approximation, Zertifizierung des Approximationsfehlers durch geeignete a-posteriori Fehlerkontrolle und Offine-Online-Zerlegung. Die Methodik wird ferner auf die magnetostatischen und magnetoquasistatischen Näherungen der Maxwellschen Gleichungen angewendet und ihre Gültigkeit wird durch numerische Beispiele bestätigt.
Introduction:
In March 2012 a secessionist-Islamist insurgency gained momentum in Mali and quickly took control of two-thirds of the state territory. Within weeks radical Islamists, drug smugglers and rebels suddenly ruled over a territory bigger than Germany. News of the abuse of the population and the introduction of harsh Sharia law spread soon, and word got out that the Malian Army had simply abandoned the land. The general echo of the IC was surprise, a reaction that was, as this research will show, as unfunded as it was unconstructive*. When Malian state structures collapsed, the world watched in shock, even though the developments couldhave been anticipated –and prevented. Ultimately, the situation had to be resolved by international forces (most notably French troops), who are still in Mali at the time of writing (Arieff 2013a: 5; Lohmann 2012: 3; Walther and Christopoulos 2015: 514f.; Shaw 2013: 204; Qantara, Interview, 2012;L’Express, Mali, 2015; Deutscher Bundestag, MINUSMA und EUTM Mali, 2016; UN, MUNISMA, 2016; Boeke and Schuurmann 2015: 801; Chivvis 2016: 93f.).
This research will show that the developments in Mali in 2012 have been developing for a long time and could have been avoided. In doing so, it will also show why state security can never be analyzed or consolidated in an isolated manner. Instead, it is necessary to take into account regional dynamics and developments in order to find a comprehensive approach to security in individual states. Once state failure occurs, not only does the state itself fail, but the surrounding region equally failed to prevent the failure.
Weak states are a growing concern in many world regions, particularly in Africa. As international intervention often proves unsustainable for various reasons*, the author believes that states which cannot stabilize themselves need a regional agent to support them. This regional agent should be a Regional Security Complex (RSC) asdefined by Barry Buzan and Ole Waever (Buzan and Waever 2003). As the following analysis will show, Mali is a case in point. The hope is that this study will help avoid similar failures in the future by making a strong case for the establishment of RSC’s.
…
Da die Belastung von Gewässern mit Mikroorganismen ein Gesundheitsrisiko für den Menschen unter anderem bei dessenFreizeitnutzung birgt, wurde die mikrobielle Belastung der Flüsse Rhein, Mosel und Lahn anhand von Indikatoren für fäkalbürtige bakterielle (Escherichia coli, intestinale Enterkokken) und virale Belastungen (somatische Coliphagen) untersucht. Des Weiteren wurden blaCTX-MGene als Marker für die Verbreitung von Antibiotikaresistenzen in der Lahn quantifiziert. Durch vergleichende Analysen von Monitoringdaten gegensätzlicher Abflussgeschehen in Rhein und Mosel wurde ein Einfluss von Veränderungen klimarelevanter Parameter auf die Verbreitung der fäkalen Indikatororganismen (FIO) geprüft. Die Analysen an Rhein, Mosel und Lahn zeigen deutlich, dass hohe Abflüsse und Niederschläge den Eintrag von FIO und Antibiotikaresistenzgenen (ARG) und damit potentiell antibiotikaresistenter Bakterien in Gewässer begünstigten, während unter dem Einfluss hoher Globalstrahlung und steigenden Wassertemperaturen ein Rückgang zu beobachtenwar. Basierend auf als relevant identifizierten Einflussparametern wurden multiple lineare Regressionsmodelle (MLR Modelle) entwickelt, die eine zeitnahe Vorhersage von FIO Konzentrationen an fünf Stellen eines Lahnabschnitts ermöglichen. Wechselwirkungenzwischen abiotischen und biotischen (Fraßdruck) Faktoren tragen zur Entstehung saisonaler Muster in den FIO Konzentrationenbei. Diese sind unter Niedrigwasserverhältnissen und besonders in Flüssen mit ausgeprägten trophischen Interaktionen besonders deutlich ausgeprägt und beeinflussen eine Übertragbarkeit von Modellansätzen zwischen Flüssen unterschiedlicher biologischer und hydrologischer Charakteristika. Daraus, dass Bakterien davon stärker betroffen sind als Coliphagen, lässt sich schließen, dass bakterielle Indikatoren virale Belastungen nicht ausreichend abbilden. BlaCTX-MGene waren in der Lahn parallel zu den FIO ubiquitär nachzuweisen, was auf einen fäkalen Ursprung hinweist. Landwirtschaft und kommunale Kläranlageneinleiter trugen zur Belastung mit FIO bei. Es zeigte sich, dass auch nicht badende Wassersportler mit eingeschränktem Wasserkontakt nachweislich dem Risiko ausgesetzt waren, antibiotikaresistente Bakterien (ARB) samt ihren Genen zu verschlucken, was das Risiko einer Infektion oder Kolonisierung mit den entsprechenden Bakterien birgt. Da ARG zu großen Teilen durch E. colierklärt werden konnten, könnenARG gegebenenfalls in MLR Modellemit E. colispezifischen Vorhersagevariablenintegriert werden. Kurzeitige und kurzfristig auftretende Verschmutzungsereignisse werden in Zukunft als eine Folge des Klimawandels in ihrer Häufigkeit weiter zunehmen. Identifizierte Herausforderungen hinsichtlich der Implementierung von Frühwarnsystemen zur Bewertung der mikrobiellen Wasserqualität in Flüssen liegen in den Anforderungen der Badegewässerrichtlinie (Richtlinie 2006/7/EC) und in einer unzureichenden Harmonisierung des Rechtsrahmens der Europäischen Union (EU) begründet, um Gesundheitsrisiken aufgrund mikrobieller Belastung in multifunktional genutzten Gewässern angemessen zu begegnen.
The first group that was revised within my study is Ochralea Clark, 1865 (Hazmi & Wagner 2010a). I have checked the type specimen of most species that were originally described in Ochralea and there is no doubt that this genus is clearly distinct from Monolepta. Weise (1924) has synonymised Galeruca nigripes (Olivier, 1808) with O. nigricornis Clark, 1865 and the valid name of the species is O. nigripes (Olivier, 1808). Out of ten species originally described in this genus, only this species remain valid and O. pectoralis is a new synonym of O. nigripes. Additionally, Monolepta wangkliana Mohamedsaid, 2000 is very closely related to O. nigripes and need to be transferred to Ochralea. The second genus where the revision is still published is Arcastes Baly, 1865 (Hazmi & Wagner 2010b). I have checked the genitalic characters of A. biplagiata, and most of the type species of other Arcastes. Arcastes biplagiata possesses a peculiar shape of the median lobe and asymmetrically arranged endophallic structures. These peculiar characters are very useful to delimit this genus from the others. Therefore, only three valid species remain in Arcastes, while two new synonyms are found and fourrnother species need to be transferred to other genera. While checking the genitalic characteristics of type species of Arcastes sanguinea, thernmedian lobe as well as the spermatheca of this species possesses strong differences to A. biplagiata. The species was redescribed and transferred in a monotypic new genus Rubrarcastes Hazmi & Wagner, 2010c. The fourth genus that was already revised is Neolepta Jacoby, 1884. It was originally described on base of only two species by that time, N. biplagiata and N. fulvipennis. Jacoby has not designated a type species of the genus, and Maulik (1936) did it later, with the designation of N. biplagiata. Jacoby in his original description has only commented that Neolepta is very close and similar to Monolepta Chevrolat, 1837 and Candezea Chapuis, 1879. Subsequent authors have described further eight species, and transferred one species from Luperodes to it, summing up the total number of eleven described species in Neolepta. I have checked the genitalic characters of the type, N. biplagiata and have found out that the median lobe is not incised apically and stronger sclerotised ventral carinae with an apical hook close to the apex occur. Out of all described species, only two are closely related to the genero-type, N. sumatrensis (Jacoby, 1884) new combination and N. quadriplagiata Jacoby, 1886 that will remain in this group after the revision. All other species need to be transferred to other genera, including the newly described Paraneolepta and Orthoneolepta. The last distinct paper of this thesis presented the results on Monolepta Chevrolat, 1837. The massive number of Monolepta from the entire Oriental Region, with about 260 described species names is a more long-life project and not practicable within a PhD-study. Thus I have focused on the species of Monolepta known from the Sundaland area in this work. A comprehensive revision including the study of the primary types of the described species, has never been done for Monolepta from this sub-region, while new species have also been described in the last decade (e. g. Mohamedsaid 1993, 1997, 1998, 1999, 2000a,b, 2001, 2002, 2005).
On base of the most current species lists of Mohamedsaid (2001, 2004, 2005) and Kimoto (1990), the number of valid species described from this region is about 72. After my revision, only thirteen valid species can remain in Monolepta in the sense of the generotype M. bioculata (Wagner 2007), while seven species have been found as new synonyms, three have been already transferred to other genera and further 49 species need to be transferred to other genera.
The increasing, anthropogenic demand for chemicals has created large environmental problems with repercussions for the health of the environment, especially aquatic ecosystems. As a result, the awareness of the public and decision makers on the risks from chemical pollution has increased over the past half-century, prompting a large number of studies in the field of ecological toxicology (ecotoxicology). However, the majority of ecotoxicological studies are laboratory based, and the few studies extrapolating toxicological effects in the field are limited to local and regional levels. Chemical risk assessment on large spatial scales remains largely unexplored, and therefore, the potential large-scale effects of chemicals may be overlooked.
To answer ecotoxicological questions, multidisciplinary approaches that transcend classical chemical and toxicological concepts are required. For instance, the current models for toxicity predictions - which are mainly based on the prediction of toxicity for a single compound and species - can be expanded to simultaneously predict the toxicity for different species and compounds. This can be done by integrating chemical concepts such as the physicochemical properties of the compounds with evolutionary concepts such as the similarity of species. This thesis introduces new, multidisciplinary tools for chemical risk assessments, and presents for the first time a chemical risk assessment on the continental scale.
After a brief introduction of the main concepts and objectives of the studies, this thesis starts by presenting a new method for assessing the physiological sensitivity of macroinvertebrate species to heavy metals (Chapter 2). To compare the sensitivity of species to different heavy metals, toxicity data were standardized to account for the different laboratory conditions. These rankings were not significantly different for different heavy metals, allowing the aggregation of physiological sensitivity into a single ranking.
Furthermore, the toxicological data for macroinvertebrates were used as input data to develop and validate prediction models for heavy metal toxicity, which are currently lacking for a wide array of species (Chapter 3). Apart from the toxicity data, the phylogenetic information of species (evolutionary relationships among species) and the physicochemical parameters for heavy metals were used. The constructed models had a good explanatory power for the acute sensitivity of species to heavy metals with the majority of the explained variance attributed to phylogeny. Therefore, the integration of evolutionary concepts (relatedness and similarity of species) with the chemical parameters used in ecotoxicology improved prediction models for species lacking experimental toxicity data. The ultimate goal of the prediction models developed in this thesis is to provide accurate predictions of toxicity for a wide range of species and chemicals, which is a crucial prerequisite for conducting chemical risk assessment.
The latter was conducted for the first time on the continental scale (Chapter 4), by making use of a dataset of 4,000 sites distributed throughout 27 European countries and 91 respective river basins. Organic chemicals were likely to exert acute risks for one in seven sites analyzed, while chronic risk was prominent for almost half of the sites. The calculated risks are potentially underestimated by the limited number of chemicals that are routinely analyzed in monitoring programmes, and a series of other uncertainties related with the limit of quantification, the presence of mixtures, or the potential for sublethal effects not covered by direct toxicity.
Furthermore, chemical risk was related to agricultural and urban areas in the upstream catchments. The analysis of ecological data indicated chemical impacts on the ecological status of the river systems; however, it is difficult to discriminate the effects of chemical pollution from other stressors that river systems are exposed to. To test the hypothesis of multiple stressors, and investigate the relative importance of organic toxicants, a dataset for German streams is used in chapter 5. In that study, the risk from abiotic (habitat degradation, organic chemicals, and nutrients enrichment) and biotic stressors (invasive species) was investigated. The results indicated that more than one stressor influenced almost all sites. Stream size and ecoregions influenced the distribution of risks, e.g., the risks for habitat degradation, organic chemicals and invasive species increased with the stream size; whereas organic chemicals and nutrients were more likely to influence lowland streams. In order to successfully mitigate the effects of pollutants in river systems, co-occurrence of stressors has to be considered. Overall, to successfully apply integrated water management strategies, a framework involving multiple environmental stressors on large spatial scales is necessary. Furthermore, to properly address the current research needs in ecotoxicology, a multidisciplinary approach is necessary which integrates fields such as, toxicology, ecology, chemistry and evolutionary biology.
Binnengewässer spielen eine aktive Rolle im globalen Kohlenstoffkreislauf. Sie nehmen Kohlenstoff von stromaufwärts gelegenen Landmassen auf und transportieren ihn stromabwärts, bis er schließlich den Ozean erreicht. Auf diesem Weg sind vielfältige Prozesse zu beobachten, die zu einer (dauerhaften) Rückhaltung des Kohlenstoffs durch Einlagerung in Sedimenten sowie zu direkter Emission in die Atmosphäre führen. Es ist dringend notwendig diese Kohlenstoffflüsse und ihre anthropogene Veränderung zu quantifizieren. In diesem Zusammenhang muss die Aufmerksamkeit auf ein weit verbreitetes Merkmal von Gewässern gerichtet werden: ihre teilweise Austrocknung. Dies führt dazu, dass ehemals überschwemmte Sedimente in direkten Kontakt mit der Atmosphäre gelangen, genannt „dry inland waters“. Ein Merkmal der „dry inland waters“ sind überproportional hohe Kohlendioxid (CO2)-Emissionen. Diese Erkenntnis beruhte jedoch bisher auf lokalen Fallstudien, und es fehlt an Wissen über die globale Verbreitung und die grundlegenden Mechanismen dieser Emissionen. Vor diesem Hintergrund zielt diese Arbeit darauf ab, das Ausmaß und die Mechanismen der Kohlenstoffemissionen der „dry inland waters“ auf globaler und lokaler Ebene besser zu verstehen und die Auswirkungen von „dry inland waters“ auf den globalen Kohlenstoffkreislauf zu bewerten. Die spezifischen Forschungsfragen dieser Arbeit lauteten: (1) Wie fügen sich gasförmige Kohlenstoffemissionen von „dry inland waters“ in den globalen Kohlenstoffkreislauf und in die globalen Treibhausgasbudgets ein? (2) Welche Auswirkungen haben saisonale und langfristige Austrocknung auf den Kohlenstoffkreislauf von Gewässern? Diese Arbeit hat gezeigt, dass „dry inland waters“im globalen Maßstab unverhältnismäßig große Mengen an CO2 emittieren und dass diese Emissionen in allen Ökosystemen vergleichbaren Mechanismen folgen. Die Quantifizierung der globalen Wasserstandsschwankungen in Stauseen und die globale Berechnung der Kohlenstoffflüsse legen nahe, dass Stauseen mehr Kohlenstoff freisetzen als sie in den Sedimenten einlagern, was das derzeitige Verständnis von Stauseen als Nettokohlenstoffsenken in Frage stellt. Auf lokaler Ebene hat diese Arbeit gezeigt, dass sowohl die heterogenen Emissionsmuster verschiedener typischer Uferbereiche als auch die saisonalen Schwankungen der Kohlenstoffemissionen aus der „drawdown area“ berücksichtigt werden müssen. Darüber hinaus hat diese Arbeit gezeigt, dass die Remobilisierung von Kohlenstoff aus den Sedimenten bei dauerhafter Austrocknung von Gewässern die beobachteten Emissionsraten erklären kann, was die Hypothese einer positiven Rückkopplung zwischen Klimawandel und der Austrocknung von Gewässern unterstützt. Insgesamt unterstreicht die vorliegende Arbeit die Bedeutung der Emissionen aus trockenen Gewässerbereichen für den globalen Kohlenstoffkreislauf von Gewässern.
Confidentiality, integrity, and availability are often listed as the three major requirements for achieving data security and are collectively referred to as the C-I-A triad. Confidentiality of data restricts the data access to authorized parties only, integrity means that the data can only be modified by authorized parties, and availability states that the data must always be accessible when requested. Although these requirements are relevant for any computer system, they are especially important in open and distributed networks. Such networks are able to store large amounts of data without having a single entity in control of ensuring the data's security. The Semantic Web applies to these characteristics as well as it aims at creating a global and decentralized network of machine-readable data. Ensuring the confidentiality, integrity, and availability of this data is therefore also important and must be achieved by corresponding security mechanisms. However, the current reference architecture of the Semantic Web does not define any particular security mechanism yet which implements these requirements. Instead, it only contains a rather abstract representation of security.
This thesis fills this gap by introducing three different security mechanisms for each of the identified security requirements confidentiality, integrity, and availability of Semantic Web data. The mechanisms are not restricted to the very basics of implementing each of the requirements and provide additional features as well. Confidentiality is usually achieved with data encryption. This thesis not only provides an approach for encrypting Semantic Web data, it also allows to search in the resulting ciphertext data without decrypting it first. Integrity of data is typically implemented with digital signatures. Instead of defining a single signature algorithm, this thesis defines a formal framework for signing arbitrary Semantic Web graphs which can be configured with various algorithms to achieve different features. Availability is generally supported by redundant data storage. This thesis expands the classical definition of availability to compliant availability which means that data must only be available as long as the access request complies with a set of predefined policies. This requirement is implemented with a modular and extensible policy language for regulating information flow control. This thesis presents each of these three security mechanisms in detail, evaluates them against a set of requirements, and compares them with the state of the art and related work.
Reaktiv lokale Algorithmen sind verteilte Algorithmen, die den Anforderungen großer, batteriebetriebener, Drahtloser Ad Hoc und Sensornetzwerke im besonderen Maße gerecht werden. Durch Vermeidung überflüssiger Nachrichtenübertragungen sowie Verzicht auf proaktive Ermittlung von Nachbarschaftstabellen (d.h. beaconing) minimieren solche Algorithmen den Kommunikationsaufwand und skalieren gut bei wachsender Netzgröße. Auf diese Weise werden Ressourcen wie Bandbreite und Energie geschont, es kommt seltener zu Nachrichtenkollisionen und dadurch zu einer Erhöhung der Paketempfangsrate, sowie einer Reduktion der Latenzen.
Derzeit wird diese Algorithmenklasse hauptsächlich für Geografisches Routing, sowie zur Topologiekontrolle, insbesondere zur Ermittlung der Adjazenzliste eines Knotens in zusammenhängenden, kantenschnittfreien (planaren) Repräsentationen des Netzgraphen, eingesetzt. Ersteres ermöglicht drahtlose multi-hop Kommunikation auf Grundlage von geografischen Knotenpositionen ohne Zuhilfenahme zusätzlicher Netzwerkinfrastruktur, wohingegen Letzteres eine hinreichende Grundlage für effiziente, lokale Lösungen einer Reihe algorithmischer Problemstellungen ist.
Die vorliegende Dissertation liefert neue Erkenntnisse zum Forschungsgebiet der reaktiven Algorithmen, zum Einen auf einer abstrakten Ebene und zum Anderen durch die Einführung neuer Algorithmen.
Erstens betrachtet diese Arbeit reaktive Algorithmen erstmalig im Ganzen und als eigenständiges Forschungsfeld. Es wird eine umfangreiche Literaturstudie zu dieser Thematik präsentiert, welche die aus der Literatur bekannten Algorithmen, Techniken und Anwendungsfelder systematisch auflistet, klassifiziert und einordnet. Weiterhin wird das mathematische Konzept der O- und Omega-reaktiv lokalen Topologiekontrolle eingeführt. Dieses Konzept ermöglicht erstmals die eindeutige Unterscheidung reaktiver von konventionellen, beacon-basierten, verteilten Topologiekontrollalgorithmen. Darüber hinaus dient es als Klassifikationsschema für existierende, sowie zukünftige Algorithmen dieser Art. Zu guter Letzt ermöglicht dieses Konzept grundlegende Aussagen über die Mächtigkeit des reaktiven Prinzips, welche über Entwurf und Analyse von Algorithmen hinaus reichen.
Zweitens werden in dieser Arbeit neue reaktiv lokale Algorithmen zur Topologiekontrolle und Geografischem Routing eingeführt, wobei drahtlose Netze durch Unit Disk bzw. Quasi Unit Disk Graphen modelliert werden. Diese Algorithmen berechnen für einen gegebenen Knoten die lokale Sicht auf zusammenhängende, planare, Euklidische bzw. Topologische Spanner mit konstanter Spannrate bzgl. des Netzgraphen und routen Nachrichten reaktiv entlang der Kanten dieser Spanner, wobei die Nachrichtenauslieferung garantiert wird. Alle bisher bekannten Verfahren sind entweder nicht reaktiv oder gewährleisten keine konstanten Euklidischen oder Topologischen Spannraten. Ein wesentliches Teilergebnis dieser Arbeit ist der Nachweis, dass die partielle Delaunay Triangulierung (PDT) ein Euklidischer Spanner mit konstanter Spannrate für Unit Disk Graphen ist.
Die in dieser Dissertation gewonnenen Erkenntnisse bilden die Basis für grundlegende und strukturierte Forschung auf diesem Gebiet und zeigen, dass das reaktive Prinzip ein wichtiges Werkzeug des Algorithmenentwurfs für Drahtlose Ad Hoc und Sensornetzwerke ist.
Social Business Documents: An Investigation of their Nature, Structure and Long-term Management
(2018)
Geschäftsdokumente beinhalten wertvolle Informationen. Sie müssen verwaltet werden, um gesetzlichen Anforderungen zu entsprechen, als organisatorisches Wissen zu dienen und Risiken zu vermeiden. Veränderungen der Technologien haben jedoch zu neuen Dokumententypen und neuen Interaktionsmöglichkeiten mit Dokumenten geführt. So hat das Web 2.0 zur Entwicklung von Enterprise Collaboration Systems (ECS) geführt, die Mitarbeitern die Nutzung von Wiki-, Blog- oder Forum-Anwendungen für ihre Geschäftstätigkeiten ermöglichen. Ein Teil der in ECS erstellten Inhalte können dabei als Social Business Documents (SBD) bezeichnet werden. Im Vergleich zu traditionellen digitalen Dokumenten haben SBD eine andere Beschaffenheit und Struktur. SBD sind beispielsweise unstrukturierter und folgen keinem strikten Lebenszyklus. Diese Charakteristika bringen neue Herausforderungen beim Verwalten von SBD mit sich. Jedoch fehlen in der wissenschaftlichen Literatur derzeit Untersuchungen zu den Charakteristika von SBD, ihren Besonderheiten und ihrem Management.
Als theoretische Linse nutzt diese Arbeit Dokumenten-Theorien und dokumentarische Praktiken mit dem Ziel, die neuen Herausforderungen des Langzeitmanagement von SBD in ECS zu untersuchen. Durch einen interpretativen, explorativen Mixed-Method-Ansatz vereint diese Arbeit zwei Forschungsteile. Erstens werden die Beschaffenheit und Struktur von SBD durch die Analyse von vier Systemen untersucht und SBD-Informationsmodelle entwickelt. Diese zeigen die zugrundeliegenden Komponenten von SBD, die Struktur, die Funktionen, die enthaltenen Metadaten, sowie die große Bandbreite von SBD-Charakteristika auf. Der zweite Teil wurde mit Unternehmensvertretern durchgeführt und besteht aus einer Fokusgruppe, einer Fallstudie mit Tiefeninterviews und einem Fragebogen. Die Fokusgruppe zeigt, dass die genutzte Art von SBD bezogen auf ihren Inhalt und Speicherort unternehmensabhängig ist und es derzeit fast keine SBD-Management-Praktiken gibt. Die Fallstudie ermöglichte tiefe Einblicke in allgemeine Dokumentenmanagement-Aktivitäten und untersuchte die Anforderungen, Herausforderungen und Prozesse des SBD-Managements. Der Fragebogen konsolidierte und vertiefte die vorherigen Erkenntnisse und gibt Einblicke in den Wert von SBD, aktuelle Management-Praktiken sowie Herausforderungen und Bedürfnisse bei deren Management. Auch zeigt er auf, dass zwar alle Unternehmen Informationen im ECS speichern, die verwaltet werden sollten, jedoch kaum SBD-Management-Aktivitäten durchführt werden und so noch viele Herausforderungen bestehen.
Zusammenfassend erlauben die Ergebnisse einen Beitrag zu Praxis und Theorie. Die Praxis ist mittels eines Frameworks adressiert, welches die Anforderungen, Herausforderungen und Aktivitäten des SBD-Managements, die Unternehmen beim Langzeitmanagement beachten müssen, aufzeigt. Des Weiteren erlauben die Erkenntnisse den theoretischen Fortschritt der dokumentenbezogenen Praktiken durch die Erweiterung der Dokumententypen um SBD. Auch werden die bestehenden Probleme der Definition von Records in Bezug auf SBD erläutert sowie die Charakteristika von Dokumenten um jene von Social Business Documents erweitert.
Enterprise Collaboration Systems (ECS) haben sich als zentrale Werkzeuge zur computergestützten Kommunikation und Kollaboration zwischen Mitarbeitenden in Unternehmen entwickelt. ECS vereinen Funktionalitäten aus social media und Groupware. Daher führen mehr und mehr Unternehmen ECS ein, um die Zusammenarbeit am digitalen Arbeitsplatz zu unterstützen. Dementsprechend bilden ECS den Kern des digitalen Arbeitsplatzes. Dies verleiht den Logs dieser Systeme einen besonderen Wert, da sich einzigartige Möglichkeiten bieten, um Kollaboration zwischen Mitarbeitern am digitalen Arbeitsplatz zu beobachten und zu analysieren.
Der aktuelle Stand der Forschung zeigt auf, dass es sowohl in der Forschung aus auch in der Praxis keine einheitliche Herangehensweise an die Analyse von ECS Logfiles gibt. Aufgrund des eingeschränkten Funktionsumfangs von ECS Analytics Software können Wissenschaftler und Praktiker das volle Potenzial der Logs nicht ausschöpfen. Da die Logfiles von ECS zur Untersuchung von Kollaboration am digitalen Arbeitsplatz von großem Wert sind, müssen neue Methoden und Kennzahlen für deren Analyse entwickelt werden. Um die bestehenden Limitationen zu adressieren, beantwortet diese Dissertation die folgenden Forschungsfragen:
1. Welches sind die aktuellen Herangehensweisen an die Messung von Kollaboration in Enterprise Collaboration Systems?
2. Wie kann Social Collaboration Analytics in der Praxis angewendet werden?
Diese Dissertation entwickelt SCA als Methode für die Messung und Analyse von Kollaboration in ECS. Durch die Beantwortung der Forschungsfragen, baut die Dissertation ein allgemeines, breites Verständnis dieses neuen Forschungsfeldes auf und entwickelt eine Herangehensweise für die Anwendung von SCA. Als Teil der ersten Forschungsfrage stellt die Dissertation den Status Quo von SCA in Forschung und Praxis fest. Im Zuge der Beantwortung der zweiten Forschungsfrage wird das Social Collaboration Analytics Framework (SCAF) entwickelt. Das Framework ist der Hauptbeitrag dieser Dissertation und wurde auf Basis einer Analyse von 86 SCA Studien, den Ergebnissen aus 6 Fokusgruppen und den Ergebnissen einer Befragung von 27 ECS Anwenderunternehmen entwickelt. Die Phasen von SCAF wurden aus einer Analyse von bestehenden Prozessmodellen für data mining und business intelligence abgeleitet. Die acht Phasen des Frameworks beinhalten detaillierte Beschreibungen, Arbeitsschritte und Leitfragen, die eine Schritt für Schritt Anwendung für die Anwendung von SCA bieten.
Diese Dissertation verfolgt einen qualitativ-dominanten mixed-methods Ansatz. Als Teil der Forschungsinitiative IndustryConnect besteht Zugang zu mehr als 30 führenden ECS-Anwenderunternehmen. Die Durchführung von aufeinander aufbauenden Fokusgruppen ermöglicht die Sammlung einzigartiger Daten über einen längeren Zeitraum hinweg. Basierend auf einer Tiefenfallstudie und ECS Logs eines Unternehmens, zeigt die Dissertation auf, wie das SCA Framework in der Praxis angewendet werden kann.
Social Entrepreneurship ist eine Form des Unternehmertums, die einen sozialen Auftrag mit einem wettbewerbsfähigen Leistungsversprechen verbindet. Insbesondere fördert Social Entrepreneurship eine gerechtere Gesellschaft, indem es soziale Fragen anspricht und versucht, eine nachhaltige Wirkung durch eine soziale Mission und nicht durch reine Gewinnmaximierung zu erzielen. Das Thema Social Entrepreneurship hat sich auf viele verschiedene Forschungsrichtungen ausgeweitet. Der Fokus darauf, zu verstehen, wie und warum Unternehmer denken und handeln, bleibt eine wichtige Rechtfertigung für die zukünftige Forschung. Dennoch steckt die theoretische Auseinandersetzung mit diesem Phänomen noch in den Kinderschuhen. Sociale Entrepreneurship-Forschung ist nach wie vor weitgehend Phänomen getrieben. Insbesondere die Forschung zur sozialunternehmerischen Absicht befindet sich in einem frühen Stadium und es fehlt an quantitativer Forschung. Daher wird in dieser Arbeit vorgeschlagen, diese Notwendigkeit zu adressieren. Damit verfolgt die Dissertation zwei Ziele: (1) ein Modell für soziale unternehmerische Intentionen im Allgemeinen zu entwickeln und (2) das Modell durch eine empirische Studie zu testen. Auf der Grundlage dieser Ziele, sind die beiden leitenden Forschungsfragen: (1) Welche Faktoren beeinflussen die Absicht einer Person ein Social Entrepreneur zu werden? (2) Welche Beziehungen bestehen zwischen diesen Faktoren?
Um diese beiden Forschungsfragen zu beantworten, erscheint ein Forschungsdesign zielführend, das eine Kombination aus Literaturrecherche und empirischer Studie darstellt. Die Literaturrecherche basiert auf einem umfassenden Angebot an Büchern, Artikeln und Forschungsarbeiten, die in führenden akademischen Zeitschriften und Konferenzberichten in verschiedenen Disziplinen wie Entrepreneurship, Social Entrepreneurship Education, Management, Sozialpsychologie und Sozialökonomie veröffentlicht wurden. Die empirische Studie umfasst eine Befragung von 600 Studierenden im letzten Studienjahr an vier Universitäten in drei Regionen Vietnams: Hanoi, Da Nang und Ho Chi Minh. Die Daten werden mit SPSS-AMOS Version 24 unter Verwendung von Screening-Daten, Maßstabsentwicklung, explorativer und konfirmativer Faktorenanalyse analysiert. Die Dissertation findet heraus, dass Entrepreneurship Experience/Extra-curricular Activity, Role Model, Social Entrepreneurial Self-Efficacy und Social Entrepreneurial Outcome Expectation sich direkt und positiv auf die Absicht der vietnamesischen Studierenden auswirken, Social Entrepreneurs zu sein. Entrepreneurship Education beeinflusst auch die Social Entrepreneurial Intention, aber nicht direkt, sondern indirekt über Social Entrepreneurial Self-Efficacy und Social Entrepreneurial Outcome Expectation. Ebenso hat Perceived Support keinen direkten Bezug zu Social Entrepreneurial Intention, zeigt aber eine indirekte Verbindung über den Mediator Social Entrepreneurial Outcome Expectation. Darüber hinaus bringt die Dissertation neue Einblicke in die Social Entrepreneurship-Literatur und liefert wichtige Implikationen für die Praxis. Einschränkungen und zukünftige Richtungen sind auch in der Dissertation enthalten.
Homonegative Diskriminierung, wie die Aberkennung von Führungsqualitäten oder die Verweigerung einer besseren Bezahlung, betrifft nicht nur Lesben und Schwule, sondern Menschen, die als lesbisch oder schwul wahrgenommen werden (Fasoli et al., 2017). Folglich wird angenommen, dass insbesondere heterosexuelle Personen Opfer homonegativer Diskriminierung werden (Plöderl, 2014). Zwar ist die Wahrnehmung der sexuellen Orientierung stereotypengetrieben (z.B. Cox et al., 2015), jedoch fehlt es bislang an Wissen darüber, wie korrekt diese Stereotype, insbesondere bezogen auf die Sprechweise, sind. Trotz diverser soziophonetischer und sozialpsychologischer Forschung im Zusammenhang mit sexueller Orientierung und Geschlecht, mangelt es bislang an einem umfassenden Verständnis, wie die sexuelle Orientierung ausgedrückt und wahrgenommen wird.
Diese Lücken möchte die vorliegende Arbeit schließen. Hauptziele der vorliegenden Arbeit sind a) die Überprüfung der Korrektheit von Sprechstereotypen im Kontext der sexuellen Orientierung und b) die Entwicklung eines Modells, wie die sexuelle Orientierung interpersonell konstruiert wird. Die vorliegende Arbeit besteht aus insgesamt fünf Manuskripten. Diesen ist gemein, dass sie sozialpsychologische und soziophonetische Perspektiven integrativ behandeln, die soziale Identität in den Blick nehmen und primär die Sprechweise anstelle der fazialen Erscheinung in den Mittelpunkt stellen. Zudem wurden vornehmlich deutsche respektive deutschsprachige Versuchspersonen untersucht.
In Manuskript 1 wird die Traditional Masculinity/Femininity-Scale als reliables und valides Instrument zur Erfassung des Geschlechtsrollen-Selbstkonzeptes etabliert. Diese Neuentwicklung ist notwendig, da bislang existierende Skalen die selbstzugeschriebene Maskulinität/Femininität nur noch unzureichend abbilden (z.B. Abele, 2003; Evers & Sieverding, 2014). In den Manuskripten 2, 3 und 4 wird die Korrektheit von Sprechstereotypen bezüglich ihres stereotypen Inhalts und der unterstellten Homogenität von Mitgliedern der gleichen Gruppe adressiert. Dies erfolgt durch den Einsatz unterschiedlicher methodischer Zugänge. Zum einen werden relevante akustische Parameter von lesbischen/schwulen und heterosexuellen Frauen und Männern gemittelt, zum anderen wird Voice-Morphing-Verfahren angewendet, um prototypische, natürlich klingende Durchschnittsstimmen herzustellen (Kawahara et al., 2008). Lesben und heterosexuelle Frauen unterscheiden sich in keinem, schwule und heterosexuelle Männer nur in einem der analysierten akustischen Parameter. Demgegenüber erbrachte eine nuancierte psychologische Analyse verschiedentlich Evidenz für eine akustische Heterogenität innerhalb der Gruppen. Insbesondere die Exklusivität der sexuellen Orientierung wie auch das Geschlechtsrollen-Selbstkonzept wurden akustisch indexikalisiert. Dies legt nahe, dass Sprechstereotype inkorrekt sind. Jedoch wurde gezeigt, dass in den Durchschnittsstimmen die Informationen über die sexuelle Orientierung für Rezipient*innen wahrnehmbar enthalten sind. Dadurch lassen sich Sprechstereotype als Übertreibungen kleiner Körnchen von Wahrheit begreifen. In Manuskript 5 wird die bisherige Literatur zur interpersonellen Konstruktion der sexuellen Orientierung zu einem Modell verdichtet: Dem Expression and Perception of Sexual Orientation Model. Dieses Modell beschreibt mit einer indirekten Route, wie die Information der sexuellen Orientierung von der Kommunikator*in hin zur Rezipient*in durch drei mediierende Komponenten übertragen wird. Dadurch ist das Modell in der Lage, eine Erklärung dafür anzubieten, warum die sexuelle Orientierung zwar überzufällig gut aber nicht perfekt erkannt werden kann.
Insgesamt stellt die vorliegende Arbeit bedeutsame Impulse zur Weiterentwicklung der Erforschung von sozialen Markern der sexuellen Orientierung und des Geschlechts bereit. Sie schlägt ein (Denk)Modell vor, wie sexuelle Orientierung ausgedrückt und wahrgenommen wird, sie zeigt die Fruchtbarkeit der Verquickung sozialpsychologischer und soziophonetischer Forschungsansätze auf und verdeutlicht den Wert der Anwendung neuer Methoden und Technologien. Darüber hinaus weist die vorliegende Arbeit auch praktische Implikationen auf. Sprechstereotype im Kontext der sexuellen Orientierung können als inkorrekt zurückgewiesen werden – so sprechen deutschsprachige heterosexuelle Männer nicht mehr oder weniger nasal als schwule Männer. Damit trägt die vorliegende Arbeit potentiell zum Abbau von Stereotypen und zur Reduktion von Diskriminierung bei.
The term “Software Chrestomaty” is defined as a collection of software systems meant to be useful in learning about or gaining insight into software languages, software technologies, software concepts, programming, and software engineering. 101companies software chrestomathy is a community project with the attributes of a Research 2.0 infrastructure for various stakeholders in software languages and technology communities. The core of 101companies combines a semantic wiki and confederated open source repositories. We designed and developed an integrated ontology-based knowledge base about software languages and technologies. The knowledge is created by the community of contributors and supported with a running example and structured documentation. The complete ecosystem is exposed by using Linked Data principles and equipped with the additional metadata about individual artifacts. Within the context of software chrestomathy we explored a new type of software architecture – linguistic architecture that is targeted on the language and technology relationships within a software product and based on the megamodels. Our approach to documentation of the software systems is highly structured and makes use of the concepts of the newly developed megamodeling language MegaL. We “connect” an emerging ontology with the megamodeling artifacts to raise the cognitive value of the linguistic architecture.
Die Organische Bodensubstanz (OBS) nimmt eine Schlüsselrolle in der Sequestrierung organischer Moleküle und damit in der Regulierung ihrer Mobilität in Böden ein. Sie besteht aus Molekülen, die durch supramolekulare Wechselwirkungen strukturiert sind und dynamisch auf Umweltfaktoren und andere Moleküle reagieren können. Der Einfluss von Sorbateigenschaften und supramolekularer Struktur der OBS und deren Dynamik auf Sorptionsprozesse an der OBS ist bisher nur begrenzt verstanden. Ein Beispiel für das dynamische Verhalten der OBS ist deren physikochemische Alterung, die zu Umstrukturierungen in der OBS-Matrix führt. Dieser liegt die Bildung von Wassermolekülbrücken (WaMB) zwischen funktionellen Gruppen einzelner Molekülsegmente zugrunde. Da die WaMB die Struktur der OBS und ihre Stabilität wesentlich beeinflussen, wird davon ausgegangen, dass diese zur Sequestrierung von organischen Molekülen in der OBS beitragen. Diese Hypothese wurde jedoch noch nicht experimentell überprüft. Bisheriges Wissen darüber, wie organische Moleküle die Eigenschaften von WaMB beeinflussen, basiert weitestgehend auf Computermodellierungen. Da unbekannt ist, wie Moleküle, die in die OBS eindringen, deren physikalische Phasen beeinflussen, bedürfen insbesondere die vermuteten Wechselwirkungen zwischen organischen Molekülen und aliphatischen kristallinen Phasen unbedingt einer experimentellen Überprüfung.
Dazu wurden in dieser Arbeit die folgenden Hypothesen experimentell getestet. 1) Analog zu kristallinen Phasen in synthetischen Polymeren können aliphatische Kristallite in der OBS nicht von organischen Molekülen durchdrungen werden. 2) Die Stabilität von WaMB wird durch die Fähigkeit, der sie umgebenden Moleküle mit Wassermolekülen zu interagieren, bestimmt. 3) WaMB können verhindern, dass organische Moleküle die OBS-Matrix verlassen und tragen dadurch zu ihrer physikalischen Immobilisierung bei. Um die Hypothesen 1 und 2 zu überprüfen, wurden Böden mit ausgewählten Chemikalien behandelt, deren Wechselwirkungspotenzial mit Parametern der Theorie der Linearen Solvatationsenergiebeziehung charakterisiert wurde. Die Eigenschaften der WaMB, wie thermische Stabilität und Mobilität der verknüpften OBS-Molekülsegmente, wurden mit der Dynamischen Differenzkalorimetrie (DDK) charakterisiert. Struktur und thermische Eigenschaften von aliphatischen Kristalliten wurden mithilfe von 13C-NMR-Spektroskopie und DDK untersucht. Die Dotierung von Bodenproben mit dem Modellschadstoff Phenol und Messungen zur Phenoldesorption ermöglichten es, die Parameter der Desorptionskinetik mit WaMB-Eigenschaften zu verknüpfen.
Die Ergebnisse zeigen, dass die WaMB-Stabilität wesentlich durch Moleküle mit H-Donor- und Akzeptoreigenschaften gesenkt wird. Die mit den WaMB einhergehende Starrheit der OBS-Matrix wurde hauptsächlich durch das McGowan-Volumen der interagierenden Moleküle beeinflusst, was auf einen großen Einfluss der Dispersionskräfte hindeutet. Die Desorption von Phenol folgte einer Kinetik erster Ordnung mit zwei Zeitkonstanten, die beide mit der WaMB-Stabilität korrelierten, was die Hypothese stützt, dass WaMB zur physikalischen Immobilisierung von Phenol beiträgt. Die aliphatischen Kristalliten unterlagen nach Kontakt mit ausgewählten Chemikalien strukturellen Änderungen, die zu einem amorpheren Zustand und zu einer Senkung des Schmelzpunkts und einer signifikanten Abnahme der Kristallinität in der OBS führten. Diese strukturellen Änderungen konnten sowohl von Molekülen mit spezifischen, als auch von solchen mit unspezifischen Wechselwirkungen verursacht werden. Dies zeigt, dass Moleküle mit einem breiten Spektrum an Wechselwirkungspotenzialen in aliphatische Kristallite eindringen und deren Struktur verändern können.
Am Beispiel von WaMB und aliphatischen Kristalliten wurde aus dieser Arbeit ersichtlich, dass organische Moleküle mit Bestandteilen der OBS interagieren und messbare Änderungen in deren Struktur und Eigenschaften verursachen können. Neben der Relevanz von aliphatischen Kristalliten für Sorptionsprozesse im Boden wurde gezeigt, dass die physikochemische Matrixalterung signifikant zur Immobilisierung von Schadstoffen in der OBS beiträgt.
We consider variational discretization of three different optimal control problems.
The first being a parabolic optimal control problem governed by space-time measure controls. This problem has a nice sparsity structure, which motivates our aim to achieve maximal sparsity on the discrete level. Due to the measures on the right hand side of the partial differential equation, we consider a very weak solution theory for the state equation and need an embedding into the continuous functions for the pairings to make sense. Furthermore, we employ Fenchel duality to formulate the predual problem and give results on solution theory of both the predual and the primal problem. Later on, the duality is also helpful for the derivation of algorithms, since the predual problem can be differentiated twice so that we can apply a semismooth Newton method. We then retrieve the optimal control by duality relations.
For the state discretization we use a Petrov-Galerkin method employing piecewise constant states and piecewise linear and continuous test functions in time. For the space discretization we choose piecewise linear and continuous functions. As a result the controls are composed of Dirac measures in space-time, centered at points on the discrete space-time grid. We prove that the optimal discrete states and controls converge strongly in L^q and weakly-* in Μ, respectively, to their smooth counterparts, where q ϵ (1,min{2,1+2/d}] is the spatial dimension. The variational discrete version of the state equation with the above choice of spaces yields a Crank-Nicolson time stepping scheme with half a Rannacher smoothing step.
Furthermore, we compare our approach to a full discretization of the corresponding control problem, precisely a discontinuous Galerkin method for the state discretization, where the discrete controls are piecewise constant in time and Dirac measures in space. Numerical experiments highlight the sparsity features of our discrete approach and verify the convergence results.
The second problem we analyze is a parabolic optimal control problem governed by bounded initial measure controls. Here, the cost functional consists of a tracking term corresponding to the observation of the state at final time. Instead of a regularization term for the control in the cost functional, we consider a bound on the measure norm of the initial control. As in the first problem we observe a sparsity structure, but here the control resides only in space at initial time, so we focus on the space discretization to achieve maximal sparsity of the control. Again, due to the initial measure in the partial differential equation, we rely on a very weak solution theory of the state equation.
We employ a dG(0) approximation of the state equation, i.e. we choose piecewise linear and continuous functions in space, which are piecewise constant in time for our ansatz and test space. Then, the variational discretization of the problem together with the optimality conditions induce maximal discrete sparsity of the initial control, i.e. Dirac measures in space. We present numerical experiments to illustrate our approach and investigate the sparsity structure
As third problem we choose an elliptic optimal control governed by functions of bounded variation (BV) in one space dimension. The cost functional consists of a tracking term for the state and a BV-seminorm in terms of the derivative of the control. We derive a sparsity structure for the derivative of the BV control. Additionally, we utilize the mixed formulation for the state equation.
A variational discretization approach with piecewise constant discretization of the state and piecewise linear and continuous discretization of the adjoint state yields that the derivative of the control is a sum of Dirac measures. Consequently the control is a piecewise constant function. Under a structural assumption we even get that the number of jumps of the control is finite. We prove error estimates for the variational discretization approach in combination with the mixed formulation of the state equation and confirm our findings in numerical experiments that display the convergence rate.
In summary we confirm the use of variational discretization for optimal control problems with measures that inherit a sparsity. We are able to preserve the sparsity on the discrete level without discretizing the control variable.
This study was conducted in Nyungwe National Park (NNP); a biodiversity hotspot Mountain rainforest of high conservation importance in Central Africa, but with little knowledge of its insect communities including butterflies, good indicators of climate change, and forest ecosystem health. The study aimed at availing baseline data on butterfly species diversity and distribution in NNP, for future use in monitoring climate change-driven shifts and the effects of forest fragmentation on the biodiversity of Nyungwe. Butterflies were collected seasonally using fruit-baited traps and hand nets along elevational transects spanning from 1700 m up to 2950 m of altitude. Two hundred forty-two species including 28 endemics to the Albertine Rift and 18 potential local climate change indicators were documented. Species richness and abundance declined with increasing elevation and higher seasonal occurrence was observed during the dry season. This was the first study on the spatial and temporal distribution of butterflies in NNP and further studies could be conducted to add more species and allow a depth understanding of the ecology of Nyungwe butterflies.