Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (249) (entfernen)
Sprache
- Englisch (249) (entfernen)
Schlagworte
- Pestizid (6)
- Pflanzenschutzmittel (5)
- Landwirtschaft (4)
- Software Engineering (4)
- ecotoxicology (4)
- Biodiversität (3)
- Bodenchemie (3)
- Insektizid (3)
- Nanopartikel (3)
- Pesticides (3)
Institut
- Fachbereich 7 (73)
- Institut für Informatik (29)
- Institut für Integrierte Naturwissenschaften, Abt. Biologie (23)
- Fachbereich 8 (20)
- Institut für Umweltwissenschaften (19)
- Institute for Web Science and Technologies (11)
- Institut für Computervisualistik (9)
- Institut für Integrierte Naturwissenschaften, Abt. Chemie (9)
- Mathematisches Institut (8)
- Institut für Anglistik und Amerikanistik (7)
- Institut für Integrierte Naturwissenschaften, Abt. Physik (7)
- Institut für Wirtschafts- und Verwaltungsinformatik (6)
- Institut für Integrierte Naturwissenschaften (5)
- Institut für Softwaretechnik (5)
- Fachbereich 6 (4)
- Institut für Management (3)
- Fachbereich 4 (2)
- Arbeitsbereich Allgemeine und Pädagogische Psychologie (1)
- Arbeitsbereich Biopsychologie, Klinische Psychologie und Psychotherapie (1)
- Arbeitsbereich Diagnostik, Differentielle und Persönlichkeitspsychologie, Methodik und Evaluation (1)
- Arbeitsbereich Entwicklungspsychologie und Pädagogische Psychologie (1)
- Arbeitsbereich Sozial- und Wirtschaftspsychologie (1)
- Fachbereich 5 (1)
- Institut für Bildung im Kindes- und Jugendalter (1)
- Institut für Erziehungswissenschaft (1)
- Institut für Integrierte Naturwissenschaften, Abt. Geographie (1)
- Institut für Kommunikationspsychologie und Medienpädagogik (1)
- Institut für Mathematik (1)
- Institut für Musikwissenschaft und Musikpädagogik (1)
- Institut für Sozialwissenschaften (1)
- Institut für fremdsprachliche Philologien (1)
Folksonomien sind Web 2.0 Plattformen, in denen Benutzer verschiedene Inhalte miteinander teilen können. Die Inhalte können mit Hilfe von Stichwörtern, den sogenannten Tags, kategorisiert und organisiert werden. Die verschiedenen Folksonomien unterstützen unterschiedliche Inhaltstypen wie zum Beispiel Webseiten (Delicious), Bilder (Flickr) oder Videos (YouTube). Aufgrund ihrer einfachen Benutzungsweise haben Folksonomien viele Millionen Benutzer. Die einfache Benutzungsweise führt aber auch zu einigen Problemen. Diese Doktorarbeit beschäftigt sich mit drei der wichtigsten Probleme und beschreibt Methoden, wie sie gelöst werden können. Das erste dieser Probleme tritt auf, wenn Benutzer die Folksonomien nach bestimmten Inhalten durchsuchen wollen. Häufig können dabei nicht alle relevanten Inhalte gefunden werden, da diesen relevante Stichwörter fehlen. Dementsprechend tritt das zweite Problem während der Vergabe von Stichwörtern auf. Manche Folksonomien, wie zum Beispiel Delicious, unterstützen ihre Benutzer dabei, indem sie ihnen mögliche Stichwörter empfehlen. Andere Folksonomien, wie zum Beispiel Flickr, bieten keine solche Unterstützung. Die Empfehlung von Stichwörtern hilft dem Benutzer dabei, Inhalte auf einfache Art und Weise mit den jeweils relevanten Stichwörtern zu versehen. Das dritte Problem besteht darin, dass weder Stichwörter noch Inhalte mit einer festen Semantik versehen sind und mehrdeutig sein können. Das Problem entsteht dadurch, dass die Benutzer die Stichwörter vollkommen frei rnverwenden können. Die automatische Identifizierung der Semantik von Stichwörtern und Inhalten hilft dabei, die dadurch entstehenden Probleme zu reduzieren. Diese Doktorarbeit stellt mehrere Methoden vor, wie verschiedene Quellen für semantische Informationen benutzt werden können, um die vorher genannten drei Probleme zu lösen. In dieser Doktorarbeit benutzen wir als Quellen Internetsuchmaschinen, soziale Netzwerke im Internet und die gemeinsamen Vorkommen von Stichwörtern in Folksonomien. Die Verwendung der verschiedenen Quellen reduziert den Aufwand bei der Erstellung von Systemen, die die vorher genannten Probleme lösen. Die vorgestellten Methoden wurden auf einem großen Datensatz evaluiert. Die erzielten Ergebnisse legen nahe, dass semantische Informationen bei der Lösung der Probleme helfen, die während der Suche von Inhalten, der Empfehlung von Stichwörtern als auch der automatischen Identifizierung der Semantik von Stichwörtern und Inhalten auftreten.
Ein grundlegendes Verständnis der Anlagerung von künstlich hergestellten Nanopartikeln ist für die Prognose des Schicksals und Transports von Nanopartikeln in der Umwelt unerlässlich.
In dieser Arbeit wurde die Anlagerung von unbedeckten und mit Citrat bedeckten Silbernanopartikeln an unterschiedliche Modell- und Umweltoberflächen in An- und Abwesenheit der Huminsäure untersucht.
Für diese Untersuchungen wurden Sorptionsexperimente durchgeführt. Das Ziel dieser Arbeit ist es zu untersuchen, wie die Silbernanopartikel mit Oberflächen wechselwirken, die verschiedene chemische funktionelle Gruppen besitzen. Dabei wurde ebenfalls der Effekt der Huminsäure auf die Wechselwirkungen zwischen Partikel und Oberfläche untersucht. Die Wechselwirkungen zwischen Nanopartikel und Oberfläche sind in Abwesenheit der Huminsäure wahrscheinlich durch die chemische Natur der wechselwirkenden Oberflächen beeinflusst. In Anwesenheit der Huminsäure wurde diese chemische Sensitivität gegen Anlagerung von Nanopartikeln nicht beobachtet und die Sorption war durch die spezifische Oberfläche von Sorbentien beeinflusst. Die Sorptionsisothermen wurden für die Sorption von Silbernanopartikeln an allen Oberflächen in Abwesenheit der Huminsäure durch Langmuir-Modell beschrieben. Das deutete auf Monoschicht-Sorption der Nanopartikel an Oberflächen hin. Das kann durch den bei der Partikel-Partikel-Abstoßung generierten blockierenden Effekt erklärt werden. In Anwesenheit der Huminsäure zeigten alle Sorptionsisothermen ein lineares Verhalten. Wenn die Huminsäure im Wechselwirkungsmedium vorhanden war, waren die Nanopartikel und Oberflächen mit Huminsäure bedeckt. Dadurch wird die chemische Funktionalität von Oberflächen maskiert. Das führt zu den Unterschieden zwischen Partikel-Oberfläche-Wechselwirkungen in An- und Abwesenheit der Huminsäure. Die mit Citrat und Huminsäure bedeckten Silbernanopartikel zeigten eine Abnahme der Sorption an Oberflächen im Vergleich zu unbedeckten Silbernanopartikeln. Im Falle der mit Citrat bedeckten Silbernanopartikel kann die Abnahme der Sorption durch elektrostatische Kräfte erklärt werden, da diese Partikel ein mehr negatives Zetapotential zeigten. Die Sorptionsabnahme für die mit Huminsäure bedeckten Nanopartikel ist offensichtlich eine Folge der sterischen Behinderung, da es auf Grund der Sorption der Huminsäure an Oberflächen zur Konkurrenz zwischen Nanopartikeln und Huminsäuremolekülen für die Sorptionsplätze kommt. Durch die chemischen Eigenschaften der Nanopartikeloberfläche wird die Effizienz der Anlagerung an Oberflächen beeinflusst. Deswegen ist die Charakterisierung der Nanopartikeloberfläche ein wichtiger Schritt bei der Untersuchung des Schicksals von Nanopartikeln in der Umwelt.
Ein anderes Ziel dieser Arbeit ist es das Potential der chemischen Kraftmikroskopie für die Charakterisierung von Nanopartikeloberflächen mit chemischer Sensitivität zu zeigen. Durch die Anwendung dieser Methode war es möglich zwischen unbedeckten, mit Citrat und Huminsäure bedeckten Silbernanopartikeln zu unterscheiden. Das wurde durch die Messung der Adhäsionskräfte zwischen Nanopartikeln und fünf verschiedenen Atomkraftmikroskope-Spitzen mit unterschiedlichen chemischen Funktionalisierungen ermöglicht.
Die Biodiversität von Vertebraten nimmt weltweit rapide ab, wobei Amphibien die am stärksten gefährdete Wirbeltiergruppe darstellen. In der EU sind 21 von 89 Amphibienarten bedroht. Die intensiv genutzte europäische Agrarlandschaft ist eine der Hauptursachen für diese Rückgänge. Da die Agrarlandschaft einen bedeutenden Lebensraum für Amphibien darstellt, kann die Exposition zu Pestiziden negative Auswirkungen auf Amphibienpopulationen haben. Derzeit erfordert die europäischen Risikobewertung von Pestiziden für Vertebraten spezifische Ansätze für Fische hinsichtlich der aquatischen Vertebratentoxizität und für Vögel sowie Säugetiere in Bezug auf die terrestrische Vertebratentoxizität. Die besonderen Eigenschaften von Amphibien werden jedoch nicht berücksichtigt. Daher war das übergeordnete Ziel dieser Arbeit, die
ökotoxikologischen Effekte von Pestiziden auf mitteleuropäische Froschlurche zu untersuchen. Dazu wurden Effekte auf aquatische und terrestrische Amphibienstadien sowie auf deren Reproduktion untersucht. Anschließend wurden in dieser Arbeit in Erwartung einer Risikobewertung von Pestiziden für Amphibien mögliche regulatorische Risikobewertungsansätze diskutiert.
Für die untersuchten Pestizide und Amphibienarten wurde festgestellt, dass die akute aquatische Toxizität von Pestiziden mit dem bestehenden Ansatz der aquatischen Risikobewertung auf der Grundlage von Fischtoxizitätsdaten abgedeckt werden kann. Jedoch wurden bei terrestrischen Juvenilen nach dermaler Exposition zu umweltrealistischen Pestizidkonzentrationen sowohl letale als auch subletale Effekte beobachtet, die mit keinem verfügbaren Risikobewertungsansatz erfasst werden können. Daher sollten Pestizide vor der Zulassung auch auf eine potenzielle terrestrische Toxizität mit Hilfe von Risikobewertungsinstrumenten geprüft werden. Darüber hinaus müssen die Auswirkungen von Bei- und Hilfsstoffen von Pestiziden bei einer zukünftigen Risikobewertung besonders berücksichtigt werden, da sie die Toxizität von Pestiziden gegenüber aquatischen und terrestrischen Amphibienstadien erhöhen können.
Des Weiteren wurde gezeigt, dass die chronische Dauer einer kombinierten aquatischen und terrestrischen Exposition die Reproduktion von Amphibien negativ beeinflusst. Gegenwärtig
können solche Effekte von der bestehenden Risikobewertung nicht erfasst werden, da Daten aus Feldszenarien, die die Auswirkungen mehrerer Pestizide auf die Reproduktion von Amphibien abbilden, zu selten sind, um einen Vergleich mit Daten anderer terrestrischer Wirbeltiere wie Vögel und Säugetiere zu ermöglichen. In Anbetracht dieser Erkenntnisse sollten sich zukünftige Untersuchungen nicht nur mit akuten und letalen Effekten, sondern auch mit chronischen und subletalen Effekten auf Populationsebene befassen. Da sich die Exposition gegenüber Pestiziden negativ auf Amphibienpopulationen auswirken kann, sollte ihr Einsatz noch sorgfältiger überlegt werden, um einen weiteren Rückgang der Amphibien zu vermeiden. Insgesamt unterstreicht diese Arbeit die dringende Notwendigkeit einer protektiven Pestizidrisikobewertung für Amphibien, um Amphibienpopulationen in Agrarlandschaften zu erhalten und zu fördern.
In IT-Systemen treten viele Datenschutzrisiken auf, wenn Datenschutzbedenken in den frühen Phasen des Entwicklungsprozesses nicht angemessen berücksichtigt werden. Die Datenschutz-Grundverordnung (DSGVO) schreibt das Prinzip des Datenschutz durch Technikgestaltung (PbD) vor. PbD erfordert den Schutz personenbezogener Daten von Beginn des Entwicklungsprozesses an, durch das frühzeitige Integrieren geeigneter Maßnahmen. Bei der Realisierung von PbD ergeben sich nachfolgende Herausforderungen: Erstens benötigen wir eine präzise Definition von Datenschutzbedenken. Zweitens müssen wir herausfinden, wo genau in einem System die Maßnahmen angewendet werden müssen. Drittens ist zur Auswahl geeigneter Maßnahmen, ein Mechanismus zur Ermittlung der Datenschutzrisiken erforderlich. Viertens müssen bei der Auswahl und Integration geeigneter Maßnahmen, neben den Risiken, die Abhängigkeiten zwischen Maßnahmen und die Kosten der Maßnahmen berücksichtigt werden.
Diese Dissertation führt eine modellbasierte Methodik ein, um die oben genannten Herausforderungen zu bewältigen und PbD zu operationalisieren. Unsere Methodik basiert auf einer präzisen Definition von Datenschutzbedenken und umfasst drei Untermethodiken: modellbasierte Datenschutzanalyse, modellbasierte Datenschutz-Folgenabschätzung und datenschutzfreundliche Systemmodellierung. Zunächst führen wir eine Definition für Datenschutzpräferenzen ein, anhand derer die Datenschutzbedenken präzisiert werden können und überprüft werden kann, ob die Verarbeitung personenbezogener Daten autorisiert ist. Zweitens präsentieren wir eine modellbasierte Methodik zur Analyse eines Systemmodells. Die Ergebnisse dieser Analyse ergeben die Menge der Verstöße gegen die Datenschutzpräferenzen in einem Systemmodell. Drittens führen wir eine modellbasierte Methode zur Datenschutzfolgenabschätzung ein, um konkrete Datenschutzrisiken in einem Systemmodell zu identifizieren. Viertens schlagen wir in Bezug auf die Risiken, Abhängigkeiten zwischen Maßnahmen und Kosten der Maßnahmen, eine Methodik vor, um geeignete Maßnahmen auszuwählen und in ein Systemdesign zu integrieren. In einer Reihe von realistischen Fallstudien bewerten wir unsere Konzepte und geben einen vielversprechenden Ausblick auf die Anwendbarkeit unserer Methodik in der Praxis.
Human action recognition from a video has received growing attention in computer vision and has made significant progress in recent years. Action recognition is described as a requirement to decide which human actions appear in videos. The difficulties involved in distinguishing human actions are due to the high complexity of human behaviors as well as appearance variation, motion pattern variation, occlusions, etc. Many applications use human action recognition on captured video from cameras, resulting in video surveillance systems, health monitoring, human-computer interaction, and robotics. Action recognition based on RGB-D data has increasingly drawn more attention to it in recent years. RGB-D data contain color (Red, Green, and Blue (RGB)) and depth data that represent the distance from the sensor to every pixel in the object (object point). The main problem that this thesis deals with is how to automate the classification of specific human activities/actions through RGB-D data. The classification process of these activities utilizes a spatial and temporal structure of actions. Therefore, the goal of this work is to develop algorithms that can distinguish these activities by recognizing low-level and high-level activities of interest from one another. These algorithms are developed by introducing new features and methods using RGB-D data to enhance the detection and recognition of human activities. In this thesis, the most popular state-of-the-art techniques are reviewed, presented, and evaluated. From the literature review, these techniques are categorized into hand-crafted features and deep learning-based approaches. The proposed new action recognition framework is based on these two categories that are approved in this work by embedding novel methods for human action recognition. These methods are based on features extracted from RGB-D data that are
evaluated using machine learning techniques. The presented work of this thesis improves human action recognition in two distinct parts. The first part focuses on improving current successful hand-crafted approaches. It contributes into two significant areas of state-of-the-art: Execute the existing feature detectors, and classify the human action in the 3D spatio-temporal domains by testing a new combination of different feature representations. The contributions of this part are tested based on machine learning techniques that include unsupervised and supervised learning to evaluate this suitability for the task of human action recognition. A k-means clustering represents the unsupervised learning technique, while the supervised learning technique is represented by: Support Vector Machine, Random Forest, K-Nearest Neighbor, Naive Bayes, and Artificial Neural Networks classifiers. The second part focuses on studying the current deep-learning-based approach and how to use it with RGB-D data for the human action recognition task. As the first step of each contribution, an input video is analyzed as a sequence of frames. Then, pre-processing steps are applied to the video frames, like filtering and smoothing methods to remove the noisy data from each frame. Afterward, different motion detection and feature representation methods are used to extract features presented in each frame. The extracted features
are represented by local features, global features, and feature combination besides deep learning methods, e.g., Convolutional Neural Networks. The feature combination achieves an excellent accuracy performance that outperforms other methods on the same RGB-D datasets. All the results from the proposed methods in this thesis are evaluated based on publicly available datasets, which illustrate that using spatiotemporal features can improve the recognition accuracy. The competitive experimental results are achieved overall. In particular, the proposed methods can be better applied to the test set compared to the state-of-the-art methods using the RGB-D datasets.
Efficient Cochlear Implant (CI) surgery requires prior knowledge of the cochlea’s size and its characteristics. This information helps to select suitable implants for different patients. Registered and fused images helps doctors by providing more informative image that takes advantages of different modalities. The cochlea’s small size and complex structure, in addition to the different resolutions and head positions during imaging, reveals a big challenge for the automated registration of the different image modalities. To obtain an automatic measurement of the cochlea length and the volume size, a segmentation method of cochlea medical images is needed. The goal of this dissertation is to introduce new practical and automatic algorithms for the human cochlea multi-modal 3D image registration, fusion, segmentation and analysis. Two novel methods for automatic cochlea image registration (ACIR) and automatic cochlea analysis (ACA) are introduced. The proposed methods crop the input images to the cochlea part and then align the cropped images to obtain the optimal transformation. After that, this transformation is used to align the original images. ACIR and ACA use Mattes mutual information as similarity metric, the adaptive stochastic gradient descent (ASGD) or the stochastic limited memory Broyden–Fletcher–Goldfarb–Shanno (s-LBFGS) optimizer to estimate the parameters of 3D rigid transform. The second stage of nonrigid registration estimates B-spline coefficients that are used in an atlas-model-based segmentation to extract cochlea scalae and the relative measurements of the input image. The image which has segmentation is aligned to the input image to obtain the non-rigid transformation. After that the segmentation of the first image, in addition to point-models are transformed to the input image. The detailed transformed segmentation provides the scala volume size. Using the transformed point-models, the A-value, the central scala lengths, the lateral and the organ of corti scala tympani lengths are computed. The methods have been tested using clinical 3D images of total 67 patients: from Germany (41 patients) and Egypt (26 patients). The atients are of different ages and gender. The number of images used in the experiments is 217, which are multi-modal 3D clinical images from CT, CBCT, and MRI scanners. The proposed methods are compared to the state of the arts ptimizers related medical image registration methods e.g. fast adaptive stochastic gradient descent (FASGD) and efficient preconditioned tochastic gradient descent (EPSGD). The comparison used the root mean squared distance (RMSE) between the ground truth landmarks and the resulted landmarks. The landmarks are located manually by two experts to represent the round window and the top of the cochlea. After obtaining the transformation using ACIR, the landmarks of the moving image are transformed using the resulted transformation and RMSE of the transformed landmarks, and at the same time the fixed image landmarks are computed. I also used the active length of the cochlea implant electrodes to compute the error aroused by the image artifact, and I found out an error ranged from 0.5 mm to 1.12 mm. ACIR method’s RMSE average was 0.36 mm with a standard deviation (SD) of 0.17 mm. The total time average required for registration of an image pair using ACIR was 4.62 seconds with SD of 1.19 seconds. All experiments are repeated 3 times for justifications. Comparing the RMSE of ACIR2017 and ACIR2020 using paired T-test shows no significant difference (p-value = 0.17). The total RMSE average of ACA method was 0.61 mm with a SD of 0.22 mm. The total time average required for analysing an image was 5.21 seconds with SD of 0.93 seconds. The statistical tests show that there is no difference between the results from automatic A-value method and the manual A-value method (p-value = 0.42). There is no difference also between length’s measurements of the left and the right ear sides (p-value > 0.16). Comparing the results from German and Egypt dataset shows there is no difference when using manual or automatic A-value methods (p-value > 0.20). However, there is a significant difference when using ACA2000 method between the German and the Egyptian results (p-value < 0.001). The average time to obtain the segmentation and all measurements was 5.21 second per image. The cochlea scala tympani volume size ranged from 38.98 mm3 to 57.67 mm3 . The combined scala media and scala vestibuli volume size ranged from 34.98 mm 3 to 49.3 mm 3 . The overall volume size of the cochlea should range from 73.96 mm 3 to 106.97 mm 3 . The lateral wall length of scala tympani ranged from 42.93 mm to 47.19 mm. The organ-of-Corti length of scala tympani ranged from 31.11 mm to 34.08 mm. Using the A-value method, the lateral length of scala tympani ranged from 36.69 mm to 45.91 mm. The organ-of-Corti length of scala tympani ranged from 29.12 mm to 39.05 mm. The length from ACA2020 method can be visualised and has a well-defined endpoints. The ACA2020 method works on different modalities and different images despite the noise level or the resolution. In the other hand, the A-value method works neither on MRI nor noisy images. Hence, ACA2020 method may provide more reliable and accurate measurement than the A-value method. The source-code and the datasets are made publicly available to help reproduction and validation of my result.
Soziale Medien bieten eine leistungsstarke Möglichkeit für Menschen, Meinungen und Gefühle zu einem bestimmten Thema auszutauschen, sodass andere von diesen Gedanken und Gefühlen profitieren können. Dieses Verfahren erzeugt eine riesige Menge an unstrukturierten Daten, wie Texte, Bilder und Verweise, die durch täglich anwachsende Kommentare zu verwandten Diskussionen ständig zunimmt. Die riesige Menge an unstrukturierten Daten stellt jedoch ein Risiko für den Prozess der Informationsextraktion dar, sodass die Entscheidungsfindung zu einer großen Herausforderung wird. Dies liegt daran, dass die Datenflut zu einem Verlust von nützlichen Daten aufgrund ihrer unangemessenen Darstellung und ihrer Anhäufung führen kann. Insofern leistet diese Arbeit einen Beitrag zum Gebiet der Sentimentanalyse und des Opinion Mining, das darauf abzielt, Emotionen und Meinungen aus riesigen Text- und Bilddatensätzen zu extrahieren. Das ultimative Ziel ist es, jeden Text oder jedes Bild als Ausdruck einer positiven, negativen oder neutralen Emotion zu klassifizieren, um bei der Entscheidungsfindung zu helfen. Sentiment- und Meinungsklassifikatoren wurden für Text- und Bilddatensätze aus sozialen Medien entwickelt, z. B. für Firmen- oder Produktbewertungen, Blogbeiträge und sogar Twitter-Nachrichten. In dieser Arbeit wird zunächst eine neue Methode zur Reduktion der Dimension von Textdaten auf Basis von Data-Mining-Ansätzen vorgestellt und anschließend das Sentiment auf Basis von neuronalen und Deep Neural Network-Klassifikationsalgorithmen untersucht. Anschließend untersuchen wir im Gegensatz zur Sentiment-Analyseforschung in Textdatensätzen die Sentiment Ausdrucks- und Polaritätsklassifikation innerhalb und über Bilddatensätze hinweg, indem wir tiefe neuronale Netze auf Basis des Aufmerksamkeitsmechanismus aufbauen.
The bio-insecticide Bacillus thuringiensis israelensis (Bti) has worldwide become the most commonly used agentin mosquito control programs that pursue two main objectives: the control of vector-borne diseases and the reduction of nuisance, mainly coming frommosquitoes that emerge in large quantities from seasonal wetlands. The Upper Rhine Valley, a biodiversity hotspot in Germany, has been treated withBti for decades to reduce mosquito-borne nuisance and increase human well-being.Although Btiis presumed to be an environmentally safe agent,adverse effects on wetland ecosystems are still a matter of debate especially when it comes to long-term and indirect effects on non-target organisms. In light of the above, this thesis aims at investigating direct and indirect effects of Bti-based mosquito control on non-target organisms within wetland food chains.Effects were examinedin studies with increasingeco(toxico)logical complexity, ranging from laboratory over mesocosm to field approaches with a focus on the non-biting Chironomidae and amphibian larvae (Rana temporaria, Lissotriton sp.).In addition, public acceptance of environmentally less invasive alternative mosquito control methods was evaluated within surveys among the local population.
Chironomids were the most severely affected non-target aquatic invertebrates. Bti substantially reduced larval and adult chironomid abundances and modified their species composition. Repeated exposures to commonly used Bti formulations induced sublethal alterations of enzymatic biomarkers activityin frog tadpoles. Bti-induced reductions of chironomid prey availability indirectly decreased body size of newts at metamorphosis and increased predation on newt larvae in mesocosm experiments. Indirect effects of severe reductions in midge biomassmight equally be passed through aquatic but also terrestrial food chains influencing predators of higher trophic levels. The majority ofaffectedpeople in the Upper Rhine Valley expressed a high willingness to contributefinancially to environmentally less harmful mosquito control.Alternative approaches could still include Bti applications excepting treatment of ecologically valuable areas. Potentially rising mosquito levels could be counteracted with local acting mosquito traps in domestic and urban areas because mosquito presence was experienced as most annoying in the home environment.
As Bti-based mosquito control can adversely affect wetland ecosystems, its large-scale applications, including nature conservation areas, should be considered more carefully to avoid harmful consequences for the environmentat the Upper Rhine Valley.This thesis emphasizesthe importance to reconsiderthe current practice of mosquito control and encourage research on alternative mosquito control concepts that are endorsed by the local population. In the context ofthe ongoing amphibian and insect declinesfurther human-induced effects onwetlands should be avoided to preserve biodiversity in functioning ecosystems.
Aktuelle Schätzungen bestätigten, dass Binnengewässer eine erhebliche Menge Methan (CH4) und Kohlendioxid (CO2) sowohl auf regionaler Ebene, als auch global freisetzen. Jedoch basieren diese Schätzungen auf extrapolierten gemessenen Daten, ungenügender Auflösung der räumlich-zeitlichen Variabilität und es mangelt an Daten aus ariden und semi-ariden Gebieten, sowie den Kohlestoffquellen aus Kläranlagen.
Für die hier vorliegende Studie analysierten wir monatliche hydrologische und meteorologische Daten sowie Daten zur Wasserqualität von drei Stauseen aus dem Gebiet des unteren Jordans, die zur Trinkwassergewinnung und zur Bewässerung genutzt werden, und schätzten damit deren Emissionsrate an CO2 ab. Wir untersuchten den Effekt von Kläranlagen auf die umliegenden Gewässer im Hinblick auf CH4 und CO2-Emissionen indem wir saisonal aufgelöste Daten der Konzentration der beiden gelösten Gase in Kläranlagenauslässen und in Vorflutern von neun Kläranlagen in Deutschland analysierten. Mithilfe von Low-Cost-Methoden die die CO2-Transportrate und die Ausgasungsrate über Gasblasen messen, untersuchten wir die räumliche und zeitliche Variabilität der CH4 und CO2-Emissionen von aquatischen Süßwasser-Ökosystemen.
Unsere Schätzungen zeigen, dass Stauseen in semi-ariden Regionen CO2 übersättigt sind und somit CO2 an die Atmosphäre abgeben, also eine Netto-Quelle sind.
Die Größenordnung der beobachteten Transportraten der drei jordanischen Stauseen ist vergleichbar mit denen von tropischen Stauseen (3,3 g CO2 m-2 Tag-1). Die CO2-Emissionsrate ist abhängig von Änderungen der Wasseroberfläche, welche durch den Betrieb der Stauseen verursacht sind. Kläranlagen entlassen eine beachtlichen Menge an CH4 (30.9±40.7 kg Jahr-1) und CO2 (0.06±0.05 Gg Jahr-1) in ihre umgebenden Flüsse und Bäche. Deren Emissionsraten sind durch diese Einleitung der Kläranlagen um 1,2-fach für CH4 oder 8,6-fach für CO2 erhöht. Unsere Ergebnisse zeigen, dass sowohl die diffusive als auch die Gasblasenemissionsrate räumlich und zeitlich variabel ist, weshalb beide Emissionsraten bei zukünftigen Studien auch in der nötigen Auflösung gemessen werden sollten.
Wir schlussfolgern, dass bei zukünftigen Emissionsmessungen und –schätzungen von Binnengewässern auch die Gewässerbewirtschaftung, die Kohlenstoffquelle von Kläranlagen und die räumliche und zeitliche Variabilität der Emissionen beachtet werden sollten.
Seit Jahrzehnten wird weltweit eine zunehmende Bedrohung der biologischen Vielfalt durch anthropogene Einflüsse beobachtet. Landschaften sind durch unterschiedliche Arten von anthro-pogenen Störungen geprägt. So vereinheitlichen großflächiger Ackerbau, die Pestizidanwen¬dung und das Entfernen von Korridoren eine Landschaft, wohingegen der Straßenbau sie fragmentiert. Beides führt zu einer Einschränkung von Habitaten und reduziert sowohl den Lebensraum als auch den Genpool der Arten, verhindert den Genfluss und verändert die funktionellen Eigenschaften. Zudem können gebietsfremde Arten in der veränderten Umwelt schneller Fuß fassen. Auf der anderen Seite machen in verschiedenen zeitlichen und räumlichen Dimensionen vorkommenden Störungen eine Landschaft auch vielfältiger, da sie Nischen kreieren, in denen verschiedene Arten koexistieren können.
Diese Studie befasst sich mit der Komplexität von Störungsregimes und dessen Auswirkungen auf die Phytodiversität. Durch die Aufnahme aller erkennbaren Störungstypen unterscheidet sie sich deutlich von anderen Studien, die sich meist nur auf einzelne Störungen konzentrieren. Die Daten stammen von drei Untersuchungsgebieten im Norden Bayerns, die unterschiedlichen Landnutzungsintensitäten unterliegen: Einer intensiven Land- und Forstwirtschaft, einer kleinräumigen und weniger intensiven Land- und Forstwirtschaft und einem aktiven Truppenübungsplatzes. Der erste Teil der Arbeit befasst sich mit der Auswirkung von Störungsregimen auf die Phytodiversität, zuerst mit Fokus auf militärische Störungen, dann im Vergleich mit den Agrarlandschaften. Der zweite Teil beleuchtet den Einfluss auf Rote-Liste Arten, auf die Verbreitung von Neophyten und Generalisten sowie auf die Homogenisierung der Landschaften. Die Analysen berücksichtigen sowohl die Landschafts- als auch die lokale Ebene.
Nicht einzelne Störungstypen spielten eine entscheidende Rolle, sondern deren Vielfalt, sowohl in der Art als auch in der räumlichen und zeitlichen Vielfalt, was sich besonders auf dem Truppenübungs¬platz mit seinem multiplen aber ungerichteten Störungsregime zeigte. Die in landwirtschaftlichen Gebieten typischen homogenen Störungsregimes, wie Pflügen, Einsäen und Düngen, führten zu reduzierten Artenzahlen. Auf lokaler Ebene überlagerte die Heterogenität der abiotischen Faktoren, deren Ursprung in rezenten und historischen Störungen liegt, die positiven Effekte der Störungen, während vor allem trockene und nährstoffarme Standorte negativen Einfluss zeigten. Wälder des Truppenübungsplatzes zeigten sich durch ihre geringere Dichte und moderate Nutzung deutlich artenreicher im Vergleich zu den landwirtschaftlichen Untersuchungsgebieten.
Die Anzahl der Rote-Liste Arten war in allen drei Untersuchungsgebieten positiv mit der Gesamtzahl der Arten korreliert, jedoch zeigte der Truppenübungsplatz eine signifikant höhere Abundanz der Arten innerhalb des gesamten Gebietes im Vergleich zu den landwirtschaftlichen Gebieten, wo seltene Arten überwiegend auf Randstandorten zu finden waren. Ebenso fanden sich dort weniger Neophyten und Generalisten und somit eine geringere Homogenisierung. Somit zeigte sich der Truppenübungsplatz als Idealgebiet aus Naturschutzsicht. Die moderat bewirtschaftete Frankenalb vereint eine hohen Artenzahl und eine Produktivität, trotzdem wird diese Art von Landschaft in der heutigen industrialisierten Zeit nicht von Bestand sein, da der Ertrag zu gering ist.
In the present study the flora and vegetation of Kakamega Forest, an East African rainforest in Western Kenya, was investigated. Kakamega Forest is highly degraded and fragmented and is an ideal model to study the anthropogenic influence on the forest inventory. The main focus was to analyse the influence of human impact on the vascular plant species composition. During five field phases in the years 2001 to 2004 a total of 19 study sites scattered over the whole forest including all fragments were investigated regarding forest structure, species composition and plant communities. The different forest sites were analysed by three different methods, phytosociological relevés, line-transect and with the variable-area transect method. The forest survey revealed about 400 taxa of vascular plant species, among them 112 trees, 62 shrubs, 58 climbers and 114 herbs. Several species are restricted to this forest in Kenya, but only one endemic species, the herb Commelina albiflora, could be discovered. About 15 species were recorded as new for Kenya and probably at least one species is new to science. Kakamega Forest is a unique mixture of Guineo-Congolian and Afromontane floral elements. About one half of the vascular plant species has its origin in the lowland forests of the Congo basin and one third originates from Afromontane habitats. The present study represents the first description of plant communities of Kakamega Forest. An analysis of different forest sites and plantations resulted in 17 different vegetation units. For the mature forest sites eleven plant communities were described. The young succession stage consists of two plant communities. Since the disturbance history and the age of the different plant communities could be estimated, their chronology was also described. An exception are the study sites within the plantations and afforested sites. The four defined vegetation units were not described as plant communities, because they are highly affected by man and do not belong to the natural succession of Kakamega Forest. Nevertheless, the regeneration potential of such forests was investigated. Due to the different succession stages the changing species composition along a disturbance gradient could be analysed. Most of Kakamega Forest consists of middle-aged secondary forest often surrounded by very young secondary forest. A true primary rainforest could not be found due the massive influence by over-exploitation. In all parts of the forest the anthropogenic influence could be observed. The forest develops towards a climax stage, but a 2 Abstract comparison with former surveys shows that the regeneration is much slower than expected. Human impact has to be avoided to allow the forest to develop into a primary-like rainforest. But several climax tree species might be missing anyway, because after the broad logging activities in the past there are not enough seed trees remaining. Species richness was highest in disturbed forest sites. A mixture of pioneer, climax and bushland species could be recorded there. Therefore, a high species richness is not a suitable indicator for forest quality. The proportion of climax species typical for Kakamega Forest would be a better measure. Compared to the main forest block the forest fragments do not lack in diversity as expected due to fragmentation processes. Instead, the only near primary forest could be recorded in Kisere, a northern fragment. The high amount of climax species and the more or less undisturbed forest structure is a result of the strict protection by the Kenya Wildlife Service and due to low logging activities. Differences in species composition between the studied forest sites are either a result of the different logging history or management regime rather than due to different edaphic or climatic conditions.
The role of alternative resources for pollinators and aphid predators in agricultural landscapes
(2021)
Der Verlust zahlreicher Insekten wird weitgehend in Verbindung gebracht mit dem Verlust von natürlichem und halbnatürlichem Lebensraum durch intensivierte Landnutzung. Viele Insekten liefern wichtige Ökosystemleistungen an die Landwirtschaft wie z.B. Bestäubung und Schädlingsbekämpfung. Um diese Insekten effizient auf den verbleibenden halbnatürlichen Flächen zu fördern, ist genaues Wissen über ihre Ansprüche an das Umland von Agrarflächen erforderlich. Der Fokus dieser Dissertation liegt auf der Suche nach den wichtigsten halbnatürlichen Habitattypen (Waldrand, Wiesen und halb-offene Habitate) zur Förderung von Nützlingen und Bestäubern aufgrund der Bedeutung von Nahrungsressourcen, welche sie dort nutzen. Besonderes Augenmerk liegt dabei auf Blütenressourcen und wie diese räumlich und zeitlich im Kulturland verteilt sind. Darauf basierte Ressourcenkarten versprechen eine Charakterisierung der Landschaft, welche der Relevanz für Insekten näher kommt als klassische Habitatkarten. In dieser These wurde deshalb verglichen, ob sich das Vorkommen von Wildbienen, sowie Nektar und Pollen konsumierenden Nützlingen besser mit klassischen Habitatkarten, oder mit Ressourcenkarten vorhersagen lässt und identifizierte Habitate besonderer Wichtigkeit. Bei Wildbienen wurde untersucht, inwiefern sich Präferenzen verschiedener Gruppen von Wildbienen unterscheiden und ob es zeitliche und räumliche Zusammensetzungen von Blühressourcen gibt, die besonders optimal sind. Da sich Nützlinge nebst der Nutzung von Blüten vor allem räuberisch ernähren, wurde des Weiteren deren Beutespektrum untersucht. Dazu wurde der Darminhalt von Marienkäfern mit genetischen Methoden mittels High Throughput Sequencing auf konsumierte Blattläuse analysiert.
Blütenbasierte Ressourcenkarten sagten Bienen besser voraus als klassische Habitatkarten. Der Waldrand war dabei von besonderer Bedeutung. Sowohl Flächenanteil als auch Blühangebot hatten positive Einflüsse auf Abundanz und Artenreichtum von wichtigen Kulturbestäubern und seltenen Arten. Ähnliche Muster zeigten sich für Wiesendiversität. Dabei schien besonders das frühe Blühangebot einen positiven Einfluss auf Wildbienen zu haben. Kulturen und Obstbäume verursachten im April einen Blütenpuls, der das Blühangebot vom Mai und Juni um mehr als das Zehnfache überstieg. Waldränder boten besonders Anfang Mai und im Juni ein Blühangebot, das im Verhältnis zur Fläche die weitaus höchste Dichte aufwies. Das Blühangebot von Wiesen war äusserst gering, zeigte aber die höchste Diversität, welche regelmässig über die Saison verteilt war.
Obwohl die untersuchten Nützlinge Blüten fürs Überleben benötigen, waren blütenbasierte Habitatkarten weniger geeignet, um die Nützlingsabundanz zu erklären, als herkömmliche Habitatkarten. Diese zeigten, dass Waldränder von besonderer Bedeutung für Nützlinge sind. Die Anzahl der Nützlinge wiederum führte zur Unterdrückung von Blattläusen. Die Resultate der Darmuntersuchungen zeigten zum einen, dass Marienkäfer einen relativ hohen Anteil an schädlichen Blattlausarten und Brennesselblattläusen konsumieren, zum anderen zeigen sie, dass mit Klebfallen gefangene Marienkäfer einen wesentlich breiteren Einblick in das Beutespektrum erlauben, als von Hand gesammelt. Der zu diesem Zweck entwickelte Blattlausprimer wird für kommende Studien bei der Identifizierung der Blattlausbeute von Marienkäfern hilfreich sein.
Unsere Resultate zeigen, dass Blütenkarten einen wichtigen Mehrwert für die Vorhersage von Wildbienen haben, nicht aber von Nützlingen, da für diese wohl andere Habitatfaktoren zusätzlich limitierend wirken. Der positive Einfluss von Waldrändern für unterschiedliche Gruppen von Wildbienen wie auch für Nützlinge und ihre Leistung als Schädlingsbekämpfer ist besonders hervorzuheben.
In den vergangenen Jahrzehnten haben sich Einzelpartikelanalyse (EPA) und Kryotransmissionselektronenmikroskopie(Kryo-EM) zu einer der führenden Technologien für die strukturelle Analyse von biologischen Makromolekülen entwickelt. Dies erlaubt die Untersuchung biologischer Strukturen in einem möglichst naturgetreuen Zustand auf molekularer Ebene. In den letzten fünf Jahren überwand die EPA erstmals die Auflösungsgrenze von 2°A und erreichte somit atomare Auflösung, was bislang nur mittels Röntgenkristallographie möglich war. Ein bestehendes Problem der Kryo-EM ist der schwache Bildkontrast. Seit der Einführung der Kryo-EM in den 1980er Jahren, wurde an Phasenplatten als mögliches Werkzeug, zur Verbesserung des Bildkontrasts geforscht. Hier limitierten immer technische Probleme bei der Herstellung oder geräteseitige Limitierungen, wie z.B. Hysterese der Linsen, den erfolgreichen Einsatz solcher Phasenplatten. Insbesondere ein automatisierter Arbeitsablauf für die Steuerung des Mikroskops und die Aufnahme der Bilder ließ sich nie realisieren. In dieser Doktorarbeit wurde eine neue Zernike-Phasenplatte entwickelt und untersucht. Freistehende Metallfilme dienten als Phasenplattenmaterial, um Alterungsund Kontaminationsprobleme der bislang üblichen kohlenstoffbasierten Phasenplatten zu überwinden. In ersten Experimenten zur Materialwahl wurde Iridium als geeignetes Metall identifiziert. Der zweite Teil der Arbeit behandelt die Untersuchung der Iridium-Phasenplatten hinsichtlich ihrer Eigenschaften und ihrem Verhalten im Elektronenmikroskop. Ein Resultat dieser Experimente ist der sogenannte rocking-Modus, bei dem die Phasenplatte während der Aufnahme bewegt wird und wodurch sich Streuungs- und andere Artefakte, die bei den Zernike-Phasenplatten üblicherweise auftreten, verhindern oder deutlich reduzieren ließen. Die Entwicklung eines angepassten Workflow ermöglichte die Aufnahme von EPADatens ätzen mit Phasenplatte über mehrere Tage. Für die Evaluierung der Phasenplattendaten wurden Datensätze von Apoferritin mit und ohne Phasenplatte aufgenommen und miteinander verglichen.
Die Arbeit geht von der grundlegenden Annahme aus, dass spezifische kulturelle Bedingungen psychopathologische Effekte haben können, die interpersonale Gewalt begünstigen. Ziel der Studie war die Klärung der Frage, ob die Häufigkeit von Tötungsdelikten (abhängige Variable) mit bestimmten Einstellungen, Überzeugungen, Werthaltungen und Ausprägungen auf kulturellen Merkmalsdimensionen zusammenhängt. Um diese Frage zu klären, wurden unabhängige Variablen ausgewählt, von denen sechs sich auf die Wichtigkeit von Religion (Religiosität), Kontroll- und Machtorientierung (Omnipotenz), die kategorische Unterscheidung von Gut und Böse (Absolutismus), Nationalstolz (Nationalismus), Akzeptanz von Wettbewerb (Wettbewerbsorientierung) und Befürwortung von Autorität und Strafe (Autoritarismus) beziehen. Die zur Messung dieser Variablen relevanten Daten wurden dem World Values Survey entnommen. Für zwei weitere Kulturdimensionen, Kollektivismus und Machtdistanz, wurden die Ergebnisse der Studien von Hofstede verwendet. Als neunte unabhängige Variable diente das Bruttonationaleinkommen. Mittels multipler Imputation wurden die 7% fehlender Messwerte durch Schätzwerte ergänzt, so dass die Daten von 82 Staaten für die Analysen zur Verfügung standen.rnErgebnisse: Eine schrittweise multiple Regression ergab für Omnipotenz (β = .44, P < .01) und Bruttonationaleinkommen (ß = -.27, P < .01) die stärksten Regressionseffekte auf die Tötungsrate als abhängige Variable. Die neun unabhängigen Variablen luden auf zwei Faktoren, soziökonomischer Entwicklungsstand (SED) und psychokultureller Faktor (Psy-Cul), die negativ korreliert waren (-.47). Psy-Cul wurde als Indikator für Narzismus und als Mediator des Effekts von SED auf Tötungsrate interpretiert. Hierarchische Clusteranalysen auf der Basis der beiden Faktoren ergaben eine klare Unterscheidung zwischen drei Gruppen von Nationen: westliche Nationen, Entwicklungsnationen und postkommunistische Nationen.
Die Verwendung physiologischer Indikatoren, welche die Reaktion von Organismen auf Veränderungen ihrer Umwelt widerspiegeln, bietet ein großes Potenzial für ökologische Studien. Durch die Analyse des physiologischen Zustandes von Organismen ermöglichen diese Indikatoren eine schnellere Erfassung von Veränderungen in aquatischen Ökosystemen als es durch die Betrachtung ökologischer Indikatoren, wie z. B. der Struktur der Benthosgemeinschaft oder des Reproduktionserfolges einzelner Arten, möglich ist. Dieser Zeitvorteil kann sowohl die Effektivität der Habitatbewertung als auch experimenteller Studien in der aquatischen Ökologie erhöhen. In diesem Zusammenhang konzentriert sich die vorliegende Arbeit auf physiologische Messgrößen, wie die Konzentration von Energiespeicherstoffen, den zellulären Energiestatus (Adenylate Energy Charge) oder die Stoffwechselaktivität in vivo, die den energetischen Zustand oder den aktuellen Energieverbrauch von Organismen charakterisieren, sowie auf das RNA:DNA-Verhältnis als Wachstumsindikator. Obwohl diese Indikatoren in der marinen Ökologie, und in jüngerer Zeit auch in der Ökotoxikologie, regelmäßig verwendet werden, haben sie in der limnischen Ökologie bisher wenig Anwendung gefunden. Um die Anwendung physiologischer Indikatoren in diesem Bereich zu verstärken verfolgt die Dissertation zwei Ziele. Zum einen verdeutlicht sie das Potenzial der einzelnen physiologischen Indikatoren, zum anderen stellt sie Grundlagenwissen zu ausgewählten ökophysiologischen Aspekten einheimischer und gebietsfremder Arten der Ordnung Amphipoda bereit, die als Schlüsselarten aquatischer Lebensräume als besonders geeignet für die Bestimmung physiologischer Indikatoren angesehen werden. In diesem Sinne werden in Kapitel 2 sowohl die grundlegenden Annahmen, als auch die theoretischen und methodischen Grundlagen für die Bestimmung physiologischer Indikatoren aufgezeigt und ihre Anwendbarkeit in Fallstudien verdeutlicht. Die durchgeführten Experimentalstudien (Kapitel 3−5) liefern Informationen zu (i) den art- und geschlechtsspezifischen Unterschieden in der saisonalen Variation des energetischen Zustandes natürlicher Gammarus Populationen (G. fossarum, G. pulex), (ii) den Unterschieden in der Stoffwechsel- und Bewegungsaktivität verschiedener Amphipoda-Arten (G. fossarum, G. roeselii und D. villosus), sowie (iii) den direkten Auswirkungen von Ammoniak auf die Physiologie und die Bewegungsaktivität von D. villosus. In Kapitel 6 werden abschließend die grundlegenden Schlussfolgerungen aus den durchgeführten Feld- und Laborstudien, sowie ihre Relevanz und Auswirkungen für die Anwendung physiologischer Indikatoren in der limnischen Ökologie diskutiert.
ZUSAMMENFASSUNG
Gebäude und Infrastrukturen prägen das Bild unserer Kulturlandschaften und erbringen essentielle Dienstleistungen für die menschliche Gesellschaft. Sie wirken sich jedoch auch unweigerlich auf die natürliche Umwelt aus, z.B. durch die strukturelle Veränderung von Lebensräumen. Überdies gelten sie aufgrund der Freisetzung chemischer Inhaltsstoffe aus den eingesetzten Baumaterialien als potentielle Verursacher negativer Umweltauswirkungen. Galvanische Anoden und organische Beschichtungen, die an Stahlbauwerken regelmäßig zum Schutz vor Korrosion zum Einsatz kommen, sind als Baumaterialien für die Verkehrsinfrastruktur von besonderer Bedeutung. In direktem Kontakt mit einem Wasserkörper oder indirekt über den Abfluss nach einem Niederschlagsereignis können zahlreiche Chemikalien in aquatische Lebensräume emittiert werden und eine Gefahr für Wasserorganismen darstellen. Zur Beurteilung der Umweltverträglichkeit von Bauprodukten existiert bislang kein einheitlicher Untersuchungs- und Bewertungsansatz. Zudem stellen galvanische Anoden und organische Beschichtungen aufgrund ihrer Zusammensetzung besondere Herausforderungen an deren ökotoxikologische Charakterisierung. Ziel der vorliegenden Arbeit war es daher, die Gefährdung der aquatischen Umwelt durch galvanische Anoden und Korrosionsschutzbeschichtungen mithilfe ökotoxikologischer Untersuchungen zu beurteilen und standardisierte Bewertungsverfahren für diese Materialien zu entwickeln.
Die Untersuchung des möglichen Umwelteinflusses durch die Anwendung von Anoden an Offshore-Anlagen erfolgte auf drei trophischen Ebenen. Um eine möglichst realistischste und zuverlässige Abschätzung zu gewährleisten, wurden die Experimente in natürlichem Meerwasser und unter natürlichen pH-Bedingungen durchgeführt. Zudem erfolgte die Exposition gegenüber dem Anodenmaterial und deren Hauptbestandteilen Zink und Aluminum unter Simulation eines Worst-Case-Szenarios. Das untersuchte Anodenmaterial verursachte eine schwache Hemmung des Algenwachstums; auf die getesteten Leuchtbakterien und Flohkrebse zeigte es keine akute Toxizität. Allerdings wurde eine Erhöhung der Aluminium- und Indiumgehalte in den Krebsen festgestellt. Auf Grundlage dieser Ergebnisse wurde keine direkte Gefahr für marine Organismen durch den Einsatz galvanischer Aluminium-Anoden identifiziert. Eine Anreicherung von Metallen in Krebstieren und ein daraus resultierender Eintrag ins marine Nahrungsnetz kann jedoch nicht ausgeschlossen werden.
Die Umweltverträglichkeit organischer Beschichtungssysteme wurde exemplarisch für eine Auswahl relevanter Produkte auf Basis von Epoxidharzen (EP) und Polyurethanen bewertet. Dazu wurden beschichtete Probeplatten schrittweise über 64 Tage ausgelaugt. Die gewonnenen Eluate wurden systematisch auf ihre ökotoxikologischen Effekte (akute Toxizität gegenüber Algen und Leuchtbakterien, mutagene und estrogenartige Wirkungen) und chemische Zusammensetzung analysiert. Dabei zeigten sich insbesondere die EP-basierten Beschichtungen durch die Verursachung erheblicher bakterieller Toxizität und estrogenartiger Wirkung auffällig. Als primärer Urheber dieser Effekte wurde das kontinuierlich freigesetzte 4-tert-Butylphenol identifiziert, dessen Konzentration in allen Proben die predicted no effect concentration für Süßwasser überschritt. Gleichzeitig hat sich gezeigt, dass die Gesamttoxizität nicht durch den Gehalt an 4-tert-Butylphenol in den Produkten bestimmt wird, sondern vom Freisetzungsmechanismus dieser Verbindung aus den untersuchten Polymeren abhängig ist. Diese Ergebnisse deuten darauf hin, dass eine Optimierung der Zusammensetzung, beispielsweise aufgrund einer besseren Polymerisation der Inhaltsstoffe, zu einer Reduzierung von Emissionen und damit zu einer verminderten Belastung der Umwelt führen kann.
Regen, Temperaturwechsel und Sonneneinstrahlung können zur Verwitterung polymerer Korrosionsschutzbeschichtungen führen. Um den Einfluss lichtbedingter Alterung auf die Ökotoxizität von Deckbeschichtungen zu erfassen, wurde die Emissionen und damit verbundene negative Auswirkungen von UV-bestrahlten und unbehandelten EP-basierten Produkten miteinander verglichen. Nach statischer Auslaugung stand dabei die Untersuchung estrogenartiger und bakterien-toxischer Wirkungen im Fokus, die sowohl im klassischen Mikrotiterplattenformat als auch in Kopplung mit Dünnschichtplatten detektiert wurden. Beide untersuchten Materialien zeigten nach Bestrahlung eine signifikante Abnahme der ökotoxikologischen Effekte bei gleichzeitiger Verringerung der Freisetzung von 4-tert-Butylphenol. Jedoch wurden auch Bisphenol A und verschiedene Strukturanaloga als photolytische Abbauprodukte der Polymere nachgewiesen, die ebenfalls zur beobachteten Wirkung beitrugen. Die Identifizierung bioaktiver Inhaltsstoffe konnte dabei durch die erfolgreiche Kombination der in-vitro-Bioassays mit chemischen Analysen im Sinne einer effektgeleiteten Analytik unterstützt werden. Die vorliegenden Ergebnisse liefern wichtige Hinweise für die Beurteilung der generellen Eignung von Deckbeschichtungen auf Basis von Epoxidharzen.
Das im Rahmen der vorliegenden Studie entwickelte Untersuchungskonzept konnte erfolgreich auf eine Auswahl relevanter Baumaterialien angewendet werden. Die gezielte Anpassung einzelner Standardmethoden erlaubte dabei eine individuelle Produktbewertung. Gleichzeitig wurde sowohl die Zweckmäßigkeit der angewendeten ökotoxikologischen Methoden für die Untersuchung von Materialien unbekannter und komplexer Zusammensetzung bestätigt als auch die Basis für eine systematische Bewertung der Umweltverträglichkeit von Korrosionsschutzprodukten geschaffen. Vor dem Hintergrund der Europäischen Bauprodukteverordnung kann der gewählte Ansatz dem einfachen Vergleich verschiedener Baumaterialien z.B. innerhalb einer Produktgruppe dienen und damit die Auswahl umweltverträglicher Produkte vereinfachen und zur Optimierung einzelner Rezepturen beitragen.
Bei einigen Arzneimittel (z.B. Antibiotika, Kontrastmittel, Betablocker) wird ein Teil des Wirkstoffs unmetabolisiert ausgeschieden und gelangt so über das Abwasser in kommunale Kläranlagen. Studien haben gezeigt, dass viele dieser Wirkstoffe durch eine konventionelle Abwasserbehandlung nicht effektiv abgebaut werden und somit in Oberflächengewässern nachweisbar sind. Eines der effektivsten Verfahren zur Entfernung organischer Mikroverunreinigungen und Mikroorganismen ist die Umkehrosmose. Ein bedeutender Nachteil dieses Verfahrens ist die Entsorgung der anfallenden Konzentrate, die erhöhte Konzentrationen von Mikroverunreinigungen und Mikroorganismen enthalten können. Dabei ist nicht auszuschließen, dass eine direkte Einleitung dieser Konzentrate das Ökosystem eines Gewässers schädigt. Um dieses Risiko zu minimieren, wäre eine gesonderte Behandlung des Konzentrats vor der Einleitung sinnvoll. In der hier vorliegenden Arbeit wurde die Ozonung als mögliches Oxidationsverfahren untersucht. Die untersuchten Konzentratproben stammen aus einer Kläranlage, in der der Ablauf nach Umkehrosmosebehandlung in das Grundwasser infiltriert wird. Durch die Untersuchungen konnte gezeigt werden, dass durch die angewendeten Ozondosen die ausgewählten Arzneistoffe weitgehend oxidiert wurden, obwohl das Umkehrosmosekonzentrat einen sehr hohen TOC "Gehaltes von bis zu 46 mg/L aufwies. Zur Vorbeugung von Membranfouling wird Membrananlagenzuläufen, in diesem Fall dem Kläranlagenablauf, häufig Chlor zugesetzt. Eine Vergleichsstudie mit vorchlorierten und nicht vorchlorierten Kläranlagenabläufen zeigte einen Anstieg der Ozonstabilität nach der Chlorierung. Daraus resultierte aber auch eine Abnahme an OH-Radikalen. Die höhere Ozonstabilität könnte dazu führen, dass über eine direkte Ozonreaktion die Oxidation von Stoffen mit einer höheren Geschwindigkeitskonstante zweiter Ordnung bevorzugt würde. Der Abbau der Stoffe, die hauptsächlich über OH-Radikale oxidiert werden, würde dann gleichzeitig herabgesetzt. Für die Wirkstoffgruppe der Betablocker, die permanent in Kläranlagenabläufen nachweisbar ist, wurden die Geschwindigkeitskonstanten mit Ozon- sowie OH-Radikalen ermittelt. Untersucht wurden Acebutolol, Atenolol, Metoprolol und Propranolol. Betablocker enthalten zwei funktionelle Gruppen, die reaktiv gegenüber Ozon sind, zum einen ein sekundäres Amin und zum anderen einen aktivierten aromatischen Ring. Die Amingruppe ist dafür verantwortlich, dass die Geschwindigkeit der Ozonreaktion pH-Wert abhängig ist, da nur das deprotonierte Amin schnell mit Ozon reagieren kann. Die Geschwindigkeitskonstante für die Reaktion von Acebutolol, Atenolol and Metoprolol mit Ozon liegt bei etwa 2000 M-1 s-1, wo hingegen Propranolol mit ~1.0 105 M-1 s-1 etwa zwei Größenordnungen schneller reagiert. Die Konstanten für die Reaktionen mit OH-Radikalen liegen bei 0.5-1.0 × 1010 M-1 s-1. Die während der Ozonreaktion von Metoprolol und Propranolol gebildeten Oxidationsprodukte (OPs) wurden über HPLC-Tandem-MS identifiziert. Die Ozonreaktionen führten zur Bildung 23 OPs im Fall des Metoprolols und etwa 30 OPs beim Propranolol. Um die Auswirkung des pH-Wertes sowie der OH-Radikalreaktion auf die OP-Bildung zu untersuchen, wurden die Experimente bei pH 3 und 8, sowie mit und ohne Zugabe des Radikalfängers tert-Butanol durchgeführt. Die Menge der gebildeten OH-Radikale wurde durch den Zusatz von para-Chlorbenzoesäure ermittelt. Metoprolol: Der Einfluss des protonierten und des nicht protonierten Metoprolols auf die Menge der gebildeten OH-Radikale wurde über einen Vergleich der gemessenen para-Chlorbenzoesäureabnahme mit modellierten Werten ermittelt (Model: Acuchem). Es lassen sich dabei bessere Übereinstimmungen erzielen, wenn die Modelannahmen bei der primären Ozonreaktion des nicht protonierten Moleküls auf einer stöichiometrischen Bildung eines OH-Radikalvorproduktes (•O2-) basieren. Die Modellierung der Reaktion der protonierten Spezies unterstützt ebenfalls die These der Bildung des Vorproduktes •O2-, allerdings in unterstöichiometrischer Menge. Die Untersuchung eines Abwassers und eines Kläranlagenablaufs, die mit 10 μmol/L Metoprolol versetzt wurden, zeigte eine OP-Bildung ähnlich der bei pH 8 ohne Radikalfängerzugabe. Dies deutet auf einen signifikanten Einfluss der OH-Radikalreaktion für die Bildung der OP in realer Abwassermatrix hin. Propranolol: Das primäre OP der Ozonreaktion des Propranolols (OP-291) wird über einen Angriff am Naphthalenring gebildet, der zu einer Ringöffnung und der Bildung zweier Aldehydfunktionen führt. OP-291 wird vermutlich über eine OH-Radikalreaktion weiter zu OP-307 oxidiert, welches anschließend zu OP-281 weitereagiert. Durch die mittels Massenspektrometrie identifizierten chemischen Strukturen der OPs, können die vorgeschlagenen Bildungsreaktionen sowohl über direkte Ozonreaktion als auch über OH-Radikalreaktion bestätigt werden. Als Fazit kann festgestellt werden, dass eine Ozonung eines Kläranlagenablaufes zu der Bildung einer Vielzahl von OPs führt, die alle ein unbekanntes toxikologisches Potential haben (z.B. Bildung von Aldehydfunktionen).
Studies have shown that runoff and spray-drift are important sources of nonpoint-source pesticide pollution of surface waters. Owing to this, public concern over the presence of pesticides in surface and ground water has resulted in intensive scientific efforts to find economical, yet environmentally sound solutions to the problem. The primary objective of this research was to assess the effectiveness of vegetated aquatic systems in providing buffering between natural aquatic ecosystems and agricultural landscape following insecticide associated runoff and spray-drift events. The first set of studies were implemented using vegetated agricultural ditches, one in Mississippi, USA, using pyrethroids (bifenthrin, lambda-cyhalothrin) under simulated runoff conditions and the other in the Western Cape, South Africa using the organophosphate insecticide, azinphos-methyl (AZP), under natural runoff and spray-drift conditions. The second set of studies were implemented using constructed wetlands, one in the Western Cape using AZP under natural spray-drift conditions and the other in Mississippi, USA using the organophosphate MeP under simulated runoff conditions. Results from the Mississippi-ditch study indicated that ditch lengths of less than 300 m would be sufficient to mitigate bifenthrin and lambda-cyhalothrin. In addition, data from mass balance calculations determined that the ditch plants were the major sink (generally > 90%) and/or sorption site for the rapid dissipation of the above pyrethroids from the water column. Similarly, results from the ditch study in South Africa showed that a 180 m vegetated system was effective in mitigating AZP after natural spray drift and low flow runoff events. Analytical results from the first wetland study show that the vegetated wetland was more effective than the non-vegetated wetland in reducing loadings of MeP. Mass balance calculations indicated approximately 90% of MeP mass was associated with the plant compartment. Ninety-six hours after the contamination, a significant negative acute effect of contamination on abundances was found in 8 out of the 15 macroinvertebrate species in both wetland systems. Even with these toxic effects, the overall reaction of macroinvertebrates clearly demonstrated that the impact of MeP in the vegetated wetland was considerably lower than in the non-vegetated wetland. Results from the constructed wetland study in South Africa revealed that concentrations of AZP at the inlet of the 134 m wetland system were reduced by 90% at the outlet. Overall, results from all of the studies in this thesis indicate that the presence of the plant compartment was essential for the effective mitigation of insecticide contamination introduced after both simulated and natural runoff or spray-drift events. Finally, both the vegetated agricultural drainage ditch and vegetated constructed wetland systems studied would be effective in mitigating pesticide loadings introduced from either runoff or spray-drift, in turn lowering or eliminating potential pesticide associated toxic effects in receiving aquatic ecosystems. Data produced in this research provide important information to reduce insecticide risk in exposure assessment scenarios. It should be noted that incorporating these types of best management practices (BMPs) will decrease the risk of acute toxicity, but chronic exposure may still be an apparent overall risk.
Die aus nachwachsenden Rohstoffen hergestellten biologisch abbaubaren Polymere Polymilchsäure (polylactic acid, PLA) und Polyhydroxybuttersäure (polyhydroxybutyrate, PHB) wurden im Rahmen dieser Arbeit mit hydrierten amorphen Kohlenstoffschichten (amorphous hydrogenated carbon, a-C:H) bei unterschiedlichen Winkeleinstellungen mit verschiedenen Dicken beschichtet. Ähnlich wie herkömmliche Polymere haben Biopolymere oft ungeeignete Oberflächeneigenschaften für industrielle Zwecke, z.B. eine geringe Härte. Für manche Anwendungen ist es daher notwendig und vorteilhaft, die Oberflächeneigenschaften von Biopolymeren unter Beibehaltung der Haupteigenschaften des Trägermaterials zu modifizieren. Eine geeignete Oberflächenmodifikation ist das Aufbringen von dünnen a-C:H Schichten. Ihre Eigenschaften hängen wesentlich vom sp²- und sp³-Hybridisierungsverhältnis der Kohlenstoffatome und dem Gehalt an Wasserstoffatomen ab. Das sp²/sp³-Verhältnis sollte in der vorliegenden Arbeit durch Variation der Beschichtungsgeometrie gesteuert werden. Da Beschichtungen bei 0°, direkt vor der Plasmaquelle, einen höheren Anteil an sp³ und indirekt (180°) beschichtete ein höheren Anteil an sp² aufweisen, wird in dieser Arbeit gezeigt, dass es möglich ist, das sp²/sp³ -Verhältnis zu kontrollieren. Dazu werden die einzelnen Proben in den Winkeln 0, 30, 60, 90, 120, 150 und 180° vor der Plasmaquelle platziert und mit einer Dauer von 2.5, 5.0, 7.5 und 10.0 Minuten beschichtet. Für den Winkeln 0° ergaben sich die Schichtdicken von 25, 50, 75 und 100 nm. Die a-C:H Schichten wurden alle mit Radiofrequenzplasma-unterstützter chemischer Gasphasenabscheidung und Acetylen als C und H Quelle abgeschieden, nachdem sie 10 Minuten lang mit einem Sauerstoffplasma vorbehandelt worden waren. Nach dieser O₂-Behandlung und der a-C:H Abscheidung werden die Oberflächen mit makroskopischen und mikroskopischen Messmethoden untersucht und die Daten anschließend analysiert. Die Oberflächenmorphologie wird mit Hilfe der Rasterelektronenmikroskopie und der Rasterkraftmikroskopie erfasst. Auf diese Weise können auch Informationen über die Stabilität der Schicht und die Oberflächenrauhigkeit gesammelt werden. Mit Kontaktwinkelmessungen (contact angle, CA) wird nicht nur die Benetzbarkeit, sondern auch die Kontaktwinkelhysterese durch Auf- und Abpumpen des Tropfenvolumens bestimmt. Durch Messung des CA von verschiedenen Flüssigkeiten und deren Vergleich werden die freie Oberflächenenergie (surface free energy, SFE) und ihre polaren und dispersiven Bestandteile bestimmt. Die Veränderungen der Barriereeigenschaften werden durch Wasserdampftransmissionstests (water vapor transmission rate, WVTR) überprüft. Die chemische Analyse der Oberfläche erfolgt zum einen durch Fourier-Transformations-Infrarotspektroskopie mit spiegelnder Reflexion und zum anderen durch Synchrotron unterstützte Techniken wie der Nahkanten-Röntgenabsorptionsfeinstruktur und der Röntgen-Photoelektronenspektroskopie. Bei der Analyse der Oberflächen nach der O₂ Behandlung, von der zunächst angenommen wurde, dass sie nur der Reinigung und Aktivierung der Oberfläche für die a-C:H Beschichtung dient, wurde festgestellt, dass die Veränderungen drastischer sind als ursprünglich angenommen. Wird PLA zum Beispiel bei 0° für 10 Minuten behandelt, steigt die Rauheit um das Fünffache. Mit zunehmendem Winkel verringert sich diese wieder, bis sie bei 180° wieder dem Ausgangswert entspricht. Bei PHB hingegen wird durchgehend ein ähnlicher Wert gemessen. Für beide Polymere lässt sich zeigen, dass der polare Anteil der SFE zunimmt. In der WVTR ist bei PLA eine Abnahme der Permeabilität und bei PHB ein Anstieg des Ausgangswertes zu beobachten. Die chemische Oberflächenanalyse zeigt, dass die O₂ Behandlung kaum Auswirkungen auf die Oberflächenbindungen hat. Insgesamt kann in dieser Arbeit gezeigt werden, dass sich die O₂ Behandlung auf die Eigenschaften der Oberfläche auswirkt und nicht ausschließlich als Reinigungs- und Aktivierungsprozess betrachtet werden kann. Bei direkter a-C:H Beschichtung (bei 0°) ist sowohl bei PLA als auch bei PHB ein Schichtversagen bei 10.0 Minuten aufgrund von Eigenspannung zu beobachten. Dies ist bei PHB in geringerem Maße auch bei 30° zu erkennen. Die Durchlässigkeit der Polymere wird bei einer fünf minütigen Beschichtung um 47% reduziert und auch die Schicht bei 10.0 Minuten führt diesen Effekt trotz auftretender Risse weiter. Die Aufbringung von a-C:H Schichten zeigt für beide Polymertypen bei direkter Beschichtung eine Dominanz von sp³-Bindungen. Mit zunehmendem Winkel nimmt diese ab und bei indirekten Beschichtungen werden sp²-Bindungen dominierend. Dieses Ergebnis ist für alle Schichtdicken ähnlich, nur der Winkel, bei dem der Wechsel der dominanten Bindung stattfindet, ist unterschiedlich. Es wird gezeigt, dass es möglich ist, die Oberflächeneigenschaften durch eine winkelabhängige Beschichtung zu steuern und somit das Verhältnis sp²/sp³ zu kontrollieren.
Introduction:
In March 2012 a secessionist-Islamist insurgency gained momentum in Mali and quickly took control of two-thirds of the state territory. Within weeks radical Islamists, drug smugglers and rebels suddenly ruled over a territory bigger than Germany. News of the abuse of the population and the introduction of harsh Sharia law spread soon, and word got out that the Malian Army had simply abandoned the land. The general echo of the IC was surprise, a reaction that was, as this research will show, as unfunded as it was unconstructive*. When Malian state structures collapsed, the world watched in shock, even though the developments couldhave been anticipated –and prevented. Ultimately, the situation had to be resolved by international forces (most notably French troops), who are still in Mali at the time of writing (Arieff 2013a: 5; Lohmann 2012: 3; Walther and Christopoulos 2015: 514f.; Shaw 2013: 204; Qantara, Interview, 2012;L’Express, Mali, 2015; Deutscher Bundestag, MINUSMA und EUTM Mali, 2016; UN, MUNISMA, 2016; Boeke and Schuurmann 2015: 801; Chivvis 2016: 93f.).
This research will show that the developments in Mali in 2012 have been developing for a long time and could have been avoided. In doing so, it will also show why state security can never be analyzed or consolidated in an isolated manner. Instead, it is necessary to take into account regional dynamics and developments in order to find a comprehensive approach to security in individual states. Once state failure occurs, not only does the state itself fail, but the surrounding region equally failed to prevent the failure.
Weak states are a growing concern in many world regions, particularly in Africa. As international intervention often proves unsustainable for various reasons*, the author believes that states which cannot stabilize themselves need a regional agent to support them. This regional agent should be a Regional Security Complex (RSC) asdefined by Barry Buzan and Ole Waever (Buzan and Waever 2003). As the following analysis will show, Mali is a case in point. The hope is that this study will help avoid similar failures in the future by making a strong case for the establishment of RSC’s.
…
In dieser Dissertation wird eine Verfahrensweise für die formale Spezifikation und Verifikation von Benutzerschnittstellen unter Sicherheitsaspekten vorgestellt. Mit dieser Verfahrensweise können beweisbar sichere Benutzerschnittstellen realisiert werden. Die Arbeit besteht aus drei Teilen. Im ersten Teil wird eine Methodologie für die formale Beschreibung von Mensch-Maschine-Interaktion entwickelt. Im zweiten Teil werden gängige Computersicherheitskonzepte für die Mensch-Maschine-Interaktion angepasst und mit den im ersten Teil entwickelten Methoden formalisiert. Dabei wird ein generisches formales Modell von Mensch-Maschine-Interaktion erstellt. Im dritten Teil wird die Methodologie, die in den ersten beiden Teilen entwickelt wurde, an einem sicheren Email-Client als exemplarischen Anwendungsprogramm demonstriert.
In the new epoch of Anthropocene, global freshwater resources are experiencing extensive degradation from a multitude of stressors. Consequently, freshwater ecosystems are threatened by a considerable loss of biodiversity as well as substantial decrease in adequate and secured freshwater supply for human usage, not only on local scales, but also on regional to global scales. Large scale assessments of human and ecological impacts of freshwater degradation enable an integrated freshwater management as well as complement small scale approaches. Geographic information systems (GIS) and spatial statistics (SS) have shown considerable potential in ecological and ecotoxicological research to quantify stressor impacts on humans and ecological entitles, and disentangle the relationships between drivers and ecological entities on large scales through an integrated spatial-ecological approach. However, integration of GIS and SS with ecological and ecotoxicological models are scarce and hence the large scale spatial picture of the extent and magnitude of freshwater stressors as well as their human and ecological impacts is still opaque. This Ph.D. thesis contributes novel GIS and SS tools as well as adapts and advances available spatial models and integrates them with ecological models to enable large scale human and ecological impacts identification from freshwater degradation. The main aim was to identify and quantify the effects of stressors, i.e climate change and trace metals, on the freshwater assemblage structure and trait composition, and human health, respectively, on large scales, i.e. European and Asian freshwater networks. The thesis starts with an introduction to the conceptual framework and objectives (chapter 1). It proceeds with outlining two novel open-source algorithms for quantification of the magnitude and effects of catchment scale stressors (chapter 2). The algorithms, i.e. jointly called ATRIC, automatically select an accumulation threshold for stream network extraction from digital elevation models (DEM) by assuring the highest concordance between DEM-derived and traditionally mapped stream networks. Moreover, they delineate catchments and upstream riparian corridors for given stream sampling points after snapping them to the DEM-derived stream network. ATRIC showed similar or better performance than the available comparable algorithms, and is capable of processing large scale datasets. It enables an integrated and transboundary management of freshwater resources by quantifying the magnitude of effects of catchment scale stressors. Spatially shifting temporal points (SSTP), outlined in chapter 3, estimates pooled within-time series (PTS) variograms by spatializing temporal data points and shifting them. Data were pooled by ensuring consistency of spatial structure and temporal stationarity within a time series, while pooling sufficient number of data points and increasing data density for a reliable variogram estimation. SSTP estimated PTS variograms showed higher precision than the available method. The method enables regional scale stressors quantification by filling spatial data gaps integrating temporal information in data scarce regions. In chapter 4, responses of the assumed climate-associated traits from six grouping features to 35 bioclimatic indices for five insect orders were compared, their potential for changing distribution pattern under future climate change was evaluated and the most influential climatic aspects were identified (chapter 4). Traits of temperature preference grouping feature and the insect order Ephemeroptera exhibited the strongest response to climate as well as the highest potential for changing distribution pattern, while seasonal radiation and moisture were the most influential climatic aspects that may drive a change in insect distribution pattern. The results contribute to the trait based freshwater monitoring and change prediction. In chapter 5, the concentrations of 10 trace metals in the drinking water sources were predicted and were compared with guideline values. In more than 53% of the total area of Pakistan, inhabited by more than 74 million people, the drinking water was predicted to be at risk from multiple trace metal contamination. The results inform freshwater management by identifying potential hot spots. The last chapter (6) synthesizes the results and provides a comprehensive discussion on the four studies and on their relevance for freshwater resources conservation and management.
Die in dieser Studie beschriebene Forschungsarbeit hatte primär das Ziel, den Einfluss partikelgebundener Pestizide auf Organismen in der flockenartigen Schicht zwischen Sediment und Wasser in einem temporär offenen Ästuar zu erfassen. Dabei wurde die Hypothese aufgestellt, dass natürliche Variablen wie Salzgehalt und Temperatur sowie anthropogene Stressfaktoren wie partikelgebundene Pestizide zur Variabilität des Systems beitragen. Die Variabilität der Sedimentzusammensetzung, der Verteilung der Kontamination, sowie der räumlichen und zeitlichen Unterschiede im Ökosystem, speziell in temporär offenen Ästuaren, macht hier einen kompositionellen Ansatz notwendig. Das erste Ziel dieser Arbeit war die Identifikation der partikelgebundenen Pestizide, die zur Kontamination des Lourens-River-Ästuars beitragen, unter Berücksichtigung ihrer Umweltkonzentrationen sowie physikalisch-chemischer und toxischer Eigenschaften (Expositionsanalyse). Das zweite Ziel war die Identifikation räumlicher und temporärer Variabilität partikelgebundener Pestizide, natürlicher Umweltvariablen und benthischer Artenzusammensetzung (Wirkungsanalyse). Das dritte Ziel der Studie war es, die Hypothese zu testen, ob Anpassung an schwankende Salzgehalte die Überlebensrate von einem harpacticoiden Copepoden Mesochra parva fördert, bei gleichzeitiger Aussetzung von Chlorpyrifos und hypoosmotischem Stress während eines 96-stündigen Sedimenttoxizitätstests. Das letzte Ziel der Studie beinhaltete die Identifikation jener Umweltvariablen (einschließlich natürlicher und anthropogener Stressoren), die ein Ästuar beinflussen. Zu diesem Zweck wurde ein natürliches Ästuar (Rooiels River) mit einem anthropogen beeinflussten Ästuar (Lourens River) verglichen. Die Ergebnisse dieser Arbeit sind somit für das Verständis der Wirkung von Pestiziden und ihrer Interaktion mit natürlichen Parametern in einem temporär offenen Ästuar von großer Bedeutung. Zusammenfassend zeigt diese Arbeit mit ihrem kompositionellen Ansatz auf, dass Pestizide wie Endosulfan und Chlopyrifos ein Risiko für die benthische Artengemeinschaft in einem temporär offenen Ästuar darstellen, insbesondere während des Frühjahrs. Desweiteren wurde nachgewiesen, dass Exposition und Toxizität von Pestiziden eng mit dem Salzgehalt in temporär offenen Ästuaren verknüpft sind. Diese Erkenntnis hat wichtige Folgen für den Schutz von temporär offenen Ästuaren.
Method development for the quantification of pharmaceuticals in aqueous environmental matrices
(2021)
Als Folge des Weltbevölkerungswachstums und des daraus resultierenden Wassermangels ist das Thema Wasserqualität zunehmend im Fokus der Öffentlichkeit. In diesem Kontext stellen anthropogene organische Stoffe - oft als Mikroschadstoffe bezeichnet - eine Bedrohung für die Wasserressourcen dar. Besonders Pharmazeutika werden aufgrund ihrer permanenten Einleitung, ihres steigenden Verbrauchs und ihrer wirkungsbasierten Strukturen mit besonderer Besorgnis diskutiert. Pharmazeutika werden hauptsächlich über Kläranlagen in die Umwelt eingeleitet, zusammen mit ihren Metaboliten und den vor Ort gebildeten Transformationsprodukten (TPs). Wenn sie die aquatische Umwelt erreichen, verteilen sie sich zwischen den verschiedenen Umweltkompartimenten, insbesondere der Wasserphase, Schwebstoffen (SPM) und Biota. In den letzten Jahrzehnten wurden Pharmazeutika in der Wasserphase umfassend untersucht. Allerdings wurden extrem polare Pharmazeutika aufgrund des Mangels an robusten Analysemethoden nur selten überwacht. Zudem wurden Metaboliten und TPs selten in Routineanalysemethoden einbezogen, obwohl ihre Umweltrelevanz nachgewiesen ist. Darüber hinaus wurden Pharmazeutika nur sporadisch in SPM und Biota untersucht und es fehlen adäquate Multi-Analyt-Methoden, um umfassende Ergebnisse über ihr Vorkommen in diesen Matrices zu erhalten. Die vorliegende Arbeit wird, diese Wissenslücken durch die Entwicklung generischer Multi-Analyt-Methoden zur Bestimmung von Pharmazeutika in der Wasserphase, SPM und Biota geschlossen und das Vorkommen und die Verteilung von Pharmazeutika in diesen Kompartimenten bewertet. Für einen vollständigen Überblick wurde ein besonderer Schwerpunkt auf polare Pharmazeutika, pharmazeutische Metaboliten und TPs gelegt. Insgesamt wurden drei innovative Multi-Analyt-Methoden entwickelt, deren Analyten ein breites Spektrum an physikalisch-chemischen Eigenschaften abdecken. Zuerst wurde eine zuverlässige Multi-Analyt-Methode entwickelt um extrem polare Pharmazeutika, deren Metaboliten und TPs in wässrigen Umweltproben zu untersuchen. Die ausgewählten Analyten deckten einen signifikanten Bereich erhöhter Polarität ab und die Methode ist leicht um weitere Analyten erweiterbar. Diese Vielseitigkeit konnte durch die Verwendung der Gefriertrocknung als Probenvorbereitung und der zwitterionischen Hydrophile Interaktionschromatographie (HILIC) im Gradientenelutionsmodus erreicht werden. Die Eignung der HILIC-Chromatographie zur gleichzeitigen Quantifizierung einer großen Bandbreite von Mikroschadstoffe in wässrigen Umweltproben wurde gründlich untersucht. Es wurde auf mehrere Einschränkungen hingewiesen: eine sehr komplexe und zeitaufwändige Methodenentwicklung, eine sehr hohe Empfindlichkeit hinsichtlich der Änderung des Acetonitril-Wasser-Verhältnisses im Eluenten oder im Verdünnungsmittel und hohe positive Matrixeffekte für bestimmte Analyten. Diese Einschränkungen können jedoch durch die Verwendung eines präzisen Protokolls und entsprechend markierter interner Standards überwunden werden und werden durch die Vorteile von HILIC, die die chromatographische Trennung von extrem polaren Mikroverunreinigungen ermöglicht, überkompensiert. Die Untersuchung von Umweltproben zeigte erhöhte Konzentrationen der Analyten in der Wasserphase. Insbesondere Gabapentin, Metformin, Guanylharnstoff und Oxypurinol wurden bei Konzentrationen im µg/LBereich im Oberflächenwasser gemessen. Für die Bestimmung von 57 Pharmazeutika und 47 Metaboliten und TPs, die an SPM sorbiert sind, wurde anschließend eine verlässliche Multi-Analyt-Methode etabliert, die eine Quantifizierung bis in den niedrigen ng/g-Bereich erlaubt. Diese Methode wurde konzipiert, um einen großen Polaritätsbereich abzudecken, insbesondere unter Einbeziehung extrem polarer Pharmazeutika. Das Extraktionsverfahren basierte auf einer Druckflüssigkeitsextraktion (PLE), gefolgt von einer Reinigung durch Lösungsmittelaustausch und Detektion durch direkte Injektion-Umkehrphasen-LCMS/MS und Gefriertrocknung-HILIC-MS/MS. Das Sorptionspotential der Pharmazeutika wurde anhand von Laborexperimenten untersucht. Abgeleitete Verteilungskoeffizienten Kd variierten um fünf Größenordnungen unter den Analyten und bestätigten ein hohes Sorptionspotential für positiv geladene und unpolare Pharmazeutika. Das Vorkommen von Pharmazeutika in SPM deutscher Flüsse wurde durch die Untersuchung jährlicher Mischproben bewertet, die zwischen 2005 und 2015 an vier Standorten am Rhein und einem Standort an der Saar entnommen wurden. Dabei zeigte sich das ubiquitäre Vorkommen von an SPM sorbierten Pharmazeutika in diesen Flüssen. Insbesondere positiv geladene Analyten, auch sehr polare und unpolare Pharmazeutika zeigten nennenswerte Konzentrationen. Für viele Pharmazeutika wurde eine deutliche Korrelation zwischen den jährlich in Deutschland konsumierten Mengen und den in SPM gemessenen Konzentrationen festgestellt. Untersuchungen der zusammengesetzten räumlichen Verteilung von SPM erlaubten es, durch den Vergleich der Verschmutzungsmuster entlang des Flusses Hinweise auf spezifische industrielle Einleitungen zu erhalten. Diese Ergebnisse zeigten zum ersten Mal das Potential von SPM für die Überwachung von positiv geladenen und unpolaren Pharmazeutika in Oberflächengewässern. Für Pharmazeutika mit erhöhter Sorptionsaffinität (Kd uber 500 L/kg) erlauben SPM-Analysen sogar die Überwachung niedrigerer Emissionen. Schließlich wurde eine zuverlässige und generische Multi-Analyt-Methode zur Untersuchung von 35 Pharmazeutika und 28 Metaboliten und TPs in Fischplasma, Fischleber und Fischfilet entwickelt. Für diese Matrix war es eine große Herausforderung eine adäquate Aufreinigung zu entwickeln, die eine ausreichende Trennung der störenden Matrix von den Analyten ermöglicht. Bei der endgültigen Methode wurde die Extraktion von Fischgewebe durch Zellaufschluss durchgeführt, gefolgt von einem nicht diskriminierenden Clean-up auf der Basis von Kieselgel-Festphasenextraktion (SPE) und Materialien mit eingeschränkter Zugänglichkeit (RAM). Die Anwendung der entwickelten Methode auf die Messung von Brassen- und Karpfengeweben aus deutschen Flüssen zeigte, dass selbst polare Mikroverunreinigungen wie z.B. Pharmazeutika in Fischgeweben ubiquitär vorhanden sind. Insgesamt wurden 17 Analyten zum ersten Mal in Fischgewebe nachgewiesen, darunter 10 Metaboliten/TPs. Die Bedeutung der Überwachung von Metaboliten und TPs in Fischgeweben wurde durch deren Nachweis in ähnlichen Konzentrationen wie bei ihren Ausgangsstoffe bestätigt. Es zeigte sich, dass Leber und Filet für die Überwachung von Pharmazeutika in Fischen geeignet ¨ sind, während Plasma aufgrund sehr niedriger Konzentrationen und erschwerter Probenahme ungeeignet ist. Erhöhte Konzentrationen bestimmter Metaboliten deuten auf eine mögliche Bildung menschlicher Metaboliten in Fischen hin. Die gemessenen Konzentrationen weisen jedoch auf ein geringes Bioakkumulationspotential für Pharmazeutika in Fischgeweben hin.
Gel effect induced by mucilage in the pore space and consequences on soil physical properties
(2020)
Wasseraufnahme, Atmung und Exsudation sind biologische Schlüsselfunktionen der Wurzeln höherer Pflanzen. Sie steuern das Pflanzenwachstum, indem sie die biogeochemischen Parameter des Bodens in unmittelbarer Nähe der Wurzeln, der Rhizosphäre, verändern. Folglich sind Bodenprozesse wie beispielsweise Wasserflüsse, Kohlen- und Stickstoffaustausch oder mikrobielle Aktivitäten in der Rhizosphäre im Vergleich zu freiem Boden begünstigt. Insbesondere die Exsudation von Mucilage durch die Pflanzenwurzeln scheint ein wichtiger Mechanismus zu sein, um Trockenstress vorzubeugen. Durch diese gelartige Substanz wird bei negativen Wasserpotentialen sowohl der Bodenwassergehalt als auch die ungesättigte hydraulische Leitfähigkeit erhöht. Die Veränderung der Bodeneigenschaften durch Mucilage ist Gegenstand aktueller Forschung. Ein umfassendes Verständnis der Mechanismen im Porenraum der Rhizosphäre ist bisher allerdings noch unzureichend.
Ziel dieser Arbeit war die Aufklärung der Gel-Eigenschaften von Mucilage im Porenraum der Rhizosphäre, um Veränderungen der physiko-chemischen Eigenschaften der Rhizosphäre auf dieses interpartikuläre Mucilage zurückzuführen. Dabei stellten sich drei Herausforderungen: Zunächst einmal mangelte es an Methoden zur in situ Detektion von Mucilage im Boden. Außerdem fehlten detaillierte Kenntnisse bezüglich der Eigenschaften von interpartikulärem Mucilage. Desweiteren war die Beziehung zwischen der Zusammensetzung und den Eigenschaften von Modelsubstanzen und wurzelstämmigem Mucilage verschiedener Spezies unbekannt. Diese Fragen werden in den verschiedenen Kapiteln der Arbeit thematisiert.
Zunächst erfolgte eine Literaturrecherche, um Informationen aus verschiedenen Wissenschaftsbereichen über Methoden zur Charakterisierung von Gelen und Gel-Phasen im Boden zusammenzustellen. Die Änderung von Bodeneigenschaften aufgrund vorhandener Biohydrogelphasen im Boden kann als „Gel-Effekt“ bezeichnet werden. Die kombinierte Studie von Wassereinschlüssen in Gelen und Boden-Gel-Phasen mit der Untersuchung struktureller Eigenschaften von Boden hinsichtlich der mechanischen Stabilität und visueller Strukturen, zeigte sich als vielversprechend, um den Gel-Effekt im Boden zu charakterisieren.
Das erworbene methodische Wissen wurde in den nächsten Untersuchungen angewendet, um die Eigenschaften von interpartikulären Gelen zu detektieren und zu charakterisieren. 1H NMR Relaxometrie erlaubt die nicht-invasive Bestimmung der Wassermobilität in porösen Medien. Ein konzeptuelles Modell wurde aus Gleichungen entwickelt, welche die Proton-Relaxation in gelhaltigen porösen Medien beschreiben. Dieses Modell berücksichtigt den beschriebenen Gel-Effekt bei der Wahl der NMR Parameter und quantifiziert den Einfluss von Mucilage auf die Proton-Relaxation. Darüber hinaus wurde mithilfe von Rheometrie die Viskosität von Mucilage sowie die mikrostrukturelle Bodenstabilität bestimmt. Mittels Rasterelektronenmikroskopie wurde die Netzwerkstruktur von interpartikulärem Gel visualisiert. Die kombinierte Auswertung dieser Ergebnisse identifizierte drei wichtige Eigenschaften von interpartikulärem Gel: Der „Spinnennetz-Effekt“ schränkt die Dehnung der Polymerketten aufgrund der Verbindung zwischen dem Polymer Netzwerk und der Oberfläche von Bodenpartikeln ein. Der „Polymer-Netzwerk-Effekt“ veranschaulicht die Anordnung des Polymernetzwerks im Porenraum gemäß der räumliche Umgebung. Der „Mikroviskositäts-Effekt“ beschreibt die erhöhte Viskosität von interpartikulärem Gel im Vergleich zu freiem Gel. Die Auswirkungen dieser Eigenschaften auf die Wassermobilität und auf die mikrostrukturelle Stabilität des Bodens wurden untersucht und daraus resultierende Konsequenzen für hydraulische und mechanische Eigenschaften des Bodens diskutiert.
Der Einfluss von den chemischen Eigenschaften von Polymeren auf Gel-Bildungsmechanismen und Gel-Eigenschaften wurde untersucht. Dafür wurden Modelsubstanzen mit verschiedenen Uronsäure-Gehalt, Veresterungsgrade und Calcium-Gehalt getestet und die Menge an Materialanteil mit hohem Molekulargewicht quantifiziert. Die untersuchten Modelsubstanzen waren verschiedenen Pektin Polymeren und Chia Samen Mucilage. Darüber hinaus wurde Mucilage aus Winterweizen und Mais Wurzeln isoliert und untersucht. Polygalakturonsäure und Niedermethyliertes Pektin erwiesen sich als nicht geeignete Modelpolymere für Samen und Wurzelmucilage, da ionische Wechselwirkungen mit Calcium ihre Eigenschaften dominieren. Die dem Mucilage zuzurechnenden Eigenschaften scheinen eher durch schwache elektrostatische Wechselwirkungen zwischen verstrickten Polymerketten beherrscht zu sein. Die Menge an Material mit hohem Molekulargewicht variiert deutlich, abhängig von dem Ursprung des Mucilages. Dies scheint ein bedeutender Faktor für den Gel-Effekt von Mucilage im Boden zu sein. Zusätzlich zu der chemischen Charakterisierung der hochmolekulargewichtigen Polymere ist die exakte Bestimmung der Molekularmassen und der Konformation in verschiedenen Mucilagesorten notwendig, um Zusammensetzungs-Eigenschafts-Profile aufzeichnen zu können. Die Abweichungen zwischen den verschiedenen Mucilagestypen, welche sich durch die Messungen ergeben, haben die Notwendigkeit weiterer Untersuchungen unterstrichen. Nur so lässt sich die Frage klären, wie die spezifischen Eigenschaften von verschiedenen Mucilagestypen auf die Bedürfnisse der Pflanze abgestimmt sind, der sie entstammen.
Schließlich wurde diskutiert, wie die Betrachtung von molekularen Wechselwirkungen im Gel und interpartikulären Gel-Eigenschaften das Verständnis über die physikalischen Eigenschaften der Rhizosphäre erweitert. Dieser Ansatz ist vielversprechend, um zum Beispiel der Wassergehalt oder die hydraulische Leitfähigkeit entsprechend die Eigenschaften vom exudierten Mucilage zu klären. Darüber hinaus liegt die Vermutung nahe, dass der Gel-Effekt allgemein für alle Bodenexsudate mit Gel-Charakter Gültigkeit besitzt. Eine Klassifizierung natürlicher Boden-Gel-Phasen einschließlich der von Wurzeln, Samen, Bakterien, Hyphen oder Regenwürmern exsudierten, gelartigen Materialien nach ihren gemeinsamen physiko-chemischen Gel-Eigenschaften wird für die zukünftige Forschung empfohlen. Als Ergebnis könnten die physiko-chemische Eigenschaften von solchen Gelen zum Gel-Effekt den Auswirkungen auf die Bodeneigenschaften und den Funktionen von den Gelen im Boden zugeschrieben worden.
Non-Consumptive Effects of Spiders and Ants: Does Fear Matter in Terrestrial Interaction Webs?
(2014)
Die meisten Tiere haben natürliche Feinde. Neben dem Töten von Beute (Prädation), können Räuber auch die Physiologie, Morphologie und das Verhalten von Beutetieren beeinflussen. Spinnen sind eine ausgesprochen diverse und häufige Räubergruppe in terrestrischen Ökosystemen. Unsere Verhaltensexperimente haben gezeigt, dass nur wenige Insekten- und Spinnenarten das Verhalten in der Anwesenheit von Spinnengeruchstoffen ändern. Besonders Waldgrillen (Nemobius sylvestris) änderten ihr Verhalten aufgrund von Geruchsstoffen mehreren Spinnenarten. Dabei bewirkten Geruchstoffe von relativ größeren und häufigeren Spinnenarten stärkere Verhaltensänderungen.
Verhaltensänderungen unter Prädationsrisiko erhöhen die Überlebensrate von Beutetieren, sind aber oft mit Kosten verbunden. Grillen, die vorher schon mit Geruchstoffen der Listspinne (Pisaura mirabilis) konfrontiert wurden, konnten den Spinnen tatsächlich erfolgreicher entkommen. Während des Experiments haben Grillen unter Prädationsrisiko geringfügig mehr gefressen und weniger Gewicht verloren als Kontrollgrillen. Dies deutet darauf hin, dass Grillen durch das Prädationsrisiko verursachte Kosten kurzzeitig kompensieren können. In einem Wahlexperiment bevorzugten Grillen Pflanzen ohne Spinnengeruchsstoffe. Infolgedessen wurde an Pflanzen mit Spinnengeruchsstoffen weniger gefressen.
Auch Ameisen sind allgegenwärtige Räuber und können einen starken Einfluss auf Pflanzenfresser (Herbivore) aber auch auf andere Räuber haben. Wenn junge Spinnen mit Ameisengeruchstoffen konfrontiert wurden, stieg ihre Bereitschaft sich über größere Entfernungen auszubreiten. Junge Spinnen nutzen diese passive Ausbreitung über die Luft ("ballooning") um Ameisen zu entkommen und neue Lebensräume zu besiedeln.
In einem Freilandexperiment haben wir die Besiedlung von Pflanzen durch Arthropoden in Abhängigkeit von Spinnengeruchsstoffen untersucht. Dabei haben wir den Fraß an den Blättern und die Tiergemeinschaften erfasst. Vergleichbar zum Pflanzenwahlversuch im Labor wurde an Pflanzen mit Spinnengeruchstoffen weniger gefressen. Zusätzlich konnten wir Veränderungen in den Tiergemeinschaften feststellen: Kleine Spinnen und die Schwarze Gartenameise (Lasius niger) haben Pflanzen mit Spinnengeruchstoffen gemieden. Im Gegensatz dazu stieg die Anzahl der Arbeiterinnen der Roten Gartenameise (Myrmica rubra), möglicherweise um ihre Blattläuse gegen die drohende Gefahr zu verteidigen.
Obwohl Verhaltensänderungen auf Filterpapieren mit Spinnengeruchstoffen selten waren, haben unsere Experimente unter natürlicheren Bedingungen deutliche und weitreichende Reaktionen auf die mögliche Anwesenheit von Spinnen (Risikoeffekte) gezeigt. Unsere Resultate legen nahe, dass Risikoeffekte von Räuber die räumliche Verteilung von Pflanzenfraß verändern. Die Gesamtherbivorie wurde allerdings nicht reduziert, was erwartet wird wenn Räuber Pflanzenfresser töten. Wie stark sich Prädation und Risikoeffekte relativ auf die Beute auswirken ist entscheidend für den Einfluss von Räuber auf niedrigere Nahrungsebenen.
Organische Substanzen spielen eine wichtige Rolle bei der Bildung von stabilen Bodenstrukturen. Dabei sind maßgeblich deren physikochemischen Eigenschaften, Wechselwirkungen mit der mineralischen Bodenphase und die daraus resultierende Boden-Wasser Interaktionen von Bedeutung. Dennoch weiß man nur wenig über zugrunde liegenden Mechanismen der Partikelverkittung durch organische Substanzen und inwieweit deren Quellung unter Bildung von interpartikulären Hydrogelen die bodenstrukturelle Stabilität beeinflusst. Bis heute existiert kein mechanistisches Model, dass deren Quellung im Boden beschreibt und daraus resultierende Boden-Wasser Interaktionen in Zusammenhang mit bodenstruktureller Stabilität bringt. Dies ist maßgeblich auf das Fehlen bzw. eine unzureichende Adaptierung geeigneter Testmethoden zur Erfassung von Quellungsprozessen interpartikulärer Hydrogele in Böden zurückzuführen.
In der vorliegenden Dissertation wurde die 1H NMR Relaxometrie mit mikro- und makrostrukturellen Bodenstabilitätstests kombiniert um Boden-Wasser Interaktionen mit der strukturellen Stabilität wassergesättigter und ungesättigter, feuchter Böden zu verknüpfen. Der Erste Teil der Arbeit erfasste Potential und Grenzen der 1H-NMR Relaxometry zur Erfassung unterschiedlicher Wasserpopulationen und struktureller Stabilisierungsmechanismen Boden. Im zweiten Teil der Arbeit wurde die 1H-NMR Relaxometrie zur Untersuchung von Quellungsprozessen einer hydrogel-bildenden organischen Modelsubstanz in Modelböden unterschiedlicher Komplexität eingesetzt. Mittels der Kombination mit Bodenrheologie sollten die zugrundeliegenden Mechanismen identifiziert werden, die im Zusammenhang mit der strukturellen Bodenstabilität stehen. Im letzten Teil der Arbeit wurden die zuvor gesammelten Erkenntnisse auf einen humosen, landwirtschaftlichen Boden übertragen und die Effekte einzelner organischer und mineralischer Bo-denbestandteile auf Boden-Wasser-Interaktionen und bodenstrukturelle Stabilität mittels Dichtefraktionierung noch detaillierter erfasst.
Die zunehmende Komplexität der Experimente ermöglichten eine Brücke zwischen den physikochemischen Eigenschaften interpartikulären Hydrogels und bodenstruktureller Stabilität zu schlagen und ein Modell für die zugrunde liegenden Prozesse für wassergesättigte und ungesättigte, feuchte Böden abzuleiten: Während gequollene Tonpartikel die Reibung zwischen Bodenpartikeln erniedrigen und somit die bodenstrukturelle Stabilität herabsetzen, zeigen gequollen Hydrogelstrukturen den gegenteiligen Effekt und erhöhen die bodenstrukturelle Stabilität. Dies ist zurückzuführen auf die Bildung eines flexiblen und viskosen Polymernetzwerkes, welches mineralische Bodenpartikel über weite Bereiche verbindet und eine deutlich höhere Stabilität als Poren- oder Kapillarwasser aufweist. Es zeigte sich zudem, dass die bodenstrukturelle Stabilität mit steigender Viskosität des interpartikulären Hydrogels zunimmt und dabei von der Inkubationszeit, Bodentextur, Zusammensetzung der Bodenlösung und externen Faktoren wie Bodenfeuchtedynamik und landwirtschaftliche Bewirtschaftungsweisen abhängt. Die stabilisierende Wirkung von interpartikulärem Hydrogel wird zusätzlich durch Tonpartikeln verstärkt, was maßgeblich aus Polymer-Ton-Interaktionen und der Aufnahme von Tonpartikeln in das Hydrogelnetzwerk resultiert. Zusätzlich konnte gezeigt werden, dass die gleichzeitige Quellung von Hydrogelstrukturen und Tonpartikeln und der dabei vorhandenen Konkurrenz um verfügbares Wasser und freien Raum zu einer gegenseitigen Quellungshemmung führen. Somit erhöhen Polymer-Ton-Interaktionen nicht nur die Viskosität des interpartikulären Hydrogels und damit dessen Stabilisierungspotential, sondern erniedrigen zudem die Quellung von Tonpartikeln und damit deren negativen Effekte auf die bodenstrukturelle Stabilität. Das Wissen um diese zugrunde liegenden Prozesse erweitert das Verständnis zur Bildung stabiler Bodenstrukturen und ermöglicht das Ergreifen geeigneter, nachhaltiger Bodenbewirtschaftungsmaßnahmen. Die zudem aufgezeigten Limitierungen des mechanistischen Modells sollen Ansatzpunkte für weitere Forschungs- und Optimierungspotentiale aufzeigen.
Frühere Publikationen belegen die Bedeutung von Einleitungen aus Abwasserreinigungsanlagen für den Eintrag von organischen und anorganischen Chemikalien (=Mikroverunreinigungen) in die aquatische Umwelt. Von dort können diese Mikroverunreinigungen in das Grundwasser gelangen - und schließlich in das Trinkwasser - oder führen zu mannigfachen Auswirkungen in aquatischen Organismen, beispielsweise die Entwicklung multipler Resistenzen von Bakterien. Daher wird derzeit eine Erweiterung des Abwasserreinigungsprozesses diskutiert, um den Eintrag dieser Mikroverunreinigungen zu reduzieren.
Die vorliegende Arbeit setzte sich in diesem Zusammenhang zum Ziel ökotoxikologische Auswirkungen der Abwasserozonierung, als tertiäre Reinigungsstufe, anhand von speziell entwickelten Testverfahren unter Verwendung der Spezies Gammarus fossarum (Koch) auf verschiedenen Ebenen der ökologischen Komplexität zu untersuchen. Um dieses Ziel zu erreichen, wurden verschiedenste Studien unter Labor- sowie Halbfreilandbedingungen durchgeführt. Zunächst wurde die Sensitivität der Testspezies mittels einer vierwöchigen Exposition gegenüber sekundär behandeltem Abwasser der Abwasserreinigungsanlage (ARA) Wüeri, Schweiz, untersucht. Diese Untersuchung belegte statistisch signifikante Reduktionen der Fraßleistung, der Assimilation sowie physiologischer Endpunkte, welche Auswirkungen auf Reproduktion sowie Populationsentwicklung vermuten lassen. In einer weiteren Untersuchung wurde eine Fraßpräferenz von G. fossarum für Laubscheiben festgestellt, die in ozoniertem Abwasser konditioniert wurden, über solche, konditioniert in nicht ozoniertem (=sekundär behandeltem) Abwasser. Diese Präferenz scheint auf eine veränderte laubassoziierte mikrobielle Gemeinschaft zurückzuführen zu sein. Eine Reihe von Laboruntersuchungen belegte zudem eine statistisch signifikant erhöhte Fraßrate von G. fossarum, welche gegenüber ozoniertem Abwasser der ARA Wüeri - unabhängig davon, ob die Ozonierung auf der ARA selbst oder unter Laborbedingungen durchgeführt wurde - exponiert wurden, verglichen mit nicht ozoniertem Abwasser. Diese Experimente lassen zudem die Schlussfolgerung zu, dass die Veränderungen der organischen Matrix, welche durch die Anwendung der Ozonierung hervorgerufen werden, nicht für die erhöhte Fraßrate von Gammarus verantwortlich sind, da sich die mittlere Fraßrate nur geringfügig zwischen sekundär und ozonbehandeltem Abwasser, welches kaum Mikroverunreinigungen enthielt, unterschied. Auch konnte gezeigt werden, dass Veränderungen im Profil des gelösten organischen Kohlenstoffs (DOC) die Fraßrate nicht beeinflussen. Zudem untermauern in situ Expositionssysteme, welche direkt im Vorfluter Anwendung fanden, die Resultate der Laborstudien. Diese Experimente zeigten lediglich während der Einleitung von sekundär behandeltem Abwasser unterhalb der Einleitung der ARA signifikant reduzierte Fraßraten verglichen mit einer Kontrollstelle direkt oberhalb der Einleitung. Während der Einleitung von ozoniertem Abwasser sind, jedoch, keine Reduktionen in den Fraßraten feststellbar. Schließlich konnten auch Populationsstudien einen höheren Fraß, sowie eine höhere Populationsgröße von G. fossarum, bei einer Exposition gegenüber ozonbehandeltem Abwasser, verglichen mit sekundär behandeltem Abwasser belegen.
Zusammenfassend legt die vorliegende Arbeit dar, dass die Behandlung von Abwasser mit Ozon geeignet ist, durch die Reduktion von Mikroverunreinigungen, die Ökotoxizität zu reduzieren. Daher könnte diese Technologie helfen die Vorgaben der Wasserrahmenrichtlinie, auch unter den vorhergesagten Klimawandelszenarien, welche einen höheren Abwasseranteilen im Vorfluter während der Sommermonate vermuten lassen, einzuhalten. Jedoch werden durch die Anwendung von Ozon auch Nebenprodukte gebildet werden, welche eine höhere Ökotoxizität aufweisen als deren Muttersubstanzen. Daher sollte im Falle der Etablierung dieser Technologie ein weitergehendes chemisches und ökotoxikologisches Monitoring erfolgen.
Die Verabschiedung der Europäischen Wasserrahmenrichtlinie (WRRL) in 2000 markierte den Beginn einer neuen Ära in der europäischen Wasserpolitik. Mehr als ein Jahrzehnt später, verfehlt jedoch weiterhin die Mehrheit der europäischen Flüsse den guten ökologischen Zustand, eines der wichtigsten WRRL-Ziele.
Ein bedeutender Belastungsfaktor für Fließgewässerökosysteme sind Pflanzenschutzmittel (PSM). Die vorliegende Doktorarbeit unterstreicht die Notwendigkeit, alle wichtigen land-wirtschaftlichen PSM-Quellen und beeinflussenden Landschaftsfaktoren bei der Erstellung von WRRL-Bewirtschaftungsplänen und Maßnahmenprogrammen zu berücksichtigen. Die Ergebnisse und Empfehlungen dieser Doktorarbeit verbessern das Verständnis für eine zielgerichtete Bekämpfung von PSM-Belastungen zur Erreichung der WRRL-Ziele. Insgesamt wurden 663 Messstellen in den Bundesländern Sachsen, Sachsen-Anhalt, Thüringen und Hessen untersucht (Kapitel 3 und 4). Neben einer Analyse der Makrozoobenthos-Daten aus dem WRRL-Monitoringnetz, erfolgte eine detaillierte GIS-Analyse der wichtigsten landwirtschaftlichen PSM-Quellen (Ackerland, Kleingärten sowie kommunale Abwasserreinigungsanlagen) sowie Landschaftsfaktoren (Gewässerrandstreifen und bewaldete Abschnitte im Oberlauf). Basierend auf den Ergebnissen wurde eine Screening-Methode zur schnellen und kostengünstigen Identifizierung von potenziell mit PSM belasteten Stellen entwickelt. Mit Hilfe des Bioindikators SPEARpesticides konnten insektizide Langzeitwirkungen der Abwässer von Abwasserreinigungsanlagen auf die Struktur der Makrozoobenthos-Gemeinschaft bis in 1,5 km Entfernung flussabwärts (in einigen Fällen sogar 3 km) aufgezeigt werden. Die Ergebnisse für den Deutschen Saprobienindex zeigen zudem, dass Abwasserreinigungsanlagen weiterhin eine bedeutende Quelle für sauerstoffzehrende Substanzen sind. Als geeignete Maßnahmen zur Verminderung der Belastung und der Auswirkungen von PSM wurden Gewässerrandstreifen (mindestens 5 m breit) und bewaldete Oberläufe identifiziert.
Es wird befürchtet, dass die zukünftige Ausdehnung des Energiepflanzenanbaus zu einem Anstieg der diffusen PSM-Belastung von Ökosystemen in Agrarlandschaften führen könnte. Diese Fragestellung wurde im Rahmen der vorliegenden Doktorarbeit basierend auf einer Analyse der Entwicklung des Energiepflanzenanbaus in Deutschland und anhand einer Literaturrecherche zu mehrjährigen Energiepflanzen untersucht (Kapitel 5). Die Ergebnisse zeigen, dass eine großflächige Ausdehnung des Energiepflanzenanbaus nicht unbedingt zu einer Erhöhung oder Verringerung der Menge an PSM, die in die Umwelt gelangen, führen muss. Die potenziellen Auswirkungen hängen vielmehr von der zukünftigen Ausgestaltung der Agrarsysteme ab. Anstelle des Anbaus von einjährigen Energiepflanzen in Monokulturen, sollten diese in die bereits vorhandenen Nahrungsmittelanbausysteme integriert werden. Zudem könnten finanzielle Anreize sowie eine verstärkte Aus- und Fortbildung der Bauern dazu beitragen, die Nutzung von nachhaltigen Fruchtfolgen, innovativen Anbausystemen und mehrjährigen Energiepflanzen zu erhöhen. Dies würde die Vielfalt der Feldfrüchte erhöhen und könnte helfen, den PSM-Bedarf der bisherigen intensiven Nahrungsmittelanbausysteme zu verringern.
Softwaresysteme haben einen zunehmenden Einfluss auf unser tägliches Leben. Viele Systeme verarbeiten sensitive Daten oder steuern wichtige Infrastruktur, was die Bereitstellung sicherer Software unabdingbar macht. Derartige Systeme werden aus Aufwands- und Kostengründen selten erneuert. Oftmals werden Systeme, die zu ihrem Entwurfszeitpunkt als sicheres System geplant und implementiert wurden, deswegen unsicher, weil sich die Umgebung dieser Systeme ändert. Dadurch, dass verschiedenste Systeme über das Internet kommunizieren, sind diese auch neuen Angriffsarten stetig ausgesetzt. Die Sicherheitsanforderungen an ein System bleiben unberührt, aber neue Erkenntnisse wie die Verwundbarkeit eines zum Entwurfszeitpunkt als sicher geltenden Verschlüsselungsalgorithmus erzwingen Änderungen am System. Manche Sicherheitsanforderungen können dabei nicht anhand des Designs sondern nur zur Laufzeit geprüft werden. Darüber hinaus erfordern plötzlich auftretende Sicherheitsverletzungen eine unverzügliche Reaktion, um eine Systemabschaltung vermeiden zu können. Wissen über geeignete Sicherheitsverfahren, Angriffe und Abwehrmechanismen ist grundsätzlich verfügbar, aber es ist selten in die Softwareentwicklung integriert und geht auf Evolutionen ein.
In dieser Arbeit wird untersucht, wie die Sicherheit langlebiger Software unter dem Einfluss von Kontext-Evolutionen bewahrt werden kann. Der vorgestellte Ansatz S²EC²O hat zum Ziel, die Sicherheit von Software, die modellbasiert entwickelt wird, mithilfe von Ko-Evolutionen wiederherzustellen.
Eine Ontologie-basierende Wissensbasis wird eingeführt, die sowohl allgemeines wie auch systemspezifisches, sicherheitsrelevantes Wissen verwaltet. Mittels einer Transformation wird die Verbindung der Wissensbasis zu UML-Systemmodellen hergestellt. Mit semantischen Differenzen, Inferenz von Wissen und der Erkennung von Inkonsistenzen in der Wissensbasis werden Kontext-Evolutionen erkannt.
Ein Katalog mit Regeln zur Verwaltung und Wiederherstellung von Sicherheitsanforderungen nutzt erkannte Kontext-Evolutionen, um mögliche Ko-Evolutionen für das Systemmodell vorzuschlagen, welche die Einhaltung von Sicherheitsanforderungen wiederherstellen.
S²EC²O unterstützt Sicherheitsannotationen, um Modelle und Code zum Zwecke einer Laufzeitüberwachung zu koppeln. Die Adaption laufender Systeme gegen Bedrohungen wird ebenso betrachtet wie Roundtrip-Engineering, um Erkenntnisse aus der Laufzeit in das System-Modell zu integrieren.
S²EC²O wird ergänzt um eine prototypische Implementierung. Diese wird genutzt, um die Anwendbarkeit von S²EC²O im Rahmen einer Fallstudie an dem medizinischen Informationssystem iTrust zu zeigen.
Die vorliegende Arbeit leistet einen Beitrag, um die Entwicklung und Wartung langlebiger Softwaresysteme in Bezug auf ihre Sicherheit zu begleiten. Der vorgestellte Ansatz entlastet Sicherheitsexperten bei ihrer Arbeit, indem er sicherheitsrelevante Änderungen des Systemkontextes erfasst, den Einfluss auf die Sicherheit der Software prüft und Ko-Evolutionen zur Bewahrung der Sicherheitsanforderungen ermöglicht.
Im Kontext des Geschäftsprozessmanagements werden häufig sogenannte
Business Rules (Geschäftsregeln) als zentrales Artefakt zur Modellierung von
unternehmensinterner Entscheidungslogik sowie der Steuerung von Unternehmensaktivitäten eingesetzt. Eine exemplarische Geschäftsregel aus dem Finanzsektor wäre z.B. ”Ein Kunde mit geistiger Behinderung ist nicht geschäftsfähig”.
Business Rules werden hierbei meist von mehreren Mitarbeitern und über einen
längeren Zeitraum erstellt und verwaltet. Durch dieses kollaborative Arbeiten
kann es jedoch leicht zu Modellierungsfehlern kommen. Ein großes Problem in
diesem Kontext sind Inkonsistenzen, d.h. sich widersprechende Regeln. In Bezug
auf die oben gezeigte Regel würde beispielsweise eine Inkonsistenz entstehen,
wenn ein (zweiter) Modellierer eine zusätzliche Regel ”Kunden mit geistiger
Behinderung sind voll geschäftsfähig” erstellt, da diese beiden Regeln nicht zeitgleich einhaltbar sind. Die vorliegende Arbeit beschäftigt sich mit dem Umgang
mit solchen Inkonsistenzen in Business Rule-Repositorien. Hierbei werden im
Speziellen Methoden und Techniken zur Erkennung, Analyse und Behebung von
Inkonsistenzen in Regelbasen entwickelt.
The diversity within amphibian communities in cultivated areas in Rwanda and within two selected, taxonomically challenging groups, the genera Ptychadena and Hyperolius, were investigated in this thesis. The amphibian community of an agricultural wetland near Butare in southern Rwanda comprised 15 anuran species. Rarefaction and jackknife analyses corroborated that the complete current species richness of the assemblage had been recorded, and the results of acoustic niche analysis suggested species saturation of the community. Surveys at many other Rwandan localities showed that the species recorded in Butare are widespread in cultivated and pristine wetlands. The species were readily distinguishable using morphological, bioacoustic, and molecular (DNA barcoding) features, but only eight of the 15 species could be assigned unambiguously to nominal species. The remaining represented undescribed or currently unrecognized taxa, including three species of Hyperolius, two Phrynobatrachus species, one Ptychadena species, and one species of Amietia. The diversity of the Ridged Frogs in Rwanda was investigated in two studies (Chapters III and IV). Three species of Ptychadena were recorded in wetlands in the catchment of the Nile. They can be distinguished by morphological characters (morphometrics and qualitative features) as well as by their advertisement calls and genetics. The Rwandan species of the P. mascareniensis group was shown to differ from the topotypic population as well as from other genetic lineages in sub-Saharan Africa and an old available name, P. nilotica, was resurrected from synonymy for this lineage. Two further Ptychadena species were identified among voucher specimens from Rwanda deposited in the collection of the RMCA, P. chrysogaster and P. uzungwensis. Morphologically they can be unambiguously distinguished from each other and the three other Rwandan species. A key based on qualitative morphological characters was developed, which allows unequivocal identification of specimens of all species that have been recorded from Rwanda. DNA was isolated from a Rwandan voucher specimen of P. chrysogaster, and the genetic analysis corroborated the species" distinct status.
A species of Hyperolius collected in the Nyungwe National Park was compared to all other Rwandan species of the genus and to morphologically or genetically similar species from neighbouring countries. Its distinct taxonomic status was justified by morphological, bioacoustic, and molecular evidence and it was described as a new species, H. jackie. A species of the H. nasutus group collected at agricultural sites in Rwanda was described as a new species in the course of a revision of the species of the Hyperolius nasutus group. The group was shown to consist of 15 distinct species which can be distinguished from each other genetically, bioacoustically, and morphologically.
The aerial performance, i.e. parachuting, of the Disc-fingered Reed Frog, Hyperolius discodactylus, was described. It represents a novel observation of a behaviour that has been known from a number of Southeast Asian and Neotropical frog species. Parachuting frogs, including H. discodactylus, exhibit certain morphological characteristics and, while airborne, assume a distinct posture which is best-suited for maneuvering in the air. Another study on the species addressed the validity of the taxon H. alticola which had been considered either a synonym of H. discodactylus or a distinct species. Type material of both taxa was re-examined and the status of H. alticola reassessed using morphological data from historic and new collections, call recordings, and molecular data from animals collected on recent expeditions. A northern and a southern genetic clade were identified, a divide that is weakly supported by diverging morphology of the vouchers from the respective localities. No distinction in advertisement call features could be recovered to support this split and both genetic and morphological differences between the two geographic clades are marginal and not always congruent and more likely reflect population-level variation. Therefore it was concluded that H. alticola is not a valid taxon and should be treated as a synonym of H. discodactylus.
Tagging-Systeme sind faszinierende dynamische Systeme in denen Benutzer kollaborativ Ressourcen mit sogenannten Tags indexieren. Um das volle Potential von Tagging-Systemen nutzen zu können ist es wichtig zu verstehen, wie sich das Verhalten der einzelnen Benutzer auf die Eigenschaften des Gesamtsystems auswirkt. In der vorliegenden Arbeit wird das Epistemic Dynamic Model präsentiert. Es schlägt eine Brücke zwischen dem Benutzerverhalten und den Systemeigenschaften. Das Modell basiert auf der Annahme, dass der Einfluss des gemeinsamen Hintergrundwissens der Benutzer und der Imitation von Tag-Vorschlägen ausreicht, um die Entstehung der Häufigkeitsverteilungen der Tags und des Wachstums des Vokabulars zu erklären. Diese beiden Eigenschaften eines Tagging-Systems hängen eng mit der Entstehung eines gemeinsamen Vokabulars der Benutzer zusammen. Mit Hilfe des Epistemic Dynamic Models zeigen wir, dass die generelle Ausprägung der Tag-Häufigkeitsverteilungen und des Wachstums des Vokabulars ihren Ursprung in dem gemeinsamen Hintergrundwissen der Benutzer haben. Tag-Vorschläge können dann dazu genutzt werden, um gezielt diese generelle Ausprägung zu beeinflussen. In der vorliegenden Arbeit untersuchen wir hauptsächlich den Einfluss der von Vorschlägen populärer Tags ausgeht. Populäre Tags sorgen für einen Feedback-Mechanismus zwischen den Vokabularen der einzelnen Benutzer, der die Inter-Indexer Konsistenz der Tag-Zuweisungen erhöht. Wie wird aber dadurch die Indexierungsqualität in Tagging-Systemen beeinflusst? Zur Klärung dieser Frage untersuchen wir eine Methode zur Messung der Inter-Ressourcen Konsistenz der Tag-Zuweisungen. Die Inter-Ressourcen Konsistenz korreliert positiv mit der Indexierungsqualität, und mit der Trefferquote und der Genauigkeit von Suchanfragen an das System. Sie misst inwieweit die Tag-Vektoren die durch Benutzer wahrgenommene Ähnlichkeit der jeweiligen Ressourcen widerspiegeln. Wir legen mit Hilfe unseres Modell dar, und zeigen es auch mit Hilfe eines Benutzerexperiments, dass populäre Tags zu einer verringerten Inter-Ressourcen Konsistenz führen. Des Weiteren zeigen wir, dass die Inter-Ressourcen Konsistenz erhöht wird, wenn dem Benutzer das eigene, bisher genutzte Vokabular vorgeschlagen wird. Unsere Methode zur Messung der Inter-Ressourcen Konsistenz ergänzt bestehende Evaluationsmaße für Tag-Vorschlags-Algorithmen um den Aspekt der Indexierungsqualität.
Die Bedeutung technischer Produkte in unserem Alltag geht weit über die praktischer Werkzeuge hinaus. So ist beispielsweise das Mobiltelefon ein ständiger Begleiter, das neben rein pragmatischen Funktionen auch psychologische Bedürfnisse wie Verbundenheit, Stimulation, Kompetenz, Popularität oder Sicherheit erfüllt. Interaktive Produkte bieten somit ein großes Potential zur Vermittlung freudvoller Erlebnisse, was auch von der Forschung im Bereich Mensch-Technik-Interaktion (Human-Computer Interaction, HCI) anerkannt wurde. Neben aufgabenorientierten Qualitätsaspekten berücksichtigte die HCI-Forschung vermehrt auch Selbst-orientierte, erlebnisbezogene Qualitätsaspekte. Diese Unterscheidung von pragmatischen Produktattributen (beispielsweise Usability, dt. Gebrauchstauglichkeit) und hedonischen Produktattributen (beispielsweise Schönheit) ist angelehnt an das Hedonisch-Utilitaristisch-Modell der Konsumentenpsychologie. Theoretische Modelle des Nutzererlebens (User Experience, UX) messen hedonischen und pragmatischen Attributen eine gleichermaßen wichtige Rolle für das Erleben und die Wertschätzung eines Produkts bei. Im Moment der Produktwahl kommt es jedoch oft zu einem Ungleichgewicht: hier werden vorrangig pragmatische Attribute berücksichtigt, wohingegen hedonische Attribute vernachlässigt werden. Dieses Phänomen lässt sich mit Rechtfertigung erklären. Personen haben das Bedürfnis ihre Wahl zu rechtfertigen und berücksichtigen so eher die Rechtfertigbarkeit von Produktattributen als deren Relevanz für die Freude am Produkt. Pragmatische Attribute sind hier im Vorteil. Durch ihren direkten Bezug zur primären Funktion eines Produkts lassen sie sich weitaus einfacher rechtfertigen als hedonische Attribute. Dies kann dazu führen, dass Personen entgegen ihrer eigentlichen (hedonischen) Präferenz pragmatisch wählen " was ein Dilemma darstellt, denn sie wählen nicht das, woran sie am meisten Freude haben. Die vorliegende Dissertation untersucht die Annahme eines Dilemmas des Hedonischen im Kontext interaktiver Produkte.
Eine erste Reihe von vier Studien bestätigte das angenommene Dilemma. Während Personen ohne Weiteres bereit waren, für einen Qualitätszuwachs bezüglich eines pragmatischen Attributs zu bezahlen, widerstrebte es ihnen, für einen Qualitätszuwachs bezüglich eines hedonischen Attributs zu bezahlen (Studie 1, N = 422). Studie 2 (N = 134) zeigte jedoch, dass Personen hedonische Produktattribute durchaus schätzen und ihre Wahl (insgeheim) auch daran orientieren. Sie begründen ihre Wahl aber vorrangig mit (durchaus fraglichen) pragmatischen Vorteilen. Studie 3 (N = 118) konfrontierte die Studienteilnehmer mit einer Wahl, die einen Kompromiss zwischen hedonischer und pragmatischer Qualität erforderte. Obgleich die Aussicht auf den Erhalt des hedonischen Produkts mit einem höheren Maß an positivem Affekt assoziiert wurde, wählte die Mehrheit der Teilnehmer das pragmatische Produkt, vor allem diejenigen mit einem hohen Rechtfertigungsbedürfnis. Der gefundene Zusammenhang zwischen Produktwahl und erlebtem Bedarf nach Rechtfertigung untermauerte die Annahme von Rechtfertigung als zugrundeliegenden Faktor. Studie 4 (N = 125) widmete sich der weiteren Exploration affektiver Konsequenzen sowie angeführten Begründungen für hedonische und pragmatische Wahl. Wieder war das hedonische Produkt mit einem höheren Maß an positivem Affekt assoziiert als das pragmatische " selbst unter denjenigen, die das pragmatische Produkt wählten.
Eine zweite Gruppe von drei Studien explorierte Möglichkeiten zur Reduktion des Dilemmas mittels experimenteller Manipulation von Rechtfertigung. Die getesteten Manipulationen setzten sowohl an der Rechtfertigbarkeit von Produktattributen als auch am generellen Bedarf nach Rechtfertigung an. Studie 5 (N = 129) erhöhte die jeweilige Rechtfertigbarkeit von hedonischer und pragmatischer Wahl mittels der Eindeutigkeit dargebotener Informationen über Produktattribute. Nicht eindeutige, "elastische" Informationen boten hier einen erhöhten Interpretationsspielraum, der zugunsten bestehender Präferenzen genutzt werden konnte. Erwartungsgemäß führte eine erhöhte Rechtfertigbarkeit zu einem Anstieg der Hedonisch-Wahlraten, die Pragmatisch-Wahlraten blieben von der Manipulation unbeeinflusst. Studie 6 (N = 178) erhöhte die Rechtfertigbarkeit einer hedonischen Wahl durch einen "Testbericht", der hedonische Attribute als ein scheinbar legitimes Entscheidungskriterium anführte. Auch hier zeigte sich mit steigender Rechtfertigbarkeit ein Anstieg der Hedonisch-Wahlraten. Studie 7 (N = 133) manipulierte den generellen Bedarf nach Rechtfertigung durch ein Framing des Produktkaufs als Belohnung. Für ein hedonisches Produkt zeigte sich ein positiver Effekt des Belohnungs-Framings auf die Kaufbereitschaft, für ein pragmatisches Produkt zeigte sich hingegen kein Effekt der Rechtfertigungsmanipulation.
Die vorliegenden Studien zeigen auf, dass hedonische Attribute auch bei technischen Produkten geschätzt werden, wenngleich diese landläufig oft als "Werkzeuge" betrachtet werden. Genau diese noch immer weitverbreitete rein pragmatische Sichtweise auf Technik ist es womöglich, die Personen zögern lässt, ihrem Wunsch nach hedonischer Qualität nachzugeben " zumindest solange sie glauben, ihre Wahl rechtfertigen zu müssen. Die vorliegenden Ergebnisse tragen zu einem besseren Verständnis der komplexen Konsequenzen hedonischer und pragmatischer Attribute bei, und weisen auf eine generelle Notwendigkeit der Erweiterung des Fokus der User Experience-Forschung auf den Moment der Wahl hin. Limitationen der vorliegenden Studien, Implikationen für zukünftige Forschung, sowie praktische Implikationen für die Produktgestaltung und -vermarktung werden diskutiert.
In der vorliegenden Arbeit wurden Benetzungseigenschaften zweier stark anthropogen beeinflusster Böden in Abhängigkeit von Einflussfaktoren wie Wassergehalt, pH, Trocknungs- und Benetzungstemperatur untersucht. Ziel war es die Prozesse und Mechanismen, die zu Veränderungen der Benetzungseigenschaften von Böden führen, besser zu verstehen. Erkenntnisse über diese Prozesse und Mechanismen lassen zum einen Rückschlüsse auf das generelle Verhalten von organischer Bodensubstanz zu, können zum anderen aber auch helfen, vorsorgliche Maßnahmen zu ergreifen um Bodenhydrophobie zu verhindern oder deren negative Effekte zu reduzieren. Anhand der Zeit- und Temperaturabhängigkeit der Spreitung von liegenden Tropfen (TISED) auf hydrophoben und benetzbaren Bodenproben beider Standorte wurde die Hypothese getestet, dass der Benetzungsprozess durch chemische Reaktionen kontrolliert wird. Mithilfe von DRIFT (Diffuse Reflectance Infrared Fourier Transform) Spektren wurde überprüft, ob unterschiedliche Trocknungs-bedingungen (Temperatur, Dauer, Luftfeuchte) zu Unterschieden in der Anzahl hydrophober und hydrophiler funktioneller Gruppen in den äußeren Molekülschichten führen die sich im Grad der Benetzungshemmung widerspiegeln. Durch künstliche pH-Wert Änderung über die Gas¬phase konnte die pH-Wert Abhängigkeit der Benetzungshemmung unabhängig vom Wassergehaltseinfluss beider Standorte verglichen werden. Die beiden Standorte weisen extreme Unterschiede in der Art der Benetzungshemmung auf und sind dadurch beispielhaft für die Bandbreite der möglichen Ursachen und Mechanismen der Benetzungs-hemmung in Böden. Die Ergebnisse der Untersuchungen zur Temperatur- Wassergehalts- und pH-Abhängigkeit der Benetzungshemmung aus dieser Arbeit im Vergleich mit Ergebnissen vorhergehender Arbeiten lassen sich am besten mit jeweils einem konzeptionellen Modell pro Standort zur Natur der Benetzungshemmung erklären: Am Standort Tiergarten werden die Benetzungseigenschaften vermutlich durch mizellartige Anordnung amphiphiler Substanzen an der Oberfläche der organischen Bodensubstanz bestimmt, die abhängig vom Gehalt wasserlöslicher amphiphiler Substanzen, dem pH Wert und der Ionenstärke in der Bodenlösung im Verlaufe der Trocknung zu einer unterschiedlichen Orientierung der hydrophilen funktionellen Gruppen führt. Bei niedrigen pH-Werten und hoher Ionenstärke herrschen schwache Abstoßungskräfte zwischen den hydrophilen Gruppen, diese können aggregieren und hydrophobe Molekülketten sind nach außen gerichtet. Bei höheren pH-Werten und niedrigerer Ionenstärke sind die abstoßenden Kräfte zwischen den hydrophilen Gruppen groß und führen zu einer Aggregation hydrophober Gruppen, wobei die hydrophilen Gruppen nach der Trocknung nach außen gerichtet sind und für eine bessere Benetzbarkeit sorgen. Am Standort Buch sind chemische Reaktionen zur Benetzung nötig. Aufgrund der starken Wassergehaltsabhängigkeit der Benetzungshemmung könnte es sich dabei um Hydrolysereaktionen handeln, die säurekatalysiert reversible wassegehaltsabhängige Gleichgewichtsreaktionen und im Basischen irreversibel sind. Die beiden Modelle können eine Vielzahl von Beobachtungen erklären, die im Verlaufe dieser Untersuchung aber auch in vorhergehenden Untersuchungen gemacht wurden. Die Ergebnisse dieser Untersuchungen und ihr Vergleich mit vorherigen Untersuchungen auf denselben Standorten zeigten, dass Benetzungshemmung in Böden durch eine Vielzahl von Faktoren und Prozessen beeinflusst ist, die sowohl synergistisch als auch antagonistisch wirken können. Welche Faktoren den größten Einfluss ausüben bzw. welche Prozesse die vorherrschenden sind, hängt von lokalen Größen wie der Art des Mineralbodens und der organischen Bodensubstanz ab, die wiederum dem Einfluss von Klima, Textur, Topografie, Vegetation und der Nutzungsgeschichte unterliegen.
Navigation is a natural way to explore and discover content in a digital environment. Hence, providers of online information systems such as Wikipedia---a free online encyclopedia---are interested in providing navigational support to their users. To this end, an essential task approached in this thesis is the analysis and modeling of navigational user behavior in information networks with the goal of paving the way for the improvement and maintenance of web-based systems. Using large-scale log data from Wikipedia, this thesis first studies information access by contrasting search and navigation as the two main information access paradigms on the Web. Second, this thesis validates and builds upon existing navigational hypotheses to introduce an adaptation of the well-known PageRank algorithm. This adaptation is an improvement of the standard PageRank random surfer navigation model that results in a more "reasonable surfer" by accounting for the visual position of links, the information network regions they lead to, and the textual similarity between the link source and target articles. Finally, using agent-based simulations, this thesis compares user models that have a different knowledge of the network topology in order to investigate the amount and type of network topological information needed for efficient navigation. An evaluation of agents' success on four different networks reveals that in order to navigate efficiently, users require only a small amount of high-quality knowledge of the network topology. Aside from the direct benefits to content ranking provided by the "reasonable surfer" version of PageRank, the empirical insights presented in this thesis may also have an impact on system design decisions and Wikipedia editor guidelines, i.e., for link placement and webpage layout.
The Web contains some extremely valuable information; however, often poor quality, inaccurate, irrelevant or fraudulent information can also be found. With the increasing amount of data available, it is becoming more and more difficult to distinguish truth from speculation on the Web. One of the most, if not the most, important criterion used to evaluate data credibility is the information source, i.e., the data origin. Trust in the information source is a valuable currency users have to evaluate such data. Data popularity, recency (or the time of validity), reliability, or vagueness ascribed to the data may also help users to judge the validity and appropriateness of information sources. We call this knowledge derived from the data the provenance of the data. Provenance is an important aspect of the Web. It is essential in identifying the suitability, veracity, and reliability of information, and in deciding whether information is to be trusted, reused, or even integrated with other information sources. Therefore, models and frameworks for representing, managing, and using provenance in the realm of Semantic Web technologies and applications are critically required. This thesis highlights the benefits of the use of provenance in different Web applications and scenarios. In particular, it presents management frameworks for querying and reasoning in the Semantic Web with provenance, and presents a collection of Semantic Web tools that explore provenance information when ranking and updating caches of Web data. To begin, this thesis discusses a highly exible and generic approach to the treatment of provenance when querying RDF datasets. The approach re-uses existing RDF modeling possibilities in order to represent provenance. It extends SPARQL query processing in such a way that given a SPARQL query for data, one may request provenance without modifying it. The use of provenance within SPARQL queries helps users to understand how RDF facts arederived, i.e., it describes the data and the operations used to produce the derived facts. Turning to more expressive Semantic Web data models, an optimized algorithm for reasoning and debugging OWL ontologies with provenance is presented. Typical reasoning tasks over an expressive Description Logic (e.g., using tableau methods to perform consistency checking, instance checking, satisfiability checking, and so on) are in the worst case doubly exponential, and in practice are often likewise very expensive. With the algorithm described in this thesis, however, one can efficiently reason in OWL ontologies with provenance, i.e., provenance is efficiently combined and propagated within the reasoning process. Users can use the derived provenance information to judge the reliability of inferences and to find errors in the ontology. Next, this thesis tackles the problem of providing to Web users the right content at the right time. The challenge is to efficiently rank a stream of messages based on user preferences. Provenance is used to represent preferences, i.e., the user defines his preferences over the messages' popularity, recency, etc. This information is then aggregated to obtain a joint ranking. The aggregation problem is related to the problem of preference aggregation in Social Choice Theory. The traditional problem formulation of preference aggregation assumes a I fixed set of preference orders and a fixed set of domain elements (e.g. messages). This work, however, investigates how an aggregated preference order has to be updated when the domain is dynamic, i.e., the aggregation approach ranks messages 'on the y' as the message passes through the system. Consequently, this thesis presents computational approaches for online preference aggregation that handle the dynamic setting more efficiently than standard ones. Lastly, this thesis addresses the scenario of caching data from the Linked Open Data (LOD) cloud. Data on the LOD cloud changes frequently and applications relying on that data - by pre-fetching data from the Web and storing local copies of it in a cache - need to continually update their caches. In order to make best use of the resources (e.g., network bandwidth for fetching data, and computation time) available, it is vital to choose a good strategy to know when to fetch data from which data source. A strategy to cope with data changes is to check for provenance. Provenance information delivered by LOD sources can denote when the resource on the Web has been changed last. Linked Data applications can benefit from this piece of information since simply checking on it may help users decide which sources need to be updated. For this purpose, this work describes an investigation of the availability and reliability of provenance information in the Linked Data sources. Another strategy for capturing data changes is to exploit provenance in a time-dependent function. Such a function should measure the frequency of the changes of LOD sources. This work describes, therefore, an approach to the analysis of data dynamics, i.e., the analysis of the change behavior of Linked Data sources over time, followed by the investigation of different scheduling update strategies to keep local LOD caches up-to-date. This thesis aims to prove the importance and benefits of the use of provenance in different Web applications and scenarios. The exibility of the approaches presented, combined with their high scalability, make this thesis a possible building block for the Semantic Web proof layer cake - the layer of provenance knowledge.
Sediment transport contributes to the movement of inorganic and organic material in rivers. The construction of a dam interrupts the continuity of this sediment transport through rivers, causing sediments to accumulate within the reservoir. Reservoirs can also act as carbon sinks and methane can be released when organic matter in the sediment is degraded under anoxic conditions. Reservoir sedimentation poses a great threat to the sustainability of reservoirs worldwide, and can emit the potent greenhouse gas methane into the atmosphere. Sediment management measures to rehabilitate silted reservoirs are required to achieve both better water quantity and quality, as well as to mitigate greenhouse gas emissions.
This thesis aims at the improvement of sediment sampling techniques to characterize sediment deposits as a basis for accurate and efficient water jet dredging and to monitor the dredging efficiency by measuring the sediment concentration. To achieve this, we investigated freeze coring as a method to sample (gas-bearing) sediment in situ. The freeze cores from three reservoirs obtained were scanned using a non-destructive X-Ray CT scan technique. This allows the determination of sediment stratification and character-ization of gas bubbles to quantify methane emissions and serve as a basis for the identi-fication of specific (i.e. contaminated) sediment layers to be dredged. The results demon-strate the capability of freeze coring as a method for the characterization of (gas-bearing) sediment and overcomes certain limitations of commonly used gravity cores. Even though the core’s structure showed coring disturbances related to the freezing process, the general core integrity seems to not have been disturbed. For dredging purposes, we analyzed the impact pressure distribution and spray pattern of submerged cavitating wa-ter jets and determined the effects of impinging distances and angles, pump pressures and spray angles. We used an adapted Pressure Measurement Sensing technique to enhance the spatial distribution, which proved to be a comparatively easy-to-use meas-urement method for an improved understanding of the governing factors on the erosional capacity of cavitating water jets. Based on this data, the multiple linear regression model can be used to predict the impact pressure distribution of those water jets to achieve higher dredging accuracy and efficiency. To determine the dredging operational efficien-cy, we developed a semi-continuous automated measurement device to measure the sediment concentration of the slurry. This simple and robust device has lower costs, compared to traditional and surrogate sediment concentration measurement technolo-gies, and can be monitored and controlled remotely under a wide range of concentrations and grain-sizes, unaffected by entrained gas bubbles
Wildbienen sind unerlässlich für die Bestäubung von Wild- und Kulturpflanzen. Die zunehmende Intensivierung der Landwirtschaft führte jedoch sowohl zu einer Verringerung und Fragmentierung als auch zu einer Wertminderung der von ihnen benötigten Lebensräume innerhalb der letzten Jahrzehnte. Die damit einhergehenden Verluste von Bestäubern und ihrer Bestäubung stellt die weltweite Nahrungsmittelproduktion vor eine immense Herausforderung. Zur Förderung von Wildbienen ist die Verfügbarkeit von Blüteressourcen essentiell. Die Blühdauer einzelner Ressourcen ist jedoch zeitlich begrenzt und hat, je nach Blütezeitpunkt, unterschiedliche Effekte auf Bestäuber und deren Bestäubung.
Um Wildbienen als Bestäuber in Agrarlandschaften effizient fördern und nutzen zu können, identifizierten wir deshalb die artspezifischen Schlüsselressourcen dreier ausgewählter Wildbienen und deren räumliche und zeitliche Verfügbarkeit (KAPITEL 2, 3 & 4). Wir untersuchten, welche Habitatstypen diese Ressourcen überwiegend bereitstellen (KAPITEL 3 & 4). Wir untersuchten zudem, ob Blütenressourcenkarten, die auf der Nutzung dieser Schlüsselressourcen und deren räumlich zeitlicher Verfügbarkeit basieren, die Abundanzen und die Entwicklung der ausgewählten Wildbienen (KAPITEL 3 & 4) und die Bestäubung (KAPITEL 5) besser erklären als Habitatkarten, die die Verfügbarkeit von Blüteressourcen nur indirekt beschreiben.
Für jede der untersuchten Arten konnten wir unterschiedliche, im frühen Saisonverlauf (April/Mai) überwiegend holzige im späteren Verlauf (Juni/Juli) auch zunehmend krautige, Schlüsselarten identifizieren (KAPITEL 2, 3 & 4). Die Wildobst- und Wildheckengehölze unserer Agrarlandschaften stellten rund 75% der Blütenressourcen für Erdhummeln, 60% für Rote Mauerbienen und 55% für Gehörnte Mauerbienen bereit, obwohl sie einen Flächenanteil von nur 3% ausmachten (KAPITEL 3 & 4). Obstplantagen stellten zusätzlich rund 35% des Blütenangebots für Gehörnte Mauerbienen auf 4% der Fläche bereit (KAPITEL 3). Wir konnten zeigen, dass beide Mauerbienenarten von der Ressourcenverfügbarkeit in den umliegenden Landschaften profitierten (KAPITEL 3). Bei Erdhummeln zeigte sich dieser Zusammenhang jedoch nicht (KAPITEL 4). Stattdessen waren die Gewichtszunahme ihrer Kolonien, die Anzahlen der darin ausgebildeten Königinnenzellen und die Überlebensdauer der Kolonie mit zunehmender Nähe zum Wald höher. Ebenfalls auf die beiden Mauerbienenarten wirkte sich die Waldnähe positiv aus (KAPITEL 3). Daneben profitierten Rote Mauerbienen durch krautige halbnatürliche Habitate. Nachteilig wirkten sich Siedlungsflächen auf die Gehörnten Mauerbienen, und Ackerland auf die Roten Mauerbienen aus. Habitatkarten erklärten die Abundanzen der Gehörnten Mauerbienen gleich gut wie Blütenressourcenkarten, jedoch wurden die Abundanzen der Roten Mauerbienen deutlich besser durch Schlüsselressourcen erklärt. Die Bestäubung der Ackerbohne erhöhte sich mit höheren Anteilen früher Blütenressourcen (KAPITEL 5). Dabei zeigte sich keine messbare Reduktion der Bestäubung durch gleichzeitig blühende Ressourcen. Habitatkarten erklärten die Bestäubung der Ackerbohne auch besser als Blütenressourcenkarten. Dabei nahm die Bestäubung mit zunehmenden Anteilen an Siedlungsflächen in den Landschaften zu und reduzierte sich mit zunehmenden Anteilen von Ackerland.
Unsere Ergebnisse verdeutlichen die Wichtigkeit der räumlich-zeitlichen Verfügbarkeit bestimmter Schlüsselarten als Ressourcenpflanzen von Wildbienen in Agrarlandschaften. Sie zeigen, dass Habitatkarten detaillierten Blütenressourcenkarten in der Vorhersage der Entwicklung von Wildbienen und deren Bestäubung voraus oder zumindest ebenbürtig sind. Dennoch ermöglichen es
Blütenressourcenkarten, genauere Schlüsse zwischen den einzelnen Ressourcen und den untersuchten Organismen zu ziehen. Die Nähe zu Waldrändern wirkte sich positiv auf jede der drei untersuchten Wildbienenarten aus. Neben der reinen Nahrungsverfügbarkeit scheinen jedoch weitere Faktoren das Vorkommen von Wildbienen in Agrarlandschaften mitzubestimmen.
Aktuelle Entwicklungen in der Europäischen Gesetzgebung fordern die Umsetzung von Risikominderungsmaßnahmen, die diffuse Einträge von Pestiziden in Oberflächengewässer und deren Schadwirkung mindern sollen. Bepflanzte Gräben und Feuchtgebiete (vegetated treatment systems: VTS) bieten die Möglichkeit potenzielle Schadwirkung von Pestizideinträgen infolge von Oberflächenabflussereignissen zu mindern, die mit anderen Maßnahmen unvermeidbar wären. Versuche in experimentellen Feuchtgebieten und bepflanzten Gräben wurden durchgeführt, um die Funktionstüchtigkeit möglicher Systeme zu untersuchen. In fünf Rückhaltebecken und zwei bepflanzten Gräben in der Weinbauregion Südpfalz (Südwestdeutschland) wurde von 2006 bis 2009 eine umfangreiche Beprobung von belastetem Wasser nach Starkregenereignissen vorgenommen und die Reduktionsleistung der Systeme bezüglich der eingetragenen Konzentrationen ermittelt. Der Einfluss von Pflanzendichte, Größe der Systeme und Eigenschaften der eingetragenen, bzw. experimentell eingespeisten Substanzen war Schwerpunkt bei der Auswertung der Ergebnisse. Zur Vorhersage der Gewässerbelastung nach niederschlagsbezogenem Oberflächenabfluss wurde in einer Geoinformationsumgebung (GIS) ein Simulationswerkzeug entwickelt. Das Werkzeug arbeitet mit einer sehr exakten Datenbank von hoher räumlicher Auflösung auf Europäischer Ebene. Basierend auf den Erkenntnissen der Experimente, den Ergebnissen der beprobten Gewässer und weiteren Daten von anderen Systemen, die im EU-Life Projekt ArtWET erhoben wurden, ist ein zweites räumliches Werkzeug entstanden, das zur Entscheidungsunterstützung dient und mit dem Risikominderungsmaßnahmen simuliert werden können. Ergebnisse der Experimente und Feldstudien zeigen, dass in experimentellen Feuchtgebieten und bepflanzten Gräben Reduktionen von über 90% der eingetragenen Pestizidkonzentrationen möglich sind. Bepflanzte Gräben und Feuchtgebiete zeigten signifikant bessere Reduktion als unbepflanzte. Pflanzendichte und Sorptivität an organischen Kohlenstoff wurden als Variablen mit der größten Erklärungskraft für die Zielvariable Reduktion der Pestizidkonzentrationen identifiziert (im Gräben-Mesokosmos konnten 65% der Variabilität mit den Variablen Pflanzendichte und KOC erklärt werden. In der Feldstudie wurde gezeigt, dass Fungizidkonzentrationen innerhalb der Rückhaltebecken (Median 38%) und bepflanzten Gräben (Median 56%) signifikant reduziert wurden. Die Regressionsanalyse mit diesen Daten zeigte, dass neben der Pflanzendichte auch die Größe der Systeme Einfluss auf die Reduktion der Pestizidkonzentrationen hat (DP: R²=0.57, p<0.001; VD:
R²=0.19, p<0.001). Die Datenbank für die GIS Werkzeuge wurde mit frei verfügbaren Europäischen Daten aufgebaut. Der erweiterte, von der OECD empfohlene REXTOX Risikoindikator wurde modifiziert und für die Risikomodellierung für alle Agrargewässer auf Europäischer Ebene angewandt. Die Ergebnisse der Risikosimulationen bieten die Datenbasis für das zweite Werkzeug, in dem auch die VTS als Risikominderungsmaßnahme eingearbeitet sind. Die Berechnung der Risikominderungsmaßnahmen kann für die einzelnen Kulturen, ausgewählte Gebiete und unterschiedliche Pestizide durchgeführt werden. Kosten für die Risikominderungsmaßnahmen werden ermittelt. Die Ergebnisse liefern wichtige neue Erkenntnisse zur Nutzung von bepflanzten Systemen als Risikominderungsmaßnahmen für diffuse Pestizideinträge in Agrargewässer. Die Proben der Weinbaugewässer zeigen, dass auch die bisher schlecht untersuchte Gruppe der Fungizide nachteilige Auswirkungen auf aquatische Ökosysteme haben kann. Die entwickelten GIS Werkzeuge sind leicht anwendbar und damit nicht nur als Basis für zukünftige Untersuchungen geeignet, sondern auch als Entscheidungsunterstützung in der praktischen Umsetzung außerhalb der Forschung hilfreich. Auf Europäischer Ebene können die GIS-Werkzeuge einerseits externe Kosten der Gewässerverschmutzung durch diffuse Pflanzenschutzmitteleinträge berechnen, indem die Kosten der unterschiedlichen Risikominderungsmaßnahmen abgeschätzt werden. Andererseits kann die Simulation der Maßnahmen bei der Entscheidungsfindung zur Umsetzung der Vorgaben der Wasserrahmenrichtlinie helfen. Zukünftige Studien sind insbesondere im Bereich der Fungizidbelastung von Oberflächengewässern und der langfristigen Funktionstüchtigkeit von bewachsenen Gräben und Feuchtgebieten als Risikominderungsmaßnahmen notwendig.
Systemische Neonicotinoide gehören zu den weltweit meist genutzten Insektiziden. Neben ihrer Anwendung in der Landwirtschaft werden sie zunehmend zur Bekämpfung von Baumschädlingen in
der Forstwirtschaft eingesetzt. Die im Herbst von Laubbäumen fallenden Blätter können allerdings
immer noch Neonicotinoide enthalten. Gelangen diese kontaminierten Blätter schließlich in
nahegelegene Bäche werden die wasserlöslichen Neonicotinoide wieder mobilisiert und somit
potenziell aquatische Nicht-Zielorganismen über die Wasserphase exponiert. Obwohl der Standardtestorganismus Daphnia magna (Crustacea; Cladocera) relativ unempfindlich gegenüber
Neonicotinoiden ist, sind viele andere aquatische Invertebraten bereits bei einer Exposition im ng/L- bis niedrigem μg/L-Bereich negativ beeinträchtigt. Besonders laubzersetzende Invertebraten (= Shredder) könnten, zusätzlich zu einer Exposition über die Wasserphase, durch den Eintrag von Neonicotinoid-kontaminiertem Laub in ein Fließgewässer negativ beeinträchtigt werden, da Laub für sie eine essentielle Nahrungsquelle darstellt. Jedoch erhielt dieser Expositionspfad im Zusammenhang mit aquatischen Shreddern und Neonicotinoid-kontaminiertem Pflanzenmaterial bisher kaum Aufmerksamkeit seitens der Forschung und findet keine Berücksichtigung in der aquatischen Umweltrisikobewertung. Das Hauptziel dieser Arbeit war daher (1) Neonicotinoidrückstände in Blättern zu quantifizieren sowie für Shredder relevante Expositionswege zu identifizieren, (2)
ökotoxikologische Effekte einer Exposition über die Wasserphase sowie über die Nahrung für zwei
Modell-Shredder Gammarus fossarum (Amphipoda) und Chaetopteryx villosa (Insecta) zu untersuchen, und schließlich (3) biotische und abiotische Faktoren zu betrachten, welche eine Exposition unter Feldbedingungen potenziell beeinträchtigen könnten.
Im Rahmen dieser Arbeit konnten Rückstände der Neonicotinoide Imidacloprid, Thiacloprid und
Acetamiprid in Blätter behandelter Schwarzerlen quantifiziert werden. Ein entwickeltes „Worst-Case
Modell“ prognostizierte niedrige Imidaclopridwasserkonzentrationen für einen Bach in welchen Imidacloprid-kontaminierte Blätter eingetragen werden. Jedoch konnte mit Hilfe des Modells die Aufnahme über die Nahrung als ein für aquatische Shredder relevanter Expositionspfad identifiziert werden. Der Konsum von Neonicotinoid-kontaminierten Blättern führte, bei gleichzeitiger Exposition über die Wasserphase (= kombinierte Exposition), in beiden Testorganismen zu stärkeren Effekten als die alleinige Exposition über die Wasserphase. Des Weiteren gelang es in einem weiteren Laborexperiment die beiden Expositionswege mittels einer Durchflussanlage zu separieren. Hierbei führte die separate Exposition von G. fossarum sowohl über die Nahrung (= Konsum von Thiaclopridkontaminierten Blättern) als auch über die Wasserphase zu vergleichbaren Effektgrößen. Zudem ließen sich die unter einer kombinierten Exposition beobachteten Effektgrößen weitestgehend mit dem Referenzmodell der „Unabhängigen Wirkung“ vorhersagen, was eine Wirkung auf unterschiedliche molekulare Zielorte vermuten lässt. Die durch Imidacloprid ausgelöste toxischen Effekte auf G. fossarum konnten schließlich durch eine Behandlung der Blätter mit UV-Strahlung (repräsentativ für Sonnenlicht) sowie durch Leaching in Wasser reduziert werden. Jedoch waren beide Shredder-Spezies nicht dazu in der Lage aktiv eine Aufnahme von Neonicotinoiden über die Nahrung zu vermeiden. Daher geht aus dieser Arbeit die Empfehlung hervor, bereits während der Registrierung von systemischen Pestiziden, auf nahrungsbedingte Effekte zu testen und dadurch aquatische Shredder als auch assoziierte Ökosystemfunktionen (z.B. Laubabbau) zu schützen.
Soziale Netzwerke sind allgegenwärtige Strukturen, die wir jeden Tag generieren und bereichern, während wir uns über Plattformen der sozialen Medien, E-Mails und jede andere Art von Interaktion mit Menschen verbinden. Während diese Strukturen für uns nicht greifbar sind, sind sie sehr wichtige Informationsträger. Zum Beispiel kann die politische Neigung unserer Freunde ein Näherungswert sein, um unsere eigenen politischen Präferenzen zu identifizieren. Gleichermaßen
kann die Kreditwürdigkeit unserer Freunde entscheidend bei der Gewährung oder Ablehnung unserer eigenen Kredite sein. Diese Erklärungskraft wird bei der Gesetzgebung, bei Unternehmensentscheidungen und in der Forschung genutzt, da sie maschinellen Lerntechniken hilft, genaue Vorhersagen zu treffen. Diese Verallgemeinerungen kommen jedoch häufig nur der Mehrheit der Menschen zugute, welche die allgemeine Struktur des Netzwerks prägen, und benachteiligen unterrepräsentierte Gruppen, indem sie ihre Mittel und Möglichkeiten begrenzen. Daher ist es wichtig zuerst zu verstehen, wie sich soziale Netzwerke bilden, um dann zu überprüfen, inwieweit ihre Mechanismen der Kantenbildung dazu beitragen, soziale Ungleichheiten in Algorithmen des maschinellen Lernens zu verstärken.
Zu diesem Zweck schlage ich im ersten Teil dieser Arbeit HopRank und Janus vor, zwei Methoden um die Mechanismen der Kantenbildung in realen ungerichteten sozialen Netzwerken zu charakterisieren. HopRank ist ein Modell der Daten-Hamsterei in Netzwerken. Sein Schlüsselkonzept ist ein gezinkter zufälliger Wanderer, der auf Übergangswahrscheinlichkeiten zwischen K-Hop-Nachbarschaften basiert. Janus ist ein Bayessches Rahmenwerk, mit dem wir plausible Hypothesen der Kantenbildung in Fällen identifizieren und bewerten können, in denen Knoten zusätzliche Daten enthalten. Im zweiten Teil dieser Arbeit untersuche ich die Auswirkungen dieser Mechanismen - welche die Kantenbildung in sozialen Netzwerken erklären - auf das maschinelle Lernen. Insbesondere untersuche ich den Einfluss von Homophilie, bevorzugter Bindung, Kantendichte, Anteil von Minderheiten und der Richtung von Verbindungen sowohl auf Leistung als auch auf systematische Fehler von kollektiver Klassifizierung und auf die Sichtbarkeit von Minderheiten in Top-K-Rängen. Meine Ergebnisse zeigen eine starke Korrelation zwischen der Netzwerkstruktur und den Ergebnissen des maschinellen Lernens. Dies legt nahe, dass die systematische Diskriminierung spezieller Personen: (i) durch den Netzwerktyp vorweggenommen und (ii) durch strategisches Verbinden im Netzwerk verhindert werden kann.
This thesis deals with the verbal categories tense and aspect in the context of analysing the English perfect. The underlying notion of time is examined from the viewpoint of etymology and from the viewpoint of fields of knowledge that lie outside the immediate scope of temporal semantics, e.g. mathematics. The category tense is scrutinised by discussing the concept of Reichenbach tense and the concept of correlation (Giering). The starting point of the discussion of the category verbal aspect is the dichotomy perfective vs. imperfective in the Slavic languages. The main part about the perfect is concerned with the possessive perfect as a cross-linguistic phenomenon (including a comparison of the English and the Slavic perfect) and focuses on the usage and the meaning of the English present perfect. There are three appendices which are an integral part of this dissertation. Appendix A deals with the systematization of English verb forms and their graphical representation. Three different visualizations are presented, two of which are genuine to this paper. Appendix B reproduces the target setting according to which an animated visualization of English infinitives was programmed. Appendix C represents a synopsis of approaches to the English perfect in grammars and textbooks.
In der aquatischen Umwelt stellen Wasser-Sediment-Grenzschichten (WSG) die wichtigsten Bereiche bezüglich der Austauschprozesse zwischen dem Wasserkörper und dem Sediment dar. Diese räumlich begrenzten Regionen sind durch starke biogeochemische Gradienten charakterisiert, die die Speziierung und den Verbleib natürlicher und artifizielle Substanzen maßgeblich bestimmen. Abgesehen von biologischen Prozessen (z.B. grabende Organismen oder Photosynthese) ist der Austausch zwischen Wasser und Sediment von Diffusion oder Kolloid-gesteuerten Transport bestimmt. Dies erfordert Methoden, die es ermöglichen, die feinen Strukturen der Grenzschichten abzubilden und zwischen den unterschiedlichen Prozessen zu unterscheiden.
Hinsichtlich neu entwickelter Substanzen, die voraussichtlich in die aquatische Umwelt gelangen werden, sind artifizielle Nanomaterialien (engineered nanomaterials; ENMs) aufgrund ihrer zunehmenden Nutzung in Produkten und Anwendungen von großer Relevanz. Da sie auf der Grundlage ihrer Größe definiert werden (<100 nm), umfassen sie eine Vielzahl verschiedenster Materialien mit unterschiedlichem Verhalten in der Umwelt. Erreichen sie aquatische Systeme, mischen sie sich mit natürlich vorkommenden Kolloiden (<1 μm), die nanoskalige Partikel beinhalten.
Ausgehend von existierenden methodischen Lücken bezüglich der Charakterisierung von ENMs (als neu aufgekommene Substanzen) und WSG (als betroffene Umweltkompartimente) war das Ziel der vorliegenden Dissertation, die Entwicklung, Validierung und Anwendung einer geeigneten analytischen Basis, um ENMs an WSG untersuchen zu können. Die Herausforderungen lagen dabei in i) der Entwicklung von Methoden, die eine räumlich hochaufgelöste Beprobung von Sedimentporen-wasser erlauben. ii) Der Bereitstellung routinetauglicher Methoden zur Charakterisierung metall-basierter ENMs und iii) der Entwicklung von Methoden zur Größenfraktionierung von Porenwässern, um größenbezogene Elementverteilungsmustern an WSG erhalten zu können.
Im ersten Teil erfolgte die Entwicklung von Filter-Probenahmesonden, die in ein neuartiges Probenahmesystem integriert wurden, welches mit einem kommerziell verfügbaren Microprofiling-system kombiniert wurde (microprofiling micro sampling system; missy). Nach umfangreicher Validierung konnte in Experimenten die Tauglichkeit des missy für eine minimal-invasive und auto-matisierte Beprobung von Sedimentporenwasser bei parallelen Messungen mittels Mikrosensoren gezeigt werden. Es wurde somit erstmal möglich, im Millimetermaßstab Multielementinformationen für Sedimenttiefenprofile zu erhalten und diese in einen direkten Zusammenhang mit verschiedenen Sedimentparametern zu setzten.Aufgrund der zu erwartenden Freisetzung von ENMs in die Umwelt, war es das Ziel, Methoden bereitzustellen, die eine Untersuchung von Transportprozessen und dem Verbleib von ENMs an WSG ermöglichen. Da standardisierte Methoden noch immer fehlen, erfolgte die Entwicklung routinetauglicher Ansätze zur Bestimmung der Massenkonzentration sowie der gelösten Fraktion von ENM-Suspensionen. Somit konnten erstmals Methoden bereitgestellt werden, die eine routinetaugliche Bestimmung von zwei der wichtigsten Eigenschaften kolloidaler Systeme ermöglichen, die ebenfalls für die Entwicklung geeigneter Risikoabschätzungen und Regularien benötigt werden.
Basierend auf dieser methodischen Grundlage erfolge die Entwicklung geeigneter Verfahren zur Bestimmung der gelösten und kolloidalen Fraktionen in Sedimentporenwässern. Dies ermöglichte es erstmalig, fraktionsbezogene Elementinformationen für Sedimenttiefenprofile in millimetergenauer Auflösung zu erhalten, was eine Unterscheidung zwischen Diffusion und kolloid-gesteuerten Transportprozessen gestattet.
Zusätzlich zu den forschungsorientierten Teilen der vorgelegten Dissertation wurden in einer weiteren, als Anhang beigefügten Publikation (Appendix III) Fragen zu einem möglichen Eintrag nanoskaliger Stoffe in Oberflächengewässer vor dem Hintergrund des aktuell gültigen Deutschen Wasserrechtes adressiert.
Content and Language Integrated Learning (CLIL) has experienced growing importance in the last decades and an increasing number of schools have already implemented CLIL programmes or are planning to do so. Though the potentials of CLIL programmes are widely praised, first research results also raise doubts if CLIL students can live up to these high expectations. Both Fehling (2005) as well as Rumlich (2013; 2016), for example, found that CLIL programmes not inevitably show the expected results but that the CLIL students’ success might also be at least partially explained by other influences, such as the selection process of future CLIL students. Hence, CLIL students apparently fall short of the high expectations that are usually connected to the respective CLIL programmes and as this is mainly based on the unsatisfactory quality of these programmes, Rumlich concludes that “it is now high time to focus on the quality of CLIL provision” (Rumlich 2016: 452). He continues to explain that “the promises of CLIL do not materialise automatically owing to the fact that another language is used for learning in a non-language subject” (Rumlich 2016: 452). It must be assumed that the success of CLIL teaching also highly depends on the quality of the CLIL teachers.
In contrast to the continuously growing number of CLIL schools, however, the number of specifically trained CLIL teachers is comparably small. In Germany, CLIL teachers are not (yet) required to attend any special training in order to teach in a CLIL programme. Notwithstanding, is it sufficient for a CLIL teacher only to be trained in the content subject and the foreign language? Or does CLIL teaching require more than the sum of these two components? Do CLIL teachers need additional teaching competences to the ones of a content and a language teacher? In the light of the recent findings of CLIL programmes falling short of the high expectations, the answer to these questions must clearly be “Yes”. Hence, in order to appropriately train (future) CLIL teachers, special training programmes need to be developed which consider the teachers’ individual educational backgrounds, i.e. their qualifications as language and/or as content teachers and build up on these competences through adding the CLIL-specific teaching competences.
Therefore, this thesis aims at developing a German Framework for CLIL Teacher Education, which considers both the already published, theory-based standards of CLIL teacher education as well as the practical perspective of experienced CLIL teachers in Germany. This German Framework for CLIL Teacher Education classifies the different teaching competences, which are derived from integrating the theoretical and the practical perspective on CLIL teacher education, with regard to the three different competence areas, i.e. the general teaching competence, the language teaching competence and the subject teaching competence and is hence adaptable to different CLIL settings and educational backgrounds. In addition to developing this German Framework for CLIL Teacher Education, which provides the content of future CLIL teacher education programmes, this thesis discusses different forms of structurally implementing CLIL teacher education programmes in the existing structures of teacher education in Germany. This is achieved through analysing the current state of the art of CLIL teacher education at German universities and systematising the different forms of implementing these training programmes in the prevailing educational structures. Building on these first two steps, in the third and final step, this thesis develops a CLIL teacher education programme at a German university that is based on the results and elements of the German Framework for CLIL Teacher Education as well as the state of the art of CLIL teacher education in Germany. Thus, this thesis is allocated at the intersection between foreign language teaching as well as teacher education and is structured in eleven chapters.
Agriculture covers one third of the world land area and has become a major source of water pollution due to its heavy reliance on chemical inputs, namely fertilisers and pesticides. Several thousands of tonnes of these chemicals are applied worldwide annually and partly reach freshwaters. Despite their widespread use and relatively unspecific modes of action, fungicides are the least studied group of pesticides. It remains unclear whether the taxonomic groups used in pesticide risk assessment are protective for non-target freshwater fungi. Fungi and bacteria are the main microbial decomposers converting allochthonous organic matter (litter) into a more nutritious food resource for leaf-shredding macroinvertebrates. This process of litter decomposition (LD) is central for aquatic ecosystem because it fuels local and downstream food webs with energy and nutrients. Effects of fungicides on decomposer communities and LD have been mainly analysed under laboratory conditions with limited representation of the multiple factors that may moderate effects in the field.
In this thesis a field study was conducted in a German vineyard area to characterise recurrent episodic exposure to fungicides in agricultural streams (chapter 2) and its effects on decomposer communities and LD (chapter 3). Additionally, potential interaction effects of nutrient enrichment and fungicides on decomposer communities and LD were analysed in a mesocosm experiment (chapter 4).
In the field study event-driven water sampling (EDS) and passive sampling with EmporeTM styrene-divinylbenzene reverse phase sulfonated disks (SDB disks) were used to assess exposure to 15 fungicides and 4 insecticides. A total of 17 streams were monitored during 4 rainfall events within the local application period of fungicides in 2012. EDS exceeded the time-weighted average concentrations provided by the SDB disks by a factor of 3, though high variability among compounds was observed. Most compounds were detected in more than half of the sites and mean and maximum peak (EDS) concentrations were under 1 and 3 µg/l, respectively. Besides, SDB disk-sampling rates and a free-software solution to derive sampling rates under time-variable exposure were provided.
Several biotic endpoints related to decomposers and LD were measured in the same sampling sites as the fungicide monitoring, coinciding with the major litter input period. Our results suggest that polar organic fungicides in streams change the structure of the fungal community. Causality of this finding was supported by a subsequent microcosm experiment. Whether other effects observed in the field study, such as reduced fungal biomass, increased bacterial density or reduced microbial LD can be attributed to fungicides remains speculative and requires further investigation. By contrast, neither the invertebrate LD nor in-situ measured gammarid feeding rates correlated with water-borne fungicide toxicity, but both were negatively associated with sediment copper concentrations. The mesocosm experiment showed that fungicides and nutrients affect microbial decomposers differently and that they can alter community structure, though longer experiments are needed to determine whether these changes may propagate to invertebrate communities and LD. Overall, further studies should include representative field surveys in terms of fungicide pollution and physical, chemical and biological conditions. This should be combined with experiments under controlled conditions to test for the causality of field observations.
The ongoing loss of species is a global threat to biodiversity, affecting ecosystems worldwide. This also concerns arthropods such as insects and spiders, which are especially endangered in agricultural ecosystems. Here, one of the main causing factors is management intensification. In areas with a high proportion of traditionally managed grassland, extensive hay meadows that are cut only once per year can still hold high levels of biodiversity, but are threatened by conversion into highly productive silage grassland. The Westerwald mountain range, western Germany, is such a region. In this thesis, I compare the local diversity of bees, beetles, hoverflies, leafhoppers, and spiders of five grassland management regimes along a gradient of land-use intensity. These comprise naturally occurring grassland fallows, three types of traditionally managed hay meadows, and intensively used silage grassland. By using three different sampling methods, I recorded ground-dwelling, flower-visiting, and vegetation-dwelling species. The results show that in most cases species richness and diversity are highest on fallows, whereas variation among different managed grassland types is very low. Also, for most sampled taxa, fallows harbour the most distinct species assemblages, while that of other management regimes are largely overlapping. Management has the largest effect on species composition, whereas environmental parameters are of minor importance. Long-term grassland fallows seem to be highly valuable for arthropod conservation, even in a landscape with a low overall land-use intensity, providing structural heterogeneity. In conclusion, such fallows should be subsidized agri-environmental schemes, to preserve insect and spider diversity.
Das Stereotype Content Modell (SCM, Fiske et al., 2002) schlägt zwei fundamentale Dimensionen der sozialen Wahrnehmung vor: Wärme, also die freundliche oder feindliche Intention des Bewertungsobjekts, und Kompetenz, also die Fähigkeit, besagte Intentionen in die Tat umzusetzen. Die praktischen Anwendungen des SCMs sind sehr weitreichend und haben zu der Annahme geführt, Wärme und Kompetenz seien universelle Dimensionen der sozialen Bewertung.
Die vorliegende Doktorarbeit hat fünf vor allem methodologische Schwächen der SCM- Forschung und -Literatur identifiziert: (I) Eine unzureichende anfängliche Skalenentwicklung; (II) die Nutzung variierender Skalen ohne hinreichende Prüfung der Skalenperformanz in der anschließenden SCM-Forschung; (III) die vorherrschende Nutzung von Analysemethoden der ersten Generation; (IV) die unzureichende Definition und empirische Testung der Universalitätsannahme des SCM; (V) die eingeschränkte Anwendung des SCM in Bezug auf einige soziale Gruppen. Diese Schwächen wurden in vier wissenschaftlichen Artikelmanuskripten aufgegriffen, welche allesamt streng den Empfehlungen der offenen Wissenschaft folgten.
Manuskript # 1 nutzte veröffentlichte Daten von englischen SCM-Skalen, um die Mess-Eigenschaften der genutzten Wärme- und Kompetenz-Skalen zu reanalysieren. Das Manuskript berichtet die Skalenreliabilität, -Dimensionalität und Vergleichbarkeit der Skalen über verschiedene Bewertungsobjekte hinweg sowie verschiedene Performanz-Parameter der einzelnen Indikatoren auf im Rahmen einer (Multi-Gruppen-) konfirmatorischen Faktor-Analyse. Die Befunde zeigen, dass zwei Drittel aller reanalysierten Skalen nicht die theoretisch angenommene Wärme- und Kompetenz-Dimensionalität haben. Weiterhin zeigten nur elf Prozent aller Skalen die Voraussetzungen für aussagekräftige Mittelwertsvergleiche zwischen Bewertungsobjekten. Manuskript # 2 beschreibt eine Replikation von Manuskript # 1 im deutschsprachigen Landes- und Sprachkontext und zeigt nahezu identische Ergebnisse wie Manuskript # 1. Manuskript # 3 untersucht die soziale Wahrnehmung von Subgruppen von Geflüchteten in Deutschland. Wir konnten zeigen, dass die soziale Kategorie der Geflüchteten generell unvorteilhaft in Bezug auf Wärme und Kompetenz wahrgenommen wurde, aber dass die soziale Wahrnehmung der Subgruppen von Geflüchteten sich in Abhängigkeit der geografischen Herkunft, der religiösen Zugehörigkeit und der Fluchtgründe unterschied. Diese Befunde wurden durch die Nutzung eines Reliabilitäts-korrigierenden Verfahrens zum Vergleich von Mittelwerten namens Alignment-Optimierung generiert. Manuskript # 4 entwickelte und testete eine leistungsfähige SCM-Skala zur Erfassung von Stereotypen von Berufsgruppen mittels explorativer und konfirmatorischer Faktorenanalysen.
In Agrarlandschaften zählen Laufkäfer zu den weit verbreiteten Fressfeinden verschiedener Schädlinge, wie etwa von Nacktschnecken. Einflüsse von naturnahen Randstrukturen auf Laufkäfer und deren Potenzial zur natürlichen Schädlingsbekämpfung sind bekannt.
Der Einfluss von naturnahen Randstrukturen wurde auf randstrukturbewohnende Laufkäfer und Schnecken untersucht (Kapitel 2). Die Mehrzahl an Laufkäfern sowie Deroceras reticulatum präferierten Krautsäume, wohingegen Arion spp. vor allem in Gehölzen vorkam. Steigende Abundanzen von räuberischen Laufkäferarten und abnehmende Zahlen von Arion spp., gefördert durch einen hohen Anteil an Randstrukturen, lassen auf ein erhöhtes Potenzial zur Schneckenbekämpfung in strukturreichen Landschaften schließen.
Der Einfluss von naturnahen Randstrukturen wurde auf räuberische Laufkäfer und Schnecken in 18 Weizenfeldern getestet (Kapitel 3). Der Artenreichtum an karnivoren Laufkäfern stieg zusammen mit dem Anteil an Randstrukturen in der Landschaft, wobei deren Abundanz von kleinräumigen Effekten unbeeinflusst blieb. Die beiden Schädlinge zeigten unterschiedliche Muster, wobei Dichten von Arion spp. an Gehölzen in strukturarmen Landschaften am höchsten waren. D. reticulatum wurde weder durch lokale noch von großräumigen Effekten beeinflusst, was auf ihre Anpassung an Agrarlandschaften zurückzuführen ist. Die Ergebnisse lassen auf eine gesteigerte Kontrolle von Arion spp. durch Laufkäfer in strukturreichen Gebieten schließen.
Effekte von Randstrukturen und Bewirtschaftung wurden auf die Verteilung von Laufkäfern in 18 Kürbisfeldern getestet (Kapitel 4). Der Artenreichtum stieg mit Nähe zu den Randstrukturen, wobei Laufkäferabundanzen je nach Habitattyp unterschiedlich beeinflusst wurden. Die Bewirtschaftungsart hatte keinen Einfluss auf Laufkäfer und Landschaftsheterogenität beeinflusste nur Laufkäfer in ökologisch bewirtschafteten Feldern.
Prädationsexperimente von Schnecken und deren Eiern durch drei Laufkäferarten wurden im Labor in Einzel- und Zweierkonstellationen durchgeführt (Kapitel 5). Je nach Art wurden synergistische und additive Effekte gemessen. Generell erhöhen naturnahe Randstrukturen das Potenzial zur Schneckenbekämpfung durch Laufkäfer, was vor allem für Schnecken der Gattung Arion zählt. Es ist wichtig, einen bestimmten Anteil an naturnahen Randstrukturen in Agrarlandschaften bereitzustellen, da sie als Rückzugs-, Eiablage- und Überwinterungsorte fungieren und komplementäre Nahrungsressourcen bereitstellen.
Eutrophierung infolge übermäßiger Nährstoffeinträge ist eine ernsthafte, weltweite Bedrohung für aquatische Ökosysteme und ist einer der wesentlichen anthropogenen Stressoren auf aquatische Organismen in europäischen Fließgewässern. In Bächen und kleinen bis mittelgroßen Flüssen führt Eutrophierung zu einem übermäßigen Wachstum von Periphyton und dadurch zu einem Verstopfen des hyporheischen Interstitials (biogene Kolmation). Infolgedessen kommt es zu einem Sauerstoffdefizit im Interstitial, wodurch die Habitatqualität für das Makrozoobenthos und für Eier und Larven kieslaichender Fische erheblich beeinträchtigt wird. Anders als in stehenden Gewässern fehlen effiziente Werkzeuge zur Eutrophierungssteuerung in Fließgewässern bisher. Eine Top-down Steuerung des Nahrungsnetzes durch gezielte Stützung der Fischbestände, vergleichbar mit der erfolgreich in Seen angewendeten Methode der Biomanipulation, ist ein vielversprechender Ansatz zur Reduktion von Eutrophierungseffekten in Fließgewässern – insbesondere in Einzugsgebieten, in denen die Nährstoffeinträge nicht erheblich reduziert werden können. Ziel dieser Arbeit war es, das Potenzial einer Top-down Steuerung zur Reduktion von Eutrophierungseffekten durch zwei großwüchsige karpfenartige Fischarten – die herbivore Nase (Chondrostoma nasus) und den omnivoren Döbel (Squalius cephalus) – in mittelgroßen Flüssen zu erfassen. Dazu habe ich Freilandexperimente auf unterschiedlich großen räumlichen und zeitlichen Skalen in einem eutrophierten Mittelgebirgsfluss durchgeführt. Generell haben die Ergebnisse dieser Experimente die zentrale Rolle von Top-down Effekten durch Fische in Fließgewässernahrungsnetzen aufgezeigt. In einem vierjährigen großskaligen Experiment, dem zentralen Teil meiner Arbeit, konnte ich zeigen, dass die Stützung der Bestände von Nase und Döbel zu einer deutlichen Verbesserung der Sauerstoffversorgung und des Wasseraustauschs im oberen Bereich des Interstitials geführt hat, und das, obwohl die Top-down Effekte der Fische auf die Periphytonbiomasse vergleichsweise gering ausgeprägt waren. Diese Ergebnisse konnten durch ein vierwöchiges Mesokosmosexperiment gestützt werden, das zugleichwertvolle Hinweise auf die zugrundeliegenden Mechanismen für die Verringerung der Eutrophierungseffekte im Interstitial durch Nase und Döbel geliefert hat. Durch hohe Dichten beider Fischarten wurde das Sauerstoffdefizit im Interstitial verringert, was wahrscheinlich auf eine Reduktion der biogenen Kolmation des Interstitials durch benthisches Grazing der Nasen bzw. durch Bioturbation der Döbel zurückzuführen war. Insgesamt zeigen die Ergebnisse meiner Arbeit, dass eine Biomanipulation durch Stützung der Bestände herbivorer und omnivorer Fische potenziell geeignet ist, um Eutrophierungseffekte in mittelgroßen Flüssen zu reduzieren. Die Ergebnisse könnten somit der erste Schritt sein, um Biomanipulation als unterstützende Maßnahme zur Verringerung von Eutrophierungseffekten in Fließgewässern zu etablieren, und damit zum Erhalt der aquatischen Biodiversität beitragen.
Aquatische Ökosysteme sind einer Vielzahl an Umweltstressoren sowie Mischungen chemischer Substanzen ausgesetzt, darunter Petroleum und Petrochemikalien, Metalle und Pestizide. Aquatische Gemeinschaften wirbelloser Arten werden als Bioindikatoren genutzt,
um Langzeit- sowie integrale Effekte aufzuzeigen. Die Information über das Vorkommen von Arten kann dabei um weitere Informationen zu Eigenschaften dieser Arten ergänzt werden.
SPEAR-Bioindikatoren fassen diese Informationen für Artengemeinschaften zusammen.
Ziel der vorliegenden Doktorarbeit war es, die Spezifität von SPEAR-Indikatoren gegenüber
einzelnen Chemikaliengruppen zu verbessern – speziell für Ölsand-Bestandteile,
Kohlenwasserstoffe und Metalle.
Für die Entwicklung eines Bioindikators für diskontinuierliche Belastung mit organischen Ölbestandteilen wurde eine Freilandbeprobung in der kanadischen Ölsand-Abbauregion im nördlichen Alberta durchgeführt. Die Arteneigenschaften „physiologische Sensitivitiät
gegenüber organischen Chemikalien“ sowie „Generationszeit“ wurden in einem Indikator,
SPEARoil, integriert, welcher die Sensitivität der Artengemeinschaften gegenüber Ölsand-Belastung in Abhängigkeit von luktuierenden hydrologischen Bedingungen aufzeigt.
Äquivalent zum SPEARorganic-Ansatz wurde eine Rangliste der physiologischen Sensitivität einzelner Arten gegenüber Kohlenwasserstoff-Belastung durch Rohöl oder Petroleum
entwickelt. Hierfür wurden Informationen aus ökotoxikologischen Kurzzeit-Laborversuchen durch Ergebnisse aus Schnell- und Mesokosmen-Tests ergänzt. Die daraus entwickelten
Shydrocarbons-Sensitivitätswerte können in SPEAR-Bioindikatoren genutzt werden.
Um Metallbelastung in Gewässern mittels Bioindikatoren spezifisch nachweisen zu können,
wurden die Arteneigenschaften „physiologische Metallsensitivität“ und „Ernährungsweise“
von Artengemeinschaften in australischen Feldstudien ausgewertet. Sensitivitätswerte für
Metalle erklärten die Effekte auf die Artengemeinschaften im Gewässer jedoch unzureichend.
Die „Ernährungsweise“ hingegen war stark mit der Metallbelastung korreliert. Der Anteil räuberischer Invertebratenarten in einer Gemeinschaft kann daher als Indikator für Metallbelastung in Gewässern dienen.
Weiterhin wurden verschiedene Belastungsanzeiger für Chemikalien-Cocktails in der Umwelt anhand von Pestizid-Datensätzen verglichen. Belastungsanzeiger, die auf der 5%-Fraktion
einer Species-Sensitivity-Distribution beruhen, eigneten sich am besten, gefolgt von Toxic Unit-Ansätzen, die auf der sensitivsten Art einer Gemeinschaft oder Daphnia magna beruhen.
This study had two main aims. The first one was to investigate the quality of lesson plans. Two important features of lesson plans were used as a basis to determine the quality of lesson plans. These are adaptability to preconditions and cognitive activation of students. The former refers to how the planning teacher considers the diversity of students pre-existing knowledge and skills. The latter refers to how the planning teacher sequences deep learning tasks and laboratory activities to promote the cognitive activation of students.
The second aim of the study was to explore teachers thinking about and explanation of externally generated feedback data on their students’ performance. The emphasis here was to understand how the teachers anticipate planning differentiated lessons to accommodate the variations in students learning outcomes revealed by the feedback data.
The study followed a qualitative approach with multiple sources of data. Concept maps, questionnaires, an online lesson planning tool, standardized tests, and semi-structured interviews were the main data collection instruments used in the study. Participants of this study were four physics teachers teaching different grade levels. For the purpose of generating feedback for the participant teachers, a test was administered to 215 students. Teachers were asked to plan five lessons for their ongoing practices. The analysis showed that the planned lessons were not adapted to the diversity in students pre-existing knowledge and skills. The analysis also indicated that the lessons planned had limitations with regard to cognitive activation of students. The analysis of the interview data also revealed that the participant teachers do not normally consider differentiating lessons to accommodate the differences in students learning, and place less emphasis on the cognitive activation of students. The analysis of the planned lessons showed a variation in teachers approach in integrating laboratory activities in the sequence of the lessons ranging from a complete absence through a demonstrative to an investigative approach. Moreover, the findings from the interviews indicated differences between the participant teachers espoused theory (i.e. what they said during interview) and their theory- in –use (i.e. what is evident from the planned lessons). The analysis of the interview data demonstrated that teachers did not interpret the data, identify learning needs, draw meaningful information from the data for adapting (or differentiating) instruction. They attributed their students’ poor performance to task difficulty, students’ ability, students’ motivation and interest. The teachers attempted to use the item level and subscale data only to compare the relative position of their class with the reference group. However, they did not read beyond the data, like identifying students learning needs and planning for differentiated instruction based on individual student’s performance.
To render the surface of a material capable of withstanding mechanical and electrochemical loads, and to perform well in service, the deposition of a thin film or coating is a solution. In this project, such a thin film deposition is carried out. The coating material chosen is titanium nitride (TiN) which is a ceramic material known to possess a high hardness (>10 GPa) as well as good corrosion resistance. The method of deposition selected is high power impulse magnetron sputtering (HiPIMS) that results in coatings with high quality and enhanced properties. Sputtering is a physical process that represents the removal or dislodgment of surface atoms by energetic particle bombardment. The term magnetron indicates that a magnetic field is utilized to increase the efficiency of the sputtering process. In HiPIMS, a high power is applied in pulses of low duty cycles to a cathode that is sputtered and that consists of the coating material. As result of the high power, the ionization of the sputtered material takes place giving the possibility to control these species with electric and magnetic field allowing thereby the improvement and tuning of coating properties. However, the drawback of HiPIMS is a low deposition rate.
In this project, it is demonstrated first that it is possible to deposit TiN coating using HiPIMS with an optimized deposition rate, by varying the magnetic field strength. It was found that low magnetic field strength (here 22mT) results in a deposition rate similar to that of conventional magnetron sputtering in which the average power is applied continuously, called also direct current magnetron sputtering (dcMS). The high deposition rate at low magnetic field strength was attributed to a reduction in the back attraction probability of the sputtered species. The magnetic field strength did not show noticeable influence on the mechanical properties. The proposed explanation was that the considered peak current density interval 1.22-1.72 A∙cm-2 does not exhibit dramatic changes in the plasma dynamics.
In a second part, using the optimized deposition rate, the optimized chemical composition of TiN was determined. It was shown that the chemical composition of TiN does not significantly influence the corrosion performance but impacts considerably the mechanical properties. It was also shown that the corrosion resistance of the coatings deposited using HiPIMS was higher than that of the coatings deposited using dcMS.
The third study was the effect of annealing post deposition on the properties of TiN coating deposited using HiPIMS. The hardness of the coatings showed a maximum at 400°C reaching 24.8 GPa. Above 400°C however, a lowering of the hardness was measured and was due to the oxidation of TiN which led to the formation of TiN-TiO2 composites with lower mechanical properties.
The coating microscopic properties such as crystal orientation, residual stresses, average grain size were determined from X-ray diffraction data and the roughness was measured using atomic force microscopy. These properties were found to vary with the magnetic field strength, the chemical composition as well as the annealing temperature.
This thesis is concerned with an issue of considerable importance to the development of revision skills: the role of teacher feedback. Prompted by the concern to develop a model of instruction which will help students write to the best of their capacities, the present study forms a proposal: an interactive model of revision. The study researches whether the kind of feedback proposed in this model is indeed a helpful tool for revision and whether the kind of negotiated revision that occurs is a vehicle for learning. The first section of the thesis reviews different areas of literature which are relevant to the study. More specifically, Chapter 2 presents the historical and theoretical foundations of different writing instructional practices and sheds light on issues concerning the use of the process approach. It also reviews research based on sociocognitive theoretical perspectives in an attempt to delineate the impact of interpersonal or social activity on individual performance and progress. Chapter 3 examines issues associated with the process approach in particular and illustrates how theory and method come together in a process writing classroom. Chapter 4 presents the differences in revising behaviours between experienced and inexperienced writers in both L1 and L2 contexts and the various ways these differences have been justified. It also highlights a number of issues which have been identified as contributing to effective revision. Particular attention is paid to the role that teacher feedback has to play as a means of promoting substantive student revision with an instructional emphasis on fluency, organisation and language. Chapter 5 presents an interactive model of revision, which envisions a communicative exchange between two partners, the student-writer and the teacher-reader, collaborating in order to develop awareness of revision strategies and establish criteria for effective writing. Chapter 6 investigates the epistemological basis of the research and presents a set of research questions and hypotheses, which guided the investigation. Chapter 7 frames the context of the research and details the methods used to collect the data from the study. The study involved 100 Year 7 students in two gymnasia in Koblenz, Germany. During the time of the investigation, the students wrote and revised five tasks. Three of these tasks were revised after receiving teacher feedback, which focused on aspects such as appropriacy and sufficiency of information, organization, coherence and grammatical accuracy. The study investigates the effects of this kind of focused feedback on the students" revisions and explores the relationship between revision and text improvement. Large quantitative and qualitative data sets were generated during the research. The quantitative data was based on the student documents (1000 original and revised drafts) whereas the qualitative data emerged from student questionnaires and seven case studies. Chapter 8 presents descriptions of the data analyses. More specifically, it describes the initial and final coding of the revisions traced in the student documents. Then it focuses on the type of qualitative analysis employed in the case studies in order to investigate the relationship between revision and text improvement. The final section of the chapter describes the questionnaire analysis, which was carried out to investigate attitudes, benefits and constraints from the implementation of the model. Chapter 9 examines the statistical results from the analysis of the students" revisions. More specifically, it explores the revisions made by the students across tasks and the relationships between the features of the teacher feedback and these revisions. The analysis highlights patterns in the development of revision skills and positive correlations of student revisions with features of the teacher feedback. Chapter 10 looks at the descriptive data from the case studies of seven individual student writers. The analysis of this data illustrates how the specific students negotiated the revisions and sheds more light on the relationship between feedback, revision and text improvement. Chapter 11 contains the analysis of the students" answers to the questionnaire, which provide illuminative information about the feedback-related attitudes. In Chapter 12, the thesis reaches its final destination. The journey over the paths of literature exploration, data gathering and data analysis ends with reflections on the messages that emerge from the data analysis. The conclusion reached is that young students can learn how to revise their writing and focused feedback is a viable pedagogic option for teaching revision. In addition to discussing the findings, this final section considers the pedagogical implications for the teaching of writing and suggests possible avenues for further work.
The intention of this thesis was to characterise the effect of naturally occurring multivalent cations like Calcium and Aluminium on the structure of Soil Organic Matter (SOM) as well as on the sorption behaviour of SOM for heavy metals such as lead.
The first part of this thesis describes the results of experiments in which the Al and Ca cation content was changed for various samples originated from soils and peats of different regions in Germany. The second part focusses on SOM-metal cation precipitates to study rigidity in dependence of the cation content. In the third part the effects of various cation contents in SOM on the binding strength of Pb cations were characterised by using a cation exchange resin as desorption method.
It was found for soil and peat samples as well as precipitates that matrix rigidity was affected by both type and content of cation. The influence of Ca on rigidity was less pronounced than the influence of Al and of Pb used in the precipitation experiments. For each sample one cation content was identified where matrix rigidity was most pronounced. This specific cation content is below the cation saturation as expected by cation exchange capacity. These findings resulted in a model describing the relation between cation type, content and the degree of networking in SOM. For all treated soil and precipitate samples a step transition like glass transition was observed, determined by the step transition temperature T*. It is known from literature that this type of step transition is due to bridges between water molecules and organic functional groups in SOM. In contrast to the glass transition temperature this thermal event is slowly reversing after days or weeks depending on the re-conformation of the water molecules. Therefore, changes of T* with different cation compositions in the samples are explained by the formation of water-molecule-cation bridges between SOM-functional groups. No influence on desorption kinetics of lead for different cation compositions in soil samples was observed. Therefore it can be assumed that the observed changes of matrix rigidity are highly reversible by changing the water status, pH or putting agitation energy by shaking in there.
Nandi forests (South and North Nandi forests) are situated in the Rift Valley Province of Kenya very close to Kakamega forest. From previous documents it has been seen that Kakamega and Nandi forests were connected to each other forming one big "U" shaped forest block till the beginnings of 1900s. Due to human pressures, currently there are three different forests form the previous one block forest. Although they were one forest, information on Nandi forests is very scanty when it is compared to that of Kakamega forest. The species composition and diversity as well as plant communities and population structure of Nandi forests have not been studied. Information is not available about the similarity status of South and North Nandi forests. Furthermore the natural regeneration potential (seedling bank) of these forests is not well studied and documented. Hence this study aims to fill these gaps.
In this study totally 76 quadrates (49 from South Nandi and 27 from North Nandi) were used to collect data. In the South Nandi forests 27 of the quadrates were laid in the better side of the forest (at Kobujoi) and the remaining 22 were in the heavily disturbed part of this forest (Bonjoge). The quadrates were arranged on transects that have one to one and half km which were parallel to the slope. The distance between the quadrates was 100 meter and transects are 500 m apart. The size of the main quadrate was 400 m2 (20 X 20 m) which also had five small plots (3 X 3 m) distributed on the four corners and in the center. Each woody plants (climbers, shrubs and trees) having more than one meter and greater than two centimeter diameter at breast height (dbh) were measured and recorded. Seedlings and herbaceous plants were sampled in the smaller plots. Individual plants were identified at species level and when it was not possible to identify in the field voucher specimen were prepared and latter identified at the East African Herbarium, National Museum of Kenya, and Nairobi. Clustering and ordination were performed using PC-ORD and CANOCO ecological softwares, respectively. For both clustering and ordination abundance data of the species was used. Shannon diversity index and evenness were computed using PC-ORD while similarity indices, Fisher alpha, rarefaction, species richness estimation (nonparametric species richness estimators) were conducted using EstimateS. Indicator species analysis was undertaken using PC-ORD. Basal area and height class distribution at forests level or site level (Bonjoge and Kobujoi) and diameter (dbh) class distribution for selected trees species were performed to evaluate population structure.
Furthermore importance value (IV) of woody plant species was calculated. SPSS version 16 was used to undertake both parametric (when data assume normal distribution) and nonparametric (when data are not assuming normal distribution) comparison of means, correlation and regression analysis.
In this study totally 321 vascular plant species comprising 92 families and 243 genera were identified in Nandi forests (both South and North Nandi forests). In South Nandi forest 253 plant species form 82 families and 201 genera were recorded while in North Nandi 181 species comprising 67 families and 155 genera were recorded. Jackknife second order estimators gave the highest species richness estimate for both South and North Nandi forests i.e. 284 and 209, respectively. In the case of highly disturbed and less disturbed parts of South Nandi forest 138 and 172 vascular plant species were recorded, respectively. Asteraceae, Rubiaceae and Euphorbiaceae are the top three species rich families of Nandi forests. In terms of different diversity measures (i.e. alpha and beta diversity, Fisher alpha, Shannon diversity and evenness indices) South Nandi is more diverse than North Nandi forest. Sörensen and Jaccard (classic) as well as their respective abundance based similarities showed that there is a low species similarity between South and Nandi forests. The cluster analysis resulted in three different plant communities and this result is supported by the ordination result.
South and North Nandi forest has inverted "J" height class distribution showing that larger proportion of woody plant individuals are found in the lower height classes. Similar pattern is observed when the diameters of all woody plants were considered together. However, different diameter class distributions (seven types) were identified when selected tree species were analyzed separately. It has been observed that the basal area of South Nandi forest is significantly lower than that of North Nandi forest (Mann-Whitney U =358, p < 0.001). Similarly Bonjoge has significantly lower basal area (t-value=3.77, p<0.01) than that of Kobujoi. Number of woody plat seedlings in South Nandi forest is significantly higher than that of North Nandi (Mann-Whitney U = 362.5, p<0.001). In the same way Bonjoge has significantly smaller number of ssedlings than Kobujoi (t-value 4.24, p<0.001). Most of species in both forests are able to resprout from stumps after physical damage; hence this helps the regeneration of the forests in addition to seedling banks. This study enables to fill some of the information gaps about Nandi forests especially of floristic composition, population structure, natural regeneration and human impacts on this ecosystem.
The concept of hard and soft news (HSN) is regarded as one of the most important concepts in journalism research. Despites this popularity, two major research voids can be assigned to the concept. First, it lacks conceptual clarity: the concept gets used interchangeably with related concepts such as sensationalism, which has led to fuzzy demarcations of HSN. Also, it is still not agreed on of which dimensions the concept in composed. Second, little is known about the factors that influence the production of news in terms of their hard or soft nature. The present disserta-tion casts a twofold glance on the HSN concept – it aims to assess the conceptual status of the concept and production of hard and soft news.
At the outset, this dissertation delineates the theoretical base for three manuscripts in total and presented considerations on concepts in social sciences in general and hard and soft news in particular as well as the production of news, particularly of hard and soft news. The first paper proposed a theoretical frame-work model to distinguish HSN and related concepts. Based on a literature review of in total five concepts, this model suggested a hierarchy in which these concepts can be discerned according to their occurrence in media content. The second pa-per focused on the inner coherence of the HSN concept in its most recent academ-ic understanding. The results of a factorial survey with German newspaper jour-nalists showed that, indeed, four out of five dimensions of the HSN concept com-prised what the journalists understood by it. Hence, the most recent academic un-derstanding is to a great extent coherent. The third study shed light on the produc-tion of HSN, focusing on the influence of individual journalists’ and audience’s characteristics on whether news was presented in hard or soft way. The findings of a survey with simulated decision scenarios among German print journalists showed that the HSN dimensions were susceptible to different journalistic influ-ences and that a perceived politically uninterested audience led to a softer cover-age. The dissertation concluded with connecting these findings with the considera-tions on concept evaluation and the production of news. Implications for research on and with the concept of HSN were presented, before concluding with limitations and suggestions for future research.
Streams are coupled with their riparian area. Emerging insects from streams can be an important prey in the riparian area. Such aquatic subsidies can cause predators to switch prey or increase predator abundances. This can impact the whole terrestrial food web. Stressors associated with agricultural land use can alter insect communities in water and on land, resulting in complex response patterns of terrestrial predators that rely on prey from both systems.
This thesis comprises studies on the impact of aquatic nsects on a terrestrial model ecosystem (Objective 1, hapter 2), the influence of agricultural land use on riparian spiders’ traits and community (Objective 2, Chapter 3), and on the impact of agricultural land use on the contribution of different prey to spider diet (Objective 3, Chapter 4).
In chapter 2, I present a study where we conducted a mesocosm experiment to examine the effects of aquatic subsidies on a simplified terrestrial food web consisting of two types of herbivores (leafhoppers and weevils), plants and predators (spiders). I focused on the prey choice of the spiders by excluding predator immigration and reproduction. In accordance with predator switching, survival of leafhoppers increased in the presence of aquatic subsidies. By contrast, the presence of aquatic subsidies indirectly reduced weevils and herbivory.
In chapter 3, I present the results on the taxonomic and trait response of riparian spider communities to gradients of agricultural stressors and environmental variables, with a particular emphasis on pesticides. To capture spiders with different traits and survival strategies, we used multiple collection methods. Spider community composition was best explained by in-stream pesticide toxicity and shading of the stream bank, a proxy for the quality of the habitat. Species richness and the number of spider individuals, as well as community ballooning ability, were negatively associated with in-stream pesticide toxicity. In contrast, mean body size and shading preference of spider communities responded strongest to shading,
whereas mean niche width (habitat preference for moisture and shading) responded strongest to other environmental variables.
In chapter 4, I describe aquatic-terrestrial predator-prey relations with gradients of agricultural stressors and environmental variables. I sampled spiders, as well as their aquatic and terrestrial prey along streams with an assumed pesticide pollution gradient and determined their stable carbon and nitrogen signals. Potential aquatic prey biomass correlated positively with an increasing aquatic prey contribution of T. montana. The contribution of aquatic prey to the diet of P. amentata showed a positive relationship with increasing toxicity in streams.
Overall, this thesis contributes to the emerging discipline of cross-ecosystem ecology and shows that aquatic-terrestrial linkages and riparian food webs can be influenced by land use related stressors. Future manipulative field studies on aquatic-terrestrial linkages are required that consider the quality of prey organisms, fostering mechanistic understanding of such crossecosystem effects. Knowledge on these linkages is important to improve understanding of consequences of anthropogenic stressors and to prevent further losses of ecosystems and their biodiversity.
Die voranschreitende Vernetzung von Fahrzeugen wird einen erheblichen Einfluss auf die Mobilitätslösungen von Morgen haben. Solche Systeme werden stark auf den zeitnahen Austausch von Informationen angewiesen sein, um die funktionale Zuverlässigkeit, Sicherheit von Fahrfunktionen und somit den Schutz von Insassen zu gewährleisten. Allerdings zeigt sich bei näherer Betrachtung der verwendeten Kommunikationsmodelle heutiger Netzwerke, wie beispielsweise dem Internet, dass diese Modelle einem host-zentrierten Prinzip folgen. Dieses Prinzip stellt das Management von Netzwerken mit einem hohen Grad an mobilen Teilnehmern vor große Herausforderungen hinsichtlich der effizienten Verteilung von Informationen. In den vergangen Jahren hat sich das Information-Centric Networking (ICN) Paradigma als vielversprechender Kandidat für zukünftige datenorientierte mobile Netzwerke empfohlen. Basierend auf einem lose gekoppelten Kommunikationsmodell unterstzützt ICN Funktionen wie das Speichern und Verarbeiten von Daten direkt auf der Netzwerkschicht. Insbesondere das aktive, gezielte Platzieren von Daten nahe der Benutzer stellt einen vielversprechenden Ansatz zur Erhöhung der Datenbereitstellung in mobilen Netzen dar. Die vorliegende Arbeit legt den Fokus auf die Erforschung von Strategien zum orchestrieren und aktiven Platzieren von Daten für Fahrzeuganwendungen im Netzwerk für mobile Teilnehmer. Im Rahmen einer Analyse unterschiedlicher Fahrzeugapplikationen und deren Anforderungen, werden neue Strategien für das aktive Platzieren vorgestellt. Unter Verwendung von Netzwerksimulationen werden diese Strategien umfangreich untersucht und in im Rahmen eines prototypischen Aufbaus unter realen Bedingungen ausgewertet. Die Ergebnisse zeigen Verbesserungen in der zeitnahen Zustellung von Inhalten (die Verfügbarkeit spezifischer Daten wurde im Vergleich zu existierenden Strategien um bis zu 35% erhöht), während die Auslieferungszeiten verkürzt wurden. Allerdings bedingt das aktive Platzieren und Speichern von Daten auch Risiken der Datensicherheit und Privatsphäre. Auf der Basis einer Sicherheitsanalyse stellt der zweite Teil der Arbeit ein Konzept zur Zugriffskontrolle von gespeicherten Daten in verteilten Fahrzeugnetzwerken vor. Abschließend werden offene Problemstellungen und Forschungsrichtungen im Kontext Sicherheit von verteilten Berechnungsarchitekturen für vernetze Fahrzeugnetzwerke diskutiert.
Dadurch, dass Silber-Nanopartikel (Ag NPs) vielfältig in Konsumartikeln eingesetzt werden, führt deren Auswaschung zu einer kontinuierlichen Freisetzung von Ag NPs in natürliche Gewässer. Dadurch werden bakterielle Biofilme, welche die vorherrschende Lebensform von Mikroorganismen in der aquatischen Umwelt darstellen, sehr wahrscheinlich mit diesen in Form eines Umweltschadstoffes onfrontiert. Ungeachtet der bedeutsamen ökologischen Relevanz von bakteriellen Biofilmen in aquatischen Systemen und obwohl erwartet wird, dass Ag NPs in diesen Biofilmen in der Umwelt akkumulieren, liegt der Wissensstand hinsichtlich der umweltbedingten und ökologischen Auswirkung von Ag NPs hinter dem industriellen Wachstum der Nanotechnologie zurück. Demzufolge ist das Ziel dieser Dissertation, die Wirkungsbeziehung der Ag NP-Exposition gegenüber bakteriellen Biofilmen mit Ag NP-Immissionskonzentrationen und unter umwelt-relevanten Bedingungen zu erbringen. Infolgedessen wurden eine umfassende Reihe an Methoden angewendet, um zu untersuchen ob und inwiefern Ag NPs in zwei verschiedenen Größen (30 und 70 nm) und in umweltrelevanten Konzentrationen (600 - 2400 µg l-1) bakterielle Biofilme, d.h. monospecies- und Süßwasser-Biofilme, beeinträchtigen. Innerhalb des ersten Teils dieser Arbeit wurde ein neu entwickelter Assay validiert, um die mechanische Stabilität von monospecies Biofilmen des Bakteriums Aquabacterium citratiphilum zu untersuchen. In der ersten Studie, welche den Einfluss von Ag NPs auf die mechanische Stabilität von bakteriellen Biofilmen untersucht hat, wurden subletale Auswirkungen auf die mechanische Stabilität dieser Biofilme mit negativen Implikationen für die Biostabilisation festgestellt. Weiterhin wurde eine Mesokosmus-Studie konzipiert und durchgeführt, innerhalb der die Auswirkungen von Ag NPs auf Süßwasser-Biofilme eingehend unter realistischen Umweltbedingungen untersucht werden konnte, da es derzeit technisch noch sehr anspruchsvoll ist, die Ökotoxizität von Ag NPs in der Umwelt von Binnengewässern zu untersuchen. Innerhalb dieser Studie wurden verschiedene Methoden zur Untersuchung der Biofilmeigenschaften eingesetzt und damit Erkenntnisse über die Resilienz von bakteriellen Süßwasser-Biofilmen gewonnen. Demgegenüber konnte mittels t-RFLP fingerprinting und phylogenetischen Untersuchungen basierend auf der Sequenzanalyse des 16S-rRNA-Gens nachgewiesen werden, dass die Exposition der Biofilme mit Ag NPs zu einer Verschiebung innerhalb der Zusammensetzung der bakteriellen Biofilmgemeinschaft führt, in der Ag NP-sensitive Arten von Ag NP-toleranten Arten, die besser an Ag NP Stress adaptiert sind, verdrängt wurden. Diese Verschiebung innerhalb der bakteriellen Biofilmgemeinschaft könnte die Biofilm-Leistungen beeinträchtigen, die intakte Biofilme auszeichnen, wie etwa den Abbau erhöhten Nährstoffeintrags, die Umwandlung und/oder den Abbau von Schadstoffen sowie Biostabilisation. Durch das Zusammenführen der wichtigsten Erkenntnisse dieser Dissertation konnten 4 generelle Wirkmechanismen durch die Ag NP-Behandlung identifiziert werden, die auf natürliche Süßwassersysteme übertragbar sein könnten: (i) Comamonadaceae wurden als Ag NP-tolerant identifiziert, (ii) Biofilme zeigen ein partiell resilientes Verhalten, (iii) die beiden eingesetzten verschiedenen Ag NP-Größen führten zu vergleichbaren Ergebnissen unabhängig von deren Größe oder Synthesemethode, (iv) Bakterielle Biofilme verfügen über eine hohe Aufnahmekapazität für Ag NPs, die auf eine kumulative Anreicherung hinweist.
This thesis was motivated by the need to advance the knowledge on the variability and dynamics of energy fluxes in lakes and reservoirs, as well as about the physical processes that regulate the fluxes at both the air and water side of the air-water interface.
In the first part, I re-examine how mechanical energy, resulting from its major source – the vertical wind energy flux - distributes into the various types of water motions, including turbulent flows and surface and internal waves. Although only a small fraction of the wind energy flux from the atmosphere is transferred to the water, it is crucial for physical, biogeochemical and ecological processes in lentic ecosystems. Based on extensive air- and water-side measurements collected at two small water bodies (< 10 km2), we estimated the energy fluxes and energy content in surface and in internal waves. Overall, the estimated energy fluxes and energy content agree well with results reported for larger water bodies, suggesting that the energetics driving the water motions in enclosed basins is similar, independently of the basin size. Our findings highlight the importance of the surface waves that receive the largest fraction of the wind energy flux, which strongly nonlinearly increases for wind speeds exceeding 3 m s-1. We found that the existing parameterization of the wave height as a function of wind speed and fetch length did not reproduce the measured wave amplitude in lakes. On average, the highest energy content was observed in basin-scale internal waves, together with high-frequency internal waves exhibiting seasonal variability and varies among the aquatic systems. During our analysis, we discovered the diurnal variability of the energy dissipation rates in the studied lake, suggesting biogenic turbulence generation, which appears to be a widespread phenomenon in lakes and reservoirs.
In the second part of the thesis, I addressed current knowledge gaps related to the bulk transfer coefficients (also known as the drag coefficient, the Stanton number and the Dalton number), which are of a particular importance for the bulk estimation of the surface turbulent fluxes of momentum, sensible and latent heat in the atmospheric boundary layer. Their inaccurate representation may lead to significant errors in flux estimates, affecting, for example, the weather and climate predictions or estimations of the near-surface current velocities in lake hydrodynamic models. Although the bulk transfer coefficients have been extensively studied over the past several decades (mainly in marine and large-lake environments), there has been no systematic analysis of measurements obtained at lakes of different size. A significant increase of the transfer coefficients at low wind speeds (< 3 m s-1) has been observed in several studies, but, to date, it has remained unexplained. We evaluated
the bulk transfer coefficients using flux measurements from 31 lakes and reservoirs. The estimates were generally within the range reported in previous studies for large lakes and oceans. All transfer coefficients increased substantially at low wind speeds, which was found to be associated with the presence of gusts and capillary waves (except the Dalton number). We found that the Stanton number is systematically higher than the Dalton number. This challenges the assumption made in the Bowen-ratio method, which is widely used for estimating evaporation rates from micrometeorological measurements. We found that the variability of the transfer coefficients among the lakes could be associated with lake surface area. In flux parameterizations at lake surfaces, it is recommended to consider variations in the drag coefficient and the Stanton number due to wind gustiness and capillary wave roughness while the Dalton number could be considered as constant at all wind speeds.
In the third part of the thesis, I address the key drivers of the near-surface turbulence that control the gas exchange in a large regulated river. As all inland waters, rivers are an important natural source of greenhouse gases. The effects of the widespread alteration and regulation of river flow for human demands on gas exchange is largely unknown. In particular, the near-surface turbulence in regulated rivers has been rarely measured and its drivers have not been identified. While in lakes and reservoirs, near-surface turbulence is mainly related to atmospheric forcing, in shallow rivers and streams it is generated by bottom friction of the gravity-forced flow. The studied large regulated river represents a transition between these two cases. Atmospheric forcing and gravity were the dominant drivers of the near-surface turbulence for a similar fraction of the measurement period. Based on validated scalings, we derived a simple model for estimating the relative contributions of wind and bottom friction to near-surface turbulence in lotic ecosystems with different flow depths. Large diel variability in the near-surface energy dissipation rates due to flow regulation leads to the same variability in gas exchange. This suggests that estimates of gas fluxes from rivers are biased by measurements performed predominantly during daytime.
In addition, the novelty in all the analyses described above is the use of the turbulent surface fluxes measured directly by the eddy-covariance technique – at the moment of writing, the most advanced method. Overall, this thesis is of a potential interest for a broad range of scientific disciplines, including limnology, micrometeorology and open channel hydraulics.
Die weltweite Vernetzung von semantischen Information schreitet stetig voran und erfährt mit der Linked Data Initiative immer mehr Aufmerksamkeit. Bei Linked Data werden verschiedene Datensätze aus unterschiedlichen Domänen und von diversen Anbietern in einem einheitlichen Format (RDF) zur Verfügung gestellt und miteinander verknüpft. Strukturell ist das schnell wachsende Linked Data Netzwerk sehr ähnlich zum klassischen World Wide Web mit seinen verlinkten HTML Seiten. Bei Linked Data handelt es sich jedoch um URI-referenzierte Entitäten, deren Eigenschaften und Links durch RDF-Triple ausgedrückt werden. Neben dem Dereferenzieren von URIs besteht mit SPARQL auch die Möglichkeit, ähnlich wie bei Datenbanken, komplexe algebraische Anfragen zu formulieren und über sogenannte SPARQL Endpoints auf einer Datenquelle auswerten zu lassen. Eine SPARQL Anfrage über mehrere Linked Data Quellen ist jedoch kompliziert und bedarf einer föderierten Infrastruktur in der mehrere verteilte Datenquellen integriert werden, so dass es nach außen wie eine einzige große Datenquelle erscheint. Die Föderation von Linked Data hat viele Ähnlichkeiten mit verteilten und föderierten Datenbanken. Es gibt aber wichtige Unterschiede, die eine direkte Adpation von bestehenden Datenbanktechnologien schwierig machen. Dazu gehört unter anderem die große Anzahl heterogener Datenquellen in der Linked Data Cloud, Beschränkungen von SPARQL Endpoints, und die teils starke Korrelation in den RDF Daten. Daher befasst sich die vorliegende Arbeit primär mit der Optimierung von verteilten SPARQL Anfragen auf föderierten RDF Datenquellen. Die Grundlage dafür ist SPLENDID, ein effizientes Optimierungverfahren für die Ausführung von verteilten SPARQL Anfragen in einer skalierbaren und flexiblen Linked Data Föderationsinfrastruktur. Zwei Aspekte sind dabei besonders wichtig: die automatische Auswahl von passenden Datenquellen für beliebige SPARQL Anfragen und die Berechnung des optimalen Ausführungsplans (Join Reihenfolge) basierend auf einem Kostenmodell. Die dafür erforderlichen statistischen Information werden mit Hilfe von VOID-basierten Datenquellenbeschreibungen zur Verfügung gestellt. Darüberhinaus wird auch des Management verteilter statistischer Daten untersucht und eine Benchmark-Methodologie
Ökologische Bewertungsansätze auf der Grundlage des Makrozoobenthos in Euphratzuflüssen der Türkei
(2019)
Nachhaltiges Gewässermanagement erfordert Methoden zur Bewertung der ökologischen Gewässerqualität. Die Basis dafür zu entwickeln setzt langjährige limnologische Forschung voraus, die jedoch in der Türkei bisher nicht ausreichend vorhanden ist. Daher war es das Ziel dieser Doktorarbeit, Grundlagenforschung im Bereich der Gewässerökologie durchzuführen und Methoden zur Bewertung der ökologischen Gewässerqualität in der Türkei anhand der Untersuchung von benthischen Invertebraten bereitzustellen. Hierfür habe ich 17 Nebenflüsse des Euphrat mit ähnlicher Typologie/Gewässerordnung ausgewählt, die unter¬schiedlichen anthropogenen Belastungen bis gar keiner Beeinträchtigung ausgesetzt waren. Die Charakterisierung der natürlichen Bergbäche war der erste wichtige Schritt zur Analyse der ökologischen Qualität. Anhand von Gemeinschaftsindizes konnte ich feststellen, dass die hierfür ausgewählten fünf Bäche einen sehr guten ökologischen Zustand aufwiesen. Des Weiteren verglich ich die verschiedenen biologischen Indizes zwischen Frühling (Mai) und Herbst (September), um den optimalen Zeitpunkt der Beprobung festzustellen. Dabei zeigten sich erhebliche Unterschiede in der Makroinvertebratenzusammensetzung zwischen den beiden Jahreszeiten: Die Anzahl der Taxa und der Shannon-Index waren im Herbst deutlich höher als im Frühjahr. Anschließend untersuchte ich bei den Referenzbächen die Nahrungsressourcen des Makrozoobenthos mittels einer Isotopen-Analyse. Als wichtigste Basalressourcen für die benthischen Wirbellosen stellte ich FPOM und Biofilm fest. Infolgedessen unterteilte ich die 17 Bäche anhand der Ähnlichkeit ihrer Gemeinschafts-struktur in drei Qualitätsklassen, die von vier Gemeinschaftsindizes (EPT [%], EPTCBO [%], Anzahl der Individuen, Evenness) unterstützt worden sind. Hierbei wurden 23 Taxa als Indikatoren für die drei Qualitätsklassen identifiziert. Im nächsten Schritt habe ich zwei Möglichkeiten für die Bewertung der Qualitätsklassen entwickelt bzw. angepasst. Als erstes adaptierte ich den biotischen Index Hindu Kush-Himalaya an das Einzugsgebiet des Euphrat, in dem ich eine neue und ökoregionspezifische Score Liste (Euph-Scores) für 93 Taxa erstellt habe. Die gewichteten ASPT-Werte, die in der vorliegenden Arbeit in Euphrat Biotischer Score (EUPHbios) umbenannt worden sind, zeigten im Vergleich zu den anderen ASPT-Werten schärfere Differenzierungen der Qualitätsklassen. Somit erwies sich dieser modifizierte Index in der praktischen Anwendung als sehr aussagekräftig und gut umsetzbar. Als zweiten biologischen Index habe ich den Anteil der Habitat-Spezialisten vorgeschlagen. Um diesen Index zu berechnen, wurden Habitatpräferenzen der 20 häufigsten Makro-invertebraten anhand des neuen Habitat-Scores identifiziert. Der Anteil der Habitat-Spezialisten unterschied sich deutlich zwischen den drei Qualitätsklassen, mit höheren Werten in natürlichen Bächen als in belasteten. Die in dieser Doktorarbeit vorgestellten Methoden und Ergebnisse können in einem multimetrischen Index für ein türkisches Bewertungsprogramm für Fließgewässer verwendet werden.
In Europa ist die moderne Landwirtschaft eine der häufigsten Formen der Landnutzung, allerdings wird sie auch mit negativen Auswirkungen auf die Biodiversität in Agrarlandschaften in Verbindung gebracht. Lepidoptera (Nacht- und Tagfalter) bilden eine artenreiche Gruppe in Agrarsystemen, doch die Populationen vieler Falterarten sind rückläufig. Zu den Zielen der vorliegenden Arbeit gehörte es, Feldsäume in Agrarlandschaften zu erfassen und zu charakterisieren, Effekte realistischer Eintragsraten von Agrarchemikalien (Dünger und Pestizide) in Feldsäumen auf Lepidoptera zu untersuchen und Informationen zu den Bestäubungsleistungen von Nachtfaltern zu sammeln.
Feldsäume sind zwar häufige semi-natürliche Habitatelemente in Agrarökosystemen, aber es gibt nur wenige Informationen über ihre Struktur, Größe und Breite. Daher wurden Feldsäume in zwei deutschen Agrarlandschaften (je 4.000 ha) erfasst und es zeigte sich, dass ein Großteil dieser Säume schmaler als 3 m war (Rheinland-Pfalz: 85% der Feldsaumlänge, Brandenburg: 45% der Feldsaumlänge). In Deutschland müssen Landwirte bei solchen schmalen Feldsäumen keine Maßnahmen zur Verminderung von Pestizideinträgen (z.B. Pufferzonen) umsetzen. Agrarchemikalien werden deshalb insbesondere durch Überspritzung und Abdrift in schmale Feldsäume eingetragen. In solchen schmalen Feldsäumen konnten zwar Raupen nachgewiesen werden, doch ihre mittlere Abundanz war um 35 – 60% niedriger als auf Vergleichsflächen (Wiesen). Im Rahmen eines Feldversuchs sowie in Laborexperimenten zeigte sich, dass Raupen sensitiv auf Insektizideinträge (Pyrethroid, Lambda-Cyhalothrin) regieren. Zudem wurden auf insektizid-behandelten Silene latifolia Pflanzen 40% weniger Eier von Hadena bicruris Faltern gefunden als auf unbehandelten Kontrollpflanzen und die Blüten der behandelten Pflanzen wurden seltener von Nachtfaltern bestäubt. Lepidoptera können neben Insektizid- auch von Herbizideinträgen beeinflussen werden. Ranunculus acris L. Pflanzen wurden mit subletalen Raten eines Sulfonylurea-Herbizids behandelt und dann als Futterpflanzen für Mamestra brassicae L. Raupen genutzt; dies führte zu signifikant geringeren Raupengewichten, einer verlängerten Zeit bis zur Verpuppung und einer verlängerten Gesamtentwicklungsdauer verglichen mit Raupen, die an Kontrollpflanzen fraßen. Ursachen hierfür waren möglicherweise ein geringerer Nährwert oder eine höhere Konzentration von Abwehrstoffen in den herbizid-behandelten Pflanzen. Düngereinträge führten zu einer geringfügigen Erhöhung der Raupenabundanz in dem Feldversuch. Langfristig reduziert Dünger jedoch die Pflanzenvielfalt und dadurch wahrscheinlich auch die Raupendiversität.
Nachtfalter wie Noctuidae und Sphingidae sind Bestäuber für zahlreiche Pflanzenarten, z.B. viele Orchidaceae und Caryophyllaceae. Obwohl sie in den Agrarökosystemen der gemäßigten Breiten wahrscheinlich keine bedeutenden Bestäuber für Kulturpflanzen sind, können Nachtfalter aber für die Bestäubung der Wildpflanzen in semi-natürlichen Habitaten von Relevanz sein. Dabei wird die Rolle der Nachtfalter als Bestäuber zurzeit vermutlich unterschätzt und es werden Langzeitstudien benötigt, um die zeitlichen Schwankungen in ihrer Abundanz und Artenzusammensetzung berücksichtigen zu können.
Lepidopteren bilden eine artenreiche Organismengruppe in Agrarlandschaften, die auch wesentliche Ökosystem-Dienstleistungen erfüllen. Um Nacht- und Tagfalter besser zu schützen, sollten Einträge von Agrarchemikalien in (schmale) Feldsaumhabitate reduziert werden, beispielsweise durch Maßnahmen zur Risikominderung von Pestiziden und Agrarumweltprogramme.
Amphibian populations are declining worldwide for multiple reasons such as habitat destruction and climate change. An example for an endangered European amphibian is the yellow-bellied toad Bombina variegata. Populations have been declining for decades, particularly at the northern and western range margin. One of the extant northern range centres is the Westerwald region in Rhineland-Palatinate, Germany. To implement informed conservation activities on this threatened species, knowledge of its life-history strategy is crucial. This study therefore focused on different developmental stages to test predictions of life-history theory. It addressed (1) developmental, (2) demographic and (3) genetic issues of Bombina variegata as a model organism: (1) Carry-over effects from larval environment to terrestrial stages and associated vulnerability to predators were investigated using mesocosm approaches, fitness tests and predation trials. (2) The dynamics and demography of B. variegata populations were studied applying a capture-mark-recapture analysis and skeletochronology. The study was complemented through (3) an analysis of genetic diversity and structuring of B. variegata populations using 10 microsatellite loci. In order to reveal general patterns and characteristics among B. variegata populations, the study focused on three geographical scales: local (i.e. a former military training area), regional (i.e. the Westerwald region) and continental scale (i.e. the geographical range of B. variegata). The study revealed carry-over effects of larval environment on metamorph phenotype and behaviour causing variation in fitness in the early terrestrial stage of B. variegata. Metamorph size and condition are crucial factors for survival, as small-sized individuals were particularly prone to predator attacks. Yellow-bellied toads show a remarkable fast-slow continuum of the life-history trait longevity. A populations’ position within this continuum may be determined by local environmental stochasticity, i.e. an extrinsic source of variation, and the efficiency of chemical antipredator protection, i.e. an intrinsic source of variation. Extreme longevity seems to be an exception in B. variegata. Senescence was absent in this study. Weather variability affected reproductive success and thus population dynamics. The dispersal potential was low and short-term fragmentation of populations caused significant genetic differentiation at the local scale. Long-term isolation resulted in increased genetic distance at the regional scale. At the continental scale, populations inhabiting the marginal regions were deeply structured with reduced allelic richness. As consequence of environmental changes, short-lived and isolated B. variegata populations at the range margin may face an increased risk of extinction. Conservation measures should thus improve the connectivity among local populations and reinforce annual reproductive success. Further research on the intraspecific variation in B. variegata skin toxins is required to reveal potential effects on palatability and thus longevity.
Social Business Documents: An Investigation of their Nature, Structure and Long-term Management
(2018)
Geschäftsdokumente beinhalten wertvolle Informationen. Sie müssen verwaltet werden, um gesetzlichen Anforderungen zu entsprechen, als organisatorisches Wissen zu dienen und Risiken zu vermeiden. Veränderungen der Technologien haben jedoch zu neuen Dokumententypen und neuen Interaktionsmöglichkeiten mit Dokumenten geführt. So hat das Web 2.0 zur Entwicklung von Enterprise Collaboration Systems (ECS) geführt, die Mitarbeitern die Nutzung von Wiki-, Blog- oder Forum-Anwendungen für ihre Geschäftstätigkeiten ermöglichen. Ein Teil der in ECS erstellten Inhalte können dabei als Social Business Documents (SBD) bezeichnet werden. Im Vergleich zu traditionellen digitalen Dokumenten haben SBD eine andere Beschaffenheit und Struktur. SBD sind beispielsweise unstrukturierter und folgen keinem strikten Lebenszyklus. Diese Charakteristika bringen neue Herausforderungen beim Verwalten von SBD mit sich. Jedoch fehlen in der wissenschaftlichen Literatur derzeit Untersuchungen zu den Charakteristika von SBD, ihren Besonderheiten und ihrem Management.
Als theoretische Linse nutzt diese Arbeit Dokumenten-Theorien und dokumentarische Praktiken mit dem Ziel, die neuen Herausforderungen des Langzeitmanagement von SBD in ECS zu untersuchen. Durch einen interpretativen, explorativen Mixed-Method-Ansatz vereint diese Arbeit zwei Forschungsteile. Erstens werden die Beschaffenheit und Struktur von SBD durch die Analyse von vier Systemen untersucht und SBD-Informationsmodelle entwickelt. Diese zeigen die zugrundeliegenden Komponenten von SBD, die Struktur, die Funktionen, die enthaltenen Metadaten, sowie die große Bandbreite von SBD-Charakteristika auf. Der zweite Teil wurde mit Unternehmensvertretern durchgeführt und besteht aus einer Fokusgruppe, einer Fallstudie mit Tiefeninterviews und einem Fragebogen. Die Fokusgruppe zeigt, dass die genutzte Art von SBD bezogen auf ihren Inhalt und Speicherort unternehmensabhängig ist und es derzeit fast keine SBD-Management-Praktiken gibt. Die Fallstudie ermöglichte tiefe Einblicke in allgemeine Dokumentenmanagement-Aktivitäten und untersuchte die Anforderungen, Herausforderungen und Prozesse des SBD-Managements. Der Fragebogen konsolidierte und vertiefte die vorherigen Erkenntnisse und gibt Einblicke in den Wert von SBD, aktuelle Management-Praktiken sowie Herausforderungen und Bedürfnisse bei deren Management. Auch zeigt er auf, dass zwar alle Unternehmen Informationen im ECS speichern, die verwaltet werden sollten, jedoch kaum SBD-Management-Aktivitäten durchführt werden und so noch viele Herausforderungen bestehen.
Zusammenfassend erlauben die Ergebnisse einen Beitrag zu Praxis und Theorie. Die Praxis ist mittels eines Frameworks adressiert, welches die Anforderungen, Herausforderungen und Aktivitäten des SBD-Managements, die Unternehmen beim Langzeitmanagement beachten müssen, aufzeigt. Des Weiteren erlauben die Erkenntnisse den theoretischen Fortschritt der dokumentenbezogenen Praktiken durch die Erweiterung der Dokumententypen um SBD. Auch werden die bestehenden Probleme der Definition von Records in Bezug auf SBD erläutert sowie die Charakteristika von Dokumenten um jene von Social Business Documents erweitert.
The first group that was revised within my study is Ochralea Clark, 1865 (Hazmi & Wagner 2010a). I have checked the type specimen of most species that were originally described in Ochralea and there is no doubt that this genus is clearly distinct from Monolepta. Weise (1924) has synonymised Galeruca nigripes (Olivier, 1808) with O. nigricornis Clark, 1865 and the valid name of the species is O. nigripes (Olivier, 1808). Out of ten species originally described in this genus, only this species remain valid and O. pectoralis is a new synonym of O. nigripes. Additionally, Monolepta wangkliana Mohamedsaid, 2000 is very closely related to O. nigripes and need to be transferred to Ochralea. The second genus where the revision is still published is Arcastes Baly, 1865 (Hazmi & Wagner 2010b). I have checked the genitalic characters of A. biplagiata, and most of the type species of other Arcastes. Arcastes biplagiata possesses a peculiar shape of the median lobe and asymmetrically arranged endophallic structures. These peculiar characters are very useful to delimit this genus from the others. Therefore, only three valid species remain in Arcastes, while two new synonyms are found and fourrnother species need to be transferred to other genera. While checking the genitalic characteristics of type species of Arcastes sanguinea, thernmedian lobe as well as the spermatheca of this species possesses strong differences to A. biplagiata. The species was redescribed and transferred in a monotypic new genus Rubrarcastes Hazmi & Wagner, 2010c. The fourth genus that was already revised is Neolepta Jacoby, 1884. It was originally described on base of only two species by that time, N. biplagiata and N. fulvipennis. Jacoby has not designated a type species of the genus, and Maulik (1936) did it later, with the designation of N. biplagiata. Jacoby in his original description has only commented that Neolepta is very close and similar to Monolepta Chevrolat, 1837 and Candezea Chapuis, 1879. Subsequent authors have described further eight species, and transferred one species from Luperodes to it, summing up the total number of eleven described species in Neolepta. I have checked the genitalic characters of the type, N. biplagiata and have found out that the median lobe is not incised apically and stronger sclerotised ventral carinae with an apical hook close to the apex occur. Out of all described species, only two are closely related to the genero-type, N. sumatrensis (Jacoby, 1884) new combination and N. quadriplagiata Jacoby, 1886 that will remain in this group after the revision. All other species need to be transferred to other genera, including the newly described Paraneolepta and Orthoneolepta. The last distinct paper of this thesis presented the results on Monolepta Chevrolat, 1837. The massive number of Monolepta from the entire Oriental Region, with about 260 described species names is a more long-life project and not practicable within a PhD-study. Thus I have focused on the species of Monolepta known from the Sundaland area in this work. A comprehensive revision including the study of the primary types of the described species, has never been done for Monolepta from this sub-region, while new species have also been described in the last decade (e. g. Mohamedsaid 1993, 1997, 1998, 1999, 2000a,b, 2001, 2002, 2005).
On base of the most current species lists of Mohamedsaid (2001, 2004, 2005) and Kimoto (1990), the number of valid species described from this region is about 72. After my revision, only thirteen valid species can remain in Monolepta in the sense of the generotype M. bioculata (Wagner 2007), while seven species have been found as new synonyms, three have been already transferred to other genera and further 49 species need to be transferred to other genera.
Typischerweise erweitern Augmented Reality (AR)-Anwendungen die Sicht des Benutzers auf die reale Welt um virtuelle Objekte.
In den letzten Jahren hat AR zunehmend an Popularität und Aufmerksamkeit gewonnen. Dies hat zu Verbesserungen der benötigten Technologien geführt. AR ist dadurch für fast jeden zugänglich geworden.
Forscher sind dem Ziel einer glaubwürdigen AR, in der reale und virtuelle Welten nahtlos miteinander verbunden sind, einen großen Schritt näher gekommen. Sie konzentrieren sich hauptsächlich auf Themen wie Tracking, Anzeige-Technologien und Benutzerinteraktion und schenken der visuellen und physischen Kohärenz bei der Kombination realer und virtueller Objekte wenig Aufmerksamkeit. Beispielsweise sollen virtuelle Objekte nicht nur auf die Eingaben des Benutzers reagieren, sondern auch mit realen Objekten interagieren. Generell wird AR glaubwürdiger und realistischer, wenn virtuelle Objekte fixiert oder verankert in der realen Szene erscheinen, sich nicht von der realen Szene unterscheiden und auf Veränderungen dieser Szene reagieren.
Diese Arbeit untersucht drei Herausforderungen im Bereich Maschinelles Sehen um dem Ziel einer glaubwürdig kombinierten Welt näher zu kommen, in der virtuelle Objekte wie reale erscheinen und sich ebenso verhalten.
Diese Dissertation konzentriert sich als erstes auf das bekannte Tracking- und Registrierungsproblem. Hierzu wird die Herausforderung von Tracking und Registrierung diskutiert und ein Ansatz vorgestellt, um die Position und den Blickpunkt des Benutzers zu schätzen, so dass virtuelle Objekte in der realen Welt fest verankert erscheinen. Linienmodelle, die dem Erscheinungsbild entsprechen und nur für Trackingzwecke relevante Kanten beinhalten, ermöglichen eine absolute Registrierung in der realen Welt und ein robustes Tracking. Einerseits ist es nicht notwendig, viel Zeit in die manuelle Erstellung geeigneter Modelle zu investieren, andererseits ist das Tracking in der Lage mit Änderungen innerhalb des zu verfolgenden Objekts oder Szene umzugehen. Versuche haben gezeigt, dass die Verwendung von solchen Linienmodellen die Robustheit, Genauigkeit und Re-initialisierungsgeschwindigkeit des Tracking-Prozesses verbessert haben.
Zweitens beschäftigt sich diese Dissertation mit dem Thema der Oberflächenrekonstruk\-tion einer realen Umgebung und präsentiert einen Algorithmus zur Optimierung einer laufenden Oberflächenrekonstruktion. Vollständige 3D-Oberflächenrekonstruktionen einer Szene
eröffnen neue Möglichkeiten um realistischere AR-Anwendungen zu erstellen. Verschiedene Interaktionen zwischen realen und virtuellen Objekten, wie Kollisionen und Verdeckungen, können physikalisch korrekt behandelt werden. Während sich die bisherigen Methoden darauf konzentrierten die Oberflächenrekonstruktionen nach einem Aufnahmeschritt zu verbessern, wird die Rekonstruktion während der Aufnahme erweitert, Löcher werden geschlossen und Rauschen wird reduziert. Um eine unbekannte Umgebung zu erkunden muss der Benutzer keine Vorbereitungen treffen. Das Scannen der Szene oder eine vorhergehende Auseinandersetzung mit der zugrundeliegenden Technologie ist somit nicht notwendig.
In Experimenten lieferte der Ansatz realistische Ergebnisse, bei denen bekannte Oberflächen für verschiedene Oberflächentypen erweitert und Löcher plausibel gefüllt wurden.
Anschließend konzentriert sich diese Dissertation auf die Behandlung von realistischen Verdeckungen zwischen realer und virtueller Welt. Hierzu wird die Herausforderung der Verdeckung als Alpha Matting Problem formuliert. Die vorgestellte Methode überwindet die Grenzen moderner Methoden, indem ein Überblendungskoeffizienten pro Pixel der gerenderten virtuellen Szene schätzt wird, anstatt nur deren Sichtbarkeit zu berechnen. In mehreren Experimenten und Vergleichen mit anderen Methoden hat sich die Verdeckungsbehandlung durch Alpha Matting als robust erwiesen und kann mit Daten, die durch preiswerte Sensoren aufgenommen wurden, umgehen. Hinsichtlich der Qualität, des Realismus und der praktischen Anwendbarkeit übertrifft die Methode die Ergebnisse von bisherigen Ansätzen.
Des Weiteren kann die Methode mit verrauschten Tiefendaten umgehen und liefert realistische Ergebnisse in Regionen, in denen Vorder- und Hintergrund nicht strikt voneinander trennbar sind (z.B. bei Objekten mit einer undeutlichen Kontur oder durch Bewegungsunschärfe).
Mathematical models of species dispersal and the resilience of metapopulations against habitat loss
(2021)
Habitat loss and fragmentation due to climate and land-use change are among the biggest threats to biodiversity, as the survival of species relies on suitable habitat area and the possibility to disperse between different patches of habitat. To predict and mitigate the effects of habitat loss, a better understanding of species dispersal is needed. Graph theory provides powerful tools to model metapopulations in changing landscapes with the help of habitat networks, where nodes represent habitat patches and links indicate the possible dispersal pathways between patches.
This thesis adapts tools from graph theory and optimisation to study species dispersal on habitat networks as well as the structure of habitat networks and the effects of habitat loss. In chapter 1, I will give an introduction to the thesis and the different topics presented in this thesis. Chapter 2 will then give a brief summary of tools used in the thesis.
In chapter 3, I present our model on possible range shifts for a generic species. Based on a graph-based dispersal model for a generic aquatic invertebrate with a terrestrial life stage, we developed an optimisation model that models dispersal directed to predefined habitat patches and yields a minimum time until these patches are colonised with respect to the given landscape structure and species dispersal capabilities. We created a time-expanded network based on the original habitat network and solved a mixed integer program to obtain the minimum colonisation time. The results provide maximum possible range shifts, and can be used to estimate how fast newly formed habitat patches can be colonised. Although being specific for this simulation model, the general idea of deriving a surrogate can in principle be adapted to other simulation models.
Next, in chapter 4, I present our model to evaluate the robustness of metapopulations. Based on a variety of habitat networks and different generic species characterised by their dispersal traits and habitat demands, we modeled the permanent loss of habitat patches and subsequent metapopulation dynamics. The results show that species with short dispersal ranges and high local-extinction risks are particularly vulnerable to the loss of habitat across all types of networks. On this basis, we then investigated how well different graph-theoretic metrics of habitat networks can serve as indicators of metapopulation robustness against habitat loss. We identified the clustering coefficient of a network as the only good proxy for metapopulation robustness across all types of species, networks, and habitat loss scenarios.
Finally, in chapter 5, I utilise the results obtained in chapter 4 to identify the areas in a network that should be improved in terms of restoration to maximise the metapopulation robustness under limited resources. More specifically, we exploit our findings that a network’s clustering coefficient is a good indicator for metapopulation robustness and develop two heuristics, a Greedy algorithm and a deducted Lazy Greedy algorithm, that aim at maximising the clustering coefficient of a network. Both algorithms can be applied to any network and are not specific to habitat networks only.
In chapter 6, I will summarize the main findings of this thesis, discuss their limitations and give an outlook of future research topics.
Overall this thesis develops frameworks to study the behaviour of habitat networks and introduces mathematical tools to ecology and thus narrows the gap between mathematics and ecology. While all models in this thesis were developed with a focus on aquatic invertebrates, they can easily be adapted to other metapopulations.
Wir leben in einer Welt, in der sich Umweltkrisen immer weiter zuspitzen. Um diese Krisen zu entschärfen, braucht es einen sozial-ökologischen Wandel, der mit Verhaltensänderungen in verschiedenen Bereichen des täglichen Lebens einhergehen muss. Ausgehend von dieser gesellschaftlichen Aufgabe, befasst sich die vorliegende Dissertation mit der Frage, wie Verhaltensänderungen auf individueller Ebene angestoßen werden können. Mit dem weltweiten Problem von Plastik in der Umwelt wird ein aktuelles und sozialwissenschaftlich wenig erforschtes Themenfeld aufgegriffen. Es wird untersucht, welche psychologischen Faktoren einen Einfluss darauf haben, den eigenen Plastikkonsum zu reduzieren. Der Fokus liegt dabei insbesondere auf Plastikverpackungen, die den größten Anteil der derzeitigen Plastikproduktion ausmachen. Eine Barriere, die das Aufnehmen von neuen Verhaltensweisen erschwert, stellen die eigenen Gewohnheiten dar. Phasen von Umbrüchen, wie der Umzug in eine neue Stadt, gelten als vielversprechend zur Veränderung von Gewohnheiten. Die Dissertation untersucht daher, ob solche Phasen des Wandels ein Gelegenheitsfenster öffnen können, um alte Gewohnheiten zu durchbrechen und Verhaltensänderungen anzustoßen. Vier Manuskripte nähern sich diesem Thema von einem zunächst breiten Fokus einer Literaturstudie bis hin zu fokussierten Interventionsstudien an. Das Literaturreview (Manuskript 1) fasst 187 Studien zum Umgang mit Plastik aus sozialwissenschaftlicher Perspektive zusammen. Darauf aufbauend, untersucht eine Online-Studie (N = 648) plastikfreie Verhaltensintentionen (Manuskript 2). In einem Strukturgleichungsmodell werden Prädiktoren für Verhaltensintentionen im privaten sowie politischen Bereich analysiert. Zwei Experimentalstudien im Pre-Post-Design schließen an das Verhalten im Privaten an (Manuskript 3 + 4). Es wird untersucht, ob eine Intervention, die während der Fastenzeit (N =140) oder während eines Aktionsmonats (N = 366) präsentiert wird, ein Gelegenheitsfenster zur Konsumreduktion von Plastikverpackungen darstellen kann. Die Ergebnisse der empirischen Arbeiten weisen Moral- und Kontrollüberzeugungen als stärkste Prädiktoren für Verhaltensreduktionen aus. Der Zeitpunkt einer Intervention beeinflusst zudem die Wahrscheinlichkeit ein neues Verhalten auszuprobieren. Die Studien zeigen erste Belege, dass Gelegenheitsfenster umweltfreundliche Verhaltensänderungen im Kontext des Plastikkonsums erleichtern können. Theoretische und praktische Implikationen, wie Gelegenheitsfenstern zu einer sozial-ökologischen Transformation beigetragen können, werden diskutiert.
Scientific and public interest in epidemiology and mathematical modelling of disease spread has increased significantly due to the current COVID-19 pandemic. Political action is influenced by forecasts and evaluations of such models and the whole society is affected by the corresponding countermeasures for containment. But how are these models structured?
Which methods can be used to apply them to the respective regions, based on real data sets? These questions are certainly not new. Mathematical modelling in epidemiology using differential equations has been researched for quite some time now and can be carried out mainly by means of numerical computer simulations. These models are constantly being refinded and adapted to corresponding diseases. However, it should be noted that the more complex a model is, the more unknown parameters are included. A meaningful data adaptation thus becomes very diffcult. The goal of this thesis is to design applicable models using the examples of COVID-19 and dengue, to adapt them adequately to real data sets and thus to perform numerical simulations. For this purpose, first the mathematical foundations are presented and a theoretical outline of ordinary differential equations and optimization is provided. The parameter estimations shall be performed by means of adjoint functions. This procedure represents a combination of static and dynamical optimization. The objective function corresponds to a least squares method with L2 norm which depends on the searched parameters. This objective function is coupled to constraints in the form of ordinary differential equations and numerically minimized, using Pontryagin's maximum (minimum) principle and optimal control theory. In the case of dengue, due to the transmission path via mosquitoes, a model reduction of an SIRUV model to an SIR model with time-dependent transmission rate is performed by means of time-scale separation. The SIRUV model includes uninfected (U) and infected (V ) mosquito compartments in addition to the susceptible (S), infected (I) and recovered (R) human compartments, known from the SIR model. The unknwon parameters of the reduced SIR model are estimated using data sets from Colombo (Sri Lanka) and Jakarta (Indonesia). Based on this parameter estimation the predictive power of the model is checked and evaluated. In the case of Jakarta, the model is additionally provided with a mobility component between the individual city districts, based on commuter data. The transmission rates of the SIR models are also dependent on meteorological data as correlations between these and dengue outbreaks have been demonstrated in previous data analyses. For the modelling of COVID-19 we use several SEIRD models which in comparison to the SIR model also take into account the latency period and the number of deaths via exposed (E) and deaths (D) compartments. Based on these models a parameter estimation with adjoint functions is performed for the location Germany. This is possible because since the beginning of the pandemic, the cumulative number of infected persons and deaths
are published daily by Johns Hopkins University and the Robert-Koch-Institute. Here, a SEIRD model with a time delay regarding the deaths proves to be particularly suitable. In the next step, this model is used to compare the parameter estimation via adjoint functions with a Metropolis algorithm. Analytical effort, accuracy and calculation speed are taken into account. In all data fittings, one parameter each is determined to assess the estimated number of unreported cases.
Softwaresprachen und Technologien zu verstehen, die bei der Entwicklung einer Software verwendet werden, ist eine alltägliche Herausforderung für Software Engineers. Textbasierte Dokumentationen und Codebeispiele sind typische Hilfsmittel, die zu einem besseren Verständnis führen sollen. In dieser Dissertation werden verschiedene Forschungsansätze beschrieben, wie existierende Textpassagen und Codebeispiele identifiziert und miteinander verbunden werden können. Die Entdeckung solcher bereits existierender Ressourcen soll dabei helfen Softwaresprachen und Technologien auf einem konzeptionellen Level zu verstehen und zu vergleichen. Die Forschungsbeiträge fokussieren sich auf die folgenden Fragen, die später präzisiert werden. Welche existierenden Ressourcen lassen sich systematisch identifizieren, um strukturiertes Wissen zu extrahieren? Wie lassen sich die Ressourcen extrahieren? Welches Vokabular wird bereits in der Literatur verwendet, um konzeptionelles Wissen zur Struktur und Verwendung einer Software auszudrücken? Wie lassen sich Beiträge auf Wikipedia wiederverwenden? Wie können Codebeispiele zur Verwendung von ausgewählten Technologien auf GitHub gefunden werden? Wie kann ein Modell, welches Technologieverwendung repräsentiert, reproduzierbar konstruiert werden? Zur Beantwortung der Forschungsfragen werden qualitative Forschungsmethoden verwendet, wie zum Beispiel Literaturstudien. Des Weiteren werden Methoden entwickelt und
evaluiert, um relevante Artikel auf Wikipedia, relevante Textpassagen in der Literatur und Codebeispiele auf GitHub zu verlinken. Die theoretischen Beiträge werden in Fallstudien evaluiert. Die folgenden wissenschaftlichen Beiträge werden dabei erzielt: i.) Eine Referenzsemantik zur Formalisierung von Typen und Relationen in einer sprachfokussierten Beschreibung von Software; ii.) Ein Korpus bestehend aus Wikipedia Artikeln zu einzelnen Softwaresprachen; iii) Ein Katalog mit textuell beschriebenen Verwendungsmustern einer Technologie zusammen mit Messergebnissen zu deren Frequenz auf GitHub; iv.) Technologiemodelle, welche sowohl mit verschiedenen existierenden Codebeispielen als auch mit Textpassagen verknüpft sind.
The formulation of the decoding problem for linear block codes as an integer program (IP) with a rather tight linear programming (LP) relaxation has made a central part of channel coding accessible for the theory and methods of mathematical optimization, especially integer programming, polyhedral combinatorics and also algorithmic graph theory, since the important class of turbo codes exhibits an inherent graphical structure. We present several novel models, algorithms and theoretical results for error-correction decoding based on mathematical optimization. Our contribution includes a partly combinatorial LP decoder for turbo codes, a fast branch-and-cut algorithm for maximum-likelihood (ML) decoding of arbitrary binary linear codes, a theoretical analysis of the LP decoder's performance for 3-dimensional turbo codes, compact IP models for various heuristic algorithms as well as ML decoding in combination with higher-order modulation, and, finally, first steps towards an implementation of the LP decoder in specialized hardware. The scientific contributions are presented in the form of seven revised reprints of papers that appeared in peer-reviewed international journals or conference proceedings. They are accompanied by an extensive introductory part that reviews the basics of mathematical optimization, coding theory, and the previous results on LP decoding that we rely on afterwards.
We consider variational discretization of three different optimal control problems.
The first being a parabolic optimal control problem governed by space-time measure controls. This problem has a nice sparsity structure, which motivates our aim to achieve maximal sparsity on the discrete level. Due to the measures on the right hand side of the partial differential equation, we consider a very weak solution theory for the state equation and need an embedding into the continuous functions for the pairings to make sense. Furthermore, we employ Fenchel duality to formulate the predual problem and give results on solution theory of both the predual and the primal problem. Later on, the duality is also helpful for the derivation of algorithms, since the predual problem can be differentiated twice so that we can apply a semismooth Newton method. We then retrieve the optimal control by duality relations.
For the state discretization we use a Petrov-Galerkin method employing piecewise constant states and piecewise linear and continuous test functions in time. For the space discretization we choose piecewise linear and continuous functions. As a result the controls are composed of Dirac measures in space-time, centered at points on the discrete space-time grid. We prove that the optimal discrete states and controls converge strongly in L^q and weakly-* in Μ, respectively, to their smooth counterparts, where q ϵ (1,min{2,1+2/d}] is the spatial dimension. The variational discrete version of the state equation with the above choice of spaces yields a Crank-Nicolson time stepping scheme with half a Rannacher smoothing step.
Furthermore, we compare our approach to a full discretization of the corresponding control problem, precisely a discontinuous Galerkin method for the state discretization, where the discrete controls are piecewise constant in time and Dirac measures in space. Numerical experiments highlight the sparsity features of our discrete approach and verify the convergence results.
The second problem we analyze is a parabolic optimal control problem governed by bounded initial measure controls. Here, the cost functional consists of a tracking term corresponding to the observation of the state at final time. Instead of a regularization term for the control in the cost functional, we consider a bound on the measure norm of the initial control. As in the first problem we observe a sparsity structure, but here the control resides only in space at initial time, so we focus on the space discretization to achieve maximal sparsity of the control. Again, due to the initial measure in the partial differential equation, we rely on a very weak solution theory of the state equation.
We employ a dG(0) approximation of the state equation, i.e. we choose piecewise linear and continuous functions in space, which are piecewise constant in time for our ansatz and test space. Then, the variational discretization of the problem together with the optimality conditions induce maximal discrete sparsity of the initial control, i.e. Dirac measures in space. We present numerical experiments to illustrate our approach and investigate the sparsity structure
As third problem we choose an elliptic optimal control governed by functions of bounded variation (BV) in one space dimension. The cost functional consists of a tracking term for the state and a BV-seminorm in terms of the derivative of the control. We derive a sparsity structure for the derivative of the BV control. Additionally, we utilize the mixed formulation for the state equation.
A variational discretization approach with piecewise constant discretization of the state and piecewise linear and continuous discretization of the adjoint state yields that the derivative of the control is a sum of Dirac measures. Consequently the control is a piecewise constant function. Under a structural assumption we even get that the number of jumps of the control is finite. We prove error estimates for the variational discretization approach in combination with the mixed formulation of the state equation and confirm our findings in numerical experiments that display the convergence rate.
In summary we confirm the use of variational discretization for optimal control problems with measures that inherit a sparsity. We are able to preserve the sparsity on the discrete level without discretizing the control variable.
In vielen Teilen der Welt, vor allem in Subsahara-Afrika, ist Wasserknappheit bereits ein allgegenwärtiges Problem. Doch die Trockenjahre 2018 und 2019 zeigten, dass auch in Deutschland die Wasserressourcen endlich sind. Projektionen und Vorhersagen für die nächsten Jahrzehnte weisen zudem darauf hin, dass durch den steigenden Einfluss des Klimawandels die Erneuerungsraten der bestehenden Wasserressourcen zurückgehen, die Entnahmemengen aber aufgrund von Populationswachstum steigen werden. Es ist demnach an der Zeit, alternative und nachhaltige Methoden zu finden, die derzeit vorhandenen Wasserressourcen optimal zu nutzen. Daher rückte in den vergangenen Jahren die Wiederverwendung von geklärtem Abwasser zur Bewässerung landwirtschaftlicher Flächen und/oder der Grundwasseranreicherung in den Fokus der Wissenschaft. Dabei ist aber zu berücksichtigen, dass in geklärtem Abwasser sogenannte Spurenstoffe zu finden sind, d.h. Substanzen, die durch anthropogenen Einfluss in den Wasserkreislauf gelangen. Dabei handelt es sich z.B. um Pharmazeutika, Pestizide und Industriechemikalien, aber auch um Metabolite, die im menschlichen Körper gebildet werden und in das Abwasser gelangen. Durch die Wasseraufbereitungsschritte in den Kläranlagen als auch durch biologische, chemische und physikalische Prozesse in der Bodenpassage bei der Wiederverwendung des geklärten Abwassers werden diese Spurenstoffe zu anderen Substanzen, den Transformationsprodukten (TPs), umgewandelt, die das Spektrum der Spurenstffe zusätzlich erweitern.
Trotz der Tatsache, dass das Vorhandensein von Human-Metaboliten und TPs in ungeklärtem und geklärten Abwasser seit langem bekannt ist, werden sie in gängigen Routine-Messmethoden nur selten berücksichtigt. Daher war es ein erstes Ziel dieser Dissertation eine Analyse-Methode zu erstellen, basierend auf Flüssigchromatographie-Tandem Massenspektrometrie (LC-MS/MS), die ein möglichst breites Spektrum an Spurenstoffen inklusive bekannter Metabolite und TPs enthält. Die entwickelte Multi-Analyt-Methode umfasst insgesamt 80 Ausgangssubstanzen und 74 Metabolite und TPs verschiedener Substanzklassen und ist für die Anwendung in verschiedenen Wassermatrices (Zu- und Ablauf von Kläranlagen, Oberflächenwasser und Grundwasser aus einer Uferfiltrationsanlage) validiert. Dabei wurde auch der Einfluss der MS-Parameter auf die Qualität der Analysedaten untersucht. Trotz der hohen Anzahl an Substanzen konnte eine ausreichende Anzahl an Datenpunkten je Peak generiert werden, wodurch eine hohe Empfindlichkeit und Präzision sowie eine gute Wiederfindung für alle Matrices erreicht wurden. Die Auswahl der Analyten erwies sich als relevant für die Untersuchung von Umweltmatrices, da 95% der Substanzliste in mindestens einer Probe nachgewiesen wurden. Mehrere Spurenstoffe, die bisher nicht im Fokus der gegenwärtigen Multi-Analyt-Methoden standen, wurden bei erhöhten Konzentrationen im Wasserkreislauf quantifiziert (z.B. Oxypurinol). Die Relevanz der Untersuchung von Metaboliten und TPs zeigte sich durch den Nachweis von z.B. Clopidogrel-Säure und Valsartansäure mit deutlich höheren Konzentrationen als ihre Ausgangssubstanzen. Valsartansäure konnte zudem sogar im Uferfiltrat detektiert werden.
Durch die Einbindung der Metabolite, die durch biologische Prozesse im Körper entstehen, und den biologischen und chemischen TPs, eignet sich die Multi-Analyt-Methode auch zur Aufklärung von Abbaumechanismen in natürlichen Behandlungssystemen zur Wasserwiederverwendung, wozu es in der Literatur bisher nur wenige Angaben gibt. Im Rahmen der Dissertation wurden Proben aus zwei Systemen analysiert, einem im Pilotmaßstab entwickelten oberirdischen sequenziellen Biofiltrationssystem (SBF) und einem großmaßstäblichen Bodenpassagen-System (SAT). Im SBF-System konnten hauptsächlich biologische Abbaumechanismen beobachtet werden, was durch die Entstehung biologischer TPs deutlich gezeigt wurde. Die Effizienz des Abbaus wurde dabei durch eine Zwischenbelüftung erhöht, die oxische Bedingungen hervorrief. Im SAT-System kam es zu einer Kombination von Bioabbau- und Sorptionsprozessen. Es wurde beobachtet, dass bei einigen biologisch abbaubaren Spurenstoffen ein geringerer Abbau erreicht wurde als im SBF-System, was auf unterschiedliche Redox-Bedingungen und eine andere mikrobielle Gemeinschaft zurückzuführen war. Als Vorteil des SAT-Systems gegenüber des SBF erwies sich die Sorptionsfähigkeit des natürlichen Bodens. Vor allem positiv geladene Spurenstoffe zeigten eine Entfernung aufgrund von ionischen Wechselwirkungen mit negativ geladenen Bodenpartikeln. Auf der Grundlage ihrer physikalisch-chemischen Eigenschaften bei Umgebungs-pH, ihres Entfernungsgrades in den untersuchten Systemen und ihres Vorkommens im einfließenden Wasser konnte eine Auswahl von prozessbasierten Indikatorsubstanzen vorgeschlagen werden.
In den vorherigen Arbeiten wurde in Kläranlagenabläufen häufig ein Spurenstoff in erhöhten Konzentrationen nachgewiesen, der bisher wenig im Fokus der Umweltforschung stand: das Antidiabetikum Sitagliptin (STG). STG zeigt nur eine geringe Abbaubarkeit in biologischen Systemen. Daher wurde untersucht, inwieweit eine chemische Aufbereitung mittels Ozonung einen Abbau gewährleisten kann. STG weist in seiner Struktur ein aliphatisches primäres Amin als entscheidende Angriffsstelle für das Ozonmolekül auf. In der Literatur finden sich kaum Informationen zum Verhalten dieser funktionellen Gruppe während der Ozonung. Die in dieser Dissertation erzielten Ergebnisse können daher exemplarisch für andere Spurenstoffe mit Amingruppen herangezogen werden. Es zeigte sich eine pH-abhängige Abbaukinetik aufgrund der Protonierung des primären Amins bei niedrigen pH-Werten. Bei für die Umwelt und Kläranlagen typischen pH-Werten im Bereich 6 – 8 wies STG Abbaukinetiken mittels Ozon im Bereich 103 M-1s-1 auf, mit einem vollständigen Abbau kann allerdings erst bei deutlich höheren pH-Werten > 9 gerechnet werden. Die Transformation des primären Amins zu einer Nitro-Gruppe wurde als Hauptabbaumechanismus in der Ozonung identifiziert. Ebenfalls wurde die Entstehung weiterer TPs wie z.B. eines Diketons und Trifluoressigsäure (TFA) beobachtet. Untersuchungen an einer Pilotanlage, bei der die Ozonung unter realen Bedingungen mit dem Ablauf einer konventionellen Kläranlage durchgeführt wurde, bestätigte die Ergebnisse der Laboruntersuchungen: STG wurde auch bei einer hohen Ozondosis nicht vollständig entfernt und die Nitro-Verbindung erwies sich als Haupt-TP, das weder bei weiterer Ozonung noch in einer nachgeschalteten biologischen Behandlung abgebaut wurde. Es ist daher davon auszugehen, dass unter realen Bedingungen sowohl eine Restkonzentration an STG als auch das Haupt-TP sowie weitere TPs wie TFA im Ablauf einer Kläranlage bestehend aus konventioneller biologischer Aufreinigung, Ozonung und nachgeschalteter biologischer Aufreinigung auffindbar sind.
Da die Belastung von Gewässern mit Mikroorganismen ein Gesundheitsrisiko für den Menschen unter anderem bei dessenFreizeitnutzung birgt, wurde die mikrobielle Belastung der Flüsse Rhein, Mosel und Lahn anhand von Indikatoren für fäkalbürtige bakterielle (Escherichia coli, intestinale Enterkokken) und virale Belastungen (somatische Coliphagen) untersucht. Des Weiteren wurden blaCTX-MGene als Marker für die Verbreitung von Antibiotikaresistenzen in der Lahn quantifiziert. Durch vergleichende Analysen von Monitoringdaten gegensätzlicher Abflussgeschehen in Rhein und Mosel wurde ein Einfluss von Veränderungen klimarelevanter Parameter auf die Verbreitung der fäkalen Indikatororganismen (FIO) geprüft. Die Analysen an Rhein, Mosel und Lahn zeigen deutlich, dass hohe Abflüsse und Niederschläge den Eintrag von FIO und Antibiotikaresistenzgenen (ARG) und damit potentiell antibiotikaresistenter Bakterien in Gewässer begünstigten, während unter dem Einfluss hoher Globalstrahlung und steigenden Wassertemperaturen ein Rückgang zu beobachtenwar. Basierend auf als relevant identifizierten Einflussparametern wurden multiple lineare Regressionsmodelle (MLR Modelle) entwickelt, die eine zeitnahe Vorhersage von FIO Konzentrationen an fünf Stellen eines Lahnabschnitts ermöglichen. Wechselwirkungenzwischen abiotischen und biotischen (Fraßdruck) Faktoren tragen zur Entstehung saisonaler Muster in den FIO Konzentrationenbei. Diese sind unter Niedrigwasserverhältnissen und besonders in Flüssen mit ausgeprägten trophischen Interaktionen besonders deutlich ausgeprägt und beeinflussen eine Übertragbarkeit von Modellansätzen zwischen Flüssen unterschiedlicher biologischer und hydrologischer Charakteristika. Daraus, dass Bakterien davon stärker betroffen sind als Coliphagen, lässt sich schließen, dass bakterielle Indikatoren virale Belastungen nicht ausreichend abbilden. BlaCTX-MGene waren in der Lahn parallel zu den FIO ubiquitär nachzuweisen, was auf einen fäkalen Ursprung hinweist. Landwirtschaft und kommunale Kläranlageneinleiter trugen zur Belastung mit FIO bei. Es zeigte sich, dass auch nicht badende Wassersportler mit eingeschränktem Wasserkontakt nachweislich dem Risiko ausgesetzt waren, antibiotikaresistente Bakterien (ARB) samt ihren Genen zu verschlucken, was das Risiko einer Infektion oder Kolonisierung mit den entsprechenden Bakterien birgt. Da ARG zu großen Teilen durch E. colierklärt werden konnten, könnenARG gegebenenfalls in MLR Modellemit E. colispezifischen Vorhersagevariablenintegriert werden. Kurzeitige und kurzfristig auftretende Verschmutzungsereignisse werden in Zukunft als eine Folge des Klimawandels in ihrer Häufigkeit weiter zunehmen. Identifizierte Herausforderungen hinsichtlich der Implementierung von Frühwarnsystemen zur Bewertung der mikrobiellen Wasserqualität in Flüssen liegen in den Anforderungen der Badegewässerrichtlinie (Richtlinie 2006/7/EC) und in einer unzureichenden Harmonisierung des Rechtsrahmens der Europäischen Union (EU) begründet, um Gesundheitsrisiken aufgrund mikrobieller Belastung in multifunktional genutzten Gewässern angemessen zu begegnen.
In this thesis we examined the question whether personality traits of early child care workers influence process quality in preschool.
Research has shown that in educational settings such as preschool, pedagogical quality affects children’s developmental outcome (e.g. NICHD, 2002; Peisner-Feinberg et al., 1999). A substantial part of pedagogical quality known to be vital in this respect is the interaction between teacher and children (e.g., Tietze, 2008). Results of prior classroom research indicate that the teachers’ personality might be an important factor for good teacher-child-interaction (Mayr, 2011). Thus, personality traits might play a vital role for the interaction in preschool. Therefore, the aims of this thesis were to a) identify pivotal personality traits of child care workers, b) assess ideal levels of the identified personality traits and c) examine the relationship between pivotal personality traits and process quality. On that account, we conducted two requirement analyses and a video study. The results of these studies showed that subject matter experts (parents, child care workers, lecturers) partly agreed as to which personality traits are pivotal for child care workers. Furthermore, the experts showed high consensus with regard to the minimum, ideal and maximum personality trait profiles. Furthermore, child care workers whose profiles lay closer to the experts’ ideal also showed higher process quality. In addition, regression analyses showed that the child care workers’ levels of the Big Two (Communion and Agency) related significantly to their process quality.
For a comprehensive understanding of evolutionary processes and for providing reliable prognoses about the future consequences of environmental change, it is essential to reveal the genetic basis underlying adaptive responses. The importance of this goal increases in light of ongoing climate change, which confronts organisms worldwide with new selection pressures and requires rapid evolutionary change to avoid local extinction. Thereby, freshwater ectotherms like daphnids are particularly threatened. Unraveling the genetic basis of local adaptation is complicated by the interplay of forces affecting patterns of genetic divergence among populations. Due to their key position in freshwater communities, cyclic parthenogenetic mode of reproduction and resting propagules (which form biological archives), daphnids are particularly suited for this purpose.
The aim of this thesis was to assess the impact of local thermal selection on the Daphnia longispina complex and to reveal the underlying genetic loci. Therefore, I compared genetic differentiation among populations containing Daphnia galeata, Daphnia longispina and their interspecific hybrids across time, space, and species boundaries. I revealed strongly contrasting patterns of genetic differentiation between selectively neutral and functional candidate gene markers, between the two species, and among samples from different lakes, suggesting (together with a correlation with habitat temperatures) local thermal selection acting on candidate gene TRY5F and indicating adaptive introgression. To reveal the candidate genes’ impact on fitness, I performed association analyses among data on genotypes and phenotypic traits of D. galeata clones from seven populations. The tests revealed a general temperature effect as well as inter-population differences in phenotypic traits and imply a possible contribution of the candidate genes to life-history traits. Finally, utilizing a combined population transcriptomic and reverse ecology approach, I introduced a methodology with a wide range of applications in evolutionary biology and revealed that local thermal selection was probably a minor force in shaping sequence and gene expression divergence among four D. galeata populations, but contributed to sequence divergence among two populations. I identified many transcripts possibly under selection or contributing strongly to population divergence, a large amount thereof putatively under local thermal selection, and showed that genetic and gene expression variation is not depleted specifically in temperature-related candidate genes.
In conclusion, I detected signs of local adaptation in the D. longispina complex across space, time, and species barriers. Populations and species remained genetically divergent, although increased gene flow possibly contributed, together with genotypes recruited from the resting egg bank, to the maintenance of standing genetic variation. Further work is required to accurately determine the influence of introgression and the effects of candidate genes on individual fitness. While I found no evidence suggesting a response to intense local thermal selection, the high resilience and adaptive potential regarding environmental change I observed suggest positive future prospects for the populations of the D. longispina complex. However, overall, due to the continuing environmental degradation, daphnids and other aquatic invertebrates remain vulnerable and threatened.
The largest population of the anadromous Allis shad (A. alosa) of the 19th century was found in River Rhine and has to be considered extinct today. To facilitate the return of A. alosa into River Rhine an EU LIFE-project was initiated in 2007. The overall objective of this thesis was to assist aquaculture and stocking-measures at River Rhine, as well as to support restoration and conservation of populations of Allis shad in Europe.
By culturing the free-swimming nematode T. aceti in a solution of cider vinegar we developed a cost-effective live food organism for the larviculture of fish. As indicated by experiments with C. maraena, T. aceti cannot be regarded as an alternative to Artemia nauplii. However it has to be considered a suitable supplemental feed in the early rearing of C. maraena by providing essential fatty acids, thereby optimizing growth.
Also mass-marking practices with Oxytetracycline, as they are applied in the restocking of Allis shad have been evaluated. In experiments with D. rerio we demonstrated that water hardness can detrimentally affect mortality during marking and has to be considered crucial in the development of marking protocols for freshwater fish.
In order to get independent from wild spawners an ex-situ Broodstock-facility for Allis shad was established in 2011. Upon examination of two complete year classes of this broodstock, we found a high prevalence of various malformations, which could be traced back to distinct cysts developing one month post hatch. Despite applying a variety of clinical tests we could not identify any infectious agents causing these malformations. The observed malformations are probably a consequence of suboptimal feeding practices or the properties of the physio-chemical rearing environment.
The decline of stocks of A. alosa in Europe has been largely explained with the increase of river temperatures as a consequence of global warming. By investigating the temperature physiology of larval Allis shad we demonstrated that A. alosa ranges among the most thermo-tolerant species in Europe and that correlations between rising temperatures and the disappearance of this species have to be understood in a synecological context and by integrating a variety of stressors other than temperature. By capturing and examining juvenile and adult Allis shad from River Rhine, we demonstrated the first natural reproduction of A. alosa in River Rhine since nearly 100 years and the success of stocking measures within the framework of the LIFE project.
Empirische Studien in der Softwaretechnik verwenden Software Repositories als Datenquellen, um die Softwareentwicklung zu verstehen. Repository-Daten werden entweder verwendet, um Fragen zu beantworten, die die Entscheidungsfindung in der Softwareentwicklung leiten, oder um Werkzeuge bereitzustellen, die bei praktischen Aspekten der Entwicklung helfen. Studien werden in die Bereiche Empirical Software Engineering (ESE) und Mining Software Repositories (MSR) eingeordnet. Häufig konzentrieren sich Studien, die mit Repository-Daten arbeiten, auf deren Ergebnisse. Ergebnisse sind aus den Daten abgeleitete Aussagen oder Werkzeuge, die bei der Softwareentwicklung helfen. Diese Dissertation konzentriert sich hingegen auf die Methoden und High-Order-Methoden, die verwendet werden, um solche Ergebnisse zu erzielen. Insbesondere konzentrieren wir uns auf inkrementelle Methoden, um die Verarbeitung von Repositories zu skalieren, auf deklarative Methoden, um eine heterogene Analyse durchzuführen, und auf High-Order-Methoden, die verwendet werden, um Bedrohungen für Methoden, die auf Repositories arbeiten, zu operationalisieren. Wir fassen dies als technische und methodische Verbesserungen zusammen um zukünftige empirische Ergebnisse effektiver zu produzieren. Wir tragen die folgenden Verbesserungen bei. Wir schlagen eine Methode vor, um die Skalierbarkeit von Funktionen, welche über Repositories mit hoher Revisionszahl abstrahieren, auf theoretisch fundierte Weise zu verbessern. Wir nutzen Erkenntnisse aus abstrakter Algebra und Programminkrementalisierung, um eine Kernschnittstelle von Funktionen höherer Ordnung zu definieren, die skalierbare statische Abstraktionen eines Repositorys mit vielen Revisionen berechnen. Wir bewerten die Skalierbarkeit unserer Methode durch Benchmarks, indem wir einen Prototyp mit MSR/ESE Wettbewerbern vergleichen. Wir schlagen eine Methode vor, um die Definition von Funktionen zu verbessern, die über ein Repository mit einem heterogenen Technologie-Stack abstrahieren, indem Konzepte aus der deklarativen Logikprogrammierung verwendet werden, und mit Ideen zur Megamodellierung und linguistischen Architektur kombiniert werden. Wir reproduzieren bestehende Ideen zur deklarativen Logikprogrammierung mit Datalog-nahen Sprachen, die aus der Architekturwiederherstellung, der Quellcodeabfrage und der statischen Programmanalyse stammen, und übertragen diese aus der Analyse eines homogenen auf einen heterogenen Technologie-Stack. Wir liefern einen Proof-of-Concept einer solchen Methode in einer Fallstudie. Wir schlagen eine High-Order-Methode vor, um die Disambiguierung von Bedrohungen für MSR/ESE Methoden zu verbessern. Wir konzentrieren uns auf eine bessere Disambiguierung von Bedrohungen durch Simulationen, indem wir die Argumentation über Bedrohungen operationalisieren und die Auswirkungen auf eine gültige Datenanalysemethodik explizit machen. Wir ermutigen Forschende, „gefälschte“ Simulationen ihrer MSR/ESE-Szenarien zu erstellen, um relevante Erkenntnisse über alternative plausible Ergebnisse, negative Ergebnisse, potenzielle Bedrohungen und die verwendeten Datenanalysemethoden zu operationalisieren. Wir beweisen, dass eine solche Art des simulationsbasierten Testens zur Disambiguierung von Bedrohungen in der veröffentlichten MSR/ESE-Forschung beiträgt.
Terrainklassifikation mit Markov Zufallsfeldern für autonome Roboter in unstrukturiertem Terrain
(2015)
Diese Doktorarbeit beschäftigt sich mit dem Problem der Terrainklassifikation im unstrukturierten Außengelände. Die Terrainklassifikation umfasst dabei das Erkennen von Hindernissen und flachen Bereichen mit der einhergehenden Analyse der Bodenoberfläche. Ein 3D Laser-Entfernungsmesser wurde als primärer Sensor verwendet, um das Umfeld des Roboters zu vermessen. Zunächst wird eine Gitterstruktur zur Reduktion der Daten eingeführt. Diese Datenrepräsentation ermöglicht die Integration mehrerer Sensoren, z.B. Kameras für Farb- und Texturinformationen oder weitere Laser-Entfernungsmesser, um die Datendichte zu erhöhen. Anschließend werden für alle Terrainzellen des Gitters Merkmale berechnet. Die Klassifikation erfolgt mithilfe eines Markov Zufallsfeldes für Kontextsensitivität um Sensorrauschen und variierender Datendichte entgegenzuwirken. Ein Gibbs-Sampling Ansatz wird zur Optimierung eingesetzt und auf der CPU sowie der auf GPU parallelisiert um Ergebnisse in Echtzeit zu berechnen. Weiterhin werden dynamische Hindernisse unter Verwendung verschiedener State-of-the-Art Techniken erkannt und über die Zeit verfolgt. Die berechneten Informationen, wohin sich andere Verkehrsteilnehmer bewegen und in Zukunft hinbewegen könnten, werden verwendet, um Rückschlüsse auf Bodenoberflächen zu ziehen die teilweise oder vollständig unsichtbar für die Sensoren sind. Die Algorithmen wurden auf unterschiedlichen autonomen Roboter-Plattformen getestet und eine Evaluation gegen von Menschen annotierte Grundwahrheiten von Karten aus mehreren Millionen Messungen wird präsentiert. Der in dieser Arbeit entwickelte Ansatz zur Terrainklassifikation hat sich in allen Anwendungsbereichen bewährt und neue Erkenntnisse geliefert. Kombiniert mit einem Pfadplanungsalgorithmus ermöglicht die Terrainklassifikation die vollständige Autonomie für radgetriebene Roboter in natürlichem Außengelände.
Manmade dams have been constructed from centuries for multiple purposes, and in the past decades they have been constructed in a fast pace, with the hotspot in tropical and subtropical regions. However, studies that explore hydrodynamics in these areas are scarce and biased to the rich literature available for temperate regions. Lakes and reservoirs have the same controlling mechanisms for physical processes and primary production, hence, analyses that were initially conceptualized for lakes are frequently applied for reservoirs. Nevertheless, longitudinal gradients in reservoirs challenges the application of these approaches.
Degradation of water quality in reservoirs is a major concern, and it is expected to be aggravated with climate change. Therefore, studies that explore mechanisms controlling water quality are essential for the maintenance of these systems, especially in tropical and subtropical regions. The aim of this thesis is to comprehend the role of hydrodynamic processes in the fate of nutrients in reservoirs and its implications on water quality, in a subtropical region. With focus on the relevance of different density current patterns. For that, analyses combining field measurements and numerical simulations were performed in a medium to small size subtropical drinking water reservoir for a complete seasonal cycle. Measurements were conducted combining several approaches: traditional sampling, sensors in high temporal and spatial resolution, and remote sensing. Besides, hydrodynamic models were set up and calibrated to reproduce observations, and to simulate scenarios that assisted on the analysis.
Results showed that different flow paths of density currents did not influence on phytoplankton dynamics. At the regions where the main nutrient supply was the river inflow (upstream), the density currents did not vary, the euphotic zone usually covered the entire depth, and vertical mixing was observed on a daily basis, turning the flow path of the density currents irrelevant. At downstream regions, the remobilization of nutrients in the sediment was the main source for primary production. Even though density currents had a seasonal pattern in the downstream region, thermal stratification conditions were the driver for variations in chlorophyll-a concentrations, with peaks after vertical mixing. This mechanism had in its favor the frequent anoxic conditions in the hypolimnion that enhanced the dissolution of reactive phosphorus from the sediment. Anoxic conditions were easily reached because the sediment in the downstream area was rich in organic matter. Phytoplankton produced in the upstream area was transported by the density currents, and for this reason, large concentrations of chl-a was observed below the euphotic zone. Further, the extensive measurements of temperature, and flow velocities, together with the hydrodynamic models, provided insights about the hydrodynamics of reservoirs. For instance, that the relevant processes occurred along the longitudinal, and mixing conditions varied along it. The relevance of inflow conditions regarding the presence of structures such as forebays and pre-dams, and the degree of stream shading in the catchment was assessed. And turbulence and internal waves had different features than the documented for high latitudes. Those findings can assist on the management of reservoirs, based on the comprehension of the physical processes.
Die Aufmerksamkeit politischer Entscheidungsträger weltweit richtet sich in den letzten 10 Jahren verstärkt auf die Kreativwirtschaft als signifikanter Wachstums- und Beschäftigungsmotor in Städten. Die Literatur zeigt jedoch, dass Kreativschaffende zu den gefährdetsten Arbeitskräften in der heutigen Wirtschaft gehören. Aufgrund des enorm deregulierten und stark individualisierten Umfelds werden Misserfolg oder Erfolg eher individuellen Fähigkeiten und Engagement zugeschrieben und strukturelle oder kollektive Aspekte vernachlässigt. Diese Arbeit widmet sich zeitlichen, räumlichen und sozialen Aspekten digitaler behavioraler Daten, um zu zeigen, dass es tatsächlich strukturelle und historische Faktoren gibt, die sich auf die Karrieren von Individuen und Gruppen auswirken. Zu diesem Zweck bietet die Arbeit einen computergestützten, sozialwissenschaftlichen Forschungsrahmen, der das theoretische und empirisches Wissen aus jahrelanger Forschung zu Ungleichheit mit computergestützten Methoden zum Umgang mit komplexen und umfangreichen digitalen Daten verbindet. Die Arbeit beginnt mit der Darlegung einer neuartigen Methode zur Geschlechtererkennung, welche sich Image Search und Gesichtserkennungsmethoden bedient. Die Analyse der kollaborativen Verhaltensweisen sowie der Zitationsnetzwerke männlicher und weiblicher Computerwissenschaftler*innen verdeutlicht einige der historischen Bias und Nachteile, welchen Frauen in ihren wissenschaftlichen Karrieren begegnen. Zur weiterfuhrenden Elaboration der zeitlichen Aspekte von Ungleichheit, wird der Anteil vertikaler und horizontaler Ungleichheit in unterschiedlichen Kohorten von Wissenschaftler*innen untersucht, die ihre Karriere zu unterschiedlichen Zeitpunkten begonnen haben. Im Weiteren werden einige der zugrunde liegenden Mechanismen und Prozesse von Ungleichheit in kreativen Berufen analysiert, wie der Matthew-Effekt und das Hipster-Paradoxon. Schließlich zeigt diese Arbeit auf, dass Online-Plattformen wie Wikipedia bestehenden Bias reflektieren sowie verstärken können.
The distributed setting of RDF stores in the cloud poses many challenges. One such challenge is how the data placement on the compute nodes can be optimized to improve the query performance. To address this challenge, several evaluations in the literature have investigated the effects of existing data placement strategies on the query performance. A common drawback in theses evaluations is that it is unclear whether the observed behaviors were caused by the data placement strategies (if different RDF stores were evaluated as a whole) or reflect the behavior in distributed RDF stores (if cloud processing frameworks like Hadoop MapReduce are used for the evaluation). To overcome these limitations, this thesis develops a novel benchmarking methodology for data placement strategies that uses a data-placement-strategy-independent distributed RDF store to analyze the effect of the data placement strategies on query performance.
With this evaluation methodology the frequently used data placement strategies have been evaluated. This evaluation challenged the commonly held belief that data placement strategies that emphasize local computation, such as minimal edge-cut cover, lead to faster query executions. The results indicate that queries with a high workload may be executed faster on hash-based data placement strategies than on, e.g., minimal edge-cut covers. The analysis of the additional measurements indicates that vertical parallelization (i.e., a well-distributed workload) may be more important than horizontal containment (i.e., minimal data transport) for efficient query processing.
Moreover, to find a data placement strategy with a high vertical parallelization, the thesis tests the hypothesis that collocating small connected triple sets on the same compute node while balancing the amount of triples stored on the different compute nodes leads to a high vertical parallelization. Specifically, the thesis proposes two such data placement strategies. The first strategy called overpartitioned minimal edge-cut cover was found in the literature and the second strategy is the newly developed molecule hash cover. The evaluation revealed a balanced query workload and a high horizontal containment, which lead to a high vertical parallelization. As a result these strategies showed a better query performance than the frequently used data placement strategies.
Die vorliegende Dissertation beschäftigt sich mit den Chancen und Restriktionen, denen Parteien im Wahlkampf auf supranationaler Ebene der EU begegnen. Mittels kommunikationswissenschaftlicher Konzepte des Agenda-Settings (Fokus: Medien) und Agenda-Buildings (Fokus: Parteien) wird anhand des Wahlkampfs zur Wahl des Europäischen Parlaments (EP) 2014 erstens analysiert, inwieweit nationale politische Parteien die EU als Thema auf ihre Agenda setzen und ob etablierte Parteien so zu einer Normalisierung des EU-Wahlkampfs beitragen können. Zweitens wird untersucht, ob Parteien einen strukturellen Vorteil haben, die mediale Agenda auch auf supranationaler Ebene im Wahlkampf beeinflussen zu können, also mit EU-fokussierter Wahlkampfkommunikation in den Medien punkten können. Drittens wird geprüft, ob sich Parteien durch die Ablehnung der EU-Integration und der damit verbundenen, konflikthaften Kommunikation einen Vorteil für die Sichtbarkeit ihrer Kampagnen verschaffen können. Viertens und abschließend wird erforscht, ob Agenda-Building die Rangfolge spezifischer politischer Themenfelder auf der medialen Agenda im europäischen Kontext beeinflussen kann.
Die Analysen zeigen erstens, dass ein europapolitischer Fokus der Wahlkampfkommunikation nicht mehr nur auf Seiten der kleinen (euroskeptischen) Parteien zu finden ist. Verfolgen die Parteien einen europapolitischen Fokus in ihrer Wahlkampfkommunikation, haben sie zweitens gute Chancen, in der Medienberichterstattung präsent zu sein. Drittens stellt sich ein negativer Tenor der Parteienkommunikation nicht als ausschlaggebend für die Sichtbarkeit der Parteien im Wahlkampf heraus. Eine klare Positionierung auf politischen Sachfragen bereitet Parteien viertens auch auf die Restriktionen der weiteren Ausbildung einer europäischen Themenagenda vor, da die Verschiebung in der Wichtigkeit von Themen zuerst von den Medien erfasst wird, die Kampagnenkommunikation folgt erst darauf. Die Arbeit schließt nach einer Diskussion dieser Ergebnisse mit einer Einschätzung der Analyselimitationen und einem Ausblick auf weitere Forschungsansätze.
Die Anwendung von Chemikalien führt in vielen Fällen zu deren Emission in die Umwelt. Besonders organische Substanzen wie zum Beispiel Pharmazeutika, Biozide und Waschmittelinhaltsstoffe wurden in den letzten Jahren vermehrt als Umweltkontaminanten in Oberflächengewässern nachgewiesen. Die organischen Umweltkontaminanten, auch Spurenstoffe genannt, haben oftmals i) unbekannte ökotoxikologische Wirkungen, ii) unbekannte Verteilungsverhalten, und iii) sind bisher hinsichtlich der Emission kaum reguliert. Wie bei allen Substanzen können Spurenstoffe in der Umweltmatrix und insbesondere auch in der Kläranlage zu sogenannten Transformationsprodukten (TPs) umgewandelt werden. Um den durch Spurenstoffe verursachten Herausforderungen technologisch begegnen zu können, wird ein besseres Verständnis über diese Transformationsprozesse benötigt. Diese Dissertationsarbeit befasst sich deshalb mit der Aufklärung von Transformationsprozessen ausgewählter Spurenstoffe während der biologischen Abwasserreinigung.
Für die Untersuchung des Abbaus von Trimethoprim wurden Inkubationsversuche angewendet und die Auswirkung der steigenden Dotierungskonzentrationen systematisch untersucht. Es wurden insgesamt sechs TPs charakterisiert. Die Dotierungskonzentration hatte sowohl Auswirkungen auf die kinetischen Konstanten, als auch auf die Transformationsreaktionen. Ein solcher Einfluss der experimentellen Bedingungen wurde bisher in der Literatur noch nicht berichtet. Nur bei niedriger Dotierungskonzentration wurde am Ende des Transformationswegs ein stabiles TP gebildet, die 2,4-Diaminopyrimidin-5-carbonsäure (DAPC). Diese Substanz konnte in Laborversuchen den Großteil der abgebauten Menge von Trimethoprim erklären. Durch Untersuchungen an einer Referenzkläranlage konnte festgestellt werden, dass nur die Inkubationsversuche bei niedriger Dotierungskonzentration die realen Prozesse adäquat abbilden konnten. Die Anwendung hoher Dotierungskonzentrationen führte in Laborversuchen zu einer veränderten TP-Bildung.
Drei phenolische Spurenstoffe wurden in Bezug auf ihre Transformation, insbesondere hin zu potenziell toxischen nitrophenolischen TPs, untersucht: das Desinfektionsmittel ortho-Phenylphenol (OPP), das Kunststoffadditiv Bisphenol-A (BPA) und das Hustenmittel Dextrorphan. Nitrit wurde als ein potenzieller Auslöser für die Nitrierung postuliert. Inkubationsversuche in Reinstwasser wurden mit OPP in Anwesenheit von Nitrit durchgeführt und bestätigten, dass nitro-(und nitroso-) phenolische TPs unter leicht sauren Bedingungen gebildet werden. Da in kommunalen Kläranlagen der pH-Wert in Belebtschlamm zumeist zwischen 7,5 und 8,5 liegt und Nitrit als Zwischenprodukt oft nur in niedrigen Konzentration vorhanden ist, wurde die Bildung von signifikanten Konzentrationen nitrophenolischer TPs als unwahrscheinlich eingestuft. Aufgrund der Ergebnisse von Inkubationsversuchen mit inokulierten Belebtschlamm war festzustellen, dass die drei untersuchten Spurenstoffe schnell zu biologischen TPs umgewandelt wurden. Die Studie zeigte wie das Bildungspotenzial von nitrophenolischen TPs gesteigert wird, wenn bestimmte Bedingungen im Belebtschlamm vorliegen: saurer pH und erhöhte Nitritkonzentration. Zudem wurde auch gezeigt, dass die Bildung von nitrophenolischen TPs durch das Ansäuern oder das Einfrieren von Proben initiiert werden kann.
Die Transformation vom Antiphlogistikum Diclofenac wurde in zwei unterschiedlichen Kläranlagen verglichen. Die erste Kläranlage verwendet Aufwuchskörper für ein verstärktes Biofilmwachstum, während die zweite mit einer konventionellen nitrifizierenden Belebtschlammbehandlung ausgestattet ist. Trotz der unterschiedlichen Behandlungstechniken konnten in beiden Fällen ähnliche Transformationsreaktionen festgestellt werden. Der wesentliche Unterschied bestand in den veränderten Kinetiken: Geschwindigkeitskonstanten (kbiol) waren ca. 50 Mal höher in Kontakt mit Aufwuchskörpern als im konventionellen Belebtschlamm. Der Transformationsweg führte zur Bildung einer Vielzahl an gering konzentrierten TPs. Monitoring-Kampagnen an den zwei Kläranlagen wurden zur Bestätigung der Ergebnisse angeschlossen. In der konventionellen Kläranlage wurde keine signifikante Diclofenac Entfernung gemessen. Wohingegen im Aufwuchskörperreaktor eine mittlere Entfernung von 88% gemessen wurde. Damit wäre die vorgeschlagene Umweltqualitätsnorm von 0.05 μg/L möglicherweise auch ohne die Anwendung von weiteren Behandlungsschritten wie z.B. Aktivkohlefiltration oder Ozonung erreichbar.
Over the last three decades researchers of Cognitive Metaphor Theory have shown conclusively that metaphor is motivated rather than arbitrary and often used to systematically map out conceptual territory. This cognitive semantic proposal holds the potential for alternative L2 teaching strategies. As an abstract domain, business discourse is naturally rich in metaphors and is additionally filled with consciously used metaphorical language to strategically manipulate clients and business partners. Business English courses especially stand to profit from metaphor-oriented language teaching, as (future) managers aim to quickly improve their language performance to be prepared for international business communication. In using metaphors, speakers as well as hearers conceptualize and thus experience one thing in terms of another. Having been made aware of the conceptual linkage, students are immediately equipped with a whole set of vocabulary they may already have learned for a concrete domain and are then able to elaborate in the more abstract area of business discourse. Enhanced metaphor awareness may thus prove to be a valuable vehicle for vocabulary acquisition as well as for vocabulary retention. This thesis is subdivided into ten chapters. With each successive chapter, the focus will increasingly sharpen on the main hypothesis that metaphor awareness raising and explicit teaching in the business English classroom assists the students to dip into their savings' and transfer already acquired vocabulary to abstract business discourse and thus to become more proficient business communicators. After an introduction to the main objectives, chapter two critically looks at the different strands of Cognitive Linguistic contributions to metaphor theory made within the last three decades and discusses the structure, function and processing of figurative language to single out relevant aspects of the language classroom applications. Chapter three narrows the perspective to the socio-economic discourse as the very target domain in focus and surveys the conceptual metaphors that have been identified for this target domain, namely the source domains most productive for the target and therefore most valuable for the language classroom. In chapter four Cognitive Linguistic findings are put in contact with language didactics; i.e., the Cognitive Linguistic basis is discussed in the context of language teaching and learning theories and a first classification of metaphor teaching in the theoretical framework of language didactics is proposed. Ten cornerstones summarize the theoretical output of the previous chapters and the respective didactic consequences are considered. Theories of cognitive psychology pertaining to noticing, processing, and storing metaphors are systematically revisited and expanded to formulate further didactic implications for metaphor teaching. The consequences drawn from both linguistic as well as didactic theory are translated into a list of ten short guidelines identifying essentials for the explicit integration of metaphors into the language classroom. In chapter five those experimental studies that have already been conducted in the field of Cognitive Linguistic-inspired figurative language teaching are systematically summarized and possible contributions to set up a didactic framework for metaphor teaching are investigated. Chapters six to nine then present a piece of original research. Starting out from five research questions tackling receptive and productive vocabulary acquisition and retention as well as the influence of and on the learner- level of language proficiency, a three-fold study was designed and conducted in a regular business English classroom and results are discussed in detail. The last chapter deals again with specific implications for teaching. Earlier statements about and claims for the language classroom are revisited and refined on the basis of the theoretical linguistic, didactic and empirical findings, and an agenda for further empirical investigations is sketched out.
Die pan-amazonische Baumfrosch-Gattung Osteocephalus ist unzureichend bearbeitet sowohl bezüglich ihrer Taxonomie, als auch ihrer Phylogenie. Der Status einer Reihe von Arten, die bereits oder noch nicht zu dieser Gattung gezählt werden, ist unklar und die Verwandtschaftsbeziehungen innerhalb der Gattung und zu verwandten Gattungen nicht geklärt. In dieser Arbeit wird O. cabrerai (Cochran and Goin, 1970) aus Kolumbien und Peru nochmals detailliert beschrieben und O. festae (Peracca, 1904) aus einem Anden-Vorgebirge in Ecuador revalidiert. Hyla inframaculata Boulenger, 1882, vom Unterlauf des Amazonas in Brasilien, wird in die Gattung Osteocephalus gestellt und Osteocephalus elkejungingerae (Henle, 1981) vom östlichen Andenrand in Peru wird mit Hyla mimetica (Melin, 1941) als O. mimeticus synonymisiert. Das Taxon Hyla vilarsi Melin, 1941, bisher als Synonym unterschiedlicher Arten betrachtet, wird als valide angesehen und in die Gattung Osteocephalus gestellt. Drei neue Arten werden beschrieben: Osteocephalus castaneicola aus Nord-Bolivien und Süd-Peru, O. duellmani von einer subandinen Bergkette in Süd-Ecuador und O. camufatus aus dem zentralamazonischen Teil Brasiliens. Eine phylogenetische Analyse auf Basis von bis zu neun mitochondrialen und einem Kern-Gen zeigt, dass Osteocephalus bezüglich der Gattung Tepuihyla paraphyletisch ist. Deshalb wird hier eine neue Taxonomie vorgeschlagen, die die Monophylie von Osteocephalus und Tepuihyla sichert. Eine neue Gattung, Dryaderces, wird für die Schwestergruppe von Osteocephalus aufgestellt. Die Färbung frisch metamorphosierter Jungfrösche wird als morphologische Synapomorphie von Osteocephalus angesehen. Fünf monophyletische Artengruppen werden innerhalb der Gattung aufgestellt, drei Arten der Gattung Osteocephalus (O. germani, O. phasmatus, O. vilmae) und drei der Gattung Tepuihyla (T. celsae, T. galani, T. talbergae) synonymisiert, außerdem drei Arten anderen Gattungen zugerechnet (Hyla helenae zu Osteocephalus, O. exophthalmus zu Tepuihyla und O. pearsoni zu Dryaderces gen. n.). Außerdem werden neun potentiell neue Arten identifiziert, was einer Artenzunahme von 138% im Vergleich zur derzeit bekannten Diversität entspräche. Daraus ist zu schließen, dass die tatsächliche Artenzahl weit unterschätzt wird. Unbeschriebene Arten verbergen sich vor allem unter den weit verbreiteten, polymorphen Nominatarten. Die Evolution der Fortpflanzungsstrategien innerhalb der Gattung wird im Licht der neuen Phylogenie diskutiert und ein neuer Amplexustyp (Kehlamplexus) beschrieben.
How to begin? This short question addresses a problem that is anything but simple, especially when regarding something as sophisticated and multilayered as musical theatre. However, scholars of this vast research area have mostly neglected this question so far. This study analyses and compares the initial sections of late Victorian popular musical theatre and is therefore a contribution to several fields of research: the analysis of initial sections of musical theatre in general, the analysis of the music of popular musical theatre in particular, and therefore operetta studies. The 1890s are especially interesting times for popular musical theatre in London: The premiered works include the last collaborations of Gilbert and Sullivan as well as offshoots of Savoy opera; but the so-called ‘naughty nineties’ also saw the emergence of a new genre, musical comedy, which captured the late Victorian zeitgeist like no other. This new form of theatrical entertainment was carefully and consciously constructed and promoted as modern and fashionable, walking a fine line between respectability and mildly risqué excitement.
Because a deep understanding of the developments and new tendencies concerning popular musical theatre in the 1890s is crucial in order to interpret differences as well as similarities, the analyses of the opening numbers are preceded by a detailed discussion of the relevant genres: comic opera, musical comedy, musical play and operetta. Since the producers of the analysed works wanted to distance themselves from former and supposedly old-fashioned traditions, this book also considers influences from their British predecessors, but also from Viennese operetta and French opéra bouffe.
Homonegative Diskriminierung, wie die Aberkennung von Führungsqualitäten oder die Verweigerung einer besseren Bezahlung, betrifft nicht nur Lesben und Schwule, sondern Menschen, die als lesbisch oder schwul wahrgenommen werden (Fasoli et al., 2017). Folglich wird angenommen, dass insbesondere heterosexuelle Personen Opfer homonegativer Diskriminierung werden (Plöderl, 2014). Zwar ist die Wahrnehmung der sexuellen Orientierung stereotypengetrieben (z.B. Cox et al., 2015), jedoch fehlt es bislang an Wissen darüber, wie korrekt diese Stereotype, insbesondere bezogen auf die Sprechweise, sind. Trotz diverser soziophonetischer und sozialpsychologischer Forschung im Zusammenhang mit sexueller Orientierung und Geschlecht, mangelt es bislang an einem umfassenden Verständnis, wie die sexuelle Orientierung ausgedrückt und wahrgenommen wird.
Diese Lücken möchte die vorliegende Arbeit schließen. Hauptziele der vorliegenden Arbeit sind a) die Überprüfung der Korrektheit von Sprechstereotypen im Kontext der sexuellen Orientierung und b) die Entwicklung eines Modells, wie die sexuelle Orientierung interpersonell konstruiert wird. Die vorliegende Arbeit besteht aus insgesamt fünf Manuskripten. Diesen ist gemein, dass sie sozialpsychologische und soziophonetische Perspektiven integrativ behandeln, die soziale Identität in den Blick nehmen und primär die Sprechweise anstelle der fazialen Erscheinung in den Mittelpunkt stellen. Zudem wurden vornehmlich deutsche respektive deutschsprachige Versuchspersonen untersucht.
In Manuskript 1 wird die Traditional Masculinity/Femininity-Scale als reliables und valides Instrument zur Erfassung des Geschlechtsrollen-Selbstkonzeptes etabliert. Diese Neuentwicklung ist notwendig, da bislang existierende Skalen die selbstzugeschriebene Maskulinität/Femininität nur noch unzureichend abbilden (z.B. Abele, 2003; Evers & Sieverding, 2014). In den Manuskripten 2, 3 und 4 wird die Korrektheit von Sprechstereotypen bezüglich ihres stereotypen Inhalts und der unterstellten Homogenität von Mitgliedern der gleichen Gruppe adressiert. Dies erfolgt durch den Einsatz unterschiedlicher methodischer Zugänge. Zum einen werden relevante akustische Parameter von lesbischen/schwulen und heterosexuellen Frauen und Männern gemittelt, zum anderen wird Voice-Morphing-Verfahren angewendet, um prototypische, natürlich klingende Durchschnittsstimmen herzustellen (Kawahara et al., 2008). Lesben und heterosexuelle Frauen unterscheiden sich in keinem, schwule und heterosexuelle Männer nur in einem der analysierten akustischen Parameter. Demgegenüber erbrachte eine nuancierte psychologische Analyse verschiedentlich Evidenz für eine akustische Heterogenität innerhalb der Gruppen. Insbesondere die Exklusivität der sexuellen Orientierung wie auch das Geschlechtsrollen-Selbstkonzept wurden akustisch indexikalisiert. Dies legt nahe, dass Sprechstereotype inkorrekt sind. Jedoch wurde gezeigt, dass in den Durchschnittsstimmen die Informationen über die sexuelle Orientierung für Rezipient*innen wahrnehmbar enthalten sind. Dadurch lassen sich Sprechstereotype als Übertreibungen kleiner Körnchen von Wahrheit begreifen. In Manuskript 5 wird die bisherige Literatur zur interpersonellen Konstruktion der sexuellen Orientierung zu einem Modell verdichtet: Dem Expression and Perception of Sexual Orientation Model. Dieses Modell beschreibt mit einer indirekten Route, wie die Information der sexuellen Orientierung von der Kommunikator*in hin zur Rezipient*in durch drei mediierende Komponenten übertragen wird. Dadurch ist das Modell in der Lage, eine Erklärung dafür anzubieten, warum die sexuelle Orientierung zwar überzufällig gut aber nicht perfekt erkannt werden kann.
Insgesamt stellt die vorliegende Arbeit bedeutsame Impulse zur Weiterentwicklung der Erforschung von sozialen Markern der sexuellen Orientierung und des Geschlechts bereit. Sie schlägt ein (Denk)Modell vor, wie sexuelle Orientierung ausgedrückt und wahrgenommen wird, sie zeigt die Fruchtbarkeit der Verquickung sozialpsychologischer und soziophonetischer Forschungsansätze auf und verdeutlicht den Wert der Anwendung neuer Methoden und Technologien. Darüber hinaus weist die vorliegende Arbeit auch praktische Implikationen auf. Sprechstereotype im Kontext der sexuellen Orientierung können als inkorrekt zurückgewiesen werden – so sprechen deutschsprachige heterosexuelle Männer nicht mehr oder weniger nasal als schwule Männer. Damit trägt die vorliegende Arbeit potentiell zum Abbau von Stereotypen und zur Reduktion von Diskriminierung bei.
A taxonomic revision of the genus Pteris in tropical Africa revealed 26 species. An identification key to the species is provided. Morphological characters were used to prepare a cladistic analysis of the relevant taxa. Each species was evaluated concerning the IUCN red list status. Only Pteris mkomaziensis was considered as Near Threatened, and all other species only as Least Concern. An inventory of the ferns of Kakamega Forest / Kenya and Budongo Forest / Uganda revealed 85 species in Kakamega and 66 species in Budongo. Life form spectra were analysed and the ferns were studied for their value for bioindication.
Verschiedene Methoden (Gewichtsverlust, elektrochemische und Sprühkorrosionsmessungen) wurden eingesetzt, um die Korrosionsinhibierung von vier Sarkosinderivaten und einer kommerziellen Verbindung als Synergist zu bewerten. Das Basismetall war kohlenstoffarmer Stahl CR4, der unter verschiedenen Bedingungen getestet wurde. Als Arbeitsmedien wurden hauptsächlich neutrales Wasser und 0.1 M NaCl eingesetzt. Der Schutzfilm wurde auf der Stahloberfläche durch direkte Apsorption der Prüfsubstanzen während des Eintauchprozesses gebildet. Ein stark verbesserter Korrosionsschutz mit direkter Korrelation zwischen Molekulargewicht und Kohlenstoffkettenlänge der Prüfsubstanzen konnte nachgewiesen werden. Die Schutzwirkung der ausgewählten Sarkosinverbindungen auf Stahl CR4 erhöht sich in 0.1 M NaCl mit zunehmender Konzentration. In allen getesteten Methoden und Konzentrationen erwies sich Oleoylsarcosin (O) als bester Inhibitor. Es wurden Wirksamkeiten bis zu 97 % in der potentiodynamischen Polarisation (PP), 83 % bei der elektrochemische Impedanzspektroskopie (EIS) und 85 % in der Gewichtsabnahme (WL) bei 100 mmol/L als höchster hier getesteten Konzentration erzielt. Der zweitbeste Inhibitor ist Myristoylsarcosin (M) mit Effektivitäten bis zu 82 % in PP, 69 % in EIS und 75 % in WL ebenfalls bei der höchsten Konzentration. Der Inhibitor mit der kürzesten Kette in dieser Testreihe ist Lauroylsarcosin (L). L ergab Schutzwirkungen von etwas über 50 % bei 75 und 100 mmol/L und unter 50 % bei 25 und 50 mmol/L in allen angewandten Methoden. Zudem werden die Gesamteffizienzen aller verwendeten Prüfsubstanzen durch längere Einwirkzeiten beim Eintauchen der CR4 Stahlproben erhöht, wie für 50 mmol/L gezeigt werden konnte. Die Untersuchung ergab 10 Minuten als beste Zeit bezüglich Kosten- und Schutzeffizienz. Der kommerzielle Inhibitor Oley-Imidazol (OI) verbesserte die Wirksamkeit von Cocoylsarcosin (C), der natürlichen Mischung aus Kokosnussöl mit Kohlenstoffkettenlängen von C8 - C18, und verbesserte den Schutz in einer 1:1 (mol) Kombination (C+OI). Hierbei stieg der Wirkungsgrad von 47 % auf 91 % in PP, von 40 % auf 84 % in EIS und von 45 % auf 82 % in WL bei der höchsten Konzentration. Mit Hilfe von Sprühkorrosionstests wurden alle vorliegenden Sarkosinsubstanzen auf Stahl CR4 in einem realistischeren System untersucht. Der beste Inhibitor nach einem 24 Stunden-Test war O, gefolgt von der Kombination C+OI und M mit entsprechenden Wirkungsgraden von bis zu 99 % (O), 80 % (C+OI) bzw. 79 % (M). Die erhaltenen Ergebnisse zeigen eine gute Stabilität der Prüfsubstanzen bezüglich des gebildeten Schutzfilms auch nach 24 h. Alle verwendeten Methoden ergaben in der aktuellen Untersuchung übereinstimmende Ergebnisse und die gleiche Reihenfolg der Inhibitoren. Darüber hinaus wird angenommen, dass der Adsorptionsprozess der Prüfsubstanzen der Langmuir-Isotherme folgt. Die Response Surface Methodik (RSM) ist eine vom Box-Behnken Design (BBD) abhängige Optimierungsmethode. Diese wurde im aktuellen System angewandt, um die optimale Effektivität für Inhibitor O beim Korrosionsschutz von Stahl CR4 in Salzwasser zu ermitteln. Hierfür wurden vier unabhängige Variablen benutzt: Inhibitorkonzentration (A), Tauchbeschichtungszeit (B), Temperatur (C) und NaCl-Konzentration (D); jeweils in drei Stufen: untere (-1), mittlere (0) und obere (+1). Nach dem vorliegenden Ergebnis hat die Temperatur als Einzelparameter den größten Einfluss auf den Schutzprozess, gefolgt von der Inhibitorkonzentration. Anhand der Berechnung ergibt sich ein optimaler Wirkungsgrad von 99 % durch folgende Parameter- und Pegelkombination: oberer Wert (+1) jeweils für Inhibitorkonzentration, Tauchbeschichtungszeit und NaCl-Konzentration sowie ein unterer Wert (-1) für die Temperatur.
Confidentiality, integrity, and availability are often listed as the three major requirements for achieving data security and are collectively referred to as the C-I-A triad. Confidentiality of data restricts the data access to authorized parties only, integrity means that the data can only be modified by authorized parties, and availability states that the data must always be accessible when requested. Although these requirements are relevant for any computer system, they are especially important in open and distributed networks. Such networks are able to store large amounts of data without having a single entity in control of ensuring the data's security. The Semantic Web applies to these characteristics as well as it aims at creating a global and decentralized network of machine-readable data. Ensuring the confidentiality, integrity, and availability of this data is therefore also important and must be achieved by corresponding security mechanisms. However, the current reference architecture of the Semantic Web does not define any particular security mechanism yet which implements these requirements. Instead, it only contains a rather abstract representation of security.
This thesis fills this gap by introducing three different security mechanisms for each of the identified security requirements confidentiality, integrity, and availability of Semantic Web data. The mechanisms are not restricted to the very basics of implementing each of the requirements and provide additional features as well. Confidentiality is usually achieved with data encryption. This thesis not only provides an approach for encrypting Semantic Web data, it also allows to search in the resulting ciphertext data without decrypting it first. Integrity of data is typically implemented with digital signatures. Instead of defining a single signature algorithm, this thesis defines a formal framework for signing arbitrary Semantic Web graphs which can be configured with various algorithms to achieve different features. Availability is generally supported by redundant data storage. This thesis expands the classical definition of availability to compliant availability which means that data must only be available as long as the access request complies with a set of predefined policies. This requirement is implemented with a modular and extensible policy language for regulating information flow control. This thesis presents each of these three security mechanisms in detail, evaluates them against a set of requirements, and compares them with the state of the art and related work.
Binnengewässer spielen eine aktive Rolle im globalen Kohlenstoffkreislauf. Sie nehmen Kohlenstoff von stromaufwärts gelegenen Landmassen auf und transportieren ihn stromabwärts, bis er schließlich den Ozean erreicht. Auf diesem Weg sind vielfältige Prozesse zu beobachten, die zu einer (dauerhaften) Rückhaltung des Kohlenstoffs durch Einlagerung in Sedimenten sowie zu direkter Emission in die Atmosphäre führen. Es ist dringend notwendig diese Kohlenstoffflüsse und ihre anthropogene Veränderung zu quantifizieren. In diesem Zusammenhang muss die Aufmerksamkeit auf ein weit verbreitetes Merkmal von Gewässern gerichtet werden: ihre teilweise Austrocknung. Dies führt dazu, dass ehemals überschwemmte Sedimente in direkten Kontakt mit der Atmosphäre gelangen, genannt „dry inland waters“. Ein Merkmal der „dry inland waters“ sind überproportional hohe Kohlendioxid (CO2)-Emissionen. Diese Erkenntnis beruhte jedoch bisher auf lokalen Fallstudien, und es fehlt an Wissen über die globale Verbreitung und die grundlegenden Mechanismen dieser Emissionen. Vor diesem Hintergrund zielt diese Arbeit darauf ab, das Ausmaß und die Mechanismen der Kohlenstoffemissionen der „dry inland waters“ auf globaler und lokaler Ebene besser zu verstehen und die Auswirkungen von „dry inland waters“ auf den globalen Kohlenstoffkreislauf zu bewerten. Die spezifischen Forschungsfragen dieser Arbeit lauteten: (1) Wie fügen sich gasförmige Kohlenstoffemissionen von „dry inland waters“ in den globalen Kohlenstoffkreislauf und in die globalen Treibhausgasbudgets ein? (2) Welche Auswirkungen haben saisonale und langfristige Austrocknung auf den Kohlenstoffkreislauf von Gewässern? Diese Arbeit hat gezeigt, dass „dry inland waters“im globalen Maßstab unverhältnismäßig große Mengen an CO2 emittieren und dass diese Emissionen in allen Ökosystemen vergleichbaren Mechanismen folgen. Die Quantifizierung der globalen Wasserstandsschwankungen in Stauseen und die globale Berechnung der Kohlenstoffflüsse legen nahe, dass Stauseen mehr Kohlenstoff freisetzen als sie in den Sedimenten einlagern, was das derzeitige Verständnis von Stauseen als Nettokohlenstoffsenken in Frage stellt. Auf lokaler Ebene hat diese Arbeit gezeigt, dass sowohl die heterogenen Emissionsmuster verschiedener typischer Uferbereiche als auch die saisonalen Schwankungen der Kohlenstoffemissionen aus der „drawdown area“ berücksichtigt werden müssen. Darüber hinaus hat diese Arbeit gezeigt, dass die Remobilisierung von Kohlenstoff aus den Sedimenten bei dauerhafter Austrocknung von Gewässern die beobachteten Emissionsraten erklären kann, was die Hypothese einer positiven Rückkopplung zwischen Klimawandel und der Austrocknung von Gewässern unterstützt. Insgesamt unterstreicht die vorliegende Arbeit die Bedeutung der Emissionen aus trockenen Gewässerbereichen für den globalen Kohlenstoffkreislauf von Gewässern.
Die Raytracing-Beschleunigung durch dedizierte Datenstrukturen ist schon lange ein wichtiges Thema der Computergrafik. Im Allgemeinen werden dafür zwei unterschiedliche Ansätze vorgeschlagen: räumliche und richtungsbezogene Beschleunigungsstrukturen. Die vorliegende Arbeit stellt einen innovativen kombinierten Ansatz dieser beiden Bereiche vor, welcher weitere Beschleunigung der Strahlenverfolgung ermöglicht. Dazu werden moderne räumliche Datenstrukturen als Basisstrukturen verwendet und um vorberechnete gerichtete Sichtbarkeitsinformationen auf Basis von Schächten innerhalb einer originellen Struktur, dem Line Space, ergänzt.
Im Laufe der Arbeit werden neuartige Ansätze für die vorberechneten Sichtbarkeitsinformationen vorgeschlagen: ein binärer Wert, der angibt, ob ein Schacht leer oder gefüllt ist, sowie ein einzelner Vertreter, der als repräsentativer Kandidat die tatsächliche Oberfläche approximiert. Es wird gezeigt, wie der binäre Wert nachweislich in einer einfachen, aber effektiven Leerraumüberspringungs-Technik (Empty Space Skipping) genutzt wird, welche unabhängig von der tatsächlich verwendeten räumlichen Basisdatenstruktur einen Leistungsgewinn beim Raytracing von bis zu 40% ermöglicht. Darüber hinaus wird gezeigt, dass diese binären Sichtbarkeitsinformationen eine schnelle Technik zur Berechnung von weichen Schatten und Umgebungsverdeckung auf der Grundlage von Blockerapproximationen ergeben. Obwohl die Ergebnisse einen gewissen Ungenauigkeitsfehler enthalten, welcher auch dargestellt und diskutiert wird, zeigt sich, dass eine weitere Traversierungsbeschleunigung von bis zu 300% gegenüber der Basisstruktur erreicht wird. Als Erweiterung zu diesem Ansatz wird die repräsentative Kandidatenvorberechnung demonstriert, welche verwendet wird, um die indirekte Lichtberechnung durch die Integration von kaum wahrnehmbaren Bildfehlern signifikant zu beschleunigen. Schließlich werden Techniken vorgeschlagen und bewertet, die auf zweistufigen Strukturen und einer Nutzungsheuristik basieren. Diese reduzieren den Speicherverbrauch und die Approximationsfehler bei Aufrechterhaltung des Geschwindigkeitsgewinns und ermöglichen zusätzlich weitere Möglichkeiten mit Objektinstanziierungen und starren Transformationen.
Alle Beschleunigungs- und Speicherwerte sowie die Näherungsfehler werden gemessen, dargestellt und diskutiert. Insgesamt zeigt sich, dass durch den Line Space eine deutliche Erhöhung der Raytracing Leistung auf Kosten eines höheren Speicherverbrauchs und möglicher Annäherungsfehler erreicht wird. Die vorgestellten Ergebnisse zeigen damit die Leistungsfähigkeit des kombinierten Ansatzes und eröffnen weitere Möglichkeiten für zukünftige Arbeiten.
In Studien zur Toxizität von Chemikaliengemischen wurde festgestellt, dass Gemische aus Komponenten in Konzentrationen ohne erkennbare Wirkung als Einzelstoff (NOECs) als Resultat der gemeinsamen Wirkung der Substanzen Toxizität verursachen können. Die Risikobewertung von Chemikalien konzentriert sich jedoch häufig auf einzelne chemische Substanzen, obwohl die meisten lebenden Organismen im Wesentlichen chemischen Gemischen anstatt einzelnen Substanzen ausgesetzt sind. Die Konzepte der additiven Toxizität, Konzentrationsadditivität (CA) und der unabhängigen Wirkung (IA), werden häufig angewendet, um die Mischungstoxizität von Gemischen ähnlich wirkender und unähnlich wirkender Chemikalien vorherzusagen. Allerdings können lebende Organismen, ebenso wie die Umwelt, beiden Chemikalienarten zur gleichen Zeit und am gleichen Ort ausgesetzt sein. Darüber hinaus wäre es nahezu unmöglich, auf experimentellem Wege Toxizitätsdaten für jede denkbare Mischung zu gewinnen, da die Anzahl der Möglichkeiten beinahe unendlich groß ist. Aus diesem Grund muss ein integriertes Modell zur Vorhersage der Mischungstoxizität, welches auf einzelnen Mischungskomponenten mit verschiedenen Arten toxischer Wirkung (MoAs) basiert, entwickelt werden. Die Ziele der vorliegenden Studie sind, die Problematik der Vorhersage der Mischungstoxizität in der Umwelt zu analysieren und integrierte Modelle zu entwickeln, die die Beschränkungen der vorhandenen Vorhersagemodelle zur Abschätzung der Toxizität nicht-interaktiver Mischungen mittels computergestützter Modelle überwinden. Für diese Zielsetzung wurden in dieser Studie vier Unterthemen bearbeitet. Als Erstes wurden Anwendungsbereiche und Beschränkungen bereits bestehender Modelle analysiert und in die drei Kategorien dieser Studie eingruppiert. Aktuelle Ansätze zur Einschätzung der Mischungstoxizität und die Notwendigkeit eines neuen Forschungskonzepts zur Überwindung bestehender Einschränkungen, die aus neueren Studien hervorgehen, wurden diskutiert. Insbesondere diejenigen, die computergestützte Ansätze einbeziehen um die Toxizität chemischer Gemische, basierend auf den toxikologischen Daten einzelner Chemikalien, vorherzusagen. Als Zweites wurde anhand einer Fallstudie und mittels computergestützter Simulation festgestellt, dass die Key Critical Component (KCC) und die Composite Reciprocal (CR) methods, die im Entwurf des Technischen Leitfadens der Europäischen Union (EU) zu Berechnung der Predicted No Effect Concentration (PNEC) und des Derived No Effect Level (DNEL) von Gemischen beschrieben wurden, signifikant abweichende Ergebnisse hervorbringen. Als dritter und vierter Schritt dieser Studie wurden die zwei folgenden integrierten Nebenmodelle entwickelt und erfolgreich angewandt, um die dem CA und IA Modell innewohnenden Beschränkungen zu überwinden, welche theoretisch sowohl für Chemikalien mit ähnlichen, als auch mit abweichenden Reaktionen existieren: 1) Partial Least Squares-based Integrated Addition Model (PLS-IAM) und 2) Quantitative Structure-Activity Relationship-based Two-Stage Prediction (QSAR-TSP) Modell. In dieser Studie wurde gezeigt, dass das PLS-IAM angewandt werden könnte, wenn die toxikologischen Daten ähnlicher Gemische mit gleicher Zusammensetzung zur Verfügung stehen. Das QSAR-TSP Modell zeigt eine Möglichkeit zur Überwindung der kritischen Einschränkungen des herkömmlichen TSP Modells auf, bei der Kenntnisse der MoAs aller Chemikalien erforderlich sind. Diese Studie zeigt das hohe Potential der erweiterten integrierten Modelle, z.B. PLS-IAM und QSAR-TSP, die durch Berücksichtigung verschiedener nicht-interaktiver Komponenten mit unterschiedlichen MoA Gruppen, die Verlässlichkeit konventioneller Modelle erhöhen und das Verfahren der Risikobewertung von Gemischen aus wissenschaftlicher Sicht vereinfachen.
Durch die zunehmende Wichtigkeit und Dringlichkeit des Klimawandels sind Unternehmen aufgefordert, einen Beitrag zu nachhaltiger Entwicklung zu leisten, insbesondere durch die jüngeren Generationen. Bisherige Beiträge von Unternehmen werden jedoch als unzureichend kritisiert, was insbesondere am mangelnden Engagement der Mitarbeiterinnen und Mitarbeiter für Nachhaltigkeit in Unternehmen liegen könnte. In diesem Zusammenhang wurde in den letzten Jahren Gamification als ein vielversprechendes, innovatives Tool um nachhaltige Verhaltensweisen der Mitarbeiterinnen und Mitarbeiter am Arbeitsplatz zu motivieren, vorgeschlagen und zunehmend erforscht. Es gibt jedoch nur wenige Studien und anwendbare Gamification-Lösungen, die mehr als ein spezifisches Nachhaltigkeitsthema behandeln und somit eine ganzheitliche Perspektive auf nachhaltige Verhaltensweisen am Arbeitsplatz einnehmen. Darüber hinaus mangelt es bisheriger Forschung an einem umfassenden Verständnis dafür, wie verschiedene Gamification-Elemente spezifische psychologische Effekte hervorrufen, wie sich diese in Verhaltensänderungen manifestieren und wie diese wiederum kumulativ in messbaren Unternehmensergebnissen resultieren. Der Weg von Gamification als ”Input” zu unternehmerischer Nachhaltigkeit als ”Output” ist also bislang unerforscht.
Diese Dissertation schließt diese Lücke, indem eine ganzheitliche gamifizierte Intervention konzipiert, gestaltet und evaluiert wird, die Mitarbeiterinnen und Mitarbeiter bei verschiedenen nachhaltigen Verhaltensweisen in ihren täglichen Aktivitäten unterstützt. Das Projekt verwendet einen designwissenschaftlichen Forschungsansatz, der die Mitarbeiterinnen und Mitarbeiter eng in die schrittweise Entwicklung der Lösung einbezieht. Als Teil des iterativen Designprozesses werden in dieser Dissertation sechs Studien vorgestellt, um das theoretische Verständnis von Gamification für nachhaltige Verhaltensweisen von Mitarbeiterinnen und Mitarbeitern zu erweitern. Zunächst wird ein umfassender Überblick über die bestehende Forschung zu Gamification für nachhaltiges Mitarbeiterverhalten gegeben, wobei Gamification-Designs und Ergebnisse früherer Studien analysiert und eine Agenda für die weitere Forschung aufgezeigt werden (Studie 1). Danach werden theoretische Grundlagen der Forschung zu Gamification, Serious Games und Game-based Learning (Studie 2) und empirische Gestaltungsprinzipien
für Gamification und persuasive Systeme (Studie 3) als Basis für die erfolgreiche Gestaltung gamifizierter Anwendungen systematisch untersucht. Anschließend werden in empirischen Studien Motivationen der Mitarbeiterinnen und Mitarbeiter für nachhaltiges Verhalten erforscht und ihre Erwartungen an Gestaltungsmerkmale beleuchtet (Studie 4) sowie kontextuelle Herausforderungen und Gestaltungsdilemmata bei der Implementierung von Gamification in einem organisatorischen Kontext aufgezeigt (Studie 5). Schließlich wird in einer quantitativen Feldstudie (Studie 6) untersucht, wie verschiedene Gamification-Designs nachhaltiges Mitarbeiterverhalten und unternehmerische Nachhaltigkeitskennzahlen in Organisationen beeinflussen. Basierend auf den Ergebnissen wird in dieser Dissertation ein umfassendes Framework für Gamification für nachhaltiges Mitarbeiterverhalten präsentiert, welches Design-, individuelle Verhaltens- und Unternehmensperspektiven einbezieht. Schließlich werden darauf aufbauend praktische Empfehlungen für die Gestaltung von Gamification zur Förderung nachhaltigen Mitarbeiterverhaltens am Arbeitsplatz präsentiert.
Software is vital for modern society. The efficient development of correct and reliable software is of ever-growing importance. An important technique to achieve this goal is deductive program verification: the construction of logical proofs that programs are correct. In this thesis, we address three important challenges for deductive verification on its way to a wider deployment in the industry: 1. verification of thread-based concurrent programs 2. correctness management of verification systems 3. change management in the verification process. These are consistently brought up by practitioners when applying otherwise mature verification systems. The three challenges correspond to the three parts of this thesis (not counting the introductory first part, providing technical background on the KeY verification approach). In the first part, we define a novel program logic for specifying correctness properties of object-oriented programs with unbounded thread-based concurrency. We also present a calculus for the above logic, which allows verifying actual Java programs. The calculus is based on symbolic execution resulting in its good understandability for the user. We describe the implementation of the calculus in the KeY verification system and present a case study. In the second part, we provide a first systematic survey and appraisal of factors involved in reliability of formal reasoning. We elucidate the potential and limitations of self-application of formal methods in this area and give recommendations based on our experience in design and operation of verification systems. In the third part, we show how the technique of similarity-based proof reuse can be applied to the problems of industrial verification life cycle. We address issues (e.g., coping with changes in the proof system) that are important in verification practice, but have been neglected by research so far.
This thesis presents novel approaches for integrating context information into probabilistic models. Data from social media is typically associated with metadata, which includes context information such as timestamps, geographical coordinates or links to user profiles. Previous studies showed the benefits of using such context information in probabilistic models, e.g.\ improved predictive performance. In practice, probabilistic models which account for context information still play a minor role in data analysis. There are multiple reasons for this. Existing probabilistic models often are complex, the implementation is difficult, implementations are not publicly available, or the parameter estimation is computationally too expensive for large datasets. Additionally, existing models are typically created for a specific type of content and context and lack the flexibility to be applied to other data.
This thesis addresses these problems by introducing a general approach for modelling multiple, arbitrary context variables in probabilistic models and by providing efficient inference schemes and implementations.
In the first half of this thesis, the importance of context and the potential of context information for probabilistic modelling is shown theoretically and in practical examples. In the second half, the example of topic models is employed for introducing a novel approach to context modelling based on document clusters and adjacency relations in the context space. They can cope with areas of sparse observations and These models allow for the first time the efficient, explicit modelling of arbitrary context variables including cyclic and spherical context (such as temporal cycles or geographical coordinates). Using the novel three-level hierarchical multi-Dirichlet process presented in this thesis, the adjacency of ontext clusters can be exploited and multiple contexts can be modelled and weighted at the same time. Efficient inference schemes are derived which yield interpretable model parameters that allow analyse the relation between observations and context.
The history of human kind is characterized by social conflict. Every conflict can be the starting point of social change or the escalation into more destructive forms. The social conflict in regard to rising numbers of refugees and their acceptance that arose in most host countries in 2015 already took on destructive forms – in Germany, right-wing extremists attacked refugee shelters and even killed multiple people, including political leaders who openly supported refugees. Thus, incompatible expectancies and values of different parts of the society led to violent action tendencies, which tremendously threaten intergroup relations. Psychological research has developed several interventions in past decades to improve intergroup relations, but they fall short, for example, when it comes to the inclusion of people with extreme attitudes and to precisely differentiate potential prosocial outcomes of the interventions. Thus, this dissertation aimed to a) develop psychological interventions, that could also be applied to people with more extreme attitudes, thereby putting a special emphasis on collecting a diverse sample; b) gain knowledge about target- and outcome specific effects: Who benefits from which intervention and how can specific prosocial actions be predicted in order to develop interventions that guide needs-based actions; and c) shed light on potential underlying mechanisms of the interventions.
The dissertation will be introduced by the socio-political background that motivated the line of research pursued, before providing an overview of the conceptualization of social conflicts and potential psychological inhibitors and catalyzers for conflict transformation. Based on past research on socio-psychological interventions and their limitations, the aims of the dissertation will be presented in more detail, followed by a short summary of each manuscript. Overall, the present thesis comprises four manuscripts that were summarized in the general discussion into a road map for social-psychological interventions to put them into a broader perspective. The road map aspires to provide recommendations for increasing – either approach-oriented or support-oriented actions – by the socio-psychological interventions for a variety of host society groups depending on their pre-existing attitude towards refugees.
A Paradoxical Intervention targeting central beliefs of people with negative attitudes towards refugees influenced inhibitory and catalyzing factors for conflict transformation over the course of three experiments – thereby providing an effective tool to establish approach-oriented action tendencies, such as the willingness to get in contact with refugees. Further, the dissertation presents a novel mechanism – namely Cognitive Flexibility – which could explain the Paradoxical Interventions’ effect of past research. By positively affecting a context-free mindset, the Paradoxical Intervention could impact more flexible thought processes in general, irrespective of the topic tackled in the Paradoxical Intervention itself. For people with rather positive attitudes addressing emotions may increase specific support-oriented action tendencies. The dissertation provides evidence of a positive relation between moral outrage and hierarchy-challenging actions, such as solidarity-based collective action, and sympathy with prosocial hierarchy-maintaining support-oriented actions, such as dependency-oriented helping. These exclusive relations between specific emotions and action intentions provide important implications for the theorizing of emotion-behavior relations, as well as for practical considerations. In addition, a diversity workshop conducted with future diplomats showed indirect effects on solidarity-based collective action via diversity perception and superordinate group identification, thereby extending past research by including action intentions and going beyond the focus on grassroot-initiatives by presenting an implementable intervention for future leaders in a real world context.
Taken together, this dissertation provides important insights for the development of socio-psychological interventions. By integrating a diverse sample, including members of institutions on meso- and macro-levels (non-governmental organizations and future politicians) of our society, this dissertation presents a unique multi-perspective of host society members on the social conflict of refugee acceptance and support. Thereby, this work contributes to theoretical and practical advancement of how social psychology can contribute not only to negative peace – by for example (indirectly) reducing support of violence against refugees – but also to positive peace – by for example investigating precursors of hierarchy-challenging actions that enable equal rights.