Dissertation
Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (249) (entfernen)
Sprache
- Englisch (249) (entfernen)
Schlagworte
- Pestizid (6)
- Pflanzenschutzmittel (5)
- Landwirtschaft (4)
- Software Engineering (4)
- ecotoxicology (4)
- Biodiversität (3)
- Bodenchemie (3)
- Insektizid (3)
- Nanopartikel (3)
- Pesticides (3)
Institut
- Fachbereich 7 (73)
- Institut für Informatik (29)
- Institut für Integrierte Naturwissenschaften, Abt. Biologie (23)
- Fachbereich 8 (20)
- Institut für Umweltwissenschaften (19)
- Institute for Web Science and Technologies (11)
- Institut für Computervisualistik (9)
- Institut für Integrierte Naturwissenschaften, Abt. Chemie (9)
- Mathematisches Institut (8)
- Institut für Anglistik und Amerikanistik (7)
Previous research revealed that teachers hold beliefs about gifted students combining high intellectual ability with deficits in non-cognitive domains, outlined in the so-called disharmony hypothesis. Since teachers’ beliefs about giftedness can influence which students they identify as gifted, the empirical investigation of beliefs is of great practical relevance. This dissertation comprises three research articles that investigated teacher beliefs about gifted students’ characteristics in samples of pre-service teachers using an experimental vignette approach. Chapter I starts with a general introduction into beliefs, and presents the research aims of the present dissertation. The first article (Chapter II) focused on the interaction of beliefs about giftedness and gender in a sample of Australian pre-service teachers and tested if social desirability occurred when using the vignette design. Beside evidence for beliefs in line with the disharmony hypothesis, results revealed typical gender stereotypes. However, beliefs about giftedness appeared not to be gender specific and thus, to be similar for gifted girls and boys. The vignette approach was found to be an adequate design for assessing teacher beliefs. The second article (Chapter III) investigated teacher beliefs and their relationship to motivational orientations for teaching gifted students in a cross-country sample of German and Australian pre-service teachers. Motivational orientations comprise cognitive components (self-efficacy) and affective components (enthusiasm). Findings revealed beliefs in the sense of the disharmony hypothesis for pre-service teachers from both countries. Giftedness when paired with beliefs about high maladjustment was found to be negatively related to teachers’ self-efficacy for teaching gifted students. The third article (Chapter IV) examined the role of teachers’ belief in a just world for the formation of beliefs using a sample of Belgian pre-service teachers. It was found that the stronger pre-service teachers’ belief in a just world was, the more they perceived gifted students’ high intellectual ability as unfair and thus, neutralized that injustice by de-evaluating students’ non-cognitive abilities. In a general discussion (Chapter V), findings of the three articles are combined and reflected. Taken together, the present dissertation showed that teacher beliefs about gifted students’ characteristics are not gender specific, generalizable over countries, negatively related to teacher motivation and can be driven by fairness beliefs.
Invasive species often have a significant impact on the biodiversity of ecosystems and the species native to it. One of the worst invaders worldwide is Aphanomyces astaci, the causative agent of the crayfish plague, an often fatal disease to crayfish species not native to North America. Aphanomyces astaci originates from North America and was introduced to Europe in the midst of the 19th century. Since then, it spread throughout Europe diminishing the European crayfish populations. The overall aim of this thesis was to evaluate the threat that A. astaci still poses to European crayfish species more than 150 years after its introduction to Europe. In the first part of the thesis, crayfish specimens, which are available in the German pet trade, were tested for infections with A. astaci. Around 13% of the tested crayfish were clearly infected with A. astaci. The study demonstrated the potential danger the pet trade poses for biodiversity through the import of alien species and their potential pathogens, in general. In the second part of the thesis, the A. astaci infection prevalence of crayfish species in wild populations in Europe was tested. While the stone crayfish, Austropotamobius torrentium, showed high susceptibility to different haplogroups of A. astaci, the narrow-clawed crayfish, Astacus leptodactylus, was able to survive infections, even by haplogroup B, which is considered to be highly virulent. In the last part of the thesis, A. astaci was traced back to its original distribution area of North America. While the crayfish plague never had such a devastating effect on crayfish in North America as it had in Europe, the reasons for the success of invasive crayfish within North America are not yet fully understood. It is possible that A. astaci increases the invasion success of some crayfish species. Several populations of the rusty crayfish, Orconectes rusticus, in the Midwest of North America were confirmed to be infected with A. astaci and a new genotype was identified, possibly indicating that each crayfish host is vector of a unique A. astaci genotype, even in North America. Overall, the present thesis provides evidence that A. astaci is still a major threat to the crayfish species indigenous to Europe. Crayfish mass mortalities still occur in susceptible crayfish species like A. torrentium even 150 years after the first introduction of A. astaci. While there are some indications for increased resistances through processes of co-evolution, the continuous introduction of crayfish species to Europe threatens to cause new outbreaks of the crayfish plague through the parallel introduction of new, highly virulent A. astaci strains.
Dracaena L. (Ruscaceae) is a predominantly African genus with a smaller centre of diversity in South-East Asia. The taxonomy of the 29 species occurring in Central, East and Southern Africa was revised through phenetic and phylogenetic analyses of the morphology as well as through herbarium, literature and field studies. An infrageneric classification is proposed, in which four sub-genera are recognised for the first time. A taxonomic account for the study area incorporating an identification key, distribution maps and an IUCN Red List assessment is presented. Analysis of Dracaena phytogeography reveals that the Guineo-Congolian centre of endemism is the richest with 21 species while the Maputaland-Pondoland regional mosaic and the Guinea-Congolia/Sudania regional transition zone are the poorest, having only one species each. Investigation of the ecology of Dracaena in the Kakamega Forest, Kenya, shows that it plays an important role in the forest ecology and is an indicator of forest quality.
In the present study the flora and vegetation of Kakamega Forest, an East African rainforest in Western Kenya, was investigated. Kakamega Forest is highly degraded and fragmented and is an ideal model to study the anthropogenic influence on the forest inventory. The main focus was to analyse the influence of human impact on the vascular plant species composition. During five field phases in the years 2001 to 2004 a total of 19 study sites scattered over the whole forest including all fragments were investigated regarding forest structure, species composition and plant communities. The different forest sites were analysed by three different methods, phytosociological relevés, line-transect and with the variable-area transect method. The forest survey revealed about 400 taxa of vascular plant species, among them 112 trees, 62 shrubs, 58 climbers and 114 herbs. Several species are restricted to this forest in Kenya, but only one endemic species, the herb Commelina albiflora, could be discovered. About 15 species were recorded as new for Kenya and probably at least one species is new to science. Kakamega Forest is a unique mixture of Guineo-Congolian and Afromontane floral elements. About one half of the vascular plant species has its origin in the lowland forests of the Congo basin and one third originates from Afromontane habitats. The present study represents the first description of plant communities of Kakamega Forest. An analysis of different forest sites and plantations resulted in 17 different vegetation units. For the mature forest sites eleven plant communities were described. The young succession stage consists of two plant communities. Since the disturbance history and the age of the different plant communities could be estimated, their chronology was also described. An exception are the study sites within the plantations and afforested sites. The four defined vegetation units were not described as plant communities, because they are highly affected by man and do not belong to the natural succession of Kakamega Forest. Nevertheless, the regeneration potential of such forests was investigated. Due to the different succession stages the changing species composition along a disturbance gradient could be analysed. Most of Kakamega Forest consists of middle-aged secondary forest often surrounded by very young secondary forest. A true primary rainforest could not be found due the massive influence by over-exploitation. In all parts of the forest the anthropogenic influence could be observed. The forest develops towards a climax stage, but a 2 Abstract comparison with former surveys shows that the regeneration is much slower than expected. Human impact has to be avoided to allow the forest to develop into a primary-like rainforest. But several climax tree species might be missing anyway, because after the broad logging activities in the past there are not enough seed trees remaining. Species richness was highest in disturbed forest sites. A mixture of pioneer, climax and bushland species could be recorded there. Therefore, a high species richness is not a suitable indicator for forest quality. The proportion of climax species typical for Kakamega Forest would be a better measure. Compared to the main forest block the forest fragments do not lack in diversity as expected due to fragmentation processes. Instead, the only near primary forest could be recorded in Kisere, a northern fragment. The high amount of climax species and the more or less undisturbed forest structure is a result of the strict protection by the Kenya Wildlife Service and due to low logging activities. Differences in species composition between the studied forest sites are either a result of the different logging history or management regime rather than due to different edaphic or climatic conditions.
Due to their confinement to specific host plants or restricted habitat types, Auchenorrhyncha are suitable biological indicators to measure the quality of chalk grassland under different management practices for nature conservation. They can especially be used as a tool to assess the success of restoring chalk grassland on ex-arable land. One objective of this study was to identify the factors which most effectively conserve and enhance biological diversity of existing chalk grasslands or allow the creation of new areas of such species-rich grassland on ex-arable land. A second objective was to link Auchenorrhyncha communities to the different grassland communities occurring on chalk according to the NVC (National Vegetation Classification). Altogether 100 chalk grassland and arable reversion sites were sampled between 1998 and 2002. Some of the arable reversion sites had been under certain grazing or mowing regimes for up to ten years by 2002. Vegetation structure and composition were recorded, and Auchenorrhyncha were sampled three times during the summer of each year using a "vortis" suction sampler. Altogether 110 leafhopper species were recorded during the study. Two of the species, Kelisia occirrega and Psammotettix helvolus, although widespread within the area studied, had not previously been recognized as part of the British fauna. By displaying insect frequency and dominance as it is commonly done for vegetation communities, it was possible to classify preferential and differential species of distinct Auchenorrhyncha communities. The linking of the entomological data with vegetation communities defined by the NVC showed that different vegetation communities were reflected by distinct Auchenorrhyncha communities. Significant differences were observed down to the level of sub-communities. The data revealed a strong positive relationship between the diversity of leafhoppers species and the vegetation height. There was also a positive correlation between the species richness of Auchenorrhyncha and the diversity of plant species. In that context it is remarkable that there was no correlation between vegetation height and botanical diversity. There is a substantial decrease in Auchenorrhyncha species richness from unimproved grassland to improved grassland and arable reversion. The decline of typical chalk grassland and general dry grassland species is especially notable. Consequently, the number of stenotopic Auchenorrhyncha species which are confined to only a few habitat types, are drastically reduced with the improvement of chalk grassland. Improved grassland and arable reversion fields are almost exclusively inhabited by common habitat generalists. The decrease in typical chalk grassland plants due to improvement is mirrored in the decline of Auchenorrhyncha species, which rely monophagously or oligophagously on specific host plants. But even where suitable host plants re-colonize arable reversion sites quickly, there is a considerable delay before leafhoppers follow. That becomes especially obvious with polyphagous leafhoppers like Turrutus socialis or Mocydia crocea, which occur on improved grassland or arable reversion sites only in low frequency and abundance, despite wide appearance or even increased dominance of their host plants. These species can be considered as the most suitable indicators to measure success or failure of long term grassland restoration. A time period of ten years is not sufficient to restore species-rich invertebrate communities on grassland, even if the flora indicates an early success.
Studies have shown that runoff and spray-drift are important sources of nonpoint-source pesticide pollution of surface waters. Owing to this, public concern over the presence of pesticides in surface and ground water has resulted in intensive scientific efforts to find economical, yet environmentally sound solutions to the problem. The primary objective of this research was to assess the effectiveness of vegetated aquatic systems in providing buffering between natural aquatic ecosystems and agricultural landscape following insecticide associated runoff and spray-drift events. The first set of studies were implemented using vegetated agricultural ditches, one in Mississippi, USA, using pyrethroids (bifenthrin, lambda-cyhalothrin) under simulated runoff conditions and the other in the Western Cape, South Africa using the organophosphate insecticide, azinphos-methyl (AZP), under natural runoff and spray-drift conditions. The second set of studies were implemented using constructed wetlands, one in the Western Cape using AZP under natural spray-drift conditions and the other in Mississippi, USA using the organophosphate MeP under simulated runoff conditions. Results from the Mississippi-ditch study indicated that ditch lengths of less than 300 m would be sufficient to mitigate bifenthrin and lambda-cyhalothrin. In addition, data from mass balance calculations determined that the ditch plants were the major sink (generally > 90%) and/or sorption site for the rapid dissipation of the above pyrethroids from the water column. Similarly, results from the ditch study in South Africa showed that a 180 m vegetated system was effective in mitigating AZP after natural spray drift and low flow runoff events. Analytical results from the first wetland study show that the vegetated wetland was more effective than the non-vegetated wetland in reducing loadings of MeP. Mass balance calculations indicated approximately 90% of MeP mass was associated with the plant compartment. Ninety-six hours after the contamination, a significant negative acute effect of contamination on abundances was found in 8 out of the 15 macroinvertebrate species in both wetland systems. Even with these toxic effects, the overall reaction of macroinvertebrates clearly demonstrated that the impact of MeP in the vegetated wetland was considerably lower than in the non-vegetated wetland. Results from the constructed wetland study in South Africa revealed that concentrations of AZP at the inlet of the 134 m wetland system were reduced by 90% at the outlet. Overall, results from all of the studies in this thesis indicate that the presence of the plant compartment was essential for the effective mitigation of insecticide contamination introduced after both simulated and natural runoff or spray-drift events. Finally, both the vegetated agricultural drainage ditch and vegetated constructed wetland systems studied would be effective in mitigating pesticide loadings introduced from either runoff or spray-drift, in turn lowering or eliminating potential pesticide associated toxic effects in receiving aquatic ecosystems. Data produced in this research provide important information to reduce insecticide risk in exposure assessment scenarios. It should be noted that incorporating these types of best management practices (BMPs) will decrease the risk of acute toxicity, but chronic exposure may still be an apparent overall risk.
Probability propagation nets
(2008)
In der vorliegenden Arbeit wird eine Petri-Netz-Repräsentation für die Propagation von Wahrscheinlichkeiten und Evidenzen (Likelihoods) vorgestellt und auf probabilistische Horn-Abduktion sowie Fehlerbäume und Bayes-Netze angewendet. Diese sogenannten Wahrscheinlichkeits-Propagations-Netze (probability propagation nets) machen Propagations-Prozesse transparent, indem sie strukturelle und dynamische Aspekte in einer homogenen Darstellung vereinen. Anhand populärer Beispiele wird verdeutlicht, dass Wahrscheinlichkeits-Propagations-Netze die Propagations-Prozesse - besonders im Hinblick auf die Bayes-Netz-Algorithmik - anschaulich darstellen und gut nachvollziehbar machen, so dass sie sich für die Analyse und Diagnose probabilistischer Modelle eignen. Durch die Repräsentation von Fehlerbäumen mit Wahrscheinlichkeits-Propagations-Netzen können diese Vorzüge auf die Modellierung technischer Systeme übertragen werden.
This thesis is concerned with an issue of considerable importance to the development of revision skills: the role of teacher feedback. Prompted by the concern to develop a model of instruction which will help students write to the best of their capacities, the present study forms a proposal: an interactive model of revision. The study researches whether the kind of feedback proposed in this model is indeed a helpful tool for revision and whether the kind of negotiated revision that occurs is a vehicle for learning. The first section of the thesis reviews different areas of literature which are relevant to the study. More specifically, Chapter 2 presents the historical and theoretical foundations of different writing instructional practices and sheds light on issues concerning the use of the process approach. It also reviews research based on sociocognitive theoretical perspectives in an attempt to delineate the impact of interpersonal or social activity on individual performance and progress. Chapter 3 examines issues associated with the process approach in particular and illustrates how theory and method come together in a process writing classroom. Chapter 4 presents the differences in revising behaviours between experienced and inexperienced writers in both L1 and L2 contexts and the various ways these differences have been justified. It also highlights a number of issues which have been identified as contributing to effective revision. Particular attention is paid to the role that teacher feedback has to play as a means of promoting substantive student revision with an instructional emphasis on fluency, organisation and language. Chapter 5 presents an interactive model of revision, which envisions a communicative exchange between two partners, the student-writer and the teacher-reader, collaborating in order to develop awareness of revision strategies and establish criteria for effective writing. Chapter 6 investigates the epistemological basis of the research and presents a set of research questions and hypotheses, which guided the investigation. Chapter 7 frames the context of the research and details the methods used to collect the data from the study. The study involved 100 Year 7 students in two gymnasia in Koblenz, Germany. During the time of the investigation, the students wrote and revised five tasks. Three of these tasks were revised after receiving teacher feedback, which focused on aspects such as appropriacy and sufficiency of information, organization, coherence and grammatical accuracy. The study investigates the effects of this kind of focused feedback on the students" revisions and explores the relationship between revision and text improvement. Large quantitative and qualitative data sets were generated during the research. The quantitative data was based on the student documents (1000 original and revised drafts) whereas the qualitative data emerged from student questionnaires and seven case studies. Chapter 8 presents descriptions of the data analyses. More specifically, it describes the initial and final coding of the revisions traced in the student documents. Then it focuses on the type of qualitative analysis employed in the case studies in order to investigate the relationship between revision and text improvement. The final section of the chapter describes the questionnaire analysis, which was carried out to investigate attitudes, benefits and constraints from the implementation of the model. Chapter 9 examines the statistical results from the analysis of the students" revisions. More specifically, it explores the revisions made by the students across tasks and the relationships between the features of the teacher feedback and these revisions. The analysis highlights patterns in the development of revision skills and positive correlations of student revisions with features of the teacher feedback. Chapter 10 looks at the descriptive data from the case studies of seven individual student writers. The analysis of this data illustrates how the specific students negotiated the revisions and sheds more light on the relationship between feedback, revision and text improvement. Chapter 11 contains the analysis of the students" answers to the questionnaire, which provide illuminative information about the feedback-related attitudes. In Chapter 12, the thesis reaches its final destination. The journey over the paths of literature exploration, data gathering and data analysis ends with reflections on the messages that emerge from the data analysis. The conclusion reached is that young students can learn how to revise their writing and focused feedback is a viable pedagogic option for teaching revision. In addition to discussing the findings, this final section considers the pedagogical implications for the teaching of writing and suggests possible avenues for further work.
Ziel der vorliegenden Arbeit ist die Erforschung von Einstellungen und prosozialem Verhalten zwischen Arbeitsgruppen aus Sicht der Theorie der sozialen Identität und der Kontakthypothese. Dem Rekategorisierungsmodell von Gaertner und Dovidio (2000) folgend wird angenommen, dass "optimale" Kontaktbedingungen (Allport, 1954) eine gemeinsame organisationale Identität anregen. Diese gemeinsame Identität sollte verschiedene Arbeitsgruppen dazu motivieren, zusammenzuarbeiten und freiwilliges Arbeitsverhalten zu zeigen anstelle von Voreingenommenheiten. Vorhersagen des Rekategorisierungsmodells werden zusätzlich durch Annahmen aus dem Eigengruppen-Projektionsmodell (Mummendey & Wenzel, 1999) und dem Selbstkategorisierungsmodell der Gruppennormen (Terry & Hogg, 1996) ergänzt. Die abgeleiteten Hypothesen werden an einer Stichprobe von N1 = 281 MitarbeiterInnen aus N2 = 49 Abteilungen und den entsprechenden AbteilungsleiterInnen eines deutschen Versandhandelsunternehmens überprüft (Studie 1). Die Ergebnisse zeigen, dass Kontaktbedingungen auf Gruppen- und Personenebene weniger Voreingenommenheit zwischen Arbeitsgruppen, sowie mehr prosoziales Verhalten (d. h. Kooperation und Hilfeverhalten) vorhersagen. Die Repräsentation als gemeinsame Gruppe vermittelt diesen Zusammenhang für die Variablen Bewertung der Fremdgruppe und Kooperation. Dagegen wird der Zusammenhang zwischen gemeinsamer organisationaler Identität und Voreingenommenheit durch die relative Prototypikalität der Abteilung moderiert, wie es das Eigengruppen-Projektionsmodell vorhersagt. Der Effekt einer prosozialen Gruppennorm auf Hilfeverhalten wird durch die Identifikation mit der Arbeitsgruppe moderiert. In einer Längsschnittstudie mit insgesamt N = 57 Mitgliedern studentischer Projektgruppen wird der Befund repliziert, dass Kontakt unter "optimalen" Bedingungen zu mehr prosozialem Verhalten und weniger Voreingenommenheit zwischen organisationalen Gruppen führt. Der Mediationseffekt durch eine gemeinsame Gruppenidentität zeigt sich jedoch in Studie 2 nicht. Die Ergebnisse der ersten Studie lassen vermuten, dass interpersonales Hilfeverhalten besser durch Prädiktoren auf der gleichen Kategorisierungsebene (d. h. Personenebene) vorhergesagt werden kann (vgl. Haslam, 2004). Daher wird die zusätzliche Annahme getroffen, dass Kontakt in einem Kontext, welcher persönliche Identitäten salient macht (d. h. zu Dekategorisierung führt), interpersonales Verhalten besser vorhersagen kann. Dagegen sollte Kontakt in einem Kontext, welcher Gruppenidentitäten salient macht (d. h. zu Kategorisierung führt), intergruppales Verhalten besser vorhersagen können (vgl. Tajfel, 1978). Zusätzliche Daten aus Studie 1 belegen diesen kontextspezifischen Effekt von Kontakt auf interpersonales bzw. intergruppales prosoziales Verhalten. Im letzten Schritt wird das längsschnittliche Kontaktmodell von Pettigrew (1998) untersucht, welches Kontakt in Kontexten, die zu Dekategorisierung, Kategorisierung bzw. Rekategorisierung führen, in einer zeitlichen Abfolge miteinander verbindet. Erste Befunde aus Studie 2 zeigen, dass eine Abfolge der Kategorisierungsprozesse beginnend bei Dekategorisierung über Kategorisierung hin zu Rekategorisierung eine besonders effektive Möglichkeit zur Verbesserung der Kooperation zwischen Gruppen bieten könnte. Zum Abschluss wird ein Kontextspezifisches Kontaktmodell vorgeschlagen, das Befunde aus den beiden vorgestellten Studien integriert und zu weiterer Forschung an prosozialem Verhalten zwischen Arbeitsgruppen anregen soll. Mögliche Mediatoren und Moderatoren werden neben einer Reihe von Implikationen für die Forschung und Praxis diskutiert.
In dieser Dissertation wird eine Verfahrensweise für die formale Spezifikation und Verifikation von Benutzerschnittstellen unter Sicherheitsaspekten vorgestellt. Mit dieser Verfahrensweise können beweisbar sichere Benutzerschnittstellen realisiert werden. Die Arbeit besteht aus drei Teilen. Im ersten Teil wird eine Methodologie für die formale Beschreibung von Mensch-Maschine-Interaktion entwickelt. Im zweiten Teil werden gängige Computersicherheitskonzepte für die Mensch-Maschine-Interaktion angepasst und mit den im ersten Teil entwickelten Methoden formalisiert. Dabei wird ein generisches formales Modell von Mensch-Maschine-Interaktion erstellt. Im dritten Teil wird die Methodologie, die in den ersten beiden Teilen entwickelt wurde, an einem sicheren Email-Client als exemplarischen Anwendungsprogramm demonstriert.
Foliicolous lichens are one of the most abundant epiphytes in tropical rainforests and one of the few groups of organisms that characterize these forests. Tropical rainforests are increasingly affected by anthropogenic disturbance resulting in forest destruction and degradation. However, not much is known on the effects of anthropogenic disturbance on the diversity of foliicolous lichens. Understanding such effects is crucial for the development of appropriate measures for the conservation of such organisms. In this study, foliicolous lichens diversity was investigated in three tropical rainforests in East Africa. Godere Forest in Southwest Ethiopia is a transitional rainforest with a mixture of Afromontane and Guineo-Congolian species. The forest is secondary and has been affected by shifting cultivation, semi-forest coffee management and commercial coffee plantation. Budongo Forest in West Uganda is a Guineo-Congolian rainforest consisting of primary and secondary forests. Kakamega Forest in western Kenya is a transitional rainforest with a mixture of Guineo-Congolian and Afromontane species. The forest is a mosaic of near-primary forest, secondary forests of different seral stages, grasslands, plantations, and natural glades.
This thesis deals with the verbal categories tense and aspect in the context of analysing the English perfect. The underlying notion of time is examined from the viewpoint of etymology and from the viewpoint of fields of knowledge that lie outside the immediate scope of temporal semantics, e.g. mathematics. The category tense is scrutinised by discussing the concept of Reichenbach tense and the concept of correlation (Giering). The starting point of the discussion of the category verbal aspect is the dichotomy perfective vs. imperfective in the Slavic languages. The main part about the perfect is concerned with the possessive perfect as a cross-linguistic phenomenon (including a comparison of the English and the Slavic perfect) and focuses on the usage and the meaning of the English present perfect. There are three appendices which are an integral part of this dissertation. Appendix A deals with the systematization of English verb forms and their graphical representation. Three different visualizations are presented, two of which are genuine to this paper. Appendix B reproduces the target setting according to which an animated visualization of English infinitives was programmed. Appendix C represents a synopsis of approaches to the English perfect in grammars and textbooks.
Software is vital for modern society. The efficient development of correct and reliable software is of ever-growing importance. An important technique to achieve this goal is deductive program verification: the construction of logical proofs that programs are correct. In this thesis, we address three important challenges for deductive verification on its way to a wider deployment in the industry: 1. verification of thread-based concurrent programs 2. correctness management of verification systems 3. change management in the verification process. These are consistently brought up by practitioners when applying otherwise mature verification systems. The three challenges correspond to the three parts of this thesis (not counting the introductory first part, providing technical background on the KeY verification approach). In the first part, we define a novel program logic for specifying correctness properties of object-oriented programs with unbounded thread-based concurrency. We also present a calculus for the above logic, which allows verifying actual Java programs. The calculus is based on symbolic execution resulting in its good understandability for the user. We describe the implementation of the calculus in the KeY verification system and present a case study. In the second part, we provide a first systematic survey and appraisal of factors involved in reliability of formal reasoning. We elucidate the potential and limitations of self-application of formal methods in this area and give recommendations based on our experience in design and operation of verification systems. In the third part, we show how the technique of similarity-based proof reuse can be applied to the problems of industrial verification life cycle. We address issues (e.g., coping with changes in the proof system) that are important in verification practice, but have been neglected by research so far.
Over the last three decades researchers of Cognitive Metaphor Theory have shown conclusively that metaphor is motivated rather than arbitrary and often used to systematically map out conceptual territory. This cognitive semantic proposal holds the potential for alternative L2 teaching strategies. As an abstract domain, business discourse is naturally rich in metaphors and is additionally filled with consciously used metaphorical language to strategically manipulate clients and business partners. Business English courses especially stand to profit from metaphor-oriented language teaching, as (future) managers aim to quickly improve their language performance to be prepared for international business communication. In using metaphors, speakers as well as hearers conceptualize and thus experience one thing in terms of another. Having been made aware of the conceptual linkage, students are immediately equipped with a whole set of vocabulary they may already have learned for a concrete domain and are then able to elaborate in the more abstract area of business discourse. Enhanced metaphor awareness may thus prove to be a valuable vehicle for vocabulary acquisition as well as for vocabulary retention. This thesis is subdivided into ten chapters. With each successive chapter, the focus will increasingly sharpen on the main hypothesis that metaphor awareness raising and explicit teaching in the business English classroom assists the students to dip into their savings' and transfer already acquired vocabulary to abstract business discourse and thus to become more proficient business communicators. After an introduction to the main objectives, chapter two critically looks at the different strands of Cognitive Linguistic contributions to metaphor theory made within the last three decades and discusses the structure, function and processing of figurative language to single out relevant aspects of the language classroom applications. Chapter three narrows the perspective to the socio-economic discourse as the very target domain in focus and surveys the conceptual metaphors that have been identified for this target domain, namely the source domains most productive for the target and therefore most valuable for the language classroom. In chapter four Cognitive Linguistic findings are put in contact with language didactics; i.e., the Cognitive Linguistic basis is discussed in the context of language teaching and learning theories and a first classification of metaphor teaching in the theoretical framework of language didactics is proposed. Ten cornerstones summarize the theoretical output of the previous chapters and the respective didactic consequences are considered. Theories of cognitive psychology pertaining to noticing, processing, and storing metaphors are systematically revisited and expanded to formulate further didactic implications for metaphor teaching. The consequences drawn from both linguistic as well as didactic theory are translated into a list of ten short guidelines identifying essentials for the explicit integration of metaphors into the language classroom. In chapter five those experimental studies that have already been conducted in the field of Cognitive Linguistic-inspired figurative language teaching are systematically summarized and possible contributions to set up a didactic framework for metaphor teaching are investigated. Chapters six to nine then present a piece of original research. Starting out from five research questions tackling receptive and productive vocabulary acquisition and retention as well as the influence of and on the learner- level of language proficiency, a three-fold study was designed and conducted in a regular business English classroom and results are discussed in detail. The last chapter deals again with specific implications for teaching. Earlier statements about and claims for the language classroom are revisited and refined on the basis of the theoretical linguistic, didactic and empirical findings, and an agenda for further empirical investigations is sketched out.
This Thesis contributes by reporting on the current state of diffusion of collaboration information technology (CIT). The investigation concludes, with a high degree of certainty, that today we have a "satisfactory" diffusion level of some level-A CITs (mostly e-Mail, distantly followed by Audio Conferencing), and a "dissatisfactory" diffusion level of higher-level CITs (i.e. those requiring significant collaboration and cooperation among users, like Meeting Support Systems, Group Decision Support Systems, etc.). The potential benefits of the latter seem to be far from fully realised due to lack of user acceptance. This conclusion has gradually developed along the research cycle " it was suggested by Empirical Study I, and tested through Empirical Studies II and III. An additional, unplanned and rather interesting, finding from this study has been the recognition of large [mostly business] reporting on numerous Web 2.0 user-community produced collaboration technologies (most of them belonging to the category of "social software") and their metamorphosis from autonomous, "bottom-up" solutions into enterprise-supported infrastructures. Another contribution of this Thesis " again suggested by Empirical Study I, and tested through Empirical Studies II and III " pertains to the "process structure" of CIT diffusion. I have found that collaboration technology has historically diffused following two distinct (interdependent but orthogonal) diffusion paths " top-down (authority-based) and bottom-up. The authority-based diffusion path seems to be characterised by efforts aimed at "imposing" technologies on employees, the primary concern being to make sure that technology seamlessly and easily integrates into the organisational IT infrastructure. On the other hand, the bottom-up diffusion trail seems to be successful. The contribution of this investigation may be summarised as threefold: 1. This investigation consolidates most of the findings to date, pertaining to CIT adoption and diffusion, which have been produced by the CIT research community. Thus, it tells a coherent story of the dynamics of the community focus and the collective wisdom gathered over a period of (at least) one decade. 2. This work offers a meaningful framework within which to analyse existing knowledge " and indeed extends that knowledge base by identifying persistent problems of collaboration technology acceptance, adoption and diffusion. These problems have been repeatedly observed in practice, though the pattern does not seem to have been recognised and internalised by the community. Many of these problems have been observed in cases of CIT use one decade ago, five years ago, three years ago, and continue to be observed today in structurally the same form despite what is unarguably "rapid technological development". This gives me reason to believe that, at least some of the persistent problems of CIT diffusion can be hypothesised as "determining factors". My contribution here is to identify these factors, discuss them in detail, and thus tackle the theme of CIT diffusion through a structured historical narrative. 3. Through my contribution (2) above, I characterise a "knowledge-action gap" in the field of CIT and illuminate a potential path through which the research community might hope to bridge this gap. The gap may be operationalised as cognitive distance between CIT "knowledge" and CIT "action".
In der vorliegenden Arbeit wurden Benetzungseigenschaften zweier stark anthropogen beeinflusster Böden in Abhängigkeit von Einflussfaktoren wie Wassergehalt, pH, Trocknungs- und Benetzungstemperatur untersucht. Ziel war es die Prozesse und Mechanismen, die zu Veränderungen der Benetzungseigenschaften von Böden führen, besser zu verstehen. Erkenntnisse über diese Prozesse und Mechanismen lassen zum einen Rückschlüsse auf das generelle Verhalten von organischer Bodensubstanz zu, können zum anderen aber auch helfen, vorsorgliche Maßnahmen zu ergreifen um Bodenhydrophobie zu verhindern oder deren negative Effekte zu reduzieren. Anhand der Zeit- und Temperaturabhängigkeit der Spreitung von liegenden Tropfen (TISED) auf hydrophoben und benetzbaren Bodenproben beider Standorte wurde die Hypothese getestet, dass der Benetzungsprozess durch chemische Reaktionen kontrolliert wird. Mithilfe von DRIFT (Diffuse Reflectance Infrared Fourier Transform) Spektren wurde überprüft, ob unterschiedliche Trocknungs-bedingungen (Temperatur, Dauer, Luftfeuchte) zu Unterschieden in der Anzahl hydrophober und hydrophiler funktioneller Gruppen in den äußeren Molekülschichten führen die sich im Grad der Benetzungshemmung widerspiegeln. Durch künstliche pH-Wert Änderung über die Gas¬phase konnte die pH-Wert Abhängigkeit der Benetzungshemmung unabhängig vom Wassergehaltseinfluss beider Standorte verglichen werden. Die beiden Standorte weisen extreme Unterschiede in der Art der Benetzungshemmung auf und sind dadurch beispielhaft für die Bandbreite der möglichen Ursachen und Mechanismen der Benetzungs-hemmung in Böden. Die Ergebnisse der Untersuchungen zur Temperatur- Wassergehalts- und pH-Abhängigkeit der Benetzungshemmung aus dieser Arbeit im Vergleich mit Ergebnissen vorhergehender Arbeiten lassen sich am besten mit jeweils einem konzeptionellen Modell pro Standort zur Natur der Benetzungshemmung erklären: Am Standort Tiergarten werden die Benetzungseigenschaften vermutlich durch mizellartige Anordnung amphiphiler Substanzen an der Oberfläche der organischen Bodensubstanz bestimmt, die abhängig vom Gehalt wasserlöslicher amphiphiler Substanzen, dem pH Wert und der Ionenstärke in der Bodenlösung im Verlaufe der Trocknung zu einer unterschiedlichen Orientierung der hydrophilen funktionellen Gruppen führt. Bei niedrigen pH-Werten und hoher Ionenstärke herrschen schwache Abstoßungskräfte zwischen den hydrophilen Gruppen, diese können aggregieren und hydrophobe Molekülketten sind nach außen gerichtet. Bei höheren pH-Werten und niedrigerer Ionenstärke sind die abstoßenden Kräfte zwischen den hydrophilen Gruppen groß und führen zu einer Aggregation hydrophober Gruppen, wobei die hydrophilen Gruppen nach der Trocknung nach außen gerichtet sind und für eine bessere Benetzbarkeit sorgen. Am Standort Buch sind chemische Reaktionen zur Benetzung nötig. Aufgrund der starken Wassergehaltsabhängigkeit der Benetzungshemmung könnte es sich dabei um Hydrolysereaktionen handeln, die säurekatalysiert reversible wassegehaltsabhängige Gleichgewichtsreaktionen und im Basischen irreversibel sind. Die beiden Modelle können eine Vielzahl von Beobachtungen erklären, die im Verlaufe dieser Untersuchung aber auch in vorhergehenden Untersuchungen gemacht wurden. Die Ergebnisse dieser Untersuchungen und ihr Vergleich mit vorherigen Untersuchungen auf denselben Standorten zeigten, dass Benetzungshemmung in Böden durch eine Vielzahl von Faktoren und Prozessen beeinflusst ist, die sowohl synergistisch als auch antagonistisch wirken können. Welche Faktoren den größten Einfluss ausüben bzw. welche Prozesse die vorherrschenden sind, hängt von lokalen Größen wie der Art des Mineralbodens und der organischen Bodensubstanz ab, die wiederum dem Einfluss von Klima, Textur, Topografie, Vegetation und der Nutzungsgeschichte unterliegen.
Bei einigen Arzneimittel (z.B. Antibiotika, Kontrastmittel, Betablocker) wird ein Teil des Wirkstoffs unmetabolisiert ausgeschieden und gelangt so über das Abwasser in kommunale Kläranlagen. Studien haben gezeigt, dass viele dieser Wirkstoffe durch eine konventionelle Abwasserbehandlung nicht effektiv abgebaut werden und somit in Oberflächengewässern nachweisbar sind. Eines der effektivsten Verfahren zur Entfernung organischer Mikroverunreinigungen und Mikroorganismen ist die Umkehrosmose. Ein bedeutender Nachteil dieses Verfahrens ist die Entsorgung der anfallenden Konzentrate, die erhöhte Konzentrationen von Mikroverunreinigungen und Mikroorganismen enthalten können. Dabei ist nicht auszuschließen, dass eine direkte Einleitung dieser Konzentrate das Ökosystem eines Gewässers schädigt. Um dieses Risiko zu minimieren, wäre eine gesonderte Behandlung des Konzentrats vor der Einleitung sinnvoll. In der hier vorliegenden Arbeit wurde die Ozonung als mögliches Oxidationsverfahren untersucht. Die untersuchten Konzentratproben stammen aus einer Kläranlage, in der der Ablauf nach Umkehrosmosebehandlung in das Grundwasser infiltriert wird. Durch die Untersuchungen konnte gezeigt werden, dass durch die angewendeten Ozondosen die ausgewählten Arzneistoffe weitgehend oxidiert wurden, obwohl das Umkehrosmosekonzentrat einen sehr hohen TOC "Gehaltes von bis zu 46 mg/L aufwies. Zur Vorbeugung von Membranfouling wird Membrananlagenzuläufen, in diesem Fall dem Kläranlagenablauf, häufig Chlor zugesetzt. Eine Vergleichsstudie mit vorchlorierten und nicht vorchlorierten Kläranlagenabläufen zeigte einen Anstieg der Ozonstabilität nach der Chlorierung. Daraus resultierte aber auch eine Abnahme an OH-Radikalen. Die höhere Ozonstabilität könnte dazu führen, dass über eine direkte Ozonreaktion die Oxidation von Stoffen mit einer höheren Geschwindigkeitskonstante zweiter Ordnung bevorzugt würde. Der Abbau der Stoffe, die hauptsächlich über OH-Radikale oxidiert werden, würde dann gleichzeitig herabgesetzt. Für die Wirkstoffgruppe der Betablocker, die permanent in Kläranlagenabläufen nachweisbar ist, wurden die Geschwindigkeitskonstanten mit Ozon- sowie OH-Radikalen ermittelt. Untersucht wurden Acebutolol, Atenolol, Metoprolol und Propranolol. Betablocker enthalten zwei funktionelle Gruppen, die reaktiv gegenüber Ozon sind, zum einen ein sekundäres Amin und zum anderen einen aktivierten aromatischen Ring. Die Amingruppe ist dafür verantwortlich, dass die Geschwindigkeit der Ozonreaktion pH-Wert abhängig ist, da nur das deprotonierte Amin schnell mit Ozon reagieren kann. Die Geschwindigkeitskonstante für die Reaktion von Acebutolol, Atenolol and Metoprolol mit Ozon liegt bei etwa 2000 M-1 s-1, wo hingegen Propranolol mit ~1.0 105 M-1 s-1 etwa zwei Größenordnungen schneller reagiert. Die Konstanten für die Reaktionen mit OH-Radikalen liegen bei 0.5-1.0 × 1010 M-1 s-1. Die während der Ozonreaktion von Metoprolol und Propranolol gebildeten Oxidationsprodukte (OPs) wurden über HPLC-Tandem-MS identifiziert. Die Ozonreaktionen führten zur Bildung 23 OPs im Fall des Metoprolols und etwa 30 OPs beim Propranolol. Um die Auswirkung des pH-Wertes sowie der OH-Radikalreaktion auf die OP-Bildung zu untersuchen, wurden die Experimente bei pH 3 und 8, sowie mit und ohne Zugabe des Radikalfängers tert-Butanol durchgeführt. Die Menge der gebildeten OH-Radikale wurde durch den Zusatz von para-Chlorbenzoesäure ermittelt. Metoprolol: Der Einfluss des protonierten und des nicht protonierten Metoprolols auf die Menge der gebildeten OH-Radikale wurde über einen Vergleich der gemessenen para-Chlorbenzoesäureabnahme mit modellierten Werten ermittelt (Model: Acuchem). Es lassen sich dabei bessere Übereinstimmungen erzielen, wenn die Modelannahmen bei der primären Ozonreaktion des nicht protonierten Moleküls auf einer stöichiometrischen Bildung eines OH-Radikalvorproduktes (•O2-) basieren. Die Modellierung der Reaktion der protonierten Spezies unterstützt ebenfalls die These der Bildung des Vorproduktes •O2-, allerdings in unterstöichiometrischer Menge. Die Untersuchung eines Abwassers und eines Kläranlagenablaufs, die mit 10 μmol/L Metoprolol versetzt wurden, zeigte eine OP-Bildung ähnlich der bei pH 8 ohne Radikalfängerzugabe. Dies deutet auf einen signifikanten Einfluss der OH-Radikalreaktion für die Bildung der OP in realer Abwassermatrix hin. Propranolol: Das primäre OP der Ozonreaktion des Propranolols (OP-291) wird über einen Angriff am Naphthalenring gebildet, der zu einer Ringöffnung und der Bildung zweier Aldehydfunktionen führt. OP-291 wird vermutlich über eine OH-Radikalreaktion weiter zu OP-307 oxidiert, welches anschließend zu OP-281 weitereagiert. Durch die mittels Massenspektrometrie identifizierten chemischen Strukturen der OPs, können die vorgeschlagenen Bildungsreaktionen sowohl über direkte Ozonreaktion als auch über OH-Radikalreaktion bestätigt werden. Als Fazit kann festgestellt werden, dass eine Ozonung eines Kläranlagenablaufes zu der Bildung einer Vielzahl von OPs führt, die alle ein unbekanntes toxikologisches Potential haben (z.B. Bildung von Aldehydfunktionen).
Die Arbeit beschäftigt sich mit dem Einsatz moderner Grafikhardware (GPU) für die Visualisierung und Verarbeitung medizinischer Volumendaten. Die zunehmende Steigerung der Rechenleistung ermöglicht den Einsatz von Standardsystemen für Anwendungsgebiete, die bisher nur speziellen Workstations vorbehalten waren. Zusammen mit dem wesentlichen Vorteil von Grafikhardware Daten direkt anzeigen zu können, sind Verfahren wie visualisierungsgestütztes Berechnen ("visual computing") oder interaktives Steuern von Berechnungen ("computational steering") erst möglich geworden. Darauf wird anhand mehrerer Beispielanwendungen und umgesetzten Konzepten wie den "ray textures" im Detail eingegangen. Da die zu verarbeitenden und darzustellenden Datenmengen stetig ansteigen, ist aufgrund von Speicher- und Bandbreiteneinschränkungen eine kompakte Repräsentation der Daten notwendig. Während die Datenkompression selbst eingehend erforscht wurde, beschäftigt sich die vorliegende Arbeit mit Möglichkeiten, Berechnungen direkt auf den komprimierten Daten durchführen zu können. Dazu wurden verschiedene Algorithmenklassen identifiziert und in die Wavelet-Domäne übertragen. Mit Hilfe von speziellen Varianten der komprimierten Repräsentation ist eine effiziente Umsetzung grundlegender Bildverarbeitungsalgorithmen möglich und zeigt zugleich das Potential dieses Ansatzes auf. Aus technischer Sicht wurde im Laufe der Arbeit die GPU-basierte Programmierumgebung "Cascada" entwickelt. Sowohl die Einführung von objektorientierten Konzepten in die Shaderprogrammierung, als auch eine hierarchische Repräsentation von Berechnungs- und/oder Visualisierungsschritten vereinfacht den Einsatz von Grafikhardware ohne wesentliche Leistungseinbußen. Dies wird anhand verschiedener Implementationen in den jeweiligen Beiträgen und zwei klinischen Projekten im Bereich der Diagnoseunterstützung gezeigt. Hierbei geht es zum einen um die semi-automatische Segmentierung der Leber in niedrig aufgelösten MR-Datensätzen, zum anderen um Möglichkeiten zur Vermessung von abdominalen Aortenaneurysmen; jeweils unterstützt durch Grafikhardware. Darüber hinaus ermöglicht "cascada" auch die Erweiterung hinsichtlich aktueller Architekturen für den universellen Einsatz von Grafikhardware, sowie künftige Entwicklungen durch ein modulares Design.
Die in dieser Studie beschriebene Forschungsarbeit hatte primär das Ziel, den Einfluss partikelgebundener Pestizide auf Organismen in der flockenartigen Schicht zwischen Sediment und Wasser in einem temporär offenen Ästuar zu erfassen. Dabei wurde die Hypothese aufgestellt, dass natürliche Variablen wie Salzgehalt und Temperatur sowie anthropogene Stressfaktoren wie partikelgebundene Pestizide zur Variabilität des Systems beitragen. Die Variabilität der Sedimentzusammensetzung, der Verteilung der Kontamination, sowie der räumlichen und zeitlichen Unterschiede im Ökosystem, speziell in temporär offenen Ästuaren, macht hier einen kompositionellen Ansatz notwendig. Das erste Ziel dieser Arbeit war die Identifikation der partikelgebundenen Pestizide, die zur Kontamination des Lourens-River-Ästuars beitragen, unter Berücksichtigung ihrer Umweltkonzentrationen sowie physikalisch-chemischer und toxischer Eigenschaften (Expositionsanalyse). Das zweite Ziel war die Identifikation räumlicher und temporärer Variabilität partikelgebundener Pestizide, natürlicher Umweltvariablen und benthischer Artenzusammensetzung (Wirkungsanalyse). Das dritte Ziel der Studie war es, die Hypothese zu testen, ob Anpassung an schwankende Salzgehalte die Überlebensrate von einem harpacticoiden Copepoden Mesochra parva fördert, bei gleichzeitiger Aussetzung von Chlorpyrifos und hypoosmotischem Stress während eines 96-stündigen Sedimenttoxizitätstests. Das letzte Ziel der Studie beinhaltete die Identifikation jener Umweltvariablen (einschließlich natürlicher und anthropogener Stressoren), die ein Ästuar beinflussen. Zu diesem Zweck wurde ein natürliches Ästuar (Rooiels River) mit einem anthropogen beeinflussten Ästuar (Lourens River) verglichen. Die Ergebnisse dieser Arbeit sind somit für das Verständis der Wirkung von Pestiziden und ihrer Interaktion mit natürlichen Parametern in einem temporär offenen Ästuar von großer Bedeutung. Zusammenfassend zeigt diese Arbeit mit ihrem kompositionellen Ansatz auf, dass Pestizide wie Endosulfan und Chlopyrifos ein Risiko für die benthische Artengemeinschaft in einem temporär offenen Ästuar darstellen, insbesondere während des Frühjahrs. Desweiteren wurde nachgewiesen, dass Exposition und Toxizität von Pestiziden eng mit dem Salzgehalt in temporär offenen Ästuaren verknüpft sind. Diese Erkenntnis hat wichtige Folgen für den Schutz von temporär offenen Ästuaren.
The genus Cheilolejeunea (Spruce) Schiffn. (Lejeuneaceae, Jungermanniopsida) is represented by 23 species in continental tropical Africa. The morphological characters such as features of the stem, leaf, lobule and perianth traditionally used to separate the taxa at both species and generic level have been found to be unstable. The species are variably ranked in several subgenera including Cheilolejeunea (Spruce) Schiffn., Euosmolejeunea Schiffn., Strepsilejeunea (Spruce) Schiffn. and Xenolejeunea Kachroo & Schust. Although the genus has never been monographed, there are a few regional taxonomic accounts for America, Australia and China. A comprehensive revision of Cheilolejeunea species is lacking in Africa where the existing studies are based on single subgenus and sub-regional flora or checklist compilations, which are sometimes without identification keys. This study revises the taxonomy of Cheilolejeunea and the closely allied genus Leucolejeunea A. Evans, in continental Africa based on morphological data analysed using phenetic and phylogenetic methods.
Die Arbeit geht von der grundlegenden Annahme aus, dass spezifische kulturelle Bedingungen psychopathologische Effekte haben können, die interpersonale Gewalt begünstigen. Ziel der Studie war die Klärung der Frage, ob die Häufigkeit von Tötungsdelikten (abhängige Variable) mit bestimmten Einstellungen, Überzeugungen, Werthaltungen und Ausprägungen auf kulturellen Merkmalsdimensionen zusammenhängt. Um diese Frage zu klären, wurden unabhängige Variablen ausgewählt, von denen sechs sich auf die Wichtigkeit von Religion (Religiosität), Kontroll- und Machtorientierung (Omnipotenz), die kategorische Unterscheidung von Gut und Böse (Absolutismus), Nationalstolz (Nationalismus), Akzeptanz von Wettbewerb (Wettbewerbsorientierung) und Befürwortung von Autorität und Strafe (Autoritarismus) beziehen. Die zur Messung dieser Variablen relevanten Daten wurden dem World Values Survey entnommen. Für zwei weitere Kulturdimensionen, Kollektivismus und Machtdistanz, wurden die Ergebnisse der Studien von Hofstede verwendet. Als neunte unabhängige Variable diente das Bruttonationaleinkommen. Mittels multipler Imputation wurden die 7% fehlender Messwerte durch Schätzwerte ergänzt, so dass die Daten von 82 Staaten für die Analysen zur Verfügung standen.rnErgebnisse: Eine schrittweise multiple Regression ergab für Omnipotenz (β = .44, P < .01) und Bruttonationaleinkommen (ß = -.27, P < .01) die stärksten Regressionseffekte auf die Tötungsrate als abhängige Variable. Die neun unabhängigen Variablen luden auf zwei Faktoren, soziökonomischer Entwicklungsstand (SED) und psychokultureller Faktor (Psy-Cul), die negativ korreliert waren (-.47). Psy-Cul wurde als Indikator für Narzismus und als Mediator des Effekts von SED auf Tötungsrate interpretiert. Hierarchische Clusteranalysen auf der Basis der beiden Faktoren ergaben eine klare Unterscheidung zwischen drei Gruppen von Nationen: westliche Nationen, Entwicklungsnationen und postkommunistische Nationen.
Investigating the environmental fate of iodinated X-ray contrast media in the urban water cycle
(2010)
Iodinated X-ray contrast media (ICM) are a group of emerging contaminants which have been detected at elevated concentrations in the aquatic environment. These compounds are excreted unmetabolized into hospital wastewater, and eventually treated at wastewater treatment plants (WWTPs). The removal of ICM in WWTPs has not been very effective and therefore the ICM enter the aquatic environment via WWTP effluent discharges. Research has investigated the removal of selected ICM via abiotic and biotic processes, however limited work has attempted to determine the fate of these compounds once released into the environment. This thesis investigates the biotransformation of four selected ICM (diatrizoate, iohexol, iomeprol, and iopamidol) in aerobic soil-water and sediment-water systems as well as in different environmental matrices. Iohexol, iomeprol and iopamidol were biotransformed to several TPs in the aerobic batch systems, while no biotransformation was observed for the ionic ICM, diatrizoate. In total 34 biotransformation products (TPs) of the three non-ionic ICM were identified. The combination of semi-preparative HPLC-UV, hybrid triple quadrupole-linear ion trap mass spectrometry (Qq-LIT-MS) was found to be an accurate approach for the structural elucidation of ICM TPs. The ICM TPs resulted in microbial transformation occurring at the side chains of the parent ICM, with the iodinated aromatic ring unmodified.
Die Beschreibung des Verhaltens eines Multi-Agenten-Systems (MAS) ist eine fordernde Aufgabe, besonders dann, wenn es in sicherheitskritischen Umgebungen eingesetzt werden soll. Denn in solchen Umgebungen muss die Beschreibung besonders sorgfältig ausgeführt werden um Seiteneffekte zu vermeiden, die ungewünschte oder sogar zerstörerische Folgen haben könnten. Deshalb sind formale Methoden nützlich, die auf mathematischen Modellen des zu entwerfenden Systems basieren. Sie erlauben es nicht nur das System formal auf verschiedenen Abstraktionsebenen zu spezifizieren, sondern auch seine Konsistenz noch vor der Implementierung zu verifizieren. Das Ziel der formalen Spezifikation ist eine präzise und eindeutige Beschreibung des Verhaltens des Multi-Agenten-Systems, während die Verifikation darauf abzielt, geforderte Eigenschaften dieses Systems zu beweisen. Üblicherweise wird das Verhalten eines Agenten als diskrete Änderung seines Zustands im Bezug auf externe oder interne Aktionen aufgefasst. Jedes mal, wenn eine Aktion auftritt, ändert sich der Zustand des Agenten. Deshalb sind Zustandsübergangsdiagramme bzw. endliche Automaten ein naheliegender Ansatz das Verhalten zu modellieren. Ein weiterer Vorteil einer solchen Beschreibung ist, dass sie sich für das sogenannte Model Checking eignet. Dabei handelt es sich um eine automatische Analysetechnik, die bestimmt, ob das Modell des Systems spezifizierten Eigenschaften genügt. Allerdings muss in realistischen, physikalischen Umgebungen neben dem diskreten auch das kontinuierliche Verhalten des Multi-Agenten-Systems betrachtet werden. Dabei könnte es sich beispielsweise um die Schussbewegung eines Fußballspieler-Agenten, den Prozess des Löschens durch einen Feuerwehr-Agenten oder jedes andere Verhalten handeln, das auf zeitlichen physikalischen Gesetzen basiert. Die üblichen Zustandsübergangsdiagramme sind nicht ausreichend, um diese beiden Verhaltensarten zu kombinieren. Hybride Automaten stellen jedoch eine elegante Lösung dar. Im Wesentlichen erweitern sie die üblichen Zustandsübergangsdiagramme durch Methoden, die sich mit kontinuierlichen Aktionen befassen. Die Zustandsübergänge modellieren weiterhin die diskreten Verhaltenswechsel, während Differentialgleichungen verwendet werden um das kontinuierliche Verhalten zu beschreiben. Besonders geeignet erscheinen Hybride Automaten, weil ihre formale Semantik die Verifikation durch Model Checking erlaubt. Deshalb ist das Hauptziel dieser Arbeit, Hybride Automaten für die Modellierung und die Verifikation des Verhaltens von Multi-Agenten-Systemen einzusetzen. Jedoch bringt ihr Einsatz mehrere Probleme mit sich, die betrachtet werden sollten. Zu diesen Problemfeldern zählen Komplexität, Modularität und die Aussagestärke der Modelle. Diese Arbeit befasst sich mit diesen Problemen und liefert mögliche Lösungen.
This dissertation provides an interdisciplinary contribution to the project ReGLaN-Health & Logistics. ReGLaN-Health & Logistics, is an international cooperation deriving benefits from the capabilities of scientists working on different fields. The aim of the project is the development of a socalled SDSS that supports decision makers working within health systems with a special focus on rural areas. In this dissertation, one important component for the development of the DSS named EWARS is proposed and described in detail. This component called SPATTB is developed with the intention of dealing with spatial data, i.e. data with additional geocoded information with regard to the special requirements of the EWARS.rnrnAn important component in the process of developing the EWARS is the concept of GIS. Classically, geocoded information with a vectorial character numerically describing spatial phenomena is managed and processed in a GIS. For the development of the EWARS, the manageability of the type of data exemplarily given by (x,y,o) with coordinates x,y ) and Ozon-concentration o is not sufficient. It is described, that the manageable data has to be extended to data of type (x,y,f ), where (x,y) are the geocoded information, but where f is not only a numerical value but a functional description of a certain phenomenom. An example for the existence and appearance of that type of data is the geocoded information about the variation of the Ozon-concentration in time or depending on temperature. A knowledge-base as important subsystem of DSS containing expert knowledge is mentioned. This expert-knowledge can be made manageable when using methods from the field of fuzzy logic. Thereby mappings, socalled fuzzy-sets, are generated. Within the EWARS, these mappings will be used with respect to additional geocoded data. The knowledge about the geocoded mapping information only at a finite set of locations (x,y) associated with mapping information f is not sufficient in applications that need continuous statements in a certain geographical area. To provide a contribution towards solving this problem, methods from the field of computer geometry and CAD, so-called Bezier-methods, are used for interpolating this geocoded mapping information. Classically, these methods operates on vectors a the multidimensional vector-space whose elements contain real-valued components but in terms of dealing with mapping information, there has to be an extension on topological vector spaces since mapping spaces can be defined as such spaces. This builds a new perspective and possibility in the application of these methods. Therefore, the according algorithms have to be extended; this work is presented. The field of Artificial Neural Networks plays an important role for the processing and management of the data within the EWARS, where features of biological processes and structures are modeled and implemented as algorithms. Generally, the developed methods can be divided as usable in terms of interpolation or approximation functional coherences and in such being applicable to classification problems. In this dissertation one method from each type is regarded in more detailed. Thereby, the classical algorithms of the so-called Backpropagation-Networks for approximation and the Kohonen-Networks for classification are described. Within the thesis, an extension of these algorithms is then proposed using coherences from mathematical measure-theory and approximation theory. The mentioned extension of these algorithms is based on a preprocessing of the mapping data using integration methods from measure theory.
The semantic web and model-driven engineering are changing the enterprise computing paradigm. By introducing technologies like ontologies, metadata and logic, the semantic web improves drastically how companies manage knowledge. In counterpart, model-driven engineering relies on the principle of using models to provide abstraction, enabling developers to concentrate on the system functionality rather than on technical platforms. The next enterprise computing era will rely on the synergy between both technologies. On the one side, ontology technologies organize system knowledge in conceptual domains according to its meaning. It addresses enterprise computing needs by identifying, abstracting and rationalizing commonalities, and checking for inconsistencies across system specifications. On the other side, model-driven engineering is closing the gap among business requirements, designs and executables by using domain-specific languages with custom-built syntax and semantics. In this scenario, the research question that arises is: What are the scientific and technical results around ontology technologies that can be used in model-driven engineering and vice versa? The objective is to analyze approaches available in the literature that involve both ontologies and model-driven engineering. Therefore, we conduct a literature review that resulted in a feature model for classifying state-of-the-art approaches. The results show that the usage of ontologies and model-driven engineering together have multiple purposes: validation, visual notation, expressiveness and interoperability. While approaches involving both paradigms exist, an integrated approach for UML class-based modeling and ontology modeling is lacking so far. Therefore, we investigate the techniques and languages for designing integrated models. The objective is to provide an approach to support the design of integrated solutions. Thus, we develop a conceptual framework involving the structure and the notations of a solution to represent and query software artifacts using a combination of ontologies and class-based modeling. As proof of concept, we have implemented our approach as a set of open source plug-ins -- the TwoUse Toolkit. The hypothesis is that a combination of both paradigms yields improvements in both fields, ontology engineering and model-driven engineering. For MDE, we investigate the impact of using features of the Web Ontology Language in software modeling. The results are patterns and guidelines for designing ontology-based information systems and for supporting software engineers in modeling software. The results include alternative ways of describing classes and objects and querying software models and metamodels. Applications show improvements on changeability and extensibility. In the ontology engineering domain, we investigate the application of techniques used in model-driven engineering to fill the abstraction gap between ontology specification languages and programming languages. The objective is to provide a model-driven platform for supporting activities in the ontology engineering life cycle. Therefore, we study the development of core ontologies in our department, namely the core ontology for multimedia (COMM) and the multimedia metadata ontology. The results are domain-specific languages that allow ontology engineers to abstract from implementation issues and concentrate on the ontology engineering task. It results in increasing productivity by filling the gap between domain models and source code.
Über 10.000 verschiedene organische Substanzen wie Arzneistoffe, Inhaltsstoffe von Körperpflegemitteln und Biozide werden regelmäßig im Alltag eingesetzt. Die meisten Substanzen gelangen nach ihrer Verwendung in das häusliche Abwasser. Bisherige wissenschaftliche Untersuchungen haben ergeben, dass eine konventionelle biologische Abwasserreinigung in kommunalen Kläranlagen keine ausreichende Barriere für die Emission dieser anthropogenen Stoffe in die Oberflächengewässer darstellt.
Dies birgt unvorhersehbare Risiken für die aquatischen Lebensgemeinschaften und die Trinkwasserversorgung. Hinsichtlich ihres Vorkommens und Verhaltens in kommunalen Kläranlagen besteht daher insbesondere für erst kürzlich eingeführte und/oder in der Umwelt nachgewiesene Spurenstoffe (sogenannte "neuartige" Spurenstoffe, engl.: "emerging micropollutants") ein großer Forschungsbedarf. Um ein möglichst umfassendes Bild vom Verhalten neuartiger organischer Spurenstoffe in der kommunalen Abwasserbehandlung zu erhalten, wurden im Rahmen dieser Dissertation die folgenden Substanzklassen, welche ein weites Spektrum an physiko-chemischen Eigenschaften aufweisen, untersucht: Arzneistoffe (Betablocker und psychoaktive Substanzen), UV-Filtersubstanzen, Vulkanisationsbeschleuniger (Benzothiazole), Biozide (Antischuppenmittel, Konservierungsmittel, Desinfektionsmittel) und Pestizide (Phenylharnstoff- und Triazinherbizide).
Folksonomien sind Web 2.0 Plattformen, in denen Benutzer verschiedene Inhalte miteinander teilen können. Die Inhalte können mit Hilfe von Stichwörtern, den sogenannten Tags, kategorisiert und organisiert werden. Die verschiedenen Folksonomien unterstützen unterschiedliche Inhaltstypen wie zum Beispiel Webseiten (Delicious), Bilder (Flickr) oder Videos (YouTube). Aufgrund ihrer einfachen Benutzungsweise haben Folksonomien viele Millionen Benutzer. Die einfache Benutzungsweise führt aber auch zu einigen Problemen. Diese Doktorarbeit beschäftigt sich mit drei der wichtigsten Probleme und beschreibt Methoden, wie sie gelöst werden können. Das erste dieser Probleme tritt auf, wenn Benutzer die Folksonomien nach bestimmten Inhalten durchsuchen wollen. Häufig können dabei nicht alle relevanten Inhalte gefunden werden, da diesen relevante Stichwörter fehlen. Dementsprechend tritt das zweite Problem während der Vergabe von Stichwörtern auf. Manche Folksonomien, wie zum Beispiel Delicious, unterstützen ihre Benutzer dabei, indem sie ihnen mögliche Stichwörter empfehlen. Andere Folksonomien, wie zum Beispiel Flickr, bieten keine solche Unterstützung. Die Empfehlung von Stichwörtern hilft dem Benutzer dabei, Inhalte auf einfache Art und Weise mit den jeweils relevanten Stichwörtern zu versehen. Das dritte Problem besteht darin, dass weder Stichwörter noch Inhalte mit einer festen Semantik versehen sind und mehrdeutig sein können. Das Problem entsteht dadurch, dass die Benutzer die Stichwörter vollkommen frei rnverwenden können. Die automatische Identifizierung der Semantik von Stichwörtern und Inhalten hilft dabei, die dadurch entstehenden Probleme zu reduzieren. Diese Doktorarbeit stellt mehrere Methoden vor, wie verschiedene Quellen für semantische Informationen benutzt werden können, um die vorher genannten drei Probleme zu lösen. In dieser Doktorarbeit benutzen wir als Quellen Internetsuchmaschinen, soziale Netzwerke im Internet und die gemeinsamen Vorkommen von Stichwörtern in Folksonomien. Die Verwendung der verschiedenen Quellen reduziert den Aufwand bei der Erstellung von Systemen, die die vorher genannten Probleme lösen. Die vorgestellten Methoden wurden auf einem großen Datensatz evaluiert. Die erzielten Ergebnisse legen nahe, dass semantische Informationen bei der Lösung der Probleme helfen, die während der Suche von Inhalten, der Empfehlung von Stichwörtern als auch der automatischen Identifizierung der Semantik von Stichwörtern und Inhalten auftreten.
Das Ziel der vorliegenden Promotionsarbeit lag darin, physiologische (Herzratenvariabilitätsmaße) und biomechanische Parameter (Schuhmerkmale) und deren mögliche vorhersagende Wirkung auf psychologische Stimmungszustände zu untersuchen. 420 Teilnehmer (275 männlich und 145 weiblich, Alter: M=34.7 Jahre ± 9.7) nahmen an einem 60-minütigen langsamen Ausdauerlauf teil, währenddessen sie Fragen über ein mobiles Antwort- und Aufnahmegerät eingespielt bekamen. Wir untersuchten unterschiedliche Facetten von Stimmungszuständen, physiologischen und biomechanischen Parametern. Mittels einer latenten Wachstumskurvenanalyse wurden mögliche kreuzverzögerte Effekte untersucht. Ergebnisse zeigten unter anderem statistisch signifikante Zusammenhänge (p ≤.05) für die Vorhersage psychologischer Stimmungszustände aus den biomechanischen Maßen, sowie die Vorhersage physiologischer Parameter aus diesen psychologischen Stimmungszuständen.
Aktuelle Entwicklungen in der Europäischen Gesetzgebung fordern die Umsetzung von Risikominderungsmaßnahmen, die diffuse Einträge von Pestiziden in Oberflächengewässer und deren Schadwirkung mindern sollen. Bepflanzte Gräben und Feuchtgebiete (vegetated treatment systems: VTS) bieten die Möglichkeit potenzielle Schadwirkung von Pestizideinträgen infolge von Oberflächenabflussereignissen zu mindern, die mit anderen Maßnahmen unvermeidbar wären. Versuche in experimentellen Feuchtgebieten und bepflanzten Gräben wurden durchgeführt, um die Funktionstüchtigkeit möglicher Systeme zu untersuchen. In fünf Rückhaltebecken und zwei bepflanzten Gräben in der Weinbauregion Südpfalz (Südwestdeutschland) wurde von 2006 bis 2009 eine umfangreiche Beprobung von belastetem Wasser nach Starkregenereignissen vorgenommen und die Reduktionsleistung der Systeme bezüglich der eingetragenen Konzentrationen ermittelt. Der Einfluss von Pflanzendichte, Größe der Systeme und Eigenschaften der eingetragenen, bzw. experimentell eingespeisten Substanzen war Schwerpunkt bei der Auswertung der Ergebnisse. Zur Vorhersage der Gewässerbelastung nach niederschlagsbezogenem Oberflächenabfluss wurde in einer Geoinformationsumgebung (GIS) ein Simulationswerkzeug entwickelt. Das Werkzeug arbeitet mit einer sehr exakten Datenbank von hoher räumlicher Auflösung auf Europäischer Ebene. Basierend auf den Erkenntnissen der Experimente, den Ergebnissen der beprobten Gewässer und weiteren Daten von anderen Systemen, die im EU-Life Projekt ArtWET erhoben wurden, ist ein zweites räumliches Werkzeug entstanden, das zur Entscheidungsunterstützung dient und mit dem Risikominderungsmaßnahmen simuliert werden können. Ergebnisse der Experimente und Feldstudien zeigen, dass in experimentellen Feuchtgebieten und bepflanzten Gräben Reduktionen von über 90% der eingetragenen Pestizidkonzentrationen möglich sind. Bepflanzte Gräben und Feuchtgebiete zeigten signifikant bessere Reduktion als unbepflanzte. Pflanzendichte und Sorptivität an organischen Kohlenstoff wurden als Variablen mit der größten Erklärungskraft für die Zielvariable Reduktion der Pestizidkonzentrationen identifiziert (im Gräben-Mesokosmos konnten 65% der Variabilität mit den Variablen Pflanzendichte und KOC erklärt werden. In der Feldstudie wurde gezeigt, dass Fungizidkonzentrationen innerhalb der Rückhaltebecken (Median 38%) und bepflanzten Gräben (Median 56%) signifikant reduziert wurden. Die Regressionsanalyse mit diesen Daten zeigte, dass neben der Pflanzendichte auch die Größe der Systeme Einfluss auf die Reduktion der Pestizidkonzentrationen hat (DP: R²=0.57, p<0.001; VD:
R²=0.19, p<0.001). Die Datenbank für die GIS Werkzeuge wurde mit frei verfügbaren Europäischen Daten aufgebaut. Der erweiterte, von der OECD empfohlene REXTOX Risikoindikator wurde modifiziert und für die Risikomodellierung für alle Agrargewässer auf Europäischer Ebene angewandt. Die Ergebnisse der Risikosimulationen bieten die Datenbasis für das zweite Werkzeug, in dem auch die VTS als Risikominderungsmaßnahme eingearbeitet sind. Die Berechnung der Risikominderungsmaßnahmen kann für die einzelnen Kulturen, ausgewählte Gebiete und unterschiedliche Pestizide durchgeführt werden. Kosten für die Risikominderungsmaßnahmen werden ermittelt. Die Ergebnisse liefern wichtige neue Erkenntnisse zur Nutzung von bepflanzten Systemen als Risikominderungsmaßnahmen für diffuse Pestizideinträge in Agrargewässer. Die Proben der Weinbaugewässer zeigen, dass auch die bisher schlecht untersuchte Gruppe der Fungizide nachteilige Auswirkungen auf aquatische Ökosysteme haben kann. Die entwickelten GIS Werkzeuge sind leicht anwendbar und damit nicht nur als Basis für zukünftige Untersuchungen geeignet, sondern auch als Entscheidungsunterstützung in der praktischen Umsetzung außerhalb der Forschung hilfreich. Auf Europäischer Ebene können die GIS-Werkzeuge einerseits externe Kosten der Gewässerverschmutzung durch diffuse Pflanzenschutzmitteleinträge berechnen, indem die Kosten der unterschiedlichen Risikominderungsmaßnahmen abgeschätzt werden. Andererseits kann die Simulation der Maßnahmen bei der Entscheidungsfindung zur Umsetzung der Vorgaben der Wasserrahmenrichtlinie helfen. Zukünftige Studien sind insbesondere im Bereich der Fungizidbelastung von Oberflächengewässern und der langfristigen Funktionstüchtigkeit von bewachsenen Gräben und Feuchtgebieten als Risikominderungsmaßnahmen notwendig.
Das Ziel dieser Studie war die Erfassung des Gefährdungsstatus der Pflanzen ostafrikanischer Regenwäldern mit dem Hintergrund eine ex-situ Kultur für gefährdete lokale Pflanzen im Botanischen Garten der Universität Maseno (Kenia) zu gründen.
Für eine nachhaltige Umsetzung war es zunächst notwendig mehr über den Pflanzenbestand im Untersuchungsgebiet herauszufinden, besonders hinsichtlich der Zusammensetzung und Häufigkeit der Arten unter anthropogenem Druck, sowie die Schutzpriorität jeder Pflanzenart zu erfassen. Repräsentativ für ostafrikanische Regenwälder wurden der Kakamega Forest (Kenia) und der Budongo Forest (Uganda) als Modelwälder ausgewählt.
Neben den gesamtfloristischen Untersuchungen die alle vaskulären Pflanzen umfassen, wurde ein Schwerpunkt auf vaskuläre Epiphyten und ihre Anfälligkeit für Waldstörung gelegt. Um die Schutzpriorität der Pflanzen zu erfassen, wurde ein Bewertungssystem entwickelt das auf sieben Gefärdungskriterien basiert. Durch erste Pflanzen Aufsammlungen wurde die ex-situ Kultur im Botanischen Garten Maseno bereits initiiert.
Frühere Publikationen belegen die Bedeutung von Einleitungen aus Abwasserreinigungsanlagen für den Eintrag von organischen und anorganischen Chemikalien (=Mikroverunreinigungen) in die aquatische Umwelt. Von dort können diese Mikroverunreinigungen in das Grundwasser gelangen - und schließlich in das Trinkwasser - oder führen zu mannigfachen Auswirkungen in aquatischen Organismen, beispielsweise die Entwicklung multipler Resistenzen von Bakterien. Daher wird derzeit eine Erweiterung des Abwasserreinigungsprozesses diskutiert, um den Eintrag dieser Mikroverunreinigungen zu reduzieren.
Die vorliegende Arbeit setzte sich in diesem Zusammenhang zum Ziel ökotoxikologische Auswirkungen der Abwasserozonierung, als tertiäre Reinigungsstufe, anhand von speziell entwickelten Testverfahren unter Verwendung der Spezies Gammarus fossarum (Koch) auf verschiedenen Ebenen der ökologischen Komplexität zu untersuchen. Um dieses Ziel zu erreichen, wurden verschiedenste Studien unter Labor- sowie Halbfreilandbedingungen durchgeführt. Zunächst wurde die Sensitivität der Testspezies mittels einer vierwöchigen Exposition gegenüber sekundär behandeltem Abwasser der Abwasserreinigungsanlage (ARA) Wüeri, Schweiz, untersucht. Diese Untersuchung belegte statistisch signifikante Reduktionen der Fraßleistung, der Assimilation sowie physiologischer Endpunkte, welche Auswirkungen auf Reproduktion sowie Populationsentwicklung vermuten lassen. In einer weiteren Untersuchung wurde eine Fraßpräferenz von G. fossarum für Laubscheiben festgestellt, die in ozoniertem Abwasser konditioniert wurden, über solche, konditioniert in nicht ozoniertem (=sekundär behandeltem) Abwasser. Diese Präferenz scheint auf eine veränderte laubassoziierte mikrobielle Gemeinschaft zurückzuführen zu sein. Eine Reihe von Laboruntersuchungen belegte zudem eine statistisch signifikant erhöhte Fraßrate von G. fossarum, welche gegenüber ozoniertem Abwasser der ARA Wüeri - unabhängig davon, ob die Ozonierung auf der ARA selbst oder unter Laborbedingungen durchgeführt wurde - exponiert wurden, verglichen mit nicht ozoniertem Abwasser. Diese Experimente lassen zudem die Schlussfolgerung zu, dass die Veränderungen der organischen Matrix, welche durch die Anwendung der Ozonierung hervorgerufen werden, nicht für die erhöhte Fraßrate von Gammarus verantwortlich sind, da sich die mittlere Fraßrate nur geringfügig zwischen sekundär und ozonbehandeltem Abwasser, welches kaum Mikroverunreinigungen enthielt, unterschied. Auch konnte gezeigt werden, dass Veränderungen im Profil des gelösten organischen Kohlenstoffs (DOC) die Fraßrate nicht beeinflussen. Zudem untermauern in situ Expositionssysteme, welche direkt im Vorfluter Anwendung fanden, die Resultate der Laborstudien. Diese Experimente zeigten lediglich während der Einleitung von sekundär behandeltem Abwasser unterhalb der Einleitung der ARA signifikant reduzierte Fraßraten verglichen mit einer Kontrollstelle direkt oberhalb der Einleitung. Während der Einleitung von ozoniertem Abwasser sind, jedoch, keine Reduktionen in den Fraßraten feststellbar. Schließlich konnten auch Populationsstudien einen höheren Fraß, sowie eine höhere Populationsgröße von G. fossarum, bei einer Exposition gegenüber ozonbehandeltem Abwasser, verglichen mit sekundär behandeltem Abwasser belegen.
Zusammenfassend legt die vorliegende Arbeit dar, dass die Behandlung von Abwasser mit Ozon geeignet ist, durch die Reduktion von Mikroverunreinigungen, die Ökotoxizität zu reduzieren. Daher könnte diese Technologie helfen die Vorgaben der Wasserrahmenrichtlinie, auch unter den vorhergesagten Klimawandelszenarien, welche einen höheren Abwasseranteilen im Vorfluter während der Sommermonate vermuten lassen, einzuhalten. Jedoch werden durch die Anwendung von Ozon auch Nebenprodukte gebildet werden, welche eine höhere Ökotoxizität aufweisen als deren Muttersubstanzen. Daher sollte im Falle der Etablierung dieser Technologie ein weitergehendes chemisches und ökotoxikologisches Monitoring erfolgen.
In dieser Doktorarbeit beschreibe ich das spektrale Verhalten von großen, dynamischen Netzwerken und formuliere das spektrale Evolutionsmodell. Das spektrale Evolutionsmodell beschreibt das Wachstum von Netzwerken, die sich im Laufe der Zeit ändern, und charakterisiert ihre Eigenwert-und Singulärwertzerlegung. Das spektrale Evolutionsmodell sagt aus, dass im Laufe der Zeit die Eigenwerte eines Netzwerks wachsen, und die Eigenvektoren nahezu konstant bleiben. Ich validiere das spektrale Evolutionsmodell empirisch mit Hilfe von über einhundert Netzwerkdatensätzen, und theoretisch indem ich zeige,dass es eine gewisse Anzahl von bekannten Algorithmen zur Kantenvorhersage verallgemeinert, darunter Graph-Kernel, Pfad-Zähl-Methoden, Rangreduktion und Triangle-Closing.
Die Sammlung von Datensätzen, die ich verwende enthält 118 distinkte Datensätze. Ein Datensatz, das soziale Netzwerk mit negativen Kanten des Slashdot-Zoo, wurde speziell während des Verfassens dieser Arbeit extrahiert. Ich zeige auch, dass das spektrale Evolutionsmodell als Generalisierung des Preferential-Attachment-Modells verstanden werden kann, wenn Wachstum in latenten Dimensionen einzeln betrachtet wird. Als Anwendungen des spektralen Evolutionsmodells führe ich zwei neue Algorithmen zur Kantenvorhersage ein, die in Empfehlungssystemen, Suchmaschinen, im Collaborative-Filtering, für die Vorhersage von Bewertungen, für die Vorhersage von Kantenvorzeichen und mehr verwendet werden können. Der erste Kantenvorhersagealgorithmus ergibt ein eindimensionales Curve-Fitting-Problem, aus dem eine spektrale Transformation gelernt wird. Die zweite Methode verwendet Extrapolation von Eigenwerten, um zukünftige Eigenwerte vorherzusagen. Als Spezialfälle zeige ich, dass das spektrale Evolutionsmodell auf gerichtete, ungerichtete, gewichtete, ungewichtete, vorzeichenbehaftete und bipartite Graphen erweitert werden kann. Für vorzeichenbehaftete Graphen führe ich neue Anwendungen der Laplace-Matrix zur Graphzeichnung, zur spektralen Clusteranalyse, und beschreibe neue Laplace-Graph-Kernel, die auf vorzeichenbehaftete Graphen angewendet werden können.
Ich definiere dazu den algebraischen Konflikt, ein Maß für den Konflikt, der in einem vorzeichenbehafteten Graphen vorhanden ist, und das auf der vorzeichenbehafteten Laplace-Matrix begründet ist. Ich beschreibe das Problem der Vorhersage von Kantenvorzeichen spektral, und führe die vorzeichenbehaftete Widerstands-Distanz ein. Für bipartite und gerichtete Graphen führe ich den Sinus-Hyperbolicus-und ungeraden Neumann-Kernel ein, welche den Exponential- und den Neumann-Kernel für ungerichtete unipartite Graphen verallgemeinern. Ich zeige zudem, dass das Problem der gerichteten und bipartiten Kantenvorhersage verwandt sind, dadurch dass beide durch die Evolution der Singulärwertzerlegung gelöst werden können.
Die modellgetriebene Softwareentwicklung beabsichtigt die Spezifikation von Softwaresystemen durch Modelle zu vereinfachen und die automatisierte Entwicklung zu verbessern. Die Modellierungssprachen und Werkzeuge, die zur Modellierung von Systemen und Anwendungsdomänen herangezogen werden, werden in modellbasierten technologischen Räumen zusammengefasst. Ontologiebasierte technologische Räume enthalten Ontologiesprachen und Technologien zum Entwurf, der Anfrage und dem Schlussfolgern von Wissen. Mit der Verbreitung des semantischen Webs werden Ontologien in der Entwicklung von Software zunehmend eingesetzt.
In dieser Arbeit werden zur Kombination von technologischen Räumen Brückentechnologien vorgestellt. Transformationsbrücken übersetzen Modelle, Abbildungsbrücken stellen Beziehungen zwischen Modellen verschiedener technologischer Räume her und Integrationsbrücken verschmelzen Räume zu neuen allumfassenden technologischen Räumen. API Brücken erschaffen Interoperabilität zwischen Werkzeugen. Diese Arbeit beschäftigt sich insbesondere mit der Kombination von modellbasierten und ontologiebasierten technologischen Räumen. Nach einem Vergleich zwischen Sprachen und Werkzeugen der einzelnen Räume wird die Integrationsbrücke herangezogen um einen neuen gemeinsamen technologischen Raum zu erstellen, der den hybriden Gebrauch von Sprachen und den interoperablen Einsatz von Werkzeugen ermöglicht. Die Syntax und Semantik von Modellierungssprachen kann mit Hilfe von Ontologiesprachen spezifiziert werden. Die Korrektheit von Modellen wird durch den Einsatz von Ontologietechnologien gewährleistet. Ontologiebasierte Modellierungssprachen erlauben den Nutzen von Anfrage- und Schlussfolgerungstechnologien. Sie sind darüber hinaus so flexibel um verschiedene Anforderungen von Softwareentwicklern zu erfüllen. Domänenspezifische Sprachen unterstützen neben der Spezifikation von Systemen auch die konzeptionelle Beschreibung von Domänen durch Modelle, die aus möglichen Laufzeitinstanzen und deren Typen bestehen. Integrierte Ontologiesprachen helfen eine formale Semantik für Domänenmodellierungssprachen zu definieren und Ontologietechnologien ermöglichen das Schlussfolgern über Typen und Instanzen.
Alle Ansätze in dieser Arbeit werden mit Hilfe eines Szenarios, in dem die Konfigurationen für Familien von Netzwerkgeräte modelliert werden, veranschaulicht. Ferner werden die Implementationen aller Brückentechnologien zur Kombination von technologischen Räumen und alle Werkzeuge für die ontologiebasierte Entwicklung von Modellierungssprachen illustriert.
A taxonomic revision of the genus Pteris in tropical Africa revealed 26 species. An identification key to the species is provided. Morphological characters were used to prepare a cladistic analysis of the relevant taxa. Each species was evaluated concerning the IUCN red list status. Only Pteris mkomaziensis was considered as Near Threatened, and all other species only as Least Concern. An inventory of the ferns of Kakamega Forest / Kenya and Budongo Forest / Uganda revealed 85 species in Kakamega and 66 species in Budongo. Life form spectra were analysed and the ferns were studied for their value for bioindication.
Zusammenfassend lässt sich sagen, dass die Verwendung von rnAntivirenmittel dazu geführt hat, dass diese heute in der aquatischen Umwelt weit verbreitet sind. Es konnte zudem gezeigt werden, dass es beim Abbau von Antivirenmitteln in biologischen als auch in oxidativen Prozessen mittels Ozon zu keiner Mineralisierung sondern vielmehr zur Bildung von, teilweise stabilen, Transformations- bzw. Oxidationsprodukten kommt.
Dies eine der ersten Studien in der das Verhalten, und insbesondere die Transformation, eines Arzneimittels (Acyclovir) nahezu im gesamten Wasserkreislauf, von der biologischen Abwasserbehandlung bis zu weitergehenden oxidativen Verfahren umfassend beschrieben werden konnte. Die Ergebnisse zeigen deutlich die Bedeutung biologischer Transformationsprodukte als möglichen Vorläufer toxischer Oxidationsprodukte.
Wildschweine gehören zu den meist verbreiteten Huftieren der Welt. Die Wildschweinpopulation in Deutschland stieg in den letzten drei Jahrzehnten deutlich an. Heutzutage führt deren hohe Dichte zu Schäden auf landwirtschaftlichen Flächen und spielt eine wichtige Rolle bei der Ausbreitung von Krankheiten. Für ein effektives Wildschwein Management sind Informationen über absolute Populationszahlen von höchster Bedeutung. Es existieren verschiedene traditionelle Methoden wie z.B. die direkte Beobachtung der Tiere, das Zählen ihrer Losungen oder die Auswertung der Statistiken zu Jagderträgen, die nur relative Schätzungen oder Populationstrends liefern. Absolute Populationszahlen könnte der Fang-Markier-Wiederfang Ansatz hervorbringen. Nichtsdestotrotz ist das Fangen von Wildschweinen schwer zu realisieren und kostenaufwendig in Bezug auf die hierzu benötigten Arbeitskräfte und den Feldarbeitsaufwand.
Weiterhin sind die Fangwahrscheinlichkeiten heterogen aufgrund der Verhaltensvariabilitaet der Individuen, die durch Alter, Geschlecht und Erfahrung der Tiere bedingt ist. Nicht-invasive genetische Verfahren sind vielversprechender gegenüber den traditionellen Methoden der Populationsgrößenschätzung speziell für Wildschweine. Denn zum Einen reduzieren diese Methoden den Stressfaktor der Tiere und senken Fangfehler und zum Anderen erhöhen sie die Zahl indirekter Beobachtungen. Kot eignet sich sehr gut als DNS-Quelle für die Wildschwein Genotypisierung, da dieser eine nahezu gleiche Erfassungswahrscheinlichkeit für alle Tiere gewährleistet. Nichtsdestotrotz bringt das Arbeiten mit Kot Schwierigkeiten mit sich, die sich in in einer geringen DNS Qualität und Quantität oder Genotypisierungsfehlern äußern. Das Hauptziel der vorliegenden Arbeit war die Entwicklung einer zuverlässigen, kostengünstigen, reproduzierbaren und praktikablen Methode zur Genotypisierung von Wildschweinen. Diese Methode sollte einen zuverlässigen Genotypendatensatz liefern, der aus der Genotypisierung gesammelter Kotproben stammte. Individuelle Identifikation bildet die Basis für einen anzuwendenden Fang-Markierung-Wiederfang Ansatz. Da es bisher keine vergleichbaren Untersuchungen zu Populationsschätzungen von Wildscheinen gibt, fehlen Referenzdaten zum nicht-invasiven Ansatz. Daher wurden verschiedene Versuche zur Reduzierung und Quantifizierung der Genotypisierungsfehlerraten (GFR) getestet, verglichen und evaluiert. Um die Amplifizierungsrate zu erhöhen wurden Hälterungs- und DNS-Isolationsverfahre optimiert. Ein Schritt für Schritt Ansatz zur Bestimmung der minimal erforderlichen Anzahl von Mikrosatelliten Marker wurde entwickelt, welcher einen Test mit nahverwandten Individuen (Mütter und deren Föten) beinhaltete, um sogar diese voneinander zu unterscheiden. Ein so genanntes Multitube-Verfahren wurden angewendet um die GFR zu reduzieren. Die Quantifizierung von GFR aus erhobenen Datensätzen wurde evaluiert indem verschiedene Methoden zur GFR-Bestimmung getestet und miteinander verglichen wurden, hierbei ergaben sich GFR zwischen 0% bis 54%. Als Konsequenz dessen wurden die Kriterien für das Multitube-Verfahren verschärft, indem die Anzahl der Wiederholungen von homozygoten Proben erhöht wurde. Eine zusätzliche Validierung in Form eines Blindtests wurde etabliert, um die Zuverlässigkeit der Genotypisierung und Fehlerkorrekturen zu bekräftigen.
Abschließend wurde ein strikter und praktikabler Verfahrenvorschlag entwickelt, beginnend beim Sammeln der Kotproben und endend mit dem Erhalt eines zuverlässigen Datensatzes mit Genotypen einzelner Proben.
Die Ergebnisse der hier präsentierten Methode aus zwei Beprobungen 2006 und 2007 in einem 4000 ha großen Areal im Pfälzer Wald führte zu ungenauen Schätzungen mit hohen Konfidenzintervallen (KI). So lag die geschätzte Populationsgrösse in der Beprobung 2006 bei 215 Individuen, was 156-314 (KI 95%) Individuen entspricht. Die Populationsschätzung 2007 brachte 415 Individuen hervor, was 315-561 (KI 95%) Individuen entspricht. Dies ließ auf zu niedrige Stichproben (2006 betrug n = 141, 2007 n = 326), zu wenig erfolgreich analysierte Proben (2006 n = 89, 2007 n = 156) und/ oder zu wenig Wiederfänge (2006 n = 12, 2007 n = 24) schließen. Zudem ergaben die Schätzungen sogar deutlich höhere Populationszahlen als zuvor durch Jagderträge vermutet wurde, was auf eine uneffektive Bejagungsstrategie in dem Studienareal hindeutet. Für den zukünftigen Ausblick ist es unabdingbar die Stichprobenzahl deutlich zu erhöhen um die Validität und Reliabiltät der Populationsschätzungen zu gewährleisten, da diese für das Wildmanagement und die epidemiologischen Lösungsstrategien von höchster Bedeutung sind. Nichtsdestotrotz konnte die im Rahmen dieser Arbeit entwickelte Methode zur individuellen Wildschwein Genotypisierung erfolgreich etabliert werden. Die daraus resultierenden Datensets zur Modellierung von Populationschätzungen sind zuverlässig und weisen eine ausreichend geringe reale Genotypisierungsfehlerrate auf.
Nandi forests (South and North Nandi forests) are situated in the Rift Valley Province of Kenya very close to Kakamega forest. From previous documents it has been seen that Kakamega and Nandi forests were connected to each other forming one big "U" shaped forest block till the beginnings of 1900s. Due to human pressures, currently there are three different forests form the previous one block forest. Although they were one forest, information on Nandi forests is very scanty when it is compared to that of Kakamega forest. The species composition and diversity as well as plant communities and population structure of Nandi forests have not been studied. Information is not available about the similarity status of South and North Nandi forests. Furthermore the natural regeneration potential (seedling bank) of these forests is not well studied and documented. Hence this study aims to fill these gaps.
In this study totally 76 quadrates (49 from South Nandi and 27 from North Nandi) were used to collect data. In the South Nandi forests 27 of the quadrates were laid in the better side of the forest (at Kobujoi) and the remaining 22 were in the heavily disturbed part of this forest (Bonjoge). The quadrates were arranged on transects that have one to one and half km which were parallel to the slope. The distance between the quadrates was 100 meter and transects are 500 m apart. The size of the main quadrate was 400 m2 (20 X 20 m) which also had five small plots (3 X 3 m) distributed on the four corners and in the center. Each woody plants (climbers, shrubs and trees) having more than one meter and greater than two centimeter diameter at breast height (dbh) were measured and recorded. Seedlings and herbaceous plants were sampled in the smaller plots. Individual plants were identified at species level and when it was not possible to identify in the field voucher specimen were prepared and latter identified at the East African Herbarium, National Museum of Kenya, and Nairobi. Clustering and ordination were performed using PC-ORD and CANOCO ecological softwares, respectively. For both clustering and ordination abundance data of the species was used. Shannon diversity index and evenness were computed using PC-ORD while similarity indices, Fisher alpha, rarefaction, species richness estimation (nonparametric species richness estimators) were conducted using EstimateS. Indicator species analysis was undertaken using PC-ORD. Basal area and height class distribution at forests level or site level (Bonjoge and Kobujoi) and diameter (dbh) class distribution for selected trees species were performed to evaluate population structure.
Furthermore importance value (IV) of woody plant species was calculated. SPSS version 16 was used to undertake both parametric (when data assume normal distribution) and nonparametric (when data are not assuming normal distribution) comparison of means, correlation and regression analysis.
In this study totally 321 vascular plant species comprising 92 families and 243 genera were identified in Nandi forests (both South and North Nandi forests). In South Nandi forest 253 plant species form 82 families and 201 genera were recorded while in North Nandi 181 species comprising 67 families and 155 genera were recorded. Jackknife second order estimators gave the highest species richness estimate for both South and North Nandi forests i.e. 284 and 209, respectively. In the case of highly disturbed and less disturbed parts of South Nandi forest 138 and 172 vascular plant species were recorded, respectively. Asteraceae, Rubiaceae and Euphorbiaceae are the top three species rich families of Nandi forests. In terms of different diversity measures (i.e. alpha and beta diversity, Fisher alpha, Shannon diversity and evenness indices) South Nandi is more diverse than North Nandi forest. Sörensen and Jaccard (classic) as well as their respective abundance based similarities showed that there is a low species similarity between South and Nandi forests. The cluster analysis resulted in three different plant communities and this result is supported by the ordination result.
South and North Nandi forest has inverted "J" height class distribution showing that larger proportion of woody plant individuals are found in the lower height classes. Similar pattern is observed when the diameters of all woody plants were considered together. However, different diameter class distributions (seven types) were identified when selected tree species were analyzed separately. It has been observed that the basal area of South Nandi forest is significantly lower than that of North Nandi forest (Mann-Whitney U =358, p < 0.001). Similarly Bonjoge has significantly lower basal area (t-value=3.77, p<0.01) than that of Kobujoi. Number of woody plat seedlings in South Nandi forest is significantly higher than that of North Nandi (Mann-Whitney U = 362.5, p<0.001). In the same way Bonjoge has significantly smaller number of ssedlings than Kobujoi (t-value 4.24, p<0.001). Most of species in both forests are able to resprout from stumps after physical damage; hence this helps the regeneration of the forests in addition to seedling banks. This study enables to fill some of the information gaps about Nandi forests especially of floristic composition, population structure, natural regeneration and human impacts on this ecosystem.
Ausgehend von Zwei-Prozess-Modellen der Informationsverarbeitung beschäftigt sich die vorliegende Forschungsarbeit mit der Frage, inwieweit die explizite Ekelsensitivität, vermittelt über die Selbstwahrnehmung automatischer Verhaltenscues, an die implizite Ekelsensitivität angepasst wird. Im Unterschied zu vorangegangenen Studien (Hofmann et al., 2009), die einen "blind spot" für die Selbst-, nicht aber für die Fremdwahrnehmung automatischer Verhaltenscues folgerten, wurde in der vorliegenden Forschungsarbeit in zwei Studien eine Anpassung der expliziten an die implizite Ekelsensitivität gemäß der Selbstwahrnehmungshypothese gezeigt. In Studie 1 (N = 75) wurde die prädiktive Validität eines indirekten Ekelsensitivitätsmaßes mit Hilfe einer doppelten Dissoziation belegt. Studie 2 (N = 117) untersuchte die Selbstwahrnehmungshypothese. Gegenüber den Studien von Hofmann et al. (2009) wurde eine modifizierte Selbstwahrnehmungsprozedur verwendet: (a) Das Verhalten wurde mehrmals zurückgemeldet, wobei jeweils eine geringere Anzahl an Verhaltenscues beurteilt wurde, (b) als Domäne wurde die Emotion Ekel mit klaren, eindeutigen automatischen Verhaltenscues (Gesichtsausdruck, Körperbewegungen) verwendet, (c) neben einem globalen, wurde ein spezifisches explizites Ekelsensitivitätsmaß eingesetzt. In Studie 3 (N = 130) wurden die Ergebnisse von Studie 2 repliziert. Weiterhin wurden mit Display Rules und Need for Closure Moderatoren der prädiktiven Validität und des Selbstwahrnehmungs- und Adaptionsprozesses untersucht. Die Moderatoreffekte weisen darauf hin, dass sowohl das Zeigen von Ekel im Gesichtsausdruck, als auch die Wahrnehmung des eigenen Ekel-Gesichtsausdrucks einer selbstbilddienlichen Verzerrung unterworfen sind. Praktische Implikationen und Anregungen für zukünftige Forschung werden diskutiert.
Genetische Populationsstruktur europäischer Hyalodaphnia-Arten: Monopolisierung versus Genfluss
(2012)
Die genetische Populationsstruktur von Arten wird von verschiedenen Faktoren beeinflusst, z.B. vom Reproduktionsmodus. Ein spezieller Reproduktionsmodus ist die zyklische Parthenogenese, eine Abwechslung von Phasen asexueller und sexueller Reproduktion. Die klonale Diversität von zyklisch parthenogenetischen Zooplanktonorganismen wird durch die Größe der Dauerstadienbank im Sediment beeinflusst, d.h. durch die Anzahl der sexuell produzierten Dauereier die sich im Sediment akkumulieren. Weiterhin verringert klonale Erosion, ausgelöst durch stochastische und selektive Prozesse, die Diversität über die Zeit. Da zyklisch parthenogenetische Zooplanktonorganismen neue Habitate effektiv monopolisieren können, wurden die Auswirkungen von Genfluss als vernachlässigbar angenommen. Unter Monopolisierung wird die schnelle Vergrößerung der Population verstanden, was zu einem Vorteil für die ersten Ankömmlinge führt (priority-Effekt). Durch lokale Anpassung und das Aufbauen einer Dauerstadienbank wird Genfluss effektiv entgegen gewirkt, da später ankommende Genotypen sich nicht in der Population etablieren können. Das Ziel dieser Arbeit war die Evaluierung der Prozesse, die die populationsgenetische Struktur von zyklisch parthenogenetischen Zooplanktonorganismen beeinflussen, mit besonderem Fokus auf Monopolisierung und Genfluss. Als Organismen wurden Seenarten der Gattung Daphnia eingesetzt, für die zunächst 32 variable Mikrosatellitenmarker entwickelt wurden. Ein ausgewähltes Marker-Set von zwölf Mikrosatellitenmarkern wurde zusätzlich für die Art- und Hybriddetektion getestet. Mit diesem Marker-Set und einem zusätzlichen mitochondrialen DNA-Marker wurden Proben aus 44 europäischen Gewässern untersucht, die die Arten D. cucullata, D. galeata und D. longispina enthielten. Bei D. galeata sind viele Populationen durch eine geringe klonale Diversität charakterisiert, was darauf hindeutet, dass die Dauerstadienbank nur wenig zur klonalen Diversität beiträgt, wodurch die Effekte der klonalen Erosion sehr schnell detektiert werden. Die genetischen Muster zeigen weiterhin auf, dass rezente Expansion stattgefunden hat, die wahrscheinlich durch die anthropogene Veränderung limnischer Ökosysteme hervorgerufen und begünstigt wurde, wobei hier vor allem die Eutrophierung vieler europäischer Seen im Vordergrund steht. Bei D. longispina und D. cucullata wurde eine von D. galeata stark abweichende Populationsstruktur detektiert. Hohe genetische Differenzierung zwischen Populationen spricht für geringen Genfluss was im Einklang mit den Annahmen von Monopolisierung ist.
Weiterhin ist die klonale Diversität vieler Populationen sehr hoch und deutet somit einen großen Einfluss der Dauerstadienbank an, weshalb die Effekte der klonalen Erosion nicht oder nur gering detektiert wurden. Bei der Analyse der mitochondrialen DNA von D. longispina wurde ein Anstieg der Populationsgröße nach der letzten Eiszeit ermittelt, da die Entstehung vieler Gletscherseen, die ein ideales Habitat für D. longispina darstellen, zu einer Expansion dieser Art führte. Nicht nur die klonale Diversität der D. longispina-Populationen war hoch, sondern die genetische Diversität im Allgemeinen. Dies zeigt auf, dass während der Entstehung dieser Populationen Genfluss hoch gewesen sein muss. Um die Prozesse, die während der frühen Entwicklungsphase einer Population herrschen, besser beurteilen zu können, wurde eine experimentelle Studie durchgeführt, die den zeitlichen Vorteil von ankommenden Genotypen auf den Etablierungserfolg dieser Genotypen untersucht.
Es zeigte sich, dass früh ankommende Genotypen einen Vorteil in der Population haben. Bei ähnlicher Fitness war dieser Vorteil langfristig, aber Genotypen mit einer höheren Fitness dominierten die Population auf lange Sicht, unabhängig vom zeitlichen Vorteil den die einzelnen Genotypen zuvor hatten.rnZusammenfassend, die Ergebnisse dieser Arbeit zeigen, dass zusätzlich zu den bisher untersuchten Prozessen (lokale Anpassung, klonale Erosion und die Größe der Dauerstadienbank) auch Genfluss die Populationsstruktur zyklisch parthenogenetischer Zooplanktonorganismen effektiv beeinflussen kann. Zum Einen, während der Entstehung von Population können mehrere Genotypen zum Aufbau beitragen. Zum Anderen, bei starken Veränderungen der Umweltfaktoren kann Genfluss stark auf die Populationsstruktur wirken.
Modern Internet and Intranet techniques, such as Web services and virtualization, facilitate the distributed processing of data providing improved flexibility. The gain in flexibility also incurs disadvantages. Integrated workflows forward and distribute data between departments and across organizations. The data may be affected by privacy laws, contracts, or intellectual property rights. Under such circumstances of flexible cooperations between organizations, accounting for the processing of data and restricting actions performed on the data may be legally and contractually required. In the Internet and Intranet, monitoring mechanisms provide means for observing and auditing the processing of data, while policy languages constitute a mechanism for specifying restrictions and obligations.
In this thesis, we present our contributions to these fields by providing improvements for auditing and restricting the data processing in distributed environments. We define formal qualities of auditing methods used in distributed environments. Based on these qualities, we provide a novel monitoring solution supporting a data-centric view on the distributed data processing. We present a solution for provenance-aware policies and a formal specification of obligations offering a procedure to decide whether obligatory processing steps can be met in the future.
Die Bedeutung technischer Produkte in unserem Alltag geht weit über die praktischer Werkzeuge hinaus. So ist beispielsweise das Mobiltelefon ein ständiger Begleiter, das neben rein pragmatischen Funktionen auch psychologische Bedürfnisse wie Verbundenheit, Stimulation, Kompetenz, Popularität oder Sicherheit erfüllt. Interaktive Produkte bieten somit ein großes Potential zur Vermittlung freudvoller Erlebnisse, was auch von der Forschung im Bereich Mensch-Technik-Interaktion (Human-Computer Interaction, HCI) anerkannt wurde. Neben aufgabenorientierten Qualitätsaspekten berücksichtigte die HCI-Forschung vermehrt auch Selbst-orientierte, erlebnisbezogene Qualitätsaspekte. Diese Unterscheidung von pragmatischen Produktattributen (beispielsweise Usability, dt. Gebrauchstauglichkeit) und hedonischen Produktattributen (beispielsweise Schönheit) ist angelehnt an das Hedonisch-Utilitaristisch-Modell der Konsumentenpsychologie. Theoretische Modelle des Nutzererlebens (User Experience, UX) messen hedonischen und pragmatischen Attributen eine gleichermaßen wichtige Rolle für das Erleben und die Wertschätzung eines Produkts bei. Im Moment der Produktwahl kommt es jedoch oft zu einem Ungleichgewicht: hier werden vorrangig pragmatische Attribute berücksichtigt, wohingegen hedonische Attribute vernachlässigt werden. Dieses Phänomen lässt sich mit Rechtfertigung erklären. Personen haben das Bedürfnis ihre Wahl zu rechtfertigen und berücksichtigen so eher die Rechtfertigbarkeit von Produktattributen als deren Relevanz für die Freude am Produkt. Pragmatische Attribute sind hier im Vorteil. Durch ihren direkten Bezug zur primären Funktion eines Produkts lassen sie sich weitaus einfacher rechtfertigen als hedonische Attribute. Dies kann dazu führen, dass Personen entgegen ihrer eigentlichen (hedonischen) Präferenz pragmatisch wählen " was ein Dilemma darstellt, denn sie wählen nicht das, woran sie am meisten Freude haben. Die vorliegende Dissertation untersucht die Annahme eines Dilemmas des Hedonischen im Kontext interaktiver Produkte.
Eine erste Reihe von vier Studien bestätigte das angenommene Dilemma. Während Personen ohne Weiteres bereit waren, für einen Qualitätszuwachs bezüglich eines pragmatischen Attributs zu bezahlen, widerstrebte es ihnen, für einen Qualitätszuwachs bezüglich eines hedonischen Attributs zu bezahlen (Studie 1, N = 422). Studie 2 (N = 134) zeigte jedoch, dass Personen hedonische Produktattribute durchaus schätzen und ihre Wahl (insgeheim) auch daran orientieren. Sie begründen ihre Wahl aber vorrangig mit (durchaus fraglichen) pragmatischen Vorteilen. Studie 3 (N = 118) konfrontierte die Studienteilnehmer mit einer Wahl, die einen Kompromiss zwischen hedonischer und pragmatischer Qualität erforderte. Obgleich die Aussicht auf den Erhalt des hedonischen Produkts mit einem höheren Maß an positivem Affekt assoziiert wurde, wählte die Mehrheit der Teilnehmer das pragmatische Produkt, vor allem diejenigen mit einem hohen Rechtfertigungsbedürfnis. Der gefundene Zusammenhang zwischen Produktwahl und erlebtem Bedarf nach Rechtfertigung untermauerte die Annahme von Rechtfertigung als zugrundeliegenden Faktor. Studie 4 (N = 125) widmete sich der weiteren Exploration affektiver Konsequenzen sowie angeführten Begründungen für hedonische und pragmatische Wahl. Wieder war das hedonische Produkt mit einem höheren Maß an positivem Affekt assoziiert als das pragmatische " selbst unter denjenigen, die das pragmatische Produkt wählten.
Eine zweite Gruppe von drei Studien explorierte Möglichkeiten zur Reduktion des Dilemmas mittels experimenteller Manipulation von Rechtfertigung. Die getesteten Manipulationen setzten sowohl an der Rechtfertigbarkeit von Produktattributen als auch am generellen Bedarf nach Rechtfertigung an. Studie 5 (N = 129) erhöhte die jeweilige Rechtfertigbarkeit von hedonischer und pragmatischer Wahl mittels der Eindeutigkeit dargebotener Informationen über Produktattribute. Nicht eindeutige, "elastische" Informationen boten hier einen erhöhten Interpretationsspielraum, der zugunsten bestehender Präferenzen genutzt werden konnte. Erwartungsgemäß führte eine erhöhte Rechtfertigbarkeit zu einem Anstieg der Hedonisch-Wahlraten, die Pragmatisch-Wahlraten blieben von der Manipulation unbeeinflusst. Studie 6 (N = 178) erhöhte die Rechtfertigbarkeit einer hedonischen Wahl durch einen "Testbericht", der hedonische Attribute als ein scheinbar legitimes Entscheidungskriterium anführte. Auch hier zeigte sich mit steigender Rechtfertigbarkeit ein Anstieg der Hedonisch-Wahlraten. Studie 7 (N = 133) manipulierte den generellen Bedarf nach Rechtfertigung durch ein Framing des Produktkaufs als Belohnung. Für ein hedonisches Produkt zeigte sich ein positiver Effekt des Belohnungs-Framings auf die Kaufbereitschaft, für ein pragmatisches Produkt zeigte sich hingegen kein Effekt der Rechtfertigungsmanipulation.
Die vorliegenden Studien zeigen auf, dass hedonische Attribute auch bei technischen Produkten geschätzt werden, wenngleich diese landläufig oft als "Werkzeuge" betrachtet werden. Genau diese noch immer weitverbreitete rein pragmatische Sichtweise auf Technik ist es womöglich, die Personen zögern lässt, ihrem Wunsch nach hedonischer Qualität nachzugeben " zumindest solange sie glauben, ihre Wahl rechtfertigen zu müssen. Die vorliegenden Ergebnisse tragen zu einem besseren Verständnis der komplexen Konsequenzen hedonischer und pragmatischer Attribute bei, und weisen auf eine generelle Notwendigkeit der Erweiterung des Fokus der User Experience-Forschung auf den Moment der Wahl hin. Limitationen der vorliegenden Studien, Implikationen für zukünftige Forschung, sowie praktische Implikationen für die Produktgestaltung und -vermarktung werden diskutiert.
Die vorliegende Dissertation beschäftigt sich mit der Messung subjektiver Filmbewertungskriterien (SMEC). SMEC können definiert werden als Standards, die Zuschauer heranziehen, um Eigenschaften von Filmen (z. B. Story, Kamera) zu bewerten. Basierend auf Annahmen aus der Social Cognition Forschung können SMEC als mentale Repräsentationen von - oder Einstellungen gegenüber - spezifischen Filmeigenschaften verstanden werden und spielen eine wichtige Rolle bei der kognitiven und affektiven Informationsverarbeitung und Bewertung von Filmen. In fünf Phasen wurden Skalen zur Erfassung von SMEC entwickelt und validiert. In Phase I wurden mithilfe von offenen Fragen Beschreibungen für Filmbewertungskriterien gesammelt, mittels modifizierter Struktur-Lege-Technik inhaltsvalidiert und schließlich Itemformulierungen abgeleitet. In Phase II wurden die Items reduziert und faktorenanalytisch auf ihre latente Struktur untersucht. Das resultierende 8-Faktoren-Modell wurde anschließend in Phase III mithilfe weiterer Stichproben und konfirmatorischer Verfahren kreuzvalidiert. Latent State-Trait Analysen in Phase IV zeigten, dass es sich um reliable und relativ stabile Dimensionen handelt. Schließlich wurde in Phase V das nomologische Netzwerk der SMEC und verwandter Konstrukte (z. B. Filmbewertungen) untersucht. Insgesamt kann festgestellt werden, dass das SMEC-Konzept einen geeigneten Rahmen bietet, um Forschungsfragen zur Rolle von Filmbewertungskriterien und Bewertungsprozessen bei der Selektion, Rezeption und Wirkung von Filmen zu formulieren und dass die SMEC-Skalen ein geeignetes reliables und valides Instrument zur Untersuchung solcher Fragen darstellen.
To assess the effect of organic compounds on the aquatic environment, organisms are typically exposed to toxicant solutions and the adverse effects observed are linked to the concentration in the surrounding media. As compounds generally need to be taken up into the organism and distributed to the respective target sites for the induction of effects, the internal exposure is postulated to best represent the observed effects.
The aim of this work is to contribute to an improved effect assessment of organic compounds by describing experimental and modelling methods to obtain information on the internal exposure of contaminants in organisms.
Chapter 2 details a protocol for the determination of bioconcentration parameter for uptake (k1) and elimination (k2) of organic compounds in zebrafish (Danio rerio) eggs. This enables the simulation of the internal exposure in zebrafish eggs from an ambient exposure concentration over time. The accumulated contaminant amount in zebrafish eggs was also determined, using a biomimetic extraction method. Different bioconc-entration estimation models for the determination of internal steady-state concentrat-ion of pharmaceutical compounds in fish to an environmental exposure are presented in Chapter 3. Bioconcentration factors were estimated from the compounds octanol: water partition coefficient (KOW) to determine the internal exposure to an ambient concentration.
To assess the integral bioavailable fraction from the water and sediment phase of environmental contaminants for rooted aquatic plants, the internal exposure in river-living Myriophyllum aquaticum plants were determined over time, presented in Chapter 4. The plants were collected at different time points, with the accumulated organic contaminants determined using a liquid extraction method.
In Chapter 5 a protocol was established to enable the non-invasive observation of effects in M. aquaticum plants exposed to contaminated sediments over time. Since the toxicant effects are a result of all uptake and distribution processes to the target site and the toxico-dynamic process leading to an observed effect during static exposure, information on the internal exposure could thus be gained from the temporal effect expression.rn
The first group that was revised within my study is Ochralea Clark, 1865 (Hazmi & Wagner 2010a). I have checked the type specimen of most species that were originally described in Ochralea and there is no doubt that this genus is clearly distinct from Monolepta. Weise (1924) has synonymised Galeruca nigripes (Olivier, 1808) with O. nigricornis Clark, 1865 and the valid name of the species is O. nigripes (Olivier, 1808). Out of ten species originally described in this genus, only this species remain valid and O. pectoralis is a new synonym of O. nigripes. Additionally, Monolepta wangkliana Mohamedsaid, 2000 is very closely related to O. nigripes and need to be transferred to Ochralea. The second genus where the revision is still published is Arcastes Baly, 1865 (Hazmi & Wagner 2010b). I have checked the genitalic characters of A. biplagiata, and most of the type species of other Arcastes. Arcastes biplagiata possesses a peculiar shape of the median lobe and asymmetrically arranged endophallic structures. These peculiar characters are very useful to delimit this genus from the others. Therefore, only three valid species remain in Arcastes, while two new synonyms are found and fourrnother species need to be transferred to other genera. While checking the genitalic characteristics of type species of Arcastes sanguinea, thernmedian lobe as well as the spermatheca of this species possesses strong differences to A. biplagiata. The species was redescribed and transferred in a monotypic new genus Rubrarcastes Hazmi & Wagner, 2010c. The fourth genus that was already revised is Neolepta Jacoby, 1884. It was originally described on base of only two species by that time, N. biplagiata and N. fulvipennis. Jacoby has not designated a type species of the genus, and Maulik (1936) did it later, with the designation of N. biplagiata. Jacoby in his original description has only commented that Neolepta is very close and similar to Monolepta Chevrolat, 1837 and Candezea Chapuis, 1879. Subsequent authors have described further eight species, and transferred one species from Luperodes to it, summing up the total number of eleven described species in Neolepta. I have checked the genitalic characters of the type, N. biplagiata and have found out that the median lobe is not incised apically and stronger sclerotised ventral carinae with an apical hook close to the apex occur. Out of all described species, only two are closely related to the genero-type, N. sumatrensis (Jacoby, 1884) new combination and N. quadriplagiata Jacoby, 1886 that will remain in this group after the revision. All other species need to be transferred to other genera, including the newly described Paraneolepta and Orthoneolepta. The last distinct paper of this thesis presented the results on Monolepta Chevrolat, 1837. The massive number of Monolepta from the entire Oriental Region, with about 260 described species names is a more long-life project and not practicable within a PhD-study. Thus I have focused on the species of Monolepta known from the Sundaland area in this work. A comprehensive revision including the study of the primary types of the described species, has never been done for Monolepta from this sub-region, while new species have also been described in the last decade (e. g. Mohamedsaid 1993, 1997, 1998, 1999, 2000a,b, 2001, 2002, 2005).
On base of the most current species lists of Mohamedsaid (2001, 2004, 2005) and Kimoto (1990), the number of valid species described from this region is about 72. After my revision, only thirteen valid species can remain in Monolepta in the sense of the generotype M. bioculata (Wagner 2007), while seven species have been found as new synonyms, three have been already transferred to other genera and further 49 species need to be transferred to other genera.
Agricultural pesticides, especially insecticides, are an integral part of modern farming. However, these may often leave their target ecosystems and cause adverse effects in non- target, especially freshwater ecosystems, leading to their deterioration. In this thesis, the focus will be on Insect Growth Regulators (IGRs) that can in many ways cause disruption of the endocrine system of invertebrates. Freshwater invertebrates play important ecological, economic and medical roles, and disruption of their endocrine systems may be crucial, considering the important role hormones play in the developmental and reproductive processes in organisms. Although Endocrine Disruption Chemicals (EDCs) can affect moulting, behaviour, morphology, sexual maturity, time to first brood, egg development time, brood size (fecundity), and sex determination in invertebrates, there is currently no agreement upon how to characterize and assess endocrine disruption (ED). Current traditional ecotoxicity tests for Ecological Risk Assessment (ERA) show limitations on generating data at the population level that may be relevant for the assessment of EDCs, which effects may be sublethal, latent and persist for several generations of species (transgenerational).
It is therefore the primary objective of this thesis to use a test method to investigate adverse effects of EDCs on endpoints concerning development and reproduction in freshwater invertebrates. The full life-cycle test over two generations that includes all sensitive life stages of C. riparius (a sexual reproductive organism) allows an assessment of its reproduction and should be suitable for the investigation of long-term toxicity of EDCs in freshwater invertebrates. C. riparius is appropriate for this purpose because of its short life cycle that enables the assessment of functional endpoints of the organism over several generations. Moreover, the chironomid life cycle consists of a complete metamorphosis controlled by a well-known endocrine mechanism and the endocrine system of insects has been most investigated in great detail among invertebrates. Hence, the full life-cycle test with C. riparius provides an approach to assess functional endpoints (e.g. reproduction, sex ratio) that are population-relevant as a useful amendment to the ERA of EDCs. In the laboratory, C. riparius was exposed to environmentally-relevant concentrations of the selected IGRs in either spiked water or spiked sediment scenario over two subsequent generations.
The results reported in this thesis revealed significant effects of the IGRs on the development and the reproduction of C. riparius with the second (F1) generation showing greater sensitivity. These findings indicated for the first time the suitability of multigenerational testing for various groups of EDCs and strongly suggested considering the full life-cycle of C. riparius as an appropriate test method for a better assessment of EDCs in the freshwater environment. In conclusion, this thesis helps to detect additional information that can be extrapolated at population level and, thus, might contribute to better protection of freshwater ecosystems against the risks of Endocrine Disrupting Chemicals (EDCs.) It may furthermore contribute to changes in the ERA process that are necessary for a real implementation of the new European chemical legislation, REACH (Registration, Evaluation Authorization and Restriction of Chemicals). Finally, significant interactions between temperature, chemical exposure and generation were reported for the first time and, may help predict impacts that may occur in the future, in the field, under predicted climate change scenarios.
Weltweit sind ein Drittel bis die Hälfte der Flusskrebsarten von Populationsrückgang oder Aussterben bedroht. Neben einer Verschlechterung der Habitate, Umweltverschmutzung und anderen vom Menschen verursachten Umweltveränderungen stellen eingeschleppte exotische Arten und Krankheitserreger eine große Bedrohung für das Überleben europäischer Flusskrebsarten dar. Flusskrebse sind die größten Wirbellosen in limnischen Systemen und haben einen entsprechend großen Einfluss auf die Struktur der Nahrungsnetze. Das Verschwinden von Flusskrebsen aus einem Gewässer kann Nahrungsnetze verändern und somit dramatische Konsequenzen für ein Ökosystem zur Folge haben. Ein Ziel im modernen Artenschutz ist die Erhaltung der genetischen Vielfalt. Eine hohe genetische Vielfalt ist für das langfristige Überleben einer Art von Vorteil.
Das Hauptziel meiner Arbeit war es, die genetische Struktur des gefährdeten Edelkrebses (Astacus astacus) in seinem europäischen Verbreitungsgebiet zu untersuchen und die besonders schützenswerten genetische 'Hotspots' zu identifizieren (Teil 1 der Dissertation). Die größte Bedrohung für die Diversität europäischer Flusskrebsarten stellt der Krebspesterreger Aphanomyces astaci dar. Daher muss die Verbreitung des Krankheitserregers bei Schutzprogrammen beachtet werden.
Im zweiten Teil der Dissertation untersuchte ich neue Aspekte der Verbreitung von A. astaci. Die Ergebnisse dienen als Grundlage für zukünftige Artenschutzprogramme für Flusskrebse.
Im ersten Teil dieser Arbeit führte ich eine phylogeographische Analyse der Edelkrebse durch, um genetische 'Hotspots' zu identifizieren und die nacheiszeitliche Wiederbesiedlung Zentraleuropas durch diese Art zu rekonstruieren. Mit mitochondrialer DNA und nuklearen Mikrosatelliten-Markern ermittelte ich eine hohe genetische Vielfalt in Südosteuropa, die darauf hinweist, dass der Edelkrebs die kalten Klimaphasen des Pleistozäns in diesem Gebiet überdauerte (Appendix 1). Wegen der hohen genetischen Vielfalt ist Südosteuropa von besonderer Bedeutung für den Schutz des Edelkrebses. Die mitochondriale DNA-Analyse deutet auf eine gegabelte Kolonisierung vom unteren Donaueinzugsgebiet in a) das Einzugsgebiet der Nordsee und b) das Einzugsgebiet der Ostsee hin (Kapitel 2). Ein zweites, unabhängiges Refugium, welches im westlichen Balkan lokalisiert wurde, hat vermutlich nicht zur Besiedlung Mitteleuropas beigetragen. Außerdem stellte ich fest, dass die natürliche genetische Struktur teilweise überlagert ist, wahrscheinlich aufgrund des hohen menschlichen Einflusses auf die Verbreitung des Edelkrebses (bspw. künstliche Translokation). Im zweite Teil dieser Arbeit konnte ich mittels real-time-PCR ermitteln, dass neben den bekannten drei nordamerikanischen Flusskrebsarten auch Kalikokrebse (Orconectes immunis) Träger des Krebspesterregers sind (Kapitel 3). Des Weiteren habe ich den Krebspesterrreger in der unteren Donau in Rumänien an amerikanischen Kamberkrebsen (Orconectes limosus) und europäischen Galizierkrebsen (Astacus leptodactylus) nachweisen können (Kapitel 4). Die Ausbreitung der infizierten Kamberkrebse bis in die untere Donau stellt eine große Bedrohung für die Artenvielfalt in Südosteuropa dar und zeigt das hohe Invasionspotential der Kamberkrebse. Darüber hinaus stellte ich fest, dass auch einheimische Galizierkrebse im Donaudelta, etwa 970 km hinter der aktuellen Invasionsfront des Kamberkrebses, Träger von A. astaci sind (Kapitel 5). Diese Erkenntnis ist von besonderer Bedeutung, da die einheimischen Arten offenbar nicht an der Infektion leiden. Die Untersuchung koexistierender Populationen europäischer und amerikanischer Flusskrebse ergab, dass die Abwesenheit des Krebspesterregers in diesen Populationen die wahrscheinlichste Erklärung für die erfolgreiche Koexistenz in den untersuchten Gewässern in Mitteleuropa ist (Kapitel 6). Die Ergebnisse meiner Dissertation zeigen neue Aspekte, die von hoher Relevanz für den Schutz und Erhalt einheimischer Flusskrebsarten und deren genetischer Vielfalt sind: 1)Die genetische Diversität des Edelkrebses ist in Südosteuropa am höchsten. Dort überdauerten Edelkrebse die letzte Eiszeit in mindestens zwei unabhängigen Refugien. 2) Nicht alle amerikanischen Flusskrebspopulationen sind Träger der Krebspest und 3) nicht alle europäischen Flusskrebspopulationen sterben innerhalb kurzer Zeit an einer Infizierung mit dem Krebspesterreger. Um einheimische Flusskrebse und deren (genetische) Vielfalt langfristig zu erhalten, dürfen keine weiteren amerikanischen Flusskrebse in der Natur ausgesetzt werden. Das unbefugte Aussetzen wird jedoch erst zurückgehen, wenn der Handel mit exotischen Flusskrebsen verboten wird.
Die vorliegende Dissertation behandelt den Einsatz von Theorembeweise innerhalb der automatischen Fragebeantwortung (question answering - QA). QA-Systeme versuchen, natürlichsprachliche Fragen korrekt zu beantworten. Sie verwenden eine Vielzahl von Methoden aus der Computerlinguistik und der Wissensrepräsentation, um menschliche Sprache zu verarbeiten und die Antworten aus umfangreichen Wissensbasen zu beziehen. Diese Methoden sind allerdings meist syntaxbasiert und können kein implizites Wissen herleiten. Die Theorembeweiser der automatischen Deduktion dagegen können Folgerungsketten mit Millionen von Inferenzschritten durchführen. Die Integration eines Beweisers in ein QA-System eröffnet die Möglichkeit, aus den Fakten einer Wissensbasis neues Wissen herzuleiten und somit die Fragebeantwortung zu verbessern. Herausforderungen liegen in der Überwindung der gegensätzlichen Herangehensweisen von Fragebeantwortung und Deduktion: Während QA-Methoden normalerweise darauf abzielen, auch mit unvollständigen oder fehlerhaften Daten robust und schnell zu halbwegs annehmbaren Ergebnissen zu kommen, verwenden Theorembeweiser logische Kalküle zur Gewinnung exakter und beweisbarer Resultate. Letzterer Ansatz erweist sich sich aber als schwer vereinbar mit der Quantität und der Qualität der im QA-Bereich üblichen Wissensbestände.
Die Dissertation beschreibt Anpassungen von Theorembeweisern zur Überwindung dieser Hürden. Zentrales Beispiel ist der an der Universität Koblenz-Landau entwickelte Beweiser E-KRHyper, der im Rahmen dieser Dissertation in das QA-System LogAnswer integriert worden ist. Außerdem vorgestellt werden zusätzliche Erweiterungsmöglichkeiten auf der Implementierungs- und der Kalkülebene, die sich aus dem praktischen Einsatz bei der Fragebeantwortung ergeben haben, dabei aber generell für Theorembeweiser von Nutzen sein können. Über die reine Deduktionsverbesserung der QA hinausgehend beinhalten diese Erweiterungen auch die Anbindung externer Wissensquellen wie etwa Webdienste, mit denen der Beweiser während des Deduktionsvorgangs gezielt Wissenslücken schließen kann. Zudem ermöglicht dies die Nutzung externer Ontologien beispielsweise zur Abduktion. Evaluationsergebnisse aus eigenen Versuchsreihen und aus Wettbewerben demonstrieren die Effektivität der diskutierten Methoden.
English prepositions take only a small proportion of the language but play a substantial role. Although prepositions are of course also frequently used in English textbooks for secondary school, students fail to incidentally acquire them and often show low achievements in using prepositions correctly. The strategy commonly employed by language instructors is teaching the multiple senses of prepositions by rote which fails to help the students to draw links between the different meanings in usage. New findings in Cognitive Linguistics (CL) suggest a different approach to teaching prepositions and thus might have a strong impact on the methodologies of foreign language teaching and learning on the aspects of meaningful learning. Based on the Theory of Domains (Langacker, 1987), the notions of image schemas (Johnson, 1987) as well as the Conceptual Metaphor Theory (Lakoff & Johnson, 1980), the present study developed a CL-inspired approach to teaching prepositions, which was compared to the traditional teaching method by an empirical study conducted in a German school setting. Referring to the participants from the higher track and the medium track, who are at different proficiency levels, the results indicate that the CL-inspired teaching approach improved students" performance significantly more than the traditional approach in all the cases for the higher track and in some cases for the medium track. Thus, these findings open up a new perspective of the CL-inspired meaningful learning approach on language teaching. In addition, the CL-inspired approach demonstrates the unification of the integrated model of text and picture comprehension (the ITPC model) in integrating the new knowledge with related prior knowledge in the cognitive structure. According to the learning procedure of the ITPC model, the image schema as visual image is first perceived through the sensory register, then is processed in the working memory by conceptual metaphor, and finally it is integrated with cognitive schemata in the long term memory. Moreover, deep-seated factors, such as transfer of mother tongue, the difficulty of teaching materials, and the influence of prior knowledge, have strong effects on the acquisition of English prepositions.
In Studien zur Toxizität von Chemikaliengemischen wurde festgestellt, dass Gemische aus Komponenten in Konzentrationen ohne erkennbare Wirkung als Einzelstoff (NOECs) als Resultat der gemeinsamen Wirkung der Substanzen Toxizität verursachen können. Die Risikobewertung von Chemikalien konzentriert sich jedoch häufig auf einzelne chemische Substanzen, obwohl die meisten lebenden Organismen im Wesentlichen chemischen Gemischen anstatt einzelnen Substanzen ausgesetzt sind. Die Konzepte der additiven Toxizität, Konzentrationsadditivität (CA) und der unabhängigen Wirkung (IA), werden häufig angewendet, um die Mischungstoxizität von Gemischen ähnlich wirkender und unähnlich wirkender Chemikalien vorherzusagen. Allerdings können lebende Organismen, ebenso wie die Umwelt, beiden Chemikalienarten zur gleichen Zeit und am gleichen Ort ausgesetzt sein. Darüber hinaus wäre es nahezu unmöglich, auf experimentellem Wege Toxizitätsdaten für jede denkbare Mischung zu gewinnen, da die Anzahl der Möglichkeiten beinahe unendlich groß ist. Aus diesem Grund muss ein integriertes Modell zur Vorhersage der Mischungstoxizität, welches auf einzelnen Mischungskomponenten mit verschiedenen Arten toxischer Wirkung (MoAs) basiert, entwickelt werden. Die Ziele der vorliegenden Studie sind, die Problematik der Vorhersage der Mischungstoxizität in der Umwelt zu analysieren und integrierte Modelle zu entwickeln, die die Beschränkungen der vorhandenen Vorhersagemodelle zur Abschätzung der Toxizität nicht-interaktiver Mischungen mittels computergestützter Modelle überwinden. Für diese Zielsetzung wurden in dieser Studie vier Unterthemen bearbeitet. Als Erstes wurden Anwendungsbereiche und Beschränkungen bereits bestehender Modelle analysiert und in die drei Kategorien dieser Studie eingruppiert. Aktuelle Ansätze zur Einschätzung der Mischungstoxizität und die Notwendigkeit eines neuen Forschungskonzepts zur Überwindung bestehender Einschränkungen, die aus neueren Studien hervorgehen, wurden diskutiert. Insbesondere diejenigen, die computergestützte Ansätze einbeziehen um die Toxizität chemischer Gemische, basierend auf den toxikologischen Daten einzelner Chemikalien, vorherzusagen. Als Zweites wurde anhand einer Fallstudie und mittels computergestützter Simulation festgestellt, dass die Key Critical Component (KCC) und die Composite Reciprocal (CR) methods, die im Entwurf des Technischen Leitfadens der Europäischen Union (EU) zu Berechnung der Predicted No Effect Concentration (PNEC) und des Derived No Effect Level (DNEL) von Gemischen beschrieben wurden, signifikant abweichende Ergebnisse hervorbringen. Als dritter und vierter Schritt dieser Studie wurden die zwei folgenden integrierten Nebenmodelle entwickelt und erfolgreich angewandt, um die dem CA und IA Modell innewohnenden Beschränkungen zu überwinden, welche theoretisch sowohl für Chemikalien mit ähnlichen, als auch mit abweichenden Reaktionen existieren: 1) Partial Least Squares-based Integrated Addition Model (PLS-IAM) und 2) Quantitative Structure-Activity Relationship-based Two-Stage Prediction (QSAR-TSP) Modell. In dieser Studie wurde gezeigt, dass das PLS-IAM angewandt werden könnte, wenn die toxikologischen Daten ähnlicher Gemische mit gleicher Zusammensetzung zur Verfügung stehen. Das QSAR-TSP Modell zeigt eine Möglichkeit zur Überwindung der kritischen Einschränkungen des herkömmlichen TSP Modells auf, bei der Kenntnisse der MoAs aller Chemikalien erforderlich sind. Diese Studie zeigt das hohe Potential der erweiterten integrierten Modelle, z.B. PLS-IAM und QSAR-TSP, die durch Berücksichtigung verschiedener nicht-interaktiver Komponenten mit unterschiedlichen MoA Gruppen, die Verlässlichkeit konventioneller Modelle erhöhen und das Verfahren der Risikobewertung von Gemischen aus wissenschaftlicher Sicht vereinfachen.
Tagging-Systeme sind faszinierende dynamische Systeme in denen Benutzer kollaborativ Ressourcen mit sogenannten Tags indexieren. Um das volle Potential von Tagging-Systemen nutzen zu können ist es wichtig zu verstehen, wie sich das Verhalten der einzelnen Benutzer auf die Eigenschaften des Gesamtsystems auswirkt. In der vorliegenden Arbeit wird das Epistemic Dynamic Model präsentiert. Es schlägt eine Brücke zwischen dem Benutzerverhalten und den Systemeigenschaften. Das Modell basiert auf der Annahme, dass der Einfluss des gemeinsamen Hintergrundwissens der Benutzer und der Imitation von Tag-Vorschlägen ausreicht, um die Entstehung der Häufigkeitsverteilungen der Tags und des Wachstums des Vokabulars zu erklären. Diese beiden Eigenschaften eines Tagging-Systems hängen eng mit der Entstehung eines gemeinsamen Vokabulars der Benutzer zusammen. Mit Hilfe des Epistemic Dynamic Models zeigen wir, dass die generelle Ausprägung der Tag-Häufigkeitsverteilungen und des Wachstums des Vokabulars ihren Ursprung in dem gemeinsamen Hintergrundwissen der Benutzer haben. Tag-Vorschläge können dann dazu genutzt werden, um gezielt diese generelle Ausprägung zu beeinflussen. In der vorliegenden Arbeit untersuchen wir hauptsächlich den Einfluss der von Vorschlägen populärer Tags ausgeht. Populäre Tags sorgen für einen Feedback-Mechanismus zwischen den Vokabularen der einzelnen Benutzer, der die Inter-Indexer Konsistenz der Tag-Zuweisungen erhöht. Wie wird aber dadurch die Indexierungsqualität in Tagging-Systemen beeinflusst? Zur Klärung dieser Frage untersuchen wir eine Methode zur Messung der Inter-Ressourcen Konsistenz der Tag-Zuweisungen. Die Inter-Ressourcen Konsistenz korreliert positiv mit der Indexierungsqualität, und mit der Trefferquote und der Genauigkeit von Suchanfragen an das System. Sie misst inwieweit die Tag-Vektoren die durch Benutzer wahrgenommene Ähnlichkeit der jeweiligen Ressourcen widerspiegeln. Wir legen mit Hilfe unseres Modell dar, und zeigen es auch mit Hilfe eines Benutzerexperiments, dass populäre Tags zu einer verringerten Inter-Ressourcen Konsistenz führen. Des Weiteren zeigen wir, dass die Inter-Ressourcen Konsistenz erhöht wird, wenn dem Benutzer das eigene, bisher genutzte Vokabular vorgeschlagen wird. Unsere Methode zur Messung der Inter-Ressourcen Konsistenz ergänzt bestehende Evaluationsmaße für Tag-Vorschlags-Algorithmen um den Aspekt der Indexierungsqualität.
Etwa 50 % der Fläche Europas werden landwirtschaftlich genutzt. Dennoch gibt es nahezu keine Information ob Fledermäuse diese Flächen beispielsweise zur Nahrungsaufnahme nutzen. Aufgrund der limitierten Datenbasis mangelt es auch an Schutzkonzepten, die mögliche negative Effekte der landwirtschaftlichen Intensivierung auf die Fledermäuse und deren Nahrungsgrundlage ausgleichen könnten. Da die Exposition von Fledermäusen mit Pflanzenschutzmitteln bislang nicht thematisiert wurde, sind im europäischen Zulassungsverfahren für Pflanzenschutzmittel keine Risikoabschätzungen für Fledermäuse gefordert. Um für Fledermäuse die mögliche Exposition gegenüber Pflanzenschutzmitteln abschätzen zu können, sind Informationen über Vorkommen und Aktivität von Fledermäusen in landwirtschaftlich genutzten Flächen erforderlich. Die Erfassung von Fledermäusen auf einer Vielzahl von Flächen machte es notwendig sich im Vorfeld auf eine geeignete Methodik festzulegen. Die akustische Fledermauserfassung ist im Gegensatz zu deutlich zeitaufwändigeren Methoden wie Netzfang, Telemetrie oder direktes Beobachten die einzige logistisch durchführbare Methode. In der wissenschaftlichen Literatur werden jedoch bei vielen bisher durchgeführten akustischen Methoden Bedenken bezüglich der Berücksichtigung zeitlicher und räumlicher Varianz und der Eignung der verwendeten Detektorsysteme geäußert. Deshalb wurden verschiedene Methoden und Detektorsysteme verglichen und das parallele Beproben mit mehreren stationären und kalibrierten automatischen Aufnahmesystemen als die am besten geeignete Methode zur verlässlichen und vergleichbaren Fledermausaktivitäts-Erfassung befunden.
Mit dieser Methode wurden die Fledermaus-Diversitäten und Aktivitäten in verschiedenen landwirtschaftlichen Kulturen, Wiesen und Wäldern aufgenommen. Außerdem wurde gleichzeitig die Verfügbarkeit von fliegenden Insekten (potentieller Fledermausbeute) mit Licht- oder Klebefallen erfasst. In mehr als 500 Erfassungsnächten wurden circa 110,000 akustische Fledermaus-Rufsequenzen und nahezu 120,000 nachtaktive Insekten gesammelt. Insgesamt wurden 14 Fledermausarten nachgewiesen, darunter die im Gebiet sehr seltene und stark bedrohte Nordfledermaus (Eptesicus nilssonii) und die Mopsfledermaus (Barbastella barbastellum). Alle Arten wurden auch auf landwirtschaftlich genutzten Flächen detektiert.
Die Landwirtschaft im südlichen Rheinland-Pfalz ist durch Weinanbau geprägt. Die Untersuchungen zeigten, dass Weinberge aufgrund der geringen Verfügbarkeit an kleineren nachtaktiven Insekten für die meisten Fledermausarten nur eine geringe Qualität als Jagdgebiet haben. Ein weiterer paarweiser Vergleich von Weinbergen und benachbarten Regenrückhaltebecken bezüglich Nahrungsverfügbarkeit und Fledermausaktivität zeigte, dass Regenrückhaltebecken wichtige Nahrungshabitate im Weinbaugebiet darstellen. Das Anlegen dieser künstlichen Kleingewässer ist somit eine geeignete Methode um Nahrungshabitate für Fledermäuse zu schaffen und damit den negativen Effekten der konventionellen Landwirtschaft hinsichtlich der Nahrungsverfügbarkeit entgegenzuwirken. In anderen landwirtschaftlichen Kulturen wurden mit den parallel untersuchten Wald- und Wiesenhabitaten vergleichbar hohe Insektenvorkommen und Fledermausaktivitäten nachgewiesen. Besonders hohe Fledermausaktivitäten so wie eine besonders hohe Verfügbarkeit von geeigneten Nahrungstieren wurden in Apfelplantangen und Gemüsefeldern gemessen. Da diese beiden Kulturen hohem Pestizidaufwand unterliegen, kann eine Exposition von Fledermäusen gegenüber Pflanzenschutzmitteln dort nicht ausgeschlossen werden. Um das zurzeit verwendete Verfahren zur Risikoabschätzung von Pflanzenschutzmittel-anwendungen auf Vögel und Säuger auf Fledermäuse zu übertragen, wurden nach Applikation eines Insektizides dessen Rückstände auf Fledermaus-artspezifischen Beuteinsekten gemessen. Parallel dazu wurde die Fledermausaktivität erfasst. Die höchsten Pestizidrückstände wurden auf kronenbewohnenden Insekten und Spinnen nachgewiesen. Die darauf basierende Risikoabschätzung deutet auf ein Langzeitrisiko für alle Fledermausarten, die sich wenigstens zum Teil von kronenbewohnenden Arthropoden ernähren, hin. Das Vorkommen von Fledermäusen in landwirtschaftlichen Flächen, die einen Großteil der europäischen, aber auch der weltweiten Fläche ausmachen, führt je nach Kultur zur Exposition von Fledermäusen durch kontaminierte Nahrung oder zu einer Verringerung von Beuteinsekten. Bisher konzentrierten sich Schutzbemühungen auf die Sicherung von Winterquartieren und die Bereitstellung künstlicher Tagesquartiere. Potentielle Effekte von Pflanzenschutzmitteln auf Agrarflächen haben aber möglicherweise einen entscheidenden Einfluss auf die Populationsgrößen von Fledermausarten die in diesen Gebieten vorkommen. Aus diesem Grund sollten die Effekte von Pflanzenschutzmitteln auf Fledermäuse untersucht werden, insbesondere bei der Risikoabschätzung im Pflanzenschutzmittel-Zulassungsverfahren.
Chemical plant protection is an essential element in integrated pest management and hence, in current crop production. The use of Plant Protection Products (PPPs) potentially involves ecological risk. This risk has to be characterised, assessed and managed.
For the coming years, an increasing need for agricultural products is expected. At the same time, preserving our natural resources and biodiversity per se is of equally fundamental importance. The relationship of our economic success and cultural progress to protecting the environment has been made plain in the Ecosystem Service concept. These distinct 'services' provide the foundation for defining ecological protection goals (Specific Protection Goals, SPGs) which can serve in the development of methods for ecological risk characterisation, assessment and management.
Ecological risk management (RM) of PPPs is a comprehensive process that includes different aspects and levels. RM is an implicit part of tiered risk assessment (RA) schemes and scenarios, yet RM also explicitly occurs as risk mitigation measures. At higher decision levels, RM takes further risks, besides ecological risk, into account (e.g., economic). Therefore, ecological risk characterisation can include RM (mitigation measures) and can be part of higher level RM decision-making in a broader Ecosystem Service context.
The aim of this thesis is to contribute to improved quantification of ecological risk as a basis for RA and RM. The initial general objective had been entitled as "… to estimate the spatial and temporal extent of exposure and effects…" and was found to be closely related to forthcoming SPGs with their defined 'Risk Dimension'.
An initial exploration of the regulatory framework of ecological RA and RM of PPPs and their use, carried out in the present thesis, emphasised the value of risk characterisation at landscape-scale. The landscape-scale provides the necessary and sufficient context, including abiotic and biotic processes, their interaction at different scales, as well as human activities. In particular, spatially (and temporally) explicit landscape-scale risk characterisation and RA can provide a direct basis for PPP-specific or generic RM. From the general need for tiered landscape-scale context in risk characterisation, specific requirements relevant to a landscape-scale model were developed in the present thesis, guided by the key objective of improved ecological risk quantification. In principle, for an adverse effect (Impact) to happen requires a sensitive species and life stage to co-occur with a significant exposure extent in space and time. Therefore, the quantification of the Probability of an Impact occurring is the basic requirement of the model. In a landscape-scale context, this means assessing the spatiotemporal distribution of species sensitivity and their potential exposure to the chemical.
The core functionality of the model should reflect the main problem structures in ecological risk characterisation, RA and RM, with particular relationship to SPGs, while being adaptable to specific RA problems. This resulted in the development of a modelling framework (Xplicit-Framework), realised in the present thesis. The Xplicit-Framework provides the core functionality for spatiotemporally explicit and probabilistic risk characterisation, together with interfaces to external models and services which are linked to the framework using specific adaptors (Associated-Models, e.g., exposure, eFate and effect models, or geodata services). From the Xplicit-Framework, and using Associated-Models, specific models are derived, adapted to RA problems (Xplicit-Models).
Xplicit-Models are capable of propagating variability (and uncertainty) of real-world agricultural and environmental conditions to exposure and effects using Monte Carlo methods and, hence, to introduce landscape-scale context to risk characterisation. Scale-dependencies play a key role in landscape-scale processes and were taken into account, e.g., in defining and sampling Probability Density Functions (PDFs). Likewise, evaluation of model outcome for risk characterisation is done at ecologically meaningful scales.
Xplicit-Models can be designed to explicitly address risk dimensions of SPGs. Their definition depends on the RA problem and tier. Thus, the Xplicit approach allows for stepwise introduction of landscape-scale context (factors and processes), e.g., starting at the definitions of current standard RA (lower-tier) levels by centring on a specific PPP use, while introducing real-world landscape factors driving risk. With its generic and modular design, the Xplicit-Framework can also be employed by taking an ecological entity-centric perspective. As the predictive power of landscape-scale risk characterisation increases, it is possible that Xplicit-Models become part of an explicit Ecosystem Services-oriented RM (e.g., cost/benefit level).
Die Struktur der organischen Bodensubstanz (OBS) ist ein seit Jahrzehnten unter Wissenschaftlern viel diskutiertes Thema. Die wichtigsten Modelle sind unter anderem das Polymer Modell und das Supramolekulare Modell. Während ersteres die OBS als Makromoleküle betrachtet, die amorphe und kristalline Bereiche enthält, erklärt letzteres die OBS als physikochemische Verbindung in der durch schwache hydrophobe Wechselwirkungen und Wasserstoffbrückenbindungen individuelle Moleküle primärer Struktur in einer Sekundärstruktur zusammengehalten werden. Die schwachen Wechselwirkungen innerhalb der Sekundärstruktur gewähren der OBS ihre charakteristische Mobilität. Eine wichtige Konsequenz dieses mehrdimensionalen Aufbaus ist es, dass abgesehen von der chemischen Zusammensetzung, die physikochemische Struktur der OBS eine entscheidende Rolle für ihre biogeochemischen Funktionen spielt. Aus diesem physikochemischen Verständnis der OBS Struktur heraus entstand das kürzlich eingeführte Konzept der durch Kationen und Wassermoleküle vermittelten Brücken zwischen OBS Segmenten (CaB und WaMB). Obwohl es in den letzten Jahren einige indirekte Anhaltspunkte für die Ausbildung von CaB und WaMB gab, gibt es bis heute kein klar umrissenes Verständnis di eser Prozesse. Experimentelle Probleme aufgrund sich überlagernder Effekte von wichtigen ebenfalls CaB beeinflussenden Parametern, wie pH und der Konzentration konkurrierender Kationen, erschweren die Untersuchung der CaB-bezogenen Einflüsse. Daher zielte diese Arbeit darauf ab, eine experimentelle Herangehensweise zu entwickeln um CaB innerhalb der OBS zu erzeugen und diese hinsichtlich verschiedener chemischer und physikochemischer Aspekte zu beurteilen. Dazu wurden zuerst die in den Proben schon vorhandenen Kationen entfernt und der pH Wert definiert eingestellt, bevor die Proben erneut mit bestimmten Kationen beladen wurden. So konnten pH- und Kationen-Effekte voneinander getrennt beobachtet werden.
Aus den Ergebnissen, die mit zwei unterschiedlichen Typen organischer Substanz erzielt worden sind, kann folgender Rückschluss gezogen werden: Unter der Voraussetzung, dass die Dichte der funktionellen Gruppen in der OBS hoch genug ist, so dass diese in ausreichender räumlicher Nähe zueinander arrangiert sind, können Kationen die OBS quervernetzen. Eine physikochemische strukturelle Umorientierung findet auch in Alterungsprozessen statt, die die Bildung von mehr und/oder stärkeren CaB und WaMB verursachen. Kationengröße und "ladung bestimmen sowohl die Erzeugung von CaB direkt bei der Kationenbehandlung, als auch die Effekte der Alterungsprozesse. Ein anfänglichrnstärker quervernetztes System ist weniger anfällig für strukturelle Änderungen und unterliegt weniger starken Alterungsprozessen als ein anfänglich schwächer quervernetztes. Verantwortlich für die strukturellen Veränderungen ist die der OBS innewohnende Mobilität innerhalb ihres physikochemischen Verbundes. Information über die strukturellen Voraussetzungen zur Bildung von CaB und deren Konsequenzen für die Matrixstabilität der OBS können helfen, Einblicke in die physikochemische Struktur der OBS zu erhalten. Außerdem zeigten die Qualität der OBS (bestimmt mithilfe thermischer Analytik) und deren Porenstruktur, die sich in einer Reihe von künstlich hergestellten Böden nach einigen Monaten der OBS Entwicklung gebildet hatten, dass die mineralischen Ausgangsmaterialien zwar eine Bedeutung für die chemische Natur der OBS Moleküle hatten, nicht jedoch für die physikalische Struktur der organisch-mineralischen Verbindungen.
In der vorliegenden Arbeit wurde außerdem erstmals die nanothermische Analyse mithilfe der Rasterkraftmikroskopie (AFM-nTA) für Boden eingesetzt, um thermische Eigenschaften und deren räumliche Verteilung im Nano- und Mikrometerbereich zu erfassen. Diese Methode ermöglichte es, physikochemische Prozesse, wie z.B. das Aufbrechen von WaMB in humusarmen Böden zu identifizieren, bei denen herkömmliche Methoden aufgrund zu niedriger Empfindlichkeit scheiterten. Weiterhin konnten durch eine verbesserte Anwendung der Methode und die Kombination mit anderen AFM-Parametern einige in Böden vorkommende Materialien in hoher räumlicher Auflösung unterschieden werden. Durch die Verwendung definierter Testmaterialien wurde versucht, diese Bodenmaterialien zu identifizieren. Das größte Potential dieser Methode liegt allerdings darin, die mikroskopische Heterogenität von Probenoberflächen zu quantifizieren, was z.B. dabei helfen kann, Prozess-relevante Hotspots aufzudecken.
Durch die Einbindung der AFM-nTA Technologie trägt die vorliegende Arbeit zum wissenschaftlichen Verständnis der Änderungen der physikochemischer Struktur der OBS durch Kationenquervernetzung bei. Die hier demonstrierte direkte Untersuchung der CaB kann möglicherweise zu einem großen Wissenssprung hinsichtlich dieser Wechselwirkungen verhelfen. Der beobachtete Alterungsprozess ergänzt gut das supramolekularen Verständnis der OBS. Die Einführung der nanothermischen Analyse in die Bodenkunde ermöglicht es, dem Problem der Heterogenität und der räumlichen Verteilung thermischer Eigenschaften zu begegnen. Ein anderer wichtiger Erfolg der AFM-nTA ist, dass sie genutzt werden kann um physikochemische Prozesse sehr geringer Intensität zu detektieren.
Die Wechselwirkungen zwischen Polysacchariden und Wasser am Beispiel der Modellsubstanz Hyaluronan
(2013)
Die Wasseraufnahme von Polysacchariden wird derzeit intensiv erforscht. Wechselwirkungen zwischen Wasser und herkömmlichen oder modifizierten Polysacchariden und Polysaccharid-basierten Biokonjugaten bestimmen maßgeblich deren Funktionalität. Trotz intensiver Forschung gibt es weiterhin eine Reihe offener Fragen darüber, wie Wasser die Struktur der Polysaccharide beeinflusst und welche Konsequenzen das für ihre industrielle und medizinische Anwendung hat. Die Wechselwirkungen zwischen Wasser und Polysacchariden werden oft durch übereinanderliegende "Schichten" von Wasser verbildlicht, dessen physikalische Eigenschaften sich in Abhängigkeit vom Abstand zur Polysaccharid-Moleküloberfläche verändern.
In der vorliegenden Arbeit wurden solche "Wasserschichten" in dem Modell"Polysaccharid Hyaluronan (HYA), einem Natriumsalzsalz bestehend aus ß -1,4-Verknüpfungen der ß -1,3-verknüpften D-Glucuronsäure und des N-Acetyl-D-Glucosamins, untersucht. Mithilfe der Dynamischen Differenzkalorimetrie (engl.: Differential Scanning Calorimetry, DSC) können diese Wasserschichten hinsichtlich ihres Gefrierverhaltens unterschieden werden. Bei HYA-Molekülgewichten von 100 bis 740kDa betrug die Menge "nicht gefrierbaren" Wassers, d.h. von Wasser in unmittelbarer Nähe der HYA Molekülketten, 0.74gH2O/gHYA und bei einem Molekülgewicht von 139kDa betrug sie 0.84gH2O/gHYA. Die Menge von "gefrierbar gebundenem" Wasser, also des Anteiles, der zwar noch vom HYA Molekül beeinflusst wird, aber trotzdem gefrierbar ist, betrug zwischen 0.74 und 2gH2O/gHYA. Oberhalb dieses Wassergehaltes liegt nur "nicht gefrierbares" und "freies" Wasser vor, da die Schmelzenthalpie bei höheren Wassergehalten der von reinem Wasser entspricht. Die Charakterisierung der Wasserbindung durch die Bestimmung von Schmelzenthalpien unterliegt experimentellen Einschränkungen. Daher wurde ein neuer Ansatz basierend auf der Bestimmung von Verdampfungsenthalpien vorgeschlagen. Verdampfungsenthalpien von HYA unterhalb eines Wassergehaltes von 0.34gH2O/gHYA wiesen auf einen zusätzlichen möglicherweise exothermen Prozess hin, der auch in der protonierten Form des HYA beobachtet werden konnte.
Dieser Prozess wurde durch die Kissinger-Akahira-Sunose Methode bestätigt, die Bestimmung der tatsächlichen Verdampfungs und Desorptionsenthalpien des Wassers in allen Stadien des Verdampfungsprozesses erlaubt. Tatsächlich nahm die scheinbare Verdampfungsenthalpie bis zu einem Wassergehalt von 0.34gH2O/gHYA zu und sank dann wieder zu niedrigeren Werten ab, die allerdings immer noch deutlich über der Verdampfungsenthalpie von reinem Wasser lagen. Mithilfe von zeitlich aufgelöster Kernspinresonanz Technik (engl.: Time Domain Nuclear Magnetic Resonance, TD-NMR) wurde gezeigt, dass es sich bei besagtem Prozess um die Plastifizierung von HYA handelt.
Außerdem konnte das mithilfe der DSC bestimmte "nicht gefrierbare" Wasser in zwei weitere Fraktionen unterteilt werden. Ein Anteil von 15% dieses Wassers tritt direkt in Wechselwirkung mit den polaren funktionellen Gruppen und wird als "strukturell integriertes" Wasser bezeichnet und ein Anteil von 85% ist zwischen HYA Molekülketten eingebettet und wird als "strukturell eingeschränktes" Wasser bezeichnet. Da der Erweichungspunkt in der Nähe des Gleichgewichtswassergehalts liegt, bietet die er die Möglichkeit, die physikalische Struktur von HYA durch Trocknung zu beeinflussen. Dafür wurden drei Proben des ursprünglichen HYA unter unterschiedlichen Bedingungen getrocknet und ihre physikalischen Eigenschaften untersucht. Die Proben unterschieden sich in der Kinetik der erneuten Wasseraufnahme, im Glasübergangsverhalten und in ihrer Morphologie. Die Eigenschaften der Wasserfraktionen wurden in Lösungen mit 10"25 mg HYA/mL bestimmt. Feldzyklus-NMR (eng.: Fast-field-cycling FFC-NMR) Messungen zeigten drei Wasserfraktionen die mit dem Abstand zur HYA Moleküloberfläche abnehmende Korrelationszeiten zwischen 10"6 bis 10"10 s aufwiesen.
Außerdem wurde die Bildung schwacher relativ kurzlebiger Wasserbrücken zwischen den HYA Molekülketten beobachtet. Anders als für anorganische Elektrolyte, ist die Wasseraufnahme durch organische Polyelektrolyte ein dynamischer Prozess, der nicht nur die Analysetechnik und die experimentellen Bedingungen sondern auch die Konformation der Polyelektrolyte und deren thermische und Wassergehalts-Vorgeschichte widerspiegelt. Dadurch können einige Polysaccharidstrukturen nur durch Veränderung der Probenvorbereitung und ohne chemische Modifikationen verändert und Produkte mit spezifischen physiko-chemischen Eigenschaften gewonnen werden.
Feldsäume gehören zu den letzten verbliebenen Lebensräumen für Wildpflanzenarten in der Agrarlandschaft. Aufgrund ihrer unmittelbaren Nähe zu den bewirtschafteten Flächen kann jedoch ihre Vegetation durch den Eintrag von Agrarchemikalien beeinträchtigt werden. Das Ziel dieser Arbeit war es die Einzel-, und Kombinationseffekte von Herbizid-, Insektizid- und Düngereinträgen auf die Pflanzengemeinschaft eines Feldsaums zu untersuchen. Es wurde ein 3-jähriges Freilandexperiment mit einem randomisierten Blockdesign, bestehend aus 7 Behandlungen (H: Herbizid, I: Insektizid, D: Dünger, H+I, D+I, D+H, D+H+I) und einer Kontrolle mit jeweils 8 Replikaten (= Parzellen), auf einer Wiese durchgeführt. Die Parzellen hatten je eine Größe von 8 m × 8 m und waren durch 2 m breite Wege voneinander getrennt. Die für die Behandlung der Parzellen verwendeten Dünger- (25 % der Feldrate) und Pestizidraten (30 % der Feldrate) entsprachen realistischen Eintragsraten (Überspritzung + Abdrift) in den ersten Meter eines Feldsaums in Nachbarschaft zu einem Getreidefeld.
Die Studie zeigte, dass Dünger- und Herbizideinträge wesentliche Faktoren darstellen, welche die natürliche Pflanzengemeinschaft in Feldsäumen beeinflussen. 20 der 26 häufigsten auf der Wiese vorkommenden Arten zeigten signifikante Effekte durch die Dünger- und Herbizidbehandlung. Die Düngung förderte stickstoffliebende Pflanzenarten und reduzierte das Vorkommen von kleinwüchsigen Arten. Durch das Herbizid wurden drei Pflanzenarten bereits im ersten Jahr fast vollkommen verdrängt, während andere Arten hauptsächlich subletale Effekte (z.B. phytotoxische Effekte, eine bis zu 100 % reduzierte Samenproduktion) vorwiesen. Werden Feldsäume allerdings über mehrere Jahre Agrarchemikalien ausgesetzt, führen auch diese subletalen Effekte (insbesondere Effekte auf die Reproduktion) zu einer Reduzierung der Populationsgröße, wie in dem Feldversuch beobachtet werden konnte. Die Kombinationsbehandlung von Dünger und Herbizid führte zu signifikanten Interaktionseffekten, welche sich nicht von den Effekten der Einzelbehandlungen extrapolieren ließen. Die Dünger- und Herbizideffekte intensivierten sich über den Untersuchungszeitraum, führten nach 3-jähriger Anwendung zu einer Veränderung in der Pflanzengemeinschaft, und reduzierten die Pflanzendiversität um 15 % im Vergleich zur Kontrolle. Das Insektizid wirkte sich signifikant auf das Vorkommen von zwei Pflanzenarten aus (1 positiver, 1 negativer Effekt). Die Ergebnisse des Feldversuchs lassen darauf schließen, dass eine fortführende Behandlung zu weiteren Gemeinschaftsveränderungen und wahrscheinlich auch zum Verschwinden bestimmter Pflanzenarten führen würde. Es war eine Tendenz zur Ausbildung von Gras-Dominanzbeständen zu erkennen, welche einen Verlust von Blütenpflanzen mit sich brachte. Dies konnte auch in eigenen Monitoringstudien in Feldsäumen beobachtet werden.
Zwar zielt die Risikobewertung von Herbiziden darauf ab Nichtziel-Pflanzen in Habitaten außerhalb des bewirtschafteten Feldes vor nachteiligen Auswirkungen zu schützen, Reproduktionseffekte und Kombinationseffekte werden bisher jedoch nicht berücksichtigt. Zudem gibt es keine Regelungen zur Düngeranwendung in Nachbarschaft zu Feldsäumen, weshalb Düngereinträge in Feldsäume und deren Interaktion mit Herbizideffekten sehr wahrscheinlich sind.
Anpassungen der derzeitigen Risikobewertung, eine Entwicklung von Risikominderungsstrategien für die Herbizid- und Düngerapplikation, sowie generelle Managementmaßnahmen für Feldsäume sind daher dringend notwendig, um die Pflanzendiversität in Feldsäumen zu erhöhen und zu schützen.
In der vorliegenden Arbeit wurde untersucht, inwieweit durch lokale Wirtschaftsförderungsinitiativen in Namibia Projekte zur Minderung von Treibhausgasen angestoßen werden können. Dabei wurde insbesondere geprüft, ob der Clean Development Mechanism (CDM) des Kyotoprotokolls sinnvoll genutzt werden kann.
Dazu wurden zuerst die Faktoren (Potential für Minderungsprojekte, Geschäfts- und Investitionsklima, institutionelle Rahmenbedingungen, etc.), die die Initiierung von Projekten fördern oder behindern können, diskutiert. In einem weiteren Schritt wurde analysiert, welche Einstellung Klima- und Energieexperten und Personen, die im Bereich lokaler und regionaler Wirtschaftsförderung tätig sind, zur Forschungsfrage haben. Dazu wurden 229 Fragebögen, 28 individuelle Interviews und eine Fokusgruppendiskussion mit 20 Teilnehmern ausgewertet. Des Weiteren wurde die praktische Umsetzbarkeit entsprechender Maßnahmen mit Hilfe einer vom Autor initiierten "real life"-Fallstudie untersucht. Während der Entwicklung einer lokalen Wirtschaftsförderungsstrategie in der namibischen Region Otjozondjupa wurde auch das dortige Potential für Treibhausgasminderungsprojekte eingeschätzt, darauf basierend wurden Projektideen entwickelt und deren nachhaltige soziale und wirtschaftliche Auswirkungen beurteilt. Erfolg versprechende Projekte wurden anschließend in die Strategie zur Implementierung integriert.
Aufgrund verschiedener Faktoren wie beispielsweise der Komplexität von CDM, dem geringen Ausstoß von Treibhausgasen in Namibia, der schlechten Marktsituation für Emissionsrechte und unzureichender finanzieller Mittel hat die Initiierung von CDM-Projekten durch lokale Wirtschaftsförderung in Namibia den im Rahmen der vorliegenden durchgeführten Untersuchungen zufolge wenig Aussicht auf Erfolg. Jedoch besteht seitens der Akteure die grundsätzliche Bereitschaft, Minderungsprojekte in lokale Wirtschaftsförderung zu integrieren, wenn damit vorrangig die Ziele der Wirtschaftsförderung erreicht werden. Die Untersuchung zeigte, dass lokal initiierte Minderungsprojekte kaum zur Schaffung von Einkommensquellen oder Arbeitsplätzen beitragen. Stattdessen sollten eher nationale strategische Ziele verfolgt werden, wie z. B. eine flächendeckende Elektrizitätsversorgung oder die Verminderung der Abhängigkeit von Stromimporten. Dazu müsste bei lokaler Wirtschaftsförderung zukünftig auch der Energiesektor eine größere Rolle spielen, lokale Verwaltungen müssten die Verantwortung für die Initiierung von Energieprojekten übernehmen, nationale und lokale Behörden müssten effizienter zusammenarbeiten und die lokalen Rahmenbedingungen müssten so verbessert werden, dass der Privatsektor bereit ist, seine Rolle in der Wirtschaftsförderung zu übernehmen. Darüber hinaus sollten die Interessen der Bevölkerung berücksichtigt und alle Akteure frühzeitig in Entscheidungsprozesse eingebunden werden.
Die Diffusionsbildgebung misst die Bewegung von Wassermolekülen in Gewebe mittelsrnvariierender Gradientenfelder unter Verwendung der Magnetresonanztomographie(MRT). Diese Aufnahmetechnik stellt eine große Chance für in vivo Untersuchung von neuronalen Bahnen dar, da das lokale Diffusionsprofil Rückschlüsse über die Position und Richtung von Nervenbahnen erlaubt. Zu den Anwendungsgebieten der Diffusionsbildgebung zählt die Grundlagenforschung in den Neurowissenschaften, in denen Nervenbahnen als Verbindungen kortikaler Areale bestimmt werden, und die neurochirurgische Operationsplanung, in der rekonstruierte Bahnen als Risikostrukturen für Interventionen angesehen werden.
Die Diffusionstensor-MRT (DT-MRT) ist aufgrund ihrer schnellen Aufnahme- und Rekonstruktionsgeschwindigkeit derzeitig klinischer Standard zur Bestimmung von Nervenbahnen. Jedoch erlaubt die DT-MRT nicht die Darstellung von komplexen intravoxel Diffusionsverteilungen. Daher etablierte sich eine weitere Modellierungstechnik, die als High Angular Resolution Diffusion Imaging (HARDI) bekannt ist. HARDITechniken erhielten wachsendes Interesse in den Neurowissenschaften, da sie großes Potential zur exakteren Darstellung der Nervenbahnen im menschlichen Gehirn besitzen.
Um die Vorteile von HARDI-Techniken gegenüber DT-MRT voll auszuschöpfen, werden fortgeschrittene Methoden zur Rekonstruktion und Visualisierung der Bahnen benötigt. In der vorliegenden Arbeit werden neue Techniken vorgestellt, welche zur aktuellen Forschung hinsichtlich der Verarbeitung und Visualisierung von Diffusionsbildgebungsdaten beitragen. Ansätze zur Klassifizierung, Traktographie und Visualisierung wurden entwickelt um eine aussagekräftige Exploration neuronaler Bahnen und deren Beschaffenheit zu ermöglichen. Des Weiteren wurde eine interaktive Software für die neurochirurgische Operationsplanung implementiert, welche Nervenbahnen als Risikostrukturen berücksichtigt.
Die vorgestellten Forschungsergebnisse bieten einen erweiterten und aufgabenorientierten Einblick in neuronale Verbindungen sowohl für Neurowissenschaftler als auch für Neurochirurgen und tragen zum Einsatz von HARDI-Techniken in einer klinischen Umgebung bei.
Mit der zunehmenden Verbreitung digitaler Kameras nimmt die Anzahl der aufgenommen Fotos drastisch zu. Fotos werden sowohl für den privaten Gebrauch aufgenommen und auf eigenen Festplatten gespeichert, als auch im Internet verbreitet. Die Verwaltung dieser großen Datenmengen stellt eine Herausforderung dar, bei der Benutzer zunehmend unterstützt werden müssen. Die automatische Analyse von Bildinhalten anhand von Algorithmen ist ein ungelöstes Problem und kann kaum die Bedürfnisse menschlicher Nutzer erfüllen. Daher werden häufig Metainformationen genutzt, um z.B. abgebildete Szenen textuell zu beschreiben oder Bewertungen zu Fotos zu speichern. Im Rahmen dieser Arbeit wird untersucht, wie diese Metainformationen ohne zusätzlichen Aufwand für Benutzer generiert werden können. Dazu werden Augenbewegungen von Benutzern mit einem Eyetrackinggerät erfasst und die daraus abgeleitete visuelle Aufmerksamkeit als Informationsquelle genutzt.
Aufgrund von fallenden Hardwarepreisen bei gleichzeitig zunehmender Konkurrenz sind die Preise für Eyetracker in den letzten Jahren stark gefallen und ihre Bedienbarkeit wurde vereinfacht. Es wird angenommen, dass die Erfassung von Blickdaten bald mit alltäglichen Geräten wie Laptops möglich sein wird, während Benutzer z.B. verschiedenen Beschäftigungen mit digitalen Bildern nachgehen. Die Auswertung dieser Blickinformationen erlaubt es, Informationen ohne zusätzlichen Aufwand für den Menschen bereitzustellen.
Im ersten Teil dieser Arbeit wird untersucht, ob durch die Auswertung von Blickinformationen, Schlagworte Bildregionen zugewiesen werden können, mit dem Ziel abgebildete Szenen zu beschreiben. Insgesamt wurden drei Experimente durchgeführt um die Qualität der Beschreibungen zu untersuchen. Im ersten Experiment entschieden Teilnehmer durch das Drücken bestimmter Tasten, ob ein gegebenes Objekt auf einem Foto zu sehen war. In der zweiten Studie suchten Benutzer mit einer simulierten Bildersuche nach Fotos von bestimmten Objekten. Im dritten Experiment klassifizierten Benutzer Fotos bezüglich gegebener Objektnamen in einem eyetracking-gesteuerten Spiel. In jedem Experiment wurden die Augenbewegungen aufgezeichnet und die Objektnamen bzw. Suchbegriffe entsprechenden Bildregionen zugeordnet. Die Ergebnisse zeigen, dass in den verschiedenen Anwendungen Bildinhalte durch Blickpfadanalysen sinnvoll beschrieben werden können. Im zweiten Teil wird die Identifizierung von interessanten Fotos in einer Sammlung von Fotos anhand von Blickbewegungen erforscht, mit dem Ziel, Benutzern individuelle Fotoauswahlen anzubieten, nachdem sie Fotos in einer Sammlung betrachtet haben. Durch den Vergleich der unter Einbeziehung der visuellen Aufmerksamkeit automatisch erstellten Auswahlen mit manuell von den Benutzer erstellten Auswahlen, wird das Potential von Blickinformation in der Erkennung wichtiger Fotos deutlich.
Die Ergebnisse dieser Arbeit zeigen das große und bisher ungenutzte Potential der impliziten Nutzung von Blickdaten. Es kann von menschlichen Fähigkeiten profitiert werden, besonders dort, wo Algorithmen die menschliche Wahrnehmung noch lange nicht simulieren können.
Diese Dissertation entsteht im Rahmen des Projekts Research-Group Learning and Neurosciences (ReGLaN)-Health and Logistics, welches die Optimierung der Gesundheitsversorgung in ländlichen Gebieten Südafrikas zum Ziel hat. Es besteht dabei eine Kooperation mit dem Council for Scientific and Industrial Research (CSIR) Meraka Institute mit Prof. Dr. Dr. Marlien Herselman, Pretoria, Südafrika, als zentrale Ansprechpartnerin. Die Dissertation befasst sich mit der mathematischen Modellierung für adaptive graphische Benutzerschnittstellen (GUI), die ein angepasstes Verhalten in Abhängigkeit von Geographischen Informationssystemen (GIS) besitzen und durch räumliche Fuzzy-Logik gesteuert werden. Innerhalb der Arbeit geht es um die mathematische Visualisierung von maßgeschneiderten Risiko- und Ressourcenkarten für epidemiologische Fragestellungen mit GIS und adaptives GUI-Design für eine Open Source (OS)-Anwendung für digitale Endgeräte zur räumlichen Entscheidungsunterstützung zugeschnitten auf unterschiedliche Benutzergruppen. Zur Evaluation und Initialisierung der GUI-Elemente wurde empirische Lehr-Lern-Forschung zum Umgang mit Geomedien und GUI-Elementen eingesetzt.
In den letzten Jahren gibt es im Bereich Software Engineering ein steigendes Interesse an empirischen Studien. Solche Studien stützen sich häufig auf empirische Daten aus Corpora-Sammlungen von Software-Artefakten. Während es etablierte Formen der Durchführung solcher Studien gibt, wie z.B. Experimente, Fallstudien und Umfragen, geschieht die Vorbereitung der zugrunde liegenden Sammlung von Software-Artefakten in der Regel ad hoc.
In der vorliegenden Arbeit wird mittels einer Literaturrecherche gezeigt, wie häufig die Forschung im Bereich Software Engineering Software Corpora benutzt. Es wird ein Klassifikationsschema entwickelt, um Eigenschaften von Corpora zu beschreiben und zu diskutieren. Es wird auch erstmals eine Methode des Corpus (Re-)Engineering entwickelt und auf eine bestehende Sammlung von Java-Projekten angewendet.
Die Arbeit legt zwei umfassende empirische Studien vor, in denen eine umfangreiche und breit angelegte Analysenreihe zu den Sprachen Privacy Preferences (P3P) und objektorientierte Programmierschnittstellen (APIs) durchgeführt wird. Beide Studien stützen sich allein auf die vorliegenden Daten der Corpora und decken dadurch die tatsächliche Nutzung der Sprachen auf.
Viele Menschen kommunizieren und interagieren zunehmend über soziale Online-Netzwerke wie Twitter oder Facebook, oder tauschen Meinungen mit Freunden oder auch Fremden aus. Durch die zunehmende Verfügbarkeit des Internets wird auch Wissen für immer mehr Menschen offen verfügbar gemacht. Beispiele hierfür sind die Online-Enzyklopädie Wikipedia oder auch die vielfältigen Informationen in diversen Webforen und Webseiten. Diese zwei Netzwerkkategorien - Soziale Netzwerke und Wissensnetzwerke - verändern sich sehr schnell. Fast sekündlich befreunden sich neue Nutzer in sozialen Netzwerken und Wikipedia-Artikel werden überarbeitet und neu mit anderen Artikeln verlinkt. Diese Änderungen an der Verlinkung von Menschen oder Wissensbausteinen folgen bestimmten strukturellen Regeln und Charakteristiken, die weit weniger zufällig sind als man zunächst annehmen würde.
Das Ziel dieser Doktorarbeit ist es, drei charakteristische Verlinkungsmuster in diesen zwei Netzwerkkategorien vorherzusagen: das Hinzufügen von neuen Verlinkungen, das Entfernen bestehender Verbindungen und das Vorhandensein von latent negativen Verlinkungen. Zunächst widmen wir uns dem relativ neuen Problem der Vorhersage von Entlinkungen in einem Netzwerk. Hierzu gibt es zahlreiche soziologische Vorarbeiten, die nahelegen, dass die Ursachen zur Entstehung von Beziehungsabbrüchen komplementär zu den Gründen für neue Beziehungen sind. Obwohl diese Arbeiten eine strukturelle Ähnlichkeit der Probleme vermuten lassen, zeigen wir, dass beide Probleme nicht komplementär zueinander sind. Insbesondere zeigen wir, dass das dynamische Zusammenspiel von neuen Verlinkungen und Entlinkungen in Netzwerken durch die vier Zustände des Wachstums, des Zerfalls, der Stabilität und der Instabilität charakterisiert ist. Für Wissensnetzwerke zeigen wir, dass die Vorhersagbarkeit von Entlinkungen deutlich verbessert wird, wenn zeitliche Informationen wie der Zeitpunkt von einzelnen Netzwerkergeignissen mit genutzt werden. Wir präsentieren und evaluieren hierfür insgesamt vier verschiedene Strategien, die von zeitlichen Informationen Gebrauch machen. Für soziale Netzwerke analysieren wir, welche strukturellen Einflussfaktoren zur Entstehung und Löschung von Links zwischen Benutzern in Twitter indikativ sind. Auch hier zeigt sich, dass zeitliche Informationen darüber, dass eine Kante schon einmal gelöscht wurde, die Vorhersagbarkeit von Verlinkungen und insbesondere Entlinkungen enorm verbessert. Im letzten Teil der Doktorarbeit zeigen wir, wie negative Beziehungen (beispielsweise Misstrauen oder Feindschaft) aus positiven Beziehungen zwischen Nutzern (etwa Vertrauen und Freundschaft) abgeleitet werden können. Dies ist besonders relevant für Netzwerke, in denen nur positive Beziehungen kenntlich gemacht werden können. Für dieses Szenario zeigen wir, wie latent negative Beziehungen zwischen Nutzern dennoch erkannt werden können.
Die Verabschiedung der Europäischen Wasserrahmenrichtlinie (WRRL) in 2000 markierte den Beginn einer neuen Ära in der europäischen Wasserpolitik. Mehr als ein Jahrzehnt später, verfehlt jedoch weiterhin die Mehrheit der europäischen Flüsse den guten ökologischen Zustand, eines der wichtigsten WRRL-Ziele.
Ein bedeutender Belastungsfaktor für Fließgewässerökosysteme sind Pflanzenschutzmittel (PSM). Die vorliegende Doktorarbeit unterstreicht die Notwendigkeit, alle wichtigen land-wirtschaftlichen PSM-Quellen und beeinflussenden Landschaftsfaktoren bei der Erstellung von WRRL-Bewirtschaftungsplänen und Maßnahmenprogrammen zu berücksichtigen. Die Ergebnisse und Empfehlungen dieser Doktorarbeit verbessern das Verständnis für eine zielgerichtete Bekämpfung von PSM-Belastungen zur Erreichung der WRRL-Ziele. Insgesamt wurden 663 Messstellen in den Bundesländern Sachsen, Sachsen-Anhalt, Thüringen und Hessen untersucht (Kapitel 3 und 4). Neben einer Analyse der Makrozoobenthos-Daten aus dem WRRL-Monitoringnetz, erfolgte eine detaillierte GIS-Analyse der wichtigsten landwirtschaftlichen PSM-Quellen (Ackerland, Kleingärten sowie kommunale Abwasserreinigungsanlagen) sowie Landschaftsfaktoren (Gewässerrandstreifen und bewaldete Abschnitte im Oberlauf). Basierend auf den Ergebnissen wurde eine Screening-Methode zur schnellen und kostengünstigen Identifizierung von potenziell mit PSM belasteten Stellen entwickelt. Mit Hilfe des Bioindikators SPEARpesticides konnten insektizide Langzeitwirkungen der Abwässer von Abwasserreinigungsanlagen auf die Struktur der Makrozoobenthos-Gemeinschaft bis in 1,5 km Entfernung flussabwärts (in einigen Fällen sogar 3 km) aufgezeigt werden. Die Ergebnisse für den Deutschen Saprobienindex zeigen zudem, dass Abwasserreinigungsanlagen weiterhin eine bedeutende Quelle für sauerstoffzehrende Substanzen sind. Als geeignete Maßnahmen zur Verminderung der Belastung und der Auswirkungen von PSM wurden Gewässerrandstreifen (mindestens 5 m breit) und bewaldete Oberläufe identifiziert.
Es wird befürchtet, dass die zukünftige Ausdehnung des Energiepflanzenanbaus zu einem Anstieg der diffusen PSM-Belastung von Ökosystemen in Agrarlandschaften führen könnte. Diese Fragestellung wurde im Rahmen der vorliegenden Doktorarbeit basierend auf einer Analyse der Entwicklung des Energiepflanzenanbaus in Deutschland und anhand einer Literaturrecherche zu mehrjährigen Energiepflanzen untersucht (Kapitel 5). Die Ergebnisse zeigen, dass eine großflächige Ausdehnung des Energiepflanzenanbaus nicht unbedingt zu einer Erhöhung oder Verringerung der Menge an PSM, die in die Umwelt gelangen, führen muss. Die potenziellen Auswirkungen hängen vielmehr von der zukünftigen Ausgestaltung der Agrarsysteme ab. Anstelle des Anbaus von einjährigen Energiepflanzen in Monokulturen, sollten diese in die bereits vorhandenen Nahrungsmittelanbausysteme integriert werden. Zudem könnten finanzielle Anreize sowie eine verstärkte Aus- und Fortbildung der Bauern dazu beitragen, die Nutzung von nachhaltigen Fruchtfolgen, innovativen Anbausystemen und mehrjährigen Energiepflanzen zu erhöhen. Dies würde die Vielfalt der Feldfrüchte erhöhen und könnte helfen, den PSM-Bedarf der bisherigen intensiven Nahrungsmittelanbausysteme zu verringern.
In einem ersten Schritt wurden Feldbeobachtungen durchgeführt um die räumliche und zeitliche Habitatbindung von Kleinkrebsen und Mückenlarven zu erforschen. Larven der Mückenart Ae.vexans entwickelten sich synchron mit der Kleinkrebsordnung Cyclopoida innerhalb einer Woche nach Entstehung eines Gewässers. Larven der Mückenart Cx.pipiens besiedeln dieselben Gewässer wie Cladocera, wobei letztere zeitlich verzögert auftraten. Das zeitliche Auftreten der Arten wurde durch die Biotopstruktur beeinflusst. Schilfbiotope beschleunigten die Entwicklung von Kleinkrebsen, wohingegen Gewässer auf Wiesenflächen schneller von Mückenlarven besiedelt wurden. In einem zweiten Schritt wurde untersucht, auf welche Weise Mückenlarven von Kleinkrebsen beeinflusst werden. In einem Mikrokosmen-Experiment zeigte sich, dass Kleinkrebse sowohl die Eiablage der Mückenart Cx.pipiens vermindern als auch die Entwicklung der Mückenlarven beeinträchtigen. Artgemeinschaften mit hoher Artdiversität, bestehend aus verschiedenen räuberischen und filtrierenden Kleinkrebsen, reduzierten Mückenpopulationen effektiver als Artgemeinschaften mit geringer Artdiversität. Die Anwesenheit diverse Krebsgemeinschaften bewirkte zudem, dass Bti bereits in geringerer Dosierung einen Effekt erzielte und Cx.pipiens Larven längere Zeit benötigten, um ein Gewässer nach der Behandlung durch Bti wieder zu besiedeln. In einem letzten Schritt wurde der kombinierte Einsatz von Bti und Kleinkrebsen unter Freilandbedingungen erprobt. Die Kombination aus Bti und Kleinkrebsen reduzierte die Anzahl der Mückenlarven (Cx.pipiens) über den gesamten Beobachtungszeitraum hinweg. Die alleinige Ausbringung von Bti bewirkte nur eine kurzfristige Reduktion der Mückenlarve, während die Ausbringung von Kleinkrebsen keinen Effekt erzielte. Die Anwesenheit der Mückenlarven verhinderte eine ausreichende Vermehrung der Kleinkrebse, während im kombinierten Ansatz die Mückenlarven kurzzeitig durch das Bti eliminiert wurden, was die Entwicklung der eingesetzten Kleinkrebse begünstigte. Zusammenfassend konnte gezeigt werden, dass sowohl räuberische als auch filtrierende Kleinkrebse einen starken negativen Effekt auf Mückenlarven ausüben. Allerdings muss ein Zeitraum von ca. 2 Wochen überbrückt werden, bis sich eine ausreichend starke Artgemeinschaft aus Kleinkrebsen etabliert hat. Der Einsatz von Kleinkrebsen in Kombination mit dem Insektizid Bti erweist sich als vielversprechend und könnte in Zukunft dazu beitragen, Mücken effektiv und nachhaltig zu kontrollieren.
Biodiversity is not only threatened by habitat loss, climate change and pollution, but also by invasive species. The impact of introduced species is immense and causes substantial ecological and economical costs worldwide. With the start of domestications of the African wildcat (Felis lybica) in the Near East, the transport of house cats (Felis catus) around the world as a commensal and domesticate began. The general aim of my thesis was to investigate the impact of invasive feral cats on native species as well as underlying population genetic structures, diversity and phylogeography. This was studied in the context of the demographic history in Australia and Hawai'i. My studies confirmed that the main introductions of cats to Australia began in the 19th century via ships of European settlers, traders and workers. Similarly, I was able to confirm cat introductions to Hawai'i by European traders and explorers; which has to the present a devastating effect on Hawaiian endemic species. Likewise, cats are widespread across Australia, can be found on most islands and are recognized as one of the major threats to Australian native species. A selective feeding behaviour by invasive predators was found in one of my studies. This study additionally gives an indication for possible population recovery of small Western Australianrnvertebrate species after predator removal. Advancement and the combination of various management techniques allow, if adequately funded, a more efficient planning and implementation of eradication campaigns. Population genetic approaches are able to give insights into population genetic structure, diversity and kinship, thereby enabling management campaigns to be more cost effective and successful. No pattern of isolation by distance between populations of Hawai"i and Australia indicated that trade routes, such as the "Golden Round" of the maritime fur trade, facilitated a link between far off global cat populations. Multiple introductions to Australia and intermixing with domestic breed cats resulted in feral cat populations which showrnno signs of reduced genetic variability. My studies also revealed the advantages of bioproxies in combination with phylogeography, which enable the inference and reconstruction of introduction routes, history and origin of invasive species. Genetic signals of historically introduced genotypesrnare still discernible on islands with low number of introductions over time and thereby low intermixing with domestic fancy breeds. Feral cats' adaptability as an invader was reconfirmed and possible underlying genetic mechanisms enabling their success as a global invader ("global supercat") are discussed. Research into the feralisation process of cats will provide new information regarding the domestication of cats, the genetic basis of feralisation and allow additional insights into cats" adaptive potential.
Non-Consumptive Effects of Spiders and Ants: Does Fear Matter in Terrestrial Interaction Webs?
(2014)
Die meisten Tiere haben natürliche Feinde. Neben dem Töten von Beute (Prädation), können Räuber auch die Physiologie, Morphologie und das Verhalten von Beutetieren beeinflussen. Spinnen sind eine ausgesprochen diverse und häufige Räubergruppe in terrestrischen Ökosystemen. Unsere Verhaltensexperimente haben gezeigt, dass nur wenige Insekten- und Spinnenarten das Verhalten in der Anwesenheit von Spinnengeruchstoffen ändern. Besonders Waldgrillen (Nemobius sylvestris) änderten ihr Verhalten aufgrund von Geruchsstoffen mehreren Spinnenarten. Dabei bewirkten Geruchstoffe von relativ größeren und häufigeren Spinnenarten stärkere Verhaltensänderungen.
Verhaltensänderungen unter Prädationsrisiko erhöhen die Überlebensrate von Beutetieren, sind aber oft mit Kosten verbunden. Grillen, die vorher schon mit Geruchstoffen der Listspinne (Pisaura mirabilis) konfrontiert wurden, konnten den Spinnen tatsächlich erfolgreicher entkommen. Während des Experiments haben Grillen unter Prädationsrisiko geringfügig mehr gefressen und weniger Gewicht verloren als Kontrollgrillen. Dies deutet darauf hin, dass Grillen durch das Prädationsrisiko verursachte Kosten kurzzeitig kompensieren können. In einem Wahlexperiment bevorzugten Grillen Pflanzen ohne Spinnengeruchsstoffe. Infolgedessen wurde an Pflanzen mit Spinnengeruchsstoffen weniger gefressen.
Auch Ameisen sind allgegenwärtige Räuber und können einen starken Einfluss auf Pflanzenfresser (Herbivore) aber auch auf andere Räuber haben. Wenn junge Spinnen mit Ameisengeruchstoffen konfrontiert wurden, stieg ihre Bereitschaft sich über größere Entfernungen auszubreiten. Junge Spinnen nutzen diese passive Ausbreitung über die Luft ("ballooning") um Ameisen zu entkommen und neue Lebensräume zu besiedeln.
In einem Freilandexperiment haben wir die Besiedlung von Pflanzen durch Arthropoden in Abhängigkeit von Spinnengeruchsstoffen untersucht. Dabei haben wir den Fraß an den Blättern und die Tiergemeinschaften erfasst. Vergleichbar zum Pflanzenwahlversuch im Labor wurde an Pflanzen mit Spinnengeruchstoffen weniger gefressen. Zusätzlich konnten wir Veränderungen in den Tiergemeinschaften feststellen: Kleine Spinnen und die Schwarze Gartenameise (Lasius niger) haben Pflanzen mit Spinnengeruchstoffen gemieden. Im Gegensatz dazu stieg die Anzahl der Arbeiterinnen der Roten Gartenameise (Myrmica rubra), möglicherweise um ihre Blattläuse gegen die drohende Gefahr zu verteidigen.
Obwohl Verhaltensänderungen auf Filterpapieren mit Spinnengeruchstoffen selten waren, haben unsere Experimente unter natürlicheren Bedingungen deutliche und weitreichende Reaktionen auf die mögliche Anwesenheit von Spinnen (Risikoeffekte) gezeigt. Unsere Resultate legen nahe, dass Risikoeffekte von Räuber die räumliche Verteilung von Pflanzenfraß verändern. Die Gesamtherbivorie wurde allerdings nicht reduziert, was erwartet wird wenn Räuber Pflanzenfresser töten. Wie stark sich Prädation und Risikoeffekte relativ auf die Beute auswirken ist entscheidend für den Einfluss von Räuber auf niedrigere Nahrungsebenen.
By the work presented in this thesis, the CH4 emissions of the River Saar were quantified in space and time continuously and all relevant processes leading to the observed pattern were identified. The direct comparison between reservoir zones and free-flowing intermediate reaches revealed, that the reservoir zones are CH4 emission hot spots and emitted over 90% of the total CH4. On average, the reservoir zones emitted over 80 times more CH4 per square meter than the intermediate reaches between dams (0.23 vs. 19.7 mol CH4 m-2 d-1). The high emission rates measured in the reservoir zones fall into the range of emissions observed in tropical reservoirs. The main reason for this is the accumulation of thick organic rich sediments and we showed that the net sedimentation rate is an excellent proxy for estimating ebullitive emissions. Within the hot spot zones, the ebullitive flux enhanced also the diffusive surface emissions as well as the degassing emissions at dams.
To resolve the high temporal variability, we developed an autonomous instrument for continuous measurements of the ebullition rate over long periods (> 4 weeks). With this instrument we could quantify the variability and identify the relevant trigger mechanisms. At the Saar, ship-lock induces surges and ship waves were responsible for over 85% of all large ebullition events. This dataset was also used to determine the error associated with short sampling periods and we found that with sampling periods of 24 hours as used in other studies, the ebullition rates were systematically underestimated by ~50%. Measuring the temporal variability enabled us to build up a conceptual framework for estimating the temporal pattern of ebullition in other aquatic systems. With respect to the contribution of freshwater systems to the global CH4 emissions, hot spot emission sites in impounded rivers have the potential to increase the current global estimate by up to 7%.
Das Web 2.0 stellt online Technologien zur Verfügung, die es Nutzern erlaubt gemeinsam Inhalte zu erstellen, zu publizieren und zu teilen. Dienste wie Twitter, CNet, CiteSeerX etc. sind Beispiele für Web 2.0 Plattformen, die zum einen Benutzern bei den oben beschriebenen Aktivitäten unterstützen und zum anderen als Quellen reichhaltiger Information angesehen werden können. Diese Plattformen ermöglichen es Nutzern an Diskussionen teilzunehmen, Inhalte anderer Nutzer zu kommentieren, generell Feedback zu geben (z.B. zu einem Produkt) und Inhalte zu publizieren, sei es im Rahmen eines Blogs oder eines wissenschaftlichen Artikels. Alle diese Aktivitäten führen zu einer großen Menge an unstrukturierten Daten. In diesem Überfluss an Informationen kann auf den persönlichen Informationsbedarf einzelner Benutzer nicht mehr individuell genug eingegangen werden kann. Methoden zur automatischen Analyse und Aggregation unstrukturierter Daten die von einzelnen Plattformen zur Verfügung gestellt werden, können dabei helfen den sich aus dem unterschiedlichen Kontext der Plattformen ergebenden Informationsbedarf zu beantworten. In dieser Arbeit stellen wir drei Methoden vor, die helfen den Informationsüberfluss zu verringern und es somit ermöglichen den Informationsbedarf einzelner Nutzer besser zu beantworten.
Der erste Beitrag dieser Arbeit betrachtet die zwei Hauptprobleme des Dienstes Twitter: die Kürze und die Qualität der Einträge und wie sich diese auf die Ergebnisse von Suchverfahren auswirken. Wir analysieren und identifizieren Merkmale für einzelne Kurznachrichten auch Twitter (sog. Tweets), die es ermöglichen die Qualität eines Tweets zu bestimmen. Basierend auf dieser Analyse führen wir den Begriff "Interestingness" ein, der als statisches Qualitätsmaß für Tweets dient. In einer empirischen Analyse zeigen wir, dass die vorgeschlagenen Maße dabei helfen qualitativ hochwertigere Information in Twitter zu finden und zu filtern. Der zweite Beitrag beschäftigt sich mit dem Problem der Inhaltsdiversifikation in einem kollaborativen sozialen System, z.B. einer online Diskussion die aus der sozialen Kollaboration der Nutzer einer Plattform entstanden ist. Ein Leser einer solchen Diskussion möchte sich einen schnellen und umfassenden Überblick über die Pro und Contra Argumente in der Diskussion verschaffen. Zu diesem Zweck wurde FREuD entwickelt, ein Ansatz der hilft das Diversifikationsproblem von Inhalten in den Griff zu bekommen. FREuD kombiniert Latent Semantic Analysis mit Sentiment Analyse. Die Evaluation von FREuD hat gezeigt, dass es mit diesem Ansatz möglich ist, einen umfassenden Überblick über die Unterthemen und die Aspekte einer Diskussion, sowie über die Meinungen der Diskussionteilnehmer zu liefern. Der dritte Beitrag dieser Arbeit ist eine neues Autoren-Thema-Zeit Modell, dass es ermöglicht Trendthemen und Benutzerinteressen in sozialen Medien zu erfassen. Der Ansatz löst dieses Problem indem er die Relationen zwischen Autoren, latenter Themen und zeitlicher Information mittels Bayes'schen Netzen modelliert. Unsere Evaluation zeigt einen verbesserte Erkennung von semantisch zusammenhaängenden Themen und liefert im weiteren Informationen darüber in wie weit die Veränderung im Interesse einzelner Autoren mit der Entwicklung einzelner Themengebiete zusammenhängt.
Eine Fremdsprache ist mit viel Zeit, Geduld und Motivation erlernbar. Um eine Fremdsprache jedoch zu beherrschen, braucht man vertiefte Kenntnisse der Grammatik, einen sehr großen Wortschatz und eine authentische, möglichst muttersprachenähnliche ("native-like") Aussprache. Das Forschungs-projekt leistet einen Beitrag zur Untersuchung der Aussprache.
Mittels einer empirischen Untersuchung der Aussprache von Anglistik-Studierenden an der Universität Koblenz-Landau (Campus Koblenz) wird einer der schwierigsten Laute des amerikanischen Englisch analysiert. Es ist bekannt, dass der amerikanische /r/-Laut von Deutschen sehr häufig falsch ausgesprochen wird (cf. Celce-Murcia et al. 2010 und Swan & Smith 2001). Oftmals sind sich die SprecherInnen ihrer fehlerhaften Aussprache nicht einmal bewusst. Dementsprechend behandelt dieses Forschungsprojekt die folgenden Hypothesen:
(1. Hypothese) Das post-vokalische /r/ in einer unbetonten Silbe am Ende eines Wortes wird häufig nicht ausgesprochen (wie im britischen Englisch). Mittels einer spektrographischen Analyse kann die Aussprache einiger englischer Ausdrücke wie answer, Arthur, either und rather besser untersucht werden, um festzustellen, wie oft dieses /r/ fehlt.
(2. Hypothese) Das /r/ vor einer betonten Silbe wird nur in bestimmten Fällen hörbar ausgesprochen. Oft ist dies vom folgenden Vokal im Wort abhängig. Es wird behauptet, dass der /r/-Laut durch Vokale, die durch eine Rundung der Lippen erzeugt werden, beeinflusst wird. Der Koartikulation zufolge wird der /r/-Laut durch einen labialisierten stimmhaften velaren Approximanten /w/ ersetzt. Anhand verschiedener Wörter wie crawled, rat, rode, room und tree wird die /r/-Qualität in unterschiedlichen Laut-Umgebungen untersucht werden, da hier jeweils ein anderer Vokal dem /r/ folgt.
(3. Hypothese) Nach der Analyse der 1. Hypothese wird die Vokalqualität der unbetonten Silbe der vier englischen Wörter noch einmal und genauer untersucht. Häufig wird der Schwa-Laut in diesen Wörtern durch einen anderen Laut ersetzt. In diesem Fall wird der /ɐ/-Laut ausgesprochen. Um sich ein Bild von der Vokalqualität dieses Lautes machen zu können, werden drei deutsche Ausdrücke analysiert. Danach werden die deutschen Ausdrücken und die englischen Wörter mit einander verglichen. Die drei deutschen Ausdrücke sind in der, Müller und unser.
Zur Gewinnung der empirischen Daten lesen die Studierenden einen englischen Text ("Arthur the rat") und einen kurzen deutschen Satz, welche elektronisch aufgezeichnet werden. Danach werden die Tonaufzeichnungen mit Hilfe der Software "Praat" untersucht und ausgewertet. Das Ziel ist eine minutiöse Analyse ausreichend vieler authentischer Tonaufzeichnungen, anhand derer die Sprachschwierigkeiten deutscher Englischlernender mit dem /r/-Laut prognostiziert werden können. Ein solches Ergebnis ermöglicht es, Ausspracheschwierigkeiten von Anfang an entgegenzuwirken, indem in einem weiteren Schritt (der jedoch über das Ziel der Arbeit hinausgeht) entsprechende Übungsmaterialien entwickelt und eingesetzt werden. Letzteres ist nicht möglich ohne die solide Grundlagenforschung des Forschungsprojekts.
Die pan-amazonische Baumfrosch-Gattung Osteocephalus ist unzureichend bearbeitet sowohl bezüglich ihrer Taxonomie, als auch ihrer Phylogenie. Der Status einer Reihe von Arten, die bereits oder noch nicht zu dieser Gattung gezählt werden, ist unklar und die Verwandtschaftsbeziehungen innerhalb der Gattung und zu verwandten Gattungen nicht geklärt. In dieser Arbeit wird O. cabrerai (Cochran and Goin, 1970) aus Kolumbien und Peru nochmals detailliert beschrieben und O. festae (Peracca, 1904) aus einem Anden-Vorgebirge in Ecuador revalidiert. Hyla inframaculata Boulenger, 1882, vom Unterlauf des Amazonas in Brasilien, wird in die Gattung Osteocephalus gestellt und Osteocephalus elkejungingerae (Henle, 1981) vom östlichen Andenrand in Peru wird mit Hyla mimetica (Melin, 1941) als O. mimeticus synonymisiert. Das Taxon Hyla vilarsi Melin, 1941, bisher als Synonym unterschiedlicher Arten betrachtet, wird als valide angesehen und in die Gattung Osteocephalus gestellt. Drei neue Arten werden beschrieben: Osteocephalus castaneicola aus Nord-Bolivien und Süd-Peru, O. duellmani von einer subandinen Bergkette in Süd-Ecuador und O. camufatus aus dem zentralamazonischen Teil Brasiliens. Eine phylogenetische Analyse auf Basis von bis zu neun mitochondrialen und einem Kern-Gen zeigt, dass Osteocephalus bezüglich der Gattung Tepuihyla paraphyletisch ist. Deshalb wird hier eine neue Taxonomie vorgeschlagen, die die Monophylie von Osteocephalus und Tepuihyla sichert. Eine neue Gattung, Dryaderces, wird für die Schwestergruppe von Osteocephalus aufgestellt. Die Färbung frisch metamorphosierter Jungfrösche wird als morphologische Synapomorphie von Osteocephalus angesehen. Fünf monophyletische Artengruppen werden innerhalb der Gattung aufgestellt, drei Arten der Gattung Osteocephalus (O. germani, O. phasmatus, O. vilmae) und drei der Gattung Tepuihyla (T. celsae, T. galani, T. talbergae) synonymisiert, außerdem drei Arten anderen Gattungen zugerechnet (Hyla helenae zu Osteocephalus, O. exophthalmus zu Tepuihyla und O. pearsoni zu Dryaderces gen. n.). Außerdem werden neun potentiell neue Arten identifiziert, was einer Artenzunahme von 138% im Vergleich zur derzeit bekannten Diversität entspräche. Daraus ist zu schließen, dass die tatsächliche Artenzahl weit unterschätzt wird. Unbeschriebene Arten verbergen sich vor allem unter den weit verbreiteten, polymorphen Nominatarten. Die Evolution der Fortpflanzungsstrategien innerhalb der Gattung wird im Licht der neuen Phylogenie diskutiert und ein neuer Amplexustyp (Kehlamplexus) beschrieben.
Der zunehmende Einsatz von Titandioxid-Nanopartikeln (nTiO2) birgt das Risiko eines erhöhten Eintrags in Oberflächengewässer, wo diese mit weiteren anthropogenen Stressoren (z.B. Schwermetalle) vorkommen können. Das gemeinsame Auftreten ermöglicht die Adsorption von Schwermetallen an nTiO2, welche aufgrund ihrer Agglomeration häufig aussedimentieren. Somit können Nanopartikel mit den adsorbierten Metallionen potentiell für pelagische aber auch benthische Organismen ein Risiko darstellen. Die kombinierte Toxizität von nTiO2 und Schwermetallen wird vermutlich durch die Eigenschaften der Stressoren, aber auch durch verschiedene Umweltparameter (z.B. organisches Material, pH, Ionenstärke) bestimmt.
Allerdings wurde der Einfluss dieser Faktoren bisher nicht systematisch untersucht. Daher zielte diese Arbeit darauf ab den Effekt von verschiedenen nTiO2-Produkten, welche sich in der Zusammensetzung der kristallinen Struktur unterschieden, auf die Toxizität von Kupfer (als Stellvertreter für Schwermetalle) für den pelagischen Testorganismus Daphnia magna in Gegenwart von verschiedenen Formen und Konzentrationen organischen Materials zu untersuchen. Es ist anzunehmen, dass die Dauer der Interaktion (=Alterung) die kombinierte Toxizität der Stressoren beeinflusst. Ergänzend wurde deshalb der Einfluss von nTiO2 auf die Kupfer-Toxizität nach einer Alterung unter dem Einfluss verschiedener Umweltparameter (nämlich organisches Material, pH, Ionenstärke) untersucht.
Des Weiteren wurde die Übertragbarkeit der wesentlichen Ergebnisse auf benthisch lebende Organismen mit Gammarus fossarum geprüft. Die vorliegende Arbeit zeigte für alle untersuchten Szenarien eine reduzierte Kupfer-Toxizität in Gegenwart von nTiO2, unabhängig von deren kristallinen Struktur. Dieser Effekt ließ sich auch auf benthische Lebewesen übertragen, obwohl die Exposition durch die Anwesenheit von nTiO2 aufgrund der Sedimentation mit dem adsorbierten Kupfer potenziell erhöht war.
Die erzielten Beobachtungen legen eine Verwendung von nTiO2 zur Aufreinigung von beispielsweise Abwasser nahe. Allerdings sollten potentielle Nebeneffekte (z.B. chronische Toxizität, Bildung von Sauerstoffradikalen) zunächst gründlich untersucht werden. Darüber hinaus sind die Übertragbarkeit auf andere Stressoren (z.B. andere Schwermetalle, organische Chemikalien) und der Verbleib von Schwermetallen in aquatischen Ökosystemen nach einer Sorption an nTiO2 ungewiss und bedürfen weiterer Forschung.
Die nichtsuizidale Selbstverletzung (NSSV) wurde im DSM-5 als Störung zur weiteren Erforschung aufgenommen. Daher ist es wichtig, die vorgeschlagenen Diagnosekriterien hinsichtlich ihrer diagnostischen, klinischen und psychologischen Korrelate zu untersuchen. Zusätzlich ist eine klare Abgrenzung zur Borderline Persönlichkeitsstörung (BPS) notwendig, hierbei könnte die Untersuchung von Persönlichkeitseigenschaften helfen. Soziale Schwierigkeiten dienen oft als Auslöser von NSSV. Dennoch ist wenig erforscht, wie Jugendliche mit NSSV soziale Situation wahrnehmen. Ein neues Emotionserkennungsparadigma mit farbigen, dynamischen emotionalen Gesichtsausdrücken wurde entwickelt und an einer studentischen Stichprobe evaluiert, die für ihre hohe (HSA) oder niedrige soziale Ängstlichkeit (LSA) ausgewählt wurde. HSA zeigten eine Tendenz zu einer beeinträchtigten Erkennung von Gesichtsausdrücken. Des Weiteren konnte eine gute Konstruktvalidität für das Paradigma festgestellt werden.
In der Hauptstudie untersuchten wir die Charakteristika von NSSV, die Persönlichkeitseigenschaften und die Emotionserkennung bei 57 Jugendlichen mit NSSV, 12 Jugendlichen mit NSSV ohne Einschränkung und Leiden, 13 Jugendlichen mit BPS, einer klinischen Kontrollgruppe (n = 32) und einer nicht-klinischen Kontrollgruppe (n = 64). Die Teilnehmer wurden bezüglich psychischer Störungen befragt, füllten Fragebögen aus und nahmen am Emotionserkennungsparadigma teil.
Die Ergebnisse zeigten auf, dass Jugendliche mit NSSV im Vergleich zur klinischen Kontrollgruppe eine erhöhte Psychopathologie aufwiesen. Weiterhin fanden sich Gemeinsamkeiten sowie Unterschiede zwischen den Jugendlichen mit NSSV und Jugendlichen mit BPS. Jugendliche mit NSSV kennzeichnen sich durch eine hohe Schadensvermeidung und hohes Neugierverhalten im Vergleich zur klinischen Kontrollgruppe. Bei Jugendlichen mit BPS waren diese Persönlichkeitseigenschaften noch ausgeprägter. Weiterhin, konnten keine Gruppenunterschiede bezüglich der Emotionserkennung gefunden werden. Jugendliche mit NSSV bewerteten jedoch die Gesichtsausdrücke als unangenehmer und emotional aufwühlender.
Zusammenfassend zeigt sich NSSV als stark einschränkende Störung, die mit einer hohen Komorbidität einhergeht und mit spezifischen Persönlichkeitseigenschaften assoziiert ist. Die Ergebnisse liefern zusätzliche Evidenz für die neue Diagnose NSSV und weisen darauf hin, dass die vorgeschlagenen DSM-5 Kriterien hilfreich und notwendig sind.
The increasing, anthropogenic demand for chemicals has created large environmental problems with repercussions for the health of the environment, especially aquatic ecosystems. As a result, the awareness of the public and decision makers on the risks from chemical pollution has increased over the past half-century, prompting a large number of studies in the field of ecological toxicology (ecotoxicology). However, the majority of ecotoxicological studies are laboratory based, and the few studies extrapolating toxicological effects in the field are limited to local and regional levels. Chemical risk assessment on large spatial scales remains largely unexplored, and therefore, the potential large-scale effects of chemicals may be overlooked.
To answer ecotoxicological questions, multidisciplinary approaches that transcend classical chemical and toxicological concepts are required. For instance, the current models for toxicity predictions - which are mainly based on the prediction of toxicity for a single compound and species - can be expanded to simultaneously predict the toxicity for different species and compounds. This can be done by integrating chemical concepts such as the physicochemical properties of the compounds with evolutionary concepts such as the similarity of species. This thesis introduces new, multidisciplinary tools for chemical risk assessments, and presents for the first time a chemical risk assessment on the continental scale.
After a brief introduction of the main concepts and objectives of the studies, this thesis starts by presenting a new method for assessing the physiological sensitivity of macroinvertebrate species to heavy metals (Chapter 2). To compare the sensitivity of species to different heavy metals, toxicity data were standardized to account for the different laboratory conditions. These rankings were not significantly different for different heavy metals, allowing the aggregation of physiological sensitivity into a single ranking.
Furthermore, the toxicological data for macroinvertebrates were used as input data to develop and validate prediction models for heavy metal toxicity, which are currently lacking for a wide array of species (Chapter 3). Apart from the toxicity data, the phylogenetic information of species (evolutionary relationships among species) and the physicochemical parameters for heavy metals were used. The constructed models had a good explanatory power for the acute sensitivity of species to heavy metals with the majority of the explained variance attributed to phylogeny. Therefore, the integration of evolutionary concepts (relatedness and similarity of species) with the chemical parameters used in ecotoxicology improved prediction models for species lacking experimental toxicity data. The ultimate goal of the prediction models developed in this thesis is to provide accurate predictions of toxicity for a wide range of species and chemicals, which is a crucial prerequisite for conducting chemical risk assessment.
The latter was conducted for the first time on the continental scale (Chapter 4), by making use of a dataset of 4,000 sites distributed throughout 27 European countries and 91 respective river basins. Organic chemicals were likely to exert acute risks for one in seven sites analyzed, while chronic risk was prominent for almost half of the sites. The calculated risks are potentially underestimated by the limited number of chemicals that are routinely analyzed in monitoring programmes, and a series of other uncertainties related with the limit of quantification, the presence of mixtures, or the potential for sublethal effects not covered by direct toxicity.
Furthermore, chemical risk was related to agricultural and urban areas in the upstream catchments. The analysis of ecological data indicated chemical impacts on the ecological status of the river systems; however, it is difficult to discriminate the effects of chemical pollution from other stressors that river systems are exposed to. To test the hypothesis of multiple stressors, and investigate the relative importance of organic toxicants, a dataset for German streams is used in chapter 5. In that study, the risk from abiotic (habitat degradation, organic chemicals, and nutrients enrichment) and biotic stressors (invasive species) was investigated. The results indicated that more than one stressor influenced almost all sites. Stream size and ecoregions influenced the distribution of risks, e.g., the risks for habitat degradation, organic chemicals and invasive species increased with the stream size; whereas organic chemicals and nutrients were more likely to influence lowland streams. In order to successfully mitigate the effects of pollutants in river systems, co-occurrence of stressors has to be considered. Overall, to successfully apply integrated water management strategies, a framework involving multiple environmental stressors on large spatial scales is necessary. Furthermore, to properly address the current research needs in ecotoxicology, a multidisciplinary approach is necessary which integrates fields such as, toxicology, ecology, chemistry and evolutionary biology.
Terrainklassifikation mit Markov Zufallsfeldern für autonome Roboter in unstrukturiertem Terrain
(2015)
Diese Doktorarbeit beschäftigt sich mit dem Problem der Terrainklassifikation im unstrukturierten Außengelände. Die Terrainklassifikation umfasst dabei das Erkennen von Hindernissen und flachen Bereichen mit der einhergehenden Analyse der Bodenoberfläche. Ein 3D Laser-Entfernungsmesser wurde als primärer Sensor verwendet, um das Umfeld des Roboters zu vermessen. Zunächst wird eine Gitterstruktur zur Reduktion der Daten eingeführt. Diese Datenrepräsentation ermöglicht die Integration mehrerer Sensoren, z.B. Kameras für Farb- und Texturinformationen oder weitere Laser-Entfernungsmesser, um die Datendichte zu erhöhen. Anschließend werden für alle Terrainzellen des Gitters Merkmale berechnet. Die Klassifikation erfolgt mithilfe eines Markov Zufallsfeldes für Kontextsensitivität um Sensorrauschen und variierender Datendichte entgegenzuwirken. Ein Gibbs-Sampling Ansatz wird zur Optimierung eingesetzt und auf der CPU sowie der auf GPU parallelisiert um Ergebnisse in Echtzeit zu berechnen. Weiterhin werden dynamische Hindernisse unter Verwendung verschiedener State-of-the-Art Techniken erkannt und über die Zeit verfolgt. Die berechneten Informationen, wohin sich andere Verkehrsteilnehmer bewegen und in Zukunft hinbewegen könnten, werden verwendet, um Rückschlüsse auf Bodenoberflächen zu ziehen die teilweise oder vollständig unsichtbar für die Sensoren sind. Die Algorithmen wurden auf unterschiedlichen autonomen Roboter-Plattformen getestet und eine Evaluation gegen von Menschen annotierte Grundwahrheiten von Karten aus mehreren Millionen Messungen wird präsentiert. Der in dieser Arbeit entwickelte Ansatz zur Terrainklassifikation hat sich in allen Anwendungsbereichen bewährt und neue Erkenntnisse geliefert. Kombiniert mit einem Pfadplanungsalgorithmus ermöglicht die Terrainklassifikation die vollständige Autonomie für radgetriebene Roboter in natürlichem Außengelände.
Flowering habitats to enhance biodiversity and pest control services in agricultural landscapes
(2015)
Die wachsende Nachfrage nach landwirtschaftlichen Produkten benötigt Bewirtschaftungslösungen, die die Lebensmittelproduktion unter minimaler Beeinträchtigung der Umwelt steigern. Durch den übermässigen Einsatz künstlicher Hilfsstoffe und die Landschaftsvereinfachung gefährdet die konventionelle landwirtschaftliche Intensivierung die Biodiversität und die damit verknüpften Ökosystemleistungen im landwirtschaftlichen Raum.
Agrarumweltmassnahmen (AES) werden häufig eingesetzt, um die negativen Auswirkungen konventioneller Intensivierung auf die Biodiversität zu mildern. Ihr bisher nur moderater Erfolg könnte jedoch von expliziteren Zielen bezüglich Ökosystemleistungen profitieren. Das Bereitstellen von Schlüsselressourcen für Nützlinge dürfte deren Häufigkeit, Fitness und Diversität, sowie die durch sie bereitgestellten Ökosystemleistungen begünstigen. Durch gezieltes Lebensraummanagement könnten AES sowohl die Biodiversität als auch die landwirtschaftliche Produktion fördern und so zu einer ökologischen Intensivierung beitragen.
Wir zeigen, dass gesäte mehrjährige Wildblumenstreifen, wie sie gegenwärtig in AES mit Fokus auf Biodiversitätsförderung umgesetzt werden, auch die biologische Kontrolle in benachbarten Kulturen fördern (Kapitel 2). Der Vergleich von Winterweizenfeldern mit angrenzendem Wildblumenstreifen, mit Feldern ohne Wildblumenstreifen, zeigte stark reduzierte Getreidehähnchendichten (Oulema sp.) und Pflanzenschaden nahe Wildblumenstreifen, sowie ein um 10 % gesteigerter Ertrag. Dies bestätigt Annahmen, wonach, für ihre positiven Auswirkungen auf die Biodiversität bekannte Wildblumenstreifen, auch Ökosystemleistung-en, wie biologische Schädlingskontrolle fördern können. Die positive Korrelation des Ertrags mit Blütenabundanz und –diversität weist auf Blütenressourcen als Schlüsselfaktor hin.
Um gesäte Blühstreifen für die verstärkte Bereitstellung von Ökosystemleistungen zu verbessern, benötigt es ein mechanistisches Verständnis davon, wie Organismen von Blütenressourcen profitieren. In Klimakabinenversuchen, die den Einfluss von einzelnen und mehreren blühenden Pflanzenarten auf Fitnesskomponenten von drei grundlegenden natürlichen Feind-Arthropoden von Blattläusen untersuchten, zeigen wir, dass natürliche Feinde unterschiedlich von den angebotenen Ressourcen profitieren (Kapitel 3).
Einige Blühpflanzenarten waren dabei im Allgemeinen wertvoller für natürliche Feinde als andere. Die Mischung aller Blütenpflanzen war zudem generell besser als Monokulturen, jedoch nicht besser als die jeweils beste Art in der Mischung (kein „transgressive overyielding“). Durch gezieltes Massschneidern von Blühstreifen auf die Bedürfnisse von wichtigen natürlichen Feinden von Kulturschädlingen, versuchten wir, die durch natürliche Feinde vermittelte biologische Schädlingskontrolle in Winterweizen (Kapitel 4) und Kartoffelkulturen (Kapitel 5) zu maximieren.
Unter Berücksichtigung der vielseitigen Ansprüchen von diversen natürlichen Feinden - aber nicht Schädlingen - bezüglich zeitlicher und räumlicher Bereitstellung von floralen, extrafloralen und strukturellen Ressourcen, konzipierten wir einjährige Nützlingsblühstreifen, die durch Einbau in die Kulturfolge wichtige Arthropoden an Ort und Zeit unterstützen, an denen sie benötigt werden. Tatsächlich zeigten Feldexperimente, dass Getreidehähnchen und Pflanzenschaden in Winterweizen um 40 % bis 61 % gesenkt werden können und Blattläuse in Kartoffelkulturen sogar um 77 %, wenn ein Nützlingsblühstreifen ins Feld gesät wurde. Diese Effekte waren nicht auf die Nähe zum Blühstreifen beschränkt und verhinderten oft, dass im Vergleich zu Feldern ohne Blühstreifen die Schadschwelle erreicht wurde. Dies zeigt, dass Nützlingsblühstreifen Insektizide ersetzen könnten. Alle adulten natürlichen Feinde waren innerhalb der Nützlingsblühstreifen zahlreicher als innerhalb von Kontrollstreifen. Der Überlauf (spillover) von Nützlingen ins Feld war jedoch auf wichtige natürliche Feinde, wie Laufkäfer (Winterweizen), Schwebfliegen (Kartoffeln) und Florfliegen (Win-terweizen und Kartoffeln) beschränkt, was deren dominante Rolle für die biologische Schäd-lingskontrolle nahelegt. In Kartoffeln erhöhten Nützlingsblühstreifen auch die Artenzahl Schwebfliegen in Streifen und Feld, was einen zusätzlichen Nutzen für die Diversität heraushebt.
Die vorliegenden Resultate liefern Einblicke in die Mechanismen, die der biologischen Schädlingskontrolle durch Nützlingsförderung (conservation biological control) unterliegen und heben das Potential von massgeschneidertem Lebensraum-Management für eine ökologische Intensivierung hervor.
Die weltweite Vernetzung von semantischen Information schreitet stetig voran und erfährt mit der Linked Data Initiative immer mehr Aufmerksamkeit. Bei Linked Data werden verschiedene Datensätze aus unterschiedlichen Domänen und von diversen Anbietern in einem einheitlichen Format (RDF) zur Verfügung gestellt und miteinander verknüpft. Strukturell ist das schnell wachsende Linked Data Netzwerk sehr ähnlich zum klassischen World Wide Web mit seinen verlinkten HTML Seiten. Bei Linked Data handelt es sich jedoch um URI-referenzierte Entitäten, deren Eigenschaften und Links durch RDF-Triple ausgedrückt werden. Neben dem Dereferenzieren von URIs besteht mit SPARQL auch die Möglichkeit, ähnlich wie bei Datenbanken, komplexe algebraische Anfragen zu formulieren und über sogenannte SPARQL Endpoints auf einer Datenquelle auswerten zu lassen. Eine SPARQL Anfrage über mehrere Linked Data Quellen ist jedoch kompliziert und bedarf einer föderierten Infrastruktur in der mehrere verteilte Datenquellen integriert werden, so dass es nach außen wie eine einzige große Datenquelle erscheint. Die Föderation von Linked Data hat viele Ähnlichkeiten mit verteilten und föderierten Datenbanken. Es gibt aber wichtige Unterschiede, die eine direkte Adpation von bestehenden Datenbanktechnologien schwierig machen. Dazu gehört unter anderem die große Anzahl heterogener Datenquellen in der Linked Data Cloud, Beschränkungen von SPARQL Endpoints, und die teils starke Korrelation in den RDF Daten. Daher befasst sich die vorliegende Arbeit primär mit der Optimierung von verteilten SPARQL Anfragen auf föderierten RDF Datenquellen. Die Grundlage dafür ist SPLENDID, ein effizientes Optimierungverfahren für die Ausführung von verteilten SPARQL Anfragen in einer skalierbaren und flexiblen Linked Data Föderationsinfrastruktur. Zwei Aspekte sind dabei besonders wichtig: die automatische Auswahl von passenden Datenquellen für beliebige SPARQL Anfragen und die Berechnung des optimalen Ausführungsplans (Join Reihenfolge) basierend auf einem Kostenmodell. Die dafür erforderlichen statistischen Information werden mit Hilfe von VOID-basierten Datenquellenbeschreibungen zur Verfügung gestellt. Darüberhinaus wird auch des Management verteilter statistischer Daten untersucht und eine Benchmark-Methodologie
In the new epoch of Anthropocene, global freshwater resources are experiencing extensive degradation from a multitude of stressors. Consequently, freshwater ecosystems are threatened by a considerable loss of biodiversity as well as substantial decrease in adequate and secured freshwater supply for human usage, not only on local scales, but also on regional to global scales. Large scale assessments of human and ecological impacts of freshwater degradation enable an integrated freshwater management as well as complement small scale approaches. Geographic information systems (GIS) and spatial statistics (SS) have shown considerable potential in ecological and ecotoxicological research to quantify stressor impacts on humans and ecological entitles, and disentangle the relationships between drivers and ecological entities on large scales through an integrated spatial-ecological approach. However, integration of GIS and SS with ecological and ecotoxicological models are scarce and hence the large scale spatial picture of the extent and magnitude of freshwater stressors as well as their human and ecological impacts is still opaque. This Ph.D. thesis contributes novel GIS and SS tools as well as adapts and advances available spatial models and integrates them with ecological models to enable large scale human and ecological impacts identification from freshwater degradation. The main aim was to identify and quantify the effects of stressors, i.e climate change and trace metals, on the freshwater assemblage structure and trait composition, and human health, respectively, on large scales, i.e. European and Asian freshwater networks. The thesis starts with an introduction to the conceptual framework and objectives (chapter 1). It proceeds with outlining two novel open-source algorithms for quantification of the magnitude and effects of catchment scale stressors (chapter 2). The algorithms, i.e. jointly called ATRIC, automatically select an accumulation threshold for stream network extraction from digital elevation models (DEM) by assuring the highest concordance between DEM-derived and traditionally mapped stream networks. Moreover, they delineate catchments and upstream riparian corridors for given stream sampling points after snapping them to the DEM-derived stream network. ATRIC showed similar or better performance than the available comparable algorithms, and is capable of processing large scale datasets. It enables an integrated and transboundary management of freshwater resources by quantifying the magnitude of effects of catchment scale stressors. Spatially shifting temporal points (SSTP), outlined in chapter 3, estimates pooled within-time series (PTS) variograms by spatializing temporal data points and shifting them. Data were pooled by ensuring consistency of spatial structure and temporal stationarity within a time series, while pooling sufficient number of data points and increasing data density for a reliable variogram estimation. SSTP estimated PTS variograms showed higher precision than the available method. The method enables regional scale stressors quantification by filling spatial data gaps integrating temporal information in data scarce regions. In chapter 4, responses of the assumed climate-associated traits from six grouping features to 35 bioclimatic indices for five insect orders were compared, their potential for changing distribution pattern under future climate change was evaluated and the most influential climatic aspects were identified (chapter 4). Traits of temperature preference grouping feature and the insect order Ephemeroptera exhibited the strongest response to climate as well as the highest potential for changing distribution pattern, while seasonal radiation and moisture were the most influential climatic aspects that may drive a change in insect distribution pattern. The results contribute to the trait based freshwater monitoring and change prediction. In chapter 5, the concentrations of 10 trace metals in the drinking water sources were predicted and were compared with guideline values. In more than 53% of the total area of Pakistan, inhabited by more than 74 million people, the drinking water was predicted to be at risk from multiple trace metal contamination. The results inform freshwater management by identifying potential hot spots. The last chapter (6) synthesizes the results and provides a comprehensive discussion on the four studies and on their relevance for freshwater resources conservation and management.
Factors triggering the ecotoxicity of metal-based nanoparticles towards aquatic invertebrates
(2015)
Heutzutage werden Nanopartikel in großem Maßstab produziert, weshalb deren Eintrag in Oberflächengewässer immer wahrscheinlicher wird. Dort angelangt unterliegen sie verschiedenen umweltbedingten (Oberflächen-)Modifikationen, die in letzter Konsequenz eine Vielfalt von Nanopartikel-Agglomeraten unterschiedlicher Größe hervorbringen. Direkt davon betroffen sind aquatische Lebewesen, die einer entsprechenden Nanopartikelexposition in der Wasserphase ausgesetzt sind.
Nach Sedimentation der Agglomerate können aber ebenfalls benthische Organismen betroffen sein. Bisherige ökotoxikologische Untersuchungen haben solche umweltbedingten Einflüsse außer Acht gelassen und viel mehr nanopartikel-spezifische Charakteristika auf deren Wirkweise gegenüber pelagischen Vertretern untersucht. Aus diesem Grund ist eine systematische Untersuchung derer Faktoren von Nöten, die den Verbleib und das Verhalten aber auch die Toxizität von Nanopartikeln in der Umwelt maßgeblich beeinflussen. Die kumulative Arbeit dieser Dissertation macht sich dies zum Ziel und hinterfragt entsprechende Faktoren die einerseits durch Nanopartikel assoziierte Aspekte (definiert als i) inhärente Stoffeigenschaft des untersuchten Materials und ii) Nanopartikel Charakteristika)) und andererseits durch Umweltbedingungen in Oberflächengewässern geprägt sind. In diesem Kontext wurden verschiedene ökotoxikologische Untersuchungen mit inerten Titandioxid Nanopartikeln (nTiO2) und Ionen freisetzenden Silber Nanopartikeln (nAg) unter Berücksichtigung verschiedener Nanopartikel Charakteristika (z.B. initiale Partikelgröße, Oberflächengröße) und Umweltbedingungen (z.B. Ionenstärke, ultraviolettes Licht (UV-Licht)), durchgeführt.
Als Testorganismen dienten dazu die pelagischen bzw. benthischen Vertreter Daphnia magna und Gammarus fossarum. Die Ergebnisse deuten daraufhin, dass die Toxizität von nTiO2 und nAg gegenüber Daphnien maßgeblich durch das Adsorptionspotential (im Bezug auf das Anhaften der Partikel an die Organismenoberfläche) und das Umweltverhalten (Freisetzung von radikalen Sauerstoffspezies oder Metallionen) der Nanopartikel bestimmt wird.
Darüber hinaus wurde die Nanopartikeltoxizität von jenen inhärenten Stoffeigenschaften, Nanopartikelcharakteritika und Umweltbedingungen am meisten beeinflusst, welche die zuvor genannten Aspekte entweder verstärken oder abschwächen. Hierfür beispielhaft ist der toxizitätsverstärkende Effekt von UV-Licht auf nTiO2 in Experimenten mit Gammarus: Während eine Exposition der Organismen in absoluter Dunkelheit selbst bei 5,00 mg nTiO2/L keine Effekt hervorrief, kam es in der Anwesenheit von UV-Licht schon bei 0,20 mg nTiO2/L zu schwerwiegenden Effekten auf sublethaler und lethaler Ebene.
Unter Berücksichtigung der Ergebnisse dieser Dissertation sowie bisherige Erkenntnisse der Wissenschaft im Allgemeinen, ist die derzeitige Risikoeinschätzung von Nanopartikeln möglicherweise unprotektiv, sofern eine Interaktion von Nanopartikeln und Umwelteinflüssen unberücksichtigt bleibt
The formulation of the decoding problem for linear block codes as an integer program (IP) with a rather tight linear programming (LP) relaxation has made a central part of channel coding accessible for the theory and methods of mathematical optimization, especially integer programming, polyhedral combinatorics and also algorithmic graph theory, since the important class of turbo codes exhibits an inherent graphical structure. We present several novel models, algorithms and theoretical results for error-correction decoding based on mathematical optimization. Our contribution includes a partly combinatorial LP decoder for turbo codes, a fast branch-and-cut algorithm for maximum-likelihood (ML) decoding of arbitrary binary linear codes, a theoretical analysis of the LP decoder's performance for 3-dimensional turbo codes, compact IP models for various heuristic algorithms as well as ML decoding in combination with higher-order modulation, and, finally, first steps towards an implementation of the LP decoder in specialized hardware. The scientific contributions are presented in the form of seven revised reprints of papers that appeared in peer-reviewed international journals or conference proceedings. They are accompanied by an extensive introductory part that reviews the basics of mathematical optimization, coding theory, and the previous results on LP decoding that we rely on afterwards.
Ein grundlegendes Verständnis der Anlagerung von künstlich hergestellten Nanopartikeln ist für die Prognose des Schicksals und Transports von Nanopartikeln in der Umwelt unerlässlich.
In dieser Arbeit wurde die Anlagerung von unbedeckten und mit Citrat bedeckten Silbernanopartikeln an unterschiedliche Modell- und Umweltoberflächen in An- und Abwesenheit der Huminsäure untersucht.
Für diese Untersuchungen wurden Sorptionsexperimente durchgeführt. Das Ziel dieser Arbeit ist es zu untersuchen, wie die Silbernanopartikel mit Oberflächen wechselwirken, die verschiedene chemische funktionelle Gruppen besitzen. Dabei wurde ebenfalls der Effekt der Huminsäure auf die Wechselwirkungen zwischen Partikel und Oberfläche untersucht. Die Wechselwirkungen zwischen Nanopartikel und Oberfläche sind in Abwesenheit der Huminsäure wahrscheinlich durch die chemische Natur der wechselwirkenden Oberflächen beeinflusst. In Anwesenheit der Huminsäure wurde diese chemische Sensitivität gegen Anlagerung von Nanopartikeln nicht beobachtet und die Sorption war durch die spezifische Oberfläche von Sorbentien beeinflusst. Die Sorptionsisothermen wurden für die Sorption von Silbernanopartikeln an allen Oberflächen in Abwesenheit der Huminsäure durch Langmuir-Modell beschrieben. Das deutete auf Monoschicht-Sorption der Nanopartikel an Oberflächen hin. Das kann durch den bei der Partikel-Partikel-Abstoßung generierten blockierenden Effekt erklärt werden. In Anwesenheit der Huminsäure zeigten alle Sorptionsisothermen ein lineares Verhalten. Wenn die Huminsäure im Wechselwirkungsmedium vorhanden war, waren die Nanopartikel und Oberflächen mit Huminsäure bedeckt. Dadurch wird die chemische Funktionalität von Oberflächen maskiert. Das führt zu den Unterschieden zwischen Partikel-Oberfläche-Wechselwirkungen in An- und Abwesenheit der Huminsäure. Die mit Citrat und Huminsäure bedeckten Silbernanopartikel zeigten eine Abnahme der Sorption an Oberflächen im Vergleich zu unbedeckten Silbernanopartikeln. Im Falle der mit Citrat bedeckten Silbernanopartikel kann die Abnahme der Sorption durch elektrostatische Kräfte erklärt werden, da diese Partikel ein mehr negatives Zetapotential zeigten. Die Sorptionsabnahme für die mit Huminsäure bedeckten Nanopartikel ist offensichtlich eine Folge der sterischen Behinderung, da es auf Grund der Sorption der Huminsäure an Oberflächen zur Konkurrenz zwischen Nanopartikeln und Huminsäuremolekülen für die Sorptionsplätze kommt. Durch die chemischen Eigenschaften der Nanopartikeloberfläche wird die Effizienz der Anlagerung an Oberflächen beeinflusst. Deswegen ist die Charakterisierung der Nanopartikeloberfläche ein wichtiger Schritt bei der Untersuchung des Schicksals von Nanopartikeln in der Umwelt.
Ein anderes Ziel dieser Arbeit ist es das Potential der chemischen Kraftmikroskopie für die Charakterisierung von Nanopartikeloberflächen mit chemischer Sensitivität zu zeigen. Durch die Anwendung dieser Methode war es möglich zwischen unbedeckten, mit Citrat und Huminsäure bedeckten Silbernanopartikeln zu unterscheiden. Das wurde durch die Messung der Adhäsionskräfte zwischen Nanopartikeln und fünf verschiedenen Atomkraftmikroskope-Spitzen mit unterschiedlichen chemischen Funktionalisierungen ermöglicht.
The intention of this thesis was to characterise the effect of naturally occurring multivalent cations like Calcium and Aluminium on the structure of Soil Organic Matter (SOM) as well as on the sorption behaviour of SOM for heavy metals such as lead.
The first part of this thesis describes the results of experiments in which the Al and Ca cation content was changed for various samples originated from soils and peats of different regions in Germany. The second part focusses on SOM-metal cation precipitates to study rigidity in dependence of the cation content. In the third part the effects of various cation contents in SOM on the binding strength of Pb cations were characterised by using a cation exchange resin as desorption method.
It was found for soil and peat samples as well as precipitates that matrix rigidity was affected by both type and content of cation. The influence of Ca on rigidity was less pronounced than the influence of Al and of Pb used in the precipitation experiments. For each sample one cation content was identified where matrix rigidity was most pronounced. This specific cation content is below the cation saturation as expected by cation exchange capacity. These findings resulted in a model describing the relation between cation type, content and the degree of networking in SOM. For all treated soil and precipitate samples a step transition like glass transition was observed, determined by the step transition temperature T*. It is known from literature that this type of step transition is due to bridges between water molecules and organic functional groups in SOM. In contrast to the glass transition temperature this thermal event is slowly reversing after days or weeks depending on the re-conformation of the water molecules. Therefore, changes of T* with different cation compositions in the samples are explained by the formation of water-molecule-cation bridges between SOM-functional groups. No influence on desorption kinetics of lead for different cation compositions in soil samples was observed. Therefore it can be assumed that the observed changes of matrix rigidity are highly reversible by changing the water status, pH or putting agitation energy by shaking in there.
Change of ecosystems and the associated loss of biodiversity is among the most important environmental issues. Climate change, pollution, and impoundments are considered as major drivers of biodiversity loss. Organism traits are an appealing tool for the assessment of these three stressors, due to their ability to provide mechanistic links between organism responses and stressors, and consistency over wide geographical areas.
Additionally, traits such as feeding habits influence organismal performance and ecosystem processes. Although the response of traits of specific taxonomic groups to stressors is known, little is known about the response of traits of different taxonomic groups to stressors. Additionally, little is known about the effects of small impoundments on stream ecosystem processes, such as leaf litter decomposition, and food webs.
After briefly introducing the theoretical background and objectives of the studies, this thesis begins by synthesizing the responses of traits of different taxonomic groups to climate change and pollution. Based on 558 peer-reviewed studies, the uniformity (i.e., convergence) in trait response across taxonomic groups was evaluated through meta-analysis (Chapter 2). Convergence was primarily limited to traits related to tolerance.
In Chapter 3, the hypothesis that small impoundments would modify leaf litter decomposition rates at the sites located within the vicinity of impoundments, by altering habitat variables and invertebrate functional feeding groups (FFGs) (i.e., shredders), was tested. Leaf litter decomposition rates were significantly reduced at the study sites located immediately upstream (IU) of impoundments, and were significantly related to the abundance of invertebrate shredders.
In Chapter 4, the invertebrate FFGs were used to evaluate the effect of small impoundments on stream ecosystem attributes. The results showed that heterotrophic production was significantly reduced at the sites IU. With regard to food webs, the contribution of methane gas derived carbon to the biomass of chironomid larvae was evaluated through correlation of stable carbon isotope values of chironomid larvae and methane gas concentrations.
The results indicated that the contribution of methane gas derived carbon into stream benthic food web is low. In conclusion, traits are a useful tool in detecting ecological responses to stressors across taxonomic groups, and the effects of small impoundments on stream ecological integrity and food web are limited.
While the 1960s and 1970s still knew permanent education (Council of Europe), recurrent education (OECD) and lifelong education (UNESCO), over the past 20 years, lifelong learning has become the single emblem for reforms in (pre-) primary, higher and adult education systems and international debates on education. Both highly industrialized and less industrialized countries embrace the concept as a response to the most diverse economic, social and demographic challenges - in many cases motivated by international organizations (IOs).
Yet, literature on the nature of this influence, the diffusion of the concept among IOs and their understanding of it is scant and usually focuses on a small set of actors. Based on longitudinal data and a large set of education documents, the work identifies rapid diffusion of the concept across a heterogeneous, expansive and dynamic international field of 88 IOs in the period 1990-2013, which is difficult to explain with functionalist accounts.
Based on the premises of world polity theory, this paper argues that what diffuses resembles less the bundle of systemic reforms usually associated with the concept in the literature and more a surprisingly detailed model of a new actor " the lifelong learner.
Seit Jahrzehnten wird weltweit eine zunehmende Bedrohung der biologischen Vielfalt durch anthropogene Einflüsse beobachtet. Landschaften sind durch unterschiedliche Arten von anthro-pogenen Störungen geprägt. So vereinheitlichen großflächiger Ackerbau, die Pestizidanwen¬dung und das Entfernen von Korridoren eine Landschaft, wohingegen der Straßenbau sie fragmentiert. Beides führt zu einer Einschränkung von Habitaten und reduziert sowohl den Lebensraum als auch den Genpool der Arten, verhindert den Genfluss und verändert die funktionellen Eigenschaften. Zudem können gebietsfremde Arten in der veränderten Umwelt schneller Fuß fassen. Auf der anderen Seite machen in verschiedenen zeitlichen und räumlichen Dimensionen vorkommenden Störungen eine Landschaft auch vielfältiger, da sie Nischen kreieren, in denen verschiedene Arten koexistieren können.
Diese Studie befasst sich mit der Komplexität von Störungsregimes und dessen Auswirkungen auf die Phytodiversität. Durch die Aufnahme aller erkennbaren Störungstypen unterscheidet sie sich deutlich von anderen Studien, die sich meist nur auf einzelne Störungen konzentrieren. Die Daten stammen von drei Untersuchungsgebieten im Norden Bayerns, die unterschiedlichen Landnutzungsintensitäten unterliegen: Einer intensiven Land- und Forstwirtschaft, einer kleinräumigen und weniger intensiven Land- und Forstwirtschaft und einem aktiven Truppenübungsplatzes. Der erste Teil der Arbeit befasst sich mit der Auswirkung von Störungsregimen auf die Phytodiversität, zuerst mit Fokus auf militärische Störungen, dann im Vergleich mit den Agrarlandschaften. Der zweite Teil beleuchtet den Einfluss auf Rote-Liste Arten, auf die Verbreitung von Neophyten und Generalisten sowie auf die Homogenisierung der Landschaften. Die Analysen berücksichtigen sowohl die Landschafts- als auch die lokale Ebene.
Nicht einzelne Störungstypen spielten eine entscheidende Rolle, sondern deren Vielfalt, sowohl in der Art als auch in der räumlichen und zeitlichen Vielfalt, was sich besonders auf dem Truppenübungs¬platz mit seinem multiplen aber ungerichteten Störungsregime zeigte. Die in landwirtschaftlichen Gebieten typischen homogenen Störungsregimes, wie Pflügen, Einsäen und Düngen, führten zu reduzierten Artenzahlen. Auf lokaler Ebene überlagerte die Heterogenität der abiotischen Faktoren, deren Ursprung in rezenten und historischen Störungen liegt, die positiven Effekte der Störungen, während vor allem trockene und nährstoffarme Standorte negativen Einfluss zeigten. Wälder des Truppenübungsplatzes zeigten sich durch ihre geringere Dichte und moderate Nutzung deutlich artenreicher im Vergleich zu den landwirtschaftlichen Untersuchungsgebieten.
Die Anzahl der Rote-Liste Arten war in allen drei Untersuchungsgebieten positiv mit der Gesamtzahl der Arten korreliert, jedoch zeigte der Truppenübungsplatz eine signifikant höhere Abundanz der Arten innerhalb des gesamten Gebietes im Vergleich zu den landwirtschaftlichen Gebieten, wo seltene Arten überwiegend auf Randstandorten zu finden waren. Ebenso fanden sich dort weniger Neophyten und Generalisten und somit eine geringere Homogenisierung. Somit zeigte sich der Truppenübungsplatz als Idealgebiet aus Naturschutzsicht. Die moderat bewirtschaftete Frankenalb vereint eine hohen Artenzahl und eine Produktivität, trotzdem wird diese Art von Landschaft in der heutigen industrialisierten Zeit nicht von Bestand sein, da der Ertrag zu gering ist.
In Europa ist die moderne Landwirtschaft eine der häufigsten Formen der Landnutzung, allerdings wird sie auch mit negativen Auswirkungen auf die Biodiversität in Agrarlandschaften in Verbindung gebracht. Lepidoptera (Nacht- und Tagfalter) bilden eine artenreiche Gruppe in Agrarsystemen, doch die Populationen vieler Falterarten sind rückläufig. Zu den Zielen der vorliegenden Arbeit gehörte es, Feldsäume in Agrarlandschaften zu erfassen und zu charakterisieren, Effekte realistischer Eintragsraten von Agrarchemikalien (Dünger und Pestizide) in Feldsäumen auf Lepidoptera zu untersuchen und Informationen zu den Bestäubungsleistungen von Nachtfaltern zu sammeln.
Feldsäume sind zwar häufige semi-natürliche Habitatelemente in Agrarökosystemen, aber es gibt nur wenige Informationen über ihre Struktur, Größe und Breite. Daher wurden Feldsäume in zwei deutschen Agrarlandschaften (je 4.000 ha) erfasst und es zeigte sich, dass ein Großteil dieser Säume schmaler als 3 m war (Rheinland-Pfalz: 85% der Feldsaumlänge, Brandenburg: 45% der Feldsaumlänge). In Deutschland müssen Landwirte bei solchen schmalen Feldsäumen keine Maßnahmen zur Verminderung von Pestizideinträgen (z.B. Pufferzonen) umsetzen. Agrarchemikalien werden deshalb insbesondere durch Überspritzung und Abdrift in schmale Feldsäume eingetragen. In solchen schmalen Feldsäumen konnten zwar Raupen nachgewiesen werden, doch ihre mittlere Abundanz war um 35 – 60% niedriger als auf Vergleichsflächen (Wiesen). Im Rahmen eines Feldversuchs sowie in Laborexperimenten zeigte sich, dass Raupen sensitiv auf Insektizideinträge (Pyrethroid, Lambda-Cyhalothrin) regieren. Zudem wurden auf insektizid-behandelten Silene latifolia Pflanzen 40% weniger Eier von Hadena bicruris Faltern gefunden als auf unbehandelten Kontrollpflanzen und die Blüten der behandelten Pflanzen wurden seltener von Nachtfaltern bestäubt. Lepidoptera können neben Insektizid- auch von Herbizideinträgen beeinflussen werden. Ranunculus acris L. Pflanzen wurden mit subletalen Raten eines Sulfonylurea-Herbizids behandelt und dann als Futterpflanzen für Mamestra brassicae L. Raupen genutzt; dies führte zu signifikant geringeren Raupengewichten, einer verlängerten Zeit bis zur Verpuppung und einer verlängerten Gesamtentwicklungsdauer verglichen mit Raupen, die an Kontrollpflanzen fraßen. Ursachen hierfür waren möglicherweise ein geringerer Nährwert oder eine höhere Konzentration von Abwehrstoffen in den herbizid-behandelten Pflanzen. Düngereinträge führten zu einer geringfügigen Erhöhung der Raupenabundanz in dem Feldversuch. Langfristig reduziert Dünger jedoch die Pflanzenvielfalt und dadurch wahrscheinlich auch die Raupendiversität.
Nachtfalter wie Noctuidae und Sphingidae sind Bestäuber für zahlreiche Pflanzenarten, z.B. viele Orchidaceae und Caryophyllaceae. Obwohl sie in den Agrarökosystemen der gemäßigten Breiten wahrscheinlich keine bedeutenden Bestäuber für Kulturpflanzen sind, können Nachtfalter aber für die Bestäubung der Wildpflanzen in semi-natürlichen Habitaten von Relevanz sein. Dabei wird die Rolle der Nachtfalter als Bestäuber zurzeit vermutlich unterschätzt und es werden Langzeitstudien benötigt, um die zeitlichen Schwankungen in ihrer Abundanz und Artenzusammensetzung berücksichtigen zu können.
Lepidopteren bilden eine artenreiche Organismengruppe in Agrarlandschaften, die auch wesentliche Ökosystem-Dienstleistungen erfüllen. Um Nacht- und Tagfalter besser zu schützen, sollten Einträge von Agrarchemikalien in (schmale) Feldsaumhabitate reduziert werden, beispielsweise durch Maßnahmen zur Risikominderung von Pestiziden und Agrarumweltprogramme.
Global crop production increased substantially in recent decades due to agricultural intensification and expansion and today agricultural areas occupy about 38% of Earth’s terrestrial surface - the largest use of land on the planet. However, current high-intensity agricultural practices fostered in the context of the Green Revolution led to serious consequences for the global environment. Pesticides, in particular, are highly biologically active substances that can threaten the ecological integrity of aquatic and terrestrial ecosystems. Although the global pesticide use increases steadily, our field-data based knowledge regarding exposure of non-target ecosystems such as surface waters is very restricted. Available studies have by now been limited to spatially restricted geographical areas or had rather specific objectives rendering the extrapolation to larger spatial scales questionable.
Consequently, this thesis evaluated based on four scientific publications the exposure, effects, and regulatory implications of particularly toxic insecticides` concentrations detected in global agricultural surface waters. FOCUS exposure modelling was used to characterise the highly specific insecticide exposure patterns and to analyse the resulting implications for both monitoring and risk assessment (publication I). Based on more than 200,000 scientific database entries, 838 peer-reviewed studies finally included, and more than 2,500 sites in 73 countries, the risks of agricultural insecticides to global surface waters were analysed by means of a comprehensive meta-analysis (publication II). This meta-analysis evaluated whether insecticide field concentrations exceed legally accepted regulatory threshold levels (RTLs) derived from official EU and US pesticide registration documents and, amongst others, how risks depend on insecticide development over time and stringency of environmental regulation. In addition, an in-depth analysis of the current EU pesticide regulations provided insights into the level of protection and field relevance of highly elaborated environmental regulatory risk assessment schemes (publications III and IV).
The results of this thesis show that insecticide surface water exposure is characterized by infrequent and highly transient concentration peaks of high ecotoxicological relevance. We thus argue in publication I that sampling based on regular intervals is inadequate for the detection of insecticide surface water concentrations and that traditional risk assessment concepts based on all insecticide concentrations including non-detects lead to severely biased results and critical underestimations of risks. Based on these considerations, publication II demonstrates that out of 11,300 measured insecticide concentrations (MICs; i.e., those actually detected and quantified), 52.4% (5,915 cases; 68.5%) exceeded the RTL for either water (RTLSW) or sediments. This indicates a substantial risk for the biological integrity of global water resources as additional analyses on pesticide effects in the field clearly evidence that the regional aquatic biodiversity is reduced by approximately 30% at pesticide concentrations equalling the RTLs. In addition, publication II shows that there is a complete lack of scientific monitoring data for ~90% of global cropland and that both the actual insecticide contamination of surface waters and the resulting ecological risks are most likely even greater due to, for example, inadequate sampling methods employed in the studies and the common occurrence of pesticide mixtures. A linear model analysis identified that RTLSW exceedances depend on the catchment size, sampling regime, sampling date, insecticide substance class, and stringency of countries` environmental regulations, as well as on the interactions of these factors. Importantly, the risks are significantly higher for newer-generation insecticides (i.e., pyrethroids) and are high even in countries with stringent environmental regulations. Regarding the latter, an analysis of the EU pesticide regulations revealed critical deficiencies and the lack of protectiveness and field-relevance for current presumed highly elaborated FOCUS exposure assessment (publication IV) and overall risk assessment schemes (publication III). Based on these findings, essential risk assessment amendments are proposed.
In essence, this thesis analyses the agriculture–environment linkages for pesticides at the global scale and it thereby contributes to a new research frontier in global ecotoxicology. The overall findings substantiate that agricultural insecticides are potential key drivers for the global freshwater biodiversity crisis and that the current regulatory risk assessment approaches for highly toxic anthropogenic chemicals fail to protect the global environment. This thesis provides an integrated view on the environmental side effects of global high-intensity agriculture and alerts that beside worldwide improvements to current pesticide regulations and agricultural pesticide application practices, the fundamental reformation of conventional agricultural systems is urgently needed to meet the twin challenges of providing sufficient food for a growing human population without destroying the ecological integrity of global ecosystems essential to human existence.
Aquatic macrophytes can contribute to the retention of organic contaminants in streams, whereas knowledge on the dynamics and the interaction of the determining processes is very limited. The objective of the present study was thus to assess how aquatic macrophytes influence the distribution and the fate of organic contaminants in small vegetated streams. In a first study that was performed in vegetated stream mesocosms, the peak reductions of five compounds were significantly higher in four vegetated stream mesocosms compared to a stream mesocosm without vegetation. Compound specific sorption to macrophytes was determined, the mass retention in the vegetated streams, however, did not explain the relationship between the mitigation of contaminant peaks and macrophyte coverage. A subsequent mesocosm study revealed that the mitigation of peak concentrations in the stream mesocosms was governed by two fundamentally different processes: dispersion and sorption. Again, the reductions of the peak concentrations of three different compounds were in the same order of magnitude in a sparsely and a densely vegetated stream mesocosm, respectively, but higher compared to an unvegetated stream mesocosm. The mitigation of the peak reduction in the sparsely vegetated stream mesocosm was found to be fostered by longitudinal dispersion as a result of the spatial distribution of the macrophytes in the aqueous phase. The peak reduction attributable to longitudinal dispersion was, however, reduced in the densely vegetated stream mesocosm, which was compensated by compound-specific but time-limited and reversible sorption to macrophytes. The observations on the reversibility of sorption processes were subsequently confirmed by laboratory experiments. The experiments revealed that sorption to macrophytes lead to compound specific elimination from the aqueous phase during the presence of transient contaminant peaks in streams. After all, these sorption processes were found to be fully reversible, which results in the release of the primarily adsorbed compounds, once the concentrations in the aqueous phase starts to decrease. Nevertheless, the results of the present thesis demonstrate that the processes governing the mitigation of contaminant loads in streams are fundamentally different to those already described for non-flowing systems. In addition, the present thesis provides knowledge on how the interaction of macrophyte-induced processes in streams contributes to mitigate loads of organic contaminants and the related risk for aquatic environments.
Synthetische Nanopartikel sind neuartige Schadstoffe. Aufgrund ihrer häufigeren Anwendung wird sich ihre Konzentration in der Umwelt in Zukunft voraussichtlich stark erhöhen. Die Untersuchung des Schicksals von synthetischen Kolloiden in der Umwelt erweist sich als schwierig, bedingt durch deren mögliche komplexe Wechselwirkungen mit den Bestandteilen aquatischer Systeme. Eine zentrale Rolle spielt hierbei die Lösungschemie. Insbesondere die Wechselwirkungen mit gelösten organischen Stoffen (DOM) sind bisher wenig verstanden.
Das Ziel dieser Arbeit bestand darin, angepasste analytische Methoden zu entwickeln, um die Effekte von DOM auf das Schicksal synthetische Kolloide in der Umwelt zu untersuchen.rnEine Literaturrecherche über die Wechselwirkungen den DOM mit anorganischen Kolloiden hat ergeben, dass es einen Mangel an systematischen Charakterisierungen von Kolloiden und DOM in den meisten Studien gibt, obwohl diese wesentlich wäre. Des Weiteren wäre die Erforschung der Fraktionierung von DOM auf Kolloiden bedeutend sowie die Untersuchungen der Effekte von DOM auf die dynamische Struktur von Agglomeraten. Für die Charakterisierung von niedrigkonzentrierten Agglomeraten in Umweltmedien werden passende analytische Techniken benötigt. Solche Techniken müssen genau, spezifisch, artefaktfrei (minimale Probenvorbereitung) und matrixunabhängig bei niedrigen Konzentrationen sein. Keine der üblichen Methoden (Mikroskopie, Lichtstreuungsmethode, Trenntechnicken) erfüllt alle diese Voraussetzungen. Jedoch stellt die Hydrodynamische Chromatographie gekoppelt mit Massenspektrometrie mit induktiv gekoppeltem Plasma (HDC-ICP-MS) einen vielversprechenden Kompromiss dar. Mit dieser Methode kann die Größe von anorganischen Partikeln in komplexen Medien und in Konzentrationsbereichen unter ppb elementspezifisch gemessen werden. Allerdings wurden die Begrenzungen der Methode nicht systematisch untersucht.
Während dieser Doktorarbeit wurde das Potenzial dieser Methode weiter untersucht. Der einfache Trennmechanismus ermöglicht einen großen Spielraum für die Elutionsparameter und eine universelle Kalibrierung kann für Partikel mit unterschiedlicher Zusammensetzung und unterschiedlicher Oberflächenchemie angewendet werden. Eine schwache Auflösung der Partikelgröße sowie die Effekte der Partikelform auf den Retentionsfaktor stellen die wichtigsten Begrenzungen der Methode dar.rnDie Anwendung von HDC gekoppelt mit Einzelpartikel ICP-MS (HDC-SP-ICP-MS) bietet neue Möglichkeiten für die Partikelformerkennung und die Differenzierung zwischen primären Partikeln und Homoagglomeraten. Diese Kopplungstechnik ist deswegen hochattraktiv, um Effekte von DOM auf der Stabilität von Kolloiden zu untersuchen. Die Vielseitigkeit der HDC-ICP-MS konnte durch verschiedene erfolgreiche Anwendungen hervorgehoben werden. Insbesondere wurde sie genutzt, um die Stabilität von zitrat-stabilisierte Silberkolloiden in synthetischem Flusswasser unter Anwesenheit verschiedener Typen DOM zu untersuchen. Diese Partikel waren mehr als eine Stunde stabil unabhängig von pH und vom Typ der DOM. Dieses Ergebnis deckt sich mit den Ergebnissen einer parallel publizierten Studie über die Stabilität von Silberkolloiden in Rheinwasser. Die direkte Untersuchung von DOM-Adsorption auf Kolloiden war mit UV- und Fluoreszenzdetektoren nicht möglich. Vorversuche wiesen darauf hin, dass die fluoreszierenden Huminsaüremoleküle auf Silberkolloiden nicht adsorbieren. Lösungen für die verbleibenden Schwierigkeiten in der Analyse der Wechselwirkungen der DOM werden vorgeschlagen und die vielfältigen Entwicklungs- und Anwendungserspektiven von HDC-(SP)-ICP-MS in den Umweltwissenschaften werden im Detail diskutiert.
Klassische Fahrerassistenzsysteme (FAS) wie beispielsweise der Spurassistent oder das weit verbreitete Elektronische Stabilitätsprogramm basieren auf statischen System- und Softwarearchitekturen. Dies bedeutet, dass weder die Anzahl oder Topologie der Steuergeräte noch das Vorhandensein oder die Funktionalität von Softwaremodulen Änderungen zur Laufzeit unterliegen. Es existieren allerdings zukünftige FAS, bei denen solche Veränderungen eintreten können. Hierzu gehören beispielsweise Assistenzsysteme für Fahrzeuge mit Anhänger, da deren Steuergeräte und Softwaremodule über beide Teile des Gespanns verteilt sind. Diese neue Herausforderung kann nicht durch Ansätze, die zum Stand der Technik gehören, bewältigt werden. Stattdessen muss ein neuartiges Verfahren für das Design von solch verteilten Fahrerassistenzsystemen entwickelt werden.
Der zentrale wissenschaftliche Beitrag dieser Arbeit liegt in der Entwicklung einer neuartigen Software- und Systemarchitektur für dynamisch veränderliche FAS am Beispiel der Assistenzsysteme für Fahrzeuge mit Anhänger. Diese Architektur muss in der Lage sein, Veränderungen in der Topologie eigenständig zu erkennen und darauf zu reagieren. Hierbei entscheidet das System, welcher Grad der Assistenz und welche Nutzerschnittstelle nach dem An- oder Abkoppeln eines Anhängers angeboten werden kann. Hierzu werden neben der verfügbaren Software und Hardware die ausführbaren Assistenzfunktionalitäten analysiert und eine entsprechende Re-Konfiguration durchgeführt. Eine solche Systemanpassung kann vorgenommen werden, indem man auf die Prinzipien der Service-orientierten Architektur zurückgreift. Hierbei wird alle vorhandene Funktionalität in abgeschlossene Einheiten, so genannte Services gegossen. Diese Services stellen ihre Funktionalität über klar definierte Schnittstellen zur Verfügung, deren Verhalten durch so genannte Contracts beschrieben wird. Größere Applikationen werden zur Laufzeit durch den Zusammenschluss von mehreren solcher Services gebildet und adaptiert.
Die Arbeit beschreibt die Forschung die geleistet wurde, um die oben genannten Ziele durch den Einsatz von Service-orientierten Architekturen im automotiven Umfeld zu erreichen. Hierbei wird dem hohen Grad an Verteilung, dem Wunsch nach Wiederverwendbarkeit sowie der Heterogenität der einzelnen Komponenten durch den Einsatz der Prinzipien einer SOA begegnet. Weiterhin führt das Service-orientierte System eine automatische Re-Konfiguration im Falle einer Systemänderung durch. Statt eines der vorhandenen SOA Frameworks an die Verhältnisse im automotiven Umfeld anzupassen werden die einzelnen in SOA enthaltenen Prinzipien auf die Problemstellung angepasst. Hierbei entsteht ein eigenständiges Framework namens "Service-oriented Driver Assistance" (SODA) welches die Vorteile einer SOA mit den Anforderungen, bewährten Methoden und Standards vereint. Im Rahmen dieser Arbeit werden verschiedene SOA Frameworks analysiert und miteinander vergleichen. Außerdem wird das SODA Framework sowie dessen Anpassungen bezüglich automotiver Systeme detailliert beschrieben. Hierzu zählt auch ein Referenzmodell, welches die Begrifflichkeiten und Konzepte einführt und zueinander in Beziehung setzt sowie eine Referenzarchitektur definiert. Einige der Module dieser Referenzarchitektur wie beispielsweise das Re-Konfigurations- und das Kommunikationsmodul werden sehr detailiert in eigenen Kapiteln beschrieben. Um die Kompatibilität des Frameworks sicherzustellen wird die Integration in einen bewährten Entwicklungsprozess sowie in den Architekturstandard AUTOSAR diskutiert. Abschließend wird der Aufbau eines Demonstrators und dessen Evaluation bezüglich der Leistungsfähigkeit und Effizienz des Frameworks beschrieben.
Placing questions before the material or after the material constitute different reading situations. To adapt to these reading situations, readers may apply appropriate reading strategies. Reading strategy caused by location of question has been intensively explored in the context of text comprehension. (1) However, there is still not enough knowledge about whether text plays the same role as pictures when readers apply different reading strategies. To answer this research question, three reading strategies are experimentally manipulated by displaying question before or after the blended text and picture materials: (a) Unguided processing with text and pictures and without the question. (b) Information gathering to answer the questions after the prior experience with text and pictures. (c) Comprehending text and pictures to solve the questions with the prior information of the questions. (2) Besides, it is arguable whether readers prefer text or pictures when the instructed questions are in different difficulty levels. (3) Furthermore, it is still uncertain whether students from higher school tier (Gymnasium) emphasize more on text or on pictures than students from lower school tier (Realschule). (4) Finally, it is rarely mentioned whether higher graders are more able to apply reading strategies in text processing and picture processing than lower graders.
Two experiments were undertaken to investigate the usage of text and pictures in the perspectives of task orientation, question difficulty, school and grade. For a 2x2(x2x2x2) mixed design adopting eye tracking method, participants were recruited from grade 5 (N = 72) and grade 8 (N = 72). In Experiment 1, thirty-six 5th graders were recruited from higher tier (Gymnasium) and thirty-six 5th graders were from lower tier (Realschule). In Experiment 2, thirty-six 8th graders were recruited from higher tier and thirty-six were from lower tier. They were supposed to comprehend the materials combining text and pictures and to answer the questions. A Tobii XL60 eye tracker recorded their eye movements and their answers to the questions. Eye tracking indicators were analyzed and reported, such as accumulated fixation duration, time to the first fixation and transitions between different Areas of Interest. The results reveal that students process text differently from pictures when they follow different reading strategies. (1) Consistent with Hypothesis 1, students mainly use text to construct their mental model in unguided spontaneous processing of text and pictures. They seem to mainly rely on the pictures as external representations when trying to answer questions after the prior experience with the material. They emphasize on both text and pictures when questions are presented before the material. (2) Inconsistent with Hypothesis 2, students are inclined to emphasize on text and on pictures as question difficulty increases. However, the increase of focus on pictures is more than on text when the presented question is difficult. (3) Different from Hypothesis 3, the current study discovers that higher tier students did not differ from lower tier students in text processing. Conversely, students from higher tier attend more to pictures than students from lower tier. (4) Differed from Hypothesis 4, 8th graders outperform 5th graders mainly in text processing. Only a subtle difference is found between 5th graders and 8th graders in picture processing.
To sum up, text processing differs from picture processing when applying different reading strategies. In line with the Integrative Model of Text and Picture Comprehension by Schnotz (2014), text is likely to play a major part in guiding the processing of meaning or general reading, whereas pictures are applied as external representations for information retrieval or selective reading. When question is difficulty, pictures are emphasized due to their advantages in visualizing the internal structure of information. Compared to lower tier students (poorer problem solvers), higher tier students (good problem solvers) are more capable of comprehending pictures rather than text. Eighth graders are more efficient than 5th graders in text processing rather than picture processing. It also suggests that in designing school curricula, more attention should be paid to students’ competence on picture comprehension or text-picture integration in the future.
One of the main goals of the artificial intelligence community is to create machines able to reason with dynamically changing knowledge. To achieve this goal, a multitude of different problems have to be solved, of which many have been addressed in the various sub-disciplines of artificial intelligence, like automated reasoning and machine learning. The thesis at hand focuses on the automated reasoning aspects of these problems and address two of the problems which have to be overcome to reach the afore-mentioned goal, namely 1. the fact that reasoning in logical knowledge bases is intractable and 2. the fact that applying changes to formalized knowledge can easily introduce inconsistencies, which leads to unwanted results in most scenarios.
To ease the intractability of logical reasoning, I suggest to adapt a technique called knowledge compilation, known from propositional logic, to description logic knowledge bases. The basic idea of this technique is to compile the given knowledge base into a normal form which allows to answer queries efficiently. This compilation step is very expensive but has to be performed only once and as soon as the result of this step is used to answer many queries, the expensive compilation step gets worthwhile. In the thesis at hand, I develop a normal form, called linkless normal form, suitable for knowledge compilation for description logic knowledge bases. From a computational point of view, the linkless normal form has very nice properties which are introduced in this thesis.
For the second problem, I focus on changes occurring on the instance level of description logic knowledge bases. I introduce three change operators interesting for these knowledge bases, namely deletion and insertion of assertions as well as repair of inconsistent instance bases. These change operators are defined such that in all three cases, the resulting knowledge base is ensured to be consistent and changes performed to the knowledge base are minimal. This allows us to preserve as much of the original knowledge base as possible. Furthermore, I show how these changes can be applied by using a transformation of the knowledge base.
For both issues I suggest to adapt techniques successfully used in other logics to get promising methods for description logic knowledge bases.
Science education has been facing important challenges in the recent years: the decline in student’s interest in scientific topics, and moreover, the decrease of students pursuing science beyond their compulsory studies (Bennett, Hogarth, Lubben, 2003). As a result, research has focus on examining different approaches that could attempt to improve the situation. One of these approaches has been the use of context-based problem-solving tasks (Kölbach & Sumfleth, 2011; Bennett, Hogarth, Lubben, 2003). While research into context-based problem-solving tasks suggest that they are very motivating for students, it is still unclear how they influence motivation. Following an experimental pretest-postest design, two studies examined the effects of context-based task characteristics of contextualization, complexity, and transparency, on students’ motivational variables, performance, and metacognitive experiences.
Results from both studies suggest that the task characteristic of contextualization directly influences how students’ interest is triggered and maintained throughout the task. On the other hand, the task characteristics of complexity and transparency had different effects for the other dependent variables of effort, difficulty, and solution correctness.
Moreover, data shows that other motivational variables such as anxiety and success expectancies are strongly influenced by the interaction of the parameters under study. The dissertation concludes that appropriate design and use of context-based task characteristics can benefit students’ learning processes and outcomes.
Agriculture covers one third of the world land area and has become a major source of water pollution due to its heavy reliance on chemical inputs, namely fertilisers and pesticides. Several thousands of tonnes of these chemicals are applied worldwide annually and partly reach freshwaters. Despite their widespread use and relatively unspecific modes of action, fungicides are the least studied group of pesticides. It remains unclear whether the taxonomic groups used in pesticide risk assessment are protective for non-target freshwater fungi. Fungi and bacteria are the main microbial decomposers converting allochthonous organic matter (litter) into a more nutritious food resource for leaf-shredding macroinvertebrates. This process of litter decomposition (LD) is central for aquatic ecosystem because it fuels local and downstream food webs with energy and nutrients. Effects of fungicides on decomposer communities and LD have been mainly analysed under laboratory conditions with limited representation of the multiple factors that may moderate effects in the field.
In this thesis a field study was conducted in a German vineyard area to characterise recurrent episodic exposure to fungicides in agricultural streams (chapter 2) and its effects on decomposer communities and LD (chapter 3). Additionally, potential interaction effects of nutrient enrichment and fungicides on decomposer communities and LD were analysed in a mesocosm experiment (chapter 4).
In the field study event-driven water sampling (EDS) and passive sampling with EmporeTM styrene-divinylbenzene reverse phase sulfonated disks (SDB disks) were used to assess exposure to 15 fungicides and 4 insecticides. A total of 17 streams were monitored during 4 rainfall events within the local application period of fungicides in 2012. EDS exceeded the time-weighted average concentrations provided by the SDB disks by a factor of 3, though high variability among compounds was observed. Most compounds were detected in more than half of the sites and mean and maximum peak (EDS) concentrations were under 1 and 3 µg/l, respectively. Besides, SDB disk-sampling rates and a free-software solution to derive sampling rates under time-variable exposure were provided.
Several biotic endpoints related to decomposers and LD were measured in the same sampling sites as the fungicide monitoring, coinciding with the major litter input period. Our results suggest that polar organic fungicides in streams change the structure of the fungal community. Causality of this finding was supported by a subsequent microcosm experiment. Whether other effects observed in the field study, such as reduced fungal biomass, increased bacterial density or reduced microbial LD can be attributed to fungicides remains speculative and requires further investigation. By contrast, neither the invertebrate LD nor in-situ measured gammarid feeding rates correlated with water-borne fungicide toxicity, but both were negatively associated with sediment copper concentrations. The mesocosm experiment showed that fungicides and nutrients affect microbial decomposers differently and that they can alter community structure, though longer experiments are needed to determine whether these changes may propagate to invertebrate communities and LD. Overall, further studies should include representative field surveys in terms of fungicide pollution and physical, chemical and biological conditions. This should be combined with experiments under controlled conditions to test for the causality of field observations.
The work presented in this thesis investigated interactions of selected biophysical processes that affect zooplankton ecology at smaller scales. In this endeavour, the extent of changes in swimming behaviour and fluid disturbances produced by swimming Daphnia in response to changing physical environments were quantified. In the first research question addressed within this context, size and energetics of hydrodynamic trails produced by Daphnia swimming in non-stratified still waters were characterized and quantified as a function of organisms’ size and their swimming patterns.
The results revealed that neither size nor the swimming pattern of Daphnia affects the width of induced trails or dissipation rates. Nevertheless, as the size and swimming velocity of the organisms increased, trail volume increased in proportional to the cubic power of Reynolds number, and the biggest trail volume was about 500 times the body volume of the largest daphnids. Larger spatial extent of fluid perturbation and prolonged period to decay caused by bigger trail volumes would play a significant role in zooplankton ecology, e.g. increasing the risk of predation.
The study also found that increased trail volume brought about significantly enhanced total dissipated power at higher Reynolds number, and the magnitudes of total dissipated power observed varied in the range of (1.3-10)X10-9 W.
Furthermore, this study provided strong evidence that swimming speed of Daphnia and total dissipated power in Daphnia trails exceeded those of some other selected zooplankton species.
In recognizing turbulence as an intrinsic environmental perturbation in aquatic habitats, this thesis also examined the response of Daphnia to a range of turbulence flows, which correspond to turbu-lence levels that zooplankton generally encounter in their habitats. Results indicated that within the range of turbulent intensities to which the Daphnia are likely to be exposed in their natural habitats, increasing turbulence compelled the organisms to enhance their swimming activity and swim-ming speed. However, as the turbulence increased to extremely high values (10-4 m2s-3), Daphnia began to withdraw from their active swimming behaviour. Findings of this work also demonstrated that the threshold level of turbulence at which animals start to alleviate from largely active swimming is about 10-6 m2s-3. The study further illustrated that during the intermediate range of turbu-lence; 10-7 - 10-6 m2s-3, kinetic energy dissipation rates in the vicinity of the organisms is consistently one order of magnitude higher than that of the background turbulent flow.
Swarming, a common conspicuous behavioural trait observed in many zooplankton species, is considered to play a significant role in defining freshwater ecology of their habitats from food exploitation, mate encountering to avoiding predators through hydrodynamic flow structures produced by them, therefore, this thesis also investigated implications of Daphnia swarms at varied abundance & swarm densities on their swimming kinematics and induced flow field.
The results showed that Daphnia aggregated in swarms with swarm densities of (1.1-2.3)x103 L-1, which exceeded the abundance densities by two orders of magnitude (i.e. 1.7 - 6.7 L-1). The estimated swarm volume decreased from 52 cm3 to 6.5 cm3, and the mean neighbouring distance dropped from 9.9 to 6.4 body lengths. The findings of this work also showed that mean swimming trajectories were primarily horizontal concentric circles around the light source. Mean flow speeds found to be one order of magnitude lower than the corresponding swimming speeds of Daphnia. Furthermore, this study provided evidences that the flow fields produced by swarming Daphnia differed considerably between unidirectional vortex swarming and bidirectional swimming at low and high abundances respectively.
In Part I: "The flow-decomposition problem", we introduce and discuss the flow-decomposition problem. Given a flow F, this problem consists of decomposing the flow into a set of paths optimizing specific properties of those paths. We introduce different types of decompositions, such as integer decompositions and alpha-decompositions, and provide two formulations of the set of feasible decompositions.
We show that the problem of minimizing the longest path in a decomposition is NP-hard, even for fractional solutions. Then we develop an algorithm based on column generation which is able to solve the problem.
Tight upper bounds on the optimal objective value help to improve the performance.
To find upper bounds on the optimal solution for the shortest longest path problem, we develop several heuristics and analyze their quality. On pearl graphs we prove a constant approximation ratio of 2 and 3 respectively for all heuristics. A numerical study on random pearl graphs shows that the solutions generated by the heuristics are usually much better than this worst-case bound.
In Part II: "Construction and analysis of evacuation models using flows over time", we consider two optimization models in the context of evacuation planning. The first model is a parameter-based quickest flow model with time-dependent supply values. We give a detailed description of the network construction and of how different scenarios are modeled by scenario parameters. In a second step we analyze the effect of the scenario parameters on the evacuation time. Understanding how the different parameters influence the evacuation time allows us to provide better advice for evacuation planning and allows us to predict evacuation times without solving additional optimization problems. To understand the effect of the time-dependent supply values, we consider the quickest path problem with time-dependent supply values and provide a solution algorithm. The results from this consideration are generalized to approximate the behavior of the evacuation times in the context of quickest flow problems.
The second model we consider is a path-based model for evacuation in the presence of a dynamic cost function. We discuss the challenges of this model and provide ideas for how to approach the problem from different angles. We relate the problem to the flow-decomposition problem and consider the computation of evacuation paths with dynamic costs for large capacities. For the latter method we provide heuristics to find paths and compare them to the optimal solutions by applying the methods to two evacuation scenarios. An analysis shows that the paths generated by the heuristic yield close to optimal solutions and in addition have several desirable properties for evacuation paths which are not given for the optimal solution.
Reaktiv lokale Algorithmen sind verteilte Algorithmen, die den Anforderungen großer, batteriebetriebener, Drahtloser Ad Hoc und Sensornetzwerke im besonderen Maße gerecht werden. Durch Vermeidung überflüssiger Nachrichtenübertragungen sowie Verzicht auf proaktive Ermittlung von Nachbarschaftstabellen (d.h. beaconing) minimieren solche Algorithmen den Kommunikationsaufwand und skalieren gut bei wachsender Netzgröße. Auf diese Weise werden Ressourcen wie Bandbreite und Energie geschont, es kommt seltener zu Nachrichtenkollisionen und dadurch zu einer Erhöhung der Paketempfangsrate, sowie einer Reduktion der Latenzen.
Derzeit wird diese Algorithmenklasse hauptsächlich für Geografisches Routing, sowie zur Topologiekontrolle, insbesondere zur Ermittlung der Adjazenzliste eines Knotens in zusammenhängenden, kantenschnittfreien (planaren) Repräsentationen des Netzgraphen, eingesetzt. Ersteres ermöglicht drahtlose multi-hop Kommunikation auf Grundlage von geografischen Knotenpositionen ohne Zuhilfenahme zusätzlicher Netzwerkinfrastruktur, wohingegen Letzteres eine hinreichende Grundlage für effiziente, lokale Lösungen einer Reihe algorithmischer Problemstellungen ist.
Die vorliegende Dissertation liefert neue Erkenntnisse zum Forschungsgebiet der reaktiven Algorithmen, zum Einen auf einer abstrakten Ebene und zum Anderen durch die Einführung neuer Algorithmen.
Erstens betrachtet diese Arbeit reaktive Algorithmen erstmalig im Ganzen und als eigenständiges Forschungsfeld. Es wird eine umfangreiche Literaturstudie zu dieser Thematik präsentiert, welche die aus der Literatur bekannten Algorithmen, Techniken und Anwendungsfelder systematisch auflistet, klassifiziert und einordnet. Weiterhin wird das mathematische Konzept der O- und Omega-reaktiv lokalen Topologiekontrolle eingeführt. Dieses Konzept ermöglicht erstmals die eindeutige Unterscheidung reaktiver von konventionellen, beacon-basierten, verteilten Topologiekontrollalgorithmen. Darüber hinaus dient es als Klassifikationsschema für existierende, sowie zukünftige Algorithmen dieser Art. Zu guter Letzt ermöglicht dieses Konzept grundlegende Aussagen über die Mächtigkeit des reaktiven Prinzips, welche über Entwurf und Analyse von Algorithmen hinaus reichen.
Zweitens werden in dieser Arbeit neue reaktiv lokale Algorithmen zur Topologiekontrolle und Geografischem Routing eingeführt, wobei drahtlose Netze durch Unit Disk bzw. Quasi Unit Disk Graphen modelliert werden. Diese Algorithmen berechnen für einen gegebenen Knoten die lokale Sicht auf zusammenhängende, planare, Euklidische bzw. Topologische Spanner mit konstanter Spannrate bzgl. des Netzgraphen und routen Nachrichten reaktiv entlang der Kanten dieser Spanner, wobei die Nachrichtenauslieferung garantiert wird. Alle bisher bekannten Verfahren sind entweder nicht reaktiv oder gewährleisten keine konstanten Euklidischen oder Topologischen Spannraten. Ein wesentliches Teilergebnis dieser Arbeit ist der Nachweis, dass die partielle Delaunay Triangulierung (PDT) ein Euklidischer Spanner mit konstanter Spannrate für Unit Disk Graphen ist.
Die in dieser Dissertation gewonnenen Erkenntnisse bilden die Basis für grundlegende und strukturierte Forschung auf diesem Gebiet und zeigen, dass das reaktive Prinzip ein wichtiges Werkzeug des Algorithmenentwurfs für Drahtlose Ad Hoc und Sensornetzwerke ist.
Conversion of natural vegetation into cattle pastures and croplands results in altered emissions of greenhouse gases (GHG), such as carbon dioxide (CO2), methane (CH4), and nitrous oxide (N2O). Their atmospheric concentration increase is attributed the main driver of climate change. Despite of successful private initiatives, e.g. the Soy Moratorium and the Cattle Agreement, Brazil was ranked the worldwide second largest emitter of GHG from land use change and forestry, and the third largest emitter from agriculture in 2012. N2O is the major GHG, in particular for the agricultural sector, as its natural emissions are strongly enhanced by human activities (e.g. fertilization and land use changes). Given denitrification the main process for N2O production and its sensitivity to external changes (e.g. precipitation events) makes Brazil particularly predestined for high soil-derived N2O fluxes.
In this study, we followed a bottom-up approach based on a country-wide literature research, own measurement campaigns, and modeling on the plot and regional scale, in order to quantify the scenario-specific development of GHG emissions from soils in the two Federal States Mato Grosso and Pará. In general, N2O fluxes from Brazilian soils were found to be low and not particularly dynamic. In addition to that, expected reactions to precipitation events stayed away. These findings emphasized elaborate model simulations in daily time steps too sophisticated for regional applications. Hence, an extrapolation approach was used to first estimate the influence of four different land use scenarios (alternative futures) on GHG emissions and then set up mitigation strategies for Southern Amazonia. The results suggested intensification of agricultural areas (mainly cattle pastures) and, consequently, avoided deforestation essential for GHG mitigation.
The outcomes of this study provide a very good basis for (a) further research on the understanding of underlying processes causing low N2O fluxes from Brazilian soils and (b) political attempts to avoid new deforestation and keep GHG emissions low.
The global problematic issue of the olive oil industry is in its generation of large amounts of olive mill wastewater (OMW). The direct discharge of OMW to the soil is very common which presents environmental problems for olive oil producing countries. Both, positive as well as negative effects on soil have been found in earlier studies. Therefore, the current study hypothesized that whether beneficial effects or negative effects dominate depends on the prevailing conditions before and after OMW discharge to soil. As such, a better understanding of the OMW-soil interaction mechanisms becomes essential for sustainable safe disposal of OMW on soil and sustainable soil quality.
A field experiment was carried out in an olive orchard in Palestine, over a period of 24 months, in which the OMW was applied to the soil as a single application of 14 L m-2 under four different environmental conditions: in winter (WI), spring (SP), and summer with and without irrigation (SUmoist and SUdry). The current study investigated the effects of seasonal conditions on the olive mill wastewater (OMW) soil interaction in the short-term and the long-term. The degree and persistence of soil salinization, acidification, accumulation of phenolic compounds and soil water repellency were investigated as a function of soil depth and time elapsed after the OMW application. Moreover, the OMW impacts on soil organic matter SOM quality and quantity, total organic carbon (SOC), water-extractable soil organic carbon (DOC), as well as specific ultraviolet absorbance analysis (SUVA254) were also investigated for each seasonal application in order to assess the degree of OMW-OM decomposition or accumulation in soil, and therefore, the persisting effects of OMW disposal to soil.
The results of the current study demonstrate that the degree and persistence of relevant effects due to OMW application on soil varied significantly between the different seasonal OMW applications both in the short-term and the long-term. The negative effects of the potentially hazardous OMW residuals in the soil were highly dependent on the dominant transport mechanisms and transformation mechanisms, triggered by the ambient soil moisture and temperature which either intensified or diminished negative effects of OMW in the soil during and after the application season. The negative effects of OMW disposal to the soil decreased by increasing the retention time of OMW in soil under conditions favoring biological activity. The moderate conditions of soil moisture and temperature allowed for a considerable amount of applied OMW to be biologically degraded, while the prolonged application time under dry conditions and high temperature resulted in a less degradable organic fraction of the OMW, causing the OMW constituents to accumulate and polymerize without being degraded. Further, the rainfall during winter season diminished negative effects of OMW in the soil; therefore, the risk of groundwater contamination by non-degraded constituents of OMW can be highly probable during the winter season.
While reading this sentence, you probably gave (more or less deliberately) instructions to approximately 100 to 200 muscles of your body. A sceptical face or a smile, your fingers scrolling through the text or holding a printed version of this work, holding your head, sitting, and much more.
All these processes take place almost automatically, so they seem to be no real achievement. In the age of digitalization it is a defined goal to transfer human (psychological and physiological) behavior to machines (robots). However, it turns out that it is indeed laborious to obtain human facial expression or walking from robots. To optimize this transfer, a deeper understanding of a muscle's operating principle is needed (and of course an understanding of the human brain, which will, however, not be part of this thesis).
A human skeletal muscle can be shortened willingly, but not lengthened, thereto it takes an antagonist. The muscle's change in length is dependent on the incoming stimulus from the central nervous system, the current length of the muscle itself, and certain muscle--specific quantities (parameters) such as the maximum force. Hence, a muscle can be mathematically described by a differential equation (or more exactly a coupled differential--algebraic system, DAE), whose structure will be revealed in the following chapters. The theory of differential equations is well-elaborated. A multitude of applicable methods exist that may not be known by muscle modelers. The purpose of this work is to link the methods from applied mathematics to the actual application in biomechanics.
The first part of this thesis addresses stability theory. Let us remember the prominent example from middle school physics, in which the resting position of a ball was obviously less susceptible towards shoves when lying in a bowl rather than balancing at the tip of a hill. Similarly, a dynamical (musculo-skeletal) system can attain equilibrium states that react differently towards perturbations.
We are going to compute and classify these equilibria.
In the second part, we investigate the influence of individual parameters on model equations or more exactly their solutions. This method is known as sensitivity analysis.
Take for example the system "car" containing a value for the quantity "pressure on the break pedal while approaching a traffic light". A minor deviation of this quantity upward or downward may lead to an uncomfortable, abrupt stop or even to a collision, instead of a smooth stop with a sufficient gap.
The considered muscle model contains over 20 parameters that, if changed slightly, have varying effects on the model equation solutions at different instants of time. We will investigate the sensitivity of those parameters regarding different sub--models, as well as the whole model among different dynamical boundary conditions.
The third and final part addresses the \textit{optimal control} problem (OCP).
The muscle turns a nerve impulse (input or control) into a length change and therefore a force response (output). This forward process is computable by solving the respective DAE. The reverse direction is more difficult to manage. As an everyday example, the OCP is present regarding self-parking cars, where a given path is targeted and the controls are the position of the
steering wheel as well as the gas pedal.
We present two methods of solving OCPs in muscle modeling: the first is a conjunction of variational calculus and optimization in function spaces, the second is a surrogate-based optimization.
Leaf litter breakdown is a fundamental process in aquatic ecosystems, being mainly mediated by decomposer-detritivore systems that are composed of microbial decomposers and leaf-shredding, detritivorous invertebrates. The ecological integrity of these systems can, however, be disturbed, amongst others, by chemical stressors. Fungicides might pose a particular risk as they can have negative effects on the involved microbial decomposers but may also affect shredders via both waterborne toxicity and their diet; the latter by toxic effects due to dietary exposure as a result of fungicides’ accumulation on leaf material and by negatively affecting fungal leaf decomposers, on which shredders’ nutrition heavily relies. The primary aim of this thesis was therefore to provide an in-depth assessment of the ecotoxicological implications of fungicides in a model decomposer-detritivore system using a tiered experimental approach to investigate (1) waterborne toxicity in a model shredder, i.e., Gammarus fossarum, (2) structural and functional implications in leaf-associated microbial communities, and (3) the relative importance of waterborne and diet-related effects for the model shredder.
Additionally, knowledge gaps were tackled that were related to potential differences in the ecotoxicological impact of inorganic (also authorized for organic farming in large parts of the world) and organic fungicides, the mixture toxicity of these substances, the field-relevance of their effects, and the appropriateness of current environmental risk assessment (ERA).
In the course of this thesis, major differences in the effects of inorganic and organic fungicides on the model decomposer-detritivore system were uncovered; e.g., the palatability of leaves for G. fossarum was increased by inorganic fungicides but deteriorated by organic substances. Furthermore, non-additive action of fungicides was observed, rendering mixture effects of these substances hardly predictable. While the relative importance of the waterborne and diet-related effect pathway for the model shredder seems to depend on the fungicide group and the exposure concentration, it was demonstrated that neither path must be ignored due to additive action. Finally, it was shown that effects can be expected at field-relevant fungicide levels and that current ERA may provide insufficient protection for decomposer-detritivore systems. To safeguard aquatic ecosystem functioning, this thesis thus recommends including leaf-associated microbial communities and long-term feeding studies using detritus feeders in ERA testing schemes, and identifies several knowledge gaps whose filling seems mandatory to develop further reasonable refinements for fungicide ERA.
Confidentiality, integrity, and availability are often listed as the three major requirements for achieving data security and are collectively referred to as the C-I-A triad. Confidentiality of data restricts the data access to authorized parties only, integrity means that the data can only be modified by authorized parties, and availability states that the data must always be accessible when requested. Although these requirements are relevant for any computer system, they are especially important in open and distributed networks. Such networks are able to store large amounts of data without having a single entity in control of ensuring the data's security. The Semantic Web applies to these characteristics as well as it aims at creating a global and decentralized network of machine-readable data. Ensuring the confidentiality, integrity, and availability of this data is therefore also important and must be achieved by corresponding security mechanisms. However, the current reference architecture of the Semantic Web does not define any particular security mechanism yet which implements these requirements. Instead, it only contains a rather abstract representation of security.
This thesis fills this gap by introducing three different security mechanisms for each of the identified security requirements confidentiality, integrity, and availability of Semantic Web data. The mechanisms are not restricted to the very basics of implementing each of the requirements and provide additional features as well. Confidentiality is usually achieved with data encryption. This thesis not only provides an approach for encrypting Semantic Web data, it also allows to search in the resulting ciphertext data without decrypting it first. Integrity of data is typically implemented with digital signatures. Instead of defining a single signature algorithm, this thesis defines a formal framework for signing arbitrary Semantic Web graphs which can be configured with various algorithms to achieve different features. Availability is generally supported by redundant data storage. This thesis expands the classical definition of availability to compliant availability which means that data must only be available as long as the access request complies with a set of predefined policies. This requirement is implemented with a modular and extensible policy language for regulating information flow control. This thesis presents each of these three security mechanisms in detail, evaluates them against a set of requirements, and compares them with the state of the art and related work.