Dissertation
Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (468) (entfernen)
Sprache
- Englisch (245)
- Deutsch (221)
- Mehrsprachig (1)
- Spanisch (1)
Schlagworte
- Pestizid (8)
- Pflanzenschutzmittel (8)
- Führung (6)
- Inklusion (6)
- Grundwasserfauna (5)
- Landwirtschaft (5)
- Persönlichkeit (4)
- Software Engineering (4)
- Unterrichtsforschung (4)
- ecotoxicology (4)
Institut
- Fachbereich 7 (93)
- Fachbereich 8 (47)
- Institut für Informatik (33)
- Institut für Integrierte Naturwissenschaften, Abt. Biologie (29)
- Institut für Umweltwissenschaften (23)
- Institut für Integrierte Naturwissenschaften, Abt. Chemie (21)
- Fachbereich 5 (20)
- Institut für Computervisualistik (18)
- Institut für Wirtschafts- und Verwaltungsinformatik (13)
- Institut für Integrierte Naturwissenschaften, Abt. Physik (12)
Soziale Medien bieten eine leistungsstarke Möglichkeit für Menschen, Meinungen und Gefühle zu einem bestimmten Thema auszutauschen, sodass andere von diesen Gedanken und Gefühlen profitieren können. Dieses Verfahren erzeugt eine riesige Menge an unstrukturierten Daten, wie Texte, Bilder und Verweise, die durch täglich anwachsende Kommentare zu verwandten Diskussionen ständig zunimmt. Die riesige Menge an unstrukturierten Daten stellt jedoch ein Risiko für den Prozess der Informationsextraktion dar, sodass die Entscheidungsfindung zu einer großen Herausforderung wird. Dies liegt daran, dass die Datenflut zu einem Verlust von nützlichen Daten aufgrund ihrer unangemessenen Darstellung und ihrer Anhäufung führen kann. Insofern leistet diese Arbeit einen Beitrag zum Gebiet der Sentimentanalyse und des Opinion Mining, das darauf abzielt, Emotionen und Meinungen aus riesigen Text- und Bilddatensätzen zu extrahieren. Das ultimative Ziel ist es, jeden Text oder jedes Bild als Ausdruck einer positiven, negativen oder neutralen Emotion zu klassifizieren, um bei der Entscheidungsfindung zu helfen. Sentiment- und Meinungsklassifikatoren wurden für Text- und Bilddatensätze aus sozialen Medien entwickelt, z. B. für Firmen- oder Produktbewertungen, Blogbeiträge und sogar Twitter-Nachrichten. In dieser Arbeit wird zunächst eine neue Methode zur Reduktion der Dimension von Textdaten auf Basis von Data-Mining-Ansätzen vorgestellt und anschließend das Sentiment auf Basis von neuronalen und Deep Neural Network-Klassifikationsalgorithmen untersucht. Anschließend untersuchen wir im Gegensatz zur Sentiment-Analyseforschung in Textdatensätzen die Sentiment Ausdrucks- und Polaritätsklassifikation innerhalb und über Bilddatensätze hinweg, indem wir tiefe neuronale Netze auf Basis des Aufmerksamkeitsmechanismus aufbauen.
Naturwissenschaftliches Experimentieren im Förderschwerpunkt geistige Entwicklung: An Schulen mit dem Förderschwerpunkt geistige Entwicklung führen Schülerinnen und Schüler nur selten naturwissenschaftliche Experimente durch. Doch auch diese Schülerschaft kann mit adressatengerechten Lernmaterialien Experimente durchführen, deren Gestaltungskriterien in dieser Studie ermittelt werden. Zudem wird in der Studie erfasst, wie sich die Schülerinnen und Schüler über ein Schuljahr in ihrer experimentellen Kompetenz weiterentwickeln.
Manmade dams have been constructed from centuries for multiple purposes, and in the past decades they have been constructed in a fast pace, with the hotspot in tropical and subtropical regions. However, studies that explore hydrodynamics in these areas are scarce and biased to the rich literature available for temperate regions. Lakes and reservoirs have the same controlling mechanisms for physical processes and primary production, hence, analyses that were initially conceptualized for lakes are frequently applied for reservoirs. Nevertheless, longitudinal gradients in reservoirs challenges the application of these approaches.
Degradation of water quality in reservoirs is a major concern, and it is expected to be aggravated with climate change. Therefore, studies that explore mechanisms controlling water quality are essential for the maintenance of these systems, especially in tropical and subtropical regions. The aim of this thesis is to comprehend the role of hydrodynamic processes in the fate of nutrients in reservoirs and its implications on water quality, in a subtropical region. With focus on the relevance of different density current patterns. For that, analyses combining field measurements and numerical simulations were performed in a medium to small size subtropical drinking water reservoir for a complete seasonal cycle. Measurements were conducted combining several approaches: traditional sampling, sensors in high temporal and spatial resolution, and remote sensing. Besides, hydrodynamic models were set up and calibrated to reproduce observations, and to simulate scenarios that assisted on the analysis.
Results showed that different flow paths of density currents did not influence on phytoplankton dynamics. At the regions where the main nutrient supply was the river inflow (upstream), the density currents did not vary, the euphotic zone usually covered the entire depth, and vertical mixing was observed on a daily basis, turning the flow path of the density currents irrelevant. At downstream regions, the remobilization of nutrients in the sediment was the main source for primary production. Even though density currents had a seasonal pattern in the downstream region, thermal stratification conditions were the driver for variations in chlorophyll-a concentrations, with peaks after vertical mixing. This mechanism had in its favor the frequent anoxic conditions in the hypolimnion that enhanced the dissolution of reactive phosphorus from the sediment. Anoxic conditions were easily reached because the sediment in the downstream area was rich in organic matter. Phytoplankton produced in the upstream area was transported by the density currents, and for this reason, large concentrations of chl-a was observed below the euphotic zone. Further, the extensive measurements of temperature, and flow velocities, together with the hydrodynamic models, provided insights about the hydrodynamics of reservoirs. For instance, that the relevant processes occurred along the longitudinal, and mixing conditions varied along it. The relevance of inflow conditions regarding the presence of structures such as forebays and pre-dams, and the degree of stream shading in the catchment was assessed. And turbulence and internal waves had different features than the documented for high latitudes. Those findings can assist on the management of reservoirs, based on the comprehension of the physical processes.
The use of agricultural plastic covers has become common practice for its agronomic benefits such as improving yields and crop quality, managing harvest times better, and increasing pesticide and water use efficiency. However, plastic covers are suspected of partially breaking down into smaller debris and thereby contributing to soil pollution with microplastics. A better understanding of the sources and fate of plastic debris in terrestrial systems has so far been hindered by the lack of adequate analytical techniques for the mass-based and polymer-selective quantification of plastic debris in soil. The aim of this dissertation was thus to assess, develop, and validate thermoanalytical methods for the mass-based quantification of relevant polymers in and around agricultural fields previously covered with fleeces, perforated foils, and plastic mulches. Thermogravimetry/mass spectrometry (TGA/MS) enabled direct plastic analyses of 50 mg of soil without any sample preparation. With polyethylene terephthalate (PET) as a preliminary model, the method limit of detection (LOD) was 0.7 g kg−1. But the missing chromatographic separation complicated the quantification of polymer mixtures. Therefore, a pyrolysis-gas chromatography/mass spectrometry (Py-GC/MS) method was developed that additionally exploited the selective solubility of polymers in specific solvents prior to analysis. By dissolving polyethylene (PE), polypropylene (PP), and polystyrene (PS) in a mixture of 1,2,4-trichlorobenzene and p-xylene after density separation, up to 50 g soil became amenable to routine plastic analysis. Method LODs were 0.7–3.3 mg kg−1, and the recovery of 20 mg kg−1 PE, PP, and PS from a reference loamy sand was 86–105%. In the reference silty clay, however, poor PS recoveries, potentially induced by the additional separation step, suggested a qualitative evaluation of PS. Yet, the new solvent-based Py-GC/MS method enabled a first exploratory screening of plastic-covered soil. It revealed PE, PP, and PS contents above LOD in six of eight fields (6% of all samples). In three fields, PE levels of 3–35 mg kg−1 were associated with the use of 40 μm thin perforated foils. By contrast, 50 μm PE films were not shown to induce plastic levels above LOD. PP and PS contents of 5–19 mg kg−1 were restricted to single observations in four fields and potentially originated from littering. The results suggest that the short-term use of thicker and more durable plastic covers should be preferred to limit plastic emissions and accumulation in soil. By providing mass-based information on the distribution of the three most common plastics in agricultural soil, this work may facilitate comparisons with modeling and effect data and thus contribute to a better risk assessment and regulation of plastics. However, the fate of plastic debris in the terrestrial environment remains incompletely understood and needs to be scrutinized in future, more systematic research. This should include the study of aging processes, the interaction of plastics with other organic and inorganic compounds, and the environmental impact of biodegradable plastics and nanoplastics.
Enterprise Collaboration Systems (ECS) werden zunehmend als Kernkomponenten des digitalen Arbeitsplatzes in Unternehmen eingesetzt, die mit der Implementierung dieser neuen Softwaregattung jeweils unterschiedliche Ziele für die innerbetriebliche Zusammenarbeit verfolgen. Diese Ziele werden in der Praxis oftmals nicht eindeutig genug formuliert. Der Einsatz von traditionellen Controlling-Kennzahlen mit dem Schwerpunkt auf Termineinhaltung und Kosten sind zudem ungeeignet, um die Realisierung des individuellen Nutzens von ECS zu messen. Diese Forschungsarbeit beschreibt die Entwicklung und Anwendung des Benefits Scorecards for Collaboration Platforms in Enterprises (SCoPE) Frameworks, das als ein Rahmenwerk für die kennzahlengestützte Nutzenmessung von ECS dient und an dem Goal-Question-Metrics-Approach der NASA sowie der Balance Scorecard von Kaplan & Norton angelehnt ist. Die Ergebnisse tragen zu einem breiteren Verständnis der kennzahlenbasierten Nutzenanalyse für ECS in Organisationen bei. Das Benefits-SCoPE-Framework wurde in enger Zusammenarbeit mit Experten aus 16 Anwenderunternehmen im Rahmen der Initiative IndustryConnect entwickelt. In einem design-orientierten Ansatz wurde ein ausgewählter Methodenmix angewandt, inklusive Experteninterview, Fokusgruppe, Workshop und Card Sorting. Der von Anwenderunternehmen erwartete Nutzen des ECS wird in spezifische, durch Kennzahlen beantwortbare Fragestellungen umformuliert und fragmentiert. Insgesamt konnten so 313 nutzenorientierte Fragen von drei Anwenderunternehmen identifiziert werden. Die durchgeführte Kategorisierung der Fragen verdeutlicht zum einen das gemeinsame Verständnis der Unternehmen hinsichtlich der entscheidenden Faktoren für die Nutzenrealisierung von ECS und zum anderen die Nutzen-ziele, die die Unternehmen durch den Einsatz des ECS anvisieren. Die Entwicklung und Erhebung von Kennzahlen zur quantitativen Beantwortung von ausgewählten Fragestellungen wird mit funktions-fähigen Prototypen auf einer operativen Kollaborationsplattform demonstriert, die seit mehr als sieben Jahren im Einsatz ist und mehr als 5.000 registrierte Benutzer aufweist. Die Kennzahlenentwicklung, die Auswahl der Datenerhebungsmethode, die Durchführung der Messung sowie die Interpretation der Messergebnisse werden im Framework durch die Verwendung von Benefits Scorecards unterstützt. Die individuelle Orchestrierung mehrerer Benefits Scorecards repräsentiert die Struktur eines Ordnungssystems zur ECS-Nutzenanalyse in Anwenderunternehmen und verdeutlicht das Vorgehen zur Erhebung der äquivalenten Daten.
Die Studie thematisiert die Positionierung und Subjektivierung von Medienpädagog*innen im Diskurs um Gewaltdarstellungen in Computerspielen. Der sogenannte ‚Killerspiel‘-Diskurs in den Jahren 2001 bis 2016 stellt für medienpädagogische Fachkräfte ein Feld widersprüchlicher Handlungserwartungen dar, Gewaltdarstellungen in Computerspielen entweder als Problem wahrzunehmen und dieses zu bearbeiten oder Computerspiele als Chance zu begreifen. Als rele-vante Multiplikator*innen diskursiver Wissensbestände wurden deswegen für diese Studie Me-dienpädagog*innen interviewt, die an maßgeblichen Positionen in der Schnittstelle zwischen Wissenschaft und Praxis agieren und daher für viele Kolleg*innen deutungs- und praxisrelevan-tes Wissen generieren. Um die Ausrichtung dieses Wissens zu prüfen, wurde in dieser Studie die Frage gestellt, wie sich diese medienpädagogischen Fachkräfte, die korrigierend in Diskurse ein-greifen, positionieren und inwiefern (medien-)pädagogische Professionalität als Ressource und Grenze der Positionierung fungiert.
Um die Fragestellung zu beantworten wurden zwei empirisch analytische Untersuchungen durchgeführt. Zuerst wurde eine Sekundäranalyse bestehender Diskursanalysen zum ‚Killer-spiel‘-Diskurs durchgeführt, um die Subjektpositionen herauszuarbeiten, mit denen sich die Me-dienpädagog*innen auseinandersetzen mussten. In einem zweiten Schritt wurde eine qualitative Interviewstudie mit neun Medienpädagog*innen durchgeführt. Im Anschluss an die semi-narrativen Expert*inneninterviews wurden diese in einem dreistufigen Verfahren ausgewertet. Nach der deduktiven und induktiven Kategorienbildung in Anlehnung an die inhaltlich struktu-rierende Inhaltsanalyse, wurde im Rahmen einer Deutungsmusteranalyse das Deutungswissen der Medienpädagog*innen und der Sinnhorizont ihrer Intervention in den Diskurs feinanalytisch rekonstruiert. Zuletzt wurden drei biographische Fallanalysen durchgeführt, um die Relationie-rung zwischen Diskurs und (Berufs-)biographie zu diskutieren.
Im Rahmen der Sekundäranalyse des ‚Killerspiel‘-Diskurses konnte die bisher in Diskursanaly-sen rekonstruierte Differenzierung von Risiko- und Chancennarrativ erweitert werden. Durch die Abgrenzung jeweils zweier Deutungsmuster des Problemdiskurses (‚Gefahr‘ und ‚Risiko‘) und des Gegendiskurses (‚Optimierung von Lernchancen‘ und ‚Kultur‘) konnten dadurch Positionie-rungen in multiplen Konfliktfeldern sichtbar gemacht werden. So war es möglich die fachliche Positionierung der Medienpädagog*innen als Zwischenraum zu fassen, in dem sowohl Deutun-gen des Gegendiskurses als auch des Problemdiskurses eigenwillig miteinander relationiert wer-den. Die eigenwillige Aneignung diskursiver Problem- und Deutungsmuster verläuft bei den Medienpädagog*innen über unterschiedliche fachliche Schnittstellen und Kopplungen. Statt den Diskurs mit der eigenen Lebensgeschichte zu relationieren wird er mit der in Handlungsfeld-strukturen situierten fachlichen medienpädagogischen Praxis in Beziehung gesetzt. Dabei ist eine Pädagogisierung des Diskurses und eine Diskursivierung pädagogischer Handlungsfelder zu beobachten. Mittels mehrerer Pädagogiken werden diskursive Deutungsmuster transformiert und das medienpädagogische Handeln durch die Re-Interpretation medienpädagogischer Hand-lungsfelder im Sinnhorizont des Diskurses als Intervention in den Diskurs gerahmt. Gleichzeitig wird in einem ‚Opportunismus der Uneindeutigkeit‘ die Anschlussfähigkeit an Problemdeutun-gen durch die Selbstdarstellung als verantwortliche Problembearbeiter*innen gewahrt, wodurch die eigene Handlungsfähigkeit, die Legitimität des Handelns und der Zugang zu gesellschaftli-chen Ressourcen gesichert wird.
In den Fallanalysen zeigte sich, dass diese fachlichen Positionierungen nur dann einen Subjekti-vierungsprozess dokumentieren, wenn die Erzählbausteine des Diskurses (Deutungsmuster und diskursiver Konflikt) als Material für die eigene Selbsterzählung herangezogen und als Professi-onsverständnis re-artikuliert werden. Das Konfliktszenario wird dann über dessen öffentliche Thematisierung hinaus als berufsbiographisches Projekt formulierbar, was sich insbesondere da-rin zeigt, dass prospektive Zukunftsentwürfe weiterhin im Deutungs- und Konfliktspektrum des Diskurses verortet werden. Subjektivierung professioneller Akteure kann daher als über fachliche Positionierungen (als fachlich orientierte, kommentierende Auseinandersetzungen mit im Diskurs verhandelten Deutungsmustern und Wissensbeständen) hinausgehende Prozesse der Deutung des eigenen Professionalitätsverständnisses, die Ausbildung von Pädagogiken und die Veranke-rung berufsbiographischer Ziele im Horizont des Deutungsspektrum des Diskurses gefasst wer-den.
In der medienpädagogischen Professionsforschung können die Deutungsmuster und Subjektpo-sitionen des Diskurses als Professionalitätserwartungen analytisch Anwendung finden. Ihr Vor-teil gegenüber den hierfür auch herangezogenen Paradigmen der Medienpädagogik ist der Aktu-alitäts- und Gegenstandsbezug. Auch in anderen Themenbereichen (bspw. Mediensucht) können die Deutungsmuster des Diskurses sinnvoll Anwendung finden. Die Studie konnte zudem zei-gen, dass eine Subjektivierungsheuristik sinnvoll auf professionelle Akteure anwendbar ist, da fachliche Positionierungen von Subjektivierungen deutlich unterschieden werden können. Dafür wurde eine spezielle für professionelle Akteure konzipierte Subjektivierungsheuristik entworfen, die insbesondere den unterschiedlichen Funktionen diverser Wissensformen Rechnung tragen kann und in der Professionsforschung die Relevanz des diskursiven Wissens als relevanter Wis-sensform für professionelle Praxis herausstellt.
Aktuell gibt es in den Geisteswissenschaften eine Vielzahl von digitalen Werkzeugen, wie beispielsweise Annotations-, Visualisierungs-oder Analyseanwendungen, welche Forscherinnen bei ihrer Arbeitunterstützen und ihnen neue Möglichkeiten zur Bearbeitung unterschiedlicher Forschungsfragen bieten. Allerdings bleibt die Nutzung dieser Werkzeuge stark hinter den Erwartungen zurück. In der vorliegenden Arbeit werden im Rahmen einer Design-Science-Theorie zwölf Verbesserungsmaßnahmen entwickelt, um der fehlenden Nutzungsakzeptanz entgegenzuwirken. Durch die Implementierungen der entwickelten Design-Science-Theorie, können SoftwareentwicklerInnen die Akzeptanz ihrer digitalen Werkzeuge, im geisteswissenschaftlichen Kontext, steigern.
Softwaresprachen und Technologien zu verstehen, die bei der Entwicklung einer Software verwendet werden, ist eine alltägliche Herausforderung für Software Engineers. Textbasierte Dokumentationen und Codebeispiele sind typische Hilfsmittel, die zu einem besseren Verständnis führen sollen. In dieser Dissertation werden verschiedene Forschungsansätze beschrieben, wie existierende Textpassagen und Codebeispiele identifiziert und miteinander verbunden werden können. Die Entdeckung solcher bereits existierender Ressourcen soll dabei helfen Softwaresprachen und Technologien auf einem konzeptionellen Level zu verstehen und zu vergleichen. Die Forschungsbeiträge fokussieren sich auf die folgenden Fragen, die später präzisiert werden. Welche existierenden Ressourcen lassen sich systematisch identifizieren, um strukturiertes Wissen zu extrahieren? Wie lassen sich die Ressourcen extrahieren? Welches Vokabular wird bereits in der Literatur verwendet, um konzeptionelles Wissen zur Struktur und Verwendung einer Software auszudrücken? Wie lassen sich Beiträge auf Wikipedia wiederverwenden? Wie können Codebeispiele zur Verwendung von ausgewählten Technologien auf GitHub gefunden werden? Wie kann ein Modell, welches Technologieverwendung repräsentiert, reproduzierbar konstruiert werden? Zur Beantwortung der Forschungsfragen werden qualitative Forschungsmethoden verwendet, wie zum Beispiel Literaturstudien. Des Weiteren werden Methoden entwickelt und
evaluiert, um relevante Artikel auf Wikipedia, relevante Textpassagen in der Literatur und Codebeispiele auf GitHub zu verlinken. Die theoretischen Beiträge werden in Fallstudien evaluiert. Die folgenden wissenschaftlichen Beiträge werden dabei erzielt: i.) Eine Referenzsemantik zur Formalisierung von Typen und Relationen in einer sprachfokussierten Beschreibung von Software; ii.) Ein Korpus bestehend aus Wikipedia Artikeln zu einzelnen Softwaresprachen; iii) Ein Katalog mit textuell beschriebenen Verwendungsmustern einer Technologie zusammen mit Messergebnissen zu deren Frequenz auf GitHub; iv.) Technologiemodelle, welche sowohl mit verschiedenen existierenden Codebeispielen als auch mit Textpassagen verknüpft sind.
To render the surface of a material capable of withstanding mechanical and electrochemical loads, and to perform well in service, the deposition of a thin film or coating is a solution. In this project, such a thin film deposition is carried out. The coating material chosen is titanium nitride (TiN) which is a ceramic material known to possess a high hardness (>10 GPa) as well as good corrosion resistance. The method of deposition selected is high power impulse magnetron sputtering (HiPIMS) that results in coatings with high quality and enhanced properties. Sputtering is a physical process that represents the removal or dislodgment of surface atoms by energetic particle bombardment. The term magnetron indicates that a magnetic field is utilized to increase the efficiency of the sputtering process. In HiPIMS, a high power is applied in pulses of low duty cycles to a cathode that is sputtered and that consists of the coating material. As result of the high power, the ionization of the sputtered material takes place giving the possibility to control these species with electric and magnetic field allowing thereby the improvement and tuning of coating properties. However, the drawback of HiPIMS is a low deposition rate.
In this project, it is demonstrated first that it is possible to deposit TiN coating using HiPIMS with an optimized deposition rate, by varying the magnetic field strength. It was found that low magnetic field strength (here 22mT) results in a deposition rate similar to that of conventional magnetron sputtering in which the average power is applied continuously, called also direct current magnetron sputtering (dcMS). The high deposition rate at low magnetic field strength was attributed to a reduction in the back attraction probability of the sputtered species. The magnetic field strength did not show noticeable influence on the mechanical properties. The proposed explanation was that the considered peak current density interval 1.22-1.72 A∙cm-2 does not exhibit dramatic changes in the plasma dynamics.
In a second part, using the optimized deposition rate, the optimized chemical composition of TiN was determined. It was shown that the chemical composition of TiN does not significantly influence the corrosion performance but impacts considerably the mechanical properties. It was also shown that the corrosion resistance of the coatings deposited using HiPIMS was higher than that of the coatings deposited using dcMS.
The third study was the effect of annealing post deposition on the properties of TiN coating deposited using HiPIMS. The hardness of the coatings showed a maximum at 400°C reaching 24.8 GPa. Above 400°C however, a lowering of the hardness was measured and was due to the oxidation of TiN which led to the formation of TiN-TiO2 composites with lower mechanical properties.
The coating microscopic properties such as crystal orientation, residual stresses, average grain size were determined from X-ray diffraction data and the roughness was measured using atomic force microscopy. These properties were found to vary with the magnetic field strength, the chemical composition as well as the annealing temperature.
Gentechnisch veränderte Pflanzen werden seit etwa 25 Jahren kommerziell angebaut. Besonders häufig werden Bt-Pflanzen verwendet, die Gene des Bakteriums Bacillus thuringiensis (Bt) enthalten und Cry-Proteine produzieren. Die Risikobewertung konzentrierte sich lange auf die terrestrische Umwelt. Erst mit der Veröffentlichung von Rosi-Marshall et al. im Jahr 2007 rückten mögliche Auswirkungen auf die aquatische Umwelt in den Fokus. In dem ersten Teil dieser Dissertation wurde die vorhandene Literatur zu lower-tier Effektstudien und Studien über den Verbleib ausgewertet, die die Auswirkungen von GV-Pflanzen auf die aquatische Umwelt untersuchen. Es zeigen sich potentielle Effekte auf aquatische Organismen. Einige Studien wiesen außerdem den Eintrag von GV-Pflanzenmaterial in die aquatische Umwelt sowie das Herauswaschen der Toxine in das Wasser nach.
Im zweiten Teil der Dissertation wird die Wirkung des Cry1Ab-Toxins auf zwei Arten an Köcherfliegenlarven (Chaetopterryx spec., Sericostoma spec.) untersucht. Trichopteren sind phylogenetisch nah verwandt mit Lepidopteren, die häufig die Zielorganismen von Cry-Toxinen sind. Um mehrere Konzentrationen verabreichen zu können wurde eine neue Spiking-Methode eingesetzt, bei der gelöstes Cry1Ab-Toxin auf Blätter der Schwarzerle (Alnus glutinosa) aufgetragen wird. Effekte zeigten sich ins Besondere bei sublethalen Endpunkten. Der Lipidgehalt der Chaetopteryx spec. Larven war nach zwölf Wochen geringer mit zunehmender Cry1Ab Konzentration. Die Verringerung des Lipidgehalts könnte auf eine Erhöhung des Energiebedarfs für Reparaturmechanismen hindeuten. Bei Sericostoma spec. zeigte sich nach sechs Wochen eine Verlangsamung der Larvalentwicklung in der höchsten Cry1Ab Konzentration, was zu einer späteren Emergenz und damit zu Auswirkungen auf die Nahrungskette führen könnte.
Im dritten Teil der Dissertation wurde die Bewertung von Auswirkungen von GV-Pflanzen auf die aquatische Umwelt anhand von higher-tier Studien untersucht. Da higher-tier Studien bei Pestiziden bereits häufig vorkommen, wurden diese mit den bereits durchgeführten higher-tier Studien mit GV-Pflanzen verglichen. Es zeigt sich, dass es keine Standardisierung von higher-tier Studien mit GV-Pflanzen gibt, was für die Qualitätssicherung und die Vergleichbarkeit von Studien notwendig ist. Außerdem bestehen große Schwierigkeiten damit verschiedene Versuchskonzentrationen herzustellen, was für die Untersuchung einer Dosis-Wirkungsbeziehung notwendig ist.
Insgesamt zeigt sich, dass es noch erheblichen Forschungsbedarf gibt, was die Auswirkungen von GV-Pflanzen auf die aquatische Umwelt angeht. Weitere Studien sind für eine umfangreiche und aussagestarke Risikobewertung unumgänglich.
In der vorliegenden Arbeit wird die Synthese von N-Phenacylpyridinium-Salzen und deren Eignung als Photoinitiatoren für die Umsetzung von Epoxidgruppen beschrieben. In vorangehenden Untersuchungen werden Phenacyl-Salze als Photoinitiatoren für die kationische Polymerisation von Epoxidharz-Systemen beschrieben. Die Einflüsse der einzelnen Bestandteile der beschriebenen Photoinitiatoren sind insbesondere im Hinblick auf die Kinetik des Epoxidgruppen-Umsatzes noch nicht ausreichend erforscht. Als Grundlage für alle Verbindungen der vorliegenden Arbeit wird das N-Phenacylpyridinium-Salz gewählt und mittels Substituenten und dem Austausch der Gegenionen an verschiedenen Stellen variiert. Die Untersuchung der Einflüsse der jeweiligen Substituenten mit Fokus auf den Umsatz der Epoxidgruppen zeigt eine Abhängigkeit von drei wesentlichen Faktoren. Ein Faktor ist dabei das Substitutionsmuster der Phenacylgruppe. Anhand der gezielten Einführung von Phenyl- und Methyl-Substituenten wird Einfluss auf die Kinetik des Photolyse-Prozesses genommen. Die beiden weiteren Faktoren stellen dabei die Variation der Pyridin-Derivate und der Gegenionen dar. Je nachdem welche Pyridin-Derivate und Gegenionen eingesetzt werden, wird die Kinetik des Epoxidgruppen-Umsatzes beschleunigt oder gehemmt. Dabei stellt sich heraus, dass Pyridin-Derivate mit Substituenten, die −I- und −M-Effekte ausbilden, und Gegenionen, die starke Säuren bilden können, einen beschleunigenden Einfluss haben. Im Gegensatz dazu zeigen Pyridin-Derivate mit Substituenten, die einen +M-Effekt ausbilden, eine hemmende Wirkung auf den Epoxidgruppen-Umsatz.
Die ermittelten Umsatzraten und die Einarbeitung in eine Klebstoffformulierung zeigen, dass ausgewählte Verbindungen aus der vorliegenden Arbeit geeignete Photoinitiatoren zur Umsetzung von Epoxidharz-Systemen darstellen.
Diet-related effects of antimicrobials in aquatic decomposer-shredder and periphyton-grazer systems
(2022)
Leaf-associated microbial decomposers as well as periphyton serve as important food sources for detritivorous and herbivorous macroinvertebrates (shredders and grazers) in streams. Shredders and grazers, in turn, provide not only collectors with food but also serve as prey for predators. Therefore, decomposer-shredder and periphyton-grazer systems (here summarized as freshwater biofilm-consumer systems) are highly important for the energy and nutrient supply in heterotrophic and autotrophic stream food webs. However, both systems can be affected by chemical stressors, amongst which antimicrobials (e.g., antibiotics, fungicides and algaecides) are of particular concern. Antimicrobials can impair shredders and grazers not only via waterborne exposure (waterborne effect pathway) but also through dietary exposure and microorganism-mediated alterations in the food quality of their diet (dietary effect pathway). Even though the relevance of the latter pathway received more attention in recent years, little is known about the mechanisms that are responsible for the observed effects in shredders and grazers. Therefore, the first objective of this thesis was to broaden the knowledge of indirect antimicrobial effects in a model shredder and grazer via the dietary pathway. Moreover, although freshwater biofilm-consumer systems are most likely exposed to antimicrobial mixtures comprised of different stressor groups, virtually nothing is known of these mixture effects in both systems. Therefore, the second objective was to assess and predict diet-related antimicrobial mixture effects in a model freshwater biofilm-consumer system. During this thesis, positive diet-related effects of a model antibiotic on the energy processing and physiology of the shredder Gammarus fossarum were observed. They were probably triggered by shifts in the leaf-associated microbial community in favor of aquatic fungi that increased the food quality of leaves for the shredder. Contrary to that, a model fungicide induced negative effects on the energy processing of G. fossarum via the dietary pathway, which can be explained by negative impacts on the microbial decomposition efficiency leading to a reduced food quality of leaf litter for gammarids. For diet-related antimicrobial effects in periphyton-grazer systems, a model algaecide altered the periphyton community composition by increasing nutritious and palatable algae. This resulted in an enhanced consumption and physiological fitness of the grazer Physella acuta. Finally, it was shown that complex horizontal interactions among leaf-associated microorganisms are involved, making diet-related antimicrobial mixture effects in the shredder G. fossarum difficult to predict. Thus, this thesis provides new insights into indirect diet-related effects of antimicrobials on shredders and grazers as well as demonstrates uncertainties of antimicrobial mixture effect predictions for freshwater biofilm-consumer systems. Moreover, the findings in this thesis are not only informative for regulatory authorities, as indirect effects and effects of mixtures across chemical classes are not considered in the environmental risk assessment of chemical substances, but also stimulate future research to close knowledge gaps identified during this work.
Binnengewässer spielen eine aktive Rolle im globalen Kohlenstoffkreislauf. Sie nehmen Kohlenstoff von stromaufwärts gelegenen Landmassen auf und transportieren ihn stromabwärts, bis er schließlich den Ozean erreicht. Auf diesem Weg sind vielfältige Prozesse zu beobachten, die zu einer (dauerhaften) Rückhaltung des Kohlenstoffs durch Einlagerung in Sedimenten sowie zu direkter Emission in die Atmosphäre führen. Es ist dringend notwendig diese Kohlenstoffflüsse und ihre anthropogene Veränderung zu quantifizieren. In diesem Zusammenhang muss die Aufmerksamkeit auf ein weit verbreitetes Merkmal von Gewässern gerichtet werden: ihre teilweise Austrocknung. Dies führt dazu, dass ehemals überschwemmte Sedimente in direkten Kontakt mit der Atmosphäre gelangen, genannt „dry inland waters“. Ein Merkmal der „dry inland waters“ sind überproportional hohe Kohlendioxid (CO2)-Emissionen. Diese Erkenntnis beruhte jedoch bisher auf lokalen Fallstudien, und es fehlt an Wissen über die globale Verbreitung und die grundlegenden Mechanismen dieser Emissionen. Vor diesem Hintergrund zielt diese Arbeit darauf ab, das Ausmaß und die Mechanismen der Kohlenstoffemissionen der „dry inland waters“ auf globaler und lokaler Ebene besser zu verstehen und die Auswirkungen von „dry inland waters“ auf den globalen Kohlenstoffkreislauf zu bewerten. Die spezifischen Forschungsfragen dieser Arbeit lauteten: (1) Wie fügen sich gasförmige Kohlenstoffemissionen von „dry inland waters“ in den globalen Kohlenstoffkreislauf und in die globalen Treibhausgasbudgets ein? (2) Welche Auswirkungen haben saisonale und langfristige Austrocknung auf den Kohlenstoffkreislauf von Gewässern? Diese Arbeit hat gezeigt, dass „dry inland waters“im globalen Maßstab unverhältnismäßig große Mengen an CO2 emittieren und dass diese Emissionen in allen Ökosystemen vergleichbaren Mechanismen folgen. Die Quantifizierung der globalen Wasserstandsschwankungen in Stauseen und die globale Berechnung der Kohlenstoffflüsse legen nahe, dass Stauseen mehr Kohlenstoff freisetzen als sie in den Sedimenten einlagern, was das derzeitige Verständnis von Stauseen als Nettokohlenstoffsenken in Frage stellt. Auf lokaler Ebene hat diese Arbeit gezeigt, dass sowohl die heterogenen Emissionsmuster verschiedener typischer Uferbereiche als auch die saisonalen Schwankungen der Kohlenstoffemissionen aus der „drawdown area“ berücksichtigt werden müssen. Darüber hinaus hat diese Arbeit gezeigt, dass die Remobilisierung von Kohlenstoff aus den Sedimenten bei dauerhafter Austrocknung von Gewässern die beobachteten Emissionsraten erklären kann, was die Hypothese einer positiven Rückkopplung zwischen Klimawandel und der Austrocknung von Gewässern unterstützt. Insgesamt unterstreicht die vorliegende Arbeit die Bedeutung der Emissionen aus trockenen Gewässerbereichen für den globalen Kohlenstoffkreislauf von Gewässern.
Invasive species play increasing roles worldwide. Invasions are considered successful when species establish and spread in their exotic range. Subsequently, dispersal is a major determinant of species’ range dynamics. Mermessus trilobatus, native to North America, has rapidly spread in Europe via aerial dispersal. Here we investigated the interplay of ecological and evolutionary processes behind its colonisation success.
First, we examined two possible ecological mechanisms. Similar to other invasive invertebrates, the colonisation success of Mermessus trilobatus might be related to human-induced habitat disturbance. Opposite to this expectation, our results showed that densities of Mermessus trilobatus decreased with soil disturbance in grasslands suggesting that its invasion success was not connected to a ruderal strategy. Further, invasive species often escape the ecological pressures from novel enemies in their exotic ranges. Unexpectedly, invasive Mermessus trilobatus was more sensitive to a native predator than native Erigone dentipalpis during our predator susceptibility trials. This indicates that the relation between the invasive spider and its native predator is dominated by prey naïveté rather than enemy release.
The remaining three chapters of the thesis investigated the dispersal behaviour of this invasive species. Hitherto, studies of passive aerial dispersal used wind as the primary dispersal-initiating factor despite a recent demonstration of the effects of the atmospheric electric fields on spiders’ pre-dispersal behaviour. During our experiments, only the wind facilitated the flight, although electric fields induced pre-dispersal behaviour in spiders. Consequently, studies around passive aerial dispersal should control electric fields but use wind as a stimulating factor.
Rapidly expanding species might be disproportionately distributed in their exotic range, with an accumulation of dispersive genotypes at the leading edge of their range. Such imbalanced spatial segregation is possible when the dispersal behaviour of expanding species is heritable. Our results showed that the dispersal traits of Mermessus trilobatus were heritable through both parents and for both sexes with recessive inheritance of high dispersal ability in this species.
Following the heritability experiments, we documented an accelerated spread of Mermessus trilobatus in Europe and tested whether dispersal, reproduction or competing ability was at the source of this pattern. Our results showed that the accumulation of more mobile but not reproductive or competitive genotypes at the expansion front of this invasive species gave rise to an accelerated range expansion by more than 1350 km in under 45 years.
Invasive Mermessus trilobatus is inferior to native sympatric species with respect to competing ability (Eichenberger et al., 2009), disturbance tolerance and predation pressure. Nevertheless, the species successfully established in its exotic range and spread by accelerating its expansion rate. Rapid reproduction that balances the high ecological pressures might be the other potential mechanism behind its colonisation success in Europe and deserves further investigation.
Der Arbeitsmarkt in Deutschland erlebt einen technologisch bedingten Strukturwandel. Durch Digitalisierung werden Tätigkeiten substituierbar, Berufsbilder und dafür benötigte Qualifikationsprofile wandeln sich. Für die Arbeitskräfte resultiert daraus ein Anpassungsdruck, sich zum Erhalt ihres Humankapitals bzw. ihrer Beschäftigungsfähigkeit weiterzubilden. Fraglich ist, inwieweit die Individuen diesen Druck wahrnehmen und mit entsprechenden Weiterbildungen reagieren. Um einen Erklärungsbeitrag zum Weiterbildungsverhalten der Arbeitskräfte in Bezug auf den technologischen Wandel zu leisten, widmet sich das Promotionsvorhaben der Forschungsfrage: „Inwieweit reagieren Arbeitskräfte bezüglich ihres Weiterbildungsverhaltens auf einen sich digitalisierungsbedingt wandelnden Arbeitsmarkt?“
Intensivierung der Landwirtschaft führt weltweit zu einem fortschreitenden Verlust der biologischen Vielfalt in Agrarlandschaften. Die daraus resultierende Homogenität der Landschaft, die mit der Ausweitung von Monokulturflächen und dem Verlust naturnaher Lebensräume einhergeht, hat schwerwiegende Auswirkungen auf Arthropoden in Agrarlandschaften. Während Ackerflächen aufgrund intensiver und häufiger Störungen für viele Arten ungeeignete Habitate darstellen, können naturnahe Lebensräume in Agrarökosystemen als wichtige Rückzugsflächen fungieren. Die Erschaffung von naturnahen Lebensräumen durch Agrarumweltmaßnahmen in intensiven Agrarlandschaften, wie der Maifelder Agrarlandschaft in Westdeutschland, sollen den negativen Auswirkungen der landwirtschaftlichen Intensivierung entgegenwirken. Allerdings ist die Wirksamkeit dieser Maßnahmen für den Artenschutz noch umstritten. Aus diesem Grund wird in dieser Arbeit die Artenvielfalt der Käfer (Coleoptera) und Spinnen (Araneida) auf Weizenfeldern und verschiedenen naturnahen Lebensräumen (grasbewachsene Feldränder angrenzend an Weizen- und Rapsfelder; klein- und großflächige, mit Wildblumenmischungen eingesäte, Stilllegungsflächen; dauerhafte Grünlandbrachen) miteinander verglichen. Hierfür wurden die Arthropoden in den Jahren 2019 und 2020 mit Bodenfallen und Saugproben erfasst. Die vorliegenden Ergebnisse zeigen, dass die Landnutzung die Käfer- und Spinnendiversität im Untersuchungsgebiet beeinflusst, mit einer deutlich höheren Artenvielfalt auf den Grünlandbrachen als auf den Weizenfeldern. Überraschenderweise bestanden zwischen allen naturnahen Lebensräumen nur geringe Unterschiede, jedoch beherbergten sie unterschiedliche Artengemeinschaften. Hier unterschieden sich vor allem die Käfer- und Spinnengemeinschaften der großflächigen Grünlandbrachen deutlich von allen anderen untersuchten Landnutzungstypen. Insbesondere für Habitatspezialisten und gefährdete Arten stellten die Grünlandbrachen wichtige Lebensräume dar, wahrscheinlich aufgrund ihrer variablen Bodenfeuchtigkeit und komplexen Lebensraumstruktur. Im Gegensatz dazu wiesen Weizenfelder homogene Arthropodengemeinschaften mit einem geringeren Merkmalsreichtum auf und wurden von einigen wenigen räuberischen Arten dominiert, die sich an derartig intensive Lebensräume angepasst haben. Die Ergebnisse deuten darauf hin, dass sich alle Schutzmaßnahmen ergänzen, indem sie auf unterschiedliche Weise zur Förderung der Käfer und Spinnen auf landwirtschaftlichen Flächen beitragen können. Selbst kleinflächige naturnahe Lebensräume und bestehende Habitatgrenzen in einer landwirtschaftlichen Matrix scheinen wertvolle Lebensräume für Arthropoden in Agrarökosystemen darzustellen, indem sie zur Erhöhung der taxonomischen Vielfalt beitragen. Feldränder und kleine, mit Wildblumen eingesäte Flächen, können isolierte naturnahe Lebensräume miteinander verbinden und zu einer heterogenen Agrarlandschaft beitragen. Folglich führt eine Kombination verschiedener klein- und großflächiger Begrünungsmaßnahmen zu einer erhöhten Landschaftsheterogenität, die sich wiederum positiv auf die Käfer- und Spinnenvielfalt auswirkt. In Anbetracht des weltweit anhaltenden Verlustes der Artenvielfalt in Agrarlandschaften, sollten Agrarumweltmaßnahmen in Zukunft gefördert werden, da sie für den Arthropodenschutz in intensiven Agrarlandschaften, wie im Maifeld, besonders bedeutsam sind.
The ongoing loss of species is a global threat to biodiversity, affecting ecosystems worldwide. This also concerns arthropods such as insects and spiders, which are especially endangered in agricultural ecosystems. Here, one of the main causing factors is management intensification. In areas with a high proportion of traditionally managed grassland, extensive hay meadows that are cut only once per year can still hold high levels of biodiversity, but are threatened by conversion into highly productive silage grassland. The Westerwald mountain range, western Germany, is such a region. In this thesis, I compare the local diversity of bees, beetles, hoverflies, leafhoppers, and spiders of five grassland management regimes along a gradient of land-use intensity. These comprise naturally occurring grassland fallows, three types of traditionally managed hay meadows, and intensively used silage grassland. By using three different sampling methods, I recorded ground-dwelling, flower-visiting, and vegetation-dwelling species. The results show that in most cases species richness and diversity are highest on fallows, whereas variation among different managed grassland types is very low. Also, for most sampled taxa, fallows harbour the most distinct species assemblages, while that of other management regimes are largely overlapping. Management has the largest effect on species composition, whereas environmental parameters are of minor importance. Long-term grassland fallows seem to be highly valuable for arthropod conservation, even in a landscape with a low overall land-use intensity, providing structural heterogeneity. In conclusion, such fallows should be subsidized agri-environmental schemes, to preserve insect and spider diversity.
Eine nachhaltige Intensivierung der Landwirtschaft ist notwendig, um die wachsende Weltbevölkerung zu ernähren ohne die Bodenqualität durch verstärkte Bodendegradation zu verschlechtern. Plastikmul-che (PM) werden weltweit zunehmend eingesetzt, um Wachstum und Ertrag von Feldfrüchten zu ver-bessern und somit die landwirtschaftliche Produktivität zu steigern. Zunehmend finden sich aber auch kritische Aspekte der PM-Anwendung auf die Bodenqualität sowie widersprüchliche Ergebnisse in der wissenschaftlichen Literatur. Grund könnte die Anwendung in verschiedenen Klimaten und bei unter-schiedlichen Feldkulturen, Böden und landwirtschaftlichen Techniken sein. Ein genauerer Blick ist so-mit notwendig, um den PM-Einfluss auf die Bodenprozesse unter verschiedenen Klima- und Anbaube-dingungen umfassend zu verstehen und hinsichtlich einer nachhaltigen Landwirtschaft zu bewerten.
Ziel dieser Doktorarbeit war es, zu verstehen, inwieweit eine mehrjährige PM-Anwendung verschiedene Bodeneigenschaften und -prozesse unter gemäßigt, humidem Klima in Mitteleuropa beeinflusst und die Folgen für die Bodenqualität zu bewerten. Hierfür untersuchte ich in einer dreijährigen Feldstudie, wie PM (schwarzes Polyethylen, 50 μm) das Mikroklima, die Strukturstabilität, die organische Bodensub-stanz (OBS) und die Konzentrationen bestimmter Fungizide und Mykotoxine in drei Bodenschichten (0–10, 10–30 and 30–60 cm) im Vergleich zu Strohmulch (SM) beeinflusst. Beide Bodenabdeckungen wurden in einer Dammkultur mit Tröpfchenberegnung im Erdbeeranbau eingesetzt.
Die PM veränderten das Mikroklima des Bodens hin zu höheren Temperaturen und niedrigeren Was-sergehalten. Hauptfaktor für das gesteigerte Pflanzenwachstum unter gegebenem Klima dürfte somit die höhere Bodentemperatur sein. Die niedrigere Bodenfeuchte unter PM zeigte, dass die verhinderte Nie-derschlagsversickerung stärker den Wasserhaushalt beeinflusste als die reduzierte Evaporation, was auf eine ineffiziente Niederschlagsnutzung hinweist. Die PM veränderten den Wasserkreislauf hin zu ver-mehrt seitlichen Wasserflüssen von der Furche zum Damm und weniger vertikalen Sickerwasserflüssen im Damm. Letzteres verringerte die Stickstoffauswaschung im Oberboden (0–10 cm) in der Anwachs-phase der Erdbeeren. PM verhinderte eine abrupte Bodendurchnässung und Überschusswasser bei Re-genfällen und somit Aggregatzerstörung. So wurde eine lockere und stabile Bodenstruktur erhalten, die Bodenverdichtung und Bodenerosion vorbeugt. PM veränderte Kohlenstoffaustausch und -umwandlung hin zu einer größeren und stabileren OBS. Somit kompensierte die unterirdische Biomassenproduktion unter PM den temperaturbedingt beschleunigten OBS Abbau sowie den fehlenden Eintrag oberirdischer Biomasse. Das SM erhöhte jedoch die labile und totale OBS im Oberboden nach dem ersten Versuchs-jahr und steigerte das mikrobielle Wachstum durch den oberirdischen Biomasseeintrag. PM verringerte den Fungizideintrag in den Boden und verursachte kein erhöhtes Mykotoxinvorkommen. Somit stellt PM kein erhöhtes Risiko für Bodenkontaminationen und die Bodenqualität dar. Diese Doktorarbeit zeigte, dass sich die PM-Effekte zeitlich, saisonal und zwischen den Bodenschichten unterschieden, womit die Bedeutung der Faktoren Bodentiefen und Zeit für zukünftige Studien belegt wurde.
Verglichen mit ariden Gebieten, waren die beobachteten PM-Einflüsse klein, ausgeblieben oder anders. Als Grund hierfür vermute ich, dass PM in humidem Klima die Bodenfeuchte verringerte anstatt zu erhöhen und dass unter SM das Stroh und Blätterwerk einen PM-ähnlichen „Abdeckungseffekt“ verur-sachte. Eine Generalisierung der PM-Effekte über verschiedenen Klimazonen ist somit kaum möglich, da sich die Effekte in Art und Ausmaß in Abhängigkeit vom Klima unterscheiden. Die PM-Effekte auf die Bodenqualität müssen somit differenziert beurteilt werden. Ich schlussfolgere, dass PM in humiden Klimaten Bodendegradationen vermindern könnte (z.B., OBS Abbau, Erosion, Nährstoffauswaschung, Verdichtung und Kontamination) und somit hilft, Bodenqualität zu erhalten und eine nachhaltige, land-wirtschaftliche Intensivierung zu ermöglichen. Allerdings ist weitere Forschung nötig um meine Ergeb-nisse auf größeren Skalen, über längere Zeitperioden und bei verschiedenen Böden und Feldfrüchte zu überprüfen, verbleibende offene Fragen zu beantworten und Verbesserungen zu entwickeln, um die Nachteile der PM zu überwinden (z.B. Bodenverunreinigung mit Plastik, Entsorgung der Mulche).
The decline of biodiversity can be observed worldwide and its consequences are alarming. It is therefore crucial that nature must be protected and, where possible, restored. A wide variety of different project options are possible. Yet in the context of limited availability of resources, the selection of the most efficient measures is increasingly important. For this purpose, there is still a lack of information. This pertains, as outlined in the next paragraph, in particular, to information at different scales of projects.
Firstly, there is a lack of information on the concrete added value of biodiversity protection projects. Secondly, there is a lack of information on the actual impacts of such projects and on the costs and benefits associated with a project. Finally, there is a lack of information on the links between the design of a project, the associated framework conditions and the perception of specific impacts. This paper addresses this knowledge gap by providing more information on the three scales by means of three empirical studies on three different biodiversity protection projects in order to help optimize future projects.
The first study “Assessing the trade-offs in more nature-friendly mosquito control in the Upper Rhine region” examines the added value of a more nature-friendly mosquito control in the Upper Rhine Valley of Germany using a contingent valuation method. Recent studies show that the widely used biocide Bti, which is used as the main mosquito control agent in many parts of the world, has more negative effects on nature than previously expected. However, it is not yet clear whether the population supports a more nature-friendly mosquito control, as such an adaptation could potentially lead to higher nuisance. This study attempts to answer this question by assessing the willingness to pay for an adapted mosquito control strategy that reduces the use of Bti, while maintaining nuisance protection within settlements. The results show that the majority of the surveyed population attaches a high value to a more nature-friendly mosquito control and is willing to accept a higher nuisance outside of the villages.
The second study “Inner city river restoration projects: the role of project components for acceptance” examines the acceptance of a river restoration project in Rhineland-Palatinate, Germany. Despite much effort, many rivers worldwide are still in poor condition. Therefore, a rapid implementation of river restoration projects is of great importance. In this context, acceptance by society plays a fundamental role, however, the factors determining such acceptance are still poorly understood. In particular, the complex interplay between the acceptance or rejection of specific project components and the acceptance of the overall project require further exploration. This study addresses this knowledge gap by assessing the acceptance of the project, its various ecological and social components, and the perception of real and fictitious costs as well as the benefits of the components. Our findings demonstrate that while acceptance of the overall project is generally rather high, many respondents reject one or more of the project's components. Complementary social project components, like a playground, find less support than purely ecological components. Overall, our research shows that complementary components may increase or decrease acceptance of the overall project. We, furthermore, found that differences in the acceptance of the individual components depend on individual concerns, such as perceived flood risk, construction costs, expected noise and littering as well as the quality of communication, attachment to the site, and the age of the respondents.
The third study “What determines preferences for semi-natural habitats in agrarian landscapes? A choice-modelling approach across two countries using attributes characterizing vegetation” investigates people's aesthetic preferences for semi-natural habitats in agricultural landscapes. The EU-Common Agricultural Policy promotes the introduction of woody and grassy semi-natural habitats (SNH) in agricultural landscapes. While the benefits of these structures in terms of regulating ecosystem services are already well understood, the effects of SNH on visual landscape quality is still not clear. This study investigates the factors determining people’s visual preferences in the context of grassy and woody SNH elements in Swiss and Hungarian landscapes using picture-based choice experiments. The results suggest that respondents’ choices strongly depend on specific vegetation characteristics that appear and disappear over the year. In particular, flowers as a source of colours and green vegetation as well as ordered structure and the proportion of uncovered soil in the picture play an important role regarding respondents’ aesthetic perceptions of the pictures.
The three empirical studies can help to make future projects in the study areas of biodiversity protection more efficient. While this thesis highlights the importance of exploring biodiversity protection projects at different scales, further analyses of the different scales of biodiversity protection projects are needed to provide a sound basis to develop guidance on identifying the most efficient biodiversity protection projects.
In den vergangenen Jahrzehnten haben sich Einzelpartikelanalyse (EPA) und Kryotransmissionselektronenmikroskopie(Kryo-EM) zu einer der führenden Technologien für die strukturelle Analyse von biologischen Makromolekülen entwickelt. Dies erlaubt die Untersuchung biologischer Strukturen in einem möglichst naturgetreuen Zustand auf molekularer Ebene. In den letzten fünf Jahren überwand die EPA erstmals die Auflösungsgrenze von 2°A und erreichte somit atomare Auflösung, was bislang nur mittels Röntgenkristallographie möglich war. Ein bestehendes Problem der Kryo-EM ist der schwache Bildkontrast. Seit der Einführung der Kryo-EM in den 1980er Jahren, wurde an Phasenplatten als mögliches Werkzeug, zur Verbesserung des Bildkontrasts geforscht. Hier limitierten immer technische Probleme bei der Herstellung oder geräteseitige Limitierungen, wie z.B. Hysterese der Linsen, den erfolgreichen Einsatz solcher Phasenplatten. Insbesondere ein automatisierter Arbeitsablauf für die Steuerung des Mikroskops und die Aufnahme der Bilder ließ sich nie realisieren. In dieser Doktorarbeit wurde eine neue Zernike-Phasenplatte entwickelt und untersucht. Freistehende Metallfilme dienten als Phasenplattenmaterial, um Alterungsund Kontaminationsprobleme der bislang üblichen kohlenstoffbasierten Phasenplatten zu überwinden. In ersten Experimenten zur Materialwahl wurde Iridium als geeignetes Metall identifiziert. Der zweite Teil der Arbeit behandelt die Untersuchung der Iridium-Phasenplatten hinsichtlich ihrer Eigenschaften und ihrem Verhalten im Elektronenmikroskop. Ein Resultat dieser Experimente ist der sogenannte rocking-Modus, bei dem die Phasenplatte während der Aufnahme bewegt wird und wodurch sich Streuungs- und andere Artefakte, die bei den Zernike-Phasenplatten üblicherweise auftreten, verhindern oder deutlich reduzieren ließen. Die Entwicklung eines angepassten Workflow ermöglichte die Aufnahme von EPADatens ätzen mit Phasenplatte über mehrere Tage. Für die Evaluierung der Phasenplattendaten wurden Datensätze von Apoferritin mit und ohne Phasenplatte aufgenommen und miteinander verglichen.
Water is used in a way as if it were available infinitely. Droughts, increased rainfall or flooding already lead to water shortages and, thus, deprive entire population groups of the basis of their livelihoods. There is a growing fear that conflicts over water will increase, especially in arid climate zones, because life without water - whether for humans, animals or plants - is not possible.
More than 60 % of the African population depend on land and water resources for their livelihoods through pastoralism, fishing and farming. The water levels of rivers and lakes are decreasing. Hence, the rural population which is dependent on land and water move towards water-rich and humid areas. This internal migration increases the pressure on available water resources. Driven by the desire to strengthen the economic development, African governments align their political agendas with the promotion of macro international and national economic projects.
This doctoral thesis examines the complex interrelationships between water shortages, governance, vulnerability, adaptive capacity and violent and non-violent conflicts at Lake Naivasha in Kenya and Lake Wamala in Uganda. In order to satisfy the overall complexity, this doctoral thesis combines various theoretical and empirical aspects in which a variety of methods are applied to different geographical regions, across disciplines, and cultural and political boundaries.
The investigation reveals that Lake Naivasha is more affected by violent conflicts than Lake Wamala. Reasons for this include population growth, historically grown ethnic conflicts, corruption and the preferential treatment of national and international economic actors. The most common conflict response tools are raiding and the blockage of water access. However, deathly encounters, destruction of property and cattle slaughtering are increasingly used to gain access to water and land.
The insufficient implementation of the political system and the governments’ prioritization to foster economic development results, on the one hand, in the commercialization of water resources and increases, on the other hand, non-violent conflict between national and sub-national political actors. While corruption, economic favours and patronage defuse this conflict, resource access becomes more difficult for the local population. Resulting thereof, a final hypothesis is developed which states that the localization of the political conflict aggravates the water situation for the local population and, thereby, favours violent conflicts over water access and water use in water-rich areas.
Das Web ist ein wesentlicher Bestandteil der Transformation unserer Gesellschaft in das digitale Zeitalter. Wir nutzen es zur Kommunikation, zum Einkaufen und für unsere berufliche Tätigkeit. Der größte Teil der Benutzerinteraktion im Web erfolgt über Webseiten. Daher sind die Benutzbarkeit und Zugänglichkeit von Webseiten relevante Forschungsbereiche, um das Web nützlicher zu machen. Eyetracking ist ein Werkzeug, das in beiden Bereichen hilfreich sein kann. Zum einen um Usability-Tests durchzuführen, zum anderen um die Zugänglichkeit zu verbessern. Es kann verwendet werden, um die Aufmerksamkeit der Benutzer auf Webseiten zu verstehen und Usability-Experten in ihrem Entscheidungsprozess zu unterstützen. Darüber hinaus kann Eyetracking als Eingabemethode zur Steuerung einer Webseite verwendet werden. Dies ist besonders nützlich für Menschen mit motorischen Beeinträchtigungen, die herkömmliche Eingabegeräte wie Maus und Tastatur nicht benutzen können. Allerdings werden Webseiten aufgrund von Dynamiken, d. h. wechselnden Inhalten wie animierte Menüs und Bilderkarussells, immer komplexer. Wir brauchen allgemeine Ansätze zum Verständnis der Dynamik auf Webseiten, die eine effiziente Usability-Analyse und eine angenehme Interaktion mit Eyetracking ermöglichen. Im ersten Teil dieser Arbeit berichten wir über unsere Forschung zur Verbesserung der blickbasierten Analyse von dynamischen Webseiten. Eyetracking kann verwendet werden, um die Blicke von Nutzern auf Webseiten zu erfassen. Die Blicke zeigen einem Usability-Experten, welche Teile auf der Webseite gelesen, überflogen oder übersprungen worden sind. Die Aggregation von Blicken ermöglicht einem Usability-Experten allgemeine Eindrücke über die Aufmerksamkeit der Nutzer, bevor sie sich mit dem individuellen Verhalten befasst. Dafür müssen alle Blicke entsprechend des von den Nutzern erlebten Inhalten verstanden werden. Die Benutzererfahrung wird jedoch stark von wechselnden Inhalten beeinflusst, da diese einen wesentlichen Teil des angezeigten Bildes ausmachen können. Wir grenzen unterschiedliche Zustände von Webseiten inklusive wechselnder Inhalte ab, so dass Blicke von mehreren Nutzern korrekt aggregiert werden können. Im zweiten Teil dieser Arbeit berichten wir über unsere Forschung zur Verbesserung der blickbasierten Interaktion mit dynamischen Webseiten. Eyetracking kann verwendet werden, um den Blick während der Nutzung zu erheben. Der Blick kann als Eingabe zur Steuerung einer Webseite interpretiert werden. Heutzutage wird die Blicksteuerung meist zur Emulation einer Maus oder Tastatur verwendet, was eine komfortable Bedienung erschwert. Es gibt wenige Webbrowser-Prototypen, die Blicke direkt zur Interaktion mit Webseiten nutzen. Diese funktionieren außerdem nicht auf dynamischen Webseiten. Wir haben eine Methode entwickelt, um Interaktionselemente wie Hyperlinks und Texteingaben effizient auf Webseiten mit wechselnden Inhalten zu extrahieren. Wir passen die Interaktion mit diesen Elementen für Eyetracking an, so dass ein Nutzer bequem und freihändig im Web surfen kann. Beide Teile dieser Arbeit schließen mit nutzerzentrierten Evaluationen unserer Methoden ab, wobei jeweils die Verbesserungen der Nutzererfahrung für Usability-Experten bzw. für Menschen mit motorischen Beeinträchtigungen untersucht werden.
ZUSAMMENFASSUNG
Gebäude und Infrastrukturen prägen das Bild unserer Kulturlandschaften und erbringen essentielle Dienstleistungen für die menschliche Gesellschaft. Sie wirken sich jedoch auch unweigerlich auf die natürliche Umwelt aus, z.B. durch die strukturelle Veränderung von Lebensräumen. Überdies gelten sie aufgrund der Freisetzung chemischer Inhaltsstoffe aus den eingesetzten Baumaterialien als potentielle Verursacher negativer Umweltauswirkungen. Galvanische Anoden und organische Beschichtungen, die an Stahlbauwerken regelmäßig zum Schutz vor Korrosion zum Einsatz kommen, sind als Baumaterialien für die Verkehrsinfrastruktur von besonderer Bedeutung. In direktem Kontakt mit einem Wasserkörper oder indirekt über den Abfluss nach einem Niederschlagsereignis können zahlreiche Chemikalien in aquatische Lebensräume emittiert werden und eine Gefahr für Wasserorganismen darstellen. Zur Beurteilung der Umweltverträglichkeit von Bauprodukten existiert bislang kein einheitlicher Untersuchungs- und Bewertungsansatz. Zudem stellen galvanische Anoden und organische Beschichtungen aufgrund ihrer Zusammensetzung besondere Herausforderungen an deren ökotoxikologische Charakterisierung. Ziel der vorliegenden Arbeit war es daher, die Gefährdung der aquatischen Umwelt durch galvanische Anoden und Korrosionsschutzbeschichtungen mithilfe ökotoxikologischer Untersuchungen zu beurteilen und standardisierte Bewertungsverfahren für diese Materialien zu entwickeln.
Die Untersuchung des möglichen Umwelteinflusses durch die Anwendung von Anoden an Offshore-Anlagen erfolgte auf drei trophischen Ebenen. Um eine möglichst realistischste und zuverlässige Abschätzung zu gewährleisten, wurden die Experimente in natürlichem Meerwasser und unter natürlichen pH-Bedingungen durchgeführt. Zudem erfolgte die Exposition gegenüber dem Anodenmaterial und deren Hauptbestandteilen Zink und Aluminum unter Simulation eines Worst-Case-Szenarios. Das untersuchte Anodenmaterial verursachte eine schwache Hemmung des Algenwachstums; auf die getesteten Leuchtbakterien und Flohkrebse zeigte es keine akute Toxizität. Allerdings wurde eine Erhöhung der Aluminium- und Indiumgehalte in den Krebsen festgestellt. Auf Grundlage dieser Ergebnisse wurde keine direkte Gefahr für marine Organismen durch den Einsatz galvanischer Aluminium-Anoden identifiziert. Eine Anreicherung von Metallen in Krebstieren und ein daraus resultierender Eintrag ins marine Nahrungsnetz kann jedoch nicht ausgeschlossen werden.
Die Umweltverträglichkeit organischer Beschichtungssysteme wurde exemplarisch für eine Auswahl relevanter Produkte auf Basis von Epoxidharzen (EP) und Polyurethanen bewertet. Dazu wurden beschichtete Probeplatten schrittweise über 64 Tage ausgelaugt. Die gewonnenen Eluate wurden systematisch auf ihre ökotoxikologischen Effekte (akute Toxizität gegenüber Algen und Leuchtbakterien, mutagene und estrogenartige Wirkungen) und chemische Zusammensetzung analysiert. Dabei zeigten sich insbesondere die EP-basierten Beschichtungen durch die Verursachung erheblicher bakterieller Toxizität und estrogenartiger Wirkung auffällig. Als primärer Urheber dieser Effekte wurde das kontinuierlich freigesetzte 4-tert-Butylphenol identifiziert, dessen Konzentration in allen Proben die predicted no effect concentration für Süßwasser überschritt. Gleichzeitig hat sich gezeigt, dass die Gesamttoxizität nicht durch den Gehalt an 4-tert-Butylphenol in den Produkten bestimmt wird, sondern vom Freisetzungsmechanismus dieser Verbindung aus den untersuchten Polymeren abhängig ist. Diese Ergebnisse deuten darauf hin, dass eine Optimierung der Zusammensetzung, beispielsweise aufgrund einer besseren Polymerisation der Inhaltsstoffe, zu einer Reduzierung von Emissionen und damit zu einer verminderten Belastung der Umwelt führen kann.
Regen, Temperaturwechsel und Sonneneinstrahlung können zur Verwitterung polymerer Korrosionsschutzbeschichtungen führen. Um den Einfluss lichtbedingter Alterung auf die Ökotoxizität von Deckbeschichtungen zu erfassen, wurde die Emissionen und damit verbundene negative Auswirkungen von UV-bestrahlten und unbehandelten EP-basierten Produkten miteinander verglichen. Nach statischer Auslaugung stand dabei die Untersuchung estrogenartiger und bakterien-toxischer Wirkungen im Fokus, die sowohl im klassischen Mikrotiterplattenformat als auch in Kopplung mit Dünnschichtplatten detektiert wurden. Beide untersuchten Materialien zeigten nach Bestrahlung eine signifikante Abnahme der ökotoxikologischen Effekte bei gleichzeitiger Verringerung der Freisetzung von 4-tert-Butylphenol. Jedoch wurden auch Bisphenol A und verschiedene Strukturanaloga als photolytische Abbauprodukte der Polymere nachgewiesen, die ebenfalls zur beobachteten Wirkung beitrugen. Die Identifizierung bioaktiver Inhaltsstoffe konnte dabei durch die erfolgreiche Kombination der in-vitro-Bioassays mit chemischen Analysen im Sinne einer effektgeleiteten Analytik unterstützt werden. Die vorliegenden Ergebnisse liefern wichtige Hinweise für die Beurteilung der generellen Eignung von Deckbeschichtungen auf Basis von Epoxidharzen.
Das im Rahmen der vorliegenden Studie entwickelte Untersuchungskonzept konnte erfolgreich auf eine Auswahl relevanter Baumaterialien angewendet werden. Die gezielte Anpassung einzelner Standardmethoden erlaubte dabei eine individuelle Produktbewertung. Gleichzeitig wurde sowohl die Zweckmäßigkeit der angewendeten ökotoxikologischen Methoden für die Untersuchung von Materialien unbekannter und komplexer Zusammensetzung bestätigt als auch die Basis für eine systematische Bewertung der Umweltverträglichkeit von Korrosionsschutzprodukten geschaffen. Vor dem Hintergrund der Europäischen Bauprodukteverordnung kann der gewählte Ansatz dem einfachen Vergleich verschiedener Baumaterialien z.B. innerhalb einer Produktgruppe dienen und damit die Auswahl umweltverträglicher Produkte vereinfachen und zur Optimierung einzelner Rezepturen beitragen.
Method development for the quantification of pharmaceuticals in aqueous environmental matrices
(2021)
Als Folge des Weltbevölkerungswachstums und des daraus resultierenden Wassermangels ist das Thema Wasserqualität zunehmend im Fokus der Öffentlichkeit. In diesem Kontext stellen anthropogene organische Stoffe - oft als Mikroschadstoffe bezeichnet - eine Bedrohung für die Wasserressourcen dar. Besonders Pharmazeutika werden aufgrund ihrer permanenten Einleitung, ihres steigenden Verbrauchs und ihrer wirkungsbasierten Strukturen mit besonderer Besorgnis diskutiert. Pharmazeutika werden hauptsächlich über Kläranlagen in die Umwelt eingeleitet, zusammen mit ihren Metaboliten und den vor Ort gebildeten Transformationsprodukten (TPs). Wenn sie die aquatische Umwelt erreichen, verteilen sie sich zwischen den verschiedenen Umweltkompartimenten, insbesondere der Wasserphase, Schwebstoffen (SPM) und Biota. In den letzten Jahrzehnten wurden Pharmazeutika in der Wasserphase umfassend untersucht. Allerdings wurden extrem polare Pharmazeutika aufgrund des Mangels an robusten Analysemethoden nur selten überwacht. Zudem wurden Metaboliten und TPs selten in Routineanalysemethoden einbezogen, obwohl ihre Umweltrelevanz nachgewiesen ist. Darüber hinaus wurden Pharmazeutika nur sporadisch in SPM und Biota untersucht und es fehlen adäquate Multi-Analyt-Methoden, um umfassende Ergebnisse über ihr Vorkommen in diesen Matrices zu erhalten. Die vorliegende Arbeit wird, diese Wissenslücken durch die Entwicklung generischer Multi-Analyt-Methoden zur Bestimmung von Pharmazeutika in der Wasserphase, SPM und Biota geschlossen und das Vorkommen und die Verteilung von Pharmazeutika in diesen Kompartimenten bewertet. Für einen vollständigen Überblick wurde ein besonderer Schwerpunkt auf polare Pharmazeutika, pharmazeutische Metaboliten und TPs gelegt. Insgesamt wurden drei innovative Multi-Analyt-Methoden entwickelt, deren Analyten ein breites Spektrum an physikalisch-chemischen Eigenschaften abdecken. Zuerst wurde eine zuverlässige Multi-Analyt-Methode entwickelt um extrem polare Pharmazeutika, deren Metaboliten und TPs in wässrigen Umweltproben zu untersuchen. Die ausgewählten Analyten deckten einen signifikanten Bereich erhöhter Polarität ab und die Methode ist leicht um weitere Analyten erweiterbar. Diese Vielseitigkeit konnte durch die Verwendung der Gefriertrocknung als Probenvorbereitung und der zwitterionischen Hydrophile Interaktionschromatographie (HILIC) im Gradientenelutionsmodus erreicht werden. Die Eignung der HILIC-Chromatographie zur gleichzeitigen Quantifizierung einer großen Bandbreite von Mikroschadstoffe in wässrigen Umweltproben wurde gründlich untersucht. Es wurde auf mehrere Einschränkungen hingewiesen: eine sehr komplexe und zeitaufwändige Methodenentwicklung, eine sehr hohe Empfindlichkeit hinsichtlich der Änderung des Acetonitril-Wasser-Verhältnisses im Eluenten oder im Verdünnungsmittel und hohe positive Matrixeffekte für bestimmte Analyten. Diese Einschränkungen können jedoch durch die Verwendung eines präzisen Protokolls und entsprechend markierter interner Standards überwunden werden und werden durch die Vorteile von HILIC, die die chromatographische Trennung von extrem polaren Mikroverunreinigungen ermöglicht, überkompensiert. Die Untersuchung von Umweltproben zeigte erhöhte Konzentrationen der Analyten in der Wasserphase. Insbesondere Gabapentin, Metformin, Guanylharnstoff und Oxypurinol wurden bei Konzentrationen im µg/LBereich im Oberflächenwasser gemessen. Für die Bestimmung von 57 Pharmazeutika und 47 Metaboliten und TPs, die an SPM sorbiert sind, wurde anschließend eine verlässliche Multi-Analyt-Methode etabliert, die eine Quantifizierung bis in den niedrigen ng/g-Bereich erlaubt. Diese Methode wurde konzipiert, um einen großen Polaritätsbereich abzudecken, insbesondere unter Einbeziehung extrem polarer Pharmazeutika. Das Extraktionsverfahren basierte auf einer Druckflüssigkeitsextraktion (PLE), gefolgt von einer Reinigung durch Lösungsmittelaustausch und Detektion durch direkte Injektion-Umkehrphasen-LCMS/MS und Gefriertrocknung-HILIC-MS/MS. Das Sorptionspotential der Pharmazeutika wurde anhand von Laborexperimenten untersucht. Abgeleitete Verteilungskoeffizienten Kd variierten um fünf Größenordnungen unter den Analyten und bestätigten ein hohes Sorptionspotential für positiv geladene und unpolare Pharmazeutika. Das Vorkommen von Pharmazeutika in SPM deutscher Flüsse wurde durch die Untersuchung jährlicher Mischproben bewertet, die zwischen 2005 und 2015 an vier Standorten am Rhein und einem Standort an der Saar entnommen wurden. Dabei zeigte sich das ubiquitäre Vorkommen von an SPM sorbierten Pharmazeutika in diesen Flüssen. Insbesondere positiv geladene Analyten, auch sehr polare und unpolare Pharmazeutika zeigten nennenswerte Konzentrationen. Für viele Pharmazeutika wurde eine deutliche Korrelation zwischen den jährlich in Deutschland konsumierten Mengen und den in SPM gemessenen Konzentrationen festgestellt. Untersuchungen der zusammengesetzten räumlichen Verteilung von SPM erlaubten es, durch den Vergleich der Verschmutzungsmuster entlang des Flusses Hinweise auf spezifische industrielle Einleitungen zu erhalten. Diese Ergebnisse zeigten zum ersten Mal das Potential von SPM für die Überwachung von positiv geladenen und unpolaren Pharmazeutika in Oberflächengewässern. Für Pharmazeutika mit erhöhter Sorptionsaffinität (Kd uber 500 L/kg) erlauben SPM-Analysen sogar die Überwachung niedrigerer Emissionen. Schließlich wurde eine zuverlässige und generische Multi-Analyt-Methode zur Untersuchung von 35 Pharmazeutika und 28 Metaboliten und TPs in Fischplasma, Fischleber und Fischfilet entwickelt. Für diese Matrix war es eine große Herausforderung eine adäquate Aufreinigung zu entwickeln, die eine ausreichende Trennung der störenden Matrix von den Analyten ermöglicht. Bei der endgültigen Methode wurde die Extraktion von Fischgewebe durch Zellaufschluss durchgeführt, gefolgt von einem nicht diskriminierenden Clean-up auf der Basis von Kieselgel-Festphasenextraktion (SPE) und Materialien mit eingeschränkter Zugänglichkeit (RAM). Die Anwendung der entwickelten Methode auf die Messung von Brassen- und Karpfengeweben aus deutschen Flüssen zeigte, dass selbst polare Mikroverunreinigungen wie z.B. Pharmazeutika in Fischgeweben ubiquitär vorhanden sind. Insgesamt wurden 17 Analyten zum ersten Mal in Fischgewebe nachgewiesen, darunter 10 Metaboliten/TPs. Die Bedeutung der Überwachung von Metaboliten und TPs in Fischgeweben wurde durch deren Nachweis in ähnlichen Konzentrationen wie bei ihren Ausgangsstoffe bestätigt. Es zeigte sich, dass Leber und Filet für die Überwachung von Pharmazeutika in Fischen geeignet ¨ sind, während Plasma aufgrund sehr niedriger Konzentrationen und erschwerter Probenahme ungeeignet ist. Erhöhte Konzentrationen bestimmter Metaboliten deuten auf eine mögliche Bildung menschlicher Metaboliten in Fischen hin. Die gemessenen Konzentrationen weisen jedoch auf ein geringes Bioakkumulationspotential für Pharmazeutika in Fischgeweben hin.
Viele chemische Verbindungen, einschließlich Spurenelemente aus natürlichen und anthropogenen Quellen, verbleiben temporär oder endgültig in den Sedimenten der Oberflächengewässer. Ob diese als Quelle oder Senke von Metallen und Metalloiden (Metall(oid)e) fungieren, hängt von der Dynamik der biogeochemischen Prozesse ab, die an der Wasser-Sediment-Grenzschicht (sediment water interface - SWI) ablaufen. Wichtige Informationen zu biogeochemischen Prozessen sowie zur Exposition, zum Verbleib und zum Transport von Schadstoffen an der SWI lassen sich durch die Ermittlung von Konzentrationsprofilen im Sedimentporenwasser gewinnen. Dabei besteht die Herausforderung zum einen darin eine räumliche Auflösung zu realisieren, die es erlaubt, bestehende Gradienten adäquat zu erfassen und zu gleich hinreichend viele Parameter aufzunehmen, um die komplexen Prozesse zu verstehen. Zum anderen gilt es die Bildung von Probenahme-Artefakten zu verhindern, die durch die labile Natur der SWI sowie die steilen biogeochemischen Gradienten verursacht werden.
Vor diesem Hintergrund wurde im ersten Teil dieser Arbeit ein System zur automatisierten, minimal-invasiven Untersuchung der SWI entwickelt und erprobt. Das System ermöglicht die Beprobung des Sedimentporenwassers ungestörter oder manipulierter Sedimente bei gleichzeitiger Erfassung von Parametern wie Redoxpotential, Sauerstoffgehalt und pH-Wert. Im Rahmen eines Inkubationsexperimentes wurde der Einfluss von Versauerung und mechanischer Störung (Resuspension) auf die Mobilität von 13 Metall(oid)en untersucht, die mittels Tripel-Quadrupol induktiv gekoppelter Plasma-Massenspektrometrie (ICP-QQQ-MS) quantifiziert wurden. Während die meisten Metalle in Folge von Sulfid-Verwitterung freigesetzt wurden hatte die mechanische Störung einen großen Einfluss auf die Mobilität der oxidbildenden Elemente As, Mo, Sb, U und V. Zusätzlich wurde gezeigt, dass das Probenahme-System zudem Optionen zur Untersuchung der Größenfraktionierung von Metall(oid)en sowie der Speziierung von As(III/V) und Sb(III/V) bietet.
Im zweiten Teil dieser Arbeit wurde der Fokus - mit einem ähnlichen experimentellen Design - auf die Prozesse gelegt, die zur Freisetzung von Metall(oid)en führen. Zu diesem Zweck wurden zwei Inkubationsexperimente mit unterschiedlicher Sauerstoffversorgung parallel durchgeführt. Erstmals wurden mittels ICP-QQQ-MS die Nichtmetalle Kohlenstoff, Phosphor und Schwefel in einem Analyselauf gemeinsam mit 13 Metall(oid)en in Sedimentporenwasser quantifiziert. Die Größenfraktionierung der Metall(oid)e wurde über den gesamten Verlauf der Experimente überwacht. Es bestätigte sich, dass Sediment-Resuspension die Mobilität von Metalloiden wie As, Sb und V fördert, während die Freisetzung der meisten Metalle weitgehend auf die Verwitterung von Pyrit zurückzuführen war. Der kolloidale Beitrag (0,45 - 16 μm) zur Mobilisierung war nur für wenige Elemente relevant.
Schließlich wurde das Probenahmesystem im Rahmen eines neuen Ansatzes zur Sedimentbewertung eingesetzt. Dabei wurden ungestörte Sedimentkerne unterschiedlich kontaminierter Positionen im Trave-Ästuar untersucht und neben 16 Metall(oid)en, die Nichtmetalle C, P und S sowie die Ionen NH4+, PO43- und SO42- berücksichtigt. Durch den ersten umfangreichen Vergleich mit in-situ Dialyse-basierter Porenwasserbeprobung wurde die Eignung des entwickelten Ansatzes zur Erfassung der Feldbedingungen nachgewiesen. Die Porenwasseruntersuchungen zusammen mit ergänzenden Resuspensionsexperimenten in biogeochemischen Mikrokosmen und sequentieller Extraktion ergaben, dass das am geringsten „belastetste“ Sediment des Untersuchungsgebiets das größte Risiko für die Freisetzung von Metall(oid)en darstellt. Jedoch betrugen die potenziell freigesetzten Mengen je kg Sediment nur wenige Promille der durchschnittlichen täglichen Fracht der Trave.
David Hume und John Dewey
(2021)
In dieser vergleichenden Untersuchung werden die Philosophien David Humes und John Deweys gegenübergestellt. Es werden sämtliche philosophischen und wissenschaftlichen Disziplinen, denen sich beide Denker gewidmet haben, einbezogen: Anthropologie, Bewusstseinstheorie, Psychologie, Erkenntnistheorie, Ethik (Moralphilosophie), Politik, Ökonomie, Soziologie, Sozialphilosophie, Geschichtswissenschaft und Religionswissenschaft. Dabei wird thesengeleitet vorgegangen.
- Pragmatismus-These: David Hume sei Pragmatist avant la lettre gewesen.
- Begriffs-These: Begriffe (hier etwa nature und experience) seien breit genug zu fassen, um mit ihnen zielführend zu operieren.
- Quasi-System-These: Die Vielfalt der philosophischen und wissenschaftlichen Disziplinen, mit denen sich beide Denker befassten, bilde jeweils ein System, ohne als solches angelegt worden zu sein.
- Klassik-These: Es sei ergiebig, sich mit Philosophen zu beschäftigen, die bislang noch nicht oder kaum verglichen wurden, da es neben Entsprechungen, Ähnlichkeiten und Weiterentwicklungsmöglichkeiten auch Lerneffekte aus Überwindungen und Differenzen gebe.
- Instrumentalismus-These: Deweys Philosophie sei dem Streben nach Lösungen für das praktische soziale Zusammenleben dienlich.
Benannte Disziplinen werden einzeln in der folgenden Reihenfolge behandelt:
1) David Humes Gedanken
2) John Deweys Gedanken
3) Prüfung, inwieweit sich Dewey auf Hume direkt oder indirekt bezog
4) Verbindungslinien zwischen den Gedanken beider Philosophen
Diesen Untersuchungsschwerpunkten werden vorgelagert bzw. beigestellt:
- Ausführliche Begriffsarbeit, insbesondere zu den „Ismen“, welche man beiden Denkern zurechnet: Empirismus, Pragmatismus/Pragmatiszismus, Skeptizismus, Naturalismus. Der Verfasser geht dabei auch Bezüge dieser Ismen untereinander ein.
- Die Philosophie William James‘ als eventueller Verbindung zwischen Hume und Dewey
- Der Darwinismus als möglicher missing link zwischen beiden Denkern
- Die Thematik Willensfreiheit/Determinismus als Scharnierstelle zwischen theoretischer und praktischer Philosophie
Als Hauptsäulen seiner Untersuchung arbeitet der Verfasser folgende Konzeptionen heraus.
- Den „pragmatistic turn“, mit dem der Verfasser aussagt, dass Hume durch die unterschiedliche Behandlung seiner skeptischen Denkergebnisse in seinen Hauptwerken Treatise und Enquiry Pragmatist avant la lettre gewesen sei
- Die Idee des „Instrumentalismus zu einem höheren Zweck“, gemäß dem Dewey (und im Effekt auch Hume) zwar instrumentalistisch operierte (was ihm u. a. von Horkheimer vorgeworfen wurde), diesen Instrumentalismus selbst aber dem höheren Zweck der sozialen Gemeinschaft untergeordnet habe.
Als Nebenergebnisse der Arbeit (neben der systematischen Prüfung der Thesen in allen benannten Disziplinen) entstanden Reflexionen über
- Kreativität
- Kommunikation
- Kultur
- Natur
- Meliorismus, Kommunitarismus und Voluntarismus
- Die Stellung der Philosophie in Bezug zu geistes-, natur- und Sozialwissenschaften
- Rekonstruktion,
jeweils in Bezug zum Werk beider Denker.
Darüber hinaus werden die Biographien beider als „Faktor Existenz und Authentizität“ mit Blick auf die jeweilige Entsprechung zwischen Leben und Werk ausgewertet.
Die vorliegende Arbeit umfasst die Auswertung des jeweils umfangreichen Gesamtwerkes sowohl von Hume als auch von Dewey und bezieht den aktuellen Stand der Sekundärliteratur mit ein.
Die bisherige Forschungslage zu einem Vergleich zwischen den beiden Philosophen ist sehr spärlich; diese Arbeit ist in diesem Sinne innovativ im Themenbezug.
Ergebnis der Untersuchung ist, dass in nicht wenigen Teilbereichen große Entsprechungen beider Philosophien vorhanden sind. Aber auch durch Unterschiede und bislang nicht weiterverfolgte Interpretationsansätze werden mögliche Denklinien in der Bewertung beider Philosophien und in der Betrachtung des Bezugs zwischen klassischem Empirismus und dem Pragmatismus sichtbar gemacht.
Rivers play an important role in the global water cycle, support biodiversity and ecological integrity. However, river flow and thermal regimes are heavily altered in dammed rivers. These impacts are being exacerbated and become more apparent in rivers fragmented by multiple dams. Recent studies mainly focused on evaluating the cumulative impact of cascade reservoirs on flow or thermal regimes, but the role of upstream reservoirs in shaping the hydrology and hydrodynamics of downstream reservoirs remains poorly understood. To improve the understanding of the hydrodynamics in cascade reservoirs, long-term observational data are used in combination with numerical modeling to investigate the changes in flow and thermal regime in three cascade reservoirs at the upper reach of the Yangtze River. The three studied reservoirs are Xiluodu (XLD), Xiangjiaba (XJB) and Three Gorges Reservoir (TGR). In addition, the effects of single reservoir operation (at seasonal/daily time scale) on hydrodynamics are examined in a large tributary of TGR. The results show that the inflow of TGR has been substantially altered by the two upstream reservoirs with a higher discharge in spring and winter and a reduced peak flow in summer. XJB had no obvious contribution to the variations in inflow of TGR. The seasonal water temperature of TGR was also widely affected by the upstream two reservoirs, i.e., an increase in winter and decrease in spring, associated with a delay in water temperature rise and fall. These effects will probably be intensified in the coming years due to the construction of new reservoirs. The study also underlines the importance of reservoir operation in shaping the hydrodynamics of TGR. The seasonal dynamics of density currents in a tributary bay of TGR are closely related to seasonal reservoir operations. In addition, high-frequency water level fluctuations and flow velocity variations were observed in response to periodic tributary bay oscillations, which are driven by the diurnal discharge variations caused by the operation of TGR. As another consequence of operation of cascade reservoirs, the changes in TGR inflow weakened spring thermal stratification and caused warming in spring, autumn and winter. In response to this change, the intrusions from TGR occurred more frequently as overflow and earlier in spring, which caused a sharp reduction in biomass and frequency of phytoplankton blooms in tributary bays of TGR. This study suggests that high-frequency bay oscillations can potentially be used as an efficient management strategy for controlling algal blooms, which can be included in future multi-objective ecological conservation strategies.
Die voranschreitende Vernetzung von Fahrzeugen wird einen erheblichen Einfluss auf die Mobilitätslösungen von Morgen haben. Solche Systeme werden stark auf den zeitnahen Austausch von Informationen angewiesen sein, um die funktionale Zuverlässigkeit, Sicherheit von Fahrfunktionen und somit den Schutz von Insassen zu gewährleisten. Allerdings zeigt sich bei näherer Betrachtung der verwendeten Kommunikationsmodelle heutiger Netzwerke, wie beispielsweise dem Internet, dass diese Modelle einem host-zentrierten Prinzip folgen. Dieses Prinzip stellt das Management von Netzwerken mit einem hohen Grad an mobilen Teilnehmern vor große Herausforderungen hinsichtlich der effizienten Verteilung von Informationen. In den vergangen Jahren hat sich das Information-Centric Networking (ICN) Paradigma als vielversprechender Kandidat für zukünftige datenorientierte mobile Netzwerke empfohlen. Basierend auf einem lose gekoppelten Kommunikationsmodell unterstzützt ICN Funktionen wie das Speichern und Verarbeiten von Daten direkt auf der Netzwerkschicht. Insbesondere das aktive, gezielte Platzieren von Daten nahe der Benutzer stellt einen vielversprechenden Ansatz zur Erhöhung der Datenbereitstellung in mobilen Netzen dar. Die vorliegende Arbeit legt den Fokus auf die Erforschung von Strategien zum orchestrieren und aktiven Platzieren von Daten für Fahrzeuganwendungen im Netzwerk für mobile Teilnehmer. Im Rahmen einer Analyse unterschiedlicher Fahrzeugapplikationen und deren Anforderungen, werden neue Strategien für das aktive Platzieren vorgestellt. Unter Verwendung von Netzwerksimulationen werden diese Strategien umfangreich untersucht und in im Rahmen eines prototypischen Aufbaus unter realen Bedingungen ausgewertet. Die Ergebnisse zeigen Verbesserungen in der zeitnahen Zustellung von Inhalten (die Verfügbarkeit spezifischer Daten wurde im Vergleich zu existierenden Strategien um bis zu 35% erhöht), während die Auslieferungszeiten verkürzt wurden. Allerdings bedingt das aktive Platzieren und Speichern von Daten auch Risiken der Datensicherheit und Privatsphäre. Auf der Basis einer Sicherheitsanalyse stellt der zweite Teil der Arbeit ein Konzept zur Zugriffskontrolle von gespeicherten Daten in verteilten Fahrzeugnetzwerken vor. Abschließend werden offene Problemstellungen und Forschungsrichtungen im Kontext Sicherheit von verteilten Berechnungsarchitekturen für vernetze Fahrzeugnetzwerke diskutiert.
Der Wettbewerb um die besten Technologien zur Realisierung des autonomen Fahrens ist weltweit in vollem Gange.
Trotz großer Anstrengungen ist jedoch die autonome Navigation in strukturierter und vor allem unstrukturierter Umgebung bisher nicht gelöst.
Ein entscheidender Baustein in diesem Themenkomplex ist die Umgebungswahrnehmung und Analyse durch passende Sensorik und entsprechende Sensordatenauswertung.
Insbesondere bildgebende Verfahren im Bereich des für den Menschen sichtbaren Spektrums finden sowohl in der Praxis als auch in der Forschung breite Anwendung.
Dadurch wird jedoch nur ein Bruchteil des elektromagnetischen Spektrums genutzt und folglich ein großer Teil der verfügbaren Informationen zur Umgebungswahrnehmung ignoriert.
Um das vorhandene Spektrum besser zu nutzen, werden in anderen Forschungsbereichen schon seit Jahrzehnten \sog spektrale Sensoren eingesetzt, welche das elektromagnetische Spektrum wesentlich feiner und in einem größeren Bereich im Vergleich zu klassischen Farbkameras analysieren. Jedoch können diese Systeme aufgrund technischer Limitationen nur statische Szenen aufnehmen. Neueste Entwicklungen der Sensortechnik ermöglichen nun dank der \sog Snapshot-Mosaik-Filter-Technik die spektrale Abtastung dynamischer Szenen.
In dieser Dissertation wird der Einsatz und die Eignung der Snapshot-Mosaik-Technik zur Umgebungswahrnehmung und Szenenanalyse im Bereich der autonomen Navigation in strukturierten und unstrukturierten Umgebungen untersucht. Dazu wird erforscht, ob die aufgenommen spektralen Daten einen Vorteil gegenüber klassischen RGB- \bzw Grauwertdaten hinsichtlich der semantischen Szenenanalyse und Klassifikation bieten.
Zunächst wird eine geeignete Vorverarbeitung entwickelt, welche aus den Rohdaten der Sensorik spektrale Werte berechnet. Anschließend wird der Aufbau von neuartigen Datensätzen mit spektralen Daten erläutert. Diese Datensätze dienen als Basis zur Evaluation von verschiedenen Klassifikatoren aus dem Bereich des klassischen maschinellen Lernens.
Darauf aufbauend werden Methoden und Architekturen aus dem Bereich des Deep-Learnings vorgestellt. Anhand ausgewählter Architekturen wird untersucht, ob diese auch mit spektralen Daten trainiert werden können. Weiterhin wird die Verwendung von Deep-Learning-Methoden zur Datenkompression thematisiert. In einem nächsten Schritt werden die komprimierten Daten genutzt, um damit Netzarchitekturen zu trainieren, welche bisher nur mit RGB-Daten kompatibel sind. Abschließend wird analysiert, ob die hochdimensionalen spektralen Daten bei der Szenenanalyse Vorteile gegenüber RGB-Daten bieten
Die Biodiversität von Vertebraten nimmt weltweit rapide ab, wobei Amphibien die am stärksten gefährdete Wirbeltiergruppe darstellen. In der EU sind 21 von 89 Amphibienarten bedroht. Die intensiv genutzte europäische Agrarlandschaft ist eine der Hauptursachen für diese Rückgänge. Da die Agrarlandschaft einen bedeutenden Lebensraum für Amphibien darstellt, kann die Exposition zu Pestiziden negative Auswirkungen auf Amphibienpopulationen haben. Derzeit erfordert die europäischen Risikobewertung von Pestiziden für Vertebraten spezifische Ansätze für Fische hinsichtlich der aquatischen Vertebratentoxizität und für Vögel sowie Säugetiere in Bezug auf die terrestrische Vertebratentoxizität. Die besonderen Eigenschaften von Amphibien werden jedoch nicht berücksichtigt. Daher war das übergeordnete Ziel dieser Arbeit, die
ökotoxikologischen Effekte von Pestiziden auf mitteleuropäische Froschlurche zu untersuchen. Dazu wurden Effekte auf aquatische und terrestrische Amphibienstadien sowie auf deren Reproduktion untersucht. Anschließend wurden in dieser Arbeit in Erwartung einer Risikobewertung von Pestiziden für Amphibien mögliche regulatorische Risikobewertungsansätze diskutiert.
Für die untersuchten Pestizide und Amphibienarten wurde festgestellt, dass die akute aquatische Toxizität von Pestiziden mit dem bestehenden Ansatz der aquatischen Risikobewertung auf der Grundlage von Fischtoxizitätsdaten abgedeckt werden kann. Jedoch wurden bei terrestrischen Juvenilen nach dermaler Exposition zu umweltrealistischen Pestizidkonzentrationen sowohl letale als auch subletale Effekte beobachtet, die mit keinem verfügbaren Risikobewertungsansatz erfasst werden können. Daher sollten Pestizide vor der Zulassung auch auf eine potenzielle terrestrische Toxizität mit Hilfe von Risikobewertungsinstrumenten geprüft werden. Darüber hinaus müssen die Auswirkungen von Bei- und Hilfsstoffen von Pestiziden bei einer zukünftigen Risikobewertung besonders berücksichtigt werden, da sie die Toxizität von Pestiziden gegenüber aquatischen und terrestrischen Amphibienstadien erhöhen können.
Des Weiteren wurde gezeigt, dass die chronische Dauer einer kombinierten aquatischen und terrestrischen Exposition die Reproduktion von Amphibien negativ beeinflusst. Gegenwärtig
können solche Effekte von der bestehenden Risikobewertung nicht erfasst werden, da Daten aus Feldszenarien, die die Auswirkungen mehrerer Pestizide auf die Reproduktion von Amphibien abbilden, zu selten sind, um einen Vergleich mit Daten anderer terrestrischer Wirbeltiere wie Vögel und Säugetiere zu ermöglichen. In Anbetracht dieser Erkenntnisse sollten sich zukünftige Untersuchungen nicht nur mit akuten und letalen Effekten, sondern auch mit chronischen und subletalen Effekten auf Populationsebene befassen. Da sich die Exposition gegenüber Pestiziden negativ auf Amphibienpopulationen auswirken kann, sollte ihr Einsatz noch sorgfältiger überlegt werden, um einen weiteren Rückgang der Amphibien zu vermeiden. Insgesamt unterstreicht diese Arbeit die dringende Notwendigkeit einer protektiven Pestizidrisikobewertung für Amphibien, um Amphibienpopulationen in Agrarlandschaften zu erhalten und zu fördern.
Im Kontext chronischer Schmerzerkrankungen sind neben dem physischem Schmerzerleben auch Emotionen, wie Depressivität, Angst, Scham und Ärger von großer Relevanz. So leiden beispielsweise ca. 70 % der Menschen mit chronischen Schmerzen unter wiederkehrendem Ärger. Die Forschung zu spezifischen emotionsfokussierten psychologischen Behandlungsansätzen ist jedoch begrenzt. Eine Möglichkeit der Behandlung könnten sogenannte mitgefühlsbasierte Ansätze darstellen. So ist Selbstmitgefühl bei chronischem Schmerz beispielsweise assoziiert mit einer geringeren Schmerzintensität sowie geringerer physischer und emotionaler Beeinträchtigung, wie Depressivität, Angst und Ärger. In der vorliegenden Dissertation wurde die Relevanz von Selbstmitgefühl im Kontext von akutem und chronischem Schmerz unter der besonderen Berücksichtigung von Ärger evaluiert.
Zunächst wuden in einem Überblicksartikel Interventionsstudien (N = 19) zu Behandlungsansätzen von chronischen Schmerzen zusammengefasst, welche Veränderungen in Ärger oder verwandten Aspekten berichteten (Studie 1). Nur zwei der eingeschlossenen Studien untersuchten spezifische Interventionen zur Bewältigung von Ärger. Insgesamt wiesen die Studien große Unterschiede hinsichtlich der Qualität, Stichprobe, Intervention (Art, Dauer, Setting) wie auch der Messinstrumente für Ärger auf. Die vielversprechendsten Ergebnisse zeigten sich für akzeptanz- und mitgefühlsbasierte Ansätze. Als mögliche Fundierung zukünftiger Forschung wurde zudem das „Prozess Modell der Ärger-Regulation bei chronischem Schmerz“ vorgeschlagen und diskutiert.
Da sich mitgefühlsbasierte Ansätze als potentiell wirksam zur Bewältigung von Ärger erwiesen, wurde die Relevanz von Selbstmitgefühl im Kontext von chronischem Schmerz anhand einer kontrollierten Längsschnittstudie (t1: NT1 = 1228; t2: NT2 = 376) evaluiert (Studie 2 & 3). In Studie 2 wurde Selbstmitgefühl anhand der zwei Faktoren „compassionate self-responding (CS)“ und „reduced uncompassionate self-responding (RUS)“ definiert. Hierbei erwies sich CS als distinktes Konstrukt im Vergleich zu Psychologischer Inflexibilität und Selbstwert. RUS und Selbstwert schienen das gleiche latente Konstrukt zu repräsentieren. Die
Relevanz dieser Konzepte für schmerzbezogene Konzepte, wie auch Depressivität und Ärger wurde in Studie 3 überprüft. Nur RUS und nicht CS stellte hierbei einen eigenständigen Prädiktor für schmerzbezogene Aspekte dar. Psychologische Inflexibilität, genauer Vermeidungsverhalten, erwies sich zudem als Prädiktor mit breiterer Relevanz, jedoch konnte keiner der untersuchten Prädiktoren eigenständig Ärger vorhersagen.
Die Relevanz von Selbstmitgefühl zur Bewältigung von akutem Schmerz wurde in einer experimentellen Studie evaluiert (Studie 4). Die Emotionsregulationsstrategien Selbstmitgefühl, Akzeptanz und Ablenkung erwiesen sich als vergleichbar hilfreich hinsichtlich Schmerztoleranz, -Intensität und –Aversion.
Selbstmitgefühl scheint demnach auch im Kontext von Schmerz vor allem in spezifischen Kontexten oder für bestimmte Subgruppen von Bedeutung zu sein. Zukünftige Forschung sollte sich daher auf einen adaptiven Einsatz der Emotionsregulationsstrategie Selbstmitgefühl konzentrieren. Im Speziellen sollte die Wirkung von mitgefühlsbasierten Interventionen auf Ärger bei Schmerz genauer evaluiert werden.
Der Klimawandel stellt eine existenzielle Bedrohung für das menschliche Überleben, die soziale Organisation der Gesellschaft und die Stabilität der Ökosysteme dar. Er ist daher zutiefst beängstigend. Im Angesicht von Bedrohungen wollen sich Menschen häufig schützen, anstatt sich proaktiv zu verhalten. Wenn psychologische Ressourcen zur Bewältigung nicht ausreichen, reagieren Menschen oft mit verschiedenen Formen der Leugnung. Diese Dissertation leistet einen Beitrag zum Verständnis des vielschichtigen Phänomens der Klimawandelleugnung aus psychologischer Sicht.
Es gibt vier Forschungslücken in der Literatur zur Klimawandelleugnung: Erstens hat das Spektrum der Klimawandelleugnung als Selbst-schützende Reaktion auf die Klimakrise innerhalb der Psychologie bisher keine Beachtung gefunden. Zweitens wurde psychologische Grundbedürfnisbefriedigung, ein fundamentaler Indikator für menschliches Funktionieren und die Fähigkeit, mit Bedrohungen umzugehen, bisher nicht als Prädiktor für Klimawandelleugnung untersucht. Drittens sind Beziehungen des Spektrums der Klimawandelleugnung zu klimarelevanten Emotionen, insbesondere der Klimaangst, bisher nicht empirisch untersucht worden. Viertens wurde bisher nicht untersucht, wie sich das Spektrum der Klimawandelleugnung zu etablierten Prädiktoren der Klimawandelleugnung, d.h. rechtsideologischen Überzeugungen und männlichem Geschlecht, verhält. Um diese Lücken zu schließen, untersuche ich, wie sich das Spektrum der Klimawandelleugnung im deutschen Kontext manifestiert und wie es mit psychologischer Grundbedürfnisbefriedigung und -frustration, umweltfreundlichem Verhalten, Klimaangst, ideologischer Uberzeugung und Geschlecht zusammenhängt.
Fünf Manuskripte zeigen, dass Klimawandelleugnung im deutschen Kontext auf einem Spektrum existiert, das von der Verzerrung von Fakten (interpretative Leugnung, insbesondere Leugnung der persönlichen und globalen Folgenschwere) bis zur Leugnung von Implikationen reicht (implikatorische Leugnung, insbesondere Vermeidung, Leugnung von Schuld und Rationalisierung der eigenen Beteiligung). Über alle Analysen hinweg war niedrige psychologische Grundbedürfnisbefriedigung Prädiktor für das Spektrum der Klimawandelleugnung, das wiederum mit umweltfreundlichem Verhalten assoziiert war. Klimawandelleugnung stand generell in einem negativen Zusammenhang mit Klimaangst, mit Ausnahme einer positiven Assoziation von Vermeidung und Klimaangst. Rechtsideologische Überzeugung war der stärkste Prädiktor für Klimawandelleugnung über das gesamte Spektrum hinweg. Niedrige Bedürfnisbefriedigung und männliches Geschlecht waren weitere, aber schwächere Prädiktoren für implikatorische Leugnung.
Diese Ergebnisse legen nahe, dass das Spektrum der Klimawandelleugnung viele psychologische Funktionen erfüllt. Klimawandelleugnung ist möglicherweise sowohl eine Selbst-schützende Strategie, um Emotionen herunter zu regulieren, als auch um sich vor dem Verlust von Privilegien zu schützen. Kurz gesagt stellt Klimawandelleugnung eine Barriere für Klimaschutzmaßnahmen dar, die möglicherweise erst dann überwunden wird, wenn Menschen über ausreichende psychologische Ressourcen verfügen, um sich der Bedrohung durch den Klimawandel zu stellen und mit zugrundeliegenden Selbst-schützenden, emotionalen Reaktionen umzugehen.
Virtual Reality ist ein ein Bereich wachsenden Interesses, da es eine besonders intuitive Art der Benutzerinteraktion darstellt. Noch immer wird nach Lösungen zu technischen Problemstellungen gesucht, wie etwa der Latenz zwischen der Nutzereingabe und der Reaktion der Darstellung oder dem Kompromiss zwischen der visuellen Qualität und der erreichten Framerate. Dies gilt insbesondere für visuelle Effekte auf spekularen und halbtransparenten Oberflächen und in Volumen. Eine Lösung stellt das in dieser Arbeit vorgestellte verteilte Rendersystem dar, in dem die Bildsynthese in einen präzisen, aber kostenaufwändigen physikbasierten Renderthread mit niedriger Bildwiederholrate und einen schnellen Reprojektionsthread mit hoher Bildwiederholrate aufgeteilt wird, wodurch die Reaktionsgeschwindigkeit und Interaktivität erhalten bleiben. In diesem Zusammenhang werden zwei neue Reprojektionsverfahren vorgestellt, die einerseits Reflexionen und Refraktionen auf geraytracten Oberflächen und andererseits volumetrische Lichtausbreitung beim Raymarching abdecken. Das vorgestellte Setup kann in verschiedenen Gebieten zum Einsatz kommen um das VR Erlebnis zu verbessern. Im Zuge dieser Arbeit wurden drei innovative Trainingsanwendungen umgesetzt, um den Mehrwert von Virtual Reality im Bezug auf drei Stufen des Lernens zu untersuchen: Beobachtung, Interaktion und Zusammenarbeit. Für jede Stufe wurde ein interdisziplinäres Curriculum, das bislang mit traditionellen Medien unterrichtet wurde, in eine VR Umgebung übertragen, um zu untersuchen, wie gut sich virtuelle Realität als eine natürliche, flexible und effiziente Lernmethode eignet.
Typischerweise erweitern Augmented Reality (AR)-Anwendungen die Sicht des Benutzers auf die reale Welt um virtuelle Objekte.
In den letzten Jahren hat AR zunehmend an Popularität und Aufmerksamkeit gewonnen. Dies hat zu Verbesserungen der benötigten Technologien geführt. AR ist dadurch für fast jeden zugänglich geworden.
Forscher sind dem Ziel einer glaubwürdigen AR, in der reale und virtuelle Welten nahtlos miteinander verbunden sind, einen großen Schritt näher gekommen. Sie konzentrieren sich hauptsächlich auf Themen wie Tracking, Anzeige-Technologien und Benutzerinteraktion und schenken der visuellen und physischen Kohärenz bei der Kombination realer und virtueller Objekte wenig Aufmerksamkeit. Beispielsweise sollen virtuelle Objekte nicht nur auf die Eingaben des Benutzers reagieren, sondern auch mit realen Objekten interagieren. Generell wird AR glaubwürdiger und realistischer, wenn virtuelle Objekte fixiert oder verankert in der realen Szene erscheinen, sich nicht von der realen Szene unterscheiden und auf Veränderungen dieser Szene reagieren.
Diese Arbeit untersucht drei Herausforderungen im Bereich Maschinelles Sehen um dem Ziel einer glaubwürdig kombinierten Welt näher zu kommen, in der virtuelle Objekte wie reale erscheinen und sich ebenso verhalten.
Diese Dissertation konzentriert sich als erstes auf das bekannte Tracking- und Registrierungsproblem. Hierzu wird die Herausforderung von Tracking und Registrierung diskutiert und ein Ansatz vorgestellt, um die Position und den Blickpunkt des Benutzers zu schätzen, so dass virtuelle Objekte in der realen Welt fest verankert erscheinen. Linienmodelle, die dem Erscheinungsbild entsprechen und nur für Trackingzwecke relevante Kanten beinhalten, ermöglichen eine absolute Registrierung in der realen Welt und ein robustes Tracking. Einerseits ist es nicht notwendig, viel Zeit in die manuelle Erstellung geeigneter Modelle zu investieren, andererseits ist das Tracking in der Lage mit Änderungen innerhalb des zu verfolgenden Objekts oder Szene umzugehen. Versuche haben gezeigt, dass die Verwendung von solchen Linienmodellen die Robustheit, Genauigkeit und Re-initialisierungsgeschwindigkeit des Tracking-Prozesses verbessert haben.
Zweitens beschäftigt sich diese Dissertation mit dem Thema der Oberflächenrekonstruk\-tion einer realen Umgebung und präsentiert einen Algorithmus zur Optimierung einer laufenden Oberflächenrekonstruktion. Vollständige 3D-Oberflächenrekonstruktionen einer Szene
eröffnen neue Möglichkeiten um realistischere AR-Anwendungen zu erstellen. Verschiedene Interaktionen zwischen realen und virtuellen Objekten, wie Kollisionen und Verdeckungen, können physikalisch korrekt behandelt werden. Während sich die bisherigen Methoden darauf konzentrierten die Oberflächenrekonstruktionen nach einem Aufnahmeschritt zu verbessern, wird die Rekonstruktion während der Aufnahme erweitert, Löcher werden geschlossen und Rauschen wird reduziert. Um eine unbekannte Umgebung zu erkunden muss der Benutzer keine Vorbereitungen treffen. Das Scannen der Szene oder eine vorhergehende Auseinandersetzung mit der zugrundeliegenden Technologie ist somit nicht notwendig.
In Experimenten lieferte der Ansatz realistische Ergebnisse, bei denen bekannte Oberflächen für verschiedene Oberflächentypen erweitert und Löcher plausibel gefüllt wurden.
Anschließend konzentriert sich diese Dissertation auf die Behandlung von realistischen Verdeckungen zwischen realer und virtueller Welt. Hierzu wird die Herausforderung der Verdeckung als Alpha Matting Problem formuliert. Die vorgestellte Methode überwindet die Grenzen moderner Methoden, indem ein Überblendungskoeffizienten pro Pixel der gerenderten virtuellen Szene schätzt wird, anstatt nur deren Sichtbarkeit zu berechnen. In mehreren Experimenten und Vergleichen mit anderen Methoden hat sich die Verdeckungsbehandlung durch Alpha Matting als robust erwiesen und kann mit Daten, die durch preiswerte Sensoren aufgenommen wurden, umgehen. Hinsichtlich der Qualität, des Realismus und der praktischen Anwendbarkeit übertrifft die Methode die Ergebnisse von bisherigen Ansätzen.
Des Weiteren kann die Methode mit verrauschten Tiefendaten umgehen und liefert realistische Ergebnisse in Regionen, in denen Vorder- und Hintergrund nicht strikt voneinander trennbar sind (z.B. bei Objekten mit einer undeutlichen Kontur oder durch Bewegungsunschärfe).
Efficient Cochlear Implant (CI) surgery requires prior knowledge of the cochlea’s size and its characteristics. This information helps to select suitable implants for different patients. Registered and fused images helps doctors by providing more informative image that takes advantages of different modalities. The cochlea’s small size and complex structure, in addition to the different resolutions and head positions during imaging, reveals a big challenge for the automated registration of the different image modalities. To obtain an automatic measurement of the cochlea length and the volume size, a segmentation method of cochlea medical images is needed. The goal of this dissertation is to introduce new practical and automatic algorithms for the human cochlea multi-modal 3D image registration, fusion, segmentation and analysis. Two novel methods for automatic cochlea image registration (ACIR) and automatic cochlea analysis (ACA) are introduced. The proposed methods crop the input images to the cochlea part and then align the cropped images to obtain the optimal transformation. After that, this transformation is used to align the original images. ACIR and ACA use Mattes mutual information as similarity metric, the adaptive stochastic gradient descent (ASGD) or the stochastic limited memory Broyden–Fletcher–Goldfarb–Shanno (s-LBFGS) optimizer to estimate the parameters of 3D rigid transform. The second stage of nonrigid registration estimates B-spline coefficients that are used in an atlas-model-based segmentation to extract cochlea scalae and the relative measurements of the input image. The image which has segmentation is aligned to the input image to obtain the non-rigid transformation. After that the segmentation of the first image, in addition to point-models are transformed to the input image. The detailed transformed segmentation provides the scala volume size. Using the transformed point-models, the A-value, the central scala lengths, the lateral and the organ of corti scala tympani lengths are computed. The methods have been tested using clinical 3D images of total 67 patients: from Germany (41 patients) and Egypt (26 patients). The atients are of different ages and gender. The number of images used in the experiments is 217, which are multi-modal 3D clinical images from CT, CBCT, and MRI scanners. The proposed methods are compared to the state of the arts ptimizers related medical image registration methods e.g. fast adaptive stochastic gradient descent (FASGD) and efficient preconditioned tochastic gradient descent (EPSGD). The comparison used the root mean squared distance (RMSE) between the ground truth landmarks and the resulted landmarks. The landmarks are located manually by two experts to represent the round window and the top of the cochlea. After obtaining the transformation using ACIR, the landmarks of the moving image are transformed using the resulted transformation and RMSE of the transformed landmarks, and at the same time the fixed image landmarks are computed. I also used the active length of the cochlea implant electrodes to compute the error aroused by the image artifact, and I found out an error ranged from 0.5 mm to 1.12 mm. ACIR method’s RMSE average was 0.36 mm with a standard deviation (SD) of 0.17 mm. The total time average required for registration of an image pair using ACIR was 4.62 seconds with SD of 1.19 seconds. All experiments are repeated 3 times for justifications. Comparing the RMSE of ACIR2017 and ACIR2020 using paired T-test shows no significant difference (p-value = 0.17). The total RMSE average of ACA method was 0.61 mm with a SD of 0.22 mm. The total time average required for analysing an image was 5.21 seconds with SD of 0.93 seconds. The statistical tests show that there is no difference between the results from automatic A-value method and the manual A-value method (p-value = 0.42). There is no difference also between length’s measurements of the left and the right ear sides (p-value > 0.16). Comparing the results from German and Egypt dataset shows there is no difference when using manual or automatic A-value methods (p-value > 0.20). However, there is a significant difference when using ACA2000 method between the German and the Egyptian results (p-value < 0.001). The average time to obtain the segmentation and all measurements was 5.21 second per image. The cochlea scala tympani volume size ranged from 38.98 mm3 to 57.67 mm3 . The combined scala media and scala vestibuli volume size ranged from 34.98 mm 3 to 49.3 mm 3 . The overall volume size of the cochlea should range from 73.96 mm 3 to 106.97 mm 3 . The lateral wall length of scala tympani ranged from 42.93 mm to 47.19 mm. The organ-of-Corti length of scala tympani ranged from 31.11 mm to 34.08 mm. Using the A-value method, the lateral length of scala tympani ranged from 36.69 mm to 45.91 mm. The organ-of-Corti length of scala tympani ranged from 29.12 mm to 39.05 mm. The length from ACA2020 method can be visualised and has a well-defined endpoints. The ACA2020 method works on different modalities and different images despite the noise level or the resolution. In the other hand, the A-value method works neither on MRI nor noisy images. Hence, ACA2020 method may provide more reliable and accurate measurement than the A-value method. The source-code and the datasets are made publicly available to help reproduction and validation of my result.
Successful export sectors in manufacturing and agribusiness are important drivers of structural transformation in Sub-Sahara African countries. Backed by industrial policies and active state involvement, a small number of successful productive export sectors has emerged in Sub-Saharan Africa. This thesis asks the question: How do politics shape the promotion of export-driven industrialisation and firm-level upgrading in Sub-Saharan Africa? It exemplifies this question with an in-depth, qualitative study of the cashew processing industry in Mozambique in the period from 1991 until 2019. Mozambique used to be one of the world’s largest producers and processors of cashew nuts in the 1960s and 1970s. At the end of the 20th century, the cashew processing industry broke down completely but has re-emerged as one of the country’s few successful agro-processing exports.
The thesis draws on theoretical approaches from the fields of political science, notably the political settlements framework, global value chain analysis and the research on technological capabilities to explore why the Mozambican Government supported the cashew processing industry and how Mozambican cashew processors acquired the technological capabilities needed to access the global cashew value chain and to upgrade. It makes an important theoretical contribution by linking the political settlements framework and the literature on upgrading in global value chains to study how politics shaped productive sector promotion and upgrading in the Mozambican cashew processing industry. The findings of the thesis are based on extensive primary data, including 58 expert interviews and 10 firm surveys, that was collected in Mozambique in 2018 as well as a broad base of secondary literature.
The thesis argues that the Mozambican Government supported the cashew processing industry because it became important for the Government’s political survival. Promoting the cashew sector formed part of an electoral strategy for the ruling FRELIMO coalition and a means to keep FRELIMO factions united by offering economic opportunities to key constituencies. In 1999, it adopted a protectionist cashew law that created strong incentives for cashew processing in Mozambique. This not only facilitated the re-emergence of the cashew processing industry after its breakdown. The law and the active involvement of the National Cashew Institute (INCAJU) also affected the governance of the local cashew value chain, the creation of backward linkages, and the upgrading paths of cashew processors. The findings of the thesis suggest that the cashew law reduced the pressure on the cashew processing industry to upgrade. The law further created opportunities for formal and informal rent creation for members of the political elite and lower level FRELIMO officials that prevented a far-reaching reform of the law. The thesis shows that international buyers do not promote upgrading among Sub-Sahara African firms in global value chains with market-based or modular governance. Moreover, firms that operate in countries where industrial policies are not enforced effectively cannot draw on the support of government institutions to enhance their capabilities and to upgrade. Firms therefore mainly depended on costly learning channels at firm level, e.g. learning by doing or hiring skilled labour, and/or on technical assistance from donors to build the technological capabilities needed to access global value chains and to remain competitive.
The findings of the thesis suggest that researchers, governments, development practitioners and consultants need to rethink their understanding of upgrading in GVCs in four ways. First, they need to move away from understanding upgrading in terms of moving towards more complex, higher value-added activities in GVCs (functional upgrading). Instead, it is important to consider the potential of other, more realistic types of upgrading for firms in low-income countries, such reducing risks by diversifying suppliers and buyers or increasing rewards by making production processes more efficient. Second, they need to replace an overly positive view on upgrading that neglects possible side-effects at sector and/or country level. Third, GVC participation on its own does not promote upgrading among local supplier firms in Sub-Saharan Africa. The interests of lead firms and Sub-Sahara African supplier firms may not be aligned or even conflicting. Targeted industrial policies and the creation of institutions that effectively promote capability building among firms therefore become even more important. Finally, upgrading needs to be understood as a process that is not only shaped by interactions between firms, but also by local domestic politics.
The findings of the thesis are highly relevant for scholars from the fields of political science, development studies, and economics. Its practical implications and tools, e.g. a technological capabilities matrix for the cashew industry, are of interest for development practitioners, members of public institutions in Sub-Sahara African countries, local entrepreneurs, and representatives of local business associations that are involved in promoting export sectors and upgrading among local firms.
Human population pressure increased with the population growth around the NNP and Cyamudongo with disturbance impacts on the forests isolating populations into fragments and today, Cyamudongo natural forest is located a way at a distance of at least 8.5 km horizontal distance to Nyungwe main block with a surface area estimated at 300 ha. Under Cyamudongo project implementation, there was a need to understand how the flora diversity responded to human imposed challenges and to forest restoration initiatives. Three physiognomic landscapes forest were identified and considered for three phases of vegetation survey in Cyamudongo and related to the closest area of Nyungwe main block. In this study, 15 transects were laid in each physiognomic forest landscape and 10 and 5 plots were set respectively in Cyamudongo and Gasumo study area. In total, 315 phytosociological relevés were performed and the Braun-Blanquet methods used for three times vegetation surveys. Species life-forms and chorophyte were evaluated and tree species dbh and height have been measured. Data were subjected to different statistical analyses using different softwares such as PAST, R 3.5.2, and SPSS. The mapping was done using Arc GIS and the Multi-Spectral Remote Sensing used to find NDVI for the vegetation classification.
NDVI trends showed that there has been fluctuations in vegetation classifications of the studied area. In this study, 494 vascular plant species from 106 families were harbored in the study area and distributed differently among forest landscapes and study phases. Although, 43.54% were common to Cyamudongo and Gasumo landscapes while 48.54 % of species diversity were hold only by Cyamudongo and 7.92% confined to Gasumo and 12 in total were found new records for Rwanda while several others suspected require detailed research for identification showing how the flora diversity of Cyamudongo is of special interest and extremely important for discoveries.
The finding of the study on diversity indices, the PCA, CA and the Cluster analysis, all statistical analyses (MANOVA, ANOVA) and life form spectra unanimously showed that the anthropogenic disturbance shaped the vegetation cover, the floristic composition, the species diversity, the forest landscapes community structure, the life form spectrum and the phytoclimate of Cyamudongo and Gasumo forest landscapes. Although, the vegetation analysis couldn’t clearly identify communities and sub-communities at the initial and final vegetation surveys and cluster groups were heterogeneous as well as overlapping and species associations not clearly defined due to the high level of similarities in species composition among forest landscapes and vegetation surveys. The species diversity was found high in secondary forest and Gasumo landscape forest and low in the primary forest and the buffer zone of Cyamudongo and the disturbance with gaps openings was found to be associated to the species diversity with a seasonal variation. The patterns of dbh for the buffer zone and of the size classes of all landscapes with an inverted ‘J’ indicated a healthy regeneration in the forest landscapes and tree species explained a good regeneration and recruitment capacity. Different shapes in the pattern of dbh with respectively an inverted ‘J’, ‘J ‘and ‘U’ for the buffer zone, primary and together the secondary and Gasumo forest landscapes indicated differences in the landscapes health and degree of regeneration and recruitment capacity.
Findings from differents measuements showed at which extend human activities have shaped the flora diversity and structure of forest landcapes studied. For instance, disturbances due human activities were daily oberved and trees were logged by neighboring communities such as Batwa populations at Cyamudongo and local populations at Gasumo. Some species were evenly observed targeted for their barks such as Ocotea usambarensis, Parinari excelsa for medicines and many others for their wood quality, fire wood collection and for agricultural purposes.
In the period of Cyamudongo project implementation, important achievements included the increase of forest biomass and therefore the photosynthetic capacity and the evapotranspiration potential that influence the rainfall regime; the regulation of weather conditions and then species diversity; supporting local communities and limiting human activities; raising awareness on conservation and protection of biodiversity and improving of living conditions of neighboring populations by providing paid employment and so to restore to the Cyamudongo forest ecosystem functions. Moreover, Cyamudongo forest remains vulnerable as surrounded by local communities with a high population pressure relying on forest resources for its survival. Cyamudongo harbors a high level of endemism and is a small hotspot for biodiversity conservation. It is therefore recommended to strengthen conservation and protection measures and continue the support of local communities.
Despite the significant presence of neuroactive substances in the environment, bioassays that allow to detect diverse groups of neuroactive mechanisms of action are not well developed and not properly integrated into environmental monitoring and chemical regulation. Therefore, there is a need to develop testing methods which are amenable for fast and high-throughput neurotoxicity testing. The overall goal of this thesis work is to develop a test method for the toxicological characterization and screening of neuroactive substances and their mixtures which could be used for prospective and diagnostic hazard assessment.
In this thesis, the behavior of zebrafish embryos was explored as a promising tool to distinguish between different neuroactive mechanisms of action. Recently, new behavioral tests have been developed including photomotor response (PMR), locomotor response (LMR) and spontaneous tail coiling (STC) tests. However, the experimental parameters of these tests lack consistency in protocols such as exposure time, imaging time, age of exposure, endpoint parameter etc. To understand how experimental parameters may influence the toxicological interpretation of behavior tests, a systematic review of existing behavioral assays was conducted in Chapter 2. Results show that exposure concentration and exposure duration highly influenced the comparability between different test methods and the spontaneous tail coiling (STC) test was selected for further testing based on its relative higher sensitivity and capacity to detect neuroactive substances (Chapter 2).
STC is the first observable motor activity generated by the developing neural network of the embryo which is assumed to occur as a result of the innervation of the muscle by the primary motor neurons. Therefore, STC could be a useful endpoint to detect effect on the muscle innervation and also the on the whole nervous system. Consequently, important parameters of the STC test were optimized and an automated workflow to evaluate the STC with the open access software KNIME® was developed (Chapter 3).
To appropriately interpret the observed effect of a single chemical and especially mixture effects, requires the understanding of toxicokinetics and biotransformation. Most importantly, the biotransformation capacity of zebrafish embryos might be limited and this could be a challenge for assessment of chemicals such as organophosphates which require a bioactivation step to effectively inhibit the acetylcholinesterase (AChE) enzyme. Therefore, the influence of the potential limited biotransformation on the toxicity pathway of a typical organophosphate, chlorpyrifos, was investigated in Chapter 5. Chlorpyrifos could not inhibit AChE and this was attributed to possible lack of biotransformation in 24 hpf embryos (Chapter 5).
Since neuroactive substances occur in the environment as mixtures, it is therefore more realistic to assess their combined effect rather than individually. Therefore, mixture toxicity was predicted using the concentration addition and independent action models. Result shows that mixtures of neuroactive substances with different mechanisms of action but similar effects can be predicted with concentration addition and independent action (Chapter 4). Apart
from being able to predict the combined effect of neuroactive substances for prospective risk assessment, it is also important to assess in retrospect the combined neurotoxic effect of environmental samples since neuroactive substances are the largest group of chemicals occurring in the environment. In Chapter 6, the STC test was found to be capable of detecting neurotoxic effects of a wastewater effluent sample. Hence, the STC test is proposed as an effect based tool for monitoring environmental acute and neurotoxic effects.
Overall, this thesis shows the utility and versatility of zebrafish embryo behavior testing for screening neuroactive substances and this allows to propose its use for prospective and diagnostic hazard assessment. This will enhance the move away from expensive and demanding animal testing. The information contained in this thesis is of great potential to provide precautionary solutions, not only for the exposure of humans to neuroactive chemicals but for the environment at large.
Die Raytracing-Beschleunigung durch dedizierte Datenstrukturen ist schon lange ein wichtiges Thema der Computergrafik. Im Allgemeinen werden dafür zwei unterschiedliche Ansätze vorgeschlagen: räumliche und richtungsbezogene Beschleunigungsstrukturen. Die vorliegende Arbeit stellt einen innovativen kombinierten Ansatz dieser beiden Bereiche vor, welcher weitere Beschleunigung der Strahlenverfolgung ermöglicht. Dazu werden moderne räumliche Datenstrukturen als Basisstrukturen verwendet und um vorberechnete gerichtete Sichtbarkeitsinformationen auf Basis von Schächten innerhalb einer originellen Struktur, dem Line Space, ergänzt.
Im Laufe der Arbeit werden neuartige Ansätze für die vorberechneten Sichtbarkeitsinformationen vorgeschlagen: ein binärer Wert, der angibt, ob ein Schacht leer oder gefüllt ist, sowie ein einzelner Vertreter, der als repräsentativer Kandidat die tatsächliche Oberfläche approximiert. Es wird gezeigt, wie der binäre Wert nachweislich in einer einfachen, aber effektiven Leerraumüberspringungs-Technik (Empty Space Skipping) genutzt wird, welche unabhängig von der tatsächlich verwendeten räumlichen Basisdatenstruktur einen Leistungsgewinn beim Raytracing von bis zu 40% ermöglicht. Darüber hinaus wird gezeigt, dass diese binären Sichtbarkeitsinformationen eine schnelle Technik zur Berechnung von weichen Schatten und Umgebungsverdeckung auf der Grundlage von Blockerapproximationen ergeben. Obwohl die Ergebnisse einen gewissen Ungenauigkeitsfehler enthalten, welcher auch dargestellt und diskutiert wird, zeigt sich, dass eine weitere Traversierungsbeschleunigung von bis zu 300% gegenüber der Basisstruktur erreicht wird. Als Erweiterung zu diesem Ansatz wird die repräsentative Kandidatenvorberechnung demonstriert, welche verwendet wird, um die indirekte Lichtberechnung durch die Integration von kaum wahrnehmbaren Bildfehlern signifikant zu beschleunigen. Schließlich werden Techniken vorgeschlagen und bewertet, die auf zweistufigen Strukturen und einer Nutzungsheuristik basieren. Diese reduzieren den Speicherverbrauch und die Approximationsfehler bei Aufrechterhaltung des Geschwindigkeitsgewinns und ermöglichen zusätzlich weitere Möglichkeiten mit Objektinstanziierungen und starren Transformationen.
Alle Beschleunigungs- und Speicherwerte sowie die Näherungsfehler werden gemessen, dargestellt und diskutiert. Insgesamt zeigt sich, dass durch den Line Space eine deutliche Erhöhung der Raytracing Leistung auf Kosten eines höheren Speicherverbrauchs und möglicher Annäherungsfehler erreicht wird. Die vorgestellten Ergebnisse zeigen damit die Leistungsfähigkeit des kombinierten Ansatzes und eröffnen weitere Möglichkeiten für zukünftige Arbeiten.
In der Dissertation “Leben am und vom Rhein. Aspekte der Alltagsgeschichte in St. Goar und St. Goarshausen vom Späten Mittelalter bis zum Ende des 17. Jahrhunderts” untersucht der Autor Richard Lange die Historie “kleiner Leute” in zwei Städten am Mittelrhein.
Die Studie konzentriert sich dabei auf die Geschichte jener Berufe, die direkt vom Rhein abhängig waren, also in erster Linie auf das Zollpersonal, die Kranbediensteten sowie die Salmenfischer. Hinzu kommen einige weitere Berufszweige wie Treidler, Fährleute, Schiffsleute sowie Händler und Betreiber von Wirtshäusern.
Für all diese Gruppen wird, soweit anhand der Quellen möglich, der Alltag ihres Berufes nachgezeichnet. Auf diesem Wege wird versucht, das bunte Bild, das sich auf dem Rhein bisweilen bot, darzustellen und gleichzeitig aufzuzeigen, in welcher nicht zu unterschätzenden Weise der Rhein das ganze Leben in St. Goar und St. Goarshausen über die Jahrhunderte hinweg beeinflusste.
The stands surveyed are among the last closed canopy forests in Rwanda. Their exploration began in the early twentieth century and is still ongoing. Previous studies were mainly concerned with plant sociological issues and presented references to environmental factors in anecdotal form, at best using indirect ordination methods. The present study undertakes a classification of the vegetation with numerical methods and establishes quantitative relationships of the species’ distributional structure to environmental parameters using spatially explicit procedures. For this purpose, 94 samples were taken in 100 m² hexagonal plots. Of these, 70 samples are from Nyungwe, 14 are from Gishwati, and 10 are from Cyamudongo. Given the homogeneity of the terrain and vegetation, all vegetation types encountered, all types of stands, and all vegetation strata were included. The beta diversity is expressed by an average Bray-Curtis dissimilarity of 0.92, and in JOST’S (2007) numbers equivalents, 37.90 equally likely samples would be needed to represent the diversity encountered. Within the survey, 1198 species in 127 families were collected. Among the specimens are 6 local endemics and 40 Albertine Rift endemics. Resulting from UPGMA and FCM-NC, 20 to 40 plant communities were established depending on the level of resolution. It can be inferred by means of a Mantel correlogram that the mean zone of influence of a single vegetation stand, as sampled by a 100 m² plot in Nyungwe Forest, ranges between 0.016 and 3.42 km. Of the communities compiled using FCM-NC and UPGMA, 50% consist of individual samples. Beyond undersampling, natural small-scale discontinuities are reflected by this result. Partial db-RDA resulted in an explained variation of 9.60% and 14.41% for environmental and soil factors, respectively. Utilising variation partitioning analyses based on CCA and tb-RDA, between 21.70% and 37.80% of the variation in vegetation data could be explained. The spatially structured fraction of these parameters accounts for between 30.50% and 49.80% of the explained variation (100%). The purely environmental parameters account for a share of 10.30% to 16.30%, whereby the lower limit originates from the unimodal approach and has lost its statistical significance. The soil variables, also after partial analysis, account for a share of 19.00% to 35.70%. While the residual impact of the climatic parameters is hardly significant, the effect of the soil properties is prevalent. In general, the spatially structured fraction of the parameters is predominant here. While on the broad-scale climatic factors, the altitude a.s.l. and the geology are determining factors, some soil parameters and matrix components also show their impacts here. In the mid-range of the scale, it is the forest matrix, the soil types, and the geology that determine species distribution. While in the fine range of the scale, some unrecorded parameters seem to have an effect, there are also neutral processes that determine species composition.
Enterprise collaboration platforms are increasingly gaining importance in organisations. Integrating groupware functionality and enterprise social software (ESS), they have substantially been transforming everyday work in organisations. While traditional collaboration systems have been studied in Computer Supported Cooperative Work (CSCW) for many years, the large-scale, infrastructural and heterogeneous nature of enterprise collaboration platforms remains uncharted. Enterprise collaboration platforms are embedded into organisations’ digital workplace and come with a high degree of complexity, ambiguity, and generativity. When introduced, they are empty shells with no pre-determined purposes of use. They afford interpretive flexibility, and thus are shaping and being shaped by and in their social context. Outcomes and benefits emerge and evolve over time in an open-ended process and as the digital platform is designed through use. In order to make the most of the platform and associated continuous digital transformation, organisations have to develop the necessary competencies and capabilities.
Extant literature on enterprise collaboration platforms has proliferated and provide valuable insights on diverse topics, such as implementation strategies, adoption hurdles, or collaboration use cases, however, they tend to disregard their evolvability and related multiple time frames and settings. Thus, this research aims to identify, investigate, and theorise the ways that enterprise collaboration platforms are changing over time and space and the ways that organisations build digital transformation capabilities. To address this research aim two different case study types are conducted: i) in-depth longitudinal qualitative case study, where case narratives and visualisations capturing hard-to-summarise complexities in the enterprise collaboration platform evolution are developed and ii) multiple-case studies to capture, investigate, and compare cross-case elements that contribute to the shaping of enterprise collaboration platforms in different medium-sized and large organisations from a range of industries. Empirical data is captured and investigated through a multi-method research design (incl. focus groups, surveys, in-depth interviews, literature reviews, qualitative content analysis, descriptive statistics) with shifting units of analysis. The findings reveal unique change routes with unanticipated outcomes and transformations, context-specific change strategies to deal with multiple challenges (e.g. GDPR, works council, developments in the technological field, competing systems, integration of blue-collar workers), co-existing platform uses, and various interacting actors from the immediate setting and broader context. The interpretation draws on information infrastructure (II) as a theoretical lens and related sociotechnical concepts and perspectives (incl. inscriptions, social worlds, biography of artefacts). Iteratively, a conceptual model of the building of digital transformation capabilities is developed, integrating the insights gained from the study of enterprise collaboration platform change and developed monitoring change tools (e.g. MoBeC framework). It assists researchers and practitioners in understanding the building of digital transformation capabilities from a theoretical and practical viewpoint and organisations implement the depicted knowledge in their unique digital transformation processes.
Human action recognition from a video has received growing attention in computer vision and has made significant progress in recent years. Action recognition is described as a requirement to decide which human actions appear in videos. The difficulties involved in distinguishing human actions are due to the high complexity of human behaviors as well as appearance variation, motion pattern variation, occlusions, etc. Many applications use human action recognition on captured video from cameras, resulting in video surveillance systems, health monitoring, human-computer interaction, and robotics. Action recognition based on RGB-D data has increasingly drawn more attention to it in recent years. RGB-D data contain color (Red, Green, and Blue (RGB)) and depth data that represent the distance from the sensor to every pixel in the object (object point). The main problem that this thesis deals with is how to automate the classification of specific human activities/actions through RGB-D data. The classification process of these activities utilizes a spatial and temporal structure of actions. Therefore, the goal of this work is to develop algorithms that can distinguish these activities by recognizing low-level and high-level activities of interest from one another. These algorithms are developed by introducing new features and methods using RGB-D data to enhance the detection and recognition of human activities. In this thesis, the most popular state-of-the-art techniques are reviewed, presented, and evaluated. From the literature review, these techniques are categorized into hand-crafted features and deep learning-based approaches. The proposed new action recognition framework is based on these two categories that are approved in this work by embedding novel methods for human action recognition. These methods are based on features extracted from RGB-D data that are
evaluated using machine learning techniques. The presented work of this thesis improves human action recognition in two distinct parts. The first part focuses on improving current successful hand-crafted approaches. It contributes into two significant areas of state-of-the-art: Execute the existing feature detectors, and classify the human action in the 3D spatio-temporal domains by testing a new combination of different feature representations. The contributions of this part are tested based on machine learning techniques that include unsupervised and supervised learning to evaluate this suitability for the task of human action recognition. A k-means clustering represents the unsupervised learning technique, while the supervised learning technique is represented by: Support Vector Machine, Random Forest, K-Nearest Neighbor, Naive Bayes, and Artificial Neural Networks classifiers. The second part focuses on studying the current deep-learning-based approach and how to use it with RGB-D data for the human action recognition task. As the first step of each contribution, an input video is analyzed as a sequence of frames. Then, pre-processing steps are applied to the video frames, like filtering and smoothing methods to remove the noisy data from each frame. Afterward, different motion detection and feature representation methods are used to extract features presented in each frame. The extracted features
are represented by local features, global features, and feature combination besides deep learning methods, e.g., Convolutional Neural Networks. The feature combination achieves an excellent accuracy performance that outperforms other methods on the same RGB-D datasets. All the results from the proposed methods in this thesis are evaluated based on publicly available datasets, which illustrate that using spatiotemporal features can improve the recognition accuracy. The competitive experimental results are achieved overall. In particular, the proposed methods can be better applied to the test set compared to the state-of-the-art methods using the RGB-D datasets.
Speziell in Anwendungen mit intensiver Temperatur- und Korrosionsbeanspruchung finden vermehrt Phosphate als sogenannte chemische Binder für Hochleistungskeramiken Verwendung. Konkret ist die Summe der Reaktionsverläufe während des Bindemechanismus in Folge einer thermisch-induzierten Aushärtung und somit die Wirkungsweise von Phosphatbindern prinzipiell innerhalb der Fachliteratur nicht eindeutig untersucht. Innerhalb dieser Arbeit wurden aufbauend auf einer umfangreichen strukturanalytischen Prüfungsanordnung (Festkörper-NMR, RBA, REM-EDX) einer exemplarischen phosphatgebundenen Al₂O₃-MgAl₂O₄-Hochtemperaturkeramikzusammensetzung unter Einbeziehung verschiedenartiger anorganischer Phosphate grundlegende Bindemechanismen charakterisiert. Mechanisch-physikochemische Eigenschaftsuntersuchungen (STA, Dilatometrie, DMA, KBF) deckten zudem den Einfluss der eingesetzten Phosphate auf die Eigenschaftsentwicklungen der Feuerfestkeramiken bezüglich des Abbindeverhaltens, der Biegefestigkeit sowie der thermischen Längenänderung auf, welche mit Strukturänderungen korreliert wurden. Es wurde gezeigt, dass sich Bindemechanismen bei Verwendung von Phosphaten temperaturgeleitet (20 °C ≤ T ≤ 1500 °C) grundsätzlich aus zwei parallel ablaufenden Reaktionsabfolgen zusammensetzen, wobei die sich entwickelnden Phosphatphasen innerhalb der Keramikmasse quantitativ und qualitativ bezüglich ihrer Bindewirkung bewertet wurden. Zum einen wurde die Bildung eines festigkeitssteigernden Bindenetzwerks aus Aluminiumphosphaten meist amorpher Struktur identifiziert und charakterisiert. Dieses bindungsfördernde, dreidimensionale Aluminiumphosphatnetzwerk baut sich innerhalb der Initialisierungs- und Vernetzungsphasen temperaturgeleitet kontinuierlich über multiple Vernetzungsreaktionen homogen auf. Zum anderen werden Reaktionsabfolgen durch parallel ablaufende Strukturumwandlungen nicht aktiv-bindender Phosphatspezies wie Magnesium-, Calcium- oder Zirkoniumphosphate ergänzt, welche lediglich thermische Umwandlungsreaktionen der Ausgangsphosphate darstellen. Vermehrt bei T > 800 °C geht das phosphatische Bindenetzwerk Festkörperreaktionen mit MgAl₂O₄ unter Ausbildung und Agglomeration von Magnesium-Orthophosphat-Sinterstrukturen ein. Die Bildung dieser niedrigschmelzenden Hochtemperaturphasen führt zu einem teilweisen Bruch des Bindenetzwerks.
Wildbienen sind unerlässlich für die Bestäubung von Wild- und Kulturpflanzen. Die zunehmende Intensivierung der Landwirtschaft führte jedoch sowohl zu einer Verringerung und Fragmentierung als auch zu einer Wertminderung der von ihnen benötigten Lebensräume innerhalb der letzten Jahrzehnte. Die damit einhergehenden Verluste von Bestäubern und ihrer Bestäubung stellt die weltweite Nahrungsmittelproduktion vor eine immense Herausforderung. Zur Förderung von Wildbienen ist die Verfügbarkeit von Blüteressourcen essentiell. Die Blühdauer einzelner Ressourcen ist jedoch zeitlich begrenzt und hat, je nach Blütezeitpunkt, unterschiedliche Effekte auf Bestäuber und deren Bestäubung.
Um Wildbienen als Bestäuber in Agrarlandschaften effizient fördern und nutzen zu können, identifizierten wir deshalb die artspezifischen Schlüsselressourcen dreier ausgewählter Wildbienen und deren räumliche und zeitliche Verfügbarkeit (KAPITEL 2, 3 & 4). Wir untersuchten, welche Habitatstypen diese Ressourcen überwiegend bereitstellen (KAPITEL 3 & 4). Wir untersuchten zudem, ob Blütenressourcenkarten, die auf der Nutzung dieser Schlüsselressourcen und deren räumlich zeitlicher Verfügbarkeit basieren, die Abundanzen und die Entwicklung der ausgewählten Wildbienen (KAPITEL 3 & 4) und die Bestäubung (KAPITEL 5) besser erklären als Habitatkarten, die die Verfügbarkeit von Blüteressourcen nur indirekt beschreiben.
Für jede der untersuchten Arten konnten wir unterschiedliche, im frühen Saisonverlauf (April/Mai) überwiegend holzige im späteren Verlauf (Juni/Juli) auch zunehmend krautige, Schlüsselarten identifizieren (KAPITEL 2, 3 & 4). Die Wildobst- und Wildheckengehölze unserer Agrarlandschaften stellten rund 75% der Blütenressourcen für Erdhummeln, 60% für Rote Mauerbienen und 55% für Gehörnte Mauerbienen bereit, obwohl sie einen Flächenanteil von nur 3% ausmachten (KAPITEL 3 & 4). Obstplantagen stellten zusätzlich rund 35% des Blütenangebots für Gehörnte Mauerbienen auf 4% der Fläche bereit (KAPITEL 3). Wir konnten zeigen, dass beide Mauerbienenarten von der Ressourcenverfügbarkeit in den umliegenden Landschaften profitierten (KAPITEL 3). Bei Erdhummeln zeigte sich dieser Zusammenhang jedoch nicht (KAPITEL 4). Stattdessen waren die Gewichtszunahme ihrer Kolonien, die Anzahlen der darin ausgebildeten Königinnenzellen und die Überlebensdauer der Kolonie mit zunehmender Nähe zum Wald höher. Ebenfalls auf die beiden Mauerbienenarten wirkte sich die Waldnähe positiv aus (KAPITEL 3). Daneben profitierten Rote Mauerbienen durch krautige halbnatürliche Habitate. Nachteilig wirkten sich Siedlungsflächen auf die Gehörnten Mauerbienen, und Ackerland auf die Roten Mauerbienen aus. Habitatkarten erklärten die Abundanzen der Gehörnten Mauerbienen gleich gut wie Blütenressourcenkarten, jedoch wurden die Abundanzen der Roten Mauerbienen deutlich besser durch Schlüsselressourcen erklärt. Die Bestäubung der Ackerbohne erhöhte sich mit höheren Anteilen früher Blütenressourcen (KAPITEL 5). Dabei zeigte sich keine messbare Reduktion der Bestäubung durch gleichzeitig blühende Ressourcen. Habitatkarten erklärten die Bestäubung der Ackerbohne auch besser als Blütenressourcenkarten. Dabei nahm die Bestäubung mit zunehmenden Anteilen an Siedlungsflächen in den Landschaften zu und reduzierte sich mit zunehmenden Anteilen von Ackerland.
Unsere Ergebnisse verdeutlichen die Wichtigkeit der räumlich-zeitlichen Verfügbarkeit bestimmter Schlüsselarten als Ressourcenpflanzen von Wildbienen in Agrarlandschaften. Sie zeigen, dass Habitatkarten detaillierten Blütenressourcenkarten in der Vorhersage der Entwicklung von Wildbienen und deren Bestäubung voraus oder zumindest ebenbürtig sind. Dennoch ermöglichen es
Blütenressourcenkarten, genauere Schlüsse zwischen den einzelnen Ressourcen und den untersuchten Organismen zu ziehen. Die Nähe zu Waldrändern wirkte sich positiv auf jede der drei untersuchten Wildbienenarten aus. Neben der reinen Nahrungsverfügbarkeit scheinen jedoch weitere Faktoren das Vorkommen von Wildbienen in Agrarlandschaften mitzubestimmen.
Content and Language Integrated Learning (CLIL) has experienced growing importance in the last decades and an increasing number of schools have already implemented CLIL programmes or are planning to do so. Though the potentials of CLIL programmes are widely praised, first research results also raise doubts if CLIL students can live up to these high expectations. Both Fehling (2005) as well as Rumlich (2013; 2016), for example, found that CLIL programmes not inevitably show the expected results but that the CLIL students’ success might also be at least partially explained by other influences, such as the selection process of future CLIL students. Hence, CLIL students apparently fall short of the high expectations that are usually connected to the respective CLIL programmes and as this is mainly based on the unsatisfactory quality of these programmes, Rumlich concludes that “it is now high time to focus on the quality of CLIL provision” (Rumlich 2016: 452). He continues to explain that “the promises of CLIL do not materialise automatically owing to the fact that another language is used for learning in a non-language subject” (Rumlich 2016: 452). It must be assumed that the success of CLIL teaching also highly depends on the quality of the CLIL teachers.
In contrast to the continuously growing number of CLIL schools, however, the number of specifically trained CLIL teachers is comparably small. In Germany, CLIL teachers are not (yet) required to attend any special training in order to teach in a CLIL programme. Notwithstanding, is it sufficient for a CLIL teacher only to be trained in the content subject and the foreign language? Or does CLIL teaching require more than the sum of these two components? Do CLIL teachers need additional teaching competences to the ones of a content and a language teacher? In the light of the recent findings of CLIL programmes falling short of the high expectations, the answer to these questions must clearly be “Yes”. Hence, in order to appropriately train (future) CLIL teachers, special training programmes need to be developed which consider the teachers’ individual educational backgrounds, i.e. their qualifications as language and/or as content teachers and build up on these competences through adding the CLIL-specific teaching competences.
Therefore, this thesis aims at developing a German Framework for CLIL Teacher Education, which considers both the already published, theory-based standards of CLIL teacher education as well as the practical perspective of experienced CLIL teachers in Germany. This German Framework for CLIL Teacher Education classifies the different teaching competences, which are derived from integrating the theoretical and the practical perspective on CLIL teacher education, with regard to the three different competence areas, i.e. the general teaching competence, the language teaching competence and the subject teaching competence and is hence adaptable to different CLIL settings and educational backgrounds. In addition to developing this German Framework for CLIL Teacher Education, which provides the content of future CLIL teacher education programmes, this thesis discusses different forms of structurally implementing CLIL teacher education programmes in the existing structures of teacher education in Germany. This is achieved through analysing the current state of the art of CLIL teacher education at German universities and systematising the different forms of implementing these training programmes in the prevailing educational structures. Building on these first two steps, in the third and final step, this thesis develops a CLIL teacher education programme at a German university that is based on the results and elements of the German Framework for CLIL Teacher Education as well as the state of the art of CLIL teacher education in Germany. Thus, this thesis is allocated at the intersection between foreign language teaching as well as teacher education and is structured in eleven chapters.
Als mehrsprachiges System stelltWikipedia viele Herausforderungen sowohl an Akademiker als auch an Ingenieure. Eine dieser Herausforderungen ist die kulturelle Kontextualisierung der Wikipedia-Inhalte und der Mangel an Ansätzen zu ihrer effektiven Quantifizierung. Außerdem scheint es an der Absicht zu fehlen, solide Berechnungspraktiken und Rahmenbedingungen für die Messung kultureller Variationen in dem Datenmaterial zu schaffen. Die derzeitigen Ansätze scheinen hauptsächlich von der Datenverfügbarkeit diktiert zu werden, was ihre Anwendung in anderen Kontexten erschwert. Ein weiterer häufiger Nachteil ist, dass sie aufgrund eines erheblichen qualitativen oder Übersetzungsaufwands selten skalieren. Um diesen Einschränkungen zu begegnen, werden in dieser Arbeit zwei modulare quantitative Ansätze entwickelt und getestet. Sie zielen darauf ab, kulturbezogene Phänomene in Systemen zu quantifizieren, die auf mehrsprachigem, nutzergeneriertem Inhalt beruhen. Insbesondere
ermöglichen sie es: (1) einen benutzerdefinierten Kulturbegriff in einem System zu operationalisieren; (2) kulturspezifische Inhalts- oder Abdeckungsverzerrungen in einem solchen System zu quantifizieren und zu vergleichen; und (3) eine großräumige Landschaft mit gemeinsamen kulturellen Interessen und Schwerpunkten abzubilden. Die empirische Validierung dieser Ansätze ist in zwei Teile gegliedert. Erstens wird ein Ansatz zur Kartierung von Wikipedia-Gemeinschaften mit gemeinsamen redaktionellen Interessen auf zwei großenWikipedia Datensätzen validiert, die multilaterale geopolitische und sprachliche Redakteursgemeinschaften umfassen. Beide Datensätze zeigen messbare Cluster von konsistenten Mitredaktionsinteressen und bestätigen rechnerisch, dass diese Cluster mit bestehenden kolonialen, religiösen, sozioökonomischen und geographischen Bindungen übereinstimmen.
Zweitens wird ein Ansatz zur Quantifizierung von Inhaltsunterschieden anhand eines mehrsprachigen Wikipedia-Datensatzes und eines Multiplattform-Datensatzes (Wikipedia und Encyclopedia Britannica) validiert. Beide sind auf einen ausgewählten Wissensbereich der Nationalgeschichte beschränkt. Diese Analyse ermöglicht es erstmals im großen Maßstab, die Verteilung der historischen Schwerpunkte in den Artikeln zur Nationalgeschichte zu quantifizieren und zu visualisieren. Alle Ergebnisse werden entweder von Fachexperten oder von externen Datensätzen kreuzvalidiert. Die wichtigsten Beiträge der Dissertation. Diese Dissertation: (1) stellt einen Versuch dar, den Prozess der Messung kultureller Variationen in nutzergeneriertem Datenmaterial zu formalisieren; (2) stellt zwei neue Ansätze zur Quantifizierung der kulturellen Kontextualisierung in mehrsprachigem Datenmaterial vor und testet sie; (3) schafft einen wertvollen Überblick über die Literatur zur Definition und Quantifizierung von Kultur; (4) liefert wichtige empirische Erkenntnisse über die Wirkung von Kultur auf den Inhalt und die Abdeckung von Wikipedia; zeigt, dass Wikipedia nicht kontextfrei ist, und dass diese Unterschiede nicht als Rauschen, sondern als ein wichtiges Merkmal des Datenmaterials behandelt werden sollten. (5) leistet einen praktischen Beitrag durch das Teilen von Datenmaterial und Visualisierungen.
Diese Arbeit befasst sich mit den reduzierten Basismethoden für parametrisierte quasilineare elliptische und parabolische partielle Differentialgleichungen mit stark monotonem Differentialoperator. Es werden alle Bestandteile der Methode mit reduzierter Basis vorgestellt: Basisgenerierung für reduzierte Approximation, Zertifizierung des Approximationsfehlers durch geeignete a-posteriori Fehlerkontrolle und Offine-Online-Zerlegung. Die Methodik wird ferner auf die magnetostatischen und magnetoquasistatischen Näherungen der Maxwellschen Gleichungen angewendet und ihre Gültigkeit wird durch numerische Beispiele bestätigt.
The belief in a just world in face of injustice: victim, observer, and perpetrator perspectives
(2021)
Jeden Tag geschieht uns, unseren Nachbarn oder Menschen auf der ganzen Welt Ungerechtigkeit. Doch der Glaube an eine gerechte Welt (GGW) hilft uns, mit dieser Ungerechtigkeit umzugehen, und motiviert uns, uns gerecht zu verhalten. Studien haben gezeigt, dass diese Funktionen, die der GGW erfüllt, für die Aufrechterhaltung der psychischen Gesundheit bedeutend sind. Die Bedingungen, unter denen der GGW funktioniert und wann Menschen diesen Glauben aufgeben, sind jedoch nicht gut untersucht. In der vorliegenden Dissertation wird untersucht, wann der GGW erschüttert werden kann, welche Rolle die Außenwelt und andere interne Ressourcen angesichts von Ungerechtigkeit spielen und welche Rolle der GGW bei der Vorhersage korrupten Verhaltens spielt. Es wurden drei Studien durchgeführt, die jeweils einer Seite der Ungerechtigkeit entsprechen: einem Opfer, einem Beobachter und einem Täter.
Studie 1 untersuchte die Auswirkungen einer kriminellen Viktimisierung auf den GGW und die schützende Rolle der Gerechtigkeitsvorstellungen im Strafrechtsprozess. Diese Studie zeigte, dass Opfer sehr schwerer Straftaten, wie häusliche Gewalt und Menschenhandel, einen niedrigeren persönlichen GGW aufwiesen als Nicht-Opfer und Opfer weniger schwerer Straftaten, und dass eine höhere Wahrnehmung der informationelle Gerechtigkeit die Auswirkungen der Viktimisierung auf den persönlichen GGW verringerte. Studie 2 hatte zum Ziel die Veränderungen des GGW nach der Beobachtung schwerer Ungerechtigkeit zu untersuchen. Diese Studie zeigte, dass der GGW der jugendlichen Teilnehmer nach der Beobachtung von Amokläufen an anderen Schulen anstieg. Außerdem beeinflussten Lebenszufriedenheit und wahrgenommene soziale Unterstützung die Veränderung der GGW. Studie 3 untersuchte die Beziehungen zwischen GGW und korruptem Verhalten. Eine Querschnittsstudie zeigte, dass der persönliche GGW das Korruptionsverhalten vorhersagen kann.
Die Ergebnisse der drei Studien haben gezeigt, dass GGW nicht isoliert betrachtet werden kann. Eine externe Welt und interne Ressourcen können die Bedrohung durch Ungerechtigkeit auf dem GGW reduzieren. Der GGW spielt eine wichtige Rolle bei der Vorhersage von ungerechtem Verhalten, weshalb die Behörden bestrebt sein sollten, den GGW ihrer Bürger zu erhalten.
Graph-based data formats are flexible in representing data. In particular semantic data models, where the schema is part of the data, gained traction and commercial success in recent years. Semantic data models are also the basis for the Semantic Web - a Web of data governed by open standards in which computer programs can freely access the provided data. This thesis is concerned with the correctness of programs that access semantic data. While the flexibility of semantic data models is one of their biggest strengths, it can easily lead to programmers accidentally not accounting for unintuitive edge cases. Often, such exceptions surface during program execution as run-time errors or unintended side-effects. Depending on the exact condition, a program may run for a long time before the error occurs and the program crashes.
This thesis defines type systems that can detect and avoid such run-time errors based on schema languages available for the Semantic Web. In particular, this thesis uses the Web Ontology Language (OWL) and its theoretic underpinnings, i.e., description logics, as well as the Shapes Constraint Language (SHACL) to define type systems that provide type-safe data access to semantic data graphs. Providing a safe type system is an established methodology for proving the absence of run-time errors in programs without requiring execution. Both schema languages are based on possible world semantics but differ in the treatment of incomplete knowledge. While OWL allows for modelling incomplete knowledge through an open-world semantics, SHACL relies on a fixed domain and closed-world semantics. We provide the formal underpinnings for type systems based on each of the two schema languages. In particular, we base our notion of types on sets of values which allows us to specify a subtype relation based on subset semantics. In case of description logics, subsumption is a routine problem. For
the type system based on SHACL, we are able to translate it into a description
logic subsumption problem.
Enterprise Collaboration Systems (ECS) haben sich als zentrale Werkzeuge zur computergestützten Kommunikation und Kollaboration zwischen Mitarbeitenden in Unternehmen entwickelt. ECS vereinen Funktionalitäten aus social media und Groupware. Daher führen mehr und mehr Unternehmen ECS ein, um die Zusammenarbeit am digitalen Arbeitsplatz zu unterstützen. Dementsprechend bilden ECS den Kern des digitalen Arbeitsplatzes. Dies verleiht den Logs dieser Systeme einen besonderen Wert, da sich einzigartige Möglichkeiten bieten, um Kollaboration zwischen Mitarbeitern am digitalen Arbeitsplatz zu beobachten und zu analysieren.
Der aktuelle Stand der Forschung zeigt auf, dass es sowohl in der Forschung aus auch in der Praxis keine einheitliche Herangehensweise an die Analyse von ECS Logfiles gibt. Aufgrund des eingeschränkten Funktionsumfangs von ECS Analytics Software können Wissenschaftler und Praktiker das volle Potenzial der Logs nicht ausschöpfen. Da die Logfiles von ECS zur Untersuchung von Kollaboration am digitalen Arbeitsplatz von großem Wert sind, müssen neue Methoden und Kennzahlen für deren Analyse entwickelt werden. Um die bestehenden Limitationen zu adressieren, beantwortet diese Dissertation die folgenden Forschungsfragen:
1. Welches sind die aktuellen Herangehensweisen an die Messung von Kollaboration in Enterprise Collaboration Systems?
2. Wie kann Social Collaboration Analytics in der Praxis angewendet werden?
Diese Dissertation entwickelt SCA als Methode für die Messung und Analyse von Kollaboration in ECS. Durch die Beantwortung der Forschungsfragen, baut die Dissertation ein allgemeines, breites Verständnis dieses neuen Forschungsfeldes auf und entwickelt eine Herangehensweise für die Anwendung von SCA. Als Teil der ersten Forschungsfrage stellt die Dissertation den Status Quo von SCA in Forschung und Praxis fest. Im Zuge der Beantwortung der zweiten Forschungsfrage wird das Social Collaboration Analytics Framework (SCAF) entwickelt. Das Framework ist der Hauptbeitrag dieser Dissertation und wurde auf Basis einer Analyse von 86 SCA Studien, den Ergebnissen aus 6 Fokusgruppen und den Ergebnissen einer Befragung von 27 ECS Anwenderunternehmen entwickelt. Die Phasen von SCAF wurden aus einer Analyse von bestehenden Prozessmodellen für data mining und business intelligence abgeleitet. Die acht Phasen des Frameworks beinhalten detaillierte Beschreibungen, Arbeitsschritte und Leitfragen, die eine Schritt für Schritt Anwendung für die Anwendung von SCA bieten.
Diese Dissertation verfolgt einen qualitativ-dominanten mixed-methods Ansatz. Als Teil der Forschungsinitiative IndustryConnect besteht Zugang zu mehr als 30 führenden ECS-Anwenderunternehmen. Die Durchführung von aufeinander aufbauenden Fokusgruppen ermöglicht die Sammlung einzigartiger Daten über einen längeren Zeitraum hinweg. Basierend auf einer Tiefenfallstudie und ECS Logs eines Unternehmens, zeigt die Dissertation auf, wie das SCA Framework in der Praxis angewendet werden kann.
The role of alternative resources for pollinators and aphid predators in agricultural landscapes
(2021)
Der Verlust zahlreicher Insekten wird weitgehend in Verbindung gebracht mit dem Verlust von natürlichem und halbnatürlichem Lebensraum durch intensivierte Landnutzung. Viele Insekten liefern wichtige Ökosystemleistungen an die Landwirtschaft wie z.B. Bestäubung und Schädlingsbekämpfung. Um diese Insekten effizient auf den verbleibenden halbnatürlichen Flächen zu fördern, ist genaues Wissen über ihre Ansprüche an das Umland von Agrarflächen erforderlich. Der Fokus dieser Dissertation liegt auf der Suche nach den wichtigsten halbnatürlichen Habitattypen (Waldrand, Wiesen und halb-offene Habitate) zur Förderung von Nützlingen und Bestäubern aufgrund der Bedeutung von Nahrungsressourcen, welche sie dort nutzen. Besonderes Augenmerk liegt dabei auf Blütenressourcen und wie diese räumlich und zeitlich im Kulturland verteilt sind. Darauf basierte Ressourcenkarten versprechen eine Charakterisierung der Landschaft, welche der Relevanz für Insekten näher kommt als klassische Habitatkarten. In dieser These wurde deshalb verglichen, ob sich das Vorkommen von Wildbienen, sowie Nektar und Pollen konsumierenden Nützlingen besser mit klassischen Habitatkarten, oder mit Ressourcenkarten vorhersagen lässt und identifizierte Habitate besonderer Wichtigkeit. Bei Wildbienen wurde untersucht, inwiefern sich Präferenzen verschiedener Gruppen von Wildbienen unterscheiden und ob es zeitliche und räumliche Zusammensetzungen von Blühressourcen gibt, die besonders optimal sind. Da sich Nützlinge nebst der Nutzung von Blüten vor allem räuberisch ernähren, wurde des Weiteren deren Beutespektrum untersucht. Dazu wurde der Darminhalt von Marienkäfern mit genetischen Methoden mittels High Throughput Sequencing auf konsumierte Blattläuse analysiert.
Blütenbasierte Ressourcenkarten sagten Bienen besser voraus als klassische Habitatkarten. Der Waldrand war dabei von besonderer Bedeutung. Sowohl Flächenanteil als auch Blühangebot hatten positive Einflüsse auf Abundanz und Artenreichtum von wichtigen Kulturbestäubern und seltenen Arten. Ähnliche Muster zeigten sich für Wiesendiversität. Dabei schien besonders das frühe Blühangebot einen positiven Einfluss auf Wildbienen zu haben. Kulturen und Obstbäume verursachten im April einen Blütenpuls, der das Blühangebot vom Mai und Juni um mehr als das Zehnfache überstieg. Waldränder boten besonders Anfang Mai und im Juni ein Blühangebot, das im Verhältnis zur Fläche die weitaus höchste Dichte aufwies. Das Blühangebot von Wiesen war äusserst gering, zeigte aber die höchste Diversität, welche regelmässig über die Saison verteilt war.
Obwohl die untersuchten Nützlinge Blüten fürs Überleben benötigen, waren blütenbasierte Habitatkarten weniger geeignet, um die Nützlingsabundanz zu erklären, als herkömmliche Habitatkarten. Diese zeigten, dass Waldränder von besonderer Bedeutung für Nützlinge sind. Die Anzahl der Nützlinge wiederum führte zur Unterdrückung von Blattläusen. Die Resultate der Darmuntersuchungen zeigten zum einen, dass Marienkäfer einen relativ hohen Anteil an schädlichen Blattlausarten und Brennesselblattläusen konsumieren, zum anderen zeigen sie, dass mit Klebfallen gefangene Marienkäfer einen wesentlich breiteren Einblick in das Beutespektrum erlauben, als von Hand gesammelt. Der zu diesem Zweck entwickelte Blattlausprimer wird für kommende Studien bei der Identifizierung der Blattlausbeute von Marienkäfern hilfreich sein.
Unsere Resultate zeigen, dass Blütenkarten einen wichtigen Mehrwert für die Vorhersage von Wildbienen haben, nicht aber von Nützlingen, da für diese wohl andere Habitatfaktoren zusätzlich limitierend wirken. Der positive Einfluss von Waldrändern für unterschiedliche Gruppen von Wildbienen wie auch für Nützlinge und ihre Leistung als Schädlingsbekämpfer ist besonders hervorzuheben.
Das Stereotype Content Modell (SCM, Fiske et al., 2002) schlägt zwei fundamentale Dimensionen der sozialen Wahrnehmung vor: Wärme, also die freundliche oder feindliche Intention des Bewertungsobjekts, und Kompetenz, also die Fähigkeit, besagte Intentionen in die Tat umzusetzen. Die praktischen Anwendungen des SCMs sind sehr weitreichend und haben zu der Annahme geführt, Wärme und Kompetenz seien universelle Dimensionen der sozialen Bewertung.
Die vorliegende Doktorarbeit hat fünf vor allem methodologische Schwächen der SCM- Forschung und -Literatur identifiziert: (I) Eine unzureichende anfängliche Skalenentwicklung; (II) die Nutzung variierender Skalen ohne hinreichende Prüfung der Skalenperformanz in der anschließenden SCM-Forschung; (III) die vorherrschende Nutzung von Analysemethoden der ersten Generation; (IV) die unzureichende Definition und empirische Testung der Universalitätsannahme des SCM; (V) die eingeschränkte Anwendung des SCM in Bezug auf einige soziale Gruppen. Diese Schwächen wurden in vier wissenschaftlichen Artikelmanuskripten aufgegriffen, welche allesamt streng den Empfehlungen der offenen Wissenschaft folgten.
Manuskript # 1 nutzte veröffentlichte Daten von englischen SCM-Skalen, um die Mess-Eigenschaften der genutzten Wärme- und Kompetenz-Skalen zu reanalysieren. Das Manuskript berichtet die Skalenreliabilität, -Dimensionalität und Vergleichbarkeit der Skalen über verschiedene Bewertungsobjekte hinweg sowie verschiedene Performanz-Parameter der einzelnen Indikatoren auf im Rahmen einer (Multi-Gruppen-) konfirmatorischen Faktor-Analyse. Die Befunde zeigen, dass zwei Drittel aller reanalysierten Skalen nicht die theoretisch angenommene Wärme- und Kompetenz-Dimensionalität haben. Weiterhin zeigten nur elf Prozent aller Skalen die Voraussetzungen für aussagekräftige Mittelwertsvergleiche zwischen Bewertungsobjekten. Manuskript # 2 beschreibt eine Replikation von Manuskript # 1 im deutschsprachigen Landes- und Sprachkontext und zeigt nahezu identische Ergebnisse wie Manuskript # 1. Manuskript # 3 untersucht die soziale Wahrnehmung von Subgruppen von Geflüchteten in Deutschland. Wir konnten zeigen, dass die soziale Kategorie der Geflüchteten generell unvorteilhaft in Bezug auf Wärme und Kompetenz wahrgenommen wurde, aber dass die soziale Wahrnehmung der Subgruppen von Geflüchteten sich in Abhängigkeit der geografischen Herkunft, der religiösen Zugehörigkeit und der Fluchtgründe unterschied. Diese Befunde wurden durch die Nutzung eines Reliabilitäts-korrigierenden Verfahrens zum Vergleich von Mittelwerten namens Alignment-Optimierung generiert. Manuskript # 4 entwickelte und testete eine leistungsfähige SCM-Skala zur Erfassung von Stereotypen von Berufsgruppen mittels explorativer und konfirmatorischer Faktorenanalysen.
Außerschulische Lernorte und deren Wirksamkeit im Kontext von BNE-Bildungsmaßnahmen wurden bislang wenig untersucht. Mithilfe einer mehrstufi-gen Analyse identifiziert die vorliegende Studie außerschulische Lernorte mit Be-zug zum BNE-Bildungskonzept im Untersuchungsraum Rheinland-Pfalz. Dazu wurden zunächst mittels qualitativer Literaturanalysen BNE-Kriterien generiert, die als methodisches Instrument in Form einer BNE-Checkliste für außerschulische Lernorte operationalisiert wurden. Die auf diesem Wege gewonnenen Daten liefern die Grundlage für die Erstellung einer geografisch orientierten Lernortdatenbank mit BNE-Bezug. Eine kartografische Visualisierung der Daten ergibt ein räumliches Verteilungsmuster: So zeigen sich mit BNE-Lernorten gut versorgte Landkreise und kreisfreie Städte, aber auch regelrechte BNE-Lernort-Wüsten, an denen Nachhol-bedarf besteht. Des Weiteren zeigt sich eine Häufung von BNE-Lernorten in wald-nahen Gebieten.
Zur Frage, wie die außerschulische BNE im Bundesland Rheinland-Pfalz imple-mentiert wurde, inwiefern Optimierungsbedarf besteht und welche fortsetzenden Maßnahmen im Rahmen der Agenda 2030 für die außerschulische BNE getroffen werden, liefert ein leitfadenbasiertes exploratives Interview mit zwei BNE-Experten zusätzliche Erkenntnisse.
Weiterführend wurde mit 1358 Schülerinnen und Schülern an 30 außerschuli-schen Lernorten nach Teilnahme an einer Bildungsmaßnahme eine quantitative Fragebogenstudie durchgeführt, bei der auch das Umweltbewusstsein, Einstellun-gen zum Umweltverhalten und das Lernen vor Ort betrachtet wurden. Durch ein Miteinbeziehen von Nicht-BNE-Lernorten wurde eine Vergleichsstudie zur Wirk-samkeit von BNE-Lernorten möglich. Die statistische Datenauswertung führt zu ei-ner Vielzahl an interessanten Ergebnissen. Kontraintuitiv zeigt sich beispielsweise die Art des Lernorts (BNE- oder Nicht-BNE-Lernort) als nicht signifikanter Prädiktor für das Umweltbewusstsein und Umweltverhalten der befragten Schüler, wohinge-gen Kommunikationsstrukturen innerhalb von Bildungsmaßnahmen an außerschu-lischen Lernorten, die Multimedialität und Handlungsorientierung sowie die Dauer von Bildungsmaßnahmen einen signifikanten Einfluss ausüben.
Schlüsselwörter: Außerschulische Lernorte, Bildung für nachhaltige Entwicklung (BNE), BNE-Kriterien, Lernortlandschaft Rheinland-Pfalz, BNE-Lernorte, Umwelt-bewusstsein, Umweltverhalten.
Demografische und gesellschaftliche Wandlungsprozesse drohen die informelle Pflege als tragende Säule des Pflegesystems in Deutschland zunehmend zu erodieren. Während einerseits die Zahl an Pflegebedürftigen zukünftig ansteigen wird, nimmt andererseits die Zahl derer, die Pflegetätigkeiten übernehmen könnten ab. Zudem werden Frauen, die heute noch die Hauptlast der Pflegeverantwortung tragen, in Zukunft vermehrt erwerbstätig sein.
Vor diesem Hintergrund ergibt sich folgendes Problemfeld: Bei der Übernahme von informellen Pflegeaufgaben entsteht häufig ein Vereinbarkeitsproblem zwischen Pflege- und Erwerbstätigkeit. Pflegende reduzieren deshalb nicht selten ihre Erwerbsarbeitszeit oder geben die berufliche Tätigkeit ganz auf. Im Kontext des deutschen Sozialversicherungssystems bedeutet das, dass sich informell Pflegende erhöhten sozialen Risiken aussetzen, wenn sie ihre Erwerbs- und Verdienstpotenziale am Arbeitsmarkt nicht vollumfänglich ausschöpfen. Ferner entstehen indirekte Kosten beim Fiskus, die auf verringerte Einkommensteuer- und Sozialversicherungsbeiträge und/oder erhöhte Transferleistungen zurückzuführen sind. Diese sogenannten fiskalischen Kosten wurden im wissenschaftlichen und gesellschaftspolitischen Diskurs bisher jedoch nur unzureichend berücksichtigt.
Demnach ist das Ziel der vorliegenden Arbeit, die fiskalischen Kosten aufgrund informeller Pflege im deutschen Wohlfahrtsstaat empirisch zu prognostizieren. Dazu werden zunächst die Auswirkungen einer Pflegeübernahme auf das Arbeitsangebot evaluiert und dann in ein Steuer- und Sozialversicherungsmodell überführt, um so die fiskalischen Kosten aufgrund informeller Pflege zu quantifizieren. Mithilfe eines dynamischen Populationsmodells erfolgt abschließend die empirische Prognose der fiskalischen Kosten.
Im Ergebnis zeigt sich, dass beim Fiskus erhebliche (Mehr-)kosten durch informelle Pflege in Form von entgangenen Einkommensteuer- und Sozialversicherungsbeiträgen und/oder erhöhte Transferleistungen entstehen. Darüberhinaus ist die informelle Pflegeerbringung von Frauen aus staatlicher Perspektive kostengünstiger als die von Männern.
Scientific and public interest in epidemiology and mathematical modelling of disease spread has increased significantly due to the current COVID-19 pandemic. Political action is influenced by forecasts and evaluations of such models and the whole society is affected by the corresponding countermeasures for containment. But how are these models structured?
Which methods can be used to apply them to the respective regions, based on real data sets? These questions are certainly not new. Mathematical modelling in epidemiology using differential equations has been researched for quite some time now and can be carried out mainly by means of numerical computer simulations. These models are constantly being refinded and adapted to corresponding diseases. However, it should be noted that the more complex a model is, the more unknown parameters are included. A meaningful data adaptation thus becomes very diffcult. The goal of this thesis is to design applicable models using the examples of COVID-19 and dengue, to adapt them adequately to real data sets and thus to perform numerical simulations. For this purpose, first the mathematical foundations are presented and a theoretical outline of ordinary differential equations and optimization is provided. The parameter estimations shall be performed by means of adjoint functions. This procedure represents a combination of static and dynamical optimization. The objective function corresponds to a least squares method with L2 norm which depends on the searched parameters. This objective function is coupled to constraints in the form of ordinary differential equations and numerically minimized, using Pontryagin's maximum (minimum) principle and optimal control theory. In the case of dengue, due to the transmission path via mosquitoes, a model reduction of an SIRUV model to an SIR model with time-dependent transmission rate is performed by means of time-scale separation. The SIRUV model includes uninfected (U) and infected (V ) mosquito compartments in addition to the susceptible (S), infected (I) and recovered (R) human compartments, known from the SIR model. The unknwon parameters of the reduced SIR model are estimated using data sets from Colombo (Sri Lanka) and Jakarta (Indonesia). Based on this parameter estimation the predictive power of the model is checked and evaluated. In the case of Jakarta, the model is additionally provided with a mobility component between the individual city districts, based on commuter data. The transmission rates of the SIR models are also dependent on meteorological data as correlations between these and dengue outbreaks have been demonstrated in previous data analyses. For the modelling of COVID-19 we use several SEIRD models which in comparison to the SIR model also take into account the latency period and the number of deaths via exposed (E) and deaths (D) compartments. Based on these models a parameter estimation with adjoint functions is performed for the location Germany. This is possible because since the beginning of the pandemic, the cumulative number of infected persons and deaths
are published daily by Johns Hopkins University and the Robert-Koch-Institute. Here, a SEIRD model with a time delay regarding the deaths proves to be particularly suitable. In the next step, this model is used to compare the parameter estimation via adjoint functions with a Metropolis algorithm. Analytical effort, accuracy and calculation speed are taken into account. In all data fittings, one parameter each is determined to assess the estimated number of unreported cases.
Identifizierung und Quantifizierung von Mikroplastik mittels quantitativer ¹H-NMR Spektroskopie
(2021)
Plastik und damit einhergehend auch Mikroplastik (MP) ist mittlerweile global präsent und stellt ein zunehmend signifikantes Problem für die Umwelt dar. Um die Verbreitung und Aus¬wirkung von MP im Ansatz zu verstehen, ist es wichtig, MP über einen weitreichenden Größenbereich zu identifizieren und zu quantifizieren sowie eine Vergleichbarkeit von Studien zu gewährleisten. Jedoch besteht noch großer Forschungsbedarf auf dem Gebiet der größenunabhängigen, quantitativen Analyse von MP in Umweltproben, besonders im Hinblick auf die massenbasierte MP-Konzentrationsangabe. Daher wird in dieser Dissertation die quantitative ¹H-NMR Spektroskopie (qNMR) als eine alternative Methode für die MP-Analyse etabliert. Bei der qNMR-Methode handelt es sich um eine schnelle, größenunabhängige, massenbasierte Methode, welche als alternative MP-Analytik angewendet werden kann und Potential zur Routineanalytik aufweist. Am Beispiel von LDPE, PET und PS erfolgte der Konzeptnachweis (Kapitel 2). Zusätzlich wurden PVC, PA und ABS Partikel getestet, um die wichtigsten Polymertypen für die MP-Analyse abzudecken (Kapitel 3). Am Beispiel von PET, PVC und PS wurde überprüft, ob die qNMR-Methode auch auf die kosteneffektivere NoD-Methode übertragbar ist (Kapitel 4). Die Ergebnisse der Validierung beider Methoden (1D und NoD) zeigen, dass die Quantifizierung von MP-Partikeln mittels qNMR nicht nur prinzipiell möglich ist, sondern auch eine hohe Richtigkeit (88.0 - 110 %) aufweist und die Nachweisgrenzen (1 - 84 µg) im umweltrelevanten Bereich liegen. Weiterhin wurde überprüft, ob sich nicht nur Hochfeld-Geräte für die MP-Analyse eignen, sondern auch niedrigauflösende Benchtop-Geräte, welche in Anschaffung und Unterhalt wesentlich kosteneffektiver sind. Durch Erhöhung der Messzeit von auf ca. 30 min für PET und PS und auf ca. 140 min für PVC konnte die geringere Messfrequenz ausgeglichen werden (Kapitel 4). Um die Frage möglicher Matrixeffekte von Umweltproben zu behandeln, wurden darüber hinaus eben solche Matrixeffekte sowie Wiederfindungsraten von PET-Fasern bei Anwendung einer speziell für die qNMR-Methode optimierten Probenvorbereitung in Gegenwart von Modellmatrices bestimmt (Kapitel 5). Es konnte gezeigt werden, dass die Umweltmatrices die quantitative Analyse nicht stören und die speziell für die qNMR Analytik entwickelte Probenvorbereitung, mit Wiederfindungsraten von > 80% für die unterschiedlichen Umweltmatrices, angewendet werden kann (Kapitel 5). Über erste orientierende Untersuchungen zur simultanen Bestimmung mehrerer Polymerarten in einer Probe wird abschließend berichtet (Kapitel 6).
Mathematical models of species dispersal and the resilience of metapopulations against habitat loss
(2021)
Habitat loss and fragmentation due to climate and land-use change are among the biggest threats to biodiversity, as the survival of species relies on suitable habitat area and the possibility to disperse between different patches of habitat. To predict and mitigate the effects of habitat loss, a better understanding of species dispersal is needed. Graph theory provides powerful tools to model metapopulations in changing landscapes with the help of habitat networks, where nodes represent habitat patches and links indicate the possible dispersal pathways between patches.
This thesis adapts tools from graph theory and optimisation to study species dispersal on habitat networks as well as the structure of habitat networks and the effects of habitat loss. In chapter 1, I will give an introduction to the thesis and the different topics presented in this thesis. Chapter 2 will then give a brief summary of tools used in the thesis.
In chapter 3, I present our model on possible range shifts for a generic species. Based on a graph-based dispersal model for a generic aquatic invertebrate with a terrestrial life stage, we developed an optimisation model that models dispersal directed to predefined habitat patches and yields a minimum time until these patches are colonised with respect to the given landscape structure and species dispersal capabilities. We created a time-expanded network based on the original habitat network and solved a mixed integer program to obtain the minimum colonisation time. The results provide maximum possible range shifts, and can be used to estimate how fast newly formed habitat patches can be colonised. Although being specific for this simulation model, the general idea of deriving a surrogate can in principle be adapted to other simulation models.
Next, in chapter 4, I present our model to evaluate the robustness of metapopulations. Based on a variety of habitat networks and different generic species characterised by their dispersal traits and habitat demands, we modeled the permanent loss of habitat patches and subsequent metapopulation dynamics. The results show that species with short dispersal ranges and high local-extinction risks are particularly vulnerable to the loss of habitat across all types of networks. On this basis, we then investigated how well different graph-theoretic metrics of habitat networks can serve as indicators of metapopulation robustness against habitat loss. We identified the clustering coefficient of a network as the only good proxy for metapopulation robustness across all types of species, networks, and habitat loss scenarios.
Finally, in chapter 5, I utilise the results obtained in chapter 4 to identify the areas in a network that should be improved in terms of restoration to maximise the metapopulation robustness under limited resources. More specifically, we exploit our findings that a network’s clustering coefficient is a good indicator for metapopulation robustness and develop two heuristics, a Greedy algorithm and a deducted Lazy Greedy algorithm, that aim at maximising the clustering coefficient of a network. Both algorithms can be applied to any network and are not specific to habitat networks only.
In chapter 6, I will summarize the main findings of this thesis, discuss their limitations and give an outlook of future research topics.
Overall this thesis develops frameworks to study the behaviour of habitat networks and introduces mathematical tools to ecology and thus narrows the gap between mathematics and ecology. While all models in this thesis were developed with a focus on aquatic invertebrates, they can easily be adapted to other metapopulations.
Im Kontext des Geschäftsprozessmanagements werden häufig sogenannte
Business Rules (Geschäftsregeln) als zentrales Artefakt zur Modellierung von
unternehmensinterner Entscheidungslogik sowie der Steuerung von Unternehmensaktivitäten eingesetzt. Eine exemplarische Geschäftsregel aus dem Finanzsektor wäre z.B. ”Ein Kunde mit geistiger Behinderung ist nicht geschäftsfähig”.
Business Rules werden hierbei meist von mehreren Mitarbeitern und über einen
längeren Zeitraum erstellt und verwaltet. Durch dieses kollaborative Arbeiten
kann es jedoch leicht zu Modellierungsfehlern kommen. Ein großes Problem in
diesem Kontext sind Inkonsistenzen, d.h. sich widersprechende Regeln. In Bezug
auf die oben gezeigte Regel würde beispielsweise eine Inkonsistenz entstehen,
wenn ein (zweiter) Modellierer eine zusätzliche Regel ”Kunden mit geistiger
Behinderung sind voll geschäftsfähig” erstellt, da diese beiden Regeln nicht zeitgleich einhaltbar sind. Die vorliegende Arbeit beschäftigt sich mit dem Umgang
mit solchen Inkonsistenzen in Business Rule-Repositorien. Hierbei werden im
Speziellen Methoden und Techniken zur Erkennung, Analyse und Behebung von
Inkonsistenzen in Regelbasen entwickelt.
In Kooperation mit dem TÜV SÜD und 985 Führungskräften aus deutschen Unternehmen wurde erprobt, wie Service-Qualität im Rahmen einer Onlinebefragung gemessen werden kann. Es wurde untersucht, welche Komponenten Service-Qualität umfasst, und ein Rahmenmodell entwickelt, das die Zusammenhänge zwischen Service-Qualität, Kundenzufriedenheit und dem Erfolg von Organisationen beschreibt. Die theoretische Konzeption und Operationalisierung des Konstrukts wurde mittels konfirmatorischer Faktorenanalysen überprüft und bestätigt. Das Rahmenmodell der Studie wurde als Strukturgleichungsmodell formuliert und konnte ebenfalls empirisch bestätigt werden. Die Ergebnisse und deren Auswirkung auf die Weiterentwicklung der bestehenden wissenschaftlichen Theorien zu den Konstrukten Service-Qualität, Kundenzufriedenheit und Erfolg von Organisationen wurden kritisch diskutiert.
Zur Steigerung der Ökonomie des Verfahrens wurde ein adaptiver Test zur Erfassung von Service-Qualität entwickelt. Im Rahmen der probabilistischen Testtheorie wurde geprüft, welches Item Response-Modell die empirischen Daten gut beschreiben kann. Als Grundlage für den adaptiven Test wurden die Item-Parameter modellkonform bestimmt. In einer Simulationsstudie wurde untersucht, ob die Ergebnisse der Onlinebefragung sich bedeutsam von den Ergebnissen adaptiver Tests mit unterschiedlichen Konfigurationen unterscheiden. Der Vergleich der Konfigurationen, die sich darin unterschieden, wie der Personenparameter geschätzt wurde und nach welchem Algorithmus das nächste Test-Item gewählt wurde, zeigte, welche Konfigurationen eingesetzt werden können, um eine möglichst geringe Testlänge zu erzielen, ohne dabei bedeutsame Einbußen bei der Reliabilität und Validität der Messung in Kauf zu nehmen. Unter Berücksichtigung dieser Erkenntnisse wurde der Fragebogen zur Erfassung von Service-Qualität als computerbasierter adaptiver Test umgesetzt. Diese neue Erfassungsmethode wurde in der Praxis erprobt, und abschließend wurden Nützlichkeit, Ökonomie und mögliche Nachteile, die mit dieser Art des Testens verknüpft sind, diskutiert.
Dieses Dokument, detailierte Analyseergebnisse, den adaptiven Test zur Erfassung von Service-Qualität und weitere Begleitmaterialien finden Sie unter: https://promotion.creaval.de
Eutrophierung infolge übermäßiger Nährstoffeinträge ist eine ernsthafte, weltweite Bedrohung für aquatische Ökosysteme und ist einer der wesentlichen anthropogenen Stressoren auf aquatische Organismen in europäischen Fließgewässern. In Bächen und kleinen bis mittelgroßen Flüssen führt Eutrophierung zu einem übermäßigen Wachstum von Periphyton und dadurch zu einem Verstopfen des hyporheischen Interstitials (biogene Kolmation). Infolgedessen kommt es zu einem Sauerstoffdefizit im Interstitial, wodurch die Habitatqualität für das Makrozoobenthos und für Eier und Larven kieslaichender Fische erheblich beeinträchtigt wird. Anders als in stehenden Gewässern fehlen effiziente Werkzeuge zur Eutrophierungssteuerung in Fließgewässern bisher. Eine Top-down Steuerung des Nahrungsnetzes durch gezielte Stützung der Fischbestände, vergleichbar mit der erfolgreich in Seen angewendeten Methode der Biomanipulation, ist ein vielversprechender Ansatz zur Reduktion von Eutrophierungseffekten in Fließgewässern – insbesondere in Einzugsgebieten, in denen die Nährstoffeinträge nicht erheblich reduziert werden können. Ziel dieser Arbeit war es, das Potenzial einer Top-down Steuerung zur Reduktion von Eutrophierungseffekten durch zwei großwüchsige karpfenartige Fischarten – die herbivore Nase (Chondrostoma nasus) und den omnivoren Döbel (Squalius cephalus) – in mittelgroßen Flüssen zu erfassen. Dazu habe ich Freilandexperimente auf unterschiedlich großen räumlichen und zeitlichen Skalen in einem eutrophierten Mittelgebirgsfluss durchgeführt. Generell haben die Ergebnisse dieser Experimente die zentrale Rolle von Top-down Effekten durch Fische in Fließgewässernahrungsnetzen aufgezeigt. In einem vierjährigen großskaligen Experiment, dem zentralen Teil meiner Arbeit, konnte ich zeigen, dass die Stützung der Bestände von Nase und Döbel zu einer deutlichen Verbesserung der Sauerstoffversorgung und des Wasseraustauschs im oberen Bereich des Interstitials geführt hat, und das, obwohl die Top-down Effekte der Fische auf die Periphytonbiomasse vergleichsweise gering ausgeprägt waren. Diese Ergebnisse konnten durch ein vierwöchiges Mesokosmosexperiment gestützt werden, das zugleichwertvolle Hinweise auf die zugrundeliegenden Mechanismen für die Verringerung der Eutrophierungseffekte im Interstitial durch Nase und Döbel geliefert hat. Durch hohe Dichten beider Fischarten wurde das Sauerstoffdefizit im Interstitial verringert, was wahrscheinlich auf eine Reduktion der biogenen Kolmation des Interstitials durch benthisches Grazing der Nasen bzw. durch Bioturbation der Döbel zurückzuführen war. Insgesamt zeigen die Ergebnisse meiner Arbeit, dass eine Biomanipulation durch Stützung der Bestände herbivorer und omnivorer Fische potenziell geeignet ist, um Eutrophierungseffekte in mittelgroßen Flüssen zu reduzieren. Die Ergebnisse könnten somit der erste Schritt sein, um Biomanipulation als unterstützende Maßnahme zur Verringerung von Eutrophierungseffekten in Fließgewässern zu etablieren, und damit zum Erhalt der aquatischen Biodiversität beitragen.
Wir leben in einer Welt, in der sich Umweltkrisen immer weiter zuspitzen. Um diese Krisen zu entschärfen, braucht es einen sozial-ökologischen Wandel, der mit Verhaltensänderungen in verschiedenen Bereichen des täglichen Lebens einhergehen muss. Ausgehend von dieser gesellschaftlichen Aufgabe, befasst sich die vorliegende Dissertation mit der Frage, wie Verhaltensänderungen auf individueller Ebene angestoßen werden können. Mit dem weltweiten Problem von Plastik in der Umwelt wird ein aktuelles und sozialwissenschaftlich wenig erforschtes Themenfeld aufgegriffen. Es wird untersucht, welche psychologischen Faktoren einen Einfluss darauf haben, den eigenen Plastikkonsum zu reduzieren. Der Fokus liegt dabei insbesondere auf Plastikverpackungen, die den größten Anteil der derzeitigen Plastikproduktion ausmachen. Eine Barriere, die das Aufnehmen von neuen Verhaltensweisen erschwert, stellen die eigenen Gewohnheiten dar. Phasen von Umbrüchen, wie der Umzug in eine neue Stadt, gelten als vielversprechend zur Veränderung von Gewohnheiten. Die Dissertation untersucht daher, ob solche Phasen des Wandels ein Gelegenheitsfenster öffnen können, um alte Gewohnheiten zu durchbrechen und Verhaltensänderungen anzustoßen. Vier Manuskripte nähern sich diesem Thema von einem zunächst breiten Fokus einer Literaturstudie bis hin zu fokussierten Interventionsstudien an. Das Literaturreview (Manuskript 1) fasst 187 Studien zum Umgang mit Plastik aus sozialwissenschaftlicher Perspektive zusammen. Darauf aufbauend, untersucht eine Online-Studie (N = 648) plastikfreie Verhaltensintentionen (Manuskript 2). In einem Strukturgleichungsmodell werden Prädiktoren für Verhaltensintentionen im privaten sowie politischen Bereich analysiert. Zwei Experimentalstudien im Pre-Post-Design schließen an das Verhalten im Privaten an (Manuskript 3 + 4). Es wird untersucht, ob eine Intervention, die während der Fastenzeit (N =140) oder während eines Aktionsmonats (N = 366) präsentiert wird, ein Gelegenheitsfenster zur Konsumreduktion von Plastikverpackungen darstellen kann. Die Ergebnisse der empirischen Arbeiten weisen Moral- und Kontrollüberzeugungen als stärkste Prädiktoren für Verhaltensreduktionen aus. Der Zeitpunkt einer Intervention beeinflusst zudem die Wahrscheinlichkeit ein neues Verhalten auszuprobieren. Die Studien zeigen erste Belege, dass Gelegenheitsfenster umweltfreundliche Verhaltensänderungen im Kontext des Plastikkonsums erleichtern können. Theoretische und praktische Implikationen, wie Gelegenheitsfenstern zu einer sozial-ökologischen Transformation beigetragen können, werden diskutiert.
Die Umsetzung einer flexiblen Integration von Informationen aus verteilten und komplexen Informationssystemen stellt Unternehmen aktuell vor große Herausforderungen. Das im Rahmen dieser Dissertation entwickelte Ontologie-basierte Informationsintegrationskonzept SoNBO (Social Network of Business Objects) adressiert diese Herausforderungen. Bei einem Ontologie-basierten Konzept werden die Daten in den zu integrierenden Quellsystemen (z. B. betriebliche Anwendungssysteme) mithilfe eines Schemas (= Ontologie) beschrieben. Die Ontologie in Verbindung mit den Daten aus den Quellsystemen ergibt dann einen (virtualisierten oder materialisierten) Knowledge Graph, welcher für den Informationszugriff verwendet wird. Durch den Einsatz eines Schemas ist dieses flexibel auf die sich ändernden Bedürfnisse des Unternehmens bezüglich einer Informationsintegration anpassbar. SoNBO unterscheidet sich von existierenden Konzepten aus dem Semantic Web (OBDA = Ontology-based Data Access, EKG = Enterprise Knowledge Graph) sowohl im Aufbau der unternehmensspezifischen Ontologie (= Social Network of Concepts) als auch im Aufbau des nutzerspezifischen Knowledge Graphen (= Social Network of Business Objects) unter der Verwendung von sozialen Prinzipien (bekannt aus Enterprise Social Software). Aufbauend auf diesem SoNBO-Konzept wird das im Rahmen dieser Dissertation entwickelte SoNBO-Framework (nach Design Science Research) zur Einführung von SoNBO in einem beliebigen Unternehmen und die aus der Evaluation (im Unternehmen KOSMOS Verlag) gewonnenen Erkenntnisse vorgestellt. Die Ergebnisse (SoNBO-Konzept und SoNBO-Framework) basieren auf der Synthese der Erkenntnisse zu Ontologie-basierter Informationsintegration aus dem Status quo in Praxis und Wissenschaft: Für den Status quo in der Praxis wird mithilfe einer Tiefenfallstudie (Ingenieurbüro Vössing) die grundlegende Idee zu SoNBO in Form einer vom Fallstudienunternehmen entwickelten und dort seit Jahren eingesetzten Individualsoftware analysiert. Für den Status quo in der Wissenschaft wird das Ergebnis einer im Rahmen der Dissertation durchgeführten strukturierten Literaturanalyse zu Ontologie-basierten Informationsintegrationsansätzen präsentiert. Diese Dissertation liefert damit einen Beitrag sowohl für die Wissenschaft (Erkenntnisgewinn im Bereich der Ontologie-basierten Informationsintegrationsansätze für die Wirtschaftsinformatik u. a. durch die Entwicklung eines evaluierten Artefaktes) als auch für die Praxis (Schaffung eines evaluierten Artefaktes).
Previous research concerned with early science education revealed that guided play can support young children’s knowledge acquisition. However, the questions whether guided play maintains other important prerequisites such as children’s science self-concept and how guided play should be implemented remain unanswered. The present dissertation encompasses three research articles that investigated 5- to 6-year-old children’s science knowledge, science theories, and science self-concept in the stability domain and their relation to interindividual prerequisites. Moreover, the articles examined whether children’s science knowledge, science theories, and science self-concept can be supported by different play forms, i.e., guided play with material and verbal scaffolds, guided play with material scaffolds, and free play. The general introduction of the present dissertation first highlights children’s cognitive development, their science self-concept, and interindividual prerequisites, i.e., fluid and crystallised intelligence, mental rotation ability, and interest in block play. These prerequisites are applied to possible ways of supporting children during play. The first article focused on the measurement of 5-to-6-year-old children’s stability knowledge and its relation to interindividual prerequisites. Results suggested that children’s stability knowledge could be measured reliably and validly, and was related to their fluid and crystallised intelligence. The second article was concerned with the development of children’s intuitive stability theories over three points of measurement and the effects of guided and free play, children’s prior theories as well as their intelligence on these intuitive theories. Results implied that guided play with material and verbal scaffolds supported children’s stability theories more than the other two play forms, i.e., guided play with material scaffolds and free play. Moreover, consistency of children’s prior theories, their fluid and crystallised intelligence were related to children’s theory adaptation after the intervention. The third article focused on the effect of the playful interventions on children’s stability knowledge and science self-concept over three points of measurement. Furthermore, the reciprocal effects between knowledge acquisition and science self-concept were investigated. Results implied that guided play supported knowledge acquisition and maintained children’s science self-concept. Free play did not support children’s stability knowledge and decreased children’s science self-concept. No evidence for reciprocal effects between children’s stability knowledge and their science self-concept was found. Last, in a general discussion, the findings of the three articles are combined and reflected amidst children’s cognitive development. Summarising, the present dissertation shows that children’s science knowledge, science theories, and science self-concept can be supported through guided play that considers children’s cognitive development.
Die bisherige Forschung zur Diagnosekompetenz hat trotz langjähriger Forschungstraditionen für die Praxis kaum relevante Befunde erbracht. Dies wurde in der vorliegenden Arbeit als Anlass für den Vorschlag genommen, diagnostische Kompetenz als reine Urteilsgenauigkeit, gemäß der Komponentenanalyse nach Cronbach (1955), zu erweitern. Mit der Einführung der Beobachtungskompetenz als einer weiteren Facette diagnostischer Kompetenz knüpft die vorliegende Studie zudem an der Forschung zu formativem Assessment an.
Die zentralen Fragen der Arbeit beziehen sich darauf, wie die beiden Facetten der diagnostischen Kompetenz Urteilsgenauigkeit und Beobachtungskompetenz von pädagogischen Fachkräften im Elementarbereich ausgeprägt sind, ob diese Facetten zusammenhängen und wie sie durch bereichsspezifische Fortbildungen und explizit durch verschiedene Fortbildungsansätze (Lehrgangs- vs. Lernwegsorientierung) verändert werden können. Untersucht wurden insgesamt 103 Erzieherinnen aus 21 Einrichtungen mit eigens für die Arbeit entwickelten Instrumenten (Fragebögen, Filmvignetten).
Zur Beantwortung der ersten Forschungsfrage, wie die bereichsspezifische diagnostische Kompetenz von Erzieherinnen hinsichtlich der Facetten Urteilsgenauigkeit und Beobachtungskompetenz ausgeprägt ist, zeigt sich, dass Erzieherinnen das Niveau ihrer Gruppe im Vergleich der Urteilsgenauigkeits-Komponenten am besten einschätzen können (Niveaukomponente), mit Tendenz zur Überschätzung. Auch die Wahrnehmung von Unterschieden zwischen den Kindern ihrer Gruppe gelingt ihnen gut (Personenkomponente), dabei neigen sie eher zu einer Überschätzung der Heterogenität. Wesentlich schwerer fällt es ihnen, spezifische Aufgabenschwierigkeiten im mathematischen Bereich korrekt einzuschätzen (Merkmalskomponente) und Unterschiede zwischen den Kindern im Hinblick auf einzelne Aufgaben (Wechselwirkungskomponente) zu beurteilen. Die Erzieherinnen sind jedoch sehr gut in der Lage, die Kinder entsprechend ihrer Leistungen in eine Rangreihenfolge zu bringen, wie es die Korrelationskomponente der Personenkomponente zeigt. Die Beobachtungskompetenz von Erzieherinnen zeigt sich in der Anzahl erkannter Fähigkeiten von Kindern während verschiedener Tätigkeiten mit mathematischem Bezug. Dabei wurde der Schwierigkeitsgrad der Beobachtung mittels Expertinneneinschätzung berücksichtigt. Die Erzieherinnen erkennen durchschnittlich die Hälfte der mathematischen Fähigkeiten von Kindern in verschiedenen komplexen Alltagssituationen bei mathematischen Tätigkeiten. Die zweite Forschungsfrage, ob es einen Zusammenhang zwischen der Urteilsgenauigkeit und der Beobachtungskompetenz gibt, kann klar beantwortet werden. Erwartungswidrig zeigt die vorliegende Untersuchung, dass die Facetten Urteilsgenauigkeit und Beobachtungskompetenz voneinander unabhängig sind. Damit konnte die Annahme, dass auf der einen Seite eine genaue summative Beurteilung auf einer Vielzahl kompetenter Einzelbeobachtungen beruht, auf der anderen Seite aber häufige gezielte Einzelbeobachtungen in ihrer Summe zu einem genaueren Gesamturteil führen, nicht bestätigt werden. Die dritte Forschungsfrage, ob eine bereichsspezifische Fortbildung von Erzieherinnen zur Verbesserung ihrer Urteilsgenauigkeit führt, muss verneint werden. Dagegen beeinflusst der Faktor Zeit (neun Monate zwischen Prä- und Posttest) die Fähigkeit der Erzieherinnen, Unterschiede zwischen den Kindern signifikant besser wahrzunehmen (Personenkomponente) und spezifische Aufgabenschwierigkeiten signifikant besser einzuschätzen (Merkmalskomponente). Damit verbessert sich auch die globale Urteilsgenauigkeit über die Zeit signifikant. Auf die Einschätzung des Leistungsniveaus der Gruppe (Niveaukomponente) sowie von Unterschieden zwischen den Kindern für einzelne Items (Wechselwirkungskomponente) hat jedoch auch der Faktor Zeit keinen signifikanten Einfluss.
Die vierte Forschungsfrage, ob die Unterschiede in der Veränderung der Urteilsgenauigkeit von Erzieherinnen davon abhängig sind, nach welchem Ansatz sie Kinder bereichsspezifisch fördern, lässt sich zusammenfassend verneinen. Die Art und Weise der bereichsspezifischen Förderung spielt keine Rolle für die Variabilität der Urteilsgenauigkeit von Erzieherinnen. Auch die Unterschiedlichkeit in den einzelnen Urteilsgenauigkeitskomponenten lässt sich nicht auf die Art der Fortbildung zurückführen.
Die fünfte Forschungsfrage, ob sich die Beobachtungskompetenz von Erzieherinnen durch eine bereichsspezifische Fortbildung beeinflussen lässt, kann aufgrund einer signifikanten Zunahme der Beobachtungskompetenz nach nur zwei Fortbildungstagen bejaht werden. Damit wird die These gestützt, dass eine Fortbildung zur bereichsspezifischen Förderung für eine gezielte und damit fokussiertere Wahrnehmung früher bereichsspezifischer Kompetenzen bedeutsam ist, selbst wenn sie nicht explizit auf diagnostische Kompetenz, sondern allgemein auf Förderung ausgerichtet ist
Die sechste Forschungsfrage zielt auf Veränderungen der Beobachtungskompetenz von Erzieherinnen in Abhängigkeit von Fortbildungen in verschiedenen bereichsspezifischen Förderansätzen ab. Für eine Zunahme der Beobachtungskompetenz, so zeigt sich, spielt der bereichsspezifische Ansatz, welcher der Fortbildung zugrunde gelegt ist, keine Rolle.
Die vorliegende Studie ist die erste Arbeit, die sowohl Beobachtungskompetenz (Forschung zu formativem Assessment) als auch Urteilsgenauigkeit (Accuracy-Forschung) anhand derselben Stichprobe untersucht. Trotz des im Ergebnis nicht nachgewiesenen Zusammenhangs zwischen Urteilsgenauigkeit und Beobachtungskompetenz stellt die Studie für die zukünftige Forschung bedeutsame Hinweise für die weitere Untersuchung der Facetten diagnostischer Kompetenz bereit.
Im Hinblick auf den frühpädagogischen Kontext zeigt die vorliegende Arbeit zum einen, dass ein ökologisch valides Treatment (Fortbildung) in einem Umfang von zwei Tagen implizit zu einer Verbesserung diagnostischer Kompetenzen führen kann. Zum anderen wird hier erstmalig im deutschsprachigen Raum die Messung der Urteilsgenauigkeit unter vollumfänglicher Erfüllung eines auf Hoge und Coladarci (1989) beruhenden Anforderungsprofils durchgeführt. Ein weiteres Alleinstellungsmerkmal dieser Studie ist die erstmals mit einer Mindestanzahl von vier Einschätzungen pro Erzieherin unter Berücksichtigung der Kontaktzeiten zwischen Erzieherinnen und Bezugskindern erfolgte Erhebung der Urteilsgenauigkeit von Erzieherinnen.
In vielen Teilen der Welt, vor allem in Subsahara-Afrika, ist Wasserknappheit bereits ein allgegenwärtiges Problem. Doch die Trockenjahre 2018 und 2019 zeigten, dass auch in Deutschland die Wasserressourcen endlich sind. Projektionen und Vorhersagen für die nächsten Jahrzehnte weisen zudem darauf hin, dass durch den steigenden Einfluss des Klimawandels die Erneuerungsraten der bestehenden Wasserressourcen zurückgehen, die Entnahmemengen aber aufgrund von Populationswachstum steigen werden. Es ist demnach an der Zeit, alternative und nachhaltige Methoden zu finden, die derzeit vorhandenen Wasserressourcen optimal zu nutzen. Daher rückte in den vergangenen Jahren die Wiederverwendung von geklärtem Abwasser zur Bewässerung landwirtschaftlicher Flächen und/oder der Grundwasseranreicherung in den Fokus der Wissenschaft. Dabei ist aber zu berücksichtigen, dass in geklärtem Abwasser sogenannte Spurenstoffe zu finden sind, d.h. Substanzen, die durch anthropogenen Einfluss in den Wasserkreislauf gelangen. Dabei handelt es sich z.B. um Pharmazeutika, Pestizide und Industriechemikalien, aber auch um Metabolite, die im menschlichen Körper gebildet werden und in das Abwasser gelangen. Durch die Wasseraufbereitungsschritte in den Kläranlagen als auch durch biologische, chemische und physikalische Prozesse in der Bodenpassage bei der Wiederverwendung des geklärten Abwassers werden diese Spurenstoffe zu anderen Substanzen, den Transformationsprodukten (TPs), umgewandelt, die das Spektrum der Spurenstffe zusätzlich erweitern.
Trotz der Tatsache, dass das Vorhandensein von Human-Metaboliten und TPs in ungeklärtem und geklärten Abwasser seit langem bekannt ist, werden sie in gängigen Routine-Messmethoden nur selten berücksichtigt. Daher war es ein erstes Ziel dieser Dissertation eine Analyse-Methode zu erstellen, basierend auf Flüssigchromatographie-Tandem Massenspektrometrie (LC-MS/MS), die ein möglichst breites Spektrum an Spurenstoffen inklusive bekannter Metabolite und TPs enthält. Die entwickelte Multi-Analyt-Methode umfasst insgesamt 80 Ausgangssubstanzen und 74 Metabolite und TPs verschiedener Substanzklassen und ist für die Anwendung in verschiedenen Wassermatrices (Zu- und Ablauf von Kläranlagen, Oberflächenwasser und Grundwasser aus einer Uferfiltrationsanlage) validiert. Dabei wurde auch der Einfluss der MS-Parameter auf die Qualität der Analysedaten untersucht. Trotz der hohen Anzahl an Substanzen konnte eine ausreichende Anzahl an Datenpunkten je Peak generiert werden, wodurch eine hohe Empfindlichkeit und Präzision sowie eine gute Wiederfindung für alle Matrices erreicht wurden. Die Auswahl der Analyten erwies sich als relevant für die Untersuchung von Umweltmatrices, da 95% der Substanzliste in mindestens einer Probe nachgewiesen wurden. Mehrere Spurenstoffe, die bisher nicht im Fokus der gegenwärtigen Multi-Analyt-Methoden standen, wurden bei erhöhten Konzentrationen im Wasserkreislauf quantifiziert (z.B. Oxypurinol). Die Relevanz der Untersuchung von Metaboliten und TPs zeigte sich durch den Nachweis von z.B. Clopidogrel-Säure und Valsartansäure mit deutlich höheren Konzentrationen als ihre Ausgangssubstanzen. Valsartansäure konnte zudem sogar im Uferfiltrat detektiert werden.
Durch die Einbindung der Metabolite, die durch biologische Prozesse im Körper entstehen, und den biologischen und chemischen TPs, eignet sich die Multi-Analyt-Methode auch zur Aufklärung von Abbaumechanismen in natürlichen Behandlungssystemen zur Wasserwiederverwendung, wozu es in der Literatur bisher nur wenige Angaben gibt. Im Rahmen der Dissertation wurden Proben aus zwei Systemen analysiert, einem im Pilotmaßstab entwickelten oberirdischen sequenziellen Biofiltrationssystem (SBF) und einem großmaßstäblichen Bodenpassagen-System (SAT). Im SBF-System konnten hauptsächlich biologische Abbaumechanismen beobachtet werden, was durch die Entstehung biologischer TPs deutlich gezeigt wurde. Die Effizienz des Abbaus wurde dabei durch eine Zwischenbelüftung erhöht, die oxische Bedingungen hervorrief. Im SAT-System kam es zu einer Kombination von Bioabbau- und Sorptionsprozessen. Es wurde beobachtet, dass bei einigen biologisch abbaubaren Spurenstoffen ein geringerer Abbau erreicht wurde als im SBF-System, was auf unterschiedliche Redox-Bedingungen und eine andere mikrobielle Gemeinschaft zurückzuführen war. Als Vorteil des SAT-Systems gegenüber des SBF erwies sich die Sorptionsfähigkeit des natürlichen Bodens. Vor allem positiv geladene Spurenstoffe zeigten eine Entfernung aufgrund von ionischen Wechselwirkungen mit negativ geladenen Bodenpartikeln. Auf der Grundlage ihrer physikalisch-chemischen Eigenschaften bei Umgebungs-pH, ihres Entfernungsgrades in den untersuchten Systemen und ihres Vorkommens im einfließenden Wasser konnte eine Auswahl von prozessbasierten Indikatorsubstanzen vorgeschlagen werden.
In den vorherigen Arbeiten wurde in Kläranlagenabläufen häufig ein Spurenstoff in erhöhten Konzentrationen nachgewiesen, der bisher wenig im Fokus der Umweltforschung stand: das Antidiabetikum Sitagliptin (STG). STG zeigt nur eine geringe Abbaubarkeit in biologischen Systemen. Daher wurde untersucht, inwieweit eine chemische Aufbereitung mittels Ozonung einen Abbau gewährleisten kann. STG weist in seiner Struktur ein aliphatisches primäres Amin als entscheidende Angriffsstelle für das Ozonmolekül auf. In der Literatur finden sich kaum Informationen zum Verhalten dieser funktionellen Gruppe während der Ozonung. Die in dieser Dissertation erzielten Ergebnisse können daher exemplarisch für andere Spurenstoffe mit Amingruppen herangezogen werden. Es zeigte sich eine pH-abhängige Abbaukinetik aufgrund der Protonierung des primären Amins bei niedrigen pH-Werten. Bei für die Umwelt und Kläranlagen typischen pH-Werten im Bereich 6 – 8 wies STG Abbaukinetiken mittels Ozon im Bereich 103 M-1s-1 auf, mit einem vollständigen Abbau kann allerdings erst bei deutlich höheren pH-Werten > 9 gerechnet werden. Die Transformation des primären Amins zu einer Nitro-Gruppe wurde als Hauptabbaumechanismus in der Ozonung identifiziert. Ebenfalls wurde die Entstehung weiterer TPs wie z.B. eines Diketons und Trifluoressigsäure (TFA) beobachtet. Untersuchungen an einer Pilotanlage, bei der die Ozonung unter realen Bedingungen mit dem Ablauf einer konventionellen Kläranlage durchgeführt wurde, bestätigte die Ergebnisse der Laboruntersuchungen: STG wurde auch bei einer hohen Ozondosis nicht vollständig entfernt und die Nitro-Verbindung erwies sich als Haupt-TP, das weder bei weiterer Ozonung noch in einer nachgeschalteten biologischen Behandlung abgebaut wurde. Es ist daher davon auszugehen, dass unter realen Bedingungen sowohl eine Restkonzentration an STG als auch das Haupt-TP sowie weitere TPs wie TFA im Ablauf einer Kläranlage bestehend aus konventioneller biologischer Aufreinigung, Ozonung und nachgeschalteter biologischer Aufreinigung auffindbar sind.
Thousands of chemicals from daily use are being discharged from civilization into the water cycle via different pathways. Ingredients of personal care products, detergents, pharmaceuticals, pesticides, and industrial chemicals thus find their way into the aquatic ecosystems and may cause adverse impacts on the ecology. Pharmaceuticals for instance, represent a central group of anthropogenic chemicals, because of their designed potency to interfere with physiological functions in organisms. Ecotoxicological effects from pharmaceutical burden have been verified in the past. Therapeutic groups with pronounced endocrine disrupting potentials such as steroid hormones gain increasing focus in environmental research as it was reported that they cause endocrine disruption in aquatic organisms even when exposed to environmentally relevant concentrations. This thesis considers the comprehensive investigation of the occurrence of corticosteroids and progestogens in wastewater treatment plant (WWTP) effluents and surface waters as well as the elucidation of the fate and biodegradability of these steroid families during activated sludge treatment. For the first goal of the thesis, a robust and highly sensitive analytical method based on liquid chromatography-tandem mass spectrometry (LC-MS/MS) was developed in order to simultaneously determine the occurrence of around 60 mineralocorticoids, glucocorticoids and progestogens in the aquatic environment. A special focus was set to the compound selection due to the diversity of marketed synthetic steroids. Some analytical challenges have been approved by individual approaches regarding sensitivity enhancement and compound stabilities. These results may be important for further research in environmental analysis of steroid hormones. Reliable and low quantification limits are the perquisite for the determination of corticosteroids and progestogens at relevant concentrations due to low consumption volumes and simultaneously low effect-based trigger values. Achieved quantification limits for all target analytes ranged between 0.02 ng/L and 0.5 ng/L in surface water and 0.05 ng/L to 5 ng/L in WWTP effluents. This sensitivity enabled the detection of three mineralocorticoids, 23 glucocorticoids and 10 progestogens within the sampling campaign around Germany. Many of them were detected for the first time in the environment, particularly in Germany and the EU. To the best of our knowledge, this in-depth steroid screening provided a good overview of single steroid burden and allowed for the identification of predominantly steroids of each steroid
type analyzed for the first time. The frequent detection of highly potent synthetic steroids (e.g. triamcinolone acetonide, clobetasol propionate, betamethasone valerate, dienogest, cyproterone acetate) highlighted insufficient removal during conventional Summary wastewater treatment and indicated the need for regulation to control their emission since the steroid concentrations were found to be above the reported effect-based trigger values for biota. Overall, the study revealed reliable environmental data of poorly or even not analyzed steroids. The results complement the existing knowledge in this field but also providednew information which can beused particularly for compound prioritization in ecotoxicological research and environmental analysis. Based on the data obtained from the monitoring campaign, incubation experiments were conducted to enable the comparison of the biodegradability and transformation processes in activated sludge treatment for structure-related steroids under aerobic and standardized experimental conditions. The compounds were accurately selected to cover manifold structural moieties of commonly used glucocorticoids, including non-halogenated and halogenated steroids, their mono- and diesters, and several acetonide-type steroids. This approach allowed for a structure-based interpretation of the results. The obtained biodegradation rate constants suggested large variations in the biodegradability (half-lifes ranged from < 0.5 h to > 14 d). An increasing stability was identified in the order from non-halogenated steroids (e.g. hydrocortisone), over 9α-halogenated steroids (e.g. betamethasone), to C17-monoesters (e.g. betamethasone 17-valerate, clobetasol propionate), and finally to acetonides (e.g. triamcinolone acetonide), thus suggesting a strong relationship of the biodegradability with the glucocorticoid structure. Some explanations for this behavior have been received by identifying the transformation products (TPs) and elucidating individual transformation pathways. The results revealed the identification of the likelihood of transformation reactions depending on the chemical steroid structure for the first time. Among the identified TPs, the carboxylates (e.g. TPs of fluticasone propionate, triamcinolone acetonide) have been shown persistency in the subsequent incubation experiments. The newly identified TPs furthermore were frequently detected in the effluents of full-scale wastewater treatment plants. These findings emphasized i) the transferability of the lab-scale degradation experiments to real world and that ii) insufficient removals may cause adverse effects in the aquatic environment due to the ability of the precursor steroids and TPs to interact with the endocrine system in biota. For the last goal, the conceptual study for glucocorticoids was applied to progestogens.
Here, two sub-types of the steroid family frequently used for hormonal contraception were selected (17α-hydroxyprogesterone and 19-norstestosterone type). The progestogens showed a fast and complete degradation within six hours, and thus empathizes pronounced biodegradability. However, cyproterone acetate and dienogest Summary have been found to be more recalcitrant in activated sludge treatment. This was consistent with their ubiquitously occurrence during the previous monitoring campaign. The elucidation of TPs again revealed some crucial information regarding the observed behavior and highlighted furthermore the formation of hazardous TPs. It was shown that 19-nortestosterone type steroids are able to undergo aromatization at ring A in contact with activated sludge, leading to the formation of estrogen-like TPs with a phenolic moiety at ring A. In the case of norethisterone the formation of 17α-ethinylestradiol was confirmed, which is a well-known potent synthetic estrogen with elevated ecotoxicological potency. Thus, the results indicated for the very first time an unknown source of estrogenic compounds, particularly for 17α-ethinylestradiol. In conclusion, some steroids were found to be very stable in activated sludge treatment, others degrade well, and others which do degrade but predominantly to active TPs depending on their chemical structure. Fluorinated acetal steroids such as triamcinolone acetonide and fluocinolone acetonide are poorly biodegradable, which is reflected in high concentrations detected ubiquitously in WWTP effluents. Endogenous steroids and their most related synthetic once such as hydrocortisone, prednisolone or 17α-hydroxyprogesterone are readily biodegradable. Regardless their high influent concentrations, they are almost completely removed in conventional WWTPs. Steroids between this range have been found to form elevated quantities of TPs which are partially still active, which particularly the case for betamethasone, fluticasone propionate, cyproterone acetate or dienogest. The thesis illustrates the need for an extensive evaluation of the environmental risks and carried out that corticosteroids and progestogens merit more attention in environmental regulatory and research than it is currently the case
Modellbildung zum Abbindeverhalten von PCE-verflüssigten und CA-Zement-gebundenen Feuerbetonen
(2021)
Feuerbetone werden als Auskleidung in industriellen Hochtemperaturaggregaten, wie beispielsweise in der Eisen- und Stahlindustrie, eingesetzt. Nach dem Mischen und dem Gießen eines Feuerbetons in Formen bzw. Schalungen, muss dieser abbinden und eine ausreichende Festigkeit ausbilden. Die Kinetik der Abbindevorgänge und somit auch das Erhärtungsverhalten variiert dabei stark in Abhängigkeit der Zusammensetzung, vor allem hinsichtlich des Bindemittels und der Additive, des Feuerbetons. In der Praxis der Herstellung von Feuerbetonen kommt es häufig zu Beschädigungen der hergestellten Bauteile oder Auskleidungen durch das Fließen noch nicht ausreichend abgebundener Feuerbetone bzw. die Beschädigung von Ecken und Kanten während des Ausschalens oder Bauteilen reißen durch mechanische Belastung beim Umsetzen oder beim Transport. Diese Beschädigungen basieren auf Fehleinschätzungen zum Abbindefortschritt und der korrespondierenden Festigkeitsausprägung der Feuerbetone. Diese wiederum sind auf Lücken im Stand der Technik zurück zu führen.
Für PCE-verflüssigte und CA-Zement-gebundene Korund-Feuerbetonen mit einer Al₂O₃- und Al₂O₃-SiO₂-Matrix, werden die Defizite des Stands der Technik für diese Feuerbetonklasse identifiziert: Diese liegen im Bereich der Verflüssigungswirkung und des ersten Ansteifens der Feuerbetone, der Hydratation des CA-Zements in den Feuerbetonen und der Festigkeitsausprägung der Feuerbetone. Hieraus leitet sich ein entsprechender Forschungsbedarf ab.
Am Beispiel von zwei PCE-verflüssigten (PCE mit kurzer Hauptkette und langen Seitenketten sowie PCE mit langer Hauptkette und kurzen Seitenketten) und CA-Zement-gebundenen (70 % Al₂O₃) Feuerbetonen mit einer reaktivtonerde-basierten und einer reaktivtonerde-mikrosilika-basierten Matrix werden abbindekinetische Untersuchungen durchgeführt. Anhand verschiedener abbindekinetischer Messmethoden, wie Schallgeschwindigkeit oder elektrischer Leitfähigkeit, und einigen ergänzenden Messung, wie beispielsweise das ζ-Potential, wird der Abbindeverlauf der Feuerbetone untersucht und die Defizite aus dem Stand der Technik aufgeklärt.
Im Detail wurde der Stand der Technik um folgende Erkenntnisse ergänzt:
• Verflüssigung von Feuerbetonen mit PCE-Molekülen: Es wurde festgestellt, dass die Verflüssigungswirkung und das erste Ansteifen maßgeblich durch die Struktur der Verflüssigermoleküle hervorgerufen werden.
PCE-Moleküle mit langen Seitenketten verflüssigen eher sterisch. Durch die Vermittlung von Ca²⁺ aus dem CA-Zement wird die Adsorption der PCE-Moleküle verstärkt. Freie PCE-Moleküle können auf CAH-Phasen (Hydratationsprodukte) adsorbieren und somit die Fließfähigkeit des Feuerbetons für eine gewisse Zeit aufrechterhalten.
PCE-Moleküle mit kurzen Seitenketten verflüssigen elektrosterisch. Bei Lösung von Ca²⁺ aus dem CA-Zement kommt es zu einer Ca-PCE Gel-Bildung und einer korrespondierenden Koagulation der Feuerbetonmatrix und der Feuerbeton steift zeitnah nach dem Mischen an.
• Hydratation von CA-Zement: Die Hydratation von CA-Zement in den Feuerbetonen wird wesentlich durch die Länge der Seitenketten der PCE-Moleküle bzw. der Anwesenheit von Zitronensäure beeinflusst.
In Feuerbetonen die mit PCE-Molekülen mit langen Seitenketten verflüssigt wurden, kann der CA-Zement weitestgehend frei hydratisieren. Der CAH-Phasenanteil steigt in zwei Abschnitten, getrennt von einer dormanten Phase. Die dormante Phase der CA Zementhydratation wurde auf eine Lösungshemmung der Al-O-H-Passivierungsschicht auf dem CA-Zement bei mäßigem pH-Wert (pH = 12,3) zurückgeführt.
In Feuerbetonen die mit PCE-Molekülen mit kurze Seitenketten und Zitronensäure verflüssigt werden, wird die Hydratationsreaktion durch eine Ca-Citrat-PCE-Al(OH)₄-Gelbildung stark gehemmt. Es besteht die Vermutung, dass die Bindung von Ca²⁺ in dem Gel zum einen eine sehr ausgeprägte dormante Phase (pH < 12,3), mit einer schlechten Löslichkeit der Passivierungsschicht, bewirkt und zum anderen auch die Fällung von CAH-Phasen unterdrückt.
• Festigkeitsausprägung von CA-Zement-gebundenen Feuerbetonen:
Eine Koagulation bewirkt die erste Festigkeitssteigerung der Feuerbetone auf σB < 1 MPa. Im Anschluss findet die Hauptfestigkeitssteigerung auf Grund von Austrocknung durch Hydratation und Verdunstung statt. Der weitere Teil der Festigkeitssteigerung wird durch die Reduzierung der Porosität durch expansive CA-Zementhydratation und die hohe spezifische Oberfläche sowie deren weitere Erhöhung durch die CA-Zementhydratation bewirkt.
Aus den einzelnen abbindekinetischen Effekten können, zusammen mit dem Stand der Technik und den neuen Erkenntnissen, mikrostrukturelle Abbindemodelle und Modelle zur Festigkeitsentwicklung der Feuerbetone abgeleitet werden. In Folge kann für die zwei Feuerbetone zu jedem Zeitpunkt des Abbindens eine Aussage zum Abbindefortschritt und zur Festigkeitsausprägung getätigt werden. Einige der Abbindemechanismen und festigkeitsbildenden Mechanismen können auf andere Feuerbetonzusammensetzungen übertragen werden.
The protected areas of Rwanda are facing various challenges resulting from the anthropogenic activities of the surrounding communities especially in the adjacent area to Cyamudongo isolated rain forest, which results in climate change, soil degradation, and loss of biodiversity. Therefore, this study aims to broaden current knowledge on the impact of sustainable Agroforestry (AF) on the Carbon (C) stock and Biodiversity conservation on the surroundings of Cyamudongo isolated rain forest and Ruhande Arboretum.
To understand this, the permanent sample plots (PSPs) were established mainly in the designed four transects of four km long originating on the boundary of the Cyamudongo isolated rain forest following the slope gradient ranging from 1286 to 2015 m asl. A total number of 73 PSPs were established in the Cyamudongo study area while 3 PSPs were established in the Ruhande AF plot. The Arc Map GIS 10.4 was used to design and map the sampling areas while GPS was used for localization of collected items. Statistical significance was analyzed through the R-software especially for wood and soil variables while for biodiversity indicator species, MVSP Software 3.0 was used to determine the Shannon Diversity indices and similarities among species.
In this study, I have obtained comprehensive results demonstrating that in all study areas, the various AF tree species contribute differently to C stock and C sequestration and the amount of C stored and removed from the atmosphere depends on different factors such as tree species, plantation density, growth stage, or the age of establishment, applied management practices, wood specific density (WSD), wood C concentration, and climatic conditions. The estimated quantity of sequestrated C for 2 years and 34 years AF species were 13.11 t C ha -1 yr-1 (equivalent to 48 t CO2 ha -1 yr-1) and 6.85 t ha-1 yr-1 (equivalent to 25.1 t CO2 ha -1 yr-1) in Cyamudongo and Ruhande respectively. The estimated quantity of C stored by the Ruhande AF plot is 232.94 t ha-1. In Cyamudongo, the overall C stored by the AF systems was 823 t ha-1 by both young tree species established by the Cyamudongo Project (35.84 t ha-1) and C stored by existed AF species before the existence of the Project (787.12 t ha-1). In all study areas, the Grevillea robusta was found to contribute more to overall stored C compared to other species under this study.
The tests revealed differences in terms of nutrient contents (C, N, C: N ratio, K, Na, Ca, and Mg) for various AF tree species of Cyamudongo and Ruhande study areas. The differences in terms of correlation for various variables of AF tree species in different study areas varied with tree species, age, stage of growth, and tree shape. By comparing the correlation coefficients for various tree variables for young and mature AF tree species, the results showed a high correlation variability for young species than mature or old species recorded in different environmental conditions of Cyamudongo and Ruhande study areas.
The recorded soil pH mean value across in Cyamudongo study area is 4.2, which is very strongly acidic. The tests revealed that the soil pH, C, C: N ratio, OM, NH4+, NO3-+NO2-, PO43-, and CEC were significantly (P < 0.05) different in various soil depths whereas the N was not statistically significant. The pH, N, C: N ratio, CEC, NH4+, PO43-, and Al3+ showed a significant difference across land uses whereas the C and NO3-+NO2- did not show any statistical difference. All tested chemical elements showed a statistical difference as far as altitude ranges are concerned. The only NH4+, PO43-, and CEC showed significant differences with time whereas all other remaining chemical elements did not show any statistical significance. The bulk density of soil was statistically different across land uses and altitude ranges. The soil pH was very strongly correlated with CEC, Mg, and Ca in cropland (CL) whereas it was strongly correlated in both AF and natural forest (NF) except for Mg, which was moderately correlated in AF. Furthermore, its correlation with K was strong in CL, moderate in AF while it was weak in NF. Finally, the pH correlation with Na was weak in both AF and CL whereas it was negligible in NF. The overall estimated soil C stock of the study area was 16848 t ha -1.
The sustainable AF practices changed significantly the frequency of reptiles, amphibians, and flowering plants while there was no statistical change observed on ferns with time. In terms of species richness, 16 flowering plants, 14 ferns, 5 amphibians, and 3 reptiles were recorded and monitored. These findings add to a growing body of literature on the impact of AF on the C stock, soil improvement, and Biodiversity. It is recommended that further researches should be undertaken for the contribution of other AF tree species to the C stock found in the agricultural landscape around all protected areas of Rwanda and the impact on them on the soil and biodiversity.
We consider variational discretization of three different optimal control problems.
The first being a parabolic optimal control problem governed by space-time measure controls. This problem has a nice sparsity structure, which motivates our aim to achieve maximal sparsity on the discrete level. Due to the measures on the right hand side of the partial differential equation, we consider a very weak solution theory for the state equation and need an embedding into the continuous functions for the pairings to make sense. Furthermore, we employ Fenchel duality to formulate the predual problem and give results on solution theory of both the predual and the primal problem. Later on, the duality is also helpful for the derivation of algorithms, since the predual problem can be differentiated twice so that we can apply a semismooth Newton method. We then retrieve the optimal control by duality relations.
For the state discretization we use a Petrov-Galerkin method employing piecewise constant states and piecewise linear and continuous test functions in time. For the space discretization we choose piecewise linear and continuous functions. As a result the controls are composed of Dirac measures in space-time, centered at points on the discrete space-time grid. We prove that the optimal discrete states and controls converge strongly in L^q and weakly-* in Μ, respectively, to their smooth counterparts, where q ϵ (1,min{2,1+2/d}] is the spatial dimension. The variational discrete version of the state equation with the above choice of spaces yields a Crank-Nicolson time stepping scheme with half a Rannacher smoothing step.
Furthermore, we compare our approach to a full discretization of the corresponding control problem, precisely a discontinuous Galerkin method for the state discretization, where the discrete controls are piecewise constant in time and Dirac measures in space. Numerical experiments highlight the sparsity features of our discrete approach and verify the convergence results.
The second problem we analyze is a parabolic optimal control problem governed by bounded initial measure controls. Here, the cost functional consists of a tracking term corresponding to the observation of the state at final time. Instead of a regularization term for the control in the cost functional, we consider a bound on the measure norm of the initial control. As in the first problem we observe a sparsity structure, but here the control resides only in space at initial time, so we focus on the space discretization to achieve maximal sparsity of the control. Again, due to the initial measure in the partial differential equation, we rely on a very weak solution theory of the state equation.
We employ a dG(0) approximation of the state equation, i.e. we choose piecewise linear and continuous functions in space, which are piecewise constant in time for our ansatz and test space. Then, the variational discretization of the problem together with the optimality conditions induce maximal discrete sparsity of the initial control, i.e. Dirac measures in space. We present numerical experiments to illustrate our approach and investigate the sparsity structure
As third problem we choose an elliptic optimal control governed by functions of bounded variation (BV) in one space dimension. The cost functional consists of a tracking term for the state and a BV-seminorm in terms of the derivative of the control. We derive a sparsity structure for the derivative of the BV control. Additionally, we utilize the mixed formulation for the state equation.
A variational discretization approach with piecewise constant discretization of the state and piecewise linear and continuous discretization of the adjoint state yields that the derivative of the control is a sum of Dirac measures. Consequently the control is a piecewise constant function. Under a structural assumption we even get that the number of jumps of the control is finite. We prove error estimates for the variational discretization approach in combination with the mixed formulation of the state equation and confirm our findings in numerical experiments that display the convergence rate.
In summary we confirm the use of variational discretization for optimal control problems with measures that inherit a sparsity. We are able to preserve the sparsity on the discrete level without discretizing the control variable.
Seit der Bologna-Reform wird von Bund und Ländern eine kontinuierliche Verbesserung der Qualität des Unterrichts in der Schule, die häufig mit der Professionalisierung der zukünftigen Lehrer und der Lehramtsausbildung verbunden wird, angestrebt. Die Qualität des Unterrichts wird mit der Professionalisierung der angehenden Lehrer und der Lehramtsausbildung verbunden. In den meisten Studien zur Qualitätsverbesserung erfolgt die Betrachtung überwiegend aus universitärer Sicht und selten auf das Unterrichtsfach Sport bezogen. An diesen beiden Punkten knüpft die qualitative Studie an und führt zu der zentralen Fragestellung: Bestehen Unterschiede in den Sichtweisen von Lehrenden und Lernenden zur Professionalisierung von Sportlehrkräften zu den einzelnen Ausbildungsphasen in Rheinland-Pfalz?
Mithilfe von 101 Leitfadeninterviews und der Auswertung nach der Grounded Theory kann diese Ausgangsfrage gezielt beantwortet werden. Befragt werden Lehrende der Universitäten, der staatlichen Studienseminare und der Schule sowie Lernende, dazu zählen Referendare/innen sowie Studierende. Im Verlauf der Studie kristallisiert sich in allen Personengruppen einheitlich der „fehlende Schulbezug“ als Schlüsselelement (Kernkategorie) in der ersten und zweiten Ausbildungsphase heraus. Die Interviewten, die verschiedenen Schulformen angehören, geben diesbezüglich konkrete, sportspezifische und teilweise fächerübergreifende Optimierungsvorschläge. Ein Schwerpunkt bildet dabei, frühzeitig den Bezug zum Schulalltag herzustellen und gleichzeitig Unterrichtserfahrungen mit schulischen Lerngruppen zu sammeln, um ihre unterschiedlichen motorischen Fähigkeiten und Fertigkeiten kennenzulernen. Die Verbesserungsansätze betreffen die universitäre Phase und die Ausbildungszeit in den Studienseminaren und Schulen, wobei die Beteiligten eine intensivere Vernetzung der einzelnen Institutionen für nötig erachten. An einer gemeinsamen, kontinuierlichen Zusammenarbeit zur Professionalisierung in der Sportlerausbildung und somit der Optimierung der Sportlehrerausbildung ist allen Beteiligten gelegen.
Echzeitbetriebssysteme für Systeme mit gemischten Kritikalitäten müssen unterschiedliche Arten von Software, wie z.B. Echtzeitanwendungen und Allzweckanwendungen, gleichzeitig unterstützen. Dabei müssen sie eine solide räumliche und zeitliche Isolation zwischen unabhängigen Softwarekomponenten bieten. Daher fokussieren sich aktuelle Echtzeitbetriebssysteme hauptsächlich auf Vorhersagbarkeit und ein berechenbares Worst-Case-Verhalten.
Allerdings bieten Allzweck-Betriebssysteme wie Linux häufig effizientere, aber weniger deterministische Mechanismen, welche die durchschnittliche Ausführungszeit signifikant erhöhen. Diese Thesis befasst sich mit der Kombination der beiden gegensätzlichen Anforderungen und zeigt Mechanismen zur Thread-Synchronisation mit einem effizienten Durchschnittsverhalten, ohne jedoch die Vorhersagbarkeit und das Worst-Case-Verhalten zu beeinträchtigen. Diese Thesis untersucht und bewertet den Entwurfsraum von Abkürzungen (engl. fast paths) bei der Umsetzung von typischen blockierenden Synchronisationsmechanismen wie Mutexen, Bedingungsvariablen, Zähl-Semaphoren, Barrieren oder Nachrichtenwarteschlangen. Der Ansatz ist dabei, unnötige Systemaufrufe zu vermeiden. Systemaufrufe haben im Vergleich zu anderen Prozessoroperationen, die im Benutzermodus verfügbar sind, wie z.B. atomaren Operationen, höhere Kosten. Insbesondere erforscht die Thesis Futexe, ein aktuelles Design für blockierende Synchronisationsmechanismen in Linux, welches den konkurrenzfreien Fall der Synchronisierung mithilfe atomarer Operationen im Benutzermodus löst und den Kern nur aufruft, um Threads zu suspendieren und aufzuwecken. Die Thesis untersucht auch nicht-unterbrechbare Monitore mit aktivem Warten. Dort wird ein effizienter Mechanismus mit Prioritätsschranken verwendet, um das sogenannte Lock-Holder-Preemption-Problem ohne Systemaufrufe zu vermeiden. Ebenfalls werden passende niedere Kernprimitive beschrieben, die effiziente Warte- und Benachrichtigungsoperationen ermöglichen. Die Evaluation zeigt, dass die vorgestellten Ansätze die durchschnittliche Leistung vergleichbar zu aktuellen Ansätzen in Linux verbessern. Gleichzeitig zeigt eine Analyse des Worst-Case Zeitverhaltens, dass die Ansätze nur konstante oder begrenzte zeitliche Mehraufwände auf der Ebene des Betriebssystemkerns benötigen. Die Nutzung dieser Abkürzungen ist ein lohnender Ansatz für den Entwurf von Systemen, die nicht nur Echtzeitanforderungen erfüllen, sondern auch Allzweckanwendungen gut unterstützen sollen.
Lernen in Citizen Science
(2021)
Unsere Welt und die technischen und naturwissenschaftlichen Erkenntnisse verändern sich aktuell sehr schnell. Dies betrifft auch die naturwissenschaftliche Forschung und erfordert vermehrten Einsatz der Wissenschaftskommunikation und der Bildung. Ein Instrument der Wissenschaftskommunikation und eine Erweiterung des schulischen Unterrichts kann die Beteiligung von Freiwilligen bei wissenschaftlichen Arbeiten sein, welches auch als Citizen Science (CS) bezeichnet wird. CS Projekte erfreuen sich einer wachsenden Beliebtheit, unter anderem von Schulen (Burger, 2016). Dabei werden unter anderem die Förderung des Kontextwissens, der Scientific Literacy, der Umwelteinstellung und des –verhaltens versprochen (Peter et al., 2019). Interventionsstudien zu den Bildungspotentialen kommen jedoch zu unterschiedlichen Ergebnissen (Gommermann & Monroe, 2012; Turrini et al., 2018). Diese inkonsistenten Ergebnisse der Studien können auf die unterschiedliche Gestaltung der einzelnen evaluierten CS Projekte zurückgeführt werden. Es wird angenommen, dass Teilnehmende, die in mehr Schritten des wissenschaftlichen Prozesses eingebunden werden, ein größeres Bildungspotential haben, als Teilnehmende, die nur in wenige Schritte eingebunden werden (Burger, 2016; Shirk & Bonney, 2018). Bonney, Ballard et al. (2009) haben dazu ein dreistufiges Modell entwickelt. Das Modell wird unter anderem auch von Shirk et al. (2012) und Jordan et al. (2015) unterstützt, ist jedoch bezüglich der Lernwirksamkeit nicht empirisch überprüft (Edwards et al., 2018; Jordan et al., 2015). Deswegen schließt die Forschungsfrage dieser Studie hier an: Unter welchem Partizipationsansatz sind die Lerneffekte in einem CS Projekt am größten für Schülerinnen und Schüler? Um diese Frage zu beantworten, wurde ein CS Projekt mit drei Experimentalgruppen geplant und durchgeführt. Insgesamt nahmen 199 Schülerinnen und Schüler an dem Projekt teil. Innerhalb der Interventionsstudie wurden die Schülerinnen und Schüler zu drei Testzeitpunkten zur Umwelteinstellung und -verhalten, Nature of Science, Einstellung zur Wissenschaft und dem Kontextwissen befragt. Die Analysen über die Messzeitpunkte zeigen keine statistisch signifikanten Einflüsse der Experimentalgruppen auf die abhängigen Variablen. Jedoch ist die Teststärke bei allen Tests zu gering, um abschließende Aussagen über die Annahmen zu treffen. Wird jedoch die generelle Wirkung der Intervention betrachtet, zeigen sich signifikante Effekte auf alle Schülerinnen und Schüler, unter anderem steigt das Verständnis über Nature of Science. Diese Ergebnisse stimmen mit früheren Schlussfolgerungen von Phillips (2017), Phillips et al. (2019) und Del Bianco (2018) überein, die ebenfalls Zweifel an dem Modell von Bonney, Ballard et al. (2009) äußerten. Innerhalb dieses CS Projektes konnte sich keiner der drei Partizipationsansätze bezüglich des Bildungspotential für Schülerinnen und Schüler hervorheben lassen. Jedoch ist diese Studie unter anderem durch die geringe Teststärke limitiert und endgültige Aussagen bedürfen weiterer systematischer Forschung.
Environmental processes transforming inorganic nanoparticles: implications on aquatic invertebrates
(2020)
Engineered inorganic nanoparticles (EINPs) are produced and utilized on a large scale and will end up in surface waters. Once in surface waters, EINPs are subjected to transformations induced by environmental processes altering the particles’ fate and inherent toxicity. UV irradiation of photoactive EINPs is defined as one effect-inducing pathway, leading to the formation of reactive oxygen species (ROS), increasing EINP toxicity by exerting oxidative stress in aquatic life. Simultaneously, UV irradiation of photoactive EINP alters the toxicity of co-occurring micropollutants (e.g. pesticides) by affecting their degradation. The presence of natural organic matter (NOM) reduces the agglomeration and sedimentation of EINPs, extending the exposure of pelagic species, while delaying the exposure of benthic species living in and on the sediment, which is suggested as final sink for EINPs. However, the joint impact of NOM and UV irradiation on EINP-induced toxicity, but also EINP-induced degradation of micropollutants, and the resulting risk for aquatic biota, is poorly understood. Although potential effects of EINPs on benthic species are increasingly investigated, the importance of exposure pathways (waterborne or dietary) is unclear, along with the reciprocal pathway of EINPs, i.e. the transport back from aquatic to terrestrial ecosystems. Therefore, this thesis investigates: (i) how the presence of NOM affects the UV-induced toxicity of the model EINP titanium dioxide (nTiO2) on the pelagic organism Daphnia magna, (ii) to which extent UV irradiation of nTiO2 in the presence and absence of NOM modifies the toxicity of six selected pesticides in D. magna, (iii) potential exposure pathway dependent effects of nTiO2 and silver (nAg) EINPs on the benthic organism Gammarus fossarum, and (iv) the transport of nTiO2 and gold EINPs (nAu) via the merolimnic aquatic insect Chaetopteryx villosa back to terrestrial ecosystems. nTiO2 toxicity in D. magna increased up to 280-fold in the presence of UV light, and was mitigated by NOM up to 12-fold. Depending on the pesticide, UV irradiation of nTiO2 reduced but also enhanced pesticide toxicity, by (i) more efficient pesticide degradation, and presumably (ii) formation of toxic by-products, respectively. Likewise, NOM reduced and increased pesticide toxicity, induced by (i) protection of D. magna against locally acting ROS, and (ii) mitigation of pesticide degradation, respectively. Gammarus’ energy assimilation was significantly affected by both EINPs, however, with distinct variation in direction and pathway dependence between nTiO2 and nAg. EINP presence delayed C. villosa emergence by up to 30 days, and revealed up to 40% reduced lipid reserves, while the organisms carried substantial amounts of nAu (~1.5 ng/mg), and nTiO2 (up to 2.7 ng/mg). This thesis shows, that moving test conditions of EINPs towards a more field-relevant approach, meaningfully modifies the risk of EINPs for aquatic organisms. Thereby, more efforts need to be made to understand the relative importance of EINP exposure pathways, especially since a transferability between different types of EINPs may not be given. When considering typically applied risk assessment factors, adverse effects on aquatic systems might already be expected at currently predicted environmental EINP concentrations in the low ng-µg/L range.
Gel effect induced by mucilage in the pore space and consequences on soil physical properties
(2020)
Wasseraufnahme, Atmung und Exsudation sind biologische Schlüsselfunktionen der Wurzeln höherer Pflanzen. Sie steuern das Pflanzenwachstum, indem sie die biogeochemischen Parameter des Bodens in unmittelbarer Nähe der Wurzeln, der Rhizosphäre, verändern. Folglich sind Bodenprozesse wie beispielsweise Wasserflüsse, Kohlen- und Stickstoffaustausch oder mikrobielle Aktivitäten in der Rhizosphäre im Vergleich zu freiem Boden begünstigt. Insbesondere die Exsudation von Mucilage durch die Pflanzenwurzeln scheint ein wichtiger Mechanismus zu sein, um Trockenstress vorzubeugen. Durch diese gelartige Substanz wird bei negativen Wasserpotentialen sowohl der Bodenwassergehalt als auch die ungesättigte hydraulische Leitfähigkeit erhöht. Die Veränderung der Bodeneigenschaften durch Mucilage ist Gegenstand aktueller Forschung. Ein umfassendes Verständnis der Mechanismen im Porenraum der Rhizosphäre ist bisher allerdings noch unzureichend.
Ziel dieser Arbeit war die Aufklärung der Gel-Eigenschaften von Mucilage im Porenraum der Rhizosphäre, um Veränderungen der physiko-chemischen Eigenschaften der Rhizosphäre auf dieses interpartikuläre Mucilage zurückzuführen. Dabei stellten sich drei Herausforderungen: Zunächst einmal mangelte es an Methoden zur in situ Detektion von Mucilage im Boden. Außerdem fehlten detaillierte Kenntnisse bezüglich der Eigenschaften von interpartikulärem Mucilage. Desweiteren war die Beziehung zwischen der Zusammensetzung und den Eigenschaften von Modelsubstanzen und wurzelstämmigem Mucilage verschiedener Spezies unbekannt. Diese Fragen werden in den verschiedenen Kapiteln der Arbeit thematisiert.
Zunächst erfolgte eine Literaturrecherche, um Informationen aus verschiedenen Wissenschaftsbereichen über Methoden zur Charakterisierung von Gelen und Gel-Phasen im Boden zusammenzustellen. Die Änderung von Bodeneigenschaften aufgrund vorhandener Biohydrogelphasen im Boden kann als „Gel-Effekt“ bezeichnet werden. Die kombinierte Studie von Wassereinschlüssen in Gelen und Boden-Gel-Phasen mit der Untersuchung struktureller Eigenschaften von Boden hinsichtlich der mechanischen Stabilität und visueller Strukturen, zeigte sich als vielversprechend, um den Gel-Effekt im Boden zu charakterisieren.
Das erworbene methodische Wissen wurde in den nächsten Untersuchungen angewendet, um die Eigenschaften von interpartikulären Gelen zu detektieren und zu charakterisieren. 1H NMR Relaxometrie erlaubt die nicht-invasive Bestimmung der Wassermobilität in porösen Medien. Ein konzeptuelles Modell wurde aus Gleichungen entwickelt, welche die Proton-Relaxation in gelhaltigen porösen Medien beschreiben. Dieses Modell berücksichtigt den beschriebenen Gel-Effekt bei der Wahl der NMR Parameter und quantifiziert den Einfluss von Mucilage auf die Proton-Relaxation. Darüber hinaus wurde mithilfe von Rheometrie die Viskosität von Mucilage sowie die mikrostrukturelle Bodenstabilität bestimmt. Mittels Rasterelektronenmikroskopie wurde die Netzwerkstruktur von interpartikulärem Gel visualisiert. Die kombinierte Auswertung dieser Ergebnisse identifizierte drei wichtige Eigenschaften von interpartikulärem Gel: Der „Spinnennetz-Effekt“ schränkt die Dehnung der Polymerketten aufgrund der Verbindung zwischen dem Polymer Netzwerk und der Oberfläche von Bodenpartikeln ein. Der „Polymer-Netzwerk-Effekt“ veranschaulicht die Anordnung des Polymernetzwerks im Porenraum gemäß der räumliche Umgebung. Der „Mikroviskositäts-Effekt“ beschreibt die erhöhte Viskosität von interpartikulärem Gel im Vergleich zu freiem Gel. Die Auswirkungen dieser Eigenschaften auf die Wassermobilität und auf die mikrostrukturelle Stabilität des Bodens wurden untersucht und daraus resultierende Konsequenzen für hydraulische und mechanische Eigenschaften des Bodens diskutiert.
Der Einfluss von den chemischen Eigenschaften von Polymeren auf Gel-Bildungsmechanismen und Gel-Eigenschaften wurde untersucht. Dafür wurden Modelsubstanzen mit verschiedenen Uronsäure-Gehalt, Veresterungsgrade und Calcium-Gehalt getestet und die Menge an Materialanteil mit hohem Molekulargewicht quantifiziert. Die untersuchten Modelsubstanzen waren verschiedenen Pektin Polymeren und Chia Samen Mucilage. Darüber hinaus wurde Mucilage aus Winterweizen und Mais Wurzeln isoliert und untersucht. Polygalakturonsäure und Niedermethyliertes Pektin erwiesen sich als nicht geeignete Modelpolymere für Samen und Wurzelmucilage, da ionische Wechselwirkungen mit Calcium ihre Eigenschaften dominieren. Die dem Mucilage zuzurechnenden Eigenschaften scheinen eher durch schwache elektrostatische Wechselwirkungen zwischen verstrickten Polymerketten beherrscht zu sein. Die Menge an Material mit hohem Molekulargewicht variiert deutlich, abhängig von dem Ursprung des Mucilages. Dies scheint ein bedeutender Faktor für den Gel-Effekt von Mucilage im Boden zu sein. Zusätzlich zu der chemischen Charakterisierung der hochmolekulargewichtigen Polymere ist die exakte Bestimmung der Molekularmassen und der Konformation in verschiedenen Mucilagesorten notwendig, um Zusammensetzungs-Eigenschafts-Profile aufzeichnen zu können. Die Abweichungen zwischen den verschiedenen Mucilagestypen, welche sich durch die Messungen ergeben, haben die Notwendigkeit weiterer Untersuchungen unterstrichen. Nur so lässt sich die Frage klären, wie die spezifischen Eigenschaften von verschiedenen Mucilagestypen auf die Bedürfnisse der Pflanze abgestimmt sind, der sie entstammen.
Schließlich wurde diskutiert, wie die Betrachtung von molekularen Wechselwirkungen im Gel und interpartikulären Gel-Eigenschaften das Verständnis über die physikalischen Eigenschaften der Rhizosphäre erweitert. Dieser Ansatz ist vielversprechend, um zum Beispiel der Wassergehalt oder die hydraulische Leitfähigkeit entsprechend die Eigenschaften vom exudierten Mucilage zu klären. Darüber hinaus liegt die Vermutung nahe, dass der Gel-Effekt allgemein für alle Bodenexsudate mit Gel-Charakter Gültigkeit besitzt. Eine Klassifizierung natürlicher Boden-Gel-Phasen einschließlich der von Wurzeln, Samen, Bakterien, Hyphen oder Regenwürmern exsudierten, gelartigen Materialien nach ihren gemeinsamen physiko-chemischen Gel-Eigenschaften wird für die zukünftige Forschung empfohlen. Als Ergebnis könnten die physiko-chemische Eigenschaften von solchen Gelen zum Gel-Effekt den Auswirkungen auf die Bodeneigenschaften und den Funktionen von den Gelen im Boden zugeschrieben worden.
Amphibian populations are declining worldwide for multiple reasons such as habitat destruction and climate change. An example for an endangered European amphibian is the yellow-bellied toad Bombina variegata. Populations have been declining for decades, particularly at the northern and western range margin. One of the extant northern range centres is the Westerwald region in Rhineland-Palatinate, Germany. To implement informed conservation activities on this threatened species, knowledge of its life-history strategy is crucial. This study therefore focused on different developmental stages to test predictions of life-history theory. It addressed (1) developmental, (2) demographic and (3) genetic issues of Bombina variegata as a model organism: (1) Carry-over effects from larval environment to terrestrial stages and associated vulnerability to predators were investigated using mesocosm approaches, fitness tests and predation trials. (2) The dynamics and demography of B. variegata populations were studied applying a capture-mark-recapture analysis and skeletochronology. The study was complemented through (3) an analysis of genetic diversity and structuring of B. variegata populations using 10 microsatellite loci. In order to reveal general patterns and characteristics among B. variegata populations, the study focused on three geographical scales: local (i.e. a former military training area), regional (i.e. the Westerwald region) and continental scale (i.e. the geographical range of B. variegata). The study revealed carry-over effects of larval environment on metamorph phenotype and behaviour causing variation in fitness in the early terrestrial stage of B. variegata. Metamorph size and condition are crucial factors for survival, as small-sized individuals were particularly prone to predator attacks. Yellow-bellied toads show a remarkable fast-slow continuum of the life-history trait longevity. A populations’ position within this continuum may be determined by local environmental stochasticity, i.e. an extrinsic source of variation, and the efficiency of chemical antipredator protection, i.e. an intrinsic source of variation. Extreme longevity seems to be an exception in B. variegata. Senescence was absent in this study. Weather variability affected reproductive success and thus population dynamics. The dispersal potential was low and short-term fragmentation of populations caused significant genetic differentiation at the local scale. Long-term isolation resulted in increased genetic distance at the regional scale. At the continental scale, populations inhabiting the marginal regions were deeply structured with reduced allelic richness. As consequence of environmental changes, short-lived and isolated B. variegata populations at the range margin may face an increased risk of extinction. Conservation measures should thus improve the connectivity among local populations and reinforce annual reproductive success. Further research on the intraspecific variation in B. variegata skin toxins is required to reveal potential effects on palatability and thus longevity.
Initial goal of the current dissertation was the determination of image-based biomarkers sensitive for neurodegenerative processes in the human brain. One such process is the demyelination of neural cells characteristic for Multiple sclerosis (MS) - the most common neurological disease in young adults for which there is no cure yet. Conventional MRI techniques are very effective in localizing areas of brain tissue damage and are thus a reliable tool for the initial MS diagnosis. However, a mismatch between the clinical fndings and the visualized areas of damage is observed, which renders the use of the standard MRI diffcult for the objective disease monitoring and therapy evaluation. To address this problem, a novel algorithm for the fast mapping of myelin water content using standard multiecho gradient echo acquisitions of the human brain is developed in the current work. The method extents a previously published approach for the simultaneous measurement of brain T1, T∗ 2 and total water content. Employing the multiexponential T∗ 2 decay signal of myelinated tissue, myelin water content is measured based on the quantifcation of two water pools (myelin water and rest) with different relaxation times. Whole brain in vivo myelin water content maps are acquired in 10 healthy controls and one subject with MS. The in vivo results obtained are consistent with previous reports. The acquired quantitative data have a high potential in the context of MS. However, the parameters estimated in a multiparametric acquisition are correlated and constitute therefore an ill-posed, nontrivial data analysis problem. Motivated by this specific problem, a new data clustering approach is developed called Nuclear Potential Clustering, NPC. It is suitable for the explorative analysis of arbitrary dimensional and possibly correlated data without a priori assumptions about its structure. The developed algorithm is based on a concept adapted from nuclear physics. To partition the data, the dynamic behavior of electrically even charged nucleons interacting in a d-dimensional feature space is modeled. An adaptive nuclear potential, comprised of a short-range attractive (Strong interaction) and a long-range repulsive term (Coulomb potential), is assigned to each data point. Thus, nucleons that are densely distributed in space fuse to build nuclei (clusters), whereas single point clusters are repelled (noise). The algorithm is optimized and tested in an extensive study with a series of synthetic datasets as well as the Iris data. The results show that it can robustly identify clusters even when complex configurations and noise are present. Finally, to address the initial goal, quantitative MRI data of 42 patients are analyzed employing NPC. A series of experiments with different sets of image-based features show a consistent grouping tendency: younger patients with low disease grade are recognized as cohesive clusters, while those of higher age and impairment are recognized as outliers. This allows for the definition of a reference region in a feature space associated with phenotypic data. Tracking of the individual's positions therein can disclose patients at risk and be employed for therapy evaluation.
Das Hauptziel der vorliegenden Arbeit ist die Absicherung der Qualität eines pharmazeutischen Produktionsprozesses durch die Überprüfung des Volumens mikroskopischer Polymerstäbchen mit einem hochgenauen 3D Messverfahren. Die Polymerstäbchen werden für pharmazeutische Anwendungen hergestellt. Aus Gründen der Qualitätssicherung muss das Istgewicht überprüft werden. Derzeit werden die Polymerstäbchen stichprobenartig mit einer hochpräzisen Waage gewogen. Für die nächste Generation von Polymeren wird angenommen, dass die Produktabmessungen weiter reduziert werden sollen und die Produktionstoleranzen auf 2,5% gesenkt werden. Die daraus resultierenden Genauigkeitsanforderungen übersteigen jedoch die Möglichkeiten der Wiegetechnik. Bei homogenen Materialien ist die Masse proportional zum Volumen. Aus diesem Grund kommt dessen Bestimmung als Alternative in Frage. Dies verschafft Zugang zu optischen Messverfahren und deren Flexibilität und Genauigkeitpotenzial. Für den Entwurf eines auf die Fragestellung angepassten Messkonzeptes sind weiterhin von Bedeutung, dass das Objekt kontaktlos, mit einer Taktzeit von maximal fünf Sekunden vermessen und das Volumen approximiert wird. Die Querschnitte der Polymerstäbchen sind etwa kreisförmig. Aufgrund der Herstellung der Fragmente kann nicht davon ausgegangen werden, dass die Anlageflächen orthogonal zur Symmetrieachse des Objektes sind. Daher muss analysiert werden, wie sich kleine Abweichungen von kreisförmigen Querschnitten sowie die nicht idealen Anlageflächen auswirken. Die maximale Standardabweichung für das Volumen, die nicht überschritten werden sollte, beträgt 2,5%. Dies entspricht einer maximalen Abweichung der Querschnittsfläche um 1106 µm² (Fehlerfortpfanzung). Als Bewertungskriterium wird der Korrelationskoeffzient zwischen den gemessenen Volumina und den Massen bestimmt. Ein ideales Ergebnis wäre 100%. Die Messung zielt auf einen Koeffzienten von 98% ab. Um dies zu erreichen, ist ein präzises Messverfahren für Volumen erforderlich. Basierend auf dem aktuellen Stand der Technik können die vorhandenen optischen Messverfahren nicht verwendet werden. Das Polymerstäbchen wird von einer Kamera im Durchlicht beobachtet. Daher sind der Durchmesser und die Länge sichtbar. Das Objekt wird mittels einer mechanischen Vorrichtung um die Längsachse gedreht. So können Bilder von allen Seiten aufgenommen werden. Der Durchmesser und die Länge werden mit der Bildverarbeitung berechnet. Das neue Konzept vereint die Vorteile der Verfahren: Es ist unempfindlich gegen Farb-/Helligkeitsänderungen und die Bilder können in beliebiger Anzahl aufgenommen werden. Außerdem sind die Erfassung und Auswertung wesentlich schneller. Es wird ein Entwurf und die Umsetzung einer Lösung zur hochpräzisen Volumenmessung von Polymerstäbchen mit optischer Messtechnik und Bildverarbeitung ausgearbeitet. Diese spezielle Prozesslösung in der Prozesslinie (inline) sollte eine 100%ige Qualitätskontrolle während der Produktion garantieren. Die Zykluszeiten des Systems sollte fünf Sekunden pro Polymerstäbchen nicht überschreiten. Die Rahmenbedienungen für den Prozess sind durch die Materialeigenschaften des Objekts, die geringe Objektgröße (Breite = 199 µm, Länge = 935 µm bis 1683 µm) und die undeffinierte Querschnittsform (durch den Trocknungsprozess) vorgegeben. Darüber hinaus sollten die Kosten für den Prozess nicht zu hoch sein. Der Messaufbau sollte klein sein und ohne Sicherheitsvorkehrungen oder Abschirmungen arbeiten. Das entstandene System nimmt die Objekte in verschiedenen Winkelschritten auf, wertet mit Hilfe der Bildverarbeitung die Aufnahmen aus und approximiert das Volumen. Der Korrelationskoffizient zwischen Volumen und Gewicht beträgt für 77 Polymerstäbchen mit einem Gewicht von 37 µg bis 80 µg 99; 87%. Mit Hilfe eines Referenzsystems kann die Genauigkeit der Messung bestimmt werden. Die Standardabweichung sollte maximal 2,5% betragen. Das entstandene System erzielt eine maximale Volumenabweichung von 1,7%. Die Volumenvermessung erfüllt alle Anforderungen und kann somit als Alternative für die Waage verwendet werden.
Lastkraftwagen werden weltweit in verschiedenen Konfigurationen für den Transport von Gütern und für Spezialanwendungen genutzt. Das sichere Navigieren solcher Großfahrzeuge stellt eine herausfordernde Aufgabe für den Fahrer und unter Umständen für automatische Steuerungssysteme, z. B. im semi-autonomen oder autonomen Betrieb, dar. Insbesondere in kinematisch schwierigen Situationen, auf unebenem Untergrund oder bei engen Platzverhältnissen steigt die Komplexität des sicheren Steuerns.
Umso verwunderlicher ist es, dass unterstützende Systeme, welche die speziellen Belange von LKW und insbesondere LKW-Gespannen adressieren, im Vergleich zum Angebot auf dem PKW-Markt nur in rudimentärem Maß angeboten werden. Das Gefahrenpotential, dass von Großfahrzeugen ausgeht, wird zunehmend in der aktuellen Tagespolitik diskutiert. Unter anderem wird die verpflichtende Einführung von Fahrerassistenzsystemen gefordert.
In dieser Arbeit werden zwei Themen behandelt, die sich mit den speziellen Anforderungen von Nutzfahrzeugen befassen. Im ersten Themenblock wird die Erfassung der Artikulation in einem LKW-Anhänger-Gespann mit Drehschemelanhänger bearbeitet. Dabei wird ein neuartiges Verfahren vorgestellt, das auf an der Universität Koblenz-Landau geleisteten Vorarbeiten aufbaut. Es ermöglicht die Erfassung von Knickwinkeln in mehreren Dimensionen und ist daher auch für den Einsatz auf unebenem Grund, wie beispielsweise in Baustellen- oder Agrarszenarien geeignet. Das Verfahren nutzt dabei eine Kamera und ein künstliches Muster, um den Gespannzustand zu ermitteln.
Im zweiten Bereich wird die Umfeldvisualisierung durch eine Vogelperspektivenansicht thematisiert. Herkömmliche Systeme weisen systembedingte Verzerrungen auf, die unnatürlich wirkende Ansichten zur Folge haben. Diesem Problem wird durch die Entwicklung einer neuen Herangehensweise begegnet: Mit den Tiefendaten von Stereokameras wird eine Umgebungsmodellierung realisiert, die im nächsten Schritt perspektivisch korrekt mit Kamerabildern fusioniert wird. Mittels einer speziell für diesen Fall erweiterten Stereo-Hinderniserkennung wird zudem eine zusätzliche Umfeldüberwachung ermöglicht.
Die beiden in dieser Dissertation vorgestellten Verfahren beinhalten grundlegende Arbeiten, die für die Entwicklung maßgeschneiderter Assistenzsysteme für LKW angewandt werden können.
The distributed setting of RDF stores in the cloud poses many challenges. One such challenge is how the data placement on the compute nodes can be optimized to improve the query performance. To address this challenge, several evaluations in the literature have investigated the effects of existing data placement strategies on the query performance. A common drawback in theses evaluations is that it is unclear whether the observed behaviors were caused by the data placement strategies (if different RDF stores were evaluated as a whole) or reflect the behavior in distributed RDF stores (if cloud processing frameworks like Hadoop MapReduce are used for the evaluation). To overcome these limitations, this thesis develops a novel benchmarking methodology for data placement strategies that uses a data-placement-strategy-independent distributed RDF store to analyze the effect of the data placement strategies on query performance.
With this evaluation methodology the frequently used data placement strategies have been evaluated. This evaluation challenged the commonly held belief that data placement strategies that emphasize local computation, such as minimal edge-cut cover, lead to faster query executions. The results indicate that queries with a high workload may be executed faster on hash-based data placement strategies than on, e.g., minimal edge-cut covers. The analysis of the additional measurements indicates that vertical parallelization (i.e., a well-distributed workload) may be more important than horizontal containment (i.e., minimal data transport) for efficient query processing.
Moreover, to find a data placement strategy with a high vertical parallelization, the thesis tests the hypothesis that collocating small connected triple sets on the same compute node while balancing the amount of triples stored on the different compute nodes leads to a high vertical parallelization. Specifically, the thesis proposes two such data placement strategies. The first strategy called overpartitioned minimal edge-cut cover was found in the literature and the second strategy is the newly developed molecule hash cover. The evaluation revealed a balanced query workload and a high horizontal containment, which lead to a high vertical parallelization. As a result these strategies showed a better query performance than the frequently used data placement strategies.
Dadurch, dass Silber-Nanopartikel (Ag NPs) vielfältig in Konsumartikeln eingesetzt werden, führt deren Auswaschung zu einer kontinuierlichen Freisetzung von Ag NPs in natürliche Gewässer. Dadurch werden bakterielle Biofilme, welche die vorherrschende Lebensform von Mikroorganismen in der aquatischen Umwelt darstellen, sehr wahrscheinlich mit diesen in Form eines Umweltschadstoffes onfrontiert. Ungeachtet der bedeutsamen ökologischen Relevanz von bakteriellen Biofilmen in aquatischen Systemen und obwohl erwartet wird, dass Ag NPs in diesen Biofilmen in der Umwelt akkumulieren, liegt der Wissensstand hinsichtlich der umweltbedingten und ökologischen Auswirkung von Ag NPs hinter dem industriellen Wachstum der Nanotechnologie zurück. Demzufolge ist das Ziel dieser Dissertation, die Wirkungsbeziehung der Ag NP-Exposition gegenüber bakteriellen Biofilmen mit Ag NP-Immissionskonzentrationen und unter umwelt-relevanten Bedingungen zu erbringen. Infolgedessen wurden eine umfassende Reihe an Methoden angewendet, um zu untersuchen ob und inwiefern Ag NPs in zwei verschiedenen Größen (30 und 70 nm) und in umweltrelevanten Konzentrationen (600 - 2400 µg l-1) bakterielle Biofilme, d.h. monospecies- und Süßwasser-Biofilme, beeinträchtigen. Innerhalb des ersten Teils dieser Arbeit wurde ein neu entwickelter Assay validiert, um die mechanische Stabilität von monospecies Biofilmen des Bakteriums Aquabacterium citratiphilum zu untersuchen. In der ersten Studie, welche den Einfluss von Ag NPs auf die mechanische Stabilität von bakteriellen Biofilmen untersucht hat, wurden subletale Auswirkungen auf die mechanische Stabilität dieser Biofilme mit negativen Implikationen für die Biostabilisation festgestellt. Weiterhin wurde eine Mesokosmus-Studie konzipiert und durchgeführt, innerhalb der die Auswirkungen von Ag NPs auf Süßwasser-Biofilme eingehend unter realistischen Umweltbedingungen untersucht werden konnte, da es derzeit technisch noch sehr anspruchsvoll ist, die Ökotoxizität von Ag NPs in der Umwelt von Binnengewässern zu untersuchen. Innerhalb dieser Studie wurden verschiedene Methoden zur Untersuchung der Biofilmeigenschaften eingesetzt und damit Erkenntnisse über die Resilienz von bakteriellen Süßwasser-Biofilmen gewonnen. Demgegenüber konnte mittels t-RFLP fingerprinting und phylogenetischen Untersuchungen basierend auf der Sequenzanalyse des 16S-rRNA-Gens nachgewiesen werden, dass die Exposition der Biofilme mit Ag NPs zu einer Verschiebung innerhalb der Zusammensetzung der bakteriellen Biofilmgemeinschaft führt, in der Ag NP-sensitive Arten von Ag NP-toleranten Arten, die besser an Ag NP Stress adaptiert sind, verdrängt wurden. Diese Verschiebung innerhalb der bakteriellen Biofilmgemeinschaft könnte die Biofilm-Leistungen beeinträchtigen, die intakte Biofilme auszeichnen, wie etwa den Abbau erhöhten Nährstoffeintrags, die Umwandlung und/oder den Abbau von Schadstoffen sowie Biostabilisation. Durch das Zusammenführen der wichtigsten Erkenntnisse dieser Dissertation konnten 4 generelle Wirkmechanismen durch die Ag NP-Behandlung identifiziert werden, die auf natürliche Süßwassersysteme übertragbar sein könnten: (i) Comamonadaceae wurden als Ag NP-tolerant identifiziert, (ii) Biofilme zeigen ein partiell resilientes Verhalten, (iii) die beiden eingesetzten verschiedenen Ag NP-Größen führten zu vergleichbaren Ergebnissen unabhängig von deren Größe oder Synthesemethode, (iv) Bakterielle Biofilme verfügen über eine hohe Aufnahmekapazität für Ag NPs, die auf eine kumulative Anreicherung hinweist.
Warum kann ich mir nicht vorstellen, meine Haare wachsen zu lassen, insbesondere meine Körperhaare? Diese Frage und das damit verbundene Unbehagen motivierten mich 2016 zur Entwicklung meines Dissertationsprojektes.
Die Suche nach einer Antwort führt zu einer Studie, die einen feministisch-phänomenologischen Erfahrungsbegriff zentral setzt. Bedeutsam für die Entwicklung eines solchen Begriffs sind die phänomenologischen Beiträge „Zur poststrukturalistischen Kritik an der Erfahrung im Kontext der feministischen Philosophie“ (Stoller 2005) von Silvia Stoller und „Phänomenologie, Poststrukturalismus und feministische Theorie. Zum Begriff der Erfahrung“ (Alcoff 1997) von Linda Martín Alcoff. Darauf aufbauend verfolgt das Dissertationsprojekt zunächst das Anliegen, Erfahrungen sichtbar zu machen, indem sie veranschaulicht und zur Sprache gebracht werden. Auf diese Weise wird es möglich, Erfahrungen hinterfragen zu können, um anschließend Antworten entwickeln zu können. Demnach beruhen mein Unvermögen, Körperhaare wachsen zu lassen, sowie das damit einhergehende Unbehagen darauf, eine drohende Erfahrung der Fremdheit mir selbst gegenüber abwenden zu wollen. Zu einer solchen Fremderfahrung würde es kommen, wenn ich durch meine Körperhaare damit konfrontiert werde, dass ich mir fremd bin. Jedoch um sich selbst kennenzulernen sind Menschen nach phänomenologischem Verständnis (vgl. Meyer-Drawe 2001: 141-142) auf andere Menschen angewiesen, da sie sich selbst erst durch andere bewusst werden können. Doch stellt es angesichts des gelebten Ideals der Haarlosigkeit (vgl. Labre 2002: 120-122, Strmljan 2018: 406) eine Herausforderung dar, meine drohende Fremderfahrung, aufgrund der Konfrontation mit meinen Körperhaaren, im Kontakt mit anderen Menschen zu überwinden, sodass ich eine solche Fremderfahrung vermeide, indem ich meine Körperhaare entferne. Als Resultat verbleibt mein Unbehagen darüber, dem Ideal der Haarlosigkeit zu entsprechen.
Zu einer solchen Antwort gelange ich anhand einer Studie, die folgender Forschungsfrage folgt:
Wie erfahren sich Menschen beim Waxing in einem Kosmetikstudio unter den Bedingungen der binären Geschlechterordnung?
Dass die Erfahrungen in einem Kosmetikstudio erforscht werden, begründet sich damit, dass in einem solchen der Zugang zu Erfahrungen bei der Entfernung von Körperhaaren möglich wird. Körperhaare zu entfernen ist zwar ein alltäglicher Umgang mit Körpern, jedoch intim und persönlich, sodass ein Zugang schwierig wird. Eine Lösung stellt hierfür ein Kosmetikstudio dar. Als Praktikantin in dem Kosmetikstudio Beautystudio werden mir Erfahrungen beim Waxing – einer kosmetischen Technik der Haarentfernung – zugänglich.
Auf solche Weise Daten zu erheben folgt dem ethnographischen Vorgehen der teilnehmenden Beobachtung. Forscher*innen nehmen beobachtend vor Ort teil und erheben Daten, indem sie Notizen, Protokolle und schließlich Studien erstellen. Mittels eines solchen Forschungsstils können Forscher*innen Erfahrungen in einer Studie zentral setzen, da sie so Erfahrungen selbst machen können und Zugang zu den Erfahrungen anderer erhalten (vgl. Amann/ Hirschauer 1997: 29-30, Breidenstein et al. 2013: 86-87, 103, 177-178).
Im Zuge der Datenerhebung zeigt sich wiederum, dass im Umgang mit Körperhaaren die Bedingungen der binären Geschlechterordnung wirksam werden. Beispielsweise wird in vielen Situationen die dichotome Differenz zwischen Männern und Frauen betont, ohne dass es konkret für die kosmetische Anwendung notwendig zu sein scheint. So erklärt sich, dass für die Analyse und das Hinterfragen der zur Sprache gebrachten Erfahrungen ein geschlechtertheoretisches Konzept herangezogen wird, welches Erfahrungen hinsichtlich der Bedingungen der binären Geschlechterordnung befragen kann. Eine solche Betrachtung der Daten bietet Gesa Lindemanns Konzept „Der leiblich-affektiven Konstruktion des Geschlechts“ (1992).
Basierend auf dem feministisch-phänomenologischen Erfahrungsbegriff, dem ethnographischen Vorgehen und dem Geschlechterkonzept Lindemann zeigt sich, dass Menschen beim Waxing erfahren (können), mit anderen Menschen verbunden und sich selbst unverbunden zu sein. Dabei wird die Haut zum Kristallisationspunkt der Verbindung zu anderen Menschen (und auch Apparaten). Durch die Berührungen wird einerseits Verbundenheit gestaltet und eine gegenseitige Zuwendung erfahrbar, andererseits wird diese aber auch unterbrochen, wenn durch das Waxing Schmerz zugefügt wird oder Menschen durch Blicke entblößt werden. So wird die Haut zum Medium zwischen den Erfahrungen der Verbundenheit und Unverbundenheit.
(Hinweisen möchte ich an dieser Stelle, dass alle Namen und Orte anonymisiert sind. Demnach handelt es sich beim Beautystudio um den anonymisierten Namen des Kosmetikstudios, in welchem ich forschte. Auf diese Weise soll die Persönlichkeit der Kontaktpersonen im Feld gewahrt bleiben.)
Literaturhinweise:
Alcoff, Linda M. (1997): Phänomenologie, Poststrukturalismus und feministische Theorie. Zum Begriff der Erfahrung. In: Stoller, Silvia/ Vetter, Helmuth (Hg.): Phänomenologie und Geschlechterdifferenz. Wien: WUV-Universitäts-Verlag: 227-271.
Amann, Klaus/ Hirschauer, Stefan (1997): Die Befremdung der eigenen Kultur. Ein Programm. In: Hirschauer, Stefan/ Amann, Klaus (Hg.): Die Befremdung der eigenen Kultur: Zur ethnographischen Herausforderung soziologischer Empirie. Frankfurt am Main: Suhrkamp Verlag: 7-52.
Breidenstein, Georg/ Hirschauer, Stefan/ Kalthoff, Stefan/ Nieswand, Boris (2013): Ethnografie. Die Praxis der Feldforschung. Konstanz & München: UVK Verlagsgesellschaft
Labre Peixoto, Magdala (2002): The Brazilian Wax: New Hairlessness Norm for Women? In: Journal of Communication Inquiry: 26 (2): 113-132.
Lindemann, Gesa (1992): Die leiblich-affektive Konstruktion des Geschlechts. Für eine Mikrosoziologie des Geschlechts unter der Haut. In: Zeitschrift für Soziologie: 21 (5): 330-346.
Meyer-Drawe, Käte (2001): Leiblichkeit und Sozialität. München: Wilhelm Fink Verlag.
Stoller, Silvia (2005): Zur poststrukturalistischen Kritik an der Erfahrung im Kontext der feministischen Philosophie. In: Stoller, Silvia/ Vasterling, Veronica/ Fisher, Linda (Hg.): Feministische Phänomenologie und Hermeneutik. Würzburg: Königshausen & Neumann GmbH: 139-170.
Strmljan, Alina (2018): Haare zum Schämen? Weibliche Körperbehaarung und ihre Entfernung – Normen, Tabus und Trivialisierungen. In: Breuss, Susanne (Hg.): Mit Haut und Haar. Frisieren, Rasieren, Verschönern. Wien: Metroverlag: 404-410.
Schizophrenia is a chronic mental health disorder, which changes rapidly the life of the persons and their families, who suffer from it. It causes high biological and psychological vulnerability as well as cognitive, emotional and behavioral disorders. Nowadays, evidence-based pharmacotherapy and psychotherapy are available aiming the rehabilitation and recovery of individuals with schizophrenia. A democratic society is obliged to give these people the opportunity to have an access to those treatments.
The following three published studies present this dissertation thesis and have a common focus on the implementation of evidence-based psychotherapy in individuals with schizophrenia.
The first study evaluates the efficacy of the Integrated Psychological Therapy (IPT) in Greece, one of the most evaluated rehabilitation programs. IPT was compared to
Treatment as Usual (TAU) in a randomized controlled trial (RCT) with 48 individuals with schizophrenia. Significant effects favouring IPT were found in working memory,
in social perception, in negative symptoms, in general psychopathology and in insight. This study supports evidence for the efficacy of IPT in Greece.
The second study evaluates a second hypothesis, when IPT is more and less effective regarding treatment resistant schizophrenia (TRS) and non treatment resistant
schizophrenia (NTRS). It is a part of the first paper. Significant effects favouring NTRS were found for verbal memory, for symptoms, for functioning and quality of
life. Effect sizes showed superiority of NTRS in comparison to TRS. IPTTRS showed on the other side some significant improvements. This study presents the initial findings of a larger study to be conducted internationally for the first time.
The third study is a systematic review, which aims to evaluate the efficacy of Cognitive Behavioral Therapy (CBT), of Meta Cognitive Therapy (MCT), Metacognitive Training (MCTR), Metacognitive Reflection and Insight Therapy
(MERIT), of various Rehabilitation Programs and Recovery Programs in individuals with schizophrenia. 41 RCTs and 12 Case Studies were included. The above interventions are efficacious in the improvement of cognitions, symptoms, functional outcome, insight, self-esteem, comorbid disorders and metacognitive capacity.
The three studies provide insight regarding the importance of evidence-based psychotherapy in persons with schizophrenia leading to recovery and reintegration into
society. Future RCTs with larger samples and long-term follow up, combining evidence-based psychotherapies for individuals with schizophrenia need to be done.
Data-minimization and fairness are fundamental data protection requirements to avoid privacy threats and discrimination. Violations of data protection requirements often result from: First, conflicts between security, data-minimization and fairness requirements. Second, data protection requirements for the organizational and technical aspects of a system that are currently dealt with separately, giving rise to misconceptions and errors. Third, hidden data correlations that might lead to influence biases against protected characteristics of individuals such as ethnicity in decision-making software. For the effective assurance of data protection needs,
it is important to avoid sources of violations right from the design modeling phase. However, a model-based approach that addresses the issues above is missing.
To handle the issues above, this thesis introduces a model-based methodology called MoPrivFair (Model-based Privacy & Fairness). MoPrivFair comprises three sub-frameworks: First, a framework that extends the SecBPMN2 approach to allow detecting conflicts between security, data-minimization and fairness requirements. Second, a framework for enforcing an integrated data-protection management throughout the development process based on a business processes model (i.e., SecBPMN2 model) and a software architecture model (i.e., UMLsec model) annotated with data protection requirements while establishing traceability. Third, the UML extension UMLfair to support individual fairness analysis and reporting discriminatory behaviors. Each of the proposed frameworks is supported by automated tool support.
We validated the applicability and usability of our conflict detection technique based on a health care management case study, and an experimental user study, respectively. Based on an air traffic management case study, we reported on the applicability of our technique for enforcing an integrated data-protection management. We validated the applicability of our individual fairness analysis technique using three case studies featuring a school management system, a delivery management system and a loan management system. The results show a promising outlook on the applicability of our proposed frameworks in real-world settings.
Internationale Bildungsstudien (TIMSS und PISA) offenbarten, dass es deutschen Schülern nur begrenzt gelingt, ihr erworbenes Wissen im Physikunterricht zur Problemlösung in neuen Kontexten zu nutzen. Als Grund nennen die Studien die gering ausgeprägte Kompetenz-erwartung in Bezug zum Fach Physik. Die Folge ist eine geringe Motivation der Lernenden, physikalische Aufgaben zu lösen. Studien zeigen aber auch, dass die Motivation beim Lernen durch den Einsatz digitaler Lernmedien gesteigert werden konnte. Aus diesem Grund wird in dieser Arbeit untersucht, ob das Vertrauen in die eigenen Fähigkeiten durch das Lernen in einer integrierten Lernumgebung gefördert werden kann. Im Rahmen eines Design-Based-Research-Forschungsansatzes (DBR) wurde eine integrierte Lernumgebung „Wärmelehre“ mit digitalen Lernmedien für den Physikunterricht gestaltet, die dann in zwei Schulformen (IGS und Gymnasium) innerhalb einer quasi-experimentellen Feldstudie erprobt wurde. Im 1. Zyklus des DBR wurden die Wirkungen des selbstständigen Lernens mit digitalen/analogen Medien in Einzelarbeit untersucht. Die Ergebnisse der Wissenstests zeigen einen höheren Lernerfolg bei den Lernenden der Experimentalgruppen, der sich aber nicht signifikant von den Lernenden der Kontrollgruppen (analoge Medien) unterscheidet. Die Lernenden konnten sich in der integrierten Lernumgebung mit Unterstützung beider Medienformate selbstständig Fachwissen aneignen und problembasierte Textaufgaben lösen. Die Ergebnisse der Befragungen der Lernenden zeigen, dass sich die Lerngruppen signifikant in ihrem erlebten Grad der Selbststeuerung unterscheiden. Die Lernenden beider Experimentalgruppen bewerten ihren Handlungsspielraum besser als die Lernenden der beiden Kontrollgruppen. Ebenfalls konnte festgestellt werden, dass sich die individuellen Lernvoraussetzungen, der Lernstiltyp, das Kompetenzerleben und die Aspekte der Medien-gestaltung wechselseitig beeinflussen und auf den Lernerfolg wirken. Die Ergebnisse der Lernstilanalyse zeigen, dass sich selbst kleine Lerngruppen heterogen zusammensetzen. Demnach scheint es für einen guten Lernerfolg notwendig zu sein, dass die Lehrenden, die Lernumgebung an die individuellen Lernpräferenzen der Lernenden der Lerngruppe anpassen. Aus den Ergebnissen lässt sich als Konsequenz für den Physikunterricht ableiten, dass Selbstlernphasen mit digitalen Lernmedien regelmäßig in den Unterricht integriert werden sollten, um die Problemlöse- und die Selbststeuerungskompetenz zu fördern. Es ist von Vorteil, wenn die Lehrenden für die Gestaltung einer Lernumgebung, das Vorwissen, die individuellen Lernvoraussetzungen und die Zusammensetzung der Lerngruppe (Lernstiltyp) als Qualitätsdimensionen erfassen. Im Re-Design werden Vorschläge unterbreitet, wie die integrierte Lernumgebung lernstilgerecht weiterentwickelt werden kann. Im 2. Zyklus soll dann erforscht werden, ob sich Unterschiede im Lernerfolg und in den untersuchten Aspekten zeigen, wenn die Lernenden in Einzelarbeit, in Partnerarbeit oder in ihrer Lernstilgruppe selbstgesteuert lernen, um die Lernumgebung zyklisch weiterzuentwickeln.
Studien der vergangenen Jahre haben gezeigt, dass im Bereich der Datenschutzkompetenz ein Mangel bei Jugendlichen und jungen Erwachsenen besteht, jedoch standen Kinder und Jugendliche im Alter von zehn bis 13 Jahren dabei nicht so stark im Fokus. Daher ist die Leitfrage der Arbeit, wie die Datenschutzkompetenz bei Kindern und Jugendlichen in dem jüngeren Alter ausgebildet ist, um für diese Altersgruppe passende Konzepte entwickeln zu können. Zu Beginn der Arbeit wird ausgehend von einem Medienkompetenzmodell ein Datenschutzkompetenzmodell abgeleitet, welches als Grundlage für die weitere Felduntersuchung dient. An allgemeinbildenden weiterführenden Schulen in Rheinland-Pfalz wurde eine Erhebung durchgeführt, die zeigt, dass die Befragten im Bereich der Risikoabschätzung noch eine ausreichende, aber im Bereich des Wissens, der Auswahl- und Nutzungskompetenz und der Handlungskompetenz eine mangelhafte Kompetenz besitzen. Um diesem Problem zu begegnen, werden im letzten Teil der Arbeit Handlungsempfehlungen in Form von Lernzielbeschreibungen formuliert, um ausgehend davon zukünftig passende Lehr-Lern-Settings implementieren zu können.
Die Biopolyester Cutin und Suberin stellen hydrophobe Grenzbarrieren dar, die sich im Laufe der Evolution der Landpflanzen entwickelt haben. Cutin bildet den Hauptbestandteil der Cuticula, die den Pflanzen Schutz vor unkontrollierter Transpiration bietet. Die Einlagerung von Suberin in die Zellwände definierter Zellen des Wurzelgewebes ermöglicht eine kontrollierte Aufnahme von Wasser und Nährstoffen. Zu den wichtigsten monomeren Bestandteilen dieser biologischen Polyester gehören langkettige α,ω-Dicarbonsäuren und ω-Hydroxycarbonsäuren. Bisher wurde der mikrobielle Abbau der Makromoleküle unzureichend erforscht. Zur Entschlüsselung der Zersetzung ist es notwendig, den Kreislauf der monomeren Bestandteile im Boden zu betrachten. Hierzu eignen sich vor allem Experimente mit positionsspezifisch ¹³C -markierten α,ω-Dicarbonsäuren und ω-Hydroxycarbonsäuren, die in der vorliegenden Arbeit erstmals synthetisch zugänglich gemacht wurden. Die Synthesen umfassten Dicarbonsäuren der geradzahligen Kettenlängen C12 bis C30, deren Carboxygruppen ¹³C -markiert sind. Ebenfalls wurde die Synthese von ω-Hydroxycarbonsäuren der Kettenlängen C14, C18, C22 und C30 mit ¹³C-Markierung an der Carboxygruppe realisiert. Weitere Zielverbindungen waren ω-Hydroxycarbonsäuren der Kettenlängen C14, C15, C18, C22 und C30, deren terminales hydroxyliertes Kohlenstoffatom mit ¹³C markiert ist. Im Rahmen der durchgeführten Arbeit gelang es, alle 19 Zielcarbonsäuren erfolgreich in hohen Ausbeuten und Reinheiten darzustellen. Die Synthese der isotopenmarkierten Verbindungen erforderte die Entwicklung spezieller auf die jeweiligen Zielsubstanzen individuell angepasster Syntheserouten, die den Einbau des Kohlenstoffisotops ¹³C ermöglichten. Für alle Zielverbindungen erfolgte die Einführung des ¹³C durch die Verwendung von ¹³C -markiertem Kaliumcyanid (99 at%). Wegen der hohen Kosten des ¹³C -markierten Ausgangsstoffes wurden alle Reaktionen zunächst unter der Verwendung analoger unmarkierter Edukte optimiert. Der letzte Teil der Arbeit bestand in der Ausführung eines Inkubationsexperimentes mit den ¹³C -markierten α,ω-Dicarbonsäuren der Kettenlängen C12, C18, C22 und C30. Mittels Phospholipidfettsäure-Analyse konnte gezeigt werden, dass die ¹³C -Dicarbonsäuren zu unterschiedlichen Anteilen von verschiedenen Mikroorganismengruppen zum Aufbau von Phospholipidfettsäuren verwendet wurden. Außerdem konnte durch die Anreicherung des CO2 mit dem Isotop ¹³C nachgewiesen werden, dass die ¹³C -markierten Fettsäuren von den Mikroorganismen zur Energiegewinnung abgebaut wurden. Für zukünftige Arbeiten wäre es interessant, Ausschnitte der Cutin- und Suberinstruktur nachzubilden. Durch die Veresterung der ¹³C -markierten α,ω-Dicarbonsäuren und der ¹³C -markierten ω-Hydroxycarbonsäuren untereinander oder mit Alkoholen könnten Dimere und Oligomere hergestellt werden.
Die Entwicklung von naturwissenschaftlichen Konzepten und Bildungssprache beginnt schon vor dem Schuleintritt und bildungssprachliche und naturwissenschaftliche Kompetenzen werden als wichtige Faktoren für Schulerfolg angesehen (Ehlich, Bredel & Reich, 2008; Saçkes, Trundle & Bell, 2013). Die frühe Förderung dieser Kompetenzen ist deshalb sinnvoll.
Lernumgebungen, die naturwissenschaftliche Konzepte fördern (Hardy, Möller & Stern, 2006; Leuchter, Saalbach & Hardy, 2014), zeichnen sich ebenso wie Lernumgebungen, die Bildungssprache fördern (Gibbons, 2006; Quehl & Trapp, 2013), dadurch aus, dass sie zum Sammeln eigener Erfahrungen (z.B. beim Experimentieren) und zum Versprachlichen und Begründen eigener Gedanken anregen (z.B. in Planungs- und Reflexionsphasen). Die zur Förderung von Bildungssprache erforderliche sprachliche Komplexität wird besonders in Gesprächen herausgefordert, die außerhalb der Experimentiersituation, d.h. kontext-reduziert, stattfinden (Gibbons, 2006; Quehl & Trapp, 2013). Bisherige Forschung untersucht allerdings entweder sprachliche oder konzeptuelle Fortschritte und dies überwiegend im schulischen Kontext. Eine gemeinsame Betrachtung beider Bereiche bei Vorschulkindern fehlt bisher. Die zentrale Forschungsfrage der Arbeit lautet daher: „Welche Effekte haben kontext-reduzierte Gespräche auf Vorstellungen von Vorschulkindern zu zweiseitigen Hebeln und deren bildungssprachliche Lexik und Grammatik?“
Die Effekte kontext-reduzierter Gespräche wurden in einem quasi-experimentellen Design (N = 90) mit drei Gruppen untersucht. Alle Gruppen nahmen an Experimentierphasen zu zweiseitigen Hebeln teil. Zwei Gruppen erhielten außerdem Planungs- und Reflexionsphasen mit verbalen Unterstützungsmaßnahmen. In der kontext-reduzierten Bedingung fanden die Planungs- und Reflexionsgespräche in raum-zeitlicher Trennung zum Experimentiermaterial statt, in der kontextualisierten Bedingung stand den Kindern das Material auch während der Planungs- und Reflexionsphasen zur Verfügung.
Zwischen kontext-reduzierten und kontextualisierten Gesprächen konnten weder signifikante Unterschiede im naturwissenschaftlichen Konzept noch in den bildungssprachlichen Kompetenzen gefunden werden. Ein signifikanter Fördereffekt von Planungs- und Reflexionsgesprächen gegenüber der reinen Experimentierphase ohne Gespräche zeigt sich für konzeptuelle Vorstellungen zu zweiseitigen Hebeln, jedoch nicht für bildungssprachliche Lexik und Grammatik. Diese Ergebnisse lassen sich aus dem theoretischen Hintergrund nur bedingt erklären und geben Anlass für weitere Forschung.
The three biodegradable polymers polylactic acid (PLA), polyhydroxybutyrate (PHB) and polybutylene adipate terephthalate (PBAT) were coated with hydrogenated amorphous carbon layers (a-C:H) in the context of this thesis. A direct alignment of the sample surface to the source was chosen, resulting in the deposition of a robust, r-type a-C:H. At the same time, a partly covered silicon wafer was placed together with the polymers in the coating chamber and was coated. Silicon is a hard material and serves as a reference for the applied layers. Due to the hardness of the material, no mixed phase occurs between the substrate and the applied layer (no interlayer formation). In addition, the thickness of the applied layer can be estimated with the help of the silicon sample.
The deposition of the layer was realized by radio frequency plasma enhanced chemical vapor deposition (RF-PECVD). For the coating the samples were pre-treated with an oxygen plasma. Acetylene was used as precursor gas for the plasma coating. Coatings with increasing thickness in 50 nm steps from 0-500 nm were realised.
The surface analysis was performed using several techniques: The morphology and layer stability were analyzed with scanning electron microscopy (SEM) measurements. The wettability was determined by contact angle technique. In addition, the contact angles provide macroscopic information about the bond types of the carbon atoms present on the surface. For microscopic analysis of the chemical composition of the sample and layer surfaces, diffuse reflectance Fourier transform infrared spectroscopy (DRIFT) as well as synchrotron based X-ray photon spectroscopy (XPS) and near edge X-ray absorption fine structure spectroscopy (NEXAFS) were used.
All coated polymers showed several cases of layer failure due to internal stress in the layers. However, these were at different layer thicknesses, so there was a substrate effect. In addition, it is visible in the SEM images that the coatings of PLA and PHB can cause the applied layer to wave, the so-called cord buckling. This does not occur with polymer PBAT, which indicates a possible better bonding of the layer to the polymer. The chemical analyses of the layer surfaces show for each material a layer thickness dependent ratio of sp² to sp³ bonds of carbon, which alternately dominate the layer. In all polymers, the sp³ bond initially dominates, but the sp² to sp³ ratio changes at different intervals. Although the polymers were coated in the same plasma, i.e. the respective layer thicknesses (50 nm, 100 nm, ...) were applied in the same plasma process, the respective systems differed considerably from each other. A substrate effect is therefore demonstrably present. In addition, it was found that a change in the dominant bond from sp³ to sp² is an indication ofan upcoming layer failure of the a-C:H layer deposited on the polymer. In the case of PLA, this occurs immediately with change to sp² as the dominant bond; in the case of PHB and PBAT, this occurs with different delay to increased layer thicknesses (at PHB 100 nm, at PBAT approx. 200 nm.
Overall, this thesis shows that there is a substrate effect in the coating of the biodegradable polymers PLA, PHB and PBAT, since despite the same coating there is a different chemical composition of the surface at the respective layer thicknesses. In addition, a layer failure can be predicted by analyzing the existing bond.
Perfluorcarbonsäuren (PFCA) sind Substanzen anthropogenen Ursprungs und werden seit mehreren Jahrzehnten verwendet. In der Literatur werden diese Verbindungen als eine neue Klasse von Umweltschadstoffen beschrieben. Ihre hohe thermische Stabilität, Oberflächenaktivität, Amphipathizität und schwache intermolekulare Wechselwirkungen führen zur Persistenz dieser organisch-chemischen Verbindungen und zur Bioakkumulation. Um diese Stoffgruppe sicher nachzuweisen, müssen zuverlässige analytische Methoden eingesetzt werden. GC-MS stellt eine kostengünstige Alternative und Ergänzung zu etablierten LC-MS/MS Methoden dar. Um jedoch die GC-MS erfolgreich einsetzen zu können, müssen die PFCA derivatisiert werden. Viele der bisher veröffentlichten Derivatisierungsreaktionen für PFCA, sind zeitaufwändig und erfordern hohe Reaktionstemperaturen und/oder toxische Reagenzien.
In der vorliegenden Dissertation wurden zwei neue Derivatisierungsreaktionen methodologisch entwickelt und optimiert. Der erste Teil der Arbeit beschreibt die Entwicklung und Optimierung der Derivatisierung mit Triethylsilanol in Wasser. Zusätzlich zur Reaktionsoptimierung, wurde die klassische Festphasenextraktion modifiziert, um die Probenvorbereitung zu vereinfachen.
Im zweiten Teil der Arbeit, wurden die Reaktionsprodukte von Perfluoroktansäure (PFOA) mit Dimethylformamid-dimethylacetal (DMF-DMA) und –diethylacetal (DMF-DEA) identifiziert. Zu diesem Zweck, wurden verschiedene massenspektrometrische Techniken angewandt. Anhand der Messergebnisse konnte gezeigt werden, dass sowohl DMF-DMA als auch DMF-DEA in Gegenwart von PFOA ein Iminium-Kation bildet, was zur Salzbildung führt. Dieses PFOA-Salz reagiert im GC-Injektor weiter zu einem entsprechenden Amin.
Abschließend, im letzten Teil der Arbeit, wurden reale Proben mit der neu entwickelten Methode auf Basis der DMF-DMA Reaktion analysiert. Die Matrixeffekte wurden ausführlich beschrieben. Die Methode wurde erfolgreich für drei Arten von Proben verwendet: Zahnseide, Textilien und Klärschlamm. Die Ergebnisse wurden mittels LC-MS/MS in einem externen Labor verifiziert. Die Unterschiede zwischen den PFCA-Werten, für eine aufgestockte Probe, wurden mittels GC-MS und LC-MS/MS gemessen und waren kleiner als 10 %.
Die Zunahme von Mikroplastik (< 5 mm) in der Umwelt ist ein globales Problem, welches im direkten Zusammenhang mit deren steigender Produktionsmenge und –vielfalt steht. Durch direkten Eintrag (primär) oder durch Zersetzung von Meso- und Makroplastik (sekundär) gelangen Mikroplastik-Partikel über die gängigen Stofftransportwege (u.a. häusliche oder industrielle Abwässer, Straßenabflüsse, Gezeiten, Winden, etc.) in die Umweltkompartimente Wasser und/oder Boden. Die Forschungs- und Entwicklungsarbeiten zur nachhaltigen Entfernung von Mikroplastik-Partikeln (inerten organisch-chemischen Stressoren, IOCS) aus dem Abwasser basieren auf der Konstruktion von Polymer-Einschlussverbindungen. IOCS beschreiben organisch-chemische Moleküle, die beim Eintrag in das Ökosystem eine hohe Persistenz aufweisen und nur begrenzt abgebaut werden können.
Nach dem Prinzip der Cloud Point Technologie wurde eine neuartige Separationstechnik entwickelt, welche ein Partikelwachstum bei Mikroplastik induziert und eine leichtere Abtrennung aus Wässer durch Volumenzunahme nach dem Stand der Technik ermöglicht. Das Konzept zur nachhaltigen Entfernung von Mikrokunststoffen von Herbort und Schuhen basiert auf einer Drei-Schritt-Synthese. Dieses Konzept wurde im Rahmen der Forschungsarbeiten weiter optimiert und hinsichtlich der Kriterien Ressourceneffizienz und Wirtschaftlichkeit angepasst. Die Arbeitsgrundlage des Konzeptes basiert auf der Hypothese, dass van der Waals Kräfte mit kurzer Reichweite und lokalisierte hydrophobe Wechselwirkungen zwischen Präkursor und/oder Material und dem anzubindenden IOCS eine Fixierung durch die Ausbildung einer Einschlussverbindung mit Partikelwachstum induzieren können. Durch Zugabe von Silizium basierten ökotoxikologisch nicht relevanten Werkstoffen gelingt es, in einem durch Wasser induzierten Aggregationsprozess, eine molekulare Selbstorganisation mit den hydrophoben Stressoren zu initiieren. Dies führt zu einer Phasentrennung, wodurch Agglomerate mit einem 10000-fach größeren Volumen ( 2-3 cm) aufschwimmen und im Anschluss durch effektive und kostengünstige Filtrationsverfahren (z. B. Sandfang, Fettabscheider) das Polymer-Extrakt vom aquatischen Medium getrennt werden können.
Die Studien der vorliegenden Arbeit untersuchen geschlechtsspezifisch-emotionale Reaktionsmuster auf stärkere und weniger stark emotionalisierte Texte verschiedener Textarten zu negativen Themen. Zusätzlich finden verschiedene Ausprägungen von Geschlechterstereotypen und dahingehend mögliche Zusammenhänge mit emotionalen Reaktionen Berücksichtigung. Versuchspersonen wurden mit Textmaterial konfrontiert und sollten daraufhin mit Hilfe des Emotionsfragebogens M-DAS ihre emotionalen Reaktionen bewerten. Frauen zeigten eine stärkere Ergriffenheit in Bezug auf das Textmaterial im Allgemeinen und besonders auf emotionalisiertes Textmaterial. Gemischte Ergebnisse zeigten sich in Bezug auf geschlechtertypische Textarten. Eine Sachtextpräferenz der Männer ließ sich ebensowenig signifikant belegen wie die erwartete stärkere Vorliebe der Frauen für literarische Texte. Geschlechtsspezifische Emotionen wurden weitestgehend erwartungskonform berichtet: Frauen reagierten mit stärkerer Angst und Trauer auf das Textmaterial, Männer mit stärkerer Verachtung. Die Ergebnisse in Bezug auf Wut sind gemischt, in einigen Fällen wurde Wut jedoch stärker von den Frauen berichtet. Die Untersuchung der Zusammenhänge zwischen internalisierten Stereotypen ergab Einflüsse hauptsächlich von weiblichen Stereotypen auf emotionale Reaktionen, männliche Stereotype konnten nur in einer Teilfragestellung als Einflussfaktor ausgemacht werden. Emotionsbezogene Stereotype wiesen keine Zusammenhänge mit emotionalen Reaktionen auf. Insgesamt belegen die Ergebnisse der Arbeit, dass sich geschlechterspezifische Unterschiede in emotionalen Reaktionen finden lassen.
In IT-Systemen treten viele Datenschutzrisiken auf, wenn Datenschutzbedenken in den frühen Phasen des Entwicklungsprozesses nicht angemessen berücksichtigt werden. Die Datenschutz-Grundverordnung (DSGVO) schreibt das Prinzip des Datenschutz durch Technikgestaltung (PbD) vor. PbD erfordert den Schutz personenbezogener Daten von Beginn des Entwicklungsprozesses an, durch das frühzeitige Integrieren geeigneter Maßnahmen. Bei der Realisierung von PbD ergeben sich nachfolgende Herausforderungen: Erstens benötigen wir eine präzise Definition von Datenschutzbedenken. Zweitens müssen wir herausfinden, wo genau in einem System die Maßnahmen angewendet werden müssen. Drittens ist zur Auswahl geeigneter Maßnahmen, ein Mechanismus zur Ermittlung der Datenschutzrisiken erforderlich. Viertens müssen bei der Auswahl und Integration geeigneter Maßnahmen, neben den Risiken, die Abhängigkeiten zwischen Maßnahmen und die Kosten der Maßnahmen berücksichtigt werden.
Diese Dissertation führt eine modellbasierte Methodik ein, um die oben genannten Herausforderungen zu bewältigen und PbD zu operationalisieren. Unsere Methodik basiert auf einer präzisen Definition von Datenschutzbedenken und umfasst drei Untermethodiken: modellbasierte Datenschutzanalyse, modellbasierte Datenschutz-Folgenabschätzung und datenschutzfreundliche Systemmodellierung. Zunächst führen wir eine Definition für Datenschutzpräferenzen ein, anhand derer die Datenschutzbedenken präzisiert werden können und überprüft werden kann, ob die Verarbeitung personenbezogener Daten autorisiert ist. Zweitens präsentieren wir eine modellbasierte Methodik zur Analyse eines Systemmodells. Die Ergebnisse dieser Analyse ergeben die Menge der Verstöße gegen die Datenschutzpräferenzen in einem Systemmodell. Drittens führen wir eine modellbasierte Methode zur Datenschutzfolgenabschätzung ein, um konkrete Datenschutzrisiken in einem Systemmodell zu identifizieren. Viertens schlagen wir in Bezug auf die Risiken, Abhängigkeiten zwischen Maßnahmen und Kosten der Maßnahmen, eine Methodik vor, um geeignete Maßnahmen auszuwählen und in ein Systemdesign zu integrieren. In einer Reihe von realistischen Fallstudien bewerten wir unsere Konzepte und geben einen vielversprechenden Ausblick auf die Anwendbarkeit unserer Methodik in der Praxis.
Abdriftbedingte Pflanzenschutzmittelrückstände in unbehandelten Kulturen auf angrenzenden Flächen
(2020)
Die vorliegende Arbeit beschäftigt sich mit der Abdrift von Pflanzenschutzmitteln (PSM), die auf Lebensmittelkulturen in angrenzenden Flächen, insbesondere in benachbarte Haus- und Kleingärten, gelangt. In einer Reihe von Windtunnelversuchen wurde die Abdrift von PSM aus Flächen- und Raumkulturen während der Applikation mit zwei verschiedenen Testsystemen nachgestellt. Das Testsystem Flächenkultur simuliert die Applikation auf Flächenkulturen, das Testsystem Raumkultur die auf Raumkulturen. Auf der Nicht-Zielfläche wurden die auf Grund von Abdrift entstandenen Rückstände des verwendeten Tracers Pyranin nach der Applikation entfernungsabhängig auf den Lebensmittelkulturen Kopfsalat, Erdbeeren und Tomaten gemessen. Durch die gleichzeitige Messung der Bodendeposition konnten die Messwerte mit Hilfe von Regressionsgleichungen (R² = 0,88 bis 0,97) in Bezug zu den Abdrifteckwerten (AEW) gebracht werden. Dadurch war es möglich, erste Abschätzungen der Höhe von Rückständen vorzunehmen, die über Abdrift von landwirtschaftlichen Flächen auf benachbarte Lebensmittelkulturen im Freiland gelangen können. Diese Abschätzung ist zunächst limitiert auf die drei Versuchspflanzen. Die Versuche zeigen, dass sich die meisten durch Abdrift entstehenden Rückstände auf Salatköpfen wieder finden, gefolgt von Erdbeeren und Tomaten.
Neben dem experimentellen Teil wurden Analysen mit Geoinformationssystemen (GIS) durchgeführt, um die Nachbarschaftsverhältnisse zwischen landwirtschaftlich genutzten Flächen und Gartenflächen für ganz Deutschland und speziell für Rheinland-Pfalz (RLP) zu analysieren. Dazu wurden für die deutschlandweiten Berechnungen die Daten des amtlichen topographisch-kartographischen Informationssystems (ATKIS) und für die RLP-weiten Berechnungen die Daten des amtlichen Liegenschaftskatasterinformationssystem (ALKIS) verwendet. Beachtet werden muss, dass auf Grund der Datenbeschaffenheit eine Abgrenzung der Gartenflächen zu Wohnflächen nicht möglich ist. Deutschlandweit liegen etwa 1,1 % aller potentiellen Gartenflächen innerhalb eines 5 m Pufferbereichs um Raumkulturen bzw. innerhalb eines 2 m Pufferbereichs um Flächenkulturen. Für RLP sind es 0,75 %. Mit Hilfe eines Landbedeckungsdatensatzes der Fa. RLP AgroScience GmbH und den ALKIS-Daten konnte jedoch die exakte Gartenfläche für RLP auf 47.437 ha bestimmt werden. Basierend auf dieser Datengrundlage liegen 1,2 % der Gartenfläche von RLP innerhalb der genannten Pufferbereiche. Des Weiteren ergaben Berechnungen, dass 3 % der Gärten in RLP direkt angrenzend zu landwirtschaftlich genutzten Flächen liegen.
Im Rahmen dieser Arbeit wurden nicht nur Gärten betrachtet, die an landwirtschaftliche Flächen grenzen, sondern auch Nachbarschaftsverhältnisse zwischen ökologisch und konventionell bewirtschafteten Flächen untersucht. Diese Berechnungen erfolgten mit den Daten des Integrierten Verwaltungs- und Kontrollsystems (InVeKoS). Insgesamt grenzen in RLP 47,1 % aller ökologisch bewirtschafteten Flächen unmittelbar an konventionell bewirtschaftete Flächen an.
This thesis examined two specific cases of point and diffuse pollution, pesticides and salinisation, which are two of the most concerning stressors of Germany’s freshwater bodies. The findings of this thesis were organized into three major components, of which the first component presents the contribution of WWTPs to pesticide toxicity (Chapter 2). The second component focuses on the current and future background salt ion concentrations under climate change with the absence of anthropogenic activities (Chapter 3). Finally, the third major component shows the response of invertebrate communities in terms of species turnover to levels of salinity change, considered as a proxy for human-driven salinisation (Chapter 4).
Spektroskopie zweiatomiger Moleküle bei Einstrahlung ultrakurzer Laserpulse und ihre Anwendung
(2020)
Durch die Verwendung ultrakurzer Pulse lassen sich selbst bei moderaten Pulsenergien und Durchschnittsleistungen sehr hohe Spitzenleistungen erreichen, deren Wirkung auf Materie sich grundlegend von der anderer Lichtquellen unterscheidet. Die hohe Feldstärke ist hier nicht nur verantwortlich für das vermehrte Auftreten optisch nichtlinearer Effekte wie der Frequenzverdopplung, sondern ist auch hauptverantwortlich für die ”kalte“ Ablation, die zu deutlich kälteren Plasmen führt. Eine Untersuchung dieser beiden Umstände in Hinblick auf eine Vereinfachung der Pulslängenmessung und eine Verbesserung der Molekülbildung in erkaltenden Plasmen ist Thema dieser Arbeit. In diesem Zusammenhang wird gezeigt, dass die Verwendung von Ultrakurzpulslasern bei der Wahl geeigneter Prozessparameter, insbesondere durch gezielte Defokussierung, die Spektroskopie verschiedener emittierender Moleküle wie Aluminiumoxid verbessert, sodass deren Detektion auch ohne die in der Literatur geforderten zeitauflösenden Messinstrumente möglich ist. Darüber hinaus ermöglichen ultrakurze Pulse eine ortsaufgelöste Kristallisation von Zinkoxid auf – mit einfachen Mitteln präparierten – Zinkoberflächen. Die dabei entstandenen Wurtzite richten ihre c-Achse meist annähernd senkrecht zur darunterliegenden Oberfläche aus und können zur Erzeugung von gestreuter Frequenzverdopplung genutzt werden. Hierfür haben sich besonders die in den letzten Jahren entwickelten faserbasierten Femtosekundenlaser mit Pulsenergien im Mikrojoule-Bereich, Pulslängen von wenigen 100fs und äußerst geringem Wartungsaufwand als ein leistungsfähiges Instrument erwiesen. Die hohe Pulsenergie dieser Systeme erlaubt zudem die Verwendung von Frequenzverdopplern mit deutlich geringeren Konversionsezienzen zur Messung der Pulslänge. Trotz uneinheitlicher Kristallachsen hat sich hier das streuend frequenzverdoppelnde Aluminiumnitrid als besonders tauglich für die optische Autokorrelation herausgestellt. Im Vergleich zum üblicherweise verwendeten monokristallinen Beta-Bariumborat, reduzieren die gesinterten Aluminiumnitrid-Keramikplatten den Justageaufwand, vereinfachen durch ihre Robustheit die Handhabung und verringern den Kostenfaktor um zwei bis drei Größenordnungen. Daher eignet sich das hier entwickelte Verfahren auch für die Kontrolle der Pulslänge während des Fertigungsprozesses eines solchen Systems – besonders dann, wenn hohe bzw. für Beta-Bariumborat zu hohe Pulsenergien auftreten können.
Im Kontext der Erweiterten Realität versteht man unter Tracking Methoden zur Bestimmung von Position und Orientierung (Pose) eines Betrachters, die es ermöglichen, grafische Informationen mittels verschiedenster Displaytechniken lagerichtig in dessen Sichtfeld einzublenden. Die präzisesten Tracking-Ergebnisse liefern Methoden der Bildverarbeitung, welche in der Regel nur die Pixel des Kamerabildes zur Informationsgewinnung heranziehen. Der Bildentstehungsprozess wird bei diesen Verfahren jedoch nur bedingt oder sehr vereinfacht miteinbezogen. Bei modellbasierten Verfahren hingegen, werden auf Basis von 3D-Modelldaten Merkmale identifiziert, ihre Entsprechungen im Kamerabild gefunden und aus diesen Merkmalskorrespondenzen die Kamerapose berechnet. Einen interessanten Ansatz bilden die Strategien der Analyse-durch-Synthese, welche das Modellwissen um Informationen aus der computergrafischen Bildsynthese und weitere Umgebungsvariablen ergänzen.
Im Rahmen dieser Arbeit wird unter Anwendung der Analyse-durch-Synthese untersucht, wie die Informationen aus dem Modell, dem Renderingprozess und der Umgebung in die einzelnen Komponenten des Trackingsystems einfließen können. Das Ziel ist es, das Tracking, insbesondere die Merkmalssynthese und Korrespondenzfindung, zu verbessern. Im Vordergrund steht dabei die Gewinnung von visuell eindeutigen Merkmalen, die anhand des Wissens über topologische Informationen, Beleuchtung oder perspektivische Darstellung hinsichtlich ihrer Eignung für stabiles Tracking der Kamerapose vorhergesagt und bewertet werden können.
Die vorliegende Dissertation beschäftigt sich mit der Anwendung des sogenannten Molekül-LIBS Verfahrens, einem neuartigen Ansatz der Laser-Induced Breakdown Spectroscopy (LIBS), um den Nachweis für Lochkorrosion auslösende Chloride in Betonbauwerken, die z.B. durch Streusalze im Winter eingetragen werden, zu optimieren. Die potentiometrische Titration als Standardverfahren zur Chloridbestimmung in der Baustoffanalytik weist neben einem hohen Kosten- und Zeitaufwand den entscheidenden Mangel auf, dass die Bestimmung der Chloridkonzentration auf die Gesamtmasse des Betons bezogen wird und nicht wie in der europäischen Norm EN 206 gefordert auf den Zementanteil. Die bildgebenden Möglichkeiten von LIBS zur Phasentrennung des Betonserfüllen diese Forderung. LIBS wurde bereits 1998 von der BAM in der Baustoffanalytik eingesetzt, allerdings erfordert der Nachweis von Chloriden mit LIBS eine teure Heliumspülung und Spektrometer außerhalb des sichtbaren Spektralbereichs, um atomare Emissionen von Chlor zu detektieren. Der Ansatz von Molekül-LIBS besteht darin, dass die Emission chloridhaltiger Molekülradikale, die sich in der Abkühlphase des laserinduzierten Plasmas bilden, zur Quantifizierung genutzt werden. Die Vorteile gegenüber dem konventionellen LIBSVerfahren sind die Emission im sichtbaren Spektralbereich und die Anwendbarkeit ohne Edelgasspülung. In dieser Arbeit wird zudem der Einfluss der experimentellen Komponenten auf das Zeitverhalten der relevanten Molekülemissionen untersucht, Signalschwankungen durch Plasmafluktuationen werden deutlich reduziert und für eine umfassende Plasmaanalytik wird die Molekülbildung auf atomistischen Maßstäben simuliert und mit Standardverfahren verglichen. In Simultanmessungen werden atomare und molekulare Cl-Emission direkt verglichen und die Quantifizierung durch Datenzusammenführung optimiert. Molekül-LIBS wird zu einem quantifizierenden und bildgebenden Verfahren erweitert, das Chloride ohne Edelgasspülung detektieren kann.
Da die Belastung von Gewässern mit Mikroorganismen ein Gesundheitsrisiko für den Menschen unter anderem bei dessenFreizeitnutzung birgt, wurde die mikrobielle Belastung der Flüsse Rhein, Mosel und Lahn anhand von Indikatoren für fäkalbürtige bakterielle (Escherichia coli, intestinale Enterkokken) und virale Belastungen (somatische Coliphagen) untersucht. Des Weiteren wurden blaCTX-MGene als Marker für die Verbreitung von Antibiotikaresistenzen in der Lahn quantifiziert. Durch vergleichende Analysen von Monitoringdaten gegensätzlicher Abflussgeschehen in Rhein und Mosel wurde ein Einfluss von Veränderungen klimarelevanter Parameter auf die Verbreitung der fäkalen Indikatororganismen (FIO) geprüft. Die Analysen an Rhein, Mosel und Lahn zeigen deutlich, dass hohe Abflüsse und Niederschläge den Eintrag von FIO und Antibiotikaresistenzgenen (ARG) und damit potentiell antibiotikaresistenter Bakterien in Gewässer begünstigten, während unter dem Einfluss hoher Globalstrahlung und steigenden Wassertemperaturen ein Rückgang zu beobachtenwar. Basierend auf als relevant identifizierten Einflussparametern wurden multiple lineare Regressionsmodelle (MLR Modelle) entwickelt, die eine zeitnahe Vorhersage von FIO Konzentrationen an fünf Stellen eines Lahnabschnitts ermöglichen. Wechselwirkungenzwischen abiotischen und biotischen (Fraßdruck) Faktoren tragen zur Entstehung saisonaler Muster in den FIO Konzentrationenbei. Diese sind unter Niedrigwasserverhältnissen und besonders in Flüssen mit ausgeprägten trophischen Interaktionen besonders deutlich ausgeprägt und beeinflussen eine Übertragbarkeit von Modellansätzen zwischen Flüssen unterschiedlicher biologischer und hydrologischer Charakteristika. Daraus, dass Bakterien davon stärker betroffen sind als Coliphagen, lässt sich schließen, dass bakterielle Indikatoren virale Belastungen nicht ausreichend abbilden. BlaCTX-MGene waren in der Lahn parallel zu den FIO ubiquitär nachzuweisen, was auf einen fäkalen Ursprung hinweist. Landwirtschaft und kommunale Kläranlageneinleiter trugen zur Belastung mit FIO bei. Es zeigte sich, dass auch nicht badende Wassersportler mit eingeschränktem Wasserkontakt nachweislich dem Risiko ausgesetzt waren, antibiotikaresistente Bakterien (ARB) samt ihren Genen zu verschlucken, was das Risiko einer Infektion oder Kolonisierung mit den entsprechenden Bakterien birgt. Da ARG zu großen Teilen durch E. colierklärt werden konnten, könnenARG gegebenenfalls in MLR Modellemit E. colispezifischen Vorhersagevariablenintegriert werden. Kurzeitige und kurzfristig auftretende Verschmutzungsereignisse werden in Zukunft als eine Folge des Klimawandels in ihrer Häufigkeit weiter zunehmen. Identifizierte Herausforderungen hinsichtlich der Implementierung von Frühwarnsystemen zur Bewertung der mikrobiellen Wasserqualität in Flüssen liegen in den Anforderungen der Badegewässerrichtlinie (Richtlinie 2006/7/EC) und in einer unzureichenden Harmonisierung des Rechtsrahmens der Europäischen Union (EU) begründet, um Gesundheitsrisiken aufgrund mikrobieller Belastung in multifunktional genutzten Gewässern angemessen zu begegnen.