Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (471) (entfernen)
Sprache
- Englisch (246)
- Deutsch (223)
- Mehrsprachig (1)
- Spanisch (1)
Schlagworte
- Pestizid (8)
- Pflanzenschutzmittel (8)
- Führung (6)
- Inklusion (6)
- Grundwasserfauna (5)
- Landwirtschaft (5)
- Persönlichkeit (4)
- Software Engineering (4)
- Unterrichtsforschung (4)
- ecotoxicology (4)
Institut
- Fachbereich 7 (93)
- Fachbereich 8 (47)
- Institut für Informatik (33)
- Institut für Integrierte Naturwissenschaften, Abt. Biologie (29)
- Institut für Umweltwissenschaften (23)
- Institut für Integrierte Naturwissenschaften, Abt. Chemie (22)
- Fachbereich 5 (20)
- Institut für Computervisualistik (18)
- Institut für Wirtschafts- und Verwaltungsinformatik (13)
- Institut für Integrierte Naturwissenschaften, Abt. Physik (12)
Confidentiality, integrity, and availability are often listed as the three major requirements for achieving data security and are collectively referred to as the C-I-A triad. Confidentiality of data restricts the data access to authorized parties only, integrity means that the data can only be modified by authorized parties, and availability states that the data must always be accessible when requested. Although these requirements are relevant for any computer system, they are especially important in open and distributed networks. Such networks are able to store large amounts of data without having a single entity in control of ensuring the data's security. The Semantic Web applies to these characteristics as well as it aims at creating a global and decentralized network of machine-readable data. Ensuring the confidentiality, integrity, and availability of this data is therefore also important and must be achieved by corresponding security mechanisms. However, the current reference architecture of the Semantic Web does not define any particular security mechanism yet which implements these requirements. Instead, it only contains a rather abstract representation of security.
This thesis fills this gap by introducing three different security mechanisms for each of the identified security requirements confidentiality, integrity, and availability of Semantic Web data. The mechanisms are not restricted to the very basics of implementing each of the requirements and provide additional features as well. Confidentiality is usually achieved with data encryption. This thesis not only provides an approach for encrypting Semantic Web data, it also allows to search in the resulting ciphertext data without decrypting it first. Integrity of data is typically implemented with digital signatures. Instead of defining a single signature algorithm, this thesis defines a formal framework for signing arbitrary Semantic Web graphs which can be configured with various algorithms to achieve different features. Availability is generally supported by redundant data storage. This thesis expands the classical definition of availability to compliant availability which means that data must only be available as long as the access request complies with a set of predefined policies. This requirement is implemented with a modular and extensible policy language for regulating information flow control. This thesis presents each of these three security mechanisms in detail, evaluates them against a set of requirements, and compares them with the state of the art and related work.
Binnengewässer spielen eine aktive Rolle im globalen Kohlenstoffkreislauf. Sie nehmen Kohlenstoff von stromaufwärts gelegenen Landmassen auf und transportieren ihn stromabwärts, bis er schließlich den Ozean erreicht. Auf diesem Weg sind vielfältige Prozesse zu beobachten, die zu einer (dauerhaften) Rückhaltung des Kohlenstoffs durch Einlagerung in Sedimenten sowie zu direkter Emission in die Atmosphäre führen. Es ist dringend notwendig diese Kohlenstoffflüsse und ihre anthropogene Veränderung zu quantifizieren. In diesem Zusammenhang muss die Aufmerksamkeit auf ein weit verbreitetes Merkmal von Gewässern gerichtet werden: ihre teilweise Austrocknung. Dies führt dazu, dass ehemals überschwemmte Sedimente in direkten Kontakt mit der Atmosphäre gelangen, genannt „dry inland waters“. Ein Merkmal der „dry inland waters“ sind überproportional hohe Kohlendioxid (CO2)-Emissionen. Diese Erkenntnis beruhte jedoch bisher auf lokalen Fallstudien, und es fehlt an Wissen über die globale Verbreitung und die grundlegenden Mechanismen dieser Emissionen. Vor diesem Hintergrund zielt diese Arbeit darauf ab, das Ausmaß und die Mechanismen der Kohlenstoffemissionen der „dry inland waters“ auf globaler und lokaler Ebene besser zu verstehen und die Auswirkungen von „dry inland waters“ auf den globalen Kohlenstoffkreislauf zu bewerten. Die spezifischen Forschungsfragen dieser Arbeit lauteten: (1) Wie fügen sich gasförmige Kohlenstoffemissionen von „dry inland waters“ in den globalen Kohlenstoffkreislauf und in die globalen Treibhausgasbudgets ein? (2) Welche Auswirkungen haben saisonale und langfristige Austrocknung auf den Kohlenstoffkreislauf von Gewässern? Diese Arbeit hat gezeigt, dass „dry inland waters“im globalen Maßstab unverhältnismäßig große Mengen an CO2 emittieren und dass diese Emissionen in allen Ökosystemen vergleichbaren Mechanismen folgen. Die Quantifizierung der globalen Wasserstandsschwankungen in Stauseen und die globale Berechnung der Kohlenstoffflüsse legen nahe, dass Stauseen mehr Kohlenstoff freisetzen als sie in den Sedimenten einlagern, was das derzeitige Verständnis von Stauseen als Nettokohlenstoffsenken in Frage stellt. Auf lokaler Ebene hat diese Arbeit gezeigt, dass sowohl die heterogenen Emissionsmuster verschiedener typischer Uferbereiche als auch die saisonalen Schwankungen der Kohlenstoffemissionen aus der „drawdown area“ berücksichtigt werden müssen. Darüber hinaus hat diese Arbeit gezeigt, dass die Remobilisierung von Kohlenstoff aus den Sedimenten bei dauerhafter Austrocknung von Gewässern die beobachteten Emissionsraten erklären kann, was die Hypothese einer positiven Rückkopplung zwischen Klimawandel und der Austrocknung von Gewässern unterstützt. Insgesamt unterstreicht die vorliegende Arbeit die Bedeutung der Emissionen aus trockenen Gewässerbereichen für den globalen Kohlenstoffkreislauf von Gewässern.
Schule der Phantasie
(2007)
Diese Arbeit geht inhaltlich drei Aspekten nach:
1. Die Darstellung der Entwicklung der Schule der Phantasie. Hier werden die Inhalte aus der direkten Beobachtung bzw. aus amtlichen und halbamtlichen Quellen erfasst und in einen zeitlichen und logischen Zusammenhang gestellt. Damit wird erstmals eine zusammenfassende historische sowie den status quo bilanzierende Gesamtdarstellung angestrebt, so weit es die durchaus lückenhafte Quellenlage erlaubt.
2. Bei der Erstellung einer Theorie der Schule der Phantasie werden zwei Hauptstränge verfolgt: Zum einen soll eine Grundlage aus den konstitutiven Faktoren geschaffen, zum anderen eine sich daraus ableitende didaktische Konsequenz gezogen werden. Dies zielt weniger auf eine didaktische Handlungsanleitung "quasi durch die Hintertür", vielmehr geht es hier um die Begründung bzw. Begründbarkeit einer Haltung, die sich in vielen Beobachtungen der Schule der Phantasie offenbart. Grundlage dazu ist aber kein wertfreies quantitatives empirisches Erfassen aller bestehenden und beobachtbaren Erscheinungen, um daraus dann eine Theorie abzuleiten. Es geht vielmehr darum, Qualitäten zu erkennen, sie als Belege idealtypisch zu ordnen und in einen sinnvollen Kontext zu stellen. Damit ist immer ein Vorverständnis und eine Wertung verbunden.
3. Der Blick in eine mögliche Zukunft der Schule der Phantasie richtet sich auf Perspektiven innerhalb und außerhalb unseres bestehenden Schulsystems, das, wenn nicht anders angegeben, immer als das bayerische angenommen wird. Um dabei auf Erfahrungen zurückgreifen zu können und nicht das Rad neu erfinden zu müssen, werden auch Aspekte aus vergleichbaren pädagogischen und kunstpädagogischen Einrichtungen verglichen und zu Rate gezogen.
Die Dissertation "Schreibprozesse in der Wikipedia" untersucht auf Basis einer linguistischen Textanalyse individuelle und gemeinschaftliche Schreibhandlungen in der Wikipedia. An Beispiel ausgewählter Artikel werden Artikelinitiationen, Handlungsmuster beim Er- und Überarbeiten der Texte, Prozesse des Planens, Gliederns und Bewertens sowie Kontroversen, Edit Wars und Vandalismus als grundlegende Aspekte des Schreibens in gemeinschaftlichen Online-Kontexten betrachtet. Dabei erscheinen vor allem Kontroversen als ein in der Schreibforschung bisher vernachlässigter Einflussfaktor, der nicht nur Auswirkungen auf die Schreibprozesse in der Wikipedia, sondern auch auf die gesamte Abbildung, Genese und vor allem Aushandlung von Wissen hat.
Die didaktische Konzeption der Schreibkonferenz ist soweit etabliert, dass sie bereits in den rheinland-pfälzischen Rahmenplan für die Grundschule für das Fach Deutsch übernommen wurde. Bisher liegt eine Reihe von Erfahrungsberichten zur Schreibkonferenz vor, jedoch wurden dazu bislang kaum systematisch empirische Untersuchungen durchgeführt. Die empirische Studie dieser Arbeit, welche an die VERA-Studie angeschlossen ist, untersucht, ob im Grundschulunterricht (in der dritten und vierten Klasse) der Einsatz von Schreibkonferenzen im Vergleich zur konventionellen Aufsatzdidaktik zu einer Verbesserung der Schreibleistungen, des eigenen Lernens, zu positiven Veränderungen des eigenen Verhaltens sowie zur Förderung der Motivation der Schüler beim Schreiben führt. Dabei wird von folgenden Überlegungen ausgegangen: Zum einen sollte die Schreibkonferenz im Gegensatz zur traditionellen Aufsatzdidaktik das selbstständige Arbeiten der Schüler mit Texten im Deutschunterricht fördern, zum anderen sollte sie zu einer intensiveren Auseinandersetzung mit Texten und damit zu einer Verbesserung des Aufsatzschreibens führen.
In Anbetracht der steigenden Scheidungszahlen und der damit immer höher werdenden Zahl betroffener Kinder, erscheint eine Trennung und Scheidung als eine der größten pädagogischen Herausforderungen der Gegenwart (vgl. Figdor, 2000, S. 89). Der Beginn der Scheidungsforschung war durch eine Defizitperspektive geprägt und bewertete die elterliche Scheidung, die sogenannten "broken homes" (vgl. Lexikon der Psychologie), als eine Abweichung von der "Normalfamilie", als generelles Entwicklungsrisiko für Kinder (vgl. Schwarz und Noack, 2002, S. 316). Eine Trennung und Scheidung zählt heute längst nicht mehr zu den familiären Ausnahmesituationen. Gegenwärtig werden in Deutschland circa 50 Prozent der Ehen geschieden. Doch nicht zwangsläufig führt diese Erfahrung zu Traumatisierungen und Entwicklungsbeeinträchtigungen der betroffenen Kinder, sondern kann Entwicklungschancen mit sich bringen.
In der Wissenschaft besteht heute Konsens darüber, dass eine elterliche Trennung und Scheidung zahlreiche negative Folgen für die Entwicklung der Kinder haben kann, aber nicht muss (vgl. Nave-Herz, 2009, S. 96). Unter welchen Voraussetzungen führt nun die Scheidung der Eltern nicht zu negativen Langzeitfolgen der Kinder? Welche Faktoren beeinflussen das Scheidungserleben? Wie bewältigen Kinder das Scheidungsgeschehen und was hilft ihnen im Umgang mit der Problemsituation? Die Motivation zur Bearbeitung dieser Forschungsfragen entstand zum einen durch zahlreiche persönliche Begegnungen mit betroffenen Scheidungskindern in der beruflichen Praxis.
Zum anderen gab die Tatsache, dass in Deutschland trotz steigender Scheidungszahlen Längsschnittstudien fehlen, die altershomogene Gruppen jüngerer Kinder über einen längeren Zeitraum nach der Trennung und Scheidung untersuchen, Anlass, die vorliegende Studie anzustreben. Die Altersgruppe der Fünf- bis Neunjährigen steht im Mittelpunkt der Arbeit, da es sich bei diesen Probanden um eine Gruppe handelt, zu der wenig detaillierte und konkrete Untersuchungen vorliegen.
The increasing, anthropogenic demand for chemicals has created large environmental problems with repercussions for the health of the environment, especially aquatic ecosystems. As a result, the awareness of the public and decision makers on the risks from chemical pollution has increased over the past half-century, prompting a large number of studies in the field of ecological toxicology (ecotoxicology). However, the majority of ecotoxicological studies are laboratory based, and the few studies extrapolating toxicological effects in the field are limited to local and regional levels. Chemical risk assessment on large spatial scales remains largely unexplored, and therefore, the potential large-scale effects of chemicals may be overlooked.
To answer ecotoxicological questions, multidisciplinary approaches that transcend classical chemical and toxicological concepts are required. For instance, the current models for toxicity predictions - which are mainly based on the prediction of toxicity for a single compound and species - can be expanded to simultaneously predict the toxicity for different species and compounds. This can be done by integrating chemical concepts such as the physicochemical properties of the compounds with evolutionary concepts such as the similarity of species. This thesis introduces new, multidisciplinary tools for chemical risk assessments, and presents for the first time a chemical risk assessment on the continental scale.
After a brief introduction of the main concepts and objectives of the studies, this thesis starts by presenting a new method for assessing the physiological sensitivity of macroinvertebrate species to heavy metals (Chapter 2). To compare the sensitivity of species to different heavy metals, toxicity data were standardized to account for the different laboratory conditions. These rankings were not significantly different for different heavy metals, allowing the aggregation of physiological sensitivity into a single ranking.
Furthermore, the toxicological data for macroinvertebrates were used as input data to develop and validate prediction models for heavy metal toxicity, which are currently lacking for a wide array of species (Chapter 3). Apart from the toxicity data, the phylogenetic information of species (evolutionary relationships among species) and the physicochemical parameters for heavy metals were used. The constructed models had a good explanatory power for the acute sensitivity of species to heavy metals with the majority of the explained variance attributed to phylogeny. Therefore, the integration of evolutionary concepts (relatedness and similarity of species) with the chemical parameters used in ecotoxicology improved prediction models for species lacking experimental toxicity data. The ultimate goal of the prediction models developed in this thesis is to provide accurate predictions of toxicity for a wide range of species and chemicals, which is a crucial prerequisite for conducting chemical risk assessment.
The latter was conducted for the first time on the continental scale (Chapter 4), by making use of a dataset of 4,000 sites distributed throughout 27 European countries and 91 respective river basins. Organic chemicals were likely to exert acute risks for one in seven sites analyzed, while chronic risk was prominent for almost half of the sites. The calculated risks are potentially underestimated by the limited number of chemicals that are routinely analyzed in monitoring programmes, and a series of other uncertainties related with the limit of quantification, the presence of mixtures, or the potential for sublethal effects not covered by direct toxicity.
Furthermore, chemical risk was related to agricultural and urban areas in the upstream catchments. The analysis of ecological data indicated chemical impacts on the ecological status of the river systems; however, it is difficult to discriminate the effects of chemical pollution from other stressors that river systems are exposed to. To test the hypothesis of multiple stressors, and investigate the relative importance of organic toxicants, a dataset for German streams is used in chapter 5. In that study, the risk from abiotic (habitat degradation, organic chemicals, and nutrients enrichment) and biotic stressors (invasive species) was investigated. The results indicated that more than one stressor influenced almost all sites. Stream size and ecoregions influenced the distribution of risks, e.g., the risks for habitat degradation, organic chemicals and invasive species increased with the stream size; whereas organic chemicals and nutrients were more likely to influence lowland streams. In order to successfully mitigate the effects of pollutants in river systems, co-occurrence of stressors has to be considered. Overall, to successfully apply integrated water management strategies, a framework involving multiple environmental stressors on large spatial scales is necessary. Furthermore, to properly address the current research needs in ecotoxicology, a multidisciplinary approach is necessary which integrates fields such as, toxicology, ecology, chemistry and evolutionary biology.
Risiko-Träger Controlling: Identifizierung und Bewältigungsoptionen im Kontext dialogischer Führung
(2016)
Innerhalb des organisationalen Führungsgeschehens nimmt das institutionalisierte Controlling eine Reihe von Aufgaben und Funktionen ein. Unter anderem sollen dessen Akteure die risiko- bzw. zielorientierte Steuerung der Organisation absichern. Die Frage nach Risiken im Controlling wird dabei nicht erkennbar gestellt. Diesen blinden Fleck greift die Forschungsarbeit auf und verfolgt das Ziel, das Controlling als Bestandteil des organisationalen Führungsgeschehens als Risiko-Träger zu identifizieren und Bewältigungsoptionen im Kontext der dialogischen Führung aufzuzeigen.
The first group that was revised within my study is Ochralea Clark, 1865 (Hazmi & Wagner 2010a). I have checked the type specimen of most species that were originally described in Ochralea and there is no doubt that this genus is clearly distinct from Monolepta. Weise (1924) has synonymised Galeruca nigripes (Olivier, 1808) with O. nigricornis Clark, 1865 and the valid name of the species is O. nigripes (Olivier, 1808). Out of ten species originally described in this genus, only this species remain valid and O. pectoralis is a new synonym of O. nigripes. Additionally, Monolepta wangkliana Mohamedsaid, 2000 is very closely related to O. nigripes and need to be transferred to Ochralea. The second genus where the revision is still published is Arcastes Baly, 1865 (Hazmi & Wagner 2010b). I have checked the genitalic characters of A. biplagiata, and most of the type species of other Arcastes. Arcastes biplagiata possesses a peculiar shape of the median lobe and asymmetrically arranged endophallic structures. These peculiar characters are very useful to delimit this genus from the others. Therefore, only three valid species remain in Arcastes, while two new synonyms are found and fourrnother species need to be transferred to other genera. While checking the genitalic characteristics of type species of Arcastes sanguinea, thernmedian lobe as well as the spermatheca of this species possesses strong differences to A. biplagiata. The species was redescribed and transferred in a monotypic new genus Rubrarcastes Hazmi & Wagner, 2010c. The fourth genus that was already revised is Neolepta Jacoby, 1884. It was originally described on base of only two species by that time, N. biplagiata and N. fulvipennis. Jacoby has not designated a type species of the genus, and Maulik (1936) did it later, with the designation of N. biplagiata. Jacoby in his original description has only commented that Neolepta is very close and similar to Monolepta Chevrolat, 1837 and Candezea Chapuis, 1879. Subsequent authors have described further eight species, and transferred one species from Luperodes to it, summing up the total number of eleven described species in Neolepta. I have checked the genitalic characters of the type, N. biplagiata and have found out that the median lobe is not incised apically and stronger sclerotised ventral carinae with an apical hook close to the apex occur. Out of all described species, only two are closely related to the genero-type, N. sumatrensis (Jacoby, 1884) new combination and N. quadriplagiata Jacoby, 1886 that will remain in this group after the revision. All other species need to be transferred to other genera, including the newly described Paraneolepta and Orthoneolepta. The last distinct paper of this thesis presented the results on Monolepta Chevrolat, 1837. The massive number of Monolepta from the entire Oriental Region, with about 260 described species names is a more long-life project and not practicable within a PhD-study. Thus I have focused on the species of Monolepta known from the Sundaland area in this work. A comprehensive revision including the study of the primary types of the described species, has never been done for Monolepta from this sub-region, while new species have also been described in the last decade (e. g. Mohamedsaid 1993, 1997, 1998, 1999, 2000a,b, 2001, 2002, 2005).
On base of the most current species lists of Mohamedsaid (2001, 2004, 2005) and Kimoto (1990), the number of valid species described from this region is about 72. After my revision, only thirteen valid species can remain in Monolepta in the sense of the generotype M. bioculata (Wagner 2007), while seven species have been found as new synonyms, three have been already transferred to other genera and further 49 species need to be transferred to other genera.
Die zweitgrößte Teilgruppe der Chrysomelidae sind die Galerucinae Latreille, 1802. Zu diesen gehört das Taxon Ootheca, das Chevrolat 1837 festlegte und das ursprünglich nur eine beschriebene Art enthielt. In den nachfolgenden Jahrhunderten wurden in der Gattung Ootheca alle Galerucinae von "kompakter" Körpergestalt, mit breitem Pronotum, stark konvexem Dorsum, kurzen Antennen und kurzen Beinen beschrieben. Zu Beginn meiner Revision umfasste die Gruppe 38 Arten. Durch Vergleich charakteristischer morphologischer Eigenschaften des Ektoskeletts in Kombination mit den morphologischen Strukturen des männlichen Genitals - dargestellt in detaillierten Zeichnungen und Beschreibungen - konnten einzelne Arten von Ootheca beschrieben werden und gegenüber anderen Taxa der Galerucinae abgegrenzt werden. Nach der Revision blieben in der Gattung Ootheca 9 Arten als valide zurück, 4 Arten wurden neu beschrieben, 13 Arten wurden in andere revidierte Gattungen transferiert, und 10 Arten wurden noch nicht bearbeitet, weil sie bisher nicht zugeordnet werden konnten. Weiterhin wurden drei neue monophyletische Gruppen, Schwestertaxa, zu Ootheca beschrieben: Oothecoides (6 Arten), Ootibia (5 Arten ) und Oosagitta (6 Arten).
Retrospektive Analyse der Ausbreitung und dynamische Erkennung von Web-Tracking durch Sandboxing
(2018)
Aktuelle quantitative Analysen von Web-Tracking bieten keinen umfassenden Überblick über dessen Entstehung, Ausbreitung und Entwicklung. Diese Arbeit ermöglicht durch Auswertung archivierter Webseiten eine rückblickende Erfassung der Entstehungsgeschichte des Web-Trackings zwischen den Jahren 2000 und 2015. Zu diesem Zweck wurde ein geeignetes Werkzeug entworfen, implementiert, evaluiert und zur Analyse von 10000 Webseiten eingesetzt. Während im Jahr 2005 durchschnittlich 1,17 Ressourcen von Drittparteien eingebettet wurden, zeigt sich ein Anstieg auf 6,61 in den darauffolgenden 10 Jahren. Netzwerkdiagramme visualisieren den Trend zu einer monopolisierten Netzstruktur, in der bereits ein einzelnes Unternehmen 80 % der Internetnutzung überwachen kann.
Trotz vielfältiger Versuche, dieser Entwicklung durch technische Maßnahmen entgegenzuwirken, erweisen sich nur wenige Selbst- und Systemschutzmaßnahmen als wirkungsvoll. Diese gehen häufig mit einem Verlust der Funktionsfähigkeit einer Webseite oder mit einer Einschränkung der Nutzbarkeit des Browsers einher. Mit der vorgestellten Studie wird belegt, dass rechtliche Vorschriften ebenfalls keinen hinreichenden Schutz bieten. An Webauftritten von Bildungseinrichtungen werden Mängel bei Erfüllung der datenschutzrechtlichen Pflichten festgestellt. Diese zeigen sich durch fehlende, fehlerhafte oder unvollständige Datenschutzerklärungen, deren Bereitstellung zu den Informationspflichten eines Diensteanbieters gehören.
Die alleinige Berücksichtigung klassischer Tracker ist nicht ausreichend, wie mit einer weiteren Studie nachgewiesen wird. Durch die offene Bereitstellung funktionaler Webseitenbestandteile kann ein Tracking-Unternehmen die Abdeckung von 38 % auf 61 % erhöhen. Diese Situation wird durch Messungen von Webseiten aus dem Gesundheitswesen belegt und aus technischer sowie rechtlicher Perspektive bewertet.
Bestehende systemische Werkzeuge zum Erfassen von Web-Tracking verwenden für ihre Messung die Schnittstellen der Browser. In der vorliegenden Arbeit wird mit DisTrack ein Framework zur Web-Tracking-Analyse vorgestellt, welches eine Sandbox-basierte Messmethodik verfolgt. Dies ist eine Vorgehensweise, die in der dynamischen Schadsoftwareanalyse erfolgreich eingesetzt wird und sich auf das Erkennen von Seiteneffekten auf das umliegende System spezialisiert. Durch diese Verhaltensanalyse, die unabhängig von den Schnittstellen des Browsers operiert, wird eine ganzheitliche Untersuchung des Browsers ermöglicht. Auf diese Weise können systemische Schwachstellen im Browser aufgezeigt werden, die für speicherbasierte Web-Tracking-Verfahren nutzbar sind.
Da die Belastung von Gewässern mit Mikroorganismen ein Gesundheitsrisiko für den Menschen unter anderem bei dessenFreizeitnutzung birgt, wurde die mikrobielle Belastung der Flüsse Rhein, Mosel und Lahn anhand von Indikatoren für fäkalbürtige bakterielle (Escherichia coli, intestinale Enterkokken) und virale Belastungen (somatische Coliphagen) untersucht. Des Weiteren wurden blaCTX-MGene als Marker für die Verbreitung von Antibiotikaresistenzen in der Lahn quantifiziert. Durch vergleichende Analysen von Monitoringdaten gegensätzlicher Abflussgeschehen in Rhein und Mosel wurde ein Einfluss von Veränderungen klimarelevanter Parameter auf die Verbreitung der fäkalen Indikatororganismen (FIO) geprüft. Die Analysen an Rhein, Mosel und Lahn zeigen deutlich, dass hohe Abflüsse und Niederschläge den Eintrag von FIO und Antibiotikaresistenzgenen (ARG) und damit potentiell antibiotikaresistenter Bakterien in Gewässer begünstigten, während unter dem Einfluss hoher Globalstrahlung und steigenden Wassertemperaturen ein Rückgang zu beobachtenwar. Basierend auf als relevant identifizierten Einflussparametern wurden multiple lineare Regressionsmodelle (MLR Modelle) entwickelt, die eine zeitnahe Vorhersage von FIO Konzentrationen an fünf Stellen eines Lahnabschnitts ermöglichen. Wechselwirkungenzwischen abiotischen und biotischen (Fraßdruck) Faktoren tragen zur Entstehung saisonaler Muster in den FIO Konzentrationenbei. Diese sind unter Niedrigwasserverhältnissen und besonders in Flüssen mit ausgeprägten trophischen Interaktionen besonders deutlich ausgeprägt und beeinflussen eine Übertragbarkeit von Modellansätzen zwischen Flüssen unterschiedlicher biologischer und hydrologischer Charakteristika. Daraus, dass Bakterien davon stärker betroffen sind als Coliphagen, lässt sich schließen, dass bakterielle Indikatoren virale Belastungen nicht ausreichend abbilden. BlaCTX-MGene waren in der Lahn parallel zu den FIO ubiquitär nachzuweisen, was auf einen fäkalen Ursprung hinweist. Landwirtschaft und kommunale Kläranlageneinleiter trugen zur Belastung mit FIO bei. Es zeigte sich, dass auch nicht badende Wassersportler mit eingeschränktem Wasserkontakt nachweislich dem Risiko ausgesetzt waren, antibiotikaresistente Bakterien (ARB) samt ihren Genen zu verschlucken, was das Risiko einer Infektion oder Kolonisierung mit den entsprechenden Bakterien birgt. Da ARG zu großen Teilen durch E. colierklärt werden konnten, könnenARG gegebenenfalls in MLR Modellemit E. colispezifischen Vorhersagevariablenintegriert werden. Kurzeitige und kurzfristig auftretende Verschmutzungsereignisse werden in Zukunft als eine Folge des Klimawandels in ihrer Häufigkeit weiter zunehmen. Identifizierte Herausforderungen hinsichtlich der Implementierung von Frühwarnsystemen zur Bewertung der mikrobiellen Wasserqualität in Flüssen liegen in den Anforderungen der Badegewässerrichtlinie (Richtlinie 2006/7/EC) und in einer unzureichenden Harmonisierung des Rechtsrahmens der Europäischen Union (EU) begründet, um Gesundheitsrisiken aufgrund mikrobieller Belastung in multifunktional genutzten Gewässern angemessen zu begegnen.
Introduction:
In March 2012 a secessionist-Islamist insurgency gained momentum in Mali and quickly took control of two-thirds of the state territory. Within weeks radical Islamists, drug smugglers and rebels suddenly ruled over a territory bigger than Germany. News of the abuse of the population and the introduction of harsh Sharia law spread soon, and word got out that the Malian Army had simply abandoned the land. The general echo of the IC was surprise, a reaction that was, as this research will show, as unfunded as it was unconstructive*. When Malian state structures collapsed, the world watched in shock, even though the developments couldhave been anticipated –and prevented. Ultimately, the situation had to be resolved by international forces (most notably French troops), who are still in Mali at the time of writing (Arieff 2013a: 5; Lohmann 2012: 3; Walther and Christopoulos 2015: 514f.; Shaw 2013: 204; Qantara, Interview, 2012;L’Express, Mali, 2015; Deutscher Bundestag, MINUSMA und EUTM Mali, 2016; UN, MUNISMA, 2016; Boeke and Schuurmann 2015: 801; Chivvis 2016: 93f.).
This research will show that the developments in Mali in 2012 have been developing for a long time and could have been avoided. In doing so, it will also show why state security can never be analyzed or consolidated in an isolated manner. Instead, it is necessary to take into account regional dynamics and developments in order to find a comprehensive approach to security in individual states. Once state failure occurs, not only does the state itself fail, but the surrounding region equally failed to prevent the failure.
Weak states are a growing concern in many world regions, particularly in Africa. As international intervention often proves unsustainable for various reasons*, the author believes that states which cannot stabilize themselves need a regional agent to support them. This regional agent should be a Regional Security Complex (RSC) asdefined by Barry Buzan and Ole Waever (Buzan and Waever 2003). As the following analysis will show, Mali is a case in point. The hope is that this study will help avoid similar failures in the future by making a strong case for the establishment of RSC’s.
…
Gegenstand der Dissertation ist der Handlungsspielraum der schwarz-gelben Bundesregierung unter der Führung Angela Merkels vor dem Hintergrund der Staatsschuldenkrise im Euroraum von 2009 bis 2013. Ausgehend von der Hypothese, dass sich im Rahmen von Krisen der Bewegungskorridor von Regierungen verringert, wurden strukturelle, inhaltliche und prozessuale Beschränkungen der Bundesregierung in der 17. Legislaturperiode mittels qualitativer und quantitativer Methoden untersucht. Im Ergebnis konnte seit Ausbruch der Eurokrise eine Reduzierung der Handlungsmöglichkeiten der Exekutive festgestellt werden.
In der vorliegenden Studie geht es um den möglichen und tatsächlichen Beitrag von sogenannten Geschäftsmodellen im Kontext eines reflexiven Bildungsmanagements im Feld der wissenschaftlichen Weiterbildung an (öffentlichen) Hochschulen in Deutschland.
Im Anschluss an Behrmann (2006) wird ein reflexives Bildungsmanagement verwendet, um mögliche strategische und entwicklungsrelevante Orientierungen für die strategische (Neu-)Positionierung von Weiterbildungseinrichtungen bzw. reflexive Entwicklung von Hochschulen im Handlungs- bzw. Geschäftsfeld der wissenschaftlichen Weiterbildung zu strukturieren. In diesem Zusammenhang unterstützen Geschäftsmodelle die Realisierung des (Weiter-)Bildungsauftrags von (öffentlichen) Hochschulen bzw. von deren Weiterbildungseinrichtungen. Diese möglichen Orientierungen wurden im Rahmen von qualitativen Inhaltsanalysen nach Kuckartz (2016) auf der Grundlage von visualisierten Gruppendiskussionen nach Kühl (2009) rekonstruiert. Der Feldzugang erfolgte mit Unterstützung der Deutschen Gesellschaft für wissenschaftliche Weiterbildung und Fernstudium e.V. (DGWF).
Diese Arbeit befasst sich mit den reduzierten Basismethoden für parametrisierte quasilineare elliptische und parabolische partielle Differentialgleichungen mit stark monotonem Differentialoperator. Es werden alle Bestandteile der Methode mit reduzierter Basis vorgestellt: Basisgenerierung für reduzierte Approximation, Zertifizierung des Approximationsfehlers durch geeignete a-posteriori Fehlerkontrolle und Offine-Online-Zerlegung. Die Methodik wird ferner auf die magnetostatischen und magnetoquasistatischen Näherungen der Maxwellschen Gleichungen angewendet und ihre Gültigkeit wird durch numerische Beispiele bestätigt.
Softwaresysteme haben einen zunehmenden Einfluss auf unser tägliches Leben. Viele Systeme verarbeiten sensitive Daten oder steuern wichtige Infrastruktur, was die Bereitstellung sicherer Software unabdingbar macht. Derartige Systeme werden aus Aufwands- und Kostengründen selten erneuert. Oftmals werden Systeme, die zu ihrem Entwurfszeitpunkt als sicheres System geplant und implementiert wurden, deswegen unsicher, weil sich die Umgebung dieser Systeme ändert. Dadurch, dass verschiedenste Systeme über das Internet kommunizieren, sind diese auch neuen Angriffsarten stetig ausgesetzt. Die Sicherheitsanforderungen an ein System bleiben unberührt, aber neue Erkenntnisse wie die Verwundbarkeit eines zum Entwurfszeitpunkt als sicher geltenden Verschlüsselungsalgorithmus erzwingen Änderungen am System. Manche Sicherheitsanforderungen können dabei nicht anhand des Designs sondern nur zur Laufzeit geprüft werden. Darüber hinaus erfordern plötzlich auftretende Sicherheitsverletzungen eine unverzügliche Reaktion, um eine Systemabschaltung vermeiden zu können. Wissen über geeignete Sicherheitsverfahren, Angriffe und Abwehrmechanismen ist grundsätzlich verfügbar, aber es ist selten in die Softwareentwicklung integriert und geht auf Evolutionen ein.
In dieser Arbeit wird untersucht, wie die Sicherheit langlebiger Software unter dem Einfluss von Kontext-Evolutionen bewahrt werden kann. Der vorgestellte Ansatz S²EC²O hat zum Ziel, die Sicherheit von Software, die modellbasiert entwickelt wird, mithilfe von Ko-Evolutionen wiederherzustellen.
Eine Ontologie-basierende Wissensbasis wird eingeführt, die sowohl allgemeines wie auch systemspezifisches, sicherheitsrelevantes Wissen verwaltet. Mittels einer Transformation wird die Verbindung der Wissensbasis zu UML-Systemmodellen hergestellt. Mit semantischen Differenzen, Inferenz von Wissen und der Erkennung von Inkonsistenzen in der Wissensbasis werden Kontext-Evolutionen erkannt.
Ein Katalog mit Regeln zur Verwaltung und Wiederherstellung von Sicherheitsanforderungen nutzt erkannte Kontext-Evolutionen, um mögliche Ko-Evolutionen für das Systemmodell vorzuschlagen, welche die Einhaltung von Sicherheitsanforderungen wiederherstellen.
S²EC²O unterstützt Sicherheitsannotationen, um Modelle und Code zum Zwecke einer Laufzeitüberwachung zu koppeln. Die Adaption laufender Systeme gegen Bedrohungen wird ebenso betrachtet wie Roundtrip-Engineering, um Erkenntnisse aus der Laufzeit in das System-Modell zu integrieren.
S²EC²O wird ergänzt um eine prototypische Implementierung. Diese wird genutzt, um die Anwendbarkeit von S²EC²O im Rahmen einer Fallstudie an dem medizinischen Informationssystem iTrust zu zeigen.
Die vorliegende Arbeit leistet einen Beitrag, um die Entwicklung und Wartung langlebiger Softwaresysteme in Bezug auf ihre Sicherheit zu begleiten. Der vorgestellte Ansatz entlastet Sicherheitsexperten bei ihrer Arbeit, indem er sicherheitsrelevante Änderungen des Systemkontextes erfasst, den Einfluss auf die Sicherheit der Software prüft und Ko-Evolutionen zur Bewahrung der Sicherheitsanforderungen ermöglicht.
Die Diffusionsbildgebung misst die Bewegung von Wassermolekülen in Gewebe mittelsrnvariierender Gradientenfelder unter Verwendung der Magnetresonanztomographie(MRT). Diese Aufnahmetechnik stellt eine große Chance für in vivo Untersuchung von neuronalen Bahnen dar, da das lokale Diffusionsprofil Rückschlüsse über die Position und Richtung von Nervenbahnen erlaubt. Zu den Anwendungsgebieten der Diffusionsbildgebung zählt die Grundlagenforschung in den Neurowissenschaften, in denen Nervenbahnen als Verbindungen kortikaler Areale bestimmt werden, und die neurochirurgische Operationsplanung, in der rekonstruierte Bahnen als Risikostrukturen für Interventionen angesehen werden.
Die Diffusionstensor-MRT (DT-MRT) ist aufgrund ihrer schnellen Aufnahme- und Rekonstruktionsgeschwindigkeit derzeitig klinischer Standard zur Bestimmung von Nervenbahnen. Jedoch erlaubt die DT-MRT nicht die Darstellung von komplexen intravoxel Diffusionsverteilungen. Daher etablierte sich eine weitere Modellierungstechnik, die als High Angular Resolution Diffusion Imaging (HARDI) bekannt ist. HARDITechniken erhielten wachsendes Interesse in den Neurowissenschaften, da sie großes Potential zur exakteren Darstellung der Nervenbahnen im menschlichen Gehirn besitzen.
Um die Vorteile von HARDI-Techniken gegenüber DT-MRT voll auszuschöpfen, werden fortgeschrittene Methoden zur Rekonstruktion und Visualisierung der Bahnen benötigt. In der vorliegenden Arbeit werden neue Techniken vorgestellt, welche zur aktuellen Forschung hinsichtlich der Verarbeitung und Visualisierung von Diffusionsbildgebungsdaten beitragen. Ansätze zur Klassifizierung, Traktographie und Visualisierung wurden entwickelt um eine aussagekräftige Exploration neuronaler Bahnen und deren Beschaffenheit zu ermöglichen. Des Weiteren wurde eine interaktive Software für die neurochirurgische Operationsplanung implementiert, welche Nervenbahnen als Risikostrukturen berücksichtigt.
Die vorgestellten Forschungsergebnisse bieten einen erweiterten und aufgabenorientierten Einblick in neuronale Verbindungen sowohl für Neurowissenschaftler als auch für Neurochirurgen und tragen zum Einsatz von HARDI-Techniken in einer klinischen Umgebung bei.
Placing questions before the material or after the material constitute different reading situations. To adapt to these reading situations, readers may apply appropriate reading strategies. Reading strategy caused by location of question has been intensively explored in the context of text comprehension. (1) However, there is still not enough knowledge about whether text plays the same role as pictures when readers apply different reading strategies. To answer this research question, three reading strategies are experimentally manipulated by displaying question before or after the blended text and picture materials: (a) Unguided processing with text and pictures and without the question. (b) Information gathering to answer the questions after the prior experience with text and pictures. (c) Comprehending text and pictures to solve the questions with the prior information of the questions. (2) Besides, it is arguable whether readers prefer text or pictures when the instructed questions are in different difficulty levels. (3) Furthermore, it is still uncertain whether students from higher school tier (Gymnasium) emphasize more on text or on pictures than students from lower school tier (Realschule). (4) Finally, it is rarely mentioned whether higher graders are more able to apply reading strategies in text processing and picture processing than lower graders.
Two experiments were undertaken to investigate the usage of text and pictures in the perspectives of task orientation, question difficulty, school and grade. For a 2x2(x2x2x2) mixed design adopting eye tracking method, participants were recruited from grade 5 (N = 72) and grade 8 (N = 72). In Experiment 1, thirty-six 5th graders were recruited from higher tier (Gymnasium) and thirty-six 5th graders were from lower tier (Realschule). In Experiment 2, thirty-six 8th graders were recruited from higher tier and thirty-six were from lower tier. They were supposed to comprehend the materials combining text and pictures and to answer the questions. A Tobii XL60 eye tracker recorded their eye movements and their answers to the questions. Eye tracking indicators were analyzed and reported, such as accumulated fixation duration, time to the first fixation and transitions between different Areas of Interest. The results reveal that students process text differently from pictures when they follow different reading strategies. (1) Consistent with Hypothesis 1, students mainly use text to construct their mental model in unguided spontaneous processing of text and pictures. They seem to mainly rely on the pictures as external representations when trying to answer questions after the prior experience with the material. They emphasize on both text and pictures when questions are presented before the material. (2) Inconsistent with Hypothesis 2, students are inclined to emphasize on text and on pictures as question difficulty increases. However, the increase of focus on pictures is more than on text when the presented question is difficult. (3) Different from Hypothesis 3, the current study discovers that higher tier students did not differ from lower tier students in text processing. Conversely, students from higher tier attend more to pictures than students from lower tier. (4) Differed from Hypothesis 4, 8th graders outperform 5th graders mainly in text processing. Only a subtle difference is found between 5th graders and 8th graders in picture processing.
To sum up, text processing differs from picture processing when applying different reading strategies. In line with the Integrative Model of Text and Picture Comprehension by Schnotz (2014), text is likely to play a major part in guiding the processing of meaning or general reading, whereas pictures are applied as external representations for information retrieval or selective reading. When question is difficulty, pictures are emphasized due to their advantages in visualizing the internal structure of information. Compared to lower tier students (poorer problem solvers), higher tier students (good problem solvers) are more capable of comprehending pictures rather than text. Eighth graders are more efficient than 5th graders in text processing rather than picture processing. It also suggests that in designing school curricula, more attention should be paid to students’ competence on picture comprehension or text-picture integration in the future.
Die vorliegende Dissertation beschäftigt sich mit der Anwendung des sogenannten Molekül-LIBS Verfahrens, einem neuartigen Ansatz der Laser-Induced Breakdown Spectroscopy (LIBS), um den Nachweis für Lochkorrosion auslösende Chloride in Betonbauwerken, die z.B. durch Streusalze im Winter eingetragen werden, zu optimieren. Die potentiometrische Titration als Standardverfahren zur Chloridbestimmung in der Baustoffanalytik weist neben einem hohen Kosten- und Zeitaufwand den entscheidenden Mangel auf, dass die Bestimmung der Chloridkonzentration auf die Gesamtmasse des Betons bezogen wird und nicht wie in der europäischen Norm EN 206 gefordert auf den Zementanteil. Die bildgebenden Möglichkeiten von LIBS zur Phasentrennung des Betonserfüllen diese Forderung. LIBS wurde bereits 1998 von der BAM in der Baustoffanalytik eingesetzt, allerdings erfordert der Nachweis von Chloriden mit LIBS eine teure Heliumspülung und Spektrometer außerhalb des sichtbaren Spektralbereichs, um atomare Emissionen von Chlor zu detektieren. Der Ansatz von Molekül-LIBS besteht darin, dass die Emission chloridhaltiger Molekülradikale, die sich in der Abkühlphase des laserinduzierten Plasmas bilden, zur Quantifizierung genutzt werden. Die Vorteile gegenüber dem konventionellen LIBSVerfahren sind die Emission im sichtbaren Spektralbereich und die Anwendbarkeit ohne Edelgasspülung. In dieser Arbeit wird zudem der Einfluss der experimentellen Komponenten auf das Zeitverhalten der relevanten Molekülemissionen untersucht, Signalschwankungen durch Plasmafluktuationen werden deutlich reduziert und für eine umfassende Plasmaanalytik wird die Molekülbildung auf atomistischen Maßstäben simuliert und mit Standardverfahren verglichen. In Simultanmessungen werden atomare und molekulare Cl-Emission direkt verglichen und die Quantifizierung durch Datenzusammenführung optimiert. Molekül-LIBS wird zu einem quantifizierenden und bildgebenden Verfahren erweitert, das Chloride ohne Edelgasspülung detektieren kann.
Religion, Kultur und Sprache sind nicht ohne Einfluss auf die Krankheitswahrnehmung und das Gesundheitsverhalten von Patienten mit migratorischen Hintergrund. Ebenso können sie auch besondere Herausforderungen für das Gesundheitssystem des Gastlandes darstellen. Dies trifft im besonderen Maße für die psychotherapeutische Versorgung von Migranten erster und folgender Generationen zu. Im Fokus der vorliegenden Arbeit stehen muslimische Patienten in der Psychotherapie. Auf Grundlage einer empirischen Untersuchung werden Konfliktfelder und Tabuthemen sowie andere neuralgische Punkte der Interaktion zwischen Psychotherapeut und muslimischem Patient beleuchtet, um die Notwendigkeit einer Kultursensibilität in der psychosozialen Versorgung von Migranten aufzudecken und Anregungen zur Verbesserung der interkulturellen Begegnung in der psychotherapeutischen Praxis zur Diskussion zu stellen.
Der Klimawandel stellt eine existenzielle Bedrohung für das menschliche Überleben, die soziale Organisation der Gesellschaft und die Stabilität der Ökosysteme dar. Er ist daher zutiefst beängstigend. Im Angesicht von Bedrohungen wollen sich Menschen häufig schützen, anstatt sich proaktiv zu verhalten. Wenn psychologische Ressourcen zur Bewältigung nicht ausreichen, reagieren Menschen oft mit verschiedenen Formen der Leugnung. Diese Dissertation leistet einen Beitrag zum Verständnis des vielschichtigen Phänomens der Klimawandelleugnung aus psychologischer Sicht.
Es gibt vier Forschungslücken in der Literatur zur Klimawandelleugnung: Erstens hat das Spektrum der Klimawandelleugnung als Selbst-schützende Reaktion auf die Klimakrise innerhalb der Psychologie bisher keine Beachtung gefunden. Zweitens wurde psychologische Grundbedürfnisbefriedigung, ein fundamentaler Indikator für menschliches Funktionieren und die Fähigkeit, mit Bedrohungen umzugehen, bisher nicht als Prädiktor für Klimawandelleugnung untersucht. Drittens sind Beziehungen des Spektrums der Klimawandelleugnung zu klimarelevanten Emotionen, insbesondere der Klimaangst, bisher nicht empirisch untersucht worden. Viertens wurde bisher nicht untersucht, wie sich das Spektrum der Klimawandelleugnung zu etablierten Prädiktoren der Klimawandelleugnung, d.h. rechtsideologischen Überzeugungen und männlichem Geschlecht, verhält. Um diese Lücken zu schließen, untersuche ich, wie sich das Spektrum der Klimawandelleugnung im deutschen Kontext manifestiert und wie es mit psychologischer Grundbedürfnisbefriedigung und -frustration, umweltfreundlichem Verhalten, Klimaangst, ideologischer Uberzeugung und Geschlecht zusammenhängt.
Fünf Manuskripte zeigen, dass Klimawandelleugnung im deutschen Kontext auf einem Spektrum existiert, das von der Verzerrung von Fakten (interpretative Leugnung, insbesondere Leugnung der persönlichen und globalen Folgenschwere) bis zur Leugnung von Implikationen reicht (implikatorische Leugnung, insbesondere Vermeidung, Leugnung von Schuld und Rationalisierung der eigenen Beteiligung). Über alle Analysen hinweg war niedrige psychologische Grundbedürfnisbefriedigung Prädiktor für das Spektrum der Klimawandelleugnung, das wiederum mit umweltfreundlichem Verhalten assoziiert war. Klimawandelleugnung stand generell in einem negativen Zusammenhang mit Klimaangst, mit Ausnahme einer positiven Assoziation von Vermeidung und Klimaangst. Rechtsideologische Überzeugung war der stärkste Prädiktor für Klimawandelleugnung über das gesamte Spektrum hinweg. Niedrige Bedürfnisbefriedigung und männliches Geschlecht waren weitere, aber schwächere Prädiktoren für implikatorische Leugnung.
Diese Ergebnisse legen nahe, dass das Spektrum der Klimawandelleugnung viele psychologische Funktionen erfüllt. Klimawandelleugnung ist möglicherweise sowohl eine Selbst-schützende Strategie, um Emotionen herunter zu regulieren, als auch um sich vor dem Verlust von Privilegien zu schützen. Kurz gesagt stellt Klimawandelleugnung eine Barriere für Klimaschutzmaßnahmen dar, die möglicherweise erst dann überwunden wird, wenn Menschen über ausreichende psychologische Ressourcen verfügen, um sich der Bedrohung durch den Klimawandel zu stellen und mit zugrundeliegenden Selbst-schützenden, emotionalen Reaktionen umzugehen.
The history of human kind is characterized by social conflict. Every conflict can be the starting point of social change or the escalation into more destructive forms. The social conflict in regard to rising numbers of refugees and their acceptance that arose in most host countries in 2015 already took on destructive forms – in Germany, right-wing extremists attacked refugee shelters and even killed multiple people, including political leaders who openly supported refugees. Thus, incompatible expectancies and values of different parts of the society led to violent action tendencies, which tremendously threaten intergroup relations. Psychological research has developed several interventions in past decades to improve intergroup relations, but they fall short, for example, when it comes to the inclusion of people with extreme attitudes and to precisely differentiate potential prosocial outcomes of the interventions. Thus, this dissertation aimed to a) develop psychological interventions, that could also be applied to people with more extreme attitudes, thereby putting a special emphasis on collecting a diverse sample; b) gain knowledge about target- and outcome specific effects: Who benefits from which intervention and how can specific prosocial actions be predicted in order to develop interventions that guide needs-based actions; and c) shed light on potential underlying mechanisms of the interventions.
The dissertation will be introduced by the socio-political background that motivated the line of research pursued, before providing an overview of the conceptualization of social conflicts and potential psychological inhibitors and catalyzers for conflict transformation. Based on past research on socio-psychological interventions and their limitations, the aims of the dissertation will be presented in more detail, followed by a short summary of each manuscript. Overall, the present thesis comprises four manuscripts that were summarized in the general discussion into a road map for social-psychological interventions to put them into a broader perspective. The road map aspires to provide recommendations for increasing – either approach-oriented or support-oriented actions – by the socio-psychological interventions for a variety of host society groups depending on their pre-existing attitude towards refugees.
A Paradoxical Intervention targeting central beliefs of people with negative attitudes towards refugees influenced inhibitory and catalyzing factors for conflict transformation over the course of three experiments – thereby providing an effective tool to establish approach-oriented action tendencies, such as the willingness to get in contact with refugees. Further, the dissertation presents a novel mechanism – namely Cognitive Flexibility – which could explain the Paradoxical Interventions’ effect of past research. By positively affecting a context-free mindset, the Paradoxical Intervention could impact more flexible thought processes in general, irrespective of the topic tackled in the Paradoxical Intervention itself. For people with rather positive attitudes addressing emotions may increase specific support-oriented action tendencies. The dissertation provides evidence of a positive relation between moral outrage and hierarchy-challenging actions, such as solidarity-based collective action, and sympathy with prosocial hierarchy-maintaining support-oriented actions, such as dependency-oriented helping. These exclusive relations between specific emotions and action intentions provide important implications for the theorizing of emotion-behavior relations, as well as for practical considerations. In addition, a diversity workshop conducted with future diplomats showed indirect effects on solidarity-based collective action via diversity perception and superordinate group identification, thereby extending past research by including action intentions and going beyond the focus on grassroot-initiatives by presenting an implementable intervention for future leaders in a real world context.
Taken together, this dissertation provides important insights for the development of socio-psychological interventions. By integrating a diverse sample, including members of institutions on meso- and macro-levels (non-governmental organizations and future politicians) of our society, this dissertation presents a unique multi-perspective of host society members on the social conflict of refugee acceptance and support. Thereby, this work contributes to theoretical and practical advancement of how social psychology can contribute not only to negative peace – by for example (indirectly) reducing support of violence against refugees – but also to positive peace – by for example investigating precursors of hierarchy-challenging actions that enable equal rights.
This dissertation is dedicated to a new concept for capturing renunciation-oriented attitudes and beliefs — sufficiency orientation. Sufficiency originates in the interdisciplinary sustain-ability debate. In contrast to efficiency and consistency, sufficiency considers human behaviour as the cause of socio-ecological crises and strives for a reduction in consumption respecting the planetary boundaries. The present work places sufficiency in a psychological research context and explores it qualitatively and quantitatively. On the basis of five manuscripts, the overarching question pursued is to what extent sufficiency orientation contributes to socio-ecological transformation. Based on one qualitative study and five further quantitative studies, sufficiency orientation is investigated in different behavioural contexts that are of particular importance with regard to CO2 emissions. In addition, sufficiency orientation is linked to a wider range of psychologically relevant theories that help gain an overview of correlates and possible causes for the development of a sufficiency orientation.
Manuscript 1 uses expert interviews (N = 21) to develop a heuristic framework on a transformation towards societal sufficiency orientation including barriers and enablers, as well as ambiguities on such a change. The derived elements are interpreted in the light of the leverage points approach. This framework can serve as a heuristic for future research and to develop measures concerning sufficiency orientation.
As part of an online study (N = 648), Manuscript 2 examines the extent to which sufficiency orientation can be embedded in classic models for explaining pro-environmental intentions and behaviour (Theory of Planned Behaviour, Norm Activation Model), and showed a significant contribution to the explanation of intentions and behaviour in the field of plastic consumption.
Manuscript 3 reports two framing experiments (Study 1, N = 123, Study 2, N = 330) to investigate how pro-social justice sensitivity contributes to making sufficiency orientation more salient and promoting it. While sufficiency orientation and pro-social facets of justice sensitivity were positively related to each other, there was no effect of the framing intervention in the hypothesised direction. The results indicate that justice-related information at least in the presented manner is more likely to generate reactance.
Manuscript 4 presents an online study (N = 317) and targets the importance of sufficiency orientation for predicting actual greenhouse gas emissions in relation to flight behav-iour and policy support for the decarbonisation of mobility. In addition, the connection between sufficiency orientation and global identity is examined. It turns out that sufficiency orientation is superior to global identity in predicting actual emissions and decarbonisation policies. Contrary to expectations, sufficiency orientation and the form of global identity operationalised in the presented study shows a positive correlation and are compatible.
Manuscript 5 reports a reflective diary intervention (N = 252) that should lead to a short- and long-term increase in sufficiency orientation by satisfying basic psychological needs through induced self-reflection. For both groups with or without the intervention, sufficiency orientation increased slightly but significantly. Although no specific effect of the manipulation was found, basic psychological need satisfaction turns out to be the largest predictor for sufficiency orientation. Subjective well-being is positively associated with sufficiency orientation, while time affluence shows no clear associations in the study.
Overall, the results highlight the relevance of sufficiency orientation in relation to socio-ecological transformation and actual behavioural change. Sufficiency orientation is related to low-emission behaviour and support for political measures to decarbonize infrastructures. These results contribute to the discussion on the intention-behaviour gap in regard to impact-relevant behaviour, i.e. behaviour producing high emissions. The present findings suggest, that sufficiency orientation could be related to a strong intention-behavioural consistency. However, further research is needed to validate these results and improve the measurement of sufficiency orientation. Furthermore, the studies provided insights on correlates of sufficiency orientation: justice sensitivity, global identity, subjective well-being and left-wing liberal political ideologies are all found to be positively related to sufficiency orien-tation. Moreover, basic psychological need satisfaction was identified as a potential mechanism that can support the emergence of sufficiency orientation, however, causality remains unclear. From these findings, the work derives practical implications how to possibly strengthen sufficiency orientation on the micro, meso and macro levels of society.
Taken together, the dissertation provides important insights into a new and still developing concept, and shows its connectivity to psychological theories. However, future research is required in order to grasp more precisely the complexity of sufficiency orientation and to understand origins and predictors of sufficiency orientation. This work contributes to the interdisciplinary debate on socio-ecological transformation and points out that sufficiency orientation can serve to a future worth living as being related to reduced consumption.
Die Umbruchphase in der beruflichen Erstausbildung - unter besonderer Berücksichtigung der Berufsschulen - zeigt Wirkung auf schulische, didaktische und pädagogische Konzeptionen. Die kaum noch überschaubaren technologischen, ingenieur- und naturwissenschaftlichen Entwicklungen der letzten Jahrzehnte haben die Inhalte einer gewerblich-technischen Ausbildung, aber auch die zunehmenden Anforderungen an die fachliche, methodische, emotionale und persönliche Kompetenz radikal verändert und werden sich weiterhin verändern. Wenn auch die Berufausbildung durch die Entwicklung neuer Berufsbilder und angepasster Lehrpläne versucht darauf zu reagieren, geht es in erster Linie doch um ein neues Lernverständnis. Vorbei sind die Zeiten, in denen das einmal erworbene berufliche Können lebenslang vorhält. Vor-dringlicher denn je fordert der rasante technologische Veränderungsprozess eine lebenslange Lernkompetenz. Mittlerweile reicht in den meisten Fällen die Bereitschaft allein nicht mehr aus, sich aus eigenem Antrieb neue Kompetenzen während der beruflichen Tätigkeit anzueignen, die Lerner müssen auch dazu befähigt sein. Unverkennbar zeigt sich in der Berufsschule als Folge davon eine deutliche Hinwendung zu offenen Lernformen. Daraus lässt sich schließen, dass bisherige Konzepte den Erwerb von anspruchsvollen Handlungs- und Lernkompetenzen nicht erfüllen können. Es stellt sich die Frage, inwieweit der Projektunterricht als Unterrichtskonzept in der Lage ist, neben der Vermittlung der erforderlichen neuen Handlungskompetenzen, auch die Bereitschaft der Lernenden zu wecken, eigenverantwortlich und selbstständig lebensbegleitend zu lernen und sich weiter zu qualifizieren. Sich auf Projektunterricht einzulassen, kann durchaus als Wagnis nicht nur hinsichtlich des Verlaufes als auch des Ergebnisses gesehen werden. Eine treffende Umschreibung bieten DE BIE/LOUWERSE (1977, 211): "Es kann nicht genug betont werden, daß Projektunterricht größere Anstrengungen, mehr Einsatz, mehr Disziplin und eine größere Frustrationstoleranz erfordert als der traditionelle Unterricht. Im Projektunterricht gibt es kein festes System und keinen Dozenten, der die Vorbereitung und die Durchführung übernimmt, und man kann daher auch nicht die Mängel auf sie projizieren oder Frustrationen auf sie abwälzen. Projektunterricht stellt größere Anforderungen als der traditionelle Unterricht; deshalb erfordert er auch "reifere" Teilnehmer - sowohl was die Studenten wie die Dozenten betrifft. - Mit der Aufarbeitung des Projektunterrichts in einer gewerblichen Berufsschule in Form einer Fallstudie greift der Autor ein zentrales betriebs- und berufspädagogisches Thema auf. Er gliedert seine Fallstudie in sechs Kapitel. Nach der allgemeinen Betrachtung des Lernens richtet sich sein Fokus im ersten Abschnitt auf die Anforderungen in der heutigen Zeit und vor allem auf das in der Berufsschule gemäß Lehrplan geforderte Konzept der Handlungskompetenz. Die beiden folgenden Kapitel beschäftigen sich mit dem Projektunterricht. In Teil zwei werden zunächst die Grundlagen herausgearbeitet und über den historischen Rückblick auf die Inhalts- und Berührungspunkte dieser Lernart hingewiesen. Die Problematik angesichts der zahlreichen Projektautoren mit ihren unterschiedlichen Standpunkten wird bei der Begriffsklärung nur zu deutlich. Darauf aufbauend erfolgt in Kapitel drei die Beleuchtung des Projektunterrichts als didaktisches Modell. FLECHSIGS Konzeption didaktischer Modelle zeigt auf, dass der Projektunterricht wesentlich zur individuellen Förderung der Persönlichkeit beiträgt und beispielhaft eine Fülle von Lernmöglichkeiten für Schüler und Lehrer bietet. Teil vier beinhaltet das Konzept der Fallstudie zum "projektorientierten Unterricht". Projekt "Lampe" ist als Beitrag zur Verbesserung der Unterrichtsqualität im Rahmen der Schulentwicklung an der Berufsschule zu verstehen. Der Verfasser verfolgt mit dem Projekt "Lampe" zweierlei: Zum einen sollen die bisher vereinzelt gemachten Erfahrungen mit selbstständigen Lernprozessen gebündelt und in eine komplexe Aufgabe transferiert werden, andererseits erstrebt er, den Anforderungen an den klassischen Projektunterricht so nah wie möglich zu kommen. Die Untersuchung wird geleitet von folgender Hauptthese: "Volljährige Schüler, die in einer eigenen Lehrwerkstatt mit hauptberuflichen Ausbildern ihren Beruf erlernen, den Abschluss der "Mittleren Reife" mitbringen, überdurchschnittliche Leistungen im Rahmen der Ausbildung nachweisen können, stehen offenen Lehr- und Lernformen (in diesem Fall dem Projektlernen) positiv gegenüber." Der Autor erhob die für die empirische Auswertung maßgeblichen Informationen in Teil fünf über ein von jedem Schüler anonym am Ende jeder Projektwoche auszufüllendes Meinungsbarometer. Gegenstand der Auswertung war die gesamte Population. Die Fallstudie weist folgende Vorgehensweise auf: Die zentralen Fragestellungen mündeten in das Meinungsbarometer. Die darin enthaltenen Fragebogenkategorien wurden mit der Faktorenanalyse auf ihre Zusammensetzung hin überprüft und aufgrund des Ergebnisses für die Auswertung neu gruppiert. Über die Korrelationsprüfung der Fragebogenkomponenten traten die Zusammenhänge zwischen dem Fragebogen und den in den zentralen Fragestellungen genannten Items hervor. rnAbschließend erfolgte die Untersuchung der korrelierenden Variablen unter Einbezug der Schulbildung mit der Varianzanalyse und die Bewertung der Hauptthese. Die umfangreichen Daten der Ergebnisse erhalten trotz der hohen Informationsdichte durch die Darstellung in Tabellen, Polygonzügen und Histogrammen ein hohes Maß an Anschaulichkeit. Teil sechs bietet einen Ausblick auf die zukünftige Gestaltung des Projekts "Lampe".
Probability propagation nets
(2008)
In der vorliegenden Arbeit wird eine Petri-Netz-Repräsentation für die Propagation von Wahrscheinlichkeiten und Evidenzen (Likelihoods) vorgestellt und auf probabilistische Horn-Abduktion sowie Fehlerbäume und Bayes-Netze angewendet. Diese sogenannten Wahrscheinlichkeits-Propagations-Netze (probability propagation nets) machen Propagations-Prozesse transparent, indem sie strukturelle und dynamische Aspekte in einer homogenen Darstellung vereinen. Anhand populärer Beispiele wird verdeutlicht, dass Wahrscheinlichkeits-Propagations-Netze die Propagations-Prozesse - besonders im Hinblick auf die Bayes-Netz-Algorithmik - anschaulich darstellen und gut nachvollziehbar machen, so dass sie sich für die Analyse und Diagnose probabilistischer Modelle eignen. Durch die Repräsentation von Fehlerbäumen mit Wahrscheinlichkeits-Propagations-Netzen können diese Vorzüge auf die Modellierung technischer Systeme übertragen werden.
This thesis presents novel approaches for integrating context information into probabilistic models. Data from social media is typically associated with metadata, which includes context information such as timestamps, geographical coordinates or links to user profiles. Previous studies showed the benefits of using such context information in probabilistic models, e.g.\ improved predictive performance. In practice, probabilistic models which account for context information still play a minor role in data analysis. There are multiple reasons for this. Existing probabilistic models often are complex, the implementation is difficult, implementations are not publicly available, or the parameter estimation is computationally too expensive for large datasets. Additionally, existing models are typically created for a specific type of content and context and lack the flexibility to be applied to other data.
This thesis addresses these problems by introducing a general approach for modelling multiple, arbitrary context variables in probabilistic models and by providing efficient inference schemes and implementations.
In the first half of this thesis, the importance of context and the potential of context information for probabilistic modelling is shown theoretically and in practical examples. In the second half, the example of topic models is employed for introducing a novel approach to context modelling based on document clusters and adjacency relations in the context space. They can cope with areas of sparse observations and These models allow for the first time the efficient, explicit modelling of arbitrary context variables including cyclic and spherical context (such as temporal cycles or geographical coordinates). Using the novel three-level hierarchical multi-Dirichlet process presented in this thesis, the adjacency of ontext clusters can be exploited and multiple contexts can be modelled and weighted at the same time. Efficient inference schemes are derived which yield interpretable model parameters that allow analyse the relation between observations and context.
Die voranschreitende Vernetzung von Fahrzeugen wird einen erheblichen Einfluss auf die Mobilitätslösungen von Morgen haben. Solche Systeme werden stark auf den zeitnahen Austausch von Informationen angewiesen sein, um die funktionale Zuverlässigkeit, Sicherheit von Fahrfunktionen und somit den Schutz von Insassen zu gewährleisten. Allerdings zeigt sich bei näherer Betrachtung der verwendeten Kommunikationsmodelle heutiger Netzwerke, wie beispielsweise dem Internet, dass diese Modelle einem host-zentrierten Prinzip folgen. Dieses Prinzip stellt das Management von Netzwerken mit einem hohen Grad an mobilen Teilnehmern vor große Herausforderungen hinsichtlich der effizienten Verteilung von Informationen. In den vergangen Jahren hat sich das Information-Centric Networking (ICN) Paradigma als vielversprechender Kandidat für zukünftige datenorientierte mobile Netzwerke empfohlen. Basierend auf einem lose gekoppelten Kommunikationsmodell unterstzützt ICN Funktionen wie das Speichern und Verarbeiten von Daten direkt auf der Netzwerkschicht. Insbesondere das aktive, gezielte Platzieren von Daten nahe der Benutzer stellt einen vielversprechenden Ansatz zur Erhöhung der Datenbereitstellung in mobilen Netzen dar. Die vorliegende Arbeit legt den Fokus auf die Erforschung von Strategien zum orchestrieren und aktiven Platzieren von Daten für Fahrzeuganwendungen im Netzwerk für mobile Teilnehmer. Im Rahmen einer Analyse unterschiedlicher Fahrzeugapplikationen und deren Anforderungen, werden neue Strategien für das aktive Platzieren vorgestellt. Unter Verwendung von Netzwerksimulationen werden diese Strategien umfangreich untersucht und in im Rahmen eines prototypischen Aufbaus unter realen Bedingungen ausgewertet. Die Ergebnisse zeigen Verbesserungen in der zeitnahen Zustellung von Inhalten (die Verfügbarkeit spezifischer Daten wurde im Vergleich zu existierenden Strategien um bis zu 35% erhöht), während die Auslieferungszeiten verkürzt wurden. Allerdings bedingt das aktive Platzieren und Speichern von Daten auch Risiken der Datensicherheit und Privatsphäre. Auf der Basis einer Sicherheitsanalyse stellt der zweite Teil der Arbeit ein Konzept zur Zugriffskontrolle von gespeicherten Daten in verteilten Fahrzeugnetzwerken vor. Abschließend werden offene Problemstellungen und Forschungsrichtungen im Kontext Sicherheit von verteilten Berechnungsarchitekturen für vernetze Fahrzeugnetzwerke diskutiert.
Gegeben sei eine Basis b>=10 und eine Ziffer a0 aus der Menge {0,..., b − 1}. Wir untersuchen, ob es unendlich viele Primzahlen gibt, die in ihrer b-adischen Zifferndarstellung die Ziffer a0 nicht besitzen. Ferner schätzen wir die Anzahl dieser Primzahlen, die kleiner sind als X = b^k, nach oben und unten ab.
Damit gelingt uns eine Verallgemeinerung von Maynards Beweis für den Fall b = 10 und wir nutzen hierzu auch die in seiner Arbeit verwendeten Werkzeuge. Unter Anderem benötigen wir die Hardy-Littlewoodsche Kreismethode sowie diverse Siebmethoden, um die Minor Arcs zu kontrollieren.
Schließlich sehen wir, dass wir Maynard's Aussage vor allem dann auf beliebige Basen b>= 10 und ausgeschlossene Ziffern a0 aus {0, ..., b − 1} übertragen können, wenn zwei betragsmäßig größte Eigenwerte von Matrizen, die von b und a0 parametrisiert werden, bestimmte Abschätzungen erfüllen. Dass diese Abschätzungen im Fall b>=102 erfüllt sind, beweisen wir im letzten Kapitel. Für die Fälle b = 10 und b = 11 liegt ebenfalls ein Mathematica-Code vor, der die Abschätzungen bestätigt.
In Studien zur Toxizität von Chemikaliengemischen wurde festgestellt, dass Gemische aus Komponenten in Konzentrationen ohne erkennbare Wirkung als Einzelstoff (NOECs) als Resultat der gemeinsamen Wirkung der Substanzen Toxizität verursachen können. Die Risikobewertung von Chemikalien konzentriert sich jedoch häufig auf einzelne chemische Substanzen, obwohl die meisten lebenden Organismen im Wesentlichen chemischen Gemischen anstatt einzelnen Substanzen ausgesetzt sind. Die Konzepte der additiven Toxizität, Konzentrationsadditivität (CA) und der unabhängigen Wirkung (IA), werden häufig angewendet, um die Mischungstoxizität von Gemischen ähnlich wirkender und unähnlich wirkender Chemikalien vorherzusagen. Allerdings können lebende Organismen, ebenso wie die Umwelt, beiden Chemikalienarten zur gleichen Zeit und am gleichen Ort ausgesetzt sein. Darüber hinaus wäre es nahezu unmöglich, auf experimentellem Wege Toxizitätsdaten für jede denkbare Mischung zu gewinnen, da die Anzahl der Möglichkeiten beinahe unendlich groß ist. Aus diesem Grund muss ein integriertes Modell zur Vorhersage der Mischungstoxizität, welches auf einzelnen Mischungskomponenten mit verschiedenen Arten toxischer Wirkung (MoAs) basiert, entwickelt werden. Die Ziele der vorliegenden Studie sind, die Problematik der Vorhersage der Mischungstoxizität in der Umwelt zu analysieren und integrierte Modelle zu entwickeln, die die Beschränkungen der vorhandenen Vorhersagemodelle zur Abschätzung der Toxizität nicht-interaktiver Mischungen mittels computergestützter Modelle überwinden. Für diese Zielsetzung wurden in dieser Studie vier Unterthemen bearbeitet. Als Erstes wurden Anwendungsbereiche und Beschränkungen bereits bestehender Modelle analysiert und in die drei Kategorien dieser Studie eingruppiert. Aktuelle Ansätze zur Einschätzung der Mischungstoxizität und die Notwendigkeit eines neuen Forschungskonzepts zur Überwindung bestehender Einschränkungen, die aus neueren Studien hervorgehen, wurden diskutiert. Insbesondere diejenigen, die computergestützte Ansätze einbeziehen um die Toxizität chemischer Gemische, basierend auf den toxikologischen Daten einzelner Chemikalien, vorherzusagen. Als Zweites wurde anhand einer Fallstudie und mittels computergestützter Simulation festgestellt, dass die Key Critical Component (KCC) und die Composite Reciprocal (CR) methods, die im Entwurf des Technischen Leitfadens der Europäischen Union (EU) zu Berechnung der Predicted No Effect Concentration (PNEC) und des Derived No Effect Level (DNEL) von Gemischen beschrieben wurden, signifikant abweichende Ergebnisse hervorbringen. Als dritter und vierter Schritt dieser Studie wurden die zwei folgenden integrierten Nebenmodelle entwickelt und erfolgreich angewandt, um die dem CA und IA Modell innewohnenden Beschränkungen zu überwinden, welche theoretisch sowohl für Chemikalien mit ähnlichen, als auch mit abweichenden Reaktionen existieren: 1) Partial Least Squares-based Integrated Addition Model (PLS-IAM) und 2) Quantitative Structure-Activity Relationship-based Two-Stage Prediction (QSAR-TSP) Modell. In dieser Studie wurde gezeigt, dass das PLS-IAM angewandt werden könnte, wenn die toxikologischen Daten ähnlicher Gemische mit gleicher Zusammensetzung zur Verfügung stehen. Das QSAR-TSP Modell zeigt eine Möglichkeit zur Überwindung der kritischen Einschränkungen des herkömmlichen TSP Modells auf, bei der Kenntnisse der MoAs aller Chemikalien erforderlich sind. Diese Studie zeigt das hohe Potential der erweiterten integrierten Modelle, z.B. PLS-IAM und QSAR-TSP, die durch Berücksichtigung verschiedener nicht-interaktiver Komponenten mit unterschiedlichen MoA Gruppen, die Verlässlichkeit konventioneller Modelle erhöhen und das Verfahren der Risikobewertung von Gemischen aus wissenschaftlicher Sicht vereinfachen.
Die Aufmerksamkeit politischer Entscheidungsträger weltweit richtet sich in den letzten 10 Jahren verstärkt auf die Kreativwirtschaft als signifikanter Wachstums- und Beschäftigungsmotor in Städten. Die Literatur zeigt jedoch, dass Kreativschaffende zu den gefährdetsten Arbeitskräften in der heutigen Wirtschaft gehören. Aufgrund des enorm deregulierten und stark individualisierten Umfelds werden Misserfolg oder Erfolg eher individuellen Fähigkeiten und Engagement zugeschrieben und strukturelle oder kollektive Aspekte vernachlässigt. Diese Arbeit widmet sich zeitlichen, räumlichen und sozialen Aspekten digitaler behavioraler Daten, um zu zeigen, dass es tatsächlich strukturelle und historische Faktoren gibt, die sich auf die Karrieren von Individuen und Gruppen auswirken. Zu diesem Zweck bietet die Arbeit einen computergestützten, sozialwissenschaftlichen Forschungsrahmen, der das theoretische und empirisches Wissen aus jahrelanger Forschung zu Ungleichheit mit computergestützten Methoden zum Umgang mit komplexen und umfangreichen digitalen Daten verbindet. Die Arbeit beginnt mit der Darlegung einer neuartigen Methode zur Geschlechtererkennung, welche sich Image Search und Gesichtserkennungsmethoden bedient. Die Analyse der kollaborativen Verhaltensweisen sowie der Zitationsnetzwerke männlicher und weiblicher Computerwissenschaftler*innen verdeutlicht einige der historischen Bias und Nachteile, welchen Frauen in ihren wissenschaftlichen Karrieren begegnen. Zur weiterfuhrenden Elaboration der zeitlichen Aspekte von Ungleichheit, wird der Anteil vertikaler und horizontaler Ungleichheit in unterschiedlichen Kohorten von Wissenschaftler*innen untersucht, die ihre Karriere zu unterschiedlichen Zeitpunkten begonnen haben. Im Weiteren werden einige der zugrunde liegenden Mechanismen und Prozesse von Ungleichheit in kreativen Berufen analysiert, wie der Matthew-Effekt und das Hipster-Paradoxon. Schließlich zeigt diese Arbeit auf, dass Online-Plattformen wie Wikipedia bestehenden Bias reflektieren sowie verstärken können.
Natürliche Schädlingskontrolle und Bestäubung sind wichtige Ökosystemdienstleistungen für die Landwirtschaft. Diese können durch ökologische Landwirtschaft und naturnahe Lebensräume in der näheren oder weiteren Umgebung gefördert werden.
Das Potential naturnaher Lebensräume räuberische Fliegen(Kapitel 2 und 3)und Bienen (Kapitel 7) auf lokaler und Landschaftsebene zu fördern wurde in naturnahen Lebensräumen untersucht. Räuberische Fliegen bevorzugten verholzte Habitate und reagierten positiv auf die andschaftskomplexizität. Die Vielfalt von Bienen und die Häufigkeit von Honig- und Wildbienen in den naturnahen Lebensräumen wurde vor allem positiv von den vorhandenen Blütenressourcen beeinflusst.
Der Einfluss von ökologischer Landwirtschaft, angrenzenden naturnahen Lebensräumen und Landschaftskomplexizität auf natürliche Schädlingskontrolle (Kapitel 4) und Bestäubung (Kapitel 6) wurde in 18 Kürbisfeldern untersucht. Ökologische Landwirtschaft hatte keine starken Effekte auf die natürliche Schädlingskontrolle oder die Bestäubung von Kürbis. Die natürliche Schädlingskontrolle kann vor allem lokal durch das Blütenangebot in den angrenzenden Lebensräumen gefördert werden, weil dieses die Dichten der natürlichen Läusefeinde positiv beeinflusste und tendenziell die Läusedichte in den Kürbisfeldern reduzierte.
Kürbis ist ein beeindruckendes Beispiel für eine Schlüsselrolle von Wildbienen für den Bestäubungserfolg, weil Kürbis in Deutschland vor allem von Hummeln bestäubt wird trotz der höheren Besuchsdichten von Honigbienen. Die Bestäubung kann am besten durch Landschaftskomplexizität gefördert werden. Die Anzahl von Blütenbesuchen von Hummeln und infolgedessen auch die übertragene Pollenmenge wurden negativ von der landwirtschaftlich genutzten Fläche in der umgebenden Landschaft beeinflusst.
Der Einfluss von Läusedichten (Kapitel 8) und Bestäubung (Kapitel 5) auf den Kürbisertrag wurde ermittelt. Der Kürbisertrag wurde nicht beeinflusst von den beobachteten Läusedichten und war nicht bestäubungslimitiert bei der derzeitigen Menge an Bienenbesuchen.
Insbesondere naturnahe Lebensräume, die stetige und vielfältige Blütenressourcen bereitstellen, sind wichtig für Schädlingskontrolleure und Bestäuber. In Agrarlandschaften sollte ein ausreichender Anteil an verschiedenen Typen von naturnahen Lebensräumen erhalten und wiederhergestellt werden. Dadurch können natürliche Schädlingskontrolleure wie räuberische Fliegen, Bestäuber wie Hummeln,und die von ihnen geleistete Schädlingskontrolle und Bestäubung in Agrarlandschaften gefördert werden.
Die Biopolyester Cutin und Suberin stellen hydrophobe Grenzbarrieren dar, die sich im Laufe der Evolution der Landpflanzen entwickelt haben. Cutin bildet den Hauptbestandteil der Cuticula, die den Pflanzen Schutz vor unkontrollierter Transpiration bietet. Die Einlagerung von Suberin in die Zellwände definierter Zellen des Wurzelgewebes ermöglicht eine kontrollierte Aufnahme von Wasser und Nährstoffen. Zu den wichtigsten monomeren Bestandteilen dieser biologischen Polyester gehören langkettige α,ω-Dicarbonsäuren und ω-Hydroxycarbonsäuren. Bisher wurde der mikrobielle Abbau der Makromoleküle unzureichend erforscht. Zur Entschlüsselung der Zersetzung ist es notwendig, den Kreislauf der monomeren Bestandteile im Boden zu betrachten. Hierzu eignen sich vor allem Experimente mit positionsspezifisch ¹³C -markierten α,ω-Dicarbonsäuren und ω-Hydroxycarbonsäuren, die in der vorliegenden Arbeit erstmals synthetisch zugänglich gemacht wurden. Die Synthesen umfassten Dicarbonsäuren der geradzahligen Kettenlängen C12 bis C30, deren Carboxygruppen ¹³C -markiert sind. Ebenfalls wurde die Synthese von ω-Hydroxycarbonsäuren der Kettenlängen C14, C18, C22 und C30 mit ¹³C-Markierung an der Carboxygruppe realisiert. Weitere Zielverbindungen waren ω-Hydroxycarbonsäuren der Kettenlängen C14, C15, C18, C22 und C30, deren terminales hydroxyliertes Kohlenstoffatom mit ¹³C markiert ist. Im Rahmen der durchgeführten Arbeit gelang es, alle 19 Zielcarbonsäuren erfolgreich in hohen Ausbeuten und Reinheiten darzustellen. Die Synthese der isotopenmarkierten Verbindungen erforderte die Entwicklung spezieller auf die jeweiligen Zielsubstanzen individuell angepasster Syntheserouten, die den Einbau des Kohlenstoffisotops ¹³C ermöglichten. Für alle Zielverbindungen erfolgte die Einführung des ¹³C durch die Verwendung von ¹³C -markiertem Kaliumcyanid (99 at%). Wegen der hohen Kosten des ¹³C -markierten Ausgangsstoffes wurden alle Reaktionen zunächst unter der Verwendung analoger unmarkierter Edukte optimiert. Der letzte Teil der Arbeit bestand in der Ausführung eines Inkubationsexperimentes mit den ¹³C -markierten α,ω-Dicarbonsäuren der Kettenlängen C12, C18, C22 und C30. Mittels Phospholipidfettsäure-Analyse konnte gezeigt werden, dass die ¹³C -Dicarbonsäuren zu unterschiedlichen Anteilen von verschiedenen Mikroorganismengruppen zum Aufbau von Phospholipidfettsäuren verwendet wurden. Außerdem konnte durch die Anreicherung des CO2 mit dem Isotop ¹³C nachgewiesen werden, dass die ¹³C -markierten Fettsäuren von den Mikroorganismen zur Energiegewinnung abgebaut wurden. Für zukünftige Arbeiten wäre es interessant, Ausschnitte der Cutin- und Suberinstruktur nachzubilden. Durch die Veresterung der ¹³C -markierten α,ω-Dicarbonsäuren und der ¹³C -markierten ω-Hydroxycarbonsäuren untereinander oder mit Alkoholen könnten Dimere und Oligomere hergestellt werden.
Genetische Populationsstruktur europäischer Hyalodaphnia-Arten: Monopolisierung versus Genfluss
(2012)
Die genetische Populationsstruktur von Arten wird von verschiedenen Faktoren beeinflusst, z.B. vom Reproduktionsmodus. Ein spezieller Reproduktionsmodus ist die zyklische Parthenogenese, eine Abwechslung von Phasen asexueller und sexueller Reproduktion. Die klonale Diversität von zyklisch parthenogenetischen Zooplanktonorganismen wird durch die Größe der Dauerstadienbank im Sediment beeinflusst, d.h. durch die Anzahl der sexuell produzierten Dauereier die sich im Sediment akkumulieren. Weiterhin verringert klonale Erosion, ausgelöst durch stochastische und selektive Prozesse, die Diversität über die Zeit. Da zyklisch parthenogenetische Zooplanktonorganismen neue Habitate effektiv monopolisieren können, wurden die Auswirkungen von Genfluss als vernachlässigbar angenommen. Unter Monopolisierung wird die schnelle Vergrößerung der Population verstanden, was zu einem Vorteil für die ersten Ankömmlinge führt (priority-Effekt). Durch lokale Anpassung und das Aufbauen einer Dauerstadienbank wird Genfluss effektiv entgegen gewirkt, da später ankommende Genotypen sich nicht in der Population etablieren können. Das Ziel dieser Arbeit war die Evaluierung der Prozesse, die die populationsgenetische Struktur von zyklisch parthenogenetischen Zooplanktonorganismen beeinflussen, mit besonderem Fokus auf Monopolisierung und Genfluss. Als Organismen wurden Seenarten der Gattung Daphnia eingesetzt, für die zunächst 32 variable Mikrosatellitenmarker entwickelt wurden. Ein ausgewähltes Marker-Set von zwölf Mikrosatellitenmarkern wurde zusätzlich für die Art- und Hybriddetektion getestet. Mit diesem Marker-Set und einem zusätzlichen mitochondrialen DNA-Marker wurden Proben aus 44 europäischen Gewässern untersucht, die die Arten D. cucullata, D. galeata und D. longispina enthielten. Bei D. galeata sind viele Populationen durch eine geringe klonale Diversität charakterisiert, was darauf hindeutet, dass die Dauerstadienbank nur wenig zur klonalen Diversität beiträgt, wodurch die Effekte der klonalen Erosion sehr schnell detektiert werden. Die genetischen Muster zeigen weiterhin auf, dass rezente Expansion stattgefunden hat, die wahrscheinlich durch die anthropogene Veränderung limnischer Ökosysteme hervorgerufen und begünstigt wurde, wobei hier vor allem die Eutrophierung vieler europäischer Seen im Vordergrund steht. Bei D. longispina und D. cucullata wurde eine von D. galeata stark abweichende Populationsstruktur detektiert. Hohe genetische Differenzierung zwischen Populationen spricht für geringen Genfluss was im Einklang mit den Annahmen von Monopolisierung ist.
Weiterhin ist die klonale Diversität vieler Populationen sehr hoch und deutet somit einen großen Einfluss der Dauerstadienbank an, weshalb die Effekte der klonalen Erosion nicht oder nur gering detektiert wurden. Bei der Analyse der mitochondrialen DNA von D. longispina wurde ein Anstieg der Populationsgröße nach der letzten Eiszeit ermittelt, da die Entstehung vieler Gletscherseen, die ein ideales Habitat für D. longispina darstellen, zu einer Expansion dieser Art führte. Nicht nur die klonale Diversität der D. longispina-Populationen war hoch, sondern die genetische Diversität im Allgemeinen. Dies zeigt auf, dass während der Entstehung dieser Populationen Genfluss hoch gewesen sein muss. Um die Prozesse, die während der frühen Entwicklungsphase einer Population herrschen, besser beurteilen zu können, wurde eine experimentelle Studie durchgeführt, die den zeitlichen Vorteil von ankommenden Genotypen auf den Etablierungserfolg dieser Genotypen untersucht.
Es zeigte sich, dass früh ankommende Genotypen einen Vorteil in der Population haben. Bei ähnlicher Fitness war dieser Vorteil langfristig, aber Genotypen mit einer höheren Fitness dominierten die Population auf lange Sicht, unabhängig vom zeitlichen Vorteil den die einzelnen Genotypen zuvor hatten.rnZusammenfassend, die Ergebnisse dieser Arbeit zeigen, dass zusätzlich zu den bisher untersuchten Prozessen (lokale Anpassung, klonale Erosion und die Größe der Dauerstadienbank) auch Genfluss die Populationsstruktur zyklisch parthenogenetischer Zooplanktonorganismen effektiv beeinflussen kann. Zum Einen, während der Entstehung von Population können mehrere Genotypen zum Aufbau beitragen. Zum Anderen, bei starken Veränderungen der Umweltfaktoren kann Genfluss stark auf die Populationsstruktur wirken.
Amphibian populations are declining worldwide for multiple reasons such as habitat destruction and climate change. An example for an endangered European amphibian is the yellow-bellied toad Bombina variegata. Populations have been declining for decades, particularly at the northern and western range margin. One of the extant northern range centres is the Westerwald region in Rhineland-Palatinate, Germany. To implement informed conservation activities on this threatened species, knowledge of its life-history strategy is crucial. This study therefore focused on different developmental stages to test predictions of life-history theory. It addressed (1) developmental, (2) demographic and (3) genetic issues of Bombina variegata as a model organism: (1) Carry-over effects from larval environment to terrestrial stages and associated vulnerability to predators were investigated using mesocosm approaches, fitness tests and predation trials. (2) The dynamics and demography of B. variegata populations were studied applying a capture-mark-recapture analysis and skeletochronology. The study was complemented through (3) an analysis of genetic diversity and structuring of B. variegata populations using 10 microsatellite loci. In order to reveal general patterns and characteristics among B. variegata populations, the study focused on three geographical scales: local (i.e. a former military training area), regional (i.e. the Westerwald region) and continental scale (i.e. the geographical range of B. variegata). The study revealed carry-over effects of larval environment on metamorph phenotype and behaviour causing variation in fitness in the early terrestrial stage of B. variegata. Metamorph size and condition are crucial factors for survival, as small-sized individuals were particularly prone to predator attacks. Yellow-bellied toads show a remarkable fast-slow continuum of the life-history trait longevity. A populations’ position within this continuum may be determined by local environmental stochasticity, i.e. an extrinsic source of variation, and the efficiency of chemical antipredator protection, i.e. an intrinsic source of variation. Extreme longevity seems to be an exception in B. variegata. Senescence was absent in this study. Weather variability affected reproductive success and thus population dynamics. The dispersal potential was low and short-term fragmentation of populations caused significant genetic differentiation at the local scale. Long-term isolation resulted in increased genetic distance at the regional scale. At the continental scale, populations inhabiting the marginal regions were deeply structured with reduced allelic richness. As consequence of environmental changes, short-lived and isolated B. variegata populations at the range margin may face an increased risk of extinction. Conservation measures should thus improve the connectivity among local populations and reinforce annual reproductive success. Further research on the intraspecific variation in B. variegata skin toxins is required to reveal potential effects on palatability and thus longevity.
Politische Steuerung in nationalen Bologna-Prozessen in Deutschland, Österreich und der Schweiz
(2019)
Das Ziel der Dissertation besteht in der Erklärung und Analyse grundlegender Steuerungsmuster zwischen Politik und Universitätssystem in den nationalen Bologna-Prozessen in Deutschland, Österreich und der Schweiz: Wurde die Studienreform primär staatlich verordnet, im Dialog mit den Hochschulen implementiert oder die Ausgestaltung der Reform der Wissenschaft weitgehend überlassen - und welche Instrumente wurden dabei weshalb genutzt? Damit schließt die Arbeit an den aktuellen Forschungsstand zu vertikalen Vermittlungsprozessen (übernational-national) im Bologna-Prozess an: Nationale Hochschulsysteme konvergieren nicht zu einem einheitlichen Modell, sondern nationale Faktoren (z.B. Problemdeutungen und Einflussmöglichkeiten von Bildungspolitik, Universitäten u.a.) führen dazu, dass Bologna jeweils länderspezifisch verstanden und interpretiert wird.
Vor diesem Hintergrund wird im theoretischen Teil zur Anleitung eines systematischen Vergleichs ein analytischer Rahmen entworfen, dessen Elemente sowohl aus der Politikwissenschaft (Instrumenteforschung, Politische Steuerung, Governance etc.) als auch aus der Hochschulforschung stammen. In den anschließenden empirischen Kapiteln zu den drei Ländern werden die Akteurkonstellationen und faktisch zu beobachtenden Instrumentarien beschrieben, analysiert und interpretiert. Die methodische Basis bilden neben der Analyse zahlreicher Dokumente 37 leitfadengestützte Interviews mit Expertinnen und Experten.
Grundsätzlich lassen sich auf Basis der empirischen Teile die folgenden zentralen Ergebnisse der Studie festhalten:
Deutschland: Aufgrund der relativ starken Kompetenzen der Länder und der Einflussschwäche der Universitäten ist für den deutschen Bologna-Prozess ein primär interventionistisches Muster kennzeichnend. Dieses wurde und wird bis heute dadurch verstärkt, dass die Umsetzung von Bologna durch spezifische Problemwahrnehmungen und -lösungen von KMK und HRK in den 90er Jahren geprägt ist (z.B. Modularisierung als Antwort auf unstrukturierte Studiengänge, Akkreditierung als Fortführung der tradierten Input-Steuerung). `Bologna` wurde so mit genuin nationalen Instrumenten verquickt, die z.T. quer zum tradierten Lehrhabitus vieler Hochschullehrerinnen und -lehrer lag und liegt (z.B. Modularisierung oder Kompetenzorientierung). Verstärkend trat hinzu, dass die Reform u.a. aufgrund des Bund/Länder-Konflikts in der Bildungspolitik im Vorfeld der Föderalismusreform I nicht finanziell unterstützt wurde. Plastisch formuliert ist der deutsche Bologna-Prozess regulativ über- und finanziell untersteuert, was auch zu den Studierendenprotesten 2009/2010 beitrug.
Österreich: Der Bologna-Prozess lief in Österreich parallel zu einem umfassenden Neuordnungsprozess, innerhalb dessen die Universitäten in ihrer Autonomie erheblich gestärkt wurden und sich das zuvor zentrale Wissenschaftsministerium in seinen Kompetenzen erheblich limitierte. Dieses hatte die Reform unmittelbar 1999 noch angestoßen, zog sich anschließend jedoch im Rahmen einer `minimalen Steuerung` zurück und übernahm auch keine Reformmehrkosten. Da unterhalb der in die Autonomie entlassenen Universitäten kein nationaler Dialog über die Reform in Gang kommen konnte, fand der Bologna-Prozess vor allem auf der Ebene der jeweils eigenständigen Universitäten `vor Ort` statt. Diese erhebliche regulative und finanzielle Untersteuerung führte 2009/2010 zu massiven Studierendenprotesten, die angesichts der schwachen Position des Ministeriums auch nur unzureichend kanalisiert werden konnten.
Schweiz: In der Schweiz hingegen ist eine austarierte regulative und finanzielle Steuerung zu beobachten. Bund und Kantone übertrugen Anfang der 2000er Jahre wenige, aber wesentliche Kompetenzen auf ein gemeinsames Organ, das seinerseits per Gesetz eng mit der Rektorenkonferenz zusammenarbeiten sollte. Bologna stärkte dieses bis dato auf dem Papier bestehende Muster: Vor dem Hintergrund einer übergreifend geteilten prozessualen Subsidiaritätsnorm sowie weitgehender Präferenzenübereinstimmung zwischen Politik und Universitäten finanzierte der Staat gezielt die Reformmehrkosten sowie strategische Projekte und delegiert die Formulierung, Implementierung und Weiterentwicklung zentraler Vorgaben auf der Basis des Entscheidungsvorbehalts an die Rektorenkonferenz bzw. Universitäten. Probleme werden innerhalb dieses Arrangements z.T. identifiziert und bearbeitet. Die Politik greift nur subsidiär im Ausnahmefall ein. Die Schweiz kommt daher dem Idealtypus der strukturierenden Steuerung sehr nahe.
Die Befunde werden abschließend in einen größeren Bezugsrahmen eingeordnet, um sie über Bologna hinaus für die Analyse des deutschen Hochschulsystems fruchtbar zu machen. Maßstab hierfür sind ausgewählte normative Kriterien zur Güte von Steuerungsmustern. So wird z.B. gezielt die politische Entscheidungskapazität in den beobachteten Mustern betrachtet: Während etwa in Deutschland auf die Studierendenproteste 2009 im Rahmen des interventionistischen Musters mit verbindlichen Instrumenten wie Strukturvorgaben, Akkreditierung und letztlich dem Qualitätspakt Lehre nicht nur symbolisch reagiert werden konnte, stand das Wiener Wissenschaftsministerium den starken Protesten durch den Verzicht auf regulative und finanzielle Ressourcen hilflos gegenüber.
Auf dieser Basis werden abschließend einige grundlegende Anregungen zur Weiterentwicklung des deutschen Hochschulsystems gegeben. Unter anderem wird dafür plädiert, den hochschulpolitischen Reformdiskurs, der sich oftmals nur zwischen den Polen `mehr Staat` und `mehr Wettbewerb` zu bewegen scheint, gezielt um alternative Handlungslogiken und Akteure zu erweitern: Die Ergebnisse der Arbeit legen nahe, Verbände und Organisationen (Rektorenkonferenzen, Fachgesellschaften, Fakultätentage u.a.) politisch zu stärken, um diese Sichtweisen und Expertisen in zukünftigen Reformprozessen (z.B. aktuell Digitalisierung) systematischer als zuvor miteinzubeziehen. Denn eine zu starke Entkopplung von politischen und wissenschaftlichen Rationalitäten führt unweigerlich zu nicht intendierten Effekten, die ihrerseits wieder Handlungsdruck erzeugen (z.B. Proteste).
Eine nachhaltige Intensivierung der Landwirtschaft ist notwendig, um die wachsende Weltbevölkerung zu ernähren ohne die Bodenqualität durch verstärkte Bodendegradation zu verschlechtern. Plastikmul-che (PM) werden weltweit zunehmend eingesetzt, um Wachstum und Ertrag von Feldfrüchten zu ver-bessern und somit die landwirtschaftliche Produktivität zu steigern. Zunehmend finden sich aber auch kritische Aspekte der PM-Anwendung auf die Bodenqualität sowie widersprüchliche Ergebnisse in der wissenschaftlichen Literatur. Grund könnte die Anwendung in verschiedenen Klimaten und bei unter-schiedlichen Feldkulturen, Böden und landwirtschaftlichen Techniken sein. Ein genauerer Blick ist so-mit notwendig, um den PM-Einfluss auf die Bodenprozesse unter verschiedenen Klima- und Anbaube-dingungen umfassend zu verstehen und hinsichtlich einer nachhaltigen Landwirtschaft zu bewerten.
Ziel dieser Doktorarbeit war es, zu verstehen, inwieweit eine mehrjährige PM-Anwendung verschiedene Bodeneigenschaften und -prozesse unter gemäßigt, humidem Klima in Mitteleuropa beeinflusst und die Folgen für die Bodenqualität zu bewerten. Hierfür untersuchte ich in einer dreijährigen Feldstudie, wie PM (schwarzes Polyethylen, 50 μm) das Mikroklima, die Strukturstabilität, die organische Bodensub-stanz (OBS) und die Konzentrationen bestimmter Fungizide und Mykotoxine in drei Bodenschichten (0–10, 10–30 and 30–60 cm) im Vergleich zu Strohmulch (SM) beeinflusst. Beide Bodenabdeckungen wurden in einer Dammkultur mit Tröpfchenberegnung im Erdbeeranbau eingesetzt.
Die PM veränderten das Mikroklima des Bodens hin zu höheren Temperaturen und niedrigeren Was-sergehalten. Hauptfaktor für das gesteigerte Pflanzenwachstum unter gegebenem Klima dürfte somit die höhere Bodentemperatur sein. Die niedrigere Bodenfeuchte unter PM zeigte, dass die verhinderte Nie-derschlagsversickerung stärker den Wasserhaushalt beeinflusste als die reduzierte Evaporation, was auf eine ineffiziente Niederschlagsnutzung hinweist. Die PM veränderten den Wasserkreislauf hin zu ver-mehrt seitlichen Wasserflüssen von der Furche zum Damm und weniger vertikalen Sickerwasserflüssen im Damm. Letzteres verringerte die Stickstoffauswaschung im Oberboden (0–10 cm) in der Anwachs-phase der Erdbeeren. PM verhinderte eine abrupte Bodendurchnässung und Überschusswasser bei Re-genfällen und somit Aggregatzerstörung. So wurde eine lockere und stabile Bodenstruktur erhalten, die Bodenverdichtung und Bodenerosion vorbeugt. PM veränderte Kohlenstoffaustausch und -umwandlung hin zu einer größeren und stabileren OBS. Somit kompensierte die unterirdische Biomassenproduktion unter PM den temperaturbedingt beschleunigten OBS Abbau sowie den fehlenden Eintrag oberirdischer Biomasse. Das SM erhöhte jedoch die labile und totale OBS im Oberboden nach dem ersten Versuchs-jahr und steigerte das mikrobielle Wachstum durch den oberirdischen Biomasseeintrag. PM verringerte den Fungizideintrag in den Boden und verursachte kein erhöhtes Mykotoxinvorkommen. Somit stellt PM kein erhöhtes Risiko für Bodenkontaminationen und die Bodenqualität dar. Diese Doktorarbeit zeigte, dass sich die PM-Effekte zeitlich, saisonal und zwischen den Bodenschichten unterschieden, womit die Bedeutung der Faktoren Bodentiefen und Zeit für zukünftige Studien belegt wurde.
Verglichen mit ariden Gebieten, waren die beobachteten PM-Einflüsse klein, ausgeblieben oder anders. Als Grund hierfür vermute ich, dass PM in humidem Klima die Bodenfeuchte verringerte anstatt zu erhöhen und dass unter SM das Stroh und Blätterwerk einen PM-ähnlichen „Abdeckungseffekt“ verur-sachte. Eine Generalisierung der PM-Effekte über verschiedenen Klimazonen ist somit kaum möglich, da sich die Effekte in Art und Ausmaß in Abhängigkeit vom Klima unterscheiden. Die PM-Effekte auf die Bodenqualität müssen somit differenziert beurteilt werden. Ich schlussfolgere, dass PM in humiden Klimaten Bodendegradationen vermindern könnte (z.B., OBS Abbau, Erosion, Nährstoffauswaschung, Verdichtung und Kontamination) und somit hilft, Bodenqualität zu erhalten und eine nachhaltige, land-wirtschaftliche Intensivierung zu ermöglichen. Allerdings ist weitere Forschung nötig um meine Ergeb-nisse auf größeren Skalen, über längere Zeitperioden und bei verschiedenen Böden und Feldfrüchte zu überprüfen, verbleibende offene Fragen zu beantworten und Verbesserungen zu entwickeln, um die Nachteile der PM zu überwinden (z.B. Bodenverunreinigung mit Plastik, Entsorgung der Mulche).
The three biodegradable polymers polylactic acid (PLA), polyhydroxybutyrate (PHB) and polybutylene adipate terephthalate (PBAT) were coated with hydrogenated amorphous carbon layers (a-C:H) in the context of this thesis. A direct alignment of the sample surface to the source was chosen, resulting in the deposition of a robust, r-type a-C:H. At the same time, a partly covered silicon wafer was placed together with the polymers in the coating chamber and was coated. Silicon is a hard material and serves as a reference for the applied layers. Due to the hardness of the material, no mixed phase occurs between the substrate and the applied layer (no interlayer formation). In addition, the thickness of the applied layer can be estimated with the help of the silicon sample.
The deposition of the layer was realized by radio frequency plasma enhanced chemical vapor deposition (RF-PECVD). For the coating the samples were pre-treated with an oxygen plasma. Acetylene was used as precursor gas for the plasma coating. Coatings with increasing thickness in 50 nm steps from 0-500 nm were realised.
The surface analysis was performed using several techniques: The morphology and layer stability were analyzed with scanning electron microscopy (SEM) measurements. The wettability was determined by contact angle technique. In addition, the contact angles provide macroscopic information about the bond types of the carbon atoms present on the surface. For microscopic analysis of the chemical composition of the sample and layer surfaces, diffuse reflectance Fourier transform infrared spectroscopy (DRIFT) as well as synchrotron based X-ray photon spectroscopy (XPS) and near edge X-ray absorption fine structure spectroscopy (NEXAFS) were used.
All coated polymers showed several cases of layer failure due to internal stress in the layers. However, these were at different layer thicknesses, so there was a substrate effect. In addition, it is visible in the SEM images that the coatings of PLA and PHB can cause the applied layer to wave, the so-called cord buckling. This does not occur with polymer PBAT, which indicates a possible better bonding of the layer to the polymer. The chemical analyses of the layer surfaces show for each material a layer thickness dependent ratio of sp² to sp³ bonds of carbon, which alternately dominate the layer. In all polymers, the sp³ bond initially dominates, but the sp² to sp³ ratio changes at different intervals. Although the polymers were coated in the same plasma, i.e. the respective layer thicknesses (50 nm, 100 nm, ...) were applied in the same plasma process, the respective systems differed considerably from each other. A substrate effect is therefore demonstrably present. In addition, it was found that a change in the dominant bond from sp³ to sp² is an indication ofan upcoming layer failure of the a-C:H layer deposited on the polymer. In the case of PLA, this occurs immediately with change to sp² as the dominant bond; in the case of PHB and PBAT, this occurs with different delay to increased layer thicknesses (at PHB 100 nm, at PBAT approx. 200 nm.
Overall, this thesis shows that there is a substrate effect in the coating of the biodegradable polymers PLA, PHB and PBAT, since despite the same coating there is a different chemical composition of the surface at the respective layer thicknesses. In addition, a layer failure can be predicted by analyzing the existing bond.
Nandi forests (South and North Nandi forests) are situated in the Rift Valley Province of Kenya very close to Kakamega forest. From previous documents it has been seen that Kakamega and Nandi forests were connected to each other forming one big "U" shaped forest block till the beginnings of 1900s. Due to human pressures, currently there are three different forests form the previous one block forest. Although they were one forest, information on Nandi forests is very scanty when it is compared to that of Kakamega forest. The species composition and diversity as well as plant communities and population structure of Nandi forests have not been studied. Information is not available about the similarity status of South and North Nandi forests. Furthermore the natural regeneration potential (seedling bank) of these forests is not well studied and documented. Hence this study aims to fill these gaps.
In this study totally 76 quadrates (49 from South Nandi and 27 from North Nandi) were used to collect data. In the South Nandi forests 27 of the quadrates were laid in the better side of the forest (at Kobujoi) and the remaining 22 were in the heavily disturbed part of this forest (Bonjoge). The quadrates were arranged on transects that have one to one and half km which were parallel to the slope. The distance between the quadrates was 100 meter and transects are 500 m apart. The size of the main quadrate was 400 m2 (20 X 20 m) which also had five small plots (3 X 3 m) distributed on the four corners and in the center. Each woody plants (climbers, shrubs and trees) having more than one meter and greater than two centimeter diameter at breast height (dbh) were measured and recorded. Seedlings and herbaceous plants were sampled in the smaller plots. Individual plants were identified at species level and when it was not possible to identify in the field voucher specimen were prepared and latter identified at the East African Herbarium, National Museum of Kenya, and Nairobi. Clustering and ordination were performed using PC-ORD and CANOCO ecological softwares, respectively. For both clustering and ordination abundance data of the species was used. Shannon diversity index and evenness were computed using PC-ORD while similarity indices, Fisher alpha, rarefaction, species richness estimation (nonparametric species richness estimators) were conducted using EstimateS. Indicator species analysis was undertaken using PC-ORD. Basal area and height class distribution at forests level or site level (Bonjoge and Kobujoi) and diameter (dbh) class distribution for selected trees species were performed to evaluate population structure.
Furthermore importance value (IV) of woody plant species was calculated. SPSS version 16 was used to undertake both parametric (when data assume normal distribution) and nonparametric (when data are not assuming normal distribution) comparison of means, correlation and regression analysis.
In this study totally 321 vascular plant species comprising 92 families and 243 genera were identified in Nandi forests (both South and North Nandi forests). In South Nandi forest 253 plant species form 82 families and 201 genera were recorded while in North Nandi 181 species comprising 67 families and 155 genera were recorded. Jackknife second order estimators gave the highest species richness estimate for both South and North Nandi forests i.e. 284 and 209, respectively. In the case of highly disturbed and less disturbed parts of South Nandi forest 138 and 172 vascular plant species were recorded, respectively. Asteraceae, Rubiaceae and Euphorbiaceae are the top three species rich families of Nandi forests. In terms of different diversity measures (i.e. alpha and beta diversity, Fisher alpha, Shannon diversity and evenness indices) South Nandi is more diverse than North Nandi forest. Sörensen and Jaccard (classic) as well as their respective abundance based similarities showed that there is a low species similarity between South and Nandi forests. The cluster analysis resulted in three different plant communities and this result is supported by the ordination result.
South and North Nandi forest has inverted "J" height class distribution showing that larger proportion of woody plant individuals are found in the lower height classes. Similar pattern is observed when the diameters of all woody plants were considered together. However, different diameter class distributions (seven types) were identified when selected tree species were analyzed separately. It has been observed that the basal area of South Nandi forest is significantly lower than that of North Nandi forest (Mann-Whitney U =358, p < 0.001). Similarly Bonjoge has significantly lower basal area (t-value=3.77, p<0.01) than that of Kobujoi. Number of woody plat seedlings in South Nandi forest is significantly higher than that of North Nandi (Mann-Whitney U = 362.5, p<0.001). In the same way Bonjoge has significantly smaller number of ssedlings than Kobujoi (t-value 4.24, p<0.001). Most of species in both forests are able to resprout from stumps after physical damage; hence this helps the regeneration of the forests in addition to seedling banks. This study enables to fill some of the information gaps about Nandi forests especially of floristic composition, population structure, natural regeneration and human impacts on this ecosystem.
Die Verwendung physiologischer Indikatoren, welche die Reaktion von Organismen auf Veränderungen ihrer Umwelt widerspiegeln, bietet ein großes Potenzial für ökologische Studien. Durch die Analyse des physiologischen Zustandes von Organismen ermöglichen diese Indikatoren eine schnellere Erfassung von Veränderungen in aquatischen Ökosystemen als es durch die Betrachtung ökologischer Indikatoren, wie z. B. der Struktur der Benthosgemeinschaft oder des Reproduktionserfolges einzelner Arten, möglich ist. Dieser Zeitvorteil kann sowohl die Effektivität der Habitatbewertung als auch experimenteller Studien in der aquatischen Ökologie erhöhen. In diesem Zusammenhang konzentriert sich die vorliegende Arbeit auf physiologische Messgrößen, wie die Konzentration von Energiespeicherstoffen, den zellulären Energiestatus (Adenylate Energy Charge) oder die Stoffwechselaktivität in vivo, die den energetischen Zustand oder den aktuellen Energieverbrauch von Organismen charakterisieren, sowie auf das RNA:DNA-Verhältnis als Wachstumsindikator. Obwohl diese Indikatoren in der marinen Ökologie, und in jüngerer Zeit auch in der Ökotoxikologie, regelmäßig verwendet werden, haben sie in der limnischen Ökologie bisher wenig Anwendung gefunden. Um die Anwendung physiologischer Indikatoren in diesem Bereich zu verstärken verfolgt die Dissertation zwei Ziele. Zum einen verdeutlicht sie das Potenzial der einzelnen physiologischen Indikatoren, zum anderen stellt sie Grundlagenwissen zu ausgewählten ökophysiologischen Aspekten einheimischer und gebietsfremder Arten der Ordnung Amphipoda bereit, die als Schlüsselarten aquatischer Lebensräume als besonders geeignet für die Bestimmung physiologischer Indikatoren angesehen werden. In diesem Sinne werden in Kapitel 2 sowohl die grundlegenden Annahmen, als auch die theoretischen und methodischen Grundlagen für die Bestimmung physiologischer Indikatoren aufgezeigt und ihre Anwendbarkeit in Fallstudien verdeutlicht. Die durchgeführten Experimentalstudien (Kapitel 3−5) liefern Informationen zu (i) den art- und geschlechtsspezifischen Unterschieden in der saisonalen Variation des energetischen Zustandes natürlicher Gammarus Populationen (G. fossarum, G. pulex), (ii) den Unterschieden in der Stoffwechsel- und Bewegungsaktivität verschiedener Amphipoda-Arten (G. fossarum, G. roeselii und D. villosus), sowie (iii) den direkten Auswirkungen von Ammoniak auf die Physiologie und die Bewegungsaktivität von D. villosus. In Kapitel 6 werden abschließend die grundlegenden Schlussfolgerungen aus den durchgeführten Feld- und Laborstudien, sowie ihre Relevanz und Auswirkungen für die Anwendung physiologischer Indikatoren in der limnischen Ökologie diskutiert.
The physical-biological interactions that affect the temporal variability of benthic oxygen fluxes were investigated to gain improved understanding of the factors that control these processes. This study, for the first time is able to resolve benthic diffusive boundary layer (DBL) dynamics using the newly developed lifetime-based laser induced fluorescence (τLIF) oxygen imaging system, which enables study of the role of small-scale fluid mechanics generated by benthic organism activity, and hence a more detailed analysis of oxygen transport mechanisms across the sediment-water interface (SWI).
The net benthic oxygen flux across the sediment-water interface is controlled by sediment oxygen uptake and oxygen transport. While the oxygen transport is largely influenced by turbulence driven by large-scale flows, sediment oxygen uptake is mainly affected by oxygen production and biological- and chemical-oxygen degradation of organic matter. Both processes can be enhanced by the presence of fauna and are intimately coupled. The benthic oxygen flux can be influenced by fauna in two ways, i.e. by modulating the availability of oxygen, which enhances the sediment oxygen uptake, and by enhancing the transport of oxygen.
In-situ and a series of laboratory measurements were conducted to estimate the short- and seasonal variability of benthic fluxes including the effects of burrow ventilation activity by tube-dwelling animals using eddy correlation (EC) and τLIF oxygen imaging techniques, respectively.
The in-situ benthic oxygen fluxes showed high variability at hourly and seasonal timescales, where statistical analysis indicated that current velocity and water depth were the most significant predictors of benthic oxygen flux at the waterside, which co-varied with the discharge, temperature, and oxygen concentration. The range of variability of seasonal fluxes corresponded to the friction velocities which were driven by large-scale flows. Application of a simplified analytical model that couples the effect of hydrodynamic forcing of the diffusive boundary layer with a temperature-dependent oxygen consumption rate within the sediment showed that friction velocity and temperature cause similar variability of the steady-state benthic oxygen flux.
The application of τLIF oxygen imaging system in bioturbation experiments enabled the investigation and discovery of insights into oxygen transport mechanisms across the sediment-water interface. Distinct oxygen structures above burrow openings were revealed, these were associated with burrow ventilation. The DBL was degraded in the presence of burrow ventilation. Advective transport generated by the energetic plumes released at burrow outlets was the dominant transport driving mechanism. The contribution of diffusive flux to the total estimated decreased with increasing larval density. For a range of larvae densities, commonly observed in ponds and lakes, sediment oxygen uptake rates increased up to 2.5-fold in the presence of tube-dwelling animals, and the oxygen transport rate exceeded chironomid respiration by up to a factor of 4.
The coupled physical-biological factors affecting net benthic oxygen flux can be represented by temperature, which is a prominent factor that accounts for both oxygen transport and sediment oxygen uptake. Low oxygen transport by flow coincided with high summer temperatures, amplified by a reduction of benthic population density and pupation. It can also, however, be offset by increased ventilation activity. In contrast, low temperature coincided with high oxygen concentrations, an abundance of larvae, and higher flow is offset by less burrow ventilation activity. Investigation of the effect of hydrodynamics on oxygen transport alone suggested that the expected increase of benthic oxygen flux under global warming can be offset by a reduction in flow velocity, which could ultimately lead to increasing carbon burial rates, and in a growing importance of anaerobic mineralization pathways with increasing emission rates of methane.
This study suggests a significant contribution of biological induced benthic oxygen flux to physical transport driven by large-scale flow-fields contributing to bottom-boundary layer turbulence.
This thesis examined two specific cases of point and diffuse pollution, pesticides and salinisation, which are two of the most concerning stressors of Germany’s freshwater bodies. The findings of this thesis were organized into three major components, of which the first component presents the contribution of WWTPs to pesticide toxicity (Chapter 2). The second component focuses on the current and future background salt ion concentrations under climate change with the absence of anthropogenic activities (Chapter 3). Finally, the third major component shows the response of invertebrate communities in terms of species turnover to levels of salinity change, considered as a proxy for human-driven salinisation (Chapter 4).
Die Verabschiedung der Europäischen Wasserrahmenrichtlinie (WRRL) in 2000 markierte den Beginn einer neuen Ära in der europäischen Wasserpolitik. Mehr als ein Jahrzehnt später, verfehlt jedoch weiterhin die Mehrheit der europäischen Flüsse den guten ökologischen Zustand, eines der wichtigsten WRRL-Ziele.
Ein bedeutender Belastungsfaktor für Fließgewässerökosysteme sind Pflanzenschutzmittel (PSM). Die vorliegende Doktorarbeit unterstreicht die Notwendigkeit, alle wichtigen land-wirtschaftlichen PSM-Quellen und beeinflussenden Landschaftsfaktoren bei der Erstellung von WRRL-Bewirtschaftungsplänen und Maßnahmenprogrammen zu berücksichtigen. Die Ergebnisse und Empfehlungen dieser Doktorarbeit verbessern das Verständnis für eine zielgerichtete Bekämpfung von PSM-Belastungen zur Erreichung der WRRL-Ziele. Insgesamt wurden 663 Messstellen in den Bundesländern Sachsen, Sachsen-Anhalt, Thüringen und Hessen untersucht (Kapitel 3 und 4). Neben einer Analyse der Makrozoobenthos-Daten aus dem WRRL-Monitoringnetz, erfolgte eine detaillierte GIS-Analyse der wichtigsten landwirtschaftlichen PSM-Quellen (Ackerland, Kleingärten sowie kommunale Abwasserreinigungsanlagen) sowie Landschaftsfaktoren (Gewässerrandstreifen und bewaldete Abschnitte im Oberlauf). Basierend auf den Ergebnissen wurde eine Screening-Methode zur schnellen und kostengünstigen Identifizierung von potenziell mit PSM belasteten Stellen entwickelt. Mit Hilfe des Bioindikators SPEARpesticides konnten insektizide Langzeitwirkungen der Abwässer von Abwasserreinigungsanlagen auf die Struktur der Makrozoobenthos-Gemeinschaft bis in 1,5 km Entfernung flussabwärts (in einigen Fällen sogar 3 km) aufgezeigt werden. Die Ergebnisse für den Deutschen Saprobienindex zeigen zudem, dass Abwasserreinigungsanlagen weiterhin eine bedeutende Quelle für sauerstoffzehrende Substanzen sind. Als geeignete Maßnahmen zur Verminderung der Belastung und der Auswirkungen von PSM wurden Gewässerrandstreifen (mindestens 5 m breit) und bewaldete Oberläufe identifiziert.
Es wird befürchtet, dass die zukünftige Ausdehnung des Energiepflanzenanbaus zu einem Anstieg der diffusen PSM-Belastung von Ökosystemen in Agrarlandschaften führen könnte. Diese Fragestellung wurde im Rahmen der vorliegenden Doktorarbeit basierend auf einer Analyse der Entwicklung des Energiepflanzenanbaus in Deutschland und anhand einer Literaturrecherche zu mehrjährigen Energiepflanzen untersucht (Kapitel 5). Die Ergebnisse zeigen, dass eine großflächige Ausdehnung des Energiepflanzenanbaus nicht unbedingt zu einer Erhöhung oder Verringerung der Menge an PSM, die in die Umwelt gelangen, führen muss. Die potenziellen Auswirkungen hängen vielmehr von der zukünftigen Ausgestaltung der Agrarsysteme ab. Anstelle des Anbaus von einjährigen Energiepflanzen in Monokulturen, sollten diese in die bereits vorhandenen Nahrungsmittelanbausysteme integriert werden. Zudem könnten finanzielle Anreize sowie eine verstärkte Aus- und Fortbildung der Bauern dazu beitragen, die Nutzung von nachhaltigen Fruchtfolgen, innovativen Anbausystemen und mehrjährigen Energiepflanzen zu erhöhen. Dies würde die Vielfalt der Feldfrüchte erhöhen und könnte helfen, den PSM-Bedarf der bisherigen intensiven Nahrungsmittelanbausysteme zu verringern.
Die Biodiversität von Vertebraten nimmt weltweit rapide ab, wobei Amphibien die am stärksten gefährdete Wirbeltiergruppe darstellen. In der EU sind 21 von 89 Amphibienarten bedroht. Die intensiv genutzte europäische Agrarlandschaft ist eine der Hauptursachen für diese Rückgänge. Da die Agrarlandschaft einen bedeutenden Lebensraum für Amphibien darstellt, kann die Exposition zu Pestiziden negative Auswirkungen auf Amphibienpopulationen haben. Derzeit erfordert die europäischen Risikobewertung von Pestiziden für Vertebraten spezifische Ansätze für Fische hinsichtlich der aquatischen Vertebratentoxizität und für Vögel sowie Säugetiere in Bezug auf die terrestrische Vertebratentoxizität. Die besonderen Eigenschaften von Amphibien werden jedoch nicht berücksichtigt. Daher war das übergeordnete Ziel dieser Arbeit, die
ökotoxikologischen Effekte von Pestiziden auf mitteleuropäische Froschlurche zu untersuchen. Dazu wurden Effekte auf aquatische und terrestrische Amphibienstadien sowie auf deren Reproduktion untersucht. Anschließend wurden in dieser Arbeit in Erwartung einer Risikobewertung von Pestiziden für Amphibien mögliche regulatorische Risikobewertungsansätze diskutiert.
Für die untersuchten Pestizide und Amphibienarten wurde festgestellt, dass die akute aquatische Toxizität von Pestiziden mit dem bestehenden Ansatz der aquatischen Risikobewertung auf der Grundlage von Fischtoxizitätsdaten abgedeckt werden kann. Jedoch wurden bei terrestrischen Juvenilen nach dermaler Exposition zu umweltrealistischen Pestizidkonzentrationen sowohl letale als auch subletale Effekte beobachtet, die mit keinem verfügbaren Risikobewertungsansatz erfasst werden können. Daher sollten Pestizide vor der Zulassung auch auf eine potenzielle terrestrische Toxizität mit Hilfe von Risikobewertungsinstrumenten geprüft werden. Darüber hinaus müssen die Auswirkungen von Bei- und Hilfsstoffen von Pestiziden bei einer zukünftigen Risikobewertung besonders berücksichtigt werden, da sie die Toxizität von Pestiziden gegenüber aquatischen und terrestrischen Amphibienstadien erhöhen können.
Des Weiteren wurde gezeigt, dass die chronische Dauer einer kombinierten aquatischen und terrestrischen Exposition die Reproduktion von Amphibien negativ beeinflusst. Gegenwärtig
können solche Effekte von der bestehenden Risikobewertung nicht erfasst werden, da Daten aus Feldszenarien, die die Auswirkungen mehrerer Pestizide auf die Reproduktion von Amphibien abbilden, zu selten sind, um einen Vergleich mit Daten anderer terrestrischer Wirbeltiere wie Vögel und Säugetiere zu ermöglichen. In Anbetracht dieser Erkenntnisse sollten sich zukünftige Untersuchungen nicht nur mit akuten und letalen Effekten, sondern auch mit chronischen und subletalen Effekten auf Populationsebene befassen. Da sich die Exposition gegenüber Pestiziden negativ auf Amphibienpopulationen auswirken kann, sollte ihr Einsatz noch sorgfältiger überlegt werden, um einen weiteren Rückgang der Amphibien zu vermeiden. Insgesamt unterstreicht diese Arbeit die dringende Notwendigkeit einer protektiven Pestizidrisikobewertung für Amphibien, um Amphibienpopulationen in Agrarlandschaften zu erhalten und zu fördern.
Kleine Bäche umfassen den größten Teil der Fließstrecke und des Einzugsgebiets in Gewässernetzen. Sie sind eng mit ihrem Einzugsgebiet verbunden und reagieren empfindlich auf Änderungen des Wasserhaushalts und der Landnutzung. Trotz ihrer geringen wirtschaftlichen Bedeutung sind diese Bäche entscheidend für den ökologischen und chemischen Zustand größerer Gewässer. Obwohl zahlreiche Studien die Auswirkungen anthropogener Stressoren oder Umweltveränderungen untersuchen, mangelt es am Verständnis der natürlichen Bedingungen und Prozesse, welche jedoch die Reaktion eines Baches auf anthropogene oder klimatische Veränderungen entscheidend beeinflussen. Eine der größten Bedrohungen für aquatische Ökosysteme ist der übermäßige anthropogene Eintrag von Nährstoffen. Nährstoffe steuern Nahrungsnetze in erster Linie über die Primärproduzenten und ihre Konsumenten, in kleinen Bächen Periphyton und Grazer. Die Periphyton-Grazer-Interaktion ist der Hauptpfad der autochthonen Produktion in das Nahrungsnetz, und die Stärke dieser Interaktion bestimmt weitgehend die ökologischen Auswirkungen von Nährstoff-einträgen. Daher zielt diese Arbeit darauf ab, wichtige biologische Prozesse der Periphyton-Grazer-Interaktionen zu beleuchten. Ich untersuchte verschiedene Aspekte der Periphyton-Grazer-Interaktionen anhand von Laborexperimenten mit Fokus auf methodischen Fragen und einer Feldstudie, in der ich die benthischen Gemeinschaften drei morphologisch ähnlicher, Phosphor limitierter, natürlicher kleiner Bächen verglich. Mit dem Laborexperiment zur Periphyton-Wachstumsrate konnte ich zeigen, dass das RNA/DNA-Verhältnis von Periphyton als Proxy für dessen Wachstumsrate in kontrollierten Experimenten verwendet und somit dieser wichtigen Prozesses in ökotoxikologische oder ökologische Experimente einbezogen werden kann. Des Weiteren konnte ich zeigen, dass die Fettsäurezusammensetzung von Eintagsfliegen-larven auf Veränderungen der in der Nahrung enthaltenen Fettsäuren innerhalb von zwei Wochen reagiert. Diese schnelle Anpassung der Fettsäurezusammensetzung der Konsumenten zeigt, dass selbst kurzfristige Änderungen der verfügbaren Primärproduzenten wichtige Auswirkungen auf die Versorgung höherer trophischer Ebenen mit physiologisch wichtigen mehrfach ungesättigten Fettsäuren haben. Mit den Ergebnissen der Feldstudie habe ich Lücken im Verständnis der Zusammenhänge zwischen der Phosphorverfügbarkeit im Einzugsgebiet und im Bach unter naturnahen Bedingungen aufgedeckt und gezeigt, dass scheinbar vergleichbare Bäche signifikant unterschiedliche benthische Gemeinschaften aufweisen. Diese Unterschiede wirken sich höchstwahrscheinlich auf die Reaktion der Bäche auf zukünftige Änderungen aus.
In a world where language defines the boundaries of one's understanding, the words of Austrian philosopher Ludwig Wittgenstein resonate profoundly. Wittgenstein's assertion that "Die Grenzen meine Sprache bedeuten die Grenzen meiner Welt" (Wittgenstein 2016: v. 5.6) underscores the vital role of language in shaping our perceptions. Today, in a globalized and interconnected society, fluency in foreign languages is indispensable for individual success. Education must break down these linguistic barriers, and one promising approach is the integration of foreign languages into content subjects.
Teaching content subjects in a foreign language, a practice known as Content Language Integrated Learning (CLIL), not only enhances language skills but also cultivates cognitive abilities and intercultural competence. This approach expands horizons and aligns with the core principles of European education (Leaton Gray, Scott & Mehisto 2018: 50). The Kultusministerkonferenz (KMK) recognizes the benefits of CLIL and encourages its implementation in German schools (cf. KMK 2013a).
With the rising popularity of CLIL, textbooks in foreign languages have become widely available, simplifying teaching. However, the appropriateness of the language used in these materials remains an unanswered question. If textbooks impose excessive linguistic demands, they may inadvertently limit students' development and contradict the goal of CLIL.
This thesis focuses on addressing this issue by systematically analyzing language requirements in CLIL teaching materials, emphasizing receptive and productive skills in various subjects based on the Common European Framework of Reference. The aim is to identify a sequence of subjects that facilitates students' language skill development throughout their school years. Such a sequence would enable teachers to harness the full potential of CLIL, fostering a bidirectional approach where content subjects facilitate language learning.
While research on CLIL is extensive, studies on language requirements for bilingual students are limited. This thesis seeks to bridge this gap by presenting findings for History, Geography, Biology, and Mathematics, allowing for a comprehensive understanding of language demands. This research endeavors to enrich the field of bilingual education and CLIL, ultimately benefiting the academic success of students in an interconnected world.
Bei einigen Arzneimittel (z.B. Antibiotika, Kontrastmittel, Betablocker) wird ein Teil des Wirkstoffs unmetabolisiert ausgeschieden und gelangt so über das Abwasser in kommunale Kläranlagen. Studien haben gezeigt, dass viele dieser Wirkstoffe durch eine konventionelle Abwasserbehandlung nicht effektiv abgebaut werden und somit in Oberflächengewässern nachweisbar sind. Eines der effektivsten Verfahren zur Entfernung organischer Mikroverunreinigungen und Mikroorganismen ist die Umkehrosmose. Ein bedeutender Nachteil dieses Verfahrens ist die Entsorgung der anfallenden Konzentrate, die erhöhte Konzentrationen von Mikroverunreinigungen und Mikroorganismen enthalten können. Dabei ist nicht auszuschließen, dass eine direkte Einleitung dieser Konzentrate das Ökosystem eines Gewässers schädigt. Um dieses Risiko zu minimieren, wäre eine gesonderte Behandlung des Konzentrats vor der Einleitung sinnvoll. In der hier vorliegenden Arbeit wurde die Ozonung als mögliches Oxidationsverfahren untersucht. Die untersuchten Konzentratproben stammen aus einer Kläranlage, in der der Ablauf nach Umkehrosmosebehandlung in das Grundwasser infiltriert wird. Durch die Untersuchungen konnte gezeigt werden, dass durch die angewendeten Ozondosen die ausgewählten Arzneistoffe weitgehend oxidiert wurden, obwohl das Umkehrosmosekonzentrat einen sehr hohen TOC "Gehaltes von bis zu 46 mg/L aufwies. Zur Vorbeugung von Membranfouling wird Membrananlagenzuläufen, in diesem Fall dem Kläranlagenablauf, häufig Chlor zugesetzt. Eine Vergleichsstudie mit vorchlorierten und nicht vorchlorierten Kläranlagenabläufen zeigte einen Anstieg der Ozonstabilität nach der Chlorierung. Daraus resultierte aber auch eine Abnahme an OH-Radikalen. Die höhere Ozonstabilität könnte dazu führen, dass über eine direkte Ozonreaktion die Oxidation von Stoffen mit einer höheren Geschwindigkeitskonstante zweiter Ordnung bevorzugt würde. Der Abbau der Stoffe, die hauptsächlich über OH-Radikale oxidiert werden, würde dann gleichzeitig herabgesetzt. Für die Wirkstoffgruppe der Betablocker, die permanent in Kläranlagenabläufen nachweisbar ist, wurden die Geschwindigkeitskonstanten mit Ozon- sowie OH-Radikalen ermittelt. Untersucht wurden Acebutolol, Atenolol, Metoprolol und Propranolol. Betablocker enthalten zwei funktionelle Gruppen, die reaktiv gegenüber Ozon sind, zum einen ein sekundäres Amin und zum anderen einen aktivierten aromatischen Ring. Die Amingruppe ist dafür verantwortlich, dass die Geschwindigkeit der Ozonreaktion pH-Wert abhängig ist, da nur das deprotonierte Amin schnell mit Ozon reagieren kann. Die Geschwindigkeitskonstante für die Reaktion von Acebutolol, Atenolol and Metoprolol mit Ozon liegt bei etwa 2000 M-1 s-1, wo hingegen Propranolol mit ~1.0 105 M-1 s-1 etwa zwei Größenordnungen schneller reagiert. Die Konstanten für die Reaktionen mit OH-Radikalen liegen bei 0.5-1.0 × 1010 M-1 s-1. Die während der Ozonreaktion von Metoprolol und Propranolol gebildeten Oxidationsprodukte (OPs) wurden über HPLC-Tandem-MS identifiziert. Die Ozonreaktionen führten zur Bildung 23 OPs im Fall des Metoprolols und etwa 30 OPs beim Propranolol. Um die Auswirkung des pH-Wertes sowie der OH-Radikalreaktion auf die OP-Bildung zu untersuchen, wurden die Experimente bei pH 3 und 8, sowie mit und ohne Zugabe des Radikalfängers tert-Butanol durchgeführt. Die Menge der gebildeten OH-Radikale wurde durch den Zusatz von para-Chlorbenzoesäure ermittelt. Metoprolol: Der Einfluss des protonierten und des nicht protonierten Metoprolols auf die Menge der gebildeten OH-Radikale wurde über einen Vergleich der gemessenen para-Chlorbenzoesäureabnahme mit modellierten Werten ermittelt (Model: Acuchem). Es lassen sich dabei bessere Übereinstimmungen erzielen, wenn die Modelannahmen bei der primären Ozonreaktion des nicht protonierten Moleküls auf einer stöichiometrischen Bildung eines OH-Radikalvorproduktes (•O2-) basieren. Die Modellierung der Reaktion der protonierten Spezies unterstützt ebenfalls die These der Bildung des Vorproduktes •O2-, allerdings in unterstöichiometrischer Menge. Die Untersuchung eines Abwassers und eines Kläranlagenablaufs, die mit 10 μmol/L Metoprolol versetzt wurden, zeigte eine OP-Bildung ähnlich der bei pH 8 ohne Radikalfängerzugabe. Dies deutet auf einen signifikanten Einfluss der OH-Radikalreaktion für die Bildung der OP in realer Abwassermatrix hin. Propranolol: Das primäre OP der Ozonreaktion des Propranolols (OP-291) wird über einen Angriff am Naphthalenring gebildet, der zu einer Ringöffnung und der Bildung zweier Aldehydfunktionen führt. OP-291 wird vermutlich über eine OH-Radikalreaktion weiter zu OP-307 oxidiert, welches anschließend zu OP-281 weitereagiert. Durch die mittels Massenspektrometrie identifizierten chemischen Strukturen der OPs, können die vorgeschlagenen Bildungsreaktionen sowohl über direkte Ozonreaktion als auch über OH-Radikalreaktion bestätigt werden. Als Fazit kann festgestellt werden, dass eine Ozonung eines Kläranlagenablaufes zu der Bildung einer Vielzahl von OPs führt, die alle ein unbekanntes toxikologisches Potential haben (z.B. Bildung von Aldehydfunktionen).
Hintergrund: Veränderte gesetzliche Rahmenbedingungen in der stationären Altenhilfe, die demografische Entwicklung mit dem steigenden Bedarf an Pflegekräften einerseits und die Tatsache, dass immer weniger Menschen aufgrund des Images des Berufes und der Arbeitsbedingungen in der Pflege tätig sein wollen andererseits, machen es notwendig neue Wege zu suchen. Die Träger im Sozial- und Gesundheitswesen sind gefordert, Konzepte zu entwickeln, die ihre Wirtschaftlichkeit sichern, gleichzeitig aber auch den Belastungen und der Unzufriedenheit von Mitarbeitenden entgegenwirken. Es braucht Gestaltungsräume, um Lösungen im Konflikt zwischen Anspruch und Machbarkeit zu finden und so dem alltäglichen Stress, der Mitarbeiterfluktuation und dem drohenden Leistungsabfall entgegenzuwirken. Durch das Praxisprojekt eines sozial-karitativen Trägers zur Implementierung einer ´Konstruktiven Konfliktkultur´ in einer stationären Altenhilfeeinrichtung sollte eine Organisationskultur geschaffen werden, in der Konflikte offen angesprochen werden, eine Offenheit für Veränderungsprozesse entsteht, Belastungen reduziert und die Mitarbeitenden an die Organisation gebunden werden. Dazu wurden drei pädagogische Interventionen entwickelt, durch die die Mitarbeitenden und die Führungskräfte in ihrer Konfliktfähigkeit geschult werden sollten. Methode: Die wissenschaftliche Begleitung dieses Praxisprojektes fand als Evaluationsstudie statt. Zu drei Erhebungszeitpunkten wurde eine repräsentative Mitarbeitergruppe dieser Einrichtung zu den Themen Konflikterleben, Führungsverhalten, Macht/ Regeln und Veränderungen durch qualitative Leitfadeninterviews befragt. Die Auswertung und Analyse der Daten erfolgte im Sinne der qualitativen Inhaltsanalyse nach Mayring und floss ein in eine formative Prozessevaluation der einzelnen Interventionen und einer summativen Effektevaluation zu Bewertung der Zielerreichung des Projektes. Ergebnis: Die einzelnen Interventionen des Projektes konnten nicht dazu beitragen, dass eine ´Konstruktiven Konfliktkultur´ nachhaltig entwickelt werden konnte. Zwar gab es in der Bewusstseinsspanne des Projektes einen expliziten Wissensgewinn, jedoch mehr bei den Führungskräften als bei den Mitarbeitenden. Die Führungskräfte sahen im Projekt einen Gewinn, für einen Teil der Mitarbeitenden war es sogar Zeitverschwendung. Anhand der Ergebnisse lassen sich drei Merkmale herauskristallisieren, die kennzeichnend sind für die zugrundeliegenden Denk-, Urteils-, und Handlungsstrukturen in sozialen Organisationen im Umgang mit Konflikten: Konflikte sind nicht wahrnehmbare Konstrukte der Alltagswelt. Sie manifestieren sich aufgrund fehlender Legitimation in Überforderung und eine ´Konstruktiven Konfliktkultur´ kann nicht auf das Wissen Einzelner aufbauen, sondern benötigt verbindliche Handlungsstrukturen für alle Organisationsmitglieder gleichermaßen. Ergebnisinterpretation: Durch die Einbeziehung wissenssoziologischer und konfliktsoziologischer Theorien und deren Einordnung in Institutionen – und Organisationstheorien konnten die Ergebnisse diskutiert und neue Erkenntnisse über Konflikte in Organisationen, die sich in drei Spannungsfeldern zeigen, gewonnen werden. Die Spannungsfelder bewegen sich zwischen dem Konflikt als nicht-wahrnehmbarem Alltagsphänomen auf der einen Seite und einer manifestierten Belastung auf der anderen Seite, dem Gewohnheitswissen im alltäglichen Umgang einerseits und einem fehlenden Handlungswissen andererseits, einer funktional-positiven Sicht hier und einer dysfunktional-negativen Sicht dort. Anhand dieser Spannungsfelder kann die Konfliktmentalität und ihre Entstehung und auch die Möglichkeit ihrer Veränderbarkeit reflektiert und können Erfolgsfaktoren für die Implementierung einer ´Konstruktiven Konfliktkultur´ entwickelt werden.
Schlussfolgerung: Wissen, Legitimation und Institutionalisierung und die Stärkung der Wahrnehmungen sind der Schlüssel für die Veränderung der Konfliktmentalität in sozialen Organisationen. Nachhaltigkeit erhält die Thematik aber erst, wenn alle Organisationsmitglieder eine gewisse Handlungsnotwendigkeit für sich erkennen. Aktuell steht die Organisationsentwicklung für den expliziten Veränderungswillen von Management, der jedoch auf ein gewisses Beharrungsvermögen von Mitarbeitenden trifft.
Fresh water resources like rivers and reservoirs are exposed to a drastically changing world. In order to safeguard these lentic ecosystems, they need stronger protection in times of global change and population growth. In the last years, the exploitation pressure on drinking water reservoirs has increased steadily worldwide. Besides securing the demands of safe drinking water supply, international laws especially in Europe (EU Water Framework Directive) stipulate to minimize the impact of dams on downstream rivers. In this study we investigate the potential of a smart withdrawal strategy at Grosse Dhuenn Reservoir to improve the temperature and discharge regime downstream without jeopardizing drinking water production. Our aim is to improve the existing withdrawal strategy for operating the reservoir in a sustainable way in terms of water quality and quantity. First, we set-up and calibrated a 1D numerical model for Grosse Dhuenn Reservoir with the open-source community model “General Lake Model” (GLM) together with its water quality module “Aquatic Ecodynamics” library (AED2). The reservoir model reproduced water temperatures and hypolimnetic dissolved oxygen concentrations accurately over a 5 year period. Second, we extended the model source code with a selective withdrawal functionality (adaptive offtake) and added operational rules for a realistic reservoir management. Now the model is able to autonomously determine the best withdrawal height according to the temperature and flow requirements of the downstream river and the raw water quality objectives. Criteria for the determination of the withdrawal regime are selective withdrawal, development of stratification and oxygen content in the deep hypolimnion. This functionality is not available in current reservoir models, where withdrawal heights are generally provided a priori to the model and kept fixed during the simulation. Third, we ran scenario simulations identifying an improved reservoir withdrawal strategy to balance the demands for downstream river and raw water supply. Therefore we aimed at finding an optimal parallel withdrawal ratio between cold hypolimnetic water and warm epilimnetic or metalimnetic water in order to provide a pre-defined temperature in the downstream river. The reservoir model and the proposed withdrawal strategy provide a simple and efficient tool to optimize reservoir management in a multi-objective view for mastering future reservoir management challenges.
The decline of biodiversity can be observed worldwide and its consequences are alarming. It is therefore crucial that nature must be protected and, where possible, restored. A wide variety of different project options are possible. Yet in the context of limited availability of resources, the selection of the most efficient measures is increasingly important. For this purpose, there is still a lack of information. This pertains, as outlined in the next paragraph, in particular, to information at different scales of projects.
Firstly, there is a lack of information on the concrete added value of biodiversity protection projects. Secondly, there is a lack of information on the actual impacts of such projects and on the costs and benefits associated with a project. Finally, there is a lack of information on the links between the design of a project, the associated framework conditions and the perception of specific impacts. This paper addresses this knowledge gap by providing more information on the three scales by means of three empirical studies on three different biodiversity protection projects in order to help optimize future projects.
The first study “Assessing the trade-offs in more nature-friendly mosquito control in the Upper Rhine region” examines the added value of a more nature-friendly mosquito control in the Upper Rhine Valley of Germany using a contingent valuation method. Recent studies show that the widely used biocide Bti, which is used as the main mosquito control agent in many parts of the world, has more negative effects on nature than previously expected. However, it is not yet clear whether the population supports a more nature-friendly mosquito control, as such an adaptation could potentially lead to higher nuisance. This study attempts to answer this question by assessing the willingness to pay for an adapted mosquito control strategy that reduces the use of Bti, while maintaining nuisance protection within settlements. The results show that the majority of the surveyed population attaches a high value to a more nature-friendly mosquito control and is willing to accept a higher nuisance outside of the villages.
The second study “Inner city river restoration projects: the role of project components for acceptance” examines the acceptance of a river restoration project in Rhineland-Palatinate, Germany. Despite much effort, many rivers worldwide are still in poor condition. Therefore, a rapid implementation of river restoration projects is of great importance. In this context, acceptance by society plays a fundamental role, however, the factors determining such acceptance are still poorly understood. In particular, the complex interplay between the acceptance or rejection of specific project components and the acceptance of the overall project require further exploration. This study addresses this knowledge gap by assessing the acceptance of the project, its various ecological and social components, and the perception of real and fictitious costs as well as the benefits of the components. Our findings demonstrate that while acceptance of the overall project is generally rather high, many respondents reject one or more of the project's components. Complementary social project components, like a playground, find less support than purely ecological components. Overall, our research shows that complementary components may increase or decrease acceptance of the overall project. We, furthermore, found that differences in the acceptance of the individual components depend on individual concerns, such as perceived flood risk, construction costs, expected noise and littering as well as the quality of communication, attachment to the site, and the age of the respondents.
The third study “What determines preferences for semi-natural habitats in agrarian landscapes? A choice-modelling approach across two countries using attributes characterizing vegetation” investigates people's aesthetic preferences for semi-natural habitats in agricultural landscapes. The EU-Common Agricultural Policy promotes the introduction of woody and grassy semi-natural habitats (SNH) in agricultural landscapes. While the benefits of these structures in terms of regulating ecosystem services are already well understood, the effects of SNH on visual landscape quality is still not clear. This study investigates the factors determining people’s visual preferences in the context of grassy and woody SNH elements in Swiss and Hungarian landscapes using picture-based choice experiments. The results suggest that respondents’ choices strongly depend on specific vegetation characteristics that appear and disappear over the year. In particular, flowers as a source of colours and green vegetation as well as ordered structure and the proportion of uncovered soil in the picture play an important role regarding respondents’ aesthetic perceptions of the pictures.
The three empirical studies can help to make future projects in the study areas of biodiversity protection more efficient. While this thesis highlights the importance of exploring biodiversity protection projects at different scales, further analyses of the different scales of biodiversity protection projects are needed to provide a sound basis to develop guidance on identifying the most efficient biodiversity protection projects.
Die Umsetzung einer flexiblen Integration von Informationen aus verteilten und komplexen Informationssystemen stellt Unternehmen aktuell vor große Herausforderungen. Das im Rahmen dieser Dissertation entwickelte Ontologie-basierte Informationsintegrationskonzept SoNBO (Social Network of Business Objects) adressiert diese Herausforderungen. Bei einem Ontologie-basierten Konzept werden die Daten in den zu integrierenden Quellsystemen (z. B. betriebliche Anwendungssysteme) mithilfe eines Schemas (= Ontologie) beschrieben. Die Ontologie in Verbindung mit den Daten aus den Quellsystemen ergibt dann einen (virtualisierten oder materialisierten) Knowledge Graph, welcher für den Informationszugriff verwendet wird. Durch den Einsatz eines Schemas ist dieses flexibel auf die sich ändernden Bedürfnisse des Unternehmens bezüglich einer Informationsintegration anpassbar. SoNBO unterscheidet sich von existierenden Konzepten aus dem Semantic Web (OBDA = Ontology-based Data Access, EKG = Enterprise Knowledge Graph) sowohl im Aufbau der unternehmensspezifischen Ontologie (= Social Network of Concepts) als auch im Aufbau des nutzerspezifischen Knowledge Graphen (= Social Network of Business Objects) unter der Verwendung von sozialen Prinzipien (bekannt aus Enterprise Social Software). Aufbauend auf diesem SoNBO-Konzept wird das im Rahmen dieser Dissertation entwickelte SoNBO-Framework (nach Design Science Research) zur Einführung von SoNBO in einem beliebigen Unternehmen und die aus der Evaluation (im Unternehmen KOSMOS Verlag) gewonnenen Erkenntnisse vorgestellt. Die Ergebnisse (SoNBO-Konzept und SoNBO-Framework) basieren auf der Synthese der Erkenntnisse zu Ontologie-basierter Informationsintegration aus dem Status quo in Praxis und Wissenschaft: Für den Status quo in der Praxis wird mithilfe einer Tiefenfallstudie (Ingenieurbüro Vössing) die grundlegende Idee zu SoNBO in Form einer vom Fallstudienunternehmen entwickelten und dort seit Jahren eingesetzten Individualsoftware analysiert. Für den Status quo in der Wissenschaft wird das Ergebnis einer im Rahmen der Dissertation durchgeführten strukturierten Literaturanalyse zu Ontologie-basierten Informationsintegrationsansätzen präsentiert. Diese Dissertation liefert damit einen Beitrag sowohl für die Wissenschaft (Erkenntnisgewinn im Bereich der Ontologie-basierten Informationsintegrationsansätze für die Wirtschaftsinformatik u. a. durch die Entwicklung eines evaluierten Artefaktes) als auch für die Praxis (Schaffung eines evaluierten Artefaktes).
Das Stereotype Content Modell (SCM, Fiske et al., 2002) schlägt zwei fundamentale Dimensionen der sozialen Wahrnehmung vor: Wärme, also die freundliche oder feindliche Intention des Bewertungsobjekts, und Kompetenz, also die Fähigkeit, besagte Intentionen in die Tat umzusetzen. Die praktischen Anwendungen des SCMs sind sehr weitreichend und haben zu der Annahme geführt, Wärme und Kompetenz seien universelle Dimensionen der sozialen Bewertung.
Die vorliegende Doktorarbeit hat fünf vor allem methodologische Schwächen der SCM- Forschung und -Literatur identifiziert: (I) Eine unzureichende anfängliche Skalenentwicklung; (II) die Nutzung variierender Skalen ohne hinreichende Prüfung der Skalenperformanz in der anschließenden SCM-Forschung; (III) die vorherrschende Nutzung von Analysemethoden der ersten Generation; (IV) die unzureichende Definition und empirische Testung der Universalitätsannahme des SCM; (V) die eingeschränkte Anwendung des SCM in Bezug auf einige soziale Gruppen. Diese Schwächen wurden in vier wissenschaftlichen Artikelmanuskripten aufgegriffen, welche allesamt streng den Empfehlungen der offenen Wissenschaft folgten.
Manuskript # 1 nutzte veröffentlichte Daten von englischen SCM-Skalen, um die Mess-Eigenschaften der genutzten Wärme- und Kompetenz-Skalen zu reanalysieren. Das Manuskript berichtet die Skalenreliabilität, -Dimensionalität und Vergleichbarkeit der Skalen über verschiedene Bewertungsobjekte hinweg sowie verschiedene Performanz-Parameter der einzelnen Indikatoren auf im Rahmen einer (Multi-Gruppen-) konfirmatorischen Faktor-Analyse. Die Befunde zeigen, dass zwei Drittel aller reanalysierten Skalen nicht die theoretisch angenommene Wärme- und Kompetenz-Dimensionalität haben. Weiterhin zeigten nur elf Prozent aller Skalen die Voraussetzungen für aussagekräftige Mittelwertsvergleiche zwischen Bewertungsobjekten. Manuskript # 2 beschreibt eine Replikation von Manuskript # 1 im deutschsprachigen Landes- und Sprachkontext und zeigt nahezu identische Ergebnisse wie Manuskript # 1. Manuskript # 3 untersucht die soziale Wahrnehmung von Subgruppen von Geflüchteten in Deutschland. Wir konnten zeigen, dass die soziale Kategorie der Geflüchteten generell unvorteilhaft in Bezug auf Wärme und Kompetenz wahrgenommen wurde, aber dass die soziale Wahrnehmung der Subgruppen von Geflüchteten sich in Abhängigkeit der geografischen Herkunft, der religiösen Zugehörigkeit und der Fluchtgründe unterschied. Diese Befunde wurden durch die Nutzung eines Reliabilitäts-korrigierenden Verfahrens zum Vergleich von Mittelwerten namens Alignment-Optimierung generiert. Manuskript # 4 entwickelte und testete eine leistungsfähige SCM-Skala zur Erfassung von Stereotypen von Berufsgruppen mittels explorativer und konfirmatorischer Faktorenanalysen.
In dieser Doktorarbeit beschreibe ich das spektrale Verhalten von großen, dynamischen Netzwerken und formuliere das spektrale Evolutionsmodell. Das spektrale Evolutionsmodell beschreibt das Wachstum von Netzwerken, die sich im Laufe der Zeit ändern, und charakterisiert ihre Eigenwert-und Singulärwertzerlegung. Das spektrale Evolutionsmodell sagt aus, dass im Laufe der Zeit die Eigenwerte eines Netzwerks wachsen, und die Eigenvektoren nahezu konstant bleiben. Ich validiere das spektrale Evolutionsmodell empirisch mit Hilfe von über einhundert Netzwerkdatensätzen, und theoretisch indem ich zeige,dass es eine gewisse Anzahl von bekannten Algorithmen zur Kantenvorhersage verallgemeinert, darunter Graph-Kernel, Pfad-Zähl-Methoden, Rangreduktion und Triangle-Closing.
Die Sammlung von Datensätzen, die ich verwende enthält 118 distinkte Datensätze. Ein Datensatz, das soziale Netzwerk mit negativen Kanten des Slashdot-Zoo, wurde speziell während des Verfassens dieser Arbeit extrahiert. Ich zeige auch, dass das spektrale Evolutionsmodell als Generalisierung des Preferential-Attachment-Modells verstanden werden kann, wenn Wachstum in latenten Dimensionen einzeln betrachtet wird. Als Anwendungen des spektralen Evolutionsmodells führe ich zwei neue Algorithmen zur Kantenvorhersage ein, die in Empfehlungssystemen, Suchmaschinen, im Collaborative-Filtering, für die Vorhersage von Bewertungen, für die Vorhersage von Kantenvorzeichen und mehr verwendet werden können. Der erste Kantenvorhersagealgorithmus ergibt ein eindimensionales Curve-Fitting-Problem, aus dem eine spektrale Transformation gelernt wird. Die zweite Methode verwendet Extrapolation von Eigenwerten, um zukünftige Eigenwerte vorherzusagen. Als Spezialfälle zeige ich, dass das spektrale Evolutionsmodell auf gerichtete, ungerichtete, gewichtete, ungewichtete, vorzeichenbehaftete und bipartite Graphen erweitert werden kann. Für vorzeichenbehaftete Graphen führe ich neue Anwendungen der Laplace-Matrix zur Graphzeichnung, zur spektralen Clusteranalyse, und beschreibe neue Laplace-Graph-Kernel, die auf vorzeichenbehaftete Graphen angewendet werden können.
Ich definiere dazu den algebraischen Konflikt, ein Maß für den Konflikt, der in einem vorzeichenbehafteten Graphen vorhanden ist, und das auf der vorzeichenbehafteten Laplace-Matrix begründet ist. Ich beschreibe das Problem der Vorhersage von Kantenvorzeichen spektral, und führe die vorzeichenbehaftete Widerstands-Distanz ein. Für bipartite und gerichtete Graphen führe ich den Sinus-Hyperbolicus-und ungeraden Neumann-Kernel ein, welche den Exponential- und den Neumann-Kernel für ungerichtete unipartite Graphen verallgemeinern. Ich zeige zudem, dass das Problem der gerichteten und bipartiten Kantenvorhersage verwandt sind, dadurch dass beide durch die Evolution der Singulärwertzerlegung gelöst werden können.
On the recognition of human activities and the evaluation of its imitation by robotic systems
(2023)
This thesis addresses the problem of action recognition through the analysis of human motion and the benchmarking of its imitation by robotic systems.
For our action recognition related approaches, we focus on presenting approaches that generalize well across different sensor modalities. We transform multivariate signal streams from various sensors to a common image representation. The action recognition problem on sequential multivariate signal streams can then be reduced to an image classification task for which we utilize recent advances in machine learning. We demonstrate the broad applicability of our approaches formulated as a supervised classification task for action recognition, a semi-supervised classification task for one-shot action recognition, modality fusion and temporal action segmentation.
For action classification, we use an EfficientNet Convolutional Neural Network (CNN) model to classify the image representations of various data modalities. Further, we present approaches for filtering and the fusion of various modalities on a representation level. We extend the approach to be applicable for semi-supervised classification and train a metric-learning model that encodes action similarity. During training, the encoder optimizes the distances in embedding space for self-, positive- and negative-pair similarities. The resulting encoder allows estimating action similarity by calculating distances in embedding space. At training time, no action classes from the test set are used.
Graph Convolutional Network (GCN) generalized the concept of CNNs to non-Euclidean data structures and showed great success for action recognition directly operating on spatio-temporal sequences like skeleton sequences. GCNs have recently shown state-of-the-art performance for skeleton-based action recognition but are currently widely neglected as the foundation for the fusion of various sensor modalities. We propose incorporating additional modalities, like inertial measurements or RGB features, into a skeleton-graph, by proposing fusion on two different dimensionality levels. On a channel dimension, modalities are fused by introducing additional node attributes. On a spatial dimension, additional nodes are incorporated into the skeleton-graph.
Transformer models showed excellent performance in the analysis of sequential data. We formulate the temporal action segmentation task as an object detection task and use a detection transformer model on our proposed motion image representations. Experiments for our action recognition related approaches are executed on large-scale publicly available datasets. Our approaches for action recognition for various modalities, action recognition by fusion of various modalities, and one-shot action recognition demonstrate state-of-the-art results on some datasets.
Finally, we present a hybrid imitation learning benchmark. The benchmark consists of a dataset, metrics, and a simulator integration. The dataset contains RGB-D image sequences of humans performing movements and executing manipulation tasks, as well as the corresponding ground truth. The RGB-D camera is calibrated against a motion-capturing system, and the resulting sequences serve as input for imitation learning approaches. The resulting policy is then executed in the simulated environment on different robots. We propose two metrics to assess the quality of the imitation. The trajectory metric gives insights into how close the execution was to the demonstration. The effect metric describes how close the final state was reached according to the demonstration. The Simitate benchmark can improve the comparability of imitation learning approaches.
In Part I: "The flow-decomposition problem", we introduce and discuss the flow-decomposition problem. Given a flow F, this problem consists of decomposing the flow into a set of paths optimizing specific properties of those paths. We introduce different types of decompositions, such as integer decompositions and alpha-decompositions, and provide two formulations of the set of feasible decompositions.
We show that the problem of minimizing the longest path in a decomposition is NP-hard, even for fractional solutions. Then we develop an algorithm based on column generation which is able to solve the problem.
Tight upper bounds on the optimal objective value help to improve the performance.
To find upper bounds on the optimal solution for the shortest longest path problem, we develop several heuristics and analyze their quality. On pearl graphs we prove a constant approximation ratio of 2 and 3 respectively for all heuristics. A numerical study on random pearl graphs shows that the solutions generated by the heuristics are usually much better than this worst-case bound.
In Part II: "Construction and analysis of evacuation models using flows over time", we consider two optimization models in the context of evacuation planning. The first model is a parameter-based quickest flow model with time-dependent supply values. We give a detailed description of the network construction and of how different scenarios are modeled by scenario parameters. In a second step we analyze the effect of the scenario parameters on the evacuation time. Understanding how the different parameters influence the evacuation time allows us to provide better advice for evacuation planning and allows us to predict evacuation times without solving additional optimization problems. To understand the effect of the time-dependent supply values, we consider the quickest path problem with time-dependent supply values and provide a solution algorithm. The results from this consideration are generalized to approximate the behavior of the evacuation times in the context of quickest flow problems.
The second model we consider is a path-based model for evacuation in the presence of a dynamic cost function. We discuss the challenges of this model and provide ideas for how to approach the problem from different angles. We relate the problem to the flow-decomposition problem and consider the computation of evacuation paths with dynamic costs for large capacities. For the latter method we provide heuristics to find paths and compare them to the optimal solutions by applying the methods to two evacuation scenarios. An analysis shows that the paths generated by the heuristic yield close to optimal solutions and in addition have several desirable properties for evacuation paths which are not given for the optimal solution.
The stands surveyed are among the last closed canopy forests in Rwanda. Their exploration began in the early twentieth century and is still ongoing. Previous studies were mainly concerned with plant sociological issues and presented references to environmental factors in anecdotal form, at best using indirect ordination methods. The present study undertakes a classification of the vegetation with numerical methods and establishes quantitative relationships of the species’ distributional structure to environmental parameters using spatially explicit procedures. For this purpose, 94 samples were taken in 100 m² hexagonal plots. Of these, 70 samples are from Nyungwe, 14 are from Gishwati, and 10 are from Cyamudongo. Given the homogeneity of the terrain and vegetation, all vegetation types encountered, all types of stands, and all vegetation strata were included. The beta diversity is expressed by an average Bray-Curtis dissimilarity of 0.92, and in JOST’S (2007) numbers equivalents, 37.90 equally likely samples would be needed to represent the diversity encountered. Within the survey, 1198 species in 127 families were collected. Among the specimens are 6 local endemics and 40 Albertine Rift endemics. Resulting from UPGMA and FCM-NC, 20 to 40 plant communities were established depending on the level of resolution. It can be inferred by means of a Mantel correlogram that the mean zone of influence of a single vegetation stand, as sampled by a 100 m² plot in Nyungwe Forest, ranges between 0.016 and 3.42 km. Of the communities compiled using FCM-NC and UPGMA, 50% consist of individual samples. Beyond undersampling, natural small-scale discontinuities are reflected by this result. Partial db-RDA resulted in an explained variation of 9.60% and 14.41% for environmental and soil factors, respectively. Utilising variation partitioning analyses based on CCA and tb-RDA, between 21.70% and 37.80% of the variation in vegetation data could be explained. The spatially structured fraction of these parameters accounts for between 30.50% and 49.80% of the explained variation (100%). The purely environmental parameters account for a share of 10.30% to 16.30%, whereby the lower limit originates from the unimodal approach and has lost its statistical significance. The soil variables, also after partial analysis, account for a share of 19.00% to 35.70%. While the residual impact of the climatic parameters is hardly significant, the effect of the soil properties is prevalent. In general, the spatially structured fraction of the parameters is predominant here. While on the broad-scale climatic factors, the altitude a.s.l. and the geology are determining factors, some soil parameters and matrix components also show their impacts here. In the mid-range of the scale, it is the forest matrix, the soil types, and the geology that determine species distribution. While in the fine range of the scale, some unrecorded parameters seem to have an effect, there are also neutral processes that determine species composition.
While reading this sentence, you probably gave (more or less deliberately) instructions to approximately 100 to 200 muscles of your body. A sceptical face or a smile, your fingers scrolling through the text or holding a printed version of this work, holding your head, sitting, and much more.
All these processes take place almost automatically, so they seem to be no real achievement. In the age of digitalization it is a defined goal to transfer human (psychological and physiological) behavior to machines (robots). However, it turns out that it is indeed laborious to obtain human facial expression or walking from robots. To optimize this transfer, a deeper understanding of a muscle's operating principle is needed (and of course an understanding of the human brain, which will, however, not be part of this thesis).
A human skeletal muscle can be shortened willingly, but not lengthened, thereto it takes an antagonist. The muscle's change in length is dependent on the incoming stimulus from the central nervous system, the current length of the muscle itself, and certain muscle--specific quantities (parameters) such as the maximum force. Hence, a muscle can be mathematically described by a differential equation (or more exactly a coupled differential--algebraic system, DAE), whose structure will be revealed in the following chapters. The theory of differential equations is well-elaborated. A multitude of applicable methods exist that may not be known by muscle modelers. The purpose of this work is to link the methods from applied mathematics to the actual application in biomechanics.
The first part of this thesis addresses stability theory. Let us remember the prominent example from middle school physics, in which the resting position of a ball was obviously less susceptible towards shoves when lying in a bowl rather than balancing at the tip of a hill. Similarly, a dynamical (musculo-skeletal) system can attain equilibrium states that react differently towards perturbations.
We are going to compute and classify these equilibria.
In the second part, we investigate the influence of individual parameters on model equations or more exactly their solutions. This method is known as sensitivity analysis.
Take for example the system "car" containing a value for the quantity "pressure on the break pedal while approaching a traffic light". A minor deviation of this quantity upward or downward may lead to an uncomfortable, abrupt stop or even to a collision, instead of a smooth stop with a sufficient gap.
The considered muscle model contains over 20 parameters that, if changed slightly, have varying effects on the model equation solutions at different instants of time. We will investigate the sensitivity of those parameters regarding different sub--models, as well as the whole model among different dynamical boundary conditions.
The third and final part addresses the \textit{optimal control} problem (OCP).
The muscle turns a nerve impulse (input or control) into a length change and therefore a force response (output). This forward process is computable by solving the respective DAE. The reverse direction is more difficult to manage. As an everyday example, the OCP is present regarding self-parking cars, where a given path is targeted and the controls are the position of the
steering wheel as well as the gas pedal.
We present two methods of solving OCPs in muscle modeling: the first is a conjunction of variational calculus and optimization in function spaces, the second is a surrogate-based optimization.
Viele Menschen kommunizieren und interagieren zunehmend über soziale Online-Netzwerke wie Twitter oder Facebook, oder tauschen Meinungen mit Freunden oder auch Fremden aus. Durch die zunehmende Verfügbarkeit des Internets wird auch Wissen für immer mehr Menschen offen verfügbar gemacht. Beispiele hierfür sind die Online-Enzyklopädie Wikipedia oder auch die vielfältigen Informationen in diversen Webforen und Webseiten. Diese zwei Netzwerkkategorien - Soziale Netzwerke und Wissensnetzwerke - verändern sich sehr schnell. Fast sekündlich befreunden sich neue Nutzer in sozialen Netzwerken und Wikipedia-Artikel werden überarbeitet und neu mit anderen Artikeln verlinkt. Diese Änderungen an der Verlinkung von Menschen oder Wissensbausteinen folgen bestimmten strukturellen Regeln und Charakteristiken, die weit weniger zufällig sind als man zunächst annehmen würde.
Das Ziel dieser Doktorarbeit ist es, drei charakteristische Verlinkungsmuster in diesen zwei Netzwerkkategorien vorherzusagen: das Hinzufügen von neuen Verlinkungen, das Entfernen bestehender Verbindungen und das Vorhandensein von latent negativen Verlinkungen. Zunächst widmen wir uns dem relativ neuen Problem der Vorhersage von Entlinkungen in einem Netzwerk. Hierzu gibt es zahlreiche soziologische Vorarbeiten, die nahelegen, dass die Ursachen zur Entstehung von Beziehungsabbrüchen komplementär zu den Gründen für neue Beziehungen sind. Obwohl diese Arbeiten eine strukturelle Ähnlichkeit der Probleme vermuten lassen, zeigen wir, dass beide Probleme nicht komplementär zueinander sind. Insbesondere zeigen wir, dass das dynamische Zusammenspiel von neuen Verlinkungen und Entlinkungen in Netzwerken durch die vier Zustände des Wachstums, des Zerfalls, der Stabilität und der Instabilität charakterisiert ist. Für Wissensnetzwerke zeigen wir, dass die Vorhersagbarkeit von Entlinkungen deutlich verbessert wird, wenn zeitliche Informationen wie der Zeitpunkt von einzelnen Netzwerkergeignissen mit genutzt werden. Wir präsentieren und evaluieren hierfür insgesamt vier verschiedene Strategien, die von zeitlichen Informationen Gebrauch machen. Für soziale Netzwerke analysieren wir, welche strukturellen Einflussfaktoren zur Entstehung und Löschung von Links zwischen Benutzern in Twitter indikativ sind. Auch hier zeigt sich, dass zeitliche Informationen darüber, dass eine Kante schon einmal gelöscht wurde, die Vorhersagbarkeit von Verlinkungen und insbesondere Entlinkungen enorm verbessert. Im letzten Teil der Doktorarbeit zeigen wir, wie negative Beziehungen (beispielsweise Misstrauen oder Feindschaft) aus positiven Beziehungen zwischen Nutzern (etwa Vertrauen und Freundschaft) abgeleitet werden können. Dies ist besonders relevant für Netzwerke, in denen nur positive Beziehungen kenntlich gemacht werden können. Für dieses Szenario zeigen wir, wie latent negative Beziehungen zwischen Nutzern dennoch erkannt werden können.
Bäche gehören zu den gefährdetsten Ökosystemen, da sie diversen anthropogenen Stressoren ausgesetzt sind, wobei Pestizide für landwirtschaftliche Bäche am relevantesten erscheinen. Aufgrund der Diskrepanz zwischen modellierten und gemessenen Pestizid-konzentrationen ist Monitoring nötig um zukünftige Risikobewertungen und Zulassungen zu verbessern. Festzustellen ob biotische Stressreaktionen über große räumliche und zeitliche Skalen ähnlich sind, ist nötig um Schwellenwerte zum Schutz vor Stressoren abzuschätzen.
Diese Doktorarbeit beginnt mit einem Überblick über Pestizideintrittspfade in Bäche, sowie dem momentanen Stand des Pestizidmonitorings gefolgt von der Zielsetzung der Doktorarbeit. In Kapitel 2 werden Ergebnisse aus Schöpfproben von Routinemonitoring mehrerer Länder analysiert um die häufigsten Pestizidmischungen zu identifizieren. Diese Mischungen werden von wenigen Pestiziden gebildet, wobei Herbizide dominieren. Die nachgewiesenen Mischungen unterscheiden sich regional, da Nachweisgrenzen und Stoffumfang variieren. Aktuelles Routinemonitoring umfasst bisher keine Probenahmen während durch Starkregenereignisse hervorgerufene Pestizidspitzen, die wahrscheinlich Pestizidmischungen beeinflussen. In Kapitel 3 werden Sammelraten für 42 Pestizide bei der Benutzung von Passiv-sammlern vorgestellt und Empfehlungen zum Monitoring von feldrelevanten Pestizidspitzen gegeben. Damit konnte in Kapitel 4 ein Pestizidgradient in einer osteuropäischen Region aufgestellt werden in der die Landwirtschaftsintensität von niedrig bis hoch reicht. Dabei wurden Regenereignisse beprobt und eine Vielzahl von Pestiziden analysiert. Dies führte zu vielen gleichzeitig nachgewiesenen Pestiziden, von denen ein bis drei die Pestizidtoxizität bestimmten. Diese zeigte jedoch keinen Zusammenhang zur landwirtschaftlichen Intensität. Durch Mikrokosmenexperimente wurde in Kapitel 5 die Stressantwort von Pilzgemeinschaften, den Hyphomyceten, und deren assoziierter Ökosystemfunktion des Laubabbaus untersucht. Effekte einer feldrelevanten Fungizidmischung wurde über drei biogeographische Regionen sowie drei aufeinanderfolgende Zyklen von mikrobieller Laubkolonisation und -abbau untersucht. Trotz anfänglich unterschiedlichen Gemeinschaften waren Stressantworten sowie Erholungen in den untersuchten Regionen ähnlich, was auf ein generelles Muster hindeutet.
Insgesamt trägt diese Doktorarbeit zum verbesserten Verständnis von Vorkommen und Konzentrationen von Pestizidmischungen, deren Monitoring sowie ihren Auswirkungen auf eine Ökosystemfunktion bei. Wir konnten zeigen, dass die abgeschätzten Pestizidtoxizitäten potentiell Nichtzielorganismen und somit ganze Ökosystem beeinflussen. Routinemonitoring unterschätzt diese Gefahr bisher jedoch wahrscheinlich. Effekte, welche Verluste in Biodiversität sowie Funktionen hervorrufen, können verringert werden indem zugelassene Pestizide mit anhaltendem Monitoring neu bewertet werden und die Datenlage zu Pestizidwirkungen verbessert wird.
Über 10.000 verschiedene organische Substanzen wie Arzneistoffe, Inhaltsstoffe von Körperpflegemitteln und Biozide werden regelmäßig im Alltag eingesetzt. Die meisten Substanzen gelangen nach ihrer Verwendung in das häusliche Abwasser. Bisherige wissenschaftliche Untersuchungen haben ergeben, dass eine konventionelle biologische Abwasserreinigung in kommunalen Kläranlagen keine ausreichende Barriere für die Emission dieser anthropogenen Stoffe in die Oberflächengewässer darstellt.
Dies birgt unvorhersehbare Risiken für die aquatischen Lebensgemeinschaften und die Trinkwasserversorgung. Hinsichtlich ihres Vorkommens und Verhaltens in kommunalen Kläranlagen besteht daher insbesondere für erst kürzlich eingeführte und/oder in der Umwelt nachgewiesene Spurenstoffe (sogenannte "neuartige" Spurenstoffe, engl.: "emerging micropollutants") ein großer Forschungsbedarf. Um ein möglichst umfassendes Bild vom Verhalten neuartiger organischer Spurenstoffe in der kommunalen Abwasserbehandlung zu erhalten, wurden im Rahmen dieser Dissertation die folgenden Substanzklassen, welche ein weites Spektrum an physiko-chemischen Eigenschaften aufweisen, untersucht: Arzneistoffe (Betablocker und psychoaktive Substanzen), UV-Filtersubstanzen, Vulkanisationsbeschleuniger (Benzothiazole), Biozide (Antischuppenmittel, Konservierungsmittel, Desinfektionsmittel) und Pestizide (Phenylharnstoff- und Triazinherbizide).
Aktuell gibt es in den Geisteswissenschaften eine Vielzahl von digitalen Werkzeugen, wie beispielsweise Annotations-, Visualisierungs-oder Analyseanwendungen, welche Forscherinnen bei ihrer Arbeitunterstützen und ihnen neue Möglichkeiten zur Bearbeitung unterschiedlicher Forschungsfragen bieten. Allerdings bleibt die Nutzung dieser Werkzeuge stark hinter den Erwartungen zurück. In der vorliegenden Arbeit werden im Rahmen einer Design-Science-Theorie zwölf Verbesserungsmaßnahmen entwickelt, um der fehlenden Nutzungsakzeptanz entgegenzuwirken. Durch die Implementierungen der entwickelten Design-Science-Theorie, können SoftwareentwicklerInnen die Akzeptanz ihrer digitalen Werkzeuge, im geisteswissenschaftlichen Kontext, steigern.
Sogenannte Klassische Musik spielte spätestens ab der zweiten Hälfte des 20. Jahrhunderts eine zentrale Rolle für den Musikunterricht in Deutschland. Aber auch der Blick auf jüngere musikpädagogische Diskursstränge lässt Klassische Musik nach wie vor als virulenten Diskussionsanlass erscheinen. Doch wie denken eigentlich Musiklehrer:innen über Klassische Musik im Musikunterricht nach? Diese Thematik ist in der deutschsprachigen Musikpädagogik bisher nicht systematisch erforscht.
Zur Beantwortung der Frage wie Musiklehrer:innen über Klassische Musik im Musikunterricht nachdenken werden in einer qualitativ-empirischen Studie acht leitfadengestützte Interviews geführt und in Anlehnung an die Grounded Theory Methodology ausgewertet. Die herausgearbeitete Theorie zeigt, dass Musiklehrer:innen mit dem Einsatz von Klassischer Musik im Musikunterricht unterschiedliche Ziele verfolgen, diese Musik aber grundsätzlich als den Schüler:innen fremd wahrnehmen. Um mit dieser Situationen umzugehen, entwickeln die Musiklehrer:innen verschiedene Methoden und Strategien, die sich drei Umgangsweisen mit der wahrgenommenen Fremdheit Klassischer Musik zuordnen lassen: Fremdheit vermeiden, Fremdheit reduzieren/relativieren und Fremdheit nutzen.
Die Ergebnisse der Studie werden in fremdheitstheoretischer, musikdidaktischer und transformatorisch-bildungstheoretischer Perspektive kontextualisiert. Die vorliegende Dissertation liefert somit insgesamt einen Beitrag zu musikpädagogischer Unterrichtsforschung zu Klassischer Musik und schafft Anknüpfungspunkte für weitergehende theoretische, empirische und didaktische Forschung.
Initial goal of the current dissertation was the determination of image-based biomarkers sensitive for neurodegenerative processes in the human brain. One such process is the demyelination of neural cells characteristic for Multiple sclerosis (MS) - the most common neurological disease in young adults for which there is no cure yet. Conventional MRI techniques are very effective in localizing areas of brain tissue damage and are thus a reliable tool for the initial MS diagnosis. However, a mismatch between the clinical fndings and the visualized areas of damage is observed, which renders the use of the standard MRI diffcult for the objective disease monitoring and therapy evaluation. To address this problem, a novel algorithm for the fast mapping of myelin water content using standard multiecho gradient echo acquisitions of the human brain is developed in the current work. The method extents a previously published approach for the simultaneous measurement of brain T1, T∗ 2 and total water content. Employing the multiexponential T∗ 2 decay signal of myelinated tissue, myelin water content is measured based on the quantifcation of two water pools (myelin water and rest) with different relaxation times. Whole brain in vivo myelin water content maps are acquired in 10 healthy controls and one subject with MS. The in vivo results obtained are consistent with previous reports. The acquired quantitative data have a high potential in the context of MS. However, the parameters estimated in a multiparametric acquisition are correlated and constitute therefore an ill-posed, nontrivial data analysis problem. Motivated by this specific problem, a new data clustering approach is developed called Nuclear Potential Clustering, NPC. It is suitable for the explorative analysis of arbitrary dimensional and possibly correlated data without a priori assumptions about its structure. The developed algorithm is based on a concept adapted from nuclear physics. To partition the data, the dynamic behavior of electrically even charged nucleons interacting in a d-dimensional feature space is modeled. An adaptive nuclear potential, comprised of a short-range attractive (Strong interaction) and a long-range repulsive term (Coulomb potential), is assigned to each data point. Thus, nucleons that are densely distributed in space fuse to build nuclei (clusters), whereas single point clusters are repelled (noise). The algorithm is optimized and tested in an extensive study with a series of synthetic datasets as well as the Iris data. The results show that it can robustly identify clusters even when complex configurations and noise are present. Finally, to address the initial goal, quantitative MRI data of 42 patients are analyzed employing NPC. A series of experiments with different sets of image-based features show a consistent grouping tendency: younger patients with low disease grade are recognized as cohesive clusters, while those of higher age and impairment are recognized as outliers. This allows for the definition of a reference region in a feature space associated with phenotypic data. Tracking of the individual's positions therein can disclose patients at risk and be employed for therapy evaluation.
Non-Consumptive Effects of Spiders and Ants: Does Fear Matter in Terrestrial Interaction Webs?
(2014)
Die meisten Tiere haben natürliche Feinde. Neben dem Töten von Beute (Prädation), können Räuber auch die Physiologie, Morphologie und das Verhalten von Beutetieren beeinflussen. Spinnen sind eine ausgesprochen diverse und häufige Räubergruppe in terrestrischen Ökosystemen. Unsere Verhaltensexperimente haben gezeigt, dass nur wenige Insekten- und Spinnenarten das Verhalten in der Anwesenheit von Spinnengeruchstoffen ändern. Besonders Waldgrillen (Nemobius sylvestris) änderten ihr Verhalten aufgrund von Geruchsstoffen mehreren Spinnenarten. Dabei bewirkten Geruchstoffe von relativ größeren und häufigeren Spinnenarten stärkere Verhaltensänderungen.
Verhaltensänderungen unter Prädationsrisiko erhöhen die Überlebensrate von Beutetieren, sind aber oft mit Kosten verbunden. Grillen, die vorher schon mit Geruchstoffen der Listspinne (Pisaura mirabilis) konfrontiert wurden, konnten den Spinnen tatsächlich erfolgreicher entkommen. Während des Experiments haben Grillen unter Prädationsrisiko geringfügig mehr gefressen und weniger Gewicht verloren als Kontrollgrillen. Dies deutet darauf hin, dass Grillen durch das Prädationsrisiko verursachte Kosten kurzzeitig kompensieren können. In einem Wahlexperiment bevorzugten Grillen Pflanzen ohne Spinnengeruchsstoffe. Infolgedessen wurde an Pflanzen mit Spinnengeruchsstoffen weniger gefressen.
Auch Ameisen sind allgegenwärtige Räuber und können einen starken Einfluss auf Pflanzenfresser (Herbivore) aber auch auf andere Räuber haben. Wenn junge Spinnen mit Ameisengeruchstoffen konfrontiert wurden, stieg ihre Bereitschaft sich über größere Entfernungen auszubreiten. Junge Spinnen nutzen diese passive Ausbreitung über die Luft ("ballooning") um Ameisen zu entkommen und neue Lebensräume zu besiedeln.
In einem Freilandexperiment haben wir die Besiedlung von Pflanzen durch Arthropoden in Abhängigkeit von Spinnengeruchsstoffen untersucht. Dabei haben wir den Fraß an den Blättern und die Tiergemeinschaften erfasst. Vergleichbar zum Pflanzenwahlversuch im Labor wurde an Pflanzen mit Spinnengeruchstoffen weniger gefressen. Zusätzlich konnten wir Veränderungen in den Tiergemeinschaften feststellen: Kleine Spinnen und die Schwarze Gartenameise (Lasius niger) haben Pflanzen mit Spinnengeruchstoffen gemieden. Im Gegensatz dazu stieg die Anzahl der Arbeiterinnen der Roten Gartenameise (Myrmica rubra), möglicherweise um ihre Blattläuse gegen die drohende Gefahr zu verteidigen.
Obwohl Verhaltensänderungen auf Filterpapieren mit Spinnengeruchstoffen selten waren, haben unsere Experimente unter natürlicheren Bedingungen deutliche und weitreichende Reaktionen auf die mögliche Anwesenheit von Spinnen (Risikoeffekte) gezeigt. Unsere Resultate legen nahe, dass Risikoeffekte von Räuber die räumliche Verteilung von Pflanzenfraß verändern. Die Gesamtherbivorie wurde allerdings nicht reduziert, was erwartet wird wenn Räuber Pflanzenfresser töten. Wie stark sich Prädation und Risikoeffekte relativ auf die Beute auswirken ist entscheidend für den Einfluss von Räuber auf niedrigere Nahrungsebenen.
Das wissenschaftliche Interesse an nichtsuizidalen Selbstverletzungen (NSSV) von Jugendlichen hat in den letzten zwei Jahrzehnten deutlich zugenommen. Hohe Prävalenz- und Komorbiditätsraten sowie die geringe Lebensqualität und das erhöhte Suizidrisiko betroffener Jugendlicher betonen die Wichtigkeit dieses Forschungszweiges. Die vorliegende Dissertation widmet sich intra- und interpersonellen Faktoren, die sich als relevant für die Entstehung und Aufrechterhaltung von NSSV erwiesen haben.
Ziel der Studie 1 war die Untersuchung der Persönlichkeitsmerkmale von Jugendlichen mit NSSV ohne Borderline-Persönlichkeitsstörung (NSSV-BPS) in Abgrenzung zu Jugendlichen mit NSSV und einer BPS (NSSV+BPS), einer klinischen Kontrollgruppe (KKG) und einer gesunden Kontrollgruppe (GKG). Jugendliche mit NSSV erzielten im Vergleich zur KKG höhere Werte auf den Persönlichkeitsdimensionen Neugierverhalten und Schadensvermeidung und niedrigere Werte auf den Dimensionen Beharrungsvermögen, Selbstlenkungsfähigkeit und Kooperativität. Für Jugendliche mit NSSV+BPS zeigte sich ein ähnliches Persönlichkeitsmus-ter, welches jedoch deutlich ausgeprägter war.
NSSV von Jugendlichen beeinflussen das gesamte Familiensystem und gehen häufig mit Konflikten und einer veränderten Familiendynamik einher. Eltern von betroffenen Jugendlichen berichten von einer hohen Belastung, Unsicherheit und Hilflosigkeit. Jugendliche mit NSSV nehmen im Vergleich zu Jugendlichen ohne NSSV mehr Kritik und Kontrolle und weniger Unterstützung von Seiten der Eltern wahr. In Studie 2 wurde das Erziehungsverhalten in Familien von Jugendlichen mit NSSV untersucht und mit einer KKG und GKG verglichen. Im Vergleich zur GKG berichteten Jugendliche mit NSSV weniger mütterliche Wärme und Unterstützung. Mütter von Jugendlichen mit NSSV erzielten im Vergleich zu Müttern in der GKG höhere Psychopathologiewerte und berichteten weniger Elternzufriedenheit als Mütter der KKG und GKG.
Auch Geschwisterkinder leiden unter der veränderten Familiendynamik. Ziel der Studie 3 war die Untersuchung der Geschwisterbeziehung von Jugendlichen mit NSSV im Vergleich zu einer KKG und GKG. Geschwister von Jugendlichen mit NSSV berichteten von einer Viel-zahl von negativen emotionalen und familiären Konsequenzen bedingt durch die NSSV der Schwester. Im Vergleich zu Geschwistern in der KKG und GKG berichteten sie häufiger von Nötigung/Zwang in der Geschwisterbeziehung. Jugendliche mit NSSV gaben im Vergleich zur GKG höhere Rivalitätswerte und weniger Empathie und Wärme in der Geschwisterbeziehung an. Sowohl für Jugendliche mit NSSV als auch deren Geschwister zeigten sich Zusammenhänge zwischen der geschwisterlichen Beziehungsqualität und internalisierenden Symptomen.
Zur genaueren Untersuchung des familiären Klimas, wurde in Studie 4 das Ausmaß an Expressed Emotion (EE) von Jugendlichen mit NSSV, Jugendlichen einer KKG, einer GKG und deren Müttern erfasst und verglichen. Bisherige Studien zeigen einen Zusammenhang zwischen einem hohen Maß an EE (HEE) der Eltern und NSSV der Jugendlichen. Insbesondere elterliche Kritik scheint mit NSSV assoziiert zu sein. Der Fokus bisheriger Studien lag auf dem EE-Status der Eltern, was womöglich ein unvollständiges Bild darstellt. Aus diesem Grund wurden in dieser Studie auch die EE-Ausprägungen der Jugendlichen miteinbezogen. Jugendliche in der NSSV Gruppe und KKG erfüllten im Vergleich zur GKG häufiger die Kriterien für HEE. Jugendliche mit NSSV äußerten gegenüber ihren Müttern mehr verdeckte Kritik und kritischen Tonfall als Jugendliche der KKG und GKG. HEE der Jugendlichen ging mit Emotionsregulationsschwierigkeiten einher. Für die Gesamtstichprobe zeigte sich eine moderate Übereinstimmung zwischen den HEE-Ausprägungen der Jugendlichen und Mütter.
Die Ergebnisse dieser Arbeit beinhalten wichtige Implikationen für die Behandlung von Jugendlichen mit NSSV. Die Unterschiede in den Persönlichkeitsmerkmalen von Jugendlichen mit NSSV mit und ohne BPS betonen die Relevanz der dimensionalen Persönlichkeitsdiagnostik sowie gezielter Behandlungsprogramme für Jugendliche mit NSSV-BPS. Familiäre Konflikte sind häufige Trigger für NSSV, daher sollten Interventionen für Jugendliche mit NSSV sowohl die Verbesserung der Emotionsregulation als auch der familiären Kommunikation und Interaktion zum Ziel haben. Nebst der Reduktion negativer Beziehungsaspekte, sollte in der Psychotherapie auch an der Steigerung positiver Beziehungsqualitäten gearbeitet werden. Die emotionale Belastung von Familienangehörigen weist auf die Notwendigkeit von Unterstützungsangeboten für Eltern und Geschwister hin.
Naturwissenschaftliches Experimentieren im Förderschwerpunkt geistige Entwicklung: An Schulen mit dem Förderschwerpunkt geistige Entwicklung führen Schülerinnen und Schüler nur selten naturwissenschaftliche Experimente durch. Doch auch diese Schülerschaft kann mit adressatengerechten Lernmaterialien Experimente durchführen, deren Gestaltungskriterien in dieser Studie ermittelt werden. Zudem wird in der Studie erfasst, wie sich die Schülerinnen und Schüler über ein Schuljahr in ihrer experimentellen Kompetenz weiterentwickeln.
Seit der Domestizierung von Wein vor über 6000 Jahren haben Weinbauern mit Krankheiten und Schädlingen ihrer Pflanzen zu kämpfen. Seitdem führen neue Anbaumethoden und ein besseres Verständnis der ökologischen Prozesse im Weinberg zu wachsenden Erträgen und steigender Traubenqualität. In dieser Arbeit beschreibe ich die Effekte zweier innovativer Anbaumethoden auf Schädlinge und Nützlinge im Weinbau; Pilzwiderstandsfähige Sorten (PIWIs) und das Reberziehungssystem Minimalschnitt im Spalier (SMPH). SMPH erlaubt eine drastische Reduktion des Arbeitsaufwands im Weinberg. PIWIs sind resistent gegenüber zwei der destruktivsten Pilzkrankheiten der Rebe und bleiben daher bei deutlich weniger Pflanzenschutzbehandlungen als herkömmliche Sorten gesund. Übermäßiger Gebrauch von Pestiziden wird mit einer Reihe von Problemen wie Gewässerverschmutzung, Gesundheitsfolgen beim Menschen, und Biodiversitätsverlust in Verbindung gebracht. In dieser Arbeit wurden Effekte von reduzierten Fungizid Spritzungen auf Nützlinge wie Raubmilben, Spinnen, Ameisen, Ohrwürmer und Florfliegen untersucht. Diese Gruppen profitierten entweder von den reduzierten Fungizidmengen, oder sie wurden nicht signifikant beeinflusst. Strukturelle Unterschiede in der SMPH Laubwand beeinflussten das Mikroklima im Vergleich zur Spaliererziehung. Sowohl strukturelle als auch mikroklimatische Veränderungen beeinflussten einige Arthropodengruppen im Wein.
Insgesamt lässt sich Schlussfolgern, dass sowohl PIWI Sorten als auch das Schnittsystem SMPH ein großes Potential haben, die Bedingungen für natürliche Schädlingskontrolle zu verbessern. Dies reiht sich in eine Liste anderer Vorteile dieser Managementmethoden, wie zum Beispiel eine Reduktion der Produktionskosten und verbesserte Nachhaltigkeit.
Nanotemplates for the combined structural and functional analysis of membrane-associated proteins
(2019)
Die Inkubation von unilamellaren Lipid-Vesikeln mit einem als BPG bezeichneten Abschnitt des Proteins GRAF1 führte zur Entstehung von röhrenförmigen Strukturen. Eine Untersuchung mittels negativkontrastierter Elektronenmikroskopie zeigte eine körnige Beschichtung auf der Röhrenoberfläche. Durch die höhere Auflösung der Elektronentomographie war es möglich, helikale Oligomere auf den Röhren zu erkennen. Des Weiteren zeigte sich, dass die Röhren im Durchmesser inhomogen waren und Biegungen aufwiesen. Das hatte ebenfalls Unregelmäßigkeiten in der Ordnung der helikalen Struktur zur Folge. Das Herstellungsverfahren von unilamellaren Vesikeln mittels Extruder wurde so modifiziert, dass es anstatt von Vesikeln Nanoröhren entstehen ließ. Im Gegensatz zu den Röhren, die das Protein formte, wiesen diese eine lineare Struktur mit konstantem Durchmesser auf. Trotz der Inkubation mit BPG behielten diese ihre homogene Form und zeigten nun eine geordnete helikale Beschichtung auf ihrer Oberfläche. Allerdings waren sie nicht hoch genug konzentriert für die Kryoelektronenmikroskopie, und eine reine Erhöhung der Lipidkonzentration führte nicht zu einer höhren Anzahl von Röhren, sondern zu Lipidaggregation. Weitere Experimente zeigten, dass die Chelatliganden EDTA und EGTA in der Pufferlösung zur Entstehung unilamellarer Vesikel führten. Da EDTA und EGTA die Metallionen Mg2+ und Ca2+ absorbieren, wurden weitere Tests mit neuen Pufferlösungen durchgeführt. Zur Absorption bereits vorhandener Metallionen wurden beide Chelatliganden hinzugegeben und eine Variante mit zusätzlichem Magnesiumchlorid und eine weitere mit zusätzlichem Calciumchlorid hergestellt. Es wurde gezeigt, dass Magnesiumchlorid unilamellare Vesikel zur Folge hatte und Calciumchlorid zu einer höhren Konzentration der Nanoröhren führte. Daraus wurde geschlossen, dass Calciumionen die Enstehung von Nanoröhren fördern. Zur weiteren Optimierung der Konzentration wurde eine Varianzanalyse (CCD) der einflussreichsten Variablen im Extrusionsprozess durchgeführt:
- Eine höhere Anzahl von Frier-Tau-Zyklen zur Unterdrückung multilamellarer Vesikel hatte einen positiven Einfluss.
- Es konnte keine Korrelation zwischen der Extrudertemperatur und der Konzentration von Nanoröhren nachgewiesen werden.
- Mehr Extrusionszyklen hatten eine höhere Nanoröhrenkonzentration zur Folge.
Durch das optimierte Protokoll war die Konzentration hoch genug für die Kryoelektronenmikroskopie und eine helikale Rekonstruktion. Dennoch war eine 2D-Klassifizierung nicht erfolgreich, da die Nanoröhren im aufgenommenen Datensatz nicht homogen genug im Durchmesser waren und zudem eine unterschiedliche Anzahl an multilamellaren Rändern aufwiesen. Aus diesem Grund wurde ein Skript entwickelt, das die Röhren nach ihrem Durchmesser sortiert. Mit einer Untermenge des Datensatzes, dessen Röhren einen ähnlichen Durchmesser hatten, wurde eine weitere 2D-Klassifizierung durchgeführt. Daraus resultierten schließlich 2D-Klassen der helikalen Oberflächenstruktur.
Die vorliegende Dissertation leistet einen Beitrag zur historischen Frauenbildung in Deutschland. Gegenstand der Studie ist die Mädchenbildung im Zeitalter der Aufklärung. Da diese von der Pädagogik der Jungen stets getrennt betrachtet wurde und Bildung sich nach dem allgemeinen Verständnis bürgerlichen theoretischen Verstandes nur auf die Erziehung des jungen männlichen Geschlechts bezog, blieb die Frau von öffentlicher Bildung im 18. Jahrhundert weitgehend ausgeschlossen. An den Bildungsformen der Lesegesellschaften, der Salonkultur und der "Moralischen Wochenschriften" wird zunächst aufgezeigt, in welcher Weise es Frauen möglich war, sich dennoch Zugang zur Bildung zu verschaffen. Die beiden folgenden Kapitel behandeln La Roches und Campes Biografie. Im Fokus steht dabei ihrer beider Handeln im Feld der Mädchenerziehung und des Reisejournalismus. Vergleichend werden bildende Elemente hinsichtlich ihrer Hinwendung zur Französischen Revolution und des Reisejournalismus dargelegt. Die Betrachtung der Reiseberichte beider Autoren klärt, in welcher Form La Roche und Campe den politischen Reformbestrebungen des späten 18. Jahrhunderts folgen bzw. in welchem Maß sie den Idealen der voraufklärerischen Zeit unterliegen. Im Mittelpunkt der Arbeit stehen La Roches Briefe an Lina (1783/84) und Campes Väterlicher Rath für meine Tochter (1789). Die Mädchenratgeber spiegeln das pädagogische Konzept der Mädchenbildung beider Autoren wider. Eine Gegenüberstellung der Mädchenratgeber wird zeigen, inwieweit La Roche und Campe konservativen bzw. progressiven Leitbildern der Mädchenbildung folgen. Die Studie geht von der Ambivalenzthese aus, nach der La Roche und Campe innerhalb ihrer Denkweisen als Pädagogen und Reiseschriftsteller Gegensätze und Widersprüche aufweisen. Es soll geklärt werden, inwiefern La Roches Mädchenbildungskonzept von emanzipativen Vorstellungen geprägt ist, ihr politisches Denken hingegen konservativ erscheint, während Campes Mädchenbildungstheorie eher traditionell angelegt ist, seine politischen Ideale aber innovativ sind. In einer abschließenden Betrachtung werden die Ambivalenzen zwischen La Roches und Campes pädagogischen und politischen Anschauungen geklärt.
In der hier vorliegenden Forschungsarbeit wurden die Auswirkungen der Bodenfeuchte und der Bodenart auf die ausgewählten Schaderreger Phytophthora infestans (Mont.) de Bary, Fusarium graminearum Schwabe bzw. F. culmorum (W.G. Smith) Saccardo und die Larven der wichtigsten Elateridenarten Agriotes lineatus Linnaeus, A. obscurus Linnaeus, A. sputator Linnaeus, A. sordidus Illiger sowie A. ustulatus Schaller (im Folgenden als Drahtwürmer zusammengefasst) untersucht. Ziel war die Integration von Bodenmodulen in Prognosemodelle für landwirtschaftliche und gartenbauliche Schaderreger, um die Terminierung von Befallskontrollen weiter zu optimieren, die Bekämpfungsnotwendigkeit festzustellen und somit eine Reduzierung vorbeugender Pflanzenschutzmittelanwendungen zu erreichen. Wegen des hohen Aufwandes zur Messung der Bodenfeuchte sowie ihrer kleinräumigen Variabilität fand dieser Parameter bisher in der Schaderregerprognose nur geringe Beachtung. Im Rahmen dieser Arbeit wurden die Möglichkeiten zur standortspezifischen Simulation der Bodenfeuchte überprüft. Dabei wurde das Bodenfeuchtesimulationsmodell SIMPEL (HÖRMANN 1998) an landwirtschaftliche Problemstellungen angepasst und die standortspezifische Simulation der Bodenfeuchte auf Grundlage der Niederschlagsdaten des Radermessnetzes des Deutschen Wetterdienstes (DWD) sowie interpolierten Wetterdaten (ZEUNER 2007) durchgeführt. Mit einer hochsignifikanten Korrelation zum Signifikanzniveau Alpha = 0,01 und mittleren Abweichungen der simulierten Bodenfeuchte von Feldmessungen von 3,8 % kann diese zuküftig schlagspezifisch berechnet und in den Schaderregermodellen berücksichtigt werden. Die Ergebnisse der Labor- und Freilandversuche und die durchgeführten Datenanalysen zeigten, dass der Einfluss von Bodenparametern auf die drei untersuchten Schaderreger unterschiedlich stark ausgeprägt ist. Während sich bei den Untersuchungen zum Einfluss der Bodenfeuchte auf P. infestans keine eindeutigen Korrelationen aufzeigen ließen, gab es deutliche Zusammenhänge zwischen der Bodenfeuchte bzw. Bodenart und dem Vorkommen von Drahtwürmern sowie von F. graminearum bzw. F. culmorum. Zur Prognose des Drahtwurmauftretens in den oberen 15 cm der Bodenschicht wurde das Modell SIMAGRIO-W entwickelt. In den durchgeführten Versuchen ergaben sich hochsignifikante Zusammenhänge der Bodenfeuchte und der Bodenart auf das Vorkommen der Drahtwürmer. Der Einfluss der Bodenart auf den Schaderreger F. graminearum bzw. F. culmorum wurde in das bestehende Modell FUS-OPT integriert. Eine Korrelation von aus der Luft gefangenen Sporen von F. graminearum mit dem simulierten Perithezienwachstum des veränderten Modells FUS-OPT ergab im Test nach PEARSON einen hochsignifikanten Zusammenhang. Die Ergebnisse dieser Arbeit zeigen, dass die Integration von Bodenfeuchte- und Bodenartmodulen in die Schaderregermodelle möglich ist. Die entwickelten bzw. modifizierten Modelle werden den Pflanzenschutzdiensten der Länder zukünftig zur praktischen Beratung über das Internetportal www.isip.de zur Verfügung stehen.
Im Zentrum dieser Arbeit stehen multiple Ziele als Merkmale zur Erfassung aktueller sowie überdauernder Motivation. Im Unterricht sind sowohl auf Kompetenzerwerb gerichtete Ziele als auch Ziele, die dem Wohlbefinden dienen, valent. Zur Kategorie der Wohlbefindensziele zählt das Bestreben, mit Mitschülern zu kommunizieren (Affiliationsziel) und möglichst wenig arbeiten zu müssen (Arbeitsvermeidungsziel). Zur Kategorie kompetenzbezogener Ziele gehört das Bestreben, eigene Fähigkeiten erweitern zu wollen (Lernziel), sowie bessere Leistungen als andere erreichen (Annäherungs-Leistungsziel) bzw. schlechte Leistungen gegenüber anderen verbergen zu wollen (Vermeidungs-Leistungsziel).
Bisher ist unklar, ob man Ziele als überdauernde Trait- oder situationsabhängige State-Merkmale konzipieren sollte. Mit dieser Arbeit werden beide Aspekte differentiell konzeptualisiert und deren Zusammenhang in zwei Studien untersucht. Fraglich ist darüber hinaus, wie State-Ziele entstehen. Aus verschiedenen Motivationstheorien wird ein neues Rahmenmodell abgeleitet, in dem situative multiple State-Ziele durch die Trait-Ziele sowierndie Wahrnehmung von spezifischen Kontextmerkmalen erklärt werden. In der Literatur werden drei potentielle Zusammenhangsmuster zwischen Trait-Zielen und wahrgenommenen Situationsmerkmalen hinsichtlich der State-Ziele identifiziert: Erstens könnten Trait-Ziele und wahrgenommene Unterrichtsmerkmale State-Ziele additiv besser prädizieren im Vergleich zu deren individuellen Einfluss (additiver Effekt), zweitens könnten Trait-Ziele State-Ziele über die Unterrichtswahrnehmung mediiert das State-Ziel vorhersagen (reaktiver Effekt) und drittens könnten die Trait-Ziele abhängig von der Ausprägung der wahrgenommenen Unterrichtsmerkmale differentielle Effekte auf State-Ziele haben (Interaktionseffekt). Zudem macht das Rahmenmodell Aussagen zu proximalen Konsequenzen von verschiedenen State-Zielen.
Studie 1 basierte auf zwei Stichproben (N = 197 und N = 297). Die multiplen Ziel-Faktoren sowie deren State- und Trait-Komponenten wurden im Längsschnitt-Design validiert. State-Ziel-Messungen erwiesen sich als sensitiv für Situationseinflüsse und gegenüber Trait-Ziel-Messungen als differentiell valide. Studie 2 fokussierte auf die Erklärung der State-Ziel-Entstehung in aktuellen Lernsituationen. Die Annahmen des Rahmenmodells sowie die Effektmodelle wurden in einer Längsschnitt-Studie (N = 542) systematisch empirisch überprüft. Es zeigte sich erwartungsgemäß, dass kompetenzbezogene Ziele mit adaptiven Lernprozessindikatoren (z.B. Flow) korrelierten, wohingegen die Wohlbefindens-Ziele hier keine Zusammenhänge aufwiesen. Zudem konnte die additive Effekthypothese bestätigt werden, während die reaktive Effekthypothese weitestgehend zurückgewiesen werden musste. Mit latenten Moderatormodellen ließen sich einzelne Interaktionseffekte identifizieren, die zeigten, dass die Trait-Ziele einer Person - abhängig von der Ausprägung der wahrgenommenen Unterrichtsmerkmale - differentielle Effekte auf die State-Ziele haben.
Efficient Cochlear Implant (CI) surgery requires prior knowledge of the cochlea’s size and its characteristics. This information helps to select suitable implants for different patients. Registered and fused images helps doctors by providing more informative image that takes advantages of different modalities. The cochlea’s small size and complex structure, in addition to the different resolutions and head positions during imaging, reveals a big challenge for the automated registration of the different image modalities. To obtain an automatic measurement of the cochlea length and the volume size, a segmentation method of cochlea medical images is needed. The goal of this dissertation is to introduce new practical and automatic algorithms for the human cochlea multi-modal 3D image registration, fusion, segmentation and analysis. Two novel methods for automatic cochlea image registration (ACIR) and automatic cochlea analysis (ACA) are introduced. The proposed methods crop the input images to the cochlea part and then align the cropped images to obtain the optimal transformation. After that, this transformation is used to align the original images. ACIR and ACA use Mattes mutual information as similarity metric, the adaptive stochastic gradient descent (ASGD) or the stochastic limited memory Broyden–Fletcher–Goldfarb–Shanno (s-LBFGS) optimizer to estimate the parameters of 3D rigid transform. The second stage of nonrigid registration estimates B-spline coefficients that are used in an atlas-model-based segmentation to extract cochlea scalae and the relative measurements of the input image. The image which has segmentation is aligned to the input image to obtain the non-rigid transformation. After that the segmentation of the first image, in addition to point-models are transformed to the input image. The detailed transformed segmentation provides the scala volume size. Using the transformed point-models, the A-value, the central scala lengths, the lateral and the organ of corti scala tympani lengths are computed. The methods have been tested using clinical 3D images of total 67 patients: from Germany (41 patients) and Egypt (26 patients). The atients are of different ages and gender. The number of images used in the experiments is 217, which are multi-modal 3D clinical images from CT, CBCT, and MRI scanners. The proposed methods are compared to the state of the arts ptimizers related medical image registration methods e.g. fast adaptive stochastic gradient descent (FASGD) and efficient preconditioned tochastic gradient descent (EPSGD). The comparison used the root mean squared distance (RMSE) between the ground truth landmarks and the resulted landmarks. The landmarks are located manually by two experts to represent the round window and the top of the cochlea. After obtaining the transformation using ACIR, the landmarks of the moving image are transformed using the resulted transformation and RMSE of the transformed landmarks, and at the same time the fixed image landmarks are computed. I also used the active length of the cochlea implant electrodes to compute the error aroused by the image artifact, and I found out an error ranged from 0.5 mm to 1.12 mm. ACIR method’s RMSE average was 0.36 mm with a standard deviation (SD) of 0.17 mm. The total time average required for registration of an image pair using ACIR was 4.62 seconds with SD of 1.19 seconds. All experiments are repeated 3 times for justifications. Comparing the RMSE of ACIR2017 and ACIR2020 using paired T-test shows no significant difference (p-value = 0.17). The total RMSE average of ACA method was 0.61 mm with a SD of 0.22 mm. The total time average required for analysing an image was 5.21 seconds with SD of 0.93 seconds. The statistical tests show that there is no difference between the results from automatic A-value method and the manual A-value method (p-value = 0.42). There is no difference also between length’s measurements of the left and the right ear sides (p-value > 0.16). Comparing the results from German and Egypt dataset shows there is no difference when using manual or automatic A-value methods (p-value > 0.20). However, there is a significant difference when using ACA2000 method between the German and the Egyptian results (p-value < 0.001). The average time to obtain the segmentation and all measurements was 5.21 second per image. The cochlea scala tympani volume size ranged from 38.98 mm3 to 57.67 mm3 . The combined scala media and scala vestibuli volume size ranged from 34.98 mm 3 to 49.3 mm 3 . The overall volume size of the cochlea should range from 73.96 mm 3 to 106.97 mm 3 . The lateral wall length of scala tympani ranged from 42.93 mm to 47.19 mm. The organ-of-Corti length of scala tympani ranged from 31.11 mm to 34.08 mm. Using the A-value method, the lateral length of scala tympani ranged from 36.69 mm to 45.91 mm. The organ-of-Corti length of scala tympani ranged from 29.12 mm to 39.05 mm. The length from ACA2020 method can be visualised and has a well-defined endpoints. The ACA2020 method works on different modalities and different images despite the noise level or the resolution. In the other hand, the A-value method works neither on MRI nor noisy images. Hence, ACA2020 method may provide more reliable and accurate measurement than the A-value method. The source-code and the datasets are made publicly available to help reproduction and validation of my result.
The bio-insecticide Bacillus thuringiensis israelensis (Bti) has worldwide become the most commonly used agentin mosquito control programs that pursue two main objectives: the control of vector-borne diseases and the reduction of nuisance, mainly coming frommosquitoes that emerge in large quantities from seasonal wetlands. The Upper Rhine Valley, a biodiversity hotspot in Germany, has been treated withBti for decades to reduce mosquito-borne nuisance and increase human well-being.Although Btiis presumed to be an environmentally safe agent,adverse effects on wetland ecosystems are still a matter of debate especially when it comes to long-term and indirect effects on non-target organisms. In light of the above, this thesis aims at investigating direct and indirect effects of Bti-based mosquito control on non-target organisms within wetland food chains.Effects were examinedin studies with increasingeco(toxico)logical complexity, ranging from laboratory over mesocosm to field approaches with a focus on the non-biting Chironomidae and amphibian larvae (Rana temporaria, Lissotriton sp.).In addition, public acceptance of environmentally less invasive alternative mosquito control methods was evaluated within surveys among the local population.
Chironomids were the most severely affected non-target aquatic invertebrates. Bti substantially reduced larval and adult chironomid abundances and modified their species composition. Repeated exposures to commonly used Bti formulations induced sublethal alterations of enzymatic biomarkers activityin frog tadpoles. Bti-induced reductions of chironomid prey availability indirectly decreased body size of newts at metamorphosis and increased predation on newt larvae in mesocosm experiments. Indirect effects of severe reductions in midge biomassmight equally be passed through aquatic but also terrestrial food chains influencing predators of higher trophic levels. The majority ofaffectedpeople in the Upper Rhine Valley expressed a high willingness to contributefinancially to environmentally less harmful mosquito control.Alternative approaches could still include Bti applications excepting treatment of ecologically valuable areas. Potentially rising mosquito levels could be counteracted with local acting mosquito traps in domestic and urban areas because mosquito presence was experienced as most annoying in the home environment.
As Bti-based mosquito control can adversely affect wetland ecosystems, its large-scale applications, including nature conservation areas, should be considered more carefully to avoid harmful consequences for the environmentat the Upper Rhine Valley.This thesis emphasizesthe importance to reconsiderthe current practice of mosquito control and encourage research on alternative mosquito control concepts that are endorsed by the local population. In the context ofthe ongoing amphibian and insect declinesfurther human-induced effects onwetlands should be avoided to preserve biodiversity in functioning ecosystems.
Enterprise collaboration platforms are increasingly gaining importance in organisations. Integrating groupware functionality and enterprise social software (ESS), they have substantially been transforming everyday work in organisations. While traditional collaboration systems have been studied in Computer Supported Cooperative Work (CSCW) for many years, the large-scale, infrastructural and heterogeneous nature of enterprise collaboration platforms remains uncharted. Enterprise collaboration platforms are embedded into organisations’ digital workplace and come with a high degree of complexity, ambiguity, and generativity. When introduced, they are empty shells with no pre-determined purposes of use. They afford interpretive flexibility, and thus are shaping and being shaped by and in their social context. Outcomes and benefits emerge and evolve over time in an open-ended process and as the digital platform is designed through use. In order to make the most of the platform and associated continuous digital transformation, organisations have to develop the necessary competencies and capabilities.
Extant literature on enterprise collaboration platforms has proliferated and provide valuable insights on diverse topics, such as implementation strategies, adoption hurdles, or collaboration use cases, however, they tend to disregard their evolvability and related multiple time frames and settings. Thus, this research aims to identify, investigate, and theorise the ways that enterprise collaboration platforms are changing over time and space and the ways that organisations build digital transformation capabilities. To address this research aim two different case study types are conducted: i) in-depth longitudinal qualitative case study, where case narratives and visualisations capturing hard-to-summarise complexities in the enterprise collaboration platform evolution are developed and ii) multiple-case studies to capture, investigate, and compare cross-case elements that contribute to the shaping of enterprise collaboration platforms in different medium-sized and large organisations from a range of industries. Empirical data is captured and investigated through a multi-method research design (incl. focus groups, surveys, in-depth interviews, literature reviews, qualitative content analysis, descriptive statistics) with shifting units of analysis. The findings reveal unique change routes with unanticipated outcomes and transformations, context-specific change strategies to deal with multiple challenges (e.g. GDPR, works council, developments in the technological field, competing systems, integration of blue-collar workers), co-existing platform uses, and various interacting actors from the immediate setting and broader context. The interpretation draws on information infrastructure (II) as a theoretical lens and related sociotechnical concepts and perspectives (incl. inscriptions, social worlds, biography of artefacts). Iteratively, a conceptual model of the building of digital transformation capabilities is developed, integrating the insights gained from the study of enterprise collaboration platform change and developed monitoring change tools (e.g. MoBeC framework). It assists researchers and practitioners in understanding the building of digital transformation capabilities from a theoretical and practical viewpoint and organisations implement the depicted knowledge in their unique digital transformation processes.
Moderne Instant-Messaging-Systeme als Plattform für sicherheitskritische kollaborative Anwendungen
(2010)
Während unter dem Begriff Instant Messaging (IM) ursprünglich nur der Austausch von Textnachrichten (Messaging, Chat) verstanden wurde, bieten heutige Instant-Messaging-Systeme (IM-Systeme, IMS) darüber hinaus viele weitere Funktionen wie Sprachtelefonie, Videokonferenz oder Dateiübertragung an. Aktuelle IM-Systeme werden vor allem in der privaten unverbindlichen Kommunikation eingesetzt. Diese Systeme eignen sich " wie in dieser Arbeit gezeigt wird " aber auch für den Einsatz im geschäftlichen Kontext. Zu den Vorzügen, die sich aus der Nutzung eines IM-Systems ergeben, gehören beispielsweise die spontane, flexible und kostengünstige Nutzung unabhängig von Ort und Zeit, die einfache Verteilung von Informationen an mehrere Teilnehmer und die Verfügbarkeit verschiedener Kommunikationskanäle für unterschiedliche Aufgaben. Der Ursprung dieser Systeme (kurzer informeller Nachrichtenaustausch), ihr modularer Aufbau, die unkontrollierte Installation auf Clients sowie der daraus entstehende Informationsfluss führten zu zahlreichen Fragen und Herausforderungen bezüglich ihrer Sicherheit. So kann beispielsweise nicht ohne weiteres kontrolliert werden, welche Informationen ein Unternehmen auf diesem Weg verlassen. Anders als bei anderen elektronischen Kommunikationsmedien (E-Mail, Web) sind hier noch keine bekannten Sicherheitsmechanismen etabliert (z. B. Spam-Filter, Sicherheitsfunktionen von Webbrowsern). Diese Fragestellungen sind zu betrachten und durch geeignete Maßnahmen zu beantworten, wenn solche Systeme für die Arbeit mit sensiblen und vertraulichen Informationen eingesetzt werden sollen. Ziel der hier vorgestellten Arbeit ist es, Instant-Messaging-Systeme so zu gestalten, dass durch die Konzeption (bzw. Erweiterung) von geeigneten Sicherheitsmechanismen einerseits die einfache und spontane Nutzung der Systeme möglich bleibt und andererseits trotzdem eine sichere, authentifizierte und verbindliche Kollaboration unterstützt wird.
Mathematisches Modellieren bezeichnet die verschiedenen Prozesse, die Menschen durchlaufen, wenn sie versuchen, reale Probleme mathematisch zu lösen oder Textaufgaben zu bearbeiten. In der Literatur werden im sogenannten Modellierungszyklus fünf aufeinanderfolgende Teilprozesse genannt, die den Ablauf des Problemlöseprozesses beschreiben (Blum, 2003). Beim Strukturieren wird zunächst eine Problemsituation im kognitionspsychologischen Sinne verstanden, die wesentlichen Merkmale werden abstrahiert um dann im zweiten Schritt (Mathematisieren) in ein mathematisches Modell (bestehend aus Gleichungen, Symbolen, Operatoren, Ziffern etc.) übersetzt zu werden. Beim Verarbeiten dieses mathematischen Modells mithilfe mathematischen Wissens wird das Problem innermathematisch gelöst, woraufhin das Ergebnis im vierten Schritt (Interpretieren) rückübertragen wird auf die ursprüngliche Problemsituation. Die dort aufgeworfene Frage wird beim Interpretieren beantwortet. Der letzte Schritt (Validieren) sieht eine Überprüfung des gesamten Problemlöseprozesses vor: Kommt der Modellierer zu dem Schluss, dass sein Ergebnis eventuell nicht korrekt bzw. nicht optimal ist, wird der Modellierungszyklus von vorne durchlaufen. Der Modellierungszyklus dient dabei sowohl als deskriptives als auch als präskriptives (normatives) Modell, da er einerseits beschreibt, wie Modellieren abläuft und andererseits vorschreibt, wie Schüler z.B. beim Lösen von mathematischen Textaufgaben vorgehen sollen. Dennoch liegen für beide Zielsetzungen keine empirischen Studien vor, die belegen könnten, dass der Modellierungszyklus sich tatsächlich als deskriptives oder als präskriptives Modell eignet. In der vorliegenden Arbeit konnte die Eignung als deskriptives Modell nur mit Einschränkungen bestätigt werden. So zeigte sich z.B. in einer Voruntersuchung, dass das Stadium Validieren bei Schülern der Klassenstufe 4 nicht zu beobachten ist und dass der Ablauf der Stadien deutlich von der vorgegebenen Reihenfolge abweichen kann. Eine revidierte Version des Modellierungszyklus als rekursives Modell wird daher vorgeschlagen. In einer zweiten, größeren Untersuchung wurde die Eignung als normatives Modell untersucht, indem die vier Stadien Strukturieren, Mathematisieren, Verarbeiten und Interpretieren isoliert voneinander erfasst wurden, wofür zuvor eigens Items konstruiert worden waren. Die vier Unterskalen wurden an mehreren Kriterien - darunter die Fähigkeit zum Lösen kompletter Modellierungsaufgaben - validiert, was den normativen Charakter des Modells bestätigt. Um Modellierungskompetenz frühzeitig diagnostizieren und dementsprechend fördern zu können, ist die Entwicklung von Methoden angezeigt, die vier Teilkompetenzen Strukturieren, Mathematisieren, Verarbeiten und Interpretieren bereits im Grundschulalter unabhängig voneinander objektiv, reliabel und valide zu erfassen. Mit der Entwicklung und Analyse von Items zu den vier Teilbereichen wurde hierfür mit der vorliegenden Arbeit ebenfalls eine Grundlage geschaffen.
Modellbildung zum Abbindeverhalten von PCE-verflüssigten und CA-Zement-gebundenen Feuerbetonen
(2021)
Feuerbetone werden als Auskleidung in industriellen Hochtemperaturaggregaten, wie beispielsweise in der Eisen- und Stahlindustrie, eingesetzt. Nach dem Mischen und dem Gießen eines Feuerbetons in Formen bzw. Schalungen, muss dieser abbinden und eine ausreichende Festigkeit ausbilden. Die Kinetik der Abbindevorgänge und somit auch das Erhärtungsverhalten variiert dabei stark in Abhängigkeit der Zusammensetzung, vor allem hinsichtlich des Bindemittels und der Additive, des Feuerbetons. In der Praxis der Herstellung von Feuerbetonen kommt es häufig zu Beschädigungen der hergestellten Bauteile oder Auskleidungen durch das Fließen noch nicht ausreichend abgebundener Feuerbetone bzw. die Beschädigung von Ecken und Kanten während des Ausschalens oder Bauteilen reißen durch mechanische Belastung beim Umsetzen oder beim Transport. Diese Beschädigungen basieren auf Fehleinschätzungen zum Abbindefortschritt und der korrespondierenden Festigkeitsausprägung der Feuerbetone. Diese wiederum sind auf Lücken im Stand der Technik zurück zu führen.
Für PCE-verflüssigte und CA-Zement-gebundene Korund-Feuerbetonen mit einer Al₂O₃- und Al₂O₃-SiO₂-Matrix, werden die Defizite des Stands der Technik für diese Feuerbetonklasse identifiziert: Diese liegen im Bereich der Verflüssigungswirkung und des ersten Ansteifens der Feuerbetone, der Hydratation des CA-Zements in den Feuerbetonen und der Festigkeitsausprägung der Feuerbetone. Hieraus leitet sich ein entsprechender Forschungsbedarf ab.
Am Beispiel von zwei PCE-verflüssigten (PCE mit kurzer Hauptkette und langen Seitenketten sowie PCE mit langer Hauptkette und kurzen Seitenketten) und CA-Zement-gebundenen (70 % Al₂O₃) Feuerbetonen mit einer reaktivtonerde-basierten und einer reaktivtonerde-mikrosilika-basierten Matrix werden abbindekinetische Untersuchungen durchgeführt. Anhand verschiedener abbindekinetischer Messmethoden, wie Schallgeschwindigkeit oder elektrischer Leitfähigkeit, und einigen ergänzenden Messung, wie beispielsweise das ζ-Potential, wird der Abbindeverlauf der Feuerbetone untersucht und die Defizite aus dem Stand der Technik aufgeklärt.
Im Detail wurde der Stand der Technik um folgende Erkenntnisse ergänzt:
• Verflüssigung von Feuerbetonen mit PCE-Molekülen: Es wurde festgestellt, dass die Verflüssigungswirkung und das erste Ansteifen maßgeblich durch die Struktur der Verflüssigermoleküle hervorgerufen werden.
PCE-Moleküle mit langen Seitenketten verflüssigen eher sterisch. Durch die Vermittlung von Ca²⁺ aus dem CA-Zement wird die Adsorption der PCE-Moleküle verstärkt. Freie PCE-Moleküle können auf CAH-Phasen (Hydratationsprodukte) adsorbieren und somit die Fließfähigkeit des Feuerbetons für eine gewisse Zeit aufrechterhalten.
PCE-Moleküle mit kurzen Seitenketten verflüssigen elektrosterisch. Bei Lösung von Ca²⁺ aus dem CA-Zement kommt es zu einer Ca-PCE Gel-Bildung und einer korrespondierenden Koagulation der Feuerbetonmatrix und der Feuerbeton steift zeitnah nach dem Mischen an.
• Hydratation von CA-Zement: Die Hydratation von CA-Zement in den Feuerbetonen wird wesentlich durch die Länge der Seitenketten der PCE-Moleküle bzw. der Anwesenheit von Zitronensäure beeinflusst.
In Feuerbetonen die mit PCE-Molekülen mit langen Seitenketten verflüssigt wurden, kann der CA-Zement weitestgehend frei hydratisieren. Der CAH-Phasenanteil steigt in zwei Abschnitten, getrennt von einer dormanten Phase. Die dormante Phase der CA Zementhydratation wurde auf eine Lösungshemmung der Al-O-H-Passivierungsschicht auf dem CA-Zement bei mäßigem pH-Wert (pH = 12,3) zurückgeführt.
In Feuerbetonen die mit PCE-Molekülen mit kurze Seitenketten und Zitronensäure verflüssigt werden, wird die Hydratationsreaktion durch eine Ca-Citrat-PCE-Al(OH)₄-Gelbildung stark gehemmt. Es besteht die Vermutung, dass die Bindung von Ca²⁺ in dem Gel zum einen eine sehr ausgeprägte dormante Phase (pH < 12,3), mit einer schlechten Löslichkeit der Passivierungsschicht, bewirkt und zum anderen auch die Fällung von CAH-Phasen unterdrückt.
• Festigkeitsausprägung von CA-Zement-gebundenen Feuerbetonen:
Eine Koagulation bewirkt die erste Festigkeitssteigerung der Feuerbetone auf σB < 1 MPa. Im Anschluss findet die Hauptfestigkeitssteigerung auf Grund von Austrocknung durch Hydratation und Verdunstung statt. Der weitere Teil der Festigkeitssteigerung wird durch die Reduzierung der Porosität durch expansive CA-Zementhydratation und die hohe spezifische Oberfläche sowie deren weitere Erhöhung durch die CA-Zementhydratation bewirkt.
Aus den einzelnen abbindekinetischen Effekten können, zusammen mit dem Stand der Technik und den neuen Erkenntnissen, mikrostrukturelle Abbindemodelle und Modelle zur Festigkeitsentwicklung der Feuerbetone abgeleitet werden. In Folge kann für die zwei Feuerbetone zu jedem Zeitpunkt des Abbindens eine Aussage zum Abbindefortschritt und zur Festigkeitsausprägung getätigt werden. Einige der Abbindemechanismen und festigkeitsbildenden Mechanismen können auf andere Feuerbetonzusammensetzungen übertragen werden.
Die Forschung im Bereich der modellbasierten Objekterkennung und Objektlokalisierung hat eine vielversprechende Zukunft, insbesondere die Gebäudeerkennung bietet vielfaltige Anwendungsmöglichkeiten. Die Bestimmung der Position und der Orientierung des Beobachters relativ zu einem Gebäude ist ein zentraler Bestandteil der Gebäudeerkennung.
Kern dieser Arbeit ist es, ein System zur modellbasierten Poseschätzung zu entwickeln, das unabhängig von der Anwendungsdomäne agiert. Als Anwendungsdomäne wird die modellbasierte Poseschätzung bei Gebäudeaufnahmen gewählt. Vorbereitend für die Poseschätzung bei Gebäudeaufnahmen wird die modellbasierte Erkennung von Dominosteinen und Pokerkarten realisiert. Eine anwendungsunabhängige Kontrollstrategie interpretiert anwendungsspezifische Modelle, um diese im Bild sowohl zu lokalisieren als auch die Pose mit Hilfe dieser Modelle zu bestimmen. Es wird explizit repräsentiertes Modellwissen verwendet, sodass Modellbestandteilen Bildmerkmale zugeordnet werden können. Diese Korrespondenzen ermöglichen die Kamerapose aus einer monokularen Aufnahme zurückzugewinnen. Das Verfahren ist unabhängig vom Anwendungsfall und kann auch mit Modellen anderer rigider Objekte umgehen, falls diese der definierten Modellrepräsentation entsprechen. Die Bestimmung der Pose eines Modells aus einem einzigen Bild, das Störungen und Verdeckungen aufweisen kann, erfordert einen systematischen Vergleich des Modells mit Bilddaten. Quantitative und qualitative Evaluationen belegen die Genauigkeit der bestimmten Gebäudeposen.
In dieser Arbeit wird zudem ein halbautomatisches Verfahren zur Generierung eines Gebäudemodells vorgestellt. Das verwendete Gebäudemodell, das sowohl semantisches als auch geometrisches Wissen beinhaltet, den Aufgaben der Objekterkennung und Poseschätzung genügt und sich dennoch an den bestehenden Normen orientiert, ist Voraussetzung für das Poseschätzverfahren. Leitgedanke der Repräsentationsform des Modells ist, dass sie für Menschen interpretierbar bleibt. Es wurde ein halbautomatischer Ansatz gewählt, da die automatische Umsetzung dieses Verfahrens schwer die nötige Präzision erzielen kann. Das entwickelte Verfahren erreicht zum einen die nötige Präzision zur Poseschätzung und reduziert zum anderen die Nutzerinteraktionen auf ein Minimum. Eine qualitative Evaluation belegt die erzielte Präzision bei der Generierung des Gebäudemodells.
In IT-Systemen treten viele Datenschutzrisiken auf, wenn Datenschutzbedenken in den frühen Phasen des Entwicklungsprozesses nicht angemessen berücksichtigt werden. Die Datenschutz-Grundverordnung (DSGVO) schreibt das Prinzip des Datenschutz durch Technikgestaltung (PbD) vor. PbD erfordert den Schutz personenbezogener Daten von Beginn des Entwicklungsprozesses an, durch das frühzeitige Integrieren geeigneter Maßnahmen. Bei der Realisierung von PbD ergeben sich nachfolgende Herausforderungen: Erstens benötigen wir eine präzise Definition von Datenschutzbedenken. Zweitens müssen wir herausfinden, wo genau in einem System die Maßnahmen angewendet werden müssen. Drittens ist zur Auswahl geeigneter Maßnahmen, ein Mechanismus zur Ermittlung der Datenschutzrisiken erforderlich. Viertens müssen bei der Auswahl und Integration geeigneter Maßnahmen, neben den Risiken, die Abhängigkeiten zwischen Maßnahmen und die Kosten der Maßnahmen berücksichtigt werden.
Diese Dissertation führt eine modellbasierte Methodik ein, um die oben genannten Herausforderungen zu bewältigen und PbD zu operationalisieren. Unsere Methodik basiert auf einer präzisen Definition von Datenschutzbedenken und umfasst drei Untermethodiken: modellbasierte Datenschutzanalyse, modellbasierte Datenschutz-Folgenabschätzung und datenschutzfreundliche Systemmodellierung. Zunächst führen wir eine Definition für Datenschutzpräferenzen ein, anhand derer die Datenschutzbedenken präzisiert werden können und überprüft werden kann, ob die Verarbeitung personenbezogener Daten autorisiert ist. Zweitens präsentieren wir eine modellbasierte Methodik zur Analyse eines Systemmodells. Die Ergebnisse dieser Analyse ergeben die Menge der Verstöße gegen die Datenschutzpräferenzen in einem Systemmodell. Drittens führen wir eine modellbasierte Methode zur Datenschutzfolgenabschätzung ein, um konkrete Datenschutzrisiken in einem Systemmodell zu identifizieren. Viertens schlagen wir in Bezug auf die Risiken, Abhängigkeiten zwischen Maßnahmen und Kosten der Maßnahmen, eine Methodik vor, um geeignete Maßnahmen auszuwählen und in ein Systemdesign zu integrieren. In einer Reihe von realistischen Fallstudien bewerten wir unsere Konzepte und geben einen vielversprechenden Ausblick auf die Anwendbarkeit unserer Methodik in der Praxis.
Wir leben in einer Welt, in der sich Umweltkrisen immer weiter zuspitzen. Um diese Krisen zu entschärfen, braucht es einen sozial-ökologischen Wandel, der mit Verhaltensänderungen in verschiedenen Bereichen des täglichen Lebens einhergehen muss. Ausgehend von dieser gesellschaftlichen Aufgabe, befasst sich die vorliegende Dissertation mit der Frage, wie Verhaltensänderungen auf individueller Ebene angestoßen werden können. Mit dem weltweiten Problem von Plastik in der Umwelt wird ein aktuelles und sozialwissenschaftlich wenig erforschtes Themenfeld aufgegriffen. Es wird untersucht, welche psychologischen Faktoren einen Einfluss darauf haben, den eigenen Plastikkonsum zu reduzieren. Der Fokus liegt dabei insbesondere auf Plastikverpackungen, die den größten Anteil der derzeitigen Plastikproduktion ausmachen. Eine Barriere, die das Aufnehmen von neuen Verhaltensweisen erschwert, stellen die eigenen Gewohnheiten dar. Phasen von Umbrüchen, wie der Umzug in eine neue Stadt, gelten als vielversprechend zur Veränderung von Gewohnheiten. Die Dissertation untersucht daher, ob solche Phasen des Wandels ein Gelegenheitsfenster öffnen können, um alte Gewohnheiten zu durchbrechen und Verhaltensänderungen anzustoßen. Vier Manuskripte nähern sich diesem Thema von einem zunächst breiten Fokus einer Literaturstudie bis hin zu fokussierten Interventionsstudien an. Das Literaturreview (Manuskript 1) fasst 187 Studien zum Umgang mit Plastik aus sozialwissenschaftlicher Perspektive zusammen. Darauf aufbauend, untersucht eine Online-Studie (N = 648) plastikfreie Verhaltensintentionen (Manuskript 2). In einem Strukturgleichungsmodell werden Prädiktoren für Verhaltensintentionen im privaten sowie politischen Bereich analysiert. Zwei Experimentalstudien im Pre-Post-Design schließen an das Verhalten im Privaten an (Manuskript 3 + 4). Es wird untersucht, ob eine Intervention, die während der Fastenzeit (N =140) oder während eines Aktionsmonats (N = 366) präsentiert wird, ein Gelegenheitsfenster zur Konsumreduktion von Plastikverpackungen darstellen kann. Die Ergebnisse der empirischen Arbeiten weisen Moral- und Kontrollüberzeugungen als stärkste Prädiktoren für Verhaltensreduktionen aus. Der Zeitpunkt einer Intervention beeinflusst zudem die Wahrscheinlichkeit ein neues Verhalten auszuprobieren. Die Studien zeigen erste Belege, dass Gelegenheitsfenster umweltfreundliche Verhaltensänderungen im Kontext des Plastikkonsums erleichtern können. Theoretische und praktische Implikationen, wie Gelegenheitsfenstern zu einer sozial-ökologischen Transformation beigetragen können, werden diskutiert.
Aktuelle Entwicklungen in der Europäischen Gesetzgebung fordern die Umsetzung von Risikominderungsmaßnahmen, die diffuse Einträge von Pestiziden in Oberflächengewässer und deren Schadwirkung mindern sollen. Bepflanzte Gräben und Feuchtgebiete (vegetated treatment systems: VTS) bieten die Möglichkeit potenzielle Schadwirkung von Pestizideinträgen infolge von Oberflächenabflussereignissen zu mindern, die mit anderen Maßnahmen unvermeidbar wären. Versuche in experimentellen Feuchtgebieten und bepflanzten Gräben wurden durchgeführt, um die Funktionstüchtigkeit möglicher Systeme zu untersuchen. In fünf Rückhaltebecken und zwei bepflanzten Gräben in der Weinbauregion Südpfalz (Südwestdeutschland) wurde von 2006 bis 2009 eine umfangreiche Beprobung von belastetem Wasser nach Starkregenereignissen vorgenommen und die Reduktionsleistung der Systeme bezüglich der eingetragenen Konzentrationen ermittelt. Der Einfluss von Pflanzendichte, Größe der Systeme und Eigenschaften der eingetragenen, bzw. experimentell eingespeisten Substanzen war Schwerpunkt bei der Auswertung der Ergebnisse. Zur Vorhersage der Gewässerbelastung nach niederschlagsbezogenem Oberflächenabfluss wurde in einer Geoinformationsumgebung (GIS) ein Simulationswerkzeug entwickelt. Das Werkzeug arbeitet mit einer sehr exakten Datenbank von hoher räumlicher Auflösung auf Europäischer Ebene. Basierend auf den Erkenntnissen der Experimente, den Ergebnissen der beprobten Gewässer und weiteren Daten von anderen Systemen, die im EU-Life Projekt ArtWET erhoben wurden, ist ein zweites räumliches Werkzeug entstanden, das zur Entscheidungsunterstützung dient und mit dem Risikominderungsmaßnahmen simuliert werden können. Ergebnisse der Experimente und Feldstudien zeigen, dass in experimentellen Feuchtgebieten und bepflanzten Gräben Reduktionen von über 90% der eingetragenen Pestizidkonzentrationen möglich sind. Bepflanzte Gräben und Feuchtgebiete zeigten signifikant bessere Reduktion als unbepflanzte. Pflanzendichte und Sorptivität an organischen Kohlenstoff wurden als Variablen mit der größten Erklärungskraft für die Zielvariable Reduktion der Pestizidkonzentrationen identifiziert (im Gräben-Mesokosmos konnten 65% der Variabilität mit den Variablen Pflanzendichte und KOC erklärt werden. In der Feldstudie wurde gezeigt, dass Fungizidkonzentrationen innerhalb der Rückhaltebecken (Median 38%) und bepflanzten Gräben (Median 56%) signifikant reduziert wurden. Die Regressionsanalyse mit diesen Daten zeigte, dass neben der Pflanzendichte auch die Größe der Systeme Einfluss auf die Reduktion der Pestizidkonzentrationen hat (DP: R²=0.57, p<0.001; VD:
R²=0.19, p<0.001). Die Datenbank für die GIS Werkzeuge wurde mit frei verfügbaren Europäischen Daten aufgebaut. Der erweiterte, von der OECD empfohlene REXTOX Risikoindikator wurde modifiziert und für die Risikomodellierung für alle Agrargewässer auf Europäischer Ebene angewandt. Die Ergebnisse der Risikosimulationen bieten die Datenbasis für das zweite Werkzeug, in dem auch die VTS als Risikominderungsmaßnahme eingearbeitet sind. Die Berechnung der Risikominderungsmaßnahmen kann für die einzelnen Kulturen, ausgewählte Gebiete und unterschiedliche Pestizide durchgeführt werden. Kosten für die Risikominderungsmaßnahmen werden ermittelt. Die Ergebnisse liefern wichtige neue Erkenntnisse zur Nutzung von bepflanzten Systemen als Risikominderungsmaßnahmen für diffuse Pestizideinträge in Agrargewässer. Die Proben der Weinbaugewässer zeigen, dass auch die bisher schlecht untersuchte Gruppe der Fungizide nachteilige Auswirkungen auf aquatische Ökosysteme haben kann. Die entwickelten GIS Werkzeuge sind leicht anwendbar und damit nicht nur als Basis für zukünftige Untersuchungen geeignet, sondern auch als Entscheidungsunterstützung in der praktischen Umsetzung außerhalb der Forschung hilfreich. Auf Europäischer Ebene können die GIS-Werkzeuge einerseits externe Kosten der Gewässerverschmutzung durch diffuse Pflanzenschutzmitteleinträge berechnen, indem die Kosten der unterschiedlichen Risikominderungsmaßnahmen abgeschätzt werden. Andererseits kann die Simulation der Maßnahmen bei der Entscheidungsfindung zur Umsetzung der Vorgaben der Wasserrahmenrichtlinie helfen. Zukünftige Studien sind insbesondere im Bereich der Fungizidbelastung von Oberflächengewässern und der langfristigen Funktionstüchtigkeit von bewachsenen Gräben und Feuchtgebieten als Risikominderungsmaßnahmen notwendig.
Das Web 2.0 stellt online Technologien zur Verfügung, die es Nutzern erlaubt gemeinsam Inhalte zu erstellen, zu publizieren und zu teilen. Dienste wie Twitter, CNet, CiteSeerX etc. sind Beispiele für Web 2.0 Plattformen, die zum einen Benutzern bei den oben beschriebenen Aktivitäten unterstützen und zum anderen als Quellen reichhaltiger Information angesehen werden können. Diese Plattformen ermöglichen es Nutzern an Diskussionen teilzunehmen, Inhalte anderer Nutzer zu kommentieren, generell Feedback zu geben (z.B. zu einem Produkt) und Inhalte zu publizieren, sei es im Rahmen eines Blogs oder eines wissenschaftlichen Artikels. Alle diese Aktivitäten führen zu einer großen Menge an unstrukturierten Daten. In diesem Überfluss an Informationen kann auf den persönlichen Informationsbedarf einzelner Benutzer nicht mehr individuell genug eingegangen werden kann. Methoden zur automatischen Analyse und Aggregation unstrukturierter Daten die von einzelnen Plattformen zur Verfügung gestellt werden, können dabei helfen den sich aus dem unterschiedlichen Kontext der Plattformen ergebenden Informationsbedarf zu beantworten. In dieser Arbeit stellen wir drei Methoden vor, die helfen den Informationsüberfluss zu verringern und es somit ermöglichen den Informationsbedarf einzelner Nutzer besser zu beantworten.
Der erste Beitrag dieser Arbeit betrachtet die zwei Hauptprobleme des Dienstes Twitter: die Kürze und die Qualität der Einträge und wie sich diese auf die Ergebnisse von Suchverfahren auswirken. Wir analysieren und identifizieren Merkmale für einzelne Kurznachrichten auch Twitter (sog. Tweets), die es ermöglichen die Qualität eines Tweets zu bestimmen. Basierend auf dieser Analyse führen wir den Begriff "Interestingness" ein, der als statisches Qualitätsmaß für Tweets dient. In einer empirischen Analyse zeigen wir, dass die vorgeschlagenen Maße dabei helfen qualitativ hochwertigere Information in Twitter zu finden und zu filtern. Der zweite Beitrag beschäftigt sich mit dem Problem der Inhaltsdiversifikation in einem kollaborativen sozialen System, z.B. einer online Diskussion die aus der sozialen Kollaboration der Nutzer einer Plattform entstanden ist. Ein Leser einer solchen Diskussion möchte sich einen schnellen und umfassenden Überblick über die Pro und Contra Argumente in der Diskussion verschaffen. Zu diesem Zweck wurde FREuD entwickelt, ein Ansatz der hilft das Diversifikationsproblem von Inhalten in den Griff zu bekommen. FREuD kombiniert Latent Semantic Analysis mit Sentiment Analyse. Die Evaluation von FREuD hat gezeigt, dass es mit diesem Ansatz möglich ist, einen umfassenden Überblick über die Unterthemen und die Aspekte einer Diskussion, sowie über die Meinungen der Diskussionteilnehmer zu liefern. Der dritte Beitrag dieser Arbeit ist eine neues Autoren-Thema-Zeit Modell, dass es ermöglicht Trendthemen und Benutzerinteressen in sozialen Medien zu erfassen. Der Ansatz löst dieses Problem indem er die Relationen zwischen Autoren, latenter Themen und zeitlicher Information mittels Bayes'schen Netzen modelliert. Unsere Evaluation zeigt einen verbesserte Erkennung von semantisch zusammenhaängenden Themen und liefert im weiteren Informationen darüber in wie weit die Veränderung im Interesse einzelner Autoren mit der Entwicklung einzelner Themengebiete zusammenhängt.
Semantic-Web-Technologien haben sich als Schlüssel für die Integration verteilter und heterogener Datenquellen im Web erwiesen, da sie die Möglichkeit bieten, typisierte Verknüpfungen zwischen Ressourcen auf dynamische Weise und nach den Prinzipien von sogenannten Dataspaces zu definieren. Die weit verbreitete Einführung dieser Technologien in den letzten Jahren führte zu einer großen Menge und Vielfalt von Datensätzen, die als maschinenlesbare RDF-Daten veröffentlicht wurden und nach ihrer Verknüpfung das sogenannte Web of Data bilden. Angesichts des großen Datenumfangs werden diese Verknüpfungen normalerweise durch Berechnungsmethoden generiert, den Inhalt von RDF-Datensätzen analysieren und die Entitäten und Schemaelemente identifizieren, die über die Verknüpfungen verbunden werden sollen. Analog zu jeder anderen Art von Daten müssen Links die Kriterien für Daten hoher Qualität erfüllen (z. B. syntaktisch und semantisch genau, konsistent, aktuell), um wirklich nützlich und leicht zu konsumieren zu sein. Trotz der Fortschritte auf dem Gebiet des maschinellen Lernens ist die menschliche Intelligenz für die Suche nach qualitativ hochwertigen Verbindungen nach wie vor von entscheidender Bedeutung: Menschen können Algorithmen trainieren, die Ausgabe von Algorithmen in Bezug auf die Leistung validieren, und auch die resultierenden Links erweitern. Allerdings sind Menschen – insbesondere erfahrene Menschen – nur begrenzt verfügbar. Daher kann die Ausweitung der Datenqualitätsmanagementprozesse von Dateneigentümern/-verlegern auf ein breiteres Publikum den Lebenszyklus des Datenqualitätsmanagements erheblich verbessern.
Die jüngsten Fortschritte bei Human Computation und bei Peer-Production-Technologien eröffneten neue Wege für Techniken zur Verwaltung von Mensch-Maschine-Daten, die es ermöglichten, Nicht-Experten in bestimmte Aufgaben einzubeziehen und Methoden für kooperative Ansätze bereitzustellen. Die in dieser Arbeit vorgestellten Forschungsarbeiten nutzen solche Technologien und untersuchen Mensch-Maschine-Methoden, die das Management der Verbindungsqualität im Semantic Web erleichtern sollen. Zunächst wird unter Berücksichtigung der Dimension der Verbindungsgenauigkeit eine Crowdsourcing Methode zur Ontology Alignment vorgestellt. Diese Methode, die auch auf Entitäten anwendbar ist, wird als Ergänzung zu automatischen Ontology Alignment implementiert. Zweitens werden neuartige Maßnahmen zur Dimension des Informationsgewinns eingeführt, die durch die Verknüpfungen erleichtert werden. Diese entropiezentrierten Maßnahmen liefern Datenmanagern Informationen darüber, inwieweit die Entitäten im verknüpften Datensatz Informationen in Bezug auf Entitätsbeschreibung, Konnektivität und Schemaheterogenität erhalten. Drittens wenden wir Wikidata - den erfolgreichsten Fall eines verknüpften Datensatzes, der von einer Gemeinschaft von Menschen und Bots kuratiert, verknüpft und verwaltet wird - als Fallstudie an und wenden deskriptive und prädiktive Data Mining-Techniken an, um die Ungleichheit der Teilnahme und den Nutzerschwung zu untersuchen. Unsere Ergebnisse und Methoden können Community-Managern helfen, Entscheidungen darüber zu treffen, wann/wie mit Maßnahmen zur Nutzerbindung eingegriffen werden soll. Zuletzt wird eine Ontologie zur Modellierung der Geschichte der Crowd-Beiträge auf verschiedenen Marktplätzen vorgestellt. Während der Bereich des Mensch-Maschine-Datenmanagements komplexe soziale und technische Herausforderungen mit sich bringt, zielen die Beiträge dieser Arbeit darauf ab, zur Entwicklung dieses noch aufstrebenden Bereichs beizutragen.
This thesis addresses the automated identification and localization of a time-varying number of objects in a stream of sensor data. The problem is challenging due to its combinatorial nature: If the number of objects is unknown, the number of possible object trajectories grows exponentially with the number of observations. Random finite sets are a relatively new theory that has been developed to derive at principled and efficient approximations. It is based around set-valued random variables that contain an unknown number of elements which appear in arbitrary order and are themselves random. While extensively studied in theory, random finite sets have not yet become a leading paradigm in practical computer vision and robotics applications. This thesis explores random finite sets in visual tracking applications. The first method developed in this thesis combines set-valued recursive filtering with global optimization. The problem is approached in a min-cost flow network formulation, which has become a standard inference framework for multiple object tracking due to its efficiency and optimality. A main limitation of this formulation is a restriction to unary and pairwise cost terms. This circumstance makes integration of higher-order motion models challenging. The method developed in this thesis approaches this limitation by application of a Probability Hypothesis Density filter. The Probability Hypothesis Density filter was the first practically implemented state estimator based on random finite sets. It circumvents the combinatorial nature of data association itself by propagation of an object density measure that can be computed efficiently, without maintaining explicit trajectory hypotheses. In this work, the filter recursion is used to augment measurements with an additional hidden kinematic state to be used for construction of more informed flow network cost terms, e.g., based on linear motion models. The method is evaluated on public benchmarks where a considerate improvement is achieved compared to network flow formulations that are based on static features alone, such as distance between detections and appearance similarity. A second part of this thesis focuses on the related task of detecting and tracking a single robot operator in crowded environments. Different from the conventional multiple object tracking scenario, the tracked individual can leave the scene and later reappear after a longer period of absence. Therefore, a re-identification component is required that picks up the track on reentrance. Based on random finite sets, the Bernoulli filter is an optimal Bayes filter that provides a natural representation for this type of problem. In this work, it is shown how the Bernoulli filter can be combined with a Probability Hypothesis Density filter to track operator and non-operators simultaneously. The method is evaluated on a publicly available multiple object tracking dataset as well as on custom sequences that are specific to the targeted application. Experiments show reliable tracking in crowded scenes and robust re-identification after long term occlusion. Finally, a third part of this thesis focuses on appearance modeling as an essential aspect of any method that is applied to visual object tracking scenarios. Therefore, a feature representation that is robust to pose variations and changing lighting conditions is learned offline, before the actual tracking application. This thesis proposes a joint classification and metric learning objective where a deep convolutional neural network is trained to identify the individuals in the training set. At test time, the final classification layer can be stripped from the network and appearance similarity can be queried using cosine distance in representation space. This framework represents an alternative to direct metric learning objectives that have required sophisticated pair or triplet sampling strategies in the past. The method is evaluated on two large scale person re-identification datasets where competitive results are achieved overall. In particular, the proposed method better generalizes to the test set compared to a network trained with the well-established triplet loss.
In der vorliegenden Untersuchung geht es um methodische Fragen der Unterrichtswahrnehmung aus Schülersicht. Dabei werden theoretische Ansätze zur Urteilsbildung aus der Klassenklima- und der kognitiv fundierten Survey-Forschung sowie der Forschung zur Interpersonalen Wahrnehmung diskutiert. Weiterhin werden Modelle zur inhaltlichen Interpretation von Aggregatmerkmalen (sogenannte Kompositionsmodelle) und zum Einfluss sogenannter "Halo"-Effekte berücksichtigt. Die relevanten Aspekte aus den genannten Theorien sowie empirische Befunde zum Einfluss von Fachleistung, Schulnote und Geschlecht auf die Beurteilung des Unterrichts werden in einem Modell zur Unterrichtswahrnehmung aus Schülersicht zusammengeführt. Daneben werden in der vorliegenden Untersuchung Möglichkeiten und Grenzen verschiedener statistischer Verfahren zur Analyse von Daten zur Wahrnehmung des Unterrichts aus Schülersicht aufgezeigt und diskutiert. Dabei geht es um Fragen der absoluten Übereinstimmung von Urteilern vs. der Interrater-Reliabilität. Weiterhin werden Grundlagen und Effekte von Verletzungen der Annahmen mehrebenenanalytischer konfirmatorischer Faktorenanalysen dargestellt, die im Rahmen einer Monte-Carlo-Studie überprüft werden. Datengrundlage der vorliegenden Untersuchung sind im Rahmen des Projekts DESI (Deutsch Englisch Schülerleistungen International) erhobene Fragebogendaten aus 330 Klassen bzw. Kursen der neunten Jahrgangsstufe, sowie im Längsschnitt erhobene Testleistungen in den Bereichen Deutsch und Englisch. Die Ergebnisse der Analysen bestätigen in großen Teilen das zugrunde gelegte theoretische Modell: Es zeigen sich hohe relative Übereinstimmungen der unterrichtsbezogenen Urteile von Schülerinnen und Schülern. Der Einfluss der Kommunikation mit Mitschülern auf die Urteilsbildung zeigt sich v.a. in der Gruppe der Mädchen. Die theoretischen Unterrichtsmerkmale lassen sich als Faktoren auf beiden Analyseebenen (innerhalb von Klassen und zwischen Klassen) nachweisen, wobei diese " bis auf wenige Ausnahmen " ebenen- sowie fachübergreifend nur im Sinne analoger und nicht "isomorpher" Konstrukte interpretierbar sind. Daneben finden sich deutliche Hinweise auf eine eher Lehrkraft- statt Unterrichtsfach-bezogene Wahrnehmung auf beiden Ebenen. Der Itemformulierung (Ich vs. Klassen-Bezug) kommt insgesamt betrachtet eine eher geringe Bedeutung zu. Bezüglich der Unterrichtswahrnehmungen finden sich Einflüsse der oben genannten Prädiktoren insbesondere auf der Ebene innerhalb von Klassen. Auf Klassenebene zeigt sich ein möglicher Einfluss einer "milden" Benotung auf die geteilte Unterrichtswahrnehmung. Die auf beiden Ebenen deutlichsten Effekte auf die Unterrichtswahrnehmung finden sich bei den Globalurteilen bezüglich der jeweiligen Lehrkraft. Zusammengenommen mit den extrem hohen Interkorrelationen der Faktoren innerhalb eines Fachs (die sich jeweils auf dieselbe Lehrkraft beziehen) und den " aufgrund von Effekten auf Schulebene etc. erwartungswidrigen " niedrigen bis nicht vorhandenen fachübergreifenden Interkorrelationen spricht dies in hohem Maße für eine Verzerrung der Unterrichtswahrnehmung im Sinne einer globalen Wahrnehmungstendenz. Die globale Wahrnehmung muss allerdings gleichzeitig überwiegend als Ergebnis von Unterrichtswahrnehmungen betrachtet werden: Hier zeigen sich die auf der Basis empirischer Untersuchungen theoretisch postulierten unterschiedlichen Gewichtungen der einzelnen Unterrichtsmerkmale über verschiedene Klassen hinweg.
Die Computermodellierung menschlicher Teilkörperstrukturen gewinnt zunehmend an Bedeutung für den Einsatz in der Medizin. Es handelt sich dabei um ein interdisziplinäres Forschungsfeld, bei dem durch die Zusammenarbeit von Physik, Mathematik, Computervisualistik und Medizin neue Methoden entwickelt werden können, mit denen genauere Aussagen über mechanische Belastungen von inneren kraftübertragenden Strukturen, wie Zwischenwirbelscheiben, Ligamente, Gelenke und Muskeln, bei Bewegungsabläufen getroffen werden können.
Zu Beginn dieser Arbeit wird die Bedeutsamkeit des Forschungsbedarfs in der Computermodellierung, spezialisiert auf den Bereich der Wirbelsäule, dargelegt.
Nachfolgend werden die grundlegenden anatomischen Strukturen erörtert, wozu die Zwischenwirbelscheiben, die Ligamente, die Facettengelenke und Muskulatur zählen.
Anschließend werden Algorithmen entwickelt, mit denen aus CT-Daten unter geringem Zeitaufwand sowie semiautomisch individuelle LWS-Modelle erstellt werden können. Dabei werden Methoden erarbeitet, mit denen die vorgestellten kraftübertragenden Strukturen der Wirbelsäule, wie die Zwischenwirbelscheiben, Ligamente, Facettengelenke und Muskeln, modelliert werden können.
Im weiteren Verlauf werden unterschiedliche bildgebende Verfahren (MRT-Daten, Röntgenfilm, Röntgenfunktionsaufnahmen) zur Validierung der LWS-Modelle vorgestellt und verwendet.
Abschließend werden die erarbeiteten Algorithmen genutzt, um eine größere Anzahl an individuellen LWS-Modellen zu erstellen, die anschließend auf Gemeinsamkeiten und Unterschiede bzgl. der inneren Belastungen sowie auf physiologisch korrekte Bewegungsabläufe hin untersucht werden. Dazu wird insbesondere das relative momentane Drehzentrum zwischen zwei benachbarten Wirbeln berechnet.
Method development for the quantification of pharmaceuticals in aqueous environmental matrices
(2021)
Als Folge des Weltbevölkerungswachstums und des daraus resultierenden Wassermangels ist das Thema Wasserqualität zunehmend im Fokus der Öffentlichkeit. In diesem Kontext stellen anthropogene organische Stoffe - oft als Mikroschadstoffe bezeichnet - eine Bedrohung für die Wasserressourcen dar. Besonders Pharmazeutika werden aufgrund ihrer permanenten Einleitung, ihres steigenden Verbrauchs und ihrer wirkungsbasierten Strukturen mit besonderer Besorgnis diskutiert. Pharmazeutika werden hauptsächlich über Kläranlagen in die Umwelt eingeleitet, zusammen mit ihren Metaboliten und den vor Ort gebildeten Transformationsprodukten (TPs). Wenn sie die aquatische Umwelt erreichen, verteilen sie sich zwischen den verschiedenen Umweltkompartimenten, insbesondere der Wasserphase, Schwebstoffen (SPM) und Biota. In den letzten Jahrzehnten wurden Pharmazeutika in der Wasserphase umfassend untersucht. Allerdings wurden extrem polare Pharmazeutika aufgrund des Mangels an robusten Analysemethoden nur selten überwacht. Zudem wurden Metaboliten und TPs selten in Routineanalysemethoden einbezogen, obwohl ihre Umweltrelevanz nachgewiesen ist. Darüber hinaus wurden Pharmazeutika nur sporadisch in SPM und Biota untersucht und es fehlen adäquate Multi-Analyt-Methoden, um umfassende Ergebnisse über ihr Vorkommen in diesen Matrices zu erhalten. Die vorliegende Arbeit wird, diese Wissenslücken durch die Entwicklung generischer Multi-Analyt-Methoden zur Bestimmung von Pharmazeutika in der Wasserphase, SPM und Biota geschlossen und das Vorkommen und die Verteilung von Pharmazeutika in diesen Kompartimenten bewertet. Für einen vollständigen Überblick wurde ein besonderer Schwerpunkt auf polare Pharmazeutika, pharmazeutische Metaboliten und TPs gelegt. Insgesamt wurden drei innovative Multi-Analyt-Methoden entwickelt, deren Analyten ein breites Spektrum an physikalisch-chemischen Eigenschaften abdecken. Zuerst wurde eine zuverlässige Multi-Analyt-Methode entwickelt um extrem polare Pharmazeutika, deren Metaboliten und TPs in wässrigen Umweltproben zu untersuchen. Die ausgewählten Analyten deckten einen signifikanten Bereich erhöhter Polarität ab und die Methode ist leicht um weitere Analyten erweiterbar. Diese Vielseitigkeit konnte durch die Verwendung der Gefriertrocknung als Probenvorbereitung und der zwitterionischen Hydrophile Interaktionschromatographie (HILIC) im Gradientenelutionsmodus erreicht werden. Die Eignung der HILIC-Chromatographie zur gleichzeitigen Quantifizierung einer großen Bandbreite von Mikroschadstoffe in wässrigen Umweltproben wurde gründlich untersucht. Es wurde auf mehrere Einschränkungen hingewiesen: eine sehr komplexe und zeitaufwändige Methodenentwicklung, eine sehr hohe Empfindlichkeit hinsichtlich der Änderung des Acetonitril-Wasser-Verhältnisses im Eluenten oder im Verdünnungsmittel und hohe positive Matrixeffekte für bestimmte Analyten. Diese Einschränkungen können jedoch durch die Verwendung eines präzisen Protokolls und entsprechend markierter interner Standards überwunden werden und werden durch die Vorteile von HILIC, die die chromatographische Trennung von extrem polaren Mikroverunreinigungen ermöglicht, überkompensiert. Die Untersuchung von Umweltproben zeigte erhöhte Konzentrationen der Analyten in der Wasserphase. Insbesondere Gabapentin, Metformin, Guanylharnstoff und Oxypurinol wurden bei Konzentrationen im µg/LBereich im Oberflächenwasser gemessen. Für die Bestimmung von 57 Pharmazeutika und 47 Metaboliten und TPs, die an SPM sorbiert sind, wurde anschließend eine verlässliche Multi-Analyt-Methode etabliert, die eine Quantifizierung bis in den niedrigen ng/g-Bereich erlaubt. Diese Methode wurde konzipiert, um einen großen Polaritätsbereich abzudecken, insbesondere unter Einbeziehung extrem polarer Pharmazeutika. Das Extraktionsverfahren basierte auf einer Druckflüssigkeitsextraktion (PLE), gefolgt von einer Reinigung durch Lösungsmittelaustausch und Detektion durch direkte Injektion-Umkehrphasen-LCMS/MS und Gefriertrocknung-HILIC-MS/MS. Das Sorptionspotential der Pharmazeutika wurde anhand von Laborexperimenten untersucht. Abgeleitete Verteilungskoeffizienten Kd variierten um fünf Größenordnungen unter den Analyten und bestätigten ein hohes Sorptionspotential für positiv geladene und unpolare Pharmazeutika. Das Vorkommen von Pharmazeutika in SPM deutscher Flüsse wurde durch die Untersuchung jährlicher Mischproben bewertet, die zwischen 2005 und 2015 an vier Standorten am Rhein und einem Standort an der Saar entnommen wurden. Dabei zeigte sich das ubiquitäre Vorkommen von an SPM sorbierten Pharmazeutika in diesen Flüssen. Insbesondere positiv geladene Analyten, auch sehr polare und unpolare Pharmazeutika zeigten nennenswerte Konzentrationen. Für viele Pharmazeutika wurde eine deutliche Korrelation zwischen den jährlich in Deutschland konsumierten Mengen und den in SPM gemessenen Konzentrationen festgestellt. Untersuchungen der zusammengesetzten räumlichen Verteilung von SPM erlaubten es, durch den Vergleich der Verschmutzungsmuster entlang des Flusses Hinweise auf spezifische industrielle Einleitungen zu erhalten. Diese Ergebnisse zeigten zum ersten Mal das Potential von SPM für die Überwachung von positiv geladenen und unpolaren Pharmazeutika in Oberflächengewässern. Für Pharmazeutika mit erhöhter Sorptionsaffinität (Kd uber 500 L/kg) erlauben SPM-Analysen sogar die Überwachung niedrigerer Emissionen. Schließlich wurde eine zuverlässige und generische Multi-Analyt-Methode zur Untersuchung von 35 Pharmazeutika und 28 Metaboliten und TPs in Fischplasma, Fischleber und Fischfilet entwickelt. Für diese Matrix war es eine große Herausforderung eine adäquate Aufreinigung zu entwickeln, die eine ausreichende Trennung der störenden Matrix von den Analyten ermöglicht. Bei der endgültigen Methode wurde die Extraktion von Fischgewebe durch Zellaufschluss durchgeführt, gefolgt von einem nicht diskriminierenden Clean-up auf der Basis von Kieselgel-Festphasenextraktion (SPE) und Materialien mit eingeschränkter Zugänglichkeit (RAM). Die Anwendung der entwickelten Methode auf die Messung von Brassen- und Karpfengeweben aus deutschen Flüssen zeigte, dass selbst polare Mikroverunreinigungen wie z.B. Pharmazeutika in Fischgeweben ubiquitär vorhanden sind. Insgesamt wurden 17 Analyten zum ersten Mal in Fischgewebe nachgewiesen, darunter 10 Metaboliten/TPs. Die Bedeutung der Überwachung von Metaboliten und TPs in Fischgeweben wurde durch deren Nachweis in ähnlichen Konzentrationen wie bei ihren Ausgangsstoffe bestätigt. Es zeigte sich, dass Leber und Filet für die Überwachung von Pharmazeutika in Fischen geeignet ¨ sind, während Plasma aufgrund sehr niedriger Konzentrationen und erschwerter Probenahme ungeeignet ist. Erhöhte Konzentrationen bestimmter Metaboliten deuten auf eine mögliche Bildung menschlicher Metaboliten in Fischen hin. Die gemessenen Konzentrationen weisen jedoch auf ein geringes Bioakkumulationspotential für Pharmazeutika in Fischgeweben hin.
Die vorliegende Arbeit betrachtet den Einfluss von Wald- und Wirtschaftswegen auf Abflussentstehung und Bodenerosionsraten innerhalb eines bewaldeten Einzugsgebiets im Naturschutzgebiet Laacher See. Hierfür wurden sowohl bestehende Erosions- und Akkumulationsformen im Gelände kartiert, als auch Erosionssimulationen mittels einer Kleinberegnungsanlage durchgeführt. Zuletzt erfolgte eine Modellierung des Erosionspotentials auf Grundlage der Simulationsergebnisse.
Die Analyse bestehender Erosions- und Akkumulationsformen im Gelände gab einen Hinweis auf Bodenerosionsraten von Wegoberflächen, die zwischen 27,3 und 93,5 t ha-1 a-1 und somit in derselben Größenordnung wie Erosionsraten unter intensiver ackerbaulicher Nutzung lagen.
Die Simulationsläufe zeigten, dass persistente Waldwege ein deutlich verändertes Infiltrationsverhalten aufwiesen. Auf natürlichen Waldböden lag der Anteil des infiltrierten Niederschlags bei durchschnittlich 96%. Im Falle von Waldwegen nahm dieser Anteil im Mittel auf 14% bis 7% ab. Besonders auffällig waren die Ergebnisse auf Rückegassen, auf denen ein erheblicher Einfluss der Bodenverdichtung durch Befahrung nachgewiesen werden konnte. Hier sank der Anteil des infiltrierten Niederschlags auf 31% in den Fahrspuren, zwischen den Spuren wurden noch 76 % infiltriert.
Während der Simulationsläufe konnten maximale Sedimentmengen von 446 g m-2 erodiert werden, was einer mittleren Bodenerosionsrate von 4,96 g m-2 min-1 entspricht. Diese hohen Abtragsraten wurden auf persistenten Wegen mit geringer Befestigung gemessen. Rückegassen wiesen die geringsten Abtragswerte auf, maximal konnten 37 g m-2 erodiert werden, gleichbedeutend mit einer Abtragsrate von 0,41 g m-2 min-1. Die erodierten Sedimentmengen betrugen im Mittel bei Wegen 167 bis 319 g m-2 und im Falle von Rückegassen 17 g m-2. Anhand von Vergleichsmessungen auf Waldstandorten, bei denen ein mittlerer Bodenabtrag von ca. 5 g m-2 festgestellt wurde, konnte eine erhöhte Erodierbarkeit für jedwede Form der Weganlage bestätigt werden.
Auf Basis der im Gelände gemessenen Abtragsraten wurden die Modellierungen kalibriert. Die Ergebnisse der ABAG / DIN 19708 zeigten für das betrachtete Untersuchungsgebiet eine mittlere jährliche Bodenerosionsgefährdung von 2,4 - 5,8 t ha-1 a-1 für persistente Wege und von 0,5 t ha-1 a-1 für Rückegassen. Im Vergleich zum Mittelwert weitgehend unbeeinflusster Waldflächen im Untersuchungsgebiet von 0,1 t ha-1 a-1 zeigte sich abermals ein erhöhtes Abtragspotential. Die physikalisch basierte Modellierung der Beregnungsversuche mittels WEPP zeigte ein zufriedenstellendes Ergebnis bei der Einschätzung des Abflussverhaltens, so wurden für persistente Wege nur Abweichungen von maximal -5% festgestellt. Die Abflussmodellierung auf Rückegassen sowie die generelle Modellierung der Bodenerosion während der Beregnungsversuche zeigte sich im Kontrast hierzu noch fehlerbehaftet, was ursächlich mit der für ein physikalisches Modell relativ geringen Eingangsdatentiefe zu begründen ist.
Es wurde nachgewiesen, dass Waldwege einen bedeutenden Einfluss auf den Wasserhaushalt und das Bodenerosionsgeschehen haben. Der Rückhalt von Niederschlägen wird gemindert und es kommt zu intensivierten Bodenerosionsprozessen. Schlecht befestigte Wege zeigten einen stark erhöhten Bodenabtrag, der zu ökologischen Folgeschäden führen kann. Der Abtrag kann ebenso zu einer Beeinträchtigung der Befahrbarkeit führen. Anhand der Folgen lässt sich die Relevanz der Betrachtung von Abfluss- und Bodenerosionsprozessen auf Wald- und Wirtschaftswegen deutlich machen. Die vorliegende Arbeit stellt die erste Studie dar, innerhalb derer Abfluss- und Bodenerosionspozesse für Walderschließungsnetzwerke in Mitteleuropa untersucht wurden.
Die Studie thematisiert die Positionierung und Subjektivierung von Medienpädagog*innen im Diskurs um Gewaltdarstellungen in Computerspielen. Der sogenannte ‚Killerspiel‘-Diskurs in den Jahren 2001 bis 2016 stellt für medienpädagogische Fachkräfte ein Feld widersprüchlicher Handlungserwartungen dar, Gewaltdarstellungen in Computerspielen entweder als Problem wahrzunehmen und dieses zu bearbeiten oder Computerspiele als Chance zu begreifen. Als rele-vante Multiplikator*innen diskursiver Wissensbestände wurden deswegen für diese Studie Me-dienpädagog*innen interviewt, die an maßgeblichen Positionen in der Schnittstelle zwischen Wissenschaft und Praxis agieren und daher für viele Kolleg*innen deutungs- und praxisrelevan-tes Wissen generieren. Um die Ausrichtung dieses Wissens zu prüfen, wurde in dieser Studie die Frage gestellt, wie sich diese medienpädagogischen Fachkräfte, die korrigierend in Diskurse ein-greifen, positionieren und inwiefern (medien-)pädagogische Professionalität als Ressource und Grenze der Positionierung fungiert.
Um die Fragestellung zu beantworten wurden zwei empirisch analytische Untersuchungen durchgeführt. Zuerst wurde eine Sekundäranalyse bestehender Diskursanalysen zum ‚Killer-spiel‘-Diskurs durchgeführt, um die Subjektpositionen herauszuarbeiten, mit denen sich die Me-dienpädagog*innen auseinandersetzen mussten. In einem zweiten Schritt wurde eine qualitative Interviewstudie mit neun Medienpädagog*innen durchgeführt. Im Anschluss an die semi-narrativen Expert*inneninterviews wurden diese in einem dreistufigen Verfahren ausgewertet. Nach der deduktiven und induktiven Kategorienbildung in Anlehnung an die inhaltlich struktu-rierende Inhaltsanalyse, wurde im Rahmen einer Deutungsmusteranalyse das Deutungswissen der Medienpädagog*innen und der Sinnhorizont ihrer Intervention in den Diskurs feinanalytisch rekonstruiert. Zuletzt wurden drei biographische Fallanalysen durchgeführt, um die Relationie-rung zwischen Diskurs und (Berufs-)biographie zu diskutieren.
Im Rahmen der Sekundäranalyse des ‚Killerspiel‘-Diskurses konnte die bisher in Diskursanaly-sen rekonstruierte Differenzierung von Risiko- und Chancennarrativ erweitert werden. Durch die Abgrenzung jeweils zweier Deutungsmuster des Problemdiskurses (‚Gefahr‘ und ‚Risiko‘) und des Gegendiskurses (‚Optimierung von Lernchancen‘ und ‚Kultur‘) konnten dadurch Positionie-rungen in multiplen Konfliktfeldern sichtbar gemacht werden. So war es möglich die fachliche Positionierung der Medienpädagog*innen als Zwischenraum zu fassen, in dem sowohl Deutun-gen des Gegendiskurses als auch des Problemdiskurses eigenwillig miteinander relationiert wer-den. Die eigenwillige Aneignung diskursiver Problem- und Deutungsmuster verläuft bei den Medienpädagog*innen über unterschiedliche fachliche Schnittstellen und Kopplungen. Statt den Diskurs mit der eigenen Lebensgeschichte zu relationieren wird er mit der in Handlungsfeld-strukturen situierten fachlichen medienpädagogischen Praxis in Beziehung gesetzt. Dabei ist eine Pädagogisierung des Diskurses und eine Diskursivierung pädagogischer Handlungsfelder zu beobachten. Mittels mehrerer Pädagogiken werden diskursive Deutungsmuster transformiert und das medienpädagogische Handeln durch die Re-Interpretation medienpädagogischer Hand-lungsfelder im Sinnhorizont des Diskurses als Intervention in den Diskurs gerahmt. Gleichzeitig wird in einem ‚Opportunismus der Uneindeutigkeit‘ die Anschlussfähigkeit an Problemdeutun-gen durch die Selbstdarstellung als verantwortliche Problembearbeiter*innen gewahrt, wodurch die eigene Handlungsfähigkeit, die Legitimität des Handelns und der Zugang zu gesellschaftli-chen Ressourcen gesichert wird.
In den Fallanalysen zeigte sich, dass diese fachlichen Positionierungen nur dann einen Subjekti-vierungsprozess dokumentieren, wenn die Erzählbausteine des Diskurses (Deutungsmuster und diskursiver Konflikt) als Material für die eigene Selbsterzählung herangezogen und als Professi-onsverständnis re-artikuliert werden. Das Konfliktszenario wird dann über dessen öffentliche Thematisierung hinaus als berufsbiographisches Projekt formulierbar, was sich insbesondere da-rin zeigt, dass prospektive Zukunftsentwürfe weiterhin im Deutungs- und Konfliktspektrum des Diskurses verortet werden. Subjektivierung professioneller Akteure kann daher als über fachliche Positionierungen (als fachlich orientierte, kommentierende Auseinandersetzungen mit im Diskurs verhandelten Deutungsmustern und Wissensbeständen) hinausgehende Prozesse der Deutung des eigenen Professionalitätsverständnisses, die Ausbildung von Pädagogiken und die Veranke-rung berufsbiographischer Ziele im Horizont des Deutungsspektrum des Diskurses gefasst wer-den.
In der medienpädagogischen Professionsforschung können die Deutungsmuster und Subjektpo-sitionen des Diskurses als Professionalitätserwartungen analytisch Anwendung finden. Ihr Vor-teil gegenüber den hierfür auch herangezogenen Paradigmen der Medienpädagogik ist der Aktu-alitäts- und Gegenstandsbezug. Auch in anderen Themenbereichen (bspw. Mediensucht) können die Deutungsmuster des Diskurses sinnvoll Anwendung finden. Die Studie konnte zudem zei-gen, dass eine Subjektivierungsheuristik sinnvoll auf professionelle Akteure anwendbar ist, da fachliche Positionierungen von Subjektivierungen deutlich unterschieden werden können. Dafür wurde eine spezielle für professionelle Akteure konzipierte Subjektivierungsheuristik entworfen, die insbesondere den unterschiedlichen Funktionen diverser Wissensformen Rechnung tragen kann und in der Professionsforschung die Relevanz des diskursiven Wissens als relevanter Wis-sensform für professionelle Praxis herausstellt.
Lakes and reservoirs are important sources of methane, a potent greenhouse gas. Although freshwaters cover only a small fraction of the global surface, their contribution to global methane emission is significant and this is expected to increase, as a positive feedback to climate warming and exacerbated eutrophication. Yet, global estimates of methane emission from freshwaters are often based on point measurements that are spatio-temporally biased. To better constrain the uncertainties in quantifying methane fluxes from inland waters, a closer examination of the processes transporting methane from sediment to atmosphere is necessary. Among these processes, ebullition (bubbling) is an important transport pathway and is a primary source of uncertainty in quantifying methane emissions from freshwaters. This thesis aims to improve our understanding of ebullition in freshwaters by studying the processes of methane bubble formation, storage and release in aquatic sediments. The laboratory experiments demonstrate that aquatic sediments can store up to ~20% (volumetric content) gas and the storage capacity varies with sediment properties. The methane produced is stored as gas bubbles in sediment with minimal ebullition until the storage capacity is reached. Once the sediment void spaces are created by gas bubble formation, they are stable and available for future bubble storage and transport. Controlled water level drawdown experiments showed that the amounts of gas released from the sediment scaled with the total volume of sediment gas storage and correlated linearly to the drop in hydrostatic pressure. It was hypothesized that not only the timing of ebullition is controlled by sediment gas storage, but also the spatial distribution of ebullition. A newly developed freeze corer, capable of characterizing sediment gas content under in situ environments, enabled the possibility to test the hypothesis in a large subtropical lake (Lake Kinneret, Israel). The results showed that gas content was variable both vertically and horizontally in the lake sediment. Sediment methane production rate and sediment characteristics could explain these variabilities. The spatial distribution of ebullition generally was in a good agreement with the horizontal distribution of depth-averaged (surface 1 m) sediment gas content. While discrepancies were found between sediment depth-integrated methane production and the snapshot ebullition rate, they were consistent in a long term (multiyear average). These findings provide a solid basis for the future development of a process-based ebullition model. By coupling a sediment transport model with a sediment diagenetic model, general patterns of ebullition hotspots can be predicted at a system level and the uncertainties in ebullition flux measurements can be better constrained both on long-term (months to years) and short-term (minutes to hours) scales.
Die vorliegende Dissertation beschäftigt sich mit der Messung subjektiver Filmbewertungskriterien (SMEC). SMEC können definiert werden als Standards, die Zuschauer heranziehen, um Eigenschaften von Filmen (z. B. Story, Kamera) zu bewerten. Basierend auf Annahmen aus der Social Cognition Forschung können SMEC als mentale Repräsentationen von - oder Einstellungen gegenüber - spezifischen Filmeigenschaften verstanden werden und spielen eine wichtige Rolle bei der kognitiven und affektiven Informationsverarbeitung und Bewertung von Filmen. In fünf Phasen wurden Skalen zur Erfassung von SMEC entwickelt und validiert. In Phase I wurden mithilfe von offenen Fragen Beschreibungen für Filmbewertungskriterien gesammelt, mittels modifizierter Struktur-Lege-Technik inhaltsvalidiert und schließlich Itemformulierungen abgeleitet. In Phase II wurden die Items reduziert und faktorenanalytisch auf ihre latente Struktur untersucht. Das resultierende 8-Faktoren-Modell wurde anschließend in Phase III mithilfe weiterer Stichproben und konfirmatorischer Verfahren kreuzvalidiert. Latent State-Trait Analysen in Phase IV zeigten, dass es sich um reliable und relativ stabile Dimensionen handelt. Schließlich wurde in Phase V das nomologische Netzwerk der SMEC und verwandter Konstrukte (z. B. Filmbewertungen) untersucht. Insgesamt kann festgestellt werden, dass das SMEC-Konzept einen geeigneten Rahmen bietet, um Forschungsfragen zur Rolle von Filmbewertungskriterien und Bewertungsprozessen bei der Selektion, Rezeption und Wirkung von Filmen zu formulieren und dass die SMEC-Skalen ein geeignetes reliables und valides Instrument zur Untersuchung solcher Fragen darstellen.
Conversion of natural vegetation into cattle pastures and croplands results in altered emissions of greenhouse gases (GHG), such as carbon dioxide (CO2), methane (CH4), and nitrous oxide (N2O). Their atmospheric concentration increase is attributed the main driver of climate change. Despite of successful private initiatives, e.g. the Soy Moratorium and the Cattle Agreement, Brazil was ranked the worldwide second largest emitter of GHG from land use change and forestry, and the third largest emitter from agriculture in 2012. N2O is the major GHG, in particular for the agricultural sector, as its natural emissions are strongly enhanced by human activities (e.g. fertilization and land use changes). Given denitrification the main process for N2O production and its sensitivity to external changes (e.g. precipitation events) makes Brazil particularly predestined for high soil-derived N2O fluxes.
In this study, we followed a bottom-up approach based on a country-wide literature research, own measurement campaigns, and modeling on the plot and regional scale, in order to quantify the scenario-specific development of GHG emissions from soils in the two Federal States Mato Grosso and Pará. In general, N2O fluxes from Brazilian soils were found to be low and not particularly dynamic. In addition to that, expected reactions to precipitation events stayed away. These findings emphasized elaborate model simulations in daily time steps too sophisticated for regional applications. Hence, an extrapolation approach was used to first estimate the influence of four different land use scenarios (alternative futures) on GHG emissions and then set up mitigation strategies for Southern Amazonia. The results suggested intensification of agricultural areas (mainly cattle pastures) and, consequently, avoided deforestation essential for GHG mitigation.
The outcomes of this study provide a very good basis for (a) further research on the understanding of underlying processes causing low N2O fluxes from Brazilian soils and (b) political attempts to avoid new deforestation and keep GHG emissions low.
Mathematical models of species dispersal and the resilience of metapopulations against habitat loss
(2021)
Habitat loss and fragmentation due to climate and land-use change are among the biggest threats to biodiversity, as the survival of species relies on suitable habitat area and the possibility to disperse between different patches of habitat. To predict and mitigate the effects of habitat loss, a better understanding of species dispersal is needed. Graph theory provides powerful tools to model metapopulations in changing landscapes with the help of habitat networks, where nodes represent habitat patches and links indicate the possible dispersal pathways between patches.
This thesis adapts tools from graph theory and optimisation to study species dispersal on habitat networks as well as the structure of habitat networks and the effects of habitat loss. In chapter 1, I will give an introduction to the thesis and the different topics presented in this thesis. Chapter 2 will then give a brief summary of tools used in the thesis.
In chapter 3, I present our model on possible range shifts for a generic species. Based on a graph-based dispersal model for a generic aquatic invertebrate with a terrestrial life stage, we developed an optimisation model that models dispersal directed to predefined habitat patches and yields a minimum time until these patches are colonised with respect to the given landscape structure and species dispersal capabilities. We created a time-expanded network based on the original habitat network and solved a mixed integer program to obtain the minimum colonisation time. The results provide maximum possible range shifts, and can be used to estimate how fast newly formed habitat patches can be colonised. Although being specific for this simulation model, the general idea of deriving a surrogate can in principle be adapted to other simulation models.
Next, in chapter 4, I present our model to evaluate the robustness of metapopulations. Based on a variety of habitat networks and different generic species characterised by their dispersal traits and habitat demands, we modeled the permanent loss of habitat patches and subsequent metapopulation dynamics. The results show that species with short dispersal ranges and high local-extinction risks are particularly vulnerable to the loss of habitat across all types of networks. On this basis, we then investigated how well different graph-theoretic metrics of habitat networks can serve as indicators of metapopulation robustness against habitat loss. We identified the clustering coefficient of a network as the only good proxy for metapopulation robustness across all types of species, networks, and habitat loss scenarios.
Finally, in chapter 5, I utilise the results obtained in chapter 4 to identify the areas in a network that should be improved in terms of restoration to maximise the metapopulation robustness under limited resources. More specifically, we exploit our findings that a network’s clustering coefficient is a good indicator for metapopulation robustness and develop two heuristics, a Greedy algorithm and a deducted Lazy Greedy algorithm, that aim at maximising the clustering coefficient of a network. Both algorithms can be applied to any network and are not specific to habitat networks only.
In chapter 6, I will summarize the main findings of this thesis, discuss their limitations and give an outlook of future research topics.
Overall this thesis develops frameworks to study the behaviour of habitat networks and introduces mathematical tools to ecology and thus narrows the gap between mathematics and ecology. While all models in this thesis were developed with a focus on aquatic invertebrates, they can easily be adapted to other metapopulations.
Diese Dissertation entsteht im Rahmen des Projekts Research-Group Learning and Neurosciences (ReGLaN)-Health and Logistics, welches die Optimierung der Gesundheitsversorgung in ländlichen Gebieten Südafrikas zum Ziel hat. Es besteht dabei eine Kooperation mit dem Council for Scientific and Industrial Research (CSIR) Meraka Institute mit Prof. Dr. Dr. Marlien Herselman, Pretoria, Südafrika, als zentrale Ansprechpartnerin. Die Dissertation befasst sich mit der mathematischen Modellierung für adaptive graphische Benutzerschnittstellen (GUI), die ein angepasstes Verhalten in Abhängigkeit von Geographischen Informationssystemen (GIS) besitzen und durch räumliche Fuzzy-Logik gesteuert werden. Innerhalb der Arbeit geht es um die mathematische Visualisierung von maßgeschneiderten Risiko- und Ressourcenkarten für epidemiologische Fragestellungen mit GIS und adaptives GUI-Design für eine Open Source (OS)-Anwendung für digitale Endgeräte zur räumlichen Entscheidungsunterstützung zugeschnitten auf unterschiedliche Benutzergruppen. Zur Evaluation und Initialisierung der GUI-Elemente wurde empirische Lehr-Lern-Forschung zum Umgang mit Geomedien und GUI-Elementen eingesetzt.
Massenprozessmanagement
(2015)
Vorliegende Dissertation beantwortet die Forschungsfrage, welche grundlegend geeigneten Vorgehensweisen und notwendigen Informationstechnologien für das Management von hohen Anzahlen an Geschäftsprozessen (Mass Process Management, MBPM) in Dienstleistungsun-ternehmen zu berücksichtigen sind. Es konnte gezeigt werden, dass zur Bearbeitung von Massenprozessen eine spezielle, Methoden aus der Fertigungsindustrie verwendende Vorgehensweise notwendig ist. Das Forschungsziel, die Entwicklung einer MBPM-Vorgehensweise für Dienstleistungsunternehmen, wurde unter Anwendung des Forschungsansatzes Design Science Research erreicht und wird in der Dissertation in aufeinander aufbauenden Schritten erläutert. Zur Entwicklung der MBPM-Vorgehensweise wurde eine Langzeit-Tiefenfallstudie bei einem Prozess-Outsourcing-Dienstleister erstellt, um aus dessen Vorgehen Erkenntnisse zu gewinnen. Outsourcing-Unternehmen müssen ihre Dienstleistungen (Produkte) besonders effizient und effektiv erstellen, da sie sonst ihre Produkte nicht zu attraktiven Konditionen anbieten können. Es hat sich gezeigt, dass die fabrikorientierte Vorgehensweise des Outsourcing-Dienstleisters über den Betrachtungszeitraum von zehn Jahren dazu geeignet war, hohe Prozessmengen in höchster Qualität, zu stets sinkenden Preisen mit immer weniger Personen zu bearbeiten.
Der vermutete Forschungsbedarf in Bezug auf MBPM konnte auf Basis einer intensiven Literaturrecherche über das Zeitschriftenrating VHB-JOURQUAL und weitere Literaturquellen bestätigt werden. Da Vorgehensweisen für die Einführung von BPM in einer Vielzahl gefunden wurden, wurde eine Auswahl an BPM-Vorgehensweisen analysiert, um weitere Erkenntnisse für die Erstellung der MBPM-Vorgehensweise zu gewinnen. Durch die Analyse und den Vergleich der verschiedenen BPM-Vorgehensweisen aber auch durch den Vergleich mit dem Vorgehen des Prozess-Outsourcing-Dienstleisters stellte sich heraus, dass sich BPM und MBPM in zahlreichen Aspekten voneinander unterscheiden. MBPM hat einen stark operativen Fokus und benötigt intensive Unterstützung durch Informationstechnologie. Der operative Fokus zeigt sich vor allem in der für das MBPM notwendigen operativen Steuerung von Prozessen und Menschen und den damit einhergehenden hohen Anforderungen an Prozesstransparenz. Mit detailliertem Prozessmonitoring und feingranularen Prozessmessungen sowie zeitnahem Reporting wird diese Prozesstransparenz erreicht. Informationstechnologie wird benötigt, um bspw. Prozessmonitoring zeitnah durchzuführen aber auch um internen wie externen Anspruchstellern zu jeder Zeit den gewünschten Überblick zur aktuellen Auslastung aber auch zur Abrechnung der Dienstleistungen gewähren zu können.
Es konnte entgegen des Vorgehens des Prozess-Outsourcing-Dienstleisters gezeigt werden, dass Change Management die Einführung, den dauerhaften Betrieb und den mit MBPM verbundenen stetigen Wandel in positiver Weise beeinflussen kann.
The semantic web and model-driven engineering are changing the enterprise computing paradigm. By introducing technologies like ontologies, metadata and logic, the semantic web improves drastically how companies manage knowledge. In counterpart, model-driven engineering relies on the principle of using models to provide abstraction, enabling developers to concentrate on the system functionality rather than on technical platforms. The next enterprise computing era will rely on the synergy between both technologies. On the one side, ontology technologies organize system knowledge in conceptual domains according to its meaning. It addresses enterprise computing needs by identifying, abstracting and rationalizing commonalities, and checking for inconsistencies across system specifications. On the other side, model-driven engineering is closing the gap among business requirements, designs and executables by using domain-specific languages with custom-built syntax and semantics. In this scenario, the research question that arises is: What are the scientific and technical results around ontology technologies that can be used in model-driven engineering and vice versa? The objective is to analyze approaches available in the literature that involve both ontologies and model-driven engineering. Therefore, we conduct a literature review that resulted in a feature model for classifying state-of-the-art approaches. The results show that the usage of ontologies and model-driven engineering together have multiple purposes: validation, visual notation, expressiveness and interoperability. While approaches involving both paradigms exist, an integrated approach for UML class-based modeling and ontology modeling is lacking so far. Therefore, we investigate the techniques and languages for designing integrated models. The objective is to provide an approach to support the design of integrated solutions. Thus, we develop a conceptual framework involving the structure and the notations of a solution to represent and query software artifacts using a combination of ontologies and class-based modeling. As proof of concept, we have implemented our approach as a set of open source plug-ins -- the TwoUse Toolkit. The hypothesis is that a combination of both paradigms yields improvements in both fields, ontology engineering and model-driven engineering. For MDE, we investigate the impact of using features of the Web Ontology Language in software modeling. The results are patterns and guidelines for designing ontology-based information systems and for supporting software engineers in modeling software. The results include alternative ways of describing classes and objects and querying software models and metamodels. Applications show improvements on changeability and extensibility. In the ontology engineering domain, we investigate the application of techniques used in model-driven engineering to fill the abstraction gap between ontology specification languages and programming languages. The objective is to provide a model-driven platform for supporting activities in the ontology engineering life cycle. Therefore, we study the development of core ontologies in our department, namely the core ontology for multimedia (COMM) and the multimedia metadata ontology. The results are domain-specific languages that allow ontology engineers to abstract from implementation issues and concentrate on the ontology engineering task. It results in increasing productivity by filling the gap between domain models and source code.
Terrainklassifikation mit Markov Zufallsfeldern für autonome Roboter in unstrukturiertem Terrain
(2015)
Diese Doktorarbeit beschäftigt sich mit dem Problem der Terrainklassifikation im unstrukturierten Außengelände. Die Terrainklassifikation umfasst dabei das Erkennen von Hindernissen und flachen Bereichen mit der einhergehenden Analyse der Bodenoberfläche. Ein 3D Laser-Entfernungsmesser wurde als primärer Sensor verwendet, um das Umfeld des Roboters zu vermessen. Zunächst wird eine Gitterstruktur zur Reduktion der Daten eingeführt. Diese Datenrepräsentation ermöglicht die Integration mehrerer Sensoren, z.B. Kameras für Farb- und Texturinformationen oder weitere Laser-Entfernungsmesser, um die Datendichte zu erhöhen. Anschließend werden für alle Terrainzellen des Gitters Merkmale berechnet. Die Klassifikation erfolgt mithilfe eines Markov Zufallsfeldes für Kontextsensitivität um Sensorrauschen und variierender Datendichte entgegenzuwirken. Ein Gibbs-Sampling Ansatz wird zur Optimierung eingesetzt und auf der CPU sowie der auf GPU parallelisiert um Ergebnisse in Echtzeit zu berechnen. Weiterhin werden dynamische Hindernisse unter Verwendung verschiedener State-of-the-Art Techniken erkannt und über die Zeit verfolgt. Die berechneten Informationen, wohin sich andere Verkehrsteilnehmer bewegen und in Zukunft hinbewegen könnten, werden verwendet, um Rückschlüsse auf Bodenoberflächen zu ziehen die teilweise oder vollständig unsichtbar für die Sensoren sind. Die Algorithmen wurden auf unterschiedlichen autonomen Roboter-Plattformen getestet und eine Evaluation gegen von Menschen annotierte Grundwahrheiten von Karten aus mehreren Millionen Messungen wird präsentiert. Der in dieser Arbeit entwickelte Ansatz zur Terrainklassifikation hat sich in allen Anwendungsbereichen bewährt und neue Erkenntnisse geliefert. Kombiniert mit einem Pfadplanungsalgorithmus ermöglicht die Terrainklassifikation die vollständige Autonomie für radgetriebene Roboter in natürlichem Außengelände.
The Web contains some extremely valuable information; however, often poor quality, inaccurate, irrelevant or fraudulent information can also be found. With the increasing amount of data available, it is becoming more and more difficult to distinguish truth from speculation on the Web. One of the most, if not the most, important criterion used to evaluate data credibility is the information source, i.e., the data origin. Trust in the information source is a valuable currency users have to evaluate such data. Data popularity, recency (or the time of validity), reliability, or vagueness ascribed to the data may also help users to judge the validity and appropriateness of information sources. We call this knowledge derived from the data the provenance of the data. Provenance is an important aspect of the Web. It is essential in identifying the suitability, veracity, and reliability of information, and in deciding whether information is to be trusted, reused, or even integrated with other information sources. Therefore, models and frameworks for representing, managing, and using provenance in the realm of Semantic Web technologies and applications are critically required. This thesis highlights the benefits of the use of provenance in different Web applications and scenarios. In particular, it presents management frameworks for querying and reasoning in the Semantic Web with provenance, and presents a collection of Semantic Web tools that explore provenance information when ranking and updating caches of Web data. To begin, this thesis discusses a highly exible and generic approach to the treatment of provenance when querying RDF datasets. The approach re-uses existing RDF modeling possibilities in order to represent provenance. It extends SPARQL query processing in such a way that given a SPARQL query for data, one may request provenance without modifying it. The use of provenance within SPARQL queries helps users to understand how RDF facts arederived, i.e., it describes the data and the operations used to produce the derived facts. Turning to more expressive Semantic Web data models, an optimized algorithm for reasoning and debugging OWL ontologies with provenance is presented. Typical reasoning tasks over an expressive Description Logic (e.g., using tableau methods to perform consistency checking, instance checking, satisfiability checking, and so on) are in the worst case doubly exponential, and in practice are often likewise very expensive. With the algorithm described in this thesis, however, one can efficiently reason in OWL ontologies with provenance, i.e., provenance is efficiently combined and propagated within the reasoning process. Users can use the derived provenance information to judge the reliability of inferences and to find errors in the ontology. Next, this thesis tackles the problem of providing to Web users the right content at the right time. The challenge is to efficiently rank a stream of messages based on user preferences. Provenance is used to represent preferences, i.e., the user defines his preferences over the messages' popularity, recency, etc. This information is then aggregated to obtain a joint ranking. The aggregation problem is related to the problem of preference aggregation in Social Choice Theory. The traditional problem formulation of preference aggregation assumes a I fixed set of preference orders and a fixed set of domain elements (e.g. messages). This work, however, investigates how an aggregated preference order has to be updated when the domain is dynamic, i.e., the aggregation approach ranks messages 'on the y' as the message passes through the system. Consequently, this thesis presents computational approaches for online preference aggregation that handle the dynamic setting more efficiently than standard ones. Lastly, this thesis addresses the scenario of caching data from the Linked Open Data (LOD) cloud. Data on the LOD cloud changes frequently and applications relying on that data - by pre-fetching data from the Web and storing local copies of it in a cache - need to continually update their caches. In order to make best use of the resources (e.g., network bandwidth for fetching data, and computation time) available, it is vital to choose a good strategy to know when to fetch data from which data source. A strategy to cope with data changes is to check for provenance. Provenance information delivered by LOD sources can denote when the resource on the Web has been changed last. Linked Data applications can benefit from this piece of information since simply checking on it may help users decide which sources need to be updated. For this purpose, this work describes an investigation of the availability and reliability of provenance information in the Linked Data sources. Another strategy for capturing data changes is to exploit provenance in a time-dependent function. Such a function should measure the frequency of the changes of LOD sources. This work describes, therefore, an approach to the analysis of data dynamics, i.e., the analysis of the change behavior of Linked Data sources over time, followed by the investigation of different scheduling update strategies to keep local LOD caches up-to-date. This thesis aims to prove the importance and benefits of the use of provenance in different Web applications and scenarios. The exibility of the approaches presented, combined with their high scalability, make this thesis a possible building block for the Semantic Web proof layer cake - the layer of provenance knowledge.
In dieser Arbeit werden die schottischen Liedbearbeitungen Ludwig van Beethovens auf ihre möglichen gälischen Vorläufer untersucht und in ihrem historischen Kontext aus einer gälischen Perspektive betrachtet. Ihre Liedbiographien werden um Vorläufer ergänzt und vervollständigt, die vom dem schottischen Auftraggeber Beethovens, George Thomson teilweise vorsätzlich unterschlagen wurden. Gründe hierfür sind in der politischen und kulturellen Unterdrückung der gälischen Sprachgemeinschaft Schottlands zu finden. Handelt es sich wirklich um anonyme Volkslieder, oder auch um Kompositionen bekannter Musiker aus der gälischen Kultur? Welche Veränderungen erfuhren sie im Zuge der Anonymisierung und der Degradierung zur Volksmusik, sowie der anschließenden Neuausrichtung in der schottischen Nationalmusik? Zu 12 der schottischen Lieder Beethovens sind ausführliche Liedbiographien mit allen gälischen Liedtexten, deutscher Übersetzung und den historischen Hintergründen der gälischen Vorläufer und ihrer Notierungen entstanden.
In der vorliegenden Arbeit wurde untersucht, inwieweit durch lokale Wirtschaftsförderungsinitiativen in Namibia Projekte zur Minderung von Treibhausgasen angestoßen werden können. Dabei wurde insbesondere geprüft, ob der Clean Development Mechanism (CDM) des Kyotoprotokolls sinnvoll genutzt werden kann.
Dazu wurden zuerst die Faktoren (Potential für Minderungsprojekte, Geschäfts- und Investitionsklima, institutionelle Rahmenbedingungen, etc.), die die Initiierung von Projekten fördern oder behindern können, diskutiert. In einem weiteren Schritt wurde analysiert, welche Einstellung Klima- und Energieexperten und Personen, die im Bereich lokaler und regionaler Wirtschaftsförderung tätig sind, zur Forschungsfrage haben. Dazu wurden 229 Fragebögen, 28 individuelle Interviews und eine Fokusgruppendiskussion mit 20 Teilnehmern ausgewertet. Des Weiteren wurde die praktische Umsetzbarkeit entsprechender Maßnahmen mit Hilfe einer vom Autor initiierten "real life"-Fallstudie untersucht. Während der Entwicklung einer lokalen Wirtschaftsförderungsstrategie in der namibischen Region Otjozondjupa wurde auch das dortige Potential für Treibhausgasminderungsprojekte eingeschätzt, darauf basierend wurden Projektideen entwickelt und deren nachhaltige soziale und wirtschaftliche Auswirkungen beurteilt. Erfolg versprechende Projekte wurden anschließend in die Strategie zur Implementierung integriert.
Aufgrund verschiedener Faktoren wie beispielsweise der Komplexität von CDM, dem geringen Ausstoß von Treibhausgasen in Namibia, der schlechten Marktsituation für Emissionsrechte und unzureichender finanzieller Mittel hat die Initiierung von CDM-Projekten durch lokale Wirtschaftsförderung in Namibia den im Rahmen der vorliegenden durchgeführten Untersuchungen zufolge wenig Aussicht auf Erfolg. Jedoch besteht seitens der Akteure die grundsätzliche Bereitschaft, Minderungsprojekte in lokale Wirtschaftsförderung zu integrieren, wenn damit vorrangig die Ziele der Wirtschaftsförderung erreicht werden. Die Untersuchung zeigte, dass lokal initiierte Minderungsprojekte kaum zur Schaffung von Einkommensquellen oder Arbeitsplätzen beitragen. Stattdessen sollten eher nationale strategische Ziele verfolgt werden, wie z. B. eine flächendeckende Elektrizitätsversorgung oder die Verminderung der Abhängigkeit von Stromimporten. Dazu müsste bei lokaler Wirtschaftsförderung zukünftig auch der Energiesektor eine größere Rolle spielen, lokale Verwaltungen müssten die Verantwortung für die Initiierung von Energieprojekten übernehmen, nationale und lokale Behörden müssten effizienter zusammenarbeiten und die lokalen Rahmenbedingungen müssten so verbessert werden, dass der Privatsektor bereit ist, seine Rolle in der Wirtschaftsförderung zu übernehmen. Darüber hinaus sollten die Interessen der Bevölkerung berücksichtigt und alle Akteure frühzeitig in Entscheidungsprozesse eingebunden werden.