Dissertation
Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (469) (entfernen)
Sprache
- Englisch (245)
- Deutsch (222)
- Mehrsprachig (1)
- Spanisch (1)
Schlagworte
- Pestizid (8)
- Pflanzenschutzmittel (8)
- Führung (6)
- Inklusion (6)
- Grundwasserfauna (5)
- Landwirtschaft (5)
- Persönlichkeit (4)
- Software Engineering (4)
- Unterrichtsforschung (4)
- ecotoxicology (4)
Institut
- Fachbereich 7 (93)
- Fachbereich 8 (47)
- Institut für Informatik (33)
- Institut für Integrierte Naturwissenschaften, Abt. Biologie (29)
- Institut für Umweltwissenschaften (23)
- Institut für Integrierte Naturwissenschaften, Abt. Chemie (21)
- Fachbereich 5 (20)
- Institut für Computervisualistik (18)
- Institut für Wirtschafts- und Verwaltungsinformatik (13)
- Institut für Integrierte Naturwissenschaften, Abt. Physik (12)
Im Kontext des Geschäftsprozessmanagements werden häufig sogenannte
Business Rules (Geschäftsregeln) als zentrales Artefakt zur Modellierung von
unternehmensinterner Entscheidungslogik sowie der Steuerung von Unternehmensaktivitäten eingesetzt. Eine exemplarische Geschäftsregel aus dem Finanzsektor wäre z.B. ”Ein Kunde mit geistiger Behinderung ist nicht geschäftsfähig”.
Business Rules werden hierbei meist von mehreren Mitarbeitern und über einen
längeren Zeitraum erstellt und verwaltet. Durch dieses kollaborative Arbeiten
kann es jedoch leicht zu Modellierungsfehlern kommen. Ein großes Problem in
diesem Kontext sind Inkonsistenzen, d.h. sich widersprechende Regeln. In Bezug
auf die oben gezeigte Regel würde beispielsweise eine Inkonsistenz entstehen,
wenn ein (zweiter) Modellierer eine zusätzliche Regel ”Kunden mit geistiger
Behinderung sind voll geschäftsfähig” erstellt, da diese beiden Regeln nicht zeitgleich einhaltbar sind. Die vorliegende Arbeit beschäftigt sich mit dem Umgang
mit solchen Inkonsistenzen in Business Rule-Repositorien. Hierbei werden im
Speziellen Methoden und Techniken zur Erkennung, Analyse und Behebung von
Inkonsistenzen in Regelbasen entwickelt.
In Kooperation mit dem TÜV SÜD und 985 Führungskräften aus deutschen Unternehmen wurde erprobt, wie Service-Qualität im Rahmen einer Onlinebefragung gemessen werden kann. Es wurde untersucht, welche Komponenten Service-Qualität umfasst, und ein Rahmenmodell entwickelt, das die Zusammenhänge zwischen Service-Qualität, Kundenzufriedenheit und dem Erfolg von Organisationen beschreibt. Die theoretische Konzeption und Operationalisierung des Konstrukts wurde mittels konfirmatorischer Faktorenanalysen überprüft und bestätigt. Das Rahmenmodell der Studie wurde als Strukturgleichungsmodell formuliert und konnte ebenfalls empirisch bestätigt werden. Die Ergebnisse und deren Auswirkung auf die Weiterentwicklung der bestehenden wissenschaftlichen Theorien zu den Konstrukten Service-Qualität, Kundenzufriedenheit und Erfolg von Organisationen wurden kritisch diskutiert.
Zur Steigerung der Ökonomie des Verfahrens wurde ein adaptiver Test zur Erfassung von Service-Qualität entwickelt. Im Rahmen der probabilistischen Testtheorie wurde geprüft, welches Item Response-Modell die empirischen Daten gut beschreiben kann. Als Grundlage für den adaptiven Test wurden die Item-Parameter modellkonform bestimmt. In einer Simulationsstudie wurde untersucht, ob die Ergebnisse der Onlinebefragung sich bedeutsam von den Ergebnissen adaptiver Tests mit unterschiedlichen Konfigurationen unterscheiden. Der Vergleich der Konfigurationen, die sich darin unterschieden, wie der Personenparameter geschätzt wurde und nach welchem Algorithmus das nächste Test-Item gewählt wurde, zeigte, welche Konfigurationen eingesetzt werden können, um eine möglichst geringe Testlänge zu erzielen, ohne dabei bedeutsame Einbußen bei der Reliabilität und Validität der Messung in Kauf zu nehmen. Unter Berücksichtigung dieser Erkenntnisse wurde der Fragebogen zur Erfassung von Service-Qualität als computerbasierter adaptiver Test umgesetzt. Diese neue Erfassungsmethode wurde in der Praxis erprobt, und abschließend wurden Nützlichkeit, Ökonomie und mögliche Nachteile, die mit dieser Art des Testens verknüpft sind, diskutiert.
Dieses Dokument, detailierte Analyseergebnisse, den adaptiven Test zur Erfassung von Service-Qualität und weitere Begleitmaterialien finden Sie unter: https://promotion.creaval.de
Eutrophierung infolge übermäßiger Nährstoffeinträge ist eine ernsthafte, weltweite Bedrohung für aquatische Ökosysteme und ist einer der wesentlichen anthropogenen Stressoren auf aquatische Organismen in europäischen Fließgewässern. In Bächen und kleinen bis mittelgroßen Flüssen führt Eutrophierung zu einem übermäßigen Wachstum von Periphyton und dadurch zu einem Verstopfen des hyporheischen Interstitials (biogene Kolmation). Infolgedessen kommt es zu einem Sauerstoffdefizit im Interstitial, wodurch die Habitatqualität für das Makrozoobenthos und für Eier und Larven kieslaichender Fische erheblich beeinträchtigt wird. Anders als in stehenden Gewässern fehlen effiziente Werkzeuge zur Eutrophierungssteuerung in Fließgewässern bisher. Eine Top-down Steuerung des Nahrungsnetzes durch gezielte Stützung der Fischbestände, vergleichbar mit der erfolgreich in Seen angewendeten Methode der Biomanipulation, ist ein vielversprechender Ansatz zur Reduktion von Eutrophierungseffekten in Fließgewässern – insbesondere in Einzugsgebieten, in denen die Nährstoffeinträge nicht erheblich reduziert werden können. Ziel dieser Arbeit war es, das Potenzial einer Top-down Steuerung zur Reduktion von Eutrophierungseffekten durch zwei großwüchsige karpfenartige Fischarten – die herbivore Nase (Chondrostoma nasus) und den omnivoren Döbel (Squalius cephalus) – in mittelgroßen Flüssen zu erfassen. Dazu habe ich Freilandexperimente auf unterschiedlich großen räumlichen und zeitlichen Skalen in einem eutrophierten Mittelgebirgsfluss durchgeführt. Generell haben die Ergebnisse dieser Experimente die zentrale Rolle von Top-down Effekten durch Fische in Fließgewässernahrungsnetzen aufgezeigt. In einem vierjährigen großskaligen Experiment, dem zentralen Teil meiner Arbeit, konnte ich zeigen, dass die Stützung der Bestände von Nase und Döbel zu einer deutlichen Verbesserung der Sauerstoffversorgung und des Wasseraustauschs im oberen Bereich des Interstitials geführt hat, und das, obwohl die Top-down Effekte der Fische auf die Periphytonbiomasse vergleichsweise gering ausgeprägt waren. Diese Ergebnisse konnten durch ein vierwöchiges Mesokosmosexperiment gestützt werden, das zugleichwertvolle Hinweise auf die zugrundeliegenden Mechanismen für die Verringerung der Eutrophierungseffekte im Interstitial durch Nase und Döbel geliefert hat. Durch hohe Dichten beider Fischarten wurde das Sauerstoffdefizit im Interstitial verringert, was wahrscheinlich auf eine Reduktion der biogenen Kolmation des Interstitials durch benthisches Grazing der Nasen bzw. durch Bioturbation der Döbel zurückzuführen war. Insgesamt zeigen die Ergebnisse meiner Arbeit, dass eine Biomanipulation durch Stützung der Bestände herbivorer und omnivorer Fische potenziell geeignet ist, um Eutrophierungseffekte in mittelgroßen Flüssen zu reduzieren. Die Ergebnisse könnten somit der erste Schritt sein, um Biomanipulation als unterstützende Maßnahme zur Verringerung von Eutrophierungseffekten in Fließgewässern zu etablieren, und damit zum Erhalt der aquatischen Biodiversität beitragen.
Wir leben in einer Welt, in der sich Umweltkrisen immer weiter zuspitzen. Um diese Krisen zu entschärfen, braucht es einen sozial-ökologischen Wandel, der mit Verhaltensänderungen in verschiedenen Bereichen des täglichen Lebens einhergehen muss. Ausgehend von dieser gesellschaftlichen Aufgabe, befasst sich die vorliegende Dissertation mit der Frage, wie Verhaltensänderungen auf individueller Ebene angestoßen werden können. Mit dem weltweiten Problem von Plastik in der Umwelt wird ein aktuelles und sozialwissenschaftlich wenig erforschtes Themenfeld aufgegriffen. Es wird untersucht, welche psychologischen Faktoren einen Einfluss darauf haben, den eigenen Plastikkonsum zu reduzieren. Der Fokus liegt dabei insbesondere auf Plastikverpackungen, die den größten Anteil der derzeitigen Plastikproduktion ausmachen. Eine Barriere, die das Aufnehmen von neuen Verhaltensweisen erschwert, stellen die eigenen Gewohnheiten dar. Phasen von Umbrüchen, wie der Umzug in eine neue Stadt, gelten als vielversprechend zur Veränderung von Gewohnheiten. Die Dissertation untersucht daher, ob solche Phasen des Wandels ein Gelegenheitsfenster öffnen können, um alte Gewohnheiten zu durchbrechen und Verhaltensänderungen anzustoßen. Vier Manuskripte nähern sich diesem Thema von einem zunächst breiten Fokus einer Literaturstudie bis hin zu fokussierten Interventionsstudien an. Das Literaturreview (Manuskript 1) fasst 187 Studien zum Umgang mit Plastik aus sozialwissenschaftlicher Perspektive zusammen. Darauf aufbauend, untersucht eine Online-Studie (N = 648) plastikfreie Verhaltensintentionen (Manuskript 2). In einem Strukturgleichungsmodell werden Prädiktoren für Verhaltensintentionen im privaten sowie politischen Bereich analysiert. Zwei Experimentalstudien im Pre-Post-Design schließen an das Verhalten im Privaten an (Manuskript 3 + 4). Es wird untersucht, ob eine Intervention, die während der Fastenzeit (N =140) oder während eines Aktionsmonats (N = 366) präsentiert wird, ein Gelegenheitsfenster zur Konsumreduktion von Plastikverpackungen darstellen kann. Die Ergebnisse der empirischen Arbeiten weisen Moral- und Kontrollüberzeugungen als stärkste Prädiktoren für Verhaltensreduktionen aus. Der Zeitpunkt einer Intervention beeinflusst zudem die Wahrscheinlichkeit ein neues Verhalten auszuprobieren. Die Studien zeigen erste Belege, dass Gelegenheitsfenster umweltfreundliche Verhaltensänderungen im Kontext des Plastikkonsums erleichtern können. Theoretische und praktische Implikationen, wie Gelegenheitsfenstern zu einer sozial-ökologischen Transformation beigetragen können, werden diskutiert.
Die Umsetzung einer flexiblen Integration von Informationen aus verteilten und komplexen Informationssystemen stellt Unternehmen aktuell vor große Herausforderungen. Das im Rahmen dieser Dissertation entwickelte Ontologie-basierte Informationsintegrationskonzept SoNBO (Social Network of Business Objects) adressiert diese Herausforderungen. Bei einem Ontologie-basierten Konzept werden die Daten in den zu integrierenden Quellsystemen (z. B. betriebliche Anwendungssysteme) mithilfe eines Schemas (= Ontologie) beschrieben. Die Ontologie in Verbindung mit den Daten aus den Quellsystemen ergibt dann einen (virtualisierten oder materialisierten) Knowledge Graph, welcher für den Informationszugriff verwendet wird. Durch den Einsatz eines Schemas ist dieses flexibel auf die sich ändernden Bedürfnisse des Unternehmens bezüglich einer Informationsintegration anpassbar. SoNBO unterscheidet sich von existierenden Konzepten aus dem Semantic Web (OBDA = Ontology-based Data Access, EKG = Enterprise Knowledge Graph) sowohl im Aufbau der unternehmensspezifischen Ontologie (= Social Network of Concepts) als auch im Aufbau des nutzerspezifischen Knowledge Graphen (= Social Network of Business Objects) unter der Verwendung von sozialen Prinzipien (bekannt aus Enterprise Social Software). Aufbauend auf diesem SoNBO-Konzept wird das im Rahmen dieser Dissertation entwickelte SoNBO-Framework (nach Design Science Research) zur Einführung von SoNBO in einem beliebigen Unternehmen und die aus der Evaluation (im Unternehmen KOSMOS Verlag) gewonnenen Erkenntnisse vorgestellt. Die Ergebnisse (SoNBO-Konzept und SoNBO-Framework) basieren auf der Synthese der Erkenntnisse zu Ontologie-basierter Informationsintegration aus dem Status quo in Praxis und Wissenschaft: Für den Status quo in der Praxis wird mithilfe einer Tiefenfallstudie (Ingenieurbüro Vössing) die grundlegende Idee zu SoNBO in Form einer vom Fallstudienunternehmen entwickelten und dort seit Jahren eingesetzten Individualsoftware analysiert. Für den Status quo in der Wissenschaft wird das Ergebnis einer im Rahmen der Dissertation durchgeführten strukturierten Literaturanalyse zu Ontologie-basierten Informationsintegrationsansätzen präsentiert. Diese Dissertation liefert damit einen Beitrag sowohl für die Wissenschaft (Erkenntnisgewinn im Bereich der Ontologie-basierten Informationsintegrationsansätze für die Wirtschaftsinformatik u. a. durch die Entwicklung eines evaluierten Artefaktes) als auch für die Praxis (Schaffung eines evaluierten Artefaktes).
Previous research concerned with early science education revealed that guided play can support young children’s knowledge acquisition. However, the questions whether guided play maintains other important prerequisites such as children’s science self-concept and how guided play should be implemented remain unanswered. The present dissertation encompasses three research articles that investigated 5- to 6-year-old children’s science knowledge, science theories, and science self-concept in the stability domain and their relation to interindividual prerequisites. Moreover, the articles examined whether children’s science knowledge, science theories, and science self-concept can be supported by different play forms, i.e., guided play with material and verbal scaffolds, guided play with material scaffolds, and free play. The general introduction of the present dissertation first highlights children’s cognitive development, their science self-concept, and interindividual prerequisites, i.e., fluid and crystallised intelligence, mental rotation ability, and interest in block play. These prerequisites are applied to possible ways of supporting children during play. The first article focused on the measurement of 5-to-6-year-old children’s stability knowledge and its relation to interindividual prerequisites. Results suggested that children’s stability knowledge could be measured reliably and validly, and was related to their fluid and crystallised intelligence. The second article was concerned with the development of children’s intuitive stability theories over three points of measurement and the effects of guided and free play, children’s prior theories as well as their intelligence on these intuitive theories. Results implied that guided play with material and verbal scaffolds supported children’s stability theories more than the other two play forms, i.e., guided play with material scaffolds and free play. Moreover, consistency of children’s prior theories, their fluid and crystallised intelligence were related to children’s theory adaptation after the intervention. The third article focused on the effect of the playful interventions on children’s stability knowledge and science self-concept over three points of measurement. Furthermore, the reciprocal effects between knowledge acquisition and science self-concept were investigated. Results implied that guided play supported knowledge acquisition and maintained children’s science self-concept. Free play did not support children’s stability knowledge and decreased children’s science self-concept. No evidence for reciprocal effects between children’s stability knowledge and their science self-concept was found. Last, in a general discussion, the findings of the three articles are combined and reflected amidst children’s cognitive development. Summarising, the present dissertation shows that children’s science knowledge, science theories, and science self-concept can be supported through guided play that considers children’s cognitive development.
Die bisherige Forschung zur Diagnosekompetenz hat trotz langjähriger Forschungstraditionen für die Praxis kaum relevante Befunde erbracht. Dies wurde in der vorliegenden Arbeit als Anlass für den Vorschlag genommen, diagnostische Kompetenz als reine Urteilsgenauigkeit, gemäß der Komponentenanalyse nach Cronbach (1955), zu erweitern. Mit der Einführung der Beobachtungskompetenz als einer weiteren Facette diagnostischer Kompetenz knüpft die vorliegende Studie zudem an der Forschung zu formativem Assessment an.
Die zentralen Fragen der Arbeit beziehen sich darauf, wie die beiden Facetten der diagnostischen Kompetenz Urteilsgenauigkeit und Beobachtungskompetenz von pädagogischen Fachkräften im Elementarbereich ausgeprägt sind, ob diese Facetten zusammenhängen und wie sie durch bereichsspezifische Fortbildungen und explizit durch verschiedene Fortbildungsansätze (Lehrgangs- vs. Lernwegsorientierung) verändert werden können. Untersucht wurden insgesamt 103 Erzieherinnen aus 21 Einrichtungen mit eigens für die Arbeit entwickelten Instrumenten (Fragebögen, Filmvignetten).
Zur Beantwortung der ersten Forschungsfrage, wie die bereichsspezifische diagnostische Kompetenz von Erzieherinnen hinsichtlich der Facetten Urteilsgenauigkeit und Beobachtungskompetenz ausgeprägt ist, zeigt sich, dass Erzieherinnen das Niveau ihrer Gruppe im Vergleich der Urteilsgenauigkeits-Komponenten am besten einschätzen können (Niveaukomponente), mit Tendenz zur Überschätzung. Auch die Wahrnehmung von Unterschieden zwischen den Kindern ihrer Gruppe gelingt ihnen gut (Personenkomponente), dabei neigen sie eher zu einer Überschätzung der Heterogenität. Wesentlich schwerer fällt es ihnen, spezifische Aufgabenschwierigkeiten im mathematischen Bereich korrekt einzuschätzen (Merkmalskomponente) und Unterschiede zwischen den Kindern im Hinblick auf einzelne Aufgaben (Wechselwirkungskomponente) zu beurteilen. Die Erzieherinnen sind jedoch sehr gut in der Lage, die Kinder entsprechend ihrer Leistungen in eine Rangreihenfolge zu bringen, wie es die Korrelationskomponente der Personenkomponente zeigt. Die Beobachtungskompetenz von Erzieherinnen zeigt sich in der Anzahl erkannter Fähigkeiten von Kindern während verschiedener Tätigkeiten mit mathematischem Bezug. Dabei wurde der Schwierigkeitsgrad der Beobachtung mittels Expertinneneinschätzung berücksichtigt. Die Erzieherinnen erkennen durchschnittlich die Hälfte der mathematischen Fähigkeiten von Kindern in verschiedenen komplexen Alltagssituationen bei mathematischen Tätigkeiten. Die zweite Forschungsfrage, ob es einen Zusammenhang zwischen der Urteilsgenauigkeit und der Beobachtungskompetenz gibt, kann klar beantwortet werden. Erwartungswidrig zeigt die vorliegende Untersuchung, dass die Facetten Urteilsgenauigkeit und Beobachtungskompetenz voneinander unabhängig sind. Damit konnte die Annahme, dass auf der einen Seite eine genaue summative Beurteilung auf einer Vielzahl kompetenter Einzelbeobachtungen beruht, auf der anderen Seite aber häufige gezielte Einzelbeobachtungen in ihrer Summe zu einem genaueren Gesamturteil führen, nicht bestätigt werden. Die dritte Forschungsfrage, ob eine bereichsspezifische Fortbildung von Erzieherinnen zur Verbesserung ihrer Urteilsgenauigkeit führt, muss verneint werden. Dagegen beeinflusst der Faktor Zeit (neun Monate zwischen Prä- und Posttest) die Fähigkeit der Erzieherinnen, Unterschiede zwischen den Kindern signifikant besser wahrzunehmen (Personenkomponente) und spezifische Aufgabenschwierigkeiten signifikant besser einzuschätzen (Merkmalskomponente). Damit verbessert sich auch die globale Urteilsgenauigkeit über die Zeit signifikant. Auf die Einschätzung des Leistungsniveaus der Gruppe (Niveaukomponente) sowie von Unterschieden zwischen den Kindern für einzelne Items (Wechselwirkungskomponente) hat jedoch auch der Faktor Zeit keinen signifikanten Einfluss.
Die vierte Forschungsfrage, ob die Unterschiede in der Veränderung der Urteilsgenauigkeit von Erzieherinnen davon abhängig sind, nach welchem Ansatz sie Kinder bereichsspezifisch fördern, lässt sich zusammenfassend verneinen. Die Art und Weise der bereichsspezifischen Förderung spielt keine Rolle für die Variabilität der Urteilsgenauigkeit von Erzieherinnen. Auch die Unterschiedlichkeit in den einzelnen Urteilsgenauigkeitskomponenten lässt sich nicht auf die Art der Fortbildung zurückführen.
Die fünfte Forschungsfrage, ob sich die Beobachtungskompetenz von Erzieherinnen durch eine bereichsspezifische Fortbildung beeinflussen lässt, kann aufgrund einer signifikanten Zunahme der Beobachtungskompetenz nach nur zwei Fortbildungstagen bejaht werden. Damit wird die These gestützt, dass eine Fortbildung zur bereichsspezifischen Förderung für eine gezielte und damit fokussiertere Wahrnehmung früher bereichsspezifischer Kompetenzen bedeutsam ist, selbst wenn sie nicht explizit auf diagnostische Kompetenz, sondern allgemein auf Förderung ausgerichtet ist
Die sechste Forschungsfrage zielt auf Veränderungen der Beobachtungskompetenz von Erzieherinnen in Abhängigkeit von Fortbildungen in verschiedenen bereichsspezifischen Förderansätzen ab. Für eine Zunahme der Beobachtungskompetenz, so zeigt sich, spielt der bereichsspezifische Ansatz, welcher der Fortbildung zugrunde gelegt ist, keine Rolle.
Die vorliegende Studie ist die erste Arbeit, die sowohl Beobachtungskompetenz (Forschung zu formativem Assessment) als auch Urteilsgenauigkeit (Accuracy-Forschung) anhand derselben Stichprobe untersucht. Trotz des im Ergebnis nicht nachgewiesenen Zusammenhangs zwischen Urteilsgenauigkeit und Beobachtungskompetenz stellt die Studie für die zukünftige Forschung bedeutsame Hinweise für die weitere Untersuchung der Facetten diagnostischer Kompetenz bereit.
Im Hinblick auf den frühpädagogischen Kontext zeigt die vorliegende Arbeit zum einen, dass ein ökologisch valides Treatment (Fortbildung) in einem Umfang von zwei Tagen implizit zu einer Verbesserung diagnostischer Kompetenzen führen kann. Zum anderen wird hier erstmalig im deutschsprachigen Raum die Messung der Urteilsgenauigkeit unter vollumfänglicher Erfüllung eines auf Hoge und Coladarci (1989) beruhenden Anforderungsprofils durchgeführt. Ein weiteres Alleinstellungsmerkmal dieser Studie ist die erstmals mit einer Mindestanzahl von vier Einschätzungen pro Erzieherin unter Berücksichtigung der Kontaktzeiten zwischen Erzieherinnen und Bezugskindern erfolgte Erhebung der Urteilsgenauigkeit von Erzieherinnen.
In vielen Teilen der Welt, vor allem in Subsahara-Afrika, ist Wasserknappheit bereits ein allgegenwärtiges Problem. Doch die Trockenjahre 2018 und 2019 zeigten, dass auch in Deutschland die Wasserressourcen endlich sind. Projektionen und Vorhersagen für die nächsten Jahrzehnte weisen zudem darauf hin, dass durch den steigenden Einfluss des Klimawandels die Erneuerungsraten der bestehenden Wasserressourcen zurückgehen, die Entnahmemengen aber aufgrund von Populationswachstum steigen werden. Es ist demnach an der Zeit, alternative und nachhaltige Methoden zu finden, die derzeit vorhandenen Wasserressourcen optimal zu nutzen. Daher rückte in den vergangenen Jahren die Wiederverwendung von geklärtem Abwasser zur Bewässerung landwirtschaftlicher Flächen und/oder der Grundwasseranreicherung in den Fokus der Wissenschaft. Dabei ist aber zu berücksichtigen, dass in geklärtem Abwasser sogenannte Spurenstoffe zu finden sind, d.h. Substanzen, die durch anthropogenen Einfluss in den Wasserkreislauf gelangen. Dabei handelt es sich z.B. um Pharmazeutika, Pestizide und Industriechemikalien, aber auch um Metabolite, die im menschlichen Körper gebildet werden und in das Abwasser gelangen. Durch die Wasseraufbereitungsschritte in den Kläranlagen als auch durch biologische, chemische und physikalische Prozesse in der Bodenpassage bei der Wiederverwendung des geklärten Abwassers werden diese Spurenstoffe zu anderen Substanzen, den Transformationsprodukten (TPs), umgewandelt, die das Spektrum der Spurenstffe zusätzlich erweitern.
Trotz der Tatsache, dass das Vorhandensein von Human-Metaboliten und TPs in ungeklärtem und geklärten Abwasser seit langem bekannt ist, werden sie in gängigen Routine-Messmethoden nur selten berücksichtigt. Daher war es ein erstes Ziel dieser Dissertation eine Analyse-Methode zu erstellen, basierend auf Flüssigchromatographie-Tandem Massenspektrometrie (LC-MS/MS), die ein möglichst breites Spektrum an Spurenstoffen inklusive bekannter Metabolite und TPs enthält. Die entwickelte Multi-Analyt-Methode umfasst insgesamt 80 Ausgangssubstanzen und 74 Metabolite und TPs verschiedener Substanzklassen und ist für die Anwendung in verschiedenen Wassermatrices (Zu- und Ablauf von Kläranlagen, Oberflächenwasser und Grundwasser aus einer Uferfiltrationsanlage) validiert. Dabei wurde auch der Einfluss der MS-Parameter auf die Qualität der Analysedaten untersucht. Trotz der hohen Anzahl an Substanzen konnte eine ausreichende Anzahl an Datenpunkten je Peak generiert werden, wodurch eine hohe Empfindlichkeit und Präzision sowie eine gute Wiederfindung für alle Matrices erreicht wurden. Die Auswahl der Analyten erwies sich als relevant für die Untersuchung von Umweltmatrices, da 95% der Substanzliste in mindestens einer Probe nachgewiesen wurden. Mehrere Spurenstoffe, die bisher nicht im Fokus der gegenwärtigen Multi-Analyt-Methoden standen, wurden bei erhöhten Konzentrationen im Wasserkreislauf quantifiziert (z.B. Oxypurinol). Die Relevanz der Untersuchung von Metaboliten und TPs zeigte sich durch den Nachweis von z.B. Clopidogrel-Säure und Valsartansäure mit deutlich höheren Konzentrationen als ihre Ausgangssubstanzen. Valsartansäure konnte zudem sogar im Uferfiltrat detektiert werden.
Durch die Einbindung der Metabolite, die durch biologische Prozesse im Körper entstehen, und den biologischen und chemischen TPs, eignet sich die Multi-Analyt-Methode auch zur Aufklärung von Abbaumechanismen in natürlichen Behandlungssystemen zur Wasserwiederverwendung, wozu es in der Literatur bisher nur wenige Angaben gibt. Im Rahmen der Dissertation wurden Proben aus zwei Systemen analysiert, einem im Pilotmaßstab entwickelten oberirdischen sequenziellen Biofiltrationssystem (SBF) und einem großmaßstäblichen Bodenpassagen-System (SAT). Im SBF-System konnten hauptsächlich biologische Abbaumechanismen beobachtet werden, was durch die Entstehung biologischer TPs deutlich gezeigt wurde. Die Effizienz des Abbaus wurde dabei durch eine Zwischenbelüftung erhöht, die oxische Bedingungen hervorrief. Im SAT-System kam es zu einer Kombination von Bioabbau- und Sorptionsprozessen. Es wurde beobachtet, dass bei einigen biologisch abbaubaren Spurenstoffen ein geringerer Abbau erreicht wurde als im SBF-System, was auf unterschiedliche Redox-Bedingungen und eine andere mikrobielle Gemeinschaft zurückzuführen war. Als Vorteil des SAT-Systems gegenüber des SBF erwies sich die Sorptionsfähigkeit des natürlichen Bodens. Vor allem positiv geladene Spurenstoffe zeigten eine Entfernung aufgrund von ionischen Wechselwirkungen mit negativ geladenen Bodenpartikeln. Auf der Grundlage ihrer physikalisch-chemischen Eigenschaften bei Umgebungs-pH, ihres Entfernungsgrades in den untersuchten Systemen und ihres Vorkommens im einfließenden Wasser konnte eine Auswahl von prozessbasierten Indikatorsubstanzen vorgeschlagen werden.
In den vorherigen Arbeiten wurde in Kläranlagenabläufen häufig ein Spurenstoff in erhöhten Konzentrationen nachgewiesen, der bisher wenig im Fokus der Umweltforschung stand: das Antidiabetikum Sitagliptin (STG). STG zeigt nur eine geringe Abbaubarkeit in biologischen Systemen. Daher wurde untersucht, inwieweit eine chemische Aufbereitung mittels Ozonung einen Abbau gewährleisten kann. STG weist in seiner Struktur ein aliphatisches primäres Amin als entscheidende Angriffsstelle für das Ozonmolekül auf. In der Literatur finden sich kaum Informationen zum Verhalten dieser funktionellen Gruppe während der Ozonung. Die in dieser Dissertation erzielten Ergebnisse können daher exemplarisch für andere Spurenstoffe mit Amingruppen herangezogen werden. Es zeigte sich eine pH-abhängige Abbaukinetik aufgrund der Protonierung des primären Amins bei niedrigen pH-Werten. Bei für die Umwelt und Kläranlagen typischen pH-Werten im Bereich 6 – 8 wies STG Abbaukinetiken mittels Ozon im Bereich 103 M-1s-1 auf, mit einem vollständigen Abbau kann allerdings erst bei deutlich höheren pH-Werten > 9 gerechnet werden. Die Transformation des primären Amins zu einer Nitro-Gruppe wurde als Hauptabbaumechanismus in der Ozonung identifiziert. Ebenfalls wurde die Entstehung weiterer TPs wie z.B. eines Diketons und Trifluoressigsäure (TFA) beobachtet. Untersuchungen an einer Pilotanlage, bei der die Ozonung unter realen Bedingungen mit dem Ablauf einer konventionellen Kläranlage durchgeführt wurde, bestätigte die Ergebnisse der Laboruntersuchungen: STG wurde auch bei einer hohen Ozondosis nicht vollständig entfernt und die Nitro-Verbindung erwies sich als Haupt-TP, das weder bei weiterer Ozonung noch in einer nachgeschalteten biologischen Behandlung abgebaut wurde. Es ist daher davon auszugehen, dass unter realen Bedingungen sowohl eine Restkonzentration an STG als auch das Haupt-TP sowie weitere TPs wie TFA im Ablauf einer Kläranlage bestehend aus konventioneller biologischer Aufreinigung, Ozonung und nachgeschalteter biologischer Aufreinigung auffindbar sind.
Thousands of chemicals from daily use are being discharged from civilization into the water cycle via different pathways. Ingredients of personal care products, detergents, pharmaceuticals, pesticides, and industrial chemicals thus find their way into the aquatic ecosystems and may cause adverse impacts on the ecology. Pharmaceuticals for instance, represent a central group of anthropogenic chemicals, because of their designed potency to interfere with physiological functions in organisms. Ecotoxicological effects from pharmaceutical burden have been verified in the past. Therapeutic groups with pronounced endocrine disrupting potentials such as steroid hormones gain increasing focus in environmental research as it was reported that they cause endocrine disruption in aquatic organisms even when exposed to environmentally relevant concentrations. This thesis considers the comprehensive investigation of the occurrence of corticosteroids and progestogens in wastewater treatment plant (WWTP) effluents and surface waters as well as the elucidation of the fate and biodegradability of these steroid families during activated sludge treatment. For the first goal of the thesis, a robust and highly sensitive analytical method based on liquid chromatography-tandem mass spectrometry (LC-MS/MS) was developed in order to simultaneously determine the occurrence of around 60 mineralocorticoids, glucocorticoids and progestogens in the aquatic environment. A special focus was set to the compound selection due to the diversity of marketed synthetic steroids. Some analytical challenges have been approved by individual approaches regarding sensitivity enhancement and compound stabilities. These results may be important for further research in environmental analysis of steroid hormones. Reliable and low quantification limits are the perquisite for the determination of corticosteroids and progestogens at relevant concentrations due to low consumption volumes and simultaneously low effect-based trigger values. Achieved quantification limits for all target analytes ranged between 0.02 ng/L and 0.5 ng/L in surface water and 0.05 ng/L to 5 ng/L in WWTP effluents. This sensitivity enabled the detection of three mineralocorticoids, 23 glucocorticoids and 10 progestogens within the sampling campaign around Germany. Many of them were detected for the first time in the environment, particularly in Germany and the EU. To the best of our knowledge, this in-depth steroid screening provided a good overview of single steroid burden and allowed for the identification of predominantly steroids of each steroid
type analyzed for the first time. The frequent detection of highly potent synthetic steroids (e.g. triamcinolone acetonide, clobetasol propionate, betamethasone valerate, dienogest, cyproterone acetate) highlighted insufficient removal during conventional Summary wastewater treatment and indicated the need for regulation to control their emission since the steroid concentrations were found to be above the reported effect-based trigger values for biota. Overall, the study revealed reliable environmental data of poorly or even not analyzed steroids. The results complement the existing knowledge in this field but also providednew information which can beused particularly for compound prioritization in ecotoxicological research and environmental analysis. Based on the data obtained from the monitoring campaign, incubation experiments were conducted to enable the comparison of the biodegradability and transformation processes in activated sludge treatment for structure-related steroids under aerobic and standardized experimental conditions. The compounds were accurately selected to cover manifold structural moieties of commonly used glucocorticoids, including non-halogenated and halogenated steroids, their mono- and diesters, and several acetonide-type steroids. This approach allowed for a structure-based interpretation of the results. The obtained biodegradation rate constants suggested large variations in the biodegradability (half-lifes ranged from < 0.5 h to > 14 d). An increasing stability was identified in the order from non-halogenated steroids (e.g. hydrocortisone), over 9α-halogenated steroids (e.g. betamethasone), to C17-monoesters (e.g. betamethasone 17-valerate, clobetasol propionate), and finally to acetonides (e.g. triamcinolone acetonide), thus suggesting a strong relationship of the biodegradability with the glucocorticoid structure. Some explanations for this behavior have been received by identifying the transformation products (TPs) and elucidating individual transformation pathways. The results revealed the identification of the likelihood of transformation reactions depending on the chemical steroid structure for the first time. Among the identified TPs, the carboxylates (e.g. TPs of fluticasone propionate, triamcinolone acetonide) have been shown persistency in the subsequent incubation experiments. The newly identified TPs furthermore were frequently detected in the effluents of full-scale wastewater treatment plants. These findings emphasized i) the transferability of the lab-scale degradation experiments to real world and that ii) insufficient removals may cause adverse effects in the aquatic environment due to the ability of the precursor steroids and TPs to interact with the endocrine system in biota. For the last goal, the conceptual study for glucocorticoids was applied to progestogens.
Here, two sub-types of the steroid family frequently used for hormonal contraception were selected (17α-hydroxyprogesterone and 19-norstestosterone type). The progestogens showed a fast and complete degradation within six hours, and thus empathizes pronounced biodegradability. However, cyproterone acetate and dienogest Summary have been found to be more recalcitrant in activated sludge treatment. This was consistent with their ubiquitously occurrence during the previous monitoring campaign. The elucidation of TPs again revealed some crucial information regarding the observed behavior and highlighted furthermore the formation of hazardous TPs. It was shown that 19-nortestosterone type steroids are able to undergo aromatization at ring A in contact with activated sludge, leading to the formation of estrogen-like TPs with a phenolic moiety at ring A. In the case of norethisterone the formation of 17α-ethinylestradiol was confirmed, which is a well-known potent synthetic estrogen with elevated ecotoxicological potency. Thus, the results indicated for the very first time an unknown source of estrogenic compounds, particularly for 17α-ethinylestradiol. In conclusion, some steroids were found to be very stable in activated sludge treatment, others degrade well, and others which do degrade but predominantly to active TPs depending on their chemical structure. Fluorinated acetal steroids such as triamcinolone acetonide and fluocinolone acetonide are poorly biodegradable, which is reflected in high concentrations detected ubiquitously in WWTP effluents. Endogenous steroids and their most related synthetic once such as hydrocortisone, prednisolone or 17α-hydroxyprogesterone are readily biodegradable. Regardless their high influent concentrations, they are almost completely removed in conventional WWTPs. Steroids between this range have been found to form elevated quantities of TPs which are partially still active, which particularly the case for betamethasone, fluticasone propionate, cyproterone acetate or dienogest. The thesis illustrates the need for an extensive evaluation of the environmental risks and carried out that corticosteroids and progestogens merit more attention in environmental regulatory and research than it is currently the case
Modellbildung zum Abbindeverhalten von PCE-verflüssigten und CA-Zement-gebundenen Feuerbetonen
(2021)
Feuerbetone werden als Auskleidung in industriellen Hochtemperaturaggregaten, wie beispielsweise in der Eisen- und Stahlindustrie, eingesetzt. Nach dem Mischen und dem Gießen eines Feuerbetons in Formen bzw. Schalungen, muss dieser abbinden und eine ausreichende Festigkeit ausbilden. Die Kinetik der Abbindevorgänge und somit auch das Erhärtungsverhalten variiert dabei stark in Abhängigkeit der Zusammensetzung, vor allem hinsichtlich des Bindemittels und der Additive, des Feuerbetons. In der Praxis der Herstellung von Feuerbetonen kommt es häufig zu Beschädigungen der hergestellten Bauteile oder Auskleidungen durch das Fließen noch nicht ausreichend abgebundener Feuerbetone bzw. die Beschädigung von Ecken und Kanten während des Ausschalens oder Bauteilen reißen durch mechanische Belastung beim Umsetzen oder beim Transport. Diese Beschädigungen basieren auf Fehleinschätzungen zum Abbindefortschritt und der korrespondierenden Festigkeitsausprägung der Feuerbetone. Diese wiederum sind auf Lücken im Stand der Technik zurück zu führen.
Für PCE-verflüssigte und CA-Zement-gebundene Korund-Feuerbetonen mit einer Al₂O₃- und Al₂O₃-SiO₂-Matrix, werden die Defizite des Stands der Technik für diese Feuerbetonklasse identifiziert: Diese liegen im Bereich der Verflüssigungswirkung und des ersten Ansteifens der Feuerbetone, der Hydratation des CA-Zements in den Feuerbetonen und der Festigkeitsausprägung der Feuerbetone. Hieraus leitet sich ein entsprechender Forschungsbedarf ab.
Am Beispiel von zwei PCE-verflüssigten (PCE mit kurzer Hauptkette und langen Seitenketten sowie PCE mit langer Hauptkette und kurzen Seitenketten) und CA-Zement-gebundenen (70 % Al₂O₃) Feuerbetonen mit einer reaktivtonerde-basierten und einer reaktivtonerde-mikrosilika-basierten Matrix werden abbindekinetische Untersuchungen durchgeführt. Anhand verschiedener abbindekinetischer Messmethoden, wie Schallgeschwindigkeit oder elektrischer Leitfähigkeit, und einigen ergänzenden Messung, wie beispielsweise das ζ-Potential, wird der Abbindeverlauf der Feuerbetone untersucht und die Defizite aus dem Stand der Technik aufgeklärt.
Im Detail wurde der Stand der Technik um folgende Erkenntnisse ergänzt:
• Verflüssigung von Feuerbetonen mit PCE-Molekülen: Es wurde festgestellt, dass die Verflüssigungswirkung und das erste Ansteifen maßgeblich durch die Struktur der Verflüssigermoleküle hervorgerufen werden.
PCE-Moleküle mit langen Seitenketten verflüssigen eher sterisch. Durch die Vermittlung von Ca²⁺ aus dem CA-Zement wird die Adsorption der PCE-Moleküle verstärkt. Freie PCE-Moleküle können auf CAH-Phasen (Hydratationsprodukte) adsorbieren und somit die Fließfähigkeit des Feuerbetons für eine gewisse Zeit aufrechterhalten.
PCE-Moleküle mit kurzen Seitenketten verflüssigen elektrosterisch. Bei Lösung von Ca²⁺ aus dem CA-Zement kommt es zu einer Ca-PCE Gel-Bildung und einer korrespondierenden Koagulation der Feuerbetonmatrix und der Feuerbeton steift zeitnah nach dem Mischen an.
• Hydratation von CA-Zement: Die Hydratation von CA-Zement in den Feuerbetonen wird wesentlich durch die Länge der Seitenketten der PCE-Moleküle bzw. der Anwesenheit von Zitronensäure beeinflusst.
In Feuerbetonen die mit PCE-Molekülen mit langen Seitenketten verflüssigt wurden, kann der CA-Zement weitestgehend frei hydratisieren. Der CAH-Phasenanteil steigt in zwei Abschnitten, getrennt von einer dormanten Phase. Die dormante Phase der CA Zementhydratation wurde auf eine Lösungshemmung der Al-O-H-Passivierungsschicht auf dem CA-Zement bei mäßigem pH-Wert (pH = 12,3) zurückgeführt.
In Feuerbetonen die mit PCE-Molekülen mit kurze Seitenketten und Zitronensäure verflüssigt werden, wird die Hydratationsreaktion durch eine Ca-Citrat-PCE-Al(OH)₄-Gelbildung stark gehemmt. Es besteht die Vermutung, dass die Bindung von Ca²⁺ in dem Gel zum einen eine sehr ausgeprägte dormante Phase (pH < 12,3), mit einer schlechten Löslichkeit der Passivierungsschicht, bewirkt und zum anderen auch die Fällung von CAH-Phasen unterdrückt.
• Festigkeitsausprägung von CA-Zement-gebundenen Feuerbetonen:
Eine Koagulation bewirkt die erste Festigkeitssteigerung der Feuerbetone auf σB < 1 MPa. Im Anschluss findet die Hauptfestigkeitssteigerung auf Grund von Austrocknung durch Hydratation und Verdunstung statt. Der weitere Teil der Festigkeitssteigerung wird durch die Reduzierung der Porosität durch expansive CA-Zementhydratation und die hohe spezifische Oberfläche sowie deren weitere Erhöhung durch die CA-Zementhydratation bewirkt.
Aus den einzelnen abbindekinetischen Effekten können, zusammen mit dem Stand der Technik und den neuen Erkenntnissen, mikrostrukturelle Abbindemodelle und Modelle zur Festigkeitsentwicklung der Feuerbetone abgeleitet werden. In Folge kann für die zwei Feuerbetone zu jedem Zeitpunkt des Abbindens eine Aussage zum Abbindefortschritt und zur Festigkeitsausprägung getätigt werden. Einige der Abbindemechanismen und festigkeitsbildenden Mechanismen können auf andere Feuerbetonzusammensetzungen übertragen werden.
The protected areas of Rwanda are facing various challenges resulting from the anthropogenic activities of the surrounding communities especially in the adjacent area to Cyamudongo isolated rain forest, which results in climate change, soil degradation, and loss of biodiversity. Therefore, this study aims to broaden current knowledge on the impact of sustainable Agroforestry (AF) on the Carbon (C) stock and Biodiversity conservation on the surroundings of Cyamudongo isolated rain forest and Ruhande Arboretum.
To understand this, the permanent sample plots (PSPs) were established mainly in the designed four transects of four km long originating on the boundary of the Cyamudongo isolated rain forest following the slope gradient ranging from 1286 to 2015 m asl. A total number of 73 PSPs were established in the Cyamudongo study area while 3 PSPs were established in the Ruhande AF plot. The Arc Map GIS 10.4 was used to design and map the sampling areas while GPS was used for localization of collected items. Statistical significance was analyzed through the R-software especially for wood and soil variables while for biodiversity indicator species, MVSP Software 3.0 was used to determine the Shannon Diversity indices and similarities among species.
In this study, I have obtained comprehensive results demonstrating that in all study areas, the various AF tree species contribute differently to C stock and C sequestration and the amount of C stored and removed from the atmosphere depends on different factors such as tree species, plantation density, growth stage, or the age of establishment, applied management practices, wood specific density (WSD), wood C concentration, and climatic conditions. The estimated quantity of sequestrated C for 2 years and 34 years AF species were 13.11 t C ha -1 yr-1 (equivalent to 48 t CO2 ha -1 yr-1) and 6.85 t ha-1 yr-1 (equivalent to 25.1 t CO2 ha -1 yr-1) in Cyamudongo and Ruhande respectively. The estimated quantity of C stored by the Ruhande AF plot is 232.94 t ha-1. In Cyamudongo, the overall C stored by the AF systems was 823 t ha-1 by both young tree species established by the Cyamudongo Project (35.84 t ha-1) and C stored by existed AF species before the existence of the Project (787.12 t ha-1). In all study areas, the Grevillea robusta was found to contribute more to overall stored C compared to other species under this study.
The tests revealed differences in terms of nutrient contents (C, N, C: N ratio, K, Na, Ca, and Mg) for various AF tree species of Cyamudongo and Ruhande study areas. The differences in terms of correlation for various variables of AF tree species in different study areas varied with tree species, age, stage of growth, and tree shape. By comparing the correlation coefficients for various tree variables for young and mature AF tree species, the results showed a high correlation variability for young species than mature or old species recorded in different environmental conditions of Cyamudongo and Ruhande study areas.
The recorded soil pH mean value across in Cyamudongo study area is 4.2, which is very strongly acidic. The tests revealed that the soil pH, C, C: N ratio, OM, NH4+, NO3-+NO2-, PO43-, and CEC were significantly (P < 0.05) different in various soil depths whereas the N was not statistically significant. The pH, N, C: N ratio, CEC, NH4+, PO43-, and Al3+ showed a significant difference across land uses whereas the C and NO3-+NO2- did not show any statistical difference. All tested chemical elements showed a statistical difference as far as altitude ranges are concerned. The only NH4+, PO43-, and CEC showed significant differences with time whereas all other remaining chemical elements did not show any statistical significance. The bulk density of soil was statistically different across land uses and altitude ranges. The soil pH was very strongly correlated with CEC, Mg, and Ca in cropland (CL) whereas it was strongly correlated in both AF and natural forest (NF) except for Mg, which was moderately correlated in AF. Furthermore, its correlation with K was strong in CL, moderate in AF while it was weak in NF. Finally, the pH correlation with Na was weak in both AF and CL whereas it was negligible in NF. The overall estimated soil C stock of the study area was 16848 t ha -1.
The sustainable AF practices changed significantly the frequency of reptiles, amphibians, and flowering plants while there was no statistical change observed on ferns with time. In terms of species richness, 16 flowering plants, 14 ferns, 5 amphibians, and 3 reptiles were recorded and monitored. These findings add to a growing body of literature on the impact of AF on the C stock, soil improvement, and Biodiversity. It is recommended that further researches should be undertaken for the contribution of other AF tree species to the C stock found in the agricultural landscape around all protected areas of Rwanda and the impact on them on the soil and biodiversity.
We consider variational discretization of three different optimal control problems.
The first being a parabolic optimal control problem governed by space-time measure controls. This problem has a nice sparsity structure, which motivates our aim to achieve maximal sparsity on the discrete level. Due to the measures on the right hand side of the partial differential equation, we consider a very weak solution theory for the state equation and need an embedding into the continuous functions for the pairings to make sense. Furthermore, we employ Fenchel duality to formulate the predual problem and give results on solution theory of both the predual and the primal problem. Later on, the duality is also helpful for the derivation of algorithms, since the predual problem can be differentiated twice so that we can apply a semismooth Newton method. We then retrieve the optimal control by duality relations.
For the state discretization we use a Petrov-Galerkin method employing piecewise constant states and piecewise linear and continuous test functions in time. For the space discretization we choose piecewise linear and continuous functions. As a result the controls are composed of Dirac measures in space-time, centered at points on the discrete space-time grid. We prove that the optimal discrete states and controls converge strongly in L^q and weakly-* in Μ, respectively, to their smooth counterparts, where q ϵ (1,min{2,1+2/d}] is the spatial dimension. The variational discrete version of the state equation with the above choice of spaces yields a Crank-Nicolson time stepping scheme with half a Rannacher smoothing step.
Furthermore, we compare our approach to a full discretization of the corresponding control problem, precisely a discontinuous Galerkin method for the state discretization, where the discrete controls are piecewise constant in time and Dirac measures in space. Numerical experiments highlight the sparsity features of our discrete approach and verify the convergence results.
The second problem we analyze is a parabolic optimal control problem governed by bounded initial measure controls. Here, the cost functional consists of a tracking term corresponding to the observation of the state at final time. Instead of a regularization term for the control in the cost functional, we consider a bound on the measure norm of the initial control. As in the first problem we observe a sparsity structure, but here the control resides only in space at initial time, so we focus on the space discretization to achieve maximal sparsity of the control. Again, due to the initial measure in the partial differential equation, we rely on a very weak solution theory of the state equation.
We employ a dG(0) approximation of the state equation, i.e. we choose piecewise linear and continuous functions in space, which are piecewise constant in time for our ansatz and test space. Then, the variational discretization of the problem together with the optimality conditions induce maximal discrete sparsity of the initial control, i.e. Dirac measures in space. We present numerical experiments to illustrate our approach and investigate the sparsity structure
As third problem we choose an elliptic optimal control governed by functions of bounded variation (BV) in one space dimension. The cost functional consists of a tracking term for the state and a BV-seminorm in terms of the derivative of the control. We derive a sparsity structure for the derivative of the BV control. Additionally, we utilize the mixed formulation for the state equation.
A variational discretization approach with piecewise constant discretization of the state and piecewise linear and continuous discretization of the adjoint state yields that the derivative of the control is a sum of Dirac measures. Consequently the control is a piecewise constant function. Under a structural assumption we even get that the number of jumps of the control is finite. We prove error estimates for the variational discretization approach in combination with the mixed formulation of the state equation and confirm our findings in numerical experiments that display the convergence rate.
In summary we confirm the use of variational discretization for optimal control problems with measures that inherit a sparsity. We are able to preserve the sparsity on the discrete level without discretizing the control variable.
Seit der Bologna-Reform wird von Bund und Ländern eine kontinuierliche Verbesserung der Qualität des Unterrichts in der Schule, die häufig mit der Professionalisierung der zukünftigen Lehrer und der Lehramtsausbildung verbunden wird, angestrebt. Die Qualität des Unterrichts wird mit der Professionalisierung der angehenden Lehrer und der Lehramtsausbildung verbunden. In den meisten Studien zur Qualitätsverbesserung erfolgt die Betrachtung überwiegend aus universitärer Sicht und selten auf das Unterrichtsfach Sport bezogen. An diesen beiden Punkten knüpft die qualitative Studie an und führt zu der zentralen Fragestellung: Bestehen Unterschiede in den Sichtweisen von Lehrenden und Lernenden zur Professionalisierung von Sportlehrkräften zu den einzelnen Ausbildungsphasen in Rheinland-Pfalz?
Mithilfe von 101 Leitfadeninterviews und der Auswertung nach der Grounded Theory kann diese Ausgangsfrage gezielt beantwortet werden. Befragt werden Lehrende der Universitäten, der staatlichen Studienseminare und der Schule sowie Lernende, dazu zählen Referendare/innen sowie Studierende. Im Verlauf der Studie kristallisiert sich in allen Personengruppen einheitlich der „fehlende Schulbezug“ als Schlüsselelement (Kernkategorie) in der ersten und zweiten Ausbildungsphase heraus. Die Interviewten, die verschiedenen Schulformen angehören, geben diesbezüglich konkrete, sportspezifische und teilweise fächerübergreifende Optimierungsvorschläge. Ein Schwerpunkt bildet dabei, frühzeitig den Bezug zum Schulalltag herzustellen und gleichzeitig Unterrichtserfahrungen mit schulischen Lerngruppen zu sammeln, um ihre unterschiedlichen motorischen Fähigkeiten und Fertigkeiten kennenzulernen. Die Verbesserungsansätze betreffen die universitäre Phase und die Ausbildungszeit in den Studienseminaren und Schulen, wobei die Beteiligten eine intensivere Vernetzung der einzelnen Institutionen für nötig erachten. An einer gemeinsamen, kontinuierlichen Zusammenarbeit zur Professionalisierung in der Sportlerausbildung und somit der Optimierung der Sportlehrerausbildung ist allen Beteiligten gelegen.
Echzeitbetriebssysteme für Systeme mit gemischten Kritikalitäten müssen unterschiedliche Arten von Software, wie z.B. Echtzeitanwendungen und Allzweckanwendungen, gleichzeitig unterstützen. Dabei müssen sie eine solide räumliche und zeitliche Isolation zwischen unabhängigen Softwarekomponenten bieten. Daher fokussieren sich aktuelle Echtzeitbetriebssysteme hauptsächlich auf Vorhersagbarkeit und ein berechenbares Worst-Case-Verhalten.
Allerdings bieten Allzweck-Betriebssysteme wie Linux häufig effizientere, aber weniger deterministische Mechanismen, welche die durchschnittliche Ausführungszeit signifikant erhöhen. Diese Thesis befasst sich mit der Kombination der beiden gegensätzlichen Anforderungen und zeigt Mechanismen zur Thread-Synchronisation mit einem effizienten Durchschnittsverhalten, ohne jedoch die Vorhersagbarkeit und das Worst-Case-Verhalten zu beeinträchtigen. Diese Thesis untersucht und bewertet den Entwurfsraum von Abkürzungen (engl. fast paths) bei der Umsetzung von typischen blockierenden Synchronisationsmechanismen wie Mutexen, Bedingungsvariablen, Zähl-Semaphoren, Barrieren oder Nachrichtenwarteschlangen. Der Ansatz ist dabei, unnötige Systemaufrufe zu vermeiden. Systemaufrufe haben im Vergleich zu anderen Prozessoroperationen, die im Benutzermodus verfügbar sind, wie z.B. atomaren Operationen, höhere Kosten. Insbesondere erforscht die Thesis Futexe, ein aktuelles Design für blockierende Synchronisationsmechanismen in Linux, welches den konkurrenzfreien Fall der Synchronisierung mithilfe atomarer Operationen im Benutzermodus löst und den Kern nur aufruft, um Threads zu suspendieren und aufzuwecken. Die Thesis untersucht auch nicht-unterbrechbare Monitore mit aktivem Warten. Dort wird ein effizienter Mechanismus mit Prioritätsschranken verwendet, um das sogenannte Lock-Holder-Preemption-Problem ohne Systemaufrufe zu vermeiden. Ebenfalls werden passende niedere Kernprimitive beschrieben, die effiziente Warte- und Benachrichtigungsoperationen ermöglichen. Die Evaluation zeigt, dass die vorgestellten Ansätze die durchschnittliche Leistung vergleichbar zu aktuellen Ansätzen in Linux verbessern. Gleichzeitig zeigt eine Analyse des Worst-Case Zeitverhaltens, dass die Ansätze nur konstante oder begrenzte zeitliche Mehraufwände auf der Ebene des Betriebssystemkerns benötigen. Die Nutzung dieser Abkürzungen ist ein lohnender Ansatz für den Entwurf von Systemen, die nicht nur Echtzeitanforderungen erfüllen, sondern auch Allzweckanwendungen gut unterstützen sollen.
Lernen in Citizen Science
(2021)
Unsere Welt und die technischen und naturwissenschaftlichen Erkenntnisse verändern sich aktuell sehr schnell. Dies betrifft auch die naturwissenschaftliche Forschung und erfordert vermehrten Einsatz der Wissenschaftskommunikation und der Bildung. Ein Instrument der Wissenschaftskommunikation und eine Erweiterung des schulischen Unterrichts kann die Beteiligung von Freiwilligen bei wissenschaftlichen Arbeiten sein, welches auch als Citizen Science (CS) bezeichnet wird. CS Projekte erfreuen sich einer wachsenden Beliebtheit, unter anderem von Schulen (Burger, 2016). Dabei werden unter anderem die Förderung des Kontextwissens, der Scientific Literacy, der Umwelteinstellung und des –verhaltens versprochen (Peter et al., 2019). Interventionsstudien zu den Bildungspotentialen kommen jedoch zu unterschiedlichen Ergebnissen (Gommermann & Monroe, 2012; Turrini et al., 2018). Diese inkonsistenten Ergebnisse der Studien können auf die unterschiedliche Gestaltung der einzelnen evaluierten CS Projekte zurückgeführt werden. Es wird angenommen, dass Teilnehmende, die in mehr Schritten des wissenschaftlichen Prozesses eingebunden werden, ein größeres Bildungspotential haben, als Teilnehmende, die nur in wenige Schritte eingebunden werden (Burger, 2016; Shirk & Bonney, 2018). Bonney, Ballard et al. (2009) haben dazu ein dreistufiges Modell entwickelt. Das Modell wird unter anderem auch von Shirk et al. (2012) und Jordan et al. (2015) unterstützt, ist jedoch bezüglich der Lernwirksamkeit nicht empirisch überprüft (Edwards et al., 2018; Jordan et al., 2015). Deswegen schließt die Forschungsfrage dieser Studie hier an: Unter welchem Partizipationsansatz sind die Lerneffekte in einem CS Projekt am größten für Schülerinnen und Schüler? Um diese Frage zu beantworten, wurde ein CS Projekt mit drei Experimentalgruppen geplant und durchgeführt. Insgesamt nahmen 199 Schülerinnen und Schüler an dem Projekt teil. Innerhalb der Interventionsstudie wurden die Schülerinnen und Schüler zu drei Testzeitpunkten zur Umwelteinstellung und -verhalten, Nature of Science, Einstellung zur Wissenschaft und dem Kontextwissen befragt. Die Analysen über die Messzeitpunkte zeigen keine statistisch signifikanten Einflüsse der Experimentalgruppen auf die abhängigen Variablen. Jedoch ist die Teststärke bei allen Tests zu gering, um abschließende Aussagen über die Annahmen zu treffen. Wird jedoch die generelle Wirkung der Intervention betrachtet, zeigen sich signifikante Effekte auf alle Schülerinnen und Schüler, unter anderem steigt das Verständnis über Nature of Science. Diese Ergebnisse stimmen mit früheren Schlussfolgerungen von Phillips (2017), Phillips et al. (2019) und Del Bianco (2018) überein, die ebenfalls Zweifel an dem Modell von Bonney, Ballard et al. (2009) äußerten. Innerhalb dieses CS Projektes konnte sich keiner der drei Partizipationsansätze bezüglich des Bildungspotential für Schülerinnen und Schüler hervorheben lassen. Jedoch ist diese Studie unter anderem durch die geringe Teststärke limitiert und endgültige Aussagen bedürfen weiterer systematischer Forschung.
Environmental processes transforming inorganic nanoparticles: implications on aquatic invertebrates
(2020)
Engineered inorganic nanoparticles (EINPs) are produced and utilized on a large scale and will end up in surface waters. Once in surface waters, EINPs are subjected to transformations induced by environmental processes altering the particles’ fate and inherent toxicity. UV irradiation of photoactive EINPs is defined as one effect-inducing pathway, leading to the formation of reactive oxygen species (ROS), increasing EINP toxicity by exerting oxidative stress in aquatic life. Simultaneously, UV irradiation of photoactive EINP alters the toxicity of co-occurring micropollutants (e.g. pesticides) by affecting their degradation. The presence of natural organic matter (NOM) reduces the agglomeration and sedimentation of EINPs, extending the exposure of pelagic species, while delaying the exposure of benthic species living in and on the sediment, which is suggested as final sink for EINPs. However, the joint impact of NOM and UV irradiation on EINP-induced toxicity, but also EINP-induced degradation of micropollutants, and the resulting risk for aquatic biota, is poorly understood. Although potential effects of EINPs on benthic species are increasingly investigated, the importance of exposure pathways (waterborne or dietary) is unclear, along with the reciprocal pathway of EINPs, i.e. the transport back from aquatic to terrestrial ecosystems. Therefore, this thesis investigates: (i) how the presence of NOM affects the UV-induced toxicity of the model EINP titanium dioxide (nTiO2) on the pelagic organism Daphnia magna, (ii) to which extent UV irradiation of nTiO2 in the presence and absence of NOM modifies the toxicity of six selected pesticides in D. magna, (iii) potential exposure pathway dependent effects of nTiO2 and silver (nAg) EINPs on the benthic organism Gammarus fossarum, and (iv) the transport of nTiO2 and gold EINPs (nAu) via the merolimnic aquatic insect Chaetopteryx villosa back to terrestrial ecosystems. nTiO2 toxicity in D. magna increased up to 280-fold in the presence of UV light, and was mitigated by NOM up to 12-fold. Depending on the pesticide, UV irradiation of nTiO2 reduced but also enhanced pesticide toxicity, by (i) more efficient pesticide degradation, and presumably (ii) formation of toxic by-products, respectively. Likewise, NOM reduced and increased pesticide toxicity, induced by (i) protection of D. magna against locally acting ROS, and (ii) mitigation of pesticide degradation, respectively. Gammarus’ energy assimilation was significantly affected by both EINPs, however, with distinct variation in direction and pathway dependence between nTiO2 and nAg. EINP presence delayed C. villosa emergence by up to 30 days, and revealed up to 40% reduced lipid reserves, while the organisms carried substantial amounts of nAu (~1.5 ng/mg), and nTiO2 (up to 2.7 ng/mg). This thesis shows, that moving test conditions of EINPs towards a more field-relevant approach, meaningfully modifies the risk of EINPs for aquatic organisms. Thereby, more efforts need to be made to understand the relative importance of EINP exposure pathways, especially since a transferability between different types of EINPs may not be given. When considering typically applied risk assessment factors, adverse effects on aquatic systems might already be expected at currently predicted environmental EINP concentrations in the low ng-µg/L range.
Gel effect induced by mucilage in the pore space and consequences on soil physical properties
(2020)
Wasseraufnahme, Atmung und Exsudation sind biologische Schlüsselfunktionen der Wurzeln höherer Pflanzen. Sie steuern das Pflanzenwachstum, indem sie die biogeochemischen Parameter des Bodens in unmittelbarer Nähe der Wurzeln, der Rhizosphäre, verändern. Folglich sind Bodenprozesse wie beispielsweise Wasserflüsse, Kohlen- und Stickstoffaustausch oder mikrobielle Aktivitäten in der Rhizosphäre im Vergleich zu freiem Boden begünstigt. Insbesondere die Exsudation von Mucilage durch die Pflanzenwurzeln scheint ein wichtiger Mechanismus zu sein, um Trockenstress vorzubeugen. Durch diese gelartige Substanz wird bei negativen Wasserpotentialen sowohl der Bodenwassergehalt als auch die ungesättigte hydraulische Leitfähigkeit erhöht. Die Veränderung der Bodeneigenschaften durch Mucilage ist Gegenstand aktueller Forschung. Ein umfassendes Verständnis der Mechanismen im Porenraum der Rhizosphäre ist bisher allerdings noch unzureichend.
Ziel dieser Arbeit war die Aufklärung der Gel-Eigenschaften von Mucilage im Porenraum der Rhizosphäre, um Veränderungen der physiko-chemischen Eigenschaften der Rhizosphäre auf dieses interpartikuläre Mucilage zurückzuführen. Dabei stellten sich drei Herausforderungen: Zunächst einmal mangelte es an Methoden zur in situ Detektion von Mucilage im Boden. Außerdem fehlten detaillierte Kenntnisse bezüglich der Eigenschaften von interpartikulärem Mucilage. Desweiteren war die Beziehung zwischen der Zusammensetzung und den Eigenschaften von Modelsubstanzen und wurzelstämmigem Mucilage verschiedener Spezies unbekannt. Diese Fragen werden in den verschiedenen Kapiteln der Arbeit thematisiert.
Zunächst erfolgte eine Literaturrecherche, um Informationen aus verschiedenen Wissenschaftsbereichen über Methoden zur Charakterisierung von Gelen und Gel-Phasen im Boden zusammenzustellen. Die Änderung von Bodeneigenschaften aufgrund vorhandener Biohydrogelphasen im Boden kann als „Gel-Effekt“ bezeichnet werden. Die kombinierte Studie von Wassereinschlüssen in Gelen und Boden-Gel-Phasen mit der Untersuchung struktureller Eigenschaften von Boden hinsichtlich der mechanischen Stabilität und visueller Strukturen, zeigte sich als vielversprechend, um den Gel-Effekt im Boden zu charakterisieren.
Das erworbene methodische Wissen wurde in den nächsten Untersuchungen angewendet, um die Eigenschaften von interpartikulären Gelen zu detektieren und zu charakterisieren. 1H NMR Relaxometrie erlaubt die nicht-invasive Bestimmung der Wassermobilität in porösen Medien. Ein konzeptuelles Modell wurde aus Gleichungen entwickelt, welche die Proton-Relaxation in gelhaltigen porösen Medien beschreiben. Dieses Modell berücksichtigt den beschriebenen Gel-Effekt bei der Wahl der NMR Parameter und quantifiziert den Einfluss von Mucilage auf die Proton-Relaxation. Darüber hinaus wurde mithilfe von Rheometrie die Viskosität von Mucilage sowie die mikrostrukturelle Bodenstabilität bestimmt. Mittels Rasterelektronenmikroskopie wurde die Netzwerkstruktur von interpartikulärem Gel visualisiert. Die kombinierte Auswertung dieser Ergebnisse identifizierte drei wichtige Eigenschaften von interpartikulärem Gel: Der „Spinnennetz-Effekt“ schränkt die Dehnung der Polymerketten aufgrund der Verbindung zwischen dem Polymer Netzwerk und der Oberfläche von Bodenpartikeln ein. Der „Polymer-Netzwerk-Effekt“ veranschaulicht die Anordnung des Polymernetzwerks im Porenraum gemäß der räumliche Umgebung. Der „Mikroviskositäts-Effekt“ beschreibt die erhöhte Viskosität von interpartikulärem Gel im Vergleich zu freiem Gel. Die Auswirkungen dieser Eigenschaften auf die Wassermobilität und auf die mikrostrukturelle Stabilität des Bodens wurden untersucht und daraus resultierende Konsequenzen für hydraulische und mechanische Eigenschaften des Bodens diskutiert.
Der Einfluss von den chemischen Eigenschaften von Polymeren auf Gel-Bildungsmechanismen und Gel-Eigenschaften wurde untersucht. Dafür wurden Modelsubstanzen mit verschiedenen Uronsäure-Gehalt, Veresterungsgrade und Calcium-Gehalt getestet und die Menge an Materialanteil mit hohem Molekulargewicht quantifiziert. Die untersuchten Modelsubstanzen waren verschiedenen Pektin Polymeren und Chia Samen Mucilage. Darüber hinaus wurde Mucilage aus Winterweizen und Mais Wurzeln isoliert und untersucht. Polygalakturonsäure und Niedermethyliertes Pektin erwiesen sich als nicht geeignete Modelpolymere für Samen und Wurzelmucilage, da ionische Wechselwirkungen mit Calcium ihre Eigenschaften dominieren. Die dem Mucilage zuzurechnenden Eigenschaften scheinen eher durch schwache elektrostatische Wechselwirkungen zwischen verstrickten Polymerketten beherrscht zu sein. Die Menge an Material mit hohem Molekulargewicht variiert deutlich, abhängig von dem Ursprung des Mucilages. Dies scheint ein bedeutender Faktor für den Gel-Effekt von Mucilage im Boden zu sein. Zusätzlich zu der chemischen Charakterisierung der hochmolekulargewichtigen Polymere ist die exakte Bestimmung der Molekularmassen und der Konformation in verschiedenen Mucilagesorten notwendig, um Zusammensetzungs-Eigenschafts-Profile aufzeichnen zu können. Die Abweichungen zwischen den verschiedenen Mucilagestypen, welche sich durch die Messungen ergeben, haben die Notwendigkeit weiterer Untersuchungen unterstrichen. Nur so lässt sich die Frage klären, wie die spezifischen Eigenschaften von verschiedenen Mucilagestypen auf die Bedürfnisse der Pflanze abgestimmt sind, der sie entstammen.
Schließlich wurde diskutiert, wie die Betrachtung von molekularen Wechselwirkungen im Gel und interpartikulären Gel-Eigenschaften das Verständnis über die physikalischen Eigenschaften der Rhizosphäre erweitert. Dieser Ansatz ist vielversprechend, um zum Beispiel der Wassergehalt oder die hydraulische Leitfähigkeit entsprechend die Eigenschaften vom exudierten Mucilage zu klären. Darüber hinaus liegt die Vermutung nahe, dass der Gel-Effekt allgemein für alle Bodenexsudate mit Gel-Charakter Gültigkeit besitzt. Eine Klassifizierung natürlicher Boden-Gel-Phasen einschließlich der von Wurzeln, Samen, Bakterien, Hyphen oder Regenwürmern exsudierten, gelartigen Materialien nach ihren gemeinsamen physiko-chemischen Gel-Eigenschaften wird für die zukünftige Forschung empfohlen. Als Ergebnis könnten die physiko-chemische Eigenschaften von solchen Gelen zum Gel-Effekt den Auswirkungen auf die Bodeneigenschaften und den Funktionen von den Gelen im Boden zugeschrieben worden.
Amphibian populations are declining worldwide for multiple reasons such as habitat destruction and climate change. An example for an endangered European amphibian is the yellow-bellied toad Bombina variegata. Populations have been declining for decades, particularly at the northern and western range margin. One of the extant northern range centres is the Westerwald region in Rhineland-Palatinate, Germany. To implement informed conservation activities on this threatened species, knowledge of its life-history strategy is crucial. This study therefore focused on different developmental stages to test predictions of life-history theory. It addressed (1) developmental, (2) demographic and (3) genetic issues of Bombina variegata as a model organism: (1) Carry-over effects from larval environment to terrestrial stages and associated vulnerability to predators were investigated using mesocosm approaches, fitness tests and predation trials. (2) The dynamics and demography of B. variegata populations were studied applying a capture-mark-recapture analysis and skeletochronology. The study was complemented through (3) an analysis of genetic diversity and structuring of B. variegata populations using 10 microsatellite loci. In order to reveal general patterns and characteristics among B. variegata populations, the study focused on three geographical scales: local (i.e. a former military training area), regional (i.e. the Westerwald region) and continental scale (i.e. the geographical range of B. variegata). The study revealed carry-over effects of larval environment on metamorph phenotype and behaviour causing variation in fitness in the early terrestrial stage of B. variegata. Metamorph size and condition are crucial factors for survival, as small-sized individuals were particularly prone to predator attacks. Yellow-bellied toads show a remarkable fast-slow continuum of the life-history trait longevity. A populations’ position within this continuum may be determined by local environmental stochasticity, i.e. an extrinsic source of variation, and the efficiency of chemical antipredator protection, i.e. an intrinsic source of variation. Extreme longevity seems to be an exception in B. variegata. Senescence was absent in this study. Weather variability affected reproductive success and thus population dynamics. The dispersal potential was low and short-term fragmentation of populations caused significant genetic differentiation at the local scale. Long-term isolation resulted in increased genetic distance at the regional scale. At the continental scale, populations inhabiting the marginal regions were deeply structured with reduced allelic richness. As consequence of environmental changes, short-lived and isolated B. variegata populations at the range margin may face an increased risk of extinction. Conservation measures should thus improve the connectivity among local populations and reinforce annual reproductive success. Further research on the intraspecific variation in B. variegata skin toxins is required to reveal potential effects on palatability and thus longevity.
Initial goal of the current dissertation was the determination of image-based biomarkers sensitive for neurodegenerative processes in the human brain. One such process is the demyelination of neural cells characteristic for Multiple sclerosis (MS) - the most common neurological disease in young adults for which there is no cure yet. Conventional MRI techniques are very effective in localizing areas of brain tissue damage and are thus a reliable tool for the initial MS diagnosis. However, a mismatch between the clinical fndings and the visualized areas of damage is observed, which renders the use of the standard MRI diffcult for the objective disease monitoring and therapy evaluation. To address this problem, a novel algorithm for the fast mapping of myelin water content using standard multiecho gradient echo acquisitions of the human brain is developed in the current work. The method extents a previously published approach for the simultaneous measurement of brain T1, T∗ 2 and total water content. Employing the multiexponential T∗ 2 decay signal of myelinated tissue, myelin water content is measured based on the quantifcation of two water pools (myelin water and rest) with different relaxation times. Whole brain in vivo myelin water content maps are acquired in 10 healthy controls and one subject with MS. The in vivo results obtained are consistent with previous reports. The acquired quantitative data have a high potential in the context of MS. However, the parameters estimated in a multiparametric acquisition are correlated and constitute therefore an ill-posed, nontrivial data analysis problem. Motivated by this specific problem, a new data clustering approach is developed called Nuclear Potential Clustering, NPC. It is suitable for the explorative analysis of arbitrary dimensional and possibly correlated data without a priori assumptions about its structure. The developed algorithm is based on a concept adapted from nuclear physics. To partition the data, the dynamic behavior of electrically even charged nucleons interacting in a d-dimensional feature space is modeled. An adaptive nuclear potential, comprised of a short-range attractive (Strong interaction) and a long-range repulsive term (Coulomb potential), is assigned to each data point. Thus, nucleons that are densely distributed in space fuse to build nuclei (clusters), whereas single point clusters are repelled (noise). The algorithm is optimized and tested in an extensive study with a series of synthetic datasets as well as the Iris data. The results show that it can robustly identify clusters even when complex configurations and noise are present. Finally, to address the initial goal, quantitative MRI data of 42 patients are analyzed employing NPC. A series of experiments with different sets of image-based features show a consistent grouping tendency: younger patients with low disease grade are recognized as cohesive clusters, while those of higher age and impairment are recognized as outliers. This allows for the definition of a reference region in a feature space associated with phenotypic data. Tracking of the individual's positions therein can disclose patients at risk and be employed for therapy evaluation.
Das Hauptziel der vorliegenden Arbeit ist die Absicherung der Qualität eines pharmazeutischen Produktionsprozesses durch die Überprüfung des Volumens mikroskopischer Polymerstäbchen mit einem hochgenauen 3D Messverfahren. Die Polymerstäbchen werden für pharmazeutische Anwendungen hergestellt. Aus Gründen der Qualitätssicherung muss das Istgewicht überprüft werden. Derzeit werden die Polymerstäbchen stichprobenartig mit einer hochpräzisen Waage gewogen. Für die nächste Generation von Polymeren wird angenommen, dass die Produktabmessungen weiter reduziert werden sollen und die Produktionstoleranzen auf 2,5% gesenkt werden. Die daraus resultierenden Genauigkeitsanforderungen übersteigen jedoch die Möglichkeiten der Wiegetechnik. Bei homogenen Materialien ist die Masse proportional zum Volumen. Aus diesem Grund kommt dessen Bestimmung als Alternative in Frage. Dies verschafft Zugang zu optischen Messverfahren und deren Flexibilität und Genauigkeitpotenzial. Für den Entwurf eines auf die Fragestellung angepassten Messkonzeptes sind weiterhin von Bedeutung, dass das Objekt kontaktlos, mit einer Taktzeit von maximal fünf Sekunden vermessen und das Volumen approximiert wird. Die Querschnitte der Polymerstäbchen sind etwa kreisförmig. Aufgrund der Herstellung der Fragmente kann nicht davon ausgegangen werden, dass die Anlageflächen orthogonal zur Symmetrieachse des Objektes sind. Daher muss analysiert werden, wie sich kleine Abweichungen von kreisförmigen Querschnitten sowie die nicht idealen Anlageflächen auswirken. Die maximale Standardabweichung für das Volumen, die nicht überschritten werden sollte, beträgt 2,5%. Dies entspricht einer maximalen Abweichung der Querschnittsfläche um 1106 µm² (Fehlerfortpfanzung). Als Bewertungskriterium wird der Korrelationskoeffzient zwischen den gemessenen Volumina und den Massen bestimmt. Ein ideales Ergebnis wäre 100%. Die Messung zielt auf einen Koeffzienten von 98% ab. Um dies zu erreichen, ist ein präzises Messverfahren für Volumen erforderlich. Basierend auf dem aktuellen Stand der Technik können die vorhandenen optischen Messverfahren nicht verwendet werden. Das Polymerstäbchen wird von einer Kamera im Durchlicht beobachtet. Daher sind der Durchmesser und die Länge sichtbar. Das Objekt wird mittels einer mechanischen Vorrichtung um die Längsachse gedreht. So können Bilder von allen Seiten aufgenommen werden. Der Durchmesser und die Länge werden mit der Bildverarbeitung berechnet. Das neue Konzept vereint die Vorteile der Verfahren: Es ist unempfindlich gegen Farb-/Helligkeitsänderungen und die Bilder können in beliebiger Anzahl aufgenommen werden. Außerdem sind die Erfassung und Auswertung wesentlich schneller. Es wird ein Entwurf und die Umsetzung einer Lösung zur hochpräzisen Volumenmessung von Polymerstäbchen mit optischer Messtechnik und Bildverarbeitung ausgearbeitet. Diese spezielle Prozesslösung in der Prozesslinie (inline) sollte eine 100%ige Qualitätskontrolle während der Produktion garantieren. Die Zykluszeiten des Systems sollte fünf Sekunden pro Polymerstäbchen nicht überschreiten. Die Rahmenbedienungen für den Prozess sind durch die Materialeigenschaften des Objekts, die geringe Objektgröße (Breite = 199 µm, Länge = 935 µm bis 1683 µm) und die undeffinierte Querschnittsform (durch den Trocknungsprozess) vorgegeben. Darüber hinaus sollten die Kosten für den Prozess nicht zu hoch sein. Der Messaufbau sollte klein sein und ohne Sicherheitsvorkehrungen oder Abschirmungen arbeiten. Das entstandene System nimmt die Objekte in verschiedenen Winkelschritten auf, wertet mit Hilfe der Bildverarbeitung die Aufnahmen aus und approximiert das Volumen. Der Korrelationskoffizient zwischen Volumen und Gewicht beträgt für 77 Polymerstäbchen mit einem Gewicht von 37 µg bis 80 µg 99; 87%. Mit Hilfe eines Referenzsystems kann die Genauigkeit der Messung bestimmt werden. Die Standardabweichung sollte maximal 2,5% betragen. Das entstandene System erzielt eine maximale Volumenabweichung von 1,7%. Die Volumenvermessung erfüllt alle Anforderungen und kann somit als Alternative für die Waage verwendet werden.