Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (471) (entfernen)
Sprache
- Englisch (246)
- Deutsch (223)
- Mehrsprachig (1)
- Spanisch (1)
Schlagworte
- Pestizid (8)
- Pflanzenschutzmittel (8)
- Führung (6)
- Inklusion (6)
- Grundwasserfauna (5)
- Landwirtschaft (5)
- Persönlichkeit (4)
- Software Engineering (4)
- Unterrichtsforschung (4)
- ecotoxicology (4)
Institut
- Fachbereich 7 (93)
- Fachbereich 8 (47)
- Institut für Informatik (33)
- Institut für Integrierte Naturwissenschaften, Abt. Biologie (29)
- Institut für Umweltwissenschaften (23)
- Institut für Integrierte Naturwissenschaften, Abt. Chemie (22)
- Fachbereich 5 (20)
- Institut für Computervisualistik (18)
- Institut für Wirtschafts- und Verwaltungsinformatik (13)
- Institut für Integrierte Naturwissenschaften, Abt. Physik (12)
Diese Arbeit betrachtet das Thema Führung und Gesundheit und hat hierzu verschiedene Erkenntnisse der Literatur zusammengefasst, um diese von Führungskräften aus Wirtschaft und Polizei sowie von Personal- und Organisationsentwicklern bewerten zu lassen. Das Ziel war hierbei herauszufinden, ob die Führungskräfte und die Personal- und Organisationsentwickler das Thema als wichtig erachten, welche Hauptursachen sie für Fehlzeiten sehen und wie sie verschiedene Erkenntnisse der Literatur zum Gesundheitsmanagement einschätzen. Zusätzlich sollten sie bewerten, welche Maßnahmen sie als geeignet betrachten und welche Ressourcen notwendig sind, um die Mitarbeiter bei der Gesunderhaltung zu unterstützen. Schließlich sollten die Führungskräfte und die Personal- und Organisationsentwickler beurteilen, welcher Führungsstil als gesundheitsförderlich angesehen wird. Die Wirtschafts- und Polizeiführungskräfte sowie die Personal- und Organisationsentwickler erachten das Thema Gesundheit als wichtig und sehen es nicht nur als Modetrend an. Ihre Einschätzungen zu geeigneten Maßnahmen, die die Gesundheit der Mitarbeiter verbessern können, entsprechen überwiegend den aus der Literatur abgeleiteten Vorschlägen zur gesundheitsgerechten Führung. Die weitgehende Übereinstimmung der Sichtweisen in Forschung und Praxis legt nahe, dass die Erkenntnisse der Literatur zum Gesundheitsmanagement vermutlich von Praktikern als plausibel wahrgenommen werden.
In der vorliegenden Arbeit werden gamebasierte touristische Anwendungen untersucht.
Ausgehend von der These, dass für touristisches Freizeiterleben primär intrinsisch motivierende Anwendungen geeignet sind, werden zunächst intrinsische Motivationskonzepte untersucht. Dazu wird untersucht, wie Motivation gezielt herbeigeführt werden kann und ob sich gamebasierte Motivationskonzepte auf nichtspielerische Anwendungen übertragen lassen.
Darauf aufbauend wurden im Rahmen dieser Arbeit verschiedene touristische Anwendungen entwickelt und evaluiert. Ziel dieser Anwendungen ist es stets, einen Mehrwert für das touristische Freizeiterleben zu erzeugen. Die Anwendungen werden nach ihrer Mobilität kategorisiert. Es werden vollständig mobile, vollständig stationäre und hybride Systeme untersucht. Als Mehrwertkomponenten werden in dieser Arbeit spielbasierte Exploration einer Umgebung, Wissensvermittlung und soziale Interaktion zwischen Touristen untersucht.
Abschließend wird ein Autorentool für spielbasierte touristische Touren auf Smartphones entwickelt und untersucht, das seinerseits auf spielbasierte Elemente zurückgreift. Das Ziel dieses Systems ist es, Konzepte zu entwickeln, die beispielsweise eine Integration in soziale Netzwerke erlauben.
Durch die zunehmende Wichtigkeit und Dringlichkeit des Klimawandels sind Unternehmen aufgefordert, einen Beitrag zu nachhaltiger Entwicklung zu leisten, insbesondere durch die jüngeren Generationen. Bisherige Beiträge von Unternehmen werden jedoch als unzureichend kritisiert, was insbesondere am mangelnden Engagement der Mitarbeiterinnen und Mitarbeiter für Nachhaltigkeit in Unternehmen liegen könnte. In diesem Zusammenhang wurde in den letzten Jahren Gamification als ein vielversprechendes, innovatives Tool um nachhaltige Verhaltensweisen der Mitarbeiterinnen und Mitarbeiter am Arbeitsplatz zu motivieren, vorgeschlagen und zunehmend erforscht. Es gibt jedoch nur wenige Studien und anwendbare Gamification-Lösungen, die mehr als ein spezifisches Nachhaltigkeitsthema behandeln und somit eine ganzheitliche Perspektive auf nachhaltige Verhaltensweisen am Arbeitsplatz einnehmen. Darüber hinaus mangelt es bisheriger Forschung an einem umfassenden Verständnis dafür, wie verschiedene Gamification-Elemente spezifische psychologische Effekte hervorrufen, wie sich diese in Verhaltensänderungen manifestieren und wie diese wiederum kumulativ in messbaren Unternehmensergebnissen resultieren. Der Weg von Gamification als ”Input” zu unternehmerischer Nachhaltigkeit als ”Output” ist also bislang unerforscht.
Diese Dissertation schließt diese Lücke, indem eine ganzheitliche gamifizierte Intervention konzipiert, gestaltet und evaluiert wird, die Mitarbeiterinnen und Mitarbeiter bei verschiedenen nachhaltigen Verhaltensweisen in ihren täglichen Aktivitäten unterstützt. Das Projekt verwendet einen designwissenschaftlichen Forschungsansatz, der die Mitarbeiterinnen und Mitarbeiter eng in die schrittweise Entwicklung der Lösung einbezieht. Als Teil des iterativen Designprozesses werden in dieser Dissertation sechs Studien vorgestellt, um das theoretische Verständnis von Gamification für nachhaltige Verhaltensweisen von Mitarbeiterinnen und Mitarbeitern zu erweitern. Zunächst wird ein umfassender Überblick über die bestehende Forschung zu Gamification für nachhaltiges Mitarbeiterverhalten gegeben, wobei Gamification-Designs und Ergebnisse früherer Studien analysiert und eine Agenda für die weitere Forschung aufgezeigt werden (Studie 1). Danach werden theoretische Grundlagen der Forschung zu Gamification, Serious Games und Game-based Learning (Studie 2) und empirische Gestaltungsprinzipien
für Gamification und persuasive Systeme (Studie 3) als Basis für die erfolgreiche Gestaltung gamifizierter Anwendungen systematisch untersucht. Anschließend werden in empirischen Studien Motivationen der Mitarbeiterinnen und Mitarbeiter für nachhaltiges Verhalten erforscht und ihre Erwartungen an Gestaltungsmerkmale beleuchtet (Studie 4) sowie kontextuelle Herausforderungen und Gestaltungsdilemmata bei der Implementierung von Gamification in einem organisatorischen Kontext aufgezeigt (Studie 5). Schließlich wird in einer quantitativen Feldstudie (Studie 6) untersucht, wie verschiedene Gamification-Designs nachhaltiges Mitarbeiterverhalten und unternehmerische Nachhaltigkeitskennzahlen in Organisationen beeinflussen. Basierend auf den Ergebnissen wird in dieser Dissertation ein umfassendes Framework für Gamification für nachhaltiges Mitarbeiterverhalten präsentiert, welches Design-, individuelle Verhaltens- und Unternehmensperspektiven einbezieht. Schließlich werden darauf aufbauend praktische Empfehlungen für die Gestaltung von Gamification zur Förderung nachhaltigen Mitarbeiterverhaltens am Arbeitsplatz präsentiert.
Beim Zugang zur dualen Berufsausbildung haben Jugendliche und junge Erwachsene mit Migrationshintergrund schlechtere Chancen in eine betriebliche Berufsausbildung einzumünden. Vermehrt wird ein Forschungsbedarf thematisiert, der den Blick darauf richtet, wie die entsprechenden Auswahlentscheidungen in den Betrieben getroffen werden. Die Dissertation setzt an dieser Frage an und befasst sich mittels eines biographischen Zugangs mit den Personalentscheiderinnen und Personalentscheidern, den sogenannten Gatekeepern, in den Betrieben. Im Erkenntnisinteresse steht die Frage, ob und wie biographische Erfahrungen Bedeutung für Auswahlentscheidungen zugunsten zugewanderter junger Menschen haben.
Der Begriff Gebrauchsgrafik ist im Wesentlichen ein Sammelbegriff für jene grafischen Arbeiten, die, im Gegensatz zur freien Grafik Anteil haben an der bewussten künstlerischen Durchformung und Gestaltung praktischer Aufgaben. Hauptbetätigungsfeld der Gebrauchsgrafik als zweckgebundene künstlerische Äußerungsform ist um 1900 die Reklame in Form von Plakaten, Anzeigen, Verpackungen, Firmensignets sowie Akzidenzen. Sie alle brachten den vielseitigen Formenschatz des Jugendstils einem breiten Publikum näher. Die Gebrauchsgrafik als neues Medium um 1900 steht im engen Zusammenhang mit dem technischen Fortschritt der industriellen Revolution: Angesichts zunehmender Konkurrenz durch die Massenproduktion von Konsumgütern versprach künstlerisch ansprechende Werbung Wettbewerbsvorteile. Dank der Erfindung der Lithografie um 1799 war die Gebrauchsgrafik allseitig verfügbar und gut finanzierbar. Sie passte in das Konzept des Jugendstils als Medium, das alle Bereiche mitgestaltet. Sie fungierte als Schnittstelle zwischen Wirtschaft, Kunst und Kultur. Exemplarisch werden drei unterschiedliche, für die Region bis heute bedeutende Branchen untersucht: der Tourismus, der Weinbau und die Industrie. Zudem werden Pfälzer Künstler des Jugendstils vorgestellt, die sich auf dem Gebiet der Gebrauchsgrafik betätigten. So lässt sich in der Pfalz eine repräsentative Anzahl gebrauchsgrafischer Arbeiten des Jugendstils in unterschiedlicher Ausprägung nachweisen. Als entlegene bayrische Provinz nahm sie die Strömungen der Zeit wahr und setzte sie auf ihre Weise um. Ein eigenständiger Pfälzer Jugendstil entwickelte sich aber nicht.
Gefährdete Weltmacht USA
(2017)
Ziele und Befunde der Arbeit
Das durchgeführte Forschungsvorhaben zeigt durch einen holistischen, gleichzeitig politikwissenschaftlichen wie auch historischen Ansatz Folgendes: Nämlich, warum und wie das liberale, regelbasierte Weltordnungssystem im Untersuchungsraum der US-Präsidentschaften von Clinton bis Obama kontinuierlich durch ein System der realistischen, kurzfristig wirkenden Durchsetzung vitaler Interessen mittels militärischer Instrumentenpräferenz unter fortlaufender militärischer Optimierung ergänzt bzw. ersetzt wird. Dies erklärt auch, warum die „transaktionale Führung Trumps“(1), die nach dem Untersuchungsraum von 1993 bis 2017 mit Außenwirkung die Reduktion idealistischer „Grand Strategy“-Elemente bzw. wohlwollender Ordnungsmacht unter Kostenabwälzung und Vorteilsverringerung europäischer Nato-Verbündeter vornimmt, in Kontinuität zur ausgeübten Führungsmacht der Amtsvorgänger steht. Ergebnisse dieser Dissertation wie die sich ab 1993 immer nachdrücklicher abzeichnende Auflösung der multilateralen Grundordnung legen damit nahe, Trumps bisherige Außen- und Sicherheitspolitik als deutlich spürbares Krisensymptom und nicht als Ursache dieses Abbaus der nach 1945 eingerichteten Weltordnung einzustufen. Diese Auflösung ist mit einer Erosion des letztlich transatlantisch angestoßenen bipolaren „amerikanischen Systems“ gleichzusetzen. Die Implementierung dieses Systems erfolgte als „Lernstunde zweier Weltkriege“ auf Basis der mit der Aufklärung und den amerikanischen Gründungskennziffern eingeleiteten neuzeitlichen Ordnungskonzeptionen: Daher ist diese Auflösung auch ein Indikator für das Scheitern neuzeitlicher Ordnungskennziffern, die sich im „American way of life“ entfalten konnten.
Als ursächlich für die geschilderte Entwicklung wird eine von Clinton bis Obama konstant ansteigende Gesamtbedrohung nachgewiesen, mit der die konsequente Schwächung amerikanischer Vormacht verknüpft ist. Diese fußt u.a. auf der Basis von seit 1979 postulierten Klimawandeleffekten als Bedrohungsverstärker bei erreichter amerikanischer Förderspitze in fossilen Rohstoffen und ansteigendem Ressourcenbedarf im Kontext schrumpfender Rohstoffvorkommen. Weiter sind für den Untersuchungsraum die zunehmende Einwirkung der in den 1980er Jahren begonnenen „US-Konservativen Revolution“ auf die Ausübung der Außen- und Sicherheitspolitik unter Einflusszugewinn von Konzernen und Lobbygruppen auf beispielsweise policy-Implementierung sowie die neuen Rahmenbedingungen zu addieren. Darunter fallen die sich ausformende Digitalisierung, die hohen Ressourcenverbrauch mit sich bringt, und die ansteigende Weltbevölkerung unter spezifischen demographischen Vorzeichen. Darüber hinaus sind beispielsweise die Beibehaltung des bipolar angewachsenen Rüstungssektors als ökonomische Basis militärischer Vormacht und das langsame Abbröckeln der Dollar-Hegemonie seit etwa 1973 zu berücksichtigen. Durch komplexes Zusammenspiel von „Grand Strategy“-Umsetzung gemäß der Prämisse amerikanischen Führungsmachtausbaus unter neokonservativem bzw. christlich-rechtem Einfluss mit asymmetrischen sowie reaktivierten konventionellen Bedrohungsgegenständen, Bedrohungsverstärkern und neuen Rahmenbedingungen wird der lineare Verlauf der Gesamtbedrohung im Zeitraum von 1993 bis 2017 verständlich: Im Kontext der „Grand Strategy“-Ausführungen erklären insbesondere das Bedrohungsabwehr-, Bedrohungsverstärker- und Marktwirtschaftsverständnis der US-Far Right in komplexer Wechselwirkung mit erstarkenden transnationalen Konzernen, Lobbygruppen, Individuen(2), informellen Netzwerken und staatlichen Akteuren in Bezug auf Bedrohungsgegenstände sowie Bedrohungsverstärker(3) im Zusammenhang mit der post-bipolaren, globalen Verankerung amerikanischer Wirtschafts- und Konsummuster das Folgende: Nämlich die Anpassung der amerikanischen Bedrohungsabwehr - unter Aufbau der „imperial presidency“(4) bzw. Einhegung des Systems von „checks and balances“ - samt deren Implikationen auf das bipolare liberale Ordnungssystem. Sodann wird die notwendige Weiterführung in der Nato durch amerikanisch aufgeworfenen Nato-Umbau zur entsprechenden Umsetzung transformierter amerikanischer Bedrohungsabwehr bzw. Legitimierung der systemischen Anpassung begreifbar.
Genauso wird nachvollziehbar, dass die so eingerichtete Bedrohungsabwehr nur kurzfristig abwehrt: Stattdessen verstärkt sie asymmetrische und konventionelle Bedrohung wie auch Bedrohungsverstärker - unter Einleitung von Rüstungsspiralen bzw. Demontierung der Rüstungskontrolle - und damit die Gesamtbedrohung. Dies lässt einen Konfliktausbruch jenseits des bisher Vorstellbaren konstant näher rücken. Gleichzeitig ist der dringende Bedarf an Mobilisierung der transatlantischen Zusammenarbeit im Hinblick auf Förderung der globalen Kooperation staatlicher, aber auch nichtstaatlicher Akteure hinsichtlich der Bedrohungswurzeln samt der sich verschlechternden Voraussetzungen illustriert: Denn mit jedem Anstieg der Gesamtbedrohung ist durch die eingeleitete amerikanische sicherheitspolitische Anpassung und deren Weiterführung in der Nato ein Abbau der regelbasierten Basiskennziffern im Untersuchungsraum verknüpft. Dies reduziert in fortlaufender Konsequenz die Grundlage für oben genannte, konstant zentraler werdende Zusammenarbeit, um eine sukzessive Erosion des bipolaren „amerikanischen Systems“ unter künftigen Dystopien zu verhindern bzw. zumindest zu begrenzen.
Durch die Forschungsergebnisse wird der bisherige Forschungsstand auf den Kopf gestellt, da so beispielsweise gezeigt werden kann, dass mittels der Transformation der Nato keine gleichberechtigte transatlantische Lastenteilung oder eine Weiterentwicklung der Nato gemäß der Nato-Gründungskennziffern erzeugt wird. Dies gilt auch für den europäischen Widerstand gegenüber der tatsächlichen Verankerung der Natotransformationspositionen(5), der auf die Erosion des bipolaren liberalen Ordnungssystems bzw. der US-Vorteilsgewährung sowie so begünstigter Partikularinteressensicherung abhebt. Außerdem wird deutlich, dass eine Kontinuitätslinie in der Bedrohungsabwehr von Clinton bis Obama unter unterschiedlicher Außenwirkung und dem Grundmuster „Battleship America“ vorliegt - und eben nicht eine multilateral ausgerichtete Außen- und Sicherheitspolitik unter Clinton, die als Folge von 9/11 in einen unilateralen Pendelausschlag unter G. W. Bush 43 mündet, der durch die Obama-Administration wieder zurückgenommen wird.
Die Arbeit basiert auf einer umfassenden Fülle an Literatur, die das aufwendige Literaturverzeichnis widerspiegelt: Darunter fallen vielfältige amerikanische und europäische Publikationen, Monographien und entsprechende Sekundärliteratur, wie Biographien, Veröffentlichungen unterschiedlichster Natur wichtiger Vertreter der transatlantischen Forschungselite, Akteure der entsprechenden Politikplanung und -ausführung und wissenschaftliche Artikel aus Fachzeitschriften zu allen Forschungsbereichen bzw. politikwissenschaftlicher Methodik und Theorie. Weiter wurden u.a. Veröffentlichungen bzw. relevante Dokumente von Regierungen, Außenministerien, Verteidigungsministerien, Regierungsorganen, Denkfabriken, universitären Forschungszentren sowie der Nato verwendet.
Struktur der Arbeit
Konkret ist die vorliegende Dissertation in zwei Bände sowie einen Anhangsband unterteilt: Band 1 umfasst Schwerpunkt 1, eine Prozessanalyse unter offensiver neorealistischer Verortung, Band 2 den darauf aufbauenden Schwerpunkt 2, einen Vergleich („structured focussed comparison“) unter defensiver neorealistischer Verortung. Im Anhangsband finden sich ergänzende Ausführungen zu Kapitel 1, Band 1 in Bezug auf den Forschungsstand, Literatur und Quellenlage, theoretische Verortung sowie Wahl des Untersuchungsraumes bzw. ausgewählter europäischer Nato-Partner. Weiter sind ein historisches Kapitel als Voraussetzung zum „process-tracing“ in Kapitel 2, Band 1 und ein Abbildungs- und Abkürzungsverzeichnis wie auch ein Literaturverzeichnis enthalten.
Insgesamt ermitteln die beiden aufeinander aufbauenden Schwerpunkte mittels qualitativer Methoden das Folgende: Nämlich die übergeordnete amerikanische sicherheitspolitische Reaktion auf eine neue Gesamtbedrohung sowie deren Weiterführung und Legitimierungschance in der Nato im Untersuchungsraum von Clinton bis Obama.
Auf Basis des ersten Teils der Hypothese wird in Schwerpunkt 1, Band 1 ein Zusammenhang zwischen der Beibehaltung des bipolaren „US-Grand Strategy“-Ziels amerikanischer Führungs- und Ordnungsmacht sowie bipolarer außenpolitischer „Grand Strategy“-Kennziffern bzw. einer sich komplex entwickelnden neuen Gesamtbedrohung, amerikanischer sicherheitspolitischer Anpassung und der notwendigen Weiterführung in der Nato durch Natotransformation mittels amerikanisch aufgeworfener Natotransformationspositionen hergestellt.
In Schwerpunkt 2, Band 2 wird auf Basis des zweiten Teils der Hypothese der transatlantische Aushandlungsprozess zur Etablierung der amerikanisch vorgeschlagenen Natotransformationspositionen in Augenschein genommen: Vor diesem Hintergrund wird überprüft, ob diese tatsächliche Verankerung bzw. Konkretisierung des Ausbaus amerikanischen Vormacht am Widerstand der ausgewählten europäischen Nato-Bündnispartner Frankreich, Deutschland und Großbritannien scheitert.
Im Gesamtergebnis zeigt sich, dass aufgrund einer sich entwickelnden komplexen, linear ansteigenden Gesamtbedrohung die Chance zum Ausbau amerikanischer Führungsmacht konstant abnimmt. Dies muss mittels amerikanischer sicherheitspolitischer Anpassung kompensiert werden. Die daher erfolgende amerikanische sicherheitspolitische Neuausrichtung auf Basis der eingeleiteten „Revolution im Militärwesen“ modifiziert wiederum die Kennziffern bipolarer kollektiver Sicherheitsgewährleistung. Alles wird mittels tatsächlicher Verankerung der amerikanischen Natotransformationspositionen ermöglicht bzw. legitimiert. Das tatsächliche Erreichen der - die sicherheitspolitische amerikanische Anpassung konsequent weiterführenden - Transformation der Nato ermöglicht eine missionsorientierte, reaktionsbeschleunigende, flexible und globale Sicherheitsprojektion. Außerdem ist die Voraussetzung für „alliances of choice“ innerhalb der Nato geschaffen. Weiter zementiert die Modifikation der „bipolaren Nato“ die mittels sicherheitspolitischer amerikanischer Anpassung eingeleitete Erosion zentraler zivilisatorischer Errungenschaften bzw. Aufgaben bipolarer kollektiver Sicherheitsgewährleistung unter Vorteilsverringerung europäischer Nato-Bündnispartner.
Die tatsächliche Verankerung der Natotransformationspositionen erfolgt mittels der Reaktivierung konventioneller Bedrohung im Kontext der Ukraine-Krise von 2014 und der Erweiterung der Nato-Partnerschaftsringe auf globaler Ebene, ohne diesen den Status eines Nato-Mitgliedsstaates zu gewähren. Damit wird der Bündnisfall nicht globalisiert. Der ausgeübte deutsch-französische Widerstand wird besonders intensiv durch den Einbezug der europäischen Gründungsstaaten befördert, dagegen unterbleibt die Ausbildung einer europäischen Führungstroika durch Frankreich, Deutschland und Großbritannien.
Darüber hinaus zeigt insbesondere die entsprechende Ursachenermittlung, dass trotz konstanter, aufeinander aufbauender amerikanischer sicherheitspolitischer Reaktion unter unterschiedlicher Außenwirkung sowie tatsächlicher Weiterführung in der Nato die Gesamtbedrohung nicht langfristig abgebremst wird: Dies führt zu einem konstanten Anstieg der Gesamtbedrohung unter fortlaufendem Einflussverlust staatlicher Akteure bzw. Machtdiffusion und -konzentration samt einer sukzessiven Chancenerhöhung reaktivierter konventioneller, nuklearer, Cyber- und ökologischer Zerstörungsszenarien. Auf dieser Basis entsteht die Konsequenz einer immer umfassenderen und die Reaktion beschleunigende Präzisionsabwehr unter ansteigender Versicherheitlichung, um die kontinuierliche Einengung amerikanischer Vormacht auszugleichen. Dies erzeugt im Fortlauf einen konstanten Abbau der Strahlungs- und Schlagkraft des liberalen, regelbasierten, bipolaren „amerikanischen Systems“ sowie der Etablierung „idealistischer, liberaler“ „Grand Strategy“-Elemente. Weiter ist damit - auf der Grundlage der aufeinander aufbauenden Natotransformationspositionen sowie Obamas „smart power“(6) im Untersuchungsraum - eine zunehmende Vorteilsverringerung der europäischen Nato-Verbündeten bzw. ein ansteigender Bedarf an US-Kostendämpfung verquickt. Zudem entwickelt sich eine immer geringer werdende Chance zur Entfaltung des postbipolar als „nicht verhandelbar“ postulierten und global ausgebreiteten amerikanischen Lebensentwurfes in individueller, innerstaatlicher Ausprägung: Deren Artikulation erfolgt beispielsweise mittels zunehmendem Rechtspopulismus, Wahl von Außenseiterkandidaten, Zerfall traditioneller Parteiensysteme, isolationistischen Tendenzen unter ethnischer, regionaler Erstarkung, und Ablehnung von Supranationalität oder religiösem Fundamentalismus. Gleichzeitig ist die fortlaufende Erosion der globalen öffentlichen Güter identifizierbar.
Damit ebnet all das oben Genannte den Boden für die Begrenzung amerikanischer wohlwollender Ordnungsmacht bzw. der Handlungsspielräume staatlicher Akteure - und für die Rückkehr zu klassischer Machtpolitik im Kontext entstandener Machtdiffusion bzw. -konzentration. Dies erschwert angesichts der Dringlichkeit einer langfristigen Eindämmung asymmetrischer bzw. konventioneller Sicherheitsbedrohungsgegenstände, -verstärker, -cluster und globalen Rahmenbedingungen folgende Chance: Nämlich die zu transatlantischer Zusammenarbeit in der Nato unter Wiederbelebung der politischen Organisation derselben sowie Erweiterung auf zusätzliche Ebenen und Akteure im Sinne von Vorbeugung bzw. vernetzter Sicherheit zur Erreichung entsprechender globaler Kooperation in Bezug auf Einhegen der Bedrohungswurzeln.
Insgesamt wird durch diese Forschungsarbeit transparent, wie und warum die für den Untersuchungsraum von 1993 bis 2017 antizipierte „Friedensdividende“ und das durch Präsident Clinton postulierte „age of hope“ kaum spürbar wurden.
Fußnoten
(1) Vgl. Braml, Josef (2018), Trumps transaktionaler Transatlantizismus, in: Jäger, Thomas (Hrsg.), Zeitschrift für Außen- und Sicherheitspolitik, Oktober 2018, Volume 11, Ausgabe 4, S. 439-448, Wiesbaden.
(2) Vgl. National Intelligence Council (Hrsg.) (2012), Global Trends 2013: Alternative Worlds (NIC 2012-001), https://publicintelligence.net/global-trends-2030/, letzter Zugriff: 12.04.19. Vgl. dazu auch das „international financial leadership, self-selected at Davos“ bei McCoy, Alfred W. (2017), In the Shadows of the American Century. The Rise and Decline of US Global Power, Chicago.
(3) Vgl. zu Bedrohungsverstärkern beispielsweise Mazo, Jeffrey (2010), Climate Conflict. How global warming threatens security and what to do about it, London, Abingdon.
1990 wurde bereits in Bezug auf den Bedrohungsverstärker Klimawandel für die entstehenden asymmetrischen bzw. konventionellen Bedrohungsgegenstände komplexe Cluster konstatiert: „Over the next half century, the global average temperature may increase by approximately 4 degrees C. (…) All nations will be affected. (…) How much time will there be to confirm the amount of change and then to act? (…) However, many believe that we will have waited too lang to avoid major dislocation, hardship and conflict - on a scale not as yet seen by man“. Vgl. Kelley, Terry P. (1990), Global Climate Change. Implications For The United States Navy (The United States Naval War College, Newport, RI), http://documents.theblackvault.com/documents/weather/climatechange/globalclimatechange-navy.pdf, letzter Zugriff: 30.03.19. Dies lässt Hinweise auf die sich entwickelnde, konstant ansteigende Gesamtbedrohung im Untersuchungsraum von 1993-2017 zu.
(4) Vgl. Schlesinger, Arthur M., Jr. (1973), The Imperial Presidency, Boston.
(5) Die amerikanisch vorgeschlagenen Positionen zur Anpassung der Nato, die Nato Response Force sowie die Global Partnership Initiative, werden als „Natotransformationspositionen“ bezeichnet: Mit deren tatsächlicher Etablierung war eine Transformation der Nato in konsequenter Weiterführung amerikanisch erfolgter sicherheitspolitischer Anpassung verknüpft.
(6) Smart power geht auf Suzanne Nossel, Mitarbeiterin des UN-Botschafters Holbrooke während der Clinton-Administration, zurück: Vgl. Nossel, Suzanne (2004), Smart Power. Reclaiming Liberal Internationalism, http://www.democracyarsenal.org/SmartPowerFA.pdf, letzter Zugriff: 26.08.17. Weiter wird er Joseph Nye im Jahre 2003 als Reaktion auf die unilaterale Konzentration auf das militärische Instrument der G.W. Bush–Ära zugeschrieben. Vgl. Nye, Joseph S. Jr. (2011), The Future of Power, New York bzw. Nye, Joseph S. Jr. (2011), Macht im 21sten Jahrhundert. Politische Strategien für ein neues Zeitalter, München.
Vgl. Rodham Clinton, Hillary (2010), Leading Through Civilan Power. Redefining American Diplomacy and Development, in: Foreign Affairs, November/December 2010, Vol. 89, No.6, S. 13-24.
Problembewältigung stellt eine essentielle (kognitive) Aktivität im alltäglichen Leben, wie auch im Berufsleben, dar. Bereits in der Grundschule wird diese Fähigkeit, z.B. bei der Lösung von mathematischen Textaufgaben, gefordert und gefördert. Trotzdem bereitet dies Schülern verschiedener Klassenstufen nach wie vor große Schwierigkeiten. Das Lösen von Textaufgaben erfordert eine Vielzahl kognitiver Operationen. Dies ist besonders dann der Fall, wenn es sich bei den Aufgaben nicht um Routineaufgaben handelt. Für die Bearbeitung von Textaufgaben können Schüler auf verschiedene Repräsentationen zurückgreifen, wobei sowohl interne und externe als auch depiktionale (abbildende) und deskriptionale (beschreibende) unterschieden werden können. Da bisher kaum empirische Forschungsarbeiten zum Umgang von Schülern mit problemhaltigen Textaufgaben vorliegen, und darüber hinaus sehr wenig über die selbstgenerierten Repräsentationen bei der Bearbeitung von Textaufgaben bekannt ist, ist die vorliegende Arbeit z.T. explorativ angelegt. Im Fokus stehen die spontanen und individuellen Lösungsprozesse von Schülern verschiedener Klassenstufen bei der Bearbeitung von problemhaltigen Textaufgaben. Dabei wurde vorrangig untersucht, auf welche Repräsentationsformen die Schüler bei ihren Lösungsprozessen zurückgreifen.
Insgesamt 268 Schüler verschiedener Klassenstufen (Grundschüler der 3. und 4. Klasse; Gymnasiasten der 6. und 9. Klasse) wurden in Einzeluntersuchungen gebeten, jeweils fünf problemhaltige Textaufgaben zu lösen. Diese wurden ursprünglich im Hinblick auf die Primarstufe entwickelt, scheinen jedoch auch für Schüler höherer Klassenstufen ihren anspruchsvollen Charakter nicht zu verlieren. Für die Aufgabenlösungen standen den einzelnen Schülern verschiedene Materialien zur Verfügung. Von Seiten der Versuchsleitung wurden keinerlei Hilfestellungen gegeben. Nach jeder Aufgabe wurden die Schüler zu ihren Vorgehensweisen mittels halbstrukturiertem Interview befragt. Das individuelle Vorgehen wurde durch Videoaufzeichnungen festgehalten.
Das gewonnene Videomaterial wurde durch drei geschulte Beobachter anhand eines selbstentwickelten Kodiersystems quantifiziert und schließlich statistisch ausgewertet.
Allgemein kann gesagt werden, dass alle Schüler Schwierigkeiten bei der Bearbeitung der fünf Textaufgaben aufwiesen. So gab es nicht einen Schüler, der alle fünf Aufgaben richtig lösen konnte. Trotzdem nahm die Anzahl der richtigen Lösungen mit höherer Klassenstufe signifikant zu. In diesem Zusammenhang ergaben sich jedoch unterschiedlich starke Zuwächse in Abhängigkeit von der jeweiligen Aufgabe und ihren Anforderungen.
Hinsichtlich der selbstgenerierten Repräsentationsformen ergaben sich u.a. folgende Ergebnisse. Erstens operierten die Grundschüler im Vergleich zu den Gymnasiasten sehr stark intern deskriptional, d.h., sie waren versucht, die gesamten Aufgaben durch Kopfrechnen zu bewältigen. Zweitens griffen die Schüler mit höherer Klassenstufe eher auf verschiedene Repräsentationsformen zurück, was für einen flexibleren Umgang mit ihnen spricht. Drittens scheint die Verwendung multipler Repräsentationen bei der Konstruktion des mathematischen Modells nicht per se zu einer richtigen Lösung zu führen. Aber sie verhindert, unabhängig von der Klassenstufe, eine gänzlich falsche Aufgabenbearbeitung bzw. -lösung. Im Bezug auf das Lösungsvorgehen konnte kein eindeutiges Ergebnis erzielt werden. Hier scheinen je nach Aufgabenanforderungen (und wahrscheinlich auch Personenfähigkeiten) ganzheitliche und zergliedernde Vorgehensweisen unterschiedlich gut geeignet zu sein im Hinblick auf den Lösungserfolg. Nachfolgende Untersuchungen müssen die hier berichteten Ergebnisse überprüfen. Die Ergebnisse legen jedoch nahe, dass hinsichtlich des Umgangs von Schülern mit anspruchsvollen Textaufgaben nach wie vor Handlungsbedarf bestehen sollte. Gerade der im Mathematikunterricht gelegte Schwerpunkt auf deskriptionale Repräsentationsformen im Sinne von Rechnungen und Gleichungen scheint bedenklich. Vielmehr sollte eine Schulkultur etabliert werden, die den flexiblen Einsatz von verschiedenen Repräsentationsformen, und hier im Besonderen die Verwendung depiktionaler Repräsentationen, als legitim und durchaus notwendig erachtet.
Gel effect induced by mucilage in the pore space and consequences on soil physical properties
(2020)
Wasseraufnahme, Atmung und Exsudation sind biologische Schlüsselfunktionen der Wurzeln höherer Pflanzen. Sie steuern das Pflanzenwachstum, indem sie die biogeochemischen Parameter des Bodens in unmittelbarer Nähe der Wurzeln, der Rhizosphäre, verändern. Folglich sind Bodenprozesse wie beispielsweise Wasserflüsse, Kohlen- und Stickstoffaustausch oder mikrobielle Aktivitäten in der Rhizosphäre im Vergleich zu freiem Boden begünstigt. Insbesondere die Exsudation von Mucilage durch die Pflanzenwurzeln scheint ein wichtiger Mechanismus zu sein, um Trockenstress vorzubeugen. Durch diese gelartige Substanz wird bei negativen Wasserpotentialen sowohl der Bodenwassergehalt als auch die ungesättigte hydraulische Leitfähigkeit erhöht. Die Veränderung der Bodeneigenschaften durch Mucilage ist Gegenstand aktueller Forschung. Ein umfassendes Verständnis der Mechanismen im Porenraum der Rhizosphäre ist bisher allerdings noch unzureichend.
Ziel dieser Arbeit war die Aufklärung der Gel-Eigenschaften von Mucilage im Porenraum der Rhizosphäre, um Veränderungen der physiko-chemischen Eigenschaften der Rhizosphäre auf dieses interpartikuläre Mucilage zurückzuführen. Dabei stellten sich drei Herausforderungen: Zunächst einmal mangelte es an Methoden zur in situ Detektion von Mucilage im Boden. Außerdem fehlten detaillierte Kenntnisse bezüglich der Eigenschaften von interpartikulärem Mucilage. Desweiteren war die Beziehung zwischen der Zusammensetzung und den Eigenschaften von Modelsubstanzen und wurzelstämmigem Mucilage verschiedener Spezies unbekannt. Diese Fragen werden in den verschiedenen Kapiteln der Arbeit thematisiert.
Zunächst erfolgte eine Literaturrecherche, um Informationen aus verschiedenen Wissenschaftsbereichen über Methoden zur Charakterisierung von Gelen und Gel-Phasen im Boden zusammenzustellen. Die Änderung von Bodeneigenschaften aufgrund vorhandener Biohydrogelphasen im Boden kann als „Gel-Effekt“ bezeichnet werden. Die kombinierte Studie von Wassereinschlüssen in Gelen und Boden-Gel-Phasen mit der Untersuchung struktureller Eigenschaften von Boden hinsichtlich der mechanischen Stabilität und visueller Strukturen, zeigte sich als vielversprechend, um den Gel-Effekt im Boden zu charakterisieren.
Das erworbene methodische Wissen wurde in den nächsten Untersuchungen angewendet, um die Eigenschaften von interpartikulären Gelen zu detektieren und zu charakterisieren. 1H NMR Relaxometrie erlaubt die nicht-invasive Bestimmung der Wassermobilität in porösen Medien. Ein konzeptuelles Modell wurde aus Gleichungen entwickelt, welche die Proton-Relaxation in gelhaltigen porösen Medien beschreiben. Dieses Modell berücksichtigt den beschriebenen Gel-Effekt bei der Wahl der NMR Parameter und quantifiziert den Einfluss von Mucilage auf die Proton-Relaxation. Darüber hinaus wurde mithilfe von Rheometrie die Viskosität von Mucilage sowie die mikrostrukturelle Bodenstabilität bestimmt. Mittels Rasterelektronenmikroskopie wurde die Netzwerkstruktur von interpartikulärem Gel visualisiert. Die kombinierte Auswertung dieser Ergebnisse identifizierte drei wichtige Eigenschaften von interpartikulärem Gel: Der „Spinnennetz-Effekt“ schränkt die Dehnung der Polymerketten aufgrund der Verbindung zwischen dem Polymer Netzwerk und der Oberfläche von Bodenpartikeln ein. Der „Polymer-Netzwerk-Effekt“ veranschaulicht die Anordnung des Polymernetzwerks im Porenraum gemäß der räumliche Umgebung. Der „Mikroviskositäts-Effekt“ beschreibt die erhöhte Viskosität von interpartikulärem Gel im Vergleich zu freiem Gel. Die Auswirkungen dieser Eigenschaften auf die Wassermobilität und auf die mikrostrukturelle Stabilität des Bodens wurden untersucht und daraus resultierende Konsequenzen für hydraulische und mechanische Eigenschaften des Bodens diskutiert.
Der Einfluss von den chemischen Eigenschaften von Polymeren auf Gel-Bildungsmechanismen und Gel-Eigenschaften wurde untersucht. Dafür wurden Modelsubstanzen mit verschiedenen Uronsäure-Gehalt, Veresterungsgrade und Calcium-Gehalt getestet und die Menge an Materialanteil mit hohem Molekulargewicht quantifiziert. Die untersuchten Modelsubstanzen waren verschiedenen Pektin Polymeren und Chia Samen Mucilage. Darüber hinaus wurde Mucilage aus Winterweizen und Mais Wurzeln isoliert und untersucht. Polygalakturonsäure und Niedermethyliertes Pektin erwiesen sich als nicht geeignete Modelpolymere für Samen und Wurzelmucilage, da ionische Wechselwirkungen mit Calcium ihre Eigenschaften dominieren. Die dem Mucilage zuzurechnenden Eigenschaften scheinen eher durch schwache elektrostatische Wechselwirkungen zwischen verstrickten Polymerketten beherrscht zu sein. Die Menge an Material mit hohem Molekulargewicht variiert deutlich, abhängig von dem Ursprung des Mucilages. Dies scheint ein bedeutender Faktor für den Gel-Effekt von Mucilage im Boden zu sein. Zusätzlich zu der chemischen Charakterisierung der hochmolekulargewichtigen Polymere ist die exakte Bestimmung der Molekularmassen und der Konformation in verschiedenen Mucilagesorten notwendig, um Zusammensetzungs-Eigenschafts-Profile aufzeichnen zu können. Die Abweichungen zwischen den verschiedenen Mucilagestypen, welche sich durch die Messungen ergeben, haben die Notwendigkeit weiterer Untersuchungen unterstrichen. Nur so lässt sich die Frage klären, wie die spezifischen Eigenschaften von verschiedenen Mucilagestypen auf die Bedürfnisse der Pflanze abgestimmt sind, der sie entstammen.
Schließlich wurde diskutiert, wie die Betrachtung von molekularen Wechselwirkungen im Gel und interpartikulären Gel-Eigenschaften das Verständnis über die physikalischen Eigenschaften der Rhizosphäre erweitert. Dieser Ansatz ist vielversprechend, um zum Beispiel der Wassergehalt oder die hydraulische Leitfähigkeit entsprechend die Eigenschaften vom exudierten Mucilage zu klären. Darüber hinaus liegt die Vermutung nahe, dass der Gel-Effekt allgemein für alle Bodenexsudate mit Gel-Charakter Gültigkeit besitzt. Eine Klassifizierung natürlicher Boden-Gel-Phasen einschließlich der von Wurzeln, Samen, Bakterien, Hyphen oder Regenwürmern exsudierten, gelartigen Materialien nach ihren gemeinsamen physiko-chemischen Gel-Eigenschaften wird für die zukünftige Forschung empfohlen. Als Ergebnis könnten die physiko-chemische Eigenschaften von solchen Gelen zum Gel-Effekt den Auswirkungen auf die Bodeneigenschaften und den Funktionen von den Gelen im Boden zugeschrieben worden.
Biodiversity is not only threatened by habitat loss, climate change and pollution, but also by invasive species. The impact of introduced species is immense and causes substantial ecological and economical costs worldwide. With the start of domestications of the African wildcat (Felis lybica) in the Near East, the transport of house cats (Felis catus) around the world as a commensal and domesticate began. The general aim of my thesis was to investigate the impact of invasive feral cats on native species as well as underlying population genetic structures, diversity and phylogeography. This was studied in the context of the demographic history in Australia and Hawai'i. My studies confirmed that the main introductions of cats to Australia began in the 19th century via ships of European settlers, traders and workers. Similarly, I was able to confirm cat introductions to Hawai'i by European traders and explorers; which has to the present a devastating effect on Hawaiian endemic species. Likewise, cats are widespread across Australia, can be found on most islands and are recognized as one of the major threats to Australian native species. A selective feeding behaviour by invasive predators was found in one of my studies. This study additionally gives an indication for possible population recovery of small Western Australianrnvertebrate species after predator removal. Advancement and the combination of various management techniques allow, if adequately funded, a more efficient planning and implementation of eradication campaigns. Population genetic approaches are able to give insights into population genetic structure, diversity and kinship, thereby enabling management campaigns to be more cost effective and successful. No pattern of isolation by distance between populations of Hawai"i and Australia indicated that trade routes, such as the "Golden Round" of the maritime fur trade, facilitated a link between far off global cat populations. Multiple introductions to Australia and intermixing with domestic breed cats resulted in feral cat populations which showrnno signs of reduced genetic variability. My studies also revealed the advantages of bioproxies in combination with phylogeography, which enable the inference and reconstruction of introduction routes, history and origin of invasive species. Genetic signals of historically introduced genotypesrnare still discernible on islands with low number of introductions over time and thereby low intermixing with domestic fancy breeds. Feral cats' adaptability as an invader was reconfirmed and possible underlying genetic mechanisms enabling their success as a global invader ("global supercat") are discussed. Research into the feralisation process of cats will provide new information regarding the domestication of cats, the genetic basis of feralisation and allow additional insights into cats" adaptive potential.
Internationale Bildungsstudien (TIMSS und PISA) offenbarten, dass es deutschen Schülern nur begrenzt gelingt, ihr erworbenes Wissen im Physikunterricht zur Problemlösung in neuen Kontexten zu nutzen. Als Grund nennen die Studien die gering ausgeprägte Kompetenz-erwartung in Bezug zum Fach Physik. Die Folge ist eine geringe Motivation der Lernenden, physikalische Aufgaben zu lösen. Studien zeigen aber auch, dass die Motivation beim Lernen durch den Einsatz digitaler Lernmedien gesteigert werden konnte. Aus diesem Grund wird in dieser Arbeit untersucht, ob das Vertrauen in die eigenen Fähigkeiten durch das Lernen in einer integrierten Lernumgebung gefördert werden kann. Im Rahmen eines Design-Based-Research-Forschungsansatzes (DBR) wurde eine integrierte Lernumgebung „Wärmelehre“ mit digitalen Lernmedien für den Physikunterricht gestaltet, die dann in zwei Schulformen (IGS und Gymnasium) innerhalb einer quasi-experimentellen Feldstudie erprobt wurde. Im 1. Zyklus des DBR wurden die Wirkungen des selbstständigen Lernens mit digitalen/analogen Medien in Einzelarbeit untersucht. Die Ergebnisse der Wissenstests zeigen einen höheren Lernerfolg bei den Lernenden der Experimentalgruppen, der sich aber nicht signifikant von den Lernenden der Kontrollgruppen (analoge Medien) unterscheidet. Die Lernenden konnten sich in der integrierten Lernumgebung mit Unterstützung beider Medienformate selbstständig Fachwissen aneignen und problembasierte Textaufgaben lösen. Die Ergebnisse der Befragungen der Lernenden zeigen, dass sich die Lerngruppen signifikant in ihrem erlebten Grad der Selbststeuerung unterscheiden. Die Lernenden beider Experimentalgruppen bewerten ihren Handlungsspielraum besser als die Lernenden der beiden Kontrollgruppen. Ebenfalls konnte festgestellt werden, dass sich die individuellen Lernvoraussetzungen, der Lernstiltyp, das Kompetenzerleben und die Aspekte der Medien-gestaltung wechselseitig beeinflussen und auf den Lernerfolg wirken. Die Ergebnisse der Lernstilanalyse zeigen, dass sich selbst kleine Lerngruppen heterogen zusammensetzen. Demnach scheint es für einen guten Lernerfolg notwendig zu sein, dass die Lehrenden, die Lernumgebung an die individuellen Lernpräferenzen der Lernenden der Lerngruppe anpassen. Aus den Ergebnissen lässt sich als Konsequenz für den Physikunterricht ableiten, dass Selbstlernphasen mit digitalen Lernmedien regelmäßig in den Unterricht integriert werden sollten, um die Problemlöse- und die Selbststeuerungskompetenz zu fördern. Es ist von Vorteil, wenn die Lehrenden für die Gestaltung einer Lernumgebung, das Vorwissen, die individuellen Lernvoraussetzungen und die Zusammensetzung der Lerngruppe (Lernstiltyp) als Qualitätsdimensionen erfassen. Im Re-Design werden Vorschläge unterbreitet, wie die integrierte Lernumgebung lernstilgerecht weiterentwickelt werden kann. Im 2. Zyklus soll dann erforscht werden, ob sich Unterschiede im Lernerfolg und in den untersuchten Aspekten zeigen, wenn die Lernenden in Einzelarbeit, in Partnerarbeit oder in ihrer Lernstilgruppe selbstgesteuert lernen, um die Lernumgebung zyklisch weiterzuentwickeln.
Die Arbeit beschäftigt sich mit dem Einsatz moderner Grafikhardware (GPU) für die Visualisierung und Verarbeitung medizinischer Volumendaten. Die zunehmende Steigerung der Rechenleistung ermöglicht den Einsatz von Standardsystemen für Anwendungsgebiete, die bisher nur speziellen Workstations vorbehalten waren. Zusammen mit dem wesentlichen Vorteil von Grafikhardware Daten direkt anzeigen zu können, sind Verfahren wie visualisierungsgestütztes Berechnen ("visual computing") oder interaktives Steuern von Berechnungen ("computational steering") erst möglich geworden. Darauf wird anhand mehrerer Beispielanwendungen und umgesetzten Konzepten wie den "ray textures" im Detail eingegangen. Da die zu verarbeitenden und darzustellenden Datenmengen stetig ansteigen, ist aufgrund von Speicher- und Bandbreiteneinschränkungen eine kompakte Repräsentation der Daten notwendig. Während die Datenkompression selbst eingehend erforscht wurde, beschäftigt sich die vorliegende Arbeit mit Möglichkeiten, Berechnungen direkt auf den komprimierten Daten durchführen zu können. Dazu wurden verschiedene Algorithmenklassen identifiziert und in die Wavelet-Domäne übertragen. Mit Hilfe von speziellen Varianten der komprimierten Repräsentation ist eine effiziente Umsetzung grundlegender Bildverarbeitungsalgorithmen möglich und zeigt zugleich das Potential dieses Ansatzes auf. Aus technischer Sicht wurde im Laufe der Arbeit die GPU-basierte Programmierumgebung "Cascada" entwickelt. Sowohl die Einführung von objektorientierten Konzepten in die Shaderprogrammierung, als auch eine hierarchische Repräsentation von Berechnungs- und/oder Visualisierungsschritten vereinfacht den Einsatz von Grafikhardware ohne wesentliche Leistungseinbußen. Dies wird anhand verschiedener Implementationen in den jeweiligen Beiträgen und zwei klinischen Projekten im Bereich der Diagnoseunterstützung gezeigt. Hierbei geht es zum einen um die semi-automatische Segmentierung der Leber in niedrig aufgelösten MR-Datensätzen, zum anderen um Möglichkeiten zur Vermessung von abdominalen Aortenaneurysmen; jeweils unterstützt durch Grafikhardware. Darüber hinaus ermöglicht "cascada" auch die Erweiterung hinsichtlich aktueller Architekturen für den universellen Einsatz von Grafikhardware, sowie künftige Entwicklungen durch ein modulares Design.
Im Kontext des Geschäftsprozessmanagements werden häufig sogenannte
Business Rules (Geschäftsregeln) als zentrales Artefakt zur Modellierung von
unternehmensinterner Entscheidungslogik sowie der Steuerung von Unternehmensaktivitäten eingesetzt. Eine exemplarische Geschäftsregel aus dem Finanzsektor wäre z.B. ”Ein Kunde mit geistiger Behinderung ist nicht geschäftsfähig”.
Business Rules werden hierbei meist von mehreren Mitarbeitern und über einen
längeren Zeitraum erstellt und verwaltet. Durch dieses kollaborative Arbeiten
kann es jedoch leicht zu Modellierungsfehlern kommen. Ein großes Problem in
diesem Kontext sind Inkonsistenzen, d.h. sich widersprechende Regeln. In Bezug
auf die oben gezeigte Regel würde beispielsweise eine Inkonsistenz entstehen,
wenn ein (zweiter) Modellierer eine zusätzliche Regel ”Kunden mit geistiger
Behinderung sind voll geschäftsfähig” erstellt, da diese beiden Regeln nicht zeitgleich einhaltbar sind. Die vorliegende Arbeit beschäftigt sich mit dem Umgang
mit solchen Inkonsistenzen in Business Rule-Repositorien. Hierbei werden im
Speziellen Methoden und Techniken zur Erkennung, Analyse und Behebung von
Inkonsistenzen in Regelbasen entwickelt.
The concept of hard and soft news (HSN) is regarded as one of the most important concepts in journalism research. Despites this popularity, two major research voids can be assigned to the concept. First, it lacks conceptual clarity: the concept gets used interchangeably with related concepts such as sensationalism, which has led to fuzzy demarcations of HSN. Also, it is still not agreed on of which dimensions the concept in composed. Second, little is known about the factors that influence the production of news in terms of their hard or soft nature. The present disserta-tion casts a twofold glance on the HSN concept – it aims to assess the conceptual status of the concept and production of hard and soft news.
At the outset, this dissertation delineates the theoretical base for three manuscripts in total and presented considerations on concepts in social sciences in general and hard and soft news in particular as well as the production of news, particularly of hard and soft news. The first paper proposed a theoretical frame-work model to distinguish HSN and related concepts. Based on a literature review of in total five concepts, this model suggested a hierarchy in which these concepts can be discerned according to their occurrence in media content. The second pa-per focused on the inner coherence of the HSN concept in its most recent academ-ic understanding. The results of a factorial survey with German newspaper jour-nalists showed that, indeed, four out of five dimensions of the HSN concept com-prised what the journalists understood by it. Hence, the most recent academic un-derstanding is to a great extent coherent. The third study shed light on the produc-tion of HSN, focusing on the influence of individual journalists’ and audience’s characteristics on whether news was presented in hard or soft way. The findings of a survey with simulated decision scenarios among German print journalists showed that the HSN dimensions were susceptible to different journalistic influ-ences and that a perceived politically uninterested audience led to a softer cover-age. The dissertation concluded with connecting these findings with the considera-tions on concept evaluation and the production of news. Implications for research on and with the concept of HSN were presented, before concluding with limitations and suggestions for future research.
Harvesting Season?
(2022)
Seit etwa zwanzig Jahren existieren Bemühungen Kunden zum Kauf von Lebensmitteln im Internet zu bewegen. Dabei waren die Marktstrukturen des digitalen Lebensmittelhandels zu Beginn noch stark fragementiert und schlecht abgestimmt. Durch die technologische Weiterentwicklung in den vergangenen Dekade hat der digitale Lebensmittelkauf an Attraktivität gewonnen. Die Nutzungsadaption dieser Diensteleistungen variiert dabei jedoch sehr stark zwischen unterschiedlichen Regionen. Besonders in Deutschland stagniert der digitalen Lebensmittelhandel auf einem vergleichweise niedrigen Niveau. Diesbezüglich analysiert diese Dissertation sowohl die händlerseitigen Marktstrukturen, als auch die Erwartungen und Hindernisse deutscher Konsumenten gegenüber der Serviceleistung.
Das Jahr 2020 konnotiert einen Wendepunkt für den Online Lebensmittelhandel, als, im Zuge politischer Maßnahmen zur Reduzierung der COVID-19 Infektionen, tägliche Routinen wie der Lebensmitteleinkauf starken Regulierungen unterlagen. Gleichzeitig hat es der digitale Lebensmittelhandel trotz dieser Gelegenheit noch nicht geschafft sich flächendeckend in Deutschland zu etablieren. Dies kann auf fehlende Investments, aber auch unzulängliche Digitalisierungsmaßnahmen zurückgeführt werden. Eine stärkere Synchronisierung zwischen digitalem und stationärem Angebot, bessere Integration digitaler Lebensmitteldienste auf regionaler Ebene sowie angepasste, zielgruppenadäquate digitale Lösungen zum effizienten Abbau von Nutzungsbarrieren. Die Wichtigkeit stabiler Lebensmittelketten und –verteilung konnte durch die COVID-19 Pandemie illustriert werden. Weitere Forschung sollte helfen den digitalen Lebensmittelhandel zu einer nachhaltigen und stabilen Supplementierung des stationären Angebots zu entwickeln.
In der Biologie stellt das Zeichnen eine zentrale Arbeitstechnik dar. Viele Studien konnten auf einen positiven Effekt des Zeichnens für bestimmte Situationen hinweisen. Schülerinnen und Schüler müssen diese Technik jedoch zunächst erlernen. Hierbei können zahlreiche Schwierigkeiten auftreten, die die inhaltliche Auseinandersetzung gefährden. Jedoch wurden sowohl Schwierigkeiten im Umgang mit unterschiedlichen Repräsentationsformen als auch der Zeichenprozess bislang nur lückenhaft untersucht. Die Studie dieser Arbeit hat daher zum Ziel, (I) den Zeichenprozess auf der Ebene der Sichtstruktur zu beschreiben, (II) die manifesten Schwierigkeiten von Lernenden zu erfassen, auf die sie während der Konstruktion biologisch bedeutsamer Repräsentationsformen (Ablaufdiagramme, mikroskopische Zeichnungen) treffen, (III) und auf Grundlage der empirischen Befunde Schülertypen abzuleiten. Vor diesem Hintergrund waren 21 Schülerinnen und Schüler angehalten, jeweils ein Ablaufdiagramm auf Grundlage eines Texts und eine mikroskopische Zeichnung auf Grundlage eines Präparats zu konstruieren und dabei laut zu denken. Fragen zur Vorerfahrung sowie retrospektiv gestellte Fragen zum Vorgehen der Teilnehmenden umrahmten den videografisch dokumentierten Prozess. Die Ergebnisse zeigen, dass der Zeichenprozess mehr als zehn unterschiedliche Tätigkeiten umfassen kann, wobei die Kerntätigkeit des Zeichnens durchschnittlich nur rund ein Drittel des Prozesses ausmacht. Die Prozessstruktur zwischen Fällen variiert erheblich. Weiterhin konnten etwa 30 Schwierigkeiten bzw. Fehler identifiziert werden, die während der Konstruktion beider Repräsentationsformen auftreten. Diese können dabei sowohl einzelne als auch mehrere Tätigkeiten betreffen und zu Tätigkeitsabbrüchen führen. Schwierigkeiten stehen häufig in Verbindung mit Tätigkeiten, die außerhalb der Kerntätigkeit des Zeichnens liegen (z. B. Abgleich mit der Textgrundlage). Bezogen auf Ablaufdiagramme stellt das Verhältnis depiktional bzw. deskriptional dargestellter Textinformationen den Ausgangspunkt der Typisierung dar: Typ I: realistisch abbildend, II: alternierend abbildend und III: schriftorientiert abbildend. Für mikroskopische Zeichnungen war die Häufigkeit des Abgleichs mit dem Objekt grundlegend für die Typisierung: Typ I: oberflächlich abbildend, II: objektorientiert abbildend und III: undifferenziert detailliert abbildend. Die Studie liefert erstmals Kategoriensysteme, die es erlauben, die Prozessstruktur des Zeichnens sichtbar und zwischen Fällen vergleichbar zu machen sowie schwierigkeitsbezogenes Grundlagenwissen zur Konstruktion von Zeichnungen, basierend auf Texten und Beobachtungen. Die Übertragbarkeit der Befunde auf andere Repräsentationsformen ist an vielen Stellen denkbar. Die theoretisch fundierte Systematisierung von Schwierigkeiten kann von weiterführenden Untersuchungsansätze aufgegriffen werden und erlaubt die Verortung situationsangemessener Unterstützungsmaßnahmen.
Sind Menschen von einer Pflegebedürftigkeit in Deutschland betroffen, so regelt der durch § 14 SGB XI festgeschriebene Pflegebedürftigkeitsbegriff den Zugang zu Leistungen der Pflegeversicherung. Der Pflegebedürftigkeitsbegriff ist dabei ein normativ gesetzter und basiert bislang nicht auf empirischen Studien aus dem Bereich der Pflege und der Pflegewissenschaft. Durch seine gesetzliche Fundierung lenkt er die Bedingungen und Strukturen, unter welchen Pflegeleistungen in Deutschland von Pflegefachpersonen erbracht werden. Weiterhin ist davon auszugehen, dass die Pflegefachpersonen durch ihre professionelle Sozialisierung einen fachlichen Fokus auf das Konstrukt der Pflegebedürftigkeit legen, welcher sich vom Pflegebedürftigkeitsbegriff unterscheidet und strukturell nicht in die Leistungsbemessung einfließt. Daraus ergeben sich Aspekte einer pflegerischen Unter- und Überversorgung.
Die vorliegende Ph.D.-Thesis verfolgt das Anliegen, die Herausforderungen des Pflegebedürftigkeitsbegriffs in Deutschland aufzuzeigen, indem die Aspekte der Pflegebedürftigkeit von Pflegefachpersonen im ambulanten Setting im Hinblick auf deren Interaktion mit pflegebedürftigen Menschen empirisch erfasst und zu einem theoretischen Konzept ausgearbeitet werden. Zur methodischen Bearbeitung des Forschungsinteresses werden problemzzentrierte Interviews mit ambulanten Pflegefachpersonen geführt, die mit Rückbezug auf den Symbolischen Interaktionismus nach Herbert Blumer unter methodologischen und methodischen Gesichtspunkten mittels einer Grounded Theory nach Kathy Charmaz sowie Juliet Corbin und Anselm Strauss erhoben und ausgewertet werden. Dabei kommt ein reflexives-konstruktivistisches Forschen und Schreiben als Konsequenz der epistemologisch-methodologischen Fundierung der Autorin zur Anwendung.
Die erarbeitete Theorie beschreibt die Herausforderungen der Pflegebedürftigkeit aus Sicht der befragten Pflegefachpersonen. So werden in der Kernkategorie Aushandlungsprozesse in den Bereichen Nähe und Distanz, Anwaltschaft und Verantwortungsüberlassung sowie Ethos und Technokratie beschrieben. Sämtliche Aspekte zeigen auf, inwiefern der gesetzliche Pflegebedürftigkeitsbegriff zu Herausforderungen innerhalb der pflegerischen Arbeit führt. Die Ph.D.-Thesis liefert mit ihren Ergebnissen einen Beitrag zur Einordnung und Relevanz pflegerischer Beziehungsarbeit im Hinblick auf herrschende Rahmenbedingungen der Pflegebedürftigkeit und zeigt auf, inwiefern sich Interaktion und Kommunikation der Akteur*innen vor dem Anspruch individueller Pflege und dem deutschen ambulanten Pflegesystem wechselseitig bedingen. Sie liefert damit einen professionell und empirisch begründeten Ansatz für die Einschätzung und Bearbeitung von pflegefachlich erlebter Pflegebedürftigkeit.
Seit Jahrzehnten wird weltweit eine zunehmende Bedrohung der biologischen Vielfalt durch anthropogene Einflüsse beobachtet. Landschaften sind durch unterschiedliche Arten von anthro-pogenen Störungen geprägt. So vereinheitlichen großflächiger Ackerbau, die Pestizidanwen¬dung und das Entfernen von Korridoren eine Landschaft, wohingegen der Straßenbau sie fragmentiert. Beides führt zu einer Einschränkung von Habitaten und reduziert sowohl den Lebensraum als auch den Genpool der Arten, verhindert den Genfluss und verändert die funktionellen Eigenschaften. Zudem können gebietsfremde Arten in der veränderten Umwelt schneller Fuß fassen. Auf der anderen Seite machen in verschiedenen zeitlichen und räumlichen Dimensionen vorkommenden Störungen eine Landschaft auch vielfältiger, da sie Nischen kreieren, in denen verschiedene Arten koexistieren können.
Diese Studie befasst sich mit der Komplexität von Störungsregimes und dessen Auswirkungen auf die Phytodiversität. Durch die Aufnahme aller erkennbaren Störungstypen unterscheidet sie sich deutlich von anderen Studien, die sich meist nur auf einzelne Störungen konzentrieren. Die Daten stammen von drei Untersuchungsgebieten im Norden Bayerns, die unterschiedlichen Landnutzungsintensitäten unterliegen: Einer intensiven Land- und Forstwirtschaft, einer kleinräumigen und weniger intensiven Land- und Forstwirtschaft und einem aktiven Truppenübungsplatzes. Der erste Teil der Arbeit befasst sich mit der Auswirkung von Störungsregimen auf die Phytodiversität, zuerst mit Fokus auf militärische Störungen, dann im Vergleich mit den Agrarlandschaften. Der zweite Teil beleuchtet den Einfluss auf Rote-Liste Arten, auf die Verbreitung von Neophyten und Generalisten sowie auf die Homogenisierung der Landschaften. Die Analysen berücksichtigen sowohl die Landschafts- als auch die lokale Ebene.
Nicht einzelne Störungstypen spielten eine entscheidende Rolle, sondern deren Vielfalt, sowohl in der Art als auch in der räumlichen und zeitlichen Vielfalt, was sich besonders auf dem Truppenübungs¬platz mit seinem multiplen aber ungerichteten Störungsregime zeigte. Die in landwirtschaftlichen Gebieten typischen homogenen Störungsregimes, wie Pflügen, Einsäen und Düngen, führten zu reduzierten Artenzahlen. Auf lokaler Ebene überlagerte die Heterogenität der abiotischen Faktoren, deren Ursprung in rezenten und historischen Störungen liegt, die positiven Effekte der Störungen, während vor allem trockene und nährstoffarme Standorte negativen Einfluss zeigten. Wälder des Truppenübungsplatzes zeigten sich durch ihre geringere Dichte und moderate Nutzung deutlich artenreicher im Vergleich zu den landwirtschaftlichen Untersuchungsgebieten.
Die Anzahl der Rote-Liste Arten war in allen drei Untersuchungsgebieten positiv mit der Gesamtzahl der Arten korreliert, jedoch zeigte der Truppenübungsplatz eine signifikant höhere Abundanz der Arten innerhalb des gesamten Gebietes im Vergleich zu den landwirtschaftlichen Gebieten, wo seltene Arten überwiegend auf Randstandorten zu finden waren. Ebenso fanden sich dort weniger Neophyten und Generalisten und somit eine geringere Homogenisierung. Somit zeigte sich der Truppenübungsplatz als Idealgebiet aus Naturschutzsicht. Die moderat bewirtschaftete Frankenalb vereint eine hohen Artenzahl und eine Produktivität, trotzdem wird diese Art von Landschaft in der heutigen industrialisierten Zeit nicht von Bestand sein, da der Ertrag zu gering ist.
Gerechtigkeitswahrnehmungen haben sich im Unternehmenskontext als bedeutsame Prädiktoren von Bindungsphänomenen und Extra-Rollenverhalten zugunsten der Organisation erwiesen, aber für Alumni als ehemalige Mitglieder einer Organisation wurde dieser Zusammenhang bisher noch nicht untersucht. Die vorliegende Arbeit gibt einen Überblick über Konzepte, mit denen das in den Sozialwissenschaften bislang wenig adressierte und elaborierte Konzept der Alumnnibindung theoretisch gefasst und mit Konzepten der psychologischen Gerechtigkeitsforschung in Verbindung gebracht werden kann. Um die Bedeutsamkeit von Gerechtigkeitswahrnehmungen während der Hochschulzeit für spätere Alumnibindung und späteres Alumni-Engagement zu untersuchen, wird ein theoretisches Modell vorgeschlagen, das Gerechtigkeit mit bereits bekannten Einflussfaktoren integriert.
Die empirische Studie erfasste zu drei Messzeitpunkten zunächst die Kontrollvariablen und in einer zweiten Erhebungswelle die Gerechtigkeitswahrnehmungen von Studierenden. In einer dritten Erhebung ca. 6-12 Monaten nach Abschluss des Studiums die affektive und normative Hochschulbindung, sowie die Engagement-Bereitschaften von Alumni erhoben. Anhand der Stichprobe, die je nach Messzeitpunkt und beteiligten Variablen zwischen N = 296 bis N =795 Teilnehmenden umfasst, werden einzelne Hypothesen über die Auswirkung von Gerechtigkeitswahrnehmungen, sowie deren Bedeutung innerhalb eines multiplen regressionsanalytischen Mediationsmodelles überprüft.
Die Ergebnisse lassen darauf schließen, dass sich Hochschulbindung und Engagement-Bereitschaften von Alumni nicht nur prinzipiell durch Gerechtigkeitswahrnehmungen vorhersagen lassen, sondern diese insbesondere in ihrer prozeduralen und interaktionalen Komponente einen bedeutsamen Beitrag zur Vorhersage von Hochschulbindung und Engagement-Bereitschaften auch über andere Einflussfaktoren hinaus leisten. Ferner zeigte sich, der Einfluss von Gerechtigkeitswahrnehmungen auf Engagement-Bereitschaften von Alumni je nach konkretem Kriterium über eine affektive oder normative Form der Hochschulbindung mediiert wird.
Das Ziel der vorliegenden Promotionsarbeit lag darin, physiologische (Herzratenvariabilitätsmaße) und biomechanische Parameter (Schuhmerkmale) und deren mögliche vorhersagende Wirkung auf psychologische Stimmungszustände zu untersuchen. 420 Teilnehmer (275 männlich und 145 weiblich, Alter: M=34.7 Jahre ± 9.7) nahmen an einem 60-minütigen langsamen Ausdauerlauf teil, währenddessen sie Fragen über ein mobiles Antwort- und Aufnahmegerät eingespielt bekamen. Wir untersuchten unterschiedliche Facetten von Stimmungszuständen, physiologischen und biomechanischen Parametern. Mittels einer latenten Wachstumskurvenanalyse wurden mögliche kreuzverzögerte Effekte untersucht. Ergebnisse zeigten unter anderem statistisch signifikante Zusammenhänge (p ≤.05) für die Vorhersage psychologischer Stimmungszustände aus den biomechanischen Maßen, sowie die Vorhersage physiologischer Parameter aus diesen psychologischen Stimmungszuständen.
How to begin? This short question addresses a problem that is anything but simple, especially when regarding something as sophisticated and multilayered as musical theatre. However, scholars of this vast research area have mostly neglected this question so far. This study analyses and compares the initial sections of late Victorian popular musical theatre and is therefore a contribution to several fields of research: the analysis of initial sections of musical theatre in general, the analysis of the music of popular musical theatre in particular, and therefore operetta studies. The 1890s are especially interesting times for popular musical theatre in London: The premiered works include the last collaborations of Gilbert and Sullivan as well as offshoots of Savoy opera; but the so-called ‘naughty nineties’ also saw the emergence of a new genre, musical comedy, which captured the late Victorian zeitgeist like no other. This new form of theatrical entertainment was carefully and consciously constructed and promoted as modern and fashionable, walking a fine line between respectability and mildly risqué excitement.
Because a deep understanding of the developments and new tendencies concerning popular musical theatre in the 1890s is crucial in order to interpret differences as well as similarities, the analyses of the opening numbers are preceded by a detailed discussion of the relevant genres: comic opera, musical comedy, musical play and operetta. Since the producers of the analysed works wanted to distance themselves from former and supposedly old-fashioned traditions, this book also considers influences from their British predecessors, but also from Viennese operetta and French opéra bouffe.
Human action recognition from a video has received growing attention in computer vision and has made significant progress in recent years. Action recognition is described as a requirement to decide which human actions appear in videos. The difficulties involved in distinguishing human actions are due to the high complexity of human behaviors as well as appearance variation, motion pattern variation, occlusions, etc. Many applications use human action recognition on captured video from cameras, resulting in video surveillance systems, health monitoring, human-computer interaction, and robotics. Action recognition based on RGB-D data has increasingly drawn more attention to it in recent years. RGB-D data contain color (Red, Green, and Blue (RGB)) and depth data that represent the distance from the sensor to every pixel in the object (object point). The main problem that this thesis deals with is how to automate the classification of specific human activities/actions through RGB-D data. The classification process of these activities utilizes a spatial and temporal structure of actions. Therefore, the goal of this work is to develop algorithms that can distinguish these activities by recognizing low-level and high-level activities of interest from one another. These algorithms are developed by introducing new features and methods using RGB-D data to enhance the detection and recognition of human activities. In this thesis, the most popular state-of-the-art techniques are reviewed, presented, and evaluated. From the literature review, these techniques are categorized into hand-crafted features and deep learning-based approaches. The proposed new action recognition framework is based on these two categories that are approved in this work by embedding novel methods for human action recognition. These methods are based on features extracted from RGB-D data that are
evaluated using machine learning techniques. The presented work of this thesis improves human action recognition in two distinct parts. The first part focuses on improving current successful hand-crafted approaches. It contributes into two significant areas of state-of-the-art: Execute the existing feature detectors, and classify the human action in the 3D spatio-temporal domains by testing a new combination of different feature representations. The contributions of this part are tested based on machine learning techniques that include unsupervised and supervised learning to evaluate this suitability for the task of human action recognition. A k-means clustering represents the unsupervised learning technique, while the supervised learning technique is represented by: Support Vector Machine, Random Forest, K-Nearest Neighbor, Naive Bayes, and Artificial Neural Networks classifiers. The second part focuses on studying the current deep-learning-based approach and how to use it with RGB-D data for the human action recognition task. As the first step of each contribution, an input video is analyzed as a sequence of frames. Then, pre-processing steps are applied to the video frames, like filtering and smoothing methods to remove the noisy data from each frame. Afterward, different motion detection and feature representation methods are used to extract features presented in each frame. The extracted features
are represented by local features, global features, and feature combination besides deep learning methods, e.g., Convolutional Neural Networks. The feature combination achieves an excellent accuracy performance that outperforms other methods on the same RGB-D datasets. All the results from the proposed methods in this thesis are evaluated based on publicly available datasets, which illustrate that using spatiotemporal features can improve the recognition accuracy. The competitive experimental results are achieved overall. In particular, the proposed methods can be better applied to the test set compared to the state-of-the-art methods using the RGB-D datasets.
In the new epoch of Anthropocene, global freshwater resources are experiencing extensive degradation from a multitude of stressors. Consequently, freshwater ecosystems are threatened by a considerable loss of biodiversity as well as substantial decrease in adequate and secured freshwater supply for human usage, not only on local scales, but also on regional to global scales. Large scale assessments of human and ecological impacts of freshwater degradation enable an integrated freshwater management as well as complement small scale approaches. Geographic information systems (GIS) and spatial statistics (SS) have shown considerable potential in ecological and ecotoxicological research to quantify stressor impacts on humans and ecological entitles, and disentangle the relationships between drivers and ecological entities on large scales through an integrated spatial-ecological approach. However, integration of GIS and SS with ecological and ecotoxicological models are scarce and hence the large scale spatial picture of the extent and magnitude of freshwater stressors as well as their human and ecological impacts is still opaque. This Ph.D. thesis contributes novel GIS and SS tools as well as adapts and advances available spatial models and integrates them with ecological models to enable large scale human and ecological impacts identification from freshwater degradation. The main aim was to identify and quantify the effects of stressors, i.e climate change and trace metals, on the freshwater assemblage structure and trait composition, and human health, respectively, on large scales, i.e. European and Asian freshwater networks. The thesis starts with an introduction to the conceptual framework and objectives (chapter 1). It proceeds with outlining two novel open-source algorithms for quantification of the magnitude and effects of catchment scale stressors (chapter 2). The algorithms, i.e. jointly called ATRIC, automatically select an accumulation threshold for stream network extraction from digital elevation models (DEM) by assuring the highest concordance between DEM-derived and traditionally mapped stream networks. Moreover, they delineate catchments and upstream riparian corridors for given stream sampling points after snapping them to the DEM-derived stream network. ATRIC showed similar or better performance than the available comparable algorithms, and is capable of processing large scale datasets. It enables an integrated and transboundary management of freshwater resources by quantifying the magnitude of effects of catchment scale stressors. Spatially shifting temporal points (SSTP), outlined in chapter 3, estimates pooled within-time series (PTS) variograms by spatializing temporal data points and shifting them. Data were pooled by ensuring consistency of spatial structure and temporal stationarity within a time series, while pooling sufficient number of data points and increasing data density for a reliable variogram estimation. SSTP estimated PTS variograms showed higher precision than the available method. The method enables regional scale stressors quantification by filling spatial data gaps integrating temporal information in data scarce regions. In chapter 4, responses of the assumed climate-associated traits from six grouping features to 35 bioclimatic indices for five insect orders were compared, their potential for changing distribution pattern under future climate change was evaluated and the most influential climatic aspects were identified (chapter 4). Traits of temperature preference grouping feature and the insect order Ephemeroptera exhibited the strongest response to climate as well as the highest potential for changing distribution pattern, while seasonal radiation and moisture were the most influential climatic aspects that may drive a change in insect distribution pattern. The results contribute to the trait based freshwater monitoring and change prediction. In chapter 5, the concentrations of 10 trace metals in the drinking water sources were predicted and were compared with guideline values. In more than 53% of the total area of Pakistan, inhabited by more than 74 million people, the drinking water was predicted to be at risk from multiple trace metal contamination. The results inform freshwater management by identifying potential hot spots. The last chapter (6) synthesizes the results and provides a comprehensive discussion on the four studies and on their relevance for freshwater resources conservation and management.
In the present study the flora and vegetation of Kakamega Forest, an East African rainforest in Western Kenya, was investigated. Kakamega Forest is highly degraded and fragmented and is an ideal model to study the anthropogenic influence on the forest inventory. The main focus was to analyse the influence of human impact on the vascular plant species composition. During five field phases in the years 2001 to 2004 a total of 19 study sites scattered over the whole forest including all fragments were investigated regarding forest structure, species composition and plant communities. The different forest sites were analysed by three different methods, phytosociological relevés, line-transect and with the variable-area transect method. The forest survey revealed about 400 taxa of vascular plant species, among them 112 trees, 62 shrubs, 58 climbers and 114 herbs. Several species are restricted to this forest in Kenya, but only one endemic species, the herb Commelina albiflora, could be discovered. About 15 species were recorded as new for Kenya and probably at least one species is new to science. Kakamega Forest is a unique mixture of Guineo-Congolian and Afromontane floral elements. About one half of the vascular plant species has its origin in the lowland forests of the Congo basin and one third originates from Afromontane habitats. The present study represents the first description of plant communities of Kakamega Forest. An analysis of different forest sites and plantations resulted in 17 different vegetation units. For the mature forest sites eleven plant communities were described. The young succession stage consists of two plant communities. Since the disturbance history and the age of the different plant communities could be estimated, their chronology was also described. An exception are the study sites within the plantations and afforested sites. The four defined vegetation units were not described as plant communities, because they are highly affected by man and do not belong to the natural succession of Kakamega Forest. Nevertheless, the regeneration potential of such forests was investigated. Due to the different succession stages the changing species composition along a disturbance gradient could be analysed. Most of Kakamega Forest consists of middle-aged secondary forest often surrounded by very young secondary forest. A true primary rainforest could not be found due the massive influence by over-exploitation. In all parts of the forest the anthropogenic influence could be observed. The forest develops towards a climax stage, but a 2 Abstract comparison with former surveys shows that the regeneration is much slower than expected. Human impact has to be avoided to allow the forest to develop into a primary-like rainforest. But several climax tree species might be missing anyway, because after the broad logging activities in the past there are not enough seed trees remaining. Species richness was highest in disturbed forest sites. A mixture of pioneer, climax and bushland species could be recorded there. Therefore, a high species richness is not a suitable indicator for forest quality. The proportion of climax species typical for Kakamega Forest would be a better measure. Compared to the main forest block the forest fragments do not lack in diversity as expected due to fragmentation processes. Instead, the only near primary forest could be recorded in Kisere, a northern fragment. The high amount of climax species and the more or less undisturbed forest structure is a result of the strict protection by the Kenya Wildlife Service and due to low logging activities. Differences in species composition between the studied forest sites are either a result of the different logging history or management regime rather than due to different edaphic or climatic conditions.
Die Beschreibung des Verhaltens eines Multi-Agenten-Systems (MAS) ist eine fordernde Aufgabe, besonders dann, wenn es in sicherheitskritischen Umgebungen eingesetzt werden soll. Denn in solchen Umgebungen muss die Beschreibung besonders sorgfältig ausgeführt werden um Seiteneffekte zu vermeiden, die ungewünschte oder sogar zerstörerische Folgen haben könnten. Deshalb sind formale Methoden nützlich, die auf mathematischen Modellen des zu entwerfenden Systems basieren. Sie erlauben es nicht nur das System formal auf verschiedenen Abstraktionsebenen zu spezifizieren, sondern auch seine Konsistenz noch vor der Implementierung zu verifizieren. Das Ziel der formalen Spezifikation ist eine präzise und eindeutige Beschreibung des Verhaltens des Multi-Agenten-Systems, während die Verifikation darauf abzielt, geforderte Eigenschaften dieses Systems zu beweisen. Üblicherweise wird das Verhalten eines Agenten als diskrete Änderung seines Zustands im Bezug auf externe oder interne Aktionen aufgefasst. Jedes mal, wenn eine Aktion auftritt, ändert sich der Zustand des Agenten. Deshalb sind Zustandsübergangsdiagramme bzw. endliche Automaten ein naheliegender Ansatz das Verhalten zu modellieren. Ein weiterer Vorteil einer solchen Beschreibung ist, dass sie sich für das sogenannte Model Checking eignet. Dabei handelt es sich um eine automatische Analysetechnik, die bestimmt, ob das Modell des Systems spezifizierten Eigenschaften genügt. Allerdings muss in realistischen, physikalischen Umgebungen neben dem diskreten auch das kontinuierliche Verhalten des Multi-Agenten-Systems betrachtet werden. Dabei könnte es sich beispielsweise um die Schussbewegung eines Fußballspieler-Agenten, den Prozess des Löschens durch einen Feuerwehr-Agenten oder jedes andere Verhalten handeln, das auf zeitlichen physikalischen Gesetzen basiert. Die üblichen Zustandsübergangsdiagramme sind nicht ausreichend, um diese beiden Verhaltensarten zu kombinieren. Hybride Automaten stellen jedoch eine elegante Lösung dar. Im Wesentlichen erweitern sie die üblichen Zustandsübergangsdiagramme durch Methoden, die sich mit kontinuierlichen Aktionen befassen. Die Zustandsübergänge modellieren weiterhin die diskreten Verhaltenswechsel, während Differentialgleichungen verwendet werden um das kontinuierliche Verhalten zu beschreiben. Besonders geeignet erscheinen Hybride Automaten, weil ihre formale Semantik die Verifikation durch Model Checking erlaubt. Deshalb ist das Hauptziel dieser Arbeit, Hybride Automaten für die Modellierung und die Verifikation des Verhaltens von Multi-Agenten-Systemen einzusetzen. Jedoch bringt ihr Einsatz mehrere Probleme mit sich, die betrachtet werden sollten. Zu diesen Problemfeldern zählen Komplexität, Modularität und die Aussagestärke der Modelle. Diese Arbeit befasst sich mit diesen Problemen und liefert mögliche Lösungen.
Die Wechselwirkungen zwischen Polysacchariden und Wasser am Beispiel der Modellsubstanz Hyaluronan
(2013)
Die Wasseraufnahme von Polysacchariden wird derzeit intensiv erforscht. Wechselwirkungen zwischen Wasser und herkömmlichen oder modifizierten Polysacchariden und Polysaccharid-basierten Biokonjugaten bestimmen maßgeblich deren Funktionalität. Trotz intensiver Forschung gibt es weiterhin eine Reihe offener Fragen darüber, wie Wasser die Struktur der Polysaccharide beeinflusst und welche Konsequenzen das für ihre industrielle und medizinische Anwendung hat. Die Wechselwirkungen zwischen Wasser und Polysacchariden werden oft durch übereinanderliegende "Schichten" von Wasser verbildlicht, dessen physikalische Eigenschaften sich in Abhängigkeit vom Abstand zur Polysaccharid-Moleküloberfläche verändern.
In der vorliegenden Arbeit wurden solche "Wasserschichten" in dem Modell"Polysaccharid Hyaluronan (HYA), einem Natriumsalzsalz bestehend aus ß -1,4-Verknüpfungen der ß -1,3-verknüpften D-Glucuronsäure und des N-Acetyl-D-Glucosamins, untersucht. Mithilfe der Dynamischen Differenzkalorimetrie (engl.: Differential Scanning Calorimetry, DSC) können diese Wasserschichten hinsichtlich ihres Gefrierverhaltens unterschieden werden. Bei HYA-Molekülgewichten von 100 bis 740kDa betrug die Menge "nicht gefrierbaren" Wassers, d.h. von Wasser in unmittelbarer Nähe der HYA Molekülketten, 0.74gH2O/gHYA und bei einem Molekülgewicht von 139kDa betrug sie 0.84gH2O/gHYA. Die Menge von "gefrierbar gebundenem" Wasser, also des Anteiles, der zwar noch vom HYA Molekül beeinflusst wird, aber trotzdem gefrierbar ist, betrug zwischen 0.74 und 2gH2O/gHYA. Oberhalb dieses Wassergehaltes liegt nur "nicht gefrierbares" und "freies" Wasser vor, da die Schmelzenthalpie bei höheren Wassergehalten der von reinem Wasser entspricht. Die Charakterisierung der Wasserbindung durch die Bestimmung von Schmelzenthalpien unterliegt experimentellen Einschränkungen. Daher wurde ein neuer Ansatz basierend auf der Bestimmung von Verdampfungsenthalpien vorgeschlagen. Verdampfungsenthalpien von HYA unterhalb eines Wassergehaltes von 0.34gH2O/gHYA wiesen auf einen zusätzlichen möglicherweise exothermen Prozess hin, der auch in der protonierten Form des HYA beobachtet werden konnte.
Dieser Prozess wurde durch die Kissinger-Akahira-Sunose Methode bestätigt, die Bestimmung der tatsächlichen Verdampfungs und Desorptionsenthalpien des Wassers in allen Stadien des Verdampfungsprozesses erlaubt. Tatsächlich nahm die scheinbare Verdampfungsenthalpie bis zu einem Wassergehalt von 0.34gH2O/gHYA zu und sank dann wieder zu niedrigeren Werten ab, die allerdings immer noch deutlich über der Verdampfungsenthalpie von reinem Wasser lagen. Mithilfe von zeitlich aufgelöster Kernspinresonanz Technik (engl.: Time Domain Nuclear Magnetic Resonance, TD-NMR) wurde gezeigt, dass es sich bei besagtem Prozess um die Plastifizierung von HYA handelt.
Außerdem konnte das mithilfe der DSC bestimmte "nicht gefrierbare" Wasser in zwei weitere Fraktionen unterteilt werden. Ein Anteil von 15% dieses Wassers tritt direkt in Wechselwirkung mit den polaren funktionellen Gruppen und wird als "strukturell integriertes" Wasser bezeichnet und ein Anteil von 85% ist zwischen HYA Molekülketten eingebettet und wird als "strukturell eingeschränktes" Wasser bezeichnet. Da der Erweichungspunkt in der Nähe des Gleichgewichtswassergehalts liegt, bietet die er die Möglichkeit, die physikalische Struktur von HYA durch Trocknung zu beeinflussen. Dafür wurden drei Proben des ursprünglichen HYA unter unterschiedlichen Bedingungen getrocknet und ihre physikalischen Eigenschaften untersucht. Die Proben unterschieden sich in der Kinetik der erneuten Wasseraufnahme, im Glasübergangsverhalten und in ihrer Morphologie. Die Eigenschaften der Wasserfraktionen wurden in Lösungen mit 10"25 mg HYA/mL bestimmt. Feldzyklus-NMR (eng.: Fast-field-cycling FFC-NMR) Messungen zeigten drei Wasserfraktionen die mit dem Abstand zur HYA Moleküloberfläche abnehmende Korrelationszeiten zwischen 10"6 bis 10"10 s aufwiesen.
Außerdem wurde die Bildung schwacher relativ kurzlebiger Wasserbrücken zwischen den HYA Molekülketten beobachtet. Anders als für anorganische Elektrolyte, ist die Wasseraufnahme durch organische Polyelektrolyte ein dynamischer Prozess, der nicht nur die Analysetechnik und die experimentellen Bedingungen sondern auch die Konformation der Polyelektrolyte und deren thermische und Wassergehalts-Vorgeschichte widerspiegelt. Dadurch können einige Polysaccharidstrukturen nur durch Veränderung der Probenvorbereitung und ohne chemische Modifikationen verändert und Produkte mit spezifischen physiko-chemischen Eigenschaften gewonnen werden.
Synthetische Nanopartikel sind neuartige Schadstoffe. Aufgrund ihrer häufigeren Anwendung wird sich ihre Konzentration in der Umwelt in Zukunft voraussichtlich stark erhöhen. Die Untersuchung des Schicksals von synthetischen Kolloiden in der Umwelt erweist sich als schwierig, bedingt durch deren mögliche komplexe Wechselwirkungen mit den Bestandteilen aquatischer Systeme. Eine zentrale Rolle spielt hierbei die Lösungschemie. Insbesondere die Wechselwirkungen mit gelösten organischen Stoffen (DOM) sind bisher wenig verstanden.
Das Ziel dieser Arbeit bestand darin, angepasste analytische Methoden zu entwickeln, um die Effekte von DOM auf das Schicksal synthetische Kolloide in der Umwelt zu untersuchen.rnEine Literaturrecherche über die Wechselwirkungen den DOM mit anorganischen Kolloiden hat ergeben, dass es einen Mangel an systematischen Charakterisierungen von Kolloiden und DOM in den meisten Studien gibt, obwohl diese wesentlich wäre. Des Weiteren wäre die Erforschung der Fraktionierung von DOM auf Kolloiden bedeutend sowie die Untersuchungen der Effekte von DOM auf die dynamische Struktur von Agglomeraten. Für die Charakterisierung von niedrigkonzentrierten Agglomeraten in Umweltmedien werden passende analytische Techniken benötigt. Solche Techniken müssen genau, spezifisch, artefaktfrei (minimale Probenvorbereitung) und matrixunabhängig bei niedrigen Konzentrationen sein. Keine der üblichen Methoden (Mikroskopie, Lichtstreuungsmethode, Trenntechnicken) erfüllt alle diese Voraussetzungen. Jedoch stellt die Hydrodynamische Chromatographie gekoppelt mit Massenspektrometrie mit induktiv gekoppeltem Plasma (HDC-ICP-MS) einen vielversprechenden Kompromiss dar. Mit dieser Methode kann die Größe von anorganischen Partikeln in komplexen Medien und in Konzentrationsbereichen unter ppb elementspezifisch gemessen werden. Allerdings wurden die Begrenzungen der Methode nicht systematisch untersucht.
Während dieser Doktorarbeit wurde das Potenzial dieser Methode weiter untersucht. Der einfache Trennmechanismus ermöglicht einen großen Spielraum für die Elutionsparameter und eine universelle Kalibrierung kann für Partikel mit unterschiedlicher Zusammensetzung und unterschiedlicher Oberflächenchemie angewendet werden. Eine schwache Auflösung der Partikelgröße sowie die Effekte der Partikelform auf den Retentionsfaktor stellen die wichtigsten Begrenzungen der Methode dar.rnDie Anwendung von HDC gekoppelt mit Einzelpartikel ICP-MS (HDC-SP-ICP-MS) bietet neue Möglichkeiten für die Partikelformerkennung und die Differenzierung zwischen primären Partikeln und Homoagglomeraten. Diese Kopplungstechnik ist deswegen hochattraktiv, um Effekte von DOM auf der Stabilität von Kolloiden zu untersuchen. Die Vielseitigkeit der HDC-ICP-MS konnte durch verschiedene erfolgreiche Anwendungen hervorgehoben werden. Insbesondere wurde sie genutzt, um die Stabilität von zitrat-stabilisierte Silberkolloiden in synthetischem Flusswasser unter Anwesenheit verschiedener Typen DOM zu untersuchen. Diese Partikel waren mehr als eine Stunde stabil unabhängig von pH und vom Typ der DOM. Dieses Ergebnis deckt sich mit den Ergebnissen einer parallel publizierten Studie über die Stabilität von Silberkolloiden in Rheinwasser. Die direkte Untersuchung von DOM-Adsorption auf Kolloiden war mit UV- und Fluoreszenzdetektoren nicht möglich. Vorversuche wiesen darauf hin, dass die fluoreszierenden Huminsaüremoleküle auf Silberkolloiden nicht adsorbieren. Lösungen für die verbleibenden Schwierigkeiten in der Analyse der Wechselwirkungen der DOM werden vorgeschlagen und die vielfältigen Entwicklungs- und Anwendungserspektiven von HDC-(SP)-ICP-MS in den Umweltwissenschaften werden im Detail diskutiert.
In Idar-Oberstein gab es ab der zweiten Hälfte des 19. Jahrhunderts eine bedeutende Produktion von Modeschmuck in zahlreichen großen Fabriken, die sich bis in die 1980er Jahre halten konnte. Neben Pforzheim, Schwäbisch Gmünd und Hanau war Idar-Oberstein eines der vier wichtigsten deutschen Schmuckzentren. Heute sind nur noch vierzehn Firmennachlässe erhalten, dazu kommen die Bestände des Museums unterhalb der Felsenkirche. In dem erhaltenen Schmuck spiegeln sich die jeweils aktuellen Kunstrichtungen vom Historismus über Jugendstil, Art déco bis hin zu Informel und Zero in den 1960er und 70er Jahren. Außerdem haben sich auch viele alte Dokumente erhalten, die zusammengenommen ein Bild des damaligen Wirkens und Werkens der Schmuckfabriken liefern. Im Zentrum dieser Arbeit steht deshalb die wissenschaftliche Aufarbeitung dieser 15 Bestände. Jedoch wurde schnell klar, dass diese nicht einfach so für sich allein stehen können. Zunächst fehlte ein geistiger Überbau, um das Phänomen Modeschmuck wirklich verstehen und einordnen zu können. Daher steht am Anfang der Arbeit die Grundlegung einer bisher noch nicht vorhandenen Schmucktheorie mit schmuckästhetischen Überlegungen, die kunsthistorische, soziologische, psychologische und philosophische Standpunkte mit einbeziehen. Aber nicht nur ein geistiger Überbau, sondern auch ein materieller Unterbau waren nötig, um das Phänomen umfassend zu klären: In der bildenden Kunst käme niemand auf die Idee, ein Kunstwerk zu beurteilen, ohne seine Entstehungstechnik zu kennen. Ob etwas eine Ätzradierung oder ein Ölgemälde ist, macht doch einen enormen Unterschied. Beim Schmuck wurden derartige Überlegungen bisher weitgehend ignoriert, obwohl sein äußeres Erscheinungsbild genauso stark von den Techniken, die bei seiner Fertigung zum Einsatz kommen, geprägt ist. So haben wir es beim Idar-Obersteiner Modeschmuck nicht nur mit einer Entwicklung des Geschmacks, sondern auch mit einer technologischen Entwicklung zu tun, die jeweils neue bzw. andere Formen ermöglichte. Darauf folgt ein industriegeschichtlicher Überblick über die Idar-Obersteiner Schmuck- und Metallwarenproduktion, in dem gezeigt wird, warum gerade Idar-Oberstein sich neben Pforzheim, Hanau und Schwäbisch Gmünd zu einem der vier wichtigsten deutschen Schmuckzentren entwickeln konnte. Von zentraler Bedeutung ist der nun folgende Abschnitt über die kunsthistorische Entwicklung des Idar-Obersteiner Modeschmucks. Besonders gewürdigt wird dort die Nähe der Entwürfe zur zeitgenössischen bildenden Kunst und der innovative Umgang mit einfachen Materialien, der schon früh zu Schmuckformen führte, die unabhängig vom Echtschmuck waren. Es folgt die wissenschaftliche Aufarbeitung der vierzehn erhaltenen Firmennachlässe. Im Katalog werden schließlich repräsentative Ausschnitte aus dem erhaltenen Schmuckbestand der einzelnen Firmen und Höhepunkte der Bestände des Museums Idar-Oberstein unterhalb der Felsenkirche gezeigt, darunter bisher unbekannte Arbeiten aus dem Magazin. Meine Arbeit soll einerseits das, was sich in Idar-Oberstein erhalten hat, dokumentieren, andererseits aber auch ganz allgemein neue Impulse zum wissenschaftlichen Umgang mit dem Thema Schmuck geben und zeigen, wie wichtig es ist, sowohl schmucktheoretische Aspekte als auch die historischen Verfahrenstechniken in die Analyse mit einzubeziehen.
Identifikation und Analyse von Konfigurationen zwischenbetrieblicher Integration in der Möbelbranche
(2017)
In der Möbelbranche in Deutschland existieren seit mehreren Jahren branchenweite Bemühungen, zwischenbetriebliche Kooperationen durch organisatorische und technische Lösungen (z.B. Standardisierung von Austauschformaten) zu unterstützen. In einigen Branchensegmenten (vor allem Küche und Polster) konnten sich Infrastrukturen zur Integration etablieren, die von vielen Branchenteilnehmern akzeptiert und genutzt werden. Trotz dieser Entwicklung sind in den genannten Branchensegmenten überraschende Phänomene in jüngerer Vergangenheit zu beobachten: Mängel in der Prozessintegration zwischen Branchenakteuren, Unterschiede im Standardisierungsfortschritt zwischen den Branchensegmenten und die Entstehung unterschiedlicher Infrastrukturen zur zwischenbetrieblichen Integration. Bei näherer Betrachtung der beobachteten Phänomene offenbart sich ein hoch-komplexes Zusammenspiel der in der Möbelbranche agierenden Akteure auf drei unterschiedlichen Ebenen (institutionell, organisatorisch und technisch). Um die verantwortlichen Zusammenhänge zu verstehen, ist eine ganzheitliche Betrachtung relevanter Faktoren erforderlich. Dafür gibt es bislang nur wenige überzeugende Konzepte. Die Konfigurationsanalyse nach Lyytinen und Damsgaard betrachtet Unternehmensnetzwerke als Konfigurationen zwischenbetrieblicher Integration, die einem stabilen Muster von Kooperationsformen entsprechen. Sie ist insbesondere dafür geeignet, Unternehmensnetzwerke auf Branchenebene zu untersuchen. In der vorliegenden Arbeit wird die Konfigurationsanalyse mittels eines speziell dafür entwickelten bzw. angepassten Forschungsdesigns zum ersten Mal operationalisiert. Dazu wurden in 21 Interviews mit 19 Organisationen Daten zu Konfigurationen zwischenbetrieblicher Integration in zwei Branchensegmenten der Möbelbranche (Küche und Polster) in Deutschland erhoben, analysiert und Erklärungsansätze für die drei oben genannten Phänomene entwickelt. Die Ergebnisse zeigen, dass komplexe Konstellationen von Brancheneigenschaften die existierenden Konfigurationen begründen. Insgesamt wurden vier Konfigurationstypen (Mittler, Branche, Dyade und Triade) identifiziert, die in 17 konkreten Konfigurationen zum Einsatz kommen (Mittler (4-mal), Branche (5-mal), Dyade (6-mal) und Triade (2-mal)). Die Ursachen für die beobachteten Phänomene sind vielfältig. Insbesondere sind bestimmte branchenbezogene Charakteristika (u.a. Produkteigenschaften),der Wettbewerb zwischen Akteursklassen und zuletzt die wirtschaftliche Überlegenheit des Handels gegenüber den Herstellern ausschlaggebend. Der Standardisierungsfortschritt in den Branchensegmenten und die zugrunde liegenden Infrastrukturen sind vor allem von dem betriebswirtschaftlichen Nutzenpotenzial abhängig, das ihnen jeweils zugeschrieben wird. Die Prozessintegration hingegen benötigt eine zentral steuernde Instanz zur erfolgreichen IOIS-Diffusion.
Identifizierung und Quantifizierung von Mikroplastik mittels quantitativer ¹H-NMR Spektroskopie
(2021)
Plastik und damit einhergehend auch Mikroplastik (MP) ist mittlerweile global präsent und stellt ein zunehmend signifikantes Problem für die Umwelt dar. Um die Verbreitung und Aus¬wirkung von MP im Ansatz zu verstehen, ist es wichtig, MP über einen weitreichenden Größenbereich zu identifizieren und zu quantifizieren sowie eine Vergleichbarkeit von Studien zu gewährleisten. Jedoch besteht noch großer Forschungsbedarf auf dem Gebiet der größenunabhängigen, quantitativen Analyse von MP in Umweltproben, besonders im Hinblick auf die massenbasierte MP-Konzentrationsangabe. Daher wird in dieser Dissertation die quantitative ¹H-NMR Spektroskopie (qNMR) als eine alternative Methode für die MP-Analyse etabliert. Bei der qNMR-Methode handelt es sich um eine schnelle, größenunabhängige, massenbasierte Methode, welche als alternative MP-Analytik angewendet werden kann und Potential zur Routineanalytik aufweist. Am Beispiel von LDPE, PET und PS erfolgte der Konzeptnachweis (Kapitel 2). Zusätzlich wurden PVC, PA und ABS Partikel getestet, um die wichtigsten Polymertypen für die MP-Analyse abzudecken (Kapitel 3). Am Beispiel von PET, PVC und PS wurde überprüft, ob die qNMR-Methode auch auf die kosteneffektivere NoD-Methode übertragbar ist (Kapitel 4). Die Ergebnisse der Validierung beider Methoden (1D und NoD) zeigen, dass die Quantifizierung von MP-Partikeln mittels qNMR nicht nur prinzipiell möglich ist, sondern auch eine hohe Richtigkeit (88.0 - 110 %) aufweist und die Nachweisgrenzen (1 - 84 µg) im umweltrelevanten Bereich liegen. Weiterhin wurde überprüft, ob sich nicht nur Hochfeld-Geräte für die MP-Analyse eignen, sondern auch niedrigauflösende Benchtop-Geräte, welche in Anschaffung und Unterhalt wesentlich kosteneffektiver sind. Durch Erhöhung der Messzeit von auf ca. 30 min für PET und PS und auf ca. 140 min für PVC konnte die geringere Messfrequenz ausgeglichen werden (Kapitel 4). Um die Frage möglicher Matrixeffekte von Umweltproben zu behandeln, wurden darüber hinaus eben solche Matrixeffekte sowie Wiederfindungsraten von PET-Fasern bei Anwendung einer speziell für die qNMR-Methode optimierten Probenvorbereitung in Gegenwart von Modellmatrices bestimmt (Kapitel 5). Es konnte gezeigt werden, dass die Umweltmatrices die quantitative Analyse nicht stören und die speziell für die qNMR Analytik entwickelte Probenvorbereitung, mit Wiederfindungsraten von > 80% für die unterschiedlichen Umweltmatrices, angewendet werden kann (Kapitel 5). Über erste orientierende Untersuchungen zur simultanen Bestimmung mehrerer Polymerarten in einer Probe wird abschließend berichtet (Kapitel 6).
Aquatische Ökosysteme sind einer Vielzahl an Umweltstressoren sowie Mischungen chemischer Substanzen ausgesetzt, darunter Petroleum und Petrochemikalien, Metalle und Pestizide. Aquatische Gemeinschaften wirbelloser Arten werden als Bioindikatoren genutzt,
um Langzeit- sowie integrale Effekte aufzuzeigen. Die Information über das Vorkommen von Arten kann dabei um weitere Informationen zu Eigenschaften dieser Arten ergänzt werden.
SPEAR-Bioindikatoren fassen diese Informationen für Artengemeinschaften zusammen.
Ziel der vorliegenden Doktorarbeit war es, die Spezifität von SPEAR-Indikatoren gegenüber
einzelnen Chemikaliengruppen zu verbessern – speziell für Ölsand-Bestandteile,
Kohlenwasserstoffe und Metalle.
Für die Entwicklung eines Bioindikators für diskontinuierliche Belastung mit organischen Ölbestandteilen wurde eine Freilandbeprobung in der kanadischen Ölsand-Abbauregion im nördlichen Alberta durchgeführt. Die Arteneigenschaften „physiologische Sensitivitiät
gegenüber organischen Chemikalien“ sowie „Generationszeit“ wurden in einem Indikator,
SPEARoil, integriert, welcher die Sensitivität der Artengemeinschaften gegenüber Ölsand-Belastung in Abhängigkeit von luktuierenden hydrologischen Bedingungen aufzeigt.
Äquivalent zum SPEARorganic-Ansatz wurde eine Rangliste der physiologischen Sensitivität einzelner Arten gegenüber Kohlenwasserstoff-Belastung durch Rohöl oder Petroleum
entwickelt. Hierfür wurden Informationen aus ökotoxikologischen Kurzzeit-Laborversuchen durch Ergebnisse aus Schnell- und Mesokosmen-Tests ergänzt. Die daraus entwickelten
Shydrocarbons-Sensitivitätswerte können in SPEAR-Bioindikatoren genutzt werden.
Um Metallbelastung in Gewässern mittels Bioindikatoren spezifisch nachweisen zu können,
wurden die Arteneigenschaften „physiologische Metallsensitivität“ und „Ernährungsweise“
von Artengemeinschaften in australischen Feldstudien ausgewertet. Sensitivitätswerte für
Metalle erklärten die Effekte auf die Artengemeinschaften im Gewässer jedoch unzureichend.
Die „Ernährungsweise“ hingegen war stark mit der Metallbelastung korreliert. Der Anteil räuberischer Invertebratenarten in einer Gemeinschaft kann daher als Indikator für Metallbelastung in Gewässern dienen.
Weiterhin wurden verschiedene Belastungsanzeiger für Chemikalien-Cocktails in der Umwelt anhand von Pestizid-Datensätzen verglichen. Belastungsanzeiger, die auf der 5%-Fraktion
einer Species-Sensitivity-Distribution beruhen, eigneten sich am besten, gefolgt von Toxic Unit-Ansätzen, die auf der sensitivsten Art einer Gemeinschaft oder Daphnia magna beruhen.
In jüngerer Vergangenheit erlebt der zumeist auf Michel Foucault zurückgeführte Begriff des 'Dispositivs' – ähnlich wie zuvor der des 'Diskurses' – eine regelrechte Konjunktur in den Geistes-, Sozial- und Kulturwissenschaften. Seine Verwendung weist jedoch eine Reihe von Verkürzungen und Entstellungen auf; so werden damit recht pauschal meist bloß die architekturalen und/oder räumlichen Umstände bzw. Kontexte sozialer, medialer oder anderer Situationen bezeichnet, ohne die für Foucault so wichtigen Fragen nach Wissen, Macht und Subjektivität zu beachten. So gerät der Begriff in Gefahr, seine theoretische und analytische Potenz einzubüßen.
In „Im Dispositiv. Macht, Medium, Wissen“ legt die Autorin daher in einem ersten Schritt eine Präzisierung des Dispositivbegriffs vor, der den zugrundeliegenden Theoriehorizont Foucaults systematisch miteinbezieht. Dazu werden zunächst diskurstheoretische Grundlagen erläutert und anschließend deren strukturelle Analogien zu den machtanalytischen Befunden Foucaults mit Hilfe einer neuen Terminologie sichtbar gemacht.
Vor allem in den Medienwissenschaften ist der Begriff des Dispositivs prominent, um die gesellschaftliche Einbettung von Einzelmedien zu pointieren. Jedoch fällt auf, dass der dort in weiten Teilen vertretene Ansatz, Medien als Dispositive zu verstehen, den Blick auf medienspezifische Eigenlogiken verstellt. In einem zweiten Schritt weist die Autorin daher die strukturellen Analogien von Medialität, Wissen und Macht auf und kommt so zu einem integrativen Dispositivkonzept, das die drei Sphären als dynamisch miteinander verknüpfte, interdependente und reziproke Felder von Kultur modelliert.
Leaf litter breakdown is a fundamental process in aquatic ecosystems, being mainly mediated by decomposer-detritivore systems that are composed of microbial decomposers and leaf-shredding, detritivorous invertebrates. The ecological integrity of these systems can, however, be disturbed, amongst others, by chemical stressors. Fungicides might pose a particular risk as they can have negative effects on the involved microbial decomposers but may also affect shredders via both waterborne toxicity and their diet; the latter by toxic effects due to dietary exposure as a result of fungicides’ accumulation on leaf material and by negatively affecting fungal leaf decomposers, on which shredders’ nutrition heavily relies. The primary aim of this thesis was therefore to provide an in-depth assessment of the ecotoxicological implications of fungicides in a model decomposer-detritivore system using a tiered experimental approach to investigate (1) waterborne toxicity in a model shredder, i.e., Gammarus fossarum, (2) structural and functional implications in leaf-associated microbial communities, and (3) the relative importance of waterborne and diet-related effects for the model shredder.
Additionally, knowledge gaps were tackled that were related to potential differences in the ecotoxicological impact of inorganic (also authorized for organic farming in large parts of the world) and organic fungicides, the mixture toxicity of these substances, the field-relevance of their effects, and the appropriateness of current environmental risk assessment (ERA).
In the course of this thesis, major differences in the effects of inorganic and organic fungicides on the model decomposer-detritivore system were uncovered; e.g., the palatability of leaves for G. fossarum was increased by inorganic fungicides but deteriorated by organic substances. Furthermore, non-additive action of fungicides was observed, rendering mixture effects of these substances hardly predictable. While the relative importance of the waterborne and diet-related effect pathway for the model shredder seems to depend on the fungicide group and the exposure concentration, it was demonstrated that neither path must be ignored due to additive action. Finally, it was shown that effects can be expected at field-relevant fungicide levels and that current ERA may provide insufficient protection for decomposer-detritivore systems. To safeguard aquatic ecosystem functioning, this thesis thus recommends including leaf-associated microbial communities and long-term feeding studies using detritus feeders in ERA testing schemes, and identifies several knowledge gaps whose filling seems mandatory to develop further reasonable refinements for fungicide ERA.
The establishment of aquatic alien species can strongly affect community and food web structure of the invaded systems and thus represents a major threat to native biodiversity. One of the most important aquatic invasive species in European rivers is the Ponto-Caspian amphipod Dikerogammarus villosus. The species invaded most of the major European waterways within two decades, often associated with a decline of many other macroinvertebrate species, including other amphipods. Based on laboratory results predation by the so called ‘killer shrimp’ is often regarded as the key driver for observed displacement effects, but recent studies indicated a minor relevance of predation by D. villosus in the field. To allow the determination of exact predator-prey interactions from field samples, I established 22 group-specific rDNA primers for freshwater taxa suitable for prey species identification in dietary samples (Chapter II) and an approach for the screening of D. villosus gut contents using 16 of these primers. Combining genetic gut content analyses, with one of these primers, and stable isotope analyses, I examined the importance of intraguild predation (IGP) by D. villosus, which is often assumed the key driver for the displacement of native amphipod species, at an invasion front of the species in Switzerland (Chapter III). The results of this study revealed a low importance of IGP during this particular D. villosus invasion and indicated an overall sparsely predacious feeding behaviour of the species. As the feeding behaviour of D. villosus is supposed to differ between habitats and this study was only conducted at a few sampling sites of one river, I also investigated the role of predation by D. villosus at multiple sites of the River Rhine system, covering a broad range of microhabitats (Chapter IV). In keeping with the results from the invasion front results of this study strongly indicated a sparsely predacious feeding but rather a flexible feeding behaviour of D. villosus even within the same microhabitat.
However, established populations of D. villosus have changed aquatic food webs and can be expected to affect aquatic-terrestrial energy fluxes. In Chapter V of my thesis, I present a field study investigating the impact of D. villosus on the diet of two riparian spider taxa. The results of this study indicate an effect of D. villosus on the terrestrial food web via cross-ecosystem resource flow.
In conclusion, D. villosus influences terrestrial food webs by altering cross-ecosystem resource fluxes, but it is rather an opportunistic omnivore than a predator in the field.
In den vergangenen Jahrzehnten haben sich Einzelpartikelanalyse (EPA) und Kryotransmissionselektronenmikroskopie(Kryo-EM) zu einer der führenden Technologien für die strukturelle Analyse von biologischen Makromolekülen entwickelt. Dies erlaubt die Untersuchung biologischer Strukturen in einem möglichst naturgetreuen Zustand auf molekularer Ebene. In den letzten fünf Jahren überwand die EPA erstmals die Auflösungsgrenze von 2°A und erreichte somit atomare Auflösung, was bislang nur mittels Röntgenkristallographie möglich war. Ein bestehendes Problem der Kryo-EM ist der schwache Bildkontrast. Seit der Einführung der Kryo-EM in den 1980er Jahren, wurde an Phasenplatten als mögliches Werkzeug, zur Verbesserung des Bildkontrasts geforscht. Hier limitierten immer technische Probleme bei der Herstellung oder geräteseitige Limitierungen, wie z.B. Hysterese der Linsen, den erfolgreichen Einsatz solcher Phasenplatten. Insbesondere ein automatisierter Arbeitsablauf für die Steuerung des Mikroskops und die Aufnahme der Bilder ließ sich nie realisieren. In dieser Doktorarbeit wurde eine neue Zernike-Phasenplatte entwickelt und untersucht. Freistehende Metallfilme dienten als Phasenplattenmaterial, um Alterungsund Kontaminationsprobleme der bislang üblichen kohlenstoffbasierten Phasenplatten zu überwinden. In ersten Experimenten zur Materialwahl wurde Iridium als geeignetes Metall identifiziert. Der zweite Teil der Arbeit behandelt die Untersuchung der Iridium-Phasenplatten hinsichtlich ihrer Eigenschaften und ihrem Verhalten im Elektronenmikroskop. Ein Resultat dieser Experimente ist der sogenannte rocking-Modus, bei dem die Phasenplatte während der Aufnahme bewegt wird und wodurch sich Streuungs- und andere Artefakte, die bei den Zernike-Phasenplatten üblicherweise auftreten, verhindern oder deutlich reduzieren ließen. Die Entwicklung eines angepassten Workflow ermöglichte die Aufnahme von EPADatens ätzen mit Phasenplatte über mehrere Tage. Für die Evaluierung der Phasenplattendaten wurden Datensätze von Apoferritin mit und ohne Phasenplatte aufgenommen und miteinander verglichen.
Das Web ist ein wesentlicher Bestandteil der Transformation unserer Gesellschaft in das digitale Zeitalter. Wir nutzen es zur Kommunikation, zum Einkaufen und für unsere berufliche Tätigkeit. Der größte Teil der Benutzerinteraktion im Web erfolgt über Webseiten. Daher sind die Benutzbarkeit und Zugänglichkeit von Webseiten relevante Forschungsbereiche, um das Web nützlicher zu machen. Eyetracking ist ein Werkzeug, das in beiden Bereichen hilfreich sein kann. Zum einen um Usability-Tests durchzuführen, zum anderen um die Zugänglichkeit zu verbessern. Es kann verwendet werden, um die Aufmerksamkeit der Benutzer auf Webseiten zu verstehen und Usability-Experten in ihrem Entscheidungsprozess zu unterstützen. Darüber hinaus kann Eyetracking als Eingabemethode zur Steuerung einer Webseite verwendet werden. Dies ist besonders nützlich für Menschen mit motorischen Beeinträchtigungen, die herkömmliche Eingabegeräte wie Maus und Tastatur nicht benutzen können. Allerdings werden Webseiten aufgrund von Dynamiken, d. h. wechselnden Inhalten wie animierte Menüs und Bilderkarussells, immer komplexer. Wir brauchen allgemeine Ansätze zum Verständnis der Dynamik auf Webseiten, die eine effiziente Usability-Analyse und eine angenehme Interaktion mit Eyetracking ermöglichen. Im ersten Teil dieser Arbeit berichten wir über unsere Forschung zur Verbesserung der blickbasierten Analyse von dynamischen Webseiten. Eyetracking kann verwendet werden, um die Blicke von Nutzern auf Webseiten zu erfassen. Die Blicke zeigen einem Usability-Experten, welche Teile auf der Webseite gelesen, überflogen oder übersprungen worden sind. Die Aggregation von Blicken ermöglicht einem Usability-Experten allgemeine Eindrücke über die Aufmerksamkeit der Nutzer, bevor sie sich mit dem individuellen Verhalten befasst. Dafür müssen alle Blicke entsprechend des von den Nutzern erlebten Inhalten verstanden werden. Die Benutzererfahrung wird jedoch stark von wechselnden Inhalten beeinflusst, da diese einen wesentlichen Teil des angezeigten Bildes ausmachen können. Wir grenzen unterschiedliche Zustände von Webseiten inklusive wechselnder Inhalte ab, so dass Blicke von mehreren Nutzern korrekt aggregiert werden können. Im zweiten Teil dieser Arbeit berichten wir über unsere Forschung zur Verbesserung der blickbasierten Interaktion mit dynamischen Webseiten. Eyetracking kann verwendet werden, um den Blick während der Nutzung zu erheben. Der Blick kann als Eingabe zur Steuerung einer Webseite interpretiert werden. Heutzutage wird die Blicksteuerung meist zur Emulation einer Maus oder Tastatur verwendet, was eine komfortable Bedienung erschwert. Es gibt wenige Webbrowser-Prototypen, die Blicke direkt zur Interaktion mit Webseiten nutzen. Diese funktionieren außerdem nicht auf dynamischen Webseiten. Wir haben eine Methode entwickelt, um Interaktionselemente wie Hyperlinks und Texteingaben effizient auf Webseiten mit wechselnden Inhalten zu extrahieren. Wir passen die Interaktion mit diesen Elementen für Eyetracking an, so dass ein Nutzer bequem und freihändig im Web surfen kann. Beide Teile dieser Arbeit schließen mit nutzerzentrierten Evaluationen unserer Methoden ab, wobei jeweils die Verbesserungen der Nutzererfahrung für Usability-Experten bzw. für Menschen mit motorischen Beeinträchtigungen untersucht werden.
Human population pressure increased with the population growth around the NNP and Cyamudongo with disturbance impacts on the forests isolating populations into fragments and today, Cyamudongo natural forest is located a way at a distance of at least 8.5 km horizontal distance to Nyungwe main block with a surface area estimated at 300 ha. Under Cyamudongo project implementation, there was a need to understand how the flora diversity responded to human imposed challenges and to forest restoration initiatives. Three physiognomic landscapes forest were identified and considered for three phases of vegetation survey in Cyamudongo and related to the closest area of Nyungwe main block. In this study, 15 transects were laid in each physiognomic forest landscape and 10 and 5 plots were set respectively in Cyamudongo and Gasumo study area. In total, 315 phytosociological relevés were performed and the Braun-Blanquet methods used for three times vegetation surveys. Species life-forms and chorophyte were evaluated and tree species dbh and height have been measured. Data were subjected to different statistical analyses using different softwares such as PAST, R 3.5.2, and SPSS. The mapping was done using Arc GIS and the Multi-Spectral Remote Sensing used to find NDVI for the vegetation classification.
NDVI trends showed that there has been fluctuations in vegetation classifications of the studied area. In this study, 494 vascular plant species from 106 families were harbored in the study area and distributed differently among forest landscapes and study phases. Although, 43.54% were common to Cyamudongo and Gasumo landscapes while 48.54 % of species diversity were hold only by Cyamudongo and 7.92% confined to Gasumo and 12 in total were found new records for Rwanda while several others suspected require detailed research for identification showing how the flora diversity of Cyamudongo is of special interest and extremely important for discoveries.
The finding of the study on diversity indices, the PCA, CA and the Cluster analysis, all statistical analyses (MANOVA, ANOVA) and life form spectra unanimously showed that the anthropogenic disturbance shaped the vegetation cover, the floristic composition, the species diversity, the forest landscapes community structure, the life form spectrum and the phytoclimate of Cyamudongo and Gasumo forest landscapes. Although, the vegetation analysis couldn’t clearly identify communities and sub-communities at the initial and final vegetation surveys and cluster groups were heterogeneous as well as overlapping and species associations not clearly defined due to the high level of similarities in species composition among forest landscapes and vegetation surveys. The species diversity was found high in secondary forest and Gasumo landscape forest and low in the primary forest and the buffer zone of Cyamudongo and the disturbance with gaps openings was found to be associated to the species diversity with a seasonal variation. The patterns of dbh for the buffer zone and of the size classes of all landscapes with an inverted ‘J’ indicated a healthy regeneration in the forest landscapes and tree species explained a good regeneration and recruitment capacity. Different shapes in the pattern of dbh with respectively an inverted ‘J’, ‘J ‘and ‘U’ for the buffer zone, primary and together the secondary and Gasumo forest landscapes indicated differences in the landscapes health and degree of regeneration and recruitment capacity.
Findings from differents measuements showed at which extend human activities have shaped the flora diversity and structure of forest landcapes studied. For instance, disturbances due human activities were daily oberved and trees were logged by neighboring communities such as Batwa populations at Cyamudongo and local populations at Gasumo. Some species were evenly observed targeted for their barks such as Ocotea usambarensis, Parinari excelsa for medicines and many others for their wood quality, fire wood collection and for agricultural purposes.
In the period of Cyamudongo project implementation, important achievements included the increase of forest biomass and therefore the photosynthetic capacity and the evapotranspiration potential that influence the rainfall regime; the regulation of weather conditions and then species diversity; supporting local communities and limiting human activities; raising awareness on conservation and protection of biodiversity and improving of living conditions of neighboring populations by providing paid employment and so to restore to the Cyamudongo forest ecosystem functions. Moreover, Cyamudongo forest remains vulnerable as surrounded by local communities with a high population pressure relying on forest resources for its survival. Cyamudongo harbors a high level of endemism and is a small hotspot for biodiversity conservation. It is therefore recommended to strengthen conservation and protection measures and continue the support of local communities.
To assess the effect of organic compounds on the aquatic environment, organisms are typically exposed to toxicant solutions and the adverse effects observed are linked to the concentration in the surrounding media. As compounds generally need to be taken up into the organism and distributed to the respective target sites for the induction of effects, the internal exposure is postulated to best represent the observed effects.
The aim of this work is to contribute to an improved effect assessment of organic compounds by describing experimental and modelling methods to obtain information on the internal exposure of contaminants in organisms.
Chapter 2 details a protocol for the determination of bioconcentration parameter for uptake (k1) and elimination (k2) of organic compounds in zebrafish (Danio rerio) eggs. This enables the simulation of the internal exposure in zebrafish eggs from an ambient exposure concentration over time. The accumulated contaminant amount in zebrafish eggs was also determined, using a biomimetic extraction method. Different bioconc-entration estimation models for the determination of internal steady-state concentrat-ion of pharmaceutical compounds in fish to an environmental exposure are presented in Chapter 3. Bioconcentration factors were estimated from the compounds octanol: water partition coefficient (KOW) to determine the internal exposure to an ambient concentration.
To assess the integral bioavailable fraction from the water and sediment phase of environmental contaminants for rooted aquatic plants, the internal exposure in river-living Myriophyllum aquaticum plants were determined over time, presented in Chapter 4. The plants were collected at different time points, with the accumulated organic contaminants determined using a liquid extraction method.
In Chapter 5 a protocol was established to enable the non-invasive observation of effects in M. aquaticum plants exposed to contaminated sediments over time. Since the toxicant effects are a result of all uptake and distribution processes to the target site and the toxico-dynamic process leading to an observed effect during static exposure, information on the internal exposure could thus be gained from the temporal effect expression.rn
Früher wurden in Museen den Besuchern meist gesicherte Wissensbestände präsentiert. Heute ist das vielfach anders: Nicht nur fraglos geltendes Wissen, sondern auch der Prozess dorthin wird aufgezeigt. Die dargebotene Information ist teilweise nicht mehr konsistent und widerspruchsfrei sondern konfligierend. Wie aber reagieren die Besucher auf konfligierende Information? Wie unterstützen ihre persönlichen Vorrausetzungen eine differenziertere Betrachtung? Wie können Museen " obwohl ihre Information doch freiwillig, selbstbestimmt, ohne Zwang und Pression rezipiert wird - die Informationsverarbeitung ihrer Besucher durch eine bestimmte räumliche Informationsanordnung beeinflussen? Diese Fragen wurden mittels vier Feldstudien vor Ort untersucht:
Studie 1 charakterisiert Museumsbesucher durch Persönlichkeitsprofile, die aus den für die Verarbeitung konfligierender Information als relevant betrachteten Personenmerkmalen (epistemologischen Überzeugungen, Ambiguitätstoleranz, Selbstwirksamkeitsannahmen) erstellt sind.
Studie 2 untersucht den Einfluss dieser Personenmerkmale und des situationalen Interesses auf die Tendenz zur Konfliktverarbeitung, ohne Fähigkeiten und Fassungskraft des Besuchers zu berücksichtigen.
Studie 3 überprüft die Effekte von situationalem Interesse, epistemologischen Überzeugungen, Ambiguitätstoleranz und Selbstwirksamkeitsannahmen auf die Konfliktverarbeitungsleistung.
In Studie 4 wird schließlich die Wirkung räumlich naher Informationspräsentation untersucht.
Museumsbesucher können durch die Persönlichkeitsprofile "selbstzweifelnd skeptisch", "selbstbewusst vertrauensvoll" und "stabilitätsgläubig" charakterisiert werden. Eine überwältigende Mehrheit zeigt die Bereitschaft, Konflikte wahrzunehmen und ein großer Teil ist darüber hinaus bereit, konfligierende Informationen auf tieferer Ebene zu verarbeiten. Eine räumlich nahe (thematisch kontinuierliche) Präsentation unterstützt die Tendenz, tief zu verarbeiten. Etwa drei Viertel der Besucher konnten erkennen, wann konfligierende Information logisch widersprüchlich ist und konnten überzufällig gut bei konsistenter und konfligierender Information Kohärenz bilden. Positive Selbstwirksamkeitsannahmen unterstützen vermittelt über hohes situationales Interesse die Tendenz, Information tiefer zu verarbeiten und steigern die Fähigkeit, Kohärenz zu bilden. Reifere epistemologische Überzeugungen der Dimension "Sicherheit" und "Veränderlichkeit" fördern Kohärenzbildung.
Demografische und gesellschaftliche Wandlungsprozesse drohen die informelle Pflege als tragende Säule des Pflegesystems in Deutschland zunehmend zu erodieren. Während einerseits die Zahl an Pflegebedürftigen zukünftig ansteigen wird, nimmt andererseits die Zahl derer, die Pflegetätigkeiten übernehmen könnten ab. Zudem werden Frauen, die heute noch die Hauptlast der Pflegeverantwortung tragen, in Zukunft vermehrt erwerbstätig sein.
Vor diesem Hintergrund ergibt sich folgendes Problemfeld: Bei der Übernahme von informellen Pflegeaufgaben entsteht häufig ein Vereinbarkeitsproblem zwischen Pflege- und Erwerbstätigkeit. Pflegende reduzieren deshalb nicht selten ihre Erwerbsarbeitszeit oder geben die berufliche Tätigkeit ganz auf. Im Kontext des deutschen Sozialversicherungssystems bedeutet das, dass sich informell Pflegende erhöhten sozialen Risiken aussetzen, wenn sie ihre Erwerbs- und Verdienstpotenziale am Arbeitsmarkt nicht vollumfänglich ausschöpfen. Ferner entstehen indirekte Kosten beim Fiskus, die auf verringerte Einkommensteuer- und Sozialversicherungsbeiträge und/oder erhöhte Transferleistungen zurückzuführen sind. Diese sogenannten fiskalischen Kosten wurden im wissenschaftlichen und gesellschaftspolitischen Diskurs bisher jedoch nur unzureichend berücksichtigt.
Demnach ist das Ziel der vorliegenden Arbeit, die fiskalischen Kosten aufgrund informeller Pflege im deutschen Wohlfahrtsstaat empirisch zu prognostizieren. Dazu werden zunächst die Auswirkungen einer Pflegeübernahme auf das Arbeitsangebot evaluiert und dann in ein Steuer- und Sozialversicherungsmodell überführt, um so die fiskalischen Kosten aufgrund informeller Pflege zu quantifizieren. Mithilfe eines dynamischen Populationsmodells erfolgt abschließend die empirische Prognose der fiskalischen Kosten.
Im Ergebnis zeigt sich, dass beim Fiskus erhebliche (Mehr-)kosten durch informelle Pflege in Form von entgangenen Einkommensteuer- und Sozialversicherungsbeiträgen und/oder erhöhte Transferleistungen entstehen. Darüberhinaus ist die informelle Pflegeerbringung von Frauen aus staatlicher Perspektive kostengünstiger als die von Männern.
Die vorliegende Arbeit gliedert sich im Wesentlichen in vier Bereiche. Sie gibt einen Überblick über die aktuellen Entwicklungen einer Pädagogik für Menschen mit Förderbedarf im Bereich ihrer geistigen Entwicklung und versucht eine Fokussierung von paradigmatischen Entwicklungen hin zu einer inklusiven Bildung mit dem Anspruch einer angemessenen Qualitätssicherung des Bildungsangebotes. Nach der Einleitung und einer allgemeinen theoretischen Verortung der Fragestellung werden im zweiten Kapitel begrifflichen Grundlagen gelegt sowie das Konzept einer inklusiven Bildung und der selbstbestimmten Teilhabe an allen gesellschaftlichen Prozessen einschließlich des theoretischen Modells des Empowerments hergeleitet. Das dritte Kapitel befasst sich mit aktuellen Aspekten curricularer Entwicklungen für Schüler mit Förderbedarf im Bereich ihrer geistigen Entwicklung einschließlich der Diskussion von möglichen input-orientierten Bildungsstandards in der Sonderpädagogik. Im vierten Kapitel werden Grundlagen der Organisationsentwicklung und des Qualitätsmanagements für Förderzentren erläutert sowie Evaluationsmöglichkeiten dargestellt und für die unmittelbare Praxisanwendung realisiert.
Die UN-Behindertenrechtskonvention von 2008 formuliert einen Rechtsanspruch auf inklusive Bildung für Menschen mit Beeinträchtigungen. Diesem wird in Deutschland seit 2009 durch Schulgesetzänderungen Rechnung getragen, mit denen inklusive Bildung durch ein Elternwahlrecht implementiert wird. Bislang ist vor dem Hintergrund der neu geschaffenen elterlichen Entscheidungsmöglichkeiten noch nicht untersucht worden, welche Vorstellungen Eltern von Kindern mit komplexen Beeinträchtigungen mit dem inklusiven Bildungsanspruch ihres Kindes verbinden und in welcher Weise sie diesen an der Schulform ihrer Wahl eingelöst sehen. Im Zentrum der vorliegenden Arbeit steht die Rekonstruktion des Bildungsangebots aus der Perspektive der Eltern im Abgleich mit der Sicht der pädagogischen Klassenteams. Den Fragen nach den elterlichen Erwartungen und Erfahrungen wurde aus der systemtheoretischen Perspektive von Luhmann nachgegangen. In der qualitativ angelegten Untersuchung geht es um Schülerinnen und Schüler mit komplexen Beeinträchtigungen, die nach der Schulgesetznovellierung in Hamburg (2009) in den Jahren 2010 und 2011 eingeschult worden sind und aufgrund der Entscheidung ihrer Eltern in unterschiedlichen Settings an Grund- und Sonderschulen lernen. Die Datenerhebung erfolgte durch leitfadengestützte Interviews mit Eltern, Pädagoginnen und Pädagogen sowie Schulleitungen, ergänzt durch Hospitationen im Schuljahr 2011/12 und Dokumente, die von den Schulen zur Verfügung gestellt wurden. Die Datenanalyse erfolgt mithilfe der Grounded Theory nach Strauß/Corbin (1996). Die Ergebnisse der Untersuchung zeigen elterliche Bildungserwartungen im Hinblick auf ein Ermöglichen von Autonomie und Teilhabe ihrer Kinder und eine differenzierte Wahrnehmung der Umsetzung ihrer Erwartungen im Schulalltag. Einen besonderen Stellenwert messen Eltern der Zusammenarbeit zwischen Schule und Familie bei, die für das Entstehen von Vertrauen bzw. Misstrauen bedeutsam ist. Aus den Erkenntnissen und deren Rückbindung an die Systemtheorie wurde ein Modell des Professionsvertrauens/-misstrauens entwickelt.
Die Auswertung ergibt Hinweise zu Qualitätskriterien eines inklusiven Bildungsangebots und zu Entwicklungsanforderungen in der Professionalisierung, die sowohl auf die Ebene der Organisation Schule als auch der Interaktion zwischen schulischen Akteurinnen und Akteuren sowie Eltern abzielen.
Die vorliegende Arbeit geht der Frage nach, wie sich Teilhabe und Inklusion von Menschen mit Lernschwierigkeiten in der allgemeinem Erwachsenenbildung realisieren lassen und was wesentliche Elemente und Rahmenbedingungen einer inklusiven Erwachsenenbildung mit Menschen mit Lernschwierigkeiten sind.
Menschen mit Lernschwierigkeiten haben ein gesetzlich verankertes Recht auf Teilhabe an inklusiver Erwachsenenbildung. Inklusive Erwachsenenbildung bezeichnet gemäß der UN-BRK die Teilnahme und Partizipation auch von Menschen mit Lernschwierigkeiten an allgemeiner Erwachsenenbildung, im Vordergrund steht das gemeinsame Lernen im regulären Programm allgemeiner Erwachsenenbildungseinrichtungen.
In der Aufarbeitung des theoretischen Diskurses und der praktischen Realisierung inklusiver Erwachsenenbildung zeigt sich allerdings, dass das Erwachsenenbildungsangebot für diese Personengruppe und die Möglichkeiten der Teilhabe am allgemeinen Erwachsenenbildungssystem in Deutschland eingeschränkt
sind. Umfassende Praxismodelle inklusiver Erwachsenenbildung sind erst in Ansätzen vorhanden, auch die Rahmenbedingungen gelingender inklusiver Erwachsenenbildung wurden kaum systematisch aufgearbeitet. Somit gilt es, für den Bereich der Erwachsenenbildung Konzepte zu entwickeln, die den Abbau von Barrieren und die Förderung von gleichberechtigter Teilhabe und Inklusion unterstützen. Es ist davon
auszugehen, dass die Kenntnis von wesentlichen Elementen und Rahmenbedingungen allgemeine Erwachsenenbildungseinrichtungen bei der Implementierung und Weiterentwicklung inklusiv gestalteter Erwachsenenbildung unterstützen und somit die Teilhabemöglichkeiten für Menschen mit Lernschwierigkeiten gezielt erweitern kann. Ziel dieser Arbeit ist deshalb die Erhebung und Beschreibung von wesentlichen Elementen und Rahmenbedingungen inklusiver Erwachsenenbildung.
Da es in Deutschland an Erfahrungswerten sowie der systematischen Ausarbeitung notwendiger Realisierungsbedingungen
inklusiver Erwachsenenbildung mangelt, richtet die vorliegende Arbeit ihren Blick in einem zweiten Schritt auf die ‚Inspiring Practice’ anderer Länder. In einer empirischen qualitativ-
explorativen Studie in elf Erwachsenenbildungseinrichtungen und -institutionen Englands werden mit Hilfe von 55 Leitfadeninterviews wesentliche Elemente und Rahmenbedingungen aus Sicht
der beteiligten Akteure erhoben und ausgewertet. Flankiert durch teilnehmende Beobachtungen, Dokumentenanalysen
und Gespräche liefern die Ergebnisse zugleich einen Einblick in die praktische Umsetzung inklusiver Erwachsenenbildung in England. Die Wahl fiel auf England, weil in diesem europäischen Land inklusive Erwachsenenbildung bereits seit den 1990er Jahren als fester Bestandteil
des Bildungssystems verankert ist und umfängliche Erfahrungen gesammelt werden konnten.
Aus der Analyse dieser Erfahrungswerte werden in der Diskussion und Zusammenschau mit theoretischen Überlegungen und praktischen Umsetzungen richtungsweisende Impulse für die Weiterentwicklung
der inklusiven Erwachsenenbildung in Deutschland abgeleitet und in einem Perspektivkonzept einer inklusiven Erwachsenenbildung zusammengefasst.
Die Struktur der organischen Bodensubstanz (OBS) ist ein seit Jahrzehnten unter Wissenschaftlern viel diskutiertes Thema. Die wichtigsten Modelle sind unter anderem das Polymer Modell und das Supramolekulare Modell. Während ersteres die OBS als Makromoleküle betrachtet, die amorphe und kristalline Bereiche enthält, erklärt letzteres die OBS als physikochemische Verbindung in der durch schwache hydrophobe Wechselwirkungen und Wasserstoffbrückenbindungen individuelle Moleküle primärer Struktur in einer Sekundärstruktur zusammengehalten werden. Die schwachen Wechselwirkungen innerhalb der Sekundärstruktur gewähren der OBS ihre charakteristische Mobilität. Eine wichtige Konsequenz dieses mehrdimensionalen Aufbaus ist es, dass abgesehen von der chemischen Zusammensetzung, die physikochemische Struktur der OBS eine entscheidende Rolle für ihre biogeochemischen Funktionen spielt. Aus diesem physikochemischen Verständnis der OBS Struktur heraus entstand das kürzlich eingeführte Konzept der durch Kationen und Wassermoleküle vermittelten Brücken zwischen OBS Segmenten (CaB und WaMB). Obwohl es in den letzten Jahren einige indirekte Anhaltspunkte für die Ausbildung von CaB und WaMB gab, gibt es bis heute kein klar umrissenes Verständnis di eser Prozesse. Experimentelle Probleme aufgrund sich überlagernder Effekte von wichtigen ebenfalls CaB beeinflussenden Parametern, wie pH und der Konzentration konkurrierender Kationen, erschweren die Untersuchung der CaB-bezogenen Einflüsse. Daher zielte diese Arbeit darauf ab, eine experimentelle Herangehensweise zu entwickeln um CaB innerhalb der OBS zu erzeugen und diese hinsichtlich verschiedener chemischer und physikochemischer Aspekte zu beurteilen. Dazu wurden zuerst die in den Proben schon vorhandenen Kationen entfernt und der pH Wert definiert eingestellt, bevor die Proben erneut mit bestimmten Kationen beladen wurden. So konnten pH- und Kationen-Effekte voneinander getrennt beobachtet werden.
Aus den Ergebnissen, die mit zwei unterschiedlichen Typen organischer Substanz erzielt worden sind, kann folgender Rückschluss gezogen werden: Unter der Voraussetzung, dass die Dichte der funktionellen Gruppen in der OBS hoch genug ist, so dass diese in ausreichender räumlicher Nähe zueinander arrangiert sind, können Kationen die OBS quervernetzen. Eine physikochemische strukturelle Umorientierung findet auch in Alterungsprozessen statt, die die Bildung von mehr und/oder stärkeren CaB und WaMB verursachen. Kationengröße und "ladung bestimmen sowohl die Erzeugung von CaB direkt bei der Kationenbehandlung, als auch die Effekte der Alterungsprozesse. Ein anfänglichrnstärker quervernetztes System ist weniger anfällig für strukturelle Änderungen und unterliegt weniger starken Alterungsprozessen als ein anfänglich schwächer quervernetztes. Verantwortlich für die strukturellen Veränderungen ist die der OBS innewohnende Mobilität innerhalb ihres physikochemischen Verbundes. Information über die strukturellen Voraussetzungen zur Bildung von CaB und deren Konsequenzen für die Matrixstabilität der OBS können helfen, Einblicke in die physikochemische Struktur der OBS zu erhalten. Außerdem zeigten die Qualität der OBS (bestimmt mithilfe thermischer Analytik) und deren Porenstruktur, die sich in einer Reihe von künstlich hergestellten Böden nach einigen Monaten der OBS Entwicklung gebildet hatten, dass die mineralischen Ausgangsmaterialien zwar eine Bedeutung für die chemische Natur der OBS Moleküle hatten, nicht jedoch für die physikalische Struktur der organisch-mineralischen Verbindungen.
In der vorliegenden Arbeit wurde außerdem erstmals die nanothermische Analyse mithilfe der Rasterkraftmikroskopie (AFM-nTA) für Boden eingesetzt, um thermische Eigenschaften und deren räumliche Verteilung im Nano- und Mikrometerbereich zu erfassen. Diese Methode ermöglichte es, physikochemische Prozesse, wie z.B. das Aufbrechen von WaMB in humusarmen Böden zu identifizieren, bei denen herkömmliche Methoden aufgrund zu niedriger Empfindlichkeit scheiterten. Weiterhin konnten durch eine verbesserte Anwendung der Methode und die Kombination mit anderen AFM-Parametern einige in Böden vorkommende Materialien in hoher räumlicher Auflösung unterschieden werden. Durch die Verwendung definierter Testmaterialien wurde versucht, diese Bodenmaterialien zu identifizieren. Das größte Potential dieser Methode liegt allerdings darin, die mikroskopische Heterogenität von Probenoberflächen zu quantifizieren, was z.B. dabei helfen kann, Prozess-relevante Hotspots aufzudecken.
Durch die Einbindung der AFM-nTA Technologie trägt die vorliegende Arbeit zum wissenschaftlichen Verständnis der Änderungen der physikochemischer Struktur der OBS durch Kationenquervernetzung bei. Die hier demonstrierte direkte Untersuchung der CaB kann möglicherweise zu einem großen Wissenssprung hinsichtlich dieser Wechselwirkungen verhelfen. Der beobachtete Alterungsprozess ergänzt gut das supramolekularen Verständnis der OBS. Die Einführung der nanothermischen Analyse in die Bodenkunde ermöglicht es, dem Problem der Heterogenität und der räumlichen Verteilung thermischer Eigenschaften zu begegnen. Ein anderer wichtiger Erfolg der AFM-nTA ist, dass sie genutzt werden kann um physikochemische Prozesse sehr geringer Intensität zu detektieren.
Interaktive Visualisierungen für den Linking- und Suchprozess heterogener Informationen im Web
(2013)
Die Informationsmenge im Web nimmt stetig zu und auch die Art und Vielfalt von Informationen wird immer größer. Es stehen die unterschiedlichsten Informationen wie Nachrichten, Artikel, Statistiken, Umfragedaten, Börsendaten, Veranstaltungen, Literaturnachweise usw. zur Verfügung. Die Informationen zeichnen sich durch Heterogenität in Aspekten wie Informationsart, Modalität, Strukturiertheit, Granularität, Qualität und ihre Verteiltheit aus. Die zwei Haupttechniken, mit denen Nutzer im Web nach diesen Informationen suchen, sind die Suche mit Websuchmaschinen und das Browsing über Links zwischen Informationseinheiten. Die vorherrschende Art der Informationsdarstellung ist dabei weitgehend statisch in Form von Text, Bildern und Grafiken. Interaktive Visualisierungen bieten eine Reihe von Vorteilen für die Aufbereitung und Exploration von heterogenen Informationen im Web: (1) Sie bieten verschiedene Darstellungsformen für unterschiedliche, sehr große und auch komplexe Informationsarten und (2) große Datenmengen können interaktiv anhand ihrer Eigenschaften exploriert werden und damit den Denkprozess des Nutzers unterstützen und erweitern. Bisher sind interaktive Visualisierungen aber noch kein integraler Bestandteil des Suchprozesses im Web. Die technischen Standards und Interaktionsparadigmen, um interaktive Visualisierungen als Massentechnik im Web nutzbar zu machen, werden erst langsam durch Standardisierungsgremien eingeführt. Diese Arbeit untersucht, wie interaktive Visualisierungen für den Linking- und Suchprozess heterogener Informationen im Web eingesetzt werden können. Basierend auf Grundlagen in den Bereichen Informationssuche, Informationsvisualisierung und Informationsverarbeitung wird ein Modell gebildet, das bestehende Strukturmodelle der Informationsvisualisierung um zwei neue Prozesse erweitert: (1) das Linking von Informationen in Visualisierungen und (2) das Glyphenbasierte Suchen, Browsen und Filtern. Das Vizgr-Toolkit implementiert das entwickelte Modell in einer Webanwendung. In vier verschiedenen Anwendungsszenarien werden Teilaspekte des Modells instanziiert und in Nutzertests evaluiert oder anhand von Beispielen untersucht.
Eine Fremdsprache ist mit viel Zeit, Geduld und Motivation erlernbar. Um eine Fremdsprache jedoch zu beherrschen, braucht man vertiefte Kenntnisse der Grammatik, einen sehr großen Wortschatz und eine authentische, möglichst muttersprachenähnliche ("native-like") Aussprache. Das Forschungs-projekt leistet einen Beitrag zur Untersuchung der Aussprache.
Mittels einer empirischen Untersuchung der Aussprache von Anglistik-Studierenden an der Universität Koblenz-Landau (Campus Koblenz) wird einer der schwierigsten Laute des amerikanischen Englisch analysiert. Es ist bekannt, dass der amerikanische /r/-Laut von Deutschen sehr häufig falsch ausgesprochen wird (cf. Celce-Murcia et al. 2010 und Swan & Smith 2001). Oftmals sind sich die SprecherInnen ihrer fehlerhaften Aussprache nicht einmal bewusst. Dementsprechend behandelt dieses Forschungsprojekt die folgenden Hypothesen:
(1. Hypothese) Das post-vokalische /r/ in einer unbetonten Silbe am Ende eines Wortes wird häufig nicht ausgesprochen (wie im britischen Englisch). Mittels einer spektrographischen Analyse kann die Aussprache einiger englischer Ausdrücke wie answer, Arthur, either und rather besser untersucht werden, um festzustellen, wie oft dieses /r/ fehlt.
(2. Hypothese) Das /r/ vor einer betonten Silbe wird nur in bestimmten Fällen hörbar ausgesprochen. Oft ist dies vom folgenden Vokal im Wort abhängig. Es wird behauptet, dass der /r/-Laut durch Vokale, die durch eine Rundung der Lippen erzeugt werden, beeinflusst wird. Der Koartikulation zufolge wird der /r/-Laut durch einen labialisierten stimmhaften velaren Approximanten /w/ ersetzt. Anhand verschiedener Wörter wie crawled, rat, rode, room und tree wird die /r/-Qualität in unterschiedlichen Laut-Umgebungen untersucht werden, da hier jeweils ein anderer Vokal dem /r/ folgt.
(3. Hypothese) Nach der Analyse der 1. Hypothese wird die Vokalqualität der unbetonten Silbe der vier englischen Wörter noch einmal und genauer untersucht. Häufig wird der Schwa-Laut in diesen Wörtern durch einen anderen Laut ersetzt. In diesem Fall wird der /ɐ/-Laut ausgesprochen. Um sich ein Bild von der Vokalqualität dieses Lautes machen zu können, werden drei deutsche Ausdrücke analysiert. Danach werden die deutschen Ausdrücken und die englischen Wörter mit einander verglichen. Die drei deutschen Ausdrücke sind in der, Müller und unser.
Zur Gewinnung der empirischen Daten lesen die Studierenden einen englischen Text ("Arthur the rat") und einen kurzen deutschen Satz, welche elektronisch aufgezeichnet werden. Danach werden die Tonaufzeichnungen mit Hilfe der Software "Praat" untersucht und ausgewertet. Das Ziel ist eine minutiöse Analyse ausreichend vieler authentischer Tonaufzeichnungen, anhand derer die Sprachschwierigkeiten deutscher Englischlernender mit dem /r/-Laut prognostiziert werden können. Ein solches Ergebnis ermöglicht es, Ausspracheschwierigkeiten von Anfang an entgegenzuwirken, indem in einem weiteren Schritt (der jedoch über das Ziel der Arbeit hinausgeht) entsprechende Übungsmaterialien entwickelt und eingesetzt werden. Letzteres ist nicht möglich ohne die solide Grundlagenforschung des Forschungsprojekts.
Focusing on the triangulation of detective fiction, masculinity studies and disability studies, "Investigating the Disabled Detective – Disabled Masculinity and Masculine Disability in Contemporary Detective Fiction" shows that disability challenges common ideals of (hegemonic) masculinity as represented in detective fiction. After a theoretical introduction to the relevant focal points of the three research fields, the dissertation demonstrates that even the archetypal detectives Dupin and Holmes undermine certain nineteenth-century masculine ideals with their peculiarities. Shifting to contemporary detective fiction and adopting a literary disability studies perspective, the dissertation investigates how male detectives with a form of neurodiversity or a physical impairment negotiate their masculine identity in light of their disability in private and professional contexts. It argues that the occupation as a detective supports the disabled investigator to achieve ‘masculine disability’. Inversing the term ‘disabled masculinity’, predominantly used in research, ‘masculine disability’ introduces a decisively gendered reading of neurodiversity and (acquired) physical impairment in contemporary detective fiction. The term implies that the disabled detective (re)negotiates his masculine identity by implementing the disability in his professional investigations and accepting it as an important, yet not defining, characteristic of his (gender) identity. By applying this approach to five novels from contemporary British and American detective fiction, the dissertation demonstrates that masculinity and disability do not negate each other, as commonly assumed. Instead, it emphasises that disability allows the detective, as much as the reader, to rethink masculinity.
Investigating the environmental fate of iodinated X-ray contrast media in the urban water cycle
(2010)
Iodinated X-ray contrast media (ICM) are a group of emerging contaminants which have been detected at elevated concentrations in the aquatic environment. These compounds are excreted unmetabolized into hospital wastewater, and eventually treated at wastewater treatment plants (WWTPs). The removal of ICM in WWTPs has not been very effective and therefore the ICM enter the aquatic environment via WWTP effluent discharges. Research has investigated the removal of selected ICM via abiotic and biotic processes, however limited work has attempted to determine the fate of these compounds once released into the environment. This thesis investigates the biotransformation of four selected ICM (diatrizoate, iohexol, iomeprol, and iopamidol) in aerobic soil-water and sediment-water systems as well as in different environmental matrices. Iohexol, iomeprol and iopamidol were biotransformed to several TPs in the aerobic batch systems, while no biotransformation was observed for the ionic ICM, diatrizoate. In total 34 biotransformation products (TPs) of the three non-ionic ICM were identified. The combination of semi-preparative HPLC-UV, hybrid triple quadrupole-linear ion trap mass spectrometry (Qq-LIT-MS) was found to be an accurate approach for the structural elucidation of ICM TPs. The ICM TPs resulted in microbial transformation occurring at the side chains of the parent ICM, with the iodinated aromatic ring unmodified.
Die Anwendung von Chemikalien führt in vielen Fällen zu deren Emission in die Umwelt. Besonders organische Substanzen wie zum Beispiel Pharmazeutika, Biozide und Waschmittelinhaltsstoffe wurden in den letzten Jahren vermehrt als Umweltkontaminanten in Oberflächengewässern nachgewiesen. Die organischen Umweltkontaminanten, auch Spurenstoffe genannt, haben oftmals i) unbekannte ökotoxikologische Wirkungen, ii) unbekannte Verteilungsverhalten, und iii) sind bisher hinsichtlich der Emission kaum reguliert. Wie bei allen Substanzen können Spurenstoffe in der Umweltmatrix und insbesondere auch in der Kläranlage zu sogenannten Transformationsprodukten (TPs) umgewandelt werden. Um den durch Spurenstoffe verursachten Herausforderungen technologisch begegnen zu können, wird ein besseres Verständnis über diese Transformationsprozesse benötigt. Diese Dissertationsarbeit befasst sich deshalb mit der Aufklärung von Transformationsprozessen ausgewählter Spurenstoffe während der biologischen Abwasserreinigung.
Für die Untersuchung des Abbaus von Trimethoprim wurden Inkubationsversuche angewendet und die Auswirkung der steigenden Dotierungskonzentrationen systematisch untersucht. Es wurden insgesamt sechs TPs charakterisiert. Die Dotierungskonzentration hatte sowohl Auswirkungen auf die kinetischen Konstanten, als auch auf die Transformationsreaktionen. Ein solcher Einfluss der experimentellen Bedingungen wurde bisher in der Literatur noch nicht berichtet. Nur bei niedriger Dotierungskonzentration wurde am Ende des Transformationswegs ein stabiles TP gebildet, die 2,4-Diaminopyrimidin-5-carbonsäure (DAPC). Diese Substanz konnte in Laborversuchen den Großteil der abgebauten Menge von Trimethoprim erklären. Durch Untersuchungen an einer Referenzkläranlage konnte festgestellt werden, dass nur die Inkubationsversuche bei niedriger Dotierungskonzentration die realen Prozesse adäquat abbilden konnten. Die Anwendung hoher Dotierungskonzentrationen führte in Laborversuchen zu einer veränderten TP-Bildung.
Drei phenolische Spurenstoffe wurden in Bezug auf ihre Transformation, insbesondere hin zu potenziell toxischen nitrophenolischen TPs, untersucht: das Desinfektionsmittel ortho-Phenylphenol (OPP), das Kunststoffadditiv Bisphenol-A (BPA) und das Hustenmittel Dextrorphan. Nitrit wurde als ein potenzieller Auslöser für die Nitrierung postuliert. Inkubationsversuche in Reinstwasser wurden mit OPP in Anwesenheit von Nitrit durchgeführt und bestätigten, dass nitro-(und nitroso-) phenolische TPs unter leicht sauren Bedingungen gebildet werden. Da in kommunalen Kläranlagen der pH-Wert in Belebtschlamm zumeist zwischen 7,5 und 8,5 liegt und Nitrit als Zwischenprodukt oft nur in niedrigen Konzentration vorhanden ist, wurde die Bildung von signifikanten Konzentrationen nitrophenolischer TPs als unwahrscheinlich eingestuft. Aufgrund der Ergebnisse von Inkubationsversuchen mit inokulierten Belebtschlamm war festzustellen, dass die drei untersuchten Spurenstoffe schnell zu biologischen TPs umgewandelt wurden. Die Studie zeigte wie das Bildungspotenzial von nitrophenolischen TPs gesteigert wird, wenn bestimmte Bedingungen im Belebtschlamm vorliegen: saurer pH und erhöhte Nitritkonzentration. Zudem wurde auch gezeigt, dass die Bildung von nitrophenolischen TPs durch das Ansäuern oder das Einfrieren von Proben initiiert werden kann.
Die Transformation vom Antiphlogistikum Diclofenac wurde in zwei unterschiedlichen Kläranlagen verglichen. Die erste Kläranlage verwendet Aufwuchskörper für ein verstärktes Biofilmwachstum, während die zweite mit einer konventionellen nitrifizierenden Belebtschlammbehandlung ausgestattet ist. Trotz der unterschiedlichen Behandlungstechniken konnten in beiden Fällen ähnliche Transformationsreaktionen festgestellt werden. Der wesentliche Unterschied bestand in den veränderten Kinetiken: Geschwindigkeitskonstanten (kbiol) waren ca. 50 Mal höher in Kontakt mit Aufwuchskörpern als im konventionellen Belebtschlamm. Der Transformationsweg führte zur Bildung einer Vielzahl an gering konzentrierten TPs. Monitoring-Kampagnen an den zwei Kläranlagen wurden zur Bestätigung der Ergebnisse angeschlossen. In der konventionellen Kläranlage wurde keine signifikante Diclofenac Entfernung gemessen. Wohingegen im Aufwuchskörperreaktor eine mittlere Entfernung von 88% gemessen wurde. Damit wäre die vorgeschlagene Umweltqualitätsnorm von 0.05 μg/L möglicherweise auch ohne die Anwendung von weiteren Behandlungsschritten wie z.B. Aktivkohlefiltration oder Ozonung erreichbar.
In Kooperation mit dem TÜV SÜD und 985 Führungskräften aus deutschen Unternehmen wurde erprobt, wie Service-Qualität im Rahmen einer Onlinebefragung gemessen werden kann. Es wurde untersucht, welche Komponenten Service-Qualität umfasst, und ein Rahmenmodell entwickelt, das die Zusammenhänge zwischen Service-Qualität, Kundenzufriedenheit und dem Erfolg von Organisationen beschreibt. Die theoretische Konzeption und Operationalisierung des Konstrukts wurde mittels konfirmatorischer Faktorenanalysen überprüft und bestätigt. Das Rahmenmodell der Studie wurde als Strukturgleichungsmodell formuliert und konnte ebenfalls empirisch bestätigt werden. Die Ergebnisse und deren Auswirkung auf die Weiterentwicklung der bestehenden wissenschaftlichen Theorien zu den Konstrukten Service-Qualität, Kundenzufriedenheit und Erfolg von Organisationen wurden kritisch diskutiert.
Zur Steigerung der Ökonomie des Verfahrens wurde ein adaptiver Test zur Erfassung von Service-Qualität entwickelt. Im Rahmen der probabilistischen Testtheorie wurde geprüft, welches Item Response-Modell die empirischen Daten gut beschreiben kann. Als Grundlage für den adaptiven Test wurden die Item-Parameter modellkonform bestimmt. In einer Simulationsstudie wurde untersucht, ob die Ergebnisse der Onlinebefragung sich bedeutsam von den Ergebnissen adaptiver Tests mit unterschiedlichen Konfigurationen unterscheiden. Der Vergleich der Konfigurationen, die sich darin unterschieden, wie der Personenparameter geschätzt wurde und nach welchem Algorithmus das nächste Test-Item gewählt wurde, zeigte, welche Konfigurationen eingesetzt werden können, um eine möglichst geringe Testlänge zu erzielen, ohne dabei bedeutsame Einbußen bei der Reliabilität und Validität der Messung in Kauf zu nehmen. Unter Berücksichtigung dieser Erkenntnisse wurde der Fragebogen zur Erfassung von Service-Qualität als computerbasierter adaptiver Test umgesetzt. Diese neue Erfassungsmethode wurde in der Praxis erprobt, und abschließend wurden Nützlichkeit, Ökonomie und mögliche Nachteile, die mit dieser Art des Testens verknüpft sind, diskutiert.
Dieses Dokument, detailierte Analyseergebnisse, den adaptiven Test zur Erfassung von Service-Qualität und weitere Begleitmaterialien finden Sie unter: https://promotion.creaval.de
Will Eisners Graphic Novels zeugen von einer tiefgehenden Identitifation mit dem Judentum als Volkszugehörigkeit, Religion und Kultur und spiegeln das Judentum in all seinen Facetten wider. Dabei ist besonders hervorzuheben, dass die Entwicklung des Gesamtwerks parallel verläuft zur Geschichte der Emanzipation der jüdischen Bevölkerung in New York City. Der Band clustert die jüdischen Aspekte in Eisners Werk in beispielsweise Faktoren kollektiver Erinnerung, Umgang mit und Kampf gegen Antisemitismus und religiöse Besonderheiten.
Lastkraftwagen werden weltweit in verschiedenen Konfigurationen für den Transport von Gütern und für Spezialanwendungen genutzt. Das sichere Navigieren solcher Großfahrzeuge stellt eine herausfordernde Aufgabe für den Fahrer und unter Umständen für automatische Steuerungssysteme, z. B. im semi-autonomen oder autonomen Betrieb, dar. Insbesondere in kinematisch schwierigen Situationen, auf unebenem Untergrund oder bei engen Platzverhältnissen steigt die Komplexität des sicheren Steuerns.
Umso verwunderlicher ist es, dass unterstützende Systeme, welche die speziellen Belange von LKW und insbesondere LKW-Gespannen adressieren, im Vergleich zum Angebot auf dem PKW-Markt nur in rudimentärem Maß angeboten werden. Das Gefahrenpotential, dass von Großfahrzeugen ausgeht, wird zunehmend in der aktuellen Tagespolitik diskutiert. Unter anderem wird die verpflichtende Einführung von Fahrerassistenzsystemen gefordert.
In dieser Arbeit werden zwei Themen behandelt, die sich mit den speziellen Anforderungen von Nutzfahrzeugen befassen. Im ersten Themenblock wird die Erfassung der Artikulation in einem LKW-Anhänger-Gespann mit Drehschemelanhänger bearbeitet. Dabei wird ein neuartiges Verfahren vorgestellt, das auf an der Universität Koblenz-Landau geleisteten Vorarbeiten aufbaut. Es ermöglicht die Erfassung von Knickwinkeln in mehreren Dimensionen und ist daher auch für den Einsatz auf unebenem Grund, wie beispielsweise in Baustellen- oder Agrarszenarien geeignet. Das Verfahren nutzt dabei eine Kamera und ein künstliches Muster, um den Gespannzustand zu ermitteln.
Im zweiten Bereich wird die Umfeldvisualisierung durch eine Vogelperspektivenansicht thematisiert. Herkömmliche Systeme weisen systembedingte Verzerrungen auf, die unnatürlich wirkende Ansichten zur Folge haben. Diesem Problem wird durch die Entwicklung einer neuen Herangehensweise begegnet: Mit den Tiefendaten von Stereokameras wird eine Umgebungsmodellierung realisiert, die im nächsten Schritt perspektivisch korrekt mit Kamerabildern fusioniert wird. Mittels einer speziell für diesen Fall erweiterten Stereo-Hinderniserkennung wird zudem eine zusätzliche Umfeldüberwachung ermöglicht.
Die beiden in dieser Dissertation vorgestellten Verfahren beinhalten grundlegende Arbeiten, die für die Entwicklung maßgeschneiderter Assistenzsysteme für LKW angewandt werden können.
Key mechanisms for the release of metal(loid)s from a construction material in hydraulic engineering
(2017)
Hydraulic engineering and thus construction materials are necessary to enable the navigability of water ways. Since, a variety of natural as well as artificial materials are used, this materials are world wide tested on a potential release of dangerous substances to prevent adverse effects on the environment. To determine the potential release, it is important to identify and to understand key mechanisms which are decisive for the release of hazardous substances. A limited correlation between the conditions used in regulatory tests and those found in environmental systems is given and hence, often the significance of results from standardised tests on construction materials is questioned, since they are not designed to mimic environmental conditions.
In Germany industrial by-products are used as armour stones in hydraulic engineering. Especially the by-product copper slag is used during the last 40 years for the construction of embankments, groynes and coastal protection. On the one hand, this material has a high density and natural resources (landscape) are protected. One the other hand, the material contains high quantities of metal(loid)s. Therefore the copper slag (product name: iron silicate stones) is very suitable as test material. Metal(loid)s examined were As, Sb and Mo as representatives for (hydr)oxide forming elements and Cd, Co, Cu, Fe, Ni, Pb and Zn were studied as representatives for elements forming cations during the release.
Questions addressed in this Thesis were: (i) can we transfer the results from batch experiments to construction scenarios under the prevalent environmental conditions, (ii) which long-term trends exist for the release of metal(loid)s from copper slags and (iii) how environmental conditions influence the leaching of metal(loid)s from water construction materials?
To answer the first question the surface depending release of the metal(loid)s from the construction materials was examined. Therefore, batch leaching experiments with different particle sizes and a constant liquid/solid ratio were performed. In a second step a comparison between different methods for the determination of the specific surface area of armour stones with a 3D laser scanning method as a reference were performed. In a last step it was possible to show that via a roughness factor the results of the specific surface area from small stones, measured with gas adsorption, can be connected with the results from armour stones, determined with an aluminium foil method. Based on calculations of the specific surface area, it was possible to significantly improve catchment scale calculation about the release of metal(loid)s and to evaluate a potential impact of construction materials in hydraulic engineering on the water chemistry of rivers and streams.
To answer the second question long-term leaching diffuse gradient in thin films supported experiments were performed for half a year. Diffuse gradients in thin films (DGT) is an in situ method to passive sample metal(loid)s in water, sediments and soils. They were used as a sink for metal(loid)s in the eluate to provide solution equilibriums. Thus the exchange of the eluent, which is performed normally in long-term experiments, was superfluous and long-term effects under undisturbed conditions were studied. The long-term leaching experiments with DGT have proven to be capable (i) to differentiate between the depletion of the material surface and the solution equilibriums and (ii) to study sorption processes with or without a further release of the analytes. This means for the practically relevant test material copper slag that: (i) the cations Cd, Co, Cu, Ni and Pb are confirmed to be released from the slag over the whole time period of six months, (ii) a surface depletion of Zn was detected, and (iii) that the (hydr)oxide forming elements As, Mo and Sb were released from the slag over the hole periods of six months but the release was masked by adsorption to Fe-oxide colloids, which were formed during the leaching experiments. It was confirmed, that sulphide minerals are the main source for long-term release of Cd, Cu, Ni, Pb and Mo.
To answer the third question short-term leaching experiments simulating environmental conditions in hydraulic engineering were performed. One factor is the salinity. The influence of this parameter was tested in batch experiments with sea salt solution (30 g/l), river Rhine water, ultra pure water and in addition with different NaCl concentration (5, 10, 20 and 30 g/l). In general, the ionic strength is an important factor for the metal(loid) release but the composition of the water (e.g. the HCO3- content) may superimpose this effect. Therefore, the concentrations of the metal(loid)s in the experiments with ultra-pure water spiked with sea salt or native river water and the ultra-pure water spiked with NaCl were significantly different. In a second experiment the influence of the environmental parameters and the interactions between the environmental parameters pH (4–10), sediment content (0 g–3.75 g), temperature (4 °C–36 °C) and ionic strength (0 g/l–30 g/l NaCl) on the release of metal(loid)s from the test material was examined. The statistical Design of Experiments (DoE) was used to study the influence of these factors as well as their interactions. All studied factors may impact the release of metal(loid)s from the test material to the eluent, whereas the release and the partitioning between sediment and eluate of metal(loid)s was impacted by interactions between the studied factors. The main processes were sorption, complexation, solubility, buffering and ion exchange. In addition, by separating the sediment from the slag after the experiments by magnetic separation, the enrichment of metal(loid)s in the sediment was visible. Thus, the sediment was the most important factor for the release of the metal(loid)s, via pH, temperature and ionic strength, because the sediment acted as a sink.
The work presented in this thesis investigated interactions of selected biophysical processes that affect zooplankton ecology at smaller scales. In this endeavour, the extent of changes in swimming behaviour and fluid disturbances produced by swimming Daphnia in response to changing physical environments were quantified. In the first research question addressed within this context, size and energetics of hydrodynamic trails produced by Daphnia swimming in non-stratified still waters were characterized and quantified as a function of organisms’ size and their swimming patterns.
The results revealed that neither size nor the swimming pattern of Daphnia affects the width of induced trails or dissipation rates. Nevertheless, as the size and swimming velocity of the organisms increased, trail volume increased in proportional to the cubic power of Reynolds number, and the biggest trail volume was about 500 times the body volume of the largest daphnids. Larger spatial extent of fluid perturbation and prolonged period to decay caused by bigger trail volumes would play a significant role in zooplankton ecology, e.g. increasing the risk of predation.
The study also found that increased trail volume brought about significantly enhanced total dissipated power at higher Reynolds number, and the magnitudes of total dissipated power observed varied in the range of (1.3-10)X10-9 W.
Furthermore, this study provided strong evidence that swimming speed of Daphnia and total dissipated power in Daphnia trails exceeded those of some other selected zooplankton species.
In recognizing turbulence as an intrinsic environmental perturbation in aquatic habitats, this thesis also examined the response of Daphnia to a range of turbulence flows, which correspond to turbu-lence levels that zooplankton generally encounter in their habitats. Results indicated that within the range of turbulent intensities to which the Daphnia are likely to be exposed in their natural habitats, increasing turbulence compelled the organisms to enhance their swimming activity and swim-ming speed. However, as the turbulence increased to extremely high values (10-4 m2s-3), Daphnia began to withdraw from their active swimming behaviour. Findings of this work also demonstrated that the threshold level of turbulence at which animals start to alleviate from largely active swimming is about 10-6 m2s-3. The study further illustrated that during the intermediate range of turbu-lence; 10-7 - 10-6 m2s-3, kinetic energy dissipation rates in the vicinity of the organisms is consistently one order of magnitude higher than that of the background turbulent flow.
Swarming, a common conspicuous behavioural trait observed in many zooplankton species, is considered to play a significant role in defining freshwater ecology of their habitats from food exploitation, mate encountering to avoiding predators through hydrodynamic flow structures produced by them, therefore, this thesis also investigated implications of Daphnia swarms at varied abundance & swarm densities on their swimming kinematics and induced flow field.
The results showed that Daphnia aggregated in swarms with swarm densities of (1.1-2.3)x103 L-1, which exceeded the abundance densities by two orders of magnitude (i.e. 1.7 - 6.7 L-1). The estimated swarm volume decreased from 52 cm3 to 6.5 cm3, and the mean neighbouring distance dropped from 9.9 to 6.4 body lengths. The findings of this work also showed that mean swimming trajectories were primarily horizontal concentric circles around the light source. Mean flow speeds found to be one order of magnitude lower than the corresponding swimming speeds of Daphnia. Furthermore, this study provided evidences that the flow fields produced by swarming Daphnia differed considerably between unidirectional vortex swarming and bidirectional swimming at low and high abundances respectively.
Der Wettbewerb um die besten Technologien zur Realisierung des autonomen Fahrens ist weltweit in vollem Gange.
Trotz großer Anstrengungen ist jedoch die autonome Navigation in strukturierter und vor allem unstrukturierter Umgebung bisher nicht gelöst.
Ein entscheidender Baustein in diesem Themenkomplex ist die Umgebungswahrnehmung und Analyse durch passende Sensorik und entsprechende Sensordatenauswertung.
Insbesondere bildgebende Verfahren im Bereich des für den Menschen sichtbaren Spektrums finden sowohl in der Praxis als auch in der Forschung breite Anwendung.
Dadurch wird jedoch nur ein Bruchteil des elektromagnetischen Spektrums genutzt und folglich ein großer Teil der verfügbaren Informationen zur Umgebungswahrnehmung ignoriert.
Um das vorhandene Spektrum besser zu nutzen, werden in anderen Forschungsbereichen schon seit Jahrzehnten \sog spektrale Sensoren eingesetzt, welche das elektromagnetische Spektrum wesentlich feiner und in einem größeren Bereich im Vergleich zu klassischen Farbkameras analysieren. Jedoch können diese Systeme aufgrund technischer Limitationen nur statische Szenen aufnehmen. Neueste Entwicklungen der Sensortechnik ermöglichen nun dank der \sog Snapshot-Mosaik-Filter-Technik die spektrale Abtastung dynamischer Szenen.
In dieser Dissertation wird der Einsatz und die Eignung der Snapshot-Mosaik-Technik zur Umgebungswahrnehmung und Szenenanalyse im Bereich der autonomen Navigation in strukturierten und unstrukturierten Umgebungen untersucht. Dazu wird erforscht, ob die aufgenommen spektralen Daten einen Vorteil gegenüber klassischen RGB- \bzw Grauwertdaten hinsichtlich der semantischen Szenenanalyse und Klassifikation bieten.
Zunächst wird eine geeignete Vorverarbeitung entwickelt, welche aus den Rohdaten der Sensorik spektrale Werte berechnet. Anschließend wird der Aufbau von neuartigen Datensätzen mit spektralen Daten erläutert. Diese Datensätze dienen als Basis zur Evaluation von verschiedenen Klassifikatoren aus dem Bereich des klassischen maschinellen Lernens.
Darauf aufbauend werden Methoden und Architekturen aus dem Bereich des Deep-Learnings vorgestellt. Anhand ausgewählter Architekturen wird untersucht, ob diese auch mit spektralen Daten trainiert werden können. Weiterhin wird die Verwendung von Deep-Learning-Methoden zur Datenkompression thematisiert. In einem nächsten Schritt werden die komprimierten Daten genutzt, um damit Netzarchitekturen zu trainieren, welche bisher nur mit RGB-Daten kompatibel sind. Abschließend wird analysiert, ob die hochdimensionalen spektralen Daten bei der Szenenanalyse Vorteile gegenüber RGB-Daten bieten
Softwaresprachen und Technologien zu verstehen, die bei der Entwicklung einer Software verwendet werden, ist eine alltägliche Herausforderung für Software Engineers. Textbasierte Dokumentationen und Codebeispiele sind typische Hilfsmittel, die zu einem besseren Verständnis führen sollen. In dieser Dissertation werden verschiedene Forschungsansätze beschrieben, wie existierende Textpassagen und Codebeispiele identifiziert und miteinander verbunden werden können. Die Entdeckung solcher bereits existierender Ressourcen soll dabei helfen Softwaresprachen und Technologien auf einem konzeptionellen Level zu verstehen und zu vergleichen. Die Forschungsbeiträge fokussieren sich auf die folgenden Fragen, die später präzisiert werden. Welche existierenden Ressourcen lassen sich systematisch identifizieren, um strukturiertes Wissen zu extrahieren? Wie lassen sich die Ressourcen extrahieren? Welches Vokabular wird bereits in der Literatur verwendet, um konzeptionelles Wissen zur Struktur und Verwendung einer Software auszudrücken? Wie lassen sich Beiträge auf Wikipedia wiederverwenden? Wie können Codebeispiele zur Verwendung von ausgewählten Technologien auf GitHub gefunden werden? Wie kann ein Modell, welches Technologieverwendung repräsentiert, reproduzierbar konstruiert werden? Zur Beantwortung der Forschungsfragen werden qualitative Forschungsmethoden verwendet, wie zum Beispiel Literaturstudien. Des Weiteren werden Methoden entwickelt und
evaluiert, um relevante Artikel auf Wikipedia, relevante Textpassagen in der Literatur und Codebeispiele auf GitHub zu verlinken. Die theoretischen Beiträge werden in Fallstudien evaluiert. Die folgenden wissenschaftlichen Beiträge werden dabei erzielt: i.) Eine Referenzsemantik zur Formalisierung von Typen und Relationen in einer sprachfokussierten Beschreibung von Software; ii.) Ein Korpus bestehend aus Wikipedia Artikeln zu einzelnen Softwaresprachen; iii) Ein Katalog mit textuell beschriebenen Verwendungsmustern einer Technologie zusammen mit Messergebnissen zu deren Frequenz auf GitHub; iv.) Technologiemodelle, welche sowohl mit verschiedenen existierenden Codebeispielen als auch mit Textpassagen verknüpft sind.
Hintergrund und Fragestellung: Auf Grund hoher Prävalenzen und deutlicher einhergehender sozioökonomischer Folgen stellen multiple somatoforme Symptome ein ernst zu nehmendes Problem dar. Dem steht ein ausgeprägter Mangel an hochwertigen Interventionsstudien gegenüber. Mit der vorliegenden randomisierten kontrollierten Untersuchung zur Effektivität kognitiv-behavioraler Gruppentherapie im ambulanten Kontext sollen Mängel bisheriger Studien berücksichtigt und somit der Forschungsstand verbessert werden. Die Behandlung hat zum Ziel, über die Veränderung kognitiver, behavioraler und sozialer Reaktionsmuster kurz- und langfristig eine Verbesserung der körperlichen und psychischen Symptomatik, des körperlichen und psychischen Funktionsniveaus sowie krankheitsbezogener Denk- und Verhaltensmuster zu bewirken. Methode: 135 Patientinnen und Patienten nahmen an der randomisierten Kontrollgruppenstudie teil. Die manualisierten Interventionen umfassten acht 90-minütige Termine, die wöchentlich stattfanden. Verglichen wurden die Effekte einer Wartekontrollgruppe (WG), einer kognitiv-behavioralen Gruppenintervention (KBT) und einer Entspannungsgruppe (PMR). Ergebnis: Die kognitiv-behaviorale Behandlung führte im Vergleich zur Wartegruppe zu einer signifikanten Verbesserung der somatoformen Beschwerden (SOMS-7). Im Vergleich der Veränderung der subjektiven psychischen Gesundheit (SF12) in KBT und WG war die KBT tendenziell überlegen. Der differenzielle Vergleich zwischen KBT und PMR führte auf keiner der Outcome-Variablen zu einem signifikanten Ergebnis. Diskussion: Die untersuchte ambulante kognitiv-behaviorale Gruppenbehandlung hat positive Effekt auf die Körperbeschwerden bei Patientinnen und Patienten mit multiplen somatoformen Symptomen. Um Effektstärken zu erhöhen und differenzielle Unterschiede im Vergleich zur PMR zu ermöglichen wird in zukünftigen Untersuchungen u.a. eine Intensivierung der Behandlung diskutiert.
In der vorliegenden Untersuchung stehen geometrische Aufgaben und die in den seit 2004 national verbindlichen Bildungsstandards im Fach Mathematik für den Primarbereich formulierten Anforderungsbereiche im Zentrum. Diese zeigen die kognitiven Anforderungen an Schülerinnen und Schüler bei der Bearbeitung von Aufgaben auf, wobei zwischen „Reproduzieren", „Zusammenhänge herstellen" und „Verallgemeinern und Reflektieren" unterschieden wird (KMK, 2005a, S. 13).
Durch die drei Anforderungsbereiche sollen Lehrkräfte unter anderem die Chance zur Entwicklung einer anforderungsbezogenen Aufgabenkultur erhalten. Des Weiteren soll die Integration von Aufgaben aus allen drei Anforderungsbereichen im Unterricht angeregt und einem einseitig ausgerichteten Unterricht entgegen gewirkt werden.
Da die Anforderungsbereiche bislang nicht empirisch validiert wurden und in den Veröffentlichungen der Kultusministerkonferenz nicht klar zur Schwierigkeit von Aufgaben abgegrenzt werden (KMK, 2005a, S. 13; KMK, 2005b, S. 17; KMK, 2004b, S. 13), wurde in der vorliegenden Untersuchung zum einen die Möglichkeit der eindeutigen Zuordnung geometrischer Aufgaben zu den drei Anforderungsbereichen geprüft.
Zum anderen wurde untersucht, inwiefern die in den geometrischen Aufgaben enthaltenen kognitiven Anforderungen in Zusammenhang mit der empirischen Schwierigkeit von Aufgaben, der mathematischen Leistungsfähigkeit von Schülerinnen und Schülern, dem Geschlecht und den Anforderungen der im Unterricht gestellten Aufgaben stehen.
Vor dem Hintergrund der dem deutschen Mathematikunterricht nachgesagten Kalkül- beziehungsweise Fertigkeitsorientierung (Baumert et al., 2001, S. 296; Granzer & Walther, 2008, S. 9) und den damit einhergehenden Stärken deutscher Schülerinnen und Schüler im Bereich von Routineaufgaben und Schwächen im Bereich von Aufgaben mit höheren kognitiven Anforderungen (Grassmann et al., 2014, S. 11; Reiss & Hammer, 2013, S. 82; Schütte, 2008, S. 41) wurde zudem die Verteilung der im Rahmen der Untersuchung gewonnenen, schriftlich fixierten geometrischen Schulbuch- und Unterrichtsaufgaben auf die drei Anforderungsbereiche analysiert.
Durch die Betrachtung geometrischer Aufgaben konnte stichprobenartig der quantitative Geometrieanteil in den Schulbüchern und im Unterricht der vierten Jahrgangsstufe ermittelt werden, um so den Forschungsstand zum Stellenwert des Geometrieunterrichts (Maier, 1999; Backe-Neuwald, 2000; Roick, Gölitz & Hasselhorn, 2004) zu aktualisieren beziehungsweise zu ergänzen.
Schrift ist in ihrer Besonderheit verkannt, versteht man sie allein als Mittel zur Stillstellung gesprochener Sprache. Phänomene wie Schriftbildlichkeit, Operativität und die Physiognomie des Schriftbildes machen Schrift zu einem Medium. In der Entwicklung und in der Verwendung von Schriftgebrauchsformen in unterschiedlichen Kontexten werden sowohl die Eigenschaften, die Schriftzeichen mit verbalen Zeichen gemeinsam haben, als auch die Potentiale, die sie mit pikturalen Zeichen gemeinsam haben, genutzt. Daher werden in der vorliegenden Arbeit die Funktionalisierungsmöglichkeiten von Schriftgebrauchsformen vor dem Hintergrund der Symboltheorie Nelson Goodmans vorgestellt. Eine an die ästhetische Theorie angelehnte Herangehensweise ermöglicht es, gerade die bildlichen Aspekte von Schriftformen – die bislang in schrifttheoretischen Arbeiten meist als irrelevant ausgeblendet werden – zu berücksichtigen. Es wird ein dynamischer Kompetenzbegriff in Anlehnung an J.G. Schneider entwickelt, der alle Fähigkeiten umfasst, die benötigt werden, um Schriftgebrauchsformen erfolgversprechend verwenden zu können. Zu diesen Fähigkeiten gehören nicht nur grammatische und orthographische Kompetenz, sondern ebenso Geschmack und die Fähigkeit zur Analogiebildung. An Beispielen verschiedener Schriftverwendungen wird gezeigt, wie unterschiedlich Schriftgebrauchsformen eingesetzt werden können. So wird Schrift als Kulturtechnik darstellbar und mithin verdeutlicht, dass die Art und Weise, wie Menschen ihre Kultur, ihre Welt, aber auch ihre spezifische Umgebung und eigene Identität modellieren, von Schriftverwendungen geprägt und verändert wird.
Im Rahmen des vorliegenden Promotionsprojekts wird untersucht, welche Körperideologien in den drei unterschiedlichen Sportfeldern Hochleistungs-, Gesundheits- sowie Erlebnis- bzw. Funsport gegeben sind und welchen gesellschaftswirksamen Einfluss diese Ideologien aufweisen. Im Rahmen der zentralen Forschungsfrage wird des Weiteren erforscht, welche diskursiven Mittel bei Körperideologien im Sportbereich eingesetzt werden, welche Formationen in Bezug auf den Gegenstand, welche Äußerungsmodalitäten, Begrifflichkeiten und Strategien dem Diskurs zugrundeliegen und wer als TrägerIn oder AdressatIn des Diskurses identifiziert werden kann. Außerdem steht die Fragestellung im Fokus, welche Bezüge zu anderen Diskursen bestehen und um welche Diskurse es sich dabei handelt. Körperideologien des Sports werden in diesem Zusammenhang als Vorstellungen von einem (idealen) Körper betrachtet, welche durch den Sport übertragen und in der Gesellschaft verbreitet werden. Dabei wird zunächst der Begriff der Ideologie theoretisch hergeleitet und definiert sowie im Hinblick auf die vorliegende Arbeit als Weltdeutung mit einem Anspruch auf Alleinvertretung aufgefasst. Des Weiteren wird die Gouvernementalitätstheorie von Foucault aufgegriffen und für die Identifizierung der Macht- und Herrschaftsstrukturen in Bezug auf die untersuchten Körperideologien herangezogen. Dabei geht es darum, inwieweit die durch den Sport übermittelten Körperideologien dazu geeignet sind, in einem gouvernementalitätstheoretischen Sinne Führung zur Selbstführung zu ermöglichen. In einer sportsoziologischen Hinsicht beinhaltet der Sport leistungsbezogene Eigenschaften, welche in auf Effektivität abzielenden wirtschaftlichen Prozessen eine grundlegende Voraussetzung darstellen. Im Rahmen der Studie werden für jeden der drei genannten Sportbereiche jeweils zwei Individualsportarten ausgewählt, bei welchen die fokussierten Körperideologien untersucht werden. Während im Bereich des Hochleistungssports Schwimmen und Biathlon und im Bereich des Gesundheitssports Nordic Walking sowie Pilates betrachtet werden, stellen Stand Up Paddling und Parkour die fokussierten Sportarten im Bereich des Fun- bzw. Erlebnissports dar. Für die vorliegende Untersuchung kommt das Verfahren der kritischen Diskursanalyse (KDA) von Jäger zur Anwendung, da dieses für die Rekonstruktion von ideologischen Diskursen geeignet erscheint. Hierfür werden aus den drei Sportbereichen sowohl Print- als auch Onlinepublikationen sondiert und anhand von Strukturanalysen hinsichtlich verschiedener formaler und inhaltlicher Charakteristika untersucht. Des Weiteren wird mit Hilfe der tiefergehenden Feinanalyse jeweils ein Artikel pro Sportart explorativ analysiert, um verschiedene Muster zu vorhandenen Körperideologien in den fokussierten Sportarten und Sportbereichen identifizieren und anhand ausgewählter Textstellen belegen zu können. Bei den Ergebnissen zeigt sich, dass der Körper in den Hochleistungssportarten Schwimmen und Biathlon als formbares Material bzw. als Instrument zur Erbringung sportlicher Höchstleistungen betrachtet und dargestellt wird. Auch im Gesundheitssport wird der Körper als form- bzw. trainierbar hervorgehoben, wobei hierbei die Gesundheit im Fokus steht und mit Schlankheit gleichgesetzt wird. Im Bereich des Fun- bzw. Erlebnissports zeigt sich bei der Sportart Stand Up Paddling der Körper ebenfalls als zu bearbeitendes Objekt. Dagegen wird bei der Sportart Parkour der angenommene Normalismus von Jugendlichkeit anhand der Ergebnisse widerlegt. Deutlich wird, dass als diskursives Mittel vor allem der Körper als formbares Material erscheint. Dabei stehen in Bezug auf die Äußerungsmodalitäten und Begrifflichkeiten der Diskurse vor allem das Leistungsmaximum, aber auch Schlankheit und Fitness im Fokus. Die identifizierten Diskurse sind an die gesamte Gesellschaft adressiert und werden zudem durch sich selbst getragen, wodurch sie nicht nur die Realität abbilden, sondern auch ein Eigenleben in der Form entwickeln, dass sie als Träger von Wissen fungieren.
La tesis doctoral examina los tres manuscritos conocidos hasta hoy de la Explicación de la Guitarra, primer método para guitarra de seis órdenes conocido hasta escrito por Juan Antonio de Vargas y Guzmán. Fue escrito primeramente cuando Vargas y Guzmán era vecino de la ciudad de Cádiz, en 1773; y copiado en dos ocasiones cuando el autor era maestro de este instrumento en la Ciudad de Veracruz, en 1776. Después de 200 años, específicamente en 1974, se dio la primera referencia de un manuscrito de este método, fechado en Veracruz en 1776, que se resguardaba en la Biblioteca Newberry de Chicago. Años más tarde, ya en 1980, la doctora María Fernanda García de los Arcos encontró en el Archivo General de la Nación (AGN) la segunda copia manuscrita, con la misma información de lugar y fecha que la anterior, pero que contenía una diferencia sustancial con el primero: 13 Sonatas para guitarra y bajo continuo. El tercero de ellos, fechado en Cádiz en 1773, fue adquirido por el investigador Ángel Medina Álvarez en una librería anticuaria a fines de los años 70; pero no fue sino hasta 1989, que decidió dar noticias de él y publicarlo posteriormente. A su vez, este manuscrito contiene una diferencia sustancial: un Tratado de Rasgueado. Además de esas diferencias sustanciales, la Explicación de la Guitarra, en su conjunto contiene, un Tratado de Punteado y un Tratado de Bajo continuo para guitarra.
El estudio establece la relación entre cada uno de los manuscritos; define sus contenidos y analiza los principios y fundamentos que sustentan las innovaciones de ellos sobre los ya conocidos por el autor; establece la relación entre los contenidos teóricos y prácticos; compara su evolución; los sitúa en un contexto histórico; establece su relación con otros métodos de la misma índole, así como con métodos de características similares; compila sus fuentes y determina la influencia que tuvieron éstas sobre la Explicación de la Guitarra y ésta sobre aquellas; y determina su importancia histórica y teórica en la música para este instrumento.
Die laserinduzierte Plasmaspektroskopie (”Laser Induced Breakdown Spectroscopy”, im Folgenden auch ”LIBS” genannt) stellt eine schnelle und berührungslose Messmethode zur Elementanalyse von festen, flüssigen oder gasförmigen Stoffen unter normalen Umgebungsbedingungen ohne besondere Probenvorbereitung dar. Dazu wird ein gepulster Laser, dessen Intensität einen bestimmten Grenzwert überschreiten muss, auf eine Probe fokussiert. Das dort bestrahlte Material verdampft schlagartig und es bildet sich bei einer Temperatur von rund 10000 K ein Plasma aus. Die angeregten Atome und Ionen im Plasma strahlen bei der Rückkehr in energetisch niedrigere Zustände ein charakteristisches optisches Emissionsspektrum ab, welches über eine schnelle spektroskopische Analyse die Elementzusammensetzung des untersuchten Materials liefert. LIBS bietet in diesem Fall auch die Möglichkeit, ein unkompliziertes und bildgebendes Messverfahren aufzubauen, indem Elementverteilungen auf einer topographischen Oberfläche analysiert werden, um beispielsweise Materialübergänge, Einschlüsse oder Verschmutzungen sicher zu detektieren. Bei unebenen Oberflächen wird eine ständige Anpassung des Laserfokus an die Probenkontur benötigt, da die notwendige Intensität zur Erzeugung des Plasmas nur im Fokus aufgebracht werden kann. Als Grundlage dafür dient ein neu entwickelter Fokussieralgorithmus, der ohne jegliche Zusatzgeräte auskommt, und die Reproduzierbarkeit von LIBS-Messungen deutlich steigern kann, da die Messungen kontrolliert im Fokus stattfinden. Durch ihn ergeben sich neue Möglichkeiten des sogenannten „Element-Mappings", dem Erzeugen von Elementlandkarten, welche die Elementverteilungen in Falschfarben grafisch darstellen. Dabei ist das System nun nicht mehr auf eine ebene Oberfläche angewiesen, sondern kann beliebige Strukturen, auch mit scharfen Kanten und Löchern, sicher vermessen. Als Ergebnis erhält man ein flächiges Höhenprofil, welches zusätzlich die Elementinformationen für jeden Messpunkt beinhaltet. Dies erleichtert es dem Benutzer, gezielt Punkte von Interesse schnell wiederzufinden und zu analysieren. Die vorliegende Arbeit beschreibt die Entwicklung eines bildgebenden Low-Power-LIBSSystems mit niedriger Pulsenergie und hoher Pulsrate, welches sich mit dem dazugehörigen
Fokussieralgorithmus automatisiert an unebene Probenoberflächen anpassen kann. Als Ergebnisse werden die Analysen von ausgewählten metallhaltigen, geologischen, organischen und archäologischen Proben bzw. Fundstücken gezeigt.
Virtual Reality ist ein ein Bereich wachsenden Interesses, da es eine besonders intuitive Art der Benutzerinteraktion darstellt. Noch immer wird nach Lösungen zu technischen Problemstellungen gesucht, wie etwa der Latenz zwischen der Nutzereingabe und der Reaktion der Darstellung oder dem Kompromiss zwischen der visuellen Qualität und der erreichten Framerate. Dies gilt insbesondere für visuelle Effekte auf spekularen und halbtransparenten Oberflächen und in Volumen. Eine Lösung stellt das in dieser Arbeit vorgestellte verteilte Rendersystem dar, in dem die Bildsynthese in einen präzisen, aber kostenaufwändigen physikbasierten Renderthread mit niedriger Bildwiederholrate und einen schnellen Reprojektionsthread mit hoher Bildwiederholrate aufgeteilt wird, wodurch die Reaktionsgeschwindigkeit und Interaktivität erhalten bleiben. In diesem Zusammenhang werden zwei neue Reprojektionsverfahren vorgestellt, die einerseits Reflexionen und Refraktionen auf geraytracten Oberflächen und andererseits volumetrische Lichtausbreitung beim Raymarching abdecken. Das vorgestellte Setup kann in verschiedenen Gebieten zum Einsatz kommen um das VR Erlebnis zu verbessern. Im Zuge dieser Arbeit wurden drei innovative Trainingsanwendungen umgesetzt, um den Mehrwert von Virtual Reality im Bezug auf drei Stufen des Lernens zu untersuchen: Beobachtung, Interaktion und Zusammenarbeit. Für jede Stufe wurde ein interdisziplinäres Curriculum, das bislang mit traditionellen Medien unterrichtet wurde, in eine VR Umgebung übertragen, um zu untersuchen, wie gut sich virtuelle Realität als eine natürliche, flexible und effiziente Lernmethode eignet.
In der Dissertation “Leben am und vom Rhein. Aspekte der Alltagsgeschichte in St. Goar und St. Goarshausen vom Späten Mittelalter bis zum Ende des 17. Jahrhunderts” untersucht der Autor Richard Lange die Historie “kleiner Leute” in zwei Städten am Mittelrhein.
Die Studie konzentriert sich dabei auf die Geschichte jener Berufe, die direkt vom Rhein abhängig waren, also in erster Linie auf das Zollpersonal, die Kranbediensteten sowie die Salmenfischer. Hinzu kommen einige weitere Berufszweige wie Treidler, Fährleute, Schiffsleute sowie Händler und Betreiber von Wirtshäusern.
Für all diese Gruppen wird, soweit anhand der Quellen möglich, der Alltag ihres Berufes nachgezeichnet. Auf diesem Wege wird versucht, das bunte Bild, das sich auf dem Rhein bisweilen bot, darzustellen und gleichzeitig aufzuzeigen, in welcher nicht zu unterschätzenden Weise der Rhein das ganze Leben in St. Goar und St. Goarshausen über die Jahrhunderte hinweg beeinflusste.
Gibt es unterschiedliche Qualitäten für das Wohnumfeld von Bewohnern ländlicher Siedlungen in der südlichen Pfalz? Wie könnte man diese Unterschiede quantifizierbar machen? Dies sind die beiden zentralen Fragen dieser Arbeit. Die Raummerkmale sollen zunächst objektiv erfasst werden. In einem weiteren Schritt werden die subjektiven Einschätzungen der Bevölkerung ermittelt und schließlich mit der objektiven Aufnahme verglichen. Zu diesem Zweck wur¬den 12 Ortschaften im Bereich der südlichen Pfalz ausgewählt. Jeweils vier Siedlungen verteilen sich auf den Pfälzerwald (Wilgartswiesen, Bundenthal, Ludwigswinkel, Silz), auf die Weinstraße (Siebeldingen, Göcklingen, Oberotterbach, Pleisweiler-Oberhofen) und auf die Rheinebene (Kapsweyer, Winden, Hayna, Büchelberg). Ein klar umgrenzter geographischer Raum wurde um jede Siedlung im Hinblick auf natürliche Gunst-/Ungunstfaktoren (aus den Bereichen Geologie, Boden, Geomorphologie, Klima, Hydrologie und Vegetation) und kulturhistorische Gunst-/Ungunstfaktoren (aus den Bereichen Siedlung, Flur, Mensch) mit ausgewählten aussagekräftigen Parametern untersucht. Diese wurden zu Merkmalskomplexen zusammengeführt und die dabei gewonnenen Erkenntnisse mit einem Bewertungsraster verknüpft und den einzelnen Orten zugeordnet. Die menschlichen Einschätzungen der gegebenen und auch der gemachten Umwelt sollen in die Überlegungen mit einfließen, und deshalb sind Befragungen der Einwohner durchgeführt worden. So erhielt man Erkenntnisse sowohl über die objektiven Lebensraumbedingungen als auch über die subjektiven Lebensraumbewertungen des Untersuchungsraumes. Eine zentrale Rolle spielt hier also der Raum mit seinen Verflechtungen, Interaktionen und Systembeziehungen für das menschliche Leben darin. Zur Ermittlung der objektiven Merkmale der Siedlungen wurden die folgenden Parameter erfasst: Ortseingänge, Naturnähe, Vielfalt, Eigenart, Ästhetik, Klima, Raum, Lärm/Luft, Erdbeben und Ertrag. Orte mit hohem Waldanteil (v. a. Pfälzerwaldorte) wiesen bessere Bewertungen in den Kategorien Naturnähe, Vielfalt, Ästhetik und Klima auf. Orte mit höheren Reb- und Ackerfluranteilen schnitten bei der Eigenart und dem Ertrag besser ab. Deshalb wurden die Orte im Pfälzerwald insgesamt und durchschnittlich am besten bewertet, gefolgt von den Siedlungen der Rheinebene und der Weinstraße. Diese Ergebnisse wurden anschließend mit den Ergebnissen der Befragungen in den einzelnen Orten, welche selbst sehr unterschiedlich ausfielen, verglichen. Dabei musste festgestellt werden, dass die Bewertung der lebensräumlichen Gegebenheiten durch die Befragten in der Regel besser ausfiel als deren objektive Einstufung. Am zufriedensten sind und am besten bewertet haben die Bewohner der Pfälzerwaldorte, gefolgt von denen der Rheinebene und der Weinstraße. Diese somit feststellbare positive Korrelation lässt vermuten, dass zukünftiges Planen im Meinungsbild der Bevölkerung, die schließlich besonders davon betroffen ist, auch akzeptiert werden kann. Öffentlichkeitsarbeit und die Aufklärung der Bevölkerung in lebensraumrelevanten Angelegenheiten sollten dabei nicht vernachlässigt werden.
In Europa ist die moderne Landwirtschaft eine der häufigsten Formen der Landnutzung, allerdings wird sie auch mit negativen Auswirkungen auf die Biodiversität in Agrarlandschaften in Verbindung gebracht. Lepidoptera (Nacht- und Tagfalter) bilden eine artenreiche Gruppe in Agrarsystemen, doch die Populationen vieler Falterarten sind rückläufig. Zu den Zielen der vorliegenden Arbeit gehörte es, Feldsäume in Agrarlandschaften zu erfassen und zu charakterisieren, Effekte realistischer Eintragsraten von Agrarchemikalien (Dünger und Pestizide) in Feldsäumen auf Lepidoptera zu untersuchen und Informationen zu den Bestäubungsleistungen von Nachtfaltern zu sammeln.
Feldsäume sind zwar häufige semi-natürliche Habitatelemente in Agrarökosystemen, aber es gibt nur wenige Informationen über ihre Struktur, Größe und Breite. Daher wurden Feldsäume in zwei deutschen Agrarlandschaften (je 4.000 ha) erfasst und es zeigte sich, dass ein Großteil dieser Säume schmaler als 3 m war (Rheinland-Pfalz: 85% der Feldsaumlänge, Brandenburg: 45% der Feldsaumlänge). In Deutschland müssen Landwirte bei solchen schmalen Feldsäumen keine Maßnahmen zur Verminderung von Pestizideinträgen (z.B. Pufferzonen) umsetzen. Agrarchemikalien werden deshalb insbesondere durch Überspritzung und Abdrift in schmale Feldsäume eingetragen. In solchen schmalen Feldsäumen konnten zwar Raupen nachgewiesen werden, doch ihre mittlere Abundanz war um 35 – 60% niedriger als auf Vergleichsflächen (Wiesen). Im Rahmen eines Feldversuchs sowie in Laborexperimenten zeigte sich, dass Raupen sensitiv auf Insektizideinträge (Pyrethroid, Lambda-Cyhalothrin) regieren. Zudem wurden auf insektizid-behandelten Silene latifolia Pflanzen 40% weniger Eier von Hadena bicruris Faltern gefunden als auf unbehandelten Kontrollpflanzen und die Blüten der behandelten Pflanzen wurden seltener von Nachtfaltern bestäubt. Lepidoptera können neben Insektizid- auch von Herbizideinträgen beeinflussen werden. Ranunculus acris L. Pflanzen wurden mit subletalen Raten eines Sulfonylurea-Herbizids behandelt und dann als Futterpflanzen für Mamestra brassicae L. Raupen genutzt; dies führte zu signifikant geringeren Raupengewichten, einer verlängerten Zeit bis zur Verpuppung und einer verlängerten Gesamtentwicklungsdauer verglichen mit Raupen, die an Kontrollpflanzen fraßen. Ursachen hierfür waren möglicherweise ein geringerer Nährwert oder eine höhere Konzentration von Abwehrstoffen in den herbizid-behandelten Pflanzen. Düngereinträge führten zu einer geringfügigen Erhöhung der Raupenabundanz in dem Feldversuch. Langfristig reduziert Dünger jedoch die Pflanzenvielfalt und dadurch wahrscheinlich auch die Raupendiversität.
Nachtfalter wie Noctuidae und Sphingidae sind Bestäuber für zahlreiche Pflanzenarten, z.B. viele Orchidaceae und Caryophyllaceae. Obwohl sie in den Agrarökosystemen der gemäßigten Breiten wahrscheinlich keine bedeutenden Bestäuber für Kulturpflanzen sind, können Nachtfalter aber für die Bestäubung der Wildpflanzen in semi-natürlichen Habitaten von Relevanz sein. Dabei wird die Rolle der Nachtfalter als Bestäuber zurzeit vermutlich unterschätzt und es werden Langzeitstudien benötigt, um die zeitlichen Schwankungen in ihrer Abundanz und Artenzusammensetzung berücksichtigen zu können.
Lepidopteren bilden eine artenreiche Organismengruppe in Agrarlandschaften, die auch wesentliche Ökosystem-Dienstleistungen erfüllen. Um Nacht- und Tagfalter besser zu schützen, sollten Einträge von Agrarchemikalien in (schmale) Feldsaumhabitate reduziert werden, beispielsweise durch Maßnahmen zur Risikominderung von Pestiziden und Agrarumweltprogramme.
Lernen in Citizen Science
(2021)
Unsere Welt und die technischen und naturwissenschaftlichen Erkenntnisse verändern sich aktuell sehr schnell. Dies betrifft auch die naturwissenschaftliche Forschung und erfordert vermehrten Einsatz der Wissenschaftskommunikation und der Bildung. Ein Instrument der Wissenschaftskommunikation und eine Erweiterung des schulischen Unterrichts kann die Beteiligung von Freiwilligen bei wissenschaftlichen Arbeiten sein, welches auch als Citizen Science (CS) bezeichnet wird. CS Projekte erfreuen sich einer wachsenden Beliebtheit, unter anderem von Schulen (Burger, 2016). Dabei werden unter anderem die Förderung des Kontextwissens, der Scientific Literacy, der Umwelteinstellung und des –verhaltens versprochen (Peter et al., 2019). Interventionsstudien zu den Bildungspotentialen kommen jedoch zu unterschiedlichen Ergebnissen (Gommermann & Monroe, 2012; Turrini et al., 2018). Diese inkonsistenten Ergebnisse der Studien können auf die unterschiedliche Gestaltung der einzelnen evaluierten CS Projekte zurückgeführt werden. Es wird angenommen, dass Teilnehmende, die in mehr Schritten des wissenschaftlichen Prozesses eingebunden werden, ein größeres Bildungspotential haben, als Teilnehmende, die nur in wenige Schritte eingebunden werden (Burger, 2016; Shirk & Bonney, 2018). Bonney, Ballard et al. (2009) haben dazu ein dreistufiges Modell entwickelt. Das Modell wird unter anderem auch von Shirk et al. (2012) und Jordan et al. (2015) unterstützt, ist jedoch bezüglich der Lernwirksamkeit nicht empirisch überprüft (Edwards et al., 2018; Jordan et al., 2015). Deswegen schließt die Forschungsfrage dieser Studie hier an: Unter welchem Partizipationsansatz sind die Lerneffekte in einem CS Projekt am größten für Schülerinnen und Schüler? Um diese Frage zu beantworten, wurde ein CS Projekt mit drei Experimentalgruppen geplant und durchgeführt. Insgesamt nahmen 199 Schülerinnen und Schüler an dem Projekt teil. Innerhalb der Interventionsstudie wurden die Schülerinnen und Schüler zu drei Testzeitpunkten zur Umwelteinstellung und -verhalten, Nature of Science, Einstellung zur Wissenschaft und dem Kontextwissen befragt. Die Analysen über die Messzeitpunkte zeigen keine statistisch signifikanten Einflüsse der Experimentalgruppen auf die abhängigen Variablen. Jedoch ist die Teststärke bei allen Tests zu gering, um abschließende Aussagen über die Annahmen zu treffen. Wird jedoch die generelle Wirkung der Intervention betrachtet, zeigen sich signifikante Effekte auf alle Schülerinnen und Schüler, unter anderem steigt das Verständnis über Nature of Science. Diese Ergebnisse stimmen mit früheren Schlussfolgerungen von Phillips (2017), Phillips et al. (2019) und Del Bianco (2018) überein, die ebenfalls Zweifel an dem Modell von Bonney, Ballard et al. (2009) äußerten. Innerhalb dieses CS Projektes konnte sich keiner der drei Partizipationsansätze bezüglich des Bildungspotential für Schülerinnen und Schüler hervorheben lassen. Jedoch ist diese Studie unter anderem durch die geringe Teststärke limitiert und endgültige Aussagen bedürfen weiterer systematischer Forschung.
Das Lernen und Verstehen dynamischer Sachverhalte kann sowohl anhand von statischen Bildern als auch von Animationen erfolgen. Da die bisher vorliegenden Befunde keine eindeutige Überlegenheit der einen oder der anderen Repräsentationsform erkennen lassen, sind differenziertere Wirkungsanalysen erforderlich. Grundannahme der vorliegenden Dissertation war, dass beide Darstellungsformen unterschiedlich gut für den Aufbau dynamischer mentaler Modelle einerseits und den Aufbau dynamischer perzeptueller Repräsentationen andererseits geeignet sind. Es wurde erstens angenommen, dass dynamische mentale Modelle keine kontinuierlichen mentalen Simulationen ermöglichen, sondern aus einer Sequenz von diskreten prototypischen Prozess-Zuständen (sog. "key states") bestehen und deshalb besser anhand statischer Bilder dieser "key states" als anhand einer Animation konstruiert werden können. Zweitens wurde angenommen, dass perzeptuelle Repräsentationen dynamischer Sachverhalte aus dynamischen Schemata bestehen, die besser anhand einer Animation als anhand von statischen Bildern gebildet werden können. Als Indikator für die Qualität mentaler Modelle wurden Inferenzaufgaben verwendet, bei denen durch Manipulation dieser Modelle neue Informationen zu erschließen sind. Als Indikator für die Qualität dynamischer perzeptueller Repräsentationen wurden Leistungen bei der Kategorisierung von Bewegungsabläufen verwendet. Die erste Annahme wurde am Beispiel der synaptischen Informationsübertragung (nach einer Vorpilot- und Pilotstudie) in einer ersten Hauptstudie mit 61 Probanden überprüft.
Die Ergebnisse weisen darauf hin, dass die Hypothese eher bei Probanden mit höherem Vorwissen als bei solchen mit niedrigerem Vorwissen zutrifft. Die zweite Annahme wurde am Beispiel des Erkennens der Gangart von Pferden (nach einer Pilotstudie) in einer zweiten Hauptstudie mit 52 Probanden überprüft. Die Ergebnisse zeigten durchwegs Unterschiede in der erwarteten Richtung, die jedoch nicht oder nur marginal signifikant sind. Allerdings führten die Animationen zu einer hochsignifikant geringeren kognitiven Belastung als statische Bilder. Darüber hinaus zeigten sich signifikante Interaktionen mit den räumlichen Fähigkeiten: Probanden mit geringeren Fähigkeiten profitieren bei der Kategorisierung von Bewegungsabläufen bedeutsam mehr von Animationen als von statischen Bildern.
This study had two main aims. The first one was to investigate the quality of lesson plans. Two important features of lesson plans were used as a basis to determine the quality of lesson plans. These are adaptability to preconditions and cognitive activation of students. The former refers to how the planning teacher considers the diversity of students pre-existing knowledge and skills. The latter refers to how the planning teacher sequences deep learning tasks and laboratory activities to promote the cognitive activation of students.
The second aim of the study was to explore teachers thinking about and explanation of externally generated feedback data on their students’ performance. The emphasis here was to understand how the teachers anticipate planning differentiated lessons to accommodate the variations in students learning outcomes revealed by the feedback data.
The study followed a qualitative approach with multiple sources of data. Concept maps, questionnaires, an online lesson planning tool, standardized tests, and semi-structured interviews were the main data collection instruments used in the study. Participants of this study were four physics teachers teaching different grade levels. For the purpose of generating feedback for the participant teachers, a test was administered to 215 students. Teachers were asked to plan five lessons for their ongoing practices. The analysis showed that the planned lessons were not adapted to the diversity in students pre-existing knowledge and skills. The analysis also indicated that the lessons planned had limitations with regard to cognitive activation of students. The analysis of the interview data also revealed that the participant teachers do not normally consider differentiating lessons to accommodate the differences in students learning, and place less emphasis on the cognitive activation of students. The analysis of the planned lessons showed a variation in teachers approach in integrating laboratory activities in the sequence of the lessons ranging from a complete absence through a demonstrative to an investigative approach. Moreover, the findings from the interviews indicated differences between the participant teachers espoused theory (i.e. what they said during interview) and their theory- in –use (i.e. what is evident from the planned lessons). The analysis of the interview data demonstrated that teachers did not interpret the data, identify learning needs, draw meaningful information from the data for adapting (or differentiating) instruction. They attributed their students’ poor performance to task difficulty, students’ ability, students’ motivation and interest. The teachers attempted to use the item level and subscale data only to compare the relative position of their class with the reference group. However, they did not read beyond the data, like identifying students learning needs and planning for differentiated instruction based on individual student’s performance.
Kapitel 1 führt - unter Berücksichtigung gesamtgesellschaftlicher Tendenzen im Hinblick auf verschiedene Lebensformen - zunächst in das Thema ein. Auf Basis der Tatsache geringer Scheidungsraten von Managerehen werden unterschiedliche Annahmen formuliert, die für die Ehestabilität dieser Paare eine Rolle spielen könnten.
Im Weiteren werden hier wesentliche Fragestellungen zum Thema der vorliegenden Arbeit und deren Zielsetzung begründet. Kapitel 2 fasst den aktuellen Forschungsstand zusammen. Bisherige Untersuchungsergebnisse zum Themenfeld Manager und deren Ehen sowie auch der Ehestabilitätsforschung werden hier vorgestellt und auf ihre Relevanz hin befragt. Ziel ist es, bereits gewonnene Ergebnisse nach ihrer Bedeutung für diese Arbeit zu bewerten und entsprechende Fragestellungen daraus abzuleiten. Kapitel 3 setzt sich mit theoretischen Ansätzen zur Erklärung von Ehestabilität auseinander. Vor dem Hintergrund verschiedener Handlungsmodelle stellt sich die Frage, ob die Stabilität von Managerehen das Ergebnis von wertorientiertem, zweckorientiertem oder gar traditionalem Handeln ist. Insbesondere werden hier der kultursoziologische Ansatz von Schreiber und die Rational Choice Theorie von Esser als maßgebliche theoretische Grundlage für den Leitfaden und die Auswertung des empirischen Materials vorgestellt und erläutert. Im Anschluss daran erklärt Kapitel 4 die Voraussetzungen und den Ablauf der Erhebung der Daten und beschreibt die Paare des vorliegenden Samples. Als Methode der Befragung wurde das Leitfadeninterview gewählt, welches begründet und von seiner Konzeption wie auch seinen Inhalten her beschrieben wird. Die Erläuterung zur Durchführung der Interviews und zur Methode der Analyse der Gespräche bilden den Abschluss dieses Kapitels. Kapitel 5 führt sodann in das vorliegende empirische Material ein. Es dient der Beschreibung der interviewten Paare in der Darstellungsform von insgesamt zehn Paarportraits. Ziel hierbei ist zum einen, die Beziehungswelt der Paare abzubilden, zum anderen zu zeigen, dass es bei allen Befragten prägnant wiederkehrende Strukturelemente innerhalb der Beziehung gibt. Diese geben einen ersten Hinweis auf die besonderen Stabilitätsfaktoren von Managerehen. Das folgende Kapitel 6 fasst die Erfolgsfaktoren ehelicher Stabilität der befragten Paare zusammen. Es kann aufzeigen, wie die Faktoren Heiratsmotivation, Rollenverteilung, Paarinteraktion, Statussymbole, soziales Umfeld, Beziehungswünsche und -visionen von den Paaren beschrieben werden und welche Rolle sie im Hinblick auf die Ehestabilität der Paare spielen. Hier wird deutlich dass es bei den Aussagen der Befragten große Strukturähnlichkeiten gibt, die es erlauben von einem Sondertypus "stabile Ehe" zu sprechen. In einer zusammenfassenden Beschreibung wird herausgestellt, welche Merkmale diesen besonderen Typus kennzeichnen und was ihn letztendlich charakterisiert. Managerehepaare leben in einer erfolgreichen Lebensform zusammen. Sie stellen einen Sondertypus unter den bisher bekannten Lebensformen dar. Das Schlusskapitel 7 fasst die Ergebnisse dieser Arbeit zusammen und pointiert sie in der Konstruktion einer managerspezifischen Lebensform, für die der Name LTA (Living Together Apart)20 gewählt wurde.
In der vorliegenden Arbeit wurde untersucht, inwieweit durch lokale Wirtschaftsförderungsinitiativen in Namibia Projekte zur Minderung von Treibhausgasen angestoßen werden können. Dabei wurde insbesondere geprüft, ob der Clean Development Mechanism (CDM) des Kyotoprotokolls sinnvoll genutzt werden kann.
Dazu wurden zuerst die Faktoren (Potential für Minderungsprojekte, Geschäfts- und Investitionsklima, institutionelle Rahmenbedingungen, etc.), die die Initiierung von Projekten fördern oder behindern können, diskutiert. In einem weiteren Schritt wurde analysiert, welche Einstellung Klima- und Energieexperten und Personen, die im Bereich lokaler und regionaler Wirtschaftsförderung tätig sind, zur Forschungsfrage haben. Dazu wurden 229 Fragebögen, 28 individuelle Interviews und eine Fokusgruppendiskussion mit 20 Teilnehmern ausgewertet. Des Weiteren wurde die praktische Umsetzbarkeit entsprechender Maßnahmen mit Hilfe einer vom Autor initiierten "real life"-Fallstudie untersucht. Während der Entwicklung einer lokalen Wirtschaftsförderungsstrategie in der namibischen Region Otjozondjupa wurde auch das dortige Potential für Treibhausgasminderungsprojekte eingeschätzt, darauf basierend wurden Projektideen entwickelt und deren nachhaltige soziale und wirtschaftliche Auswirkungen beurteilt. Erfolg versprechende Projekte wurden anschließend in die Strategie zur Implementierung integriert.
Aufgrund verschiedener Faktoren wie beispielsweise der Komplexität von CDM, dem geringen Ausstoß von Treibhausgasen in Namibia, der schlechten Marktsituation für Emissionsrechte und unzureichender finanzieller Mittel hat die Initiierung von CDM-Projekten durch lokale Wirtschaftsförderung in Namibia den im Rahmen der vorliegenden durchgeführten Untersuchungen zufolge wenig Aussicht auf Erfolg. Jedoch besteht seitens der Akteure die grundsätzliche Bereitschaft, Minderungsprojekte in lokale Wirtschaftsförderung zu integrieren, wenn damit vorrangig die Ziele der Wirtschaftsförderung erreicht werden. Die Untersuchung zeigte, dass lokal initiierte Minderungsprojekte kaum zur Schaffung von Einkommensquellen oder Arbeitsplätzen beitragen. Stattdessen sollten eher nationale strategische Ziele verfolgt werden, wie z. B. eine flächendeckende Elektrizitätsversorgung oder die Verminderung der Abhängigkeit von Stromimporten. Dazu müsste bei lokaler Wirtschaftsförderung zukünftig auch der Energiesektor eine größere Rolle spielen, lokale Verwaltungen müssten die Verantwortung für die Initiierung von Energieprojekten übernehmen, nationale und lokale Behörden müssten effizienter zusammenarbeiten und die lokalen Rahmenbedingungen müssten so verbessert werden, dass der Privatsektor bereit ist, seine Rolle in der Wirtschaftsförderung zu übernehmen. Darüber hinaus sollten die Interessen der Bevölkerung berücksichtigt und alle Akteure frühzeitig in Entscheidungsprozesse eingebunden werden.
In dieser Arbeit werden die schottischen Liedbearbeitungen Ludwig van Beethovens auf ihre möglichen gälischen Vorläufer untersucht und in ihrem historischen Kontext aus einer gälischen Perspektive betrachtet. Ihre Liedbiographien werden um Vorläufer ergänzt und vervollständigt, die vom dem schottischen Auftraggeber Beethovens, George Thomson teilweise vorsätzlich unterschlagen wurden. Gründe hierfür sind in der politischen und kulturellen Unterdrückung der gälischen Sprachgemeinschaft Schottlands zu finden. Handelt es sich wirklich um anonyme Volkslieder, oder auch um Kompositionen bekannter Musiker aus der gälischen Kultur? Welche Veränderungen erfuhren sie im Zuge der Anonymisierung und der Degradierung zur Volksmusik, sowie der anschließenden Neuausrichtung in der schottischen Nationalmusik? Zu 12 der schottischen Lieder Beethovens sind ausführliche Liedbiographien mit allen gälischen Liedtexten, deutscher Übersetzung und den historischen Hintergründen der gälischen Vorläufer und ihrer Notierungen entstanden.
The Web contains some extremely valuable information; however, often poor quality, inaccurate, irrelevant or fraudulent information can also be found. With the increasing amount of data available, it is becoming more and more difficult to distinguish truth from speculation on the Web. One of the most, if not the most, important criterion used to evaluate data credibility is the information source, i.e., the data origin. Trust in the information source is a valuable currency users have to evaluate such data. Data popularity, recency (or the time of validity), reliability, or vagueness ascribed to the data may also help users to judge the validity and appropriateness of information sources. We call this knowledge derived from the data the provenance of the data. Provenance is an important aspect of the Web. It is essential in identifying the suitability, veracity, and reliability of information, and in deciding whether information is to be trusted, reused, or even integrated with other information sources. Therefore, models and frameworks for representing, managing, and using provenance in the realm of Semantic Web technologies and applications are critically required. This thesis highlights the benefits of the use of provenance in different Web applications and scenarios. In particular, it presents management frameworks for querying and reasoning in the Semantic Web with provenance, and presents a collection of Semantic Web tools that explore provenance information when ranking and updating caches of Web data. To begin, this thesis discusses a highly exible and generic approach to the treatment of provenance when querying RDF datasets. The approach re-uses existing RDF modeling possibilities in order to represent provenance. It extends SPARQL query processing in such a way that given a SPARQL query for data, one may request provenance without modifying it. The use of provenance within SPARQL queries helps users to understand how RDF facts arederived, i.e., it describes the data and the operations used to produce the derived facts. Turning to more expressive Semantic Web data models, an optimized algorithm for reasoning and debugging OWL ontologies with provenance is presented. Typical reasoning tasks over an expressive Description Logic (e.g., using tableau methods to perform consistency checking, instance checking, satisfiability checking, and so on) are in the worst case doubly exponential, and in practice are often likewise very expensive. With the algorithm described in this thesis, however, one can efficiently reason in OWL ontologies with provenance, i.e., provenance is efficiently combined and propagated within the reasoning process. Users can use the derived provenance information to judge the reliability of inferences and to find errors in the ontology. Next, this thesis tackles the problem of providing to Web users the right content at the right time. The challenge is to efficiently rank a stream of messages based on user preferences. Provenance is used to represent preferences, i.e., the user defines his preferences over the messages' popularity, recency, etc. This information is then aggregated to obtain a joint ranking. The aggregation problem is related to the problem of preference aggregation in Social Choice Theory. The traditional problem formulation of preference aggregation assumes a I fixed set of preference orders and a fixed set of domain elements (e.g. messages). This work, however, investigates how an aggregated preference order has to be updated when the domain is dynamic, i.e., the aggregation approach ranks messages 'on the y' as the message passes through the system. Consequently, this thesis presents computational approaches for online preference aggregation that handle the dynamic setting more efficiently than standard ones. Lastly, this thesis addresses the scenario of caching data from the Linked Open Data (LOD) cloud. Data on the LOD cloud changes frequently and applications relying on that data - by pre-fetching data from the Web and storing local copies of it in a cache - need to continually update their caches. In order to make best use of the resources (e.g., network bandwidth for fetching data, and computation time) available, it is vital to choose a good strategy to know when to fetch data from which data source. A strategy to cope with data changes is to check for provenance. Provenance information delivered by LOD sources can denote when the resource on the Web has been changed last. Linked Data applications can benefit from this piece of information since simply checking on it may help users decide which sources need to be updated. For this purpose, this work describes an investigation of the availability and reliability of provenance information in the Linked Data sources. Another strategy for capturing data changes is to exploit provenance in a time-dependent function. Such a function should measure the frequency of the changes of LOD sources. This work describes, therefore, an approach to the analysis of data dynamics, i.e., the analysis of the change behavior of Linked Data sources over time, followed by the investigation of different scheduling update strategies to keep local LOD caches up-to-date. This thesis aims to prove the importance and benefits of the use of provenance in different Web applications and scenarios. The exibility of the approaches presented, combined with their high scalability, make this thesis a possible building block for the Semantic Web proof layer cake - the layer of provenance knowledge.
Terrainklassifikation mit Markov Zufallsfeldern für autonome Roboter in unstrukturiertem Terrain
(2015)
Diese Doktorarbeit beschäftigt sich mit dem Problem der Terrainklassifikation im unstrukturierten Außengelände. Die Terrainklassifikation umfasst dabei das Erkennen von Hindernissen und flachen Bereichen mit der einhergehenden Analyse der Bodenoberfläche. Ein 3D Laser-Entfernungsmesser wurde als primärer Sensor verwendet, um das Umfeld des Roboters zu vermessen. Zunächst wird eine Gitterstruktur zur Reduktion der Daten eingeführt. Diese Datenrepräsentation ermöglicht die Integration mehrerer Sensoren, z.B. Kameras für Farb- und Texturinformationen oder weitere Laser-Entfernungsmesser, um die Datendichte zu erhöhen. Anschließend werden für alle Terrainzellen des Gitters Merkmale berechnet. Die Klassifikation erfolgt mithilfe eines Markov Zufallsfeldes für Kontextsensitivität um Sensorrauschen und variierender Datendichte entgegenzuwirken. Ein Gibbs-Sampling Ansatz wird zur Optimierung eingesetzt und auf der CPU sowie der auf GPU parallelisiert um Ergebnisse in Echtzeit zu berechnen. Weiterhin werden dynamische Hindernisse unter Verwendung verschiedener State-of-the-Art Techniken erkannt und über die Zeit verfolgt. Die berechneten Informationen, wohin sich andere Verkehrsteilnehmer bewegen und in Zukunft hinbewegen könnten, werden verwendet, um Rückschlüsse auf Bodenoberflächen zu ziehen die teilweise oder vollständig unsichtbar für die Sensoren sind. Die Algorithmen wurden auf unterschiedlichen autonomen Roboter-Plattformen getestet und eine Evaluation gegen von Menschen annotierte Grundwahrheiten von Karten aus mehreren Millionen Messungen wird präsentiert. Der in dieser Arbeit entwickelte Ansatz zur Terrainklassifikation hat sich in allen Anwendungsbereichen bewährt und neue Erkenntnisse geliefert. Kombiniert mit einem Pfadplanungsalgorithmus ermöglicht die Terrainklassifikation die vollständige Autonomie für radgetriebene Roboter in natürlichem Außengelände.
The semantic web and model-driven engineering are changing the enterprise computing paradigm. By introducing technologies like ontologies, metadata and logic, the semantic web improves drastically how companies manage knowledge. In counterpart, model-driven engineering relies on the principle of using models to provide abstraction, enabling developers to concentrate on the system functionality rather than on technical platforms. The next enterprise computing era will rely on the synergy between both technologies. On the one side, ontology technologies organize system knowledge in conceptual domains according to its meaning. It addresses enterprise computing needs by identifying, abstracting and rationalizing commonalities, and checking for inconsistencies across system specifications. On the other side, model-driven engineering is closing the gap among business requirements, designs and executables by using domain-specific languages with custom-built syntax and semantics. In this scenario, the research question that arises is: What are the scientific and technical results around ontology technologies that can be used in model-driven engineering and vice versa? The objective is to analyze approaches available in the literature that involve both ontologies and model-driven engineering. Therefore, we conduct a literature review that resulted in a feature model for classifying state-of-the-art approaches. The results show that the usage of ontologies and model-driven engineering together have multiple purposes: validation, visual notation, expressiveness and interoperability. While approaches involving both paradigms exist, an integrated approach for UML class-based modeling and ontology modeling is lacking so far. Therefore, we investigate the techniques and languages for designing integrated models. The objective is to provide an approach to support the design of integrated solutions. Thus, we develop a conceptual framework involving the structure and the notations of a solution to represent and query software artifacts using a combination of ontologies and class-based modeling. As proof of concept, we have implemented our approach as a set of open source plug-ins -- the TwoUse Toolkit. The hypothesis is that a combination of both paradigms yields improvements in both fields, ontology engineering and model-driven engineering. For MDE, we investigate the impact of using features of the Web Ontology Language in software modeling. The results are patterns and guidelines for designing ontology-based information systems and for supporting software engineers in modeling software. The results include alternative ways of describing classes and objects and querying software models and metamodels. Applications show improvements on changeability and extensibility. In the ontology engineering domain, we investigate the application of techniques used in model-driven engineering to fill the abstraction gap between ontology specification languages and programming languages. The objective is to provide a model-driven platform for supporting activities in the ontology engineering life cycle. Therefore, we study the development of core ontologies in our department, namely the core ontology for multimedia (COMM) and the multimedia metadata ontology. The results are domain-specific languages that allow ontology engineers to abstract from implementation issues and concentrate on the ontology engineering task. It results in increasing productivity by filling the gap between domain models and source code.
Massenprozessmanagement
(2015)
Vorliegende Dissertation beantwortet die Forschungsfrage, welche grundlegend geeigneten Vorgehensweisen und notwendigen Informationstechnologien für das Management von hohen Anzahlen an Geschäftsprozessen (Mass Process Management, MBPM) in Dienstleistungsun-ternehmen zu berücksichtigen sind. Es konnte gezeigt werden, dass zur Bearbeitung von Massenprozessen eine spezielle, Methoden aus der Fertigungsindustrie verwendende Vorgehensweise notwendig ist. Das Forschungsziel, die Entwicklung einer MBPM-Vorgehensweise für Dienstleistungsunternehmen, wurde unter Anwendung des Forschungsansatzes Design Science Research erreicht und wird in der Dissertation in aufeinander aufbauenden Schritten erläutert. Zur Entwicklung der MBPM-Vorgehensweise wurde eine Langzeit-Tiefenfallstudie bei einem Prozess-Outsourcing-Dienstleister erstellt, um aus dessen Vorgehen Erkenntnisse zu gewinnen. Outsourcing-Unternehmen müssen ihre Dienstleistungen (Produkte) besonders effizient und effektiv erstellen, da sie sonst ihre Produkte nicht zu attraktiven Konditionen anbieten können. Es hat sich gezeigt, dass die fabrikorientierte Vorgehensweise des Outsourcing-Dienstleisters über den Betrachtungszeitraum von zehn Jahren dazu geeignet war, hohe Prozessmengen in höchster Qualität, zu stets sinkenden Preisen mit immer weniger Personen zu bearbeiten.
Der vermutete Forschungsbedarf in Bezug auf MBPM konnte auf Basis einer intensiven Literaturrecherche über das Zeitschriftenrating VHB-JOURQUAL und weitere Literaturquellen bestätigt werden. Da Vorgehensweisen für die Einführung von BPM in einer Vielzahl gefunden wurden, wurde eine Auswahl an BPM-Vorgehensweisen analysiert, um weitere Erkenntnisse für die Erstellung der MBPM-Vorgehensweise zu gewinnen. Durch die Analyse und den Vergleich der verschiedenen BPM-Vorgehensweisen aber auch durch den Vergleich mit dem Vorgehen des Prozess-Outsourcing-Dienstleisters stellte sich heraus, dass sich BPM und MBPM in zahlreichen Aspekten voneinander unterscheiden. MBPM hat einen stark operativen Fokus und benötigt intensive Unterstützung durch Informationstechnologie. Der operative Fokus zeigt sich vor allem in der für das MBPM notwendigen operativen Steuerung von Prozessen und Menschen und den damit einhergehenden hohen Anforderungen an Prozesstransparenz. Mit detailliertem Prozessmonitoring und feingranularen Prozessmessungen sowie zeitnahem Reporting wird diese Prozesstransparenz erreicht. Informationstechnologie wird benötigt, um bspw. Prozessmonitoring zeitnah durchzuführen aber auch um internen wie externen Anspruchstellern zu jeder Zeit den gewünschten Überblick zur aktuellen Auslastung aber auch zur Abrechnung der Dienstleistungen gewähren zu können.
Es konnte entgegen des Vorgehens des Prozess-Outsourcing-Dienstleisters gezeigt werden, dass Change Management die Einführung, den dauerhaften Betrieb und den mit MBPM verbundenen stetigen Wandel in positiver Weise beeinflussen kann.
Diese Dissertation entsteht im Rahmen des Projekts Research-Group Learning and Neurosciences (ReGLaN)-Health and Logistics, welches die Optimierung der Gesundheitsversorgung in ländlichen Gebieten Südafrikas zum Ziel hat. Es besteht dabei eine Kooperation mit dem Council for Scientific and Industrial Research (CSIR) Meraka Institute mit Prof. Dr. Dr. Marlien Herselman, Pretoria, Südafrika, als zentrale Ansprechpartnerin. Die Dissertation befasst sich mit der mathematischen Modellierung für adaptive graphische Benutzerschnittstellen (GUI), die ein angepasstes Verhalten in Abhängigkeit von Geographischen Informationssystemen (GIS) besitzen und durch räumliche Fuzzy-Logik gesteuert werden. Innerhalb der Arbeit geht es um die mathematische Visualisierung von maßgeschneiderten Risiko- und Ressourcenkarten für epidemiologische Fragestellungen mit GIS und adaptives GUI-Design für eine Open Source (OS)-Anwendung für digitale Endgeräte zur räumlichen Entscheidungsunterstützung zugeschnitten auf unterschiedliche Benutzergruppen. Zur Evaluation und Initialisierung der GUI-Elemente wurde empirische Lehr-Lern-Forschung zum Umgang mit Geomedien und GUI-Elementen eingesetzt.
Mathematical models of species dispersal and the resilience of metapopulations against habitat loss
(2021)
Habitat loss and fragmentation due to climate and land-use change are among the biggest threats to biodiversity, as the survival of species relies on suitable habitat area and the possibility to disperse between different patches of habitat. To predict and mitigate the effects of habitat loss, a better understanding of species dispersal is needed. Graph theory provides powerful tools to model metapopulations in changing landscapes with the help of habitat networks, where nodes represent habitat patches and links indicate the possible dispersal pathways between patches.
This thesis adapts tools from graph theory and optimisation to study species dispersal on habitat networks as well as the structure of habitat networks and the effects of habitat loss. In chapter 1, I will give an introduction to the thesis and the different topics presented in this thesis. Chapter 2 will then give a brief summary of tools used in the thesis.
In chapter 3, I present our model on possible range shifts for a generic species. Based on a graph-based dispersal model for a generic aquatic invertebrate with a terrestrial life stage, we developed an optimisation model that models dispersal directed to predefined habitat patches and yields a minimum time until these patches are colonised with respect to the given landscape structure and species dispersal capabilities. We created a time-expanded network based on the original habitat network and solved a mixed integer program to obtain the minimum colonisation time. The results provide maximum possible range shifts, and can be used to estimate how fast newly formed habitat patches can be colonised. Although being specific for this simulation model, the general idea of deriving a surrogate can in principle be adapted to other simulation models.
Next, in chapter 4, I present our model to evaluate the robustness of metapopulations. Based on a variety of habitat networks and different generic species characterised by their dispersal traits and habitat demands, we modeled the permanent loss of habitat patches and subsequent metapopulation dynamics. The results show that species with short dispersal ranges and high local-extinction risks are particularly vulnerable to the loss of habitat across all types of networks. On this basis, we then investigated how well different graph-theoretic metrics of habitat networks can serve as indicators of metapopulation robustness against habitat loss. We identified the clustering coefficient of a network as the only good proxy for metapopulation robustness across all types of species, networks, and habitat loss scenarios.
Finally, in chapter 5, I utilise the results obtained in chapter 4 to identify the areas in a network that should be improved in terms of restoration to maximise the metapopulation robustness under limited resources. More specifically, we exploit our findings that a network’s clustering coefficient is a good indicator for metapopulation robustness and develop two heuristics, a Greedy algorithm and a deducted Lazy Greedy algorithm, that aim at maximising the clustering coefficient of a network. Both algorithms can be applied to any network and are not specific to habitat networks only.
In chapter 6, I will summarize the main findings of this thesis, discuss their limitations and give an outlook of future research topics.
Overall this thesis develops frameworks to study the behaviour of habitat networks and introduces mathematical tools to ecology and thus narrows the gap between mathematics and ecology. While all models in this thesis were developed with a focus on aquatic invertebrates, they can easily be adapted to other metapopulations.
Conversion of natural vegetation into cattle pastures and croplands results in altered emissions of greenhouse gases (GHG), such as carbon dioxide (CO2), methane (CH4), and nitrous oxide (N2O). Their atmospheric concentration increase is attributed the main driver of climate change. Despite of successful private initiatives, e.g. the Soy Moratorium and the Cattle Agreement, Brazil was ranked the worldwide second largest emitter of GHG from land use change and forestry, and the third largest emitter from agriculture in 2012. N2O is the major GHG, in particular for the agricultural sector, as its natural emissions are strongly enhanced by human activities (e.g. fertilization and land use changes). Given denitrification the main process for N2O production and its sensitivity to external changes (e.g. precipitation events) makes Brazil particularly predestined for high soil-derived N2O fluxes.
In this study, we followed a bottom-up approach based on a country-wide literature research, own measurement campaigns, and modeling on the plot and regional scale, in order to quantify the scenario-specific development of GHG emissions from soils in the two Federal States Mato Grosso and Pará. In general, N2O fluxes from Brazilian soils were found to be low and not particularly dynamic. In addition to that, expected reactions to precipitation events stayed away. These findings emphasized elaborate model simulations in daily time steps too sophisticated for regional applications. Hence, an extrapolation approach was used to first estimate the influence of four different land use scenarios (alternative futures) on GHG emissions and then set up mitigation strategies for Southern Amazonia. The results suggested intensification of agricultural areas (mainly cattle pastures) and, consequently, avoided deforestation essential for GHG mitigation.
The outcomes of this study provide a very good basis for (a) further research on the understanding of underlying processes causing low N2O fluxes from Brazilian soils and (b) political attempts to avoid new deforestation and keep GHG emissions low.
Die vorliegende Dissertation beschäftigt sich mit der Messung subjektiver Filmbewertungskriterien (SMEC). SMEC können definiert werden als Standards, die Zuschauer heranziehen, um Eigenschaften von Filmen (z. B. Story, Kamera) zu bewerten. Basierend auf Annahmen aus der Social Cognition Forschung können SMEC als mentale Repräsentationen von - oder Einstellungen gegenüber - spezifischen Filmeigenschaften verstanden werden und spielen eine wichtige Rolle bei der kognitiven und affektiven Informationsverarbeitung und Bewertung von Filmen. In fünf Phasen wurden Skalen zur Erfassung von SMEC entwickelt und validiert. In Phase I wurden mithilfe von offenen Fragen Beschreibungen für Filmbewertungskriterien gesammelt, mittels modifizierter Struktur-Lege-Technik inhaltsvalidiert und schließlich Itemformulierungen abgeleitet. In Phase II wurden die Items reduziert und faktorenanalytisch auf ihre latente Struktur untersucht. Das resultierende 8-Faktoren-Modell wurde anschließend in Phase III mithilfe weiterer Stichproben und konfirmatorischer Verfahren kreuzvalidiert. Latent State-Trait Analysen in Phase IV zeigten, dass es sich um reliable und relativ stabile Dimensionen handelt. Schließlich wurde in Phase V das nomologische Netzwerk der SMEC und verwandter Konstrukte (z. B. Filmbewertungen) untersucht. Insgesamt kann festgestellt werden, dass das SMEC-Konzept einen geeigneten Rahmen bietet, um Forschungsfragen zur Rolle von Filmbewertungskriterien und Bewertungsprozessen bei der Selektion, Rezeption und Wirkung von Filmen zu formulieren und dass die SMEC-Skalen ein geeignetes reliables und valides Instrument zur Untersuchung solcher Fragen darstellen.
Lakes and reservoirs are important sources of methane, a potent greenhouse gas. Although freshwaters cover only a small fraction of the global surface, their contribution to global methane emission is significant and this is expected to increase, as a positive feedback to climate warming and exacerbated eutrophication. Yet, global estimates of methane emission from freshwaters are often based on point measurements that are spatio-temporally biased. To better constrain the uncertainties in quantifying methane fluxes from inland waters, a closer examination of the processes transporting methane from sediment to atmosphere is necessary. Among these processes, ebullition (bubbling) is an important transport pathway and is a primary source of uncertainty in quantifying methane emissions from freshwaters. This thesis aims to improve our understanding of ebullition in freshwaters by studying the processes of methane bubble formation, storage and release in aquatic sediments. The laboratory experiments demonstrate that aquatic sediments can store up to ~20% (volumetric content) gas and the storage capacity varies with sediment properties. The methane produced is stored as gas bubbles in sediment with minimal ebullition until the storage capacity is reached. Once the sediment void spaces are created by gas bubble formation, they are stable and available for future bubble storage and transport. Controlled water level drawdown experiments showed that the amounts of gas released from the sediment scaled with the total volume of sediment gas storage and correlated linearly to the drop in hydrostatic pressure. It was hypothesized that not only the timing of ebullition is controlled by sediment gas storage, but also the spatial distribution of ebullition. A newly developed freeze corer, capable of characterizing sediment gas content under in situ environments, enabled the possibility to test the hypothesis in a large subtropical lake (Lake Kinneret, Israel). The results showed that gas content was variable both vertically and horizontally in the lake sediment. Sediment methane production rate and sediment characteristics could explain these variabilities. The spatial distribution of ebullition generally was in a good agreement with the horizontal distribution of depth-averaged (surface 1 m) sediment gas content. While discrepancies were found between sediment depth-integrated methane production and the snapshot ebullition rate, they were consistent in a long term (multiyear average). These findings provide a solid basis for the future development of a process-based ebullition model. By coupling a sediment transport model with a sediment diagenetic model, general patterns of ebullition hotspots can be predicted at a system level and the uncertainties in ebullition flux measurements can be better constrained both on long-term (months to years) and short-term (minutes to hours) scales.
Die Studie thematisiert die Positionierung und Subjektivierung von Medienpädagog*innen im Diskurs um Gewaltdarstellungen in Computerspielen. Der sogenannte ‚Killerspiel‘-Diskurs in den Jahren 2001 bis 2016 stellt für medienpädagogische Fachkräfte ein Feld widersprüchlicher Handlungserwartungen dar, Gewaltdarstellungen in Computerspielen entweder als Problem wahrzunehmen und dieses zu bearbeiten oder Computerspiele als Chance zu begreifen. Als rele-vante Multiplikator*innen diskursiver Wissensbestände wurden deswegen für diese Studie Me-dienpädagog*innen interviewt, die an maßgeblichen Positionen in der Schnittstelle zwischen Wissenschaft und Praxis agieren und daher für viele Kolleg*innen deutungs- und praxisrelevan-tes Wissen generieren. Um die Ausrichtung dieses Wissens zu prüfen, wurde in dieser Studie die Frage gestellt, wie sich diese medienpädagogischen Fachkräfte, die korrigierend in Diskurse ein-greifen, positionieren und inwiefern (medien-)pädagogische Professionalität als Ressource und Grenze der Positionierung fungiert.
Um die Fragestellung zu beantworten wurden zwei empirisch analytische Untersuchungen durchgeführt. Zuerst wurde eine Sekundäranalyse bestehender Diskursanalysen zum ‚Killer-spiel‘-Diskurs durchgeführt, um die Subjektpositionen herauszuarbeiten, mit denen sich die Me-dienpädagog*innen auseinandersetzen mussten. In einem zweiten Schritt wurde eine qualitative Interviewstudie mit neun Medienpädagog*innen durchgeführt. Im Anschluss an die semi-narrativen Expert*inneninterviews wurden diese in einem dreistufigen Verfahren ausgewertet. Nach der deduktiven und induktiven Kategorienbildung in Anlehnung an die inhaltlich struktu-rierende Inhaltsanalyse, wurde im Rahmen einer Deutungsmusteranalyse das Deutungswissen der Medienpädagog*innen und der Sinnhorizont ihrer Intervention in den Diskurs feinanalytisch rekonstruiert. Zuletzt wurden drei biographische Fallanalysen durchgeführt, um die Relationie-rung zwischen Diskurs und (Berufs-)biographie zu diskutieren.
Im Rahmen der Sekundäranalyse des ‚Killerspiel‘-Diskurses konnte die bisher in Diskursanaly-sen rekonstruierte Differenzierung von Risiko- und Chancennarrativ erweitert werden. Durch die Abgrenzung jeweils zweier Deutungsmuster des Problemdiskurses (‚Gefahr‘ und ‚Risiko‘) und des Gegendiskurses (‚Optimierung von Lernchancen‘ und ‚Kultur‘) konnten dadurch Positionie-rungen in multiplen Konfliktfeldern sichtbar gemacht werden. So war es möglich die fachliche Positionierung der Medienpädagog*innen als Zwischenraum zu fassen, in dem sowohl Deutun-gen des Gegendiskurses als auch des Problemdiskurses eigenwillig miteinander relationiert wer-den. Die eigenwillige Aneignung diskursiver Problem- und Deutungsmuster verläuft bei den Medienpädagog*innen über unterschiedliche fachliche Schnittstellen und Kopplungen. Statt den Diskurs mit der eigenen Lebensgeschichte zu relationieren wird er mit der in Handlungsfeld-strukturen situierten fachlichen medienpädagogischen Praxis in Beziehung gesetzt. Dabei ist eine Pädagogisierung des Diskurses und eine Diskursivierung pädagogischer Handlungsfelder zu beobachten. Mittels mehrerer Pädagogiken werden diskursive Deutungsmuster transformiert und das medienpädagogische Handeln durch die Re-Interpretation medienpädagogischer Hand-lungsfelder im Sinnhorizont des Diskurses als Intervention in den Diskurs gerahmt. Gleichzeitig wird in einem ‚Opportunismus der Uneindeutigkeit‘ die Anschlussfähigkeit an Problemdeutun-gen durch die Selbstdarstellung als verantwortliche Problembearbeiter*innen gewahrt, wodurch die eigene Handlungsfähigkeit, die Legitimität des Handelns und der Zugang zu gesellschaftli-chen Ressourcen gesichert wird.
In den Fallanalysen zeigte sich, dass diese fachlichen Positionierungen nur dann einen Subjekti-vierungsprozess dokumentieren, wenn die Erzählbausteine des Diskurses (Deutungsmuster und diskursiver Konflikt) als Material für die eigene Selbsterzählung herangezogen und als Professi-onsverständnis re-artikuliert werden. Das Konfliktszenario wird dann über dessen öffentliche Thematisierung hinaus als berufsbiographisches Projekt formulierbar, was sich insbesondere da-rin zeigt, dass prospektive Zukunftsentwürfe weiterhin im Deutungs- und Konfliktspektrum des Diskurses verortet werden. Subjektivierung professioneller Akteure kann daher als über fachliche Positionierungen (als fachlich orientierte, kommentierende Auseinandersetzungen mit im Diskurs verhandelten Deutungsmustern und Wissensbeständen) hinausgehende Prozesse der Deutung des eigenen Professionalitätsverständnisses, die Ausbildung von Pädagogiken und die Veranke-rung berufsbiographischer Ziele im Horizont des Deutungsspektrum des Diskurses gefasst wer-den.
In der medienpädagogischen Professionsforschung können die Deutungsmuster und Subjektpo-sitionen des Diskurses als Professionalitätserwartungen analytisch Anwendung finden. Ihr Vor-teil gegenüber den hierfür auch herangezogenen Paradigmen der Medienpädagogik ist der Aktu-alitäts- und Gegenstandsbezug. Auch in anderen Themenbereichen (bspw. Mediensucht) können die Deutungsmuster des Diskurses sinnvoll Anwendung finden. Die Studie konnte zudem zei-gen, dass eine Subjektivierungsheuristik sinnvoll auf professionelle Akteure anwendbar ist, da fachliche Positionierungen von Subjektivierungen deutlich unterschieden werden können. Dafür wurde eine spezielle für professionelle Akteure konzipierte Subjektivierungsheuristik entworfen, die insbesondere den unterschiedlichen Funktionen diverser Wissensformen Rechnung tragen kann und in der Professionsforschung die Relevanz des diskursiven Wissens als relevanter Wis-sensform für professionelle Praxis herausstellt.
Die vorliegende Arbeit betrachtet den Einfluss von Wald- und Wirtschaftswegen auf Abflussentstehung und Bodenerosionsraten innerhalb eines bewaldeten Einzugsgebiets im Naturschutzgebiet Laacher See. Hierfür wurden sowohl bestehende Erosions- und Akkumulationsformen im Gelände kartiert, als auch Erosionssimulationen mittels einer Kleinberegnungsanlage durchgeführt. Zuletzt erfolgte eine Modellierung des Erosionspotentials auf Grundlage der Simulationsergebnisse.
Die Analyse bestehender Erosions- und Akkumulationsformen im Gelände gab einen Hinweis auf Bodenerosionsraten von Wegoberflächen, die zwischen 27,3 und 93,5 t ha-1 a-1 und somit in derselben Größenordnung wie Erosionsraten unter intensiver ackerbaulicher Nutzung lagen.
Die Simulationsläufe zeigten, dass persistente Waldwege ein deutlich verändertes Infiltrationsverhalten aufwiesen. Auf natürlichen Waldböden lag der Anteil des infiltrierten Niederschlags bei durchschnittlich 96%. Im Falle von Waldwegen nahm dieser Anteil im Mittel auf 14% bis 7% ab. Besonders auffällig waren die Ergebnisse auf Rückegassen, auf denen ein erheblicher Einfluss der Bodenverdichtung durch Befahrung nachgewiesen werden konnte. Hier sank der Anteil des infiltrierten Niederschlags auf 31% in den Fahrspuren, zwischen den Spuren wurden noch 76 % infiltriert.
Während der Simulationsläufe konnten maximale Sedimentmengen von 446 g m-2 erodiert werden, was einer mittleren Bodenerosionsrate von 4,96 g m-2 min-1 entspricht. Diese hohen Abtragsraten wurden auf persistenten Wegen mit geringer Befestigung gemessen. Rückegassen wiesen die geringsten Abtragswerte auf, maximal konnten 37 g m-2 erodiert werden, gleichbedeutend mit einer Abtragsrate von 0,41 g m-2 min-1. Die erodierten Sedimentmengen betrugen im Mittel bei Wegen 167 bis 319 g m-2 und im Falle von Rückegassen 17 g m-2. Anhand von Vergleichsmessungen auf Waldstandorten, bei denen ein mittlerer Bodenabtrag von ca. 5 g m-2 festgestellt wurde, konnte eine erhöhte Erodierbarkeit für jedwede Form der Weganlage bestätigt werden.
Auf Basis der im Gelände gemessenen Abtragsraten wurden die Modellierungen kalibriert. Die Ergebnisse der ABAG / DIN 19708 zeigten für das betrachtete Untersuchungsgebiet eine mittlere jährliche Bodenerosionsgefährdung von 2,4 - 5,8 t ha-1 a-1 für persistente Wege und von 0,5 t ha-1 a-1 für Rückegassen. Im Vergleich zum Mittelwert weitgehend unbeeinflusster Waldflächen im Untersuchungsgebiet von 0,1 t ha-1 a-1 zeigte sich abermals ein erhöhtes Abtragspotential. Die physikalisch basierte Modellierung der Beregnungsversuche mittels WEPP zeigte ein zufriedenstellendes Ergebnis bei der Einschätzung des Abflussverhaltens, so wurden für persistente Wege nur Abweichungen von maximal -5% festgestellt. Die Abflussmodellierung auf Rückegassen sowie die generelle Modellierung der Bodenerosion während der Beregnungsversuche zeigte sich im Kontrast hierzu noch fehlerbehaftet, was ursächlich mit der für ein physikalisches Modell relativ geringen Eingangsdatentiefe zu begründen ist.
Es wurde nachgewiesen, dass Waldwege einen bedeutenden Einfluss auf den Wasserhaushalt und das Bodenerosionsgeschehen haben. Der Rückhalt von Niederschlägen wird gemindert und es kommt zu intensivierten Bodenerosionsprozessen. Schlecht befestigte Wege zeigten einen stark erhöhten Bodenabtrag, der zu ökologischen Folgeschäden führen kann. Der Abtrag kann ebenso zu einer Beeinträchtigung der Befahrbarkeit führen. Anhand der Folgen lässt sich die Relevanz der Betrachtung von Abfluss- und Bodenerosionsprozessen auf Wald- und Wirtschaftswegen deutlich machen. Die vorliegende Arbeit stellt die erste Studie dar, innerhalb derer Abfluss- und Bodenerosionspozesse für Walderschließungsnetzwerke in Mitteleuropa untersucht wurden.
Method development for the quantification of pharmaceuticals in aqueous environmental matrices
(2021)
Als Folge des Weltbevölkerungswachstums und des daraus resultierenden Wassermangels ist das Thema Wasserqualität zunehmend im Fokus der Öffentlichkeit. In diesem Kontext stellen anthropogene organische Stoffe - oft als Mikroschadstoffe bezeichnet - eine Bedrohung für die Wasserressourcen dar. Besonders Pharmazeutika werden aufgrund ihrer permanenten Einleitung, ihres steigenden Verbrauchs und ihrer wirkungsbasierten Strukturen mit besonderer Besorgnis diskutiert. Pharmazeutika werden hauptsächlich über Kläranlagen in die Umwelt eingeleitet, zusammen mit ihren Metaboliten und den vor Ort gebildeten Transformationsprodukten (TPs). Wenn sie die aquatische Umwelt erreichen, verteilen sie sich zwischen den verschiedenen Umweltkompartimenten, insbesondere der Wasserphase, Schwebstoffen (SPM) und Biota. In den letzten Jahrzehnten wurden Pharmazeutika in der Wasserphase umfassend untersucht. Allerdings wurden extrem polare Pharmazeutika aufgrund des Mangels an robusten Analysemethoden nur selten überwacht. Zudem wurden Metaboliten und TPs selten in Routineanalysemethoden einbezogen, obwohl ihre Umweltrelevanz nachgewiesen ist. Darüber hinaus wurden Pharmazeutika nur sporadisch in SPM und Biota untersucht und es fehlen adäquate Multi-Analyt-Methoden, um umfassende Ergebnisse über ihr Vorkommen in diesen Matrices zu erhalten. Die vorliegende Arbeit wird, diese Wissenslücken durch die Entwicklung generischer Multi-Analyt-Methoden zur Bestimmung von Pharmazeutika in der Wasserphase, SPM und Biota geschlossen und das Vorkommen und die Verteilung von Pharmazeutika in diesen Kompartimenten bewertet. Für einen vollständigen Überblick wurde ein besonderer Schwerpunkt auf polare Pharmazeutika, pharmazeutische Metaboliten und TPs gelegt. Insgesamt wurden drei innovative Multi-Analyt-Methoden entwickelt, deren Analyten ein breites Spektrum an physikalisch-chemischen Eigenschaften abdecken. Zuerst wurde eine zuverlässige Multi-Analyt-Methode entwickelt um extrem polare Pharmazeutika, deren Metaboliten und TPs in wässrigen Umweltproben zu untersuchen. Die ausgewählten Analyten deckten einen signifikanten Bereich erhöhter Polarität ab und die Methode ist leicht um weitere Analyten erweiterbar. Diese Vielseitigkeit konnte durch die Verwendung der Gefriertrocknung als Probenvorbereitung und der zwitterionischen Hydrophile Interaktionschromatographie (HILIC) im Gradientenelutionsmodus erreicht werden. Die Eignung der HILIC-Chromatographie zur gleichzeitigen Quantifizierung einer großen Bandbreite von Mikroschadstoffe in wässrigen Umweltproben wurde gründlich untersucht. Es wurde auf mehrere Einschränkungen hingewiesen: eine sehr komplexe und zeitaufwändige Methodenentwicklung, eine sehr hohe Empfindlichkeit hinsichtlich der Änderung des Acetonitril-Wasser-Verhältnisses im Eluenten oder im Verdünnungsmittel und hohe positive Matrixeffekte für bestimmte Analyten. Diese Einschränkungen können jedoch durch die Verwendung eines präzisen Protokolls und entsprechend markierter interner Standards überwunden werden und werden durch die Vorteile von HILIC, die die chromatographische Trennung von extrem polaren Mikroverunreinigungen ermöglicht, überkompensiert. Die Untersuchung von Umweltproben zeigte erhöhte Konzentrationen der Analyten in der Wasserphase. Insbesondere Gabapentin, Metformin, Guanylharnstoff und Oxypurinol wurden bei Konzentrationen im µg/LBereich im Oberflächenwasser gemessen. Für die Bestimmung von 57 Pharmazeutika und 47 Metaboliten und TPs, die an SPM sorbiert sind, wurde anschließend eine verlässliche Multi-Analyt-Methode etabliert, die eine Quantifizierung bis in den niedrigen ng/g-Bereich erlaubt. Diese Methode wurde konzipiert, um einen großen Polaritätsbereich abzudecken, insbesondere unter Einbeziehung extrem polarer Pharmazeutika. Das Extraktionsverfahren basierte auf einer Druckflüssigkeitsextraktion (PLE), gefolgt von einer Reinigung durch Lösungsmittelaustausch und Detektion durch direkte Injektion-Umkehrphasen-LCMS/MS und Gefriertrocknung-HILIC-MS/MS. Das Sorptionspotential der Pharmazeutika wurde anhand von Laborexperimenten untersucht. Abgeleitete Verteilungskoeffizienten Kd variierten um fünf Größenordnungen unter den Analyten und bestätigten ein hohes Sorptionspotential für positiv geladene und unpolare Pharmazeutika. Das Vorkommen von Pharmazeutika in SPM deutscher Flüsse wurde durch die Untersuchung jährlicher Mischproben bewertet, die zwischen 2005 und 2015 an vier Standorten am Rhein und einem Standort an der Saar entnommen wurden. Dabei zeigte sich das ubiquitäre Vorkommen von an SPM sorbierten Pharmazeutika in diesen Flüssen. Insbesondere positiv geladene Analyten, auch sehr polare und unpolare Pharmazeutika zeigten nennenswerte Konzentrationen. Für viele Pharmazeutika wurde eine deutliche Korrelation zwischen den jährlich in Deutschland konsumierten Mengen und den in SPM gemessenen Konzentrationen festgestellt. Untersuchungen der zusammengesetzten räumlichen Verteilung von SPM erlaubten es, durch den Vergleich der Verschmutzungsmuster entlang des Flusses Hinweise auf spezifische industrielle Einleitungen zu erhalten. Diese Ergebnisse zeigten zum ersten Mal das Potential von SPM für die Überwachung von positiv geladenen und unpolaren Pharmazeutika in Oberflächengewässern. Für Pharmazeutika mit erhöhter Sorptionsaffinität (Kd uber 500 L/kg) erlauben SPM-Analysen sogar die Überwachung niedrigerer Emissionen. Schließlich wurde eine zuverlässige und generische Multi-Analyt-Methode zur Untersuchung von 35 Pharmazeutika und 28 Metaboliten und TPs in Fischplasma, Fischleber und Fischfilet entwickelt. Für diese Matrix war es eine große Herausforderung eine adäquate Aufreinigung zu entwickeln, die eine ausreichende Trennung der störenden Matrix von den Analyten ermöglicht. Bei der endgültigen Methode wurde die Extraktion von Fischgewebe durch Zellaufschluss durchgeführt, gefolgt von einem nicht diskriminierenden Clean-up auf der Basis von Kieselgel-Festphasenextraktion (SPE) und Materialien mit eingeschränkter Zugänglichkeit (RAM). Die Anwendung der entwickelten Methode auf die Messung von Brassen- und Karpfengeweben aus deutschen Flüssen zeigte, dass selbst polare Mikroverunreinigungen wie z.B. Pharmazeutika in Fischgeweben ubiquitär vorhanden sind. Insgesamt wurden 17 Analyten zum ersten Mal in Fischgewebe nachgewiesen, darunter 10 Metaboliten/TPs. Die Bedeutung der Überwachung von Metaboliten und TPs in Fischgeweben wurde durch deren Nachweis in ähnlichen Konzentrationen wie bei ihren Ausgangsstoffe bestätigt. Es zeigte sich, dass Leber und Filet für die Überwachung von Pharmazeutika in Fischen geeignet ¨ sind, während Plasma aufgrund sehr niedriger Konzentrationen und erschwerter Probenahme ungeeignet ist. Erhöhte Konzentrationen bestimmter Metaboliten deuten auf eine mögliche Bildung menschlicher Metaboliten in Fischen hin. Die gemessenen Konzentrationen weisen jedoch auf ein geringes Bioakkumulationspotential für Pharmazeutika in Fischgeweben hin.
Die Computermodellierung menschlicher Teilkörperstrukturen gewinnt zunehmend an Bedeutung für den Einsatz in der Medizin. Es handelt sich dabei um ein interdisziplinäres Forschungsfeld, bei dem durch die Zusammenarbeit von Physik, Mathematik, Computervisualistik und Medizin neue Methoden entwickelt werden können, mit denen genauere Aussagen über mechanische Belastungen von inneren kraftübertragenden Strukturen, wie Zwischenwirbelscheiben, Ligamente, Gelenke und Muskeln, bei Bewegungsabläufen getroffen werden können.
Zu Beginn dieser Arbeit wird die Bedeutsamkeit des Forschungsbedarfs in der Computermodellierung, spezialisiert auf den Bereich der Wirbelsäule, dargelegt.
Nachfolgend werden die grundlegenden anatomischen Strukturen erörtert, wozu die Zwischenwirbelscheiben, die Ligamente, die Facettengelenke und Muskulatur zählen.
Anschließend werden Algorithmen entwickelt, mit denen aus CT-Daten unter geringem Zeitaufwand sowie semiautomisch individuelle LWS-Modelle erstellt werden können. Dabei werden Methoden erarbeitet, mit denen die vorgestellten kraftübertragenden Strukturen der Wirbelsäule, wie die Zwischenwirbelscheiben, Ligamente, Facettengelenke und Muskeln, modelliert werden können.
Im weiteren Verlauf werden unterschiedliche bildgebende Verfahren (MRT-Daten, Röntgenfilm, Röntgenfunktionsaufnahmen) zur Validierung der LWS-Modelle vorgestellt und verwendet.
Abschließend werden die erarbeiteten Algorithmen genutzt, um eine größere Anzahl an individuellen LWS-Modellen zu erstellen, die anschließend auf Gemeinsamkeiten und Unterschiede bzgl. der inneren Belastungen sowie auf physiologisch korrekte Bewegungsabläufe hin untersucht werden. Dazu wird insbesondere das relative momentane Drehzentrum zwischen zwei benachbarten Wirbeln berechnet.
In der vorliegenden Untersuchung geht es um methodische Fragen der Unterrichtswahrnehmung aus Schülersicht. Dabei werden theoretische Ansätze zur Urteilsbildung aus der Klassenklima- und der kognitiv fundierten Survey-Forschung sowie der Forschung zur Interpersonalen Wahrnehmung diskutiert. Weiterhin werden Modelle zur inhaltlichen Interpretation von Aggregatmerkmalen (sogenannte Kompositionsmodelle) und zum Einfluss sogenannter "Halo"-Effekte berücksichtigt. Die relevanten Aspekte aus den genannten Theorien sowie empirische Befunde zum Einfluss von Fachleistung, Schulnote und Geschlecht auf die Beurteilung des Unterrichts werden in einem Modell zur Unterrichtswahrnehmung aus Schülersicht zusammengeführt. Daneben werden in der vorliegenden Untersuchung Möglichkeiten und Grenzen verschiedener statistischer Verfahren zur Analyse von Daten zur Wahrnehmung des Unterrichts aus Schülersicht aufgezeigt und diskutiert. Dabei geht es um Fragen der absoluten Übereinstimmung von Urteilern vs. der Interrater-Reliabilität. Weiterhin werden Grundlagen und Effekte von Verletzungen der Annahmen mehrebenenanalytischer konfirmatorischer Faktorenanalysen dargestellt, die im Rahmen einer Monte-Carlo-Studie überprüft werden. Datengrundlage der vorliegenden Untersuchung sind im Rahmen des Projekts DESI (Deutsch Englisch Schülerleistungen International) erhobene Fragebogendaten aus 330 Klassen bzw. Kursen der neunten Jahrgangsstufe, sowie im Längsschnitt erhobene Testleistungen in den Bereichen Deutsch und Englisch. Die Ergebnisse der Analysen bestätigen in großen Teilen das zugrunde gelegte theoretische Modell: Es zeigen sich hohe relative Übereinstimmungen der unterrichtsbezogenen Urteile von Schülerinnen und Schülern. Der Einfluss der Kommunikation mit Mitschülern auf die Urteilsbildung zeigt sich v.a. in der Gruppe der Mädchen. Die theoretischen Unterrichtsmerkmale lassen sich als Faktoren auf beiden Analyseebenen (innerhalb von Klassen und zwischen Klassen) nachweisen, wobei diese " bis auf wenige Ausnahmen " ebenen- sowie fachübergreifend nur im Sinne analoger und nicht "isomorpher" Konstrukte interpretierbar sind. Daneben finden sich deutliche Hinweise auf eine eher Lehrkraft- statt Unterrichtsfach-bezogene Wahrnehmung auf beiden Ebenen. Der Itemformulierung (Ich vs. Klassen-Bezug) kommt insgesamt betrachtet eine eher geringe Bedeutung zu. Bezüglich der Unterrichtswahrnehmungen finden sich Einflüsse der oben genannten Prädiktoren insbesondere auf der Ebene innerhalb von Klassen. Auf Klassenebene zeigt sich ein möglicher Einfluss einer "milden" Benotung auf die geteilte Unterrichtswahrnehmung. Die auf beiden Ebenen deutlichsten Effekte auf die Unterrichtswahrnehmung finden sich bei den Globalurteilen bezüglich der jeweiligen Lehrkraft. Zusammengenommen mit den extrem hohen Interkorrelationen der Faktoren innerhalb eines Fachs (die sich jeweils auf dieselbe Lehrkraft beziehen) und den " aufgrund von Effekten auf Schulebene etc. erwartungswidrigen " niedrigen bis nicht vorhandenen fachübergreifenden Interkorrelationen spricht dies in hohem Maße für eine Verzerrung der Unterrichtswahrnehmung im Sinne einer globalen Wahrnehmungstendenz. Die globale Wahrnehmung muss allerdings gleichzeitig überwiegend als Ergebnis von Unterrichtswahrnehmungen betrachtet werden: Hier zeigen sich die auf der Basis empirischer Untersuchungen theoretisch postulierten unterschiedlichen Gewichtungen der einzelnen Unterrichtsmerkmale über verschiedene Klassen hinweg.
This thesis addresses the automated identification and localization of a time-varying number of objects in a stream of sensor data. The problem is challenging due to its combinatorial nature: If the number of objects is unknown, the number of possible object trajectories grows exponentially with the number of observations. Random finite sets are a relatively new theory that has been developed to derive at principled and efficient approximations. It is based around set-valued random variables that contain an unknown number of elements which appear in arbitrary order and are themselves random. While extensively studied in theory, random finite sets have not yet become a leading paradigm in practical computer vision and robotics applications. This thesis explores random finite sets in visual tracking applications. The first method developed in this thesis combines set-valued recursive filtering with global optimization. The problem is approached in a min-cost flow network formulation, which has become a standard inference framework for multiple object tracking due to its efficiency and optimality. A main limitation of this formulation is a restriction to unary and pairwise cost terms. This circumstance makes integration of higher-order motion models challenging. The method developed in this thesis approaches this limitation by application of a Probability Hypothesis Density filter. The Probability Hypothesis Density filter was the first practically implemented state estimator based on random finite sets. It circumvents the combinatorial nature of data association itself by propagation of an object density measure that can be computed efficiently, without maintaining explicit trajectory hypotheses. In this work, the filter recursion is used to augment measurements with an additional hidden kinematic state to be used for construction of more informed flow network cost terms, e.g., based on linear motion models. The method is evaluated on public benchmarks where a considerate improvement is achieved compared to network flow formulations that are based on static features alone, such as distance between detections and appearance similarity. A second part of this thesis focuses on the related task of detecting and tracking a single robot operator in crowded environments. Different from the conventional multiple object tracking scenario, the tracked individual can leave the scene and later reappear after a longer period of absence. Therefore, a re-identification component is required that picks up the track on reentrance. Based on random finite sets, the Bernoulli filter is an optimal Bayes filter that provides a natural representation for this type of problem. In this work, it is shown how the Bernoulli filter can be combined with a Probability Hypothesis Density filter to track operator and non-operators simultaneously. The method is evaluated on a publicly available multiple object tracking dataset as well as on custom sequences that are specific to the targeted application. Experiments show reliable tracking in crowded scenes and robust re-identification after long term occlusion. Finally, a third part of this thesis focuses on appearance modeling as an essential aspect of any method that is applied to visual object tracking scenarios. Therefore, a feature representation that is robust to pose variations and changing lighting conditions is learned offline, before the actual tracking application. This thesis proposes a joint classification and metric learning objective where a deep convolutional neural network is trained to identify the individuals in the training set. At test time, the final classification layer can be stripped from the network and appearance similarity can be queried using cosine distance in representation space. This framework represents an alternative to direct metric learning objectives that have required sophisticated pair or triplet sampling strategies in the past. The method is evaluated on two large scale person re-identification datasets where competitive results are achieved overall. In particular, the proposed method better generalizes to the test set compared to a network trained with the well-established triplet loss.
Semantic-Web-Technologien haben sich als Schlüssel für die Integration verteilter und heterogener Datenquellen im Web erwiesen, da sie die Möglichkeit bieten, typisierte Verknüpfungen zwischen Ressourcen auf dynamische Weise und nach den Prinzipien von sogenannten Dataspaces zu definieren. Die weit verbreitete Einführung dieser Technologien in den letzten Jahren führte zu einer großen Menge und Vielfalt von Datensätzen, die als maschinenlesbare RDF-Daten veröffentlicht wurden und nach ihrer Verknüpfung das sogenannte Web of Data bilden. Angesichts des großen Datenumfangs werden diese Verknüpfungen normalerweise durch Berechnungsmethoden generiert, den Inhalt von RDF-Datensätzen analysieren und die Entitäten und Schemaelemente identifizieren, die über die Verknüpfungen verbunden werden sollen. Analog zu jeder anderen Art von Daten müssen Links die Kriterien für Daten hoher Qualität erfüllen (z. B. syntaktisch und semantisch genau, konsistent, aktuell), um wirklich nützlich und leicht zu konsumieren zu sein. Trotz der Fortschritte auf dem Gebiet des maschinellen Lernens ist die menschliche Intelligenz für die Suche nach qualitativ hochwertigen Verbindungen nach wie vor von entscheidender Bedeutung: Menschen können Algorithmen trainieren, die Ausgabe von Algorithmen in Bezug auf die Leistung validieren, und auch die resultierenden Links erweitern. Allerdings sind Menschen – insbesondere erfahrene Menschen – nur begrenzt verfügbar. Daher kann die Ausweitung der Datenqualitätsmanagementprozesse von Dateneigentümern/-verlegern auf ein breiteres Publikum den Lebenszyklus des Datenqualitätsmanagements erheblich verbessern.
Die jüngsten Fortschritte bei Human Computation und bei Peer-Production-Technologien eröffneten neue Wege für Techniken zur Verwaltung von Mensch-Maschine-Daten, die es ermöglichten, Nicht-Experten in bestimmte Aufgaben einzubeziehen und Methoden für kooperative Ansätze bereitzustellen. Die in dieser Arbeit vorgestellten Forschungsarbeiten nutzen solche Technologien und untersuchen Mensch-Maschine-Methoden, die das Management der Verbindungsqualität im Semantic Web erleichtern sollen. Zunächst wird unter Berücksichtigung der Dimension der Verbindungsgenauigkeit eine Crowdsourcing Methode zur Ontology Alignment vorgestellt. Diese Methode, die auch auf Entitäten anwendbar ist, wird als Ergänzung zu automatischen Ontology Alignment implementiert. Zweitens werden neuartige Maßnahmen zur Dimension des Informationsgewinns eingeführt, die durch die Verknüpfungen erleichtert werden. Diese entropiezentrierten Maßnahmen liefern Datenmanagern Informationen darüber, inwieweit die Entitäten im verknüpften Datensatz Informationen in Bezug auf Entitätsbeschreibung, Konnektivität und Schemaheterogenität erhalten. Drittens wenden wir Wikidata - den erfolgreichsten Fall eines verknüpften Datensatzes, der von einer Gemeinschaft von Menschen und Bots kuratiert, verknüpft und verwaltet wird - als Fallstudie an und wenden deskriptive und prädiktive Data Mining-Techniken an, um die Ungleichheit der Teilnahme und den Nutzerschwung zu untersuchen. Unsere Ergebnisse und Methoden können Community-Managern helfen, Entscheidungen darüber zu treffen, wann/wie mit Maßnahmen zur Nutzerbindung eingegriffen werden soll. Zuletzt wird eine Ontologie zur Modellierung der Geschichte der Crowd-Beiträge auf verschiedenen Marktplätzen vorgestellt. Während der Bereich des Mensch-Maschine-Datenmanagements komplexe soziale und technische Herausforderungen mit sich bringt, zielen die Beiträge dieser Arbeit darauf ab, zur Entwicklung dieses noch aufstrebenden Bereichs beizutragen.
Das Web 2.0 stellt online Technologien zur Verfügung, die es Nutzern erlaubt gemeinsam Inhalte zu erstellen, zu publizieren und zu teilen. Dienste wie Twitter, CNet, CiteSeerX etc. sind Beispiele für Web 2.0 Plattformen, die zum einen Benutzern bei den oben beschriebenen Aktivitäten unterstützen und zum anderen als Quellen reichhaltiger Information angesehen werden können. Diese Plattformen ermöglichen es Nutzern an Diskussionen teilzunehmen, Inhalte anderer Nutzer zu kommentieren, generell Feedback zu geben (z.B. zu einem Produkt) und Inhalte zu publizieren, sei es im Rahmen eines Blogs oder eines wissenschaftlichen Artikels. Alle diese Aktivitäten führen zu einer großen Menge an unstrukturierten Daten. In diesem Überfluss an Informationen kann auf den persönlichen Informationsbedarf einzelner Benutzer nicht mehr individuell genug eingegangen werden kann. Methoden zur automatischen Analyse und Aggregation unstrukturierter Daten die von einzelnen Plattformen zur Verfügung gestellt werden, können dabei helfen den sich aus dem unterschiedlichen Kontext der Plattformen ergebenden Informationsbedarf zu beantworten. In dieser Arbeit stellen wir drei Methoden vor, die helfen den Informationsüberfluss zu verringern und es somit ermöglichen den Informationsbedarf einzelner Nutzer besser zu beantworten.
Der erste Beitrag dieser Arbeit betrachtet die zwei Hauptprobleme des Dienstes Twitter: die Kürze und die Qualität der Einträge und wie sich diese auf die Ergebnisse von Suchverfahren auswirken. Wir analysieren und identifizieren Merkmale für einzelne Kurznachrichten auch Twitter (sog. Tweets), die es ermöglichen die Qualität eines Tweets zu bestimmen. Basierend auf dieser Analyse führen wir den Begriff "Interestingness" ein, der als statisches Qualitätsmaß für Tweets dient. In einer empirischen Analyse zeigen wir, dass die vorgeschlagenen Maße dabei helfen qualitativ hochwertigere Information in Twitter zu finden und zu filtern. Der zweite Beitrag beschäftigt sich mit dem Problem der Inhaltsdiversifikation in einem kollaborativen sozialen System, z.B. einer online Diskussion die aus der sozialen Kollaboration der Nutzer einer Plattform entstanden ist. Ein Leser einer solchen Diskussion möchte sich einen schnellen und umfassenden Überblick über die Pro und Contra Argumente in der Diskussion verschaffen. Zu diesem Zweck wurde FREuD entwickelt, ein Ansatz der hilft das Diversifikationsproblem von Inhalten in den Griff zu bekommen. FREuD kombiniert Latent Semantic Analysis mit Sentiment Analyse. Die Evaluation von FREuD hat gezeigt, dass es mit diesem Ansatz möglich ist, einen umfassenden Überblick über die Unterthemen und die Aspekte einer Diskussion, sowie über die Meinungen der Diskussionteilnehmer zu liefern. Der dritte Beitrag dieser Arbeit ist eine neues Autoren-Thema-Zeit Modell, dass es ermöglicht Trendthemen und Benutzerinteressen in sozialen Medien zu erfassen. Der Ansatz löst dieses Problem indem er die Relationen zwischen Autoren, latenter Themen und zeitlicher Information mittels Bayes'schen Netzen modelliert. Unsere Evaluation zeigt einen verbesserte Erkennung von semantisch zusammenhaängenden Themen und liefert im weiteren Informationen darüber in wie weit die Veränderung im Interesse einzelner Autoren mit der Entwicklung einzelner Themengebiete zusammenhängt.
Aktuelle Entwicklungen in der Europäischen Gesetzgebung fordern die Umsetzung von Risikominderungsmaßnahmen, die diffuse Einträge von Pestiziden in Oberflächengewässer und deren Schadwirkung mindern sollen. Bepflanzte Gräben und Feuchtgebiete (vegetated treatment systems: VTS) bieten die Möglichkeit potenzielle Schadwirkung von Pestizideinträgen infolge von Oberflächenabflussereignissen zu mindern, die mit anderen Maßnahmen unvermeidbar wären. Versuche in experimentellen Feuchtgebieten und bepflanzten Gräben wurden durchgeführt, um die Funktionstüchtigkeit möglicher Systeme zu untersuchen. In fünf Rückhaltebecken und zwei bepflanzten Gräben in der Weinbauregion Südpfalz (Südwestdeutschland) wurde von 2006 bis 2009 eine umfangreiche Beprobung von belastetem Wasser nach Starkregenereignissen vorgenommen und die Reduktionsleistung der Systeme bezüglich der eingetragenen Konzentrationen ermittelt. Der Einfluss von Pflanzendichte, Größe der Systeme und Eigenschaften der eingetragenen, bzw. experimentell eingespeisten Substanzen war Schwerpunkt bei der Auswertung der Ergebnisse. Zur Vorhersage der Gewässerbelastung nach niederschlagsbezogenem Oberflächenabfluss wurde in einer Geoinformationsumgebung (GIS) ein Simulationswerkzeug entwickelt. Das Werkzeug arbeitet mit einer sehr exakten Datenbank von hoher räumlicher Auflösung auf Europäischer Ebene. Basierend auf den Erkenntnissen der Experimente, den Ergebnissen der beprobten Gewässer und weiteren Daten von anderen Systemen, die im EU-Life Projekt ArtWET erhoben wurden, ist ein zweites räumliches Werkzeug entstanden, das zur Entscheidungsunterstützung dient und mit dem Risikominderungsmaßnahmen simuliert werden können. Ergebnisse der Experimente und Feldstudien zeigen, dass in experimentellen Feuchtgebieten und bepflanzten Gräben Reduktionen von über 90% der eingetragenen Pestizidkonzentrationen möglich sind. Bepflanzte Gräben und Feuchtgebiete zeigten signifikant bessere Reduktion als unbepflanzte. Pflanzendichte und Sorptivität an organischen Kohlenstoff wurden als Variablen mit der größten Erklärungskraft für die Zielvariable Reduktion der Pestizidkonzentrationen identifiziert (im Gräben-Mesokosmos konnten 65% der Variabilität mit den Variablen Pflanzendichte und KOC erklärt werden. In der Feldstudie wurde gezeigt, dass Fungizidkonzentrationen innerhalb der Rückhaltebecken (Median 38%) und bepflanzten Gräben (Median 56%) signifikant reduziert wurden. Die Regressionsanalyse mit diesen Daten zeigte, dass neben der Pflanzendichte auch die Größe der Systeme Einfluss auf die Reduktion der Pestizidkonzentrationen hat (DP: R²=0.57, p<0.001; VD:
R²=0.19, p<0.001). Die Datenbank für die GIS Werkzeuge wurde mit frei verfügbaren Europäischen Daten aufgebaut. Der erweiterte, von der OECD empfohlene REXTOX Risikoindikator wurde modifiziert und für die Risikomodellierung für alle Agrargewässer auf Europäischer Ebene angewandt. Die Ergebnisse der Risikosimulationen bieten die Datenbasis für das zweite Werkzeug, in dem auch die VTS als Risikominderungsmaßnahme eingearbeitet sind. Die Berechnung der Risikominderungsmaßnahmen kann für die einzelnen Kulturen, ausgewählte Gebiete und unterschiedliche Pestizide durchgeführt werden. Kosten für die Risikominderungsmaßnahmen werden ermittelt. Die Ergebnisse liefern wichtige neue Erkenntnisse zur Nutzung von bepflanzten Systemen als Risikominderungsmaßnahmen für diffuse Pestizideinträge in Agrargewässer. Die Proben der Weinbaugewässer zeigen, dass auch die bisher schlecht untersuchte Gruppe der Fungizide nachteilige Auswirkungen auf aquatische Ökosysteme haben kann. Die entwickelten GIS Werkzeuge sind leicht anwendbar und damit nicht nur als Basis für zukünftige Untersuchungen geeignet, sondern auch als Entscheidungsunterstützung in der praktischen Umsetzung außerhalb der Forschung hilfreich. Auf Europäischer Ebene können die GIS-Werkzeuge einerseits externe Kosten der Gewässerverschmutzung durch diffuse Pflanzenschutzmitteleinträge berechnen, indem die Kosten der unterschiedlichen Risikominderungsmaßnahmen abgeschätzt werden. Andererseits kann die Simulation der Maßnahmen bei der Entscheidungsfindung zur Umsetzung der Vorgaben der Wasserrahmenrichtlinie helfen. Zukünftige Studien sind insbesondere im Bereich der Fungizidbelastung von Oberflächengewässern und der langfristigen Funktionstüchtigkeit von bewachsenen Gräben und Feuchtgebieten als Risikominderungsmaßnahmen notwendig.
Wir leben in einer Welt, in der sich Umweltkrisen immer weiter zuspitzen. Um diese Krisen zu entschärfen, braucht es einen sozial-ökologischen Wandel, der mit Verhaltensänderungen in verschiedenen Bereichen des täglichen Lebens einhergehen muss. Ausgehend von dieser gesellschaftlichen Aufgabe, befasst sich die vorliegende Dissertation mit der Frage, wie Verhaltensänderungen auf individueller Ebene angestoßen werden können. Mit dem weltweiten Problem von Plastik in der Umwelt wird ein aktuelles und sozialwissenschaftlich wenig erforschtes Themenfeld aufgegriffen. Es wird untersucht, welche psychologischen Faktoren einen Einfluss darauf haben, den eigenen Plastikkonsum zu reduzieren. Der Fokus liegt dabei insbesondere auf Plastikverpackungen, die den größten Anteil der derzeitigen Plastikproduktion ausmachen. Eine Barriere, die das Aufnehmen von neuen Verhaltensweisen erschwert, stellen die eigenen Gewohnheiten dar. Phasen von Umbrüchen, wie der Umzug in eine neue Stadt, gelten als vielversprechend zur Veränderung von Gewohnheiten. Die Dissertation untersucht daher, ob solche Phasen des Wandels ein Gelegenheitsfenster öffnen können, um alte Gewohnheiten zu durchbrechen und Verhaltensänderungen anzustoßen. Vier Manuskripte nähern sich diesem Thema von einem zunächst breiten Fokus einer Literaturstudie bis hin zu fokussierten Interventionsstudien an. Das Literaturreview (Manuskript 1) fasst 187 Studien zum Umgang mit Plastik aus sozialwissenschaftlicher Perspektive zusammen. Darauf aufbauend, untersucht eine Online-Studie (N = 648) plastikfreie Verhaltensintentionen (Manuskript 2). In einem Strukturgleichungsmodell werden Prädiktoren für Verhaltensintentionen im privaten sowie politischen Bereich analysiert. Zwei Experimentalstudien im Pre-Post-Design schließen an das Verhalten im Privaten an (Manuskript 3 + 4). Es wird untersucht, ob eine Intervention, die während der Fastenzeit (N =140) oder während eines Aktionsmonats (N = 366) präsentiert wird, ein Gelegenheitsfenster zur Konsumreduktion von Plastikverpackungen darstellen kann. Die Ergebnisse der empirischen Arbeiten weisen Moral- und Kontrollüberzeugungen als stärkste Prädiktoren für Verhaltensreduktionen aus. Der Zeitpunkt einer Intervention beeinflusst zudem die Wahrscheinlichkeit ein neues Verhalten auszuprobieren. Die Studien zeigen erste Belege, dass Gelegenheitsfenster umweltfreundliche Verhaltensänderungen im Kontext des Plastikkonsums erleichtern können. Theoretische und praktische Implikationen, wie Gelegenheitsfenstern zu einer sozial-ökologischen Transformation beigetragen können, werden diskutiert.
In IT-Systemen treten viele Datenschutzrisiken auf, wenn Datenschutzbedenken in den frühen Phasen des Entwicklungsprozesses nicht angemessen berücksichtigt werden. Die Datenschutz-Grundverordnung (DSGVO) schreibt das Prinzip des Datenschutz durch Technikgestaltung (PbD) vor. PbD erfordert den Schutz personenbezogener Daten von Beginn des Entwicklungsprozesses an, durch das frühzeitige Integrieren geeigneter Maßnahmen. Bei der Realisierung von PbD ergeben sich nachfolgende Herausforderungen: Erstens benötigen wir eine präzise Definition von Datenschutzbedenken. Zweitens müssen wir herausfinden, wo genau in einem System die Maßnahmen angewendet werden müssen. Drittens ist zur Auswahl geeigneter Maßnahmen, ein Mechanismus zur Ermittlung der Datenschutzrisiken erforderlich. Viertens müssen bei der Auswahl und Integration geeigneter Maßnahmen, neben den Risiken, die Abhängigkeiten zwischen Maßnahmen und die Kosten der Maßnahmen berücksichtigt werden.
Diese Dissertation führt eine modellbasierte Methodik ein, um die oben genannten Herausforderungen zu bewältigen und PbD zu operationalisieren. Unsere Methodik basiert auf einer präzisen Definition von Datenschutzbedenken und umfasst drei Untermethodiken: modellbasierte Datenschutzanalyse, modellbasierte Datenschutz-Folgenabschätzung und datenschutzfreundliche Systemmodellierung. Zunächst führen wir eine Definition für Datenschutzpräferenzen ein, anhand derer die Datenschutzbedenken präzisiert werden können und überprüft werden kann, ob die Verarbeitung personenbezogener Daten autorisiert ist. Zweitens präsentieren wir eine modellbasierte Methodik zur Analyse eines Systemmodells. Die Ergebnisse dieser Analyse ergeben die Menge der Verstöße gegen die Datenschutzpräferenzen in einem Systemmodell. Drittens führen wir eine modellbasierte Methode zur Datenschutzfolgenabschätzung ein, um konkrete Datenschutzrisiken in einem Systemmodell zu identifizieren. Viertens schlagen wir in Bezug auf die Risiken, Abhängigkeiten zwischen Maßnahmen und Kosten der Maßnahmen, eine Methodik vor, um geeignete Maßnahmen auszuwählen und in ein Systemdesign zu integrieren. In einer Reihe von realistischen Fallstudien bewerten wir unsere Konzepte und geben einen vielversprechenden Ausblick auf die Anwendbarkeit unserer Methodik in der Praxis.
Die Forschung im Bereich der modellbasierten Objekterkennung und Objektlokalisierung hat eine vielversprechende Zukunft, insbesondere die Gebäudeerkennung bietet vielfaltige Anwendungsmöglichkeiten. Die Bestimmung der Position und der Orientierung des Beobachters relativ zu einem Gebäude ist ein zentraler Bestandteil der Gebäudeerkennung.
Kern dieser Arbeit ist es, ein System zur modellbasierten Poseschätzung zu entwickeln, das unabhängig von der Anwendungsdomäne agiert. Als Anwendungsdomäne wird die modellbasierte Poseschätzung bei Gebäudeaufnahmen gewählt. Vorbereitend für die Poseschätzung bei Gebäudeaufnahmen wird die modellbasierte Erkennung von Dominosteinen und Pokerkarten realisiert. Eine anwendungsunabhängige Kontrollstrategie interpretiert anwendungsspezifische Modelle, um diese im Bild sowohl zu lokalisieren als auch die Pose mit Hilfe dieser Modelle zu bestimmen. Es wird explizit repräsentiertes Modellwissen verwendet, sodass Modellbestandteilen Bildmerkmale zugeordnet werden können. Diese Korrespondenzen ermöglichen die Kamerapose aus einer monokularen Aufnahme zurückzugewinnen. Das Verfahren ist unabhängig vom Anwendungsfall und kann auch mit Modellen anderer rigider Objekte umgehen, falls diese der definierten Modellrepräsentation entsprechen. Die Bestimmung der Pose eines Modells aus einem einzigen Bild, das Störungen und Verdeckungen aufweisen kann, erfordert einen systematischen Vergleich des Modells mit Bilddaten. Quantitative und qualitative Evaluationen belegen die Genauigkeit der bestimmten Gebäudeposen.
In dieser Arbeit wird zudem ein halbautomatisches Verfahren zur Generierung eines Gebäudemodells vorgestellt. Das verwendete Gebäudemodell, das sowohl semantisches als auch geometrisches Wissen beinhaltet, den Aufgaben der Objekterkennung und Poseschätzung genügt und sich dennoch an den bestehenden Normen orientiert, ist Voraussetzung für das Poseschätzverfahren. Leitgedanke der Repräsentationsform des Modells ist, dass sie für Menschen interpretierbar bleibt. Es wurde ein halbautomatischer Ansatz gewählt, da die automatische Umsetzung dieses Verfahrens schwer die nötige Präzision erzielen kann. Das entwickelte Verfahren erreicht zum einen die nötige Präzision zur Poseschätzung und reduziert zum anderen die Nutzerinteraktionen auf ein Minimum. Eine qualitative Evaluation belegt die erzielte Präzision bei der Generierung des Gebäudemodells.
Modellbildung zum Abbindeverhalten von PCE-verflüssigten und CA-Zement-gebundenen Feuerbetonen
(2021)
Feuerbetone werden als Auskleidung in industriellen Hochtemperaturaggregaten, wie beispielsweise in der Eisen- und Stahlindustrie, eingesetzt. Nach dem Mischen und dem Gießen eines Feuerbetons in Formen bzw. Schalungen, muss dieser abbinden und eine ausreichende Festigkeit ausbilden. Die Kinetik der Abbindevorgänge und somit auch das Erhärtungsverhalten variiert dabei stark in Abhängigkeit der Zusammensetzung, vor allem hinsichtlich des Bindemittels und der Additive, des Feuerbetons. In der Praxis der Herstellung von Feuerbetonen kommt es häufig zu Beschädigungen der hergestellten Bauteile oder Auskleidungen durch das Fließen noch nicht ausreichend abgebundener Feuerbetone bzw. die Beschädigung von Ecken und Kanten während des Ausschalens oder Bauteilen reißen durch mechanische Belastung beim Umsetzen oder beim Transport. Diese Beschädigungen basieren auf Fehleinschätzungen zum Abbindefortschritt und der korrespondierenden Festigkeitsausprägung der Feuerbetone. Diese wiederum sind auf Lücken im Stand der Technik zurück zu führen.
Für PCE-verflüssigte und CA-Zement-gebundene Korund-Feuerbetonen mit einer Al₂O₃- und Al₂O₃-SiO₂-Matrix, werden die Defizite des Stands der Technik für diese Feuerbetonklasse identifiziert: Diese liegen im Bereich der Verflüssigungswirkung und des ersten Ansteifens der Feuerbetone, der Hydratation des CA-Zements in den Feuerbetonen und der Festigkeitsausprägung der Feuerbetone. Hieraus leitet sich ein entsprechender Forschungsbedarf ab.
Am Beispiel von zwei PCE-verflüssigten (PCE mit kurzer Hauptkette und langen Seitenketten sowie PCE mit langer Hauptkette und kurzen Seitenketten) und CA-Zement-gebundenen (70 % Al₂O₃) Feuerbetonen mit einer reaktivtonerde-basierten und einer reaktivtonerde-mikrosilika-basierten Matrix werden abbindekinetische Untersuchungen durchgeführt. Anhand verschiedener abbindekinetischer Messmethoden, wie Schallgeschwindigkeit oder elektrischer Leitfähigkeit, und einigen ergänzenden Messung, wie beispielsweise das ζ-Potential, wird der Abbindeverlauf der Feuerbetone untersucht und die Defizite aus dem Stand der Technik aufgeklärt.
Im Detail wurde der Stand der Technik um folgende Erkenntnisse ergänzt:
• Verflüssigung von Feuerbetonen mit PCE-Molekülen: Es wurde festgestellt, dass die Verflüssigungswirkung und das erste Ansteifen maßgeblich durch die Struktur der Verflüssigermoleküle hervorgerufen werden.
PCE-Moleküle mit langen Seitenketten verflüssigen eher sterisch. Durch die Vermittlung von Ca²⁺ aus dem CA-Zement wird die Adsorption der PCE-Moleküle verstärkt. Freie PCE-Moleküle können auf CAH-Phasen (Hydratationsprodukte) adsorbieren und somit die Fließfähigkeit des Feuerbetons für eine gewisse Zeit aufrechterhalten.
PCE-Moleküle mit kurzen Seitenketten verflüssigen elektrosterisch. Bei Lösung von Ca²⁺ aus dem CA-Zement kommt es zu einer Ca-PCE Gel-Bildung und einer korrespondierenden Koagulation der Feuerbetonmatrix und der Feuerbeton steift zeitnah nach dem Mischen an.
• Hydratation von CA-Zement: Die Hydratation von CA-Zement in den Feuerbetonen wird wesentlich durch die Länge der Seitenketten der PCE-Moleküle bzw. der Anwesenheit von Zitronensäure beeinflusst.
In Feuerbetonen die mit PCE-Molekülen mit langen Seitenketten verflüssigt wurden, kann der CA-Zement weitestgehend frei hydratisieren. Der CAH-Phasenanteil steigt in zwei Abschnitten, getrennt von einer dormanten Phase. Die dormante Phase der CA Zementhydratation wurde auf eine Lösungshemmung der Al-O-H-Passivierungsschicht auf dem CA-Zement bei mäßigem pH-Wert (pH = 12,3) zurückgeführt.
In Feuerbetonen die mit PCE-Molekülen mit kurze Seitenketten und Zitronensäure verflüssigt werden, wird die Hydratationsreaktion durch eine Ca-Citrat-PCE-Al(OH)₄-Gelbildung stark gehemmt. Es besteht die Vermutung, dass die Bindung von Ca²⁺ in dem Gel zum einen eine sehr ausgeprägte dormante Phase (pH < 12,3), mit einer schlechten Löslichkeit der Passivierungsschicht, bewirkt und zum anderen auch die Fällung von CAH-Phasen unterdrückt.
• Festigkeitsausprägung von CA-Zement-gebundenen Feuerbetonen:
Eine Koagulation bewirkt die erste Festigkeitssteigerung der Feuerbetone auf σB < 1 MPa. Im Anschluss findet die Hauptfestigkeitssteigerung auf Grund von Austrocknung durch Hydratation und Verdunstung statt. Der weitere Teil der Festigkeitssteigerung wird durch die Reduzierung der Porosität durch expansive CA-Zementhydratation und die hohe spezifische Oberfläche sowie deren weitere Erhöhung durch die CA-Zementhydratation bewirkt.
Aus den einzelnen abbindekinetischen Effekten können, zusammen mit dem Stand der Technik und den neuen Erkenntnissen, mikrostrukturelle Abbindemodelle und Modelle zur Festigkeitsentwicklung der Feuerbetone abgeleitet werden. In Folge kann für die zwei Feuerbetone zu jedem Zeitpunkt des Abbindens eine Aussage zum Abbindefortschritt und zur Festigkeitsausprägung getätigt werden. Einige der Abbindemechanismen und festigkeitsbildenden Mechanismen können auf andere Feuerbetonzusammensetzungen übertragen werden.
Mathematisches Modellieren bezeichnet die verschiedenen Prozesse, die Menschen durchlaufen, wenn sie versuchen, reale Probleme mathematisch zu lösen oder Textaufgaben zu bearbeiten. In der Literatur werden im sogenannten Modellierungszyklus fünf aufeinanderfolgende Teilprozesse genannt, die den Ablauf des Problemlöseprozesses beschreiben (Blum, 2003). Beim Strukturieren wird zunächst eine Problemsituation im kognitionspsychologischen Sinne verstanden, die wesentlichen Merkmale werden abstrahiert um dann im zweiten Schritt (Mathematisieren) in ein mathematisches Modell (bestehend aus Gleichungen, Symbolen, Operatoren, Ziffern etc.) übersetzt zu werden. Beim Verarbeiten dieses mathematischen Modells mithilfe mathematischen Wissens wird das Problem innermathematisch gelöst, woraufhin das Ergebnis im vierten Schritt (Interpretieren) rückübertragen wird auf die ursprüngliche Problemsituation. Die dort aufgeworfene Frage wird beim Interpretieren beantwortet. Der letzte Schritt (Validieren) sieht eine Überprüfung des gesamten Problemlöseprozesses vor: Kommt der Modellierer zu dem Schluss, dass sein Ergebnis eventuell nicht korrekt bzw. nicht optimal ist, wird der Modellierungszyklus von vorne durchlaufen. Der Modellierungszyklus dient dabei sowohl als deskriptives als auch als präskriptives (normatives) Modell, da er einerseits beschreibt, wie Modellieren abläuft und andererseits vorschreibt, wie Schüler z.B. beim Lösen von mathematischen Textaufgaben vorgehen sollen. Dennoch liegen für beide Zielsetzungen keine empirischen Studien vor, die belegen könnten, dass der Modellierungszyklus sich tatsächlich als deskriptives oder als präskriptives Modell eignet. In der vorliegenden Arbeit konnte die Eignung als deskriptives Modell nur mit Einschränkungen bestätigt werden. So zeigte sich z.B. in einer Voruntersuchung, dass das Stadium Validieren bei Schülern der Klassenstufe 4 nicht zu beobachten ist und dass der Ablauf der Stadien deutlich von der vorgegebenen Reihenfolge abweichen kann. Eine revidierte Version des Modellierungszyklus als rekursives Modell wird daher vorgeschlagen. In einer zweiten, größeren Untersuchung wurde die Eignung als normatives Modell untersucht, indem die vier Stadien Strukturieren, Mathematisieren, Verarbeiten und Interpretieren isoliert voneinander erfasst wurden, wofür zuvor eigens Items konstruiert worden waren. Die vier Unterskalen wurden an mehreren Kriterien - darunter die Fähigkeit zum Lösen kompletter Modellierungsaufgaben - validiert, was den normativen Charakter des Modells bestätigt. Um Modellierungskompetenz frühzeitig diagnostizieren und dementsprechend fördern zu können, ist die Entwicklung von Methoden angezeigt, die vier Teilkompetenzen Strukturieren, Mathematisieren, Verarbeiten und Interpretieren bereits im Grundschulalter unabhängig voneinander objektiv, reliabel und valide zu erfassen. Mit der Entwicklung und Analyse von Items zu den vier Teilbereichen wurde hierfür mit der vorliegenden Arbeit ebenfalls eine Grundlage geschaffen.
Moderne Instant-Messaging-Systeme als Plattform für sicherheitskritische kollaborative Anwendungen
(2010)
Während unter dem Begriff Instant Messaging (IM) ursprünglich nur der Austausch von Textnachrichten (Messaging, Chat) verstanden wurde, bieten heutige Instant-Messaging-Systeme (IM-Systeme, IMS) darüber hinaus viele weitere Funktionen wie Sprachtelefonie, Videokonferenz oder Dateiübertragung an. Aktuelle IM-Systeme werden vor allem in der privaten unverbindlichen Kommunikation eingesetzt. Diese Systeme eignen sich " wie in dieser Arbeit gezeigt wird " aber auch für den Einsatz im geschäftlichen Kontext. Zu den Vorzügen, die sich aus der Nutzung eines IM-Systems ergeben, gehören beispielsweise die spontane, flexible und kostengünstige Nutzung unabhängig von Ort und Zeit, die einfache Verteilung von Informationen an mehrere Teilnehmer und die Verfügbarkeit verschiedener Kommunikationskanäle für unterschiedliche Aufgaben. Der Ursprung dieser Systeme (kurzer informeller Nachrichtenaustausch), ihr modularer Aufbau, die unkontrollierte Installation auf Clients sowie der daraus entstehende Informationsfluss führten zu zahlreichen Fragen und Herausforderungen bezüglich ihrer Sicherheit. So kann beispielsweise nicht ohne weiteres kontrolliert werden, welche Informationen ein Unternehmen auf diesem Weg verlassen. Anders als bei anderen elektronischen Kommunikationsmedien (E-Mail, Web) sind hier noch keine bekannten Sicherheitsmechanismen etabliert (z. B. Spam-Filter, Sicherheitsfunktionen von Webbrowsern). Diese Fragestellungen sind zu betrachten und durch geeignete Maßnahmen zu beantworten, wenn solche Systeme für die Arbeit mit sensiblen und vertraulichen Informationen eingesetzt werden sollen. Ziel der hier vorgestellten Arbeit ist es, Instant-Messaging-Systeme so zu gestalten, dass durch die Konzeption (bzw. Erweiterung) von geeigneten Sicherheitsmechanismen einerseits die einfache und spontane Nutzung der Systeme möglich bleibt und andererseits trotzdem eine sichere, authentifizierte und verbindliche Kollaboration unterstützt wird.
Enterprise collaboration platforms are increasingly gaining importance in organisations. Integrating groupware functionality and enterprise social software (ESS), they have substantially been transforming everyday work in organisations. While traditional collaboration systems have been studied in Computer Supported Cooperative Work (CSCW) for many years, the large-scale, infrastructural and heterogeneous nature of enterprise collaboration platforms remains uncharted. Enterprise collaboration platforms are embedded into organisations’ digital workplace and come with a high degree of complexity, ambiguity, and generativity. When introduced, they are empty shells with no pre-determined purposes of use. They afford interpretive flexibility, and thus are shaping and being shaped by and in their social context. Outcomes and benefits emerge and evolve over time in an open-ended process and as the digital platform is designed through use. In order to make the most of the platform and associated continuous digital transformation, organisations have to develop the necessary competencies and capabilities.
Extant literature on enterprise collaboration platforms has proliferated and provide valuable insights on diverse topics, such as implementation strategies, adoption hurdles, or collaboration use cases, however, they tend to disregard their evolvability and related multiple time frames and settings. Thus, this research aims to identify, investigate, and theorise the ways that enterprise collaboration platforms are changing over time and space and the ways that organisations build digital transformation capabilities. To address this research aim two different case study types are conducted: i) in-depth longitudinal qualitative case study, where case narratives and visualisations capturing hard-to-summarise complexities in the enterprise collaboration platform evolution are developed and ii) multiple-case studies to capture, investigate, and compare cross-case elements that contribute to the shaping of enterprise collaboration platforms in different medium-sized and large organisations from a range of industries. Empirical data is captured and investigated through a multi-method research design (incl. focus groups, surveys, in-depth interviews, literature reviews, qualitative content analysis, descriptive statistics) with shifting units of analysis. The findings reveal unique change routes with unanticipated outcomes and transformations, context-specific change strategies to deal with multiple challenges (e.g. GDPR, works council, developments in the technological field, competing systems, integration of blue-collar workers), co-existing platform uses, and various interacting actors from the immediate setting and broader context. The interpretation draws on information infrastructure (II) as a theoretical lens and related sociotechnical concepts and perspectives (incl. inscriptions, social worlds, biography of artefacts). Iteratively, a conceptual model of the building of digital transformation capabilities is developed, integrating the insights gained from the study of enterprise collaboration platform change and developed monitoring change tools (e.g. MoBeC framework). It assists researchers and practitioners in understanding the building of digital transformation capabilities from a theoretical and practical viewpoint and organisations implement the depicted knowledge in their unique digital transformation processes.
The bio-insecticide Bacillus thuringiensis israelensis (Bti) has worldwide become the most commonly used agentin mosquito control programs that pursue two main objectives: the control of vector-borne diseases and the reduction of nuisance, mainly coming frommosquitoes that emerge in large quantities from seasonal wetlands. The Upper Rhine Valley, a biodiversity hotspot in Germany, has been treated withBti for decades to reduce mosquito-borne nuisance and increase human well-being.Although Btiis presumed to be an environmentally safe agent,adverse effects on wetland ecosystems are still a matter of debate especially when it comes to long-term and indirect effects on non-target organisms. In light of the above, this thesis aims at investigating direct and indirect effects of Bti-based mosquito control on non-target organisms within wetland food chains.Effects were examinedin studies with increasingeco(toxico)logical complexity, ranging from laboratory over mesocosm to field approaches with a focus on the non-biting Chironomidae and amphibian larvae (Rana temporaria, Lissotriton sp.).In addition, public acceptance of environmentally less invasive alternative mosquito control methods was evaluated within surveys among the local population.
Chironomids were the most severely affected non-target aquatic invertebrates. Bti substantially reduced larval and adult chironomid abundances and modified their species composition. Repeated exposures to commonly used Bti formulations induced sublethal alterations of enzymatic biomarkers activityin frog tadpoles. Bti-induced reductions of chironomid prey availability indirectly decreased body size of newts at metamorphosis and increased predation on newt larvae in mesocosm experiments. Indirect effects of severe reductions in midge biomassmight equally be passed through aquatic but also terrestrial food chains influencing predators of higher trophic levels. The majority ofaffectedpeople in the Upper Rhine Valley expressed a high willingness to contributefinancially to environmentally less harmful mosquito control.Alternative approaches could still include Bti applications excepting treatment of ecologically valuable areas. Potentially rising mosquito levels could be counteracted with local acting mosquito traps in domestic and urban areas because mosquito presence was experienced as most annoying in the home environment.
As Bti-based mosquito control can adversely affect wetland ecosystems, its large-scale applications, including nature conservation areas, should be considered more carefully to avoid harmful consequences for the environmentat the Upper Rhine Valley.This thesis emphasizesthe importance to reconsiderthe current practice of mosquito control and encourage research on alternative mosquito control concepts that are endorsed by the local population. In the context ofthe ongoing amphibian and insect declinesfurther human-induced effects onwetlands should be avoided to preserve biodiversity in functioning ecosystems.
Efficient Cochlear Implant (CI) surgery requires prior knowledge of the cochlea’s size and its characteristics. This information helps to select suitable implants for different patients. Registered and fused images helps doctors by providing more informative image that takes advantages of different modalities. The cochlea’s small size and complex structure, in addition to the different resolutions and head positions during imaging, reveals a big challenge for the automated registration of the different image modalities. To obtain an automatic measurement of the cochlea length and the volume size, a segmentation method of cochlea medical images is needed. The goal of this dissertation is to introduce new practical and automatic algorithms for the human cochlea multi-modal 3D image registration, fusion, segmentation and analysis. Two novel methods for automatic cochlea image registration (ACIR) and automatic cochlea analysis (ACA) are introduced. The proposed methods crop the input images to the cochlea part and then align the cropped images to obtain the optimal transformation. After that, this transformation is used to align the original images. ACIR and ACA use Mattes mutual information as similarity metric, the adaptive stochastic gradient descent (ASGD) or the stochastic limited memory Broyden–Fletcher–Goldfarb–Shanno (s-LBFGS) optimizer to estimate the parameters of 3D rigid transform. The second stage of nonrigid registration estimates B-spline coefficients that are used in an atlas-model-based segmentation to extract cochlea scalae and the relative measurements of the input image. The image which has segmentation is aligned to the input image to obtain the non-rigid transformation. After that the segmentation of the first image, in addition to point-models are transformed to the input image. The detailed transformed segmentation provides the scala volume size. Using the transformed point-models, the A-value, the central scala lengths, the lateral and the organ of corti scala tympani lengths are computed. The methods have been tested using clinical 3D images of total 67 patients: from Germany (41 patients) and Egypt (26 patients). The atients are of different ages and gender. The number of images used in the experiments is 217, which are multi-modal 3D clinical images from CT, CBCT, and MRI scanners. The proposed methods are compared to the state of the arts ptimizers related medical image registration methods e.g. fast adaptive stochastic gradient descent (FASGD) and efficient preconditioned tochastic gradient descent (EPSGD). The comparison used the root mean squared distance (RMSE) between the ground truth landmarks and the resulted landmarks. The landmarks are located manually by two experts to represent the round window and the top of the cochlea. After obtaining the transformation using ACIR, the landmarks of the moving image are transformed using the resulted transformation and RMSE of the transformed landmarks, and at the same time the fixed image landmarks are computed. I also used the active length of the cochlea implant electrodes to compute the error aroused by the image artifact, and I found out an error ranged from 0.5 mm to 1.12 mm. ACIR method’s RMSE average was 0.36 mm with a standard deviation (SD) of 0.17 mm. The total time average required for registration of an image pair using ACIR was 4.62 seconds with SD of 1.19 seconds. All experiments are repeated 3 times for justifications. Comparing the RMSE of ACIR2017 and ACIR2020 using paired T-test shows no significant difference (p-value = 0.17). The total RMSE average of ACA method was 0.61 mm with a SD of 0.22 mm. The total time average required for analysing an image was 5.21 seconds with SD of 0.93 seconds. The statistical tests show that there is no difference between the results from automatic A-value method and the manual A-value method (p-value = 0.42). There is no difference also between length’s measurements of the left and the right ear sides (p-value > 0.16). Comparing the results from German and Egypt dataset shows there is no difference when using manual or automatic A-value methods (p-value > 0.20). However, there is a significant difference when using ACA2000 method between the German and the Egyptian results (p-value < 0.001). The average time to obtain the segmentation and all measurements was 5.21 second per image. The cochlea scala tympani volume size ranged from 38.98 mm3 to 57.67 mm3 . The combined scala media and scala vestibuli volume size ranged from 34.98 mm 3 to 49.3 mm 3 . The overall volume size of the cochlea should range from 73.96 mm 3 to 106.97 mm 3 . The lateral wall length of scala tympani ranged from 42.93 mm to 47.19 mm. The organ-of-Corti length of scala tympani ranged from 31.11 mm to 34.08 mm. Using the A-value method, the lateral length of scala tympani ranged from 36.69 mm to 45.91 mm. The organ-of-Corti length of scala tympani ranged from 29.12 mm to 39.05 mm. The length from ACA2020 method can be visualised and has a well-defined endpoints. The ACA2020 method works on different modalities and different images despite the noise level or the resolution. In the other hand, the A-value method works neither on MRI nor noisy images. Hence, ACA2020 method may provide more reliable and accurate measurement than the A-value method. The source-code and the datasets are made publicly available to help reproduction and validation of my result.