Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (469) (entfernen)
Sprache
- Englisch (245)
- Deutsch (222)
- Mehrsprachig (1)
- Spanisch (1)
Schlagworte
- Pestizid (8)
- Pflanzenschutzmittel (8)
- Führung (6)
- Inklusion (6)
- Grundwasserfauna (5)
- Landwirtschaft (5)
- Persönlichkeit (4)
- Software Engineering (4)
- Unterrichtsforschung (4)
- ecotoxicology (4)
Institut
- Fachbereich 7 (93)
- Fachbereich 8 (47)
- Institut für Informatik (33)
- Institut für Integrierte Naturwissenschaften, Abt. Biologie (29)
- Institut für Umweltwissenschaften (23)
- Institut für Integrierte Naturwissenschaften, Abt. Chemie (21)
- Fachbereich 5 (20)
- Institut für Computervisualistik (18)
- Institut für Wirtschafts- und Verwaltungsinformatik (13)
- Institut für Integrierte Naturwissenschaften, Abt. Physik (12)
Die zentrale Fragestellung dieser Arbeit ist die nach den Effekten unterrichtlicher Faktoren und deren Zusammenspiel auf den Schülerleistungszuwach im Fach Englisch in Vietnam unter Berücksichtigung von Kontextfaktoren. Daneben geht es um methodische Fragestellungen, insbesondere um die Bedeutung der Auswahl eines Skalierungsmodells.
Die verwendeten Daten wurden im Rahmen eines Forschungsprojekts in Vietnam im Schuljahr 2006/2007 erhoben. Neben einem Messwiederholungsdesign mit zwei Messzeitpunkten am Anfang und am Ende des Schuljahres wurde eine Videostudie in der Mitte des Schuljahres durchgeführt. Bei jedem Messzeitpunkt wurden die adaptierten Englisch Tests (C-Test und Hörverstehenstest) und die Fragebögen aus der Studie Deutsch Englisch Schülerleistungen International (DESI) in Deutschland eingesetzt. Zur Gewinnung verhaltensnaher Indikatoren des Unterrichts wurden die Videoaufzeichnungen transkribiert und von trainierten Experten niedrig-inferent kodiert und hoch-inferent geratet. Zur Skalierung der Schülerleistungen wurden mehrere Skalierungsmodelle ausgewählt. Zur Skalierung der Schülerleistung anhand des C-Tests mit einer Testlet-Struktur wurden zwei unidimensionale und zwei Testletmodelle eingesetzt. Um Schülerleistungen anhand des Hörverstehenstests kamen das Raschmodell, das 2PL und das 3PL Modell zum Einsatz. Die Schülerleistungsschätzungen von beiden Messzeitpunkten wurden mithilfe eines gemeinsamen Skalierungsmodells skaliert und miteinander verlinkt. Anschließend wurden die Plausible Values gezogen. Zur Modellierung des Zusammenhangs zwischen den Unterrichtsfaktoren und dem Schülerleistungszuwachs wurden sowohl lineare als auch komplexere Unterrichtseffekte (nicht-linear, additiv, multiplikativ) berücksichtigt. Die anfängliche Leistung und der sozioökonomische Status der Schülerinnen und Schüler werden als Kontextfaktoren betrachtet. Die Analyseverfahren der Wahl waren OLS-Regressionen sowie regularisierten Regressionsmodelle mit lasso (least absolute shrinkage and selection operators).
Die Ergebnisse zeigen hinsichtlich wichtiger fächerübergreifender Merkmale einerseits ein positives Bild der Qualität des Englischunterrichts, aus Sicht der englischen Fachdidaktik jedoch eine mangelde Unterrichtsqualität. Die bedeutsamsten Unterrichtsfaktoren des Schülerleistungszuwachses im C-Test sind Aspekte der Motivierungsqualität sowie der Unterrichtssprache. Für den Zuwachs beim Hörverstehenstest spielten Aspekte der Unterrichtssprache sowie die relative Häufigkeit von Wiederholungsfragen eine wichtige Rolle. Die Hypothesen zu den Unterrichtseffekten wurden durchweg bestätigt. Trotz der Ähnlichkeiten zwischen Schülerleistungsschätzungen anhand verschiedener Skalierungsmodelle hingen die Ergebnisse hinsichtlich der Effekte von Unterrichtsmerkmalen auf den Leistungszuwachs erheblich vom Skalierungsmodell ab.
Synthetische Nanopartikel sind neuartige Schadstoffe. Aufgrund ihrer häufigeren Anwendung wird sich ihre Konzentration in der Umwelt in Zukunft voraussichtlich stark erhöhen. Die Untersuchung des Schicksals von synthetischen Kolloiden in der Umwelt erweist sich als schwierig, bedingt durch deren mögliche komplexe Wechselwirkungen mit den Bestandteilen aquatischer Systeme. Eine zentrale Rolle spielt hierbei die Lösungschemie. Insbesondere die Wechselwirkungen mit gelösten organischen Stoffen (DOM) sind bisher wenig verstanden.
Das Ziel dieser Arbeit bestand darin, angepasste analytische Methoden zu entwickeln, um die Effekte von DOM auf das Schicksal synthetische Kolloide in der Umwelt zu untersuchen.rnEine Literaturrecherche über die Wechselwirkungen den DOM mit anorganischen Kolloiden hat ergeben, dass es einen Mangel an systematischen Charakterisierungen von Kolloiden und DOM in den meisten Studien gibt, obwohl diese wesentlich wäre. Des Weiteren wäre die Erforschung der Fraktionierung von DOM auf Kolloiden bedeutend sowie die Untersuchungen der Effekte von DOM auf die dynamische Struktur von Agglomeraten. Für die Charakterisierung von niedrigkonzentrierten Agglomeraten in Umweltmedien werden passende analytische Techniken benötigt. Solche Techniken müssen genau, spezifisch, artefaktfrei (minimale Probenvorbereitung) und matrixunabhängig bei niedrigen Konzentrationen sein. Keine der üblichen Methoden (Mikroskopie, Lichtstreuungsmethode, Trenntechnicken) erfüllt alle diese Voraussetzungen. Jedoch stellt die Hydrodynamische Chromatographie gekoppelt mit Massenspektrometrie mit induktiv gekoppeltem Plasma (HDC-ICP-MS) einen vielversprechenden Kompromiss dar. Mit dieser Methode kann die Größe von anorganischen Partikeln in komplexen Medien und in Konzentrationsbereichen unter ppb elementspezifisch gemessen werden. Allerdings wurden die Begrenzungen der Methode nicht systematisch untersucht.
Während dieser Doktorarbeit wurde das Potenzial dieser Methode weiter untersucht. Der einfache Trennmechanismus ermöglicht einen großen Spielraum für die Elutionsparameter und eine universelle Kalibrierung kann für Partikel mit unterschiedlicher Zusammensetzung und unterschiedlicher Oberflächenchemie angewendet werden. Eine schwache Auflösung der Partikelgröße sowie die Effekte der Partikelform auf den Retentionsfaktor stellen die wichtigsten Begrenzungen der Methode dar.rnDie Anwendung von HDC gekoppelt mit Einzelpartikel ICP-MS (HDC-SP-ICP-MS) bietet neue Möglichkeiten für die Partikelformerkennung und die Differenzierung zwischen primären Partikeln und Homoagglomeraten. Diese Kopplungstechnik ist deswegen hochattraktiv, um Effekte von DOM auf der Stabilität von Kolloiden zu untersuchen. Die Vielseitigkeit der HDC-ICP-MS konnte durch verschiedene erfolgreiche Anwendungen hervorgehoben werden. Insbesondere wurde sie genutzt, um die Stabilität von zitrat-stabilisierte Silberkolloiden in synthetischem Flusswasser unter Anwesenheit verschiedener Typen DOM zu untersuchen. Diese Partikel waren mehr als eine Stunde stabil unabhängig von pH und vom Typ der DOM. Dieses Ergebnis deckt sich mit den Ergebnissen einer parallel publizierten Studie über die Stabilität von Silberkolloiden in Rheinwasser. Die direkte Untersuchung von DOM-Adsorption auf Kolloiden war mit UV- und Fluoreszenzdetektoren nicht möglich. Vorversuche wiesen darauf hin, dass die fluoreszierenden Huminsaüremoleküle auf Silberkolloiden nicht adsorbieren. Lösungen für die verbleibenden Schwierigkeiten in der Analyse der Wechselwirkungen der DOM werden vorgeschlagen und die vielfältigen Entwicklungs- und Anwendungserspektiven von HDC-(SP)-ICP-MS in den Umweltwissenschaften werden im Detail diskutiert.
Internationale Bildungsstudien (TIMSS und PISA) offenbarten, dass es deutschen Schülern nur begrenzt gelingt, ihr erworbenes Wissen im Physikunterricht zur Problemlösung in neuen Kontexten zu nutzen. Als Grund nennen die Studien die gering ausgeprägte Kompetenz-erwartung in Bezug zum Fach Physik. Die Folge ist eine geringe Motivation der Lernenden, physikalische Aufgaben zu lösen. Studien zeigen aber auch, dass die Motivation beim Lernen durch den Einsatz digitaler Lernmedien gesteigert werden konnte. Aus diesem Grund wird in dieser Arbeit untersucht, ob das Vertrauen in die eigenen Fähigkeiten durch das Lernen in einer integrierten Lernumgebung gefördert werden kann. Im Rahmen eines Design-Based-Research-Forschungsansatzes (DBR) wurde eine integrierte Lernumgebung „Wärmelehre“ mit digitalen Lernmedien für den Physikunterricht gestaltet, die dann in zwei Schulformen (IGS und Gymnasium) innerhalb einer quasi-experimentellen Feldstudie erprobt wurde. Im 1. Zyklus des DBR wurden die Wirkungen des selbstständigen Lernens mit digitalen/analogen Medien in Einzelarbeit untersucht. Die Ergebnisse der Wissenstests zeigen einen höheren Lernerfolg bei den Lernenden der Experimentalgruppen, der sich aber nicht signifikant von den Lernenden der Kontrollgruppen (analoge Medien) unterscheidet. Die Lernenden konnten sich in der integrierten Lernumgebung mit Unterstützung beider Medienformate selbstständig Fachwissen aneignen und problembasierte Textaufgaben lösen. Die Ergebnisse der Befragungen der Lernenden zeigen, dass sich die Lerngruppen signifikant in ihrem erlebten Grad der Selbststeuerung unterscheiden. Die Lernenden beider Experimentalgruppen bewerten ihren Handlungsspielraum besser als die Lernenden der beiden Kontrollgruppen. Ebenfalls konnte festgestellt werden, dass sich die individuellen Lernvoraussetzungen, der Lernstiltyp, das Kompetenzerleben und die Aspekte der Medien-gestaltung wechselseitig beeinflussen und auf den Lernerfolg wirken. Die Ergebnisse der Lernstilanalyse zeigen, dass sich selbst kleine Lerngruppen heterogen zusammensetzen. Demnach scheint es für einen guten Lernerfolg notwendig zu sein, dass die Lehrenden, die Lernumgebung an die individuellen Lernpräferenzen der Lernenden der Lerngruppe anpassen. Aus den Ergebnissen lässt sich als Konsequenz für den Physikunterricht ableiten, dass Selbstlernphasen mit digitalen Lernmedien regelmäßig in den Unterricht integriert werden sollten, um die Problemlöse- und die Selbststeuerungskompetenz zu fördern. Es ist von Vorteil, wenn die Lehrenden für die Gestaltung einer Lernumgebung, das Vorwissen, die individuellen Lernvoraussetzungen und die Zusammensetzung der Lerngruppe (Lernstiltyp) als Qualitätsdimensionen erfassen. Im Re-Design werden Vorschläge unterbreitet, wie die integrierte Lernumgebung lernstilgerecht weiterentwickelt werden kann. Im 2. Zyklus soll dann erforscht werden, ob sich Unterschiede im Lernerfolg und in den untersuchten Aspekten zeigen, wenn die Lernenden in Einzelarbeit, in Partnerarbeit oder in ihrer Lernstilgruppe selbstgesteuert lernen, um die Lernumgebung zyklisch weiterzuentwickeln.
Probability propagation nets
(2008)
In der vorliegenden Arbeit wird eine Petri-Netz-Repräsentation für die Propagation von Wahrscheinlichkeiten und Evidenzen (Likelihoods) vorgestellt und auf probabilistische Horn-Abduktion sowie Fehlerbäume und Bayes-Netze angewendet. Diese sogenannten Wahrscheinlichkeits-Propagations-Netze (probability propagation nets) machen Propagations-Prozesse transparent, indem sie strukturelle und dynamische Aspekte in einer homogenen Darstellung vereinen. Anhand populärer Beispiele wird verdeutlicht, dass Wahrscheinlichkeits-Propagations-Netze die Propagations-Prozesse - besonders im Hinblick auf die Bayes-Netz-Algorithmik - anschaulich darstellen und gut nachvollziehbar machen, so dass sie sich für die Analyse und Diagnose probabilistischer Modelle eignen. Durch die Repräsentation von Fehlerbäumen mit Wahrscheinlichkeits-Propagations-Netzen können diese Vorzüge auf die Modellierung technischer Systeme übertragen werden.
Harvesting Season?
(2022)
Seit etwa zwanzig Jahren existieren Bemühungen Kunden zum Kauf von Lebensmitteln im Internet zu bewegen. Dabei waren die Marktstrukturen des digitalen Lebensmittelhandels zu Beginn noch stark fragementiert und schlecht abgestimmt. Durch die technologische Weiterentwicklung in den vergangenen Dekade hat der digitale Lebensmittelkauf an Attraktivität gewonnen. Die Nutzungsadaption dieser Diensteleistungen variiert dabei jedoch sehr stark zwischen unterschiedlichen Regionen. Besonders in Deutschland stagniert der digitalen Lebensmittelhandel auf einem vergleichweise niedrigen Niveau. Diesbezüglich analysiert diese Dissertation sowohl die händlerseitigen Marktstrukturen, als auch die Erwartungen und Hindernisse deutscher Konsumenten gegenüber der Serviceleistung.
Das Jahr 2020 konnotiert einen Wendepunkt für den Online Lebensmittelhandel, als, im Zuge politischer Maßnahmen zur Reduzierung der COVID-19 Infektionen, tägliche Routinen wie der Lebensmitteleinkauf starken Regulierungen unterlagen. Gleichzeitig hat es der digitale Lebensmittelhandel trotz dieser Gelegenheit noch nicht geschafft sich flächendeckend in Deutschland zu etablieren. Dies kann auf fehlende Investments, aber auch unzulängliche Digitalisierungsmaßnahmen zurückgeführt werden. Eine stärkere Synchronisierung zwischen digitalem und stationärem Angebot, bessere Integration digitaler Lebensmitteldienste auf regionaler Ebene sowie angepasste, zielgruppenadäquate digitale Lösungen zum effizienten Abbau von Nutzungsbarrieren. Die Wichtigkeit stabiler Lebensmittelketten und –verteilung konnte durch die COVID-19 Pandemie illustriert werden. Weitere Forschung sollte helfen den digitalen Lebensmittelhandel zu einer nachhaltigen und stabilen Supplementierung des stationären Angebots zu entwickeln.
Diese Dissertation entsteht im Rahmen des Projekts Research-Group Learning and Neurosciences (ReGLaN)-Health and Logistics, welches die Optimierung der Gesundheitsversorgung in ländlichen Gebieten Südafrikas zum Ziel hat. Es besteht dabei eine Kooperation mit dem Council for Scientific and Industrial Research (CSIR) Meraka Institute mit Prof. Dr. Dr. Marlien Herselman, Pretoria, Südafrika, als zentrale Ansprechpartnerin. Die Dissertation befasst sich mit der mathematischen Modellierung für adaptive graphische Benutzerschnittstellen (GUI), die ein angepasstes Verhalten in Abhängigkeit von Geographischen Informationssystemen (GIS) besitzen und durch räumliche Fuzzy-Logik gesteuert werden. Innerhalb der Arbeit geht es um die mathematische Visualisierung von maßgeschneiderten Risiko- und Ressourcenkarten für epidemiologische Fragestellungen mit GIS und adaptives GUI-Design für eine Open Source (OS)-Anwendung für digitale Endgeräte zur räumlichen Entscheidungsunterstützung zugeschnitten auf unterschiedliche Benutzergruppen. Zur Evaluation und Initialisierung der GUI-Elemente wurde empirische Lehr-Lern-Forschung zum Umgang mit Geomedien und GUI-Elementen eingesetzt.
Obwohl Kinder beim Bauen mit Bauklötzen bereits früh Erfahrungen mit Aspekten der Stabilität von Bauwerken, wie z. B. Kräfteverteilung, Standfestigkeit sowie Gleich- und Gegengewicht, sammeln und es verschiedene Studien gibt, die den fächerübergreifenden Lerngehalt von Bauklötzen hervorheben, ist das Verständnis bezüglich der Stabilität von Bauklotzanordnungen bisher kaum erforscht. Daher wurde untersucht, welche Vorstellungen sechs- bis siebenjährige Kinder zur Stabilität von Bauklotzanordnungen zeigen und welche Unterstützungsmaßnahmen eine Vorstellungsveränderung anregen. In Studie 1 und 2 zeigt sich, dass Kinder in der Schuleingangsphase erste Vorstellungen zur Stabilität von Bauklotzanordnungen haben. Über verschiedene Analysen wurden schwierigkeitsbestimmende Merkmale bzw. lösungsrelevante Dimensionen identifiziert. Kinder mit ca. fünf Jahren orientieren sich eher an der geometrischen Mitte und beziehen somit die Abstandsdimension ein, bei Neunjährigen berücksichtigen hingegen knapp über die Hälfte bereits den Massenmittelpunkt. Folglich reicht die „Bauerfahrung“ von Kindern bis zum neunten Lebensjahr nicht aus, um die Fähigkeit, Bauklotzanordnungen bezüglich ihrer Stabilität zu beurteilen, vollständig zu entwickeln. Deshalb wurde in Studie 3 untersucht, inwieweit sich eine Vorstellungsveränderung zur Stabilität von Bauklotzanordnungen mithilfe verschiedener Unterstützungsmaßnahmen innerhalb einer kurzen Lerneinheit anregen lässt. Dabei wurden verschiedene materiale und verbale Unterstützungsmaßnahmen in Form von Fotos und gezielten sprachlichen Instruktionen in einem systematischen Vergleich gegenübergestellt. Die Ergebnisse weisen nach, dass bereits mit einer kurzen Lerneinheit ein Wissenszuwachs bei Siebenjährigen angeregt werden kann, insbesondere wenn sie durch Fotos und gezielte sprachliche Instruktionen unterstützt werden. Die Ergebnisse sind ein erster Schritt für die Entwicklung eines naturwissenschaftlichen Unterrichts zur Stabilität von Bauklotzanordnungen.
Die Studien der vorliegenden Arbeit untersuchen geschlechtsspezifisch-emotionale Reaktionsmuster auf stärkere und weniger stark emotionalisierte Texte verschiedener Textarten zu negativen Themen. Zusätzlich finden verschiedene Ausprägungen von Geschlechterstereotypen und dahingehend mögliche Zusammenhänge mit emotionalen Reaktionen Berücksichtigung. Versuchspersonen wurden mit Textmaterial konfrontiert und sollten daraufhin mit Hilfe des Emotionsfragebogens M-DAS ihre emotionalen Reaktionen bewerten. Frauen zeigten eine stärkere Ergriffenheit in Bezug auf das Textmaterial im Allgemeinen und besonders auf emotionalisiertes Textmaterial. Gemischte Ergebnisse zeigten sich in Bezug auf geschlechtertypische Textarten. Eine Sachtextpräferenz der Männer ließ sich ebensowenig signifikant belegen wie die erwartete stärkere Vorliebe der Frauen für literarische Texte. Geschlechtsspezifische Emotionen wurden weitestgehend erwartungskonform berichtet: Frauen reagierten mit stärkerer Angst und Trauer auf das Textmaterial, Männer mit stärkerer Verachtung. Die Ergebnisse in Bezug auf Wut sind gemischt, in einigen Fällen wurde Wut jedoch stärker von den Frauen berichtet. Die Untersuchung der Zusammenhänge zwischen internalisierten Stereotypen ergab Einflüsse hauptsächlich von weiblichen Stereotypen auf emotionale Reaktionen, männliche Stereotype konnten nur in einer Teilfragestellung als Einflussfaktor ausgemacht werden. Emotionsbezogene Stereotype wiesen keine Zusammenhänge mit emotionalen Reaktionen auf. Insgesamt belegen die Ergebnisse der Arbeit, dass sich geschlechterspezifische Unterschiede in emotionalen Reaktionen finden lassen.
Diversität und Verbreitung von Schluchtwäldern (Tilio-Acerion) im Rheinischen Schiefergebirge
(2012)
Im Rahmen dieser Studie wurde die Diversität der Gefäßpflanzen von Edellaubmischwäldernrn im Rheinischen Schiefergebirge statistisch erfasst und dabei erstmalig deren Artenzusammensetzung anhand einer angewandten Standortanalyse soziologisch-floristisch beschrieben sowie deren Verbreitung im Einzugsbereich von unterer Mosel, unterer Lahn und dem Mittelrheingebiet zusammenfassend dargestellt.
Zudem war es Ziel dieser Untersuchung die Variabilität und Struktur der Artenzusammensetzung in Abhängigkeit von edaphischen und mikroklimatischen Umweltfaktoren auf Schiefer als anstehendem Gestein zu analysieren und diesbezüglich das Tilio-Acerion des Untersuchungsraums mit den bisher vorwiegend auf kalkhaltigem Untergrund untersuchten Edellaubmischwaldgesellschaften der übrigen deutschen Gebirge zu vergleichen. Mit Blick auf die Einstufung dieser Waldgesellschaft als "prioritären Lebensraum" innerhalb des NATURA 2000-Schutzgebietssystems und der an die FFH-Richtlinie gekoppelten Berichtspflicht von Rheinland-Pfalz, die alle 6 Jahre erfüllt werden muss,wurde die bisherige Einstufung der Ausprägung dieser Waldgesellschaft für die naturräumlichen Haupteinheiten im Untersuchungsraum revidiert. Dabei wurden auch anthropogene Gefährdungen untersucht und Schutzmaßnahmen für den Erhalt dieses in Mitteleuropa streng geschützten Fauna-Flora-Habitats diskutiert sowie Vorschläge zur Eingliederung von bisher unberücksichtigten Regionen in das NATURA 2000-Schutzgebietssystem abgegeben. Insgesamt wurden 191 Taxa in 1209 Aufnahmen erfasst und 29 Arten davon auf Grund ihrer Seltenheit oder Schutzwürdigkeit als bemerkenswert eingestuft. Des Weiteren wurden 3 Assoziationen und eine bisher noch unbekannte Festuca altissima-Tilia cordata-Gesellschaft beschrieben, wobei der überwiegende Teil der Aufnahmen dem Fraxino-Aceretum pseudoplatani zugeordnet wurde, das sich synsystematisch in weitere standörtlich bedingte Untereinheiten differenzieren lässt. Dabei hebt sich das Tilio-Acerion im Rheinischen Schiefergebirge gemeinsam mit Beständen weiterer silikatischer Gebirge von Edellaubmischwäldern auf karbonatischen Gebirgen in Deutschland durch säuretolerante Arten einer Polystichum aculeatum-Variante syntaxonomisch ab. Zudem konnte das in der Literatur bisher umstrittene Adoxo moschatellinae-Aceretum als eigene, dem Tilio-Acerion zugehörige Assoziation anhand von Kennarten wie dem im Untersuchungsraum hochsteten Polystichum aculeatum in der für die syntaxonomische Bewertung prioritären Krautschicht validiert werden. Regionale Unterschiede der Edellaubmischwälder sind im Untersuchungsgebiet anhand der dortigen Verbreitungsgrenzen submediterraner, (sub-)atlantischer und (sub-)kontinentaler Florenelemente erkennbar. Edaphische und mikroklimatische Faktoren haben sich als besonders einflussreich für diverse Ausprägungen der Schluchtwaldflora herausgestellt. Das Tilio-Acerion ist im Einzugsbereich der Mosel besonders artenreich, was lokal auch auf das Lahngebiet zutrifft. Der Straßen- und Wegebau wird als häufigste Gefährdung eingestuft, in den Tieflagen des oberen Mittelrhein- und Moselgebiets kommen Niederwald-Effekte in Form von haselreichen Degradationsstadien hinzu, in den Hochlagen sind Nadelwaldaufforstungen problematisch. Entsprechend wird gefordert derartige Maßnahmen sowie die Abholzung und Totholzentnahme in Edellaubmischwäldern zu vermeiden und diese sich stattdessen ihrer natürlichen Sukzession zu überlassen.
Die Studie hat gezeigt, dass die naturräumlichen Haupteinheiten Hunsrück, Westerwald, Taunus sowie das Mosel-, Lahn- und Mittelrheintal entgegen bisheriger Einstufung ein "Hauptvorkommen" an Schlucht- und Hangmischwäldern mit "guter Ausprägung" aufweisen.
Das Just-in-Time - Verfahren ist ein neues Unterrichtskonzept aus den USA (auch in D. schon z.T. eingesetzt), bei dem ein oder zwei Tage vor der Unterrichtsstunde Fragen hauptsächlich zu qualitativem und konzeptuellem Verständnis an die SchülerInnen gestellt und von diesen per eMail beantwortet werden. Aus den Lösungen wird dann von der Lehrkraft eine Folie mit falschen und richtigen Vorschlägen erstellt (i.a. anonym), die dann in der Klasse diskutiert werden. Die besonderen Vorteile des Verfahrens sind: Adaptiver Unterricht mit kurzfristiger ("just-in-time") Reaktionsmöglichkeit auf Präkonzepte und andere Lernschwierigkeiten; Förderung der Selbsttätigkeit und Eigenverantwortung für die eingesendeten Beiträge; Schaffung einer schriftlichen (eMail-Beitrag) und mündlichen (Diskussion) Gelegenheit zur Spracharbeit an fachlichen Inhalten. Das Lernarrangement Die über Webspace verfügende Lehrkraft lädt eine themenrelevante Aufgabe ins Internet. Diese Aufgabe ist von den SchülerInnen ihres Kurses am Computer zu Hause zu bearbeiten; die Bearbeitung wird über ein Formularfenster als Mail an die Lehr-kraft gesendet. Mit den Statements ihrer SchülerInnen im Kopf begibt sich die Lehrkraft nun an die Planung der folgenden Unterrichtsstunde: Insbesondere werden die interessantesten Statements auf TLP-Folie kopiert . Sie bilden den roten Faden der in Planung befindlichen Unterrichtsstunde. Die Schülerantworten sind also zum einen Planungsgrundlage für die folgende Unterrichtsstunde, zum anderen werden sie zu einem besonderen Unterrichtsmedium des JiTT-Verfahrens (Folie o.ä. mit den interessantesten Statements). Der Unterrichtsverlauf enthält Phasen, in denen die Schüleraussagen gelesen, erörtert und diskutiert werden sowie Phasen, in denen die Gruppe mit üblichen Unterrichtsmedien und -methoden (Arbeitsblätter, Versuche) arbeitet. Im Idealfalle reduziert sich die Rolle des Lehrers in der Diskussionsphase auf die eines Moderators. Fachdidaktische und instruktionspsychologische Begründung JiTT kann als besondere Form des Adaptiven Unterrichts aufgefasst werden: Der Lehrkraft ist es möglich, insbesondere auf vorhandene Präkonzepte und andere Lernschwierigkeiten in adäquater Form zu reagieren und ihren Unterricht zu gestalten. Das Verfahren kann des weiteren auf der Ebene der Motivation wirksam sein, indem Selbstbestimmung (Mitgestaltung des Unterrichtes!) und soziale Einbindung (Diskussion der Schülerbeiträge in der Gruppe!) in besonderer Weise gefördert und gefordert werden. Selbstbestimmung und soziale Einbindung sind aber (zusammen mit Kompetenz) Hauptfaktoren in einer der führenden Theorien der Motivationspsychologie (Selbstbestimmungstheorie nach DECI & RYAN). Bemerkungen zum Design der Feldstudie In den Hauptteil der Feldstudie des Projektes zur Evaluation des Verfahrens waren zwei Physik-Leistungskurse eines rheinland-pfälzischen Gymnasiums (Teilgebiete "Mechanik" und "Elektrodynamik") eingebunden, ein Ergänzungsteil wurde im Rahmen einer Mechanik-Vorlesung des Lehramtsstudiums Physik an einer rheinland-pfälzischen Universität realisiert. Das erhobene Datenmaterial wurde insbesondere mit Hilfe des Verfahrens der multivariaten, hierarchischen Regressionsanalyse evaluiert. Ergebnis der Feldstudie und Diskussion Ein relevanter Effekt des JiTT-Verfahrens auf die Performanz der Lernenden kann nicht nachgewiesen werden. Im Hinblick auf mögliche Erklärungsmuster erscheinen folgende Aspekte von Bedeutung: Im Zuge der adäquaten Berücksichtigung von Schülervorstellungen ist es ausreichend, die "Mainstream-Päkonzepte" der Lernenden zu kennen. Detaillierte-res Wissen führt zu keinem signifikant erfolgreicheren Unterricht; Die vergleichsweise offen gestalteten JiTT-Phasen des Unterrichts scheinen insbesondere die leistungsschwächeren Lernenden zu überfordern; Ein eventuell doch vorhandener, auf JiTT zurückführbarer Einfluss auf die Performanz wird durch die Effizienz des im Unterricht eingesetzten methodischen Werkzeugs der Modellbildung überdeckt. Im Hinblick auf die motivationalen Einstellungen der Lernenden erscheint bemer-kenswert, dass man in JiTT zwar durchaus eine Bereicherung für den Unterricht sieht, dem gewachsenen zeitlichen Druck sowie den erweiterten Kontrollmöglichkeiten seitens der Lehrkraft jedoch kritisch gegenübersteht. Somit ist zweifelhaft, ob es durch den Einsatz des Verfahrens tatsächlich zu einer Verstärkung der autonom regulierten Varianten der Motivation kommt.
Gentechnisch veränderte Pflanzen werden seit etwa 25 Jahren kommerziell angebaut. Besonders häufig werden Bt-Pflanzen verwendet, die Gene des Bakteriums Bacillus thuringiensis (Bt) enthalten und Cry-Proteine produzieren. Die Risikobewertung konzentrierte sich lange auf die terrestrische Umwelt. Erst mit der Veröffentlichung von Rosi-Marshall et al. im Jahr 2007 rückten mögliche Auswirkungen auf die aquatische Umwelt in den Fokus. In dem ersten Teil dieser Dissertation wurde die vorhandene Literatur zu lower-tier Effektstudien und Studien über den Verbleib ausgewertet, die die Auswirkungen von GV-Pflanzen auf die aquatische Umwelt untersuchen. Es zeigen sich potentielle Effekte auf aquatische Organismen. Einige Studien wiesen außerdem den Eintrag von GV-Pflanzenmaterial in die aquatische Umwelt sowie das Herauswaschen der Toxine in das Wasser nach.
Im zweiten Teil der Dissertation wird die Wirkung des Cry1Ab-Toxins auf zwei Arten an Köcherfliegenlarven (Chaetopterryx spec., Sericostoma spec.) untersucht. Trichopteren sind phylogenetisch nah verwandt mit Lepidopteren, die häufig die Zielorganismen von Cry-Toxinen sind. Um mehrere Konzentrationen verabreichen zu können wurde eine neue Spiking-Methode eingesetzt, bei der gelöstes Cry1Ab-Toxin auf Blätter der Schwarzerle (Alnus glutinosa) aufgetragen wird. Effekte zeigten sich ins Besondere bei sublethalen Endpunkten. Der Lipidgehalt der Chaetopteryx spec. Larven war nach zwölf Wochen geringer mit zunehmender Cry1Ab Konzentration. Die Verringerung des Lipidgehalts könnte auf eine Erhöhung des Energiebedarfs für Reparaturmechanismen hindeuten. Bei Sericostoma spec. zeigte sich nach sechs Wochen eine Verlangsamung der Larvalentwicklung in der höchsten Cry1Ab Konzentration, was zu einer späteren Emergenz und damit zu Auswirkungen auf die Nahrungskette führen könnte.
Im dritten Teil der Dissertation wurde die Bewertung von Auswirkungen von GV-Pflanzen auf die aquatische Umwelt anhand von higher-tier Studien untersucht. Da higher-tier Studien bei Pestiziden bereits häufig vorkommen, wurden diese mit den bereits durchgeführten higher-tier Studien mit GV-Pflanzen verglichen. Es zeigt sich, dass es keine Standardisierung von higher-tier Studien mit GV-Pflanzen gibt, was für die Qualitätssicherung und die Vergleichbarkeit von Studien notwendig ist. Außerdem bestehen große Schwierigkeiten damit verschiedene Versuchskonzentrationen herzustellen, was für die Untersuchung einer Dosis-Wirkungsbeziehung notwendig ist.
Insgesamt zeigt sich, dass es noch erheblichen Forschungsbedarf gibt, was die Auswirkungen von GV-Pflanzen auf die aquatische Umwelt angeht. Weitere Studien sind für eine umfangreiche und aussagestarke Risikobewertung unumgänglich.
Science education has been facing important challenges in the recent years: the decline in student’s interest in scientific topics, and moreover, the decrease of students pursuing science beyond their compulsory studies (Bennett, Hogarth, Lubben, 2003). As a result, research has focus on examining different approaches that could attempt to improve the situation. One of these approaches has been the use of context-based problem-solving tasks (Kölbach & Sumfleth, 2011; Bennett, Hogarth, Lubben, 2003). While research into context-based problem-solving tasks suggest that they are very motivating for students, it is still unclear how they influence motivation. Following an experimental pretest-postest design, two studies examined the effects of context-based task characteristics of contextualization, complexity, and transparency, on students’ motivational variables, performance, and metacognitive experiences.
Results from both studies suggest that the task characteristic of contextualization directly influences how students’ interest is triggered and maintained throughout the task. On the other hand, the task characteristics of complexity and transparency had different effects for the other dependent variables of effort, difficulty, and solution correctness.
Moreover, data shows that other motivational variables such as anxiety and success expectancies are strongly influenced by the interaction of the parameters under study. The dissertation concludes that appropriate design and use of context-based task characteristics can benefit students’ learning processes and outcomes.
Zusammenfassend lässt sich sagen, dass die Verwendung von rnAntivirenmittel dazu geführt hat, dass diese heute in der aquatischen Umwelt weit verbreitet sind. Es konnte zudem gezeigt werden, dass es beim Abbau von Antivirenmitteln in biologischen als auch in oxidativen Prozessen mittels Ozon zu keiner Mineralisierung sondern vielmehr zur Bildung von, teilweise stabilen, Transformations- bzw. Oxidationsprodukten kommt.
Dies eine der ersten Studien in der das Verhalten, und insbesondere die Transformation, eines Arzneimittels (Acyclovir) nahezu im gesamten Wasserkreislauf, von der biologischen Abwasserbehandlung bis zu weitergehenden oxidativen Verfahren umfassend beschrieben werden konnte. Die Ergebnisse zeigen deutlich die Bedeutung biologischer Transformationsprodukte als möglichen Vorläufer toxischer Oxidationsprodukte.
Die Vermeidung von Lebensmittelabfällen als nicht-technische Strategie zur Umsetzung der Bioökonomie
(2018)
Das Konzept der Bioökonomie beruht auf der Vision einer Wirtschaft, die durch die bevorzugte Verwendung biogener Rohstoffe unabhängiger wird von der Nutzung fossiler Quellen und gleichzeitig einen Beitrag zu Klima- und Ressourcenschutz, Ernährungssicherung und Stärkung der heimischen Wirtschaft leisten kann. Da die land- und forstwirtschaftliche Bio-masseproduktion aufgrund knapper Flächen jedoch begrenzt ist und sich bereits heute die negativen Folgen einer verstärkten Nachfrage zeigen, wird bezweifelt, dass sich die Vision in nachhaltiger Weise realisieren lässt. Offizielle Bioökonomie-Strategien setzen auf einen Technik-basierten Umsetzungspfad, in der Hoffnung, mit Hilfe technischer Innovationen Biomasseproduktion und Umweltverbrauch zu entkoppeln. Kritiker aus Wissenschaft und Zivilgesellschaft stehen diesem Weg skeptisch gegenüber. Sie befürchten, dass Effizienzsteigerungen und die Entwicklung neuer, umweltverträglicher Konversionsprozesse nicht ausreichen werden, um potentiell negative Folgen einer verstärkten Biomassenutzung abzuwenden. Angesichts der natürlichen Grenzen der Biosphäre sehen sie vor allem nicht-technische Ansätze zur Veränderung von Produktions- und Konsummustern als unverzichtbare Voraus-setzungen an. Mit der Formulierung eines sozial-ökologischen Umsetzungspfads wird eine Modifizierung des Bioökonomie-Konzepts gefordert, von einem bloßen Wandel der Ressourcenbasis hin zu einer umfassenden gesellschaftlichen Transformation, mit dem Ziel, Ressourcenverbrauch und Rohstoffproduktion neu zu justieren.
Die Arbeit stellt anhand des Beispiels der Lebensmittelabfälle die Bedeutung nicht-technischer Ansätze für die Realisierung der Bioökonomie heraus. Die Basis bilden fünf Publikationen, von denen sich drei mit dem Aufkommen von Lebensmittelabfällen, den Ursachen ihrer Entstehung und möglichen Vermeidungsstrategien befassen. Die anderen beiden Veröffentlichungen behandeln Flächenkonkurrenzen in der Landwirtschaft sowie Implementierungspfade der Bioökonomie. Die Arbeit kommt zu dem Schluss, dass der Beitrag von Lebensmittelabfällen zur Bioökonomie auf zwei Weisen denkbar ist: Entweder können diese als Ausgangsstoff für die Biogasproduktion oder die Bioraffinerie genutzt werden, was der aktuell vorherrschenden Vorstellung entspricht. Oder es können durch eine Reduktion des Abfallaufkommens Ressourcen, die bisher in die Bereitstellung nicht konsumierter Lebensmittel flossen, für andere Biomassenutzungen freigesetzt werden.
Die Analyse des Abfallaufkommens und der damit verbundenen Umweltwirkungen, aber auch vorhandene Studien über die ökologischen Wirkungen von Abfallvermeidungs- und verwertungsoptionen zeigen, dass die Vermeidung unter dem Gesichtspunkt der Ressourceneffizienz die sinnvollere Option darstellt. Die Arbeit hebt das Potenzial hervor, das sich aus der Berücksichtigung einer Reduktion von Lebensmittelabfällen für die Bioökonomie ergeben könnte. So ist denkbar, dass durch einen effizienteren Umgang mit den bereits produzierten Nahrungsmitteln Ressourcen freigesetzt werden können, die den Spielraum für die Realisierung der Bioökonomie verbessern würden oder aber Perspektiven entstehen für alternative Formen des Landbaus, die eine umweltverträglichere Biomasseproduktion ermöglichen könnten. Da nicht-technische Ansätze in der aktuellen Bioökonomie-Debatte kaum Berücksichtigung finden, besteht Bedarf, diese in das politische Konzept der Bioökonomie einzubeziehen und den wissenschaftlichen Diskurs für diese Aspekte zu öffnen.
Die Abschätzung der Eintragswahrscheinlichkeit von Pestiziden in Gewässer ist insbesondere im Landschaftsmaßstab aufgrund der erforderlichen ereignisbezogenen Probenahmetechniken mit erheblichem Kostenaufwand verbunden. Simulationsmodelle können hierbei eine wichtige Alternative zur Planung von Risiko-Minimierungsmaßnahmen darstellen. Hauptziele dieser Arbeit waren (A) die Entwicklung eines Simulationswerkzeugs, mit dessen Hilfe das Eintragsrisiko von Pestiziden in Oberflächengewässer im Landschaftsmaßstab abgeschätzt werden kann und sich Risiko-Minimierungsmaßnahmen effektiv planen lassen, sowie (B) die Durchführung einer Expositions- und Risikoabschätzung sowie die Abschätzung negativer Effekte von Pestiziden auf die Artenzahlen von Fließgewässer-Lebensgemeinschaften des Braunschweiger Umlands. Exposition, Risiko und Effekte In den Abschnitten 1.1 und 1.2 wurde das Simulationsmodell auf landwirtschaftlich beeinflusste Fließgewässer des Braunschweiger Umlands angewendet. Abschnitt 1.3 gibt einen Überblick über allgemeine Anwendungsmöglichkeiten des Simulators und den Systemaufbau. Abschnitt 1.1 - Scenario based simulation of runoff-related pesticide entries into small streams on a landscape level (Englische Publikation, S. 27): Auf Basis des von der OECD vorgeschlagenen (ratio of exposure to toxicity) REXTOX-Modells wurde der Pestizideintrag für 737 Probestellen bei kleineren Fließgewässern des Braunschweiger Umlands simuliert. Die Simulation wurde für die 15 im Untersuchungsgebiet am häufigsten nachgewiesenen Pestizide für je acht verschiedene Umweltszenarien durchgeführt. Die Szenarien umfassten Management-Maßnahmen, wie z.B. die Variation der Randstreifenbreite, sowie klimatische und saisonale Aspekte. Die höchsten Konzentrationen wurden für ein Szenario ohne Randstreifen und gleichzeitig erhöhten Niederschlägen vorhergesagt. Anhand der simulierten Konzentrationen wurde das Risiko für aquatische Lebensgemeinschaften auf Basis von Standard-Toxizitätstests (Endpunkte EC50, LC50) und eines Sicherheitsfaktors abgeschätzt. Abschnitt 1.2 - Linking land use variables and invertebrate taxon richness in small and medium-sized agricultural streams on a landscape level (Englische Publikation, S. 50): In dieser Studie wurden die langjährigen mittleren Artenzahlen von Fließgewässer-Invertebratentaxa im landwirtschaftlich geprägten Braunschweiger Umland (Untersuchungen über 15 Jahre bei 90 Gewässern an 202 Probestellen) auf Wechselbeziehungen mit verschiedenen Umweltfaktoren, wie z.B. der Gewässerbreite, der Landnutzung (Landwirtschaft, Wald, Wiese, Siedlung), der Bodenart sowie landwirtschaftlich bedingter Stressoren untersucht. Der Stress, der von der landwirtschaftlichen Nutzung ausgeht, wurde dabei durch das Risiko des Auftretens von Oberflächenabfluss (runoff) von der Ackerfläche in das Gewässer ausgedrückt. Der Faktor "Risk of Runoff" wurde von dem von der OECD vorgeschlagenen "ratio of exposure to toxicity" (REXTOX)-Modell abgeleitet. Durch multivariate Statistik konnten insgesamt 39,9% der Varianz in der Artenzahl erklärt werden, wobei die Gewässerbreite mit 25,3% den wichtigsten Faktor darstellte, gefolgt vom Faktor "Risk of Runoff" mit 9,7%. Abschnitt 1.3 - Informationssystem zur ökotoxikologischen Bewertung der Gewässergüte in Bezug auf Pflanzenschutzmitteleinträge aus der Landwirtschaft - Systemaufbau und Anwendungsmöglichkeiten (Tagungsbeitrag S. 61): Abschnitt 1.3 enthält einen kurzen Überblick über das Simulationssystem, generelle Anwendungsmöglichkeiten sowie Anwendungsbeispiele. Das Simulationssystem Ein wichtiger Aspekt für den Einsatz eines Simulationsmodells im Rahmen der Risikoabschätzung ist dessen einfache Anwendbarkeit in der Praxis. Dazu zählen die leichte Verfügbarkeit der benötigten Eingangsdaten, die Umsetzung des Modells in eine Softwareanwendung sowie die entsprechende Dokumentation des Systems. Abschnitt 1.4 - Informationssystem zur ökotoxikologischen Bewertung der Gewässergüte in Bezug auf Pflanzenschutzmitteleinträge aus der Landwirtschaft - Simulationsmodell und Systemaufbau (BMBF-Bericht, S. 67): In diesem Abschnitt wird das verwendete Modell, die "simplified formula for indirect loadings caused by runoff" (SFIL), der schematische Aufbau des Simulationssystems sowie der Ablauf des Datenverarbeitungsprozesses dargestellt. Abschnitt 1.5 - Benutzerhandbuch (BMBF-Bericht, S. 71): Das Benutzerhandbuch enthält Informationen über die Installation des Systems, die Erzeugung der benötigten Eingangsdaten, zur allgemeinen Arbeit mit dem System sowie Anwendungsbeispiele (Was-wäre-wenn-Analyse). Abschnitt 1.6 - Technische Dokumentation (BMBF-Bericht, S. 104): Die technische Dokumentation beschreibt die Struktur der Import-/Export-Datenbanktabellen des Simulators.
Die Wechselwirkungen zwischen Polysacchariden und Wasser am Beispiel der Modellsubstanz Hyaluronan
(2013)
Die Wasseraufnahme von Polysacchariden wird derzeit intensiv erforscht. Wechselwirkungen zwischen Wasser und herkömmlichen oder modifizierten Polysacchariden und Polysaccharid-basierten Biokonjugaten bestimmen maßgeblich deren Funktionalität. Trotz intensiver Forschung gibt es weiterhin eine Reihe offener Fragen darüber, wie Wasser die Struktur der Polysaccharide beeinflusst und welche Konsequenzen das für ihre industrielle und medizinische Anwendung hat. Die Wechselwirkungen zwischen Wasser und Polysacchariden werden oft durch übereinanderliegende "Schichten" von Wasser verbildlicht, dessen physikalische Eigenschaften sich in Abhängigkeit vom Abstand zur Polysaccharid-Moleküloberfläche verändern.
In der vorliegenden Arbeit wurden solche "Wasserschichten" in dem Modell"Polysaccharid Hyaluronan (HYA), einem Natriumsalzsalz bestehend aus ß -1,4-Verknüpfungen der ß -1,3-verknüpften D-Glucuronsäure und des N-Acetyl-D-Glucosamins, untersucht. Mithilfe der Dynamischen Differenzkalorimetrie (engl.: Differential Scanning Calorimetry, DSC) können diese Wasserschichten hinsichtlich ihres Gefrierverhaltens unterschieden werden. Bei HYA-Molekülgewichten von 100 bis 740kDa betrug die Menge "nicht gefrierbaren" Wassers, d.h. von Wasser in unmittelbarer Nähe der HYA Molekülketten, 0.74gH2O/gHYA und bei einem Molekülgewicht von 139kDa betrug sie 0.84gH2O/gHYA. Die Menge von "gefrierbar gebundenem" Wasser, also des Anteiles, der zwar noch vom HYA Molekül beeinflusst wird, aber trotzdem gefrierbar ist, betrug zwischen 0.74 und 2gH2O/gHYA. Oberhalb dieses Wassergehaltes liegt nur "nicht gefrierbares" und "freies" Wasser vor, da die Schmelzenthalpie bei höheren Wassergehalten der von reinem Wasser entspricht. Die Charakterisierung der Wasserbindung durch die Bestimmung von Schmelzenthalpien unterliegt experimentellen Einschränkungen. Daher wurde ein neuer Ansatz basierend auf der Bestimmung von Verdampfungsenthalpien vorgeschlagen. Verdampfungsenthalpien von HYA unterhalb eines Wassergehaltes von 0.34gH2O/gHYA wiesen auf einen zusätzlichen möglicherweise exothermen Prozess hin, der auch in der protonierten Form des HYA beobachtet werden konnte.
Dieser Prozess wurde durch die Kissinger-Akahira-Sunose Methode bestätigt, die Bestimmung der tatsächlichen Verdampfungs und Desorptionsenthalpien des Wassers in allen Stadien des Verdampfungsprozesses erlaubt. Tatsächlich nahm die scheinbare Verdampfungsenthalpie bis zu einem Wassergehalt von 0.34gH2O/gHYA zu und sank dann wieder zu niedrigeren Werten ab, die allerdings immer noch deutlich über der Verdampfungsenthalpie von reinem Wasser lagen. Mithilfe von zeitlich aufgelöster Kernspinresonanz Technik (engl.: Time Domain Nuclear Magnetic Resonance, TD-NMR) wurde gezeigt, dass es sich bei besagtem Prozess um die Plastifizierung von HYA handelt.
Außerdem konnte das mithilfe der DSC bestimmte "nicht gefrierbare" Wasser in zwei weitere Fraktionen unterteilt werden. Ein Anteil von 15% dieses Wassers tritt direkt in Wechselwirkung mit den polaren funktionellen Gruppen und wird als "strukturell integriertes" Wasser bezeichnet und ein Anteil von 85% ist zwischen HYA Molekülketten eingebettet und wird als "strukturell eingeschränktes" Wasser bezeichnet. Da der Erweichungspunkt in der Nähe des Gleichgewichtswassergehalts liegt, bietet die er die Möglichkeit, die physikalische Struktur von HYA durch Trocknung zu beeinflussen. Dafür wurden drei Proben des ursprünglichen HYA unter unterschiedlichen Bedingungen getrocknet und ihre physikalischen Eigenschaften untersucht. Die Proben unterschieden sich in der Kinetik der erneuten Wasseraufnahme, im Glasübergangsverhalten und in ihrer Morphologie. Die Eigenschaften der Wasserfraktionen wurden in Lösungen mit 10"25 mg HYA/mL bestimmt. Feldzyklus-NMR (eng.: Fast-field-cycling FFC-NMR) Messungen zeigten drei Wasserfraktionen die mit dem Abstand zur HYA Moleküloberfläche abnehmende Korrelationszeiten zwischen 10"6 bis 10"10 s aufwiesen.
Außerdem wurde die Bildung schwacher relativ kurzlebiger Wasserbrücken zwischen den HYA Molekülketten beobachtet. Anders als für anorganische Elektrolyte, ist die Wasseraufnahme durch organische Polyelektrolyte ein dynamischer Prozess, der nicht nur die Analysetechnik und die experimentellen Bedingungen sondern auch die Konformation der Polyelektrolyte und deren thermische und Wassergehalts-Vorgeschichte widerspiegelt. Dadurch können einige Polysaccharidstrukturen nur durch Veränderung der Probenvorbereitung und ohne chemische Modifikationen verändert und Produkte mit spezifischen physiko-chemischen Eigenschaften gewonnen werden.
In this thesis, I present the results of my studies on taxonomy, systematics, and biogeography of Impatiens (Balsaminaceae) in Madagascar and the Comoro islands.
In Chapter 1 I reviewed the literature on taxonomy and classification of Balsaminaceae, on habitat, world distribution, morphology, molecular phylogenetics and infrageneric classification of the genus Impatiens. In Chapters 2-15 (Fischer & Rahelivololona 2002, 2003, 2004, 2007, 2015a, 2015b, 2015c, 2016, Fischer et al. 2004. 2017, 2018a, b submitted, Rahelivololona et al. 2003) I presented the first results of a revision of Balsaminaceae of Madagascar and the Comoro islands including the description of 78 new species. In Chapter 16 (Yuan et al. 2004) we worked on the phylogeny and biogeography of Balsaminaceae inferred from ITS sequences using combined results from molecular phylogenetic and morphological analyses. In Chapter 17 (Rahelivololona et al. 2018) we conducted a phylogeny and assessment of the infrageneric classification of species in the Malagasy Impatiens (Balsaminaceae) with a particular emphasis on taxa collected from Marojejy.
Below I summarise the most important findings of each chapter and provide an outlook for future studies.
How many species of Impatiens occur in Madagascar and the Comoro islands?
To provide additional information on the taxonomic revision of Impatiens in Madagascar and the Comoro islands, the identification of already described species as well as the description of new species was conducted. Based on herbarium specimens from BR, G, K, NEU, P, TAN and on living plants collected during several field trips, 78 new species and 6 nomina nova have been published and another 70 new taxa are already identified. Actually more than 260 species occur in Madagascar and the Comoro islands and all of them are endemic. For each species, a description of the morphology, phenology, ecology and known distribution range was provided. Apart from new taxa, the delimitation of already described species like Impatiens firmula Baker and Impatiens hildebrandtii Baill. could be clarified by studying the types and by observing the variability in the field.
Are the groups of Impatiens in Madagascar monophyletic, and what is the systematic position of Trimorphopetalum?
Yuan & al. (2004) conducted a molecular phylogenetic study to examine the morphological and karyological evolution, and the historical biogeography of the Balsaminaceae family by using nucleotide sequence data of internal transcribed spacer regions of nuclear ribosomal DNA. The results support the monophyly of the Malagasy endemic section Trimorphopetalum and show that the cleistogamous Impatiens inaperta should be included in the sect. Trimorphopetalum which is the most derived within Impatiens. Therefore, the section Preimpatiens proposed by Perrier de la Bâthie (1934) is paraphyletic.
Rahelivololona & al. (2018) provided a phylogenetic study focused on three subdivisions (based on macromorphological characters) proposed by Perrier de la Bâthie (1934). The analysis was done using two nuclear AP3/DEF homologues (ImpDEF1 and ImpDEF2) and the plastid atpB-rbcL spacer to reassess or assess the monophyly of the Malagasy Impatiens, of the sections Preimpatiens (Humblotianae and Vulgare groups) and Trimorphopetalum. A focus was on the species of Impatiens from the Marojejy National Park and of the morphologically variable species I. elatostemmoides, I. “hammarbyoides”, I. inaperta and I. manaharensis, using monophyly as the primary criterion.
As results the Malagasy Impatiens are paraphyletic and the section Preimpatiens sensu Perrier de la Bâthie (1934) (= subgen. Impatiens sensu Fischer & Rahelivololona 2002) was not resolved as a monophyletic group. The section Trimorphopetalum sensu Perrier de la Bâthie (1934) (= subgen. Trimorphopetalum sensu Fischer & Rahelivololona 2002), however, was strongly confirmed as a monophyletic lineage (BS: 92; BPP: 1). Neither the Humblotianae group nor the Vulgare group was supported as monophyletic. None of the morphologically variable species appeared to be monophyletic and the sampled species of Impatiens from the Marojejy National Park do also not form a monophyletic group.
What are the biogeographical position and the distribution patterns of Impatiens in Madagascar and the Comoro islands?
Investigation of the geographical affinities and species distribution of section Impatiens (including Humblotianae group and Vulgare group) and section Trimorphopetalum were conducted and the origin and evolution as well as species richness and endemism were discussed.
The isolation, the climate and the complex topography of Madagascar have generated the microhabitats and ecological niches favourable to the diversification of Impatiens species. Impatiens of Madagascar with 260 endemic species is actually the largest genus in Madagascar. Therefore, Madagascar and the Comoro islands are among the most species-rich regions in the world for Impatiens.
Future studies
In Impatiens on Madagascar, there remain numerous unresolved questions that need to be adressed:
• A further study based on a much larger molecular data set and sampling from the entire geographic ranges of Impatiens in Madagascar is needed to retest the monophyly of the different subgenera and sections, as well as a molecular dating of the Malagasy Impatiens.
• The study of pollinators as a key for understanding the radiation and species richness is required: Within Impatiens the different shapes of spur are related to pollinators (bees, birds, butterflies and moths). Therefore pollinator observation of specific species need to be done to understand the radiation of species by adaptation and coevolution with these pollinators. A pollination study with a large number of species within section Trimorphopetalum will help to understand the mechanism of complete disappearance of the spur, the shift of pollinators and the evolution of species richness.
• The destruction of the natural habitats of Impatiens and the subsequent reduction of humidity in logged area constitute a severe threat for the survival of many species. The conservation and reforestation of vulnerable areas such as Ankaratra, Daraina, Mandraka and Col des Tapia near Antsirabe is required.
• In terms of conservation and to mitigate the threat on the genus, a study on the ex-situ-conservation of Malagasy Impatiens species is very important as long as some species are suitable for horticultural purposes (e.g. Impatiens mayae-valeriae, Impatiens emiliae and species with broad red spur).
• Finally, the publication of the revision of Impatiens of Madagascar and the Comoro islands will help other botanists to identify the species and will thus increase our knowledge on the group.
Schizophrenia is a chronic mental health disorder, which changes rapidly the life of the persons and their families, who suffer from it. It causes high biological and psychological vulnerability as well as cognitive, emotional and behavioral disorders. Nowadays, evidence-based pharmacotherapy and psychotherapy are available aiming the rehabilitation and recovery of individuals with schizophrenia. A democratic society is obliged to give these people the opportunity to have an access to those treatments.
The following three published studies present this dissertation thesis and have a common focus on the implementation of evidence-based psychotherapy in individuals with schizophrenia.
The first study evaluates the efficacy of the Integrated Psychological Therapy (IPT) in Greece, one of the most evaluated rehabilitation programs. IPT was compared to
Treatment as Usual (TAU) in a randomized controlled trial (RCT) with 48 individuals with schizophrenia. Significant effects favouring IPT were found in working memory,
in social perception, in negative symptoms, in general psychopathology and in insight. This study supports evidence for the efficacy of IPT in Greece.
The second study evaluates a second hypothesis, when IPT is more and less effective regarding treatment resistant schizophrenia (TRS) and non treatment resistant
schizophrenia (NTRS). It is a part of the first paper. Significant effects favouring NTRS were found for verbal memory, for symptoms, for functioning and quality of
life. Effect sizes showed superiority of NTRS in comparison to TRS. IPTTRS showed on the other side some significant improvements. This study presents the initial findings of a larger study to be conducted internationally for the first time.
The third study is a systematic review, which aims to evaluate the efficacy of Cognitive Behavioral Therapy (CBT), of Meta Cognitive Therapy (MCT), Metacognitive Training (MCTR), Metacognitive Reflection and Insight Therapy
(MERIT), of various Rehabilitation Programs and Recovery Programs in individuals with schizophrenia. 41 RCTs and 12 Case Studies were included. The above interventions are efficacious in the improvement of cognitions, symptoms, functional outcome, insight, self-esteem, comorbid disorders and metacognitive capacity.
The three studies provide insight regarding the importance of evidence-based psychotherapy in persons with schizophrenia leading to recovery and reintegration into
society. Future RCTs with larger samples and long-term follow up, combining evidence-based psychotherapies for individuals with schizophrenia need to be done.
Data-minimization and fairness are fundamental data protection requirements to avoid privacy threats and discrimination. Violations of data protection requirements often result from: First, conflicts between security, data-minimization and fairness requirements. Second, data protection requirements for the organizational and technical aspects of a system that are currently dealt with separately, giving rise to misconceptions and errors. Third, hidden data correlations that might lead to influence biases against protected characteristics of individuals such as ethnicity in decision-making software. For the effective assurance of data protection needs,
it is important to avoid sources of violations right from the design modeling phase. However, a model-based approach that addresses the issues above is missing.
To handle the issues above, this thesis introduces a model-based methodology called MoPrivFair (Model-based Privacy & Fairness). MoPrivFair comprises three sub-frameworks: First, a framework that extends the SecBPMN2 approach to allow detecting conflicts between security, data-minimization and fairness requirements. Second, a framework for enforcing an integrated data-protection management throughout the development process based on a business processes model (i.e., SecBPMN2 model) and a software architecture model (i.e., UMLsec model) annotated with data protection requirements while establishing traceability. Third, the UML extension UMLfair to support individual fairness analysis and reporting discriminatory behaviors. Each of the proposed frameworks is supported by automated tool support.
We validated the applicability and usability of our conflict detection technique based on a health care management case study, and an experimental user study, respectively. Based on an air traffic management case study, we reported on the applicability of our technique for enforcing an integrated data-protection management. We validated the applicability of our individual fairness analysis technique using three case studies featuring a school management system, a delivery management system and a loan management system. The results show a promising outlook on the applicability of our proposed frameworks in real-world settings.
Die Arbeit beschäftigt sich mit dem Einsatz moderner Grafikhardware (GPU) für die Visualisierung und Verarbeitung medizinischer Volumendaten. Die zunehmende Steigerung der Rechenleistung ermöglicht den Einsatz von Standardsystemen für Anwendungsgebiete, die bisher nur speziellen Workstations vorbehalten waren. Zusammen mit dem wesentlichen Vorteil von Grafikhardware Daten direkt anzeigen zu können, sind Verfahren wie visualisierungsgestütztes Berechnen ("visual computing") oder interaktives Steuern von Berechnungen ("computational steering") erst möglich geworden. Darauf wird anhand mehrerer Beispielanwendungen und umgesetzten Konzepten wie den "ray textures" im Detail eingegangen. Da die zu verarbeitenden und darzustellenden Datenmengen stetig ansteigen, ist aufgrund von Speicher- und Bandbreiteneinschränkungen eine kompakte Repräsentation der Daten notwendig. Während die Datenkompression selbst eingehend erforscht wurde, beschäftigt sich die vorliegende Arbeit mit Möglichkeiten, Berechnungen direkt auf den komprimierten Daten durchführen zu können. Dazu wurden verschiedene Algorithmenklassen identifiziert und in die Wavelet-Domäne übertragen. Mit Hilfe von speziellen Varianten der komprimierten Repräsentation ist eine effiziente Umsetzung grundlegender Bildverarbeitungsalgorithmen möglich und zeigt zugleich das Potential dieses Ansatzes auf. Aus technischer Sicht wurde im Laufe der Arbeit die GPU-basierte Programmierumgebung "Cascada" entwickelt. Sowohl die Einführung von objektorientierten Konzepten in die Shaderprogrammierung, als auch eine hierarchische Repräsentation von Berechnungs- und/oder Visualisierungsschritten vereinfacht den Einsatz von Grafikhardware ohne wesentliche Leistungseinbußen. Dies wird anhand verschiedener Implementationen in den jeweiligen Beiträgen und zwei klinischen Projekten im Bereich der Diagnoseunterstützung gezeigt. Hierbei geht es zum einen um die semi-automatische Segmentierung der Leber in niedrig aufgelösten MR-Datensätzen, zum anderen um Möglichkeiten zur Vermessung von abdominalen Aortenaneurysmen; jeweils unterstützt durch Grafikhardware. Darüber hinaus ermöglicht "cascada" auch die Erweiterung hinsichtlich aktueller Architekturen für den universellen Einsatz von Grafikhardware, sowie künftige Entwicklungen durch ein modulares Design.
Gibt es unterschiedliche Qualitäten für das Wohnumfeld von Bewohnern ländlicher Siedlungen in der südlichen Pfalz? Wie könnte man diese Unterschiede quantifizierbar machen? Dies sind die beiden zentralen Fragen dieser Arbeit. Die Raummerkmale sollen zunächst objektiv erfasst werden. In einem weiteren Schritt werden die subjektiven Einschätzungen der Bevölkerung ermittelt und schließlich mit der objektiven Aufnahme verglichen. Zu diesem Zweck wur¬den 12 Ortschaften im Bereich der südlichen Pfalz ausgewählt. Jeweils vier Siedlungen verteilen sich auf den Pfälzerwald (Wilgartswiesen, Bundenthal, Ludwigswinkel, Silz), auf die Weinstraße (Siebeldingen, Göcklingen, Oberotterbach, Pleisweiler-Oberhofen) und auf die Rheinebene (Kapsweyer, Winden, Hayna, Büchelberg). Ein klar umgrenzter geographischer Raum wurde um jede Siedlung im Hinblick auf natürliche Gunst-/Ungunstfaktoren (aus den Bereichen Geologie, Boden, Geomorphologie, Klima, Hydrologie und Vegetation) und kulturhistorische Gunst-/Ungunstfaktoren (aus den Bereichen Siedlung, Flur, Mensch) mit ausgewählten aussagekräftigen Parametern untersucht. Diese wurden zu Merkmalskomplexen zusammengeführt und die dabei gewonnenen Erkenntnisse mit einem Bewertungsraster verknüpft und den einzelnen Orten zugeordnet. Die menschlichen Einschätzungen der gegebenen und auch der gemachten Umwelt sollen in die Überlegungen mit einfließen, und deshalb sind Befragungen der Einwohner durchgeführt worden. So erhielt man Erkenntnisse sowohl über die objektiven Lebensraumbedingungen als auch über die subjektiven Lebensraumbewertungen des Untersuchungsraumes. Eine zentrale Rolle spielt hier also der Raum mit seinen Verflechtungen, Interaktionen und Systembeziehungen für das menschliche Leben darin. Zur Ermittlung der objektiven Merkmale der Siedlungen wurden die folgenden Parameter erfasst: Ortseingänge, Naturnähe, Vielfalt, Eigenart, Ästhetik, Klima, Raum, Lärm/Luft, Erdbeben und Ertrag. Orte mit hohem Waldanteil (v. a. Pfälzerwaldorte) wiesen bessere Bewertungen in den Kategorien Naturnähe, Vielfalt, Ästhetik und Klima auf. Orte mit höheren Reb- und Ackerfluranteilen schnitten bei der Eigenart und dem Ertrag besser ab. Deshalb wurden die Orte im Pfälzerwald insgesamt und durchschnittlich am besten bewertet, gefolgt von den Siedlungen der Rheinebene und der Weinstraße. Diese Ergebnisse wurden anschließend mit den Ergebnissen der Befragungen in den einzelnen Orten, welche selbst sehr unterschiedlich ausfielen, verglichen. Dabei musste festgestellt werden, dass die Bewertung der lebensräumlichen Gegebenheiten durch die Befragten in der Regel besser ausfiel als deren objektive Einstufung. Am zufriedensten sind und am besten bewertet haben die Bewohner der Pfälzerwaldorte, gefolgt von denen der Rheinebene und der Weinstraße. Diese somit feststellbare positive Korrelation lässt vermuten, dass zukünftiges Planen im Meinungsbild der Bevölkerung, die schließlich besonders davon betroffen ist, auch akzeptiert werden kann. Öffentlichkeitsarbeit und die Aufklärung der Bevölkerung in lebensraumrelevanten Angelegenheiten sollten dabei nicht vernachlässigt werden.
Sogenannte Klassische Musik spielte spätestens ab der zweiten Hälfte des 20. Jahrhunderts eine zentrale Rolle für den Musikunterricht in Deutschland. Aber auch der Blick auf jüngere musikpädagogische Diskursstränge lässt Klassische Musik nach wie vor als virulenten Diskussionsanlass erscheinen. Doch wie denken eigentlich Musiklehrer:innen über Klassische Musik im Musikunterricht nach? Diese Thematik ist in der deutschsprachigen Musikpädagogik bisher nicht systematisch erforscht.
Zur Beantwortung der Frage wie Musiklehrer:innen über Klassische Musik im Musikunterricht nachdenken werden in einer qualitativ-empirischen Studie acht leitfadengestützte Interviews geführt und in Anlehnung an die Grounded Theory Methodology ausgewertet. Die herausgearbeitete Theorie zeigt, dass Musiklehrer:innen mit dem Einsatz von Klassischer Musik im Musikunterricht unterschiedliche Ziele verfolgen, diese Musik aber grundsätzlich als den Schüler:innen fremd wahrnehmen. Um mit dieser Situationen umzugehen, entwickeln die Musiklehrer:innen verschiedene Methoden und Strategien, die sich drei Umgangsweisen mit der wahrgenommenen Fremdheit Klassischer Musik zuordnen lassen: Fremdheit vermeiden, Fremdheit reduzieren/relativieren und Fremdheit nutzen.
Die Ergebnisse der Studie werden in fremdheitstheoretischer, musikdidaktischer und transformatorisch-bildungstheoretischer Perspektive kontextualisiert. Die vorliegende Dissertation liefert somit insgesamt einen Beitrag zu musikpädagogischer Unterrichtsforschung zu Klassischer Musik und schafft Anknüpfungspunkte für weitergehende theoretische, empirische und didaktische Forschung.
In der vorliegenden Arbeit wird das thermochemische Wechselwirkungsverhalten verschiedener Magnesiakohlenstoffmaterialen in Abhängigkeit verschiedener Einflussgrößen wissenschaftlich untersucht. Schwerpunkte der experimentellen Arbeiten bilden thermoanalytische Experimente, Gefügeuntersuchungen der Magnesiakohlenstoff-Proben sowie thermodyna-mische Berechnungen und Auswertungen durch CAT (Computer Aided Thermochemistry) mittels des Softwarepakets FactSage.
Erster Themenbereich dieser Arbeit ist die Untersuchung des Einflusses der in dem Rohstoff Magnesia enthaltenen mineralogischen Nebenphasen Merwinit (C3MS2), Monticellit (CMS) und Belit (C2S) auf den carbothermisch induzierten Verschleiß im MgO-C-Material. Für die Messreihen wurden die Nebenphasen eigens synthetisiert und hiermit MgO-C-Nebenphase-Modellwerkstoffe hergestellt. Die Nebenphase Monticellit ist unbeständig gegenüber der carbothermischen Reduktion. Monticellit wird im MgO-C-Gefüge durch Kohlenstoff reduziert und hieraus ergibt sich ein erhöhter Gewichtsverlust des Probenmaterials. Auch Merwinit wird bei T = 1600°C reduziert, der Gewichtsverlust wird dadurch allerdings nicht erhöht. Belit ist im MgO-C-Gefüge stabil gegenüber carbothermischer Reduktion.
Ein weiterer Schwerpunkt der Arbeit lag auf der Untersuchung des Einflusses des klassischen Antioxidans Aluminium auf die thermochemische Stabilität von MgO-C. Bei geringen Sauerstoffpartialdrücken ist die Reaktion des Aluminium-Metalls bzw. des bereits zu Al4C3 carbidisierten Aluminiums mit dem steineigenen Periklas unter Mg(g)-Bildung möglich, was einen erhöhten Gewichtsverlust zur Folge hat. Aber auch nach der Oxidation zu Al2O3 bzw. Spinell liegt Aluminium in signifikanten Mengen als Al(g) und Al2O(g) in der Gasphase vor und greift des Weiteren die Nebenphasen an, was ebenfalls zu einem messbaren Gewichtsverlust führt.
Dritter Arbeitsschwerpunkt war die Untersuchung des Einflusses des Umgebungsdruckes auf die carbothermische Reduktion von MgO. Die Ergebnisse zeigen, dass der Druck sich in zweierlei Hinsicht auf die carbothermische Reduktion von MgO auswirkt. Zum einen bewirkt ein sinkender Umgebungsdruck eine Beschleunigung der carbothermischen Reduktion durch die Verschiebung des thermodynamischen Gleichgewichts auf die Produktseite. Des Weiteren sorgt er für einen schnelleren Abtransport der Produktgase vom Reaktionsort und ver-hindert somit die Einstellung eines lokalen Gleichgewichts im Gefüge. Dritter Effekt ist die mit steigendem Druck verstärkt ablaufende Kohlenstoffoxidation durch Umgebungssauerstoff, da die Sauerstoffmenge in der Umgebung des MgO-C-Materials vom Umgebungsdruck bestimmt wird. Für die Geschwindigkeit des thermochemischen Verschleißes von Magnesiakohlenstoffmaterialien, der immer eine Kombination aus Kohlenstoffoxidation und carbothermischer Reduktion darstellt, bedeutet dies, dass sie in Abhängigkeit vom Umgebungsdruck in unterschiedlichem Ausmaß von diesen beiden Reaktionen beeinflusst wird.
Diese Arbeit betrachtet das Thema Führung und Gesundheit und hat hierzu verschiedene Erkenntnisse der Literatur zusammengefasst, um diese von Führungskräften aus Wirtschaft und Polizei sowie von Personal- und Organisationsentwicklern bewerten zu lassen. Das Ziel war hierbei herauszufinden, ob die Führungskräfte und die Personal- und Organisationsentwickler das Thema als wichtig erachten, welche Hauptursachen sie für Fehlzeiten sehen und wie sie verschiedene Erkenntnisse der Literatur zum Gesundheitsmanagement einschätzen. Zusätzlich sollten sie bewerten, welche Maßnahmen sie als geeignet betrachten und welche Ressourcen notwendig sind, um die Mitarbeiter bei der Gesunderhaltung zu unterstützen. Schließlich sollten die Führungskräfte und die Personal- und Organisationsentwickler beurteilen, welcher Führungsstil als gesundheitsförderlich angesehen wird. Die Wirtschafts- und Polizeiführungskräfte sowie die Personal- und Organisationsentwickler erachten das Thema Gesundheit als wichtig und sehen es nicht nur als Modetrend an. Ihre Einschätzungen zu geeigneten Maßnahmen, die die Gesundheit der Mitarbeiter verbessern können, entsprechen überwiegend den aus der Literatur abgeleiteten Vorschlägen zur gesundheitsgerechten Führung. Die weitgehende Übereinstimmung der Sichtweisen in Forschung und Praxis legt nahe, dass die Erkenntnisse der Literatur zum Gesundheitsmanagement vermutlich von Praktikern als plausibel wahrgenommen werden.
Die neuen Medien gewinnen im gesellschaftlichen Leben immer mehr an Bedeutung. Dieser Prozess beeinflusst zunehmend auch die Entwicklungen im schulischen Bereich. Durch die Eingliederung von Computern in den Unterricht entstehen neue Möglichkeiten hinsichtlich der Gestaltung von Lernprozessen. In diesem Zusammenhang ist es von großer Bedeutung, entsprechende Computeranwendungen für die jeweilige Lerngruppe aufzubereiten, sodass ein begründeter Einsatz im Rahmen des Unterrichts erfolgen kann. Zudem erfordert die effiziente Einbindung von Computern eine Veränderung der räumlichen Organisation, der methodischen Konzeption des unterrichtlichen Agierens, sowie einen Wandel im Rollenverständnis der Lehrpersonen. Diese Reflexion und Umorientierung ist die Grundlage dafür, dass neue Medien gewinnbringend für Lehr- und Lernprozesse genutzt werden können.
Ein erstes Ziel der vorliegenden Arbeit ist es - anhand einer landesweiten Befragung - die Situation bezüglich der Verwendung von Computern im Rahmen des Geometrieunterrichts der Grundschule empirisch zu überprüfen. Die Auswertung liefert Auskunft darüber, wie intensiv der Computer im Lernprozess eingesetzt wird und bildet jene Faktoren ab, die ausschlaggebend sind, dass Computer im Geometrieunterricht verwendet werden. Die Ergebnisse sind eine empirische Grundlage für die Entwicklung einer computergestützen Lernumgebung namens "Geolizi" (zweites Ziel der Arbeit). Im Rahmen dieser Lernumgebung sollen die Schüler/innen mittels Computer die Themen "Spiegelbildliche Figuren" und "Konstruktionen von Rechteck und Quadrat" selbstständig er- bzw. bearbeiten. Dabei stehen den Kindern "hands-on" Medien, traditionelle Zeichengeräte sowie interaktive Arbeitsblätter zur Verfügung. Der Computer (samt entsprechender Anwendungen) übernimmt in diesem Lernprozess unterschiedliche Funktionen. Die Erprobung der Lernumgebung erfolgt in mehreren Klassen der Grundstufe II im Rahmen einer formativen und summativen Evaluierung.
Anhand der Schüler/innenfragebögen wird die Benutzerfreundlichkeit der einzelnen Elemente untersucht. Auf der Grundlage eines Prä-Post-Untersuchungsdesigns wird versucht, mögliche Veränderungen der Einstellungen im Bezug auf den Einsatz von Computern im Geometrieunterricht bei den beteiligten Lehrerinnen / Lehrern herauszufinden.
Die Ergebnisse der Erprobungsphasen sowie die Auswertung der Fragebögen lassen die begründete Vermutung zu, dass durch die Verwendung der multimedialen Lernumgebung "Geolizi" eine Steigerung der Nutzungsintensität von Computern im Geometrieunterricht die Folge sein könnte. Insgesamt stellt die entwickelte Lernumgebung eine interessante Möglichkeit dar, Computer im Rahmen des Geometrieunterrichts der Grundschule einzusetzen und so einen wichtigen Beitrag zu einem selbstständigen, individualisierten Lernprozess zu leisten.
Das Ziel dieser Studie war die Erfassung des Gefährdungsstatus der Pflanzen ostafrikanischer Regenwäldern mit dem Hintergrund eine ex-situ Kultur für gefährdete lokale Pflanzen im Botanischen Garten der Universität Maseno (Kenia) zu gründen.
Für eine nachhaltige Umsetzung war es zunächst notwendig mehr über den Pflanzenbestand im Untersuchungsgebiet herauszufinden, besonders hinsichtlich der Zusammensetzung und Häufigkeit der Arten unter anthropogenem Druck, sowie die Schutzpriorität jeder Pflanzenart zu erfassen. Repräsentativ für ostafrikanische Regenwälder wurden der Kakamega Forest (Kenia) und der Budongo Forest (Uganda) als Modelwälder ausgewählt.
Neben den gesamtfloristischen Untersuchungen die alle vaskulären Pflanzen umfassen, wurde ein Schwerpunkt auf vaskuläre Epiphyten und ihre Anfälligkeit für Waldstörung gelegt. Um die Schutzpriorität der Pflanzen zu erfassen, wurde ein Bewertungssystem entwickelt das auf sieben Gefärdungskriterien basiert. Durch erste Pflanzen Aufsammlungen wurde die ex-situ Kultur im Botanischen Garten Maseno bereits initiiert.
Der Tod des Lebenspartners ist ein Ereignis, das sehr viele Menschen in ihrem Leben irgendwann betrifft. Die große Anzahl an Trauerratgebern, meist auf Glaubensgrundsätzen oder individuellen Erfahrungsberichten beruhend, macht das gesellschaftliche Bedürfnis nach Verständnis und Hilfen bei der Trauerbewältigung deutlich, suggeriert jedoch einen fortgeschrittenen Forschungsstand, der faktisch nicht besteht. Empirische Daten fehlen weitgehend. In Deutschland ist bisher wenig Trauerforschung zu verzeichnen, aber auch auf internationaler Ebene fehlen aussagekräftige Daten innerhalb des ersten Jahres der Trauer. Mit dieser Studie wurde das in der Forschung bestehende Vermeidungsverhalten, Betroffene schon früh nach dem Tod des Ehepartners wissenschaftlich zu befragen, überwunden. Auch bestand bisher in der Trauerforschung eine weitreichende Theorienarmut, indem Daten ohne Bezug zu bestehenden Persönlichkeits- und Stressmodellen erfasst wurden. Es wurde somit bisher versäumt, bestehende psychologische Theorien für das Thema Trauer nutzbar zu machen. Über die Auswertung von Todesanzeigen konnten 66 Teilnehmer für eine Längsschnittstudie gewonnen werden. Die Teilnehmer wurden über Fragebogen zu den drei Messzeitpunkten drei Monate, sechs Monate und neun Monate nach dem Tod des Lebenspartners befragt. Auf der Grundlage der Set-Point-Theorie des Glücks, der Persönlichkeitsmodelle des Optimismus nach Carver und Scheier und der Handlungsorientierung nach Kuhl sowie nach den Stressmodellen von Lazarus und dem Ressourcen-Konservierungs-Modell von Hobfoll wurden Hypothesen zur Gestalt des Trauerverlaufs generiert und entsprechende Variablen in die Befragung aufgenommen. Neben soziodemographischen Daten wurden Persönlichkeitsvariablen, Ressourcenvariablen sowie Bewältigungsstrategien erfasst. Als abhängige Variablen wurden die depressive und psychosomatische Symptomatik und die allgemeine Lebenszufriedenheit in die Studie aufgenommen. Die Ergebnisse zeigen, dass der Trauerverlauf primär durch eine Veränderung depressiver Symptome und nicht durch eine Veränderung psychosomatischer Symptome oder der allgemeinen Lebenszufriedenheit gekennzeichnet ist. Innerhalb des ersten halben Jahres nach dem Todesereignis ist eine deutliche Besserung der depressiven Symptome bei den Hinterbliebenen messbar. Das hervorstechendste Ergebnis ist, dass die Akzeptanz den zentralen Faktor erfolgreicher Trauerbewältigung darstellt. Die Akzeptanz hängt nicht nur mit den abhängigen Variablen zusammen, sondern ist auch ein signifikanter Prädiktor zur Vorhersage der Veränderungen depressiver und psychosomatischer Symptome sowie der allgemeinen Lebenszufriedenheit. Zwar hängt auch eine positive Neubewertung mit geringeren Symptomen zusammen, jedoch hängt dieser Zusammenhang von der Akzeptanz ab. Eine ausgeprägte Aufmerksamkeitsfokussierung auf Gefühle und Ausdruck von Gefühlen kennzeichnet eine stärkere Trauerreaktion. Handlungsorientierte Bewältigungsstrategien zeigten sich im Gegensatz zu emotionszentrierten Bewältigungsstrategien im Trauerverlauf nicht wirksam. Optimisten zeigen sich bei Verlust des Partners weniger belastet als Pessimisten, aber auch die Überlegenheit der Optimisten gegenüber den Pessimisten wird vor allem durch die Fähigkeit zur Akzeptanz vermittelt. Der Verlust finanzieller Ressourcen stellt für Hinterbliebene, insbesondere für Frauen, einen bedeutsamen weiteren Belastungsfaktor dar, der bei dem Tod des Ehepartners zusätzlich auftritt. Auch wenn die Teilnehmer nach dem Tod des Partners eine gesteigerte soziale Unterstützung erlebten, konnte jedoch nicht wie erwartet eine positive Wirkung einer gesteigerten sozialen Unterstützung auf den Trauerverlauf ausgemacht werden. Gründe hierzu wurden diskutiert. Insgesamt erwiesen sich die angewandten psychologischen Modelle zum Verständnis des Trauerverlaufs als hilfreich. Insbesondere die aus dem Persönlichkeitsmodell des Optimismus nach Carver und Scheier und die aus dem Stressmodell von Lazarus generierten Annahmen ließen sich auf die Gestalt des Trauerverlaufs übertragen. Aus den Ergebnissen dieser Studie konnten Hinweise zur Prävention besonderer Belastungen bei dem Tod des Lebenspartners gewonnen werden. Ebenso konnten Aspekte ausgemacht werden, die die Unterscheidung einer klinisch bedeutsamen Depression von einer normalen Trauerreaktion erleichtern können. Des Weiteren hat die Arbeit aufzeigen können, welche Schwerpunkte bei der Intervention anhaltend schwerer Trauerreaktionen gelegt werden sollten. Forscher arbeiten schon daran, eine pathologische Trauerreaktion zu identifizieren, was langfristig dazu führen kann, dass eine pathologische Trauer in die Klassifikation psychischer Störungen aufgenommen wird. Wichtig ist jedoch zunächst, eine normale Trauerreaktion zu verstehen, um eine pathologische Trauer von einer normalen Trauer unterscheiden zu können. Denn Trauer, so schmerzhaft das Erleben ist, ist grundsätzlich Teil des normalen Lebens.
Water is used in a way as if it were available infinitely. Droughts, increased rainfall or flooding already lead to water shortages and, thus, deprive entire population groups of the basis of their livelihoods. There is a growing fear that conflicts over water will increase, especially in arid climate zones, because life without water - whether for humans, animals or plants - is not possible.
More than 60 % of the African population depend on land and water resources for their livelihoods through pastoralism, fishing and farming. The water levels of rivers and lakes are decreasing. Hence, the rural population which is dependent on land and water move towards water-rich and humid areas. This internal migration increases the pressure on available water resources. Driven by the desire to strengthen the economic development, African governments align their political agendas with the promotion of macro international and national economic projects.
This doctoral thesis examines the complex interrelationships between water shortages, governance, vulnerability, adaptive capacity and violent and non-violent conflicts at Lake Naivasha in Kenya and Lake Wamala in Uganda. In order to satisfy the overall complexity, this doctoral thesis combines various theoretical and empirical aspects in which a variety of methods are applied to different geographical regions, across disciplines, and cultural and political boundaries.
The investigation reveals that Lake Naivasha is more affected by violent conflicts than Lake Wamala. Reasons for this include population growth, historically grown ethnic conflicts, corruption and the preferential treatment of national and international economic actors. The most common conflict response tools are raiding and the blockage of water access. However, deathly encounters, destruction of property and cattle slaughtering are increasingly used to gain access to water and land.
The insufficient implementation of the political system and the governments’ prioritization to foster economic development results, on the one hand, in the commercialization of water resources and increases, on the other hand, non-violent conflict between national and sub-national political actors. While corruption, economic favours and patronage defuse this conflict, resource access becomes more difficult for the local population. Resulting thereof, a final hypothesis is developed which states that the localization of the political conflict aggravates the water situation for the local population and, thereby, favours violent conflicts over water access and water use in water-rich areas.
Beispielkommunikation: Formen und Funktionen der Beispielverwendung in der verbalen Interaktion
(2012)
Das Beispiel ist ein hoch komplexer, historisch sich vielfach ausdifferenzierender Begriff, mit dem sich seit der Antike die geisteswissenschaftlichen Disziplinen intensiv auseinandergesetzt haben. Die Orientierung am Besonderen, am Konkreten, am Einzelfall, am Exemplarischen ist eine zentrale menschliche Denkbewegung bei der Erkenntnisgewinnung, der Wissensvermittlung, dem Verstehen und der Verständigung ebenso wie bei der Überzeugung und Glaubhaftmachung. Wie wir aber in unserem ganz gewöhnlichen, alltäglichen Sprechen mit Beispielen umgehen, welche Rolle "das Exemplarische" insbesondere in der verbalen, mündlichen Interaktion spielt, wozu und wie wir Beispiele einsetzen, das ist linguistisch wenig und vor allem nicht systematisch untersucht. Wir nehmen im Alltag immer wieder explizit metasprachlich auf das Beispielgeben Bezug, wenn wir etwa sagen "Gib mir doch mal ein Beispiel" oder "Ich mach mal ein Beispiel". Die Analyse der Gesprächspraxis zeigt zudem, dass die Beispielverwendung kein randständiges, sondern ein sehr häufig zu beobachtendes sprachliches Phänomen in verschiedenen Kommunikationskontexten ist, von dem sich vermuten lässt, dass es gerade für die Alltagskommunikation fundamental ist.
Die vorliegende Arbeit hat deshalb zum Ziel, Beispiele in der Sprachverwendung als eine Form des sprachlichen Handelns fassbar und analysierbar zu machen und die Erscheinungsformen sowie Wirkungs- und Funktionsweisen auf der Grundlage von Transkripten natürlichsprachiger Dialoge empirisch zu untersuchen. Aus der Perspektive verschiedener Disziplinen werden Dimensionen des Beispielbegriffs, des fallbezogenen Denkens und des Argumentierens mit Beispielen betrachtet. Es wird auf die grundlegende Rolle des Beispiels, des Besonderen beim Erkennen und Verstehen des Allgemeinen eingegangen, auf die Beschreibungen der Beispielfunktionen und "Funktionslogiken" auf verschiedenen Ebenen. Ausführlich wird auf die bisherigen Analysen zur Beispielverwendung in der Text- und Gesprächslinguistik eingegangen. Im Kontext der Analyse der Sprachverwendung in der natürlichen Sprache wird das Beispiel allerdings nur selten als eigenes Thema behandelt, das Exemplifizieren / Beispielnennen wird häufig als sprachliche Handlung selbstverständlich vorausgesetzt, jedoch dabei nicht konzeptuell betrachtet. Aufbauend auf die Betrachtung und Bewertung der bisherigen Untersuchungen wird in der vorliegenden Arbeit Beispielverwenden als sprachliche Handlung konzeptualisiert, die im Kern eine Konnexstiftung von Besonderem und Allgemeinem enthält. Dabei werden gesprächsanalytische und hermeneutische Ansätze aus der Handlungssemantik aufeinander bezogen und Möglichkeiten für eine Adaption gezeigt.
Die empirischen Analyse stützt sich auf ein umfangreiches Korpus transkribierter verbaler Interaktionen (Diskussionen, Talkshow, Konfliktgespräch). Die Analyseergebnisse bestehen zum einen aus korpusgestützten Beschreibungen und (für Erweiterungen offenen) Typologisierungen von Realisierungsformen und des "displays" von Beispielverwendung sowie der empirisch gestützten Beschreibung von Handlungs- und Interaktionsmustern der Beispielverwendung im Gespräch und ausführlichen, exemplarischen, funktionsbezogenen Einzelanalysen.
Externe Repräsentationen spielen eine wichtige Rolle für die Lösung von mathematischen Textaufgaben. Die vorliegende Studie untersucht die Effekte bereitgestellter Repräsentationen beim Lösen problemhaltiger Textaufgaben in der Grundschule. Insbesondere problemhaltige Textaufgaben sind für Schüler anspruchsvoll, da sie nicht direkt mit den eingeübten und routinierten Rechenoperationen gelöst werden können. Sie zeichnen sich dadurch aus, dass sich der Lösungsweg nicht auf einen Blick erschließt, die mathematische Grundstruktur daher zunächst erkannt, entfaltet und verstanden werden muss und häufig mehrere Aufgabenbedingungen bei der Planung und Beschreitung des Lösungswegs bedacht und verarbeitet werden müssen. Um diesen komplexen Anforderungen begegnen zu können, benötigen Schüler die Fähigkeit, das Problem adäquat zu repräsentieren. Dabei können verschiedene Darstellungsformen wie Zeichnungen und Tabellen verwendet werden, die dann als Werkzeuge für die kognitiven Lösungsprozesse dienen. Da Grundschüler von sich aus häufig keine externen Repräsentationen erstellen, geht die vorliegende Studie den Fragen nach, (1) ob vorgefertigte Repräsentationen das Problemlösen verbessern und erleichtern, (2) ob sich eine Auseinandersetzung mit vorgefertigten Tabellen und Zeichnungen auch auf späteres Problemlösen ohne bereitgestellte Hilfsmittel auswirkt, (3) welche Repräsentationsform (Zeichnung oder Tabelle) und (4) wie viel Vorstrukturierung der bereitgestellten Repräsentation dabei hilfreicher ist. In einem experimentellen Studiendesign arbeiteten 199 Viertklässler an unterschiedlichen problemhaltigen Textaufgaben. Das Design bestand aus drei Tests: (1) Vor-, (2) Treatment- und (3) Transfertest. Im Vortest wurde die Ausgangsleistung der Probanden bei problemhaltigen Textaufgaben gemessen. Im Treatment-Test wurde die Performance beim Problemlösen mit vorgegebenen Repräsentationen erhoben: Probanden der Experimentalgruppe erhielten Zeichnungen und Tabellen in unterschiedlichen Vorstrukturierungsgraden zu den Aufgaben (Intervention), eine Kontrollgruppe erhielt keine Repräsentationen. Im Transfertest bearbeiteten die Teilnehmer vergleichbare Aufgaben wiederum ohne vorgegebene Repräsentationen, um die Problemlöse-Performance nach der Intervention zu messen. Die Ergebnisse zeigten erstens, dass die bereitgestellten Repräsenta-tionen entgegen der Annahme die Problemlöseprozesse insgesamt nicht verbessert und erleichtert haben. Zweitens: Wurde eine Repräsentation bereitgestellt, war eine Zeichnung wie angenommen hilfreicher als eine Tabelle. Jedoch war dieser Effekt abhängig vom Problemtyp und vom Grad der Vorstrukturierung. Offensichtlich genügte es nicht, Zeichnungen und Tabellen einfach nur bereitzustellen, da die Probanden vielfach Schwierigkeiten bei der Interpretation und adäquaten Verwendung der Repräsentationen hatten. Dies spricht für die Notwendigkeit eines Trainings zur Ausbildung und Förderung einer frühen „diagram literacy“ bereits bei Grundschülern.
Religion, Kultur und Sprache sind nicht ohne Einfluss auf die Krankheitswahrnehmung und das Gesundheitsverhalten von Patienten mit migratorischen Hintergrund. Ebenso können sie auch besondere Herausforderungen für das Gesundheitssystem des Gastlandes darstellen. Dies trifft im besonderen Maße für die psychotherapeutische Versorgung von Migranten erster und folgender Generationen zu. Im Fokus der vorliegenden Arbeit stehen muslimische Patienten in der Psychotherapie. Auf Grundlage einer empirischen Untersuchung werden Konfliktfelder und Tabuthemen sowie andere neuralgische Punkte der Interaktion zwischen Psychotherapeut und muslimischem Patient beleuchtet, um die Notwendigkeit einer Kultursensibilität in der psychosozialen Versorgung von Migranten aufzudecken und Anregungen zur Verbesserung der interkulturellen Begegnung in der psychotherapeutischen Praxis zur Diskussion zu stellen.
In der vorliegenden Arbeit wurde untersucht, inwieweit durch lokale Wirtschaftsförderungsinitiativen in Namibia Projekte zur Minderung von Treibhausgasen angestoßen werden können. Dabei wurde insbesondere geprüft, ob der Clean Development Mechanism (CDM) des Kyotoprotokolls sinnvoll genutzt werden kann.
Dazu wurden zuerst die Faktoren (Potential für Minderungsprojekte, Geschäfts- und Investitionsklima, institutionelle Rahmenbedingungen, etc.), die die Initiierung von Projekten fördern oder behindern können, diskutiert. In einem weiteren Schritt wurde analysiert, welche Einstellung Klima- und Energieexperten und Personen, die im Bereich lokaler und regionaler Wirtschaftsförderung tätig sind, zur Forschungsfrage haben. Dazu wurden 229 Fragebögen, 28 individuelle Interviews und eine Fokusgruppendiskussion mit 20 Teilnehmern ausgewertet. Des Weiteren wurde die praktische Umsetzbarkeit entsprechender Maßnahmen mit Hilfe einer vom Autor initiierten "real life"-Fallstudie untersucht. Während der Entwicklung einer lokalen Wirtschaftsförderungsstrategie in der namibischen Region Otjozondjupa wurde auch das dortige Potential für Treibhausgasminderungsprojekte eingeschätzt, darauf basierend wurden Projektideen entwickelt und deren nachhaltige soziale und wirtschaftliche Auswirkungen beurteilt. Erfolg versprechende Projekte wurden anschließend in die Strategie zur Implementierung integriert.
Aufgrund verschiedener Faktoren wie beispielsweise der Komplexität von CDM, dem geringen Ausstoß von Treibhausgasen in Namibia, der schlechten Marktsituation für Emissionsrechte und unzureichender finanzieller Mittel hat die Initiierung von CDM-Projekten durch lokale Wirtschaftsförderung in Namibia den im Rahmen der vorliegenden durchgeführten Untersuchungen zufolge wenig Aussicht auf Erfolg. Jedoch besteht seitens der Akteure die grundsätzliche Bereitschaft, Minderungsprojekte in lokale Wirtschaftsförderung zu integrieren, wenn damit vorrangig die Ziele der Wirtschaftsförderung erreicht werden. Die Untersuchung zeigte, dass lokal initiierte Minderungsprojekte kaum zur Schaffung von Einkommensquellen oder Arbeitsplätzen beitragen. Stattdessen sollten eher nationale strategische Ziele verfolgt werden, wie z. B. eine flächendeckende Elektrizitätsversorgung oder die Verminderung der Abhängigkeit von Stromimporten. Dazu müsste bei lokaler Wirtschaftsförderung zukünftig auch der Energiesektor eine größere Rolle spielen, lokale Verwaltungen müssten die Verantwortung für die Initiierung von Energieprojekten übernehmen, nationale und lokale Behörden müssten effizienter zusammenarbeiten und die lokalen Rahmenbedingungen müssten so verbessert werden, dass der Privatsektor bereit ist, seine Rolle in der Wirtschaftsförderung zu übernehmen. Darüber hinaus sollten die Interessen der Bevölkerung berücksichtigt und alle Akteure frühzeitig in Entscheidungsprozesse eingebunden werden.
The stands surveyed are among the last closed canopy forests in Rwanda. Their exploration began in the early twentieth century and is still ongoing. Previous studies were mainly concerned with plant sociological issues and presented references to environmental factors in anecdotal form, at best using indirect ordination methods. The present study undertakes a classification of the vegetation with numerical methods and establishes quantitative relationships of the species’ distributional structure to environmental parameters using spatially explicit procedures. For this purpose, 94 samples were taken in 100 m² hexagonal plots. Of these, 70 samples are from Nyungwe, 14 are from Gishwati, and 10 are from Cyamudongo. Given the homogeneity of the terrain and vegetation, all vegetation types encountered, all types of stands, and all vegetation strata were included. The beta diversity is expressed by an average Bray-Curtis dissimilarity of 0.92, and in JOST’S (2007) numbers equivalents, 37.90 equally likely samples would be needed to represent the diversity encountered. Within the survey, 1198 species in 127 families were collected. Among the specimens are 6 local endemics and 40 Albertine Rift endemics. Resulting from UPGMA and FCM-NC, 20 to 40 plant communities were established depending on the level of resolution. It can be inferred by means of a Mantel correlogram that the mean zone of influence of a single vegetation stand, as sampled by a 100 m² plot in Nyungwe Forest, ranges between 0.016 and 3.42 km. Of the communities compiled using FCM-NC and UPGMA, 50% consist of individual samples. Beyond undersampling, natural small-scale discontinuities are reflected by this result. Partial db-RDA resulted in an explained variation of 9.60% and 14.41% for environmental and soil factors, respectively. Utilising variation partitioning analyses based on CCA and tb-RDA, between 21.70% and 37.80% of the variation in vegetation data could be explained. The spatially structured fraction of these parameters accounts for between 30.50% and 49.80% of the explained variation (100%). The purely environmental parameters account for a share of 10.30% to 16.30%, whereby the lower limit originates from the unimodal approach and has lost its statistical significance. The soil variables, also after partial analysis, account for a share of 19.00% to 35.70%. While the residual impact of the climatic parameters is hardly significant, the effect of the soil properties is prevalent. In general, the spatially structured fraction of the parameters is predominant here. While on the broad-scale climatic factors, the altitude a.s.l. and the geology are determining factors, some soil parameters and matrix components also show their impacts here. In the mid-range of the scale, it is the forest matrix, the soil types, and the geology that determine species distribution. While in the fine range of the scale, some unrecorded parameters seem to have an effect, there are also neutral processes that determine species composition.
Der Mittelstand ist das Rückgrat der deutschen Wirtschaft. Um erfolgreich agieren zu können, benötigt er geeignete Finanzierung in ausreichendem Umfang. Was aber zeichnet eine geeignete Finanzierung aus Sicht des Kapitalnehmers aus? Trotz der volkswirtschaftlichen Relevanz des Themas gibt es nur wenige empirische Studien über das Finanzierungsverhalten des Mittelstandes. Für diese Arbeit wurden sämtliche deutsche, mit PREPS finanzierte Unternehmen zur Teilnahme an einer Online-Befragung eingeladen. PREPS ist eine standardisierte mezzanine Finanzierung, die großen mittelständischen, bonitätsstarken Unternehmen angeboten wurde und mehrheitlich als Wachstumsfinanzierung verwendet wurde. Die finanzierten Unternehmen sind als Forschungsgegenstand besonders interessant, weil sie innerhalb des Mittelstandes aufgrund ihrer Größe und Bonität die breiteste Auswahl bei Finanzierungsentscheidungen haben. Finanzierungsinstrumente unterscheiden sich in der Ausgestaltung von ihren Rechten und Pflichten. Je nach Ausgestaltung kann eine Finanzierung neben der offensichtlichen Liquiditätsfunktion unterschiedliche weitere Funktionen wahrnehmen wie die Transformations-, Verhaltensbeeinflussungs- oder auch die Informationsfunktion. Die Haupthypothese dieser Arbeit ist, dass sich die finanzierten Unternehmen aus unterschiedlichen Gründen für dasselbe Finanzierungsinstrument entschieden haben und dass sich die unterschiedliche Wertschätzung der verschiedenen Eigenschaften des Finanzierungsinstruments aus unternehmens- und situationsspezifischen Besonderheiten ergeben. In den einzelnen Hypothesen über konkrete Zusammenhänge zwischen spezifischen Einflussfaktoren und Wertschätzungen von Finanzierungseigenschaften werden sowohl die zentralen Aussagen aus den Kapitalstrukturtheorien als auch aktuelle empirische Erkenntnisse zum Finanzierungsverhalten aufgegriffen und detailliert untersucht. Darüber hinaus wird einigen explorativen Hypothesen nachgegangen.
Mathematisches Modellieren bezeichnet die verschiedenen Prozesse, die Menschen durchlaufen, wenn sie versuchen, reale Probleme mathematisch zu lösen oder Textaufgaben zu bearbeiten. In der Literatur werden im sogenannten Modellierungszyklus fünf aufeinanderfolgende Teilprozesse genannt, die den Ablauf des Problemlöseprozesses beschreiben (Blum, 2003). Beim Strukturieren wird zunächst eine Problemsituation im kognitionspsychologischen Sinne verstanden, die wesentlichen Merkmale werden abstrahiert um dann im zweiten Schritt (Mathematisieren) in ein mathematisches Modell (bestehend aus Gleichungen, Symbolen, Operatoren, Ziffern etc.) übersetzt zu werden. Beim Verarbeiten dieses mathematischen Modells mithilfe mathematischen Wissens wird das Problem innermathematisch gelöst, woraufhin das Ergebnis im vierten Schritt (Interpretieren) rückübertragen wird auf die ursprüngliche Problemsituation. Die dort aufgeworfene Frage wird beim Interpretieren beantwortet. Der letzte Schritt (Validieren) sieht eine Überprüfung des gesamten Problemlöseprozesses vor: Kommt der Modellierer zu dem Schluss, dass sein Ergebnis eventuell nicht korrekt bzw. nicht optimal ist, wird der Modellierungszyklus von vorne durchlaufen. Der Modellierungszyklus dient dabei sowohl als deskriptives als auch als präskriptives (normatives) Modell, da er einerseits beschreibt, wie Modellieren abläuft und andererseits vorschreibt, wie Schüler z.B. beim Lösen von mathematischen Textaufgaben vorgehen sollen. Dennoch liegen für beide Zielsetzungen keine empirischen Studien vor, die belegen könnten, dass der Modellierungszyklus sich tatsächlich als deskriptives oder als präskriptives Modell eignet. In der vorliegenden Arbeit konnte die Eignung als deskriptives Modell nur mit Einschränkungen bestätigt werden. So zeigte sich z.B. in einer Voruntersuchung, dass das Stadium Validieren bei Schülern der Klassenstufe 4 nicht zu beobachten ist und dass der Ablauf der Stadien deutlich von der vorgegebenen Reihenfolge abweichen kann. Eine revidierte Version des Modellierungszyklus als rekursives Modell wird daher vorgeschlagen. In einer zweiten, größeren Untersuchung wurde die Eignung als normatives Modell untersucht, indem die vier Stadien Strukturieren, Mathematisieren, Verarbeiten und Interpretieren isoliert voneinander erfasst wurden, wofür zuvor eigens Items konstruiert worden waren. Die vier Unterskalen wurden an mehreren Kriterien - darunter die Fähigkeit zum Lösen kompletter Modellierungsaufgaben - validiert, was den normativen Charakter des Modells bestätigt. Um Modellierungskompetenz frühzeitig diagnostizieren und dementsprechend fördern zu können, ist die Entwicklung von Methoden angezeigt, die vier Teilkompetenzen Strukturieren, Mathematisieren, Verarbeiten und Interpretieren bereits im Grundschulalter unabhängig voneinander objektiv, reliabel und valide zu erfassen. Mit der Entwicklung und Analyse von Items zu den vier Teilbereichen wurde hierfür mit der vorliegenden Arbeit ebenfalls eine Grundlage geschaffen.
Modern Internet and Intranet techniques, such as Web services and virtualization, facilitate the distributed processing of data providing improved flexibility. The gain in flexibility also incurs disadvantages. Integrated workflows forward and distribute data between departments and across organizations. The data may be affected by privacy laws, contracts, or intellectual property rights. Under such circumstances of flexible cooperations between organizations, accounting for the processing of data and restricting actions performed on the data may be legally and contractually required. In the Internet and Intranet, monitoring mechanisms provide means for observing and auditing the processing of data, while policy languages constitute a mechanism for specifying restrictions and obligations.
In this thesis, we present our contributions to these fields by providing improvements for auditing and restricting the data processing in distributed environments. We define formal qualities of auditing methods used in distributed environments. Based on these qualities, we provide a novel monitoring solution supporting a data-centric view on the distributed data processing. We present a solution for provenance-aware policies and a formal specification of obligations offering a procedure to decide whether obligatory processing steps can be met in the future.
Diese Dissertation beschreibt Ökologie und Verhalten einer Hirschkäferpopulation im Moseltal im Bereich der Gemeinden Alf und Bullay (Kreis Cochem-Zell). Im Rahmen einer Kartierung werden darüber hinaus Vorkommen im nördlichen Rheinland-Pfalz dokumentiert. Grundlage der Untersuchung ist die Radiotelemetrie der adulten Hirschkäfer im Freiland. Die Anwendung dieser Methode liefert auch über den eigentlichen Untersuchungszweck hinausgehende quantitative und qualitative Erfahrungswerte für diese noch selten bei fliegenden Käfern angewendete Methode. Daneben werden Fundortmeldungen, Brutstättenmonitoring, Morphometrie und Insektarienuntersuchungen als ergänzende und vergleichende Methoden eingesetzt. Es erfolgt so eine quantitative Beschreibung geschlechtsspezifischer Verhaltenweisen adulter Hirschkäfer wie z. B. Aktivitäts-, Dispersions-und Fortpflanzungsverhalten, Habitatpräferenzen sowie eine Beschreibung der Entwicklungsabläufe im Bruthabitat. Die Ergebnisse zeichnen ein Bild vom Leben der Hirschkäfer, das von den bisherigen Vorstellungen weitgehend abweicht. Hirschkäfer brauchen Offenlandstrukturen und sind im Moseltal erfolgreiche Kulturfolger. Sie leben heute dort nahezu unbemerkt in der urbanen Landschaft. Die vielfach beschriebene enge Bindung an die Baumart Eiche ist keine zwingende Voraussetzung für eine erfolgreiche Populationsbildung. Im gesamten Fortpflanzungsverhalten kommt der Brutstätte eine zentrale Bedeutung zu, dabei ist die Vernetzung der Brutstätten eine Grundvoraussetzung. Das Fortpflanzungsverhalten unterliegt einer Regelstrategie, zu der es aber auch Alternativen gibt. Das beobachtete Dispersionsverhalten ermöglicht die Abgrenzung von Populationen. Für den Naturschutz ergeben sich aus den Ergebnissen Konsequenzen und Möglichkeiten für Schutzgebiete und die Anlage künstlicher Bruthabitate. Daneben wirft diese Untersuchung aber auch die Frage der Bewertung von Gefährdung und Seltenheit dieser Art als Ergebnis subjektiver Wahrnehmungen auf.
Intensivierung der Landwirtschaft führt weltweit zu einem fortschreitenden Verlust der biologischen Vielfalt in Agrarlandschaften. Die daraus resultierende Homogenität der Landschaft, die mit der Ausweitung von Monokulturflächen und dem Verlust naturnaher Lebensräume einhergeht, hat schwerwiegende Auswirkungen auf Arthropoden in Agrarlandschaften. Während Ackerflächen aufgrund intensiver und häufiger Störungen für viele Arten ungeeignete Habitate darstellen, können naturnahe Lebensräume in Agrarökosystemen als wichtige Rückzugsflächen fungieren. Die Erschaffung von naturnahen Lebensräumen durch Agrarumweltmaßnahmen in intensiven Agrarlandschaften, wie der Maifelder Agrarlandschaft in Westdeutschland, sollen den negativen Auswirkungen der landwirtschaftlichen Intensivierung entgegenwirken. Allerdings ist die Wirksamkeit dieser Maßnahmen für den Artenschutz noch umstritten. Aus diesem Grund wird in dieser Arbeit die Artenvielfalt der Käfer (Coleoptera) und Spinnen (Araneida) auf Weizenfeldern und verschiedenen naturnahen Lebensräumen (grasbewachsene Feldränder angrenzend an Weizen- und Rapsfelder; klein- und großflächige, mit Wildblumenmischungen eingesäte, Stilllegungsflächen; dauerhafte Grünlandbrachen) miteinander verglichen. Hierfür wurden die Arthropoden in den Jahren 2019 und 2020 mit Bodenfallen und Saugproben erfasst. Die vorliegenden Ergebnisse zeigen, dass die Landnutzung die Käfer- und Spinnendiversität im Untersuchungsgebiet beeinflusst, mit einer deutlich höheren Artenvielfalt auf den Grünlandbrachen als auf den Weizenfeldern. Überraschenderweise bestanden zwischen allen naturnahen Lebensräumen nur geringe Unterschiede, jedoch beherbergten sie unterschiedliche Artengemeinschaften. Hier unterschieden sich vor allem die Käfer- und Spinnengemeinschaften der großflächigen Grünlandbrachen deutlich von allen anderen untersuchten Landnutzungstypen. Insbesondere für Habitatspezialisten und gefährdete Arten stellten die Grünlandbrachen wichtige Lebensräume dar, wahrscheinlich aufgrund ihrer variablen Bodenfeuchtigkeit und komplexen Lebensraumstruktur. Im Gegensatz dazu wiesen Weizenfelder homogene Arthropodengemeinschaften mit einem geringeren Merkmalsreichtum auf und wurden von einigen wenigen räuberischen Arten dominiert, die sich an derartig intensive Lebensräume angepasst haben. Die Ergebnisse deuten darauf hin, dass sich alle Schutzmaßnahmen ergänzen, indem sie auf unterschiedliche Weise zur Förderung der Käfer und Spinnen auf landwirtschaftlichen Flächen beitragen können. Selbst kleinflächige naturnahe Lebensräume und bestehende Habitatgrenzen in einer landwirtschaftlichen Matrix scheinen wertvolle Lebensräume für Arthropoden in Agrarökosystemen darzustellen, indem sie zur Erhöhung der taxonomischen Vielfalt beitragen. Feldränder und kleine, mit Wildblumen eingesäte Flächen, können isolierte naturnahe Lebensräume miteinander verbinden und zu einer heterogenen Agrarlandschaft beitragen. Folglich führt eine Kombination verschiedener klein- und großflächiger Begrünungsmaßnahmen zu einer erhöhten Landschaftsheterogenität, die sich wiederum positiv auf die Käfer- und Spinnenvielfalt auswirkt. In Anbetracht des weltweit anhaltenden Verlustes der Artenvielfalt in Agrarlandschaften, sollten Agrarumweltmaßnahmen in Zukunft gefördert werden, da sie für den Arthropodenschutz in intensiven Agrarlandschaften, wie im Maifeld, besonders bedeutsam sind.
While reading this sentence, you probably gave (more or less deliberately) instructions to approximately 100 to 200 muscles of your body. A sceptical face or a smile, your fingers scrolling through the text or holding a printed version of this work, holding your head, sitting, and much more.
All these processes take place almost automatically, so they seem to be no real achievement. In the age of digitalization it is a defined goal to transfer human (psychological and physiological) behavior to machines (robots). However, it turns out that it is indeed laborious to obtain human facial expression or walking from robots. To optimize this transfer, a deeper understanding of a muscle's operating principle is needed (and of course an understanding of the human brain, which will, however, not be part of this thesis).
A human skeletal muscle can be shortened willingly, but not lengthened, thereto it takes an antagonist. The muscle's change in length is dependent on the incoming stimulus from the central nervous system, the current length of the muscle itself, and certain muscle--specific quantities (parameters) such as the maximum force. Hence, a muscle can be mathematically described by a differential equation (or more exactly a coupled differential--algebraic system, DAE), whose structure will be revealed in the following chapters. The theory of differential equations is well-elaborated. A multitude of applicable methods exist that may not be known by muscle modelers. The purpose of this work is to link the methods from applied mathematics to the actual application in biomechanics.
The first part of this thesis addresses stability theory. Let us remember the prominent example from middle school physics, in which the resting position of a ball was obviously less susceptible towards shoves when lying in a bowl rather than balancing at the tip of a hill. Similarly, a dynamical (musculo-skeletal) system can attain equilibrium states that react differently towards perturbations.
We are going to compute and classify these equilibria.
In the second part, we investigate the influence of individual parameters on model equations or more exactly their solutions. This method is known as sensitivity analysis.
Take for example the system "car" containing a value for the quantity "pressure on the break pedal while approaching a traffic light". A minor deviation of this quantity upward or downward may lead to an uncomfortable, abrupt stop or even to a collision, instead of a smooth stop with a sufficient gap.
The considered muscle model contains over 20 parameters that, if changed slightly, have varying effects on the model equation solutions at different instants of time. We will investigate the sensitivity of those parameters regarding different sub--models, as well as the whole model among different dynamical boundary conditions.
The third and final part addresses the \textit{optimal control} problem (OCP).
The muscle turns a nerve impulse (input or control) into a length change and therefore a force response (output). This forward process is computable by solving the respective DAE. The reverse direction is more difficult to manage. As an everyday example, the OCP is present regarding self-parking cars, where a given path is targeted and the controls are the position of the
steering wheel as well as the gas pedal.
We present two methods of solving OCPs in muscle modeling: the first is a conjunction of variational calculus and optimization in function spaces, the second is a surrogate-based optimization.
Motiviert wurde die vorliegende Arbeit durch die dynamischen Phänomene, die bei grundlegenden katalytischen Oberflächenreaktionen beobachtet werden, insbesondere durch Bi- und Tristabilität und die Wechselwirkungen zwischen diesen stabilen Zuständen. In diesem Zusammenhang wurden drei Reaktions-Diffusions-Modelle entwickelt und auf Bifurkationen analytisch und mittels numerischer Simulationen untersucht.
Das erste Modell wurde entwickelt, um die bistabile CO-Oxidation auf Ir(111) um Wasserstoff und dessen Oxidationsreaktionen zu erweitern. Das Differentialgleichungssystem wurde im Rahmen der Bifurkationstheorie analysiert, wobei drei Zweige stabiler Lösungen gefunden wurden. Einer der Zustände ist durch hohe Bildungsraten gekennzeichnet (upper rate, UR), während die anderen beiden Zweige niedrige Bildungsraten aufweisen (lower rate (LR) \& very low rate (VLR)).
Die Kurve der Sattel-Knoten-Bifurkationen bildet zwei Spitzen aus, wodurch die sich überschneidenden Zustände die Form eines Schwalbenschwanzes bilden. Eine Temperaturerhöhung führt zur Entfaltung und damit zu einer Komplexitätserniedrigung des Systems.
Um die experimentelle (Un-)Zugänglichkeit dieser Zustände zu veranschaulichen wurde eine Reihe von numerischen Simulationen durchgeführt, die mögliche Experimente widerspiegeln. Relaxationsexperimente zeigen teilweise lange Konvergenzzeiten. Quasi-statisches Scannen des Versuchsparameters zeigt die Existenz aller drei Zustände innerhalb des tristabilen Region und ihre jeweilige Umwandlung beim Verlassen desselben.
Ein erster Versuch bezüglich Reaktions-Diffusions-Fronten zwischen den stabilen Zuständen wurde durchgeführt. In 1D dominiert UR, während in 2D die Interphase zwischen UR und VLR durch den LR Zustand durchdrungen wird.
Anschließend wurde ein generisches `Parodie'-Monospezies-Modell für die umfassende Untersuchung von Reaktions-Diffusions-Fronten verwendet. Als Reaktionsterm wurde ein Polynom fünften Grades gewählt. Dies resultiert aus einem polynomischen Potential sechster Ordnung, das mit der ``Schmetterlingsbifurkation'' verbunden ist. Dies garantiert abhängig von dem vierdimensionalen Parameterraum bis zu drei stabile Lösungen ($u_{0}$,$u_{1}$,$u_{2}$).
Das Modell wurde eingehend untersucht, wobei Regionen mit ähnlichem Verhalten identifiziert wurden. Es wurde ein Term für die Frontgeschwindigkeit zwischen zwei stabilen Zuständen abgeleitet, der eine Abhängigkeit von der relativen Potentialdifferenz der beiden Zustände zeigt. Es wurden Äquipotentialkurven gefunden, bei denen die Geschwindigkeit der zugehörigen Front verschwindet. Numerische Simulationen auf einer zweidimensionalen, endlichen Scheibe unterstützten diese Ergebnisse.
Außerdem wurde die Front-Splitting-Instabilität beobachtet, bei der die Frontlösung $u_{02}$ instabil wird und sich in $u_{01}$ und $u_{12}$ mit je unterschiedlichen Geschwindigkeiten aufteilt. Eine gute Schätzung zu den Grenzen der Front-Splitting-Region wurde gegeben und mit Hilfe von numerischen Zeitentwicklungen überprüft.
Schließlich wurde das etablierte kontinuierliche Modell räumlich diskretisiert, wobei eine einfache Domäne in 1D und drei verschiedene Gitter in 2D (quadratisch, hexagonal, dreieckig) verwendet wurden. Bei niedrigen Diffusivitäten oder großen Abständen zwischen den gekoppelten Knoten können die Fronten `einfrieren', falls die Parameter in der Nähe einer Äquipotentiallinie liegen. Dieses Phänomen ist als Propagationsversagen (PF) bekannt und sein Ausmaß im Parameterraum (Pinning Region) wurde in 1D untersucht. In 2D wurde zunächst eine Schätzung für die Frontausbreitung in ausgezeichnete Gitterrichtungen mittels einer Pseudo-2D-Näherung vorgenommen.
Nahe der Pinning-Region weichen die Frontgeschwindigkeiten erheblich von der kontinuierlichen Erwartung ab, da die exakte Form des Potentials signifikant wird. Größe und Form der Pinning-Regionen wird von der Kopplungsstärke, dem Gitter, die Frontausrichtung zum Gitter und die Frontlösung selbst entschieden. Das Bifurkationsdiagramm zeigt eine schlängelnde Kurve innerhalb der Pinning-Region, wobei jeder abwechselnde Zweig aus stabilen bzw. instabilen, eingefrorenen Fronten besteht.
Numerische Simulationen bestätigten die Beobachtungen bezüglich des PF und der Gitterabhängigkeit. Darüber hinaus wurde der Einfluss der Frontorientierung auf die Geschwindigkeit genauer untersucht. Es wurde gezeigt, dass Fronten mit ausgezeichneter Orientierung zum Gitter mehr oder weniger anfällig für PF sind. Hieraus resultiert die Möglichkeit zur Stabilisierung von metastabilen Mustern, welche die Gittergeometrie widerspiegelt. Die Quantifizierung der winkelabhängigen Frontausbreitung zeigt plausible Ergebnisse mit einer guten Übereinstimmung zum Pseudo-2D-Ansatz.
Der zunehmende Einsatz von Titandioxid-Nanopartikeln (nTiO2) birgt das Risiko eines erhöhten Eintrags in Oberflächengewässer, wo diese mit weiteren anthropogenen Stressoren (z.B. Schwermetalle) vorkommen können. Das gemeinsame Auftreten ermöglicht die Adsorption von Schwermetallen an nTiO2, welche aufgrund ihrer Agglomeration häufig aussedimentieren. Somit können Nanopartikel mit den adsorbierten Metallionen potentiell für pelagische aber auch benthische Organismen ein Risiko darstellen. Die kombinierte Toxizität von nTiO2 und Schwermetallen wird vermutlich durch die Eigenschaften der Stressoren, aber auch durch verschiedene Umweltparameter (z.B. organisches Material, pH, Ionenstärke) bestimmt.
Allerdings wurde der Einfluss dieser Faktoren bisher nicht systematisch untersucht. Daher zielte diese Arbeit darauf ab den Effekt von verschiedenen nTiO2-Produkten, welche sich in der Zusammensetzung der kristallinen Struktur unterschieden, auf die Toxizität von Kupfer (als Stellvertreter für Schwermetalle) für den pelagischen Testorganismus Daphnia magna in Gegenwart von verschiedenen Formen und Konzentrationen organischen Materials zu untersuchen. Es ist anzunehmen, dass die Dauer der Interaktion (=Alterung) die kombinierte Toxizität der Stressoren beeinflusst. Ergänzend wurde deshalb der Einfluss von nTiO2 auf die Kupfer-Toxizität nach einer Alterung unter dem Einfluss verschiedener Umweltparameter (nämlich organisches Material, pH, Ionenstärke) untersucht.
Des Weiteren wurde die Übertragbarkeit der wesentlichen Ergebnisse auf benthisch lebende Organismen mit Gammarus fossarum geprüft. Die vorliegende Arbeit zeigte für alle untersuchten Szenarien eine reduzierte Kupfer-Toxizität in Gegenwart von nTiO2, unabhängig von deren kristallinen Struktur. Dieser Effekt ließ sich auch auf benthische Lebewesen übertragen, obwohl die Exposition durch die Anwesenheit von nTiO2 aufgrund der Sedimentation mit dem adsorbierten Kupfer potenziell erhöht war.
Die erzielten Beobachtungen legen eine Verwendung von nTiO2 zur Aufreinigung von beispielsweise Abwasser nahe. Allerdings sollten potentielle Nebeneffekte (z.B. chronische Toxizität, Bildung von Sauerstoffradikalen) zunächst gründlich untersucht werden. Darüber hinaus sind die Übertragbarkeit auf andere Stressoren (z.B. andere Schwermetalle, organische Chemikalien) und der Verbleib von Schwermetallen in aquatischen Ökosystemen nach einer Sorption an nTiO2 ungewiss und bedürfen weiterer Forschung.
Zentrale Aufgaben der Hochschule sind die Bewertung, die Ursachenklärung und die Förderung von Studienleistungen (Heublein & Wolter, 2011, S. 215). In diesem Kontext gilt neben intellektuellen Fähigkeiten die Leistungsmotivation als bedeutsamer Prädiktor für den akademischen Erfolg (z. B. Schmidt-Atzert, 2005, S. 132; Steinmayr & Spinath, 2009, S. 80). Im Fokus der vorliegenden Studie stehen deshalb Überlegungen zu Motivationsprozessen von 332 Studienanfängern der Hochschule der Bundesagentur für Arbeit und zu den Faktoren, die sich förderlich auf ihre Lernresultate auswirken. Mit einer Ausschöpfungsquote von 89 % sind die gewonnenen Daten für die Grundgesamtheit repräsentativ. Anhand einer Ex-post-facto-Versuchsanordnung in Form eines quantitativen Prädiktor-Kriteriums-Ansatzes (spezielle Variante eines Längsschnittdesigns) mit unterschiedlichen Erhebungsmethoden, wie standardisiertem Selbstbeurteilungsfragebogen, Leistungstests und offiziellen Dokumenten/Aktenmaterial, wurden folgende Forschungshypothesen zugrunde gelegt: Die Stärke der Leistungsmotivation ist sowohl von Erwartungskomponenten (Fähigkeitsselbstkonzept, Selbstwert, subjektive Notenerwartung, Erfolgszuversicht und Misserfolgsfurcht) als auch von Anreizkomponenten (Gegenstands-, Tätigkeits-, Folgenanreizen) abhängig, welche wiederum vermittelt über das leistungsmotivierte Verhalten einen Einfluss auf die Studienleistung besitzt. Dabei wurde postuliert, dass motivationale Variablen auch dann noch einen bedeutsamen Effekt auf die Studienleistung ausüben, wenn weitere Leistungsprädiktoren, wie die Schulabschlussnote, die Intelligenz, die emotionale Stabilität und die Gewissenhaftigkeit kontrolliert werden.
Diese Dissertation widmet sich der inhaltsanalytischen, quantitativen Analyse der Kompilation Disney Princess durch die Anwendung der Theorie des male gaze von Laura Mulvey, welche sie in Visual Pleasure and Narrative Cinema (1975) sowie Afterthoughts on `Visual Pleasure and Narrative Cinema‘ inspired by King Vidor´s Duel in the Sun (1946) (1981) darstellte.
Die Autorin der Dissertation nutzt die quantitative Inhaltsanalyse nach Patrick Rössler, um die Filme der Kompilation Disney Princess aus den Jahren 1937 bis 2016 sowie den Film Die Eiskönigin (2013) auf die Darstellung der weiblich und männlich gelesenen Filmfiguren im Hinblick auf die Körperproportionen, den Grad ihrer Aktivität und den Umfang ihrer Präsenz sowie das Geschlecht der Filmmitarbeiter:innen zu untersuchen.
Spektroskopie zweiatomiger Moleküle bei Einstrahlung ultrakurzer Laserpulse und ihre Anwendung
(2020)
Durch die Verwendung ultrakurzer Pulse lassen sich selbst bei moderaten Pulsenergien und Durchschnittsleistungen sehr hohe Spitzenleistungen erreichen, deren Wirkung auf Materie sich grundlegend von der anderer Lichtquellen unterscheidet. Die hohe Feldstärke ist hier nicht nur verantwortlich für das vermehrte Auftreten optisch nichtlinearer Effekte wie der Frequenzverdopplung, sondern ist auch hauptverantwortlich für die ”kalte“ Ablation, die zu deutlich kälteren Plasmen führt. Eine Untersuchung dieser beiden Umstände in Hinblick auf eine Vereinfachung der Pulslängenmessung und eine Verbesserung der Molekülbildung in erkaltenden Plasmen ist Thema dieser Arbeit. In diesem Zusammenhang wird gezeigt, dass die Verwendung von Ultrakurzpulslasern bei der Wahl geeigneter Prozessparameter, insbesondere durch gezielte Defokussierung, die Spektroskopie verschiedener emittierender Moleküle wie Aluminiumoxid verbessert, sodass deren Detektion auch ohne die in der Literatur geforderten zeitauflösenden Messinstrumente möglich ist. Darüber hinaus ermöglichen ultrakurze Pulse eine ortsaufgelöste Kristallisation von Zinkoxid auf – mit einfachen Mitteln präparierten – Zinkoberflächen. Die dabei entstandenen Wurtzite richten ihre c-Achse meist annähernd senkrecht zur darunterliegenden Oberfläche aus und können zur Erzeugung von gestreuter Frequenzverdopplung genutzt werden. Hierfür haben sich besonders die in den letzten Jahren entwickelten faserbasierten Femtosekundenlaser mit Pulsenergien im Mikrojoule-Bereich, Pulslängen von wenigen 100fs und äußerst geringem Wartungsaufwand als ein leistungsfähiges Instrument erwiesen. Die hohe Pulsenergie dieser Systeme erlaubt zudem die Verwendung von Frequenzverdopplern mit deutlich geringeren Konversionsezienzen zur Messung der Pulslänge. Trotz uneinheitlicher Kristallachsen hat sich hier das streuend frequenzverdoppelnde Aluminiumnitrid als besonders tauglich für die optische Autokorrelation herausgestellt. Im Vergleich zum üblicherweise verwendeten monokristallinen Beta-Bariumborat, reduzieren die gesinterten Aluminiumnitrid-Keramikplatten den Justageaufwand, vereinfachen durch ihre Robustheit die Handhabung und verringern den Kostenfaktor um zwei bis drei Größenordnungen. Daher eignet sich das hier entwickelte Verfahren auch für die Kontrolle der Pulslänge während des Fertigungsprozesses eines solchen Systems – besonders dann, wenn hohe bzw. für Beta-Bariumborat zu hohe Pulsenergien auftreten können.
Die Diffusionsbildgebung misst die Bewegung von Wassermolekülen in Gewebe mittelsrnvariierender Gradientenfelder unter Verwendung der Magnetresonanztomographie(MRT). Diese Aufnahmetechnik stellt eine große Chance für in vivo Untersuchung von neuronalen Bahnen dar, da das lokale Diffusionsprofil Rückschlüsse über die Position und Richtung von Nervenbahnen erlaubt. Zu den Anwendungsgebieten der Diffusionsbildgebung zählt die Grundlagenforschung in den Neurowissenschaften, in denen Nervenbahnen als Verbindungen kortikaler Areale bestimmt werden, und die neurochirurgische Operationsplanung, in der rekonstruierte Bahnen als Risikostrukturen für Interventionen angesehen werden.
Die Diffusionstensor-MRT (DT-MRT) ist aufgrund ihrer schnellen Aufnahme- und Rekonstruktionsgeschwindigkeit derzeitig klinischer Standard zur Bestimmung von Nervenbahnen. Jedoch erlaubt die DT-MRT nicht die Darstellung von komplexen intravoxel Diffusionsverteilungen. Daher etablierte sich eine weitere Modellierungstechnik, die als High Angular Resolution Diffusion Imaging (HARDI) bekannt ist. HARDITechniken erhielten wachsendes Interesse in den Neurowissenschaften, da sie großes Potential zur exakteren Darstellung der Nervenbahnen im menschlichen Gehirn besitzen.
Um die Vorteile von HARDI-Techniken gegenüber DT-MRT voll auszuschöpfen, werden fortgeschrittene Methoden zur Rekonstruktion und Visualisierung der Bahnen benötigt. In der vorliegenden Arbeit werden neue Techniken vorgestellt, welche zur aktuellen Forschung hinsichtlich der Verarbeitung und Visualisierung von Diffusionsbildgebungsdaten beitragen. Ansätze zur Klassifizierung, Traktographie und Visualisierung wurden entwickelt um eine aussagekräftige Exploration neuronaler Bahnen und deren Beschaffenheit zu ermöglichen. Des Weiteren wurde eine interaktive Software für die neurochirurgische Operationsplanung implementiert, welche Nervenbahnen als Risikostrukturen berücksichtigt.
Die vorgestellten Forschungsergebnisse bieten einen erweiterten und aufgabenorientierten Einblick in neuronale Verbindungen sowohl für Neurowissenschaftler als auch für Neurochirurgen und tragen zum Einsatz von HARDI-Techniken in einer klinischen Umgebung bei.
Als mehrsprachiges System stelltWikipedia viele Herausforderungen sowohl an Akademiker als auch an Ingenieure. Eine dieser Herausforderungen ist die kulturelle Kontextualisierung der Wikipedia-Inhalte und der Mangel an Ansätzen zu ihrer effektiven Quantifizierung. Außerdem scheint es an der Absicht zu fehlen, solide Berechnungspraktiken und Rahmenbedingungen für die Messung kultureller Variationen in dem Datenmaterial zu schaffen. Die derzeitigen Ansätze scheinen hauptsächlich von der Datenverfügbarkeit diktiert zu werden, was ihre Anwendung in anderen Kontexten erschwert. Ein weiterer häufiger Nachteil ist, dass sie aufgrund eines erheblichen qualitativen oder Übersetzungsaufwands selten skalieren. Um diesen Einschränkungen zu begegnen, werden in dieser Arbeit zwei modulare quantitative Ansätze entwickelt und getestet. Sie zielen darauf ab, kulturbezogene Phänomene in Systemen zu quantifizieren, die auf mehrsprachigem, nutzergeneriertem Inhalt beruhen. Insbesondere
ermöglichen sie es: (1) einen benutzerdefinierten Kulturbegriff in einem System zu operationalisieren; (2) kulturspezifische Inhalts- oder Abdeckungsverzerrungen in einem solchen System zu quantifizieren und zu vergleichen; und (3) eine großräumige Landschaft mit gemeinsamen kulturellen Interessen und Schwerpunkten abzubilden. Die empirische Validierung dieser Ansätze ist in zwei Teile gegliedert. Erstens wird ein Ansatz zur Kartierung von Wikipedia-Gemeinschaften mit gemeinsamen redaktionellen Interessen auf zwei großenWikipedia Datensätzen validiert, die multilaterale geopolitische und sprachliche Redakteursgemeinschaften umfassen. Beide Datensätze zeigen messbare Cluster von konsistenten Mitredaktionsinteressen und bestätigen rechnerisch, dass diese Cluster mit bestehenden kolonialen, religiösen, sozioökonomischen und geographischen Bindungen übereinstimmen.
Zweitens wird ein Ansatz zur Quantifizierung von Inhaltsunterschieden anhand eines mehrsprachigen Wikipedia-Datensatzes und eines Multiplattform-Datensatzes (Wikipedia und Encyclopedia Britannica) validiert. Beide sind auf einen ausgewählten Wissensbereich der Nationalgeschichte beschränkt. Diese Analyse ermöglicht es erstmals im großen Maßstab, die Verteilung der historischen Schwerpunkte in den Artikeln zur Nationalgeschichte zu quantifizieren und zu visualisieren. Alle Ergebnisse werden entweder von Fachexperten oder von externen Datensätzen kreuzvalidiert. Die wichtigsten Beiträge der Dissertation. Diese Dissertation: (1) stellt einen Versuch dar, den Prozess der Messung kultureller Variationen in nutzergeneriertem Datenmaterial zu formalisieren; (2) stellt zwei neue Ansätze zur Quantifizierung der kulturellen Kontextualisierung in mehrsprachigem Datenmaterial vor und testet sie; (3) schafft einen wertvollen Überblick über die Literatur zur Definition und Quantifizierung von Kultur; (4) liefert wichtige empirische Erkenntnisse über die Wirkung von Kultur auf den Inhalt und die Abdeckung von Wikipedia; zeigt, dass Wikipedia nicht kontextfrei ist, und dass diese Unterschiede nicht als Rauschen, sondern als ein wichtiges Merkmal des Datenmaterials behandelt werden sollten. (5) leistet einen praktischen Beitrag durch das Teilen von Datenmaterial und Visualisierungen.
Semantic-Web-Technologien haben sich als Schlüssel für die Integration verteilter und heterogener Datenquellen im Web erwiesen, da sie die Möglichkeit bieten, typisierte Verknüpfungen zwischen Ressourcen auf dynamische Weise und nach den Prinzipien von sogenannten Dataspaces zu definieren. Die weit verbreitete Einführung dieser Technologien in den letzten Jahren führte zu einer großen Menge und Vielfalt von Datensätzen, die als maschinenlesbare RDF-Daten veröffentlicht wurden und nach ihrer Verknüpfung das sogenannte Web of Data bilden. Angesichts des großen Datenumfangs werden diese Verknüpfungen normalerweise durch Berechnungsmethoden generiert, den Inhalt von RDF-Datensätzen analysieren und die Entitäten und Schemaelemente identifizieren, die über die Verknüpfungen verbunden werden sollen. Analog zu jeder anderen Art von Daten müssen Links die Kriterien für Daten hoher Qualität erfüllen (z. B. syntaktisch und semantisch genau, konsistent, aktuell), um wirklich nützlich und leicht zu konsumieren zu sein. Trotz der Fortschritte auf dem Gebiet des maschinellen Lernens ist die menschliche Intelligenz für die Suche nach qualitativ hochwertigen Verbindungen nach wie vor von entscheidender Bedeutung: Menschen können Algorithmen trainieren, die Ausgabe von Algorithmen in Bezug auf die Leistung validieren, und auch die resultierenden Links erweitern. Allerdings sind Menschen – insbesondere erfahrene Menschen – nur begrenzt verfügbar. Daher kann die Ausweitung der Datenqualitätsmanagementprozesse von Dateneigentümern/-verlegern auf ein breiteres Publikum den Lebenszyklus des Datenqualitätsmanagements erheblich verbessern.
Die jüngsten Fortschritte bei Human Computation und bei Peer-Production-Technologien eröffneten neue Wege für Techniken zur Verwaltung von Mensch-Maschine-Daten, die es ermöglichten, Nicht-Experten in bestimmte Aufgaben einzubeziehen und Methoden für kooperative Ansätze bereitzustellen. Die in dieser Arbeit vorgestellten Forschungsarbeiten nutzen solche Technologien und untersuchen Mensch-Maschine-Methoden, die das Management der Verbindungsqualität im Semantic Web erleichtern sollen. Zunächst wird unter Berücksichtigung der Dimension der Verbindungsgenauigkeit eine Crowdsourcing Methode zur Ontology Alignment vorgestellt. Diese Methode, die auch auf Entitäten anwendbar ist, wird als Ergänzung zu automatischen Ontology Alignment implementiert. Zweitens werden neuartige Maßnahmen zur Dimension des Informationsgewinns eingeführt, die durch die Verknüpfungen erleichtert werden. Diese entropiezentrierten Maßnahmen liefern Datenmanagern Informationen darüber, inwieweit die Entitäten im verknüpften Datensatz Informationen in Bezug auf Entitätsbeschreibung, Konnektivität und Schemaheterogenität erhalten. Drittens wenden wir Wikidata - den erfolgreichsten Fall eines verknüpften Datensatzes, der von einer Gemeinschaft von Menschen und Bots kuratiert, verknüpft und verwaltet wird - als Fallstudie an und wenden deskriptive und prädiktive Data Mining-Techniken an, um die Ungleichheit der Teilnahme und den Nutzerschwung zu untersuchen. Unsere Ergebnisse und Methoden können Community-Managern helfen, Entscheidungen darüber zu treffen, wann/wie mit Maßnahmen zur Nutzerbindung eingegriffen werden soll. Zuletzt wird eine Ontologie zur Modellierung der Geschichte der Crowd-Beiträge auf verschiedenen Marktplätzen vorgestellt. Während der Bereich des Mensch-Maschine-Datenmanagements komplexe soziale und technische Herausforderungen mit sich bringt, zielen die Beiträge dieser Arbeit darauf ab, zur Entwicklung dieses noch aufstrebenden Bereichs beizutragen.
Wirkfaktoren von Achtsamkeit: Wirkt Achtsamkeit durch Verringerung der affektiven Reaktivität?
(2009)
Die vorliegende Forschungsarbeit untersucht mögliche Wirkfaktoren von Achtsamkeit. Wirkfaktoren sind dabei die Prozesse, die die Effekte von Achtsamkeit auf Wohlbefinden und Gesundheit vermitteln. Bisherige Studien des Forschungsfelds haben sich auf den Nachweis der Wirksamkeit (vgl. Baer, 2003; Grossman, Niemann, Schmidt & Walach, 2004) sowie die Entwicklung von psychometrischen Achtsamkeitstests konzentriert (z.B. Brown & Ryan, 2003; Walach et al., 2006). Die Frage nach den Wirkfaktoren von Achtsamkeit ist demgegenüber bisher weitgehend unbeantwortet. Erst seit kurzem widmen sich Forschungsarbeiten dieser Frage (Arch & Craske, 2006; Shapiro, Carlson, Astin & Friedman, 2006; Zeidler, 2007). Kenntnis der Wirkfaktoren von Achtsamkeit ist der Schlüssel zum Verständnis des Phänomens sowie zur Verbesserung von Interventionen. Aus diesem Grund ist die Erforschung der Wirkfaktoren von Achtsamkeit die nächste zentrale Aufgabe des Forschungsfelds. Basierend auf einer Analyse des theoretischen Fundaments des Konstrukts " insbesondere der buddhistischen Psychologie " wird in dieser Arbeit "Verringerung von affektiver Reaktivität" als Wirkfaktor angenommen (Kalupahana, 1992; Davids, 2002; De Silva, 2005). Affektive Reaktivität bezeichnet die Tendenz, auf affektive Reize (z.B. unangenehme Bilder) mit affektiven Reaktionen (z.B. negativen Gefühlen) zu antworten. Das entsprechende Mediatormodell (Prädiktor: Achtsamkeit; Mediator: affektive Reaktivität; Kriterium: habituelles Wohlbefinden) wird in drei Studien empirisch untersucht. Studie I (N=247) fokussiert auf eine behaviorale Operationalisierung von affektiver Reaktivität anhand von expliziten (z.B. Bewertung aversiver Bilder) und impliziten (z.B. Emotional Stroop) Maßen. Studie II (N=221) erfasst alle Variablen des Modells mit Fragebögen. Beide Studien sind korrelativ und querschnittlich aufgebaut. Studie III (N=189) induziert experimentell State-Achtsamkeit und prüft die Effekte auf die Bewertung aversiver Bilder. Insgesamt bestätigen die Studien das vorgeschlagene Modell teilweise. Dabei finden sich soÂwohl für Fragebogen als auch für behaviorale Erfassung hypothesenkonforme Ergebnisse. AlÂlerdings sind die Effekte für fragebogenbasierte Operationalisierungen stärker als für behaviorale Erfassung von affektiver Reaktivität. Das Design der Studien begrenzt die interne Validität, so dass die Ergebnisse als erste Hinweise zu verstehen sind. Zukünftige Studien sollten sich weiter auf diesen Wirkfaktor aber auch auf weitere mögliche Wirkfaktoren konzentrieren. Zur Erhöhung der internen Validität sind längsschnittliche Designs, experimentelle Designs und alternative OperationalisierÂungen vonnöten.
Successful export sectors in manufacturing and agribusiness are important drivers of structural transformation in Sub-Sahara African countries. Backed by industrial policies and active state involvement, a small number of successful productive export sectors has emerged in Sub-Saharan Africa. This thesis asks the question: How do politics shape the promotion of export-driven industrialisation and firm-level upgrading in Sub-Saharan Africa? It exemplifies this question with an in-depth, qualitative study of the cashew processing industry in Mozambique in the period from 1991 until 2019. Mozambique used to be one of the world’s largest producers and processors of cashew nuts in the 1960s and 1970s. At the end of the 20th century, the cashew processing industry broke down completely but has re-emerged as one of the country’s few successful agro-processing exports.
The thesis draws on theoretical approaches from the fields of political science, notably the political settlements framework, global value chain analysis and the research on technological capabilities to explore why the Mozambican Government supported the cashew processing industry and how Mozambican cashew processors acquired the technological capabilities needed to access the global cashew value chain and to upgrade. It makes an important theoretical contribution by linking the political settlements framework and the literature on upgrading in global value chains to study how politics shaped productive sector promotion and upgrading in the Mozambican cashew processing industry. The findings of the thesis are based on extensive primary data, including 58 expert interviews and 10 firm surveys, that was collected in Mozambique in 2018 as well as a broad base of secondary literature.
The thesis argues that the Mozambican Government supported the cashew processing industry because it became important for the Government’s political survival. Promoting the cashew sector formed part of an electoral strategy for the ruling FRELIMO coalition and a means to keep FRELIMO factions united by offering economic opportunities to key constituencies. In 1999, it adopted a protectionist cashew law that created strong incentives for cashew processing in Mozambique. This not only facilitated the re-emergence of the cashew processing industry after its breakdown. The law and the active involvement of the National Cashew Institute (INCAJU) also affected the governance of the local cashew value chain, the creation of backward linkages, and the upgrading paths of cashew processors. The findings of the thesis suggest that the cashew law reduced the pressure on the cashew processing industry to upgrade. The law further created opportunities for formal and informal rent creation for members of the political elite and lower level FRELIMO officials that prevented a far-reaching reform of the law. The thesis shows that international buyers do not promote upgrading among Sub-Sahara African firms in global value chains with market-based or modular governance. Moreover, firms that operate in countries where industrial policies are not enforced effectively cannot draw on the support of government institutions to enhance their capabilities and to upgrade. Firms therefore mainly depended on costly learning channels at firm level, e.g. learning by doing or hiring skilled labour, and/or on technical assistance from donors to build the technological capabilities needed to access global value chains and to remain competitive.
The findings of the thesis suggest that researchers, governments, development practitioners and consultants need to rethink their understanding of upgrading in GVCs in four ways. First, they need to move away from understanding upgrading in terms of moving towards more complex, higher value-added activities in GVCs (functional upgrading). Instead, it is important to consider the potential of other, more realistic types of upgrading for firms in low-income countries, such reducing risks by diversifying suppliers and buyers or increasing rewards by making production processes more efficient. Second, they need to replace an overly positive view on upgrading that neglects possible side-effects at sector and/or country level. Third, GVC participation on its own does not promote upgrading among local supplier firms in Sub-Saharan Africa. The interests of lead firms and Sub-Sahara African supplier firms may not be aligned or even conflicting. Targeted industrial policies and the creation of institutions that effectively promote capability building among firms therefore become even more important. Finally, upgrading needs to be understood as a process that is not only shaped by interactions between firms, but also by local domestic politics.
The findings of the thesis are highly relevant for scholars from the fields of political science, development studies, and economics. Its practical implications and tools, e.g. a technological capabilities matrix for the cashew industry, are of interest for development practitioners, members of public institutions in Sub-Sahara African countries, local entrepreneurs, and representatives of local business associations that are involved in promoting export sectors and upgrading among local firms.
In der vorliegenden Dissertation mit dem Titel "Blickanalysen bei mentalen Rotationsaufgaben" wird eine Analyse der visuellen Verarbeitungsprozesse bei mentalen Rotationsaufgaben mittels Eye-Tracking-Technologie durchgeführt, um die zugrundeliegenden kognitiven Prozesse und Strategien, die bei der Lösung dieser Aufgaben angewandt werden, zu untersuchen. Ein Anliegen dieser Arbeit ist es, die Problemstellung zu adressieren, wie individuelle Unterschiede, insbesondere geschlechtsspezifische Differenzen in den Blickmustern, die visuelle Verarbeitung und Leistung bei mentalen Rotationsaufgaben beeinflussen. Hierzu wurden drei Studien durchgeführt, die nicht nur die Identifikation von Blickmustern und die Analyse der Leistungsunterschiede in Bezug auf Geschlecht umfassen, sondern auch die Korrelation zwischen Blickverhalten und Leistung untersuchen. Die Ergebnisse dieser Forschung bieten Einblicke in die Mechanismen der visuellen und kognitiven Verarbeitung bei mentalen Rotationsaufgaben und heben die Bedeutung des Eye-Tracking als Forschungsinstrument in der kognitiven Psychologie hervor, um ein umfassendes Verständnis der Einflussfaktoren auf räumliches Denken und Problemlösungsstrategien zu erlangen.
Chemical plant protection is an essential element in integrated pest management and hence, in current crop production. The use of Plant Protection Products (PPPs) potentially involves ecological risk. This risk has to be characterised, assessed and managed.
For the coming years, an increasing need for agricultural products is expected. At the same time, preserving our natural resources and biodiversity per se is of equally fundamental importance. The relationship of our economic success and cultural progress to protecting the environment has been made plain in the Ecosystem Service concept. These distinct 'services' provide the foundation for defining ecological protection goals (Specific Protection Goals, SPGs) which can serve in the development of methods for ecological risk characterisation, assessment and management.
Ecological risk management (RM) of PPPs is a comprehensive process that includes different aspects and levels. RM is an implicit part of tiered risk assessment (RA) schemes and scenarios, yet RM also explicitly occurs as risk mitigation measures. At higher decision levels, RM takes further risks, besides ecological risk, into account (e.g., economic). Therefore, ecological risk characterisation can include RM (mitigation measures) and can be part of higher level RM decision-making in a broader Ecosystem Service context.
The aim of this thesis is to contribute to improved quantification of ecological risk as a basis for RA and RM. The initial general objective had been entitled as "… to estimate the spatial and temporal extent of exposure and effects…" and was found to be closely related to forthcoming SPGs with their defined 'Risk Dimension'.
An initial exploration of the regulatory framework of ecological RA and RM of PPPs and their use, carried out in the present thesis, emphasised the value of risk characterisation at landscape-scale. The landscape-scale provides the necessary and sufficient context, including abiotic and biotic processes, their interaction at different scales, as well as human activities. In particular, spatially (and temporally) explicit landscape-scale risk characterisation and RA can provide a direct basis for PPP-specific or generic RM. From the general need for tiered landscape-scale context in risk characterisation, specific requirements relevant to a landscape-scale model were developed in the present thesis, guided by the key objective of improved ecological risk quantification. In principle, for an adverse effect (Impact) to happen requires a sensitive species and life stage to co-occur with a significant exposure extent in space and time. Therefore, the quantification of the Probability of an Impact occurring is the basic requirement of the model. In a landscape-scale context, this means assessing the spatiotemporal distribution of species sensitivity and their potential exposure to the chemical.
The core functionality of the model should reflect the main problem structures in ecological risk characterisation, RA and RM, with particular relationship to SPGs, while being adaptable to specific RA problems. This resulted in the development of a modelling framework (Xplicit-Framework), realised in the present thesis. The Xplicit-Framework provides the core functionality for spatiotemporally explicit and probabilistic risk characterisation, together with interfaces to external models and services which are linked to the framework using specific adaptors (Associated-Models, e.g., exposure, eFate and effect models, or geodata services). From the Xplicit-Framework, and using Associated-Models, specific models are derived, adapted to RA problems (Xplicit-Models).
Xplicit-Models are capable of propagating variability (and uncertainty) of real-world agricultural and environmental conditions to exposure and effects using Monte Carlo methods and, hence, to introduce landscape-scale context to risk characterisation. Scale-dependencies play a key role in landscape-scale processes and were taken into account, e.g., in defining and sampling Probability Density Functions (PDFs). Likewise, evaluation of model outcome for risk characterisation is done at ecologically meaningful scales.
Xplicit-Models can be designed to explicitly address risk dimensions of SPGs. Their definition depends on the RA problem and tier. Thus, the Xplicit approach allows for stepwise introduction of landscape-scale context (factors and processes), e.g., starting at the definitions of current standard RA (lower-tier) levels by centring on a specific PPP use, while introducing real-world landscape factors driving risk. With its generic and modular design, the Xplicit-Framework can also be employed by taking an ecological entity-centric perspective. As the predictive power of landscape-scale risk characterisation increases, it is possible that Xplicit-Models become part of an explicit Ecosystem Services-oriented RM (e.g., cost/benefit level).
Die deutsche Holzhausbranche wächst seit Jahren, allerdings beschäftigen sich die Unternehmen nicht strategisch mit dem Thema Marketing. Diese Dissertation bildet durch qualitative und quantitative Bewohnerbefragungen die Basis für die Entwicklung eines strategischen Marketingansatzes im Holzhausbereich.
Die Suche nach wissenschaftlicher Literatur ist eine Forschungsherausforderung für das Information Retrieval im besonderen Umfeld der digitalen Bibliotheken. Aktuelle Nutzerstudien zeigen, dass im klassischen IR-Modell zwei typische Schwächen auszumachen sind: das Ranking der gefundenen Dokumente und Probleme bei der Formulierung von Suchanfragen. Gleichzeitig ist zu sehen, dass traditionelle Retrievalsysteme, die primär textuelle Dokument- und Anfragemerkmale nutzen, bei IR-Evaluationskampagnen wie TREC und CLEF in ihrer Leistung seit Jahren stagnieren.
Zwei informetrisch-motivierte Verfahren zur Suchunterstützung werden vorgestellt und mittels einer Laborevaluation mit den beiden IR-Testkollektionen GIRT und iSearch sowie 150 und 65 Topics evaluiert. Die Verfahren sind: (1) eine auf der Kookkurrenz von Dokumentattributen basierende Anfrageerweiterung und (2) ein Rankingansatz, der informetrische Beobachtungen zur Produktivität von Informationserzeugern ausnutzt. Beide Verfahren wurden mit einer Referenzimplementation auf Basis der Suchmaschine Solr verglichen. Beide Verfahren zeigen positive Effekte beim Einsatz von zusätzlichen Dokumentattributen wie Autorennamen, ISSN-Codes und kontrollierten Schlagwörtern. Bei der Anfrageerweiterung konnte ein positiver Effekt in Form einer Verbesserung der Precision (bpref +12%) und des Recall (R +22%) erzielt werden. Die alternativen Rankingansätze konnten beim Ansatz von Autorennamen und ISSN-Codes die Baseline erreichen bzw. diese beim Einsatz der kontrollierten Schlagwörter über- treffen (MAP +14%). Einen negativen Einfluss auf das Ranking hatten allerdings die Einbeziehung von Faktoren wie Verlagsnamen oder Erscheinungsorten. Für beide Verfahren konnte eine substantiell andere Sortierung der Ergebnismenge, gemessen anhand von Kendalls, beobachtet werden. Zusätzlich zu der verbesserten Relevanz der Ergebnisliste kann der Nutzer so eine neue Sicht auf die Dokumentenmenge gewinnen.
Die Anfrageerweiterung mit Autorennamen, ISSN-Codes und Thesaurustermen zeigt das bisher ungenutzte Potential, das sich in digitalen Bibliotheken durch die Datenfülle und -qualität ergibt. Die Rankingverfahren konnten die Leistung des Baseline-Systems übertreffen, nachdem eine Überprüfung auf Vorliegen einer Power Law-Verteilung und eine anschließende Filterung durchgeführt wurde. Dies zeigt, dass die Rankingverfahren nicht universell für alle Suchanfragen anwendbar sind, sondern ein Vorhandensein bestimmter Häufigkeitsverteilungen voraussetzen. So wird die enge Verbindung der Verfahren zu informetrischen Gesetzmäßigkeiten wie Bradfords, Lotkas oder Zipfs Gesetz deutlich. Die beiden in der Arbeit evaluierten Verfahren sind als interaktive Suchunterstützungsdienste in der sozialwissenschaftlichen digitalen Bibliothek Sowiport implementiert. Die Verfahren lassen sich über entsprechende Web- Schnittstellen auch in anderen Anwendungskontexten einsetzen.
Formen des Zugangs in der Jugendhilfe – zur Gestaltung von Zugängen zum System der Hilfen zur Erziehung Kindern, Jugendlichen und Erwachsenen in unterschiedlichen familiären Beziehungen und Lebenslagen stehen in Deutschland bei Bedarf und auf Wunsch öffentliche Hilfeleistungen rund um das Thema Erziehung zur Verfügung. Repräsentiert wird dieses Angebot als Rechtsanspruch öffentlicher Hilfe in der Regel durch die örtlichen Jugendämter. In Folge der Einführung des Sozialgesetzbuches VIII (Kinder- und Jugendhilfegesetz, jetzt: Kinder- und Jugendstärkungsgesetzt/KJSG) befassten sich wiederholt wissenschaftliche Erhebungen mit dem Nutzen und den Wirkungen der in den Hilfen zur Erziehung vorhandenen Angebote aus Sicht der Adressatinnen und Adressaten, also den Kindern, Jugendlichen und Eltern. Dem Rechtsanspruch mit dem Angebot auf die Hilfen zur Erziehung auf der einen Seite, stehen die Adressatinnen und Adressaten dieser Hilfen auf der anderen zunächst gegenüber. Im Fokus der damit einhergehenden Adressaten- und Adressatinnenforschung steht die Frage, wie Adressatinnen und Adressaten den Zugang zu diesen Hilfen in ihrem Alltagsleben erhalten und ggf. integrieren. Ziel dieser Arbeit ist es daher zu untersuchen, wie sich aus Sicht von Eltern mit Jugendhilfeerfahrung dieser Zugang gestaltet, wie sie ihre diesbezüglichen Erfahrungen einordnen und bewerten. Um sich die Lebenswelten und Sinnhorizonte der Eltern zu erschließen, erfolgte die Datenerhebung durch transkribierte narrative Interviews. Diese wurden mittels qualitativ inhaltsanalytischer Verfahren strukturiert und sequenziert untersucht, um relevante Kodes, Konzepte und Kategorien aus den Erzählungen herauszuarbeiten. Dabei stellte sich heraus, dass es den einen Zugang nicht gibt, im Weiteren auch kein einfaches Setting zwischen Angebot und Nachfrage vorliegt. Vielmehr zeigen sich unterschiedliche Zugangsformen und individuelle Faktoren, die einen Zugang begünstigen oder behindern können. Zentral sind hier vor allem die Wirkung Anderer in der Biografie der Eltern, gleich ob aus Familie oder auf Seiten der Fachkräfte sowie deren Haltungen und das Vorhandensein von Ressourcen wie z.B. Wissen. Für die Praxis der Sozialen Arbeit bedeutet dies, sich den zunächst fremden Lebenswelten
der Adressatinnen und Adressaten verstehend zu nähern und nicht außer Acht zu lassen, dass diese ihnen mit ihren Bildern, Ideen, Wünschen und Lebenserfahrungen gegenüber treten, welche wahrgenommen und verstanden werden wollen.
Ralf Schauf
In der Biologie stellt das Zeichnen eine zentrale Arbeitstechnik dar. Viele Studien konnten auf einen positiven Effekt des Zeichnens für bestimmte Situationen hinweisen. Schülerinnen und Schüler müssen diese Technik jedoch zunächst erlernen. Hierbei können zahlreiche Schwierigkeiten auftreten, die die inhaltliche Auseinandersetzung gefährden. Jedoch wurden sowohl Schwierigkeiten im Umgang mit unterschiedlichen Repräsentationsformen als auch der Zeichenprozess bislang nur lückenhaft untersucht. Die Studie dieser Arbeit hat daher zum Ziel, (I) den Zeichenprozess auf der Ebene der Sichtstruktur zu beschreiben, (II) die manifesten Schwierigkeiten von Lernenden zu erfassen, auf die sie während der Konstruktion biologisch bedeutsamer Repräsentationsformen (Ablaufdiagramme, mikroskopische Zeichnungen) treffen, (III) und auf Grundlage der empirischen Befunde Schülertypen abzuleiten. Vor diesem Hintergrund waren 21 Schülerinnen und Schüler angehalten, jeweils ein Ablaufdiagramm auf Grundlage eines Texts und eine mikroskopische Zeichnung auf Grundlage eines Präparats zu konstruieren und dabei laut zu denken. Fragen zur Vorerfahrung sowie retrospektiv gestellte Fragen zum Vorgehen der Teilnehmenden umrahmten den videografisch dokumentierten Prozess. Die Ergebnisse zeigen, dass der Zeichenprozess mehr als zehn unterschiedliche Tätigkeiten umfassen kann, wobei die Kerntätigkeit des Zeichnens durchschnittlich nur rund ein Drittel des Prozesses ausmacht. Die Prozessstruktur zwischen Fällen variiert erheblich. Weiterhin konnten etwa 30 Schwierigkeiten bzw. Fehler identifiziert werden, die während der Konstruktion beider Repräsentationsformen auftreten. Diese können dabei sowohl einzelne als auch mehrere Tätigkeiten betreffen und zu Tätigkeitsabbrüchen führen. Schwierigkeiten stehen häufig in Verbindung mit Tätigkeiten, die außerhalb der Kerntätigkeit des Zeichnens liegen (z. B. Abgleich mit der Textgrundlage). Bezogen auf Ablaufdiagramme stellt das Verhältnis depiktional bzw. deskriptional dargestellter Textinformationen den Ausgangspunkt der Typisierung dar: Typ I: realistisch abbildend, II: alternierend abbildend und III: schriftorientiert abbildend. Für mikroskopische Zeichnungen war die Häufigkeit des Abgleichs mit dem Objekt grundlegend für die Typisierung: Typ I: oberflächlich abbildend, II: objektorientiert abbildend und III: undifferenziert detailliert abbildend. Die Studie liefert erstmals Kategoriensysteme, die es erlauben, die Prozessstruktur des Zeichnens sichtbar und zwischen Fällen vergleichbar zu machen sowie schwierigkeitsbezogenes Grundlagenwissen zur Konstruktion von Zeichnungen, basierend auf Texten und Beobachtungen. Die Übertragbarkeit der Befunde auf andere Repräsentationsformen ist an vielen Stellen denkbar. Die theoretisch fundierte Systematisierung von Schwierigkeiten kann von weiterführenden Untersuchungsansätze aufgegriffen werden und erlaubt die Verortung situationsangemessener Unterstützungsmaßnahmen.
Die Bereitstellung elektronischer Beteiligungsverfahren (E-Partizipation) ist ein komplexes sozio-technisches Unterfangen, das eine sorgfältige Vorgehensweise erfordert. Die Herausforderung ist, dass Regierungen oder Kommunalverwaltungen, als häufigste Anbieter, bei der ganzheitlichen Planung und Umsetzung nur unzureichend unterstützt werden. Infolgedessen beschreibt die Literatur nur wenige E-Partizipationsangebote als erfolgreich. Die Wirtschaftsinformatik entwickelte das Konzept der Enterprise Architectures um die Entwicklung komplexer sozio-technischer Systeme zu unterstützen. Versteht man die Gruppe an Organisationen, die E-Partizipationsverfahren bereitstellt nun als Enterprise, so können die Prinzipien von Enterprise Architectures angewendet werden. Nichtsdestotrotz wurde dieser Ansatz in der E-Partizipationspraxis und –Forschung bisher kaum beachtet.
Motiviert durch diese Forschungslücke, untersucht die Dissertation bestehende Ansätze aus der E-Partizipationspraxis und –Forschung auf Besonderheiten und Schwachstellen, um anschließend den Nutzen bestehender Rahmenwerke für Enterprise Architectures im Kontext von E-Partizipation zu analysieren. Die Literaturstudie überprüft sowohl konzeptionelle als auch prozedurale Ansätze aus Praxis und Wissenschaft auf ihre Ganzheitlichkeit und identifiziert die Herausforderungen. Im Rahmen von vier Projekten wird das Vorgehen beim Entwurf und der Umsetzung von elektronisch unterstützten Beteiligungsverfahren dokumentiert und ausgewertet sowie Verbesserungspotenziale aufgezeigt. Enterprise Architecture Frameworks (Zachman Framework, TOGAF, DoDAF, FEA, ARIS, und ArchiMate) werden auf Anforderungen und Nützlichkeit für E-Partizipation untersucht. Die Ergebnisse zeigen die Herausforderungen bei der Übernahme existierender Enterprise Architecture Frameworks, aber auch das Potential einer Kombination aus speziellen Ansätzen für E-Partizipation mit Enterprise Architectures auf. Folglich ist das Ziel der weiteren Forschung die Entwicklung eines Architekturrahmenwerks für E-Partizipation.
Die vorliegende Dissertation führt die Ergebnisse der Literaturstudien und Aktionsforschung zusammen und wendet dementsprechend Konstruktionsforschung (Design Science Research) bei der Entwicklung des E-Participation Architecture Framework (EPART-Framework) an. Die initiale Version dieses Rahmenwerks wird in zwei unterschiedlichen Umgebungen angewandt und getestet. Die Erkenntnisse führen zu dem EPART-Framework, das in dieser Dissertation vorgestellt wird. Es besteht aus dem EPART-Metamodel, das E Partizipation aus sechs verschiedenen Perspektiven unterschiedlicher Akteure (den sog. EPART-Viewpoints) betrachtet. Die EPART-Method unterstützt den Entwurf und die Umsetzung von E-Partizipation mit Hilfe des EPART-Frameworks. Sie beschreibt fünf, durch Anforderungsmanagement begleitete, Phasen: Initiierung, Entwurf, Umsetzung, Partizipation und Evaluation. Die Ergebnisse während diesen Phasen werden in der Architekturbeschreibung (Architecture Description) und dem Solution Repository gespeichert. Das finale EPART-Framework wird im Rahmen der Arbeit evaluiert, um Empfehlungen für die Anwendung sowie weiteren Forschungsbedarf aufzuzeigen. Die Ergebnisse geben Grund zur Annahme, dass das EPART-Framework die Lücke zwischen E-Partizipation und Enterprise Architectures füllt und Forschung und Praxis in dem Feld wertvoll ergänzt.
Quellen sind hochdiverse Lebensräume mit einer stark spezialisierten Fauna, wobei noch Lücken im Verständnis der besiedlungsrelevanten Faktoren für die aquatische Makrofauna bestehen, so dass die Arbeit einen klärenden Beitrag hinsichtlich anthropogener Veränderungen und ihrer Auswirkungen auf die Besied-lung leisten will. Basierend auf Daten von 334 Quellen aller Grundwasserlandschaften von Rheinland-Pfalz wurden die Quellen morphologisch und faunistisch bewertet. Außerdem wurden die Quellen des Landes morphologisch typisiert, Referenzquellen analysiert und ein Ansatz für die morphologische und faunistische Leitbildentwicklung gegeben. Außerdem wird ein selbst entwickeltes, kompaktes Kartier- und Bewertungsverfahren zur Quellstruktur vorgestellt, wo bislang noch ein Defizit bestand. Das Verfahren erfasst in einem Erfassungsbogen alle ökologisch bedeutsamen Strukturparameter und bewertet in einem 5-stufigen System. Quellen sind hochdiverse Lebensräume mit kleinen Populationen in isolierter Lage. Bei der Untersuchung der 310 Quellen wurden insgesamt 292 Arten bzw. höhere Taxa des Makrozoobenthos nachgewiesen. Es wurden 89 quellassoziierte Taxa gezählt, hiervon waren 24 krenobiont und 65 krenophil. Der Anteil der quellassoziierten Fauna an der Gesamtfauna lag bei über 30%. Es fanden sich 19 Erstnachweise für Rheinland-Pfalz, 9 besondere Nachweise (seltene Arten) und 19 Rote-Liste-Arten. Erstnachweise fanden sich in wenig bearbeiteten Dipterengruppen, vor allem den Psychodidae (13), Limoniidae (5) und ferner den Simu-liidae (1). Bei den Köcherfliegen wurden etliche seltene Arten gefunden, welche bisher in Rheinland-Pfalz kaum gefunden wurden. Häufigere krenobionte Taxa waren Crunoecia irrorata, Bythinella dunkeri, Niphar-gus sp., Pisidium personatum, Salamandra salamandra, Thaumalea sp., Agabus guttatus, Crenobia alpina, Oxycera sp. und Beraea maura. Die durchschnittliche Taxazahl pro Quelle betrug 11, die maximale 62 Taxa. Schüttung und Morphologie der Quellen waren von Naturraum und Grundwasserlandschaft abhängig, so schütteten etwa Buntsandsteinquellen ergiebiger und konstanter als Tonschieferquellen. Quellen spiegeln die Hydrologie ihrer Einzugsgebiete wider, so dass in verschiedenen hydrogeologischen Einheiten die chemischen Parameter differierten. In einzelnen Quellen schwankte die Hydrochemie jahreszeitlich aber nur gering. Der pH-Wert etwa war im Quellwasser versauerungsgefährdeter Gebiete niedrig (Hunsrück, Pfälzer-wald), der Nitratgehalt anthropogen bedingt hoch in intensiv landwirtschaftlich genutzten Räumen. Die morphologische Quelltypologie, welche sich in erster Linie auf gängige Quelltypen stützte, ergab in elf hydrogeologischen Quelltypenräumen vier Basisquelltypen und fünf geochemische Sondertypen. Die Wan-derquelle wurde neu hinzu genommen. Die landesweite Verteilung der Quelltypen ergab bei ungefassten Quellen 57 % Sicker-, 32 % Sturz-, 9 % Tümpel- und über 2 % Wanderquellen. Wanderquellen dürften aber noch öfter vorkommen. Relief und Substrateigenschaften waren entscheidende Faktoren für die Typologie, so dass etwa Sturzquellen vor allem im Buntsandstein häufig waren, während Sickerquellen im Tonschiefer des rheinischen Schiefergebirges dominierten. Es wurden 85 Strukturreferenzquellen als typische, naturnahe Beispiele für einzelne Quelltypenräume genannt. Etwa zwei Drittel aller Quellen waren strukturell beein-trächtigt bis stark geschädigt, 59 % gefasst. Fassungen, Verrohrungen und Betonverbau waren ökologisch besonders bedeutsam. In Regionen mit intensiver Landwirtschaft lagen generell die stärksten Schädigungen vor. Im Forst waren Quellen durch Nadelholzmonokulturen und in den Hochlagen pufferarmer Mittelgebirge durch Versauerung geschädigt. Hinsichtlich der Besiedlung ergaben sich Unterschiede zwischen den Naturräumen, beeinflusst durch die Faktoren Geologie, Hydrochemie, Schüttungsverhältnisse, Landnutzung im Einzugsgebiet sowie die Struk-turvielfalt an der Quelle. Strukturell unveränderte und unversauerte Quellen besaßen im Schnitt höhere Ta-xazahlen. Einzelne Faktoren mit Einfluss auf die Besiedlung wurden in ihrer Auswirkung getestet. In Quel-len ist die Versauerung grundsätzlich besiedlungsbeschränkend und überlagert strukturelle Faktoren. Bei niedrigen pH-Werten kommt es zu verminderten Taxazahlen, allerdings sind viele Quellorganismen offen-sichtlich an eine leichte Versauerung angepasst, da in sauren Quellen der Anteil der Quellfauna höher war. Außerdem ergab die Untersuchung, dass neue und intakte Fassungen weniger Taxa und Quelltaxa aufwiesen, während bei alten und verfallenen Fassungen oft eine hohe Quelltaxazahl vorlag, so dass diese als sekundär ökologisch wertvoll zu bezeichnen sind. Die Umfeldnutzung und die Größe des Quellbereichs sind ebenfalls wichtig, so dass Quellen in Laub- und Mischwald sowie in extensivem Grünland am besten besiedelt waren. Die stärksten statistischen Zusammenhänge mit der faunistischen Besiedlung ergaben sich bei den Bewer-tungsergebnissen des Strukturverfahrens, was zeigt, dass das Verfahren realistisch bewertet. Multivariate statistische Methoden dienten der Ermittlung von Besiedlungsfaktoren und der Leitbildentwick-lung. Es ergab sich eine unterschiedliche Besiedlung bei verschiedener Hydrogeologie und Hydrochemie sowie bei verschiedenen Quelltypen. Allerdings waren die Ergebnisse nicht eindeutig, so dass die Trennung der Quelltypen nur teilweise gelang und die Quelltypen von den Grundwasserlandschaften überlagert waren. Die Faunenunterschiede verschiedener Regionen waren größer als die einer Region, so dass morphologische Quelltypen faunistisch nur innerhalb einer hydrogeologischen Einheit von Bedeutung sind. Es wurden regionale faunistische Leitarten für vier Grundwasserlandschaften genannt, wobei sich auf wenige hochstete Quellarten beschränkt wurde. Die Arbeit zeigt, dass faunistisch orientierte Leitbilder nur unter Schwierigkeiten anzugeben sind und vollständige Typuszönosen für größere Gebiete grundsätzlich in Frage zu stellen sind. Sehr häufige grundsätzliche Leitarten für Quellen silikatischer Mittelgebirge in Rheinland-Pfalz sind Crunoecia irrorata und Bythinella dunkeri.
Der Arbeitsmarkt in Deutschland erlebt einen technologisch bedingten Strukturwandel. Durch Digitalisierung werden Tätigkeiten substituierbar, Berufsbilder und dafür benötigte Qualifikationsprofile wandeln sich. Für die Arbeitskräfte resultiert daraus ein Anpassungsdruck, sich zum Erhalt ihres Humankapitals bzw. ihrer Beschäftigungsfähigkeit weiterzubilden. Fraglich ist, inwieweit die Individuen diesen Druck wahrnehmen und mit entsprechenden Weiterbildungen reagieren. Um einen Erklärungsbeitrag zum Weiterbildungsverhalten der Arbeitskräfte in Bezug auf den technologischen Wandel zu leisten, widmet sich das Promotionsvorhaben der Forschungsfrage: „Inwieweit reagieren Arbeitskräfte bezüglich ihres Weiterbildungsverhaltens auf einen sich digitalisierungsbedingt wandelnden Arbeitsmarkt?“
Die Biopolyester Cutin und Suberin stellen hydrophobe Grenzbarrieren dar, die sich im Laufe der Evolution der Landpflanzen entwickelt haben. Cutin bildet den Hauptbestandteil der Cuticula, die den Pflanzen Schutz vor unkontrollierter Transpiration bietet. Die Einlagerung von Suberin in die Zellwände definierter Zellen des Wurzelgewebes ermöglicht eine kontrollierte Aufnahme von Wasser und Nährstoffen. Zu den wichtigsten monomeren Bestandteilen dieser biologischen Polyester gehören langkettige α,ω-Dicarbonsäuren und ω-Hydroxycarbonsäuren. Bisher wurde der mikrobielle Abbau der Makromoleküle unzureichend erforscht. Zur Entschlüsselung der Zersetzung ist es notwendig, den Kreislauf der monomeren Bestandteile im Boden zu betrachten. Hierzu eignen sich vor allem Experimente mit positionsspezifisch ¹³C -markierten α,ω-Dicarbonsäuren und ω-Hydroxycarbonsäuren, die in der vorliegenden Arbeit erstmals synthetisch zugänglich gemacht wurden. Die Synthesen umfassten Dicarbonsäuren der geradzahligen Kettenlängen C12 bis C30, deren Carboxygruppen ¹³C -markiert sind. Ebenfalls wurde die Synthese von ω-Hydroxycarbonsäuren der Kettenlängen C14, C18, C22 und C30 mit ¹³C-Markierung an der Carboxygruppe realisiert. Weitere Zielverbindungen waren ω-Hydroxycarbonsäuren der Kettenlängen C14, C15, C18, C22 und C30, deren terminales hydroxyliertes Kohlenstoffatom mit ¹³C markiert ist. Im Rahmen der durchgeführten Arbeit gelang es, alle 19 Zielcarbonsäuren erfolgreich in hohen Ausbeuten und Reinheiten darzustellen. Die Synthese der isotopenmarkierten Verbindungen erforderte die Entwicklung spezieller auf die jeweiligen Zielsubstanzen individuell angepasster Syntheserouten, die den Einbau des Kohlenstoffisotops ¹³C ermöglichten. Für alle Zielverbindungen erfolgte die Einführung des ¹³C durch die Verwendung von ¹³C -markiertem Kaliumcyanid (99 at%). Wegen der hohen Kosten des ¹³C -markierten Ausgangsstoffes wurden alle Reaktionen zunächst unter der Verwendung analoger unmarkierter Edukte optimiert. Der letzte Teil der Arbeit bestand in der Ausführung eines Inkubationsexperimentes mit den ¹³C -markierten α,ω-Dicarbonsäuren der Kettenlängen C12, C18, C22 und C30. Mittels Phospholipidfettsäure-Analyse konnte gezeigt werden, dass die ¹³C -Dicarbonsäuren zu unterschiedlichen Anteilen von verschiedenen Mikroorganismengruppen zum Aufbau von Phospholipidfettsäuren verwendet wurden. Außerdem konnte durch die Anreicherung des CO2 mit dem Isotop ¹³C nachgewiesen werden, dass die ¹³C -markierten Fettsäuren von den Mikroorganismen zur Energiegewinnung abgebaut wurden. Für zukünftige Arbeiten wäre es interessant, Ausschnitte der Cutin- und Suberinstruktur nachzubilden. Durch die Veresterung der ¹³C -markierten α,ω-Dicarbonsäuren und der ¹³C -markierten ω-Hydroxycarbonsäuren untereinander oder mit Alkoholen könnten Dimere und Oligomere hergestellt werden.
The three biodegradable polymers polylactic acid (PLA), polyhydroxybutyrate (PHB) and polybutylene adipate terephthalate (PBAT) were coated with hydrogenated amorphous carbon layers (a-C:H) in the context of this thesis. A direct alignment of the sample surface to the source was chosen, resulting in the deposition of a robust, r-type a-C:H. At the same time, a partly covered silicon wafer was placed together with the polymers in the coating chamber and was coated. Silicon is a hard material and serves as a reference for the applied layers. Due to the hardness of the material, no mixed phase occurs between the substrate and the applied layer (no interlayer formation). In addition, the thickness of the applied layer can be estimated with the help of the silicon sample.
The deposition of the layer was realized by radio frequency plasma enhanced chemical vapor deposition (RF-PECVD). For the coating the samples were pre-treated with an oxygen plasma. Acetylene was used as precursor gas for the plasma coating. Coatings with increasing thickness in 50 nm steps from 0-500 nm were realised.
The surface analysis was performed using several techniques: The morphology and layer stability were analyzed with scanning electron microscopy (SEM) measurements. The wettability was determined by contact angle technique. In addition, the contact angles provide macroscopic information about the bond types of the carbon atoms present on the surface. For microscopic analysis of the chemical composition of the sample and layer surfaces, diffuse reflectance Fourier transform infrared spectroscopy (DRIFT) as well as synchrotron based X-ray photon spectroscopy (XPS) and near edge X-ray absorption fine structure spectroscopy (NEXAFS) were used.
All coated polymers showed several cases of layer failure due to internal stress in the layers. However, these were at different layer thicknesses, so there was a substrate effect. In addition, it is visible in the SEM images that the coatings of PLA and PHB can cause the applied layer to wave, the so-called cord buckling. This does not occur with polymer PBAT, which indicates a possible better bonding of the layer to the polymer. The chemical analyses of the layer surfaces show for each material a layer thickness dependent ratio of sp² to sp³ bonds of carbon, which alternately dominate the layer. In all polymers, the sp³ bond initially dominates, but the sp² to sp³ ratio changes at different intervals. Although the polymers were coated in the same plasma, i.e. the respective layer thicknesses (50 nm, 100 nm, ...) were applied in the same plasma process, the respective systems differed considerably from each other. A substrate effect is therefore demonstrably present. In addition, it was found that a change in the dominant bond from sp³ to sp² is an indication ofan upcoming layer failure of the a-C:H layer deposited on the polymer. In the case of PLA, this occurs immediately with change to sp² as the dominant bond; in the case of PHB and PBAT, this occurs with different delay to increased layer thicknesses (at PHB 100 nm, at PBAT approx. 200 nm.
Overall, this thesis shows that there is a substrate effect in the coating of the biodegradable polymers PLA, PHB and PBAT, since despite the same coating there is a different chemical composition of the surface at the respective layer thicknesses. In addition, a layer failure can be predicted by analyzing the existing bond.
Fachdidaktische und pädagogische Kompetenzen angehender Mathematiklehrkräfte für die Realschule
(2019)
Studien zur Wirksamkeit der Ausbildung von Lehrerinnen und Lehrern sind in der Regel fragebogenbasiert. In der vorliegenden Untersuchung wird ein anderer Ansatz gewählt, um die Kompetenzen angehender Mathematiklehrkräfte zu erheben und zu evaluieren. Die Studie untersucht anhand der unterrichtlichen Performanz, welche Kompetenzen Anwärterinnen und Anwärter in ihrer praktischen Ausbildung erworben haben. Der Analyse liegen 137 anonymisierte Niederschriften zu benote-ten Lehrproben von Anwärterinnen und Anwärtern im Fach Mathematik zugrunde. Diese bilden die Ausbildungsjahrgänge von 2004 bis 2011 ab. Die Anwärterinnen und Anwärter werden unterrichtspraktisch anhand der Niederschriften in Anlehnung an eine qualitative Inhaltsanalyse auf ihre Kompetenzausprägungen hin getestet. Dies erfolgt schwerpunktmäßig in den Bereichen Fachdidaktik, Fachmethodik, Classroom-Management und Gesprächsführung. Im Verlauf der Untersuchung wird deutlich, dass die Teilneh-mergruppe vor allem Stärken im methodischen Bereich hat. Hier können durchgehend gute Kompetenzausprägungen festgestellt werden. Über den gesamten Erhebungszeitraum zeigen sich hingegen in den Bereichen Classroom-Management und Gesprächsführung deutliche Defizite. Die fachdidaktischen Kompetenzen der angehenden Lehrkräfte entwickeln sich negativ: Ist zu Beginn der Erhebung noch etwa die Hälfte der Anwärterinnen und Anwärter im Bereich der Fachdidaktik zufriedenstellend einzustufen, gilt das im letzten Erhebungsjahrgang nur noch für knapp ein Fünftel der Probandinnen und Probanden. Es kann gezeigt werden, dass eine gute Notenfestsetzung eng mit den er-forderlichen Kompetenzen in der Fachdidaktik zusammenhängt.
Die vorliegende Studie bestätigt im Bereich der Fachdidaktik die Ergebnisse jener Studien, die auf Fragebögen basieren.
Es konnte zudem ein statistischer Zusammenhang zwischen den fachdidaktischen Fähigkeiten und den Steuerungskompetenzen hergestellt werden.
Feldsäume gehören zu den letzten verbliebenen Lebensräumen für Wildpflanzenarten in der Agrarlandschaft. Aufgrund ihrer unmittelbaren Nähe zu den bewirtschafteten Flächen kann jedoch ihre Vegetation durch den Eintrag von Agrarchemikalien beeinträchtigt werden. Das Ziel dieser Arbeit war es die Einzel-, und Kombinationseffekte von Herbizid-, Insektizid- und Düngereinträgen auf die Pflanzengemeinschaft eines Feldsaums zu untersuchen. Es wurde ein 3-jähriges Freilandexperiment mit einem randomisierten Blockdesign, bestehend aus 7 Behandlungen (H: Herbizid, I: Insektizid, D: Dünger, H+I, D+I, D+H, D+H+I) und einer Kontrolle mit jeweils 8 Replikaten (= Parzellen), auf einer Wiese durchgeführt. Die Parzellen hatten je eine Größe von 8 m × 8 m und waren durch 2 m breite Wege voneinander getrennt. Die für die Behandlung der Parzellen verwendeten Dünger- (25 % der Feldrate) und Pestizidraten (30 % der Feldrate) entsprachen realistischen Eintragsraten (Überspritzung + Abdrift) in den ersten Meter eines Feldsaums in Nachbarschaft zu einem Getreidefeld.
Die Studie zeigte, dass Dünger- und Herbizideinträge wesentliche Faktoren darstellen, welche die natürliche Pflanzengemeinschaft in Feldsäumen beeinflussen. 20 der 26 häufigsten auf der Wiese vorkommenden Arten zeigten signifikante Effekte durch die Dünger- und Herbizidbehandlung. Die Düngung förderte stickstoffliebende Pflanzenarten und reduzierte das Vorkommen von kleinwüchsigen Arten. Durch das Herbizid wurden drei Pflanzenarten bereits im ersten Jahr fast vollkommen verdrängt, während andere Arten hauptsächlich subletale Effekte (z.B. phytotoxische Effekte, eine bis zu 100 % reduzierte Samenproduktion) vorwiesen. Werden Feldsäume allerdings über mehrere Jahre Agrarchemikalien ausgesetzt, führen auch diese subletalen Effekte (insbesondere Effekte auf die Reproduktion) zu einer Reduzierung der Populationsgröße, wie in dem Feldversuch beobachtet werden konnte. Die Kombinationsbehandlung von Dünger und Herbizid führte zu signifikanten Interaktionseffekten, welche sich nicht von den Effekten der Einzelbehandlungen extrapolieren ließen. Die Dünger- und Herbizideffekte intensivierten sich über den Untersuchungszeitraum, führten nach 3-jähriger Anwendung zu einer Veränderung in der Pflanzengemeinschaft, und reduzierten die Pflanzendiversität um 15 % im Vergleich zur Kontrolle. Das Insektizid wirkte sich signifikant auf das Vorkommen von zwei Pflanzenarten aus (1 positiver, 1 negativer Effekt). Die Ergebnisse des Feldversuchs lassen darauf schließen, dass eine fortführende Behandlung zu weiteren Gemeinschaftsveränderungen und wahrscheinlich auch zum Verschwinden bestimmter Pflanzenarten führen würde. Es war eine Tendenz zur Ausbildung von Gras-Dominanzbeständen zu erkennen, welche einen Verlust von Blütenpflanzen mit sich brachte. Dies konnte auch in eigenen Monitoringstudien in Feldsäumen beobachtet werden.
Zwar zielt die Risikobewertung von Herbiziden darauf ab Nichtziel-Pflanzen in Habitaten außerhalb des bewirtschafteten Feldes vor nachteiligen Auswirkungen zu schützen, Reproduktionseffekte und Kombinationseffekte werden bisher jedoch nicht berücksichtigt. Zudem gibt es keine Regelungen zur Düngeranwendung in Nachbarschaft zu Feldsäumen, weshalb Düngereinträge in Feldsäume und deren Interaktion mit Herbizideffekten sehr wahrscheinlich sind.
Anpassungen der derzeitigen Risikobewertung, eine Entwicklung von Risikominderungsstrategien für die Herbizid- und Düngerapplikation, sowie generelle Managementmaßnahmen für Feldsäume sind daher dringend notwendig, um die Pflanzendiversität in Feldsäumen zu erhöhen und zu schützen.
Key mechanisms for the release of metal(loid)s from a construction material in hydraulic engineering
(2017)
Hydraulic engineering and thus construction materials are necessary to enable the navigability of water ways. Since, a variety of natural as well as artificial materials are used, this materials are world wide tested on a potential release of dangerous substances to prevent adverse effects on the environment. To determine the potential release, it is important to identify and to understand key mechanisms which are decisive for the release of hazardous substances. A limited correlation between the conditions used in regulatory tests and those found in environmental systems is given and hence, often the significance of results from standardised tests on construction materials is questioned, since they are not designed to mimic environmental conditions.
In Germany industrial by-products are used as armour stones in hydraulic engineering. Especially the by-product copper slag is used during the last 40 years for the construction of embankments, groynes and coastal protection. On the one hand, this material has a high density and natural resources (landscape) are protected. One the other hand, the material contains high quantities of metal(loid)s. Therefore the copper slag (product name: iron silicate stones) is very suitable as test material. Metal(loid)s examined were As, Sb and Mo as representatives for (hydr)oxide forming elements and Cd, Co, Cu, Fe, Ni, Pb and Zn were studied as representatives for elements forming cations during the release.
Questions addressed in this Thesis were: (i) can we transfer the results from batch experiments to construction scenarios under the prevalent environmental conditions, (ii) which long-term trends exist for the release of metal(loid)s from copper slags and (iii) how environmental conditions influence the leaching of metal(loid)s from water construction materials?
To answer the first question the surface depending release of the metal(loid)s from the construction materials was examined. Therefore, batch leaching experiments with different particle sizes and a constant liquid/solid ratio were performed. In a second step a comparison between different methods for the determination of the specific surface area of armour stones with a 3D laser scanning method as a reference were performed. In a last step it was possible to show that via a roughness factor the results of the specific surface area from small stones, measured with gas adsorption, can be connected with the results from armour stones, determined with an aluminium foil method. Based on calculations of the specific surface area, it was possible to significantly improve catchment scale calculation about the release of metal(loid)s and to evaluate a potential impact of construction materials in hydraulic engineering on the water chemistry of rivers and streams.
To answer the second question long-term leaching diffuse gradient in thin films supported experiments were performed for half a year. Diffuse gradients in thin films (DGT) is an in situ method to passive sample metal(loid)s in water, sediments and soils. They were used as a sink for metal(loid)s in the eluate to provide solution equilibriums. Thus the exchange of the eluent, which is performed normally in long-term experiments, was superfluous and long-term effects under undisturbed conditions were studied. The long-term leaching experiments with DGT have proven to be capable (i) to differentiate between the depletion of the material surface and the solution equilibriums and (ii) to study sorption processes with or without a further release of the analytes. This means for the practically relevant test material copper slag that: (i) the cations Cd, Co, Cu, Ni and Pb are confirmed to be released from the slag over the whole time period of six months, (ii) a surface depletion of Zn was detected, and (iii) that the (hydr)oxide forming elements As, Mo and Sb were released from the slag over the hole periods of six months but the release was masked by adsorption to Fe-oxide colloids, which were formed during the leaching experiments. It was confirmed, that sulphide minerals are the main source for long-term release of Cd, Cu, Ni, Pb and Mo.
To answer the third question short-term leaching experiments simulating environmental conditions in hydraulic engineering were performed. One factor is the salinity. The influence of this parameter was tested in batch experiments with sea salt solution (30 g/l), river Rhine water, ultra pure water and in addition with different NaCl concentration (5, 10, 20 and 30 g/l). In general, the ionic strength is an important factor for the metal(loid) release but the composition of the water (e.g. the HCO3- content) may superimpose this effect. Therefore, the concentrations of the metal(loid)s in the experiments with ultra-pure water spiked with sea salt or native river water and the ultra-pure water spiked with NaCl were significantly different. In a second experiment the influence of the environmental parameters and the interactions between the environmental parameters pH (4–10), sediment content (0 g–3.75 g), temperature (4 °C–36 °C) and ionic strength (0 g/l–30 g/l NaCl) on the release of metal(loid)s from the test material was examined. The statistical Design of Experiments (DoE) was used to study the influence of these factors as well as their interactions. All studied factors may impact the release of metal(loid)s from the test material to the eluent, whereas the release and the partitioning between sediment and eluate of metal(loid)s was impacted by interactions between the studied factors. The main processes were sorption, complexation, solubility, buffering and ion exchange. In addition, by separating the sediment from the slag after the experiments by magnetic separation, the enrichment of metal(loid)s in the sediment was visible. Thus, the sediment was the most important factor for the release of the metal(loid)s, via pH, temperature and ionic strength, because the sediment acted as a sink.
Die vorliegende Dissertation beschäftigt sich mit der Messung subjektiver Filmbewertungskriterien (SMEC). SMEC können definiert werden als Standards, die Zuschauer heranziehen, um Eigenschaften von Filmen (z. B. Story, Kamera) zu bewerten. Basierend auf Annahmen aus der Social Cognition Forschung können SMEC als mentale Repräsentationen von - oder Einstellungen gegenüber - spezifischen Filmeigenschaften verstanden werden und spielen eine wichtige Rolle bei der kognitiven und affektiven Informationsverarbeitung und Bewertung von Filmen. In fünf Phasen wurden Skalen zur Erfassung von SMEC entwickelt und validiert. In Phase I wurden mithilfe von offenen Fragen Beschreibungen für Filmbewertungskriterien gesammelt, mittels modifizierter Struktur-Lege-Technik inhaltsvalidiert und schließlich Itemformulierungen abgeleitet. In Phase II wurden die Items reduziert und faktorenanalytisch auf ihre latente Struktur untersucht. Das resultierende 8-Faktoren-Modell wurde anschließend in Phase III mithilfe weiterer Stichproben und konfirmatorischer Verfahren kreuzvalidiert. Latent State-Trait Analysen in Phase IV zeigten, dass es sich um reliable und relativ stabile Dimensionen handelt. Schließlich wurde in Phase V das nomologische Netzwerk der SMEC und verwandter Konstrukte (z. B. Filmbewertungen) untersucht. Insgesamt kann festgestellt werden, dass das SMEC-Konzept einen geeigneten Rahmen bietet, um Forschungsfragen zur Rolle von Filmbewertungskriterien und Bewertungsprozessen bei der Selektion, Rezeption und Wirkung von Filmen zu formulieren und dass die SMEC-Skalen ein geeignetes reliables und valides Instrument zur Untersuchung solcher Fragen darstellen.
"Wer kann ich werden - Wer soll ich sein?" Selbstbildungsprozesse junger Menschen in der Jugendhilfe
(2011)
"Wer kann ich werden - Wer soll ich sein?" - Mit diesen beiden grundlegende Lebensfragen resümieren die beiden Jugendlichen, deren individuellen Verarbeitungsprozesse Gegenstand der Untersuchung sind, ihren (Selbst-)Bildungsprozess. Sie verweisen dabei auf ein wesentliches Ergebnis dieser Studie: Selbstbildungsprozesse formieren sich als einen aktiven Balanceakt der jungen Menschen zwischen individuellen Selbstkonstruktionen und Fragen der Sozialintegration. Der Blick wird dabei auf die prozesshafte Entwicklung der subjektiven Bildungsbemühungen gerichtet. Es handelt sich um ein ambivalentes Spannungsgefüge, welches sich darin ausdrückt, dass einerseits "von Außen (durch den Erzieher) geleitet" und andererseits "von Innen (durch den Jugendlichen) gesteuert" wird. Letztendlich haben jedoch viele Jahrhunderte von (praktischen) Erziehungsversuchen und vielfaches (theoretisches) Nachdenken über Erziehung und Bildung gezeigt, dass der Erfolg zum großen Teil von den jungen Menschen selbst abhängt. Damit rückt in der wissenschaftlichen Auseinandersetzung die Selbsttätigkeit des Menschen in den Fokus. Die Beschäftigung mit Prozessen der Selbstbildung stellt eine äußert komplexe Herausforderung dar. Sie läuft schnell Gefahr, dies unter normativen Aspekten zu diskutieren. In diesen Forschungszusammenhang soll der Blick explizit nicht auf die normativen Anteile des Themas gelenkt werden, sondern es ist vielmehr ein Ziel der Arbeit, empirische Befunde dazu zu erarbeiten und Kontextwissen zu generieren.rnDie Untersuchung thematisiert sowohl die Verbindungen zwischen Selbstdeutungskonstruktionen junger Menschen und Fremddeutungen relevanter Erwachsener, sowie die sich daraus entwickelten Muster der Lebensbewältigung der Jugendlichen. Im Mittelpunkt der Auseinandersetzung stehen die jungen Menschen und ihre Bildungsanstrengungen. Anhand ihrer Selbstkonstruktionen, in denen sie ihre relevanten Themen zum Ausdruck bringen und den Fremddeutungen der am Fall beteiligten Erwachsenen, wird der Frage nachgegangen, ob und wie die unterschiedlichen Deutungsfolien anschlussfähig sind und welchen Einfluss sie auf die jugendlichen Selbstbildungsprozesse nehmen. Durch die Rekonstruktion der Deutungs- und Konstruktionsmuster der unterschiedlichen Fallbeteiligten sollen sowohl praxis- wie auch forschungsrelevante Erkenntnisse über Selbstbildungsprozesse junger Menschen gewonnen werden, die im Verlauf ihrer Lebensgeschichten Adressaten der Jugendhilfe geworden sind. Ein solch komplexes Forschungsvorhaben gewinnt im Bezug auf die Diskurse zur adressatenbezogenen Jugendhilfe an Bedeutung, da es möglich wird, einen Einblick in Verarbeitungsmuster und Bewältigungsstrategien der Heranwachsenden zu gewinnen. Die vorliegende Arbeit nimmt die subjektiven Sinnzuschreibungen in den Blick, um darüber einen erkenntnisgeleiteten Zugang zu den Deutungs- und Konstruktionsmustern in ihren jeweiligen Sinnzusammenhängen zu erschließen. Gesamtgesellschaftliche Modernisierungs- und Wandlungsprozesse beeinflussen individuelle Lebensverläufe und damit auch subjektive Deutungen unterschiedlichster Lebensereignisse. Biographische Werdungsprozesse weichen von vermeintlichen "Normalbiographien" ab. Aufgabe pädagogischer Fachkräfte ist es, die selbstreflexiven Verarbeitungsprozesse junger Menschen zu begleiten und zu unterstützen. Von daher scheint es erforderlich, dass Fachkräfte ihre Kompetenzen zur Entschlüsselung individueller Bildungsbemühungen und zur Wahrnehmung biographischer Deutungskonzepte weiter entwickeln und schulen, um einen verstehenden Zugang zu den Wirklichkeitskonstruktionen junger Menschen zu gewinnen. Welche subjektive Bedeutung die Heranwachsenden den Einflüssen der Jugendhilfe zusprechen ist entscheidend für die Frage, inwieweit sie diese Erfahrungen als Unterstützung für ihre individuellen Bildungsprozesse begreifen. "Selbstbildungsprozesse junger Menschen in der Jugendhilfe" setzen sich mit der Frage auseinander, über welche Bewältigungsstrategien und Interaktionsmuster die Heranwachsenden verfügen. "Mit diesem Zugang wird der Blick auf die "Eigensinnigkeit" subjektiver Äußerungen in ihren biografisch verorteten und gesellschaftsrelevanten Bezügen gelegt." (Normann 2003, 10). Es geht also um die Rekonstruktion sozialer Wirklichkeitsbezüge aus der Sicht der jungen Menschen. Die Jugendlichen werden als aktiv Handelnde und als ExpertInnen ihrer Lebenswelt verstanden, die in der Interaktion mit Anderen die Balance zwischen sozialer Anpassungsleistung und Entwicklung ihres individuellen Lebenskonzeptes finden müssen. Subjektive Deutungs- und Konstruktionsprozesse sollen in diesem Kontext herausgearbeitet und dargestellt werden.
One of the main goals of the artificial intelligence community is to create machines able to reason with dynamically changing knowledge. To achieve this goal, a multitude of different problems have to be solved, of which many have been addressed in the various sub-disciplines of artificial intelligence, like automated reasoning and machine learning. The thesis at hand focuses on the automated reasoning aspects of these problems and address two of the problems which have to be overcome to reach the afore-mentioned goal, namely 1. the fact that reasoning in logical knowledge bases is intractable and 2. the fact that applying changes to formalized knowledge can easily introduce inconsistencies, which leads to unwanted results in most scenarios.
To ease the intractability of logical reasoning, I suggest to adapt a technique called knowledge compilation, known from propositional logic, to description logic knowledge bases. The basic idea of this technique is to compile the given knowledge base into a normal form which allows to answer queries efficiently. This compilation step is very expensive but has to be performed only once and as soon as the result of this step is used to answer many queries, the expensive compilation step gets worthwhile. In the thesis at hand, I develop a normal form, called linkless normal form, suitable for knowledge compilation for description logic knowledge bases. From a computational point of view, the linkless normal form has very nice properties which are introduced in this thesis.
For the second problem, I focus on changes occurring on the instance level of description logic knowledge bases. I introduce three change operators interesting for these knowledge bases, namely deletion and insertion of assertions as well as repair of inconsistent instance bases. These change operators are defined such that in all three cases, the resulting knowledge base is ensured to be consistent and changes performed to the knowledge base are minimal. This allows us to preserve as much of the original knowledge base as possible. Furthermore, I show how these changes can be applied by using a transformation of the knowledge base.
For both issues I suggest to adapt techniques successfully used in other logics to get promising methods for description logic knowledge bases.
The European weatherfish (Misgurnus fossilis) is a benthic freshwater fish species belonging to the family Cobitidae, that is subjected to a considerable decline in many regions across its original distribution range. Due to its cryptic behavior and low economic value, the causes of threat to weatherfish remained partly unknown and the species is rarely at the center of conservation efforts. In order to address these concerns, the overall aim of the present thesis was to provide a comprehensive approach for weatherfish conservation, including the development of stocking measures, investigations on the species autecology and the evaluation of potential threats. The first objective was to devise and implement a regional reintroduction and stock enhancement program with hatchery-reared weatherfish in Germany. Within this program (2014-2016), a total number of 168,500 juvenile weatherfish were stocked to seven water systems. Recaptures of 45 individuals at two reintroduction sites supported the conclusion that the developed stocking strategy was appropriate. In order to broaden the knowledge about weatherfish autecology and thereby refining the rearing conditions and the selection of appropriate stocking waters, the second objective was to investigate the thermal requirements of weatherfish larvae. Here, the obtained results revealed that temperatures higher than previously suggested were tolerated by larvae, whereas low temperatures within the range of likely habitat conditions increased mortality rates. As weatherfish can be frequently found in agriculturally impacted waters (e.g. ditch systems), they are assumed to have an increased probability to be exposed to chemical stress. Since the resulting risk has not yet been investigated with a focus on weatherfish, the third objective was to provide a methodical foundation for toxicity testing that additionally complies with the requirements of alternative test methods. For this purpose, the acute fish embryo toxicity test was successfully transferred to weatherfish and first results exhibited that sensitivity of weatherfish towards a tested reference substance (3,4-dichloroaniline) was highest compared to other species. On the basis of these findings, the fourth objective was to apply weatherfish embryos for multiple sediment bioassays in order to investigate teratogenic effects derived from sediment-associated contaminants. In this context, weatherfish revealed particular sensitivity to water extractable substances, indicating that sediment contamination might pose a considerable risk. Moreover, as an endangered benthic fish species with high ecological relevance for European waters that are specifically exposed to hazardous contaminants, the weatherfish might be a prospective species for an ecological risk assessment of sediment toxicity. Overall, the present thesis contributed to the conservation of weatherfish by considering a variety of aspects that interact and reinforce one another in order to achieve improvements for the species situation.
To assess the effect of organic compounds on the aquatic environment, organisms are typically exposed to toxicant solutions and the adverse effects observed are linked to the concentration in the surrounding media. As compounds generally need to be taken up into the organism and distributed to the respective target sites for the induction of effects, the internal exposure is postulated to best represent the observed effects.
The aim of this work is to contribute to an improved effect assessment of organic compounds by describing experimental and modelling methods to obtain information on the internal exposure of contaminants in organisms.
Chapter 2 details a protocol for the determination of bioconcentration parameter for uptake (k1) and elimination (k2) of organic compounds in zebrafish (Danio rerio) eggs. This enables the simulation of the internal exposure in zebrafish eggs from an ambient exposure concentration over time. The accumulated contaminant amount in zebrafish eggs was also determined, using a biomimetic extraction method. Different bioconc-entration estimation models for the determination of internal steady-state concentrat-ion of pharmaceutical compounds in fish to an environmental exposure are presented in Chapter 3. Bioconcentration factors were estimated from the compounds octanol: water partition coefficient (KOW) to determine the internal exposure to an ambient concentration.
To assess the integral bioavailable fraction from the water and sediment phase of environmental contaminants for rooted aquatic plants, the internal exposure in river-living Myriophyllum aquaticum plants were determined over time, presented in Chapter 4. The plants were collected at different time points, with the accumulated organic contaminants determined using a liquid extraction method.
In Chapter 5 a protocol was established to enable the non-invasive observation of effects in M. aquaticum plants exposed to contaminated sediments over time. Since the toxicant effects are a result of all uptake and distribution processes to the target site and the toxico-dynamic process leading to an observed effect during static exposure, information on the internal exposure could thus be gained from the temporal effect expression.rn
Bäche gehören zu den gefährdetsten Ökosystemen, da sie diversen anthropogenen Stressoren ausgesetzt sind, wobei Pestizide für landwirtschaftliche Bäche am relevantesten erscheinen. Aufgrund der Diskrepanz zwischen modellierten und gemessenen Pestizid-konzentrationen ist Monitoring nötig um zukünftige Risikobewertungen und Zulassungen zu verbessern. Festzustellen ob biotische Stressreaktionen über große räumliche und zeitliche Skalen ähnlich sind, ist nötig um Schwellenwerte zum Schutz vor Stressoren abzuschätzen.
Diese Doktorarbeit beginnt mit einem Überblick über Pestizideintrittspfade in Bäche, sowie dem momentanen Stand des Pestizidmonitorings gefolgt von der Zielsetzung der Doktorarbeit. In Kapitel 2 werden Ergebnisse aus Schöpfproben von Routinemonitoring mehrerer Länder analysiert um die häufigsten Pestizidmischungen zu identifizieren. Diese Mischungen werden von wenigen Pestiziden gebildet, wobei Herbizide dominieren. Die nachgewiesenen Mischungen unterscheiden sich regional, da Nachweisgrenzen und Stoffumfang variieren. Aktuelles Routinemonitoring umfasst bisher keine Probenahmen während durch Starkregenereignisse hervorgerufene Pestizidspitzen, die wahrscheinlich Pestizidmischungen beeinflussen. In Kapitel 3 werden Sammelraten für 42 Pestizide bei der Benutzung von Passiv-sammlern vorgestellt und Empfehlungen zum Monitoring von feldrelevanten Pestizidspitzen gegeben. Damit konnte in Kapitel 4 ein Pestizidgradient in einer osteuropäischen Region aufgestellt werden in der die Landwirtschaftsintensität von niedrig bis hoch reicht. Dabei wurden Regenereignisse beprobt und eine Vielzahl von Pestiziden analysiert. Dies führte zu vielen gleichzeitig nachgewiesenen Pestiziden, von denen ein bis drei die Pestizidtoxizität bestimmten. Diese zeigte jedoch keinen Zusammenhang zur landwirtschaftlichen Intensität. Durch Mikrokosmenexperimente wurde in Kapitel 5 die Stressantwort von Pilzgemeinschaften, den Hyphomyceten, und deren assoziierter Ökosystemfunktion des Laubabbaus untersucht. Effekte einer feldrelevanten Fungizidmischung wurde über drei biogeographische Regionen sowie drei aufeinanderfolgende Zyklen von mikrobieller Laubkolonisation und -abbau untersucht. Trotz anfänglich unterschiedlichen Gemeinschaften waren Stressantworten sowie Erholungen in den untersuchten Regionen ähnlich, was auf ein generelles Muster hindeutet.
Insgesamt trägt diese Doktorarbeit zum verbesserten Verständnis von Vorkommen und Konzentrationen von Pestizidmischungen, deren Monitoring sowie ihren Auswirkungen auf eine Ökosystemfunktion bei. Wir konnten zeigen, dass die abgeschätzten Pestizidtoxizitäten potentiell Nichtzielorganismen und somit ganze Ökosystem beeinflussen. Routinemonitoring unterschätzt diese Gefahr bisher jedoch wahrscheinlich. Effekte, welche Verluste in Biodiversität sowie Funktionen hervorrufen, können verringert werden indem zugelassene Pestizide mit anhaltendem Monitoring neu bewertet werden und die Datenlage zu Pestizidwirkungen verbessert wird.
Experten der Praxis haben zur Wirkung von Heimerziehung ihre Meinung. Die Einschätzung der Adressaten verhält sich dazu nicht immer deckungsgleich. In der vorliegenden Arbeit arbeitet der Autor im fallinterpretativen-hermeneutischen Untersuchungsdesign die Konstruktionen von jungen Menschen, die im Heim leben zu ihren persönlichen Wirkungsvorstellungen und "überzeugungen bzgl. der Ursachen ihrer eigenen Veränderung und Entwicklung heraus. Diese Konstruktionen werden in Bezug gesetzt zu den aktuellen Ergebnissen aus der Heimerziehungsforschung. Diese Befunde werden ins Verhältnis gesetzt mit den Ergebnissen aus der vorliegenden Untersuchung und dadurch untermauert, konkretisiert, ergänzt und erweitert. Daraus werden Folgerungen für die Praxis abgeleitet. Das Zusammenspiel von konzeptionellem Rahmen, Strukturen und Bedingungen der Heimerziehung wird im Zusammenhang mit den Interessen, den Aneignungsbemühungen und den Selbstwirksamkeitserfahrungen der Adressaten diskutiert und dargestellt Die aus der Untersuchung erwachsenen Ableitungen werden im historischen Aufriss des Pädagogischen Bezugs reflektiert, mit dem Versuch einer aktuellen Ortsbestimmung der Pädagogischen Beziehung. Außerdem werden die Grundzüge der Positive Peer Culture wiedergegeben und mit Praxisbeispielen illustriert
Weltweit sind ein Drittel bis die Hälfte der Flusskrebsarten von Populationsrückgang oder Aussterben bedroht. Neben einer Verschlechterung der Habitate, Umweltverschmutzung und anderen vom Menschen verursachten Umweltveränderungen stellen eingeschleppte exotische Arten und Krankheitserreger eine große Bedrohung für das Überleben europäischer Flusskrebsarten dar. Flusskrebse sind die größten Wirbellosen in limnischen Systemen und haben einen entsprechend großen Einfluss auf die Struktur der Nahrungsnetze. Das Verschwinden von Flusskrebsen aus einem Gewässer kann Nahrungsnetze verändern und somit dramatische Konsequenzen für ein Ökosystem zur Folge haben. Ein Ziel im modernen Artenschutz ist die Erhaltung der genetischen Vielfalt. Eine hohe genetische Vielfalt ist für das langfristige Überleben einer Art von Vorteil.
Das Hauptziel meiner Arbeit war es, die genetische Struktur des gefährdeten Edelkrebses (Astacus astacus) in seinem europäischen Verbreitungsgebiet zu untersuchen und die besonders schützenswerten genetische 'Hotspots' zu identifizieren (Teil 1 der Dissertation). Die größte Bedrohung für die Diversität europäischer Flusskrebsarten stellt der Krebspesterreger Aphanomyces astaci dar. Daher muss die Verbreitung des Krankheitserregers bei Schutzprogrammen beachtet werden.
Im zweiten Teil der Dissertation untersuchte ich neue Aspekte der Verbreitung von A. astaci. Die Ergebnisse dienen als Grundlage für zukünftige Artenschutzprogramme für Flusskrebse.
Im ersten Teil dieser Arbeit führte ich eine phylogeographische Analyse der Edelkrebse durch, um genetische 'Hotspots' zu identifizieren und die nacheiszeitliche Wiederbesiedlung Zentraleuropas durch diese Art zu rekonstruieren. Mit mitochondrialer DNA und nuklearen Mikrosatelliten-Markern ermittelte ich eine hohe genetische Vielfalt in Südosteuropa, die darauf hinweist, dass der Edelkrebs die kalten Klimaphasen des Pleistozäns in diesem Gebiet überdauerte (Appendix 1). Wegen der hohen genetischen Vielfalt ist Südosteuropa von besonderer Bedeutung für den Schutz des Edelkrebses. Die mitochondriale DNA-Analyse deutet auf eine gegabelte Kolonisierung vom unteren Donaueinzugsgebiet in a) das Einzugsgebiet der Nordsee und b) das Einzugsgebiet der Ostsee hin (Kapitel 2). Ein zweites, unabhängiges Refugium, welches im westlichen Balkan lokalisiert wurde, hat vermutlich nicht zur Besiedlung Mitteleuropas beigetragen. Außerdem stellte ich fest, dass die natürliche genetische Struktur teilweise überlagert ist, wahrscheinlich aufgrund des hohen menschlichen Einflusses auf die Verbreitung des Edelkrebses (bspw. künstliche Translokation). Im zweite Teil dieser Arbeit konnte ich mittels real-time-PCR ermitteln, dass neben den bekannten drei nordamerikanischen Flusskrebsarten auch Kalikokrebse (Orconectes immunis) Träger des Krebspesterregers sind (Kapitel 3). Des Weiteren habe ich den Krebspesterrreger in der unteren Donau in Rumänien an amerikanischen Kamberkrebsen (Orconectes limosus) und europäischen Galizierkrebsen (Astacus leptodactylus) nachweisen können (Kapitel 4). Die Ausbreitung der infizierten Kamberkrebse bis in die untere Donau stellt eine große Bedrohung für die Artenvielfalt in Südosteuropa dar und zeigt das hohe Invasionspotential der Kamberkrebse. Darüber hinaus stellte ich fest, dass auch einheimische Galizierkrebse im Donaudelta, etwa 970 km hinter der aktuellen Invasionsfront des Kamberkrebses, Träger von A. astaci sind (Kapitel 5). Diese Erkenntnis ist von besonderer Bedeutung, da die einheimischen Arten offenbar nicht an der Infektion leiden. Die Untersuchung koexistierender Populationen europäischer und amerikanischer Flusskrebse ergab, dass die Abwesenheit des Krebspesterregers in diesen Populationen die wahrscheinlichste Erklärung für die erfolgreiche Koexistenz in den untersuchten Gewässern in Mitteleuropa ist (Kapitel 6). Die Ergebnisse meiner Dissertation zeigen neue Aspekte, die von hoher Relevanz für den Schutz und Erhalt einheimischer Flusskrebsarten und deren genetischer Vielfalt sind: 1)Die genetische Diversität des Edelkrebses ist in Südosteuropa am höchsten. Dort überdauerten Edelkrebse die letzte Eiszeit in mindestens zwei unabhängigen Refugien. 2) Nicht alle amerikanischen Flusskrebspopulationen sind Träger der Krebspest und 3) nicht alle europäischen Flusskrebspopulationen sterben innerhalb kurzer Zeit an einer Infizierung mit dem Krebspesterreger. Um einheimische Flusskrebse und deren (genetische) Vielfalt langfristig zu erhalten, dürfen keine weiteren amerikanischen Flusskrebse in der Natur ausgesetzt werden. Das unbefugte Aussetzen wird jedoch erst zurückgehen, wenn der Handel mit exotischen Flusskrebsen verboten wird.
Viele chemische Verbindungen, einschließlich Spurenelemente aus natürlichen und anthropogenen Quellen, verbleiben temporär oder endgültig in den Sedimenten der Oberflächengewässer. Ob diese als Quelle oder Senke von Metallen und Metalloiden (Metall(oid)e) fungieren, hängt von der Dynamik der biogeochemischen Prozesse ab, die an der Wasser-Sediment-Grenzschicht (sediment water interface - SWI) ablaufen. Wichtige Informationen zu biogeochemischen Prozessen sowie zur Exposition, zum Verbleib und zum Transport von Schadstoffen an der SWI lassen sich durch die Ermittlung von Konzentrationsprofilen im Sedimentporenwasser gewinnen. Dabei besteht die Herausforderung zum einen darin eine räumliche Auflösung zu realisieren, die es erlaubt, bestehende Gradienten adäquat zu erfassen und zu gleich hinreichend viele Parameter aufzunehmen, um die komplexen Prozesse zu verstehen. Zum anderen gilt es die Bildung von Probenahme-Artefakten zu verhindern, die durch die labile Natur der SWI sowie die steilen biogeochemischen Gradienten verursacht werden.
Vor diesem Hintergrund wurde im ersten Teil dieser Arbeit ein System zur automatisierten, minimal-invasiven Untersuchung der SWI entwickelt und erprobt. Das System ermöglicht die Beprobung des Sedimentporenwassers ungestörter oder manipulierter Sedimente bei gleichzeitiger Erfassung von Parametern wie Redoxpotential, Sauerstoffgehalt und pH-Wert. Im Rahmen eines Inkubationsexperimentes wurde der Einfluss von Versauerung und mechanischer Störung (Resuspension) auf die Mobilität von 13 Metall(oid)en untersucht, die mittels Tripel-Quadrupol induktiv gekoppelter Plasma-Massenspektrometrie (ICP-QQQ-MS) quantifiziert wurden. Während die meisten Metalle in Folge von Sulfid-Verwitterung freigesetzt wurden hatte die mechanische Störung einen großen Einfluss auf die Mobilität der oxidbildenden Elemente As, Mo, Sb, U und V. Zusätzlich wurde gezeigt, dass das Probenahme-System zudem Optionen zur Untersuchung der Größenfraktionierung von Metall(oid)en sowie der Speziierung von As(III/V) und Sb(III/V) bietet.
Im zweiten Teil dieser Arbeit wurde der Fokus - mit einem ähnlichen experimentellen Design - auf die Prozesse gelegt, die zur Freisetzung von Metall(oid)en führen. Zu diesem Zweck wurden zwei Inkubationsexperimente mit unterschiedlicher Sauerstoffversorgung parallel durchgeführt. Erstmals wurden mittels ICP-QQQ-MS die Nichtmetalle Kohlenstoff, Phosphor und Schwefel in einem Analyselauf gemeinsam mit 13 Metall(oid)en in Sedimentporenwasser quantifiziert. Die Größenfraktionierung der Metall(oid)e wurde über den gesamten Verlauf der Experimente überwacht. Es bestätigte sich, dass Sediment-Resuspension die Mobilität von Metalloiden wie As, Sb und V fördert, während die Freisetzung der meisten Metalle weitgehend auf die Verwitterung von Pyrit zurückzuführen war. Der kolloidale Beitrag (0,45 - 16 μm) zur Mobilisierung war nur für wenige Elemente relevant.
Schließlich wurde das Probenahmesystem im Rahmen eines neuen Ansatzes zur Sedimentbewertung eingesetzt. Dabei wurden ungestörte Sedimentkerne unterschiedlich kontaminierter Positionen im Trave-Ästuar untersucht und neben 16 Metall(oid)en, die Nichtmetalle C, P und S sowie die Ionen NH4+, PO43- und SO42- berücksichtigt. Durch den ersten umfangreichen Vergleich mit in-situ Dialyse-basierter Porenwasserbeprobung wurde die Eignung des entwickelten Ansatzes zur Erfassung der Feldbedingungen nachgewiesen. Die Porenwasseruntersuchungen zusammen mit ergänzenden Resuspensionsexperimenten in biogeochemischen Mikrokosmen und sequentieller Extraktion ergaben, dass das am geringsten „belastetste“ Sediment des Untersuchungsgebiets das größte Risiko für die Freisetzung von Metall(oid)en darstellt. Jedoch betrugen die potenziell freigesetzten Mengen je kg Sediment nur wenige Promille der durchschnittlichen täglichen Fracht der Trave.
Im Kontext der Erweiterten Realität versteht man unter Tracking Methoden zur Bestimmung von Position und Orientierung (Pose) eines Betrachters, die es ermöglichen, grafische Informationen mittels verschiedenster Displaytechniken lagerichtig in dessen Sichtfeld einzublenden. Die präzisesten Tracking-Ergebnisse liefern Methoden der Bildverarbeitung, welche in der Regel nur die Pixel des Kamerabildes zur Informationsgewinnung heranziehen. Der Bildentstehungsprozess wird bei diesen Verfahren jedoch nur bedingt oder sehr vereinfacht miteinbezogen. Bei modellbasierten Verfahren hingegen, werden auf Basis von 3D-Modelldaten Merkmale identifiziert, ihre Entsprechungen im Kamerabild gefunden und aus diesen Merkmalskorrespondenzen die Kamerapose berechnet. Einen interessanten Ansatz bilden die Strategien der Analyse-durch-Synthese, welche das Modellwissen um Informationen aus der computergrafischen Bildsynthese und weitere Umgebungsvariablen ergänzen.
Im Rahmen dieser Arbeit wird unter Anwendung der Analyse-durch-Synthese untersucht, wie die Informationen aus dem Modell, dem Renderingprozess und der Umgebung in die einzelnen Komponenten des Trackingsystems einfließen können. Das Ziel ist es, das Tracking, insbesondere die Merkmalssynthese und Korrespondenzfindung, zu verbessern. Im Vordergrund steht dabei die Gewinnung von visuell eindeutigen Merkmalen, die anhand des Wissens über topologische Informationen, Beleuchtung oder perspektivische Darstellung hinsichtlich ihrer Eignung für stabiles Tracking der Kamerapose vorhergesagt und bewertet werden können.
Enterprise Collaboration Systems (ECS) haben sich als zentrale Werkzeuge zur computergestützten Kommunikation und Kollaboration zwischen Mitarbeitenden in Unternehmen entwickelt. ECS vereinen Funktionalitäten aus social media und Groupware. Daher führen mehr und mehr Unternehmen ECS ein, um die Zusammenarbeit am digitalen Arbeitsplatz zu unterstützen. Dementsprechend bilden ECS den Kern des digitalen Arbeitsplatzes. Dies verleiht den Logs dieser Systeme einen besonderen Wert, da sich einzigartige Möglichkeiten bieten, um Kollaboration zwischen Mitarbeitern am digitalen Arbeitsplatz zu beobachten und zu analysieren.
Der aktuelle Stand der Forschung zeigt auf, dass es sowohl in der Forschung aus auch in der Praxis keine einheitliche Herangehensweise an die Analyse von ECS Logfiles gibt. Aufgrund des eingeschränkten Funktionsumfangs von ECS Analytics Software können Wissenschaftler und Praktiker das volle Potenzial der Logs nicht ausschöpfen. Da die Logfiles von ECS zur Untersuchung von Kollaboration am digitalen Arbeitsplatz von großem Wert sind, müssen neue Methoden und Kennzahlen für deren Analyse entwickelt werden. Um die bestehenden Limitationen zu adressieren, beantwortet diese Dissertation die folgenden Forschungsfragen:
1. Welches sind die aktuellen Herangehensweisen an die Messung von Kollaboration in Enterprise Collaboration Systems?
2. Wie kann Social Collaboration Analytics in der Praxis angewendet werden?
Diese Dissertation entwickelt SCA als Methode für die Messung und Analyse von Kollaboration in ECS. Durch die Beantwortung der Forschungsfragen, baut die Dissertation ein allgemeines, breites Verständnis dieses neuen Forschungsfeldes auf und entwickelt eine Herangehensweise für die Anwendung von SCA. Als Teil der ersten Forschungsfrage stellt die Dissertation den Status Quo von SCA in Forschung und Praxis fest. Im Zuge der Beantwortung der zweiten Forschungsfrage wird das Social Collaboration Analytics Framework (SCAF) entwickelt. Das Framework ist der Hauptbeitrag dieser Dissertation und wurde auf Basis einer Analyse von 86 SCA Studien, den Ergebnissen aus 6 Fokusgruppen und den Ergebnissen einer Befragung von 27 ECS Anwenderunternehmen entwickelt. Die Phasen von SCAF wurden aus einer Analyse von bestehenden Prozessmodellen für data mining und business intelligence abgeleitet. Die acht Phasen des Frameworks beinhalten detaillierte Beschreibungen, Arbeitsschritte und Leitfragen, die eine Schritt für Schritt Anwendung für die Anwendung von SCA bieten.
Diese Dissertation verfolgt einen qualitativ-dominanten mixed-methods Ansatz. Als Teil der Forschungsinitiative IndustryConnect besteht Zugang zu mehr als 30 führenden ECS-Anwenderunternehmen. Die Durchführung von aufeinander aufbauenden Fokusgruppen ermöglicht die Sammlung einzigartiger Daten über einen längeren Zeitraum hinweg. Basierend auf einer Tiefenfallstudie und ECS Logs eines Unternehmens, zeigt die Dissertation auf, wie das SCA Framework in der Praxis angewendet werden kann.
Wie hingen Sprache und Gewalt im Nationalsozialismus zusammen? Ausgehend von der konstitutiven Sprachphilosophie des kanadischen Philosophen Charles Taylor untersucht die Dissertation die destruktive Wirkmacht der Sprache am Fall des Nationalsozialismus, der auf ungekannte Weise in die Sprache eingriff und damit Gewalt begünstigte, die bis heute ohnegleichen ist.
Die vorliegende Untersuchung beschäftigt sich zentral mit der Frage, in wieweit es möglich ist, durch eine transkranielle Elektrostimulation während des Schlafs bei Patienten mit idiopathischem Parkinsonsyndrom (IPS) auf die Schlafqualität bzw. auf den Prozess der Gedächtniskonsolidierung Einfluss zu nehmen. Ausgehend von der Überlegung, dass bei dieser neurologischen Erkrankung Defizite sowohl im Bereich der Schlafqualität als auch der kognitiven Leistungsfähigkeit beobachtet werden können, wurde die Möglichkeit untersucht, entsprechende, bei jungen gesunden Erwachsenen vorbekannte Stimulationseffekte auf IPS-Patienten zu übertragen. Die Intervention bestand aus einer transkraniellen "Slow-Oscillation-Stimulation". Zielvariablen waren die Schlafqualität, in erster Linie operationalisiert über den Anteil an Slow-Wave-Sleep und die kognitive Leistung, gemessen am Lernerfolg in verschiedenen Lernaufgaben. Zur Anwendung kam dabei sowohl visuell verbales als auch non-verbales Lernmaterial, wobei die Aufgaben hauptsächlich den Bereich des deklarativen Gedächtnisses berührten. Es zeigte sich jedoch, dass bekannte Stimulationseffekte weder bei IPS-Patienten, noch bei gleichaltrigen Gesunden nachweisbar sind und daher die prinzipielle Übertragbarkeit bestehender Ergebnisse in Frage gestellt werden muss. Die Gründe hierfür erscheinen vielfältig und werden an entsprechender Stelle diskutiert.
Ziel der vorliegenden Arbeit war die Darstellung floristisch-pflanzensoziologischer Abhängigkeiten sommergrüner grundwasserferner Laubwaldgesellschaften vom Naturraumpotenzial im Laacher Kuppenland als Grundlage für die Bewertung der naturräumlichen Zuordnung. An Anfang stand eine Vorstellung des Untersuchungsgebietes, indem die derzeit gültige Gliederung des Naturraumes, die geologischen Verhältnisse, Oberflächenformen und Formungsprozesse sowie Klima dargestellt wurden. Hieran schloss sich die vegetationskundlich-standörtliche Charakterisierung der Waldgesellschaften – Hainsimsen-Buchenwald (Luzulo-Fagetum), Hainsimsen-(Habichtskraut)- Traubeneichenwald (Luzulo luzuloides-Quercetum petraeae), Waldmeister-Buchenwald (Galio-Fagetum), Waldlabkraut-Eichen-Hainbuchenwald (Galio sylvatici-Carpinetum betuli), Eschen-Ahorn-Steinschuttschatthangwald (Fraxino-Aceretum pseudoplatani) und verschiedenartige Trauben-Eichen-Bestände – an. Den Beschreibungen lagen zahlreiche Vegetationsaufnahmen zu Grunde, die eine auf standörtlichen Unterschieden beruhende Differenzierung der Gesellschaften möglich machten. Die Waldtypen zeigten ein abgestuftes Maß an Natürlichkeit. Den naturnächsten Charakter - und daher das standörtliche Potenzial am besten anzeigend – wiesen die Rot-Buchen-dominierten Laubwaldgesellschaften sowie einige Eschen-Ahorn-Steinschuttschatthangwälder auf. Nutzungsbedingt naturferner waren Hainsimsen-(Habichtskraut)- Traubeneichenwald und Waldlabkraut-Eichen-Hainbuchenwald. Forstwirtschaftliche Ersatzgesellschaften von Buchenwaldgesellschaften waren im Untersuchungsgebiet verschiedenartige Trauben-Eichen-Bestände. Auf Grundlage der Untersuchungsergebnisse sowie einer Literaturauswertung erfolgte eine Bewertung des Anschlusses des Laacher Kuppenlandes an eine Gruppe von naturräumlichen Haupteinheiten. Sowohl das floristische als auch das vegetationskundliche Inventar untermauerten die These, dass das Laacher Vulkanbergland als Teilgebiet des Mittelrheinischen Becken zu betrachten ist. Abschließend wurden Betrachtungen zu Biodiversität und Naturschutz vorgenommen. Als deren Fazit wurde vorgeschlagen, einen Nationalpark einzurichten, um zum Erhalt und zur Förderung der Artenvielfalt beizutragen und um der internationalen Verantwortung Deutschlands für Buchenwaldökosysteme nachzukommen.
In the last years, the public interest in epidemiology and mathematical modeling of disease spread has increased - mainly caused by the COVID-19 pandemic, which has emphasized the urgent need for accurate and timely modelling of disease transmission. However, even prior to that, mathematical modelling has been used for describing the dynamics and spread of infectious diseases, which is vital for developing effective interventions and controls, e.g., for vaccination campaigns and social restrictions like lockdowns. The forecasts and evaluations provided by these models influence political actions and shape the measures implemented to contain the virus.
This research contributes to the understanding and control of disease spread, specifically for Dengue fever and COVID-19, making use of mathematical models and various data analysis techniques. The mathematical foundations of epidemiological modelling, as well as several concepts for spatio-temporal diffusion like ordinary differential equation (ODE) models, are presented, as well as an originally human-vector model for Dengue fever, and the standard (SEIR)-model (with the potential inclusion of an equation for deceased persons), which are suited for the description of COVID-19. Additionally, multi-compartment models, fractional diffusion models, partial differential equations (PDE) models, and integro-differential models are used to describe spatial propagation of the diseases.
We will make use of different optimization techniques to adapt the models to medical data and estimate the relevant parameters or finding optimal control techniques for containing diseases using both Metropolis and Lagrangian methods. Reasonable estimates for the unknown parameters are found, especially in initial stages of pandemics, when little to no information is available and the majority of the population has not got in contact with the disease. The longer a disease is present, the more complex the modelling gets and more things (vaccination, different types, etc.) appear and reduce the estimation and prediction quality of the mathematical models.
While it is possible to create highly complex models with numerous equations and parameters, such an approach presents several challenges, including difficulties in comparing and evaluating data, increased risk of overfitting, and reduced generalizability. Therefore, we will also consider criteria for model selection based on fit and complexity as well as the sensitivity of the model with respect to specific parameters. This also gives valuable information on which political interventions should be more emphasized for possible variations of parameter values.
Furthermore, the presented models, particularly the optimization using the Metropolis algorithm for parameter estimation, are compared with other established methods. The quality of model calculation, as well as computational effort and applicability, play a role in this comparison. Additionally, the spatial integro-differential model is compared with an established agent-based model. Since the macroscopic results align very well, the computationally faster integro-differential model can now be used as a proxy for the slower and non-traditionally optimizable agent-based model, e.g., in order to find an apt control strategy.
Verschiedene Formen der Nierenersatztherapie " Hämodialyse, Peritonealdialyse und Transplantation " ermöglichen es terminal niereninsuffizienten Menschen, Jahre bis Jahrzehnte weiterzuleben, obwohl ein lebenswichtiges Organ ausgefallen ist. Gleichzeitig hat damit die moderne Medizin ein Krankheitsbild geschaffen, das es ohne sie gar nicht gäbe, und das geprägt ist von zahlreichen Folge- und Begleiterkrankungen sowie spezifischen physischen und psychischen Belastungen für die Betroffenen.
Untersuchungsgegenstand der Arbeit ist die Situation chronisch nierenkranker Menschen, ihre Einschränkungen und Belastungen, typische Merkmale ihrer Krankheitsverarbeitung und Möglichkeiten psychosozialer Interventionen für diese Personengruppe, ihre Angehörigen und das medizinische Personal. In einer multizentrischen Untersuchung wurden in insgesamt vier Modellprojekten des Bundesverbandes Niere e.V. 573 Patientinnen und Patienten an zwei Messzeitpunkten per Fragebogen (u.a. mit den Trierer Skalen zur Krankheitsbewältigung TSK) befragt, wobei 180 davon sich an beiden Befragungen beteiligten, sowie 6 Experten-Interviews mit dem medizinischen Personal durchgeführt. Zusätzlich wurden die Protokolle der Teams und Supervisionen mit den psychosozialen Fachkräften sowie deren Statistik und Dokumentationen ausgewertet.
Die höchsten Einschränkungen und Belastungen in der Stichprobe zeigten sich bei der körperlichen Leistungsfähigkeit, bei Sport, Reisen, der Fähigkeit, berufstätig zu sein sowie seelischer Anspannung und Sorgen im Zusammenhang mit der chronischen Nierenerkrankung. Patientinnen und Patienten, die mit der Hämodialyse behandelt werden, fühlen sich im Mittel in allen abgefragten Bereichen stärker eingeschränkt als die Transplantierten, vor allem in den Bereichen Trinken, Essen, zeitliche Gestaltung des Alltags und Reisen. Sie fühlen sich außerdem weniger vital, und zeigen stärkere Beeinträchtigungen in der sozialen Funktionsfähigkeit und ein allgemein schlechteres psychisches Befinden. Die Einschränkungen und Belastungen der PD-Patientinnen und "patienten liegen zwischen denen der Transplantierten und der Hämodialysegruppe. In den Bereichen Ängste, Abhängigkeit, Sexualleben sowie Anspannung und Sorgen erleben Transplantierte fast genauso hohe Belastungen wie Patientinnen und Patienten, die mit Hämodialyse behandelt werden an.
Alter, Multimorbidität und Hämodialyse als Behandlungsverfahren wirken sich verstärkend auf die Belastungen und Einschränkungen chronisch Nierenkranker aus, eher positiv wirken sich höhere Bildung, Berufstätigkeit und steigende Behandlungsdauer aus.
Eine besonders schwer belastete Personengruppe dürften also ältere, multimorbide Patientinnen und Patienten sein, die mit Hämodialyse behandelt werden und nicht (mehr) berufstätig sind. Als Einflussfaktoren auf die Krankheitsverarbeitung konnten folgende identifiziert werden: Geschlecht, Alter, Familienstand, Erwerbstätigkeit, weitere Erkrankungen und Behandlungsverfahren. So wenden beispielsweise Transplantierte die Strategie "Suche nach sozialer Einbindung" etwas häufiger an als Patientinnen und Patienten, die mit einem Dialyseverfahren behandelt werden. Zur Untersuchung der Effektivität der einzelnen Bewältigungsdimensionen wurden diese in Beziehung zu den affektiv-motivationalen Variablen gesetzt, die im Fragebogen ebenfalls erhoben wurden. Dabei zeigte sich, dass die Bewältigungsdimension "Rumination" (als grüblerisches, in die Vergangenheit gerichtetes Verhalten) die stärksten negativen Auswirkungen auf die Befindlichkeit und die Einstellung der Befragten hat. Die Art des Behandlungsverfahrens, die Krankheitsverarbeitung und das Erleben des letzten halben Jahres standen im Zusammenhang mit der Inanspruchnahme der Psychosozialen Begleitung. So wurde die Psychosoziale Fachkraft signifikant häufiger von Hämodialysepatientinnen und "patienten konsultiert als von den anderen Behandlungsgruppen. Ebenso sah es bei Patientinnen und Patienten mit durchschnittlich höheren Werten auf den TSK-Skalen "Rumination" und "Suche nach Information und Erfahrungsaustausch" aus. In der Auswertung der Experteninterviews wurde deutlich, dass die befragten Ärztinnen, Ärzte und Pflegekräfte die Belastungen und Complianceprobleme der Patientinnen und Patienten in hohem Maße wahrnehmen und hier auch einen hohen eigenen Handlungsbedarf oder sogar Handlungsdruck für sich sehen, helfend oder regulierend einzugreifen. Hier konnte die Psychosoziale Begleitung Entlastung bringen. Die Auswirkungen der Psychosozialen Begleitung auf die Patientinnen und Patienten wurden durchweg positiv beschrieben.
Eltern spielen eine entscheidende Rolle bei der Inanspruchnahme von kultureller Bildung durch Kinder und Jugendliche. Häufig sind sie in die Organisation und Finanzierung der kulturellen Bildungsangebote involviert. Insbesondere in ländlichen Räumen kommt die Besonderheit hinzu, dass Eltern aufgrund größerer räumlicher Distanzen und einer unzureichenden Ausstattung des ÖPNV Begleitfahrten mit dem eigenen PKW durchführen müssen. Häufig werden ländliche Räume anhand objektivierbarer Daten als strukturschwach oder kulturarm beschrieben. Darüber, ob oder inwiefern das von ländlich lebenden Eltern ebenso gesehen wird, ist jedoch wenig bekannt.
Die vorliegende Dissertationsschrift gibt einen Einblick in die elterlichen Perspektiven auf kulturelle Bildung in ländlichen Räumen. Sie basiert auf offenen, qualitativen Leitfadeninterviews mit Eltern aus vier ländlichen Regionen Deutschlands, die diskursanalytisch und unter Zuhilfenahme von Kodierungspraktiken aus dem Kontext der Grounded Theory ausgewertet wurden.
In den Interviews zeigt sich eine Vielzahl an elterlichen Verständnissen und Positionierungsweisen zur kulturellen Bildung in ländlichen Regionen. Es stellt sich heraus, dass der elterliche Diskurs auf einem komplexen Zusammenspiel sozioökonomischer bzw. -kultureller Bedingungen, raumstruktureller Gegebenheiten und individueller Präferenzen hinsichtlich kultureller Bildung auf dem Land basiert.
Massenprozessmanagement
(2015)
Vorliegende Dissertation beantwortet die Forschungsfrage, welche grundlegend geeigneten Vorgehensweisen und notwendigen Informationstechnologien für das Management von hohen Anzahlen an Geschäftsprozessen (Mass Process Management, MBPM) in Dienstleistungsun-ternehmen zu berücksichtigen sind. Es konnte gezeigt werden, dass zur Bearbeitung von Massenprozessen eine spezielle, Methoden aus der Fertigungsindustrie verwendende Vorgehensweise notwendig ist. Das Forschungsziel, die Entwicklung einer MBPM-Vorgehensweise für Dienstleistungsunternehmen, wurde unter Anwendung des Forschungsansatzes Design Science Research erreicht und wird in der Dissertation in aufeinander aufbauenden Schritten erläutert. Zur Entwicklung der MBPM-Vorgehensweise wurde eine Langzeit-Tiefenfallstudie bei einem Prozess-Outsourcing-Dienstleister erstellt, um aus dessen Vorgehen Erkenntnisse zu gewinnen. Outsourcing-Unternehmen müssen ihre Dienstleistungen (Produkte) besonders effizient und effektiv erstellen, da sie sonst ihre Produkte nicht zu attraktiven Konditionen anbieten können. Es hat sich gezeigt, dass die fabrikorientierte Vorgehensweise des Outsourcing-Dienstleisters über den Betrachtungszeitraum von zehn Jahren dazu geeignet war, hohe Prozessmengen in höchster Qualität, zu stets sinkenden Preisen mit immer weniger Personen zu bearbeiten.
Der vermutete Forschungsbedarf in Bezug auf MBPM konnte auf Basis einer intensiven Literaturrecherche über das Zeitschriftenrating VHB-JOURQUAL und weitere Literaturquellen bestätigt werden. Da Vorgehensweisen für die Einführung von BPM in einer Vielzahl gefunden wurden, wurde eine Auswahl an BPM-Vorgehensweisen analysiert, um weitere Erkenntnisse für die Erstellung der MBPM-Vorgehensweise zu gewinnen. Durch die Analyse und den Vergleich der verschiedenen BPM-Vorgehensweisen aber auch durch den Vergleich mit dem Vorgehen des Prozess-Outsourcing-Dienstleisters stellte sich heraus, dass sich BPM und MBPM in zahlreichen Aspekten voneinander unterscheiden. MBPM hat einen stark operativen Fokus und benötigt intensive Unterstützung durch Informationstechnologie. Der operative Fokus zeigt sich vor allem in der für das MBPM notwendigen operativen Steuerung von Prozessen und Menschen und den damit einhergehenden hohen Anforderungen an Prozesstransparenz. Mit detailliertem Prozessmonitoring und feingranularen Prozessmessungen sowie zeitnahem Reporting wird diese Prozesstransparenz erreicht. Informationstechnologie wird benötigt, um bspw. Prozessmonitoring zeitnah durchzuführen aber auch um internen wie externen Anspruchstellern zu jeder Zeit den gewünschten Überblick zur aktuellen Auslastung aber auch zur Abrechnung der Dienstleistungen gewähren zu können.
Es konnte entgegen des Vorgehens des Prozess-Outsourcing-Dienstleisters gezeigt werden, dass Change Management die Einführung, den dauerhaften Betrieb und den mit MBPM verbundenen stetigen Wandel in positiver Weise beeinflussen kann.
Antonio Lotti und seine liturgische Kirchenmusik – Vorstudien zu Biographie und Überlieferung
(2023)
Antonio Lotti (1667-1740) gehört zu den venezianischen Komponisten, die in der älteren wie der neueren Fachliteratur ein hohes Ansehen genießen, obwohl seine Werke bis heute nur wenig bekannt sind. Eine unklare Überlieferungslage, aber auch sachfremde ästhetische Postulate verzögerten jedoch die Auseinandersetzung mit Lottis Kompositionen. Erst in neuerer Zeit gab es ein verstärktes Interesse sowohl an seinen Opern und vokaler Kammermusik als auch an seiner Kirchenmusik.
In der vorliegenden Studie wird zunächst Lottis Biographie unter Einbeziehung neuer Quellenfunde auf dem aktuellen Stand des Wissens zusammenfassend dargestellt. Der zweite Teil bietet erstmals eine Identifikation von Lottis Buchstaben- und Notenschrift nach streng philologischen Kriterien. Angesichts des nicht mehr erhaltenen Nachlasses ist dieser Teil von besonderer Bedeutung, bietet er doch die unverzichtbare Basis zur weiteren Erforschung von Lottis Kirchenmusik, ihrer Überlieferung und Faktur.
Factors triggering the ecotoxicity of metal-based nanoparticles towards aquatic invertebrates
(2015)
Heutzutage werden Nanopartikel in großem Maßstab produziert, weshalb deren Eintrag in Oberflächengewässer immer wahrscheinlicher wird. Dort angelangt unterliegen sie verschiedenen umweltbedingten (Oberflächen-)Modifikationen, die in letzter Konsequenz eine Vielfalt von Nanopartikel-Agglomeraten unterschiedlicher Größe hervorbringen. Direkt davon betroffen sind aquatische Lebewesen, die einer entsprechenden Nanopartikelexposition in der Wasserphase ausgesetzt sind.
Nach Sedimentation der Agglomerate können aber ebenfalls benthische Organismen betroffen sein. Bisherige ökotoxikologische Untersuchungen haben solche umweltbedingten Einflüsse außer Acht gelassen und viel mehr nanopartikel-spezifische Charakteristika auf deren Wirkweise gegenüber pelagischen Vertretern untersucht. Aus diesem Grund ist eine systematische Untersuchung derer Faktoren von Nöten, die den Verbleib und das Verhalten aber auch die Toxizität von Nanopartikeln in der Umwelt maßgeblich beeinflussen. Die kumulative Arbeit dieser Dissertation macht sich dies zum Ziel und hinterfragt entsprechende Faktoren die einerseits durch Nanopartikel assoziierte Aspekte (definiert als i) inhärente Stoffeigenschaft des untersuchten Materials und ii) Nanopartikel Charakteristika)) und andererseits durch Umweltbedingungen in Oberflächengewässern geprägt sind. In diesem Kontext wurden verschiedene ökotoxikologische Untersuchungen mit inerten Titandioxid Nanopartikeln (nTiO2) und Ionen freisetzenden Silber Nanopartikeln (nAg) unter Berücksichtigung verschiedener Nanopartikel Charakteristika (z.B. initiale Partikelgröße, Oberflächengröße) und Umweltbedingungen (z.B. Ionenstärke, ultraviolettes Licht (UV-Licht)), durchgeführt.
Als Testorganismen dienten dazu die pelagischen bzw. benthischen Vertreter Daphnia magna und Gammarus fossarum. Die Ergebnisse deuten daraufhin, dass die Toxizität von nTiO2 und nAg gegenüber Daphnien maßgeblich durch das Adsorptionspotential (im Bezug auf das Anhaften der Partikel an die Organismenoberfläche) und das Umweltverhalten (Freisetzung von radikalen Sauerstoffspezies oder Metallionen) der Nanopartikel bestimmt wird.
Darüber hinaus wurde die Nanopartikeltoxizität von jenen inhärenten Stoffeigenschaften, Nanopartikelcharakteritika und Umweltbedingungen am meisten beeinflusst, welche die zuvor genannten Aspekte entweder verstärken oder abschwächen. Hierfür beispielhaft ist der toxizitätsverstärkende Effekt von UV-Licht auf nTiO2 in Experimenten mit Gammarus: Während eine Exposition der Organismen in absoluter Dunkelheit selbst bei 5,00 mg nTiO2/L keine Effekt hervorrief, kam es in der Anwesenheit von UV-Licht schon bei 0,20 mg nTiO2/L zu schwerwiegenden Effekten auf sublethaler und lethaler Ebene.
Unter Berücksichtigung der Ergebnisse dieser Dissertation sowie bisherige Erkenntnisse der Wissenschaft im Allgemeinen, ist die derzeitige Risikoeinschätzung von Nanopartikeln möglicherweise unprotektiv, sofern eine Interaktion von Nanopartikeln und Umwelteinflüssen unberücksichtigt bleibt
Auswirkungen des Zweiten Weltkrieges auf Psychopathologie und Therapie bei psychischen Erkrankungen
(2009)
In der vorliegenden Arbeit wurden die Auswirkungen des Zweiten Weltkrieges auf die Psychopathologien und Therapien psychischer Erkrankungen am Beispiel der Heil- und Pflegeanstalt Klingenmünster aufgezeigt. Als Quellenmaterial dienten 186 Patientenakten. Die Auswertung der Krankenberichte erfolgte zum einen nach soziodemographischen Merkmalen (wie z.B. Alter, Geschlecht, Wohnort, Beruf usw.), zum anderen nach Diagnose und Therapie. Der Schwerpunkt wurde auf die Auswertung der Diagnosen und die damit verbundenen Psychopathologien gelegt. Dafür wurden die Akten vor dem Zweiten Weltkrieg (1932) und nach dem Zweiten Weltkrieg (1948) miteinander verglichen. Dabei erhob sich auch die Frage, ob die Behandlung, die den Patienten in Klingenmünster zuteil wurde, dem Stand der zeitgenössischen Wissenschaft entsprach. Bei den Diagnosen gab es Unterschiede dergestalt, dass 1932 die Diagnose Progressive Paralyse und Schizophrenie signifikant häufiger gestellt wurde als 1948. Nach dem Zweiten Weltkrieg wurde dafür der angeborene Schwachsinnszustand und die Psychische Störung des höheren Lebensalters signifikant häufiger diagnostiziert. Die Progressive Paralyse trat 1948 wahrscheinlich deshalb seltener auf, weil in den 30er Jahren mit der wirksamen Malariakur und Salvarsantherapie eine recht hohe Remissionsrate erzielt wurde und sie deshalb Ende der 40er Jahre allgemein seltener auftrat. 1948 wurden Patienten mit Schizophrenie seltener aufgenommen als 1932. Es ist denkbar, dass der Anteil der Schizophrenen aufgrund der bereits 1933 laufenden rassenhygienischen Maßnahmen sowie der frühen Deportation und Tötung dieser Patienten abgesunken sein könnte. Patienten mit der Diagnose einer Störung des höheren Lebensalters fielen der Euthanasie wahrscheinlich nicht zum Opfer, da sie ihr Leben lang dem Gemeinwesen genutzt hatten und nicht erbkrank waren. Die Ermordung von "sozial Wertvollen", jetzt jedoch alt gewordenen Menschen wäre auf großen öffentlichen Widerstand gestoßen. Für diese Menschen gab es keinen anderen Ort mehr, denn die Pflege- oder Altenheime waren ausgebombt. Die Versorgung der alten und hinfälligen Menschen wurde im ganzen Land immer schwieriger. Diese Entwicklung der letzten Kriegsjahre und Nachkriegsjahre in Deutschland könnte eine Erklärung dafür sein, dass diese Patienten die größte Patientengruppe 1948 in Klingenmünster bildeten. Das galt sicherlich nicht für Patienten mit angeborenem Schwachsinn, die als erbkrank galten und somit den rassenhygienischen Maßnahmen zum Opfer fielen. In den 40-er Jahren war auch die Öffentlichkeit so weitgehend über die mit einem Klinikaufenthalt verbundene Gefahr der Tötung informiert, dass weniger Patienten einer stationären Behandlung zugeführt worden sein dürften. Diese Patienten wurden während des Krieges wahrscheinlich von ihren Angehörigen nicht in eine Anstalt gebracht. Ziel der vorliegenden Arbeit war es auch zu klären, ob der Zweite Weltkrieg Auswirkungen auf psychiatrische Krankheitsbilder im Sinne einer Kriegsneurose hatte. Es zeigte sich, dass der Zweite Weltkrieg keine Auswirkungen auf die Prävalenz des Krankheitsbildes Kriegsneurose in der Heil- und Pflegeanstalt Klingenmünster hatte. Neben den Krankheitsbildern und den Psychopathologien wurden auch die Therapieformen der beiden Jahrgänge miteinander verglichen. Aber auch hier gab es keine kriegsbedingten Unterschiede. Betrachtet man die Therapieformen zur Zeit der Weimarer Republik und der Nachkriegszeit vor dem Hintergrund der gängigen Therapien zu dieser Zeit, so war Klingenmünster auf dem aktuellen wissenschaftlichen Stand. Die am häufigsten eingesetzten Behandlungsmethoden waren zum einen die Arbeitstherapie, zum anderen die medikamentöse Therapie. Der Rückgang der Arbeitstherapie von 1932 auf 1948 könnte mit dem Personalmangel in den Nachkriegsjahren in den Kliniken zu tun haben, wonach unzureichend qualifiziertes Pflegepersonal vorhanden war, die die Kranken bei der Arbeit anleiten und beaufsichtigen konnten. Die medikamentöse Therapie war die führende Therapieform, die in der Heil- und Pflegeanstalt Klingenmünster eingesetzt wurde. Zwischen den beiden Jahrgängen gab es hinsichtlich der Häufigkeit keine Unterschiede. Doch die Art der Therapie hatte sich im Verlauf der Jahre durch die Einführung der Insulinkomatherapie 1933, der Cardiazolkrampftherapie 1934 und der Elektrokrampftherapie 1938 verändert.
This Thesis contributes by reporting on the current state of diffusion of collaboration information technology (CIT). The investigation concludes, with a high degree of certainty, that today we have a "satisfactory" diffusion level of some level-A CITs (mostly e-Mail, distantly followed by Audio Conferencing), and a "dissatisfactory" diffusion level of higher-level CITs (i.e. those requiring significant collaboration and cooperation among users, like Meeting Support Systems, Group Decision Support Systems, etc.). The potential benefits of the latter seem to be far from fully realised due to lack of user acceptance. This conclusion has gradually developed along the research cycle " it was suggested by Empirical Study I, and tested through Empirical Studies II and III. An additional, unplanned and rather interesting, finding from this study has been the recognition of large [mostly business] reporting on numerous Web 2.0 user-community produced collaboration technologies (most of them belonging to the category of "social software") and their metamorphosis from autonomous, "bottom-up" solutions into enterprise-supported infrastructures. Another contribution of this Thesis " again suggested by Empirical Study I, and tested through Empirical Studies II and III " pertains to the "process structure" of CIT diffusion. I have found that collaboration technology has historically diffused following two distinct (interdependent but orthogonal) diffusion paths " top-down (authority-based) and bottom-up. The authority-based diffusion path seems to be characterised by efforts aimed at "imposing" technologies on employees, the primary concern being to make sure that technology seamlessly and easily integrates into the organisational IT infrastructure. On the other hand, the bottom-up diffusion trail seems to be successful. The contribution of this investigation may be summarised as threefold: 1. This investigation consolidates most of the findings to date, pertaining to CIT adoption and diffusion, which have been produced by the CIT research community. Thus, it tells a coherent story of the dynamics of the community focus and the collective wisdom gathered over a period of (at least) one decade. 2. This work offers a meaningful framework within which to analyse existing knowledge " and indeed extends that knowledge base by identifying persistent problems of collaboration technology acceptance, adoption and diffusion. These problems have been repeatedly observed in practice, though the pattern does not seem to have been recognised and internalised by the community. Many of these problems have been observed in cases of CIT use one decade ago, five years ago, three years ago, and continue to be observed today in structurally the same form despite what is unarguably "rapid technological development". This gives me reason to believe that, at least some of the persistent problems of CIT diffusion can be hypothesised as "determining factors". My contribution here is to identify these factors, discuss them in detail, and thus tackle the theme of CIT diffusion through a structured historical narrative. 3. Through my contribution (2) above, I characterise a "knowledge-action gap" in the field of CIT and illuminate a potential path through which the research community might hope to bridge this gap. The gap may be operationalised as cognitive distance between CIT "knowledge" and CIT "action".
Aktuell gibt es in den Geisteswissenschaften eine Vielzahl von digitalen Werkzeugen, wie beispielsweise Annotations-, Visualisierungs-oder Analyseanwendungen, welche Forscherinnen bei ihrer Arbeitunterstützen und ihnen neue Möglichkeiten zur Bearbeitung unterschiedlicher Forschungsfragen bieten. Allerdings bleibt die Nutzung dieser Werkzeuge stark hinter den Erwartungen zurück. In der vorliegenden Arbeit werden im Rahmen einer Design-Science-Theorie zwölf Verbesserungsmaßnahmen entwickelt, um der fehlenden Nutzungsakzeptanz entgegenzuwirken. Durch die Implementierungen der entwickelten Design-Science-Theorie, können SoftwareentwicklerInnen die Akzeptanz ihrer digitalen Werkzeuge, im geisteswissenschaftlichen Kontext, steigern.
Warum kann ich mir nicht vorstellen, meine Haare wachsen zu lassen, insbesondere meine Körperhaare? Diese Frage und das damit verbundene Unbehagen motivierten mich 2016 zur Entwicklung meines Dissertationsprojektes.
Die Suche nach einer Antwort führt zu einer Studie, die einen feministisch-phänomenologischen Erfahrungsbegriff zentral setzt. Bedeutsam für die Entwicklung eines solchen Begriffs sind die phänomenologischen Beiträge „Zur poststrukturalistischen Kritik an der Erfahrung im Kontext der feministischen Philosophie“ (Stoller 2005) von Silvia Stoller und „Phänomenologie, Poststrukturalismus und feministische Theorie. Zum Begriff der Erfahrung“ (Alcoff 1997) von Linda Martín Alcoff. Darauf aufbauend verfolgt das Dissertationsprojekt zunächst das Anliegen, Erfahrungen sichtbar zu machen, indem sie veranschaulicht und zur Sprache gebracht werden. Auf diese Weise wird es möglich, Erfahrungen hinterfragen zu können, um anschließend Antworten entwickeln zu können. Demnach beruhen mein Unvermögen, Körperhaare wachsen zu lassen, sowie das damit einhergehende Unbehagen darauf, eine drohende Erfahrung der Fremdheit mir selbst gegenüber abwenden zu wollen. Zu einer solchen Fremderfahrung würde es kommen, wenn ich durch meine Körperhaare damit konfrontiert werde, dass ich mir fremd bin. Jedoch um sich selbst kennenzulernen sind Menschen nach phänomenologischem Verständnis (vgl. Meyer-Drawe 2001: 141-142) auf andere Menschen angewiesen, da sie sich selbst erst durch andere bewusst werden können. Doch stellt es angesichts des gelebten Ideals der Haarlosigkeit (vgl. Labre 2002: 120-122, Strmljan 2018: 406) eine Herausforderung dar, meine drohende Fremderfahrung, aufgrund der Konfrontation mit meinen Körperhaaren, im Kontakt mit anderen Menschen zu überwinden, sodass ich eine solche Fremderfahrung vermeide, indem ich meine Körperhaare entferne. Als Resultat verbleibt mein Unbehagen darüber, dem Ideal der Haarlosigkeit zu entsprechen.
Zu einer solchen Antwort gelange ich anhand einer Studie, die folgender Forschungsfrage folgt:
Wie erfahren sich Menschen beim Waxing in einem Kosmetikstudio unter den Bedingungen der binären Geschlechterordnung?
Dass die Erfahrungen in einem Kosmetikstudio erforscht werden, begründet sich damit, dass in einem solchen der Zugang zu Erfahrungen bei der Entfernung von Körperhaaren möglich wird. Körperhaare zu entfernen ist zwar ein alltäglicher Umgang mit Körpern, jedoch intim und persönlich, sodass ein Zugang schwierig wird. Eine Lösung stellt hierfür ein Kosmetikstudio dar. Als Praktikantin in dem Kosmetikstudio Beautystudio werden mir Erfahrungen beim Waxing – einer kosmetischen Technik der Haarentfernung – zugänglich.
Auf solche Weise Daten zu erheben folgt dem ethnographischen Vorgehen der teilnehmenden Beobachtung. Forscher*innen nehmen beobachtend vor Ort teil und erheben Daten, indem sie Notizen, Protokolle und schließlich Studien erstellen. Mittels eines solchen Forschungsstils können Forscher*innen Erfahrungen in einer Studie zentral setzen, da sie so Erfahrungen selbst machen können und Zugang zu den Erfahrungen anderer erhalten (vgl. Amann/ Hirschauer 1997: 29-30, Breidenstein et al. 2013: 86-87, 103, 177-178).
Im Zuge der Datenerhebung zeigt sich wiederum, dass im Umgang mit Körperhaaren die Bedingungen der binären Geschlechterordnung wirksam werden. Beispielsweise wird in vielen Situationen die dichotome Differenz zwischen Männern und Frauen betont, ohne dass es konkret für die kosmetische Anwendung notwendig zu sein scheint. So erklärt sich, dass für die Analyse und das Hinterfragen der zur Sprache gebrachten Erfahrungen ein geschlechtertheoretisches Konzept herangezogen wird, welches Erfahrungen hinsichtlich der Bedingungen der binären Geschlechterordnung befragen kann. Eine solche Betrachtung der Daten bietet Gesa Lindemanns Konzept „Der leiblich-affektiven Konstruktion des Geschlechts“ (1992).
Basierend auf dem feministisch-phänomenologischen Erfahrungsbegriff, dem ethnographischen Vorgehen und dem Geschlechterkonzept Lindemann zeigt sich, dass Menschen beim Waxing erfahren (können), mit anderen Menschen verbunden und sich selbst unverbunden zu sein. Dabei wird die Haut zum Kristallisationspunkt der Verbindung zu anderen Menschen (und auch Apparaten). Durch die Berührungen wird einerseits Verbundenheit gestaltet und eine gegenseitige Zuwendung erfahrbar, andererseits wird diese aber auch unterbrochen, wenn durch das Waxing Schmerz zugefügt wird oder Menschen durch Blicke entblößt werden. So wird die Haut zum Medium zwischen den Erfahrungen der Verbundenheit und Unverbundenheit.
(Hinweisen möchte ich an dieser Stelle, dass alle Namen und Orte anonymisiert sind. Demnach handelt es sich beim Beautystudio um den anonymisierten Namen des Kosmetikstudios, in welchem ich forschte. Auf diese Weise soll die Persönlichkeit der Kontaktpersonen im Feld gewahrt bleiben.)
Literaturhinweise:
Alcoff, Linda M. (1997): Phänomenologie, Poststrukturalismus und feministische Theorie. Zum Begriff der Erfahrung. In: Stoller, Silvia/ Vetter, Helmuth (Hg.): Phänomenologie und Geschlechterdifferenz. Wien: WUV-Universitäts-Verlag: 227-271.
Amann, Klaus/ Hirschauer, Stefan (1997): Die Befremdung der eigenen Kultur. Ein Programm. In: Hirschauer, Stefan/ Amann, Klaus (Hg.): Die Befremdung der eigenen Kultur: Zur ethnographischen Herausforderung soziologischer Empirie. Frankfurt am Main: Suhrkamp Verlag: 7-52.
Breidenstein, Georg/ Hirschauer, Stefan/ Kalthoff, Stefan/ Nieswand, Boris (2013): Ethnografie. Die Praxis der Feldforschung. Konstanz & München: UVK Verlagsgesellschaft
Labre Peixoto, Magdala (2002): The Brazilian Wax: New Hairlessness Norm for Women? In: Journal of Communication Inquiry: 26 (2): 113-132.
Lindemann, Gesa (1992): Die leiblich-affektive Konstruktion des Geschlechts. Für eine Mikrosoziologie des Geschlechts unter der Haut. In: Zeitschrift für Soziologie: 21 (5): 330-346.
Meyer-Drawe, Käte (2001): Leiblichkeit und Sozialität. München: Wilhelm Fink Verlag.
Stoller, Silvia (2005): Zur poststrukturalistischen Kritik an der Erfahrung im Kontext der feministischen Philosophie. In: Stoller, Silvia/ Vasterling, Veronica/ Fisher, Linda (Hg.): Feministische Phänomenologie und Hermeneutik. Würzburg: Königshausen & Neumann GmbH: 139-170.
Strmljan, Alina (2018): Haare zum Schämen? Weibliche Körperbehaarung und ihre Entfernung – Normen, Tabus und Trivialisierungen. In: Breuss, Susanne (Hg.): Mit Haut und Haar. Frisieren, Rasieren, Verschönern. Wien: Metroverlag: 404-410.
Focusing on the triangulation of detective fiction, masculinity studies and disability studies, "Investigating the Disabled Detective – Disabled Masculinity and Masculine Disability in Contemporary Detective Fiction" shows that disability challenges common ideals of (hegemonic) masculinity as represented in detective fiction. After a theoretical introduction to the relevant focal points of the three research fields, the dissertation demonstrates that even the archetypal detectives Dupin and Holmes undermine certain nineteenth-century masculine ideals with their peculiarities. Shifting to contemporary detective fiction and adopting a literary disability studies perspective, the dissertation investigates how male detectives with a form of neurodiversity or a physical impairment negotiate their masculine identity in light of their disability in private and professional contexts. It argues that the occupation as a detective supports the disabled investigator to achieve ‘masculine disability’. Inversing the term ‘disabled masculinity’, predominantly used in research, ‘masculine disability’ introduces a decisively gendered reading of neurodiversity and (acquired) physical impairment in contemporary detective fiction. The term implies that the disabled detective (re)negotiates his masculine identity by implementing the disability in his professional investigations and accepting it as an important, yet not defining, characteristic of his (gender) identity. By applying this approach to five novels from contemporary British and American detective fiction, the dissertation demonstrates that masculinity and disability do not negate each other, as commonly assumed. Instead, it emphasises that disability allows the detective, as much as the reader, to rethink masculinity.
English prepositions take only a small proportion of the language but play a substantial role. Although prepositions are of course also frequently used in English textbooks for secondary school, students fail to incidentally acquire them and often show low achievements in using prepositions correctly. The strategy commonly employed by language instructors is teaching the multiple senses of prepositions by rote which fails to help the students to draw links between the different meanings in usage. New findings in Cognitive Linguistics (CL) suggest a different approach to teaching prepositions and thus might have a strong impact on the methodologies of foreign language teaching and learning on the aspects of meaningful learning. Based on the Theory of Domains (Langacker, 1987), the notions of image schemas (Johnson, 1987) as well as the Conceptual Metaphor Theory (Lakoff & Johnson, 1980), the present study developed a CL-inspired approach to teaching prepositions, which was compared to the traditional teaching method by an empirical study conducted in a German school setting. Referring to the participants from the higher track and the medium track, who are at different proficiency levels, the results indicate that the CL-inspired teaching approach improved students" performance significantly more than the traditional approach in all the cases for the higher track and in some cases for the medium track. Thus, these findings open up a new perspective of the CL-inspired meaningful learning approach on language teaching. In addition, the CL-inspired approach demonstrates the unification of the integrated model of text and picture comprehension (the ITPC model) in integrating the new knowledge with related prior knowledge in the cognitive structure. According to the learning procedure of the ITPC model, the image schema as visual image is first perceived through the sensory register, then is processed in the working memory by conceptual metaphor, and finally it is integrated with cognitive schemata in the long term memory. Moreover, deep-seated factors, such as transfer of mother tongue, the difficulty of teaching materials, and the influence of prior knowledge, have strong effects on the acquisition of English prepositions.
Grundwasser ist eine lebenswichtige Ressource und gleichzeitig ein thermisch stabiler Lebensraum mit einer außergewöhnlichen Fauna. Aufgrund der Klimageschichte der letzten ca. 1,8 Millionen Jahre in Mitteleuropa war die Ausgangshypothese, dass die meisten Grundwasserarten an Temperaturen unterhalb von 14 °C angepasst sind und sich Temperaturerhöhungen daher negativ auf die Grundwasserfauna auswirken.
Um die Folgen einer Klimaerwärmung in situ beurteilen zu können, wurden anthropogen erwärmte Grundwässer als Modelle herangezogen. In ersten Teil dieser Arbeit wurden die Crustaceagemeinschaften natürlich temperierter und anthropogen erwärmter Standorte untersucht. Dazu wurden insgesamt 70 Grundwassermessstellen im Oberrheingraben über ein Jahr (2011 bis 2012) sechsmal beprobt. Ergänzend zu diesem synökologischen Ansatz wurde in einem zweiten Teil die Temperaturpräferenz ausgewählter Arten überprüft. Für diese autökologische Betrachtung wurde ein deutschlandweiter Datensatz herangezogen.
Die ausgewählten Untersuchungsgebiete haben sich als geeignete Modelle für die prognostizierten Temperaturerhöhungen herausgestellt. Die Temperatur erwies sich als einer der wichtigsten Parameter für die Crustaceagemeinschaften. Erwärmungen beeinflussen die Zusammensetzung der Gemeinschaften und die Diversität. Dabei zeigte sich, dass es artspezifisch unterschiedliche Temperaturpräferenzen gibt. Einige vermutlich weniger streng stygobionte Arten scheinen höhere Temperaturen zu tolerieren. Der Großteil der stygobionten Grundwasserarten bevorzugt allerdings Temperaturen unterhalb von 14 °C, wobei wenige Arten als „extrem kalt¬steno-therm“ einzustufen sind. Diese Arten wurden an Standorten nachgewiesen, die aufgrund der hydrologischen Verhältnisse relativ kühl sind und der Fauna auch zukünftig als kalte Refugien Schutz bieten könnten. Einer dieser Standorte ist aufgrund seiner Artenvielalt als „Hot Spot“ einzustufen. Die Ergebnisse legen nahe, dass vor allem kaltstenotherme Arten durch eine Klimaerwärmung und anthropogene Wärmeeinträge gefährdet sind.
Die Untersuchung zeigt, dass Grundwasserlebensräume vor Temperaturerhöhungen zu bewahren sind. Lokale anthropogene Wärmeeinträge sollten keine dauerhafte und großflächige Grundwassererwärmung über 14 °C zur Folge haben. Thermische Ein-träge sollten überwacht und bewertet werden. Es wird empfohlen, die bestehenden rechtlichen Rahmenbedingungen den ökologischen Erfordernissen anzupassen.
In Anbetracht der steigenden Scheidungszahlen und der damit immer höher werdenden Zahl betroffener Kinder, erscheint eine Trennung und Scheidung als eine der größten pädagogischen Herausforderungen der Gegenwart (vgl. Figdor, 2000, S. 89). Der Beginn der Scheidungsforschung war durch eine Defizitperspektive geprägt und bewertete die elterliche Scheidung, die sogenannten "broken homes" (vgl. Lexikon der Psychologie), als eine Abweichung von der "Normalfamilie", als generelles Entwicklungsrisiko für Kinder (vgl. Schwarz und Noack, 2002, S. 316). Eine Trennung und Scheidung zählt heute längst nicht mehr zu den familiären Ausnahmesituationen. Gegenwärtig werden in Deutschland circa 50 Prozent der Ehen geschieden. Doch nicht zwangsläufig führt diese Erfahrung zu Traumatisierungen und Entwicklungsbeeinträchtigungen der betroffenen Kinder, sondern kann Entwicklungschancen mit sich bringen.
In der Wissenschaft besteht heute Konsens darüber, dass eine elterliche Trennung und Scheidung zahlreiche negative Folgen für die Entwicklung der Kinder haben kann, aber nicht muss (vgl. Nave-Herz, 2009, S. 96). Unter welchen Voraussetzungen führt nun die Scheidung der Eltern nicht zu negativen Langzeitfolgen der Kinder? Welche Faktoren beeinflussen das Scheidungserleben? Wie bewältigen Kinder das Scheidungsgeschehen und was hilft ihnen im Umgang mit der Problemsituation? Die Motivation zur Bearbeitung dieser Forschungsfragen entstand zum einen durch zahlreiche persönliche Begegnungen mit betroffenen Scheidungskindern in der beruflichen Praxis.
Zum anderen gab die Tatsache, dass in Deutschland trotz steigender Scheidungszahlen Längsschnittstudien fehlen, die altershomogene Gruppen jüngerer Kinder über einen längeren Zeitraum nach der Trennung und Scheidung untersuchen, Anlass, die vorliegende Studie anzustreben. Die Altersgruppe der Fünf- bis Neunjährigen steht im Mittelpunkt der Arbeit, da es sich bei diesen Probanden um eine Gruppe handelt, zu der wenig detaillierte und konkrete Untersuchungen vorliegen.
Etwa 50 % der Fläche Europas werden landwirtschaftlich genutzt. Dennoch gibt es nahezu keine Information ob Fledermäuse diese Flächen beispielsweise zur Nahrungsaufnahme nutzen. Aufgrund der limitierten Datenbasis mangelt es auch an Schutzkonzepten, die mögliche negative Effekte der landwirtschaftlichen Intensivierung auf die Fledermäuse und deren Nahrungsgrundlage ausgleichen könnten. Da die Exposition von Fledermäusen mit Pflanzenschutzmitteln bislang nicht thematisiert wurde, sind im europäischen Zulassungsverfahren für Pflanzenschutzmittel keine Risikoabschätzungen für Fledermäuse gefordert. Um für Fledermäuse die mögliche Exposition gegenüber Pflanzenschutzmitteln abschätzen zu können, sind Informationen über Vorkommen und Aktivität von Fledermäusen in landwirtschaftlich genutzten Flächen erforderlich. Die Erfassung von Fledermäusen auf einer Vielzahl von Flächen machte es notwendig sich im Vorfeld auf eine geeignete Methodik festzulegen. Die akustische Fledermauserfassung ist im Gegensatz zu deutlich zeitaufwändigeren Methoden wie Netzfang, Telemetrie oder direktes Beobachten die einzige logistisch durchführbare Methode. In der wissenschaftlichen Literatur werden jedoch bei vielen bisher durchgeführten akustischen Methoden Bedenken bezüglich der Berücksichtigung zeitlicher und räumlicher Varianz und der Eignung der verwendeten Detektorsysteme geäußert. Deshalb wurden verschiedene Methoden und Detektorsysteme verglichen und das parallele Beproben mit mehreren stationären und kalibrierten automatischen Aufnahmesystemen als die am besten geeignete Methode zur verlässlichen und vergleichbaren Fledermausaktivitäts-Erfassung befunden.
Mit dieser Methode wurden die Fledermaus-Diversitäten und Aktivitäten in verschiedenen landwirtschaftlichen Kulturen, Wiesen und Wäldern aufgenommen. Außerdem wurde gleichzeitig die Verfügbarkeit von fliegenden Insekten (potentieller Fledermausbeute) mit Licht- oder Klebefallen erfasst. In mehr als 500 Erfassungsnächten wurden circa 110,000 akustische Fledermaus-Rufsequenzen und nahezu 120,000 nachtaktive Insekten gesammelt. Insgesamt wurden 14 Fledermausarten nachgewiesen, darunter die im Gebiet sehr seltene und stark bedrohte Nordfledermaus (Eptesicus nilssonii) und die Mopsfledermaus (Barbastella barbastellum). Alle Arten wurden auch auf landwirtschaftlich genutzten Flächen detektiert.
Die Landwirtschaft im südlichen Rheinland-Pfalz ist durch Weinanbau geprägt. Die Untersuchungen zeigten, dass Weinberge aufgrund der geringen Verfügbarkeit an kleineren nachtaktiven Insekten für die meisten Fledermausarten nur eine geringe Qualität als Jagdgebiet haben. Ein weiterer paarweiser Vergleich von Weinbergen und benachbarten Regenrückhaltebecken bezüglich Nahrungsverfügbarkeit und Fledermausaktivität zeigte, dass Regenrückhaltebecken wichtige Nahrungshabitate im Weinbaugebiet darstellen. Das Anlegen dieser künstlichen Kleingewässer ist somit eine geeignete Methode um Nahrungshabitate für Fledermäuse zu schaffen und damit den negativen Effekten der konventionellen Landwirtschaft hinsichtlich der Nahrungsverfügbarkeit entgegenzuwirken. In anderen landwirtschaftlichen Kulturen wurden mit den parallel untersuchten Wald- und Wiesenhabitaten vergleichbar hohe Insektenvorkommen und Fledermausaktivitäten nachgewiesen. Besonders hohe Fledermausaktivitäten so wie eine besonders hohe Verfügbarkeit von geeigneten Nahrungstieren wurden in Apfelplantangen und Gemüsefeldern gemessen. Da diese beiden Kulturen hohem Pestizidaufwand unterliegen, kann eine Exposition von Fledermäusen gegenüber Pflanzenschutzmitteln dort nicht ausgeschlossen werden. Um das zurzeit verwendete Verfahren zur Risikoabschätzung von Pflanzenschutzmittel-anwendungen auf Vögel und Säuger auf Fledermäuse zu übertragen, wurden nach Applikation eines Insektizides dessen Rückstände auf Fledermaus-artspezifischen Beuteinsekten gemessen. Parallel dazu wurde die Fledermausaktivität erfasst. Die höchsten Pestizidrückstände wurden auf kronenbewohnenden Insekten und Spinnen nachgewiesen. Die darauf basierende Risikoabschätzung deutet auf ein Langzeitrisiko für alle Fledermausarten, die sich wenigstens zum Teil von kronenbewohnenden Arthropoden ernähren, hin. Das Vorkommen von Fledermäusen in landwirtschaftlichen Flächen, die einen Großteil der europäischen, aber auch der weltweiten Fläche ausmachen, führt je nach Kultur zur Exposition von Fledermäusen durch kontaminierte Nahrung oder zu einer Verringerung von Beuteinsekten. Bisher konzentrierten sich Schutzbemühungen auf die Sicherung von Winterquartieren und die Bereitstellung künstlicher Tagesquartiere. Potentielle Effekte von Pflanzenschutzmitteln auf Agrarflächen haben aber möglicherweise einen entscheidenden Einfluss auf die Populationsgrößen von Fledermausarten die in diesen Gebieten vorkommen. Aus diesem Grund sollten die Effekte von Pflanzenschutzmitteln auf Fledermäuse untersucht werden, insbesondere bei der Risikoabschätzung im Pflanzenschutzmittel-Zulassungsverfahren.
Veränderungen in dem komplexen Wirkungsgefüge eines Agrarökosystems können erhebliche Auswirkungen auf die lokale Biozönose zur Folge haben. Die Überdachung von Obstkulturen mit Netzen oder Folien zum Schutz vor Hagel und Regen stellt eine solche Veränderung dar. Im Rahmen dieser Dissertation wurde anhand einer biozönotischen Risikoanalyse der Einfluss intensiver Landnutzung in Obstkulturen sowie der Einfluss von Kulturschutzeinrichtungen auf die drei Gilden tagaktive Greifvögel, insektivore Vögel und Arthropoden untersucht. Greifvögel, insektivore Vögel und räuberische Arthropoden üben als Prädatoren wichtige Regulationsfunktionen im Nahrungsnetz eines Ökosystems aus. Arthropoden stellen zudem eine wichtige Nahrungsressource dar. Arten aller drei Gilden gelten als Bioindikatoren für Veränderungen im Ökosystem. Phytophage Arthropoden können landwirtschaftlich genutzte Monokulturen erheblich schädigen, weshalb die konventionelle Landwirtschaft zur gezielten Tötung solcher Schädlinge Insektizide einsetzt. Pestizidbehandlungen haben allerdings oft auch Auswirkungen auf viele Nützlinge und andere Organismen im Agrarökosystem.
Die visuelle Erfassung beider Vogelgilden sowie das Fangen der Arthropoden mit Boden- und Flugfallen erfolgte von März bis Juli in den Jahren 2011-2013 auf fünf Untersuchungsflächen im rheinland-pfälzischen Obstanbaugebiet Mainz-Bingen. Es wurden zwei benachbarte Apfelkulturen (eine Kontrollfläche und eine Versuchsfläche mit Hagelschutznetz) und zwei benachbarte Kirschkulturen (eine Kontrollfläche und eine Versuchsfläche ab 2012 mit Folien-Netz-Überdachung) sowie eine nahegelegene Streuobstfläche im lokalen NSG Höllenberg als naturnahe Kontrollfläche untersucht. Zusätzlich wurden im ersten Untersuchungsjahr vom 15. März bis 28. Juli 2011 auf allen Flächen die Ergebnisse einer täglichen automatischen akustischen Erfassung durch ein Stereo-Aufnahmegerät („Songmeter 2“, Wildlife Acoustics) mit denen einer wöchentlichen rein visuellen Erfassung der Vögel verglichen. Es gab keine signifikanten Unterschiede in Detektionseffizienz und Arterfassung der Avifauna zwischen beiden Methoden. Die lokale α-Diversität nach Simpson unterschied sich ebenfalls nicht signifikant zwischen beiden Methoden. Das akustische Monitoring detektierte mehr seltene (=weniger als zehn Funde im Untersuchungszeitraum) Vogelarten; 29% der Arten wurden ausschließlich akustisch nachgewiesen und knapp 13% ausschließlich visuell. Sieben Vogelarten unterschieden sich signifikant in ihrer ermittelten Abundanz zwischen beiden Methoden: Bachstelze, Feldlerche, Mauersegler und die Greifvögel Mäusebussard und Turmfalke waren besser bzw. der Schwarzmilan ausschließlich mit dem visuellen Monitoring zu erfassen, während der Fasan ausschließlich durch das akustische Monitoring nachgewiesen werden konnte. Für die Abundanzschätzung von 48 Vogelarten war es unerheblich, ob sie akustisch oder visuell erfasst wurden. Da seltene Arten bei biozönotischen Untersuchungen keine wesentliche Rolle spielen und die Auswertung der Akustikaufnahmen sehr zeitaufwändig war, wurden für die Risikoanalyse nur die visuell ermittelten Daten berücksichtigt.
Für die Greifvogel-Gilde wurden sechs Arten nachgewiesen, fünf auf der Kirschkontrollfläche und jeweils vier Arten auf den anderen Flächen. Die drei häufigsten Arten waren Mäusebussard, Turmfalke und Schwarzmilan. Greifvögel wurden im Luftraum der Flächen oder auf Sitzwarten wie Zäunen, Pfählen, Bäumen und Kulturschutzeinrichtungen bei der Nahrungssuche oder beim Revierverhalten beobachtet. Es konnte kein Einfluss der Landnutzung auf Greifvögel aufgezeigt werden, Diversität und Abundanz unterschieden sich nicht zwischen den Obstkulturen und der naturnahen Streuobstfläche im NSG. Ein Einfluss von Kulturschutzeinrichtungen auf Greifvögel konnte ebenfalls nicht nachgewiesen werden, die überdachten Flächen wurden genauso oft frequentiert wie die Kontrollflächen. Greifvögel überflogen innerhalb ihrer großen Aktionsräume auch die überdachten Obstkulturen zur Nahrungssuche und wurden weiterhin bei der Ansitzjagd am Rand der Versuchsflächen gesichtet. Zudem wurde der Turmfalke beim Ansitzen unter der Folien-Netz-Überdachung der Kirschkultur sowie beim Fressen auf dieser Überdachung sitzend beobachtet. Für die Insektivoren-Gilde wurden 52 Vogelarten nachgewiesen. Die Streuobstfläche im NSG wies die höchste Artenzahl von 40 auf, gefolgt von der Apfelkontrollfläche mit 27 Arten. Die Apfelversuchsfläche wies dagegen eine geringere Artenzahl von 19 auf, während die Artenzahlen beider Kirschkulturen mit 19 und 18 annähernd gleich gewesen sind. Die zehn häufigsten Arten waren in Reihenfolge ihrer Abundanz Kohlmeise, Star, Rabenkrähe, Amsel, Mauersegler, Bachstelze, Blaumeise, Buchfink, Feldlerche und Stieglitz. Insektivore Vögel wurden überwiegend nahrungssuchend am Boden und in Bäumen der Flächen oder beim Revierverhalten wie Singen, Rufen und Vigilanz auf Sitzwarten Zäunen, Pfählen sowie Kulturschutzeinrichtungen beobachtet. Die intensive Landnutzung der Obstkulturen führte im Vergleich zur naturnahen Streuobstfläche im NSG sowohl auf der Apfel- als auch auf der Kirschkontrollfläche zu einer hochsignifikant geringeren monatlichen Vogelartenzahl. Eine signifikant niedrigere Abundanz der insektivoren Vögel wies jedoch nur die Kirschkontrollfläche auf. Es wurden negative Effekte der intensiven Landnutzung auf die monatliche Abundanz von Gartenrotschwanz, Amsel und Blaumeise nachgewiesen, welche in den Obstkulturen hochsignifikant seltener beobachtet wurden. Der Einsatz von Kulturschutzeinrichtungen führte lediglich beim Hagelschutznetz zu einer zusätzlichen signifikanten Verringerung der monatlichen Vogelartenzahl. Die Folien-Netz-Kombination zeigte keinen signifikanten Einfluss auf die Vogeldiversität. Die Gesamtabundanz der Insektivoren-Gilde blieb in beiden Obstkulturen von Kulturschutzeinrichtungen unbeeinflusst. Abundanzen einzelner Arten zeigten jedoch abweichende Ergebnisse: Die Ringeltaube wurde unter dem Hagelschutznetz der Apfelkultur im Vergleich zur Kontrollfläche gar nicht beobachtet. Die Kohlmeise kam unter der Folien-Netz-Überdachung der Kirschkultur signifikant seltener vor, während der Wiedehopf hier etwa zehnmal häufiger vorkam als auf der Kirschkontrollfläche und der Streuobstfläche im NSG Höllenberg. Entscheidender Faktor für die starke Nutzung der Kirschkulturen waren für den Wiedehopf die vorhandenen vegetationsfreien Bodenbereiche, in denen diese Art bevorzugt nach Nahrungsinsekten sucht. Störungen durch die bei Wind laut flatternde Folienüberdachung auf darunter nahrungssuchende Wiedehopfe wurden nicht beobachtet.
Für die Arthropoden-Gilde wurden 185963 Individuen aus 18 Gruppen gefangen. Der Großteil von 79% dieser Individuen ließ sich Springschwänzen, Ameisen, Zweiflüglern oder Käfern zuordnen. Weitere 20% verteilten sich auf Webspinnen, Asseln, Hautflügler, Milben, Doppelfüßer, Weberknechte, Schnabelkerfe und Ohrwürmer. Die restlichen sechs Arthropodengruppen stellten den restlichen Individuenanteil von 0,9%. Hinsichtlich der determinierten 12910 Käfer-Imagines aus 403 Arten waren Artenzahl, Diversität sowie Anzahl seltener Arten und Habitatspezialisten sandiger Lebensräume in allen drei Untersuchungsjahren auf der naturnahen Streuobstfläche im NSG Höllenberg am höchsten. Die über Bodenfallen ermittelte Arthropoden-Trockenbiomasse lag je nach Fläche bei 9 bis 26 Gramm pro Jahr und die über Flugfallen ermittelte Arthropoden-Trockenbiomasse bei 0,6 bis 4,8 Gramm pro Jahr. Obwohl im Mittel jährlich 5,8 Pestizidbehandlungen in den Kirschkulturen sowie 14,6 Behandlungen in den Apfelkulturen durchgeführt wurden und Insektizide dabei anteilig bis zu 57% ausmachten, konnte kein Einfluss der intensiven Landnutzung mit dem Einsatz von Pestiziden auf die Arthropoden-Trockenbiomasse nachgewiesen werden. Kulturschutzeinrichtungen zeigten ebenfalls keinen Einfluss auf die Arthropoden-Trockenbiomasse.
Diese biozönotische Risikoanalyse belegt, dass der Einsatz von Kulturschutzeinrichtungen zumindest bei Hagelschutznetzen langfristig nachweisbare negative Effekte auf die Diversität von insektivoren Vögeln bewirken kann, welche über die vorhandenen negativen Folgen der intensiven Landnutzung in Obstkulturen hinausgehen. Da intensiv bewirtschaftete Obstkulturen bereits ohne Kulturschutzeinrichtungen zu einer Verarmung der lokalen Biozönose führen, sollte aus ökologischer Sicht vor der Errichtung von Kulturschutzeinrichtungen verlässlich abgewogen werden, ob der zusätzliche Verlust an Biodiversität durch die Verbesserung von Flächenstrukturen der Obstkulturen kompensierbar ist.
Aquatic macrophytes can contribute to the retention of organic contaminants in streams, whereas knowledge on the dynamics and the interaction of the determining processes is very limited. The objective of the present study was thus to assess how aquatic macrophytes influence the distribution and the fate of organic contaminants in small vegetated streams. In a first study that was performed in vegetated stream mesocosms, the peak reductions of five compounds were significantly higher in four vegetated stream mesocosms compared to a stream mesocosm without vegetation. Compound specific sorption to macrophytes was determined, the mass retention in the vegetated streams, however, did not explain the relationship between the mitigation of contaminant peaks and macrophyte coverage. A subsequent mesocosm study revealed that the mitigation of peak concentrations in the stream mesocosms was governed by two fundamentally different processes: dispersion and sorption. Again, the reductions of the peak concentrations of three different compounds were in the same order of magnitude in a sparsely and a densely vegetated stream mesocosm, respectively, but higher compared to an unvegetated stream mesocosm. The mitigation of the peak reduction in the sparsely vegetated stream mesocosm was found to be fostered by longitudinal dispersion as a result of the spatial distribution of the macrophytes in the aqueous phase. The peak reduction attributable to longitudinal dispersion was, however, reduced in the densely vegetated stream mesocosm, which was compensated by compound-specific but time-limited and reversible sorption to macrophytes. The observations on the reversibility of sorption processes were subsequently confirmed by laboratory experiments. The experiments revealed that sorption to macrophytes lead to compound specific elimination from the aqueous phase during the presence of transient contaminant peaks in streams. After all, these sorption processes were found to be fully reversible, which results in the release of the primarily adsorbed compounds, once the concentrations in the aqueous phase starts to decrease. Nevertheless, the results of the present thesis demonstrate that the processes governing the mitigation of contaminant loads in streams are fundamentally different to those already described for non-flowing systems. In addition, the present thesis provides knowledge on how the interaction of macrophyte-induced processes in streams contributes to mitigate loads of organic contaminants and the related risk for aquatic environments.
Global crop production increased substantially in recent decades due to agricultural intensification and expansion and today agricultural areas occupy about 38% of Earth’s terrestrial surface - the largest use of land on the planet. However, current high-intensity agricultural practices fostered in the context of the Green Revolution led to serious consequences for the global environment. Pesticides, in particular, are highly biologically active substances that can threaten the ecological integrity of aquatic and terrestrial ecosystems. Although the global pesticide use increases steadily, our field-data based knowledge regarding exposure of non-target ecosystems such as surface waters is very restricted. Available studies have by now been limited to spatially restricted geographical areas or had rather specific objectives rendering the extrapolation to larger spatial scales questionable.
Consequently, this thesis evaluated based on four scientific publications the exposure, effects, and regulatory implications of particularly toxic insecticides` concentrations detected in global agricultural surface waters. FOCUS exposure modelling was used to characterise the highly specific insecticide exposure patterns and to analyse the resulting implications for both monitoring and risk assessment (publication I). Based on more than 200,000 scientific database entries, 838 peer-reviewed studies finally included, and more than 2,500 sites in 73 countries, the risks of agricultural insecticides to global surface waters were analysed by means of a comprehensive meta-analysis (publication II). This meta-analysis evaluated whether insecticide field concentrations exceed legally accepted regulatory threshold levels (RTLs) derived from official EU and US pesticide registration documents and, amongst others, how risks depend on insecticide development over time and stringency of environmental regulation. In addition, an in-depth analysis of the current EU pesticide regulations provided insights into the level of protection and field relevance of highly elaborated environmental regulatory risk assessment schemes (publications III and IV).
The results of this thesis show that insecticide surface water exposure is characterized by infrequent and highly transient concentration peaks of high ecotoxicological relevance. We thus argue in publication I that sampling based on regular intervals is inadequate for the detection of insecticide surface water concentrations and that traditional risk assessment concepts based on all insecticide concentrations including non-detects lead to severely biased results and critical underestimations of risks. Based on these considerations, publication II demonstrates that out of 11,300 measured insecticide concentrations (MICs; i.e., those actually detected and quantified), 52.4% (5,915 cases; 68.5%) exceeded the RTL for either water (RTLSW) or sediments. This indicates a substantial risk for the biological integrity of global water resources as additional analyses on pesticide effects in the field clearly evidence that the regional aquatic biodiversity is reduced by approximately 30% at pesticide concentrations equalling the RTLs. In addition, publication II shows that there is a complete lack of scientific monitoring data for ~90% of global cropland and that both the actual insecticide contamination of surface waters and the resulting ecological risks are most likely even greater due to, for example, inadequate sampling methods employed in the studies and the common occurrence of pesticide mixtures. A linear model analysis identified that RTLSW exceedances depend on the catchment size, sampling regime, sampling date, insecticide substance class, and stringency of countries` environmental regulations, as well as on the interactions of these factors. Importantly, the risks are significantly higher for newer-generation insecticides (i.e., pyrethroids) and are high even in countries with stringent environmental regulations. Regarding the latter, an analysis of the EU pesticide regulations revealed critical deficiencies and the lack of protectiveness and field-relevance for current presumed highly elaborated FOCUS exposure assessment (publication IV) and overall risk assessment schemes (publication III). Based on these findings, essential risk assessment amendments are proposed.
In essence, this thesis analyses the agriculture–environment linkages for pesticides at the global scale and it thereby contributes to a new research frontier in global ecotoxicology. The overall findings substantiate that agricultural insecticides are potential key drivers for the global freshwater biodiversity crisis and that the current regulatory risk assessment approaches for highly toxic anthropogenic chemicals fail to protect the global environment. This thesis provides an integrated view on the environmental side effects of global high-intensity agriculture and alerts that beside worldwide improvements to current pesticide regulations and agricultural pesticide application practices, the fundamental reformation of conventional agricultural systems is urgently needed to meet the twin challenges of providing sufficient food for a growing human population without destroying the ecological integrity of global ecosystems essential to human existence.
Bauxit ist neben anderen Rohstoffen ein bedeutender Ausgangsstoff für die Herstellung von feuerfesten Materialien. Die Verfügbarkeit von refraktären Rohstoffqualitäten ist weltweit jedoch begrenzt. Da hohe Eisengehalte einen negativen Einfluss auf die Temperaturbeständigkeit des hergestellten Feuerfestmaterials haben, ist ein maximaler Eisenoxidgehalt von 2 Gew.-% im Bauxit akzeptabel. Dies führt dazu, dass nur die nativen Rohstoffe aus wenigen Lagerstätten verwendet werden können. Um der Problematik zu hoher Eisenoxidgehalte in Naturbauxiten entgegenzuwirken, sollte im Rahmen dieser Arbeit die Möglichkeit der Bauxitaufbereitung für die Feuerfestindustrie durch Anwendung eines Säurelaugungsverfahrens untersucht werden. In bisherigen Studien zu diesem Thema wurden an einzelnen Bauxiten bereits einige Untersuchungen zur Eisenlaugung durchgeführt. Dabei wurde jedoch meist die resultierende Bauxitzusammensetzung in ihrer Gesamtheit vernachlässigt und es wurden nur unabhängig voneinander die Einflüsse einzelner Laugungsparameter auf das Laugungsergebnis untersucht. Die generierten Ergebnisse und Vorgehensweisen sind zudem nicht allgemeingültig und lassen sich nicht auf Bauxite anderer chemischer oder mineralogischer Zusammensetzung übertragen.
Um die bei der Aufbereitung von Naturbauxiten bestehenden offenen Fragen zu klären, wurden im Rahmen dieser Arbeit Laugungsversuche mit Salzsäure an fünf verschiedenen Bauxiten durchgeführt. Durch die Nutzung computergestützter statistischer Versuchsplanung konnte für jeden Bauxit ein individuelles Modell zur Vorhersage der optimalen Faktoreinstellungen generiert werden. Als Faktoren wurden die Säurekonzentration, das Feststoff-Säure-Verhältnis, die Laugungstemperatur, die Laugungszeit und die Kornfraktion untersucht. Die in diesem Zusammenhang entwickelte allgemeine Planungsgrundlage zur Bauxitaufbereitung enthält alle notwendigen Faktoren, sinnvolle Faktoreinstellungen und die innerhalb der Planung und Auswertung zu berücksichtigenden Effekte. Es konnte gezeigt werden, dass ausgehend von dieser Planungsgrundlage ein signifikantes, individuelles Modell für jeden der untersuchten Bauxite erstellt werden kann, welches die optimalen Laugungseinstellungen für den jeweiligen Bauxit vorhersagt. Zudem wurde festgestellt, dass die Übertragung eines bereits erstellten Modells auf einen anderen Bauxit ähnlicher Zusammensetzung möglich ist. Ausgehend von den durch die Laugungsversuche und die Modellanpassungen erhaltenen Ergebnissen konnten, in Kombination mit weiteren Ergebnissen zur Strukturanalyse der Bauxite, Erkenntnisse über die Laugbarkeit verschiedener Aluminium- und Eisenminerale aus Bauxit gewonnen werden.
Zur Entwicklung eines möglichst nachhaltigen Säurelaugungsverfahrens wurde außerdem exemplarisch die Möglichkeit der Aufbereitung der nach dem Laugungsprozess anfallenden Säure getestet. Hier konnte gezeigt werden, dass durch Flüssig-Flüssig-Extraktion mehr als 99 % des in der Lösung vorliegenden Eisens extrahiert und die aufbereitete Säure anschließend wieder zur Laugung verwendet werden kann.
Der nachhaltige Grundwasserschutz erfordert ein Bewertungssystem, das Aussagen über den Ökosystemzustand zulässt. Folglich sollten, zusätzlich zu physikochemischen Analysen, auch faunistische und mikrobiologische Kriterien bei der Grundwasserbewertung berücksichtigt werden. Um die Anwendbarkeit und Eignung von Grundwasserorganismen für eine qualitative Grundwasserbewertung zu überprüfen, wurden zwischen 2002 und 2009 umfassende Untersuchungen verschiedener Grundwasservorkommen Deutschlands durchgeführt. Schwerpunkte waren die Überprüfung des Indikatorpotenzials von Grundwasserlebensgemeinschaften gegenüber Oberflächenwasser-Grundwasser-Interaktionen und anthropogener Belastungen sowie die Analyse stygofaunaler Verbreitungsmuster, als Basis und Referenz für ein faunistisches Bewertungssystem für Grundwasserlebensräume. Die Grundwasseruntersuchungen berücksichtigen lokale, regionale und biogeografische Verhältnisse. Um das Indikatorpotenzial der Grundwasserorganismen auf lokaler und regionaler Skala zu überprüfen, wurden Grundwassersysteme in Nordrhein-Westfalen (NRW) und Baden-Württemberg (BW) untersucht. Anhand der faunistischen und mikrobiologischen Daten aus quartären Lockergesteinsleitern im Erftgebiet (NRW) konnte die Sensibilität der Grundwasserorganismen gegenüber Landnutzungseffekten, z. B. extensive Landwirtschaft, aufgezeigt werden. Die Datenanalysen ergaben positive Korrelationen von organischem Material (geschätzter Detritus, TOC) und Nitrat mit der faunistischen Abundanz, Artenzahl und Diversität sowie dem Anteil grundwasserfremder Arten. Auch die bakterielle Abundanz und Diversität im Grundwasser des Erftgebiets war, verglichen mit oligotrophen Grundwassersystemen, hoch.
Die Grundwassergemeinschaften zeigen einen erhöhten Oberflächeneintrag ins Grundwasser an, der mit der starken landwirtschaftlichen Nutzung einhergeht. Die Besiedlung des Grundwassers im Alb-Donau-Kreis (BW) wurde auf regionale (Naturraum, Grundwasserleitertyp, Hydrogeologie) und lokale Effekte (Vergleich einzelner Messstellen) untersucht. Dabei reflektierte die Fauna die Stärke des hydrologischen Austauschs auf unterschiedlichen räumlichen Skalen und zeigte auch die Überlagerung regionaler und lokaler Effekte an. Demnach hatten die hohe Konnektivität der untersuchten Karst- und Lockergesteinssysteme, Landnutzung, abschirmende Deckschichten, unterschiedliches Grundwasseralter und Messstellentiefe Auswirkungen auf die Diversität und Abundanz der Gemeinschaften. Die Bakteriengemeinschaften reflektierten vor allem die Zugehörigkeit aller Messstellen zu einem Grundwassersystem. Insgesamt sind die faunistischen und mikrobiologischen Daten charakteristisch für oligotrophe, oligoalimonische Grundwässer. Die Untersuchung großräumiger Besiedlungsmuster der Grundwasserfauna ergab signifikante biogeografische Unterschiede. Die subterranen Besiedlungsmuster weichen deutlich von bestehenden Gliederungssystemen für oberirdische Landschaften oder Fließgewässerzönosen ab. Die größten Abweichungen zwischen den stygofaunalen Verbreitungsmustern und den oberirdischen Gliederungssystemen wurden vor allem in den eiszeitlich überprägten Gebieten Nord- und Süddeutschlands sowie in den Vorgebirgsregionen der zentralen Mittelgebirge beobachtet.
Anhand der erfassten Daten konnten vier Stygoregionen definiert werden, die deutlich unterschiedliche Faunengemeinschaften aufweisen: 1) das "Nördliche Tiefland", 2) die "Zentralen Mittelgebirge", 3) die "Südwestlichen Mittelgebirge" sowie 4) die "Südlichen Mittelgebirge und die Alpen". Die Ergebnisse zeigen die generelle Anwendbarkeit und Eignung der Stygofauna und der mikrobiellen Gemeinschaften für die qualitative Bewertung von Grundwasserökosystemen. Für die biologische Bewertung von Grundwassersystemen sind die faunistische Diversität, Abundanz und die Artenzusammensetzung, die Einteilung in stygobionte (obligate Grundwasserarten) und nicht-sytgobionte Arten sowie die bakterielle Abundanz geeignete Indikatoren für anthropogene Belastungen im Grundwasser. Die Entwicklung eines ökologisch orientierten Erfassungs- und Bewertungssystem für Grundwasserlebensräume ist unabdingbar für ein nachhaltiges Grundwassermanagement, welches den Erhalt unserer Grundwassersysteme und Trinkwasserversorgung gewährleistet. Die Definition von Stygoregionen ist ein entscheidender Schritt für die Entwicklung eines Bewertungs- und Referenzsystems für Grundwasserlebensräume. Die Bewertung des Ökosystemzustands von Grundwassersystemen muss jedoch auf lokaler Skala erfolgen, da die Zusammensetzung der Grundwassergemeinschaften durch die Stärke des lokalen hydrologischen Austauschs mit Oberflächensystemen geprägt ist. Von diesem hängt die Menge an verfügbarer Nahrung, Sauerstoff und konkurrierenden Oberflächenarten im Grundwasser abhängt. Zusätzlich sind Kenntnisse biogeografischer und regionaler Verhältnisse notwendig - als Referenz für das potenzielle Vorkommen von Arten und Abundanzen bestimmter Grundwassersysteme.