Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (469) (entfernen)
Sprache
- Englisch (245)
- Deutsch (222)
- Mehrsprachig (1)
- Spanisch (1)
Schlagworte
- Pestizid (8)
- Pflanzenschutzmittel (8)
- Führung (6)
- Inklusion (6)
- Grundwasserfauna (5)
- Landwirtschaft (5)
- Persönlichkeit (4)
- Software Engineering (4)
- Unterrichtsforschung (4)
- ecotoxicology (4)
Institut
- Fachbereich 7 (93)
- Fachbereich 8 (47)
- Institut für Informatik (33)
- Institut für Integrierte Naturwissenschaften, Abt. Biologie (29)
- Institut für Umweltwissenschaften (23)
- Institut für Integrierte Naturwissenschaften, Abt. Chemie (21)
- Fachbereich 5 (20)
- Institut für Computervisualistik (18)
- Institut für Wirtschafts- und Verwaltungsinformatik (13)
- Institut für Integrierte Naturwissenschaften, Abt. Physik (12)
Frühere Publikationen belegen die Bedeutung von Einleitungen aus Abwasserreinigungsanlagen für den Eintrag von organischen und anorganischen Chemikalien (=Mikroverunreinigungen) in die aquatische Umwelt. Von dort können diese Mikroverunreinigungen in das Grundwasser gelangen - und schließlich in das Trinkwasser - oder führen zu mannigfachen Auswirkungen in aquatischen Organismen, beispielsweise die Entwicklung multipler Resistenzen von Bakterien. Daher wird derzeit eine Erweiterung des Abwasserreinigungsprozesses diskutiert, um den Eintrag dieser Mikroverunreinigungen zu reduzieren.
Die vorliegende Arbeit setzte sich in diesem Zusammenhang zum Ziel ökotoxikologische Auswirkungen der Abwasserozonierung, als tertiäre Reinigungsstufe, anhand von speziell entwickelten Testverfahren unter Verwendung der Spezies Gammarus fossarum (Koch) auf verschiedenen Ebenen der ökologischen Komplexität zu untersuchen. Um dieses Ziel zu erreichen, wurden verschiedenste Studien unter Labor- sowie Halbfreilandbedingungen durchgeführt. Zunächst wurde die Sensitivität der Testspezies mittels einer vierwöchigen Exposition gegenüber sekundär behandeltem Abwasser der Abwasserreinigungsanlage (ARA) Wüeri, Schweiz, untersucht. Diese Untersuchung belegte statistisch signifikante Reduktionen der Fraßleistung, der Assimilation sowie physiologischer Endpunkte, welche Auswirkungen auf Reproduktion sowie Populationsentwicklung vermuten lassen. In einer weiteren Untersuchung wurde eine Fraßpräferenz von G. fossarum für Laubscheiben festgestellt, die in ozoniertem Abwasser konditioniert wurden, über solche, konditioniert in nicht ozoniertem (=sekundär behandeltem) Abwasser. Diese Präferenz scheint auf eine veränderte laubassoziierte mikrobielle Gemeinschaft zurückzuführen zu sein. Eine Reihe von Laboruntersuchungen belegte zudem eine statistisch signifikant erhöhte Fraßrate von G. fossarum, welche gegenüber ozoniertem Abwasser der ARA Wüeri - unabhängig davon, ob die Ozonierung auf der ARA selbst oder unter Laborbedingungen durchgeführt wurde - exponiert wurden, verglichen mit nicht ozoniertem Abwasser. Diese Experimente lassen zudem die Schlussfolgerung zu, dass die Veränderungen der organischen Matrix, welche durch die Anwendung der Ozonierung hervorgerufen werden, nicht für die erhöhte Fraßrate von Gammarus verantwortlich sind, da sich die mittlere Fraßrate nur geringfügig zwischen sekundär und ozonbehandeltem Abwasser, welches kaum Mikroverunreinigungen enthielt, unterschied. Auch konnte gezeigt werden, dass Veränderungen im Profil des gelösten organischen Kohlenstoffs (DOC) die Fraßrate nicht beeinflussen. Zudem untermauern in situ Expositionssysteme, welche direkt im Vorfluter Anwendung fanden, die Resultate der Laborstudien. Diese Experimente zeigten lediglich während der Einleitung von sekundär behandeltem Abwasser unterhalb der Einleitung der ARA signifikant reduzierte Fraßraten verglichen mit einer Kontrollstelle direkt oberhalb der Einleitung. Während der Einleitung von ozoniertem Abwasser sind, jedoch, keine Reduktionen in den Fraßraten feststellbar. Schließlich konnten auch Populationsstudien einen höheren Fraß, sowie eine höhere Populationsgröße von G. fossarum, bei einer Exposition gegenüber ozonbehandeltem Abwasser, verglichen mit sekundär behandeltem Abwasser belegen.
Zusammenfassend legt die vorliegende Arbeit dar, dass die Behandlung von Abwasser mit Ozon geeignet ist, durch die Reduktion von Mikroverunreinigungen, die Ökotoxizität zu reduzieren. Daher könnte diese Technologie helfen die Vorgaben der Wasserrahmenrichtlinie, auch unter den vorhergesagten Klimawandelszenarien, welche einen höheren Abwasseranteilen im Vorfluter während der Sommermonate vermuten lassen, einzuhalten. Jedoch werden durch die Anwendung von Ozon auch Nebenprodukte gebildet werden, welche eine höhere Ökotoxizität aufweisen als deren Muttersubstanzen. Daher sollte im Falle der Etablierung dieser Technologie ein weitergehendes chemisches und ökotoxikologisches Monitoring erfolgen.
Zahlreiche Untersuchungen weisen darauf hin, dass die Kombination von Texten und Bildern beim Wissenserwerb zu besseren Lern- und Behaltensleistungen führt, als wenn nur mit Texten gearbeitet wird. Dieser Multimediaeffekt ist häufig auch dann zu beobachten, wenn beispielsweise Schüler oder Studierende Bild und Text sequenziert lernen. Einige Arbeiten haben dabei gezeigt, dass die Reihenfolge, in der die beiden Formate verarbeitet werden, großen Einfluss auf den Wissenserwerb hat. Erfolgt die Präsentation des Bildes vor dem Text, gelingt es den Lernenden in der Regel mehr Fakten zu erinnern. Das Phänomen des picture-text-sequencing-Effekts wurde von zwei Forschern aufgegriffen und anhand alternativer Theoriemodelle auf unterschiedliche Weise erklärt. Während einer der Autoren kapazitätsspezifische Merkmale der mentalen Repräsentation des Bildes als Ursache ansieht, macht der andere Autor Interferenzen für den Einfluss der Verarbeitungsreihenfolge verantwortlich. Das Ziel der Arbeit war es daher, zu untersuchen, welcher der beiden Ansätze der Wahrheit am ehesten entspricht. Zu diesem Zweck wurde eine Studie durchgeführt, bei der Verarbeitungsreihenfolge und Informationverhältnis beim Lernen mit multiplen Repräsentationen experimentell variierte. Das Stimulusmaterial bestand aus Texten und Bildern zur Geodynamik, die in einer komplementären und einer kongruenten Version vorlagen. Anders als erwartet, zeigte sich jedoch kein eindeutiges Ergebnis, obwohl die Analyse der Lernzeiten letztlich gegen die Annahme eines besonderen Kapäzitätsvorteils sprach. Eine Anschlussuntersuchung erbrachte die Möglichkeit, Personen, die Texte und Bilder erhalten hatten, mit Teilnehmern zu vergleichen, die nur auf ein Format zurückgreifen konnten. Die Auswertungen ergab Unterschiede hinsichtlich der mentalen Belastung bei äquivalenten Leistungen im Wissenstest. Interpretiert wurden diese Resultate als Hinweis für das Auftreten von Interferenzen, die immer dann entstanden, wenn die Versuchspersonen das Bild nach dem Text lernten. In diesem Zusammenhang hatte die dritte und letzte Untersuchung den Zweck, weitere Belege für die Interferenzannahme zu finden. Anhand von Blickbewegungsparametern, die während des sequenzierten Lernens mit den Texten und Bildern erhoben worden waren, konnten jedoch keine Unterschiede festgestellt werden. Insgesamt ließ sich die Schlussfolgerung ziehen, dass hinsichtlich des sequenzierten Lernens mit Texten und Bildern weiterhin ein großer Spielraum für zusätzliche Forschungsarbeiten besteht.
Das Konstrukt der wahrgenommenen Kundendiskriminierung und seine Auswirkungen auf den Kunden sind trotz ihrer Bedeutung für den dauerhaften Erfolg von Dienstleistungsunternehmen bisher verhältnismäßig selten Gegenstand der betriebswirtschaftlichen Forschung gewesen. Existierende, zumeist sozialwissenschaftliche Untersuchungen aus den USA belegen zwar die Existenz von Diskriminierung in verschiedenen Dienstleistungskontexten, jedoch weist die bestehende Literatur einige Lücken auf. So liegen bisher primär qualitative und fallbasierte Arbeiten zu Kundendiskriminierung vor, die eine Verallgemeinerung der Befunde erschweren. Zudem geben solche Untersuchungen zwar Aufschluss über die Entstehung und die Wahrnehmung von Diskriminierung aus der Perspektive der Kunden, jedoch liefern sie dem Management von Dienstleistungsunternehmen keine hilfreichen Mittel zur Überprüfung der Existenz von Diskriminierung im Kundenkontakt des eigenen Unternehmens. Ein Mangel ist vor allem hinsichtlich der Messung von wahrgenommener Kundendiskriminierung sowie der Analyse ihrer Konsequenzen festzustellen. Ziel der vorliegenden Arbeit ist es, ein reflektives Instrument zur Messung von wahrgenommener Kundendiskriminierung zu entwickeln und zu validieren. Die vorliegende Arbeit entwickelt zunächst ein literaturbasiertes Verständnis von wahrgenommener Kundendiskriminierung, wobei von einer dreidimensionalen Konzeptualisierung des Konstrukts ausgegangen wird. Auf Basis dieser dreidimensionalen Konzeptualisierung wird in einer ersten Studie, mittels qualitativer und quantitativer Methoden, ein Instrument zur Messung von wahrgenommener Kundendiskriminierung mit den Dimensionen "offene Diskriminierung", "auf das Dienstleistungsniveau bezogene Diskriminierung" und "subtile Diskriminierung" entwickelt. Aufbauend auf dieser dreidimensionalen Konzeptualisierung von wahrgenommener Kundendiskriminierung werden wirkungsbezogene Hypothesen formuliert und zum Zweck der nomologischen Skalenvalidierung kausalanalytisch überprüft (Studie 1). Anschließend wird die prädiktive Validität der Skala mit einer weiteren Stichprobe überprüft und eine Extremgruppenvalidierung durchgeführt (Studie 2). Zur erneuten Bestätigung der Drei-Dimensionalität der Skala und der nomologischen Validität werden in einer weiteren Studie Dyaden aus Servicemitarbeitern und Kunden mittels Fragebogens befragt (Studie 3). Abschließend werden praxis- und forschungsbezogene Implikationen der Ergebnisse erörtert.
"Wer kann ich werden - Wer soll ich sein?" Selbstbildungsprozesse junger Menschen in der Jugendhilfe
(2011)
"Wer kann ich werden - Wer soll ich sein?" - Mit diesen beiden grundlegende Lebensfragen resümieren die beiden Jugendlichen, deren individuellen Verarbeitungsprozesse Gegenstand der Untersuchung sind, ihren (Selbst-)Bildungsprozess. Sie verweisen dabei auf ein wesentliches Ergebnis dieser Studie: Selbstbildungsprozesse formieren sich als einen aktiven Balanceakt der jungen Menschen zwischen individuellen Selbstkonstruktionen und Fragen der Sozialintegration. Der Blick wird dabei auf die prozesshafte Entwicklung der subjektiven Bildungsbemühungen gerichtet. Es handelt sich um ein ambivalentes Spannungsgefüge, welches sich darin ausdrückt, dass einerseits "von Außen (durch den Erzieher) geleitet" und andererseits "von Innen (durch den Jugendlichen) gesteuert" wird. Letztendlich haben jedoch viele Jahrhunderte von (praktischen) Erziehungsversuchen und vielfaches (theoretisches) Nachdenken über Erziehung und Bildung gezeigt, dass der Erfolg zum großen Teil von den jungen Menschen selbst abhängt. Damit rückt in der wissenschaftlichen Auseinandersetzung die Selbsttätigkeit des Menschen in den Fokus. Die Beschäftigung mit Prozessen der Selbstbildung stellt eine äußert komplexe Herausforderung dar. Sie läuft schnell Gefahr, dies unter normativen Aspekten zu diskutieren. In diesen Forschungszusammenhang soll der Blick explizit nicht auf die normativen Anteile des Themas gelenkt werden, sondern es ist vielmehr ein Ziel der Arbeit, empirische Befunde dazu zu erarbeiten und Kontextwissen zu generieren.rnDie Untersuchung thematisiert sowohl die Verbindungen zwischen Selbstdeutungskonstruktionen junger Menschen und Fremddeutungen relevanter Erwachsener, sowie die sich daraus entwickelten Muster der Lebensbewältigung der Jugendlichen. Im Mittelpunkt der Auseinandersetzung stehen die jungen Menschen und ihre Bildungsanstrengungen. Anhand ihrer Selbstkonstruktionen, in denen sie ihre relevanten Themen zum Ausdruck bringen und den Fremddeutungen der am Fall beteiligten Erwachsenen, wird der Frage nachgegangen, ob und wie die unterschiedlichen Deutungsfolien anschlussfähig sind und welchen Einfluss sie auf die jugendlichen Selbstbildungsprozesse nehmen. Durch die Rekonstruktion der Deutungs- und Konstruktionsmuster der unterschiedlichen Fallbeteiligten sollen sowohl praxis- wie auch forschungsrelevante Erkenntnisse über Selbstbildungsprozesse junger Menschen gewonnen werden, die im Verlauf ihrer Lebensgeschichten Adressaten der Jugendhilfe geworden sind. Ein solch komplexes Forschungsvorhaben gewinnt im Bezug auf die Diskurse zur adressatenbezogenen Jugendhilfe an Bedeutung, da es möglich wird, einen Einblick in Verarbeitungsmuster und Bewältigungsstrategien der Heranwachsenden zu gewinnen. Die vorliegende Arbeit nimmt die subjektiven Sinnzuschreibungen in den Blick, um darüber einen erkenntnisgeleiteten Zugang zu den Deutungs- und Konstruktionsmustern in ihren jeweiligen Sinnzusammenhängen zu erschließen. Gesamtgesellschaftliche Modernisierungs- und Wandlungsprozesse beeinflussen individuelle Lebensverläufe und damit auch subjektive Deutungen unterschiedlichster Lebensereignisse. Biographische Werdungsprozesse weichen von vermeintlichen "Normalbiographien" ab. Aufgabe pädagogischer Fachkräfte ist es, die selbstreflexiven Verarbeitungsprozesse junger Menschen zu begleiten und zu unterstützen. Von daher scheint es erforderlich, dass Fachkräfte ihre Kompetenzen zur Entschlüsselung individueller Bildungsbemühungen und zur Wahrnehmung biographischer Deutungskonzepte weiter entwickeln und schulen, um einen verstehenden Zugang zu den Wirklichkeitskonstruktionen junger Menschen zu gewinnen. Welche subjektive Bedeutung die Heranwachsenden den Einflüssen der Jugendhilfe zusprechen ist entscheidend für die Frage, inwieweit sie diese Erfahrungen als Unterstützung für ihre individuellen Bildungsprozesse begreifen. "Selbstbildungsprozesse junger Menschen in der Jugendhilfe" setzen sich mit der Frage auseinander, über welche Bewältigungsstrategien und Interaktionsmuster die Heranwachsenden verfügen. "Mit diesem Zugang wird der Blick auf die "Eigensinnigkeit" subjektiver Äußerungen in ihren biografisch verorteten und gesellschaftsrelevanten Bezügen gelegt." (Normann 2003, 10). Es geht also um die Rekonstruktion sozialer Wirklichkeitsbezüge aus der Sicht der jungen Menschen. Die Jugendlichen werden als aktiv Handelnde und als ExpertInnen ihrer Lebenswelt verstanden, die in der Interaktion mit Anderen die Balance zwischen sozialer Anpassungsleistung und Entwicklung ihres individuellen Lebenskonzeptes finden müssen. Subjektive Deutungs- und Konstruktionsprozesse sollen in diesem Kontext herausgearbeitet und dargestellt werden.
Die vorliegende Untersuchung beschäftigt sich zentral mit der Frage, in wieweit es möglich ist, durch eine transkranielle Elektrostimulation während des Schlafs bei Patienten mit idiopathischem Parkinsonsyndrom (IPS) auf die Schlafqualität bzw. auf den Prozess der Gedächtniskonsolidierung Einfluss zu nehmen. Ausgehend von der Überlegung, dass bei dieser neurologischen Erkrankung Defizite sowohl im Bereich der Schlafqualität als auch der kognitiven Leistungsfähigkeit beobachtet werden können, wurde die Möglichkeit untersucht, entsprechende, bei jungen gesunden Erwachsenen vorbekannte Stimulationseffekte auf IPS-Patienten zu übertragen. Die Intervention bestand aus einer transkraniellen "Slow-Oscillation-Stimulation". Zielvariablen waren die Schlafqualität, in erster Linie operationalisiert über den Anteil an Slow-Wave-Sleep und die kognitive Leistung, gemessen am Lernerfolg in verschiedenen Lernaufgaben. Zur Anwendung kam dabei sowohl visuell verbales als auch non-verbales Lernmaterial, wobei die Aufgaben hauptsächlich den Bereich des deklarativen Gedächtnisses berührten. Es zeigte sich jedoch, dass bekannte Stimulationseffekte weder bei IPS-Patienten, noch bei gleichaltrigen Gesunden nachweisbar sind und daher die prinzipielle Übertragbarkeit bestehender Ergebnisse in Frage gestellt werden muss. Die Gründe hierfür erscheinen vielfältig und werden an entsprechender Stelle diskutiert.
Folksonomien sind Web 2.0 Plattformen, in denen Benutzer verschiedene Inhalte miteinander teilen können. Die Inhalte können mit Hilfe von Stichwörtern, den sogenannten Tags, kategorisiert und organisiert werden. Die verschiedenen Folksonomien unterstützen unterschiedliche Inhaltstypen wie zum Beispiel Webseiten (Delicious), Bilder (Flickr) oder Videos (YouTube). Aufgrund ihrer einfachen Benutzungsweise haben Folksonomien viele Millionen Benutzer. Die einfache Benutzungsweise führt aber auch zu einigen Problemen. Diese Doktorarbeit beschäftigt sich mit drei der wichtigsten Probleme und beschreibt Methoden, wie sie gelöst werden können. Das erste dieser Probleme tritt auf, wenn Benutzer die Folksonomien nach bestimmten Inhalten durchsuchen wollen. Häufig können dabei nicht alle relevanten Inhalte gefunden werden, da diesen relevante Stichwörter fehlen. Dementsprechend tritt das zweite Problem während der Vergabe von Stichwörtern auf. Manche Folksonomien, wie zum Beispiel Delicious, unterstützen ihre Benutzer dabei, indem sie ihnen mögliche Stichwörter empfehlen. Andere Folksonomien, wie zum Beispiel Flickr, bieten keine solche Unterstützung. Die Empfehlung von Stichwörtern hilft dem Benutzer dabei, Inhalte auf einfache Art und Weise mit den jeweils relevanten Stichwörtern zu versehen. Das dritte Problem besteht darin, dass weder Stichwörter noch Inhalte mit einer festen Semantik versehen sind und mehrdeutig sein können. Das Problem entsteht dadurch, dass die Benutzer die Stichwörter vollkommen frei rnverwenden können. Die automatische Identifizierung der Semantik von Stichwörtern und Inhalten hilft dabei, die dadurch entstehenden Probleme zu reduzieren. Diese Doktorarbeit stellt mehrere Methoden vor, wie verschiedene Quellen für semantische Informationen benutzt werden können, um die vorher genannten drei Probleme zu lösen. In dieser Doktorarbeit benutzen wir als Quellen Internetsuchmaschinen, soziale Netzwerke im Internet und die gemeinsamen Vorkommen von Stichwörtern in Folksonomien. Die Verwendung der verschiedenen Quellen reduziert den Aufwand bei der Erstellung von Systemen, die die vorher genannten Probleme lösen. Die vorgestellten Methoden wurden auf einem großen Datensatz evaluiert. Die erzielten Ergebnisse legen nahe, dass semantische Informationen bei der Lösung der Probleme helfen, die während der Suche von Inhalten, der Empfehlung von Stichwörtern als auch der automatischen Identifizierung der Semantik von Stichwörtern und Inhalten auftreten.
The semantic web and model-driven engineering are changing the enterprise computing paradigm. By introducing technologies like ontologies, metadata and logic, the semantic web improves drastically how companies manage knowledge. In counterpart, model-driven engineering relies on the principle of using models to provide abstraction, enabling developers to concentrate on the system functionality rather than on technical platforms. The next enterprise computing era will rely on the synergy between both technologies. On the one side, ontology technologies organize system knowledge in conceptual domains according to its meaning. It addresses enterprise computing needs by identifying, abstracting and rationalizing commonalities, and checking for inconsistencies across system specifications. On the other side, model-driven engineering is closing the gap among business requirements, designs and executables by using domain-specific languages with custom-built syntax and semantics. In this scenario, the research question that arises is: What are the scientific and technical results around ontology technologies that can be used in model-driven engineering and vice versa? The objective is to analyze approaches available in the literature that involve both ontologies and model-driven engineering. Therefore, we conduct a literature review that resulted in a feature model for classifying state-of-the-art approaches. The results show that the usage of ontologies and model-driven engineering together have multiple purposes: validation, visual notation, expressiveness and interoperability. While approaches involving both paradigms exist, an integrated approach for UML class-based modeling and ontology modeling is lacking so far. Therefore, we investigate the techniques and languages for designing integrated models. The objective is to provide an approach to support the design of integrated solutions. Thus, we develop a conceptual framework involving the structure and the notations of a solution to represent and query software artifacts using a combination of ontologies and class-based modeling. As proof of concept, we have implemented our approach as a set of open source plug-ins -- the TwoUse Toolkit. The hypothesis is that a combination of both paradigms yields improvements in both fields, ontology engineering and model-driven engineering. For MDE, we investigate the impact of using features of the Web Ontology Language in software modeling. The results are patterns and guidelines for designing ontology-based information systems and for supporting software engineers in modeling software. The results include alternative ways of describing classes and objects and querying software models and metamodels. Applications show improvements on changeability and extensibility. In the ontology engineering domain, we investigate the application of techniques used in model-driven engineering to fill the abstraction gap between ontology specification languages and programming languages. The objective is to provide a model-driven platform for supporting activities in the ontology engineering life cycle. Therefore, we study the development of core ontologies in our department, namely the core ontology for multimedia (COMM) and the multimedia metadata ontology. The results are domain-specific languages that allow ontology engineers to abstract from implementation issues and concentrate on the ontology engineering task. It results in increasing productivity by filling the gap between domain models and source code.
Die vorliegende Arbeit gliedert sich im Wesentlichen in vier Bereiche. Sie gibt einen Überblick über die aktuellen Entwicklungen einer Pädagogik für Menschen mit Förderbedarf im Bereich ihrer geistigen Entwicklung und versucht eine Fokussierung von paradigmatischen Entwicklungen hin zu einer inklusiven Bildung mit dem Anspruch einer angemessenen Qualitätssicherung des Bildungsangebotes. Nach der Einleitung und einer allgemeinen theoretischen Verortung der Fragestellung werden im zweiten Kapitel begrifflichen Grundlagen gelegt sowie das Konzept einer inklusiven Bildung und der selbstbestimmten Teilhabe an allen gesellschaftlichen Prozessen einschließlich des theoretischen Modells des Empowerments hergeleitet. Das dritte Kapitel befasst sich mit aktuellen Aspekten curricularer Entwicklungen für Schüler mit Förderbedarf im Bereich ihrer geistigen Entwicklung einschließlich der Diskussion von möglichen input-orientierten Bildungsstandards in der Sonderpädagogik. Im vierten Kapitel werden Grundlagen der Organisationsentwicklung und des Qualitätsmanagements für Förderzentren erläutert sowie Evaluationsmöglichkeiten dargestellt und für die unmittelbare Praxisanwendung realisiert.
Response-Shift bezeichnet eine Veränderung des Bewertungshintergrunds für subjektive Konzepte wie bspw. der gesundheitsbezogenen Lebensqualität (GLQ) im Rahmen der Auseinandersetzung mit einer schweren bzw. chronischen Erkrankung. Krebserkrankungen werden als Auslöser eines Response-Shifts angesehen. Response-Shift kann in drei verschiedenen Formen auftreten: Als Rekalibrierung, Reprioritisierung und Neukonzeptualisierung der GLQ. Eine Erfassung dieser drei Response-Shift-Prozesse bei einer homogenen Stichprobe von PCa-Patienten in der onkologischen Rehabilitation liegt in Deutschland bisher nicht vor. Es wurden von insgesamt 212 Prostatakrebspatienten (PCa-Patienten) in der Anschlussheilbehandlung Daten zur GLQ mittels des EORTC-QLQ-C30 vor Beginn der Maßnahme sowie 3 Monate nach Beginn erhoben und in die Auswertung zur Response-Shift-Erfassung aufgenommen. Die Prozesse Rekalibrierung, Reprioritisierung und Neukonzeptualisierung wurden mit Hilfe der konfirmatorischen Faktorenanalyse (KFA) erfasst. Eine Rekalibrierung läßt sich auf der Ebene der Messfehler und Intercepts überprüfen. Die Reprioritisierung und Neukonzeptualisierung kann anhand der Veränderung der Faktorladungen untersucht werden. Bei dem Vorgehen handelt es sich um einen Ansatz aus der Invarianzmessung von Variablen und Parametern im Längsschnitt. In der vorliegenden Arbeit wurde untersucht, ob in der Gesamtstichprobe ein Response-Shift auftritt, und falls ja, in welcher Form (Fragestellung 1). Weiterhin sollte anhand von Subgruppenanalysen (Medianisierung) geprüft werden, welchen Einfluss einerseits das Ausmaß der Veränderung der globalen Lebensqualität (Fragestellung 2) und andererseits die Variablen Benefit-Finding, Selbstwirksamkeit sowie Positive und Negative Affektivität (Fragestellung 3) auf einen Response-Shift haben. Es konnte ein Basismodell der GLQ zu zwei Messzeitpunkten bei den PCa-Patienten identifiziert werden, dass als geeignet bezeichnet wurde, um einen Response Shift in der vorliegenden Stichprobe zu untersuchen (ï£2/df = 1.50, RMSEA = 0.05, CFI = 0.98, TLI = 0.97). Ein so genanntes Nullmodell, in dem alle Response-Shift relevanten Parameter für beide Messzeitpunkte als gleich angenommen wurde, wies eine inakzeptable Modellpassung auf (ï£2/df = 5.30, RMSEA = 0.14, CFI = 0.76, TLI = 0.71). Über die Ableitung geschachtelter Modellvergleiche konnte ausgehend von dem Nullmodell ein Response-Shift-Modell berechnet werden, dass wiederum eine gute Passung aufwies (ï£2/df= 1.31, RMSEA = 0.04, CFI = 0.99, TLI = 0.98). In der vorliegenden Gesamtstichprobe wurden Rekalibrierungsprozesse auf den Skalen Physische, Kognitive und Rollenfunktionsfähigkeit identifiziert, die sich auf die Kalkulation der beobachteten Effekte auf Skalenebene auswirkten. Es konnte gezeigt werden, dass Response Shift einen erheblichen Einfluss auf die beobachteten Effekten auf Skalenebene hat (Fragestellung 1). So schätzen PCa-Patienten ihre Physische und Rollenfunktionsfähigkeit zum 2. Messzeitpunkt positiver ein, ohne dass dies auf Veränderungen der GLQ zurückgeführt werden kann. Unabhängig von der Veränderung der GLQ zwischen den Messzeitpunkten schätzen die Patienten ihre Kognitive Funktionsfähigkeit zum Postmesszeitpunkt negativer ein als zur ersten Messung. In den Subgruppenanalysen zeigt sich, dass das Ausmaß der Veränderung der globalen Lebensqualität einen Einfluss auf die Anzahl von Response-Shift-Prozessen hat. Dies gilt ebenso für die Variablen Benefit-Finding, Selbstwirksamkeit und Positive Affektivität. Jedoch lassen sich Unterschiede im Ausmaß von Response-Shift-Effekten zwischen verschiedenen Subgruppen nicht eindeutig nachweisen (Fragestellung 2 und 3). Response Shift sollte bei Untersuchungen der GLQ bei Krebserkrankungen mehr Berücksichtigung finden. Das setzt jedoch voraus, dass die Methoden zur Erfassung des Phänomens weiterentwickelt werden. Mit der hier eingesetzt Methode der KFA im Längsschnitt steht ein geeignetes Verfahren zur Verfügung, das Response-Shift bei einfachen Prä-Post-Messungen erfassen kann. Praktisch relevant erscheint das Ergebnis der Arbeit im Zusammenhang mit der Überprüfung der Wirksamkeit von Maßnahmen der onkologischen Rehabilitation. Werden zur Evaluation Skalen eingesetzt, die response-shift-beeinflusst sind, darf nicht ohne Weiteres auf eine Veränderung des zugrundeliegenden Konstrukts geschlussfolgert werden. In der vorliegenden Arbeit würde die Veränderung der GLQ anhand der Veränderung der manifesten Werte der Skalen Physische und Rollenfunktionsfähigkeit eher überschätzt. Anhand der Skala Kognitive Funktionsfähigkeit würden Veränderungen der GLQ jedoch eher unterschätzt. Somit bietet sich der KFA-Ansatz an, um die Änderungssensitivität von Lebensqualitätsinstrumenten zu prüfen und diese entsprechend weiter zu entwickeln. Außerdem bietet die Methode Möglichkeiten, um inhaltliche Einflussfaktoren auf einen Response-Shift zu prüfen.
Die Arbeit geht von der grundlegenden Annahme aus, dass spezifische kulturelle Bedingungen psychopathologische Effekte haben können, die interpersonale Gewalt begünstigen. Ziel der Studie war die Klärung der Frage, ob die Häufigkeit von Tötungsdelikten (abhängige Variable) mit bestimmten Einstellungen, Überzeugungen, Werthaltungen und Ausprägungen auf kulturellen Merkmalsdimensionen zusammenhängt. Um diese Frage zu klären, wurden unabhängige Variablen ausgewählt, von denen sechs sich auf die Wichtigkeit von Religion (Religiosität), Kontroll- und Machtorientierung (Omnipotenz), die kategorische Unterscheidung von Gut und Böse (Absolutismus), Nationalstolz (Nationalismus), Akzeptanz von Wettbewerb (Wettbewerbsorientierung) und Befürwortung von Autorität und Strafe (Autoritarismus) beziehen. Die zur Messung dieser Variablen relevanten Daten wurden dem World Values Survey entnommen. Für zwei weitere Kulturdimensionen, Kollektivismus und Machtdistanz, wurden die Ergebnisse der Studien von Hofstede verwendet. Als neunte unabhängige Variable diente das Bruttonationaleinkommen. Mittels multipler Imputation wurden die 7% fehlender Messwerte durch Schätzwerte ergänzt, so dass die Daten von 82 Staaten für die Analysen zur Verfügung standen.rnErgebnisse: Eine schrittweise multiple Regression ergab für Omnipotenz (β = .44, P < .01) und Bruttonationaleinkommen (ß = -.27, P < .01) die stärksten Regressionseffekte auf die Tötungsrate als abhängige Variable. Die neun unabhängigen Variablen luden auf zwei Faktoren, soziökonomischer Entwicklungsstand (SED) und psychokultureller Faktor (Psy-Cul), die negativ korreliert waren (-.47). Psy-Cul wurde als Indikator für Narzismus und als Mediator des Effekts von SED auf Tötungsrate interpretiert. Hierarchische Clusteranalysen auf der Basis der beiden Faktoren ergaben eine klare Unterscheidung zwischen drei Gruppen von Nationen: westliche Nationen, Entwicklungsnationen und postkommunistische Nationen.
Die Beschreibung des Verhaltens eines Multi-Agenten-Systems (MAS) ist eine fordernde Aufgabe, besonders dann, wenn es in sicherheitskritischen Umgebungen eingesetzt werden soll. Denn in solchen Umgebungen muss die Beschreibung besonders sorgfältig ausgeführt werden um Seiteneffekte zu vermeiden, die ungewünschte oder sogar zerstörerische Folgen haben könnten. Deshalb sind formale Methoden nützlich, die auf mathematischen Modellen des zu entwerfenden Systems basieren. Sie erlauben es nicht nur das System formal auf verschiedenen Abstraktionsebenen zu spezifizieren, sondern auch seine Konsistenz noch vor der Implementierung zu verifizieren. Das Ziel der formalen Spezifikation ist eine präzise und eindeutige Beschreibung des Verhaltens des Multi-Agenten-Systems, während die Verifikation darauf abzielt, geforderte Eigenschaften dieses Systems zu beweisen. Üblicherweise wird das Verhalten eines Agenten als diskrete Änderung seines Zustands im Bezug auf externe oder interne Aktionen aufgefasst. Jedes mal, wenn eine Aktion auftritt, ändert sich der Zustand des Agenten. Deshalb sind Zustandsübergangsdiagramme bzw. endliche Automaten ein naheliegender Ansatz das Verhalten zu modellieren. Ein weiterer Vorteil einer solchen Beschreibung ist, dass sie sich für das sogenannte Model Checking eignet. Dabei handelt es sich um eine automatische Analysetechnik, die bestimmt, ob das Modell des Systems spezifizierten Eigenschaften genügt. Allerdings muss in realistischen, physikalischen Umgebungen neben dem diskreten auch das kontinuierliche Verhalten des Multi-Agenten-Systems betrachtet werden. Dabei könnte es sich beispielsweise um die Schussbewegung eines Fußballspieler-Agenten, den Prozess des Löschens durch einen Feuerwehr-Agenten oder jedes andere Verhalten handeln, das auf zeitlichen physikalischen Gesetzen basiert. Die üblichen Zustandsübergangsdiagramme sind nicht ausreichend, um diese beiden Verhaltensarten zu kombinieren. Hybride Automaten stellen jedoch eine elegante Lösung dar. Im Wesentlichen erweitern sie die üblichen Zustandsübergangsdiagramme durch Methoden, die sich mit kontinuierlichen Aktionen befassen. Die Zustandsübergänge modellieren weiterhin die diskreten Verhaltenswechsel, während Differentialgleichungen verwendet werden um das kontinuierliche Verhalten zu beschreiben. Besonders geeignet erscheinen Hybride Automaten, weil ihre formale Semantik die Verifikation durch Model Checking erlaubt. Deshalb ist das Hauptziel dieser Arbeit, Hybride Automaten für die Modellierung und die Verifikation des Verhaltens von Multi-Agenten-Systemen einzusetzen. Jedoch bringt ihr Einsatz mehrere Probleme mit sich, die betrachtet werden sollten. Zu diesen Problemfeldern zählen Komplexität, Modularität und die Aussagestärke der Modelle. Diese Arbeit befasst sich mit diesen Problemen und liefert mögliche Lösungen.
Die Umbruchphase in der beruflichen Erstausbildung - unter besonderer Berücksichtigung der Berufsschulen - zeigt Wirkung auf schulische, didaktische und pädagogische Konzeptionen. Die kaum noch überschaubaren technologischen, ingenieur- und naturwissenschaftlichen Entwicklungen der letzten Jahrzehnte haben die Inhalte einer gewerblich-technischen Ausbildung, aber auch die zunehmenden Anforderungen an die fachliche, methodische, emotionale und persönliche Kompetenz radikal verändert und werden sich weiterhin verändern. Wenn auch die Berufausbildung durch die Entwicklung neuer Berufsbilder und angepasster Lehrpläne versucht darauf zu reagieren, geht es in erster Linie doch um ein neues Lernverständnis. Vorbei sind die Zeiten, in denen das einmal erworbene berufliche Können lebenslang vorhält. Vor-dringlicher denn je fordert der rasante technologische Veränderungsprozess eine lebenslange Lernkompetenz. Mittlerweile reicht in den meisten Fällen die Bereitschaft allein nicht mehr aus, sich aus eigenem Antrieb neue Kompetenzen während der beruflichen Tätigkeit anzueignen, die Lerner müssen auch dazu befähigt sein. Unverkennbar zeigt sich in der Berufsschule als Folge davon eine deutliche Hinwendung zu offenen Lernformen. Daraus lässt sich schließen, dass bisherige Konzepte den Erwerb von anspruchsvollen Handlungs- und Lernkompetenzen nicht erfüllen können. Es stellt sich die Frage, inwieweit der Projektunterricht als Unterrichtskonzept in der Lage ist, neben der Vermittlung der erforderlichen neuen Handlungskompetenzen, auch die Bereitschaft der Lernenden zu wecken, eigenverantwortlich und selbstständig lebensbegleitend zu lernen und sich weiter zu qualifizieren. Sich auf Projektunterricht einzulassen, kann durchaus als Wagnis nicht nur hinsichtlich des Verlaufes als auch des Ergebnisses gesehen werden. Eine treffende Umschreibung bieten DE BIE/LOUWERSE (1977, 211): "Es kann nicht genug betont werden, daß Projektunterricht größere Anstrengungen, mehr Einsatz, mehr Disziplin und eine größere Frustrationstoleranz erfordert als der traditionelle Unterricht. Im Projektunterricht gibt es kein festes System und keinen Dozenten, der die Vorbereitung und die Durchführung übernimmt, und man kann daher auch nicht die Mängel auf sie projizieren oder Frustrationen auf sie abwälzen. Projektunterricht stellt größere Anforderungen als der traditionelle Unterricht; deshalb erfordert er auch "reifere" Teilnehmer - sowohl was die Studenten wie die Dozenten betrifft. - Mit der Aufarbeitung des Projektunterrichts in einer gewerblichen Berufsschule in Form einer Fallstudie greift der Autor ein zentrales betriebs- und berufspädagogisches Thema auf. Er gliedert seine Fallstudie in sechs Kapitel. Nach der allgemeinen Betrachtung des Lernens richtet sich sein Fokus im ersten Abschnitt auf die Anforderungen in der heutigen Zeit und vor allem auf das in der Berufsschule gemäß Lehrplan geforderte Konzept der Handlungskompetenz. Die beiden folgenden Kapitel beschäftigen sich mit dem Projektunterricht. In Teil zwei werden zunächst die Grundlagen herausgearbeitet und über den historischen Rückblick auf die Inhalts- und Berührungspunkte dieser Lernart hingewiesen. Die Problematik angesichts der zahlreichen Projektautoren mit ihren unterschiedlichen Standpunkten wird bei der Begriffsklärung nur zu deutlich. Darauf aufbauend erfolgt in Kapitel drei die Beleuchtung des Projektunterrichts als didaktisches Modell. FLECHSIGS Konzeption didaktischer Modelle zeigt auf, dass der Projektunterricht wesentlich zur individuellen Förderung der Persönlichkeit beiträgt und beispielhaft eine Fülle von Lernmöglichkeiten für Schüler und Lehrer bietet. Teil vier beinhaltet das Konzept der Fallstudie zum "projektorientierten Unterricht". Projekt "Lampe" ist als Beitrag zur Verbesserung der Unterrichtsqualität im Rahmen der Schulentwicklung an der Berufsschule zu verstehen. Der Verfasser verfolgt mit dem Projekt "Lampe" zweierlei: Zum einen sollen die bisher vereinzelt gemachten Erfahrungen mit selbstständigen Lernprozessen gebündelt und in eine komplexe Aufgabe transferiert werden, andererseits erstrebt er, den Anforderungen an den klassischen Projektunterricht so nah wie möglich zu kommen. Die Untersuchung wird geleitet von folgender Hauptthese: "Volljährige Schüler, die in einer eigenen Lehrwerkstatt mit hauptberuflichen Ausbildern ihren Beruf erlernen, den Abschluss der "Mittleren Reife" mitbringen, überdurchschnittliche Leistungen im Rahmen der Ausbildung nachweisen können, stehen offenen Lehr- und Lernformen (in diesem Fall dem Projektlernen) positiv gegenüber." Der Autor erhob die für die empirische Auswertung maßgeblichen Informationen in Teil fünf über ein von jedem Schüler anonym am Ende jeder Projektwoche auszufüllendes Meinungsbarometer. Gegenstand der Auswertung war die gesamte Population. Die Fallstudie weist folgende Vorgehensweise auf: Die zentralen Fragestellungen mündeten in das Meinungsbarometer. Die darin enthaltenen Fragebogenkategorien wurden mit der Faktorenanalyse auf ihre Zusammensetzung hin überprüft und aufgrund des Ergebnisses für die Auswertung neu gruppiert. Über die Korrelationsprüfung der Fragebogenkomponenten traten die Zusammenhänge zwischen dem Fragebogen und den in den zentralen Fragestellungen genannten Items hervor. rnAbschließend erfolgte die Untersuchung der korrelierenden Variablen unter Einbezug der Schulbildung mit der Varianzanalyse und die Bewertung der Hauptthese. Die umfangreichen Daten der Ergebnisse erhalten trotz der hohen Informationsdichte durch die Darstellung in Tabellen, Polygonzügen und Histogrammen ein hohes Maß an Anschaulichkeit. Teil sechs bietet einen Ausblick auf die zukünftige Gestaltung des Projekts "Lampe".
Investigating the environmental fate of iodinated X-ray contrast media in the urban water cycle
(2010)
Iodinated X-ray contrast media (ICM) are a group of emerging contaminants which have been detected at elevated concentrations in the aquatic environment. These compounds are excreted unmetabolized into hospital wastewater, and eventually treated at wastewater treatment plants (WWTPs). The removal of ICM in WWTPs has not been very effective and therefore the ICM enter the aquatic environment via WWTP effluent discharges. Research has investigated the removal of selected ICM via abiotic and biotic processes, however limited work has attempted to determine the fate of these compounds once released into the environment. This thesis investigates the biotransformation of four selected ICM (diatrizoate, iohexol, iomeprol, and iopamidol) in aerobic soil-water and sediment-water systems as well as in different environmental matrices. Iohexol, iomeprol and iopamidol were biotransformed to several TPs in the aerobic batch systems, while no biotransformation was observed for the ionic ICM, diatrizoate. In total 34 biotransformation products (TPs) of the three non-ionic ICM were identified. The combination of semi-preparative HPLC-UV, hybrid triple quadrupole-linear ion trap mass spectrometry (Qq-LIT-MS) was found to be an accurate approach for the structural elucidation of ICM TPs. The ICM TPs resulted in microbial transformation occurring at the side chains of the parent ICM, with the iodinated aromatic ring unmodified.
This dissertation provides an interdisciplinary contribution to the project ReGLaN-Health & Logistics. ReGLaN-Health & Logistics, is an international cooperation deriving benefits from the capabilities of scientists working on different fields. The aim of the project is the development of a socalled SDSS that supports decision makers working within health systems with a special focus on rural areas. In this dissertation, one important component for the development of the DSS named EWARS is proposed and described in detail. This component called SPATTB is developed with the intention of dealing with spatial data, i.e. data with additional geocoded information with regard to the special requirements of the EWARS.rnrnAn important component in the process of developing the EWARS is the concept of GIS. Classically, geocoded information with a vectorial character numerically describing spatial phenomena is managed and processed in a GIS. For the development of the EWARS, the manageability of the type of data exemplarily given by (x,y,o) with coordinates x,y ) and Ozon-concentration o is not sufficient. It is described, that the manageable data has to be extended to data of type (x,y,f ), where (x,y) are the geocoded information, but where f is not only a numerical value but a functional description of a certain phenomenom. An example for the existence and appearance of that type of data is the geocoded information about the variation of the Ozon-concentration in time or depending on temperature. A knowledge-base as important subsystem of DSS containing expert knowledge is mentioned. This expert-knowledge can be made manageable when using methods from the field of fuzzy logic. Thereby mappings, socalled fuzzy-sets, are generated. Within the EWARS, these mappings will be used with respect to additional geocoded data. The knowledge about the geocoded mapping information only at a finite set of locations (x,y) associated with mapping information f is not sufficient in applications that need continuous statements in a certain geographical area. To provide a contribution towards solving this problem, methods from the field of computer geometry and CAD, so-called Bezier-methods, are used for interpolating this geocoded mapping information. Classically, these methods operates on vectors a the multidimensional vector-space whose elements contain real-valued components but in terms of dealing with mapping information, there has to be an extension on topological vector spaces since mapping spaces can be defined as such spaces. This builds a new perspective and possibility in the application of these methods. Therefore, the according algorithms have to be extended; this work is presented. The field of Artificial Neural Networks plays an important role for the processing and management of the data within the EWARS, where features of biological processes and structures are modeled and implemented as algorithms. Generally, the developed methods can be divided as usable in terms of interpolation or approximation functional coherences and in such being applicable to classification problems. In this dissertation one method from each type is regarded in more detailed. Thereby, the classical algorithms of the so-called Backpropagation-Networks for approximation and the Kohonen-Networks for classification are described. Within the thesis, an extension of these algorithms is then proposed using coherences from mathematical measure-theory and approximation theory. The mentioned extension of these algorithms is based on a preprocessing of the mapping data using integration methods from measure theory.
Diese Arbeit untersucht die Biozönosen kontaminierter schlammig-schluffiger Sedimente in Stillwasserzonen großer Flüsse. Diese feinkörnigen und weichgründigen Sedimente beherbergen Lebensgemeinschaften, die zu einem großen Teil als Meiozoobenthos angesprochen werden und im Vergleich zu den Makrozoobenthos-Biozönosen grobkörniger und hartgründiger Fließgewässer und den Meiobenthos-Biozönosen der Küsten-, Tiden- und Ästuarbereiche bisher nur unzulänglich untersucht worden sind. Da die feinkörnigen Sedimente eine große Kapazität zur Schadstoffbindung haben, sind sie generell von großem ökotoxikologischen und wasserbaulichen Interesse. Ziele der Arbeit: (1) Entwicklung einer quantitativen Methode zur Bestandserfassung. (2) Untersuchung der lokalen und saisonalen Dynamik der benthischen Metazoen- Biozönose in Schluffsedimenten. (3) Ermittlung der Einflüsse chemischer und physikalischer Sedimenteigenschaftenrnauf die Biozönosen. (4) Beschreibung der Resilienz der Benthos-Biozönosen schluffiger Sedimente; Einfluss katastrophaler Ereignisse.
Moderne Instant-Messaging-Systeme als Plattform für sicherheitskritische kollaborative Anwendungen
(2010)
Während unter dem Begriff Instant Messaging (IM) ursprünglich nur der Austausch von Textnachrichten (Messaging, Chat) verstanden wurde, bieten heutige Instant-Messaging-Systeme (IM-Systeme, IMS) darüber hinaus viele weitere Funktionen wie Sprachtelefonie, Videokonferenz oder Dateiübertragung an. Aktuelle IM-Systeme werden vor allem in der privaten unverbindlichen Kommunikation eingesetzt. Diese Systeme eignen sich " wie in dieser Arbeit gezeigt wird " aber auch für den Einsatz im geschäftlichen Kontext. Zu den Vorzügen, die sich aus der Nutzung eines IM-Systems ergeben, gehören beispielsweise die spontane, flexible und kostengünstige Nutzung unabhängig von Ort und Zeit, die einfache Verteilung von Informationen an mehrere Teilnehmer und die Verfügbarkeit verschiedener Kommunikationskanäle für unterschiedliche Aufgaben. Der Ursprung dieser Systeme (kurzer informeller Nachrichtenaustausch), ihr modularer Aufbau, die unkontrollierte Installation auf Clients sowie der daraus entstehende Informationsfluss führten zu zahlreichen Fragen und Herausforderungen bezüglich ihrer Sicherheit. So kann beispielsweise nicht ohne weiteres kontrolliert werden, welche Informationen ein Unternehmen auf diesem Weg verlassen. Anders als bei anderen elektronischen Kommunikationsmedien (E-Mail, Web) sind hier noch keine bekannten Sicherheitsmechanismen etabliert (z. B. Spam-Filter, Sicherheitsfunktionen von Webbrowsern). Diese Fragestellungen sind zu betrachten und durch geeignete Maßnahmen zu beantworten, wenn solche Systeme für die Arbeit mit sensiblen und vertraulichen Informationen eingesetzt werden sollen. Ziel der hier vorgestellten Arbeit ist es, Instant-Messaging-Systeme so zu gestalten, dass durch die Konzeption (bzw. Erweiterung) von geeigneten Sicherheitsmechanismen einerseits die einfache und spontane Nutzung der Systeme möglich bleibt und andererseits trotzdem eine sichere, authentifizierte und verbindliche Kollaboration unterstützt wird.
Mathematisches Modellieren bezeichnet die verschiedenen Prozesse, die Menschen durchlaufen, wenn sie versuchen, reale Probleme mathematisch zu lösen oder Textaufgaben zu bearbeiten. In der Literatur werden im sogenannten Modellierungszyklus fünf aufeinanderfolgende Teilprozesse genannt, die den Ablauf des Problemlöseprozesses beschreiben (Blum, 2003). Beim Strukturieren wird zunächst eine Problemsituation im kognitionspsychologischen Sinne verstanden, die wesentlichen Merkmale werden abstrahiert um dann im zweiten Schritt (Mathematisieren) in ein mathematisches Modell (bestehend aus Gleichungen, Symbolen, Operatoren, Ziffern etc.) übersetzt zu werden. Beim Verarbeiten dieses mathematischen Modells mithilfe mathematischen Wissens wird das Problem innermathematisch gelöst, woraufhin das Ergebnis im vierten Schritt (Interpretieren) rückübertragen wird auf die ursprüngliche Problemsituation. Die dort aufgeworfene Frage wird beim Interpretieren beantwortet. Der letzte Schritt (Validieren) sieht eine Überprüfung des gesamten Problemlöseprozesses vor: Kommt der Modellierer zu dem Schluss, dass sein Ergebnis eventuell nicht korrekt bzw. nicht optimal ist, wird der Modellierungszyklus von vorne durchlaufen. Der Modellierungszyklus dient dabei sowohl als deskriptives als auch als präskriptives (normatives) Modell, da er einerseits beschreibt, wie Modellieren abläuft und andererseits vorschreibt, wie Schüler z.B. beim Lösen von mathematischen Textaufgaben vorgehen sollen. Dennoch liegen für beide Zielsetzungen keine empirischen Studien vor, die belegen könnten, dass der Modellierungszyklus sich tatsächlich als deskriptives oder als präskriptives Modell eignet. In der vorliegenden Arbeit konnte die Eignung als deskriptives Modell nur mit Einschränkungen bestätigt werden. So zeigte sich z.B. in einer Voruntersuchung, dass das Stadium Validieren bei Schülern der Klassenstufe 4 nicht zu beobachten ist und dass der Ablauf der Stadien deutlich von der vorgegebenen Reihenfolge abweichen kann. Eine revidierte Version des Modellierungszyklus als rekursives Modell wird daher vorgeschlagen. In einer zweiten, größeren Untersuchung wurde die Eignung als normatives Modell untersucht, indem die vier Stadien Strukturieren, Mathematisieren, Verarbeiten und Interpretieren isoliert voneinander erfasst wurden, wofür zuvor eigens Items konstruiert worden waren. Die vier Unterskalen wurden an mehreren Kriterien - darunter die Fähigkeit zum Lösen kompletter Modellierungsaufgaben - validiert, was den normativen Charakter des Modells bestätigt. Um Modellierungskompetenz frühzeitig diagnostizieren und dementsprechend fördern zu können, ist die Entwicklung von Methoden angezeigt, die vier Teilkompetenzen Strukturieren, Mathematisieren, Verarbeiten und Interpretieren bereits im Grundschulalter unabhängig voneinander objektiv, reliabel und valide zu erfassen. Mit der Entwicklung und Analyse von Items zu den vier Teilbereichen wurde hierfür mit der vorliegenden Arbeit ebenfalls eine Grundlage geschaffen.
In dieser Studie sollte hinsichtlich der Entwicklung eines faunistisch begründeten Monitoringkonzeptes für hydrologische Interaktionen untersucht werden, inwieweit die Meiofauna in Hyporheal und Grundwasser in der Lage ist, Oberflächenwasser-Grundwasser-Interaktionen zu reflektieren und die hydrologischen Verhältnisse einer Uferfiltrationsanlage aufzuzeigen. Dafür wurden hydrochemische und faunistische Analysen bezüglich ihrer Aussagekraft miteinander verglichen. Außerdem wurde die Anwendbarkeit des Grundwasser-Fauna-Index (GFI) zur Beurteilung der Stärke des Oberflächenwassereinflusses auf unterirdisches Wasser überprüft. Für die Untersuchung wurde die Uferfiltrationsanlage Flehe der Stadtwerke Düsseldorf ausgewählt, auf deren Gelände 70 vertikale Entnahmebrunnen über eine Strecke von 1,4 km eine Brunnengalerie bilden, die im Jahr insgesamt 11 Mio. m3 Wasser fördert. Am Untersuchungsstandort wurden insgesamt 15 Observationspegel von Februar 2005 bis Januar 2006 faunistisch und hydrochemisch beprobt. Die physikochemische Untersuchung ergab eine Aufteilung des Untersuchungsgebietes in vier Zonen. Neben dem Oberflächenwasser des Rheins [OW Rhein] konnten das Uferfiltrationswasser zwischen Rhein und den Entnahmebrunnen [Hyporheal], alluviales Grundwasser hinter der Brunnengalerie [Alluv. GW] und bei größerer Entfernung zum Rhein landseitiges Grundwasser [landseitiges GW] differenziert werden. Dabei wies der Rhein die typische Charakteristik eines Fließgewässers auf, gekennzeichnet durch eine große Temperaturamplitude mit einem Sommermaximum, hohen Sauerstoffkonzentrationen mit einem Wintermaximum und erhöhten AOX-, DOC- und SAK254nm-Werten. Am Uferfiltrat der Gruppe [Hyporheal] wurde die Wirksamkeit der mikrobiellen Abbauprozesse während der Uferfiltration mit deutlichen Reduzierungen der DOC- und SAK- und Sauerstoffkonzentrationen ersichtlich. Die Gruppe [Alluv. GW] und verstärkt das [landseitige GW] waren durch eine höhere elektrische Leitfähigkeit und erhöhten Bor- und Sulfatkonzentrationen sowie z. T. geringen Sauerstoffgehalten gekennzeichnet. Anhand dieser hydrochemischen Differenzen konnte die unterschiedliche Herkunft des Wassers im Untersuchungsgebiet ermittelt werden Die faunistischen Untersuchungen zeigten ein differenzierteres Bild von den hydrologischen Verhältnissen als die Hydrochemie. Insgesamt konnten fünf ökologische Gruppen ermittelt werden. Die Gruppe [Hyporheal 1] der A-Pegelreihe wies als einzige euryöke Arten auf, die einen stärkeren Oberflächenwassereinfluss anzeigten. Im [Hyporheal 2] der B-Pegelreihe konnte eine artenreiche ökotonale Fauna nachgewiesen werden, während die Proben des alluvialen Grundwassers der C-Pegelreihe [Alluv. GW (Pumpe)] den Einfluss der Entnahmebrunnen reflektierten. In den Pegeln des alluvialen Grundwassers [Alluv. GW] wurde aufgrund der geringeren Beeinflussung der Pumpen artenreichere Zoozönosen vorgefunden. Das [landseitige GW] wies schließlich eine arten- und abundanzarme Fauna auf, die charakteristisch ist für Grundwasser mit geringem Oberflächenwassereinfluss. Folglich konnte die Fauna nicht nur die Herkunft des Grundwassers anzeigen, sondern auch den Einfluss und die Intensität des Oberflächenwassers auf das Grundwasser sowie anthropogene Störungen wie eine verstärkte Kolmation bzw. die Effekte der Wasserentnahme durch die Brunnen. Die Meiofauna im Grundwasserleiter der Uferfiltrationsanlage dürfte somit als Indikator für hydrologische Verhältnisse gut geeignet sein. Der Grundwasser-Fauna-Index konnte als der wichtigste Faktor aller physikochemischen Parameter ermittelt werden, der die faunistischen Gruppen am stärksten beeinflusst. Außerdem war der GFI in der Lage, die Auswirkung und Intensität des Einflusses von Oberflächenwasser auf die einzelnen Probestandorte anzuzeigen. Die hier dargestellten Ergebnisse zeigen, dass die Grundwasserfauna und der GFI viel versprechende Methoden zur Bewertung der hydrologischen Verhältnisse, insbesondere des Einflusses von Oberflächenwasser auf das Grundwasser sind. Daher sind sie als Ergänzung zur hydrochemischen Analyse zu empfehlen und können auch einen wichtigen Beitrag für die Vulnerabilitätsabschätzung leisten.
Ziel der vorliegenden Arbeit war die Darstellung floristisch-pflanzensoziologischer Abhängigkeiten sommergrüner grundwasserferner Laubwaldgesellschaften vom Naturraumpotenzial im Laacher Kuppenland als Grundlage für die Bewertung der naturräumlichen Zuordnung. An Anfang stand eine Vorstellung des Untersuchungsgebietes, indem die derzeit gültige Gliederung des Naturraumes, die geologischen Verhältnisse, Oberflächenformen und Formungsprozesse sowie Klima dargestellt wurden. Hieran schloss sich die vegetationskundlich-standörtliche Charakterisierung der Waldgesellschaften – Hainsimsen-Buchenwald (Luzulo-Fagetum), Hainsimsen-(Habichtskraut)- Traubeneichenwald (Luzulo luzuloides-Quercetum petraeae), Waldmeister-Buchenwald (Galio-Fagetum), Waldlabkraut-Eichen-Hainbuchenwald (Galio sylvatici-Carpinetum betuli), Eschen-Ahorn-Steinschuttschatthangwald (Fraxino-Aceretum pseudoplatani) und verschiedenartige Trauben-Eichen-Bestände – an. Den Beschreibungen lagen zahlreiche Vegetationsaufnahmen zu Grunde, die eine auf standörtlichen Unterschieden beruhende Differenzierung der Gesellschaften möglich machten. Die Waldtypen zeigten ein abgestuftes Maß an Natürlichkeit. Den naturnächsten Charakter - und daher das standörtliche Potenzial am besten anzeigend – wiesen die Rot-Buchen-dominierten Laubwaldgesellschaften sowie einige Eschen-Ahorn-Steinschuttschatthangwälder auf. Nutzungsbedingt naturferner waren Hainsimsen-(Habichtskraut)- Traubeneichenwald und Waldlabkraut-Eichen-Hainbuchenwald. Forstwirtschaftliche Ersatzgesellschaften von Buchenwaldgesellschaften waren im Untersuchungsgebiet verschiedenartige Trauben-Eichen-Bestände. Auf Grundlage der Untersuchungsergebnisse sowie einer Literaturauswertung erfolgte eine Bewertung des Anschlusses des Laacher Kuppenlandes an eine Gruppe von naturräumlichen Haupteinheiten. Sowohl das floristische als auch das vegetationskundliche Inventar untermauerten die These, dass das Laacher Vulkanbergland als Teilgebiet des Mittelrheinischen Becken zu betrachten ist. Abschließend wurden Betrachtungen zu Biodiversität und Naturschutz vorgenommen. Als deren Fazit wurde vorgeschlagen, einen Nationalpark einzurichten, um zum Erhalt und zur Förderung der Artenvielfalt beizutragen und um der internationalen Verantwortung Deutschlands für Buchenwaldökosysteme nachzukommen.
Software is vital for modern society. The efficient development of correct and reliable software is of ever-growing importance. An important technique to achieve this goal is deductive program verification: the construction of logical proofs that programs are correct. In this thesis, we address three important challenges for deductive verification on its way to a wider deployment in the industry: 1. verification of thread-based concurrent programs 2. correctness management of verification systems 3. change management in the verification process. These are consistently brought up by practitioners when applying otherwise mature verification systems. The three challenges correspond to the three parts of this thesis (not counting the introductory first part, providing technical background on the KeY verification approach). In the first part, we define a novel program logic for specifying correctness properties of object-oriented programs with unbounded thread-based concurrency. We also present a calculus for the above logic, which allows verifying actual Java programs. The calculus is based on symbolic execution resulting in its good understandability for the user. We describe the implementation of the calculus in the KeY verification system and present a case study. In the second part, we provide a first systematic survey and appraisal of factors involved in reliability of formal reasoning. We elucidate the potential and limitations of self-application of formal methods in this area and give recommendations based on our experience in design and operation of verification systems. In the third part, we show how the technique of similarity-based proof reuse can be applied to the problems of industrial verification life cycle. We address issues (e.g., coping with changes in the proof system) that are important in verification practice, but have been neglected by research so far.