Dissertation
Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (224) (entfernen)
Sprache
- Deutsch (224) (entfernen)
Schlagworte
- Führung (6)
- Inklusion (6)
- Grundwasserfauna (5)
- Modellierung (4)
- Arbeitszufriedenheit (3)
- Biomechanik (3)
- Dialog (3)
- Grundwasser (3)
- Inhaltsanalyse (3)
- Integration (3)
Institut
- Fachbereich 8 (27)
- Fachbereich 7 (20)
- Fachbereich 5 (19)
- Institut für Integrierte Naturwissenschaften, Abt. Chemie (13)
- Institut für Pädagogik, Abteilung Pädagogik (12)
- Institut für Computervisualistik (9)
- Institut für Erziehungswissenschaft (9)
- Arbeitsbereich Biopsychologie, Klinische Psychologie und Psychotherapie (7)
- Fachbereich 6 (7)
- Institut für Germanistik (7)
Seit der Bologna-Reform wird von Bund und Ländern eine kontinuierliche Verbesserung der Qualität des Unterrichts in der Schule, die häufig mit der Professionalisierung der zukünftigen Lehrer und der Lehramtsausbildung verbunden wird, angestrebt. Die Qualität des Unterrichts wird mit der Professionalisierung der angehenden Lehrer und der Lehramtsausbildung verbunden. In den meisten Studien zur Qualitätsverbesserung erfolgt die Betrachtung überwiegend aus universitärer Sicht und selten auf das Unterrichtsfach Sport bezogen. An diesen beiden Punkten knüpft die qualitative Studie an und führt zu der zentralen Fragestellung: Bestehen Unterschiede in den Sichtweisen von Lehrenden und Lernenden zur Professionalisierung von Sportlehrkräften zu den einzelnen Ausbildungsphasen in Rheinland-Pfalz?
Mithilfe von 101 Leitfadeninterviews und der Auswertung nach der Grounded Theory kann diese Ausgangsfrage gezielt beantwortet werden. Befragt werden Lehrende der Universitäten, der staatlichen Studienseminare und der Schule sowie Lernende, dazu zählen Referendare/innen sowie Studierende. Im Verlauf der Studie kristallisiert sich in allen Personengruppen einheitlich der „fehlende Schulbezug“ als Schlüsselelement (Kernkategorie) in der ersten und zweiten Ausbildungsphase heraus. Die Interviewten, die verschiedenen Schulformen angehören, geben diesbezüglich konkrete, sportspezifische und teilweise fächerübergreifende Optimierungsvorschläge. Ein Schwerpunkt bildet dabei, frühzeitig den Bezug zum Schulalltag herzustellen und gleichzeitig Unterrichtserfahrungen mit schulischen Lerngruppen zu sammeln, um ihre unterschiedlichen motorischen Fähigkeiten und Fertigkeiten kennenzulernen. Die Verbesserungsansätze betreffen die universitäre Phase und die Ausbildungszeit in den Studienseminaren und Schulen, wobei die Beteiligten eine intensivere Vernetzung der einzelnen Institutionen für nötig erachten. An einer gemeinsamen, kontinuierlichen Zusammenarbeit zur Professionalisierung in der Sportlerausbildung und somit der Optimierung der Sportlehrerausbildung ist allen Beteiligten gelegen.
Die Umsetzung einer flexiblen Integration von Informationen aus verteilten und komplexen Informationssystemen stellt Unternehmen aktuell vor große Herausforderungen. Das im Rahmen dieser Dissertation entwickelte Ontologie-basierte Informationsintegrationskonzept SoNBO (Social Network of Business Objects) adressiert diese Herausforderungen. Bei einem Ontologie-basierten Konzept werden die Daten in den zu integrierenden Quellsystemen (z. B. betriebliche Anwendungssysteme) mithilfe eines Schemas (= Ontologie) beschrieben. Die Ontologie in Verbindung mit den Daten aus den Quellsystemen ergibt dann einen (virtualisierten oder materialisierten) Knowledge Graph, welcher für den Informationszugriff verwendet wird. Durch den Einsatz eines Schemas ist dieses flexibel auf die sich ändernden Bedürfnisse des Unternehmens bezüglich einer Informationsintegration anpassbar. SoNBO unterscheidet sich von existierenden Konzepten aus dem Semantic Web (OBDA = Ontology-based Data Access, EKG = Enterprise Knowledge Graph) sowohl im Aufbau der unternehmensspezifischen Ontologie (= Social Network of Concepts) als auch im Aufbau des nutzerspezifischen Knowledge Graphen (= Social Network of Business Objects) unter der Verwendung von sozialen Prinzipien (bekannt aus Enterprise Social Software). Aufbauend auf diesem SoNBO-Konzept wird das im Rahmen dieser Dissertation entwickelte SoNBO-Framework (nach Design Science Research) zur Einführung von SoNBO in einem beliebigen Unternehmen und die aus der Evaluation (im Unternehmen KOSMOS Verlag) gewonnenen Erkenntnisse vorgestellt. Die Ergebnisse (SoNBO-Konzept und SoNBO-Framework) basieren auf der Synthese der Erkenntnisse zu Ontologie-basierter Informationsintegration aus dem Status quo in Praxis und Wissenschaft: Für den Status quo in der Praxis wird mithilfe einer Tiefenfallstudie (Ingenieurbüro Vössing) die grundlegende Idee zu SoNBO in Form einer vom Fallstudienunternehmen entwickelten und dort seit Jahren eingesetzten Individualsoftware analysiert. Für den Status quo in der Wissenschaft wird das Ergebnis einer im Rahmen der Dissertation durchgeführten strukturierten Literaturanalyse zu Ontologie-basierten Informationsintegrationsansätzen präsentiert. Diese Dissertation liefert damit einen Beitrag sowohl für die Wissenschaft (Erkenntnisgewinn im Bereich der Ontologie-basierten Informationsintegrationsansätze für die Wirtschaftsinformatik u. a. durch die Entwicklung eines evaluierten Artefaktes) als auch für die Praxis (Schaffung eines evaluierten Artefaktes).
Identifizierung und Quantifizierung von Mikroplastik mittels quantitativer ¹H-NMR Spektroskopie
(2021)
Plastik und damit einhergehend auch Mikroplastik (MP) ist mittlerweile global präsent und stellt ein zunehmend signifikantes Problem für die Umwelt dar. Um die Verbreitung und Aus¬wirkung von MP im Ansatz zu verstehen, ist es wichtig, MP über einen weitreichenden Größenbereich zu identifizieren und zu quantifizieren sowie eine Vergleichbarkeit von Studien zu gewährleisten. Jedoch besteht noch großer Forschungsbedarf auf dem Gebiet der größenunabhängigen, quantitativen Analyse von MP in Umweltproben, besonders im Hinblick auf die massenbasierte MP-Konzentrationsangabe. Daher wird in dieser Dissertation die quantitative ¹H-NMR Spektroskopie (qNMR) als eine alternative Methode für die MP-Analyse etabliert. Bei der qNMR-Methode handelt es sich um eine schnelle, größenunabhängige, massenbasierte Methode, welche als alternative MP-Analytik angewendet werden kann und Potential zur Routineanalytik aufweist. Am Beispiel von LDPE, PET und PS erfolgte der Konzeptnachweis (Kapitel 2). Zusätzlich wurden PVC, PA und ABS Partikel getestet, um die wichtigsten Polymertypen für die MP-Analyse abzudecken (Kapitel 3). Am Beispiel von PET, PVC und PS wurde überprüft, ob die qNMR-Methode auch auf die kosteneffektivere NoD-Methode übertragbar ist (Kapitel 4). Die Ergebnisse der Validierung beider Methoden (1D und NoD) zeigen, dass die Quantifizierung von MP-Partikeln mittels qNMR nicht nur prinzipiell möglich ist, sondern auch eine hohe Richtigkeit (88.0 - 110 %) aufweist und die Nachweisgrenzen (1 - 84 µg) im umweltrelevanten Bereich liegen. Weiterhin wurde überprüft, ob sich nicht nur Hochfeld-Geräte für die MP-Analyse eignen, sondern auch niedrigauflösende Benchtop-Geräte, welche in Anschaffung und Unterhalt wesentlich kosteneffektiver sind. Durch Erhöhung der Messzeit von auf ca. 30 min für PET und PS und auf ca. 140 min für PVC konnte die geringere Messfrequenz ausgeglichen werden (Kapitel 4). Um die Frage möglicher Matrixeffekte von Umweltproben zu behandeln, wurden darüber hinaus eben solche Matrixeffekte sowie Wiederfindungsraten von PET-Fasern bei Anwendung einer speziell für die qNMR-Methode optimierten Probenvorbereitung in Gegenwart von Modellmatrices bestimmt (Kapitel 5). Es konnte gezeigt werden, dass die Umweltmatrices die quantitative Analyse nicht stören und die speziell für die qNMR Analytik entwickelte Probenvorbereitung, mit Wiederfindungsraten von > 80% für die unterschiedlichen Umweltmatrices, angewendet werden kann (Kapitel 5). Über erste orientierende Untersuchungen zur simultanen Bestimmung mehrerer Polymerarten in einer Probe wird abschließend berichtet (Kapitel 6).
Außerschulische Lernorte und deren Wirksamkeit im Kontext von BNE-Bildungsmaßnahmen wurden bislang wenig untersucht. Mithilfe einer mehrstufi-gen Analyse identifiziert die vorliegende Studie außerschulische Lernorte mit Be-zug zum BNE-Bildungskonzept im Untersuchungsraum Rheinland-Pfalz. Dazu wurden zunächst mittels qualitativer Literaturanalysen BNE-Kriterien generiert, die als methodisches Instrument in Form einer BNE-Checkliste für außerschulische Lernorte operationalisiert wurden. Die auf diesem Wege gewonnenen Daten liefern die Grundlage für die Erstellung einer geografisch orientierten Lernortdatenbank mit BNE-Bezug. Eine kartografische Visualisierung der Daten ergibt ein räumliches Verteilungsmuster: So zeigen sich mit BNE-Lernorten gut versorgte Landkreise und kreisfreie Städte, aber auch regelrechte BNE-Lernort-Wüsten, an denen Nachhol-bedarf besteht. Des Weiteren zeigt sich eine Häufung von BNE-Lernorten in wald-nahen Gebieten.
Zur Frage, wie die außerschulische BNE im Bundesland Rheinland-Pfalz imple-mentiert wurde, inwiefern Optimierungsbedarf besteht und welche fortsetzenden Maßnahmen im Rahmen der Agenda 2030 für die außerschulische BNE getroffen werden, liefert ein leitfadenbasiertes exploratives Interview mit zwei BNE-Experten zusätzliche Erkenntnisse.
Weiterführend wurde mit 1358 Schülerinnen und Schülern an 30 außerschuli-schen Lernorten nach Teilnahme an einer Bildungsmaßnahme eine quantitative Fragebogenstudie durchgeführt, bei der auch das Umweltbewusstsein, Einstellun-gen zum Umweltverhalten und das Lernen vor Ort betrachtet wurden. Durch ein Miteinbeziehen von Nicht-BNE-Lernorten wurde eine Vergleichsstudie zur Wirk-samkeit von BNE-Lernorten möglich. Die statistische Datenauswertung führt zu ei-ner Vielzahl an interessanten Ergebnissen. Kontraintuitiv zeigt sich beispielsweise die Art des Lernorts (BNE- oder Nicht-BNE-Lernort) als nicht signifikanter Prädiktor für das Umweltbewusstsein und Umweltverhalten der befragten Schüler, wohinge-gen Kommunikationsstrukturen innerhalb von Bildungsmaßnahmen an außerschu-lischen Lernorten, die Multimedialität und Handlungsorientierung sowie die Dauer von Bildungsmaßnahmen einen signifikanten Einfluss ausüben.
Schlüsselwörter: Außerschulische Lernorte, Bildung für nachhaltige Entwicklung (BNE), BNE-Kriterien, Lernortlandschaft Rheinland-Pfalz, BNE-Lernorte, Umwelt-bewusstsein, Umweltverhalten.
Internationale Bildungsstudien (TIMSS und PISA) offenbarten, dass es deutschen Schülern nur begrenzt gelingt, ihr erworbenes Wissen im Physikunterricht zur Problemlösung in neuen Kontexten zu nutzen. Als Grund nennen die Studien die gering ausgeprägte Kompetenz-erwartung in Bezug zum Fach Physik. Die Folge ist eine geringe Motivation der Lernenden, physikalische Aufgaben zu lösen. Studien zeigen aber auch, dass die Motivation beim Lernen durch den Einsatz digitaler Lernmedien gesteigert werden konnte. Aus diesem Grund wird in dieser Arbeit untersucht, ob das Vertrauen in die eigenen Fähigkeiten durch das Lernen in einer integrierten Lernumgebung gefördert werden kann. Im Rahmen eines Design-Based-Research-Forschungsansatzes (DBR) wurde eine integrierte Lernumgebung „Wärmelehre“ mit digitalen Lernmedien für den Physikunterricht gestaltet, die dann in zwei Schulformen (IGS und Gymnasium) innerhalb einer quasi-experimentellen Feldstudie erprobt wurde. Im 1. Zyklus des DBR wurden die Wirkungen des selbstständigen Lernens mit digitalen/analogen Medien in Einzelarbeit untersucht. Die Ergebnisse der Wissenstests zeigen einen höheren Lernerfolg bei den Lernenden der Experimentalgruppen, der sich aber nicht signifikant von den Lernenden der Kontrollgruppen (analoge Medien) unterscheidet. Die Lernenden konnten sich in der integrierten Lernumgebung mit Unterstützung beider Medienformate selbstständig Fachwissen aneignen und problembasierte Textaufgaben lösen. Die Ergebnisse der Befragungen der Lernenden zeigen, dass sich die Lerngruppen signifikant in ihrem erlebten Grad der Selbststeuerung unterscheiden. Die Lernenden beider Experimentalgruppen bewerten ihren Handlungsspielraum besser als die Lernenden der beiden Kontrollgruppen. Ebenfalls konnte festgestellt werden, dass sich die individuellen Lernvoraussetzungen, der Lernstiltyp, das Kompetenzerleben und die Aspekte der Medien-gestaltung wechselseitig beeinflussen und auf den Lernerfolg wirken. Die Ergebnisse der Lernstilanalyse zeigen, dass sich selbst kleine Lerngruppen heterogen zusammensetzen. Demnach scheint es für einen guten Lernerfolg notwendig zu sein, dass die Lehrenden, die Lernumgebung an die individuellen Lernpräferenzen der Lernenden der Lerngruppe anpassen. Aus den Ergebnissen lässt sich als Konsequenz für den Physikunterricht ableiten, dass Selbstlernphasen mit digitalen Lernmedien regelmäßig in den Unterricht integriert werden sollten, um die Problemlöse- und die Selbststeuerungskompetenz zu fördern. Es ist von Vorteil, wenn die Lehrenden für die Gestaltung einer Lernumgebung, das Vorwissen, die individuellen Lernvoraussetzungen und die Zusammensetzung der Lerngruppe (Lernstiltyp) als Qualitätsdimensionen erfassen. Im Re-Design werden Vorschläge unterbreitet, wie die integrierte Lernumgebung lernstilgerecht weiterentwickelt werden kann. Im 2. Zyklus soll dann erforscht werden, ob sich Unterschiede im Lernerfolg und in den untersuchten Aspekten zeigen, wenn die Lernenden in Einzelarbeit, in Partnerarbeit oder in ihrer Lernstilgruppe selbstgesteuert lernen, um die Lernumgebung zyklisch weiterzuentwickeln.
Obwohl Kinder beim Bauen mit Bauklötzen bereits früh Erfahrungen mit Aspekten der Stabilität von Bauwerken, wie z. B. Kräfteverteilung, Standfestigkeit sowie Gleich- und Gegengewicht, sammeln und es verschiedene Studien gibt, die den fächerübergreifenden Lerngehalt von Bauklötzen hervorheben, ist das Verständnis bezüglich der Stabilität von Bauklotzanordnungen bisher kaum erforscht. Daher wurde untersucht, welche Vorstellungen sechs- bis siebenjährige Kinder zur Stabilität von Bauklotzanordnungen zeigen und welche Unterstützungsmaßnahmen eine Vorstellungsveränderung anregen. In Studie 1 und 2 zeigt sich, dass Kinder in der Schuleingangsphase erste Vorstellungen zur Stabilität von Bauklotzanordnungen haben. Über verschiedene Analysen wurden schwierigkeitsbestimmende Merkmale bzw. lösungsrelevante Dimensionen identifiziert. Kinder mit ca. fünf Jahren orientieren sich eher an der geometrischen Mitte und beziehen somit die Abstandsdimension ein, bei Neunjährigen berücksichtigen hingegen knapp über die Hälfte bereits den Massenmittelpunkt. Folglich reicht die „Bauerfahrung“ von Kindern bis zum neunten Lebensjahr nicht aus, um die Fähigkeit, Bauklotzanordnungen bezüglich ihrer Stabilität zu beurteilen, vollständig zu entwickeln. Deshalb wurde in Studie 3 untersucht, inwieweit sich eine Vorstellungsveränderung zur Stabilität von Bauklotzanordnungen mithilfe verschiedener Unterstützungsmaßnahmen innerhalb einer kurzen Lerneinheit anregen lässt. Dabei wurden verschiedene materiale und verbale Unterstützungsmaßnahmen in Form von Fotos und gezielten sprachlichen Instruktionen in einem systematischen Vergleich gegenübergestellt. Die Ergebnisse weisen nach, dass bereits mit einer kurzen Lerneinheit ein Wissenszuwachs bei Siebenjährigen angeregt werden kann, insbesondere wenn sie durch Fotos und gezielte sprachliche Instruktionen unterstützt werden. Die Ergebnisse sind ein erster Schritt für die Entwicklung eines naturwissenschaftlichen Unterrichts zur Stabilität von Bauklotzanordnungen.
Das Hauptziel der vorliegenden Arbeit ist die Absicherung der Qualität eines pharmazeutischen Produktionsprozesses durch die Überprüfung des Volumens mikroskopischer Polymerstäbchen mit einem hochgenauen 3D Messverfahren. Die Polymerstäbchen werden für pharmazeutische Anwendungen hergestellt. Aus Gründen der Qualitätssicherung muss das Istgewicht überprüft werden. Derzeit werden die Polymerstäbchen stichprobenartig mit einer hochpräzisen Waage gewogen. Für die nächste Generation von Polymeren wird angenommen, dass die Produktabmessungen weiter reduziert werden sollen und die Produktionstoleranzen auf 2,5% gesenkt werden. Die daraus resultierenden Genauigkeitsanforderungen übersteigen jedoch die Möglichkeiten der Wiegetechnik. Bei homogenen Materialien ist die Masse proportional zum Volumen. Aus diesem Grund kommt dessen Bestimmung als Alternative in Frage. Dies verschafft Zugang zu optischen Messverfahren und deren Flexibilität und Genauigkeitpotenzial. Für den Entwurf eines auf die Fragestellung angepassten Messkonzeptes sind weiterhin von Bedeutung, dass das Objekt kontaktlos, mit einer Taktzeit von maximal fünf Sekunden vermessen und das Volumen approximiert wird. Die Querschnitte der Polymerstäbchen sind etwa kreisförmig. Aufgrund der Herstellung der Fragmente kann nicht davon ausgegangen werden, dass die Anlageflächen orthogonal zur Symmetrieachse des Objektes sind. Daher muss analysiert werden, wie sich kleine Abweichungen von kreisförmigen Querschnitten sowie die nicht idealen Anlageflächen auswirken. Die maximale Standardabweichung für das Volumen, die nicht überschritten werden sollte, beträgt 2,5%. Dies entspricht einer maximalen Abweichung der Querschnittsfläche um 1106 µm² (Fehlerfortpfanzung). Als Bewertungskriterium wird der Korrelationskoeffzient zwischen den gemessenen Volumina und den Massen bestimmt. Ein ideales Ergebnis wäre 100%. Die Messung zielt auf einen Koeffzienten von 98% ab. Um dies zu erreichen, ist ein präzises Messverfahren für Volumen erforderlich. Basierend auf dem aktuellen Stand der Technik können die vorhandenen optischen Messverfahren nicht verwendet werden. Das Polymerstäbchen wird von einer Kamera im Durchlicht beobachtet. Daher sind der Durchmesser und die Länge sichtbar. Das Objekt wird mittels einer mechanischen Vorrichtung um die Längsachse gedreht. So können Bilder von allen Seiten aufgenommen werden. Der Durchmesser und die Länge werden mit der Bildverarbeitung berechnet. Das neue Konzept vereint die Vorteile der Verfahren: Es ist unempfindlich gegen Farb-/Helligkeitsänderungen und die Bilder können in beliebiger Anzahl aufgenommen werden. Außerdem sind die Erfassung und Auswertung wesentlich schneller. Es wird ein Entwurf und die Umsetzung einer Lösung zur hochpräzisen Volumenmessung von Polymerstäbchen mit optischer Messtechnik und Bildverarbeitung ausgearbeitet. Diese spezielle Prozesslösung in der Prozesslinie (inline) sollte eine 100%ige Qualitätskontrolle während der Produktion garantieren. Die Zykluszeiten des Systems sollte fünf Sekunden pro Polymerstäbchen nicht überschreiten. Die Rahmenbedienungen für den Prozess sind durch die Materialeigenschaften des Objekts, die geringe Objektgröße (Breite = 199 µm, Länge = 935 µm bis 1683 µm) und die undeffinierte Querschnittsform (durch den Trocknungsprozess) vorgegeben. Darüber hinaus sollten die Kosten für den Prozess nicht zu hoch sein. Der Messaufbau sollte klein sein und ohne Sicherheitsvorkehrungen oder Abschirmungen arbeiten. Das entstandene System nimmt die Objekte in verschiedenen Winkelschritten auf, wertet mit Hilfe der Bildverarbeitung die Aufnahmen aus und approximiert das Volumen. Der Korrelationskoffizient zwischen Volumen und Gewicht beträgt für 77 Polymerstäbchen mit einem Gewicht von 37 µg bis 80 µg 99; 87%. Mit Hilfe eines Referenzsystems kann die Genauigkeit der Messung bestimmt werden. Die Standardabweichung sollte maximal 2,5% betragen. Das entstandene System erzielt eine maximale Volumenabweichung von 1,7%. Die Volumenvermessung erfüllt alle Anforderungen und kann somit als Alternative für die Waage verwendet werden.
Perfluorcarbonsäuren (PFCA) sind Substanzen anthropogenen Ursprungs und werden seit mehreren Jahrzehnten verwendet. In der Literatur werden diese Verbindungen als eine neue Klasse von Umweltschadstoffen beschrieben. Ihre hohe thermische Stabilität, Oberflächenaktivität, Amphipathizität und schwache intermolekulare Wechselwirkungen führen zur Persistenz dieser organisch-chemischen Verbindungen und zur Bioakkumulation. Um diese Stoffgruppe sicher nachzuweisen, müssen zuverlässige analytische Methoden eingesetzt werden. GC-MS stellt eine kostengünstige Alternative und Ergänzung zu etablierten LC-MS/MS Methoden dar. Um jedoch die GC-MS erfolgreich einsetzen zu können, müssen die PFCA derivatisiert werden. Viele der bisher veröffentlichten Derivatisierungsreaktionen für PFCA, sind zeitaufwändig und erfordern hohe Reaktionstemperaturen und/oder toxische Reagenzien.
In der vorliegenden Dissertation wurden zwei neue Derivatisierungsreaktionen methodologisch entwickelt und optimiert. Der erste Teil der Arbeit beschreibt die Entwicklung und Optimierung der Derivatisierung mit Triethylsilanol in Wasser. Zusätzlich zur Reaktionsoptimierung, wurde die klassische Festphasenextraktion modifiziert, um die Probenvorbereitung zu vereinfachen.
Im zweiten Teil der Arbeit, wurden die Reaktionsprodukte von Perfluoroktansäure (PFOA) mit Dimethylformamid-dimethylacetal (DMF-DMA) und –diethylacetal (DMF-DEA) identifiziert. Zu diesem Zweck, wurden verschiedene massenspektrometrische Techniken angewandt. Anhand der Messergebnisse konnte gezeigt werden, dass sowohl DMF-DMA als auch DMF-DEA in Gegenwart von PFOA ein Iminium-Kation bildet, was zur Salzbildung führt. Dieses PFOA-Salz reagiert im GC-Injektor weiter zu einem entsprechenden Amin.
Abschließend, im letzten Teil der Arbeit, wurden reale Proben mit der neu entwickelten Methode auf Basis der DMF-DMA Reaktion analysiert. Die Matrixeffekte wurden ausführlich beschrieben. Die Methode wurde erfolgreich für drei Arten von Proben verwendet: Zahnseide, Textilien und Klärschlamm. Die Ergebnisse wurden mittels LC-MS/MS in einem externen Labor verifiziert. Die Unterschiede zwischen den PFCA-Werten, für eine aufgestockte Probe, wurden mittels GC-MS und LC-MS/MS gemessen und waren kleiner als 10 %.
Eine zutreffende Diagnose über den aktuellen Kenntnisstand der jeweiligen Schülerinnen und Schüler ist notwendig, um adäquat in Gruppenarbeitsprozesse intervenieren zu können. Von diesem Zusammenhang wird in der Literatur weit-gehend ausgegangen, jedoch gibt es bisher kaum empirische Studien, die diesen belegen. Die vorliegende Arbeit widmet sich schwerpunktmäßig dem Interventi-onsverhalten von Studierenden. Dabei wird die prozessdiagnostische Fähigkeit „Deuten“ zugrundegelegt, um unterschiedliches Interventionsverhalten auf diese Fähigkeit zurückführen zu können. Sowohl beim Aufbau diagnostischer Fähig-keiten als auch bei der (Weiter-)Entwicklung des eigenen Lehrerhandelns gilt Reflexion als hilfreich. Entsprechend wird auch das Zusammenspiel von Pro-zessdiagnose und Reflexionsverhalten sowie von Interventionsverhalten und Reflexionsverhalten untersucht.
Für die Erhebung der prozessdiagnostischen Fähigkeit „Deuten“ wurden drei Videovignetten erstellt und in das Videodiagnosetool ViviAn eingebunden. Die Videovignetten zeigen jeweils vier Schülerinnen, die sich mit dem Thema „Ter-me“ beschäftigen. Im Rahmen eines Lehr-Lern-Labores wurden über vier Se-mester hinweg alle teilnehmenden Studierenden dazu angehalten, die Videovig-netten zu bearbeiten. Ebenso konzipierten sie jeweils zu dritt eine Laborstation im Mathematik-Labor „Mathe ist mehr“ und erprobten diese mit einer Schul-klasse. Dabei wurden die Interventionen der Studierenden in die Gruppenarbeits-prozesse der Schülerinnen und Schüler videographiert. Anschließend reflektierten die Studierenden in Kleingruppen über die Erprobungen und über die getätigten Interventionen. Die Reflexionsgespräche wurden ebenfalls videographiert.
Es zeigt sich, dass die Studierenden, die sich zum Zeitpunkt der Erhebung im Masterstudium befanden, noch Entwicklungsspielraum in Bezug auf ihre pro-zessdiagnostische Fähigkeit „Deuten“ besitzen. Im Hinblick auf die Interventio-nen waren responsive Interventionen häufiger angemessen als invasive Interven-tionen, wobei responsive Internvetionen auch vergleichsweise häufiger dazu führten, dass mehr Schülerinnen und Schüler nach der Intervention aktiv waren. Studierende mit höherer prozessdiagnostischer Fähigkeit „Deuten“ intervenierten jedoch häufiger invasiv und tätigten dabei trotzdem angemessenere und aktivie-rendere Interventionen als ihre Kommilitoninnen und Kommilitonen. Entspre-chend scheint sich die prozessdiagnostische Fähigkeit „Deuten“ positiv auf die Interventionen der Studierenden auszuwirken und sollte daher bereits im Rah-men des (Lehramts-)Studiums verstärkt geschult werden.
Warum kann ich mir nicht vorstellen, meine Haare wachsen zu lassen, insbesondere meine Körperhaare? Diese Frage und das damit verbundene Unbehagen motivierten mich 2016 zur Entwicklung meines Dissertationsprojektes.
Die Suche nach einer Antwort führt zu einer Studie, die einen feministisch-phänomenologischen Erfahrungsbegriff zentral setzt. Bedeutsam für die Entwicklung eines solchen Begriffs sind die phänomenologischen Beiträge „Zur poststrukturalistischen Kritik an der Erfahrung im Kontext der feministischen Philosophie“ (Stoller 2005) von Silvia Stoller und „Phänomenologie, Poststrukturalismus und feministische Theorie. Zum Begriff der Erfahrung“ (Alcoff 1997) von Linda Martín Alcoff. Darauf aufbauend verfolgt das Dissertationsprojekt zunächst das Anliegen, Erfahrungen sichtbar zu machen, indem sie veranschaulicht und zur Sprache gebracht werden. Auf diese Weise wird es möglich, Erfahrungen hinterfragen zu können, um anschließend Antworten entwickeln zu können. Demnach beruhen mein Unvermögen, Körperhaare wachsen zu lassen, sowie das damit einhergehende Unbehagen darauf, eine drohende Erfahrung der Fremdheit mir selbst gegenüber abwenden zu wollen. Zu einer solchen Fremderfahrung würde es kommen, wenn ich durch meine Körperhaare damit konfrontiert werde, dass ich mir fremd bin. Jedoch um sich selbst kennenzulernen sind Menschen nach phänomenologischem Verständnis (vgl. Meyer-Drawe 2001: 141-142) auf andere Menschen angewiesen, da sie sich selbst erst durch andere bewusst werden können. Doch stellt es angesichts des gelebten Ideals der Haarlosigkeit (vgl. Labre 2002: 120-122, Strmljan 2018: 406) eine Herausforderung dar, meine drohende Fremderfahrung, aufgrund der Konfrontation mit meinen Körperhaaren, im Kontakt mit anderen Menschen zu überwinden, sodass ich eine solche Fremderfahrung vermeide, indem ich meine Körperhaare entferne. Als Resultat verbleibt mein Unbehagen darüber, dem Ideal der Haarlosigkeit zu entsprechen.
Zu einer solchen Antwort gelange ich anhand einer Studie, die folgender Forschungsfrage folgt:
Wie erfahren sich Menschen beim Waxing in einem Kosmetikstudio unter den Bedingungen der binären Geschlechterordnung?
Dass die Erfahrungen in einem Kosmetikstudio erforscht werden, begründet sich damit, dass in einem solchen der Zugang zu Erfahrungen bei der Entfernung von Körperhaaren möglich wird. Körperhaare zu entfernen ist zwar ein alltäglicher Umgang mit Körpern, jedoch intim und persönlich, sodass ein Zugang schwierig wird. Eine Lösung stellt hierfür ein Kosmetikstudio dar. Als Praktikantin in dem Kosmetikstudio Beautystudio werden mir Erfahrungen beim Waxing – einer kosmetischen Technik der Haarentfernung – zugänglich.
Auf solche Weise Daten zu erheben folgt dem ethnographischen Vorgehen der teilnehmenden Beobachtung. Forscher*innen nehmen beobachtend vor Ort teil und erheben Daten, indem sie Notizen, Protokolle und schließlich Studien erstellen. Mittels eines solchen Forschungsstils können Forscher*innen Erfahrungen in einer Studie zentral setzen, da sie so Erfahrungen selbst machen können und Zugang zu den Erfahrungen anderer erhalten (vgl. Amann/ Hirschauer 1997: 29-30, Breidenstein et al. 2013: 86-87, 103, 177-178).
Im Zuge der Datenerhebung zeigt sich wiederum, dass im Umgang mit Körperhaaren die Bedingungen der binären Geschlechterordnung wirksam werden. Beispielsweise wird in vielen Situationen die dichotome Differenz zwischen Männern und Frauen betont, ohne dass es konkret für die kosmetische Anwendung notwendig zu sein scheint. So erklärt sich, dass für die Analyse und das Hinterfragen der zur Sprache gebrachten Erfahrungen ein geschlechtertheoretisches Konzept herangezogen wird, welches Erfahrungen hinsichtlich der Bedingungen der binären Geschlechterordnung befragen kann. Eine solche Betrachtung der Daten bietet Gesa Lindemanns Konzept „Der leiblich-affektiven Konstruktion des Geschlechts“ (1992).
Basierend auf dem feministisch-phänomenologischen Erfahrungsbegriff, dem ethnographischen Vorgehen und dem Geschlechterkonzept Lindemann zeigt sich, dass Menschen beim Waxing erfahren (können), mit anderen Menschen verbunden und sich selbst unverbunden zu sein. Dabei wird die Haut zum Kristallisationspunkt der Verbindung zu anderen Menschen (und auch Apparaten). Durch die Berührungen wird einerseits Verbundenheit gestaltet und eine gegenseitige Zuwendung erfahrbar, andererseits wird diese aber auch unterbrochen, wenn durch das Waxing Schmerz zugefügt wird oder Menschen durch Blicke entblößt werden. So wird die Haut zum Medium zwischen den Erfahrungen der Verbundenheit und Unverbundenheit.
(Hinweisen möchte ich an dieser Stelle, dass alle Namen und Orte anonymisiert sind. Demnach handelt es sich beim Beautystudio um den anonymisierten Namen des Kosmetikstudios, in welchem ich forschte. Auf diese Weise soll die Persönlichkeit der Kontaktpersonen im Feld gewahrt bleiben.)
Literaturhinweise:
Alcoff, Linda M. (1997): Phänomenologie, Poststrukturalismus und feministische Theorie. Zum Begriff der Erfahrung. In: Stoller, Silvia/ Vetter, Helmuth (Hg.): Phänomenologie und Geschlechterdifferenz. Wien: WUV-Universitäts-Verlag: 227-271.
Amann, Klaus/ Hirschauer, Stefan (1997): Die Befremdung der eigenen Kultur. Ein Programm. In: Hirschauer, Stefan/ Amann, Klaus (Hg.): Die Befremdung der eigenen Kultur: Zur ethnographischen Herausforderung soziologischer Empirie. Frankfurt am Main: Suhrkamp Verlag: 7-52.
Breidenstein, Georg/ Hirschauer, Stefan/ Kalthoff, Stefan/ Nieswand, Boris (2013): Ethnografie. Die Praxis der Feldforschung. Konstanz & München: UVK Verlagsgesellschaft
Labre Peixoto, Magdala (2002): The Brazilian Wax: New Hairlessness Norm for Women? In: Journal of Communication Inquiry: 26 (2): 113-132.
Lindemann, Gesa (1992): Die leiblich-affektive Konstruktion des Geschlechts. Für eine Mikrosoziologie des Geschlechts unter der Haut. In: Zeitschrift für Soziologie: 21 (5): 330-346.
Meyer-Drawe, Käte (2001): Leiblichkeit und Sozialität. München: Wilhelm Fink Verlag.
Stoller, Silvia (2005): Zur poststrukturalistischen Kritik an der Erfahrung im Kontext der feministischen Philosophie. In: Stoller, Silvia/ Vasterling, Veronica/ Fisher, Linda (Hg.): Feministische Phänomenologie und Hermeneutik. Würzburg: Königshausen & Neumann GmbH: 139-170.
Strmljan, Alina (2018): Haare zum Schämen? Weibliche Körperbehaarung und ihre Entfernung – Normen, Tabus und Trivialisierungen. In: Breuss, Susanne (Hg.): Mit Haut und Haar. Frisieren, Rasieren, Verschönern. Wien: Metroverlag: 404-410.
Spektroskopie zweiatomiger Moleküle bei Einstrahlung ultrakurzer Laserpulse und ihre Anwendung
(2020)
Durch die Verwendung ultrakurzer Pulse lassen sich selbst bei moderaten Pulsenergien und Durchschnittsleistungen sehr hohe Spitzenleistungen erreichen, deren Wirkung auf Materie sich grundlegend von der anderer Lichtquellen unterscheidet. Die hohe Feldstärke ist hier nicht nur verantwortlich für das vermehrte Auftreten optisch nichtlinearer Effekte wie der Frequenzverdopplung, sondern ist auch hauptverantwortlich für die ”kalte“ Ablation, die zu deutlich kälteren Plasmen führt. Eine Untersuchung dieser beiden Umstände in Hinblick auf eine Vereinfachung der Pulslängenmessung und eine Verbesserung der Molekülbildung in erkaltenden Plasmen ist Thema dieser Arbeit. In diesem Zusammenhang wird gezeigt, dass die Verwendung von Ultrakurzpulslasern bei der Wahl geeigneter Prozessparameter, insbesondere durch gezielte Defokussierung, die Spektroskopie verschiedener emittierender Moleküle wie Aluminiumoxid verbessert, sodass deren Detektion auch ohne die in der Literatur geforderten zeitauflösenden Messinstrumente möglich ist. Darüber hinaus ermöglichen ultrakurze Pulse eine ortsaufgelöste Kristallisation von Zinkoxid auf – mit einfachen Mitteln präparierten – Zinkoberflächen. Die dabei entstandenen Wurtzite richten ihre c-Achse meist annähernd senkrecht zur darunterliegenden Oberfläche aus und können zur Erzeugung von gestreuter Frequenzverdopplung genutzt werden. Hierfür haben sich besonders die in den letzten Jahren entwickelten faserbasierten Femtosekundenlaser mit Pulsenergien im Mikrojoule-Bereich, Pulslängen von wenigen 100fs und äußerst geringem Wartungsaufwand als ein leistungsfähiges Instrument erwiesen. Die hohe Pulsenergie dieser Systeme erlaubt zudem die Verwendung von Frequenzverdopplern mit deutlich geringeren Konversionsezienzen zur Messung der Pulslänge. Trotz uneinheitlicher Kristallachsen hat sich hier das streuend frequenzverdoppelnde Aluminiumnitrid als besonders tauglich für die optische Autokorrelation herausgestellt. Im Vergleich zum üblicherweise verwendeten monokristallinen Beta-Bariumborat, reduzieren die gesinterten Aluminiumnitrid-Keramikplatten den Justageaufwand, vereinfachen durch ihre Robustheit die Handhabung und verringern den Kostenfaktor um zwei bis drei Größenordnungen. Daher eignet sich das hier entwickelte Verfahren auch für die Kontrolle der Pulslänge während des Fertigungsprozesses eines solchen Systems – besonders dann, wenn hohe bzw. für Beta-Bariumborat zu hohe Pulsenergien auftreten können.
Das wissenschaftliche Interesse an nichtsuizidalen Selbstverletzungen (NSSV) von Jugendlichen hat in den letzten zwei Jahrzehnten deutlich zugenommen. Hohe Prävalenz- und Komorbiditätsraten sowie die geringe Lebensqualität und das erhöhte Suizidrisiko betroffener Jugendlicher betonen die Wichtigkeit dieses Forschungszweiges. Die vorliegende Dissertation widmet sich intra- und interpersonellen Faktoren, die sich als relevant für die Entstehung und Aufrechterhaltung von NSSV erwiesen haben.
Ziel der Studie 1 war die Untersuchung der Persönlichkeitsmerkmale von Jugendlichen mit NSSV ohne Borderline-Persönlichkeitsstörung (NSSV-BPS) in Abgrenzung zu Jugendlichen mit NSSV und einer BPS (NSSV+BPS), einer klinischen Kontrollgruppe (KKG) und einer gesunden Kontrollgruppe (GKG). Jugendliche mit NSSV erzielten im Vergleich zur KKG höhere Werte auf den Persönlichkeitsdimensionen Neugierverhalten und Schadensvermeidung und niedrigere Werte auf den Dimensionen Beharrungsvermögen, Selbstlenkungsfähigkeit und Kooperativität. Für Jugendliche mit NSSV+BPS zeigte sich ein ähnliches Persönlichkeitsmus-ter, welches jedoch deutlich ausgeprägter war.
NSSV von Jugendlichen beeinflussen das gesamte Familiensystem und gehen häufig mit Konflikten und einer veränderten Familiendynamik einher. Eltern von betroffenen Jugendlichen berichten von einer hohen Belastung, Unsicherheit und Hilflosigkeit. Jugendliche mit NSSV nehmen im Vergleich zu Jugendlichen ohne NSSV mehr Kritik und Kontrolle und weniger Unterstützung von Seiten der Eltern wahr. In Studie 2 wurde das Erziehungsverhalten in Familien von Jugendlichen mit NSSV untersucht und mit einer KKG und GKG verglichen. Im Vergleich zur GKG berichteten Jugendliche mit NSSV weniger mütterliche Wärme und Unterstützung. Mütter von Jugendlichen mit NSSV erzielten im Vergleich zu Müttern in der GKG höhere Psychopathologiewerte und berichteten weniger Elternzufriedenheit als Mütter der KKG und GKG.
Auch Geschwisterkinder leiden unter der veränderten Familiendynamik. Ziel der Studie 3 war die Untersuchung der Geschwisterbeziehung von Jugendlichen mit NSSV im Vergleich zu einer KKG und GKG. Geschwister von Jugendlichen mit NSSV berichteten von einer Viel-zahl von negativen emotionalen und familiären Konsequenzen bedingt durch die NSSV der Schwester. Im Vergleich zu Geschwistern in der KKG und GKG berichteten sie häufiger von Nötigung/Zwang in der Geschwisterbeziehung. Jugendliche mit NSSV gaben im Vergleich zur GKG höhere Rivalitätswerte und weniger Empathie und Wärme in der Geschwisterbeziehung an. Sowohl für Jugendliche mit NSSV als auch deren Geschwister zeigten sich Zusammenhänge zwischen der geschwisterlichen Beziehungsqualität und internalisierenden Symptomen.
Zur genaueren Untersuchung des familiären Klimas, wurde in Studie 4 das Ausmaß an Expressed Emotion (EE) von Jugendlichen mit NSSV, Jugendlichen einer KKG, einer GKG und deren Müttern erfasst und verglichen. Bisherige Studien zeigen einen Zusammenhang zwischen einem hohen Maß an EE (HEE) der Eltern und NSSV der Jugendlichen. Insbesondere elterliche Kritik scheint mit NSSV assoziiert zu sein. Der Fokus bisheriger Studien lag auf dem EE-Status der Eltern, was womöglich ein unvollständiges Bild darstellt. Aus diesem Grund wurden in dieser Studie auch die EE-Ausprägungen der Jugendlichen miteinbezogen. Jugendliche in der NSSV Gruppe und KKG erfüllten im Vergleich zur GKG häufiger die Kriterien für HEE. Jugendliche mit NSSV äußerten gegenüber ihren Müttern mehr verdeckte Kritik und kritischen Tonfall als Jugendliche der KKG und GKG. HEE der Jugendlichen ging mit Emotionsregulationsschwierigkeiten einher. Für die Gesamtstichprobe zeigte sich eine moderate Übereinstimmung zwischen den HEE-Ausprägungen der Jugendlichen und Mütter.
Die Ergebnisse dieser Arbeit beinhalten wichtige Implikationen für die Behandlung von Jugendlichen mit NSSV. Die Unterschiede in den Persönlichkeitsmerkmalen von Jugendlichen mit NSSV mit und ohne BPS betonen die Relevanz der dimensionalen Persönlichkeitsdiagnostik sowie gezielter Behandlungsprogramme für Jugendliche mit NSSV-BPS. Familiäre Konflikte sind häufige Trigger für NSSV, daher sollten Interventionen für Jugendliche mit NSSV sowohl die Verbesserung der Emotionsregulation als auch der familiären Kommunikation und Interaktion zum Ziel haben. Nebst der Reduktion negativer Beziehungsaspekte, sollte in der Psychotherapie auch an der Steigerung positiver Beziehungsqualitäten gearbeitet werden. Die emotionale Belastung von Familienangehörigen weist auf die Notwendigkeit von Unterstützungsangeboten für Eltern und Geschwister hin.
Im Kontext der Erweiterten Realität versteht man unter Tracking Methoden zur Bestimmung von Position und Orientierung (Pose) eines Betrachters, die es ermöglichen, grafische Informationen mittels verschiedenster Displaytechniken lagerichtig in dessen Sichtfeld einzublenden. Die präzisesten Tracking-Ergebnisse liefern Methoden der Bildverarbeitung, welche in der Regel nur die Pixel des Kamerabildes zur Informationsgewinnung heranziehen. Der Bildentstehungsprozess wird bei diesen Verfahren jedoch nur bedingt oder sehr vereinfacht miteinbezogen. Bei modellbasierten Verfahren hingegen, werden auf Basis von 3D-Modelldaten Merkmale identifiziert, ihre Entsprechungen im Kamerabild gefunden und aus diesen Merkmalskorrespondenzen die Kamerapose berechnet. Einen interessanten Ansatz bilden die Strategien der Analyse-durch-Synthese, welche das Modellwissen um Informationen aus der computergrafischen Bildsynthese und weitere Umgebungsvariablen ergänzen.
Im Rahmen dieser Arbeit wird unter Anwendung der Analyse-durch-Synthese untersucht, wie die Informationen aus dem Modell, dem Renderingprozess und der Umgebung in die einzelnen Komponenten des Trackingsystems einfließen können. Das Ziel ist es, das Tracking, insbesondere die Merkmalssynthese und Korrespondenzfindung, zu verbessern. Im Vordergrund steht dabei die Gewinnung von visuell eindeutigen Merkmalen, die anhand des Wissens über topologische Informationen, Beleuchtung oder perspektivische Darstellung hinsichtlich ihrer Eignung für stabiles Tracking der Kamerapose vorhergesagt und bewertet werden können.
Die Studien der vorliegenden Arbeit untersuchen geschlechtsspezifisch-emotionale Reaktionsmuster auf stärkere und weniger stark emotionalisierte Texte verschiedener Textarten zu negativen Themen. Zusätzlich finden verschiedene Ausprägungen von Geschlechterstereotypen und dahingehend mögliche Zusammenhänge mit emotionalen Reaktionen Berücksichtigung. Versuchspersonen wurden mit Textmaterial konfrontiert und sollten daraufhin mit Hilfe des Emotionsfragebogens M-DAS ihre emotionalen Reaktionen bewerten. Frauen zeigten eine stärkere Ergriffenheit in Bezug auf das Textmaterial im Allgemeinen und besonders auf emotionalisiertes Textmaterial. Gemischte Ergebnisse zeigten sich in Bezug auf geschlechtertypische Textarten. Eine Sachtextpräferenz der Männer ließ sich ebensowenig signifikant belegen wie die erwartete stärkere Vorliebe der Frauen für literarische Texte. Geschlechtsspezifische Emotionen wurden weitestgehend erwartungskonform berichtet: Frauen reagierten mit stärkerer Angst und Trauer auf das Textmaterial, Männer mit stärkerer Verachtung. Die Ergebnisse in Bezug auf Wut sind gemischt, in einigen Fällen wurde Wut jedoch stärker von den Frauen berichtet. Die Untersuchung der Zusammenhänge zwischen internalisierten Stereotypen ergab Einflüsse hauptsächlich von weiblichen Stereotypen auf emotionale Reaktionen, männliche Stereotype konnten nur in einer Teilfragestellung als Einflussfaktor ausgemacht werden. Emotionsbezogene Stereotype wiesen keine Zusammenhänge mit emotionalen Reaktionen auf. Insgesamt belegen die Ergebnisse der Arbeit, dass sich geschlechterspezifische Unterschiede in emotionalen Reaktionen finden lassen.
Abdriftbedingte Pflanzenschutzmittelrückstände in unbehandelten Kulturen auf angrenzenden Flächen
(2020)
Die vorliegende Arbeit beschäftigt sich mit der Abdrift von Pflanzenschutzmitteln (PSM), die auf Lebensmittelkulturen in angrenzenden Flächen, insbesondere in benachbarte Haus- und Kleingärten, gelangt. In einer Reihe von Windtunnelversuchen wurde die Abdrift von PSM aus Flächen- und Raumkulturen während der Applikation mit zwei verschiedenen Testsystemen nachgestellt. Das Testsystem Flächenkultur simuliert die Applikation auf Flächenkulturen, das Testsystem Raumkultur die auf Raumkulturen. Auf der Nicht-Zielfläche wurden die auf Grund von Abdrift entstandenen Rückstände des verwendeten Tracers Pyranin nach der Applikation entfernungsabhängig auf den Lebensmittelkulturen Kopfsalat, Erdbeeren und Tomaten gemessen. Durch die gleichzeitige Messung der Bodendeposition konnten die Messwerte mit Hilfe von Regressionsgleichungen (R² = 0,88 bis 0,97) in Bezug zu den Abdrifteckwerten (AEW) gebracht werden. Dadurch war es möglich, erste Abschätzungen der Höhe von Rückständen vorzunehmen, die über Abdrift von landwirtschaftlichen Flächen auf benachbarte Lebensmittelkulturen im Freiland gelangen können. Diese Abschätzung ist zunächst limitiert auf die drei Versuchspflanzen. Die Versuche zeigen, dass sich die meisten durch Abdrift entstehenden Rückstände auf Salatköpfen wieder finden, gefolgt von Erdbeeren und Tomaten.
Neben dem experimentellen Teil wurden Analysen mit Geoinformationssystemen (GIS) durchgeführt, um die Nachbarschaftsverhältnisse zwischen landwirtschaftlich genutzten Flächen und Gartenflächen für ganz Deutschland und speziell für Rheinland-Pfalz (RLP) zu analysieren. Dazu wurden für die deutschlandweiten Berechnungen die Daten des amtlichen topographisch-kartographischen Informationssystems (ATKIS) und für die RLP-weiten Berechnungen die Daten des amtlichen Liegenschaftskatasterinformationssystem (ALKIS) verwendet. Beachtet werden muss, dass auf Grund der Datenbeschaffenheit eine Abgrenzung der Gartenflächen zu Wohnflächen nicht möglich ist. Deutschlandweit liegen etwa 1,1 % aller potentiellen Gartenflächen innerhalb eines 5 m Pufferbereichs um Raumkulturen bzw. innerhalb eines 2 m Pufferbereichs um Flächenkulturen. Für RLP sind es 0,75 %. Mit Hilfe eines Landbedeckungsdatensatzes der Fa. RLP AgroScience GmbH und den ALKIS-Daten konnte jedoch die exakte Gartenfläche für RLP auf 47.437 ha bestimmt werden. Basierend auf dieser Datengrundlage liegen 1,2 % der Gartenfläche von RLP innerhalb der genannten Pufferbereiche. Des Weiteren ergaben Berechnungen, dass 3 % der Gärten in RLP direkt angrenzend zu landwirtschaftlich genutzten Flächen liegen.
Im Rahmen dieser Arbeit wurden nicht nur Gärten betrachtet, die an landwirtschaftliche Flächen grenzen, sondern auch Nachbarschaftsverhältnisse zwischen ökologisch und konventionell bewirtschafteten Flächen untersucht. Diese Berechnungen erfolgten mit den Daten des Integrierten Verwaltungs- und Kontrollsystems (InVeKoS). Insgesamt grenzen in RLP 47,1 % aller ökologisch bewirtschafteten Flächen unmittelbar an konventionell bewirtschaftete Flächen an.
In dieser Arbeit werden die schottischen Liedbearbeitungen Ludwig van Beethovens auf ihre möglichen gälischen Vorläufer untersucht und in ihrem historischen Kontext aus einer gälischen Perspektive betrachtet. Ihre Liedbiographien werden um Vorläufer ergänzt und vervollständigt, die vom dem schottischen Auftraggeber Beethovens, George Thomson teilweise vorsätzlich unterschlagen wurden. Gründe hierfür sind in der politischen und kulturellen Unterdrückung der gälischen Sprachgemeinschaft Schottlands zu finden. Handelt es sich wirklich um anonyme Volkslieder, oder auch um Kompositionen bekannter Musiker aus der gälischen Kultur? Welche Veränderungen erfuhren sie im Zuge der Anonymisierung und der Degradierung zur Volksmusik, sowie der anschließenden Neuausrichtung in der schottischen Nationalmusik? Zu 12 der schottischen Lieder Beethovens sind ausführliche Liedbiographien mit allen gälischen Liedtexten, deutscher Übersetzung und den historischen Hintergründen der gälischen Vorläufer und ihrer Notierungen entstanden.
Studien der vergangenen Jahre haben gezeigt, dass im Bereich der Datenschutzkompetenz ein Mangel bei Jugendlichen und jungen Erwachsenen besteht, jedoch standen Kinder und Jugendliche im Alter von zehn bis 13 Jahren dabei nicht so stark im Fokus. Daher ist die Leitfrage der Arbeit, wie die Datenschutzkompetenz bei Kindern und Jugendlichen in dem jüngeren Alter ausgebildet ist, um für diese Altersgruppe passende Konzepte entwickeln zu können. Zu Beginn der Arbeit wird ausgehend von einem Medienkompetenzmodell ein Datenschutzkompetenzmodell abgeleitet, welches als Grundlage für die weitere Felduntersuchung dient. An allgemeinbildenden weiterführenden Schulen in Rheinland-Pfalz wurde eine Erhebung durchgeführt, die zeigt, dass die Befragten im Bereich der Risikoabschätzung noch eine ausreichende, aber im Bereich des Wissens, der Auswahl- und Nutzungskompetenz und der Handlungskompetenz eine mangelhafte Kompetenz besitzen. Um diesem Problem zu begegnen, werden im letzten Teil der Arbeit Handlungsempfehlungen in Form von Lernzielbeschreibungen formuliert, um ausgehend davon zukünftig passende Lehr-Lern-Settings implementieren zu können.
Die vorliegende Dissertation beschäftigt sich mit der Anwendung des sogenannten Molekül-LIBS Verfahrens, einem neuartigen Ansatz der Laser-Induced Breakdown Spectroscopy (LIBS), um den Nachweis für Lochkorrosion auslösende Chloride in Betonbauwerken, die z.B. durch Streusalze im Winter eingetragen werden, zu optimieren. Die potentiometrische Titration als Standardverfahren zur Chloridbestimmung in der Baustoffanalytik weist neben einem hohen Kosten- und Zeitaufwand den entscheidenden Mangel auf, dass die Bestimmung der Chloridkonzentration auf die Gesamtmasse des Betons bezogen wird und nicht wie in der europäischen Norm EN 206 gefordert auf den Zementanteil. Die bildgebenden Möglichkeiten von LIBS zur Phasentrennung des Betonserfüllen diese Forderung. LIBS wurde bereits 1998 von der BAM in der Baustoffanalytik eingesetzt, allerdings erfordert der Nachweis von Chloriden mit LIBS eine teure Heliumspülung und Spektrometer außerhalb des sichtbaren Spektralbereichs, um atomare Emissionen von Chlor zu detektieren. Der Ansatz von Molekül-LIBS besteht darin, dass die Emission chloridhaltiger Molekülradikale, die sich in der Abkühlphase des laserinduzierten Plasmas bilden, zur Quantifizierung genutzt werden. Die Vorteile gegenüber dem konventionellen LIBSVerfahren sind die Emission im sichtbaren Spektralbereich und die Anwendbarkeit ohne Edelgasspülung. In dieser Arbeit wird zudem der Einfluss der experimentellen Komponenten auf das Zeitverhalten der relevanten Molekülemissionen untersucht, Signalschwankungen durch Plasmafluktuationen werden deutlich reduziert und für eine umfassende Plasmaanalytik wird die Molekülbildung auf atomistischen Maßstäben simuliert und mit Standardverfahren verglichen. In Simultanmessungen werden atomare und molekulare Cl-Emission direkt verglichen und die Quantifizierung durch Datenzusammenführung optimiert. Molekül-LIBS wird zu einem quantifizierenden und bildgebenden Verfahren erweitert, das Chloride ohne Edelgasspülung detektieren kann.
Lastkraftwagen werden weltweit in verschiedenen Konfigurationen für den Transport von Gütern und für Spezialanwendungen genutzt. Das sichere Navigieren solcher Großfahrzeuge stellt eine herausfordernde Aufgabe für den Fahrer und unter Umständen für automatische Steuerungssysteme, z. B. im semi-autonomen oder autonomen Betrieb, dar. Insbesondere in kinematisch schwierigen Situationen, auf unebenem Untergrund oder bei engen Platzverhältnissen steigt die Komplexität des sicheren Steuerns.
Umso verwunderlicher ist es, dass unterstützende Systeme, welche die speziellen Belange von LKW und insbesondere LKW-Gespannen adressieren, im Vergleich zum Angebot auf dem PKW-Markt nur in rudimentärem Maß angeboten werden. Das Gefahrenpotential, dass von Großfahrzeugen ausgeht, wird zunehmend in der aktuellen Tagespolitik diskutiert. Unter anderem wird die verpflichtende Einführung von Fahrerassistenzsystemen gefordert.
In dieser Arbeit werden zwei Themen behandelt, die sich mit den speziellen Anforderungen von Nutzfahrzeugen befassen. Im ersten Themenblock wird die Erfassung der Artikulation in einem LKW-Anhänger-Gespann mit Drehschemelanhänger bearbeitet. Dabei wird ein neuartiges Verfahren vorgestellt, das auf an der Universität Koblenz-Landau geleisteten Vorarbeiten aufbaut. Es ermöglicht die Erfassung von Knickwinkeln in mehreren Dimensionen und ist daher auch für den Einsatz auf unebenem Grund, wie beispielsweise in Baustellen- oder Agrarszenarien geeignet. Das Verfahren nutzt dabei eine Kamera und ein künstliches Muster, um den Gespannzustand zu ermitteln.
Im zweiten Bereich wird die Umfeldvisualisierung durch eine Vogelperspektivenansicht thematisiert. Herkömmliche Systeme weisen systembedingte Verzerrungen auf, die unnatürlich wirkende Ansichten zur Folge haben. Diesem Problem wird durch die Entwicklung einer neuen Herangehensweise begegnet: Mit den Tiefendaten von Stereokameras wird eine Umgebungsmodellierung realisiert, die im nächsten Schritt perspektivisch korrekt mit Kamerabildern fusioniert wird. Mittels einer speziell für diesen Fall erweiterten Stereo-Hinderniserkennung wird zudem eine zusätzliche Umfeldüberwachung ermöglicht.
Die beiden in dieser Dissertation vorgestellten Verfahren beinhalten grundlegende Arbeiten, die für die Entwicklung maßgeschneiderter Assistenzsysteme für LKW angewandt werden können.
Die Biopolyester Cutin und Suberin stellen hydrophobe Grenzbarrieren dar, die sich im Laufe der Evolution der Landpflanzen entwickelt haben. Cutin bildet den Hauptbestandteil der Cuticula, die den Pflanzen Schutz vor unkontrollierter Transpiration bietet. Die Einlagerung von Suberin in die Zellwände definierter Zellen des Wurzelgewebes ermöglicht eine kontrollierte Aufnahme von Wasser und Nährstoffen. Zu den wichtigsten monomeren Bestandteilen dieser biologischen Polyester gehören langkettige α,ω-Dicarbonsäuren und ω-Hydroxycarbonsäuren. Bisher wurde der mikrobielle Abbau der Makromoleküle unzureichend erforscht. Zur Entschlüsselung der Zersetzung ist es notwendig, den Kreislauf der monomeren Bestandteile im Boden zu betrachten. Hierzu eignen sich vor allem Experimente mit positionsspezifisch ¹³C -markierten α,ω-Dicarbonsäuren und ω-Hydroxycarbonsäuren, die in der vorliegenden Arbeit erstmals synthetisch zugänglich gemacht wurden. Die Synthesen umfassten Dicarbonsäuren der geradzahligen Kettenlängen C12 bis C30, deren Carboxygruppen ¹³C -markiert sind. Ebenfalls wurde die Synthese von ω-Hydroxycarbonsäuren der Kettenlängen C14, C18, C22 und C30 mit ¹³C-Markierung an der Carboxygruppe realisiert. Weitere Zielverbindungen waren ω-Hydroxycarbonsäuren der Kettenlängen C14, C15, C18, C22 und C30, deren terminales hydroxyliertes Kohlenstoffatom mit ¹³C markiert ist. Im Rahmen der durchgeführten Arbeit gelang es, alle 19 Zielcarbonsäuren erfolgreich in hohen Ausbeuten und Reinheiten darzustellen. Die Synthese der isotopenmarkierten Verbindungen erforderte die Entwicklung spezieller auf die jeweiligen Zielsubstanzen individuell angepasster Syntheserouten, die den Einbau des Kohlenstoffisotops ¹³C ermöglichten. Für alle Zielverbindungen erfolgte die Einführung des ¹³C durch die Verwendung von ¹³C -markiertem Kaliumcyanid (99 at%). Wegen der hohen Kosten des ¹³C -markierten Ausgangsstoffes wurden alle Reaktionen zunächst unter der Verwendung analoger unmarkierter Edukte optimiert. Der letzte Teil der Arbeit bestand in der Ausführung eines Inkubationsexperimentes mit den ¹³C -markierten α,ω-Dicarbonsäuren der Kettenlängen C12, C18, C22 und C30. Mittels Phospholipidfettsäure-Analyse konnte gezeigt werden, dass die ¹³C -Dicarbonsäuren zu unterschiedlichen Anteilen von verschiedenen Mikroorganismengruppen zum Aufbau von Phospholipidfettsäuren verwendet wurden. Außerdem konnte durch die Anreicherung des CO2 mit dem Isotop ¹³C nachgewiesen werden, dass die ¹³C -markierten Fettsäuren von den Mikroorganismen zur Energiegewinnung abgebaut wurden. Für zukünftige Arbeiten wäre es interessant, Ausschnitte der Cutin- und Suberinstruktur nachzubilden. Durch die Veresterung der ¹³C -markierten α,ω-Dicarbonsäuren und der ¹³C -markierten ω-Hydroxycarbonsäuren untereinander oder mit Alkoholen könnten Dimere und Oligomere hergestellt werden.
Warum stürzen wir beim Gehen? Dreidimensionale und komplexe
Bewegungsabläufe des menschlichen Ganges exakt zu
analysieren und somit offene Grundfragen der Kinesiologie zu
beantworten ist Kern dieser Arbeit. Die Bewegungswissenschaft
der Gerontologie beschränkt sich derzeit noch auf Modelle und
Methoden mit einfachen und eindimensionalen Bewegungsanalysen.
In einer umfangreichen Literaturrecherche wird der aktuelle
Stand der Technik an Hand der drei gängigsten Methoden zur
Bestimmung der Stabilität beim Gehen erfasst und bewertet.
Eine Bewertung der drei Methoden: Margin of Stability, Lokale
Stabilität und Orbitale Stabilität, erfolgt durch die Ermittlung
der Anwendbarkeit der einzelnen Methoden, um die Tendenz eines
Probanden zu bestimmen, sich von kleinen (natürlichen oder
künstlichen) Störungen des Gangs zu erholen. Auf Grundlage
dieser Bewertungen und das Abwägen der Vor - und Nachteile
der einzelnen Methoden, wurde eine neue Methode zur Beurteilung
der räumlichen-dynamischen Stabilität entwickelt, die sich
für die Analyse des linearen und nicht-linearen menschlichen
Gangs anwenden lässt. Als Methodische Grundlagen dienen
ein Motion-Capture-System, zur Erfassung der kinematischen
Bewegungen, und ein in der Gerontologie fest etablierte Mobilitätstest,
der sogenannte Timed Up and Go Test, zur Beurteilung
des Gleichgewichts und der Mobilität. Zusätzlich wurde eine
numerische Näherung der Marker-Anzahl des Motion-Capture-
Systems durchgeführt. Dabei wurde die Anzahl der Marker auf
ein Marker-Set minimiert, bei der die bestmögliche Korrelation
der Ergebnisse zum Full-Body-Marker-Set erzielt wird. Dies
dient zur Vereinfachung der Methode für zukünftige Anwendungen
bei klinischen oder wissenschaftlichen Fragestellungen. Die
neu entwickelte Methode bedarf einer Validierung, welche mit
Hilfe einer Probandenstudie durchgeführt wurde. Die Ergebnisse
der Probandenstudie werden präsentiert und Interpretationsmöglichkeiten
werden aufgezeigt. Neue relevante Variablen und
Momentbestimmungen besonderer Gangsituationen werden ausgewertet
und bieten Raum für neue Interpretationsansätze zur
Beurteilung des menschlichen Gangs.
Die neue Methode ist somit in der Lage die individuelle Entwicklungen
des Bewegungsablaufes im Alter und die Vermeidung
von Stürzen und einhergehenden Verletzungen aus einer erweiterten
und neuen Perspektive zu beurteilen. Insbesondere
können Richtungswechsel bei einem nicht-linearen Gang neu
betrachtet und beurteilt werden.
Die Zunahme von Mikroplastik (< 5 mm) in der Umwelt ist ein globales Problem, welches im direkten Zusammenhang mit deren steigender Produktionsmenge und –vielfalt steht. Durch direkten Eintrag (primär) oder durch Zersetzung von Meso- und Makroplastik (sekundär) gelangen Mikroplastik-Partikel über die gängigen Stofftransportwege (u.a. häusliche oder industrielle Abwässer, Straßenabflüsse, Gezeiten, Winden, etc.) in die Umweltkompartimente Wasser und/oder Boden. Die Forschungs- und Entwicklungsarbeiten zur nachhaltigen Entfernung von Mikroplastik-Partikeln (inerten organisch-chemischen Stressoren, IOCS) aus dem Abwasser basieren auf der Konstruktion von Polymer-Einschlussverbindungen. IOCS beschreiben organisch-chemische Moleküle, die beim Eintrag in das Ökosystem eine hohe Persistenz aufweisen und nur begrenzt abgebaut werden können.
Nach dem Prinzip der Cloud Point Technologie wurde eine neuartige Separationstechnik entwickelt, welche ein Partikelwachstum bei Mikroplastik induziert und eine leichtere Abtrennung aus Wässer durch Volumenzunahme nach dem Stand der Technik ermöglicht. Das Konzept zur nachhaltigen Entfernung von Mikrokunststoffen von Herbort und Schuhen basiert auf einer Drei-Schritt-Synthese. Dieses Konzept wurde im Rahmen der Forschungsarbeiten weiter optimiert und hinsichtlich der Kriterien Ressourceneffizienz und Wirtschaftlichkeit angepasst. Die Arbeitsgrundlage des Konzeptes basiert auf der Hypothese, dass van der Waals Kräfte mit kurzer Reichweite und lokalisierte hydrophobe Wechselwirkungen zwischen Präkursor und/oder Material und dem anzubindenden IOCS eine Fixierung durch die Ausbildung einer Einschlussverbindung mit Partikelwachstum induzieren können. Durch Zugabe von Silizium basierten ökotoxikologisch nicht relevanten Werkstoffen gelingt es, in einem durch Wasser induzierten Aggregationsprozess, eine molekulare Selbstorganisation mit den hydrophoben Stressoren zu initiieren. Dies führt zu einer Phasentrennung, wodurch Agglomerate mit einem 10000-fach größeren Volumen ( 2-3 cm) aufschwimmen und im Anschluss durch effektive und kostengünstige Filtrationsverfahren (z. B. Sandfang, Fettabscheider) das Polymer-Extrakt vom aquatischen Medium getrennt werden können.
Die Entwicklung von naturwissenschaftlichen Konzepten und Bildungssprache beginnt schon vor dem Schuleintritt und bildungssprachliche und naturwissenschaftliche Kompetenzen werden als wichtige Faktoren für Schulerfolg angesehen (Ehlich, Bredel & Reich, 2008; Saçkes, Trundle & Bell, 2013). Die frühe Förderung dieser Kompetenzen ist deshalb sinnvoll.
Lernumgebungen, die naturwissenschaftliche Konzepte fördern (Hardy, Möller & Stern, 2006; Leuchter, Saalbach & Hardy, 2014), zeichnen sich ebenso wie Lernumgebungen, die Bildungssprache fördern (Gibbons, 2006; Quehl & Trapp, 2013), dadurch aus, dass sie zum Sammeln eigener Erfahrungen (z.B. beim Experimentieren) und zum Versprachlichen und Begründen eigener Gedanken anregen (z.B. in Planungs- und Reflexionsphasen). Die zur Förderung von Bildungssprache erforderliche sprachliche Komplexität wird besonders in Gesprächen herausgefordert, die außerhalb der Experimentiersituation, d.h. kontext-reduziert, stattfinden (Gibbons, 2006; Quehl & Trapp, 2013). Bisherige Forschung untersucht allerdings entweder sprachliche oder konzeptuelle Fortschritte und dies überwiegend im schulischen Kontext. Eine gemeinsame Betrachtung beider Bereiche bei Vorschulkindern fehlt bisher. Die zentrale Forschungsfrage der Arbeit lautet daher: „Welche Effekte haben kontext-reduzierte Gespräche auf Vorstellungen von Vorschulkindern zu zweiseitigen Hebeln und deren bildungssprachliche Lexik und Grammatik?“
Die Effekte kontext-reduzierter Gespräche wurden in einem quasi-experimentellen Design (N = 90) mit drei Gruppen untersucht. Alle Gruppen nahmen an Experimentierphasen zu zweiseitigen Hebeln teil. Zwei Gruppen erhielten außerdem Planungs- und Reflexionsphasen mit verbalen Unterstützungsmaßnahmen. In der kontext-reduzierten Bedingung fanden die Planungs- und Reflexionsgespräche in raum-zeitlicher Trennung zum Experimentiermaterial statt, in der kontextualisierten Bedingung stand den Kindern das Material auch während der Planungs- und Reflexionsphasen zur Verfügung.
Zwischen kontext-reduzierten und kontextualisierten Gesprächen konnten weder signifikante Unterschiede im naturwissenschaftlichen Konzept noch in den bildungssprachlichen Kompetenzen gefunden werden. Ein signifikanter Fördereffekt von Planungs- und Reflexionsgesprächen gegenüber der reinen Experimentierphase ohne Gespräche zeigt sich für konzeptuelle Vorstellungen zu zweiseitigen Hebeln, jedoch nicht für bildungssprachliche Lexik und Grammatik. Diese Ergebnisse lassen sich aus dem theoretischen Hintergrund nur bedingt erklären und geben Anlass für weitere Forschung.
Die vorliegende Dissertation beschäftigt sich mit euroskeptischen Äußerungen in der Parteienkommunikation und der Medienberichterstattung im Vorfeld der Europawahl 2014. Die Arbeit verwendet ein akteurszentriertes Forschungsdesign, welches eine differenzierte Betrachtung der öffentlichen Debatte europäischer Themen erlaubt. Die Analyse deckt auf, welche nationalen Parteien euroskeptische Positionen vertreten und inwiefern diese Einzug in die mediale Berichterstattung finden. Auch die Positionierung der Medien selbst wird durch die Untersuchung meinungsbezogener Artikel berücksichtigt. Die den Studien zu Grunde liegende Konzeptualisierung des Euroskeptizismus-Begriff umfasst neben globalen und konkreten negativen Bewertungen der EU auch die Zuschreibung von Problemverantwortung als weitere Spielart euroskeptischer Äußerungen. Die Arbeit nimmt weiterhin eine international vergleichende Perspektive ein, um den Einfluss nationaler Kontextfaktoren auf die Verbreitung euroskeptischer Positionen aufzuzeigen.
Die Ergebnisse der Analyse decken zunächst auf, dass das Vorhandensein erstarkender euroskeptischer Oppositionsparteien nicht zwangsläufig zu einer Politisierung der europäischen Debatte führt, da sich die europhilen Mainstream-Parteien verschiedener Strategien zur Vermeidung einer solchen Kontroversen bedienen. Die Analysen ergeben weiterhin, dass europhile Regierungsparteien zwar mehrheitlich vor konkreten negativen Bewertungen der EU zurückschrecken, diese aber in Bezug auf die europäische Finanzkrise vorwiegend als Verursacher von Problemlagen skizzieren. Letztlich verdeutlichen die Ergebnisse, dass die mediale Berichterstattung zu Themen mit EU-Bezug eine starke Synchronizität zwischen Nachrichten- und Meinungsteil aufzeigt. Dies gilt sowohl in Bezug auf die geäußerten Bewertungen zur Europäischen Union als auch hinsichtlich der Darstellung von Verantwortlichkeit.
In der vorliegenden Studie geht es um den möglichen und tatsächlichen Beitrag von sogenannten Geschäftsmodellen im Kontext eines reflexiven Bildungsmanagements im Feld der wissenschaftlichen Weiterbildung an (öffentlichen) Hochschulen in Deutschland.
Im Anschluss an Behrmann (2006) wird ein reflexives Bildungsmanagement verwendet, um mögliche strategische und entwicklungsrelevante Orientierungen für die strategische (Neu-)Positionierung von Weiterbildungseinrichtungen bzw. reflexive Entwicklung von Hochschulen im Handlungs- bzw. Geschäftsfeld der wissenschaftlichen Weiterbildung zu strukturieren. In diesem Zusammenhang unterstützen Geschäftsmodelle die Realisierung des (Weiter-)Bildungsauftrags von (öffentlichen) Hochschulen bzw. von deren Weiterbildungseinrichtungen. Diese möglichen Orientierungen wurden im Rahmen von qualitativen Inhaltsanalysen nach Kuckartz (2016) auf der Grundlage von visualisierten Gruppendiskussionen nach Kühl (2009) rekonstruiert. Der Feldzugang erfolgte mit Unterstützung der Deutschen Gesellschaft für wissenschaftliche Weiterbildung und Fernstudium e.V. (DGWF).
Absicherung der analytischen Interpretation von Geolokalisierungsdaten in der Mobilfunkforensik
(2019)
Zusammenfassung
Lokalisierungsdienste gehören mit zu den wesentlichen Merkmalen moderner mobiler Endgeräte. Neben der Tatsache, dass Standortdaten zur Rekonstruktion eines Bewegungsprofils genutzt werden können, steigt der Anteil der zu untersuchenden Geräten mit entsprechender Ausstattung im Rahmen von polizeilichen Ermittlungen enorm an.
Motivation
Ziel dieser Arbeit ist es, tiefergehendes Wissen um Geolokalisierungsfragen im Bereich der Mobilfunkforensik aufzubauen, um die in den Geräten gespeicherten Standortdaten forensisch auswertbar zu machen. Darüber hinaus sollen Werkzeuge entwickelt werden, die die spezifischen Bedürfnisse der Strafverfolgungsbehörden berücksichtigen.
Probleme
Die Prozesse der Geolokalisierung in Smartphones sind komplex. Um seine Position zu lokalisieren zu können, müssen verschiedene Referenzsysteme wie z. B. GPS, Funkzellen oder WLAN-hotspots in unterschiedlicher Art und Weise verknüpft werden. Der gesamte Lokalisierungsmechanismus ist geistiges Eigentum der Hersteller und nicht mit dem Ziel forensischer Auswertungen entstanden. Ein grundlegendes Problem der forensischen Untersuchung ist, dass hauptsächlich Referenzpunkte anstelle reeller Gerätepositionen gespeichert werden. Darüber hinaus bestehen die Geolokalisierungsinformationen aus Bits und Bytes bzw. numerischen Werten, die zuverlässig an ihre Bedeutung geknüpft werden müssen. Die gewonnenen Lokalisierungsdaten sind ferner lückenhaft und stellen lediglich einen Teil des gesamten Prozesses bzw. der Gerätenutzung dar. Dieser Datenverlust muss bestimmt werden, um eine zuverlässige Aussage hinsichtlich der Vollständigkeit, Integrität und Genauigkeit der Daten zu ermöglichen. Zu guter Letzt muss, wie für jedes Beweismittel einer kriminalistischen Untersuchung, gesichert sein, dass eine Manipulation der Daten bzw. Fehler bei der Positionsschätzung des Gerätes keinen nachteiligen Einfluss auf die Auswertung haben.
Forschungsfragen
Im Zusammenhang mit Lokalisierungsdiensten in modernen Smartphones kommt es im forensischen Alltag immer wieder zu ähnlichen Fragestellungen:
* Lassen sich Standorte zu jedem beliebigen Zeitpunkt ermitteln?
* Wie genau sind die ermittelten Geodaten des Smartphones?
* Werden Standortdaten aus Smartphones vor Gericht Bestand haben?
Forschungsansatz
Zur besseren Nachvollziehbarkeit der Prozesse in modernen Smartphones und um die Qualität und Zuverlässigkeit von Geolokalisierungsdaten zu bewerten, sollen Standortdaten verschiedener Plattformen sowohl theoretisch analysiert als auch praktisch während der Lokalisierung betrachtet werden. Der Zusammenhang zwischen Daten und Entstehungskontext wird mithilfe experimenteller Live-Untersuchungen sowie Desktop- und nativen Anwendungen auf den mobilen Endgeräten untersucht werden.
Ergebnis
Im Rahmen dieser Arbeit konnten mithilfe der entwickelten Werkzeuge die forensische Untersuchung verbessert sowie die analytische Interpretation von Geodaten von- bzw. direkt auf modernen Smartphones durchgeführt werden. Dabei hat sich ein generisches Modell zur Beurteilung der Qualität von Standortdaten herauskristallisiert, das sich allgemein auf die ermittelten Geodaten aus mobilen Endgeräten anwenden lässt.
Im Zentrum der Untersuchung steht die Entwicklung des künstlerischen Siebdrucks in Deutschland seit dem Zweiten Weltkrieg. Nach der thematischen Einführung und einer ersten kritischen Bestandsaufnahme der Forschung zum Siebdruck wird im Folgenden der Verlauf und die methodische Vorgehensweise der Arbeit verdeutlicht. Im zweiten Kapitel „Etablierung einer künstlerischen Technik“ wird zuerst die Geschichte des Siebdrucks dem Rahmen dieser Arbeit gemäß nachgezeichnet. Nachfolgend wird in einem Unterkapitel dargestellt, wie sich die Serigrafie als künstlerisches Verfahren parallel zum industriellen Siebdruck etablierte. In der Folge wendet sich die Untersuchung der Entstehung und Entwicklung des künstlerischen Siebdrucks in Deutschland zu. Dabei wird Willi Baumeister als Beispiel für die erste Generation von Künstlern in Deutschland herangezogen, die sich mit der Serigrafie beschäftigte. Im nächsten Schritt wird ein Überblick zu den Willi Baumeister nachfolgenden deutschen bzw. deutschsprachigen Serigrafie–Künstlern präsentiert. In dem sich anschließenden Exkurs-Kapitel liegt der Schwerpunkt auf der Zusammenarbeit zwischen Künstler und Drucker. Dabei werden an Beispielen namhafter Drucker wie Luitpold Domberger und Hans-Peter Haas unter anderem Einflüsse der Drucker auf die Entstehung und den Ausdruck der Kunstwerke aufgezeigt.Nach einer Einführung in die Entstehung und Geschichte der Serigrafie in Deutschland und einem ersten Überblick über deutsche Serigrafie-Künstler wird im vierten Kapitel der Einsatz der Serigrafie-Technik bei verschiedenen Künstlern aus unterschiedlichen Zeiträumen eingehend untersucht. Besonderes Augenmerk gilt dabei dem Einfluss der Technik auf die Ausdrucksmöglichkeiten und Inhalte der Werke, die Anwendung innerhalb einer und verschiedener Kunstrichtungen sowie die Experimente, die mit der Siebdrucktechnik gemacht wurden. Dazu werden Werke ausgewählter Künstler analysiert. Im Fokus stehen Künstler der Pop Art, des Neuen und des Kritischen Realismus, der Abstrakten und Konkreten Kunst. Ferner werden Künstler, deren Werk durch einen expressiven, bisweilen primitiven Charakter geprägt ist, in die Betrachtung mit einbezogen. Eine weitere Gruppe bilden Künstler, die die Serigrafie in einen Zusammenhang zur Architektur und zum öffentlichen Raum stellen. Die aus der Untersuchung hervorgehenden Ergebnisse dienen insbesondere dazu, die Charakteristika der Technik in ihrer künstlerischen Verwendung herauszustellen und Aspekte einer künstlerisch motivierten Weiterentwicklung aufzuzeigen. Die Entwicklung des druckgraphischen Werkes und der Technik von Gerd Winner werden in Kapitel 5 eingehend untersucht. Auf diese Weise lässt sich eine systematische, nicht rein formale, sondern ästhetische und inhaltliche Darstellung der Serigrafie in Deutschland erstellen. Ein besonderes Augenmerk liegt dabei auf der Frage, wie sich die Technik und deren Neuerungen auf den Inhalt auswirkten.
Politische Steuerung in nationalen Bologna-Prozessen in Deutschland, Österreich und der Schweiz
(2019)
Das Ziel der Dissertation besteht in der Erklärung und Analyse grundlegender Steuerungsmuster zwischen Politik und Universitätssystem in den nationalen Bologna-Prozessen in Deutschland, Österreich und der Schweiz: Wurde die Studienreform primär staatlich verordnet, im Dialog mit den Hochschulen implementiert oder die Ausgestaltung der Reform der Wissenschaft weitgehend überlassen - und welche Instrumente wurden dabei weshalb genutzt? Damit schließt die Arbeit an den aktuellen Forschungsstand zu vertikalen Vermittlungsprozessen (übernational-national) im Bologna-Prozess an: Nationale Hochschulsysteme konvergieren nicht zu einem einheitlichen Modell, sondern nationale Faktoren (z.B. Problemdeutungen und Einflussmöglichkeiten von Bildungspolitik, Universitäten u.a.) führen dazu, dass Bologna jeweils länderspezifisch verstanden und interpretiert wird.
Vor diesem Hintergrund wird im theoretischen Teil zur Anleitung eines systematischen Vergleichs ein analytischer Rahmen entworfen, dessen Elemente sowohl aus der Politikwissenschaft (Instrumenteforschung, Politische Steuerung, Governance etc.) als auch aus der Hochschulforschung stammen. In den anschließenden empirischen Kapiteln zu den drei Ländern werden die Akteurkonstellationen und faktisch zu beobachtenden Instrumentarien beschrieben, analysiert und interpretiert. Die methodische Basis bilden neben der Analyse zahlreicher Dokumente 37 leitfadengestützte Interviews mit Expertinnen und Experten.
Grundsätzlich lassen sich auf Basis der empirischen Teile die folgenden zentralen Ergebnisse der Studie festhalten:
Deutschland: Aufgrund der relativ starken Kompetenzen der Länder und der Einflussschwäche der Universitäten ist für den deutschen Bologna-Prozess ein primär interventionistisches Muster kennzeichnend. Dieses wurde und wird bis heute dadurch verstärkt, dass die Umsetzung von Bologna durch spezifische Problemwahrnehmungen und -lösungen von KMK und HRK in den 90er Jahren geprägt ist (z.B. Modularisierung als Antwort auf unstrukturierte Studiengänge, Akkreditierung als Fortführung der tradierten Input-Steuerung). `Bologna` wurde so mit genuin nationalen Instrumenten verquickt, die z.T. quer zum tradierten Lehrhabitus vieler Hochschullehrerinnen und -lehrer lag und liegt (z.B. Modularisierung oder Kompetenzorientierung). Verstärkend trat hinzu, dass die Reform u.a. aufgrund des Bund/Länder-Konflikts in der Bildungspolitik im Vorfeld der Föderalismusreform I nicht finanziell unterstützt wurde. Plastisch formuliert ist der deutsche Bologna-Prozess regulativ über- und finanziell untersteuert, was auch zu den Studierendenprotesten 2009/2010 beitrug.
Österreich: Der Bologna-Prozess lief in Österreich parallel zu einem umfassenden Neuordnungsprozess, innerhalb dessen die Universitäten in ihrer Autonomie erheblich gestärkt wurden und sich das zuvor zentrale Wissenschaftsministerium in seinen Kompetenzen erheblich limitierte. Dieses hatte die Reform unmittelbar 1999 noch angestoßen, zog sich anschließend jedoch im Rahmen einer `minimalen Steuerung` zurück und übernahm auch keine Reformmehrkosten. Da unterhalb der in die Autonomie entlassenen Universitäten kein nationaler Dialog über die Reform in Gang kommen konnte, fand der Bologna-Prozess vor allem auf der Ebene der jeweils eigenständigen Universitäten `vor Ort` statt. Diese erhebliche regulative und finanzielle Untersteuerung führte 2009/2010 zu massiven Studierendenprotesten, die angesichts der schwachen Position des Ministeriums auch nur unzureichend kanalisiert werden konnten.
Schweiz: In der Schweiz hingegen ist eine austarierte regulative und finanzielle Steuerung zu beobachten. Bund und Kantone übertrugen Anfang der 2000er Jahre wenige, aber wesentliche Kompetenzen auf ein gemeinsames Organ, das seinerseits per Gesetz eng mit der Rektorenkonferenz zusammenarbeiten sollte. Bologna stärkte dieses bis dato auf dem Papier bestehende Muster: Vor dem Hintergrund einer übergreifend geteilten prozessualen Subsidiaritätsnorm sowie weitgehender Präferenzenübereinstimmung zwischen Politik und Universitäten finanzierte der Staat gezielt die Reformmehrkosten sowie strategische Projekte und delegiert die Formulierung, Implementierung und Weiterentwicklung zentraler Vorgaben auf der Basis des Entscheidungsvorbehalts an die Rektorenkonferenz bzw. Universitäten. Probleme werden innerhalb dieses Arrangements z.T. identifiziert und bearbeitet. Die Politik greift nur subsidiär im Ausnahmefall ein. Die Schweiz kommt daher dem Idealtypus der strukturierenden Steuerung sehr nahe.
Die Befunde werden abschließend in einen größeren Bezugsrahmen eingeordnet, um sie über Bologna hinaus für die Analyse des deutschen Hochschulsystems fruchtbar zu machen. Maßstab hierfür sind ausgewählte normative Kriterien zur Güte von Steuerungsmustern. So wird z.B. gezielt die politische Entscheidungskapazität in den beobachteten Mustern betrachtet: Während etwa in Deutschland auf die Studierendenproteste 2009 im Rahmen des interventionistischen Musters mit verbindlichen Instrumenten wie Strukturvorgaben, Akkreditierung und letztlich dem Qualitätspakt Lehre nicht nur symbolisch reagiert werden konnte, stand das Wiener Wissenschaftsministerium den starken Protesten durch den Verzicht auf regulative und finanzielle Ressourcen hilflos gegenüber.
Auf dieser Basis werden abschließend einige grundlegende Anregungen zur Weiterentwicklung des deutschen Hochschulsystems gegeben. Unter anderem wird dafür plädiert, den hochschulpolitischen Reformdiskurs, der sich oftmals nur zwischen den Polen `mehr Staat` und `mehr Wettbewerb` zu bewegen scheint, gezielt um alternative Handlungslogiken und Akteure zu erweitern: Die Ergebnisse der Arbeit legen nahe, Verbände und Organisationen (Rektorenkonferenzen, Fachgesellschaften, Fakultätentage u.a.) politisch zu stärken, um diese Sichtweisen und Expertisen in zukünftigen Reformprozessen (z.B. aktuell Digitalisierung) systematischer als zuvor miteinzubeziehen. Denn eine zu starke Entkopplung von politischen und wissenschaftlichen Rationalitäten führt unweigerlich zu nicht intendierten Effekten, die ihrerseits wieder Handlungsdruck erzeugen (z.B. Proteste).
Die Nachhaltigkeitsberichterstattung kann als ein zentrales Element einer konsequenten Unternehmensstrategie zur Umsetzung der gesellschaftlichen Verantwortung (Corporate Social Responsibility) angesehen werden. Um die Unternehmen bei dieser Aufgabe zu unterstützen stellt die Global Reporting Initiative (GRI) mit ihren G4 Leitlinien einen Orientierungsrahmen bereit, dessen Anwendung sich allerdings für Klein und Mittelunternehmen sehr komplex gestaltet. Ein branchenspezifisches Sector Supplement für den Weinbau existiert derzeit noch nicht.
Ziel der vorliegenden Arbeit ist es, diese Forschungslücke durch die Entwicklung weinbauspezifischer Nachhaltigkeitsaspekte und Indikatoren zu schließen, um den Betrieben eine selbstständige GRI-konforme Berichterstattung zu ermöglichen.
Der Prozess zur Identifikation wesentlicher Nachhaltigkeitsaspekte und -indikatoren erfolgt mittels Erhebungs- und Auswertungsmethoden der qualitativen Sozialforschung in Form
von Workshops, betrieblichen Vorortanalysen und Experteninterviews.
Parallel dazu erfolgt eine umfassende Analyse der weinbaulichen Wertschöpfungskette in Form einer Internet- und Literaturrecherche. Diese umfasst vorrangig die ökologischen Nachhaltigkeitsaspekte als diejenigen Bestandteile weinbaulicher Tätigkeiten, die sich sowohl positiv als auch negativ auf die Umwelt auswirken können. Anschließend erfolgt die zentrale Priorisierung der identifizieren Handlungsfelder und Nachhaltigkeitsthemen durch die Stakeholder. Zur Visualisierung der bewerteten Handlungsfelder dient das Instrument der Wesentlichkeitsanalyse.
Auf dieser Basis erfolgt die Entwicklung eines Handlungsleitfadens zur Erstellung von Nachhaltigkeitsberichten in der Weinwirtschaft. Hiermit erlangen Weingüter die praktische Kompetenz ein eigenes Nachhaltigkeitsreporting anzugehen.
Im Rahmen der Arbeit wurde auch ein elektronisches Tool entwickelt, das den Betrieben die Möglichkeit eröffnet, betriebliche Umweltaspekte zu erfassen und zu bewerten. Gleichzeitig wird den Anwendern damit die Generierung eines überbetrieblichen Vergleichs der Umweltleistung ermöglicht (Benchmarking).
Eine weitere Forschungsfrage der vorliegenden Arbeit beschäftigt sich mit der Biodiversitätserfassung und -bewertung für Rebland. Hintergrund sind die bisher nur geringen Funde auf der durch das Bundesamt für Naturschutz festgelegten Kennartenlisten bzw. den HNV-Stichprobenflächen (High nature value farmland-Indikator) für Rebland.
Hierzu wurde mittels Geoinformationssystemen das Artenvorkommen in rheinland-pfälzischen Weinanbaugebieten analysiert und 30 Pflanzenarten als Indikatorarten für den Weinbau abgeleitet. Ergänzend wurden weinbergstypische, geschützte Tierarten als „Bonusarten“ identifiziert. Die Indikatorarten werden den Winzern als ein Instrument zur eigenständigen Erfassung der Biodiversität in den Weinbergen dienen und im Rahmen einer Nachhaltigkeitsberichterstattung herangezogen werden können.
Rieselmassen aus einem mineralischen Füllstoff und einem organischen oder anorganischen Bindersystem kommen als hochtemperaturbeständige Auskleidung in thermisch sehr stark beanspruchten Aggregaten, beispielsweise in der Stahlindustrie, zum Einsatz. Die Komponenten der Rieselmassen werden erst während des Einbringens in das Aggregat vermischt und chemisch oder thermisch gehärtet. Die zur Aushärtung benötigte Zeit ist für die Anwendung der Rieselmassen von entscheidender Bedeutung, da sie ausreichend lang sein muss, um eine vollständige Verarbeitung der Massen zu gewährleisten, gleichzeitig jedoch zu lange Stillstandzeiten der Aggregate zu vermeiden sind. Eine Vorhersage oder Steuerung der Abbindezeiten von Rieselmassen, die für einen optimalen Ablauf des Zustellungsprozesses nötig ist, ist aktuell nur sehr eingeschränkt möglich. Dies liegt zum einen daran, dass bisher geeignete Verfahren zur Prüfung der Härtungsdauer fehlen. Zum anderen ist der sehr komplexe Ablauf der Härtung noch nicht im Detail bekannt und die Wirkung von Einflussfaktoren, wie der Rezeptur der Rieselmassen oder den vorherrschenden Temperaturen, nur unzureichend dokumentiert.
Um einen Beitrag zum Verständnis des Abbindeverhaltens zu leisten, war es das Ziel der vorliegenden Arbeit, zunächst ein geeignetes Verfahren zur zeitabhängigen Prüfung des Härtungsverlaufs von Rieselmassen zu entwickeln. Dies wurde mithilfe der Dynamisch-Mechanischen Analyse realisiert. Darüber hinaus wurde der Härtungsmechanismus in Abhängigkeit von der Temperatur und der Rezeptur anhand einer feuerfesten Rieselmasse mit einem Bindesystem aus Wasserglas und Phosphathärter (AlPO4 und BPO4) durch ergänzende gravimetrische Messungen und der Untersuchung des Lösungsverhalten der Phosphate im Wasserglas-Binder beschrieben. Darauf aufbauend wurde mittels Röntgenbeugungsanalyse, Magnetresonanzspektroskopie und Rasterelektronenmikroskopie untersucht, wie sich die festgestellten Unterschiede im Härtungsverlauf auf die kristalline und amorphe Struktur auswirken. Es konnte gezeigt werden, dass die Härtung mittels der beiden Phosphate zu ver-schiedenartigen Netzwerkstrukturen hinsichtlich der Verknüpfungsdichte führt, die mit unterschiedlichen Abbindegeschwindigkeiten korrelieren. Zusätzlich konnten hieraus Auswirkungen auf ausgewählte Eigenschaften (thermische Längenänderung, temperaturabhängige Phasenentwicklung und -umwandlungen) abgeleitet werden.
Gegeben sei eine Basis b>=10 und eine Ziffer a0 aus der Menge {0,..., b − 1}. Wir untersuchen, ob es unendlich viele Primzahlen gibt, die in ihrer b-adischen Zifferndarstellung die Ziffer a0 nicht besitzen. Ferner schätzen wir die Anzahl dieser Primzahlen, die kleiner sind als X = b^k, nach oben und unten ab.
Damit gelingt uns eine Verallgemeinerung von Maynards Beweis für den Fall b = 10 und wir nutzen hierzu auch die in seiner Arbeit verwendeten Werkzeuge. Unter Anderem benötigen wir die Hardy-Littlewoodsche Kreismethode sowie diverse Siebmethoden, um die Minor Arcs zu kontrollieren.
Schließlich sehen wir, dass wir Maynard's Aussage vor allem dann auf beliebige Basen b>= 10 und ausgeschlossene Ziffern a0 aus {0, ..., b − 1} übertragen können, wenn zwei betragsmäßig größte Eigenwerte von Matrizen, die von b und a0 parametrisiert werden, bestimmte Abschätzungen erfüllen. Dass diese Abschätzungen im Fall b>=102 erfüllt sind, beweisen wir im letzten Kapitel. Für die Fälle b = 10 und b = 11 liegt ebenfalls ein Mathematica-Code vor, der die Abschätzungen bestätigt.
Die Dissertation untersucht das Selbstkonzept der indischen Ordensfrauen in deutschen Pflegeeinrichtungen. Für die Analyse wurde die Methode der Grounded Theory aus der empirischen Sozialforschung ausgewählt. Im Untersuchungsfeld wurden 26 indische Ordensfrauen und 5 Arbeitergeber interviewt. Als theoretische Grundlagen diente die Missionsgeschichte mit dem Standard des missionarischen Dienstes, die Ausprägung des deutschen und indischen Pflegeverständnisses, der Kulturbegriff in seiner strukturellen Bedingtheit von Dimensionen und Modellen mit dem Bezug zur Organisation „Ordensgemeinschaft“. Dem direkten Bezug zur Forschungsfrage dienten das hierarchische Selbstkonzeptmodell nach Shalveson und ein weiteres Modell nach Bracken, das zur Interpretation der empirischen Ergebnisse herangezogen wurde. In den fünf Kernkategorien und den dazugehörigen Subkategorien dominierte das Hauptmotiv „Missionarin sein“.Die indischen Ordensfrauen bezeichnen sich selbst als „Europamissionarin“ und wollen die Liebe Christi durch ihre Arbeit in der Pflege und Betreuung zu den Kranken, Hilfebedürftigen und alten Menschen bringen.
Damit die indischen Ordensfrauen in ihrem Selbstkonzept in Deutschland noch optimaler arbeiten können, empfiehlt es sich ein Anforderungsprofil zu entwickeln, vorausschauend bestimmte Rahmenbedingungen zu beachten und neue Lebensmodelle zu konzipieren.
Die Computermodellierung menschlicher Teilkörperstrukturen gewinnt zunehmend an Bedeutung für den Einsatz in der Medizin. Es handelt sich dabei um ein interdisziplinäres Forschungsfeld, bei dem durch die Zusammenarbeit von Physik, Mathematik, Computervisualistik und Medizin neue Methoden entwickelt werden können, mit denen genauere Aussagen über mechanische Belastungen von inneren kraftübertragenden Strukturen, wie Zwischenwirbelscheiben, Ligamente, Gelenke und Muskeln, bei Bewegungsabläufen getroffen werden können.
Zu Beginn dieser Arbeit wird die Bedeutsamkeit des Forschungsbedarfs in der Computermodellierung, spezialisiert auf den Bereich der Wirbelsäule, dargelegt.
Nachfolgend werden die grundlegenden anatomischen Strukturen erörtert, wozu die Zwischenwirbelscheiben, die Ligamente, die Facettengelenke und Muskulatur zählen.
Anschließend werden Algorithmen entwickelt, mit denen aus CT-Daten unter geringem Zeitaufwand sowie semiautomisch individuelle LWS-Modelle erstellt werden können. Dabei werden Methoden erarbeitet, mit denen die vorgestellten kraftübertragenden Strukturen der Wirbelsäule, wie die Zwischenwirbelscheiben, Ligamente, Facettengelenke und Muskeln, modelliert werden können.
Im weiteren Verlauf werden unterschiedliche bildgebende Verfahren (MRT-Daten, Röntgenfilm, Röntgenfunktionsaufnahmen) zur Validierung der LWS-Modelle vorgestellt und verwendet.
Abschließend werden die erarbeiteten Algorithmen genutzt, um eine größere Anzahl an individuellen LWS-Modellen zu erstellen, die anschließend auf Gemeinsamkeiten und Unterschiede bzgl. der inneren Belastungen sowie auf physiologisch korrekte Bewegungsabläufe hin untersucht werden. Dazu wird insbesondere das relative momentane Drehzentrum zwischen zwei benachbarten Wirbeln berechnet.
In dieser Arbeit wurden erstmals die strukturelle Wechselwirkung zwischen Kalium- Wasserglas-Systemen mit Aluminium-Tetrametaphosphat sowie generell über Wasserglas-Systeme mit Aluminium-Hexametaphosphat als chemischer Härter untersucht. Dabei wurde der kristalline Phasengehalt mittels Pulverdiffraktometrie und anschließender Rietveld-Analyse qualitativ und quantitativ beschrieben. Die Untersuchung des amorphen Phasengehalts erfolgte über verschiedene spektroskopische Methoden (NMR-, ATR-IR- und Raman-Spektroskopie). Das Löslichkeitsverhalten der chemischen Härter in alkalischer Umgebung wurde mit der optischen Emissions- und Elektronenabsorptionsspektroskopie gemessen. Für die Untersuchung der mechanischen Parameter kamen die Drei-Punkt- Biegefestigkeitsprüfung, die Resonanz-Frequenz-Dämpfungsanalyse und die Säureprüfung zum Einsatz. Die Gefüge-Struktur der chemisch gehärteten Wassergläser wurde rasterelektronenmikroskopisch untersucht. Es konnte gezeigt werden, dass der Reaktionsmechanismus der Härtungsreaktion von Kalium-Wassergläsern und Aluminium-Metaphosphaten in Abhängigkeit von der Metaphosphat-Struktur auf unterschiedlichen Wegen abläuft. Bei Aluminium- Tetrametaphosphat bildet sich beim Herauslösen der Aluminium-Ionen aus dem Metaphosphat in einer Ionen-Austauschreaktion das Kalium-Tetrametaphosphat- Dihydrat. Bei Proben mit Aluminium Hexametaphosphat konnte keine vergleichbare Struktur nachgewiesen werden. Parallel dazu findet eine Depolymerisationsreaktion der cyclischen Phosphat-Struktur statt, die stufenweise über mehrere Schritte zum kristallinen Kaliumdihydrogenphosphat abgebaut wird. Das Einbringen des jeweiligen Aluminium-Metaphosphats verursacht einen Abfall des pH-Wertes, wodurch die Polykondensation der Wasserglas-Struktur in Gang gesetzt wird. Diese Polykondensation wird weiter verstärk, indem bei der Depolymerisation des Metaphosphats die Kalium-Ionen in Form von unterschiedlich stark kondensierten Kaliumphosphaten bzw. Kaliumhydrogenphosphaten dem Wasserglas entzogen werden, was zu einer weiteren Herabsetzung des pH-Wertes und somit zu einer Senkung der elektrostatischen Stabilisierung des Wasserglases führt. Die aus der Aluminium-Metaphosphat-Struktur herausgelösten Aluminium-Ionen dringen in die abbindende, silikatische Netzwerkstruktur ein und bilden eine alumosilikatische Bindermatrix. Dieser Effekt ist bei Aluminium-Hexametaphosphat deutlich stärker ausgeprägt als bei Aluminium-Tetrametaphosphat. Weiterhin entstehen röntgenamorphe, hydratisierte Aluminiumphosphat-Strukturen, die in eigenen Bereichen innerhalb der amorphen Bindermatrix vorliegen. Daraus folgt, dass es sich bei den chemisch gebundenen Kalium-Wasserglas-Bindern um kein homogenes System handelt. Dies liegt hauptsächlich an der hohen Oberflächenladung und der Viskosität des Wasserglases, da mit dem Eintrag des feinen Härterpulvers dieses sofort verklumpt. Trotz optimierter Homogenisierungstechniken bleiben Teile des Härters in begrenzten Bereichen bestehen, die dazu führen, dass dieser nicht vollständig umgesetzt wird. Innerhalb der amorphen Bindermatrix liegen teilweise verschieden stark kondensierte Phosphat-Einheiten, silikatische und alumosilikatische Phasen angrenzend nebeneinander vor. Dazu kommen neugebildete kristalline Phasenbestandteile sowie Anteile an nicht vollständig umgesetztem Aluminium-Metaphosphat-Härter.
In Bezug auf die mechanischen Eigenschaften lässt sich zusammenfassen, dass mit zunehmender MVZ des Kalium-Wasserglases die Säurebeständigkeit der Probe sowie der Grad der Porosität zunehmen. Die mechanische Festigkeit und der Elastizitätsmodul hingegen nehmen mit steigender MVZ ab. Mit einer Änderung der Metaphosphat-Struktur vom Aluminium-Tetrametaphosphat zum Aluminium- Hexametaphosphat nimmt die chemische Beständigkeit gegenüber dem Säureangriff ab, auch sinkt der Grad der Porosität. Die Biegefestigkeit und der Elastizitätsmodul liegen bei den Proben mit Aluminium-Hexametaphosphat als chemischen Härter niedriger. Somit lassen sich Aussagen über künftige Wirkungsweisen hinsichtlich der Rezeptoptimierung treffen, um gezielt die chemische Beständigkeit oder die mechanischen Eigenschaften wie Porosität, Festigkeit oder Steifigkeit nach dengewünschten Anforderungen anzupassen.
Will Eisners Graphic Novels zeugen von einer tiefgehenden Identitifation mit dem Judentum als Volkszugehörigkeit, Religion und Kultur und spiegeln das Judentum in all seinen Facetten wider. Dabei ist besonders hervorzuheben, dass die Entwicklung des Gesamtwerks parallel verläuft zur Geschichte der Emanzipation der jüdischen Bevölkerung in New York City. Der Band clustert die jüdischen Aspekte in Eisners Werk in beispielsweise Faktoren kollektiver Erinnerung, Umgang mit und Kampf gegen Antisemitismus und religiöse Besonderheiten.
Gefährdete Weltmacht USA
(2017)
Ziele und Befunde der Arbeit
Das durchgeführte Forschungsvorhaben zeigt durch einen holistischen, gleichzeitig politikwissenschaftlichen wie auch historischen Ansatz Folgendes: Nämlich, warum und wie das liberale, regelbasierte Weltordnungssystem im Untersuchungsraum der US-Präsidentschaften von Clinton bis Obama kontinuierlich durch ein System der realistischen, kurzfristig wirkenden Durchsetzung vitaler Interessen mittels militärischer Instrumentenpräferenz unter fortlaufender militärischer Optimierung ergänzt bzw. ersetzt wird. Dies erklärt auch, warum die „transaktionale Führung Trumps“(1), die nach dem Untersuchungsraum von 1993 bis 2017 mit Außenwirkung die Reduktion idealistischer „Grand Strategy“-Elemente bzw. wohlwollender Ordnungsmacht unter Kostenabwälzung und Vorteilsverringerung europäischer Nato-Verbündeter vornimmt, in Kontinuität zur ausgeübten Führungsmacht der Amtsvorgänger steht. Ergebnisse dieser Dissertation wie die sich ab 1993 immer nachdrücklicher abzeichnende Auflösung der multilateralen Grundordnung legen damit nahe, Trumps bisherige Außen- und Sicherheitspolitik als deutlich spürbares Krisensymptom und nicht als Ursache dieses Abbaus der nach 1945 eingerichteten Weltordnung einzustufen. Diese Auflösung ist mit einer Erosion des letztlich transatlantisch angestoßenen bipolaren „amerikanischen Systems“ gleichzusetzen. Die Implementierung dieses Systems erfolgte als „Lernstunde zweier Weltkriege“ auf Basis der mit der Aufklärung und den amerikanischen Gründungskennziffern eingeleiteten neuzeitlichen Ordnungskonzeptionen: Daher ist diese Auflösung auch ein Indikator für das Scheitern neuzeitlicher Ordnungskennziffern, die sich im „American way of life“ entfalten konnten.
Als ursächlich für die geschilderte Entwicklung wird eine von Clinton bis Obama konstant ansteigende Gesamtbedrohung nachgewiesen, mit der die konsequente Schwächung amerikanischer Vormacht verknüpft ist. Diese fußt u.a. auf der Basis von seit 1979 postulierten Klimawandeleffekten als Bedrohungsverstärker bei erreichter amerikanischer Förderspitze in fossilen Rohstoffen und ansteigendem Ressourcenbedarf im Kontext schrumpfender Rohstoffvorkommen. Weiter sind für den Untersuchungsraum die zunehmende Einwirkung der in den 1980er Jahren begonnenen „US-Konservativen Revolution“ auf die Ausübung der Außen- und Sicherheitspolitik unter Einflusszugewinn von Konzernen und Lobbygruppen auf beispielsweise policy-Implementierung sowie die neuen Rahmenbedingungen zu addieren. Darunter fallen die sich ausformende Digitalisierung, die hohen Ressourcenverbrauch mit sich bringt, und die ansteigende Weltbevölkerung unter spezifischen demographischen Vorzeichen. Darüber hinaus sind beispielsweise die Beibehaltung des bipolar angewachsenen Rüstungssektors als ökonomische Basis militärischer Vormacht und das langsame Abbröckeln der Dollar-Hegemonie seit etwa 1973 zu berücksichtigen. Durch komplexes Zusammenspiel von „Grand Strategy“-Umsetzung gemäß der Prämisse amerikanischen Führungsmachtausbaus unter neokonservativem bzw. christlich-rechtem Einfluss mit asymmetrischen sowie reaktivierten konventionellen Bedrohungsgegenständen, Bedrohungsverstärkern und neuen Rahmenbedingungen wird der lineare Verlauf der Gesamtbedrohung im Zeitraum von 1993 bis 2017 verständlich: Im Kontext der „Grand Strategy“-Ausführungen erklären insbesondere das Bedrohungsabwehr-, Bedrohungsverstärker- und Marktwirtschaftsverständnis der US-Far Right in komplexer Wechselwirkung mit erstarkenden transnationalen Konzernen, Lobbygruppen, Individuen(2), informellen Netzwerken und staatlichen Akteuren in Bezug auf Bedrohungsgegenstände sowie Bedrohungsverstärker(3) im Zusammenhang mit der post-bipolaren, globalen Verankerung amerikanischer Wirtschafts- und Konsummuster das Folgende: Nämlich die Anpassung der amerikanischen Bedrohungsabwehr - unter Aufbau der „imperial presidency“(4) bzw. Einhegung des Systems von „checks and balances“ - samt deren Implikationen auf das bipolare liberale Ordnungssystem. Sodann wird die notwendige Weiterführung in der Nato durch amerikanisch aufgeworfenen Nato-Umbau zur entsprechenden Umsetzung transformierter amerikanischer Bedrohungsabwehr bzw. Legitimierung der systemischen Anpassung begreifbar.
Genauso wird nachvollziehbar, dass die so eingerichtete Bedrohungsabwehr nur kurzfristig abwehrt: Stattdessen verstärkt sie asymmetrische und konventionelle Bedrohung wie auch Bedrohungsverstärker - unter Einleitung von Rüstungsspiralen bzw. Demontierung der Rüstungskontrolle - und damit die Gesamtbedrohung. Dies lässt einen Konfliktausbruch jenseits des bisher Vorstellbaren konstant näher rücken. Gleichzeitig ist der dringende Bedarf an Mobilisierung der transatlantischen Zusammenarbeit im Hinblick auf Förderung der globalen Kooperation staatlicher, aber auch nichtstaatlicher Akteure hinsichtlich der Bedrohungswurzeln samt der sich verschlechternden Voraussetzungen illustriert: Denn mit jedem Anstieg der Gesamtbedrohung ist durch die eingeleitete amerikanische sicherheitspolitische Anpassung und deren Weiterführung in der Nato ein Abbau der regelbasierten Basiskennziffern im Untersuchungsraum verknüpft. Dies reduziert in fortlaufender Konsequenz die Grundlage für oben genannte, konstant zentraler werdende Zusammenarbeit, um eine sukzessive Erosion des bipolaren „amerikanischen Systems“ unter künftigen Dystopien zu verhindern bzw. zumindest zu begrenzen.
Durch die Forschungsergebnisse wird der bisherige Forschungsstand auf den Kopf gestellt, da so beispielsweise gezeigt werden kann, dass mittels der Transformation der Nato keine gleichberechtigte transatlantische Lastenteilung oder eine Weiterentwicklung der Nato gemäß der Nato-Gründungskennziffern erzeugt wird. Dies gilt auch für den europäischen Widerstand gegenüber der tatsächlichen Verankerung der Natotransformationspositionen(5), der auf die Erosion des bipolaren liberalen Ordnungssystems bzw. der US-Vorteilsgewährung sowie so begünstigter Partikularinteressensicherung abhebt. Außerdem wird deutlich, dass eine Kontinuitätslinie in der Bedrohungsabwehr von Clinton bis Obama unter unterschiedlicher Außenwirkung und dem Grundmuster „Battleship America“ vorliegt - und eben nicht eine multilateral ausgerichtete Außen- und Sicherheitspolitik unter Clinton, die als Folge von 9/11 in einen unilateralen Pendelausschlag unter G. W. Bush 43 mündet, der durch die Obama-Administration wieder zurückgenommen wird.
Die Arbeit basiert auf einer umfassenden Fülle an Literatur, die das aufwendige Literaturverzeichnis widerspiegelt: Darunter fallen vielfältige amerikanische und europäische Publikationen, Monographien und entsprechende Sekundärliteratur, wie Biographien, Veröffentlichungen unterschiedlichster Natur wichtiger Vertreter der transatlantischen Forschungselite, Akteure der entsprechenden Politikplanung und -ausführung und wissenschaftliche Artikel aus Fachzeitschriften zu allen Forschungsbereichen bzw. politikwissenschaftlicher Methodik und Theorie. Weiter wurden u.a. Veröffentlichungen bzw. relevante Dokumente von Regierungen, Außenministerien, Verteidigungsministerien, Regierungsorganen, Denkfabriken, universitären Forschungszentren sowie der Nato verwendet.
Struktur der Arbeit
Konkret ist die vorliegende Dissertation in zwei Bände sowie einen Anhangsband unterteilt: Band 1 umfasst Schwerpunkt 1, eine Prozessanalyse unter offensiver neorealistischer Verortung, Band 2 den darauf aufbauenden Schwerpunkt 2, einen Vergleich („structured focussed comparison“) unter defensiver neorealistischer Verortung. Im Anhangsband finden sich ergänzende Ausführungen zu Kapitel 1, Band 1 in Bezug auf den Forschungsstand, Literatur und Quellenlage, theoretische Verortung sowie Wahl des Untersuchungsraumes bzw. ausgewählter europäischer Nato-Partner. Weiter sind ein historisches Kapitel als Voraussetzung zum „process-tracing“ in Kapitel 2, Band 1 und ein Abbildungs- und Abkürzungsverzeichnis wie auch ein Literaturverzeichnis enthalten.
Insgesamt ermitteln die beiden aufeinander aufbauenden Schwerpunkte mittels qualitativer Methoden das Folgende: Nämlich die übergeordnete amerikanische sicherheitspolitische Reaktion auf eine neue Gesamtbedrohung sowie deren Weiterführung und Legitimierungschance in der Nato im Untersuchungsraum von Clinton bis Obama.
Auf Basis des ersten Teils der Hypothese wird in Schwerpunkt 1, Band 1 ein Zusammenhang zwischen der Beibehaltung des bipolaren „US-Grand Strategy“-Ziels amerikanischer Führungs- und Ordnungsmacht sowie bipolarer außenpolitischer „Grand Strategy“-Kennziffern bzw. einer sich komplex entwickelnden neuen Gesamtbedrohung, amerikanischer sicherheitspolitischer Anpassung und der notwendigen Weiterführung in der Nato durch Natotransformation mittels amerikanisch aufgeworfener Natotransformationspositionen hergestellt.
In Schwerpunkt 2, Band 2 wird auf Basis des zweiten Teils der Hypothese der transatlantische Aushandlungsprozess zur Etablierung der amerikanisch vorgeschlagenen Natotransformationspositionen in Augenschein genommen: Vor diesem Hintergrund wird überprüft, ob diese tatsächliche Verankerung bzw. Konkretisierung des Ausbaus amerikanischen Vormacht am Widerstand der ausgewählten europäischen Nato-Bündnispartner Frankreich, Deutschland und Großbritannien scheitert.
Im Gesamtergebnis zeigt sich, dass aufgrund einer sich entwickelnden komplexen, linear ansteigenden Gesamtbedrohung die Chance zum Ausbau amerikanischer Führungsmacht konstant abnimmt. Dies muss mittels amerikanischer sicherheitspolitischer Anpassung kompensiert werden. Die daher erfolgende amerikanische sicherheitspolitische Neuausrichtung auf Basis der eingeleiteten „Revolution im Militärwesen“ modifiziert wiederum die Kennziffern bipolarer kollektiver Sicherheitsgewährleistung. Alles wird mittels tatsächlicher Verankerung der amerikanischen Natotransformationspositionen ermöglicht bzw. legitimiert. Das tatsächliche Erreichen der - die sicherheitspolitische amerikanische Anpassung konsequent weiterführenden - Transformation der Nato ermöglicht eine missionsorientierte, reaktionsbeschleunigende, flexible und globale Sicherheitsprojektion. Außerdem ist die Voraussetzung für „alliances of choice“ innerhalb der Nato geschaffen. Weiter zementiert die Modifikation der „bipolaren Nato“ die mittels sicherheitspolitischer amerikanischer Anpassung eingeleitete Erosion zentraler zivilisatorischer Errungenschaften bzw. Aufgaben bipolarer kollektiver Sicherheitsgewährleistung unter Vorteilsverringerung europäischer Nato-Bündnispartner.
Die tatsächliche Verankerung der Natotransformationspositionen erfolgt mittels der Reaktivierung konventioneller Bedrohung im Kontext der Ukraine-Krise von 2014 und der Erweiterung der Nato-Partnerschaftsringe auf globaler Ebene, ohne diesen den Status eines Nato-Mitgliedsstaates zu gewähren. Damit wird der Bündnisfall nicht globalisiert. Der ausgeübte deutsch-französische Widerstand wird besonders intensiv durch den Einbezug der europäischen Gründungsstaaten befördert, dagegen unterbleibt die Ausbildung einer europäischen Führungstroika durch Frankreich, Deutschland und Großbritannien.
Darüber hinaus zeigt insbesondere die entsprechende Ursachenermittlung, dass trotz konstanter, aufeinander aufbauender amerikanischer sicherheitspolitischer Reaktion unter unterschiedlicher Außenwirkung sowie tatsächlicher Weiterführung in der Nato die Gesamtbedrohung nicht langfristig abgebremst wird: Dies führt zu einem konstanten Anstieg der Gesamtbedrohung unter fortlaufendem Einflussverlust staatlicher Akteure bzw. Machtdiffusion und -konzentration samt einer sukzessiven Chancenerhöhung reaktivierter konventioneller, nuklearer, Cyber- und ökologischer Zerstörungsszenarien. Auf dieser Basis entsteht die Konsequenz einer immer umfassenderen und die Reaktion beschleunigende Präzisionsabwehr unter ansteigender Versicherheitlichung, um die kontinuierliche Einengung amerikanischer Vormacht auszugleichen. Dies erzeugt im Fortlauf einen konstanten Abbau der Strahlungs- und Schlagkraft des liberalen, regelbasierten, bipolaren „amerikanischen Systems“ sowie der Etablierung „idealistischer, liberaler“ „Grand Strategy“-Elemente. Weiter ist damit - auf der Grundlage der aufeinander aufbauenden Natotransformationspositionen sowie Obamas „smart power“(6) im Untersuchungsraum - eine zunehmende Vorteilsverringerung der europäischen Nato-Verbündeten bzw. ein ansteigender Bedarf an US-Kostendämpfung verquickt. Zudem entwickelt sich eine immer geringer werdende Chance zur Entfaltung des postbipolar als „nicht verhandelbar“ postulierten und global ausgebreiteten amerikanischen Lebensentwurfes in individueller, innerstaatlicher Ausprägung: Deren Artikulation erfolgt beispielsweise mittels zunehmendem Rechtspopulismus, Wahl von Außenseiterkandidaten, Zerfall traditioneller Parteiensysteme, isolationistischen Tendenzen unter ethnischer, regionaler Erstarkung, und Ablehnung von Supranationalität oder religiösem Fundamentalismus. Gleichzeitig ist die fortlaufende Erosion der globalen öffentlichen Güter identifizierbar.
Damit ebnet all das oben Genannte den Boden für die Begrenzung amerikanischer wohlwollender Ordnungsmacht bzw. der Handlungsspielräume staatlicher Akteure - und für die Rückkehr zu klassischer Machtpolitik im Kontext entstandener Machtdiffusion bzw. -konzentration. Dies erschwert angesichts der Dringlichkeit einer langfristigen Eindämmung asymmetrischer bzw. konventioneller Sicherheitsbedrohungsgegenstände, -verstärker, -cluster und globalen Rahmenbedingungen folgende Chance: Nämlich die zu transatlantischer Zusammenarbeit in der Nato unter Wiederbelebung der politischen Organisation derselben sowie Erweiterung auf zusätzliche Ebenen und Akteure im Sinne von Vorbeugung bzw. vernetzter Sicherheit zur Erreichung entsprechender globaler Kooperation in Bezug auf Einhegen der Bedrohungswurzeln.
Insgesamt wird durch diese Forschungsarbeit transparent, wie und warum die für den Untersuchungsraum von 1993 bis 2017 antizipierte „Friedensdividende“ und das durch Präsident Clinton postulierte „age of hope“ kaum spürbar wurden.
Fußnoten
(1) Vgl. Braml, Josef (2018), Trumps transaktionaler Transatlantizismus, in: Jäger, Thomas (Hrsg.), Zeitschrift für Außen- und Sicherheitspolitik, Oktober 2018, Volume 11, Ausgabe 4, S. 439-448, Wiesbaden.
(2) Vgl. National Intelligence Council (Hrsg.) (2012), Global Trends 2013: Alternative Worlds (NIC 2012-001), https://publicintelligence.net/global-trends-2030/, letzter Zugriff: 12.04.19. Vgl. dazu auch das „international financial leadership, self-selected at Davos“ bei McCoy, Alfred W. (2017), In the Shadows of the American Century. The Rise and Decline of US Global Power, Chicago.
(3) Vgl. zu Bedrohungsverstärkern beispielsweise Mazo, Jeffrey (2010), Climate Conflict. How global warming threatens security and what to do about it, London, Abingdon.
1990 wurde bereits in Bezug auf den Bedrohungsverstärker Klimawandel für die entstehenden asymmetrischen bzw. konventionellen Bedrohungsgegenstände komplexe Cluster konstatiert: „Over the next half century, the global average temperature may increase by approximately 4 degrees C. (…) All nations will be affected. (…) How much time will there be to confirm the amount of change and then to act? (…) However, many believe that we will have waited too lang to avoid major dislocation, hardship and conflict - on a scale not as yet seen by man“. Vgl. Kelley, Terry P. (1990), Global Climate Change. Implications For The United States Navy (The United States Naval War College, Newport, RI), http://documents.theblackvault.com/documents/weather/climatechange/globalclimatechange-navy.pdf, letzter Zugriff: 30.03.19. Dies lässt Hinweise auf die sich entwickelnde, konstant ansteigende Gesamtbedrohung im Untersuchungsraum von 1993-2017 zu.
(4) Vgl. Schlesinger, Arthur M., Jr. (1973), The Imperial Presidency, Boston.
(5) Die amerikanisch vorgeschlagenen Positionen zur Anpassung der Nato, die Nato Response Force sowie die Global Partnership Initiative, werden als „Natotransformationspositionen“ bezeichnet: Mit deren tatsächlicher Etablierung war eine Transformation der Nato in konsequenter Weiterführung amerikanisch erfolgter sicherheitspolitischer Anpassung verknüpft.
(6) Smart power geht auf Suzanne Nossel, Mitarbeiterin des UN-Botschafters Holbrooke während der Clinton-Administration, zurück: Vgl. Nossel, Suzanne (2004), Smart Power. Reclaiming Liberal Internationalism, http://www.democracyarsenal.org/SmartPowerFA.pdf, letzter Zugriff: 26.08.17. Weiter wird er Joseph Nye im Jahre 2003 als Reaktion auf die unilaterale Konzentration auf das militärische Instrument der G.W. Bush–Ära zugeschrieben. Vgl. Nye, Joseph S. Jr. (2011), The Future of Power, New York bzw. Nye, Joseph S. Jr. (2011), Macht im 21sten Jahrhundert. Politische Strategien für ein neues Zeitalter, München.
Vgl. Rodham Clinton, Hillary (2010), Leading Through Civilan Power. Redefining American Diplomacy and Development, in: Foreign Affairs, November/December 2010, Vol. 89, No.6, S. 13-24.
Fachdidaktische und pädagogische Kompetenzen angehender Mathematiklehrkräfte für die Realschule
(2019)
Studien zur Wirksamkeit der Ausbildung von Lehrerinnen und Lehrern sind in der Regel fragebogenbasiert. In der vorliegenden Untersuchung wird ein anderer Ansatz gewählt, um die Kompetenzen angehender Mathematiklehrkräfte zu erheben und zu evaluieren. Die Studie untersucht anhand der unterrichtlichen Performanz, welche Kompetenzen Anwärterinnen und Anwärter in ihrer praktischen Ausbildung erworben haben. Der Analyse liegen 137 anonymisierte Niederschriften zu benote-ten Lehrproben von Anwärterinnen und Anwärtern im Fach Mathematik zugrunde. Diese bilden die Ausbildungsjahrgänge von 2004 bis 2011 ab. Die Anwärterinnen und Anwärter werden unterrichtspraktisch anhand der Niederschriften in Anlehnung an eine qualitative Inhaltsanalyse auf ihre Kompetenzausprägungen hin getestet. Dies erfolgt schwerpunktmäßig in den Bereichen Fachdidaktik, Fachmethodik, Classroom-Management und Gesprächsführung. Im Verlauf der Untersuchung wird deutlich, dass die Teilneh-mergruppe vor allem Stärken im methodischen Bereich hat. Hier können durchgehend gute Kompetenzausprägungen festgestellt werden. Über den gesamten Erhebungszeitraum zeigen sich hingegen in den Bereichen Classroom-Management und Gesprächsführung deutliche Defizite. Die fachdidaktischen Kompetenzen der angehenden Lehrkräfte entwickeln sich negativ: Ist zu Beginn der Erhebung noch etwa die Hälfte der Anwärterinnen und Anwärter im Bereich der Fachdidaktik zufriedenstellend einzustufen, gilt das im letzten Erhebungsjahrgang nur noch für knapp ein Fünftel der Probandinnen und Probanden. Es kann gezeigt werden, dass eine gute Notenfestsetzung eng mit den er-forderlichen Kompetenzen in der Fachdidaktik zusammenhängt.
Die vorliegende Studie bestätigt im Bereich der Fachdidaktik die Ergebnisse jener Studien, die auf Fragebögen basieren.
Es konnte zudem ein statistischer Zusammenhang zwischen den fachdidaktischen Fähigkeiten und den Steuerungskompetenzen hergestellt werden.
Die didaktische Konzeption der Schreibkonferenz ist soweit etabliert, dass sie bereits in den rheinland-pfälzischen Rahmenplan für die Grundschule für das Fach Deutsch übernommen wurde. Bisher liegt eine Reihe von Erfahrungsberichten zur Schreibkonferenz vor, jedoch wurden dazu bislang kaum systematisch empirische Untersuchungen durchgeführt. Die empirische Studie dieser Arbeit, welche an die VERA-Studie angeschlossen ist, untersucht, ob im Grundschulunterricht (in der dritten und vierten Klasse) der Einsatz von Schreibkonferenzen im Vergleich zur konventionellen Aufsatzdidaktik zu einer Verbesserung der Schreibleistungen, des eigenen Lernens, zu positiven Veränderungen des eigenen Verhaltens sowie zur Förderung der Motivation der Schüler beim Schreiben führt. Dabei wird von folgenden Überlegungen ausgegangen: Zum einen sollte die Schreibkonferenz im Gegensatz zur traditionellen Aufsatzdidaktik das selbstständige Arbeiten der Schüler mit Texten im Deutschunterricht fördern, zum anderen sollte sie zu einer intensiveren Auseinandersetzung mit Texten und damit zu einer Verbesserung des Aufsatzschreibens führen.
Zum Inhalt:
Die Dissertation ist in einem empirisch-qualitativen Forschungssetting eingebettet, bei der das Team-Teaching als Unterrichtsmethode im Forschungsfokus steht. Die Erhebung des empirischen Datenmaterials erfolgt einerseits mittels teilnehmender Beobachtung im Forschungsfeld und andererseits durch ein Gruppeninterview, das mit Lehrkräften geführt wird, die über einen gewissen Beobachtungszeitraum Erfahrungen mit der Unterrichtsmethode des Team-Teaching gesammelt haben. Für die hier zu Grunde gelegte Feldforschung wird das „theoretical sampling“ zum Einsatz kommen, das 1967 von Glaser und Strauss im Rahmen einer empirischen Untersuchung begründet worden ist.
Zum Aufbau:
In der Einleitung wird das Forschungsinteresse, der Forschungsstand und die zentrale Forschungsfrage der Dissertation beschrieben. Im zweiten Kapitel folgt der theoretische Teil mit einer differenzierten Definition des Team-Teachings als Unterrichtsmethode. Es folgt eine allgemeine Definition zum Unterricht, um die spezifischen Merkmale des Team-Teachings differenziert herausarbeiten zu können. Die empirischen Daten werden im Rahmen einer teilnehmenden Beobachtung im Unterricht der Oberstufe einer Förderschule mit dem Förderschwerpunkt Lernen und sozial-emotionale Entwicklung erhoben. Deshalb sind im Theorieteil der Förderschwerpunkt und die curricularen Aspekte zum Förderschwerpunkt dargestellt. Die Bedeutung der Unterrichtsmethode des Team-Teachings für das Unterrichtssetting in einer Förderschule mit dem sozial-emotionalem Förderschwerpunkt ist ebenfalls im Theorieteil verortet.
Im dritten Kapitel werden die qualitativen und quantitativen Erhebungsinstrumente beschrieben und Hypothesen formuliert. Die Darstellung der Methoden zur Aufbereitung des Datenmaterials ist im vierten Kapitel verortet. Die Interpretation der Forschungsergebnisse erfolgt im fünften Kapitel. Die qualitative und quantitative Datenauswertung des empirischen Datenmaterials ist im sechsten Kapitel dargestellt. Die Dissertation schließt im siebten Kapitel mit einen Fazit und Ausblick.
Im Rahmen eines partizipatorischen Aktionsforschungsansatzes wurden die Lehrpersonen und Schüler/innen an einem Oberstufenrealgymnasium mit musischem Schwerpunkt und Montessori (MORG), drei Schuljahre, von 2012-2015, auf ihrem Weg zu einer inklusiven Schule wissenschaftlich begleitet. Basierend auf Einstellungs- und Selbstwirksamkeitstheorien und Ansätzen der inklusiven Pädagogik, sowie akteursbasierten Forschungen, richtete sich das Erkenntnisinteresse auf die Umsetzung einer inklusiven Lern- und Schulkultur – in einer Institution im Bildungssystem der Sekundarstufe II in Österreich, das von seiner Ausrichtung her hoch selektiv ist.
Mittels qualitativer und quantitativer Daten konnte rekonstruiert werden, von welchem Verständnis die Lehrpersonen am MORG (n=19) geleitet wurden, welche Kompetenzen sie aus ihrer Sicht für die Entwicklung einer inklusiven Bildung mitgebracht haben und wie sie die Inklusion am MORG umsetzten. Zur Erhebung der Einstellungen und Selbstwirksamkeitseinschätzungen der Lehrpersonen wurden die international und national erprobten SACIE-R (Sentiments, Attitudes and Concerns about Inclusive Education-Revi-sed) und TEIP (Teacher Efficacy for Inclusive Practice) Skalen in einer deutschsprachigen Fassung verwendet. Ferner wurde die empirische Erhebung im Rahmen einer webbasierten nationalen Befragung von Lehrpersonen an mehreren Schultypen erweitert (n= 427), um vergleichende Aussagen treffen zu können.
Inhaltsanalytisch verarbeitete Interviews und statistisch ausgewertete, im Forschungsteam erstellte Fragebögen für Erziehungsberechtigte (n= 37) sowie Schüler/innen (n=19), ermöglichten den vertieften Einblick in die Praxis aus mehreren Sichtweisen. Die Zusammenschau der Ergebnisse zeigt, dass es einem eher jungen Lehrerteam mit sehr positiven Einstellungen zur Inklusion von Jugendlichen mit Beeinträchtigungen – trotz anfänglicher Schwierigkeiten und selektiver systemischer Rahmenbedingungen auf der Sek. II – gelungen ist, eine für alle Schüler/innen lernförderliche und lebendige Schulkultur herzustellen. Dennoch blieben die Bemühungen der Lehrpersonen im Rahmen der Systemgrenzen. Eine Weiterentwicklung zu einer ‚Schule für alle‘, eine logische Konsequenz inklusionstheoretischer Ansätze, ist nicht festzustellen. Die Auswertungen bestätigen die bisher gewonnenen zentralen Erkenntnisse der Inklusions- und Akteursforschung und werden durch Ergebnisse erweitert, die im Zusammenhang mit den systemischen Rahmenbedingungen auf der Sek. II gesehen werden können.
Im Fokus der Arbeit steht die Frage des Kompetenzzuwachses in und durch außerunterrichtliche Sport- und Bewegungsangebote an rheinland pfälzischen Ganztagsschulen, die von Trainerinnen und Trainern angeboten und durchgeführt werden. Um dieser Fragestellung nachzugehen, wurden zunächst Schul- und Unterrichtsqualitätsmodelle auf das außerunterrichtlichen Sport- und Bewegungsangebot übertragen, um das zu untersuchende Setting im Kontext der rheinland-pfälzischen Ganztagsschullandschaft zu verorten und mögliche Einflussfaktoren und Wechselwirkungen vor dem Hintergrund des Kompetenzzuwachses der Teilnehmerinnen und -nehmer aufzuzeigen. Dem nachgestellt wurden während der Darlegung theoretischer Vorüberlegungen, wie z.B. Aspekte zum außerschulischen Bildungsverständnis und Sport und Bewegung in den Erziehungswissenschaften, Kategorien und Kriterien ermittelt, deren Nachweis den Kompetenzzuwachs der Schülerinnen und Schüler stark vermuten lassen. Die Untersuchungsleitlinie dieser Arbeit wurde ein qualitatives Forschungsdesign eingebunden. Die herangezogene Forschungsstrategie bildet eine vergleichende Fallanalyse. Als Erhebungsmethode dient das Experteninterview; ein problemorientiertes Interview im Übungsleiterinnen und -leitern, die für die Planung und Durchführung der in rheinland-pfälzischen Ganztagsschulen implementierten Sport- und Bewegungsangebote verantwortlich zeichnen. Die Auswertung erfolgte über eine modifizierte Form der qualitativen Inhaltsanalyse. In der Summe konnte aufgezeigt werden, dass es sich bei den untersuchten Sport- und Bewegungsangeboten um hochwertige Settings handelt, in denen Kriterien und hypothetische Annahmen aus den Schul- und Unterrichtsqualitätsmodellen aufgezeigt werden konnten und somit günstige Voraussetzungen –die aktive Teilnahme vorausgesetzt– für den Kompetenzerwerb der Schülerinnen und Schüler an Ganztagsschulen vorliegen.
Technologische Fortschritte auf dem Gebiet der integrierten Halbleitertechnik, die unter anderem auch zur gestiegenen Leistungsfähigkeit der Kamerasensoren beitragen, konzentrierten sich bisher primär auf die Schnelligkeit und das Auflösungsvermögen der Sensoren. Die sich ständig verändernde Entwicklung hat jedoch direkte Folgen auf das physikalische Verhalten einer Kamera und damit auch Konsequenzen für die erreichbare geometrische Genauigkeit einer photogrammetrischen 3D-Rekonstruktion. Letztere stand bisher nicht im Fokus der Forschung und ist eine Aufgabe, der sich diese Arbeit im Sinne der Photogrammetrie und Messtechnik stellt. Aktuelle Untersuchungen und Erfahrungen aus industriellen Projekten zeigen in diesem Zusammenhang, dass das geometrisch-physikalische Verhalten digitaler Kameras - für höchste photogrammetrische Ansprüche - noch nicht ausreichend modelliert ist. Direkte Aussagen zur erreichbaren Genauigkeit bei gegebener Hardware erweisen sich daher bislang als unzureichend. Ferner kommt es aufgrund der unpräzisen Modellierung zu Einbußen in der Zuverlässigkeit der erreichten Ergebnisse. Für den Entwickler präziser kamerabasierter Messverfahren folgt daraus, dass zu einer optimalen Schätzung der geometrischen Genauigkeit und damit auch vollständigen Ausschöpfung der Messkamera geeignete mathematische Modelle erforderlich sind, die das geometrisch physikalische Verhalten bestmöglich beschreiben. Diese Arbeit beschreibt, wie die erreichbare Genauigkeit einer Bündelblockausgleichung, schon a priori mithilfe des EMVA1288 Standards approximiert werden kann. Eine in diesem Zusammenhang wichtige Teilaufgabe ist die Schaffung einer optimalen Messanordnung. Hierzu gehören Untersuchungen der üblicherweise verwendeten Kalibrierkörper und die Beseitigung von systematischen Fehlern vor und nach der Bündelblockausgleichung. Zum Nachweis dieser Systematiken wird eine auf statistischem Lernen basierende Methode beschrieben und untersucht. Erst wenn alle genauigkeitsmindernden Einflüsse berücksichtigt sind, wird der Anteil des Sensors in den Messdaten sichtbar und damit auch mathematisch parametrisierbar. Die Beschreibung des Sensoreinflusses auf die erreichbare Genauigkeit der Bündelblockausgleichung erfolgt in drei Schritten. Der erste Schritt beschreibt den Zusammenhang zwischen ausgewählten EMVA1288-Kennzahlen und der Unsicherheit eines Grauwertes. Der zweite Schritt ist eine Modellierung dieser Grauwertunsicherheit als Zentrumsunsicherheit einer Zielmarke. Zur Beschreibung dieser Unsicherheit innerhalb der Bündelblockausgleichung wird ein stochastisches Modell, basierend auf dem EMVA1288-Standard, vorgeschlagen. Ausgehend vom Rauschen des Zielmarkenmittelpunktes wird im dritten Schritt die Unsicherheit im Objektraum beispielhaft mit Hilfe von physikalisch orientierten Simulationen approximiert. Die Wirkung der vorgeschlagenen Methoden wird anhand von Realkalibrierungen nachgewiesen. Abschließend erfolgt die Diskussion der vorgeschlagenen Methoden und erreichten Ergebnisse sowie ein Ausblick auf kommende Untersuchungen.
Die zytologische Untersuchung des Knochenmarks dient der Abklärung von
Abweichungen des Differentialblutbildausstriches, zur Ursachenbestimmung bei Blutarmut (Anämie), dem Ausschluss eines Knochenmarkbefalls bei Lymphknotenvergrößerungen (Lymphomen) und wird zudem bei Verdacht auf Leukämie durchgeführt.
Selbst für erfahrene Hämatologen ist die manuelle Klassifikation von Knochenmarkzellen zeitaufwändig, fehleranfällig und subjektiv. Aus diesem Grund wurden im Rahmen dieser Arbeit neue Methoden der Bildverarbeitung und Mustererkennung für eine automatische Klassifikation von hämatopoetischen Zellen samt Vorverarbeitung für ein computer-assistiertes Mikroskopiesystem entwickelt, welche anhand einer einzigartig großen Referenzdatenbank evaluiert und ausgewertet wurden. Die vorgeschlagenen Bildanalyseverfahren für Knochenmarkpräparate, welche insbesondere die Detektion der Ausstriche, die Bestimmung von relevanten Regionen, die Lokalisierung und Segmentierung von einzelnen Zellen sowie die Merkmalsextraktion und Klassifikation automatisieren, liefern die Basis für das weltweit erste System zur automatischen, morphologischen Analyse von Knochenmarkpräparaten für die Leukämiediagnose und stellen daher einen wichtigen Beitrag für eine bessere und effizientere Patientenversorgung in der Zukunft dar.
Retrospektive Analyse der Ausbreitung und dynamische Erkennung von Web-Tracking durch Sandboxing
(2018)
Aktuelle quantitative Analysen von Web-Tracking bieten keinen umfassenden Überblick über dessen Entstehung, Ausbreitung und Entwicklung. Diese Arbeit ermöglicht durch Auswertung archivierter Webseiten eine rückblickende Erfassung der Entstehungsgeschichte des Web-Trackings zwischen den Jahren 2000 und 2015. Zu diesem Zweck wurde ein geeignetes Werkzeug entworfen, implementiert, evaluiert und zur Analyse von 10000 Webseiten eingesetzt. Während im Jahr 2005 durchschnittlich 1,17 Ressourcen von Drittparteien eingebettet wurden, zeigt sich ein Anstieg auf 6,61 in den darauffolgenden 10 Jahren. Netzwerkdiagramme visualisieren den Trend zu einer monopolisierten Netzstruktur, in der bereits ein einzelnes Unternehmen 80 % der Internetnutzung überwachen kann.
Trotz vielfältiger Versuche, dieser Entwicklung durch technische Maßnahmen entgegenzuwirken, erweisen sich nur wenige Selbst- und Systemschutzmaßnahmen als wirkungsvoll. Diese gehen häufig mit einem Verlust der Funktionsfähigkeit einer Webseite oder mit einer Einschränkung der Nutzbarkeit des Browsers einher. Mit der vorgestellten Studie wird belegt, dass rechtliche Vorschriften ebenfalls keinen hinreichenden Schutz bieten. An Webauftritten von Bildungseinrichtungen werden Mängel bei Erfüllung der datenschutzrechtlichen Pflichten festgestellt. Diese zeigen sich durch fehlende, fehlerhafte oder unvollständige Datenschutzerklärungen, deren Bereitstellung zu den Informationspflichten eines Diensteanbieters gehören.
Die alleinige Berücksichtigung klassischer Tracker ist nicht ausreichend, wie mit einer weiteren Studie nachgewiesen wird. Durch die offene Bereitstellung funktionaler Webseitenbestandteile kann ein Tracking-Unternehmen die Abdeckung von 38 % auf 61 % erhöhen. Diese Situation wird durch Messungen von Webseiten aus dem Gesundheitswesen belegt und aus technischer sowie rechtlicher Perspektive bewertet.
Bestehende systemische Werkzeuge zum Erfassen von Web-Tracking verwenden für ihre Messung die Schnittstellen der Browser. In der vorliegenden Arbeit wird mit DisTrack ein Framework zur Web-Tracking-Analyse vorgestellt, welches eine Sandbox-basierte Messmethodik verfolgt. Dies ist eine Vorgehensweise, die in der dynamischen Schadsoftwareanalyse erfolgreich eingesetzt wird und sich auf das Erkennen von Seiteneffekten auf das umliegende System spezialisiert. Durch diese Verhaltensanalyse, die unabhängig von den Schnittstellen des Browsers operiert, wird eine ganzheitliche Untersuchung des Browsers ermöglicht. Auf diese Weise können systemische Schwachstellen im Browser aufgezeigt werden, die für speicherbasierte Web-Tracking-Verfahren nutzbar sind.
Changing Lives through Relocation - Ethnography of a Socialized Housing Project in the Philippines
(2018)
Changing lives through relocation - This is the vision of a socialized housing project in the Philippines which is subject of this dissertation. It is a polyphonic ethnography that investigates the transition process from an informal, marginalized, self-organized lifestyle in squatter areas and dumpsite settlements to an institutionalized and policy-based life in the socialized housing project. The transition process is analyzed from a material cultural perspective taking into account selected aesthetic theories. With this approach, the dissertation aims to contribute to the study of the aesthetic dimension of everyday life from an ethnographic perspective. Aesthetics are applied on three levels: (1) On the theoretical level, the concepts of social aesthetics and atmospheres enrich the analysis of the interrelation between the residents and their new house in the socialized housing project. (2) On the methodological level, the relevance of aesthetic experiences for the ethnographic knowledge process are discussed. And (3) on the descriptive level, selected and thematically relevant sensory and aesthetic experiences of the researcher inform the ethnographic account in the form of memoirs. By incorporating aesthetic theories, the dissertation gives a more holistic account of the dynamics active in the transition process. It shows that the change of lifestyle is experienced sensorily through the daily physical engagement with the new material environment, i.e. its specific materiality and infrastructure, its affordances and constraints giving rise to new experiences and needs. In this process, the residents become aware of the differences between the past and present way of life and thus experience the new challenges through their physical being in the new material environment. On the one hand, this evokes a nostalgic attitude towards their previous life, but on the other hand, it also gives form to ideas of a possible future.
Maßnahmen der Führungskräfteentwicklung verfolgen das Ziel den Führungsnachwuchs des Unternehmens zu bilden und für einen reibungslosen Einstieg in die Füh-rungsaufgabe zu sorgen. In der Literatur gibt es zahlreiche Theorien und Modelle zu Führung und deren Entwicklung, doch offen bleibt meist, wie es um den praktischen Einsatz und die Effektivität steht. Das Ziel dieser Arbeit ist die Identifikation wesentlicher Bestandteile der Führungskräfteentwicklung, die effektiv Einfluss auf (Nachwuchs-)Führungskräfte nehmen. Drei Studien beschäftigen sich jeweils mit unter-schiedlichen Schwerpunkten mit der Gestaltung und Wirksamkeit von modularen Programmen der Führungskräfteentwicklung. Zur Beschreibung der Gestaltung wurde eine Expertenbefragung unter Verantwortlichen für Führungskräfteentwicklung in 4 Großunternehmen durchgeführt. Zur Prüfung der Wirksamkeit wurden zwei Prädiktoren erfolgreichen Führens, die praktische Führungsintelligenz und die Führungswirksamkeitserwartung (FWE), in zwei repräsentativen modularen Programmen gemessen. Dafür wurden zwei quasiexperimentelle Designs mit Prätest-Posttest durchgeführt: ein Design mit zusätzlicher Kontrollgruppe (Nexp = 14, Nkontr = 12), ein Design mit zusätzlicher Fremdeinschätzung (N = 11 bis N =57 je nach Messzeitpunkt und beteiligten Variablen). Die praktische Führungsintelligenz wurde anhand eines für die Untersuchung entwickelten Situational Judgment Tests (SJTs) gemessen. Neben der FWE (in Anlehnung an die Skala zur Erfassung der beruflichen Selbstwirksamkeitserwartung, BSW-Skala) wurden weitere Konstrukte wie Selbstregulation (Locomotion-Assessment-Fragebogen, L-A-F), Optimismus (Skala Optimismus-Pessimismus-2, SOP2) Selbstmanagement (Fragebogens zur Erfassung von Ressourcen und Selbstmanagementfähigkeiten, FERUS) erfasst, sowie explorativ entwicklungsförderliche Merkmale erhoben. Entsprechend der Annahme verdichten sich die Ergebnisse auf drei Merkmale wirksamer Trainingsgestaltung: Erfahrungssammlung, Feedback, Selbstreflexion. Es konnte nachgewiesen werden, dass Programme mit hohem erfahrungsorientiertem Trainingsanteil, die Erfolgserlebnisse und Modelllernen fördern sowie persönliche Gespräche und Feedback beinhalten, die FWE (ŋ2 = .24, ŋ2 = .50) und die praktische Führungsintelligenz (ŋ2 = .54). signifikant (p<.05) steigern. Deutlich wurde auch der enge Zusammenhang zwischen Merkmalen der Person (wie Ausprägung der FWE oder Selbstregulationsfähigkeiten) und der Wirksamkeit der Programme. Aus den Ergebnissen werden Empfehlungen zur praktischen Umsetzung in der Führungskräfteentwicklung abgeleitet und Anregungen für zukünftige Forschung diskutiert.
Die Dissertation bietet eine Langzeituntersuchung deutscher TV-Duelle hinsichtlich der Fragen, inwieweit die in den Debatten behandelten Themen mit den seitens der Wählerschaft wahrgenommenen politischen Probleme korrespondieren sowie ob die in den TV-Duellen diskutierten, akteursspezifischen Themen einen Einfluss auf die Problemwahrnehmung der Wählerschaft und die wahrgenommene Responsivität politischer Akteure hat. Zu diesem Zweck werden die Inhalte und Effekte der Kanzlerduelle 2002-2013 sowie der zwischen 1997 und 2016 durchgeführten TV-Duelle auf Landesebene untersucht. Die empirische Untersuchung basiert auf der Durchführung und Auswertung von Inhaltsanalysen, der Analyse von Bevölkerungsumfragen und der Untersuchung von Experimentaldaten, die anlässlich der Kanzlerduelle in den Jahren 2002, 2009 und 2013 durchgeführt wurden. Die Analysen zeigen, dass TV-Duelle keine reine Show-Veranstaltung darstellen, sondern das Hauptaugenmerk in TV-Duellen auf politischen Inhalten (statt unterhaltenden Elementen) liegt, die (lagerspezifische) Responsivität des Formats im Zeitverlauf angestiegen ist und erfolgreiche Persuasion – als eine von zwei Themenmanagementstrategien – vor allem der Herausforderer dazu führen kann, dass Zuschauer die Effektivität des politischen Systems besser bewerten.
Die vorliegende Arbeit verfolgt das Erkenntnisinteresse, die Hindernisse auf der Ebene der kulturellen Muster und Wertvorstellungen zu ermitteln, die der Implementierung eines dualen Ausbildungssystems nach bundesdeutschem Vorbild in den USA entgegenwirken. Es wird ein Einblick in die historische und systematische Verwobenheit von gesellschaftlichen Teilstrukturen gegeben und verdeutlicht, warum solche Teilstrukturen nicht ohne Weiteres in andere gesellschaftliche Kontexte übertragen werden können.
Nach einer begrifflichen und theoretischen Grundlegung von deutschen und US-amerikanischen Formen betrieblicher Ausbildung werden die beiden Systeme miteinander verglichen, um signifikante Unterschiede zu identifizieren und dabei erste Anhaltspunkte für vorhandene Inkompatibilitäten auf der strukturellen Ebene zu erhalten. Hierbei steht die Frage im Vordergrund, inwieweit die dominanten und dauerhaften Charakteristika und Komponenten des deutschen Ausbildungsmodells im US-amerikanischen System wiedergefunden werden können. Durch die Einnahme einer kulturalistischen Perspektive werden die kulturspezifischen Werte und Praktiken Deutschlands und der USA erarbeitet, um die Kulturgebundenheit der Struktur, Organisation und Rahmenbedingungen von dualen Berufsausbildungen zu verdeutlichen. Hierfür wird eine Kombination aus einem etischen und einem emischen Vorgehen angewandt und die ermittelten Daten in Form einer kontrastierenden Darstellung aufbereitet, aus der die prägnantesten Kulturunterschiede hervorgehen. Mit Hilfe der erlangten Erkenntnisse werden Ansätze für ein System der dualen Berufsausbildung in den USA entwickelt, das die Implikationen aus dem Kulturvergleich aufgreift und so die für das deutsche System charakteristischen Merkmale unter Berücksichtigung der spezifischen kulturellen Muster adaptiert.
Tradierte Managementsysteme und primär auf die Erfüllung finanzieller Ziele ausgerichtete Führungsansätze scheinen heute der wirtschaftlichen Dynamik nicht mehr gewachsen. Die Zahl ausgebrannter Führungskräfte und Mitarbeiter nimmt zu. Ebenso der volkswirtschaftliche Schaden durch schlechte Führungsleistung. Zwar beeinflussen externe Faktoren wie globaler Wettbewerb, aufkeimende Handelskriege, die Digitalisierung in Wirtschaft und Gesellschaft die Rahmensetzungen für Unternehmen. Die Entscheidung über Erfolg oder Misserfolg verlagert sich aber signifikant nach Innen.
Diese Arbeit zeigt auf, dass Wissenschaftler und erfolgreiche CEOs einen Paradigmenwechsel fordern, da sie Kommunikationsbereitschaft und Kommunikationsfähigkeit als die relevanten Erfolgsfaktoren identifizieren. Unterstützend bestätigen interdisziplinäre Erkenntnisse und Forschungsergebnisse anderer Disziplinen – speziell der Neurowissenschaften, die Wirksamkeit einer Kommunikationskultur, die alle Sinne des Menschen aktiviert.
Das Phänomen der Kommunikation ganzheitlich zu verstehen und mittels dialogbasiertem Management umzusetzen, wird zum neuen Erfolgsschlüssel und wirkt sich auf alle unternehmerischen Prozesse, Führungs- und Interaktionssituationen aus. Unabhängig von Betriebsgröße und Branche. Die durch Dialog in Gang gesetzte positive reziproke Eskalation führt dazu, dass Kollegen/Mitarbeiter ihr Können und ihr Engagement in viel höherem Maße freiwillig zur Verfügung stellen, als es z.B. finanzielle Anreizsysteme je bewirken können.
Die Empirie dieser Forschungsarbeit spiegelt das Wissen der 22 hoch erfolgreichen österreichischen CEOs, Führungskräfte und Firmeneigentümer über Interne Kommunikation und deren Annäherung an diese Führungsaufgabe wider. In der Folge sind Leit-Ideen das vernetzte Ergebnis der theoretischen und empirischen Analysen. Diese daraus destillierten Leit-Ideen stehen für einen radikal dialogbasierten Kommunikationsansatz, der sämtliche Management-, Geschäfts- und Unterstützungsprozesse determiniert.
Verstehen CEOs und Führungskräften eine dialogbasierte Interne Kommunikation als eindeutig ihnen zufallende Führungsaufgabe, kann heute und in Zukunft die Querschnittsmaterie Interne Kommunikation zum größten Ressourcen-Pool für unternehmerischen Erfolg werden, so die diesbezüglichen Schlussfolgerungen.
Die vorliegende Arbeit geht der Frage nach, wie sich Teilhabe und Inklusion von Menschen mit Lernschwierigkeiten in der allgemeinem Erwachsenenbildung realisieren lassen und was wesentliche Elemente und Rahmenbedingungen einer inklusiven Erwachsenenbildung mit Menschen mit Lernschwierigkeiten sind.
Menschen mit Lernschwierigkeiten haben ein gesetzlich verankertes Recht auf Teilhabe an inklusiver Erwachsenenbildung. Inklusive Erwachsenenbildung bezeichnet gemäß der UN-BRK die Teilnahme und Partizipation auch von Menschen mit Lernschwierigkeiten an allgemeiner Erwachsenenbildung, im Vordergrund steht das gemeinsame Lernen im regulären Programm allgemeiner Erwachsenenbildungseinrichtungen.
In der Aufarbeitung des theoretischen Diskurses und der praktischen Realisierung inklusiver Erwachsenenbildung zeigt sich allerdings, dass das Erwachsenenbildungsangebot für diese Personengruppe und die Möglichkeiten der Teilhabe am allgemeinen Erwachsenenbildungssystem in Deutschland eingeschränkt
sind. Umfassende Praxismodelle inklusiver Erwachsenenbildung sind erst in Ansätzen vorhanden, auch die Rahmenbedingungen gelingender inklusiver Erwachsenenbildung wurden kaum systematisch aufgearbeitet. Somit gilt es, für den Bereich der Erwachsenenbildung Konzepte zu entwickeln, die den Abbau von Barrieren und die Förderung von gleichberechtigter Teilhabe und Inklusion unterstützen. Es ist davon
auszugehen, dass die Kenntnis von wesentlichen Elementen und Rahmenbedingungen allgemeine Erwachsenenbildungseinrichtungen bei der Implementierung und Weiterentwicklung inklusiv gestalteter Erwachsenenbildung unterstützen und somit die Teilhabemöglichkeiten für Menschen mit Lernschwierigkeiten gezielt erweitern kann. Ziel dieser Arbeit ist deshalb die Erhebung und Beschreibung von wesentlichen Elementen und Rahmenbedingungen inklusiver Erwachsenenbildung.
Da es in Deutschland an Erfahrungswerten sowie der systematischen Ausarbeitung notwendiger Realisierungsbedingungen
inklusiver Erwachsenenbildung mangelt, richtet die vorliegende Arbeit ihren Blick in einem zweiten Schritt auf die ‚Inspiring Practice’ anderer Länder. In einer empirischen qualitativ-
explorativen Studie in elf Erwachsenenbildungseinrichtungen und -institutionen Englands werden mit Hilfe von 55 Leitfadeninterviews wesentliche Elemente und Rahmenbedingungen aus Sicht
der beteiligten Akteure erhoben und ausgewertet. Flankiert durch teilnehmende Beobachtungen, Dokumentenanalysen
und Gespräche liefern die Ergebnisse zugleich einen Einblick in die praktische Umsetzung inklusiver Erwachsenenbildung in England. Die Wahl fiel auf England, weil in diesem europäischen Land inklusive Erwachsenenbildung bereits seit den 1990er Jahren als fester Bestandteil
des Bildungssystems verankert ist und umfängliche Erfahrungen gesammelt werden konnten.
Aus der Analyse dieser Erfahrungswerte werden in der Diskussion und Zusammenschau mit theoretischen Überlegungen und praktischen Umsetzungen richtungsweisende Impulse für die Weiterentwicklung
der inklusiven Erwachsenenbildung in Deutschland abgeleitet und in einem Perspektivkonzept einer inklusiven Erwachsenenbildung zusammengefasst.
Veränderungen in dem komplexen Wirkungsgefüge eines Agrarökosystems können erhebliche Auswirkungen auf die lokale Biozönose zur Folge haben. Die Überdachung von Obstkulturen mit Netzen oder Folien zum Schutz vor Hagel und Regen stellt eine solche Veränderung dar. Im Rahmen dieser Dissertation wurde anhand einer biozönotischen Risikoanalyse der Einfluss intensiver Landnutzung in Obstkulturen sowie der Einfluss von Kulturschutzeinrichtungen auf die drei Gilden tagaktive Greifvögel, insektivore Vögel und Arthropoden untersucht. Greifvögel, insektivore Vögel und räuberische Arthropoden üben als Prädatoren wichtige Regulationsfunktionen im Nahrungsnetz eines Ökosystems aus. Arthropoden stellen zudem eine wichtige Nahrungsressource dar. Arten aller drei Gilden gelten als Bioindikatoren für Veränderungen im Ökosystem. Phytophage Arthropoden können landwirtschaftlich genutzte Monokulturen erheblich schädigen, weshalb die konventionelle Landwirtschaft zur gezielten Tötung solcher Schädlinge Insektizide einsetzt. Pestizidbehandlungen haben allerdings oft auch Auswirkungen auf viele Nützlinge und andere Organismen im Agrarökosystem.
Die visuelle Erfassung beider Vogelgilden sowie das Fangen der Arthropoden mit Boden- und Flugfallen erfolgte von März bis Juli in den Jahren 2011-2013 auf fünf Untersuchungsflächen im rheinland-pfälzischen Obstanbaugebiet Mainz-Bingen. Es wurden zwei benachbarte Apfelkulturen (eine Kontrollfläche und eine Versuchsfläche mit Hagelschutznetz) und zwei benachbarte Kirschkulturen (eine Kontrollfläche und eine Versuchsfläche ab 2012 mit Folien-Netz-Überdachung) sowie eine nahegelegene Streuobstfläche im lokalen NSG Höllenberg als naturnahe Kontrollfläche untersucht. Zusätzlich wurden im ersten Untersuchungsjahr vom 15. März bis 28. Juli 2011 auf allen Flächen die Ergebnisse einer täglichen automatischen akustischen Erfassung durch ein Stereo-Aufnahmegerät („Songmeter 2“, Wildlife Acoustics) mit denen einer wöchentlichen rein visuellen Erfassung der Vögel verglichen. Es gab keine signifikanten Unterschiede in Detektionseffizienz und Arterfassung der Avifauna zwischen beiden Methoden. Die lokale α-Diversität nach Simpson unterschied sich ebenfalls nicht signifikant zwischen beiden Methoden. Das akustische Monitoring detektierte mehr seltene (=weniger als zehn Funde im Untersuchungszeitraum) Vogelarten; 29% der Arten wurden ausschließlich akustisch nachgewiesen und knapp 13% ausschließlich visuell. Sieben Vogelarten unterschieden sich signifikant in ihrer ermittelten Abundanz zwischen beiden Methoden: Bachstelze, Feldlerche, Mauersegler und die Greifvögel Mäusebussard und Turmfalke waren besser bzw. der Schwarzmilan ausschließlich mit dem visuellen Monitoring zu erfassen, während der Fasan ausschließlich durch das akustische Monitoring nachgewiesen werden konnte. Für die Abundanzschätzung von 48 Vogelarten war es unerheblich, ob sie akustisch oder visuell erfasst wurden. Da seltene Arten bei biozönotischen Untersuchungen keine wesentliche Rolle spielen und die Auswertung der Akustikaufnahmen sehr zeitaufwändig war, wurden für die Risikoanalyse nur die visuell ermittelten Daten berücksichtigt.
Für die Greifvogel-Gilde wurden sechs Arten nachgewiesen, fünf auf der Kirschkontrollfläche und jeweils vier Arten auf den anderen Flächen. Die drei häufigsten Arten waren Mäusebussard, Turmfalke und Schwarzmilan. Greifvögel wurden im Luftraum der Flächen oder auf Sitzwarten wie Zäunen, Pfählen, Bäumen und Kulturschutzeinrichtungen bei der Nahrungssuche oder beim Revierverhalten beobachtet. Es konnte kein Einfluss der Landnutzung auf Greifvögel aufgezeigt werden, Diversität und Abundanz unterschieden sich nicht zwischen den Obstkulturen und der naturnahen Streuobstfläche im NSG. Ein Einfluss von Kulturschutzeinrichtungen auf Greifvögel konnte ebenfalls nicht nachgewiesen werden, die überdachten Flächen wurden genauso oft frequentiert wie die Kontrollflächen. Greifvögel überflogen innerhalb ihrer großen Aktionsräume auch die überdachten Obstkulturen zur Nahrungssuche und wurden weiterhin bei der Ansitzjagd am Rand der Versuchsflächen gesichtet. Zudem wurde der Turmfalke beim Ansitzen unter der Folien-Netz-Überdachung der Kirschkultur sowie beim Fressen auf dieser Überdachung sitzend beobachtet. Für die Insektivoren-Gilde wurden 52 Vogelarten nachgewiesen. Die Streuobstfläche im NSG wies die höchste Artenzahl von 40 auf, gefolgt von der Apfelkontrollfläche mit 27 Arten. Die Apfelversuchsfläche wies dagegen eine geringere Artenzahl von 19 auf, während die Artenzahlen beider Kirschkulturen mit 19 und 18 annähernd gleich gewesen sind. Die zehn häufigsten Arten waren in Reihenfolge ihrer Abundanz Kohlmeise, Star, Rabenkrähe, Amsel, Mauersegler, Bachstelze, Blaumeise, Buchfink, Feldlerche und Stieglitz. Insektivore Vögel wurden überwiegend nahrungssuchend am Boden und in Bäumen der Flächen oder beim Revierverhalten wie Singen, Rufen und Vigilanz auf Sitzwarten Zäunen, Pfählen sowie Kulturschutzeinrichtungen beobachtet. Die intensive Landnutzung der Obstkulturen führte im Vergleich zur naturnahen Streuobstfläche im NSG sowohl auf der Apfel- als auch auf der Kirschkontrollfläche zu einer hochsignifikant geringeren monatlichen Vogelartenzahl. Eine signifikant niedrigere Abundanz der insektivoren Vögel wies jedoch nur die Kirschkontrollfläche auf. Es wurden negative Effekte der intensiven Landnutzung auf die monatliche Abundanz von Gartenrotschwanz, Amsel und Blaumeise nachgewiesen, welche in den Obstkulturen hochsignifikant seltener beobachtet wurden. Der Einsatz von Kulturschutzeinrichtungen führte lediglich beim Hagelschutznetz zu einer zusätzlichen signifikanten Verringerung der monatlichen Vogelartenzahl. Die Folien-Netz-Kombination zeigte keinen signifikanten Einfluss auf die Vogeldiversität. Die Gesamtabundanz der Insektivoren-Gilde blieb in beiden Obstkulturen von Kulturschutzeinrichtungen unbeeinflusst. Abundanzen einzelner Arten zeigten jedoch abweichende Ergebnisse: Die Ringeltaube wurde unter dem Hagelschutznetz der Apfelkultur im Vergleich zur Kontrollfläche gar nicht beobachtet. Die Kohlmeise kam unter der Folien-Netz-Überdachung der Kirschkultur signifikant seltener vor, während der Wiedehopf hier etwa zehnmal häufiger vorkam als auf der Kirschkontrollfläche und der Streuobstfläche im NSG Höllenberg. Entscheidender Faktor für die starke Nutzung der Kirschkulturen waren für den Wiedehopf die vorhandenen vegetationsfreien Bodenbereiche, in denen diese Art bevorzugt nach Nahrungsinsekten sucht. Störungen durch die bei Wind laut flatternde Folienüberdachung auf darunter nahrungssuchende Wiedehopfe wurden nicht beobachtet.
Für die Arthropoden-Gilde wurden 185963 Individuen aus 18 Gruppen gefangen. Der Großteil von 79% dieser Individuen ließ sich Springschwänzen, Ameisen, Zweiflüglern oder Käfern zuordnen. Weitere 20% verteilten sich auf Webspinnen, Asseln, Hautflügler, Milben, Doppelfüßer, Weberknechte, Schnabelkerfe und Ohrwürmer. Die restlichen sechs Arthropodengruppen stellten den restlichen Individuenanteil von 0,9%. Hinsichtlich der determinierten 12910 Käfer-Imagines aus 403 Arten waren Artenzahl, Diversität sowie Anzahl seltener Arten und Habitatspezialisten sandiger Lebensräume in allen drei Untersuchungsjahren auf der naturnahen Streuobstfläche im NSG Höllenberg am höchsten. Die über Bodenfallen ermittelte Arthropoden-Trockenbiomasse lag je nach Fläche bei 9 bis 26 Gramm pro Jahr und die über Flugfallen ermittelte Arthropoden-Trockenbiomasse bei 0,6 bis 4,8 Gramm pro Jahr. Obwohl im Mittel jährlich 5,8 Pestizidbehandlungen in den Kirschkulturen sowie 14,6 Behandlungen in den Apfelkulturen durchgeführt wurden und Insektizide dabei anteilig bis zu 57% ausmachten, konnte kein Einfluss der intensiven Landnutzung mit dem Einsatz von Pestiziden auf die Arthropoden-Trockenbiomasse nachgewiesen werden. Kulturschutzeinrichtungen zeigten ebenfalls keinen Einfluss auf die Arthropoden-Trockenbiomasse.
Diese biozönotische Risikoanalyse belegt, dass der Einsatz von Kulturschutzeinrichtungen zumindest bei Hagelschutznetzen langfristig nachweisbare negative Effekte auf die Diversität von insektivoren Vögeln bewirken kann, welche über die vorhandenen negativen Folgen der intensiven Landnutzung in Obstkulturen hinausgehen. Da intensiv bewirtschaftete Obstkulturen bereits ohne Kulturschutzeinrichtungen zu einer Verarmung der lokalen Biozönose führen, sollte aus ökologischer Sicht vor der Errichtung von Kulturschutzeinrichtungen verlässlich abgewogen werden, ob der zusätzliche Verlust an Biodiversität durch die Verbesserung von Flächenstrukturen der Obstkulturen kompensierbar ist.
Während es eine Vielzahl von Arbeiten zu der technologischen Entwicklung im Bereich der erneuerbaren Energien gibt, fehlt es jedoch bislang an einer mikroökonomischen Analyse
der Verhaltensmuster der Akteure im Umfeld von Anlagen nach dem EEG. Als Akteure kommen hier in erster Linie der Anlagenbetreiber selbst und der Staat in Betracht.
Im Hinblick auf Anlagenbetrieb und Vergütung der erzeugten Energie können beide mit unterschiedlichsten Interessen und Nutzenkalkülen aufeinander treffen. Diese Arbeit untersucht
mikroökonomische Aspekte des EEG-Förderungssystems. Im Mittelpunkt der Betrachtung stehen die Förderungsmechanismen für Biogasanlagen, die im Hinblick auf mögliche Prinzipal-Agenten-Konflikte einer Untersuchung unterzogen werden.
Die Vermeidung von Lebensmittelabfällen als nicht-technische Strategie zur Umsetzung der Bioökonomie
(2018)
Das Konzept der Bioökonomie beruht auf der Vision einer Wirtschaft, die durch die bevorzugte Verwendung biogener Rohstoffe unabhängiger wird von der Nutzung fossiler Quellen und gleichzeitig einen Beitrag zu Klima- und Ressourcenschutz, Ernährungssicherung und Stärkung der heimischen Wirtschaft leisten kann. Da die land- und forstwirtschaftliche Bio-masseproduktion aufgrund knapper Flächen jedoch begrenzt ist und sich bereits heute die negativen Folgen einer verstärkten Nachfrage zeigen, wird bezweifelt, dass sich die Vision in nachhaltiger Weise realisieren lässt. Offizielle Bioökonomie-Strategien setzen auf einen Technik-basierten Umsetzungspfad, in der Hoffnung, mit Hilfe technischer Innovationen Biomasseproduktion und Umweltverbrauch zu entkoppeln. Kritiker aus Wissenschaft und Zivilgesellschaft stehen diesem Weg skeptisch gegenüber. Sie befürchten, dass Effizienzsteigerungen und die Entwicklung neuer, umweltverträglicher Konversionsprozesse nicht ausreichen werden, um potentiell negative Folgen einer verstärkten Biomassenutzung abzuwenden. Angesichts der natürlichen Grenzen der Biosphäre sehen sie vor allem nicht-technische Ansätze zur Veränderung von Produktions- und Konsummustern als unverzichtbare Voraus-setzungen an. Mit der Formulierung eines sozial-ökologischen Umsetzungspfads wird eine Modifizierung des Bioökonomie-Konzepts gefordert, von einem bloßen Wandel der Ressourcenbasis hin zu einer umfassenden gesellschaftlichen Transformation, mit dem Ziel, Ressourcenverbrauch und Rohstoffproduktion neu zu justieren.
Die Arbeit stellt anhand des Beispiels der Lebensmittelabfälle die Bedeutung nicht-technischer Ansätze für die Realisierung der Bioökonomie heraus. Die Basis bilden fünf Publikationen, von denen sich drei mit dem Aufkommen von Lebensmittelabfällen, den Ursachen ihrer Entstehung und möglichen Vermeidungsstrategien befassen. Die anderen beiden Veröffentlichungen behandeln Flächenkonkurrenzen in der Landwirtschaft sowie Implementierungspfade der Bioökonomie. Die Arbeit kommt zu dem Schluss, dass der Beitrag von Lebensmittelabfällen zur Bioökonomie auf zwei Weisen denkbar ist: Entweder können diese als Ausgangsstoff für die Biogasproduktion oder die Bioraffinerie genutzt werden, was der aktuell vorherrschenden Vorstellung entspricht. Oder es können durch eine Reduktion des Abfallaufkommens Ressourcen, die bisher in die Bereitstellung nicht konsumierter Lebensmittel flossen, für andere Biomassenutzungen freigesetzt werden.
Die Analyse des Abfallaufkommens und der damit verbundenen Umweltwirkungen, aber auch vorhandene Studien über die ökologischen Wirkungen von Abfallvermeidungs- und verwertungsoptionen zeigen, dass die Vermeidung unter dem Gesichtspunkt der Ressourceneffizienz die sinnvollere Option darstellt. Die Arbeit hebt das Potenzial hervor, das sich aus der Berücksichtigung einer Reduktion von Lebensmittelabfällen für die Bioökonomie ergeben könnte. So ist denkbar, dass durch einen effizienteren Umgang mit den bereits produzierten Nahrungsmitteln Ressourcen freigesetzt werden können, die den Spielraum für die Realisierung der Bioökonomie verbessern würden oder aber Perspektiven entstehen für alternative Formen des Landbaus, die eine umweltverträglichere Biomasseproduktion ermöglichen könnten. Da nicht-technische Ansätze in der aktuellen Bioökonomie-Debatte kaum Berücksichtigung finden, besteht Bedarf, diese in das politische Konzept der Bioökonomie einzubeziehen und den wissenschaftlichen Diskurs für diese Aspekte zu öffnen.
Exposition in der Versorgungspraxis: Zur Frage der Umsetzbarkeit und Prädiktion früher Veränderungen
(2018)
Ziel der vorliegenden Arbeit war die Beantwortung folgender Fragestellungen: 1. Wie wirksam ist ein evidenzbasiertes Expositionsmanuals bei Panikstörung mit Agoraphobie in der Routineversorgung? 2. Was sind mögliche Barrieren und Hindernisse bei der Umsetzung der Exposition? 3. Was sind Prädiktoren früher Veränderungen im Therapieverlauf?
Methode: Im Rahmen einer prospektiven Längsschnittstudie wurden die Daten der vorliegenden Studie mit denen der Multicenter-Studie von Gloster et al. (2011) mittels Effektstärken und Testung auf Äquivalenz verglichen. Grundlage war das Manual von Lang, Helbig-Lang, Westphal, Gloster und Wittchen (2011). Die Patientinnen und Patienten und Therapeutinnen und Therapeuten wurden zu den Hausaufgaben, der Umsetzung im Alltag und der therapeutischen Beziehung befragt. Zusätzlich wurde die wechselseitige Beeinflussung von therapeutischer Allianz und dem Behandlungserfolg im Therapieverlauf untersucht. In Anlehnung an Westra, Marcus und Dozois (2007) wurde getestet, ob bei es Patientinnen und Patienten mit einer hohen Hausaufgaben-Compliance und einer positiven Behandlungserwartung vor Beginn der Therapie zu einer frühen Reduktion der Panik-Symptomatik kommt und ob frühe Veränderungen durch die Compliance und die Behandlungserwartung beeinflusst werden.
Ergebnisse: 1. Die Behandlung war in der Versorgungspraxis nicht weniger effektiv als in der Multicenter-Studie. 2. Die Abbrecherquote lag bei 20.59%. Die meisten Behandelten gaben an, ihre Hausaufgaben wie besprochen erledigt zu haben und schätzten sie nicht übermäßig schwer ein. Die Umsetzbarkeit der Anforderungen im Alltag wurde von den Patientinnen und Patienten sehr hoch eingeschätzt. Die meisten Therapeutinnen und Therapeuten stimmten der Aussage, die Umsetzung der massierten Exposition sei im therapeutischen Alltag nicht praktikabel eher nicht oder gar nicht zu. Je negativer die Einschätzungen der therapeutischen Beziehung durch die Behandelten war, umso höher waren die Panikwerte am Ende der Therapie. Der HAQ-S korrelierte mit dem Outcome zu r = .21, der HAQ-F zu r = .37. 3. Die beiden Mediator-Hypothesen von Westra et al. (2007) konnten nicht bestätigt werden.
Diskussion: Die Behandlung ist in der Routineversorgung wirksam und praktikabel. Die Hausaufgaben scheinen frühe Veränderungen nicht zu prädizieren. In späteren Arbeiten des Forschungsprojektes wird notwendig sein, zudem die differentielle Wirksamkeit des angepassten Manuals zu untersuchen, und zwar mittels drei aktiver Vergleichsgruppen: massierte Exposition versus prolongierte Exposition versus die Kombination beider.
Schrift ist in ihrer Besonderheit verkannt, versteht man sie allein als Mittel zur Stillstellung gesprochener Sprache. Phänomene wie Schriftbildlichkeit, Operativität und die Physiognomie des Schriftbildes machen Schrift zu einem Medium. In der Entwicklung und in der Verwendung von Schriftgebrauchsformen in unterschiedlichen Kontexten werden sowohl die Eigenschaften, die Schriftzeichen mit verbalen Zeichen gemeinsam haben, als auch die Potentiale, die sie mit pikturalen Zeichen gemeinsam haben, genutzt. Daher werden in der vorliegenden Arbeit die Funktionalisierungsmöglichkeiten von Schriftgebrauchsformen vor dem Hintergrund der Symboltheorie Nelson Goodmans vorgestellt. Eine an die ästhetische Theorie angelehnte Herangehensweise ermöglicht es, gerade die bildlichen Aspekte von Schriftformen – die bislang in schrifttheoretischen Arbeiten meist als irrelevant ausgeblendet werden – zu berücksichtigen. Es wird ein dynamischer Kompetenzbegriff in Anlehnung an J.G. Schneider entwickelt, der alle Fähigkeiten umfasst, die benötigt werden, um Schriftgebrauchsformen erfolgversprechend verwenden zu können. Zu diesen Fähigkeiten gehören nicht nur grammatische und orthographische Kompetenz, sondern ebenso Geschmack und die Fähigkeit zur Analogiebildung. An Beispielen verschiedener Schriftverwendungen wird gezeigt, wie unterschiedlich Schriftgebrauchsformen eingesetzt werden können. So wird Schrift als Kulturtechnik darstellbar und mithin verdeutlicht, dass die Art und Weise, wie Menschen ihre Kultur, ihre Welt, aber auch ihre spezifische Umgebung und eigene Identität modellieren, von Schriftverwendungen geprägt und verändert wird.
Grundwasser ist eine lebenswichtige Ressource und gleichzeitig ein thermisch stabiler Lebensraum mit einer außergewöhnlichen Fauna. Aufgrund der Klimageschichte der letzten ca. 1,8 Millionen Jahre in Mitteleuropa war die Ausgangshypothese, dass die meisten Grundwasserarten an Temperaturen unterhalb von 14 °C angepasst sind und sich Temperaturerhöhungen daher negativ auf die Grundwasserfauna auswirken.
Um die Folgen einer Klimaerwärmung in situ beurteilen zu können, wurden anthropogen erwärmte Grundwässer als Modelle herangezogen. In ersten Teil dieser Arbeit wurden die Crustaceagemeinschaften natürlich temperierter und anthropogen erwärmter Standorte untersucht. Dazu wurden insgesamt 70 Grundwassermessstellen im Oberrheingraben über ein Jahr (2011 bis 2012) sechsmal beprobt. Ergänzend zu diesem synökologischen Ansatz wurde in einem zweiten Teil die Temperaturpräferenz ausgewählter Arten überprüft. Für diese autökologische Betrachtung wurde ein deutschlandweiter Datensatz herangezogen.
Die ausgewählten Untersuchungsgebiete haben sich als geeignete Modelle für die prognostizierten Temperaturerhöhungen herausgestellt. Die Temperatur erwies sich als einer der wichtigsten Parameter für die Crustaceagemeinschaften. Erwärmungen beeinflussen die Zusammensetzung der Gemeinschaften und die Diversität. Dabei zeigte sich, dass es artspezifisch unterschiedliche Temperaturpräferenzen gibt. Einige vermutlich weniger streng stygobionte Arten scheinen höhere Temperaturen zu tolerieren. Der Großteil der stygobionten Grundwasserarten bevorzugt allerdings Temperaturen unterhalb von 14 °C, wobei wenige Arten als „extrem kalt¬steno-therm“ einzustufen sind. Diese Arten wurden an Standorten nachgewiesen, die aufgrund der hydrologischen Verhältnisse relativ kühl sind und der Fauna auch zukünftig als kalte Refugien Schutz bieten könnten. Einer dieser Standorte ist aufgrund seiner Artenvielalt als „Hot Spot“ einzustufen. Die Ergebnisse legen nahe, dass vor allem kaltstenotherme Arten durch eine Klimaerwärmung und anthropogene Wärmeeinträge gefährdet sind.
Die Untersuchung zeigt, dass Grundwasserlebensräume vor Temperaturerhöhungen zu bewahren sind. Lokale anthropogene Wärmeeinträge sollten keine dauerhafte und großflächige Grundwassererwärmung über 14 °C zur Folge haben. Thermische Ein-träge sollten überwacht und bewertet werden. Es wird empfohlen, die bestehenden rechtlichen Rahmenbedingungen den ökologischen Erfordernissen anzupassen.
Die Forschung im Bereich der modellbasierten Objekterkennung und Objektlokalisierung hat eine vielversprechende Zukunft, insbesondere die Gebäudeerkennung bietet vielfaltige Anwendungsmöglichkeiten. Die Bestimmung der Position und der Orientierung des Beobachters relativ zu einem Gebäude ist ein zentraler Bestandteil der Gebäudeerkennung.
Kern dieser Arbeit ist es, ein System zur modellbasierten Poseschätzung zu entwickeln, das unabhängig von der Anwendungsdomäne agiert. Als Anwendungsdomäne wird die modellbasierte Poseschätzung bei Gebäudeaufnahmen gewählt. Vorbereitend für die Poseschätzung bei Gebäudeaufnahmen wird die modellbasierte Erkennung von Dominosteinen und Pokerkarten realisiert. Eine anwendungsunabhängige Kontrollstrategie interpretiert anwendungsspezifische Modelle, um diese im Bild sowohl zu lokalisieren als auch die Pose mit Hilfe dieser Modelle zu bestimmen. Es wird explizit repräsentiertes Modellwissen verwendet, sodass Modellbestandteilen Bildmerkmale zugeordnet werden können. Diese Korrespondenzen ermöglichen die Kamerapose aus einer monokularen Aufnahme zurückzugewinnen. Das Verfahren ist unabhängig vom Anwendungsfall und kann auch mit Modellen anderer rigider Objekte umgehen, falls diese der definierten Modellrepräsentation entsprechen. Die Bestimmung der Pose eines Modells aus einem einzigen Bild, das Störungen und Verdeckungen aufweisen kann, erfordert einen systematischen Vergleich des Modells mit Bilddaten. Quantitative und qualitative Evaluationen belegen die Genauigkeit der bestimmten Gebäudeposen.
In dieser Arbeit wird zudem ein halbautomatisches Verfahren zur Generierung eines Gebäudemodells vorgestellt. Das verwendete Gebäudemodell, das sowohl semantisches als auch geometrisches Wissen beinhaltet, den Aufgaben der Objekterkennung und Poseschätzung genügt und sich dennoch an den bestehenden Normen orientiert, ist Voraussetzung für das Poseschätzverfahren. Leitgedanke der Repräsentationsform des Modells ist, dass sie für Menschen interpretierbar bleibt. Es wurde ein halbautomatischer Ansatz gewählt, da die automatische Umsetzung dieses Verfahrens schwer die nötige Präzision erzielen kann. Das entwickelte Verfahren erreicht zum einen die nötige Präzision zur Poseschätzung und reduziert zum anderen die Nutzerinteraktionen auf ein Minimum. Eine qualitative Evaluation belegt die erzielte Präzision bei der Generierung des Gebäudemodells.
Im Zentrum der Arbeit steht die Frage, inwiefern erwachsenenpädagogische Professionalität und Qualitätsmanagement als je eigene Zugänge der Qualitätssicherung im Kontext der Weiterbildung miteinander kompatibel sind.
Diese Frage wird seit den 1990er Jahren diskutiert und stellt sich gegenwärtig neu, u.a. angesichts branchenspezifischer Ansätze wie der Lernerorientierten Qualitätstestierung in der Weiterbildung (LQW).
Zur Beantwortung werden einschlägige Vertreter des Professionalitäts- und Qualitätsmanagementzugangs aus einer handlungstheoretischen Perspektive vergleichend im Hinblick auf ihre Handlungsordnungen gegenübergestellt. Grundlage bildet eine kategoriengeleitete, heuristisch angelegte Dokumentenanalyse sowohl von Grundlagentexten als auch von Normen- und Anforderungskatalogen.
Die Untersuchung zeigt, dass die Passung differenziert und jenseits dichotomisierender Gegenüberstellungen von Pädagogik bzw. Profession und Organisation oder von Pädagogik und Ökonomie zu beurteilen ist:
Zum einen wird die Heterogenität der Einzelansätze deutlich, welche sich in unterschiedlichem Umfang als kompatibel zueinander erweisen. Zum anderen werden entlang einzelner Handlungsdimensionen sowohl Anschluss- als auch Bruchstellen sichtbar.
Als ein weiterer zentraler Befund lässt sich festhalten, dass auch die Art der Spannungsverhältnisse zwischen erwachsenenpädagogischer Professionalität und Qualitätsmanagement unterschieden werden muss:
Während die Spannungen zwischen den gegensätzlichen methodischen Strategien (z.B. zwischen professionellem Fallbezug und organisationaler Standardisierung) gradueller Natur sind und „bearbeitet“ werden können, zeigen sich zwischen den programmatischen Zweck- und Aufgabenbestimmungen kategoriale Unterschiede und antinomische Konstellationen.
So verweisen das professionelle Leitprinzip der Teilnehmerorientierung sowie die für die Qualitätsmanagement-Ansätze maßgebliche Kunden- bzw. Lernerorientierung auf jeweils eigene sowie voneinander abweichende Vermittlungskonzepte, die nicht widerspruchsfrei zusammengeführt werden können.
Die deutsche Holzhausbranche wächst seit Jahren, allerdings beschäftigen sich die Unternehmen nicht strategisch mit dem Thema Marketing. Diese Dissertation bildet durch qualitative und quantitative Bewohnerbefragungen die Basis für die Entwicklung eines strategischen Marketingansatzes im Holzhausbereich.
Identifikation und Analyse von Konfigurationen zwischenbetrieblicher Integration in der Möbelbranche
(2017)
In der Möbelbranche in Deutschland existieren seit mehreren Jahren branchenweite Bemühungen, zwischenbetriebliche Kooperationen durch organisatorische und technische Lösungen (z.B. Standardisierung von Austauschformaten) zu unterstützen. In einigen Branchensegmenten (vor allem Küche und Polster) konnten sich Infrastrukturen zur Integration etablieren, die von vielen Branchenteilnehmern akzeptiert und genutzt werden. Trotz dieser Entwicklung sind in den genannten Branchensegmenten überraschende Phänomene in jüngerer Vergangenheit zu beobachten: Mängel in der Prozessintegration zwischen Branchenakteuren, Unterschiede im Standardisierungsfortschritt zwischen den Branchensegmenten und die Entstehung unterschiedlicher Infrastrukturen zur zwischenbetrieblichen Integration. Bei näherer Betrachtung der beobachteten Phänomene offenbart sich ein hoch-komplexes Zusammenspiel der in der Möbelbranche agierenden Akteure auf drei unterschiedlichen Ebenen (institutionell, organisatorisch und technisch). Um die verantwortlichen Zusammenhänge zu verstehen, ist eine ganzheitliche Betrachtung relevanter Faktoren erforderlich. Dafür gibt es bislang nur wenige überzeugende Konzepte. Die Konfigurationsanalyse nach Lyytinen und Damsgaard betrachtet Unternehmensnetzwerke als Konfigurationen zwischenbetrieblicher Integration, die einem stabilen Muster von Kooperationsformen entsprechen. Sie ist insbesondere dafür geeignet, Unternehmensnetzwerke auf Branchenebene zu untersuchen. In der vorliegenden Arbeit wird die Konfigurationsanalyse mittels eines speziell dafür entwickelten bzw. angepassten Forschungsdesigns zum ersten Mal operationalisiert. Dazu wurden in 21 Interviews mit 19 Organisationen Daten zu Konfigurationen zwischenbetrieblicher Integration in zwei Branchensegmenten der Möbelbranche (Küche und Polster) in Deutschland erhoben, analysiert und Erklärungsansätze für die drei oben genannten Phänomene entwickelt. Die Ergebnisse zeigen, dass komplexe Konstellationen von Brancheneigenschaften die existierenden Konfigurationen begründen. Insgesamt wurden vier Konfigurationstypen (Mittler, Branche, Dyade und Triade) identifiziert, die in 17 konkreten Konfigurationen zum Einsatz kommen (Mittler (4-mal), Branche (5-mal), Dyade (6-mal) und Triade (2-mal)). Die Ursachen für die beobachteten Phänomene sind vielfältig. Insbesondere sind bestimmte branchenbezogene Charakteristika (u.a. Produkteigenschaften),der Wettbewerb zwischen Akteursklassen und zuletzt die wirtschaftliche Überlegenheit des Handels gegenüber den Herstellern ausschlaggebend. Der Standardisierungsfortschritt in den Branchensegmenten und die zugrunde liegenden Infrastrukturen sind vor allem von dem betriebswirtschaftlichen Nutzenpotenzial abhängig, das ihnen jeweils zugeschrieben wird. Die Prozessintegration hingegen benötigt eine zentral steuernde Instanz zur erfolgreichen IOIS-Diffusion.
Die vorliegende Doktorarbeit hatte zum Ziel zu prüfen, ob Emulsionspolymere auf Acrylatbasis als neuartige Photokatalysatoren bzw. Katalysatoren genutzt werden können.
Auf Grund der Beschaffenheit und der Eigenschaften von Emulsionspolymeren ist davon auszugehen, dass die Nutzung selbiger als Katalysatoren eine neue Art einer chemischen Katalyse ermöglicht. So sollen die Vorteile der heterogenen und homogenen Katalyse vereint und die jeweiligen Nachteile minimiert werden. Als besonders erfolgversprechend hat sich während der praktischen Arbeit die Nutzung von Emulsionspolymeren als Photokatalysatoren herausgestellt.
Die Anbindung der photokatalytisch aktiven Moleküle an/in den Polymerstrang soll kovalent erfolgen. Deshalb war ein erstes Teilziel dieser Arbeit prototypische Katalysatormoleküle zu synthetisieren, die über einen Acrylat-Substituenten verfügen, der in einer radikalischen Polymerisationsreaktion reagieren kann. Als Photokatalysatoren wurden Ruthenium- Polypyridin-Komplexe ausgewählt, die sowohl für eine inter- als auch intramolekulare Photokatalyse zur Herstellung von Wasserstoff aus Wasser geeignet sind. Für organokatalytische Zwecke wurde ein L-Prolin-Derivat synthetisiert, welches jedoch nicht auf seine Polymerisierbarkeit getestet wurde.
In einem ersten Schritt wurden die prototypischen 2,2’-Bipyridin-Liganden synthetisiert. Dabei konnte eine verbesserte Synthesemethode für 4-Brom-2,2’-bipyridin ausgearbeitet werden. Die Funktionalisierung erfolgte letztendlich durch eine Horner-Wadsworth-Emmons-Reaktion, die anschließend an eine Eintopfsynthese zur Darstellung von 4-Formyl-2,2’-biypridin erfolgte. Die prototypischen Photokatalysatoren zeigten mäßige Erfolge (TON: 37-136, 6h, 10% H2O, 470 nm) in Bezug auf die photokatalytische Wasserstoffproduktion, sodass an dieser Stelle eine Verbesserung der entsprechenden katalytischen Systeme erfolgen sollte.
Die Polymerisationsreaktion konnte für zwei intermolekulare Photokatalysatoren und zwei intramolekulare Photokatalysatoren durchgeführt werden. Dabei fiel auf, dass die intermolekularen Photokatalysatoren besser polymerisieren als die intramolekularen Photokatalysatoren. Es wird angenommen, dass dies mit der Löslichkeit der Substanzen im Monomer Ethylmethacrylat zusammen hängt.
Die photokatalytisch funktionalisierten Emulsionspolymere zeigten eine ähnliche photokatalytische Aktivität (TON: 9-101, 6h, 10% H2O, 470 nm) wie die jeweiligen Ausgangsstoffe selbst. Es konnte jedoch bewiesen werden, dass Emulsionspolymere als Photokatalysatoren genutzt werden können, wenn auch noch weitere Arbeiten zur Optimierung der Systeme nötig sind.
Hintergrund: Veränderte gesetzliche Rahmenbedingungen in der stationären Altenhilfe, die demografische Entwicklung mit dem steigenden Bedarf an Pflegekräften einerseits und die Tatsache, dass immer weniger Menschen aufgrund des Images des Berufes und der Arbeitsbedingungen in der Pflege tätig sein wollen andererseits, machen es notwendig neue Wege zu suchen. Die Träger im Sozial- und Gesundheitswesen sind gefordert, Konzepte zu entwickeln, die ihre Wirtschaftlichkeit sichern, gleichzeitig aber auch den Belastungen und der Unzufriedenheit von Mitarbeitenden entgegenwirken. Es braucht Gestaltungsräume, um Lösungen im Konflikt zwischen Anspruch und Machbarkeit zu finden und so dem alltäglichen Stress, der Mitarbeiterfluktuation und dem drohenden Leistungsabfall entgegenzuwirken. Durch das Praxisprojekt eines sozial-karitativen Trägers zur Implementierung einer ´Konstruktiven Konfliktkultur´ in einer stationären Altenhilfeeinrichtung sollte eine Organisationskultur geschaffen werden, in der Konflikte offen angesprochen werden, eine Offenheit für Veränderungsprozesse entsteht, Belastungen reduziert und die Mitarbeitenden an die Organisation gebunden werden. Dazu wurden drei pädagogische Interventionen entwickelt, durch die die Mitarbeitenden und die Führungskräfte in ihrer Konfliktfähigkeit geschult werden sollten. Methode: Die wissenschaftliche Begleitung dieses Praxisprojektes fand als Evaluationsstudie statt. Zu drei Erhebungszeitpunkten wurde eine repräsentative Mitarbeitergruppe dieser Einrichtung zu den Themen Konflikterleben, Führungsverhalten, Macht/ Regeln und Veränderungen durch qualitative Leitfadeninterviews befragt. Die Auswertung und Analyse der Daten erfolgte im Sinne der qualitativen Inhaltsanalyse nach Mayring und floss ein in eine formative Prozessevaluation der einzelnen Interventionen und einer summativen Effektevaluation zu Bewertung der Zielerreichung des Projektes. Ergebnis: Die einzelnen Interventionen des Projektes konnten nicht dazu beitragen, dass eine ´Konstruktiven Konfliktkultur´ nachhaltig entwickelt werden konnte. Zwar gab es in der Bewusstseinsspanne des Projektes einen expliziten Wissensgewinn, jedoch mehr bei den Führungskräften als bei den Mitarbeitenden. Die Führungskräfte sahen im Projekt einen Gewinn, für einen Teil der Mitarbeitenden war es sogar Zeitverschwendung. Anhand der Ergebnisse lassen sich drei Merkmale herauskristallisieren, die kennzeichnend sind für die zugrundeliegenden Denk-, Urteils-, und Handlungsstrukturen in sozialen Organisationen im Umgang mit Konflikten: Konflikte sind nicht wahrnehmbare Konstrukte der Alltagswelt. Sie manifestieren sich aufgrund fehlender Legitimation in Überforderung und eine ´Konstruktiven Konfliktkultur´ kann nicht auf das Wissen Einzelner aufbauen, sondern benötigt verbindliche Handlungsstrukturen für alle Organisationsmitglieder gleichermaßen. Ergebnisinterpretation: Durch die Einbeziehung wissenssoziologischer und konfliktsoziologischer Theorien und deren Einordnung in Institutionen – und Organisationstheorien konnten die Ergebnisse diskutiert und neue Erkenntnisse über Konflikte in Organisationen, die sich in drei Spannungsfeldern zeigen, gewonnen werden. Die Spannungsfelder bewegen sich zwischen dem Konflikt als nicht-wahrnehmbarem Alltagsphänomen auf der einen Seite und einer manifestierten Belastung auf der anderen Seite, dem Gewohnheitswissen im alltäglichen Umgang einerseits und einem fehlenden Handlungswissen andererseits, einer funktional-positiven Sicht hier und einer dysfunktional-negativen Sicht dort. Anhand dieser Spannungsfelder kann die Konfliktmentalität und ihre Entstehung und auch die Möglichkeit ihrer Veränderbarkeit reflektiert und können Erfolgsfaktoren für die Implementierung einer ´Konstruktiven Konfliktkultur´ entwickelt werden.
Schlussfolgerung: Wissen, Legitimation und Institutionalisierung und die Stärkung der Wahrnehmungen sind der Schlüssel für die Veränderung der Konfliktmentalität in sozialen Organisationen. Nachhaltigkeit erhält die Thematik aber erst, wenn alle Organisationsmitglieder eine gewisse Handlungsnotwendigkeit für sich erkennen. Aktuell steht die Organisationsentwicklung für den expliziten Veränderungswillen von Management, der jedoch auf ein gewisses Beharrungsvermögen von Mitarbeitenden trifft.
Die Dissertation bietet einen internationalen Vergleich von Gestaltungsmustern der Flexibilitätssteuerung von Unternehmen mit Schwerpunkt auf die Automobilindustrie. Vor dem Hintergrund unterschiedlicher nationaler institutioneller Systeme werden betriebliche Flexibilitätsstrategien analysiert und deren Hintergründe und Funktionsweisen detailliert erläutert. Die Analyse institutioneller Rahmenbedingungen erfolgt mittels der "Varieties of Capitalism". Die Eruierung von Flexibilitätsstrategien basiert auf einer internationalen Fallstudie.
Zur unterstützten Repositionierung von Femurschaftfrakturen während der intramedullären Nagelung, wurde ein Assistenzsystem entwickelt. Grundprinzip der Anordnung ist die Kraftaufnahme der von den femuralen Muskeln und Bändern erzeugten Zugkräfte mittels einer Linearfahrbahn und Gewindestange. Dazu werden Schanzschrauben als Kochen-Maschinen Verbindung verwendet, was direkte Knochenfragmentmanipulation ermöglicht. Weiterhin wird die Justage der Position und Orientierung der Fragmente mittels weiterer eingebrachter Schanzschrauben und Anwendung der Joystick Technik durchgeführt. Dazu werden ein passiver Gelenkarm und ein Gelenkarm mit robotischem Manipulator verwendet. Dank einer seriellen Kinematik des Systems, wird nur geringer Arbeitsraum des Operateurs in Anspruch genommen. Die Zentrale Steuereinheit besteht aus einem eingebetteten System auf Basis eines ARMCortex-M0 Mikrocontrollers, auf welchem ein Echtzeitbetriebssystem zum Einsatz kommt. Somit ist es möglich, die verschiedenen Winkelstellungen der Gelenke des robotischen Arms mittels inverser Kinematik zu in Echtzeit berechnen und entsprechend Stellmotoren anzusteuern. Zur Lösung der inversen Kinematik Problems kommt der iterative FABRIK Algorithmus zum Einsatz. Neuartiges und einziges Steuerinterface für den Operateur ist ein Kraft Momenten Sensor auf optischer Basis. Der serielle Gelenkarm folgt somit stets der Bewegung des Operateurs. Insgesamt konnte mit dem Demonstratoraufbau eine Positionierungsgenauigkeit des Manipulators auf dem Gelenkarm von <0,1mm erreicht werden. Somit ist zu erwarten, dass durch den Einsatz eines solchen Assistenzsystems während der Repositionierung bei der intramedullären Nagelung eine massive Präzisionserhöhung erreicht werden kann. Außerdem ist eine erhebliche Reduzierung der Röntgenstrahlenexposition des Operateurs durch Einsatz dieses Systems möglich. Weiterhin ermöglicht es eine Kostensenkung durch Zeiteinsparung und Personalreduzierung.
Im schulischen Kontext wird dem Prozess der Erkenntnisgewinnung in eigenverantwortlichen Lernprozessen immer mehr Bedeutung beigemessen. Experimentelles Arbeiten wird in den nationalen Bildungsstandards als Prozess beschrieben, welcher vier Teil-schritte durchläuft: (1) Fragestellung entwickeln, (2) Experimente durchführen, (3) Daten notieren und (4) Schlussfolgerung ziehen [1]. In der fachdidaktischen Forschung gibt es bisher keine Untersuchungen, die explizit den Teilschritt der Datenaufnahme und dessen Bedeutung behandeln.
In dieser Arbeit werden die unterschiedlichen Definitionen der naturwissenschaftlichen Protokollformen voneinander abgegrenzt sowie im Rahmen von drei Teilstudien die Bedeutung des Protokollierens für die Lernwirksamkeit untersucht. Zusätzlich wird eine Auswertungsmethode für die Qualität von Erarbeitungsprotokollen vorgestellt.
In dieser Dissertation werden Theorien von Vertretern der Dialog-Philosophie diskutiert. Auf diesem Weg soll eine theoretische Grundlage geschaffen werden, mit der unternehmerisches Führungshandeln reflektiert werden kann. Als Ergebnis wird angestrebt, einen Ansatz für die Entwicklung einer dialogischen Führungskultur zu entwerfen.
Im empirischen Teil soll untersucht werden, welche subjektiven Annahmen, bezogen auf eine dialogische Führungskultur, Führungskräfte im Pflegedienst des stationären Gesundheitswesens ihrem Führungshandeln zugrunde legen. Zudem soll der Frage nachgegangen werden, wie die subjektiven Annahmen für eine zukünftige dialogorientierte Führungskultur und Führungskräfteentwicklung berücksichtigt und genutzt werden könnten.
Es soll die Frage erörtert werden, inwieweit die Dialog-Philosophie theoretische Konzepte zur Beschreibung einer Führungskultur beinhaltet. Betrachtet wird hierbei im Besonderen der denkerische Ansatz Martin Bubers.
Aus dieser theoretischen Grundlage soll der Versuch unternommen werden, Grundzüge einer dialogischen Führungskultur zu entwickeln, die geeignet erscheint, ein didaktisches Konzept für die Entwicklung von Führungskräften im Pflegedienst zu begründen.
Die Analyse ortsbezogener Strukturdaten und Merkmale ist eine der wesentlichen Voraussetzungen für die Bewertung von Standorten und Räumen. Durch die Erfassung der lokalen Ausprägung ausgewählter Standortfaktoren und unter Zuhilfenahme eines Geographischen Informationssystems werden in der vorliegenden Dissertation die Städte und Gemeinden des hessischen Rheingau-Taunus-Kreises kategorisiert und miteinander verglichen. Hierbei erfolgt eine besondere Fokussierung auf die lokal bestehende technische und soziale Infrastruktur, um vorrangig das vorhandene Gewerbe- und Wohnumfeld sowie die darüber hinaus existierenden räumlichen Disparitäten eingehend veranschaulichen und beurteilen zu können.
In der vorliegenden Arbeit wird das thermochemische Wechselwirkungsverhalten verschiedener Magnesiakohlenstoffmaterialen in Abhängigkeit verschiedener Einflussgrößen wissenschaftlich untersucht. Schwerpunkte der experimentellen Arbeiten bilden thermoanalytische Experimente, Gefügeuntersuchungen der Magnesiakohlenstoff-Proben sowie thermodyna-mische Berechnungen und Auswertungen durch CAT (Computer Aided Thermochemistry) mittels des Softwarepakets FactSage.
Erster Themenbereich dieser Arbeit ist die Untersuchung des Einflusses der in dem Rohstoff Magnesia enthaltenen mineralogischen Nebenphasen Merwinit (C3MS2), Monticellit (CMS) und Belit (C2S) auf den carbothermisch induzierten Verschleiß im MgO-C-Material. Für die Messreihen wurden die Nebenphasen eigens synthetisiert und hiermit MgO-C-Nebenphase-Modellwerkstoffe hergestellt. Die Nebenphase Monticellit ist unbeständig gegenüber der carbothermischen Reduktion. Monticellit wird im MgO-C-Gefüge durch Kohlenstoff reduziert und hieraus ergibt sich ein erhöhter Gewichtsverlust des Probenmaterials. Auch Merwinit wird bei T = 1600°C reduziert, der Gewichtsverlust wird dadurch allerdings nicht erhöht. Belit ist im MgO-C-Gefüge stabil gegenüber carbothermischer Reduktion.
Ein weiterer Schwerpunkt der Arbeit lag auf der Untersuchung des Einflusses des klassischen Antioxidans Aluminium auf die thermochemische Stabilität von MgO-C. Bei geringen Sauerstoffpartialdrücken ist die Reaktion des Aluminium-Metalls bzw. des bereits zu Al4C3 carbidisierten Aluminiums mit dem steineigenen Periklas unter Mg(g)-Bildung möglich, was einen erhöhten Gewichtsverlust zur Folge hat. Aber auch nach der Oxidation zu Al2O3 bzw. Spinell liegt Aluminium in signifikanten Mengen als Al(g) und Al2O(g) in der Gasphase vor und greift des Weiteren die Nebenphasen an, was ebenfalls zu einem messbaren Gewichtsverlust führt.
Dritter Arbeitsschwerpunkt war die Untersuchung des Einflusses des Umgebungsdruckes auf die carbothermische Reduktion von MgO. Die Ergebnisse zeigen, dass der Druck sich in zweierlei Hinsicht auf die carbothermische Reduktion von MgO auswirkt. Zum einen bewirkt ein sinkender Umgebungsdruck eine Beschleunigung der carbothermischen Reduktion durch die Verschiebung des thermodynamischen Gleichgewichts auf die Produktseite. Des Weiteren sorgt er für einen schnelleren Abtransport der Produktgase vom Reaktionsort und ver-hindert somit die Einstellung eines lokalen Gleichgewichts im Gefüge. Dritter Effekt ist die mit steigendem Druck verstärkt ablaufende Kohlenstoffoxidation durch Umgebungssauerstoff, da die Sauerstoffmenge in der Umgebung des MgO-C-Materials vom Umgebungsdruck bestimmt wird. Für die Geschwindigkeit des thermochemischen Verschleißes von Magnesiakohlenstoffmaterialien, der immer eine Kombination aus Kohlenstoffoxidation und carbothermischer Reduktion darstellt, bedeutet dies, dass sie in Abhängigkeit vom Umgebungsdruck in unterschiedlichem Ausmaß von diesen beiden Reaktionen beeinflusst wird.
Die Entstehung von Gründungsteams wird bisher lediglich als Abfolge von Suche, Auswahl und Gewinnung von Gründerpersonen verstanden. In der vorliegenden Arbeit wird auf Basis von 47 interviewten Gründerpersonen ein neues Verständnis für die Entstehung von Gründungsteams geschaffen. Dabei wird im Stil der Grounded Theory das bisher vorherrschende Model der Teamentstehung maßgeblich erweitert. So wird eine neue Art der Unterscheidung von Grünerpersonen entdeckt, welche auf die Intention von Teammitgliedern abzielt. Zudem zeigt sich, dass Teams in einem iterativ-epiodischen Prozess entstehen und Veränderungen von Teamzu-sammmensetzungen Bestandteil der Entstehung sind. Aufgrund der in dieser Arbeit geschaffenen neuen Erkenntnisse zur Teamentstehung können Handlungsempfehlungen für Gründerpersonen und die Gründungsförderung gegeben werden. Zudem werden neue Untersuchungsgebiete für Gründungsteams eröffnet, die das hier entwickelte Modell als Bezugsrahmen für weitere Forschung nehmen können.
Immer häufiger kommt es zum Einsatz von Servicepersonal in Krankenhäusern und anderen pflegerischen Einrichtungen um dem Fachkräftemangel in der Pflege zu kompensieren. Die vorliegende Arbeit zeigt eine Kompatibilität von Tätigkeiten von Servicepersonal und Professionstheorien der Pflege, sowie einen Lernbedarf für Servicepersonal im Setting der stationären Pflege im Krankenhaus.
Pflegeexperten sind der Meinung, dass ein Einsatz von Servicepersonal, das in der Lage ist, durch definierte Tätigkeiten und Anforderungen Pflegepersonal zu unterstützen, notwendig ist. Zur Entwicklung von Handlungskompetenz für ausgewählte Tätigkeiten bietet ein situatives, tätigkeitsbezogenes Anforderungsprofil, gegliedert nach dem Kompetenzmodell in persönliche, soziale, methodische und fachliche Kompetenz, eine Grundlage für eine Bildungsmaßnahme für Servicepersonal.
Die Erkenntnisse dieser Arbeit tragen einen Teil dazu bei, den gegenwärtigen und künftigen Herausforderungen der Pflege gewachsen zu sein.
Ein zentrales Problem der stationären Behandlung psychischer und psychosomatischer Störungen ist die Nachhaltigkeit von Therapieerfolgen. Im Rahmen einer Pilotstudie wurde ein SMS-basiertes Nachsorgeprogramm zur Modifikation Perfektionismus-bezogener Kognitionen im Anschluss an eine stationäre Behandlung von Burnout-Patienten evaluiert.
Es handelte sich um eine kontrollierte Verlaufsstudie mit vier Messzeitpunkten (Aufnahme, Entlassung, 6 und 10-Wochen-Katamnese). Die Patienten der Versuchsgruppe (n=31) erhielten zusätzlich zur Routine-Behandlung eine 6-wöchige kognitiv ausgerichtete individualisierte SMS-Nachsorge. Als Kontrollgruppe (n=30) diente eine Gruppe von Patienten mit einer stationären Routine-Behandlung. Zur Erfassung der Burnout-Symptomatik wurde das Maslach Burnout Inventory General Survey (MBI-GS-D) eingesetzt, die depressive Symptomatik wurde mit dem Beck-Depressions-Inventar-V (BDI-V) erhoben. Zur Erfassung der Facetten des Perfektionismus dienten Items aus der Multidimensional Perfectionism Scale (FMPS und HMPS) sowie der Almost Perfect Scale (APS-R).
Ein sehr hohes Interesse, eine hohe Inanspruchnahme sowie eine hohe Akzeptanz des Nachsorgeprogramms konnte anhand der Bereitschaft zur Teilnahme und der von den Teilnehmern bewertete Nutzen aufgezeigt werden.
Eine Wirksamkeit der SMS-Nachsorge bzgl. Burnout und depressiver Symptomatik sowie dysfunktionalen Facetten des Perfektionismus konnte mittels zweifaktoriellen Kovarianzanalysen (Gruppe, Zeit, Baseline als Kovariate) nicht nachgewiesen werden. Ein Grund hierfür könnte sein, dass der Interventionszeitraum von 10 Wochen nach der stationären Entlassung für eine effektive Nachsorge zu kurz bemessen wurde. Bzgl. einiger dysfunktionaler Perfektionismusskalen (Concern over Mistakes, Discrepancy, Socially Prescribed Perfectionism) zeigten sich kleinere Interaktionseffekte, die einen ersten Hinweis liefern, dass die eingesetzten SMS-Nachrichten Perfektionismus-bezogene Kognitionen verändern können. Da das vorgestellte Interventionsprogramm ein ökonomisches und niedrigschwelliges ambulantes Nachsorge-Konzept darstellt und sich erste Hinweise auf eine Wirksamkeit ergeben, wären für die Zukunft weitere Studien wünschenswert, die sich über einen längeren Interventionszeitraum erstrecken. Es sollten weitere Messinstrumente einbezogen und die Implementierung eines Feedbackprozesses erwogen werden.
In der vorliegenden Untersuchung stehen geometrische Aufgaben und die in den seit 2004 national verbindlichen Bildungsstandards im Fach Mathematik für den Primarbereich formulierten Anforderungsbereiche im Zentrum. Diese zeigen die kognitiven Anforderungen an Schülerinnen und Schüler bei der Bearbeitung von Aufgaben auf, wobei zwischen „Reproduzieren", „Zusammenhänge herstellen" und „Verallgemeinern und Reflektieren" unterschieden wird (KMK, 2005a, S. 13).
Durch die drei Anforderungsbereiche sollen Lehrkräfte unter anderem die Chance zur Entwicklung einer anforderungsbezogenen Aufgabenkultur erhalten. Des Weiteren soll die Integration von Aufgaben aus allen drei Anforderungsbereichen im Unterricht angeregt und einem einseitig ausgerichteten Unterricht entgegen gewirkt werden.
Da die Anforderungsbereiche bislang nicht empirisch validiert wurden und in den Veröffentlichungen der Kultusministerkonferenz nicht klar zur Schwierigkeit von Aufgaben abgegrenzt werden (KMK, 2005a, S. 13; KMK, 2005b, S. 17; KMK, 2004b, S. 13), wurde in der vorliegenden Untersuchung zum einen die Möglichkeit der eindeutigen Zuordnung geometrischer Aufgaben zu den drei Anforderungsbereichen geprüft.
Zum anderen wurde untersucht, inwiefern die in den geometrischen Aufgaben enthaltenen kognitiven Anforderungen in Zusammenhang mit der empirischen Schwierigkeit von Aufgaben, der mathematischen Leistungsfähigkeit von Schülerinnen und Schülern, dem Geschlecht und den Anforderungen der im Unterricht gestellten Aufgaben stehen.
Vor dem Hintergrund der dem deutschen Mathematikunterricht nachgesagten Kalkül- beziehungsweise Fertigkeitsorientierung (Baumert et al., 2001, S. 296; Granzer & Walther, 2008, S. 9) und den damit einhergehenden Stärken deutscher Schülerinnen und Schüler im Bereich von Routineaufgaben und Schwächen im Bereich von Aufgaben mit höheren kognitiven Anforderungen (Grassmann et al., 2014, S. 11; Reiss & Hammer, 2013, S. 82; Schütte, 2008, S. 41) wurde zudem die Verteilung der im Rahmen der Untersuchung gewonnenen, schriftlich fixierten geometrischen Schulbuch- und Unterrichtsaufgaben auf die drei Anforderungsbereiche analysiert.
Durch die Betrachtung geometrischer Aufgaben konnte stichprobenartig der quantitative Geometrieanteil in den Schulbüchern und im Unterricht der vierten Jahrgangsstufe ermittelt werden, um so den Forschungsstand zum Stellenwert des Geometrieunterrichts (Maier, 1999; Backe-Neuwald, 2000; Roick, Gölitz & Hasselhorn, 2004) zu aktualisieren beziehungsweise zu ergänzen.
Gegenstand der Dissertation ist der Handlungsspielraum der schwarz-gelben Bundesregierung unter der Führung Angela Merkels vor dem Hintergrund der Staatsschuldenkrise im Euroraum von 2009 bis 2013. Ausgehend von der Hypothese, dass sich im Rahmen von Krisen der Bewegungskorridor von Regierungen verringert, wurden strukturelle, inhaltliche und prozessuale Beschränkungen der Bundesregierung in der 17. Legislaturperiode mittels qualitativer und quantitativer Methoden untersucht. Im Ergebnis konnte seit Ausbruch der Eurokrise eine Reduzierung der Handlungsmöglichkeiten der Exekutive festgestellt werden.
Die laserinduzierte Plasmaspektroskopie (”Laser Induced Breakdown Spectroscopy”, im Folgenden auch ”LIBS” genannt) stellt eine schnelle und berührungslose Messmethode zur Elementanalyse von festen, flüssigen oder gasförmigen Stoffen unter normalen Umgebungsbedingungen ohne besondere Probenvorbereitung dar. Dazu wird ein gepulster Laser, dessen Intensität einen bestimmten Grenzwert überschreiten muss, auf eine Probe fokussiert. Das dort bestrahlte Material verdampft schlagartig und es bildet sich bei einer Temperatur von rund 10000 K ein Plasma aus. Die angeregten Atome und Ionen im Plasma strahlen bei der Rückkehr in energetisch niedrigere Zustände ein charakteristisches optisches Emissionsspektrum ab, welches über eine schnelle spektroskopische Analyse die Elementzusammensetzung des untersuchten Materials liefert. LIBS bietet in diesem Fall auch die Möglichkeit, ein unkompliziertes und bildgebendes Messverfahren aufzubauen, indem Elementverteilungen auf einer topographischen Oberfläche analysiert werden, um beispielsweise Materialübergänge, Einschlüsse oder Verschmutzungen sicher zu detektieren. Bei unebenen Oberflächen wird eine ständige Anpassung des Laserfokus an die Probenkontur benötigt, da die notwendige Intensität zur Erzeugung des Plasmas nur im Fokus aufgebracht werden kann. Als Grundlage dafür dient ein neu entwickelter Fokussieralgorithmus, der ohne jegliche Zusatzgeräte auskommt, und die Reproduzierbarkeit von LIBS-Messungen deutlich steigern kann, da die Messungen kontrolliert im Fokus stattfinden. Durch ihn ergeben sich neue Möglichkeiten des sogenannten „Element-Mappings", dem Erzeugen von Elementlandkarten, welche die Elementverteilungen in Falschfarben grafisch darstellen. Dabei ist das System nun nicht mehr auf eine ebene Oberfläche angewiesen, sondern kann beliebige Strukturen, auch mit scharfen Kanten und Löchern, sicher vermessen. Als Ergebnis erhält man ein flächiges Höhenprofil, welches zusätzlich die Elementinformationen für jeden Messpunkt beinhaltet. Dies erleichtert es dem Benutzer, gezielt Punkte von Interesse schnell wiederzufinden und zu analysieren. Die vorliegende Arbeit beschreibt die Entwicklung eines bildgebenden Low-Power-LIBSSystems mit niedriger Pulsenergie und hoher Pulsrate, welches sich mit dem dazugehörigen
Fokussieralgorithmus automatisiert an unebene Probenoberflächen anpassen kann. Als Ergebnisse werden die Analysen von ausgewählten metallhaltigen, geologischen, organischen und archäologischen Proben bzw. Fundstücken gezeigt.
Risiko-Träger Controlling: Identifizierung und Bewältigungsoptionen im Kontext dialogischer Führung
(2016)
Innerhalb des organisationalen Führungsgeschehens nimmt das institutionalisierte Controlling eine Reihe von Aufgaben und Funktionen ein. Unter anderem sollen dessen Akteure die risiko- bzw. zielorientierte Steuerung der Organisation absichern. Die Frage nach Risiken im Controlling wird dabei nicht erkennbar gestellt. Diesen blinden Fleck greift die Forschungsarbeit auf und verfolgt das Ziel, das Controlling als Bestandteil des organisationalen Führungsgeschehens als Risiko-Träger zu identifizieren und Bewältigungsoptionen im Kontext der dialogischen Führung aufzuzeigen.
Externe Repräsentationen spielen eine wichtige Rolle für die Lösung von mathematischen Textaufgaben. Die vorliegende Studie untersucht die Effekte bereitgestellter Repräsentationen beim Lösen problemhaltiger Textaufgaben in der Grundschule. Insbesondere problemhaltige Textaufgaben sind für Schüler anspruchsvoll, da sie nicht direkt mit den eingeübten und routinierten Rechenoperationen gelöst werden können. Sie zeichnen sich dadurch aus, dass sich der Lösungsweg nicht auf einen Blick erschließt, die mathematische Grundstruktur daher zunächst erkannt, entfaltet und verstanden werden muss und häufig mehrere Aufgabenbedingungen bei der Planung und Beschreitung des Lösungswegs bedacht und verarbeitet werden müssen. Um diesen komplexen Anforderungen begegnen zu können, benötigen Schüler die Fähigkeit, das Problem adäquat zu repräsentieren. Dabei können verschiedene Darstellungsformen wie Zeichnungen und Tabellen verwendet werden, die dann als Werkzeuge für die kognitiven Lösungsprozesse dienen. Da Grundschüler von sich aus häufig keine externen Repräsentationen erstellen, geht die vorliegende Studie den Fragen nach, (1) ob vorgefertigte Repräsentationen das Problemlösen verbessern und erleichtern, (2) ob sich eine Auseinandersetzung mit vorgefertigten Tabellen und Zeichnungen auch auf späteres Problemlösen ohne bereitgestellte Hilfsmittel auswirkt, (3) welche Repräsentationsform (Zeichnung oder Tabelle) und (4) wie viel Vorstrukturierung der bereitgestellten Repräsentation dabei hilfreicher ist. In einem experimentellen Studiendesign arbeiteten 199 Viertklässler an unterschiedlichen problemhaltigen Textaufgaben. Das Design bestand aus drei Tests: (1) Vor-, (2) Treatment- und (3) Transfertest. Im Vortest wurde die Ausgangsleistung der Probanden bei problemhaltigen Textaufgaben gemessen. Im Treatment-Test wurde die Performance beim Problemlösen mit vorgegebenen Repräsentationen erhoben: Probanden der Experimentalgruppe erhielten Zeichnungen und Tabellen in unterschiedlichen Vorstrukturierungsgraden zu den Aufgaben (Intervention), eine Kontrollgruppe erhielt keine Repräsentationen. Im Transfertest bearbeiteten die Teilnehmer vergleichbare Aufgaben wiederum ohne vorgegebene Repräsentationen, um die Problemlöse-Performance nach der Intervention zu messen. Die Ergebnisse zeigten erstens, dass die bereitgestellten Repräsenta-tionen entgegen der Annahme die Problemlöseprozesse insgesamt nicht verbessert und erleichtert haben. Zweitens: Wurde eine Repräsentation bereitgestellt, war eine Zeichnung wie angenommen hilfreicher als eine Tabelle. Jedoch war dieser Effekt abhängig vom Problemtyp und vom Grad der Vorstrukturierung. Offensichtlich genügte es nicht, Zeichnungen und Tabellen einfach nur bereitzustellen, da die Probanden vielfach Schwierigkeiten bei der Interpretation und adäquaten Verwendung der Repräsentationen hatten. Dies spricht für die Notwendigkeit eines Trainings zur Ausbildung und Förderung einer frühen „diagram literacy“ bereits bei Grundschülern.
In jüngerer Vergangenheit erlebt der zumeist auf Michel Foucault zurückgeführte Begriff des 'Dispositivs' – ähnlich wie zuvor der des 'Diskurses' – eine regelrechte Konjunktur in den Geistes-, Sozial- und Kulturwissenschaften. Seine Verwendung weist jedoch eine Reihe von Verkürzungen und Entstellungen auf; so werden damit recht pauschal meist bloß die architekturalen und/oder räumlichen Umstände bzw. Kontexte sozialer, medialer oder anderer Situationen bezeichnet, ohne die für Foucault so wichtigen Fragen nach Wissen, Macht und Subjektivität zu beachten. So gerät der Begriff in Gefahr, seine theoretische und analytische Potenz einzubüßen.
In „Im Dispositiv. Macht, Medium, Wissen“ legt die Autorin daher in einem ersten Schritt eine Präzisierung des Dispositivbegriffs vor, der den zugrundeliegenden Theoriehorizont Foucaults systematisch miteinbezieht. Dazu werden zunächst diskurstheoretische Grundlagen erläutert und anschließend deren strukturelle Analogien zu den machtanalytischen Befunden Foucaults mit Hilfe einer neuen Terminologie sichtbar gemacht.
Vor allem in den Medienwissenschaften ist der Begriff des Dispositivs prominent, um die gesellschaftliche Einbettung von Einzelmedien zu pointieren. Jedoch fällt auf, dass der dort in weiten Teilen vertretene Ansatz, Medien als Dispositive zu verstehen, den Blick auf medienspezifische Eigenlogiken verstellt. In einem zweiten Schritt weist die Autorin daher die strukturellen Analogien von Medialität, Wissen und Macht auf und kommt so zu einem integrativen Dispositivkonzept, das die drei Sphären als dynamisch miteinander verknüpfte, interdependente und reziproke Felder von Kultur modelliert.
Die vorliegende Arbeit beschäftigt sich mit der Fragestellung, wie eine repräsentative und aussagekräftige Vergleichbarkeit hinsichtlich der Nachhaltigkeitsleistung (Ökoeffizienz) von Unternehmen branchenunabhängig gewährleistet werden kann trotz der Problematik der Definition repräsentativer Bewertungskriterien der Nachhaltigkeit, sowie der Heterogenität der zu bewertenden Branchen. Bisherige Konzepte zu Umwelt- und Nachhaltigkeitsmanagementsystemen (z.B. EMAS, ISO 14000, ISO 26000, EMASplus), zur Umweltleistungsmessung sowie zur Nachhaltigkeitsbewertung und -berichterstattung (z.B. DNK, GRI) sind mit ihren branchenunabhängigen Formulierung zu allgemein gehalten, um für eine konkrete effizienzorientierte Messung nachhaltigen Wirtschaftens von Unternehmen geeignet zu sein.
Folglich besteht kein System zur Messung der Umweltleistung, um den Forschungsbedarf der Herstellung einer aussagekräftigen Vergleichbarkeit der Ressourcen- und Energieverbräuche der Betriebe einer heterogenen Branche zu begegnen. Angesichts dessen wurde im Rahmen der Arbeit eine allgemeine und branchenunabhängig anwendbare aber dennoch –spezifische Methodik zur Herstellung der Vergleichbarkeit von Unternehmen einer Branche hinsichtlich der Ressourcen- und Energieeffizienz entwickelt. Dabei stellt der Kern der Methodik die Generierung eines betriebsindividuellen Gesamtgewichtungsfaktors dar (GGF-Konzept), welcher als Operationalisierung der Vergleichbarkeit angesehen werden kann und damit der Problematik der Heterogenität begegnet. Die Ermittlung von Kriteriengewichtungen im Rahmen des GGF-Konzeptes kann in Analogie zu einem Entscheidungsproblem bei Mehrfachzielsetzung (Multi Criteria Decision Making – MCDM) gesehen werden, da mehrere Kriterien und Sub-Kriterien zueinander in Relation gesetzt werden mussten. Infolgedessen stellte sich der Analytische-Hierarchie-Prozess als das geeignete Verfahren im Rahmen der Methodikentwicklung heraus. Anwendung fand die Methodik in einem ersten empirischen Test anhand einer ausgewählten Stichprobe von 40 Wäschereibetrieben. Dabei zeigten die Ergebnisse auf, dass repräsentatives sowie aussagekräftiges betriebsindividuelles Benchmarking der Ressourcen- und Energieverbräuche völlig unterschiedlicher und bislang nicht vergleichbarer Betriebe möglich wurde. Hierfür mussten zunächst branchenspezifische repräsentative Bewertungskriterien der Ressourcen- und Energieeffizienz bestimmt werden. Abschließend konnten betriebsspezifische Brennpunkte identifiziert und somit Handlungsempfehlungen zur Optimierung der Ressourcen- und Energieeffizienz der Wäschereibetriebe abgeleitet werden, sodass eine zielorientierte Reduzierung des Ressourcen- und Energieverbrauchs folgen kann.
Die (un-)kontrollierte Ausbringung von Abwasser aus der Olivenölproduktion (OMW) kann sich sowohl positiv als auch negativ auf die Bodenqualität auswirken. Dabei stellt unter anderem die Verringerung der Benetzbarkeit des Bodens infolge der Ausbringung ein schwerwiegendes Problem dar. Die Auswirkungen der Ausbringung von Abwässern aus der Olivenölproduktion auf Böden zu charakterisieren und die Mechanismen zu untersuchen, die in Verbindung mit der Veränderung der Qualität der organischen Substanz in Abhängigkeit der klimatischen Bedingungen zu einer verringerten Benetzbarkeit des Bodens führen, war Ziel dieser Arbeit. Zu diesem Zweck wurden in Form einer Screening-Studie die Qualität der organischen Bodensubstanz sowie positive und negative Effekte unkontrollierter Ausbringungen bestimmt. Anschließend wurde ein OMW-behandelter, toniger Lehmboden bei vier unterschiedlichen Bodenfeuchten- und Temperaturen inkubiert und ein Feldexperiment in Israel durchgeführt, um die Auswirkungen der OMW-Ausbringung in Abhängigkeit der klimatischen Bedingungen zu untersuchen. Im Fokus stand dabei die Hypothese, dass unter nass-heißen Bedingungen aufgrund eines zügigen Abbaus der organischen Substanz kaum negative Auswirkungen zu erwarten waren. Zur Überprüfung dieser Hypothese wurden neben allgemeinen Bodenparametern (pH, elektr. Leitfähigkeit, Gesamtkohlenstoff, löslicher organischer Kohlenstoff, spezifische UV-Absorption) phenolische Verbindungen, Kohlenstoffisotopenverhältnis, Wassereindringzeit und Kontaktwinkel sowie thermische Stabilität und Brennwert der labilen und stabilen Kohlenstofffraktion ermittelt.
Zusammenfassend wurde festgestellt, dass die verringerte Benetzbarkeit OMW-behandelter Böden entsprechend dem vorgeschlagenen Mechanismus von den klimatischen Bedingungen und damit dem Ausbringungszeitpunkt abhängt. Unter trocken-heißen Bedingungen war die Benetzbarkeit des Bodens sowohl im Feld als auch im Labor am stärksten beeinträchtigt. Die thermische Analyse zeigt, dass hierfür wahrscheinlich Substanzen der stabilen Kohlenstofffraktion mit erhöhtem Brennwert verantwortlich sind. Mit höherer Temperatur und insbesondere höherer Bodenfeuchte wurde ein zunehmender Abbau der organischen Substanz des OMW in Verbindung mit einer verbesserten Benetzbarkeit beobachtet. Jedoch kann eine zu intensive Bewässerung oder starker Niederschlag, z.B. im Winter, zu einer Auswaschung von phenolischen Inhaltsstoffen des OMW führen, welche eine Gefährdung des Grundwassers darstellen können.
Gleichzeitig hat eine Ausbringung positive Effekte auf den Boden, z.B. durch Zufuhr organischer und anorganischer Nährstoffe. Aufgrund der Ergebnisse stellt die kontrollierte Ausbringung von OMW eine alternative, kostengünstige und nachhaltige Abfallverwendung in Form von Dünger dar. Jedoch sollte, anstatt des bisherigen Ausbringungszeitraumes Winter, das OMW gelagert und erst nach dem letzten Niederschlag am besten unter regelmäßiger Bewässerung ausgebracht werden, um negative Auswirkungen auf den Boden zu vermeiden und von den positiven Effekten zu profitieren.
In der vorliegenden Arbeit werden gamebasierte touristische Anwendungen untersucht.
Ausgehend von der These, dass für touristisches Freizeiterleben primär intrinsisch motivierende Anwendungen geeignet sind, werden zunächst intrinsische Motivationskonzepte untersucht. Dazu wird untersucht, wie Motivation gezielt herbeigeführt werden kann und ob sich gamebasierte Motivationskonzepte auf nichtspielerische Anwendungen übertragen lassen.
Darauf aufbauend wurden im Rahmen dieser Arbeit verschiedene touristische Anwendungen entwickelt und evaluiert. Ziel dieser Anwendungen ist es stets, einen Mehrwert für das touristische Freizeiterleben zu erzeugen. Die Anwendungen werden nach ihrer Mobilität kategorisiert. Es werden vollständig mobile, vollständig stationäre und hybride Systeme untersucht. Als Mehrwertkomponenten werden in dieser Arbeit spielbasierte Exploration einer Umgebung, Wissensvermittlung und soziale Interaktion zwischen Touristen untersucht.
Abschließend wird ein Autorentool für spielbasierte touristische Touren auf Smartphones entwickelt und untersucht, das seinerseits auf spielbasierte Elemente zurückgreift. Das Ziel dieses Systems ist es, Konzepte zu entwickeln, die beispielsweise eine Integration in soziale Netzwerke erlauben.
Diese Arbeit betrachtet das Thema Führung und Gesundheit und hat hierzu verschiedene Erkenntnisse der Literatur zusammengefasst, um diese von Führungskräften aus Wirtschaft und Polizei sowie von Personal- und Organisationsentwicklern bewerten zu lassen. Das Ziel war hierbei herauszufinden, ob die Führungskräfte und die Personal- und Organisationsentwickler das Thema als wichtig erachten, welche Hauptursachen sie für Fehlzeiten sehen und wie sie verschiedene Erkenntnisse der Literatur zum Gesundheitsmanagement einschätzen. Zusätzlich sollten sie bewerten, welche Maßnahmen sie als geeignet betrachten und welche Ressourcen notwendig sind, um die Mitarbeiter bei der Gesunderhaltung zu unterstützen. Schließlich sollten die Führungskräfte und die Personal- und Organisationsentwickler beurteilen, welcher Führungsstil als gesundheitsförderlich angesehen wird. Die Wirtschafts- und Polizeiführungskräfte sowie die Personal- und Organisationsentwickler erachten das Thema Gesundheit als wichtig und sehen es nicht nur als Modetrend an. Ihre Einschätzungen zu geeigneten Maßnahmen, die die Gesundheit der Mitarbeiter verbessern können, entsprechen überwiegend den aus der Literatur abgeleiteten Vorschlägen zur gesundheitsgerechten Führung. Die weitgehende Übereinstimmung der Sichtweisen in Forschung und Praxis legt nahe, dass die Erkenntnisse der Literatur zum Gesundheitsmanagement vermutlich von Praktikern als plausibel wahrgenommen werden.
Massenprozessmanagement
(2015)
Vorliegende Dissertation beantwortet die Forschungsfrage, welche grundlegend geeigneten Vorgehensweisen und notwendigen Informationstechnologien für das Management von hohen Anzahlen an Geschäftsprozessen (Mass Process Management, MBPM) in Dienstleistungsun-ternehmen zu berücksichtigen sind. Es konnte gezeigt werden, dass zur Bearbeitung von Massenprozessen eine spezielle, Methoden aus der Fertigungsindustrie verwendende Vorgehensweise notwendig ist. Das Forschungsziel, die Entwicklung einer MBPM-Vorgehensweise für Dienstleistungsunternehmen, wurde unter Anwendung des Forschungsansatzes Design Science Research erreicht und wird in der Dissertation in aufeinander aufbauenden Schritten erläutert. Zur Entwicklung der MBPM-Vorgehensweise wurde eine Langzeit-Tiefenfallstudie bei einem Prozess-Outsourcing-Dienstleister erstellt, um aus dessen Vorgehen Erkenntnisse zu gewinnen. Outsourcing-Unternehmen müssen ihre Dienstleistungen (Produkte) besonders effizient und effektiv erstellen, da sie sonst ihre Produkte nicht zu attraktiven Konditionen anbieten können. Es hat sich gezeigt, dass die fabrikorientierte Vorgehensweise des Outsourcing-Dienstleisters über den Betrachtungszeitraum von zehn Jahren dazu geeignet war, hohe Prozessmengen in höchster Qualität, zu stets sinkenden Preisen mit immer weniger Personen zu bearbeiten.
Der vermutete Forschungsbedarf in Bezug auf MBPM konnte auf Basis einer intensiven Literaturrecherche über das Zeitschriftenrating VHB-JOURQUAL und weitere Literaturquellen bestätigt werden. Da Vorgehensweisen für die Einführung von BPM in einer Vielzahl gefunden wurden, wurde eine Auswahl an BPM-Vorgehensweisen analysiert, um weitere Erkenntnisse für die Erstellung der MBPM-Vorgehensweise zu gewinnen. Durch die Analyse und den Vergleich der verschiedenen BPM-Vorgehensweisen aber auch durch den Vergleich mit dem Vorgehen des Prozess-Outsourcing-Dienstleisters stellte sich heraus, dass sich BPM und MBPM in zahlreichen Aspekten voneinander unterscheiden. MBPM hat einen stark operativen Fokus und benötigt intensive Unterstützung durch Informationstechnologie. Der operative Fokus zeigt sich vor allem in der für das MBPM notwendigen operativen Steuerung von Prozessen und Menschen und den damit einhergehenden hohen Anforderungen an Prozesstransparenz. Mit detailliertem Prozessmonitoring und feingranularen Prozessmessungen sowie zeitnahem Reporting wird diese Prozesstransparenz erreicht. Informationstechnologie wird benötigt, um bspw. Prozessmonitoring zeitnah durchzuführen aber auch um internen wie externen Anspruchstellern zu jeder Zeit den gewünschten Überblick zur aktuellen Auslastung aber auch zur Abrechnung der Dienstleistungen gewähren zu können.
Es konnte entgegen des Vorgehens des Prozess-Outsourcing-Dienstleisters gezeigt werden, dass Change Management die Einführung, den dauerhaften Betrieb und den mit MBPM verbundenen stetigen Wandel in positiver Weise beeinflussen kann.
Der Mittelstand ist das Rückgrat der deutschen Wirtschaft. Um erfolgreich agieren zu können, benötigt er geeignete Finanzierung in ausreichendem Umfang. Was aber zeichnet eine geeignete Finanzierung aus Sicht des Kapitalnehmers aus? Trotz der volkswirtschaftlichen Relevanz des Themas gibt es nur wenige empirische Studien über das Finanzierungsverhalten des Mittelstandes. Für diese Arbeit wurden sämtliche deutsche, mit PREPS finanzierte Unternehmen zur Teilnahme an einer Online-Befragung eingeladen. PREPS ist eine standardisierte mezzanine Finanzierung, die großen mittelständischen, bonitätsstarken Unternehmen angeboten wurde und mehrheitlich als Wachstumsfinanzierung verwendet wurde. Die finanzierten Unternehmen sind als Forschungsgegenstand besonders interessant, weil sie innerhalb des Mittelstandes aufgrund ihrer Größe und Bonität die breiteste Auswahl bei Finanzierungsentscheidungen haben. Finanzierungsinstrumente unterscheiden sich in der Ausgestaltung von ihren Rechten und Pflichten. Je nach Ausgestaltung kann eine Finanzierung neben der offensichtlichen Liquiditätsfunktion unterschiedliche weitere Funktionen wahrnehmen wie die Transformations-, Verhaltensbeeinflussungs- oder auch die Informationsfunktion. Die Haupthypothese dieser Arbeit ist, dass sich die finanzierten Unternehmen aus unterschiedlichen Gründen für dasselbe Finanzierungsinstrument entschieden haben und dass sich die unterschiedliche Wertschätzung der verschiedenen Eigenschaften des Finanzierungsinstruments aus unternehmens- und situationsspezifischen Besonderheiten ergeben. In den einzelnen Hypothesen über konkrete Zusammenhänge zwischen spezifischen Einflussfaktoren und Wertschätzungen von Finanzierungseigenschaften werden sowohl die zentralen Aussagen aus den Kapitalstrukturtheorien als auch aktuelle empirische Erkenntnisse zum Finanzierungsverhalten aufgegriffen und detailliert untersucht. Darüber hinaus wird einigen explorativen Hypothesen nachgegangen.
Die Basis für die Untersuchung bilden die theoretischen Erkenntnisse zur Transition und zum Fremdsprachenunterricht. In der Studie wurden saarländische Grundschullehrer und Gymnasiallehrer zu für den Fremdsprachenunterricht relevanten Aspekten befragt. Aus den Ergebnissen wurden Konsequenzen für die Bildungspolitik und die Unterrichtspraxis abgeleitet.
Die vorliegende Forschungsarbeit beschäftigt sich mit der Positionierung und anbieterinternen Kommunikation der innovativen IT-Architektur SOA. Die zentralen Ziele der vorliegenden explorativen und empirischen Forschungsarbeit, die im Kontext der Innovations-Erfolgsfaktorenforschung angesiedelt ist, bestehen in der Beantwor-tung der beiden folgenden forschungsleitenden Fragestellungen:
Forschungsfrage 1: Welche Bedingungen tragen zu einer erfolgreichen Positionierung von SOA bei? Forschungsfrage 2: Welche Bedingungen tragen zu einer erfolgreichen anbieterinternen Kommunikation bezüglich SOA bei? Zur Überprüfung dieser beiden Forschungsfragen wurde ein zweistufiges Delphi-Verfahren durchgeführt. Hierbei wurde zunächst eine qualitative Befragungswelle (N=53) zur Identifizierung der SOA-Positionierungsbedingungen und anbieterinternen SOA-Kommunikations-bedingungen durchgeführt. Insgesamt wurden in der ersten Befragungswelle 122 SOA-Positionierungsbedingungen identifiziert, die sich in 65 Bedingungen auf Anbieterseite, 35 Bedingungen auf Kundenseite, 19 Bedingungen auf SOA-Seite und 3 Bedingungen aufseiten des weiteren Umfeldes aufteilen. Im Rahmen der anbieterinternen SOA-Kommunikation konnten 31 Bedingungen identifiziert werden. Die in der ersten Welle identifizierten SOA-Positionie-rungsbedingungen und anbieterinternen SOA-Kommunikationsbedingungen wurden mittels der zweiten Befragungswelle (N=83) einer quantitativen Analyse unterzogen. Somit liefert die vorliegende Studie Bedingungen, die sowohl zu einer erfolgreichen SOA-Positionierung als auch zu einer erfolgreichen anbieterinternen SOA-Kommunikation beitragen.
Die Resultate dieser Arbeit werden zusammengefasst und theoretisch eingeordnet. Ebenfalls wird die methodische Vorgehensweise kritisch diskutiert und die Güte der Daten beurteilt. Schließlich wird ein Ausblick auf zukünftige Forschungsfelder gegeben.
Virtueller Konsum - Warenkörbe, Wägungsschemata und Verbraucherpreisindizes in virtuellen Welten
(2015)
Virtuelle Welten sind seit ungefähr einem Jahrzehnt in den Fokus der wissenschaftlichen Auseinandersetzung gerückt. Zahlreiche Disziplinen, wie die Rechtswissenschaften, die Soziologie, die Psychologie oder die Pädagogik, diskutieren verschiedenste Phänomene, welche die Interaktion der Menschen innerhalb von virtuellen Welten betreffen. Auch die Volkswirtschaftslehre ist auf diese virtuellen Umgebungen aufmerksam geworden.
Die vorliegende Arbeit setzt sich mit den ökonomischen Vorgängen innerhalb virtueller Welten auseinander. Im Fokus stehen dabei die vier Welten World of Warcraft, RuneScape, Entropia Universe und Second Life. Das "Dach" der Untersuchungen in dieser Arbeit bildet dabei der Verbraucherpreisindex, welcher in der realen Welt dazu dient, die Preisentwicklung von Konsumgütern zu berechnen. Zur Berechnung des Verbraucherpreisindexes werden drei Komponenten herangezogen: Warenkorb, Wägungsschema und die jeweiligen Güterpreise. Der Schwerpunkt dieser Arbeit besteht vor allem darin, diese Komponenten für virtuelle Welten zu identifizieren und eine vergleichbare Berechnung für virtuelle Welten exemplarisch zu ermöglichen. Mit der Übertragung der Werkzeuge der Wirtschaftsstatistik auf virtuelle Welten sind neben den inhaltlichen Erkenntnissen insbesondere die methodische Bewertung und Diskussion von Interesse. Schließlich trägt die Arbeit dazu bei, den Konsum in virtuellen Welten in eine Ordnung zu bringen, erste Konsumschwerpunkte aufzuzeigen und die diesbezüglichen Abweichungen zur realen Welt herauszuarbeiten. Dadurch wird die Basis gelegt, um neben den in dieser Arbeit angestoßenen Untersuchungen weitere volkswirtschaftlich, aber auch soziologisch verankerte Fragestellungen zu ermöglichen. Im Vordergrund steht dabei insbesondere die Auseinandersetzung mit und Begründung von Konsummotiven in virtuellen Welten. Gleichzeitig werden die Herausforderungen, welche sich bei der praktischen Umsetzung der erforderlichen Maßnahmen ergeben, aufgezeigt. Die diesbezüglichen Erkenntnisse sind geeignet, um als Grundlage für künftige Analysen zu dienen, um beispielsweise die Erhebung von Konsumausgaben oder die Aufzeichnung von Preisen und deren Entwicklungen für virtuelle Welten noch fundierter und mit noch engerem Bezug zur realen Welt durchführen und bewerten zu können.
Der demografische Wandel zwingt Unternehmen im sozialen Bereich, die noch mehr Schwierigkeiten haben als andere Firmen, qualifizierte Kräfte zu rekrutieren und zu binden, sich mit der Erhöhung der Mitarbeiterzufriedenheit auseinanderzusetzen.
Diese Forschungsarbeit untersucht die Zusammenhänge zwischen dialogischem Management in der Beziehung zwischen der direkten Führungskraft und ihren Mitarbeitern zu der Mitarbeiterzufriedenheit. Dabei wurden die Persönlichkeitspräferenzen der Führungskraft und des Mitarbeiters in der Wahrnehmung des Mitarbeiters gemessen. Als Persönlichkeitspräferenzen wurden unterschieden: harmoniesuchende Beziehungs-Präferenz versus dominanter Autonomie-Präferenz zu erlebnishungrige Stimulanz-Präferenz versus kontrollierender Balance-Präferenz nach Riemann 1999 und Paschen/Dihsmaier 2011.
Für die empirische Forschung wurde bei den Samariteranstalten Fürstenwalde/Spree eine Fragebogenumfrage mit 364 Teilnehmern von 560 Mitarbeitern durchgeführt. In dieser Forschungsarbeit wurden signifikante Zusammenhänge zwischen der Zufriedenheit der Mitarbeiter mit ihrer Führungskraft und deren dialogischen Kompetenzen, sowie der Kompetenz, Vertrauen zu erzeugen und Wertschätzung zu verbreiten, festgestellt. Es wurden außerdem Unterschiede zwischen der Mitarbeiterzufriedenheit und den wahrgenommenen psychologischen Präferenzen der Mitarbeiter und den vom Mitarbeiter wahrgenommenen Präferenzen der Führungskräfte festgestellt. Hierbei konnte festgestellt werden, dass beziehungsorientierte Führungskräfte eine deutlich höhere Dialogbereitschaft mitbringen als autonomieorientierte Führungskräfte. In dieser Konstellation lag die Zufriedenheit der Mitarbeiter bei diesen Führungskräften deutlich höher als bei den autonomieorientiert wahrgenommenen Führungskräften.Ferner wurde bei den stimulanz- und beziehungsorientierten Mitarbeitern ein höherer Zusammenhang zwischen der Zufriedenheit und dem dialogischem Verhalten der Führungskraft festgestellt als bei den Mitarbeitern mit einer Autonomie- oder Balance-Präferenz.
Die höchsten Zufriedenheitswerte konnten bei beziehungsorientierten Mitarbeitern festgestellt werden, die ihre Führungskräfte ebenfalls als beziehungsorientiert einschätzen. Für die Einführung eines dialogischen Managements in Unternehmen bedeutet dies, dass zunächst das Fundament eines dialogischen Denkens und Handelns bei Führungskräften und Mitarbeitern bereitet werden muss, das sich auf Vertrauen und Wertschätzung stützt. In diesem Zusammenhang sollten die beziehungsorientierten Ansätze von Führungskräften bei Einstellungsverfahren beachtet werden und bei der Personalentwicklung einen höheren Stellenwert bekommen.
Die UN-Behindertenrechtskonvention von 2008 formuliert einen Rechtsanspruch auf inklusive Bildung für Menschen mit Beeinträchtigungen. Diesem wird in Deutschland seit 2009 durch Schulgesetzänderungen Rechnung getragen, mit denen inklusive Bildung durch ein Elternwahlrecht implementiert wird. Bislang ist vor dem Hintergrund der neu geschaffenen elterlichen Entscheidungsmöglichkeiten noch nicht untersucht worden, welche Vorstellungen Eltern von Kindern mit komplexen Beeinträchtigungen mit dem inklusiven Bildungsanspruch ihres Kindes verbinden und in welcher Weise sie diesen an der Schulform ihrer Wahl eingelöst sehen. Im Zentrum der vorliegenden Arbeit steht die Rekonstruktion des Bildungsangebots aus der Perspektive der Eltern im Abgleich mit der Sicht der pädagogischen Klassenteams. Den Fragen nach den elterlichen Erwartungen und Erfahrungen wurde aus der systemtheoretischen Perspektive von Luhmann nachgegangen. In der qualitativ angelegten Untersuchung geht es um Schülerinnen und Schüler mit komplexen Beeinträchtigungen, die nach der Schulgesetznovellierung in Hamburg (2009) in den Jahren 2010 und 2011 eingeschult worden sind und aufgrund der Entscheidung ihrer Eltern in unterschiedlichen Settings an Grund- und Sonderschulen lernen. Die Datenerhebung erfolgte durch leitfadengestützte Interviews mit Eltern, Pädagoginnen und Pädagogen sowie Schulleitungen, ergänzt durch Hospitationen im Schuljahr 2011/12 und Dokumente, die von den Schulen zur Verfügung gestellt wurden. Die Datenanalyse erfolgt mithilfe der Grounded Theory nach Strauß/Corbin (1996). Die Ergebnisse der Untersuchung zeigen elterliche Bildungserwartungen im Hinblick auf ein Ermöglichen von Autonomie und Teilhabe ihrer Kinder und eine differenzierte Wahrnehmung der Umsetzung ihrer Erwartungen im Schulalltag. Einen besonderen Stellenwert messen Eltern der Zusammenarbeit zwischen Schule und Familie bei, die für das Entstehen von Vertrauen bzw. Misstrauen bedeutsam ist. Aus den Erkenntnissen und deren Rückbindung an die Systemtheorie wurde ein Modell des Professionsvertrauens/-misstrauens entwickelt.
Die Auswertung ergibt Hinweise zu Qualitätskriterien eines inklusiven Bildungsangebots und zu Entwicklungsanforderungen in der Professionalisierung, die sowohl auf die Ebene der Organisation Schule als auch der Interaktion zwischen schulischen Akteurinnen und Akteuren sowie Eltern abzielen.
Animationen können in instruktionalen Kontexten genutzt werden, um Wissen über Sachverhalte zu vermitteln, die Prozesse oder Abläufe beinhalten. So können dynamische Sachverhalte explizit dargestellt werden und müssen nicht vom Lerner selbst in Gedanken hergestellt, sondern nur anhand der Animation nachvollzogen werden. Dies sollte sich positiv auf den Wissenserwerb auswirken. Dabei stellen Animationen mit ihrer besonderen Eigenschaft der Darstellung zeitlicher Abläufe besondere Herausforderungen an den Lerner. Das menschliche Informationsverarbeitungssystem unterliegt bestimmten Begrenzungen im Hinblick auf die Wahrnehmung von Geschwindigkeiten. Zu schnelle und zu langsame Geschwindigkeiten können beispielsweise nur schwer wahrgenommen und dementsprechend auch nicht kognitiv verarbeitet werden. Die Zielsetzung der Arbeit, die sich daraus ergibt, war eine systematische Untersuchung der Wirkung unterschiedlicher Präsentationsgeschwindigkeiten auf das Wahrnehmen und Verstehen eines dynamischen Sachverhaltes anhand einer Animation.
Um die Fragestellungen der Arbeit beantworten zu können, wurden vier experimentelle Studien durchgeführt. Die Pilotstudie hatte das Ziel, sowohl das Lernmaterial als auch den entwickelten Wissenstest zu evaluieren. In Studie 1 wurde der Frage nach dem Einfluss der Präsentationsgeschwindigkeit auf den Wissenserwerb beim Lernen mit einer interaktiven Animation nachgegangen.
Die Studien 2 und 3 untersuchten den Einfluss verschiedener Reihenfolgen von Geschwindigkeiten auf den Wissenserwerb. Hier ging es um eine systematische Erfassung der perzeptuellen und kognitiven Verarbeitung dynamischer Informationen in zwei verschiedenen Geschwindigkeiten mittels Blickbewegungsmessung (Studie 2) und wiederholten Testungen des Wissenserwerbs zwischen den einzelnen Lernphasen (Studie 3).
Die Ergebnisse der Studien deuten darauf hin, dass bei langsamer Geschwindigkeit Wissen über Ereignisse auf untergeordneter zeitlicher Ebene erworben wurde und dass je schneller eine Animation gesehen wurde, umso mehr anteiliges Wissen auf einer übergeordneten zeitlichen Ebene erworben wurde (Studie 1), aber eindeutige Aussagen über den Einfluss der Geschwindigkeit auf den Wissenserwerb auf verschiedenen zeitlichen Hierarchieebenen lassen sich aufgrund der Ergebnisse der Studien nicht machen. Im Hinblick auf die Lernförderlichkeit verschiedener Arten der Sequenzierung von Geschwindigkeiten zeigten sich auch keine eindeutigen Ergebnisse. Aufgrund der Analyse der Blickbewegungsdaten deutet sich jedoch an, dass die Reihenfolge "langsam - schnell" den Bedingungen auf Seiten der Lerner eher entgegen kommt als die Reihenfolge "schnell - langsam".
Die vorliegende Arbeit betrachtet den Einfluss von Wald- und Wirtschaftswegen auf Abflussentstehung und Bodenerosionsraten innerhalb eines bewaldeten Einzugsgebiets im Naturschutzgebiet Laacher See. Hierfür wurden sowohl bestehende Erosions- und Akkumulationsformen im Gelände kartiert, als auch Erosionssimulationen mittels einer Kleinberegnungsanlage durchgeführt. Zuletzt erfolgte eine Modellierung des Erosionspotentials auf Grundlage der Simulationsergebnisse.
Die Analyse bestehender Erosions- und Akkumulationsformen im Gelände gab einen Hinweis auf Bodenerosionsraten von Wegoberflächen, die zwischen 27,3 und 93,5 t ha-1 a-1 und somit in derselben Größenordnung wie Erosionsraten unter intensiver ackerbaulicher Nutzung lagen.
Die Simulationsläufe zeigten, dass persistente Waldwege ein deutlich verändertes Infiltrationsverhalten aufwiesen. Auf natürlichen Waldböden lag der Anteil des infiltrierten Niederschlags bei durchschnittlich 96%. Im Falle von Waldwegen nahm dieser Anteil im Mittel auf 14% bis 7% ab. Besonders auffällig waren die Ergebnisse auf Rückegassen, auf denen ein erheblicher Einfluss der Bodenverdichtung durch Befahrung nachgewiesen werden konnte. Hier sank der Anteil des infiltrierten Niederschlags auf 31% in den Fahrspuren, zwischen den Spuren wurden noch 76 % infiltriert.
Während der Simulationsläufe konnten maximale Sedimentmengen von 446 g m-2 erodiert werden, was einer mittleren Bodenerosionsrate von 4,96 g m-2 min-1 entspricht. Diese hohen Abtragsraten wurden auf persistenten Wegen mit geringer Befestigung gemessen. Rückegassen wiesen die geringsten Abtragswerte auf, maximal konnten 37 g m-2 erodiert werden, gleichbedeutend mit einer Abtragsrate von 0,41 g m-2 min-1. Die erodierten Sedimentmengen betrugen im Mittel bei Wegen 167 bis 319 g m-2 und im Falle von Rückegassen 17 g m-2. Anhand von Vergleichsmessungen auf Waldstandorten, bei denen ein mittlerer Bodenabtrag von ca. 5 g m-2 festgestellt wurde, konnte eine erhöhte Erodierbarkeit für jedwede Form der Weganlage bestätigt werden.
Auf Basis der im Gelände gemessenen Abtragsraten wurden die Modellierungen kalibriert. Die Ergebnisse der ABAG / DIN 19708 zeigten für das betrachtete Untersuchungsgebiet eine mittlere jährliche Bodenerosionsgefährdung von 2,4 - 5,8 t ha-1 a-1 für persistente Wege und von 0,5 t ha-1 a-1 für Rückegassen. Im Vergleich zum Mittelwert weitgehend unbeeinflusster Waldflächen im Untersuchungsgebiet von 0,1 t ha-1 a-1 zeigte sich abermals ein erhöhtes Abtragspotential. Die physikalisch basierte Modellierung der Beregnungsversuche mittels WEPP zeigte ein zufriedenstellendes Ergebnis bei der Einschätzung des Abflussverhaltens, so wurden für persistente Wege nur Abweichungen von maximal -5% festgestellt. Die Abflussmodellierung auf Rückegassen sowie die generelle Modellierung der Bodenerosion während der Beregnungsversuche zeigte sich im Kontrast hierzu noch fehlerbehaftet, was ursächlich mit der für ein physikalisches Modell relativ geringen Eingangsdatentiefe zu begründen ist.
Es wurde nachgewiesen, dass Waldwege einen bedeutenden Einfluss auf den Wasserhaushalt und das Bodenerosionsgeschehen haben. Der Rückhalt von Niederschlägen wird gemindert und es kommt zu intensivierten Bodenerosionsprozessen. Schlecht befestigte Wege zeigten einen stark erhöhten Bodenabtrag, der zu ökologischen Folgeschäden führen kann. Der Abtrag kann ebenso zu einer Beeinträchtigung der Befahrbarkeit führen. Anhand der Folgen lässt sich die Relevanz der Betrachtung von Abfluss- und Bodenerosionsprozessen auf Wald- und Wirtschaftswegen deutlich machen. Die vorliegende Arbeit stellt die erste Studie dar, innerhalb derer Abfluss- und Bodenerosionspozesse für Walderschließungsnetzwerke in Mitteleuropa untersucht wurden.
Die vorliegende Dissertation widmet sich dem Phänomen des Erlebens der Rezeption von audiovisuellen narrativen unterhaltenden Medieninhalten. Dieses wird zunächst in die Rezeptions- und Wirkungsforschung eingeordnet und für das weitere Vorgehen konkretisiert: Transportation und Narrative Engagement stellen aktuell die beiden wichtigsten Konzepte der Medienpsychologie bezüglich der Nutzung und Wirkung von Geschichten dar.
Anschließend werden drei Fragestellungen bearbeitet. Bisher standen Forscher und Forscherinnen vor dem Problem der Manipulation des Rezeptionserlebens. Daher wurden in der vorliegenden Arbeit zwei Verfahren vorgeschlagen und in vier experimentellen Studien geprüft. Der Einsatz von Rezensionen erwies sich als geeignet, um bei allen narrativen unterhaltenden Texten das Rezeptionserleben ökonomisch zu manipulieren. Weiterhin gibt es bislang kein etabliertes Verfahren zur rezeptionsbegleitenden Messung des Rezeptionserlebens.
In dieser Arbeit wurde ein Verfahren aus einer Kombination von Real Time Response Measurement (RTR), Secondary Task Reaction Times (STRT) und der Erhebung der Lidschlagfrequenz entwickelt. Vor allem RTR war in der Lage, die im Zusammenhang mit dem Rezeptionserleben auftretenden emotionalen Prozesse zu erfassen. Die Befürchtung, die rezeptionsbegleitenden Messmethoden könnten das Rezeptionserleben verhindern, wurde in einer weiteren experimentellen Studie größtenteils entkräftet. Zuletzt wurde der Prozess des Zusammenfassens des Rezeptionserlebens in ein postrezeptives Urteil thematisiert. Nach der Entwicklung eines Rahmenmodells der Beantwortung postrezeptiver Skalen wurde in einer weiteren Studie die Bedeutung verschiedener Verlaufsparameter für das postrezeptive Urteil untersucht. Vier ausgesuchte Parameter zusammen können das postrezeptive Urteil besser erklären als der Verlaufs-Mittelwert. Die Arbeit schließt mit einer Diskussion, in der unter anderem die dynamische und die postrezeptive Messung des Rezeptionserlebens aufeinanderrnbezogen werden und hinsichtlich ihrer Bedeutung kritische Würdigung erfahren.
Zentrale Aufgaben der Hochschule sind die Bewertung, die Ursachenklärung und die Förderung von Studienleistungen (Heublein & Wolter, 2011, S. 215). In diesem Kontext gilt neben intellektuellen Fähigkeiten die Leistungsmotivation als bedeutsamer Prädiktor für den akademischen Erfolg (z. B. Schmidt-Atzert, 2005, S. 132; Steinmayr & Spinath, 2009, S. 80). Im Fokus der vorliegenden Studie stehen deshalb Überlegungen zu Motivationsprozessen von 332 Studienanfängern der Hochschule der Bundesagentur für Arbeit und zu den Faktoren, die sich förderlich auf ihre Lernresultate auswirken. Mit einer Ausschöpfungsquote von 89 % sind die gewonnenen Daten für die Grundgesamtheit repräsentativ. Anhand einer Ex-post-facto-Versuchsanordnung in Form eines quantitativen Prädiktor-Kriteriums-Ansatzes (spezielle Variante eines Längsschnittdesigns) mit unterschiedlichen Erhebungsmethoden, wie standardisiertem Selbstbeurteilungsfragebogen, Leistungstests und offiziellen Dokumenten/Aktenmaterial, wurden folgende Forschungshypothesen zugrunde gelegt: Die Stärke der Leistungsmotivation ist sowohl von Erwartungskomponenten (Fähigkeitsselbstkonzept, Selbstwert, subjektive Notenerwartung, Erfolgszuversicht und Misserfolgsfurcht) als auch von Anreizkomponenten (Gegenstands-, Tätigkeits-, Folgenanreizen) abhängig, welche wiederum vermittelt über das leistungsmotivierte Verhalten einen Einfluss auf die Studienleistung besitzt. Dabei wurde postuliert, dass motivationale Variablen auch dann noch einen bedeutsamen Effekt auf die Studienleistung ausüben, wenn weitere Leistungsprädiktoren, wie die Schulabschlussnote, die Intelligenz, die emotionale Stabilität und die Gewissenhaftigkeit kontrolliert werden.
Die Studie befasst sich mit der Bildungsaspiration, der Wertevermittlung und -tradierung iranischstämmiger Familien in Deutschland. Ziel ist es, zu ermitteln, worauf die familiäre Bildungsaspiration zurückzuführen ist. Im Fokus der Fallstudie stehen drei Familien, die nach der Islamischen Revolution von 1979 aus ihrem Herkunftsland nach Deutschland immigriert sind. Es handelt sich um eine zweigenerationenperspektivische Befragung innerhalb einer Familie. Dies bedeutet, dass innerhalb einer Familie Einzelinterviews mit jeweils einer Person aus der Eltern- und Kindergeneration durchgeführt wurden. So werden gemeinsam erlebte Situationen, wie z.B. Flucht oder Teilhabe am deutschen Bildungssystem, oder Begriffe, wie z.B. Bildung oder Bildungserfolg, aus der jeweiligen Perspektive geschildert bzw. definiert. Darüber hinaus geben die Befragten Auskünfte über die Großelterngeneration, sodass das gesamte Datenmaterial Angaben über drei Generationen umfasst. Dieser qualitativen Exploration geht eine bundesweite Befragung voraus an der 70 Personen iranischer Herkunft teilnahmen. Weiterhin zeichnet sich die Arbeit durch einen ressourcenorientierten Forschungsansatz aus. Die erhobenen Daten geben Antwort auf die zentralen Fragen:
Auf welche Ursachen lässt sich Bildungsaspiration von immigrierten, iranischstämmigen Familien in Deutschland zurückführen?
Welche Rolle spielen die Sprachen des Herkunfts- und Einwanderungslandes in der Wertetradierung? In der Studie werden die individuellen Bildungsgeschichten der Befragten in den wissenschaftlichen Diskurs zur Bildungsaspiration, Bildungs-, Migrations- und Mehrsprachigkeitsforschung eingefügt. Hierbei wird ein interdisziplinäres und somit multiperspektivisches Theoriekonstrukt zugrunde gelegt, welches sich durch einen geschichts-, länder- und generationsübergreifenden Forschungsansatz auszeichnet. Ein zentrales Ergebnis ist, dass ein Verständnis für geschichtliche Entwicklungen im Herkunftsland erforderlich ist, um das Bildungsverhalten im iranischstämmigen Familienkontext nachzuvollziehen. Erst durch Kontextualisierung von individuellen und gesellschaftlichen Dimensionen kann nachvollzogen werden, warum im Falle dieser Minderheitengruppe geringes ökonomisches Kapital, das infolge von beruflichen Brüchen der Eltern nach ihrer Flucht im Einwanderungsland entstanden ist, keine negativen Auswirkungen auf die Entwicklung des kulturellen Kapitals der Folgegenerationen hat. Folglich zeigt die Studie, dass im Falle der interviewten Familien gängige Erklärungsmodelle, wie die Korrelation vom geringem ökonomischen Kapital und geringem kulturellen Kapital, nicht zutreffen. Vielmehr wird kulturelles Kapital von Generation zu Generation tradiert. Ein weiteres Ergebnis der Studie ist das erarbeitete Dreiebenen-Modell. Es umfasst geschichtlich-gesellschaftliche, politische sowie familiäre Entwicklungen und Einstellungen auf der Mikro-, Meso- und Makroebene. Damit ist eine Grundlage geschaffen, um das Tradierungsverhalten anderer Zuwanderungsgruppen zu erklären.
Der Begriff Gebrauchsgrafik ist im Wesentlichen ein Sammelbegriff für jene grafischen Arbeiten, die, im Gegensatz zur freien Grafik Anteil haben an der bewussten künstlerischen Durchformung und Gestaltung praktischer Aufgaben. Hauptbetätigungsfeld der Gebrauchsgrafik als zweckgebundene künstlerische Äußerungsform ist um 1900 die Reklame in Form von Plakaten, Anzeigen, Verpackungen, Firmensignets sowie Akzidenzen. Sie alle brachten den vielseitigen Formenschatz des Jugendstils einem breiten Publikum näher. Die Gebrauchsgrafik als neues Medium um 1900 steht im engen Zusammenhang mit dem technischen Fortschritt der industriellen Revolution: Angesichts zunehmender Konkurrenz durch die Massenproduktion von Konsumgütern versprach künstlerisch ansprechende Werbung Wettbewerbsvorteile. Dank der Erfindung der Lithografie um 1799 war die Gebrauchsgrafik allseitig verfügbar und gut finanzierbar. Sie passte in das Konzept des Jugendstils als Medium, das alle Bereiche mitgestaltet. Sie fungierte als Schnittstelle zwischen Wirtschaft, Kunst und Kultur. Exemplarisch werden drei unterschiedliche, für die Region bis heute bedeutende Branchen untersucht: der Tourismus, der Weinbau und die Industrie. Zudem werden Pfälzer Künstler des Jugendstils vorgestellt, die sich auf dem Gebiet der Gebrauchsgrafik betätigten. So lässt sich in der Pfalz eine repräsentative Anzahl gebrauchsgrafischer Arbeiten des Jugendstils in unterschiedlicher Ausprägung nachweisen. Als entlegene bayrische Provinz nahm sie die Strömungen der Zeit wahr und setzte sie auf ihre Weise um. Ein eigenständiger Pfälzer Jugendstil entwickelte sich aber nicht.
Studien zeigen einen hohen Anteil an gut ausgebildeten Frauen, auch weisen Untersuchungen über die Führungskompetenz mehr führungsstarke Frauen (jede 12.) als Männer (jeder 17.) auf. Diese Ergebnisse spiegeln sich jedoch nicht in der nur geringen Anzahl von Frauen in höheren Führungspositionen wieder, mit der Folge, dass diese Ressource damit ungenutzt bleibt. Wenn Mitarbeitende aber als bedeutsam für den Unternehmenserfolg angesehen werden, dann sollten ein optimaler Einsatz und eine bestmögliche Entwicklung selbstverständlich sein. Dieser Aspekt findet sich auch in der Politik zur Gleichbehandlung der Geschlechter wieder. Organisationen vernachlässigen Potential, wenn sie Frauen, die gut ausgebildet sind, nicht die Möglichkeiten geben, beruflich aufzusteigen. Gerade in der Sozialen Arbeit ist der Anteil der Frauen sehr hoch, dennoch kehrt sich diese Verhältnismäßigkeit, vor allem bei den höheren Führungspositionen wie Vorstände, Geschäftsführungen, Aufsichtsgremien, um. Im Rahmen der vorliegenden Dissertation werden förderliche und hemmende Faktoren im Erreichen einer Leitungsposition von Frauen analysiert. Der besondere Fokus ist dabei auf die obere Führungsebene in Organisationen der Sozialen Arbeit gerichtet, im Besonderen auf die Freie Wohlfahrtspflege. Ziel ist darüber hinaus die Darstellung von Handlungsimplikationen zur Förderung weiblicher Karrieren in der Sozialen Arbeit, als Beitrag zur besseren Nutzung weiblichen Know-Hows. Die Arbeit berücksichtigt dabei sowohl die Sicht von Frauen in Führungspositionen, als auch die Sicht von Personalentscheiderinnen und -entscheidern und leistet einen Beitrag dazu, wie Frauen in Verbänden und Organisationen der Freien Wohlfahrtspflege der Zugang zu Führungspositionen ermöglicht werden kann. Die hieraus resultierenden Leitfragen sind: Welche biografischen und institutionellen Faktoren fördern und hemmen den Aufstieg weiblicher Führungskräfte in die obere Führungsebene? Welche Faktoren zeigen sich aus Sicht der Frauen, welche aus Sicht der Personalentscheiderinnen und -entscheider? Welche Lösungswege ergeben sich zur Anhebung des Frauenanteils in der oberen Führungsebene? In der theoretischen Ausarbeitung werden zunächst im Rahmen des ersten Themenkomplexes Frauen und Führung bspw. geschlechtsspezifische Aspekte von Führungsverhalten besprochen, Bezug nehmende Ergebnisse der Führungsforschung sowie der Frauen- und Geschlechterforschung aufgezeigt und berufliche Situationen und Karrieren von Frauen dargestellt. Einfluss- und Erfolgsfaktoren weiblicher Karrieren, mögliche Aufstiegsbarrieren (biografisch konstruiert, gesellschaftlich sozialisiert, organisationsstrukturell) und Strategien zur Realisierung von Chancengleichheit im Aufstieg werden beschrieben. Der erste Themenkomplex endet mit der analytischen Betrachtung des Nutzens dieser Chancengleichheit. Der zweite Themenkomplex geht konkret auf den Bereich Soziale Arbeit ein, beleuchtet den Begriff Frauenberuf, die berufliche Situation von Frauen in der Sozialen Arbeit, die Freie Wohlfahrtspflege, das hier vorherrschende Verständnis von Führung und geht im Abschluss auf Frauen in Führungspositionen in der Sozialen Arbeit ein. Neben Faktoren, die Frauen möglicherweise einen Führungsaufstieg erschweren, werden auch Möglichkeiten von Organisationen bei der Unterstützung von Karrieren der Frauen beleuchtet. Die Untersuchung legt ihren Schwerpunkt auf die Organisationen der Sozialen Arbeit und die Führungspositionen des oberen Managements. Im sich anschließenden empirischen Teil erfolgt daher die Darstellung des Forschungsprojekts und des Forschungssettings, der Forschungsergebnisse, als auch der daraus abgeleiteten Schlussfolgerungen.