Dissertation
Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (224) (entfernen)
Sprache
- Deutsch (224) (entfernen)
Schlagworte
- Führung (6)
- Inklusion (6)
- Grundwasserfauna (5)
- Modellierung (4)
- Arbeitszufriedenheit (3)
- Biomechanik (3)
- Dialog (3)
- Grundwasser (3)
- Inhaltsanalyse (3)
- Integration (3)
Institut
- Fachbereich 8 (27)
- Fachbereich 7 (20)
- Fachbereich 5 (19)
- Institut für Integrierte Naturwissenschaften, Abt. Chemie (13)
- Institut für Pädagogik, Abteilung Pädagogik (12)
- Institut für Computervisualistik (9)
- Institut für Erziehungswissenschaft (9)
- Arbeitsbereich Biopsychologie, Klinische Psychologie und Psychotherapie (7)
- Fachbereich 6 (7)
- Institut für Germanistik (7)
Gegeben sei eine Basis b>=10 und eine Ziffer a0 aus der Menge {0,..., b − 1}. Wir untersuchen, ob es unendlich viele Primzahlen gibt, die in ihrer b-adischen Zifferndarstellung die Ziffer a0 nicht besitzen. Ferner schätzen wir die Anzahl dieser Primzahlen, die kleiner sind als X = b^k, nach oben und unten ab.
Damit gelingt uns eine Verallgemeinerung von Maynards Beweis für den Fall b = 10 und wir nutzen hierzu auch die in seiner Arbeit verwendeten Werkzeuge. Unter Anderem benötigen wir die Hardy-Littlewoodsche Kreismethode sowie diverse Siebmethoden, um die Minor Arcs zu kontrollieren.
Schließlich sehen wir, dass wir Maynard's Aussage vor allem dann auf beliebige Basen b>= 10 und ausgeschlossene Ziffern a0 aus {0, ..., b − 1} übertragen können, wenn zwei betragsmäßig größte Eigenwerte von Matrizen, die von b und a0 parametrisiert werden, bestimmte Abschätzungen erfüllen. Dass diese Abschätzungen im Fall b>=102 erfüllt sind, beweisen wir im letzten Kapitel. Für die Fälle b = 10 und b = 11 liegt ebenfalls ein Mathematica-Code vor, der die Abschätzungen bestätigt.
Die Dissertation untersucht das Selbstkonzept der indischen Ordensfrauen in deutschen Pflegeeinrichtungen. Für die Analyse wurde die Methode der Grounded Theory aus der empirischen Sozialforschung ausgewählt. Im Untersuchungsfeld wurden 26 indische Ordensfrauen und 5 Arbeitergeber interviewt. Als theoretische Grundlagen diente die Missionsgeschichte mit dem Standard des missionarischen Dienstes, die Ausprägung des deutschen und indischen Pflegeverständnisses, der Kulturbegriff in seiner strukturellen Bedingtheit von Dimensionen und Modellen mit dem Bezug zur Organisation „Ordensgemeinschaft“. Dem direkten Bezug zur Forschungsfrage dienten das hierarchische Selbstkonzeptmodell nach Shalveson und ein weiteres Modell nach Bracken, das zur Interpretation der empirischen Ergebnisse herangezogen wurde. In den fünf Kernkategorien und den dazugehörigen Subkategorien dominierte das Hauptmotiv „Missionarin sein“.Die indischen Ordensfrauen bezeichnen sich selbst als „Europamissionarin“ und wollen die Liebe Christi durch ihre Arbeit in der Pflege und Betreuung zu den Kranken, Hilfebedürftigen und alten Menschen bringen.
Damit die indischen Ordensfrauen in ihrem Selbstkonzept in Deutschland noch optimaler arbeiten können, empfiehlt es sich ein Anforderungsprofil zu entwickeln, vorausschauend bestimmte Rahmenbedingungen zu beachten und neue Lebensmodelle zu konzipieren.
Die Computermodellierung menschlicher Teilkörperstrukturen gewinnt zunehmend an Bedeutung für den Einsatz in der Medizin. Es handelt sich dabei um ein interdisziplinäres Forschungsfeld, bei dem durch die Zusammenarbeit von Physik, Mathematik, Computervisualistik und Medizin neue Methoden entwickelt werden können, mit denen genauere Aussagen über mechanische Belastungen von inneren kraftübertragenden Strukturen, wie Zwischenwirbelscheiben, Ligamente, Gelenke und Muskeln, bei Bewegungsabläufen getroffen werden können.
Zu Beginn dieser Arbeit wird die Bedeutsamkeit des Forschungsbedarfs in der Computermodellierung, spezialisiert auf den Bereich der Wirbelsäule, dargelegt.
Nachfolgend werden die grundlegenden anatomischen Strukturen erörtert, wozu die Zwischenwirbelscheiben, die Ligamente, die Facettengelenke und Muskulatur zählen.
Anschließend werden Algorithmen entwickelt, mit denen aus CT-Daten unter geringem Zeitaufwand sowie semiautomisch individuelle LWS-Modelle erstellt werden können. Dabei werden Methoden erarbeitet, mit denen die vorgestellten kraftübertragenden Strukturen der Wirbelsäule, wie die Zwischenwirbelscheiben, Ligamente, Facettengelenke und Muskeln, modelliert werden können.
Im weiteren Verlauf werden unterschiedliche bildgebende Verfahren (MRT-Daten, Röntgenfilm, Röntgenfunktionsaufnahmen) zur Validierung der LWS-Modelle vorgestellt und verwendet.
Abschließend werden die erarbeiteten Algorithmen genutzt, um eine größere Anzahl an individuellen LWS-Modellen zu erstellen, die anschließend auf Gemeinsamkeiten und Unterschiede bzgl. der inneren Belastungen sowie auf physiologisch korrekte Bewegungsabläufe hin untersucht werden. Dazu wird insbesondere das relative momentane Drehzentrum zwischen zwei benachbarten Wirbeln berechnet.
In dieser Arbeit wurden erstmals die strukturelle Wechselwirkung zwischen Kalium- Wasserglas-Systemen mit Aluminium-Tetrametaphosphat sowie generell über Wasserglas-Systeme mit Aluminium-Hexametaphosphat als chemischer Härter untersucht. Dabei wurde der kristalline Phasengehalt mittels Pulverdiffraktometrie und anschließender Rietveld-Analyse qualitativ und quantitativ beschrieben. Die Untersuchung des amorphen Phasengehalts erfolgte über verschiedene spektroskopische Methoden (NMR-, ATR-IR- und Raman-Spektroskopie). Das Löslichkeitsverhalten der chemischen Härter in alkalischer Umgebung wurde mit der optischen Emissions- und Elektronenabsorptionsspektroskopie gemessen. Für die Untersuchung der mechanischen Parameter kamen die Drei-Punkt- Biegefestigkeitsprüfung, die Resonanz-Frequenz-Dämpfungsanalyse und die Säureprüfung zum Einsatz. Die Gefüge-Struktur der chemisch gehärteten Wassergläser wurde rasterelektronenmikroskopisch untersucht. Es konnte gezeigt werden, dass der Reaktionsmechanismus der Härtungsreaktion von Kalium-Wassergläsern und Aluminium-Metaphosphaten in Abhängigkeit von der Metaphosphat-Struktur auf unterschiedlichen Wegen abläuft. Bei Aluminium- Tetrametaphosphat bildet sich beim Herauslösen der Aluminium-Ionen aus dem Metaphosphat in einer Ionen-Austauschreaktion das Kalium-Tetrametaphosphat- Dihydrat. Bei Proben mit Aluminium Hexametaphosphat konnte keine vergleichbare Struktur nachgewiesen werden. Parallel dazu findet eine Depolymerisationsreaktion der cyclischen Phosphat-Struktur statt, die stufenweise über mehrere Schritte zum kristallinen Kaliumdihydrogenphosphat abgebaut wird. Das Einbringen des jeweiligen Aluminium-Metaphosphats verursacht einen Abfall des pH-Wertes, wodurch die Polykondensation der Wasserglas-Struktur in Gang gesetzt wird. Diese Polykondensation wird weiter verstärk, indem bei der Depolymerisation des Metaphosphats die Kalium-Ionen in Form von unterschiedlich stark kondensierten Kaliumphosphaten bzw. Kaliumhydrogenphosphaten dem Wasserglas entzogen werden, was zu einer weiteren Herabsetzung des pH-Wertes und somit zu einer Senkung der elektrostatischen Stabilisierung des Wasserglases führt. Die aus der Aluminium-Metaphosphat-Struktur herausgelösten Aluminium-Ionen dringen in die abbindende, silikatische Netzwerkstruktur ein und bilden eine alumosilikatische Bindermatrix. Dieser Effekt ist bei Aluminium-Hexametaphosphat deutlich stärker ausgeprägt als bei Aluminium-Tetrametaphosphat. Weiterhin entstehen röntgenamorphe, hydratisierte Aluminiumphosphat-Strukturen, die in eigenen Bereichen innerhalb der amorphen Bindermatrix vorliegen. Daraus folgt, dass es sich bei den chemisch gebundenen Kalium-Wasserglas-Bindern um kein homogenes System handelt. Dies liegt hauptsächlich an der hohen Oberflächenladung und der Viskosität des Wasserglases, da mit dem Eintrag des feinen Härterpulvers dieses sofort verklumpt. Trotz optimierter Homogenisierungstechniken bleiben Teile des Härters in begrenzten Bereichen bestehen, die dazu führen, dass dieser nicht vollständig umgesetzt wird. Innerhalb der amorphen Bindermatrix liegen teilweise verschieden stark kondensierte Phosphat-Einheiten, silikatische und alumosilikatische Phasen angrenzend nebeneinander vor. Dazu kommen neugebildete kristalline Phasenbestandteile sowie Anteile an nicht vollständig umgesetztem Aluminium-Metaphosphat-Härter.
In Bezug auf die mechanischen Eigenschaften lässt sich zusammenfassen, dass mit zunehmender MVZ des Kalium-Wasserglases die Säurebeständigkeit der Probe sowie der Grad der Porosität zunehmen. Die mechanische Festigkeit und der Elastizitätsmodul hingegen nehmen mit steigender MVZ ab. Mit einer Änderung der Metaphosphat-Struktur vom Aluminium-Tetrametaphosphat zum Aluminium- Hexametaphosphat nimmt die chemische Beständigkeit gegenüber dem Säureangriff ab, auch sinkt der Grad der Porosität. Die Biegefestigkeit und der Elastizitätsmodul liegen bei den Proben mit Aluminium-Hexametaphosphat als chemischen Härter niedriger. Somit lassen sich Aussagen über künftige Wirkungsweisen hinsichtlich der Rezeptoptimierung treffen, um gezielt die chemische Beständigkeit oder die mechanischen Eigenschaften wie Porosität, Festigkeit oder Steifigkeit nach dengewünschten Anforderungen anzupassen.
Will Eisners Graphic Novels zeugen von einer tiefgehenden Identitifation mit dem Judentum als Volkszugehörigkeit, Religion und Kultur und spiegeln das Judentum in all seinen Facetten wider. Dabei ist besonders hervorzuheben, dass die Entwicklung des Gesamtwerks parallel verläuft zur Geschichte der Emanzipation der jüdischen Bevölkerung in New York City. Der Band clustert die jüdischen Aspekte in Eisners Werk in beispielsweise Faktoren kollektiver Erinnerung, Umgang mit und Kampf gegen Antisemitismus und religiöse Besonderheiten.
Gefährdete Weltmacht USA
(2017)
Ziele und Befunde der Arbeit
Das durchgeführte Forschungsvorhaben zeigt durch einen holistischen, gleichzeitig politikwissenschaftlichen wie auch historischen Ansatz Folgendes: Nämlich, warum und wie das liberale, regelbasierte Weltordnungssystem im Untersuchungsraum der US-Präsidentschaften von Clinton bis Obama kontinuierlich durch ein System der realistischen, kurzfristig wirkenden Durchsetzung vitaler Interessen mittels militärischer Instrumentenpräferenz unter fortlaufender militärischer Optimierung ergänzt bzw. ersetzt wird. Dies erklärt auch, warum die „transaktionale Führung Trumps“(1), die nach dem Untersuchungsraum von 1993 bis 2017 mit Außenwirkung die Reduktion idealistischer „Grand Strategy“-Elemente bzw. wohlwollender Ordnungsmacht unter Kostenabwälzung und Vorteilsverringerung europäischer Nato-Verbündeter vornimmt, in Kontinuität zur ausgeübten Führungsmacht der Amtsvorgänger steht. Ergebnisse dieser Dissertation wie die sich ab 1993 immer nachdrücklicher abzeichnende Auflösung der multilateralen Grundordnung legen damit nahe, Trumps bisherige Außen- und Sicherheitspolitik als deutlich spürbares Krisensymptom und nicht als Ursache dieses Abbaus der nach 1945 eingerichteten Weltordnung einzustufen. Diese Auflösung ist mit einer Erosion des letztlich transatlantisch angestoßenen bipolaren „amerikanischen Systems“ gleichzusetzen. Die Implementierung dieses Systems erfolgte als „Lernstunde zweier Weltkriege“ auf Basis der mit der Aufklärung und den amerikanischen Gründungskennziffern eingeleiteten neuzeitlichen Ordnungskonzeptionen: Daher ist diese Auflösung auch ein Indikator für das Scheitern neuzeitlicher Ordnungskennziffern, die sich im „American way of life“ entfalten konnten.
Als ursächlich für die geschilderte Entwicklung wird eine von Clinton bis Obama konstant ansteigende Gesamtbedrohung nachgewiesen, mit der die konsequente Schwächung amerikanischer Vormacht verknüpft ist. Diese fußt u.a. auf der Basis von seit 1979 postulierten Klimawandeleffekten als Bedrohungsverstärker bei erreichter amerikanischer Förderspitze in fossilen Rohstoffen und ansteigendem Ressourcenbedarf im Kontext schrumpfender Rohstoffvorkommen. Weiter sind für den Untersuchungsraum die zunehmende Einwirkung der in den 1980er Jahren begonnenen „US-Konservativen Revolution“ auf die Ausübung der Außen- und Sicherheitspolitik unter Einflusszugewinn von Konzernen und Lobbygruppen auf beispielsweise policy-Implementierung sowie die neuen Rahmenbedingungen zu addieren. Darunter fallen die sich ausformende Digitalisierung, die hohen Ressourcenverbrauch mit sich bringt, und die ansteigende Weltbevölkerung unter spezifischen demographischen Vorzeichen. Darüber hinaus sind beispielsweise die Beibehaltung des bipolar angewachsenen Rüstungssektors als ökonomische Basis militärischer Vormacht und das langsame Abbröckeln der Dollar-Hegemonie seit etwa 1973 zu berücksichtigen. Durch komplexes Zusammenspiel von „Grand Strategy“-Umsetzung gemäß der Prämisse amerikanischen Führungsmachtausbaus unter neokonservativem bzw. christlich-rechtem Einfluss mit asymmetrischen sowie reaktivierten konventionellen Bedrohungsgegenständen, Bedrohungsverstärkern und neuen Rahmenbedingungen wird der lineare Verlauf der Gesamtbedrohung im Zeitraum von 1993 bis 2017 verständlich: Im Kontext der „Grand Strategy“-Ausführungen erklären insbesondere das Bedrohungsabwehr-, Bedrohungsverstärker- und Marktwirtschaftsverständnis der US-Far Right in komplexer Wechselwirkung mit erstarkenden transnationalen Konzernen, Lobbygruppen, Individuen(2), informellen Netzwerken und staatlichen Akteuren in Bezug auf Bedrohungsgegenstände sowie Bedrohungsverstärker(3) im Zusammenhang mit der post-bipolaren, globalen Verankerung amerikanischer Wirtschafts- und Konsummuster das Folgende: Nämlich die Anpassung der amerikanischen Bedrohungsabwehr - unter Aufbau der „imperial presidency“(4) bzw. Einhegung des Systems von „checks and balances“ - samt deren Implikationen auf das bipolare liberale Ordnungssystem. Sodann wird die notwendige Weiterführung in der Nato durch amerikanisch aufgeworfenen Nato-Umbau zur entsprechenden Umsetzung transformierter amerikanischer Bedrohungsabwehr bzw. Legitimierung der systemischen Anpassung begreifbar.
Genauso wird nachvollziehbar, dass die so eingerichtete Bedrohungsabwehr nur kurzfristig abwehrt: Stattdessen verstärkt sie asymmetrische und konventionelle Bedrohung wie auch Bedrohungsverstärker - unter Einleitung von Rüstungsspiralen bzw. Demontierung der Rüstungskontrolle - und damit die Gesamtbedrohung. Dies lässt einen Konfliktausbruch jenseits des bisher Vorstellbaren konstant näher rücken. Gleichzeitig ist der dringende Bedarf an Mobilisierung der transatlantischen Zusammenarbeit im Hinblick auf Förderung der globalen Kooperation staatlicher, aber auch nichtstaatlicher Akteure hinsichtlich der Bedrohungswurzeln samt der sich verschlechternden Voraussetzungen illustriert: Denn mit jedem Anstieg der Gesamtbedrohung ist durch die eingeleitete amerikanische sicherheitspolitische Anpassung und deren Weiterführung in der Nato ein Abbau der regelbasierten Basiskennziffern im Untersuchungsraum verknüpft. Dies reduziert in fortlaufender Konsequenz die Grundlage für oben genannte, konstant zentraler werdende Zusammenarbeit, um eine sukzessive Erosion des bipolaren „amerikanischen Systems“ unter künftigen Dystopien zu verhindern bzw. zumindest zu begrenzen.
Durch die Forschungsergebnisse wird der bisherige Forschungsstand auf den Kopf gestellt, da so beispielsweise gezeigt werden kann, dass mittels der Transformation der Nato keine gleichberechtigte transatlantische Lastenteilung oder eine Weiterentwicklung der Nato gemäß der Nato-Gründungskennziffern erzeugt wird. Dies gilt auch für den europäischen Widerstand gegenüber der tatsächlichen Verankerung der Natotransformationspositionen(5), der auf die Erosion des bipolaren liberalen Ordnungssystems bzw. der US-Vorteilsgewährung sowie so begünstigter Partikularinteressensicherung abhebt. Außerdem wird deutlich, dass eine Kontinuitätslinie in der Bedrohungsabwehr von Clinton bis Obama unter unterschiedlicher Außenwirkung und dem Grundmuster „Battleship America“ vorliegt - und eben nicht eine multilateral ausgerichtete Außen- und Sicherheitspolitik unter Clinton, die als Folge von 9/11 in einen unilateralen Pendelausschlag unter G. W. Bush 43 mündet, der durch die Obama-Administration wieder zurückgenommen wird.
Die Arbeit basiert auf einer umfassenden Fülle an Literatur, die das aufwendige Literaturverzeichnis widerspiegelt: Darunter fallen vielfältige amerikanische und europäische Publikationen, Monographien und entsprechende Sekundärliteratur, wie Biographien, Veröffentlichungen unterschiedlichster Natur wichtiger Vertreter der transatlantischen Forschungselite, Akteure der entsprechenden Politikplanung und -ausführung und wissenschaftliche Artikel aus Fachzeitschriften zu allen Forschungsbereichen bzw. politikwissenschaftlicher Methodik und Theorie. Weiter wurden u.a. Veröffentlichungen bzw. relevante Dokumente von Regierungen, Außenministerien, Verteidigungsministerien, Regierungsorganen, Denkfabriken, universitären Forschungszentren sowie der Nato verwendet.
Struktur der Arbeit
Konkret ist die vorliegende Dissertation in zwei Bände sowie einen Anhangsband unterteilt: Band 1 umfasst Schwerpunkt 1, eine Prozessanalyse unter offensiver neorealistischer Verortung, Band 2 den darauf aufbauenden Schwerpunkt 2, einen Vergleich („structured focussed comparison“) unter defensiver neorealistischer Verortung. Im Anhangsband finden sich ergänzende Ausführungen zu Kapitel 1, Band 1 in Bezug auf den Forschungsstand, Literatur und Quellenlage, theoretische Verortung sowie Wahl des Untersuchungsraumes bzw. ausgewählter europäischer Nato-Partner. Weiter sind ein historisches Kapitel als Voraussetzung zum „process-tracing“ in Kapitel 2, Band 1 und ein Abbildungs- und Abkürzungsverzeichnis wie auch ein Literaturverzeichnis enthalten.
Insgesamt ermitteln die beiden aufeinander aufbauenden Schwerpunkte mittels qualitativer Methoden das Folgende: Nämlich die übergeordnete amerikanische sicherheitspolitische Reaktion auf eine neue Gesamtbedrohung sowie deren Weiterführung und Legitimierungschance in der Nato im Untersuchungsraum von Clinton bis Obama.
Auf Basis des ersten Teils der Hypothese wird in Schwerpunkt 1, Band 1 ein Zusammenhang zwischen der Beibehaltung des bipolaren „US-Grand Strategy“-Ziels amerikanischer Führungs- und Ordnungsmacht sowie bipolarer außenpolitischer „Grand Strategy“-Kennziffern bzw. einer sich komplex entwickelnden neuen Gesamtbedrohung, amerikanischer sicherheitspolitischer Anpassung und der notwendigen Weiterführung in der Nato durch Natotransformation mittels amerikanisch aufgeworfener Natotransformationspositionen hergestellt.
In Schwerpunkt 2, Band 2 wird auf Basis des zweiten Teils der Hypothese der transatlantische Aushandlungsprozess zur Etablierung der amerikanisch vorgeschlagenen Natotransformationspositionen in Augenschein genommen: Vor diesem Hintergrund wird überprüft, ob diese tatsächliche Verankerung bzw. Konkretisierung des Ausbaus amerikanischen Vormacht am Widerstand der ausgewählten europäischen Nato-Bündnispartner Frankreich, Deutschland und Großbritannien scheitert.
Im Gesamtergebnis zeigt sich, dass aufgrund einer sich entwickelnden komplexen, linear ansteigenden Gesamtbedrohung die Chance zum Ausbau amerikanischer Führungsmacht konstant abnimmt. Dies muss mittels amerikanischer sicherheitspolitischer Anpassung kompensiert werden. Die daher erfolgende amerikanische sicherheitspolitische Neuausrichtung auf Basis der eingeleiteten „Revolution im Militärwesen“ modifiziert wiederum die Kennziffern bipolarer kollektiver Sicherheitsgewährleistung. Alles wird mittels tatsächlicher Verankerung der amerikanischen Natotransformationspositionen ermöglicht bzw. legitimiert. Das tatsächliche Erreichen der - die sicherheitspolitische amerikanische Anpassung konsequent weiterführenden - Transformation der Nato ermöglicht eine missionsorientierte, reaktionsbeschleunigende, flexible und globale Sicherheitsprojektion. Außerdem ist die Voraussetzung für „alliances of choice“ innerhalb der Nato geschaffen. Weiter zementiert die Modifikation der „bipolaren Nato“ die mittels sicherheitspolitischer amerikanischer Anpassung eingeleitete Erosion zentraler zivilisatorischer Errungenschaften bzw. Aufgaben bipolarer kollektiver Sicherheitsgewährleistung unter Vorteilsverringerung europäischer Nato-Bündnispartner.
Die tatsächliche Verankerung der Natotransformationspositionen erfolgt mittels der Reaktivierung konventioneller Bedrohung im Kontext der Ukraine-Krise von 2014 und der Erweiterung der Nato-Partnerschaftsringe auf globaler Ebene, ohne diesen den Status eines Nato-Mitgliedsstaates zu gewähren. Damit wird der Bündnisfall nicht globalisiert. Der ausgeübte deutsch-französische Widerstand wird besonders intensiv durch den Einbezug der europäischen Gründungsstaaten befördert, dagegen unterbleibt die Ausbildung einer europäischen Führungstroika durch Frankreich, Deutschland und Großbritannien.
Darüber hinaus zeigt insbesondere die entsprechende Ursachenermittlung, dass trotz konstanter, aufeinander aufbauender amerikanischer sicherheitspolitischer Reaktion unter unterschiedlicher Außenwirkung sowie tatsächlicher Weiterführung in der Nato die Gesamtbedrohung nicht langfristig abgebremst wird: Dies führt zu einem konstanten Anstieg der Gesamtbedrohung unter fortlaufendem Einflussverlust staatlicher Akteure bzw. Machtdiffusion und -konzentration samt einer sukzessiven Chancenerhöhung reaktivierter konventioneller, nuklearer, Cyber- und ökologischer Zerstörungsszenarien. Auf dieser Basis entsteht die Konsequenz einer immer umfassenderen und die Reaktion beschleunigende Präzisionsabwehr unter ansteigender Versicherheitlichung, um die kontinuierliche Einengung amerikanischer Vormacht auszugleichen. Dies erzeugt im Fortlauf einen konstanten Abbau der Strahlungs- und Schlagkraft des liberalen, regelbasierten, bipolaren „amerikanischen Systems“ sowie der Etablierung „idealistischer, liberaler“ „Grand Strategy“-Elemente. Weiter ist damit - auf der Grundlage der aufeinander aufbauenden Natotransformationspositionen sowie Obamas „smart power“(6) im Untersuchungsraum - eine zunehmende Vorteilsverringerung der europäischen Nato-Verbündeten bzw. ein ansteigender Bedarf an US-Kostendämpfung verquickt. Zudem entwickelt sich eine immer geringer werdende Chance zur Entfaltung des postbipolar als „nicht verhandelbar“ postulierten und global ausgebreiteten amerikanischen Lebensentwurfes in individueller, innerstaatlicher Ausprägung: Deren Artikulation erfolgt beispielsweise mittels zunehmendem Rechtspopulismus, Wahl von Außenseiterkandidaten, Zerfall traditioneller Parteiensysteme, isolationistischen Tendenzen unter ethnischer, regionaler Erstarkung, und Ablehnung von Supranationalität oder religiösem Fundamentalismus. Gleichzeitig ist die fortlaufende Erosion der globalen öffentlichen Güter identifizierbar.
Damit ebnet all das oben Genannte den Boden für die Begrenzung amerikanischer wohlwollender Ordnungsmacht bzw. der Handlungsspielräume staatlicher Akteure - und für die Rückkehr zu klassischer Machtpolitik im Kontext entstandener Machtdiffusion bzw. -konzentration. Dies erschwert angesichts der Dringlichkeit einer langfristigen Eindämmung asymmetrischer bzw. konventioneller Sicherheitsbedrohungsgegenstände, -verstärker, -cluster und globalen Rahmenbedingungen folgende Chance: Nämlich die zu transatlantischer Zusammenarbeit in der Nato unter Wiederbelebung der politischen Organisation derselben sowie Erweiterung auf zusätzliche Ebenen und Akteure im Sinne von Vorbeugung bzw. vernetzter Sicherheit zur Erreichung entsprechender globaler Kooperation in Bezug auf Einhegen der Bedrohungswurzeln.
Insgesamt wird durch diese Forschungsarbeit transparent, wie und warum die für den Untersuchungsraum von 1993 bis 2017 antizipierte „Friedensdividende“ und das durch Präsident Clinton postulierte „age of hope“ kaum spürbar wurden.
Fußnoten
(1) Vgl. Braml, Josef (2018), Trumps transaktionaler Transatlantizismus, in: Jäger, Thomas (Hrsg.), Zeitschrift für Außen- und Sicherheitspolitik, Oktober 2018, Volume 11, Ausgabe 4, S. 439-448, Wiesbaden.
(2) Vgl. National Intelligence Council (Hrsg.) (2012), Global Trends 2013: Alternative Worlds (NIC 2012-001), https://publicintelligence.net/global-trends-2030/, letzter Zugriff: 12.04.19. Vgl. dazu auch das „international financial leadership, self-selected at Davos“ bei McCoy, Alfred W. (2017), In the Shadows of the American Century. The Rise and Decline of US Global Power, Chicago.
(3) Vgl. zu Bedrohungsverstärkern beispielsweise Mazo, Jeffrey (2010), Climate Conflict. How global warming threatens security and what to do about it, London, Abingdon.
1990 wurde bereits in Bezug auf den Bedrohungsverstärker Klimawandel für die entstehenden asymmetrischen bzw. konventionellen Bedrohungsgegenstände komplexe Cluster konstatiert: „Over the next half century, the global average temperature may increase by approximately 4 degrees C. (…) All nations will be affected. (…) How much time will there be to confirm the amount of change and then to act? (…) However, many believe that we will have waited too lang to avoid major dislocation, hardship and conflict - on a scale not as yet seen by man“. Vgl. Kelley, Terry P. (1990), Global Climate Change. Implications For The United States Navy (The United States Naval War College, Newport, RI), http://documents.theblackvault.com/documents/weather/climatechange/globalclimatechange-navy.pdf, letzter Zugriff: 30.03.19. Dies lässt Hinweise auf die sich entwickelnde, konstant ansteigende Gesamtbedrohung im Untersuchungsraum von 1993-2017 zu.
(4) Vgl. Schlesinger, Arthur M., Jr. (1973), The Imperial Presidency, Boston.
(5) Die amerikanisch vorgeschlagenen Positionen zur Anpassung der Nato, die Nato Response Force sowie die Global Partnership Initiative, werden als „Natotransformationspositionen“ bezeichnet: Mit deren tatsächlicher Etablierung war eine Transformation der Nato in konsequenter Weiterführung amerikanisch erfolgter sicherheitspolitischer Anpassung verknüpft.
(6) Smart power geht auf Suzanne Nossel, Mitarbeiterin des UN-Botschafters Holbrooke während der Clinton-Administration, zurück: Vgl. Nossel, Suzanne (2004), Smart Power. Reclaiming Liberal Internationalism, http://www.democracyarsenal.org/SmartPowerFA.pdf, letzter Zugriff: 26.08.17. Weiter wird er Joseph Nye im Jahre 2003 als Reaktion auf die unilaterale Konzentration auf das militärische Instrument der G.W. Bush–Ära zugeschrieben. Vgl. Nye, Joseph S. Jr. (2011), The Future of Power, New York bzw. Nye, Joseph S. Jr. (2011), Macht im 21sten Jahrhundert. Politische Strategien für ein neues Zeitalter, München.
Vgl. Rodham Clinton, Hillary (2010), Leading Through Civilan Power. Redefining American Diplomacy and Development, in: Foreign Affairs, November/December 2010, Vol. 89, No.6, S. 13-24.
Fachdidaktische und pädagogische Kompetenzen angehender Mathematiklehrkräfte für die Realschule
(2019)
Studien zur Wirksamkeit der Ausbildung von Lehrerinnen und Lehrern sind in der Regel fragebogenbasiert. In der vorliegenden Untersuchung wird ein anderer Ansatz gewählt, um die Kompetenzen angehender Mathematiklehrkräfte zu erheben und zu evaluieren. Die Studie untersucht anhand der unterrichtlichen Performanz, welche Kompetenzen Anwärterinnen und Anwärter in ihrer praktischen Ausbildung erworben haben. Der Analyse liegen 137 anonymisierte Niederschriften zu benote-ten Lehrproben von Anwärterinnen und Anwärtern im Fach Mathematik zugrunde. Diese bilden die Ausbildungsjahrgänge von 2004 bis 2011 ab. Die Anwärterinnen und Anwärter werden unterrichtspraktisch anhand der Niederschriften in Anlehnung an eine qualitative Inhaltsanalyse auf ihre Kompetenzausprägungen hin getestet. Dies erfolgt schwerpunktmäßig in den Bereichen Fachdidaktik, Fachmethodik, Classroom-Management und Gesprächsführung. Im Verlauf der Untersuchung wird deutlich, dass die Teilneh-mergruppe vor allem Stärken im methodischen Bereich hat. Hier können durchgehend gute Kompetenzausprägungen festgestellt werden. Über den gesamten Erhebungszeitraum zeigen sich hingegen in den Bereichen Classroom-Management und Gesprächsführung deutliche Defizite. Die fachdidaktischen Kompetenzen der angehenden Lehrkräfte entwickeln sich negativ: Ist zu Beginn der Erhebung noch etwa die Hälfte der Anwärterinnen und Anwärter im Bereich der Fachdidaktik zufriedenstellend einzustufen, gilt das im letzten Erhebungsjahrgang nur noch für knapp ein Fünftel der Probandinnen und Probanden. Es kann gezeigt werden, dass eine gute Notenfestsetzung eng mit den er-forderlichen Kompetenzen in der Fachdidaktik zusammenhängt.
Die vorliegende Studie bestätigt im Bereich der Fachdidaktik die Ergebnisse jener Studien, die auf Fragebögen basieren.
Es konnte zudem ein statistischer Zusammenhang zwischen den fachdidaktischen Fähigkeiten und den Steuerungskompetenzen hergestellt werden.
Die didaktische Konzeption der Schreibkonferenz ist soweit etabliert, dass sie bereits in den rheinland-pfälzischen Rahmenplan für die Grundschule für das Fach Deutsch übernommen wurde. Bisher liegt eine Reihe von Erfahrungsberichten zur Schreibkonferenz vor, jedoch wurden dazu bislang kaum systematisch empirische Untersuchungen durchgeführt. Die empirische Studie dieser Arbeit, welche an die VERA-Studie angeschlossen ist, untersucht, ob im Grundschulunterricht (in der dritten und vierten Klasse) der Einsatz von Schreibkonferenzen im Vergleich zur konventionellen Aufsatzdidaktik zu einer Verbesserung der Schreibleistungen, des eigenen Lernens, zu positiven Veränderungen des eigenen Verhaltens sowie zur Förderung der Motivation der Schüler beim Schreiben führt. Dabei wird von folgenden Überlegungen ausgegangen: Zum einen sollte die Schreibkonferenz im Gegensatz zur traditionellen Aufsatzdidaktik das selbstständige Arbeiten der Schüler mit Texten im Deutschunterricht fördern, zum anderen sollte sie zu einer intensiveren Auseinandersetzung mit Texten und damit zu einer Verbesserung des Aufsatzschreibens führen.
Zum Inhalt:
Die Dissertation ist in einem empirisch-qualitativen Forschungssetting eingebettet, bei der das Team-Teaching als Unterrichtsmethode im Forschungsfokus steht. Die Erhebung des empirischen Datenmaterials erfolgt einerseits mittels teilnehmender Beobachtung im Forschungsfeld und andererseits durch ein Gruppeninterview, das mit Lehrkräften geführt wird, die über einen gewissen Beobachtungszeitraum Erfahrungen mit der Unterrichtsmethode des Team-Teaching gesammelt haben. Für die hier zu Grunde gelegte Feldforschung wird das „theoretical sampling“ zum Einsatz kommen, das 1967 von Glaser und Strauss im Rahmen einer empirischen Untersuchung begründet worden ist.
Zum Aufbau:
In der Einleitung wird das Forschungsinteresse, der Forschungsstand und die zentrale Forschungsfrage der Dissertation beschrieben. Im zweiten Kapitel folgt der theoretische Teil mit einer differenzierten Definition des Team-Teachings als Unterrichtsmethode. Es folgt eine allgemeine Definition zum Unterricht, um die spezifischen Merkmale des Team-Teachings differenziert herausarbeiten zu können. Die empirischen Daten werden im Rahmen einer teilnehmenden Beobachtung im Unterricht der Oberstufe einer Förderschule mit dem Förderschwerpunkt Lernen und sozial-emotionale Entwicklung erhoben. Deshalb sind im Theorieteil der Förderschwerpunkt und die curricularen Aspekte zum Förderschwerpunkt dargestellt. Die Bedeutung der Unterrichtsmethode des Team-Teachings für das Unterrichtssetting in einer Förderschule mit dem sozial-emotionalem Förderschwerpunkt ist ebenfalls im Theorieteil verortet.
Im dritten Kapitel werden die qualitativen und quantitativen Erhebungsinstrumente beschrieben und Hypothesen formuliert. Die Darstellung der Methoden zur Aufbereitung des Datenmaterials ist im vierten Kapitel verortet. Die Interpretation der Forschungsergebnisse erfolgt im fünften Kapitel. Die qualitative und quantitative Datenauswertung des empirischen Datenmaterials ist im sechsten Kapitel dargestellt. Die Dissertation schließt im siebten Kapitel mit einen Fazit und Ausblick.
Im Rahmen eines partizipatorischen Aktionsforschungsansatzes wurden die Lehrpersonen und Schüler/innen an einem Oberstufenrealgymnasium mit musischem Schwerpunkt und Montessori (MORG), drei Schuljahre, von 2012-2015, auf ihrem Weg zu einer inklusiven Schule wissenschaftlich begleitet. Basierend auf Einstellungs- und Selbstwirksamkeitstheorien und Ansätzen der inklusiven Pädagogik, sowie akteursbasierten Forschungen, richtete sich das Erkenntnisinteresse auf die Umsetzung einer inklusiven Lern- und Schulkultur – in einer Institution im Bildungssystem der Sekundarstufe II in Österreich, das von seiner Ausrichtung her hoch selektiv ist.
Mittels qualitativer und quantitativer Daten konnte rekonstruiert werden, von welchem Verständnis die Lehrpersonen am MORG (n=19) geleitet wurden, welche Kompetenzen sie aus ihrer Sicht für die Entwicklung einer inklusiven Bildung mitgebracht haben und wie sie die Inklusion am MORG umsetzten. Zur Erhebung der Einstellungen und Selbstwirksamkeitseinschätzungen der Lehrpersonen wurden die international und national erprobten SACIE-R (Sentiments, Attitudes and Concerns about Inclusive Education-Revi-sed) und TEIP (Teacher Efficacy for Inclusive Practice) Skalen in einer deutschsprachigen Fassung verwendet. Ferner wurde die empirische Erhebung im Rahmen einer webbasierten nationalen Befragung von Lehrpersonen an mehreren Schultypen erweitert (n= 427), um vergleichende Aussagen treffen zu können.
Inhaltsanalytisch verarbeitete Interviews und statistisch ausgewertete, im Forschungsteam erstellte Fragebögen für Erziehungsberechtigte (n= 37) sowie Schüler/innen (n=19), ermöglichten den vertieften Einblick in die Praxis aus mehreren Sichtweisen. Die Zusammenschau der Ergebnisse zeigt, dass es einem eher jungen Lehrerteam mit sehr positiven Einstellungen zur Inklusion von Jugendlichen mit Beeinträchtigungen – trotz anfänglicher Schwierigkeiten und selektiver systemischer Rahmenbedingungen auf der Sek. II – gelungen ist, eine für alle Schüler/innen lernförderliche und lebendige Schulkultur herzustellen. Dennoch blieben die Bemühungen der Lehrpersonen im Rahmen der Systemgrenzen. Eine Weiterentwicklung zu einer ‚Schule für alle‘, eine logische Konsequenz inklusionstheoretischer Ansätze, ist nicht festzustellen. Die Auswertungen bestätigen die bisher gewonnenen zentralen Erkenntnisse der Inklusions- und Akteursforschung und werden durch Ergebnisse erweitert, die im Zusammenhang mit den systemischen Rahmenbedingungen auf der Sek. II gesehen werden können.
Im Fokus der Arbeit steht die Frage des Kompetenzzuwachses in und durch außerunterrichtliche Sport- und Bewegungsangebote an rheinland pfälzischen Ganztagsschulen, die von Trainerinnen und Trainern angeboten und durchgeführt werden. Um dieser Fragestellung nachzugehen, wurden zunächst Schul- und Unterrichtsqualitätsmodelle auf das außerunterrichtlichen Sport- und Bewegungsangebot übertragen, um das zu untersuchende Setting im Kontext der rheinland-pfälzischen Ganztagsschullandschaft zu verorten und mögliche Einflussfaktoren und Wechselwirkungen vor dem Hintergrund des Kompetenzzuwachses der Teilnehmerinnen und -nehmer aufzuzeigen. Dem nachgestellt wurden während der Darlegung theoretischer Vorüberlegungen, wie z.B. Aspekte zum außerschulischen Bildungsverständnis und Sport und Bewegung in den Erziehungswissenschaften, Kategorien und Kriterien ermittelt, deren Nachweis den Kompetenzzuwachs der Schülerinnen und Schüler stark vermuten lassen. Die Untersuchungsleitlinie dieser Arbeit wurde ein qualitatives Forschungsdesign eingebunden. Die herangezogene Forschungsstrategie bildet eine vergleichende Fallanalyse. Als Erhebungsmethode dient das Experteninterview; ein problemorientiertes Interview im Übungsleiterinnen und -leitern, die für die Planung und Durchführung der in rheinland-pfälzischen Ganztagsschulen implementierten Sport- und Bewegungsangebote verantwortlich zeichnen. Die Auswertung erfolgte über eine modifizierte Form der qualitativen Inhaltsanalyse. In der Summe konnte aufgezeigt werden, dass es sich bei den untersuchten Sport- und Bewegungsangeboten um hochwertige Settings handelt, in denen Kriterien und hypothetische Annahmen aus den Schul- und Unterrichtsqualitätsmodellen aufgezeigt werden konnten und somit günstige Voraussetzungen –die aktive Teilnahme vorausgesetzt– für den Kompetenzerwerb der Schülerinnen und Schüler an Ganztagsschulen vorliegen.
Technologische Fortschritte auf dem Gebiet der integrierten Halbleitertechnik, die unter anderem auch zur gestiegenen Leistungsfähigkeit der Kamerasensoren beitragen, konzentrierten sich bisher primär auf die Schnelligkeit und das Auflösungsvermögen der Sensoren. Die sich ständig verändernde Entwicklung hat jedoch direkte Folgen auf das physikalische Verhalten einer Kamera und damit auch Konsequenzen für die erreichbare geometrische Genauigkeit einer photogrammetrischen 3D-Rekonstruktion. Letztere stand bisher nicht im Fokus der Forschung und ist eine Aufgabe, der sich diese Arbeit im Sinne der Photogrammetrie und Messtechnik stellt. Aktuelle Untersuchungen und Erfahrungen aus industriellen Projekten zeigen in diesem Zusammenhang, dass das geometrisch-physikalische Verhalten digitaler Kameras - für höchste photogrammetrische Ansprüche - noch nicht ausreichend modelliert ist. Direkte Aussagen zur erreichbaren Genauigkeit bei gegebener Hardware erweisen sich daher bislang als unzureichend. Ferner kommt es aufgrund der unpräzisen Modellierung zu Einbußen in der Zuverlässigkeit der erreichten Ergebnisse. Für den Entwickler präziser kamerabasierter Messverfahren folgt daraus, dass zu einer optimalen Schätzung der geometrischen Genauigkeit und damit auch vollständigen Ausschöpfung der Messkamera geeignete mathematische Modelle erforderlich sind, die das geometrisch physikalische Verhalten bestmöglich beschreiben. Diese Arbeit beschreibt, wie die erreichbare Genauigkeit einer Bündelblockausgleichung, schon a priori mithilfe des EMVA1288 Standards approximiert werden kann. Eine in diesem Zusammenhang wichtige Teilaufgabe ist die Schaffung einer optimalen Messanordnung. Hierzu gehören Untersuchungen der üblicherweise verwendeten Kalibrierkörper und die Beseitigung von systematischen Fehlern vor und nach der Bündelblockausgleichung. Zum Nachweis dieser Systematiken wird eine auf statistischem Lernen basierende Methode beschrieben und untersucht. Erst wenn alle genauigkeitsmindernden Einflüsse berücksichtigt sind, wird der Anteil des Sensors in den Messdaten sichtbar und damit auch mathematisch parametrisierbar. Die Beschreibung des Sensoreinflusses auf die erreichbare Genauigkeit der Bündelblockausgleichung erfolgt in drei Schritten. Der erste Schritt beschreibt den Zusammenhang zwischen ausgewählten EMVA1288-Kennzahlen und der Unsicherheit eines Grauwertes. Der zweite Schritt ist eine Modellierung dieser Grauwertunsicherheit als Zentrumsunsicherheit einer Zielmarke. Zur Beschreibung dieser Unsicherheit innerhalb der Bündelblockausgleichung wird ein stochastisches Modell, basierend auf dem EMVA1288-Standard, vorgeschlagen. Ausgehend vom Rauschen des Zielmarkenmittelpunktes wird im dritten Schritt die Unsicherheit im Objektraum beispielhaft mit Hilfe von physikalisch orientierten Simulationen approximiert. Die Wirkung der vorgeschlagenen Methoden wird anhand von Realkalibrierungen nachgewiesen. Abschließend erfolgt die Diskussion der vorgeschlagenen Methoden und erreichten Ergebnisse sowie ein Ausblick auf kommende Untersuchungen.
Die zytologische Untersuchung des Knochenmarks dient der Abklärung von
Abweichungen des Differentialblutbildausstriches, zur Ursachenbestimmung bei Blutarmut (Anämie), dem Ausschluss eines Knochenmarkbefalls bei Lymphknotenvergrößerungen (Lymphomen) und wird zudem bei Verdacht auf Leukämie durchgeführt.
Selbst für erfahrene Hämatologen ist die manuelle Klassifikation von Knochenmarkzellen zeitaufwändig, fehleranfällig und subjektiv. Aus diesem Grund wurden im Rahmen dieser Arbeit neue Methoden der Bildverarbeitung und Mustererkennung für eine automatische Klassifikation von hämatopoetischen Zellen samt Vorverarbeitung für ein computer-assistiertes Mikroskopiesystem entwickelt, welche anhand einer einzigartig großen Referenzdatenbank evaluiert und ausgewertet wurden. Die vorgeschlagenen Bildanalyseverfahren für Knochenmarkpräparate, welche insbesondere die Detektion der Ausstriche, die Bestimmung von relevanten Regionen, die Lokalisierung und Segmentierung von einzelnen Zellen sowie die Merkmalsextraktion und Klassifikation automatisieren, liefern die Basis für das weltweit erste System zur automatischen, morphologischen Analyse von Knochenmarkpräparaten für die Leukämiediagnose und stellen daher einen wichtigen Beitrag für eine bessere und effizientere Patientenversorgung in der Zukunft dar.
Retrospektive Analyse der Ausbreitung und dynamische Erkennung von Web-Tracking durch Sandboxing
(2018)
Aktuelle quantitative Analysen von Web-Tracking bieten keinen umfassenden Überblick über dessen Entstehung, Ausbreitung und Entwicklung. Diese Arbeit ermöglicht durch Auswertung archivierter Webseiten eine rückblickende Erfassung der Entstehungsgeschichte des Web-Trackings zwischen den Jahren 2000 und 2015. Zu diesem Zweck wurde ein geeignetes Werkzeug entworfen, implementiert, evaluiert und zur Analyse von 10000 Webseiten eingesetzt. Während im Jahr 2005 durchschnittlich 1,17 Ressourcen von Drittparteien eingebettet wurden, zeigt sich ein Anstieg auf 6,61 in den darauffolgenden 10 Jahren. Netzwerkdiagramme visualisieren den Trend zu einer monopolisierten Netzstruktur, in der bereits ein einzelnes Unternehmen 80 % der Internetnutzung überwachen kann.
Trotz vielfältiger Versuche, dieser Entwicklung durch technische Maßnahmen entgegenzuwirken, erweisen sich nur wenige Selbst- und Systemschutzmaßnahmen als wirkungsvoll. Diese gehen häufig mit einem Verlust der Funktionsfähigkeit einer Webseite oder mit einer Einschränkung der Nutzbarkeit des Browsers einher. Mit der vorgestellten Studie wird belegt, dass rechtliche Vorschriften ebenfalls keinen hinreichenden Schutz bieten. An Webauftritten von Bildungseinrichtungen werden Mängel bei Erfüllung der datenschutzrechtlichen Pflichten festgestellt. Diese zeigen sich durch fehlende, fehlerhafte oder unvollständige Datenschutzerklärungen, deren Bereitstellung zu den Informationspflichten eines Diensteanbieters gehören.
Die alleinige Berücksichtigung klassischer Tracker ist nicht ausreichend, wie mit einer weiteren Studie nachgewiesen wird. Durch die offene Bereitstellung funktionaler Webseitenbestandteile kann ein Tracking-Unternehmen die Abdeckung von 38 % auf 61 % erhöhen. Diese Situation wird durch Messungen von Webseiten aus dem Gesundheitswesen belegt und aus technischer sowie rechtlicher Perspektive bewertet.
Bestehende systemische Werkzeuge zum Erfassen von Web-Tracking verwenden für ihre Messung die Schnittstellen der Browser. In der vorliegenden Arbeit wird mit DisTrack ein Framework zur Web-Tracking-Analyse vorgestellt, welches eine Sandbox-basierte Messmethodik verfolgt. Dies ist eine Vorgehensweise, die in der dynamischen Schadsoftwareanalyse erfolgreich eingesetzt wird und sich auf das Erkennen von Seiteneffekten auf das umliegende System spezialisiert. Durch diese Verhaltensanalyse, die unabhängig von den Schnittstellen des Browsers operiert, wird eine ganzheitliche Untersuchung des Browsers ermöglicht. Auf diese Weise können systemische Schwachstellen im Browser aufgezeigt werden, die für speicherbasierte Web-Tracking-Verfahren nutzbar sind.
Changing Lives through Relocation - Ethnography of a Socialized Housing Project in the Philippines
(2018)
Changing lives through relocation - This is the vision of a socialized housing project in the Philippines which is subject of this dissertation. It is a polyphonic ethnography that investigates the transition process from an informal, marginalized, self-organized lifestyle in squatter areas and dumpsite settlements to an institutionalized and policy-based life in the socialized housing project. The transition process is analyzed from a material cultural perspective taking into account selected aesthetic theories. With this approach, the dissertation aims to contribute to the study of the aesthetic dimension of everyday life from an ethnographic perspective. Aesthetics are applied on three levels: (1) On the theoretical level, the concepts of social aesthetics and atmospheres enrich the analysis of the interrelation between the residents and their new house in the socialized housing project. (2) On the methodological level, the relevance of aesthetic experiences for the ethnographic knowledge process are discussed. And (3) on the descriptive level, selected and thematically relevant sensory and aesthetic experiences of the researcher inform the ethnographic account in the form of memoirs. By incorporating aesthetic theories, the dissertation gives a more holistic account of the dynamics active in the transition process. It shows that the change of lifestyle is experienced sensorily through the daily physical engagement with the new material environment, i.e. its specific materiality and infrastructure, its affordances and constraints giving rise to new experiences and needs. In this process, the residents become aware of the differences between the past and present way of life and thus experience the new challenges through their physical being in the new material environment. On the one hand, this evokes a nostalgic attitude towards their previous life, but on the other hand, it also gives form to ideas of a possible future.
Maßnahmen der Führungskräfteentwicklung verfolgen das Ziel den Führungsnachwuchs des Unternehmens zu bilden und für einen reibungslosen Einstieg in die Füh-rungsaufgabe zu sorgen. In der Literatur gibt es zahlreiche Theorien und Modelle zu Führung und deren Entwicklung, doch offen bleibt meist, wie es um den praktischen Einsatz und die Effektivität steht. Das Ziel dieser Arbeit ist die Identifikation wesentlicher Bestandteile der Führungskräfteentwicklung, die effektiv Einfluss auf (Nachwuchs-)Führungskräfte nehmen. Drei Studien beschäftigen sich jeweils mit unter-schiedlichen Schwerpunkten mit der Gestaltung und Wirksamkeit von modularen Programmen der Führungskräfteentwicklung. Zur Beschreibung der Gestaltung wurde eine Expertenbefragung unter Verantwortlichen für Führungskräfteentwicklung in 4 Großunternehmen durchgeführt. Zur Prüfung der Wirksamkeit wurden zwei Prädiktoren erfolgreichen Führens, die praktische Führungsintelligenz und die Führungswirksamkeitserwartung (FWE), in zwei repräsentativen modularen Programmen gemessen. Dafür wurden zwei quasiexperimentelle Designs mit Prätest-Posttest durchgeführt: ein Design mit zusätzlicher Kontrollgruppe (Nexp = 14, Nkontr = 12), ein Design mit zusätzlicher Fremdeinschätzung (N = 11 bis N =57 je nach Messzeitpunkt und beteiligten Variablen). Die praktische Führungsintelligenz wurde anhand eines für die Untersuchung entwickelten Situational Judgment Tests (SJTs) gemessen. Neben der FWE (in Anlehnung an die Skala zur Erfassung der beruflichen Selbstwirksamkeitserwartung, BSW-Skala) wurden weitere Konstrukte wie Selbstregulation (Locomotion-Assessment-Fragebogen, L-A-F), Optimismus (Skala Optimismus-Pessimismus-2, SOP2) Selbstmanagement (Fragebogens zur Erfassung von Ressourcen und Selbstmanagementfähigkeiten, FERUS) erfasst, sowie explorativ entwicklungsförderliche Merkmale erhoben. Entsprechend der Annahme verdichten sich die Ergebnisse auf drei Merkmale wirksamer Trainingsgestaltung: Erfahrungssammlung, Feedback, Selbstreflexion. Es konnte nachgewiesen werden, dass Programme mit hohem erfahrungsorientiertem Trainingsanteil, die Erfolgserlebnisse und Modelllernen fördern sowie persönliche Gespräche und Feedback beinhalten, die FWE (ŋ2 = .24, ŋ2 = .50) und die praktische Führungsintelligenz (ŋ2 = .54). signifikant (p<.05) steigern. Deutlich wurde auch der enge Zusammenhang zwischen Merkmalen der Person (wie Ausprägung der FWE oder Selbstregulationsfähigkeiten) und der Wirksamkeit der Programme. Aus den Ergebnissen werden Empfehlungen zur praktischen Umsetzung in der Führungskräfteentwicklung abgeleitet und Anregungen für zukünftige Forschung diskutiert.
Die Dissertation bietet eine Langzeituntersuchung deutscher TV-Duelle hinsichtlich der Fragen, inwieweit die in den Debatten behandelten Themen mit den seitens der Wählerschaft wahrgenommenen politischen Probleme korrespondieren sowie ob die in den TV-Duellen diskutierten, akteursspezifischen Themen einen Einfluss auf die Problemwahrnehmung der Wählerschaft und die wahrgenommene Responsivität politischer Akteure hat. Zu diesem Zweck werden die Inhalte und Effekte der Kanzlerduelle 2002-2013 sowie der zwischen 1997 und 2016 durchgeführten TV-Duelle auf Landesebene untersucht. Die empirische Untersuchung basiert auf der Durchführung und Auswertung von Inhaltsanalysen, der Analyse von Bevölkerungsumfragen und der Untersuchung von Experimentaldaten, die anlässlich der Kanzlerduelle in den Jahren 2002, 2009 und 2013 durchgeführt wurden. Die Analysen zeigen, dass TV-Duelle keine reine Show-Veranstaltung darstellen, sondern das Hauptaugenmerk in TV-Duellen auf politischen Inhalten (statt unterhaltenden Elementen) liegt, die (lagerspezifische) Responsivität des Formats im Zeitverlauf angestiegen ist und erfolgreiche Persuasion – als eine von zwei Themenmanagementstrategien – vor allem der Herausforderer dazu führen kann, dass Zuschauer die Effektivität des politischen Systems besser bewerten.
Die vorliegende Arbeit verfolgt das Erkenntnisinteresse, die Hindernisse auf der Ebene der kulturellen Muster und Wertvorstellungen zu ermitteln, die der Implementierung eines dualen Ausbildungssystems nach bundesdeutschem Vorbild in den USA entgegenwirken. Es wird ein Einblick in die historische und systematische Verwobenheit von gesellschaftlichen Teilstrukturen gegeben und verdeutlicht, warum solche Teilstrukturen nicht ohne Weiteres in andere gesellschaftliche Kontexte übertragen werden können.
Nach einer begrifflichen und theoretischen Grundlegung von deutschen und US-amerikanischen Formen betrieblicher Ausbildung werden die beiden Systeme miteinander verglichen, um signifikante Unterschiede zu identifizieren und dabei erste Anhaltspunkte für vorhandene Inkompatibilitäten auf der strukturellen Ebene zu erhalten. Hierbei steht die Frage im Vordergrund, inwieweit die dominanten und dauerhaften Charakteristika und Komponenten des deutschen Ausbildungsmodells im US-amerikanischen System wiedergefunden werden können. Durch die Einnahme einer kulturalistischen Perspektive werden die kulturspezifischen Werte und Praktiken Deutschlands und der USA erarbeitet, um die Kulturgebundenheit der Struktur, Organisation und Rahmenbedingungen von dualen Berufsausbildungen zu verdeutlichen. Hierfür wird eine Kombination aus einem etischen und einem emischen Vorgehen angewandt und die ermittelten Daten in Form einer kontrastierenden Darstellung aufbereitet, aus der die prägnantesten Kulturunterschiede hervorgehen. Mit Hilfe der erlangten Erkenntnisse werden Ansätze für ein System der dualen Berufsausbildung in den USA entwickelt, das die Implikationen aus dem Kulturvergleich aufgreift und so die für das deutsche System charakteristischen Merkmale unter Berücksichtigung der spezifischen kulturellen Muster adaptiert.
Tradierte Managementsysteme und primär auf die Erfüllung finanzieller Ziele ausgerichtete Führungsansätze scheinen heute der wirtschaftlichen Dynamik nicht mehr gewachsen. Die Zahl ausgebrannter Führungskräfte und Mitarbeiter nimmt zu. Ebenso der volkswirtschaftliche Schaden durch schlechte Führungsleistung. Zwar beeinflussen externe Faktoren wie globaler Wettbewerb, aufkeimende Handelskriege, die Digitalisierung in Wirtschaft und Gesellschaft die Rahmensetzungen für Unternehmen. Die Entscheidung über Erfolg oder Misserfolg verlagert sich aber signifikant nach Innen.
Diese Arbeit zeigt auf, dass Wissenschaftler und erfolgreiche CEOs einen Paradigmenwechsel fordern, da sie Kommunikationsbereitschaft und Kommunikationsfähigkeit als die relevanten Erfolgsfaktoren identifizieren. Unterstützend bestätigen interdisziplinäre Erkenntnisse und Forschungsergebnisse anderer Disziplinen – speziell der Neurowissenschaften, die Wirksamkeit einer Kommunikationskultur, die alle Sinne des Menschen aktiviert.
Das Phänomen der Kommunikation ganzheitlich zu verstehen und mittels dialogbasiertem Management umzusetzen, wird zum neuen Erfolgsschlüssel und wirkt sich auf alle unternehmerischen Prozesse, Führungs- und Interaktionssituationen aus. Unabhängig von Betriebsgröße und Branche. Die durch Dialog in Gang gesetzte positive reziproke Eskalation führt dazu, dass Kollegen/Mitarbeiter ihr Können und ihr Engagement in viel höherem Maße freiwillig zur Verfügung stellen, als es z.B. finanzielle Anreizsysteme je bewirken können.
Die Empirie dieser Forschungsarbeit spiegelt das Wissen der 22 hoch erfolgreichen österreichischen CEOs, Führungskräfte und Firmeneigentümer über Interne Kommunikation und deren Annäherung an diese Führungsaufgabe wider. In der Folge sind Leit-Ideen das vernetzte Ergebnis der theoretischen und empirischen Analysen. Diese daraus destillierten Leit-Ideen stehen für einen radikal dialogbasierten Kommunikationsansatz, der sämtliche Management-, Geschäfts- und Unterstützungsprozesse determiniert.
Verstehen CEOs und Führungskräften eine dialogbasierte Interne Kommunikation als eindeutig ihnen zufallende Führungsaufgabe, kann heute und in Zukunft die Querschnittsmaterie Interne Kommunikation zum größten Ressourcen-Pool für unternehmerischen Erfolg werden, so die diesbezüglichen Schlussfolgerungen.
Die vorliegende Arbeit geht der Frage nach, wie sich Teilhabe und Inklusion von Menschen mit Lernschwierigkeiten in der allgemeinem Erwachsenenbildung realisieren lassen und was wesentliche Elemente und Rahmenbedingungen einer inklusiven Erwachsenenbildung mit Menschen mit Lernschwierigkeiten sind.
Menschen mit Lernschwierigkeiten haben ein gesetzlich verankertes Recht auf Teilhabe an inklusiver Erwachsenenbildung. Inklusive Erwachsenenbildung bezeichnet gemäß der UN-BRK die Teilnahme und Partizipation auch von Menschen mit Lernschwierigkeiten an allgemeiner Erwachsenenbildung, im Vordergrund steht das gemeinsame Lernen im regulären Programm allgemeiner Erwachsenenbildungseinrichtungen.
In der Aufarbeitung des theoretischen Diskurses und der praktischen Realisierung inklusiver Erwachsenenbildung zeigt sich allerdings, dass das Erwachsenenbildungsangebot für diese Personengruppe und die Möglichkeiten der Teilhabe am allgemeinen Erwachsenenbildungssystem in Deutschland eingeschränkt
sind. Umfassende Praxismodelle inklusiver Erwachsenenbildung sind erst in Ansätzen vorhanden, auch die Rahmenbedingungen gelingender inklusiver Erwachsenenbildung wurden kaum systematisch aufgearbeitet. Somit gilt es, für den Bereich der Erwachsenenbildung Konzepte zu entwickeln, die den Abbau von Barrieren und die Förderung von gleichberechtigter Teilhabe und Inklusion unterstützen. Es ist davon
auszugehen, dass die Kenntnis von wesentlichen Elementen und Rahmenbedingungen allgemeine Erwachsenenbildungseinrichtungen bei der Implementierung und Weiterentwicklung inklusiv gestalteter Erwachsenenbildung unterstützen und somit die Teilhabemöglichkeiten für Menschen mit Lernschwierigkeiten gezielt erweitern kann. Ziel dieser Arbeit ist deshalb die Erhebung und Beschreibung von wesentlichen Elementen und Rahmenbedingungen inklusiver Erwachsenenbildung.
Da es in Deutschland an Erfahrungswerten sowie der systematischen Ausarbeitung notwendiger Realisierungsbedingungen
inklusiver Erwachsenenbildung mangelt, richtet die vorliegende Arbeit ihren Blick in einem zweiten Schritt auf die ‚Inspiring Practice’ anderer Länder. In einer empirischen qualitativ-
explorativen Studie in elf Erwachsenenbildungseinrichtungen und -institutionen Englands werden mit Hilfe von 55 Leitfadeninterviews wesentliche Elemente und Rahmenbedingungen aus Sicht
der beteiligten Akteure erhoben und ausgewertet. Flankiert durch teilnehmende Beobachtungen, Dokumentenanalysen
und Gespräche liefern die Ergebnisse zugleich einen Einblick in die praktische Umsetzung inklusiver Erwachsenenbildung in England. Die Wahl fiel auf England, weil in diesem europäischen Land inklusive Erwachsenenbildung bereits seit den 1990er Jahren als fester Bestandteil
des Bildungssystems verankert ist und umfängliche Erfahrungen gesammelt werden konnten.
Aus der Analyse dieser Erfahrungswerte werden in der Diskussion und Zusammenschau mit theoretischen Überlegungen und praktischen Umsetzungen richtungsweisende Impulse für die Weiterentwicklung
der inklusiven Erwachsenenbildung in Deutschland abgeleitet und in einem Perspektivkonzept einer inklusiven Erwachsenenbildung zusammengefasst.
Veränderungen in dem komplexen Wirkungsgefüge eines Agrarökosystems können erhebliche Auswirkungen auf die lokale Biozönose zur Folge haben. Die Überdachung von Obstkulturen mit Netzen oder Folien zum Schutz vor Hagel und Regen stellt eine solche Veränderung dar. Im Rahmen dieser Dissertation wurde anhand einer biozönotischen Risikoanalyse der Einfluss intensiver Landnutzung in Obstkulturen sowie der Einfluss von Kulturschutzeinrichtungen auf die drei Gilden tagaktive Greifvögel, insektivore Vögel und Arthropoden untersucht. Greifvögel, insektivore Vögel und räuberische Arthropoden üben als Prädatoren wichtige Regulationsfunktionen im Nahrungsnetz eines Ökosystems aus. Arthropoden stellen zudem eine wichtige Nahrungsressource dar. Arten aller drei Gilden gelten als Bioindikatoren für Veränderungen im Ökosystem. Phytophage Arthropoden können landwirtschaftlich genutzte Monokulturen erheblich schädigen, weshalb die konventionelle Landwirtschaft zur gezielten Tötung solcher Schädlinge Insektizide einsetzt. Pestizidbehandlungen haben allerdings oft auch Auswirkungen auf viele Nützlinge und andere Organismen im Agrarökosystem.
Die visuelle Erfassung beider Vogelgilden sowie das Fangen der Arthropoden mit Boden- und Flugfallen erfolgte von März bis Juli in den Jahren 2011-2013 auf fünf Untersuchungsflächen im rheinland-pfälzischen Obstanbaugebiet Mainz-Bingen. Es wurden zwei benachbarte Apfelkulturen (eine Kontrollfläche und eine Versuchsfläche mit Hagelschutznetz) und zwei benachbarte Kirschkulturen (eine Kontrollfläche und eine Versuchsfläche ab 2012 mit Folien-Netz-Überdachung) sowie eine nahegelegene Streuobstfläche im lokalen NSG Höllenberg als naturnahe Kontrollfläche untersucht. Zusätzlich wurden im ersten Untersuchungsjahr vom 15. März bis 28. Juli 2011 auf allen Flächen die Ergebnisse einer täglichen automatischen akustischen Erfassung durch ein Stereo-Aufnahmegerät („Songmeter 2“, Wildlife Acoustics) mit denen einer wöchentlichen rein visuellen Erfassung der Vögel verglichen. Es gab keine signifikanten Unterschiede in Detektionseffizienz und Arterfassung der Avifauna zwischen beiden Methoden. Die lokale α-Diversität nach Simpson unterschied sich ebenfalls nicht signifikant zwischen beiden Methoden. Das akustische Monitoring detektierte mehr seltene (=weniger als zehn Funde im Untersuchungszeitraum) Vogelarten; 29% der Arten wurden ausschließlich akustisch nachgewiesen und knapp 13% ausschließlich visuell. Sieben Vogelarten unterschieden sich signifikant in ihrer ermittelten Abundanz zwischen beiden Methoden: Bachstelze, Feldlerche, Mauersegler und die Greifvögel Mäusebussard und Turmfalke waren besser bzw. der Schwarzmilan ausschließlich mit dem visuellen Monitoring zu erfassen, während der Fasan ausschließlich durch das akustische Monitoring nachgewiesen werden konnte. Für die Abundanzschätzung von 48 Vogelarten war es unerheblich, ob sie akustisch oder visuell erfasst wurden. Da seltene Arten bei biozönotischen Untersuchungen keine wesentliche Rolle spielen und die Auswertung der Akustikaufnahmen sehr zeitaufwändig war, wurden für die Risikoanalyse nur die visuell ermittelten Daten berücksichtigt.
Für die Greifvogel-Gilde wurden sechs Arten nachgewiesen, fünf auf der Kirschkontrollfläche und jeweils vier Arten auf den anderen Flächen. Die drei häufigsten Arten waren Mäusebussard, Turmfalke und Schwarzmilan. Greifvögel wurden im Luftraum der Flächen oder auf Sitzwarten wie Zäunen, Pfählen, Bäumen und Kulturschutzeinrichtungen bei der Nahrungssuche oder beim Revierverhalten beobachtet. Es konnte kein Einfluss der Landnutzung auf Greifvögel aufgezeigt werden, Diversität und Abundanz unterschieden sich nicht zwischen den Obstkulturen und der naturnahen Streuobstfläche im NSG. Ein Einfluss von Kulturschutzeinrichtungen auf Greifvögel konnte ebenfalls nicht nachgewiesen werden, die überdachten Flächen wurden genauso oft frequentiert wie die Kontrollflächen. Greifvögel überflogen innerhalb ihrer großen Aktionsräume auch die überdachten Obstkulturen zur Nahrungssuche und wurden weiterhin bei der Ansitzjagd am Rand der Versuchsflächen gesichtet. Zudem wurde der Turmfalke beim Ansitzen unter der Folien-Netz-Überdachung der Kirschkultur sowie beim Fressen auf dieser Überdachung sitzend beobachtet. Für die Insektivoren-Gilde wurden 52 Vogelarten nachgewiesen. Die Streuobstfläche im NSG wies die höchste Artenzahl von 40 auf, gefolgt von der Apfelkontrollfläche mit 27 Arten. Die Apfelversuchsfläche wies dagegen eine geringere Artenzahl von 19 auf, während die Artenzahlen beider Kirschkulturen mit 19 und 18 annähernd gleich gewesen sind. Die zehn häufigsten Arten waren in Reihenfolge ihrer Abundanz Kohlmeise, Star, Rabenkrähe, Amsel, Mauersegler, Bachstelze, Blaumeise, Buchfink, Feldlerche und Stieglitz. Insektivore Vögel wurden überwiegend nahrungssuchend am Boden und in Bäumen der Flächen oder beim Revierverhalten wie Singen, Rufen und Vigilanz auf Sitzwarten Zäunen, Pfählen sowie Kulturschutzeinrichtungen beobachtet. Die intensive Landnutzung der Obstkulturen führte im Vergleich zur naturnahen Streuobstfläche im NSG sowohl auf der Apfel- als auch auf der Kirschkontrollfläche zu einer hochsignifikant geringeren monatlichen Vogelartenzahl. Eine signifikant niedrigere Abundanz der insektivoren Vögel wies jedoch nur die Kirschkontrollfläche auf. Es wurden negative Effekte der intensiven Landnutzung auf die monatliche Abundanz von Gartenrotschwanz, Amsel und Blaumeise nachgewiesen, welche in den Obstkulturen hochsignifikant seltener beobachtet wurden. Der Einsatz von Kulturschutzeinrichtungen führte lediglich beim Hagelschutznetz zu einer zusätzlichen signifikanten Verringerung der monatlichen Vogelartenzahl. Die Folien-Netz-Kombination zeigte keinen signifikanten Einfluss auf die Vogeldiversität. Die Gesamtabundanz der Insektivoren-Gilde blieb in beiden Obstkulturen von Kulturschutzeinrichtungen unbeeinflusst. Abundanzen einzelner Arten zeigten jedoch abweichende Ergebnisse: Die Ringeltaube wurde unter dem Hagelschutznetz der Apfelkultur im Vergleich zur Kontrollfläche gar nicht beobachtet. Die Kohlmeise kam unter der Folien-Netz-Überdachung der Kirschkultur signifikant seltener vor, während der Wiedehopf hier etwa zehnmal häufiger vorkam als auf der Kirschkontrollfläche und der Streuobstfläche im NSG Höllenberg. Entscheidender Faktor für die starke Nutzung der Kirschkulturen waren für den Wiedehopf die vorhandenen vegetationsfreien Bodenbereiche, in denen diese Art bevorzugt nach Nahrungsinsekten sucht. Störungen durch die bei Wind laut flatternde Folienüberdachung auf darunter nahrungssuchende Wiedehopfe wurden nicht beobachtet.
Für die Arthropoden-Gilde wurden 185963 Individuen aus 18 Gruppen gefangen. Der Großteil von 79% dieser Individuen ließ sich Springschwänzen, Ameisen, Zweiflüglern oder Käfern zuordnen. Weitere 20% verteilten sich auf Webspinnen, Asseln, Hautflügler, Milben, Doppelfüßer, Weberknechte, Schnabelkerfe und Ohrwürmer. Die restlichen sechs Arthropodengruppen stellten den restlichen Individuenanteil von 0,9%. Hinsichtlich der determinierten 12910 Käfer-Imagines aus 403 Arten waren Artenzahl, Diversität sowie Anzahl seltener Arten und Habitatspezialisten sandiger Lebensräume in allen drei Untersuchungsjahren auf der naturnahen Streuobstfläche im NSG Höllenberg am höchsten. Die über Bodenfallen ermittelte Arthropoden-Trockenbiomasse lag je nach Fläche bei 9 bis 26 Gramm pro Jahr und die über Flugfallen ermittelte Arthropoden-Trockenbiomasse bei 0,6 bis 4,8 Gramm pro Jahr. Obwohl im Mittel jährlich 5,8 Pestizidbehandlungen in den Kirschkulturen sowie 14,6 Behandlungen in den Apfelkulturen durchgeführt wurden und Insektizide dabei anteilig bis zu 57% ausmachten, konnte kein Einfluss der intensiven Landnutzung mit dem Einsatz von Pestiziden auf die Arthropoden-Trockenbiomasse nachgewiesen werden. Kulturschutzeinrichtungen zeigten ebenfalls keinen Einfluss auf die Arthropoden-Trockenbiomasse.
Diese biozönotische Risikoanalyse belegt, dass der Einsatz von Kulturschutzeinrichtungen zumindest bei Hagelschutznetzen langfristig nachweisbare negative Effekte auf die Diversität von insektivoren Vögeln bewirken kann, welche über die vorhandenen negativen Folgen der intensiven Landnutzung in Obstkulturen hinausgehen. Da intensiv bewirtschaftete Obstkulturen bereits ohne Kulturschutzeinrichtungen zu einer Verarmung der lokalen Biozönose führen, sollte aus ökologischer Sicht vor der Errichtung von Kulturschutzeinrichtungen verlässlich abgewogen werden, ob der zusätzliche Verlust an Biodiversität durch die Verbesserung von Flächenstrukturen der Obstkulturen kompensierbar ist.
Während es eine Vielzahl von Arbeiten zu der technologischen Entwicklung im Bereich der erneuerbaren Energien gibt, fehlt es jedoch bislang an einer mikroökonomischen Analyse
der Verhaltensmuster der Akteure im Umfeld von Anlagen nach dem EEG. Als Akteure kommen hier in erster Linie der Anlagenbetreiber selbst und der Staat in Betracht.
Im Hinblick auf Anlagenbetrieb und Vergütung der erzeugten Energie können beide mit unterschiedlichsten Interessen und Nutzenkalkülen aufeinander treffen. Diese Arbeit untersucht
mikroökonomische Aspekte des EEG-Förderungssystems. Im Mittelpunkt der Betrachtung stehen die Förderungsmechanismen für Biogasanlagen, die im Hinblick auf mögliche Prinzipal-Agenten-Konflikte einer Untersuchung unterzogen werden.
Die Vermeidung von Lebensmittelabfällen als nicht-technische Strategie zur Umsetzung der Bioökonomie
(2018)
Das Konzept der Bioökonomie beruht auf der Vision einer Wirtschaft, die durch die bevorzugte Verwendung biogener Rohstoffe unabhängiger wird von der Nutzung fossiler Quellen und gleichzeitig einen Beitrag zu Klima- und Ressourcenschutz, Ernährungssicherung und Stärkung der heimischen Wirtschaft leisten kann. Da die land- und forstwirtschaftliche Bio-masseproduktion aufgrund knapper Flächen jedoch begrenzt ist und sich bereits heute die negativen Folgen einer verstärkten Nachfrage zeigen, wird bezweifelt, dass sich die Vision in nachhaltiger Weise realisieren lässt. Offizielle Bioökonomie-Strategien setzen auf einen Technik-basierten Umsetzungspfad, in der Hoffnung, mit Hilfe technischer Innovationen Biomasseproduktion und Umweltverbrauch zu entkoppeln. Kritiker aus Wissenschaft und Zivilgesellschaft stehen diesem Weg skeptisch gegenüber. Sie befürchten, dass Effizienzsteigerungen und die Entwicklung neuer, umweltverträglicher Konversionsprozesse nicht ausreichen werden, um potentiell negative Folgen einer verstärkten Biomassenutzung abzuwenden. Angesichts der natürlichen Grenzen der Biosphäre sehen sie vor allem nicht-technische Ansätze zur Veränderung von Produktions- und Konsummustern als unverzichtbare Voraus-setzungen an. Mit der Formulierung eines sozial-ökologischen Umsetzungspfads wird eine Modifizierung des Bioökonomie-Konzepts gefordert, von einem bloßen Wandel der Ressourcenbasis hin zu einer umfassenden gesellschaftlichen Transformation, mit dem Ziel, Ressourcenverbrauch und Rohstoffproduktion neu zu justieren.
Die Arbeit stellt anhand des Beispiels der Lebensmittelabfälle die Bedeutung nicht-technischer Ansätze für die Realisierung der Bioökonomie heraus. Die Basis bilden fünf Publikationen, von denen sich drei mit dem Aufkommen von Lebensmittelabfällen, den Ursachen ihrer Entstehung und möglichen Vermeidungsstrategien befassen. Die anderen beiden Veröffentlichungen behandeln Flächenkonkurrenzen in der Landwirtschaft sowie Implementierungspfade der Bioökonomie. Die Arbeit kommt zu dem Schluss, dass der Beitrag von Lebensmittelabfällen zur Bioökonomie auf zwei Weisen denkbar ist: Entweder können diese als Ausgangsstoff für die Biogasproduktion oder die Bioraffinerie genutzt werden, was der aktuell vorherrschenden Vorstellung entspricht. Oder es können durch eine Reduktion des Abfallaufkommens Ressourcen, die bisher in die Bereitstellung nicht konsumierter Lebensmittel flossen, für andere Biomassenutzungen freigesetzt werden.
Die Analyse des Abfallaufkommens und der damit verbundenen Umweltwirkungen, aber auch vorhandene Studien über die ökologischen Wirkungen von Abfallvermeidungs- und verwertungsoptionen zeigen, dass die Vermeidung unter dem Gesichtspunkt der Ressourceneffizienz die sinnvollere Option darstellt. Die Arbeit hebt das Potenzial hervor, das sich aus der Berücksichtigung einer Reduktion von Lebensmittelabfällen für die Bioökonomie ergeben könnte. So ist denkbar, dass durch einen effizienteren Umgang mit den bereits produzierten Nahrungsmitteln Ressourcen freigesetzt werden können, die den Spielraum für die Realisierung der Bioökonomie verbessern würden oder aber Perspektiven entstehen für alternative Formen des Landbaus, die eine umweltverträglichere Biomasseproduktion ermöglichen könnten. Da nicht-technische Ansätze in der aktuellen Bioökonomie-Debatte kaum Berücksichtigung finden, besteht Bedarf, diese in das politische Konzept der Bioökonomie einzubeziehen und den wissenschaftlichen Diskurs für diese Aspekte zu öffnen.
Exposition in der Versorgungspraxis: Zur Frage der Umsetzbarkeit und Prädiktion früher Veränderungen
(2018)
Ziel der vorliegenden Arbeit war die Beantwortung folgender Fragestellungen: 1. Wie wirksam ist ein evidenzbasiertes Expositionsmanuals bei Panikstörung mit Agoraphobie in der Routineversorgung? 2. Was sind mögliche Barrieren und Hindernisse bei der Umsetzung der Exposition? 3. Was sind Prädiktoren früher Veränderungen im Therapieverlauf?
Methode: Im Rahmen einer prospektiven Längsschnittstudie wurden die Daten der vorliegenden Studie mit denen der Multicenter-Studie von Gloster et al. (2011) mittels Effektstärken und Testung auf Äquivalenz verglichen. Grundlage war das Manual von Lang, Helbig-Lang, Westphal, Gloster und Wittchen (2011). Die Patientinnen und Patienten und Therapeutinnen und Therapeuten wurden zu den Hausaufgaben, der Umsetzung im Alltag und der therapeutischen Beziehung befragt. Zusätzlich wurde die wechselseitige Beeinflussung von therapeutischer Allianz und dem Behandlungserfolg im Therapieverlauf untersucht. In Anlehnung an Westra, Marcus und Dozois (2007) wurde getestet, ob bei es Patientinnen und Patienten mit einer hohen Hausaufgaben-Compliance und einer positiven Behandlungserwartung vor Beginn der Therapie zu einer frühen Reduktion der Panik-Symptomatik kommt und ob frühe Veränderungen durch die Compliance und die Behandlungserwartung beeinflusst werden.
Ergebnisse: 1. Die Behandlung war in der Versorgungspraxis nicht weniger effektiv als in der Multicenter-Studie. 2. Die Abbrecherquote lag bei 20.59%. Die meisten Behandelten gaben an, ihre Hausaufgaben wie besprochen erledigt zu haben und schätzten sie nicht übermäßig schwer ein. Die Umsetzbarkeit der Anforderungen im Alltag wurde von den Patientinnen und Patienten sehr hoch eingeschätzt. Die meisten Therapeutinnen und Therapeuten stimmten der Aussage, die Umsetzung der massierten Exposition sei im therapeutischen Alltag nicht praktikabel eher nicht oder gar nicht zu. Je negativer die Einschätzungen der therapeutischen Beziehung durch die Behandelten war, umso höher waren die Panikwerte am Ende der Therapie. Der HAQ-S korrelierte mit dem Outcome zu r = .21, der HAQ-F zu r = .37. 3. Die beiden Mediator-Hypothesen von Westra et al. (2007) konnten nicht bestätigt werden.
Diskussion: Die Behandlung ist in der Routineversorgung wirksam und praktikabel. Die Hausaufgaben scheinen frühe Veränderungen nicht zu prädizieren. In späteren Arbeiten des Forschungsprojektes wird notwendig sein, zudem die differentielle Wirksamkeit des angepassten Manuals zu untersuchen, und zwar mittels drei aktiver Vergleichsgruppen: massierte Exposition versus prolongierte Exposition versus die Kombination beider.
Schrift ist in ihrer Besonderheit verkannt, versteht man sie allein als Mittel zur Stillstellung gesprochener Sprache. Phänomene wie Schriftbildlichkeit, Operativität und die Physiognomie des Schriftbildes machen Schrift zu einem Medium. In der Entwicklung und in der Verwendung von Schriftgebrauchsformen in unterschiedlichen Kontexten werden sowohl die Eigenschaften, die Schriftzeichen mit verbalen Zeichen gemeinsam haben, als auch die Potentiale, die sie mit pikturalen Zeichen gemeinsam haben, genutzt. Daher werden in der vorliegenden Arbeit die Funktionalisierungsmöglichkeiten von Schriftgebrauchsformen vor dem Hintergrund der Symboltheorie Nelson Goodmans vorgestellt. Eine an die ästhetische Theorie angelehnte Herangehensweise ermöglicht es, gerade die bildlichen Aspekte von Schriftformen – die bislang in schrifttheoretischen Arbeiten meist als irrelevant ausgeblendet werden – zu berücksichtigen. Es wird ein dynamischer Kompetenzbegriff in Anlehnung an J.G. Schneider entwickelt, der alle Fähigkeiten umfasst, die benötigt werden, um Schriftgebrauchsformen erfolgversprechend verwenden zu können. Zu diesen Fähigkeiten gehören nicht nur grammatische und orthographische Kompetenz, sondern ebenso Geschmack und die Fähigkeit zur Analogiebildung. An Beispielen verschiedener Schriftverwendungen wird gezeigt, wie unterschiedlich Schriftgebrauchsformen eingesetzt werden können. So wird Schrift als Kulturtechnik darstellbar und mithin verdeutlicht, dass die Art und Weise, wie Menschen ihre Kultur, ihre Welt, aber auch ihre spezifische Umgebung und eigene Identität modellieren, von Schriftverwendungen geprägt und verändert wird.
Grundwasser ist eine lebenswichtige Ressource und gleichzeitig ein thermisch stabiler Lebensraum mit einer außergewöhnlichen Fauna. Aufgrund der Klimageschichte der letzten ca. 1,8 Millionen Jahre in Mitteleuropa war die Ausgangshypothese, dass die meisten Grundwasserarten an Temperaturen unterhalb von 14 °C angepasst sind und sich Temperaturerhöhungen daher negativ auf die Grundwasserfauna auswirken.
Um die Folgen einer Klimaerwärmung in situ beurteilen zu können, wurden anthropogen erwärmte Grundwässer als Modelle herangezogen. In ersten Teil dieser Arbeit wurden die Crustaceagemeinschaften natürlich temperierter und anthropogen erwärmter Standorte untersucht. Dazu wurden insgesamt 70 Grundwassermessstellen im Oberrheingraben über ein Jahr (2011 bis 2012) sechsmal beprobt. Ergänzend zu diesem synökologischen Ansatz wurde in einem zweiten Teil die Temperaturpräferenz ausgewählter Arten überprüft. Für diese autökologische Betrachtung wurde ein deutschlandweiter Datensatz herangezogen.
Die ausgewählten Untersuchungsgebiete haben sich als geeignete Modelle für die prognostizierten Temperaturerhöhungen herausgestellt. Die Temperatur erwies sich als einer der wichtigsten Parameter für die Crustaceagemeinschaften. Erwärmungen beeinflussen die Zusammensetzung der Gemeinschaften und die Diversität. Dabei zeigte sich, dass es artspezifisch unterschiedliche Temperaturpräferenzen gibt. Einige vermutlich weniger streng stygobionte Arten scheinen höhere Temperaturen zu tolerieren. Der Großteil der stygobionten Grundwasserarten bevorzugt allerdings Temperaturen unterhalb von 14 °C, wobei wenige Arten als „extrem kalt¬steno-therm“ einzustufen sind. Diese Arten wurden an Standorten nachgewiesen, die aufgrund der hydrologischen Verhältnisse relativ kühl sind und der Fauna auch zukünftig als kalte Refugien Schutz bieten könnten. Einer dieser Standorte ist aufgrund seiner Artenvielalt als „Hot Spot“ einzustufen. Die Ergebnisse legen nahe, dass vor allem kaltstenotherme Arten durch eine Klimaerwärmung und anthropogene Wärmeeinträge gefährdet sind.
Die Untersuchung zeigt, dass Grundwasserlebensräume vor Temperaturerhöhungen zu bewahren sind. Lokale anthropogene Wärmeeinträge sollten keine dauerhafte und großflächige Grundwassererwärmung über 14 °C zur Folge haben. Thermische Ein-träge sollten überwacht und bewertet werden. Es wird empfohlen, die bestehenden rechtlichen Rahmenbedingungen den ökologischen Erfordernissen anzupassen.
Die Forschung im Bereich der modellbasierten Objekterkennung und Objektlokalisierung hat eine vielversprechende Zukunft, insbesondere die Gebäudeerkennung bietet vielfaltige Anwendungsmöglichkeiten. Die Bestimmung der Position und der Orientierung des Beobachters relativ zu einem Gebäude ist ein zentraler Bestandteil der Gebäudeerkennung.
Kern dieser Arbeit ist es, ein System zur modellbasierten Poseschätzung zu entwickeln, das unabhängig von der Anwendungsdomäne agiert. Als Anwendungsdomäne wird die modellbasierte Poseschätzung bei Gebäudeaufnahmen gewählt. Vorbereitend für die Poseschätzung bei Gebäudeaufnahmen wird die modellbasierte Erkennung von Dominosteinen und Pokerkarten realisiert. Eine anwendungsunabhängige Kontrollstrategie interpretiert anwendungsspezifische Modelle, um diese im Bild sowohl zu lokalisieren als auch die Pose mit Hilfe dieser Modelle zu bestimmen. Es wird explizit repräsentiertes Modellwissen verwendet, sodass Modellbestandteilen Bildmerkmale zugeordnet werden können. Diese Korrespondenzen ermöglichen die Kamerapose aus einer monokularen Aufnahme zurückzugewinnen. Das Verfahren ist unabhängig vom Anwendungsfall und kann auch mit Modellen anderer rigider Objekte umgehen, falls diese der definierten Modellrepräsentation entsprechen. Die Bestimmung der Pose eines Modells aus einem einzigen Bild, das Störungen und Verdeckungen aufweisen kann, erfordert einen systematischen Vergleich des Modells mit Bilddaten. Quantitative und qualitative Evaluationen belegen die Genauigkeit der bestimmten Gebäudeposen.
In dieser Arbeit wird zudem ein halbautomatisches Verfahren zur Generierung eines Gebäudemodells vorgestellt. Das verwendete Gebäudemodell, das sowohl semantisches als auch geometrisches Wissen beinhaltet, den Aufgaben der Objekterkennung und Poseschätzung genügt und sich dennoch an den bestehenden Normen orientiert, ist Voraussetzung für das Poseschätzverfahren. Leitgedanke der Repräsentationsform des Modells ist, dass sie für Menschen interpretierbar bleibt. Es wurde ein halbautomatischer Ansatz gewählt, da die automatische Umsetzung dieses Verfahrens schwer die nötige Präzision erzielen kann. Das entwickelte Verfahren erreicht zum einen die nötige Präzision zur Poseschätzung und reduziert zum anderen die Nutzerinteraktionen auf ein Minimum. Eine qualitative Evaluation belegt die erzielte Präzision bei der Generierung des Gebäudemodells.
Im Zentrum der Arbeit steht die Frage, inwiefern erwachsenenpädagogische Professionalität und Qualitätsmanagement als je eigene Zugänge der Qualitätssicherung im Kontext der Weiterbildung miteinander kompatibel sind.
Diese Frage wird seit den 1990er Jahren diskutiert und stellt sich gegenwärtig neu, u.a. angesichts branchenspezifischer Ansätze wie der Lernerorientierten Qualitätstestierung in der Weiterbildung (LQW).
Zur Beantwortung werden einschlägige Vertreter des Professionalitäts- und Qualitätsmanagementzugangs aus einer handlungstheoretischen Perspektive vergleichend im Hinblick auf ihre Handlungsordnungen gegenübergestellt. Grundlage bildet eine kategoriengeleitete, heuristisch angelegte Dokumentenanalyse sowohl von Grundlagentexten als auch von Normen- und Anforderungskatalogen.
Die Untersuchung zeigt, dass die Passung differenziert und jenseits dichotomisierender Gegenüberstellungen von Pädagogik bzw. Profession und Organisation oder von Pädagogik und Ökonomie zu beurteilen ist:
Zum einen wird die Heterogenität der Einzelansätze deutlich, welche sich in unterschiedlichem Umfang als kompatibel zueinander erweisen. Zum anderen werden entlang einzelner Handlungsdimensionen sowohl Anschluss- als auch Bruchstellen sichtbar.
Als ein weiterer zentraler Befund lässt sich festhalten, dass auch die Art der Spannungsverhältnisse zwischen erwachsenenpädagogischer Professionalität und Qualitätsmanagement unterschieden werden muss:
Während die Spannungen zwischen den gegensätzlichen methodischen Strategien (z.B. zwischen professionellem Fallbezug und organisationaler Standardisierung) gradueller Natur sind und „bearbeitet“ werden können, zeigen sich zwischen den programmatischen Zweck- und Aufgabenbestimmungen kategoriale Unterschiede und antinomische Konstellationen.
So verweisen das professionelle Leitprinzip der Teilnehmerorientierung sowie die für die Qualitätsmanagement-Ansätze maßgebliche Kunden- bzw. Lernerorientierung auf jeweils eigene sowie voneinander abweichende Vermittlungskonzepte, die nicht widerspruchsfrei zusammengeführt werden können.
Die deutsche Holzhausbranche wächst seit Jahren, allerdings beschäftigen sich die Unternehmen nicht strategisch mit dem Thema Marketing. Diese Dissertation bildet durch qualitative und quantitative Bewohnerbefragungen die Basis für die Entwicklung eines strategischen Marketingansatzes im Holzhausbereich.
Identifikation und Analyse von Konfigurationen zwischenbetrieblicher Integration in der Möbelbranche
(2017)
In der Möbelbranche in Deutschland existieren seit mehreren Jahren branchenweite Bemühungen, zwischenbetriebliche Kooperationen durch organisatorische und technische Lösungen (z.B. Standardisierung von Austauschformaten) zu unterstützen. In einigen Branchensegmenten (vor allem Küche und Polster) konnten sich Infrastrukturen zur Integration etablieren, die von vielen Branchenteilnehmern akzeptiert und genutzt werden. Trotz dieser Entwicklung sind in den genannten Branchensegmenten überraschende Phänomene in jüngerer Vergangenheit zu beobachten: Mängel in der Prozessintegration zwischen Branchenakteuren, Unterschiede im Standardisierungsfortschritt zwischen den Branchensegmenten und die Entstehung unterschiedlicher Infrastrukturen zur zwischenbetrieblichen Integration. Bei näherer Betrachtung der beobachteten Phänomene offenbart sich ein hoch-komplexes Zusammenspiel der in der Möbelbranche agierenden Akteure auf drei unterschiedlichen Ebenen (institutionell, organisatorisch und technisch). Um die verantwortlichen Zusammenhänge zu verstehen, ist eine ganzheitliche Betrachtung relevanter Faktoren erforderlich. Dafür gibt es bislang nur wenige überzeugende Konzepte. Die Konfigurationsanalyse nach Lyytinen und Damsgaard betrachtet Unternehmensnetzwerke als Konfigurationen zwischenbetrieblicher Integration, die einem stabilen Muster von Kooperationsformen entsprechen. Sie ist insbesondere dafür geeignet, Unternehmensnetzwerke auf Branchenebene zu untersuchen. In der vorliegenden Arbeit wird die Konfigurationsanalyse mittels eines speziell dafür entwickelten bzw. angepassten Forschungsdesigns zum ersten Mal operationalisiert. Dazu wurden in 21 Interviews mit 19 Organisationen Daten zu Konfigurationen zwischenbetrieblicher Integration in zwei Branchensegmenten der Möbelbranche (Küche und Polster) in Deutschland erhoben, analysiert und Erklärungsansätze für die drei oben genannten Phänomene entwickelt. Die Ergebnisse zeigen, dass komplexe Konstellationen von Brancheneigenschaften die existierenden Konfigurationen begründen. Insgesamt wurden vier Konfigurationstypen (Mittler, Branche, Dyade und Triade) identifiziert, die in 17 konkreten Konfigurationen zum Einsatz kommen (Mittler (4-mal), Branche (5-mal), Dyade (6-mal) und Triade (2-mal)). Die Ursachen für die beobachteten Phänomene sind vielfältig. Insbesondere sind bestimmte branchenbezogene Charakteristika (u.a. Produkteigenschaften),der Wettbewerb zwischen Akteursklassen und zuletzt die wirtschaftliche Überlegenheit des Handels gegenüber den Herstellern ausschlaggebend. Der Standardisierungsfortschritt in den Branchensegmenten und die zugrunde liegenden Infrastrukturen sind vor allem von dem betriebswirtschaftlichen Nutzenpotenzial abhängig, das ihnen jeweils zugeschrieben wird. Die Prozessintegration hingegen benötigt eine zentral steuernde Instanz zur erfolgreichen IOIS-Diffusion.
Die vorliegende Doktorarbeit hatte zum Ziel zu prüfen, ob Emulsionspolymere auf Acrylatbasis als neuartige Photokatalysatoren bzw. Katalysatoren genutzt werden können.
Auf Grund der Beschaffenheit und der Eigenschaften von Emulsionspolymeren ist davon auszugehen, dass die Nutzung selbiger als Katalysatoren eine neue Art einer chemischen Katalyse ermöglicht. So sollen die Vorteile der heterogenen und homogenen Katalyse vereint und die jeweiligen Nachteile minimiert werden. Als besonders erfolgversprechend hat sich während der praktischen Arbeit die Nutzung von Emulsionspolymeren als Photokatalysatoren herausgestellt.
Die Anbindung der photokatalytisch aktiven Moleküle an/in den Polymerstrang soll kovalent erfolgen. Deshalb war ein erstes Teilziel dieser Arbeit prototypische Katalysatormoleküle zu synthetisieren, die über einen Acrylat-Substituenten verfügen, der in einer radikalischen Polymerisationsreaktion reagieren kann. Als Photokatalysatoren wurden Ruthenium- Polypyridin-Komplexe ausgewählt, die sowohl für eine inter- als auch intramolekulare Photokatalyse zur Herstellung von Wasserstoff aus Wasser geeignet sind. Für organokatalytische Zwecke wurde ein L-Prolin-Derivat synthetisiert, welches jedoch nicht auf seine Polymerisierbarkeit getestet wurde.
In einem ersten Schritt wurden die prototypischen 2,2’-Bipyridin-Liganden synthetisiert. Dabei konnte eine verbesserte Synthesemethode für 4-Brom-2,2’-bipyridin ausgearbeitet werden. Die Funktionalisierung erfolgte letztendlich durch eine Horner-Wadsworth-Emmons-Reaktion, die anschließend an eine Eintopfsynthese zur Darstellung von 4-Formyl-2,2’-biypridin erfolgte. Die prototypischen Photokatalysatoren zeigten mäßige Erfolge (TON: 37-136, 6h, 10% H2O, 470 nm) in Bezug auf die photokatalytische Wasserstoffproduktion, sodass an dieser Stelle eine Verbesserung der entsprechenden katalytischen Systeme erfolgen sollte.
Die Polymerisationsreaktion konnte für zwei intermolekulare Photokatalysatoren und zwei intramolekulare Photokatalysatoren durchgeführt werden. Dabei fiel auf, dass die intermolekularen Photokatalysatoren besser polymerisieren als die intramolekularen Photokatalysatoren. Es wird angenommen, dass dies mit der Löslichkeit der Substanzen im Monomer Ethylmethacrylat zusammen hängt.
Die photokatalytisch funktionalisierten Emulsionspolymere zeigten eine ähnliche photokatalytische Aktivität (TON: 9-101, 6h, 10% H2O, 470 nm) wie die jeweiligen Ausgangsstoffe selbst. Es konnte jedoch bewiesen werden, dass Emulsionspolymere als Photokatalysatoren genutzt werden können, wenn auch noch weitere Arbeiten zur Optimierung der Systeme nötig sind.
Hintergrund: Veränderte gesetzliche Rahmenbedingungen in der stationären Altenhilfe, die demografische Entwicklung mit dem steigenden Bedarf an Pflegekräften einerseits und die Tatsache, dass immer weniger Menschen aufgrund des Images des Berufes und der Arbeitsbedingungen in der Pflege tätig sein wollen andererseits, machen es notwendig neue Wege zu suchen. Die Träger im Sozial- und Gesundheitswesen sind gefordert, Konzepte zu entwickeln, die ihre Wirtschaftlichkeit sichern, gleichzeitig aber auch den Belastungen und der Unzufriedenheit von Mitarbeitenden entgegenwirken. Es braucht Gestaltungsräume, um Lösungen im Konflikt zwischen Anspruch und Machbarkeit zu finden und so dem alltäglichen Stress, der Mitarbeiterfluktuation und dem drohenden Leistungsabfall entgegenzuwirken. Durch das Praxisprojekt eines sozial-karitativen Trägers zur Implementierung einer ´Konstruktiven Konfliktkultur´ in einer stationären Altenhilfeeinrichtung sollte eine Organisationskultur geschaffen werden, in der Konflikte offen angesprochen werden, eine Offenheit für Veränderungsprozesse entsteht, Belastungen reduziert und die Mitarbeitenden an die Organisation gebunden werden. Dazu wurden drei pädagogische Interventionen entwickelt, durch die die Mitarbeitenden und die Führungskräfte in ihrer Konfliktfähigkeit geschult werden sollten. Methode: Die wissenschaftliche Begleitung dieses Praxisprojektes fand als Evaluationsstudie statt. Zu drei Erhebungszeitpunkten wurde eine repräsentative Mitarbeitergruppe dieser Einrichtung zu den Themen Konflikterleben, Führungsverhalten, Macht/ Regeln und Veränderungen durch qualitative Leitfadeninterviews befragt. Die Auswertung und Analyse der Daten erfolgte im Sinne der qualitativen Inhaltsanalyse nach Mayring und floss ein in eine formative Prozessevaluation der einzelnen Interventionen und einer summativen Effektevaluation zu Bewertung der Zielerreichung des Projektes. Ergebnis: Die einzelnen Interventionen des Projektes konnten nicht dazu beitragen, dass eine ´Konstruktiven Konfliktkultur´ nachhaltig entwickelt werden konnte. Zwar gab es in der Bewusstseinsspanne des Projektes einen expliziten Wissensgewinn, jedoch mehr bei den Führungskräften als bei den Mitarbeitenden. Die Führungskräfte sahen im Projekt einen Gewinn, für einen Teil der Mitarbeitenden war es sogar Zeitverschwendung. Anhand der Ergebnisse lassen sich drei Merkmale herauskristallisieren, die kennzeichnend sind für die zugrundeliegenden Denk-, Urteils-, und Handlungsstrukturen in sozialen Organisationen im Umgang mit Konflikten: Konflikte sind nicht wahrnehmbare Konstrukte der Alltagswelt. Sie manifestieren sich aufgrund fehlender Legitimation in Überforderung und eine ´Konstruktiven Konfliktkultur´ kann nicht auf das Wissen Einzelner aufbauen, sondern benötigt verbindliche Handlungsstrukturen für alle Organisationsmitglieder gleichermaßen. Ergebnisinterpretation: Durch die Einbeziehung wissenssoziologischer und konfliktsoziologischer Theorien und deren Einordnung in Institutionen – und Organisationstheorien konnten die Ergebnisse diskutiert und neue Erkenntnisse über Konflikte in Organisationen, die sich in drei Spannungsfeldern zeigen, gewonnen werden. Die Spannungsfelder bewegen sich zwischen dem Konflikt als nicht-wahrnehmbarem Alltagsphänomen auf der einen Seite und einer manifestierten Belastung auf der anderen Seite, dem Gewohnheitswissen im alltäglichen Umgang einerseits und einem fehlenden Handlungswissen andererseits, einer funktional-positiven Sicht hier und einer dysfunktional-negativen Sicht dort. Anhand dieser Spannungsfelder kann die Konfliktmentalität und ihre Entstehung und auch die Möglichkeit ihrer Veränderbarkeit reflektiert und können Erfolgsfaktoren für die Implementierung einer ´Konstruktiven Konfliktkultur´ entwickelt werden.
Schlussfolgerung: Wissen, Legitimation und Institutionalisierung und die Stärkung der Wahrnehmungen sind der Schlüssel für die Veränderung der Konfliktmentalität in sozialen Organisationen. Nachhaltigkeit erhält die Thematik aber erst, wenn alle Organisationsmitglieder eine gewisse Handlungsnotwendigkeit für sich erkennen. Aktuell steht die Organisationsentwicklung für den expliziten Veränderungswillen von Management, der jedoch auf ein gewisses Beharrungsvermögen von Mitarbeitenden trifft.
Die Dissertation bietet einen internationalen Vergleich von Gestaltungsmustern der Flexibilitätssteuerung von Unternehmen mit Schwerpunkt auf die Automobilindustrie. Vor dem Hintergrund unterschiedlicher nationaler institutioneller Systeme werden betriebliche Flexibilitätsstrategien analysiert und deren Hintergründe und Funktionsweisen detailliert erläutert. Die Analyse institutioneller Rahmenbedingungen erfolgt mittels der "Varieties of Capitalism". Die Eruierung von Flexibilitätsstrategien basiert auf einer internationalen Fallstudie.
Zur unterstützten Repositionierung von Femurschaftfrakturen während der intramedullären Nagelung, wurde ein Assistenzsystem entwickelt. Grundprinzip der Anordnung ist die Kraftaufnahme der von den femuralen Muskeln und Bändern erzeugten Zugkräfte mittels einer Linearfahrbahn und Gewindestange. Dazu werden Schanzschrauben als Kochen-Maschinen Verbindung verwendet, was direkte Knochenfragmentmanipulation ermöglicht. Weiterhin wird die Justage der Position und Orientierung der Fragmente mittels weiterer eingebrachter Schanzschrauben und Anwendung der Joystick Technik durchgeführt. Dazu werden ein passiver Gelenkarm und ein Gelenkarm mit robotischem Manipulator verwendet. Dank einer seriellen Kinematik des Systems, wird nur geringer Arbeitsraum des Operateurs in Anspruch genommen. Die Zentrale Steuereinheit besteht aus einem eingebetteten System auf Basis eines ARMCortex-M0 Mikrocontrollers, auf welchem ein Echtzeitbetriebssystem zum Einsatz kommt. Somit ist es möglich, die verschiedenen Winkelstellungen der Gelenke des robotischen Arms mittels inverser Kinematik zu in Echtzeit berechnen und entsprechend Stellmotoren anzusteuern. Zur Lösung der inversen Kinematik Problems kommt der iterative FABRIK Algorithmus zum Einsatz. Neuartiges und einziges Steuerinterface für den Operateur ist ein Kraft Momenten Sensor auf optischer Basis. Der serielle Gelenkarm folgt somit stets der Bewegung des Operateurs. Insgesamt konnte mit dem Demonstratoraufbau eine Positionierungsgenauigkeit des Manipulators auf dem Gelenkarm von <0,1mm erreicht werden. Somit ist zu erwarten, dass durch den Einsatz eines solchen Assistenzsystems während der Repositionierung bei der intramedullären Nagelung eine massive Präzisionserhöhung erreicht werden kann. Außerdem ist eine erhebliche Reduzierung der Röntgenstrahlenexposition des Operateurs durch Einsatz dieses Systems möglich. Weiterhin ermöglicht es eine Kostensenkung durch Zeiteinsparung und Personalreduzierung.
Im schulischen Kontext wird dem Prozess der Erkenntnisgewinnung in eigenverantwortlichen Lernprozessen immer mehr Bedeutung beigemessen. Experimentelles Arbeiten wird in den nationalen Bildungsstandards als Prozess beschrieben, welcher vier Teil-schritte durchläuft: (1) Fragestellung entwickeln, (2) Experimente durchführen, (3) Daten notieren und (4) Schlussfolgerung ziehen [1]. In der fachdidaktischen Forschung gibt es bisher keine Untersuchungen, die explizit den Teilschritt der Datenaufnahme und dessen Bedeutung behandeln.
In dieser Arbeit werden die unterschiedlichen Definitionen der naturwissenschaftlichen Protokollformen voneinander abgegrenzt sowie im Rahmen von drei Teilstudien die Bedeutung des Protokollierens für die Lernwirksamkeit untersucht. Zusätzlich wird eine Auswertungsmethode für die Qualität von Erarbeitungsprotokollen vorgestellt.
In dieser Dissertation werden Theorien von Vertretern der Dialog-Philosophie diskutiert. Auf diesem Weg soll eine theoretische Grundlage geschaffen werden, mit der unternehmerisches Führungshandeln reflektiert werden kann. Als Ergebnis wird angestrebt, einen Ansatz für die Entwicklung einer dialogischen Führungskultur zu entwerfen.
Im empirischen Teil soll untersucht werden, welche subjektiven Annahmen, bezogen auf eine dialogische Führungskultur, Führungskräfte im Pflegedienst des stationären Gesundheitswesens ihrem Führungshandeln zugrunde legen. Zudem soll der Frage nachgegangen werden, wie die subjektiven Annahmen für eine zukünftige dialogorientierte Führungskultur und Führungskräfteentwicklung berücksichtigt und genutzt werden könnten.
Es soll die Frage erörtert werden, inwieweit die Dialog-Philosophie theoretische Konzepte zur Beschreibung einer Führungskultur beinhaltet. Betrachtet wird hierbei im Besonderen der denkerische Ansatz Martin Bubers.
Aus dieser theoretischen Grundlage soll der Versuch unternommen werden, Grundzüge einer dialogischen Führungskultur zu entwickeln, die geeignet erscheint, ein didaktisches Konzept für die Entwicklung von Führungskräften im Pflegedienst zu begründen.
Die Analyse ortsbezogener Strukturdaten und Merkmale ist eine der wesentlichen Voraussetzungen für die Bewertung von Standorten und Räumen. Durch die Erfassung der lokalen Ausprägung ausgewählter Standortfaktoren und unter Zuhilfenahme eines Geographischen Informationssystems werden in der vorliegenden Dissertation die Städte und Gemeinden des hessischen Rheingau-Taunus-Kreises kategorisiert und miteinander verglichen. Hierbei erfolgt eine besondere Fokussierung auf die lokal bestehende technische und soziale Infrastruktur, um vorrangig das vorhandene Gewerbe- und Wohnumfeld sowie die darüber hinaus existierenden räumlichen Disparitäten eingehend veranschaulichen und beurteilen zu können.
In der vorliegenden Arbeit wird das thermochemische Wechselwirkungsverhalten verschiedener Magnesiakohlenstoffmaterialen in Abhängigkeit verschiedener Einflussgrößen wissenschaftlich untersucht. Schwerpunkte der experimentellen Arbeiten bilden thermoanalytische Experimente, Gefügeuntersuchungen der Magnesiakohlenstoff-Proben sowie thermodyna-mische Berechnungen und Auswertungen durch CAT (Computer Aided Thermochemistry) mittels des Softwarepakets FactSage.
Erster Themenbereich dieser Arbeit ist die Untersuchung des Einflusses der in dem Rohstoff Magnesia enthaltenen mineralogischen Nebenphasen Merwinit (C3MS2), Monticellit (CMS) und Belit (C2S) auf den carbothermisch induzierten Verschleiß im MgO-C-Material. Für die Messreihen wurden die Nebenphasen eigens synthetisiert und hiermit MgO-C-Nebenphase-Modellwerkstoffe hergestellt. Die Nebenphase Monticellit ist unbeständig gegenüber der carbothermischen Reduktion. Monticellit wird im MgO-C-Gefüge durch Kohlenstoff reduziert und hieraus ergibt sich ein erhöhter Gewichtsverlust des Probenmaterials. Auch Merwinit wird bei T = 1600°C reduziert, der Gewichtsverlust wird dadurch allerdings nicht erhöht. Belit ist im MgO-C-Gefüge stabil gegenüber carbothermischer Reduktion.
Ein weiterer Schwerpunkt der Arbeit lag auf der Untersuchung des Einflusses des klassischen Antioxidans Aluminium auf die thermochemische Stabilität von MgO-C. Bei geringen Sauerstoffpartialdrücken ist die Reaktion des Aluminium-Metalls bzw. des bereits zu Al4C3 carbidisierten Aluminiums mit dem steineigenen Periklas unter Mg(g)-Bildung möglich, was einen erhöhten Gewichtsverlust zur Folge hat. Aber auch nach der Oxidation zu Al2O3 bzw. Spinell liegt Aluminium in signifikanten Mengen als Al(g) und Al2O(g) in der Gasphase vor und greift des Weiteren die Nebenphasen an, was ebenfalls zu einem messbaren Gewichtsverlust führt.
Dritter Arbeitsschwerpunkt war die Untersuchung des Einflusses des Umgebungsdruckes auf die carbothermische Reduktion von MgO. Die Ergebnisse zeigen, dass der Druck sich in zweierlei Hinsicht auf die carbothermische Reduktion von MgO auswirkt. Zum einen bewirkt ein sinkender Umgebungsdruck eine Beschleunigung der carbothermischen Reduktion durch die Verschiebung des thermodynamischen Gleichgewichts auf die Produktseite. Des Weiteren sorgt er für einen schnelleren Abtransport der Produktgase vom Reaktionsort und ver-hindert somit die Einstellung eines lokalen Gleichgewichts im Gefüge. Dritter Effekt ist die mit steigendem Druck verstärkt ablaufende Kohlenstoffoxidation durch Umgebungssauerstoff, da die Sauerstoffmenge in der Umgebung des MgO-C-Materials vom Umgebungsdruck bestimmt wird. Für die Geschwindigkeit des thermochemischen Verschleißes von Magnesiakohlenstoffmaterialien, der immer eine Kombination aus Kohlenstoffoxidation und carbothermischer Reduktion darstellt, bedeutet dies, dass sie in Abhängigkeit vom Umgebungsdruck in unterschiedlichem Ausmaß von diesen beiden Reaktionen beeinflusst wird.
Die Entstehung von Gründungsteams wird bisher lediglich als Abfolge von Suche, Auswahl und Gewinnung von Gründerpersonen verstanden. In der vorliegenden Arbeit wird auf Basis von 47 interviewten Gründerpersonen ein neues Verständnis für die Entstehung von Gründungsteams geschaffen. Dabei wird im Stil der Grounded Theory das bisher vorherrschende Model der Teamentstehung maßgeblich erweitert. So wird eine neue Art der Unterscheidung von Grünerpersonen entdeckt, welche auf die Intention von Teammitgliedern abzielt. Zudem zeigt sich, dass Teams in einem iterativ-epiodischen Prozess entstehen und Veränderungen von Teamzu-sammmensetzungen Bestandteil der Entstehung sind. Aufgrund der in dieser Arbeit geschaffenen neuen Erkenntnisse zur Teamentstehung können Handlungsempfehlungen für Gründerpersonen und die Gründungsförderung gegeben werden. Zudem werden neue Untersuchungsgebiete für Gründungsteams eröffnet, die das hier entwickelte Modell als Bezugsrahmen für weitere Forschung nehmen können.
Immer häufiger kommt es zum Einsatz von Servicepersonal in Krankenhäusern und anderen pflegerischen Einrichtungen um dem Fachkräftemangel in der Pflege zu kompensieren. Die vorliegende Arbeit zeigt eine Kompatibilität von Tätigkeiten von Servicepersonal und Professionstheorien der Pflege, sowie einen Lernbedarf für Servicepersonal im Setting der stationären Pflege im Krankenhaus.
Pflegeexperten sind der Meinung, dass ein Einsatz von Servicepersonal, das in der Lage ist, durch definierte Tätigkeiten und Anforderungen Pflegepersonal zu unterstützen, notwendig ist. Zur Entwicklung von Handlungskompetenz für ausgewählte Tätigkeiten bietet ein situatives, tätigkeitsbezogenes Anforderungsprofil, gegliedert nach dem Kompetenzmodell in persönliche, soziale, methodische und fachliche Kompetenz, eine Grundlage für eine Bildungsmaßnahme für Servicepersonal.
Die Erkenntnisse dieser Arbeit tragen einen Teil dazu bei, den gegenwärtigen und künftigen Herausforderungen der Pflege gewachsen zu sein.
Ein zentrales Problem der stationären Behandlung psychischer und psychosomatischer Störungen ist die Nachhaltigkeit von Therapieerfolgen. Im Rahmen einer Pilotstudie wurde ein SMS-basiertes Nachsorgeprogramm zur Modifikation Perfektionismus-bezogener Kognitionen im Anschluss an eine stationäre Behandlung von Burnout-Patienten evaluiert.
Es handelte sich um eine kontrollierte Verlaufsstudie mit vier Messzeitpunkten (Aufnahme, Entlassung, 6 und 10-Wochen-Katamnese). Die Patienten der Versuchsgruppe (n=31) erhielten zusätzlich zur Routine-Behandlung eine 6-wöchige kognitiv ausgerichtete individualisierte SMS-Nachsorge. Als Kontrollgruppe (n=30) diente eine Gruppe von Patienten mit einer stationären Routine-Behandlung. Zur Erfassung der Burnout-Symptomatik wurde das Maslach Burnout Inventory General Survey (MBI-GS-D) eingesetzt, die depressive Symptomatik wurde mit dem Beck-Depressions-Inventar-V (BDI-V) erhoben. Zur Erfassung der Facetten des Perfektionismus dienten Items aus der Multidimensional Perfectionism Scale (FMPS und HMPS) sowie der Almost Perfect Scale (APS-R).
Ein sehr hohes Interesse, eine hohe Inanspruchnahme sowie eine hohe Akzeptanz des Nachsorgeprogramms konnte anhand der Bereitschaft zur Teilnahme und der von den Teilnehmern bewertete Nutzen aufgezeigt werden.
Eine Wirksamkeit der SMS-Nachsorge bzgl. Burnout und depressiver Symptomatik sowie dysfunktionalen Facetten des Perfektionismus konnte mittels zweifaktoriellen Kovarianzanalysen (Gruppe, Zeit, Baseline als Kovariate) nicht nachgewiesen werden. Ein Grund hierfür könnte sein, dass der Interventionszeitraum von 10 Wochen nach der stationären Entlassung für eine effektive Nachsorge zu kurz bemessen wurde. Bzgl. einiger dysfunktionaler Perfektionismusskalen (Concern over Mistakes, Discrepancy, Socially Prescribed Perfectionism) zeigten sich kleinere Interaktionseffekte, die einen ersten Hinweis liefern, dass die eingesetzten SMS-Nachrichten Perfektionismus-bezogene Kognitionen verändern können. Da das vorgestellte Interventionsprogramm ein ökonomisches und niedrigschwelliges ambulantes Nachsorge-Konzept darstellt und sich erste Hinweise auf eine Wirksamkeit ergeben, wären für die Zukunft weitere Studien wünschenswert, die sich über einen längeren Interventionszeitraum erstrecken. Es sollten weitere Messinstrumente einbezogen und die Implementierung eines Feedbackprozesses erwogen werden.
In der vorliegenden Untersuchung stehen geometrische Aufgaben und die in den seit 2004 national verbindlichen Bildungsstandards im Fach Mathematik für den Primarbereich formulierten Anforderungsbereiche im Zentrum. Diese zeigen die kognitiven Anforderungen an Schülerinnen und Schüler bei der Bearbeitung von Aufgaben auf, wobei zwischen „Reproduzieren", „Zusammenhänge herstellen" und „Verallgemeinern und Reflektieren" unterschieden wird (KMK, 2005a, S. 13).
Durch die drei Anforderungsbereiche sollen Lehrkräfte unter anderem die Chance zur Entwicklung einer anforderungsbezogenen Aufgabenkultur erhalten. Des Weiteren soll die Integration von Aufgaben aus allen drei Anforderungsbereichen im Unterricht angeregt und einem einseitig ausgerichteten Unterricht entgegen gewirkt werden.
Da die Anforderungsbereiche bislang nicht empirisch validiert wurden und in den Veröffentlichungen der Kultusministerkonferenz nicht klar zur Schwierigkeit von Aufgaben abgegrenzt werden (KMK, 2005a, S. 13; KMK, 2005b, S. 17; KMK, 2004b, S. 13), wurde in der vorliegenden Untersuchung zum einen die Möglichkeit der eindeutigen Zuordnung geometrischer Aufgaben zu den drei Anforderungsbereichen geprüft.
Zum anderen wurde untersucht, inwiefern die in den geometrischen Aufgaben enthaltenen kognitiven Anforderungen in Zusammenhang mit der empirischen Schwierigkeit von Aufgaben, der mathematischen Leistungsfähigkeit von Schülerinnen und Schülern, dem Geschlecht und den Anforderungen der im Unterricht gestellten Aufgaben stehen.
Vor dem Hintergrund der dem deutschen Mathematikunterricht nachgesagten Kalkül- beziehungsweise Fertigkeitsorientierung (Baumert et al., 2001, S. 296; Granzer & Walther, 2008, S. 9) und den damit einhergehenden Stärken deutscher Schülerinnen und Schüler im Bereich von Routineaufgaben und Schwächen im Bereich von Aufgaben mit höheren kognitiven Anforderungen (Grassmann et al., 2014, S. 11; Reiss & Hammer, 2013, S. 82; Schütte, 2008, S. 41) wurde zudem die Verteilung der im Rahmen der Untersuchung gewonnenen, schriftlich fixierten geometrischen Schulbuch- und Unterrichtsaufgaben auf die drei Anforderungsbereiche analysiert.
Durch die Betrachtung geometrischer Aufgaben konnte stichprobenartig der quantitative Geometrieanteil in den Schulbüchern und im Unterricht der vierten Jahrgangsstufe ermittelt werden, um so den Forschungsstand zum Stellenwert des Geometrieunterrichts (Maier, 1999; Backe-Neuwald, 2000; Roick, Gölitz & Hasselhorn, 2004) zu aktualisieren beziehungsweise zu ergänzen.
Gegenstand der Dissertation ist der Handlungsspielraum der schwarz-gelben Bundesregierung unter der Führung Angela Merkels vor dem Hintergrund der Staatsschuldenkrise im Euroraum von 2009 bis 2013. Ausgehend von der Hypothese, dass sich im Rahmen von Krisen der Bewegungskorridor von Regierungen verringert, wurden strukturelle, inhaltliche und prozessuale Beschränkungen der Bundesregierung in der 17. Legislaturperiode mittels qualitativer und quantitativer Methoden untersucht. Im Ergebnis konnte seit Ausbruch der Eurokrise eine Reduzierung der Handlungsmöglichkeiten der Exekutive festgestellt werden.
Die laserinduzierte Plasmaspektroskopie (”Laser Induced Breakdown Spectroscopy”, im Folgenden auch ”LIBS” genannt) stellt eine schnelle und berührungslose Messmethode zur Elementanalyse von festen, flüssigen oder gasförmigen Stoffen unter normalen Umgebungsbedingungen ohne besondere Probenvorbereitung dar. Dazu wird ein gepulster Laser, dessen Intensität einen bestimmten Grenzwert überschreiten muss, auf eine Probe fokussiert. Das dort bestrahlte Material verdampft schlagartig und es bildet sich bei einer Temperatur von rund 10000 K ein Plasma aus. Die angeregten Atome und Ionen im Plasma strahlen bei der Rückkehr in energetisch niedrigere Zustände ein charakteristisches optisches Emissionsspektrum ab, welches über eine schnelle spektroskopische Analyse die Elementzusammensetzung des untersuchten Materials liefert. LIBS bietet in diesem Fall auch die Möglichkeit, ein unkompliziertes und bildgebendes Messverfahren aufzubauen, indem Elementverteilungen auf einer topographischen Oberfläche analysiert werden, um beispielsweise Materialübergänge, Einschlüsse oder Verschmutzungen sicher zu detektieren. Bei unebenen Oberflächen wird eine ständige Anpassung des Laserfokus an die Probenkontur benötigt, da die notwendige Intensität zur Erzeugung des Plasmas nur im Fokus aufgebracht werden kann. Als Grundlage dafür dient ein neu entwickelter Fokussieralgorithmus, der ohne jegliche Zusatzgeräte auskommt, und die Reproduzierbarkeit von LIBS-Messungen deutlich steigern kann, da die Messungen kontrolliert im Fokus stattfinden. Durch ihn ergeben sich neue Möglichkeiten des sogenannten „Element-Mappings", dem Erzeugen von Elementlandkarten, welche die Elementverteilungen in Falschfarben grafisch darstellen. Dabei ist das System nun nicht mehr auf eine ebene Oberfläche angewiesen, sondern kann beliebige Strukturen, auch mit scharfen Kanten und Löchern, sicher vermessen. Als Ergebnis erhält man ein flächiges Höhenprofil, welches zusätzlich die Elementinformationen für jeden Messpunkt beinhaltet. Dies erleichtert es dem Benutzer, gezielt Punkte von Interesse schnell wiederzufinden und zu analysieren. Die vorliegende Arbeit beschreibt die Entwicklung eines bildgebenden Low-Power-LIBSSystems mit niedriger Pulsenergie und hoher Pulsrate, welches sich mit dem dazugehörigen
Fokussieralgorithmus automatisiert an unebene Probenoberflächen anpassen kann. Als Ergebnisse werden die Analysen von ausgewählten metallhaltigen, geologischen, organischen und archäologischen Proben bzw. Fundstücken gezeigt.
Risiko-Träger Controlling: Identifizierung und Bewältigungsoptionen im Kontext dialogischer Führung
(2016)
Innerhalb des organisationalen Führungsgeschehens nimmt das institutionalisierte Controlling eine Reihe von Aufgaben und Funktionen ein. Unter anderem sollen dessen Akteure die risiko- bzw. zielorientierte Steuerung der Organisation absichern. Die Frage nach Risiken im Controlling wird dabei nicht erkennbar gestellt. Diesen blinden Fleck greift die Forschungsarbeit auf und verfolgt das Ziel, das Controlling als Bestandteil des organisationalen Führungsgeschehens als Risiko-Träger zu identifizieren und Bewältigungsoptionen im Kontext der dialogischen Führung aufzuzeigen.
Externe Repräsentationen spielen eine wichtige Rolle für die Lösung von mathematischen Textaufgaben. Die vorliegende Studie untersucht die Effekte bereitgestellter Repräsentationen beim Lösen problemhaltiger Textaufgaben in der Grundschule. Insbesondere problemhaltige Textaufgaben sind für Schüler anspruchsvoll, da sie nicht direkt mit den eingeübten und routinierten Rechenoperationen gelöst werden können. Sie zeichnen sich dadurch aus, dass sich der Lösungsweg nicht auf einen Blick erschließt, die mathematische Grundstruktur daher zunächst erkannt, entfaltet und verstanden werden muss und häufig mehrere Aufgabenbedingungen bei der Planung und Beschreitung des Lösungswegs bedacht und verarbeitet werden müssen. Um diesen komplexen Anforderungen begegnen zu können, benötigen Schüler die Fähigkeit, das Problem adäquat zu repräsentieren. Dabei können verschiedene Darstellungsformen wie Zeichnungen und Tabellen verwendet werden, die dann als Werkzeuge für die kognitiven Lösungsprozesse dienen. Da Grundschüler von sich aus häufig keine externen Repräsentationen erstellen, geht die vorliegende Studie den Fragen nach, (1) ob vorgefertigte Repräsentationen das Problemlösen verbessern und erleichtern, (2) ob sich eine Auseinandersetzung mit vorgefertigten Tabellen und Zeichnungen auch auf späteres Problemlösen ohne bereitgestellte Hilfsmittel auswirkt, (3) welche Repräsentationsform (Zeichnung oder Tabelle) und (4) wie viel Vorstrukturierung der bereitgestellten Repräsentation dabei hilfreicher ist. In einem experimentellen Studiendesign arbeiteten 199 Viertklässler an unterschiedlichen problemhaltigen Textaufgaben. Das Design bestand aus drei Tests: (1) Vor-, (2) Treatment- und (3) Transfertest. Im Vortest wurde die Ausgangsleistung der Probanden bei problemhaltigen Textaufgaben gemessen. Im Treatment-Test wurde die Performance beim Problemlösen mit vorgegebenen Repräsentationen erhoben: Probanden der Experimentalgruppe erhielten Zeichnungen und Tabellen in unterschiedlichen Vorstrukturierungsgraden zu den Aufgaben (Intervention), eine Kontrollgruppe erhielt keine Repräsentationen. Im Transfertest bearbeiteten die Teilnehmer vergleichbare Aufgaben wiederum ohne vorgegebene Repräsentationen, um die Problemlöse-Performance nach der Intervention zu messen. Die Ergebnisse zeigten erstens, dass die bereitgestellten Repräsenta-tionen entgegen der Annahme die Problemlöseprozesse insgesamt nicht verbessert und erleichtert haben. Zweitens: Wurde eine Repräsentation bereitgestellt, war eine Zeichnung wie angenommen hilfreicher als eine Tabelle. Jedoch war dieser Effekt abhängig vom Problemtyp und vom Grad der Vorstrukturierung. Offensichtlich genügte es nicht, Zeichnungen und Tabellen einfach nur bereitzustellen, da die Probanden vielfach Schwierigkeiten bei der Interpretation und adäquaten Verwendung der Repräsentationen hatten. Dies spricht für die Notwendigkeit eines Trainings zur Ausbildung und Förderung einer frühen „diagram literacy“ bereits bei Grundschülern.
In jüngerer Vergangenheit erlebt der zumeist auf Michel Foucault zurückgeführte Begriff des 'Dispositivs' – ähnlich wie zuvor der des 'Diskurses' – eine regelrechte Konjunktur in den Geistes-, Sozial- und Kulturwissenschaften. Seine Verwendung weist jedoch eine Reihe von Verkürzungen und Entstellungen auf; so werden damit recht pauschal meist bloß die architekturalen und/oder räumlichen Umstände bzw. Kontexte sozialer, medialer oder anderer Situationen bezeichnet, ohne die für Foucault so wichtigen Fragen nach Wissen, Macht und Subjektivität zu beachten. So gerät der Begriff in Gefahr, seine theoretische und analytische Potenz einzubüßen.
In „Im Dispositiv. Macht, Medium, Wissen“ legt die Autorin daher in einem ersten Schritt eine Präzisierung des Dispositivbegriffs vor, der den zugrundeliegenden Theoriehorizont Foucaults systematisch miteinbezieht. Dazu werden zunächst diskurstheoretische Grundlagen erläutert und anschließend deren strukturelle Analogien zu den machtanalytischen Befunden Foucaults mit Hilfe einer neuen Terminologie sichtbar gemacht.
Vor allem in den Medienwissenschaften ist der Begriff des Dispositivs prominent, um die gesellschaftliche Einbettung von Einzelmedien zu pointieren. Jedoch fällt auf, dass der dort in weiten Teilen vertretene Ansatz, Medien als Dispositive zu verstehen, den Blick auf medienspezifische Eigenlogiken verstellt. In einem zweiten Schritt weist die Autorin daher die strukturellen Analogien von Medialität, Wissen und Macht auf und kommt so zu einem integrativen Dispositivkonzept, das die drei Sphären als dynamisch miteinander verknüpfte, interdependente und reziproke Felder von Kultur modelliert.
Die vorliegende Arbeit beschäftigt sich mit der Fragestellung, wie eine repräsentative und aussagekräftige Vergleichbarkeit hinsichtlich der Nachhaltigkeitsleistung (Ökoeffizienz) von Unternehmen branchenunabhängig gewährleistet werden kann trotz der Problematik der Definition repräsentativer Bewertungskriterien der Nachhaltigkeit, sowie der Heterogenität der zu bewertenden Branchen. Bisherige Konzepte zu Umwelt- und Nachhaltigkeitsmanagementsystemen (z.B. EMAS, ISO 14000, ISO 26000, EMASplus), zur Umweltleistungsmessung sowie zur Nachhaltigkeitsbewertung und -berichterstattung (z.B. DNK, GRI) sind mit ihren branchenunabhängigen Formulierung zu allgemein gehalten, um für eine konkrete effizienzorientierte Messung nachhaltigen Wirtschaftens von Unternehmen geeignet zu sein.
Folglich besteht kein System zur Messung der Umweltleistung, um den Forschungsbedarf der Herstellung einer aussagekräftigen Vergleichbarkeit der Ressourcen- und Energieverbräuche der Betriebe einer heterogenen Branche zu begegnen. Angesichts dessen wurde im Rahmen der Arbeit eine allgemeine und branchenunabhängig anwendbare aber dennoch –spezifische Methodik zur Herstellung der Vergleichbarkeit von Unternehmen einer Branche hinsichtlich der Ressourcen- und Energieeffizienz entwickelt. Dabei stellt der Kern der Methodik die Generierung eines betriebsindividuellen Gesamtgewichtungsfaktors dar (GGF-Konzept), welcher als Operationalisierung der Vergleichbarkeit angesehen werden kann und damit der Problematik der Heterogenität begegnet. Die Ermittlung von Kriteriengewichtungen im Rahmen des GGF-Konzeptes kann in Analogie zu einem Entscheidungsproblem bei Mehrfachzielsetzung (Multi Criteria Decision Making – MCDM) gesehen werden, da mehrere Kriterien und Sub-Kriterien zueinander in Relation gesetzt werden mussten. Infolgedessen stellte sich der Analytische-Hierarchie-Prozess als das geeignete Verfahren im Rahmen der Methodikentwicklung heraus. Anwendung fand die Methodik in einem ersten empirischen Test anhand einer ausgewählten Stichprobe von 40 Wäschereibetrieben. Dabei zeigten die Ergebnisse auf, dass repräsentatives sowie aussagekräftiges betriebsindividuelles Benchmarking der Ressourcen- und Energieverbräuche völlig unterschiedlicher und bislang nicht vergleichbarer Betriebe möglich wurde. Hierfür mussten zunächst branchenspezifische repräsentative Bewertungskriterien der Ressourcen- und Energieeffizienz bestimmt werden. Abschließend konnten betriebsspezifische Brennpunkte identifiziert und somit Handlungsempfehlungen zur Optimierung der Ressourcen- und Energieeffizienz der Wäschereibetriebe abgeleitet werden, sodass eine zielorientierte Reduzierung des Ressourcen- und Energieverbrauchs folgen kann.
Die (un-)kontrollierte Ausbringung von Abwasser aus der Olivenölproduktion (OMW) kann sich sowohl positiv als auch negativ auf die Bodenqualität auswirken. Dabei stellt unter anderem die Verringerung der Benetzbarkeit des Bodens infolge der Ausbringung ein schwerwiegendes Problem dar. Die Auswirkungen der Ausbringung von Abwässern aus der Olivenölproduktion auf Böden zu charakterisieren und die Mechanismen zu untersuchen, die in Verbindung mit der Veränderung der Qualität der organischen Substanz in Abhängigkeit der klimatischen Bedingungen zu einer verringerten Benetzbarkeit des Bodens führen, war Ziel dieser Arbeit. Zu diesem Zweck wurden in Form einer Screening-Studie die Qualität der organischen Bodensubstanz sowie positive und negative Effekte unkontrollierter Ausbringungen bestimmt. Anschließend wurde ein OMW-behandelter, toniger Lehmboden bei vier unterschiedlichen Bodenfeuchten- und Temperaturen inkubiert und ein Feldexperiment in Israel durchgeführt, um die Auswirkungen der OMW-Ausbringung in Abhängigkeit der klimatischen Bedingungen zu untersuchen. Im Fokus stand dabei die Hypothese, dass unter nass-heißen Bedingungen aufgrund eines zügigen Abbaus der organischen Substanz kaum negative Auswirkungen zu erwarten waren. Zur Überprüfung dieser Hypothese wurden neben allgemeinen Bodenparametern (pH, elektr. Leitfähigkeit, Gesamtkohlenstoff, löslicher organischer Kohlenstoff, spezifische UV-Absorption) phenolische Verbindungen, Kohlenstoffisotopenverhältnis, Wassereindringzeit und Kontaktwinkel sowie thermische Stabilität und Brennwert der labilen und stabilen Kohlenstofffraktion ermittelt.
Zusammenfassend wurde festgestellt, dass die verringerte Benetzbarkeit OMW-behandelter Böden entsprechend dem vorgeschlagenen Mechanismus von den klimatischen Bedingungen und damit dem Ausbringungszeitpunkt abhängt. Unter trocken-heißen Bedingungen war die Benetzbarkeit des Bodens sowohl im Feld als auch im Labor am stärksten beeinträchtigt. Die thermische Analyse zeigt, dass hierfür wahrscheinlich Substanzen der stabilen Kohlenstofffraktion mit erhöhtem Brennwert verantwortlich sind. Mit höherer Temperatur und insbesondere höherer Bodenfeuchte wurde ein zunehmender Abbau der organischen Substanz des OMW in Verbindung mit einer verbesserten Benetzbarkeit beobachtet. Jedoch kann eine zu intensive Bewässerung oder starker Niederschlag, z.B. im Winter, zu einer Auswaschung von phenolischen Inhaltsstoffen des OMW führen, welche eine Gefährdung des Grundwassers darstellen können.
Gleichzeitig hat eine Ausbringung positive Effekte auf den Boden, z.B. durch Zufuhr organischer und anorganischer Nährstoffe. Aufgrund der Ergebnisse stellt die kontrollierte Ausbringung von OMW eine alternative, kostengünstige und nachhaltige Abfallverwendung in Form von Dünger dar. Jedoch sollte, anstatt des bisherigen Ausbringungszeitraumes Winter, das OMW gelagert und erst nach dem letzten Niederschlag am besten unter regelmäßiger Bewässerung ausgebracht werden, um negative Auswirkungen auf den Boden zu vermeiden und von den positiven Effekten zu profitieren.
In der vorliegenden Arbeit werden gamebasierte touristische Anwendungen untersucht.
Ausgehend von der These, dass für touristisches Freizeiterleben primär intrinsisch motivierende Anwendungen geeignet sind, werden zunächst intrinsische Motivationskonzepte untersucht. Dazu wird untersucht, wie Motivation gezielt herbeigeführt werden kann und ob sich gamebasierte Motivationskonzepte auf nichtspielerische Anwendungen übertragen lassen.
Darauf aufbauend wurden im Rahmen dieser Arbeit verschiedene touristische Anwendungen entwickelt und evaluiert. Ziel dieser Anwendungen ist es stets, einen Mehrwert für das touristische Freizeiterleben zu erzeugen. Die Anwendungen werden nach ihrer Mobilität kategorisiert. Es werden vollständig mobile, vollständig stationäre und hybride Systeme untersucht. Als Mehrwertkomponenten werden in dieser Arbeit spielbasierte Exploration einer Umgebung, Wissensvermittlung und soziale Interaktion zwischen Touristen untersucht.
Abschließend wird ein Autorentool für spielbasierte touristische Touren auf Smartphones entwickelt und untersucht, das seinerseits auf spielbasierte Elemente zurückgreift. Das Ziel dieses Systems ist es, Konzepte zu entwickeln, die beispielsweise eine Integration in soziale Netzwerke erlauben.
Diese Arbeit betrachtet das Thema Führung und Gesundheit und hat hierzu verschiedene Erkenntnisse der Literatur zusammengefasst, um diese von Führungskräften aus Wirtschaft und Polizei sowie von Personal- und Organisationsentwicklern bewerten zu lassen. Das Ziel war hierbei herauszufinden, ob die Führungskräfte und die Personal- und Organisationsentwickler das Thema als wichtig erachten, welche Hauptursachen sie für Fehlzeiten sehen und wie sie verschiedene Erkenntnisse der Literatur zum Gesundheitsmanagement einschätzen. Zusätzlich sollten sie bewerten, welche Maßnahmen sie als geeignet betrachten und welche Ressourcen notwendig sind, um die Mitarbeiter bei der Gesunderhaltung zu unterstützen. Schließlich sollten die Führungskräfte und die Personal- und Organisationsentwickler beurteilen, welcher Führungsstil als gesundheitsförderlich angesehen wird. Die Wirtschafts- und Polizeiführungskräfte sowie die Personal- und Organisationsentwickler erachten das Thema Gesundheit als wichtig und sehen es nicht nur als Modetrend an. Ihre Einschätzungen zu geeigneten Maßnahmen, die die Gesundheit der Mitarbeiter verbessern können, entsprechen überwiegend den aus der Literatur abgeleiteten Vorschlägen zur gesundheitsgerechten Führung. Die weitgehende Übereinstimmung der Sichtweisen in Forschung und Praxis legt nahe, dass die Erkenntnisse der Literatur zum Gesundheitsmanagement vermutlich von Praktikern als plausibel wahrgenommen werden.
Massenprozessmanagement
(2015)
Vorliegende Dissertation beantwortet die Forschungsfrage, welche grundlegend geeigneten Vorgehensweisen und notwendigen Informationstechnologien für das Management von hohen Anzahlen an Geschäftsprozessen (Mass Process Management, MBPM) in Dienstleistungsun-ternehmen zu berücksichtigen sind. Es konnte gezeigt werden, dass zur Bearbeitung von Massenprozessen eine spezielle, Methoden aus der Fertigungsindustrie verwendende Vorgehensweise notwendig ist. Das Forschungsziel, die Entwicklung einer MBPM-Vorgehensweise für Dienstleistungsunternehmen, wurde unter Anwendung des Forschungsansatzes Design Science Research erreicht und wird in der Dissertation in aufeinander aufbauenden Schritten erläutert. Zur Entwicklung der MBPM-Vorgehensweise wurde eine Langzeit-Tiefenfallstudie bei einem Prozess-Outsourcing-Dienstleister erstellt, um aus dessen Vorgehen Erkenntnisse zu gewinnen. Outsourcing-Unternehmen müssen ihre Dienstleistungen (Produkte) besonders effizient und effektiv erstellen, da sie sonst ihre Produkte nicht zu attraktiven Konditionen anbieten können. Es hat sich gezeigt, dass die fabrikorientierte Vorgehensweise des Outsourcing-Dienstleisters über den Betrachtungszeitraum von zehn Jahren dazu geeignet war, hohe Prozessmengen in höchster Qualität, zu stets sinkenden Preisen mit immer weniger Personen zu bearbeiten.
Der vermutete Forschungsbedarf in Bezug auf MBPM konnte auf Basis einer intensiven Literaturrecherche über das Zeitschriftenrating VHB-JOURQUAL und weitere Literaturquellen bestätigt werden. Da Vorgehensweisen für die Einführung von BPM in einer Vielzahl gefunden wurden, wurde eine Auswahl an BPM-Vorgehensweisen analysiert, um weitere Erkenntnisse für die Erstellung der MBPM-Vorgehensweise zu gewinnen. Durch die Analyse und den Vergleich der verschiedenen BPM-Vorgehensweisen aber auch durch den Vergleich mit dem Vorgehen des Prozess-Outsourcing-Dienstleisters stellte sich heraus, dass sich BPM und MBPM in zahlreichen Aspekten voneinander unterscheiden. MBPM hat einen stark operativen Fokus und benötigt intensive Unterstützung durch Informationstechnologie. Der operative Fokus zeigt sich vor allem in der für das MBPM notwendigen operativen Steuerung von Prozessen und Menschen und den damit einhergehenden hohen Anforderungen an Prozesstransparenz. Mit detailliertem Prozessmonitoring und feingranularen Prozessmessungen sowie zeitnahem Reporting wird diese Prozesstransparenz erreicht. Informationstechnologie wird benötigt, um bspw. Prozessmonitoring zeitnah durchzuführen aber auch um internen wie externen Anspruchstellern zu jeder Zeit den gewünschten Überblick zur aktuellen Auslastung aber auch zur Abrechnung der Dienstleistungen gewähren zu können.
Es konnte entgegen des Vorgehens des Prozess-Outsourcing-Dienstleisters gezeigt werden, dass Change Management die Einführung, den dauerhaften Betrieb und den mit MBPM verbundenen stetigen Wandel in positiver Weise beeinflussen kann.
Der Mittelstand ist das Rückgrat der deutschen Wirtschaft. Um erfolgreich agieren zu können, benötigt er geeignete Finanzierung in ausreichendem Umfang. Was aber zeichnet eine geeignete Finanzierung aus Sicht des Kapitalnehmers aus? Trotz der volkswirtschaftlichen Relevanz des Themas gibt es nur wenige empirische Studien über das Finanzierungsverhalten des Mittelstandes. Für diese Arbeit wurden sämtliche deutsche, mit PREPS finanzierte Unternehmen zur Teilnahme an einer Online-Befragung eingeladen. PREPS ist eine standardisierte mezzanine Finanzierung, die großen mittelständischen, bonitätsstarken Unternehmen angeboten wurde und mehrheitlich als Wachstumsfinanzierung verwendet wurde. Die finanzierten Unternehmen sind als Forschungsgegenstand besonders interessant, weil sie innerhalb des Mittelstandes aufgrund ihrer Größe und Bonität die breiteste Auswahl bei Finanzierungsentscheidungen haben. Finanzierungsinstrumente unterscheiden sich in der Ausgestaltung von ihren Rechten und Pflichten. Je nach Ausgestaltung kann eine Finanzierung neben der offensichtlichen Liquiditätsfunktion unterschiedliche weitere Funktionen wahrnehmen wie die Transformations-, Verhaltensbeeinflussungs- oder auch die Informationsfunktion. Die Haupthypothese dieser Arbeit ist, dass sich die finanzierten Unternehmen aus unterschiedlichen Gründen für dasselbe Finanzierungsinstrument entschieden haben und dass sich die unterschiedliche Wertschätzung der verschiedenen Eigenschaften des Finanzierungsinstruments aus unternehmens- und situationsspezifischen Besonderheiten ergeben. In den einzelnen Hypothesen über konkrete Zusammenhänge zwischen spezifischen Einflussfaktoren und Wertschätzungen von Finanzierungseigenschaften werden sowohl die zentralen Aussagen aus den Kapitalstrukturtheorien als auch aktuelle empirische Erkenntnisse zum Finanzierungsverhalten aufgegriffen und detailliert untersucht. Darüber hinaus wird einigen explorativen Hypothesen nachgegangen.
Die Basis für die Untersuchung bilden die theoretischen Erkenntnisse zur Transition und zum Fremdsprachenunterricht. In der Studie wurden saarländische Grundschullehrer und Gymnasiallehrer zu für den Fremdsprachenunterricht relevanten Aspekten befragt. Aus den Ergebnissen wurden Konsequenzen für die Bildungspolitik und die Unterrichtspraxis abgeleitet.
Die vorliegende Forschungsarbeit beschäftigt sich mit der Positionierung und anbieterinternen Kommunikation der innovativen IT-Architektur SOA. Die zentralen Ziele der vorliegenden explorativen und empirischen Forschungsarbeit, die im Kontext der Innovations-Erfolgsfaktorenforschung angesiedelt ist, bestehen in der Beantwor-tung der beiden folgenden forschungsleitenden Fragestellungen:
Forschungsfrage 1: Welche Bedingungen tragen zu einer erfolgreichen Positionierung von SOA bei? Forschungsfrage 2: Welche Bedingungen tragen zu einer erfolgreichen anbieterinternen Kommunikation bezüglich SOA bei? Zur Überprüfung dieser beiden Forschungsfragen wurde ein zweistufiges Delphi-Verfahren durchgeführt. Hierbei wurde zunächst eine qualitative Befragungswelle (N=53) zur Identifizierung der SOA-Positionierungsbedingungen und anbieterinternen SOA-Kommunikations-bedingungen durchgeführt. Insgesamt wurden in der ersten Befragungswelle 122 SOA-Positionierungsbedingungen identifiziert, die sich in 65 Bedingungen auf Anbieterseite, 35 Bedingungen auf Kundenseite, 19 Bedingungen auf SOA-Seite und 3 Bedingungen aufseiten des weiteren Umfeldes aufteilen. Im Rahmen der anbieterinternen SOA-Kommunikation konnten 31 Bedingungen identifiziert werden. Die in der ersten Welle identifizierten SOA-Positionie-rungsbedingungen und anbieterinternen SOA-Kommunikationsbedingungen wurden mittels der zweiten Befragungswelle (N=83) einer quantitativen Analyse unterzogen. Somit liefert die vorliegende Studie Bedingungen, die sowohl zu einer erfolgreichen SOA-Positionierung als auch zu einer erfolgreichen anbieterinternen SOA-Kommunikation beitragen.
Die Resultate dieser Arbeit werden zusammengefasst und theoretisch eingeordnet. Ebenfalls wird die methodische Vorgehensweise kritisch diskutiert und die Güte der Daten beurteilt. Schließlich wird ein Ausblick auf zukünftige Forschungsfelder gegeben.
Virtueller Konsum - Warenkörbe, Wägungsschemata und Verbraucherpreisindizes in virtuellen Welten
(2015)
Virtuelle Welten sind seit ungefähr einem Jahrzehnt in den Fokus der wissenschaftlichen Auseinandersetzung gerückt. Zahlreiche Disziplinen, wie die Rechtswissenschaften, die Soziologie, die Psychologie oder die Pädagogik, diskutieren verschiedenste Phänomene, welche die Interaktion der Menschen innerhalb von virtuellen Welten betreffen. Auch die Volkswirtschaftslehre ist auf diese virtuellen Umgebungen aufmerksam geworden.
Die vorliegende Arbeit setzt sich mit den ökonomischen Vorgängen innerhalb virtueller Welten auseinander. Im Fokus stehen dabei die vier Welten World of Warcraft, RuneScape, Entropia Universe und Second Life. Das "Dach" der Untersuchungen in dieser Arbeit bildet dabei der Verbraucherpreisindex, welcher in der realen Welt dazu dient, die Preisentwicklung von Konsumgütern zu berechnen. Zur Berechnung des Verbraucherpreisindexes werden drei Komponenten herangezogen: Warenkorb, Wägungsschema und die jeweiligen Güterpreise. Der Schwerpunkt dieser Arbeit besteht vor allem darin, diese Komponenten für virtuelle Welten zu identifizieren und eine vergleichbare Berechnung für virtuelle Welten exemplarisch zu ermöglichen. Mit der Übertragung der Werkzeuge der Wirtschaftsstatistik auf virtuelle Welten sind neben den inhaltlichen Erkenntnissen insbesondere die methodische Bewertung und Diskussion von Interesse. Schließlich trägt die Arbeit dazu bei, den Konsum in virtuellen Welten in eine Ordnung zu bringen, erste Konsumschwerpunkte aufzuzeigen und die diesbezüglichen Abweichungen zur realen Welt herauszuarbeiten. Dadurch wird die Basis gelegt, um neben den in dieser Arbeit angestoßenen Untersuchungen weitere volkswirtschaftlich, aber auch soziologisch verankerte Fragestellungen zu ermöglichen. Im Vordergrund steht dabei insbesondere die Auseinandersetzung mit und Begründung von Konsummotiven in virtuellen Welten. Gleichzeitig werden die Herausforderungen, welche sich bei der praktischen Umsetzung der erforderlichen Maßnahmen ergeben, aufgezeigt. Die diesbezüglichen Erkenntnisse sind geeignet, um als Grundlage für künftige Analysen zu dienen, um beispielsweise die Erhebung von Konsumausgaben oder die Aufzeichnung von Preisen und deren Entwicklungen für virtuelle Welten noch fundierter und mit noch engerem Bezug zur realen Welt durchführen und bewerten zu können.
Der demografische Wandel zwingt Unternehmen im sozialen Bereich, die noch mehr Schwierigkeiten haben als andere Firmen, qualifizierte Kräfte zu rekrutieren und zu binden, sich mit der Erhöhung der Mitarbeiterzufriedenheit auseinanderzusetzen.
Diese Forschungsarbeit untersucht die Zusammenhänge zwischen dialogischem Management in der Beziehung zwischen der direkten Führungskraft und ihren Mitarbeitern zu der Mitarbeiterzufriedenheit. Dabei wurden die Persönlichkeitspräferenzen der Führungskraft und des Mitarbeiters in der Wahrnehmung des Mitarbeiters gemessen. Als Persönlichkeitspräferenzen wurden unterschieden: harmoniesuchende Beziehungs-Präferenz versus dominanter Autonomie-Präferenz zu erlebnishungrige Stimulanz-Präferenz versus kontrollierender Balance-Präferenz nach Riemann 1999 und Paschen/Dihsmaier 2011.
Für die empirische Forschung wurde bei den Samariteranstalten Fürstenwalde/Spree eine Fragebogenumfrage mit 364 Teilnehmern von 560 Mitarbeitern durchgeführt. In dieser Forschungsarbeit wurden signifikante Zusammenhänge zwischen der Zufriedenheit der Mitarbeiter mit ihrer Führungskraft und deren dialogischen Kompetenzen, sowie der Kompetenz, Vertrauen zu erzeugen und Wertschätzung zu verbreiten, festgestellt. Es wurden außerdem Unterschiede zwischen der Mitarbeiterzufriedenheit und den wahrgenommenen psychologischen Präferenzen der Mitarbeiter und den vom Mitarbeiter wahrgenommenen Präferenzen der Führungskräfte festgestellt. Hierbei konnte festgestellt werden, dass beziehungsorientierte Führungskräfte eine deutlich höhere Dialogbereitschaft mitbringen als autonomieorientierte Führungskräfte. In dieser Konstellation lag die Zufriedenheit der Mitarbeiter bei diesen Führungskräften deutlich höher als bei den autonomieorientiert wahrgenommenen Führungskräften.Ferner wurde bei den stimulanz- und beziehungsorientierten Mitarbeitern ein höherer Zusammenhang zwischen der Zufriedenheit und dem dialogischem Verhalten der Führungskraft festgestellt als bei den Mitarbeitern mit einer Autonomie- oder Balance-Präferenz.
Die höchsten Zufriedenheitswerte konnten bei beziehungsorientierten Mitarbeitern festgestellt werden, die ihre Führungskräfte ebenfalls als beziehungsorientiert einschätzen. Für die Einführung eines dialogischen Managements in Unternehmen bedeutet dies, dass zunächst das Fundament eines dialogischen Denkens und Handelns bei Führungskräften und Mitarbeitern bereitet werden muss, das sich auf Vertrauen und Wertschätzung stützt. In diesem Zusammenhang sollten die beziehungsorientierten Ansätze von Führungskräften bei Einstellungsverfahren beachtet werden und bei der Personalentwicklung einen höheren Stellenwert bekommen.
Die UN-Behindertenrechtskonvention von 2008 formuliert einen Rechtsanspruch auf inklusive Bildung für Menschen mit Beeinträchtigungen. Diesem wird in Deutschland seit 2009 durch Schulgesetzänderungen Rechnung getragen, mit denen inklusive Bildung durch ein Elternwahlrecht implementiert wird. Bislang ist vor dem Hintergrund der neu geschaffenen elterlichen Entscheidungsmöglichkeiten noch nicht untersucht worden, welche Vorstellungen Eltern von Kindern mit komplexen Beeinträchtigungen mit dem inklusiven Bildungsanspruch ihres Kindes verbinden und in welcher Weise sie diesen an der Schulform ihrer Wahl eingelöst sehen. Im Zentrum der vorliegenden Arbeit steht die Rekonstruktion des Bildungsangebots aus der Perspektive der Eltern im Abgleich mit der Sicht der pädagogischen Klassenteams. Den Fragen nach den elterlichen Erwartungen und Erfahrungen wurde aus der systemtheoretischen Perspektive von Luhmann nachgegangen. In der qualitativ angelegten Untersuchung geht es um Schülerinnen und Schüler mit komplexen Beeinträchtigungen, die nach der Schulgesetznovellierung in Hamburg (2009) in den Jahren 2010 und 2011 eingeschult worden sind und aufgrund der Entscheidung ihrer Eltern in unterschiedlichen Settings an Grund- und Sonderschulen lernen. Die Datenerhebung erfolgte durch leitfadengestützte Interviews mit Eltern, Pädagoginnen und Pädagogen sowie Schulleitungen, ergänzt durch Hospitationen im Schuljahr 2011/12 und Dokumente, die von den Schulen zur Verfügung gestellt wurden. Die Datenanalyse erfolgt mithilfe der Grounded Theory nach Strauß/Corbin (1996). Die Ergebnisse der Untersuchung zeigen elterliche Bildungserwartungen im Hinblick auf ein Ermöglichen von Autonomie und Teilhabe ihrer Kinder und eine differenzierte Wahrnehmung der Umsetzung ihrer Erwartungen im Schulalltag. Einen besonderen Stellenwert messen Eltern der Zusammenarbeit zwischen Schule und Familie bei, die für das Entstehen von Vertrauen bzw. Misstrauen bedeutsam ist. Aus den Erkenntnissen und deren Rückbindung an die Systemtheorie wurde ein Modell des Professionsvertrauens/-misstrauens entwickelt.
Die Auswertung ergibt Hinweise zu Qualitätskriterien eines inklusiven Bildungsangebots und zu Entwicklungsanforderungen in der Professionalisierung, die sowohl auf die Ebene der Organisation Schule als auch der Interaktion zwischen schulischen Akteurinnen und Akteuren sowie Eltern abzielen.
Animationen können in instruktionalen Kontexten genutzt werden, um Wissen über Sachverhalte zu vermitteln, die Prozesse oder Abläufe beinhalten. So können dynamische Sachverhalte explizit dargestellt werden und müssen nicht vom Lerner selbst in Gedanken hergestellt, sondern nur anhand der Animation nachvollzogen werden. Dies sollte sich positiv auf den Wissenserwerb auswirken. Dabei stellen Animationen mit ihrer besonderen Eigenschaft der Darstellung zeitlicher Abläufe besondere Herausforderungen an den Lerner. Das menschliche Informationsverarbeitungssystem unterliegt bestimmten Begrenzungen im Hinblick auf die Wahrnehmung von Geschwindigkeiten. Zu schnelle und zu langsame Geschwindigkeiten können beispielsweise nur schwer wahrgenommen und dementsprechend auch nicht kognitiv verarbeitet werden. Die Zielsetzung der Arbeit, die sich daraus ergibt, war eine systematische Untersuchung der Wirkung unterschiedlicher Präsentationsgeschwindigkeiten auf das Wahrnehmen und Verstehen eines dynamischen Sachverhaltes anhand einer Animation.
Um die Fragestellungen der Arbeit beantworten zu können, wurden vier experimentelle Studien durchgeführt. Die Pilotstudie hatte das Ziel, sowohl das Lernmaterial als auch den entwickelten Wissenstest zu evaluieren. In Studie 1 wurde der Frage nach dem Einfluss der Präsentationsgeschwindigkeit auf den Wissenserwerb beim Lernen mit einer interaktiven Animation nachgegangen.
Die Studien 2 und 3 untersuchten den Einfluss verschiedener Reihenfolgen von Geschwindigkeiten auf den Wissenserwerb. Hier ging es um eine systematische Erfassung der perzeptuellen und kognitiven Verarbeitung dynamischer Informationen in zwei verschiedenen Geschwindigkeiten mittels Blickbewegungsmessung (Studie 2) und wiederholten Testungen des Wissenserwerbs zwischen den einzelnen Lernphasen (Studie 3).
Die Ergebnisse der Studien deuten darauf hin, dass bei langsamer Geschwindigkeit Wissen über Ereignisse auf untergeordneter zeitlicher Ebene erworben wurde und dass je schneller eine Animation gesehen wurde, umso mehr anteiliges Wissen auf einer übergeordneten zeitlichen Ebene erworben wurde (Studie 1), aber eindeutige Aussagen über den Einfluss der Geschwindigkeit auf den Wissenserwerb auf verschiedenen zeitlichen Hierarchieebenen lassen sich aufgrund der Ergebnisse der Studien nicht machen. Im Hinblick auf die Lernförderlichkeit verschiedener Arten der Sequenzierung von Geschwindigkeiten zeigten sich auch keine eindeutigen Ergebnisse. Aufgrund der Analyse der Blickbewegungsdaten deutet sich jedoch an, dass die Reihenfolge "langsam - schnell" den Bedingungen auf Seiten der Lerner eher entgegen kommt als die Reihenfolge "schnell - langsam".
Die vorliegende Arbeit betrachtet den Einfluss von Wald- und Wirtschaftswegen auf Abflussentstehung und Bodenerosionsraten innerhalb eines bewaldeten Einzugsgebiets im Naturschutzgebiet Laacher See. Hierfür wurden sowohl bestehende Erosions- und Akkumulationsformen im Gelände kartiert, als auch Erosionssimulationen mittels einer Kleinberegnungsanlage durchgeführt. Zuletzt erfolgte eine Modellierung des Erosionspotentials auf Grundlage der Simulationsergebnisse.
Die Analyse bestehender Erosions- und Akkumulationsformen im Gelände gab einen Hinweis auf Bodenerosionsraten von Wegoberflächen, die zwischen 27,3 und 93,5 t ha-1 a-1 und somit in derselben Größenordnung wie Erosionsraten unter intensiver ackerbaulicher Nutzung lagen.
Die Simulationsläufe zeigten, dass persistente Waldwege ein deutlich verändertes Infiltrationsverhalten aufwiesen. Auf natürlichen Waldböden lag der Anteil des infiltrierten Niederschlags bei durchschnittlich 96%. Im Falle von Waldwegen nahm dieser Anteil im Mittel auf 14% bis 7% ab. Besonders auffällig waren die Ergebnisse auf Rückegassen, auf denen ein erheblicher Einfluss der Bodenverdichtung durch Befahrung nachgewiesen werden konnte. Hier sank der Anteil des infiltrierten Niederschlags auf 31% in den Fahrspuren, zwischen den Spuren wurden noch 76 % infiltriert.
Während der Simulationsläufe konnten maximale Sedimentmengen von 446 g m-2 erodiert werden, was einer mittleren Bodenerosionsrate von 4,96 g m-2 min-1 entspricht. Diese hohen Abtragsraten wurden auf persistenten Wegen mit geringer Befestigung gemessen. Rückegassen wiesen die geringsten Abtragswerte auf, maximal konnten 37 g m-2 erodiert werden, gleichbedeutend mit einer Abtragsrate von 0,41 g m-2 min-1. Die erodierten Sedimentmengen betrugen im Mittel bei Wegen 167 bis 319 g m-2 und im Falle von Rückegassen 17 g m-2. Anhand von Vergleichsmessungen auf Waldstandorten, bei denen ein mittlerer Bodenabtrag von ca. 5 g m-2 festgestellt wurde, konnte eine erhöhte Erodierbarkeit für jedwede Form der Weganlage bestätigt werden.
Auf Basis der im Gelände gemessenen Abtragsraten wurden die Modellierungen kalibriert. Die Ergebnisse der ABAG / DIN 19708 zeigten für das betrachtete Untersuchungsgebiet eine mittlere jährliche Bodenerosionsgefährdung von 2,4 - 5,8 t ha-1 a-1 für persistente Wege und von 0,5 t ha-1 a-1 für Rückegassen. Im Vergleich zum Mittelwert weitgehend unbeeinflusster Waldflächen im Untersuchungsgebiet von 0,1 t ha-1 a-1 zeigte sich abermals ein erhöhtes Abtragspotential. Die physikalisch basierte Modellierung der Beregnungsversuche mittels WEPP zeigte ein zufriedenstellendes Ergebnis bei der Einschätzung des Abflussverhaltens, so wurden für persistente Wege nur Abweichungen von maximal -5% festgestellt. Die Abflussmodellierung auf Rückegassen sowie die generelle Modellierung der Bodenerosion während der Beregnungsversuche zeigte sich im Kontrast hierzu noch fehlerbehaftet, was ursächlich mit der für ein physikalisches Modell relativ geringen Eingangsdatentiefe zu begründen ist.
Es wurde nachgewiesen, dass Waldwege einen bedeutenden Einfluss auf den Wasserhaushalt und das Bodenerosionsgeschehen haben. Der Rückhalt von Niederschlägen wird gemindert und es kommt zu intensivierten Bodenerosionsprozessen. Schlecht befestigte Wege zeigten einen stark erhöhten Bodenabtrag, der zu ökologischen Folgeschäden führen kann. Der Abtrag kann ebenso zu einer Beeinträchtigung der Befahrbarkeit führen. Anhand der Folgen lässt sich die Relevanz der Betrachtung von Abfluss- und Bodenerosionsprozessen auf Wald- und Wirtschaftswegen deutlich machen. Die vorliegende Arbeit stellt die erste Studie dar, innerhalb derer Abfluss- und Bodenerosionspozesse für Walderschließungsnetzwerke in Mitteleuropa untersucht wurden.
Die vorliegende Dissertation widmet sich dem Phänomen des Erlebens der Rezeption von audiovisuellen narrativen unterhaltenden Medieninhalten. Dieses wird zunächst in die Rezeptions- und Wirkungsforschung eingeordnet und für das weitere Vorgehen konkretisiert: Transportation und Narrative Engagement stellen aktuell die beiden wichtigsten Konzepte der Medienpsychologie bezüglich der Nutzung und Wirkung von Geschichten dar.
Anschließend werden drei Fragestellungen bearbeitet. Bisher standen Forscher und Forscherinnen vor dem Problem der Manipulation des Rezeptionserlebens. Daher wurden in der vorliegenden Arbeit zwei Verfahren vorgeschlagen und in vier experimentellen Studien geprüft. Der Einsatz von Rezensionen erwies sich als geeignet, um bei allen narrativen unterhaltenden Texten das Rezeptionserleben ökonomisch zu manipulieren. Weiterhin gibt es bislang kein etabliertes Verfahren zur rezeptionsbegleitenden Messung des Rezeptionserlebens.
In dieser Arbeit wurde ein Verfahren aus einer Kombination von Real Time Response Measurement (RTR), Secondary Task Reaction Times (STRT) und der Erhebung der Lidschlagfrequenz entwickelt. Vor allem RTR war in der Lage, die im Zusammenhang mit dem Rezeptionserleben auftretenden emotionalen Prozesse zu erfassen. Die Befürchtung, die rezeptionsbegleitenden Messmethoden könnten das Rezeptionserleben verhindern, wurde in einer weiteren experimentellen Studie größtenteils entkräftet. Zuletzt wurde der Prozess des Zusammenfassens des Rezeptionserlebens in ein postrezeptives Urteil thematisiert. Nach der Entwicklung eines Rahmenmodells der Beantwortung postrezeptiver Skalen wurde in einer weiteren Studie die Bedeutung verschiedener Verlaufsparameter für das postrezeptive Urteil untersucht. Vier ausgesuchte Parameter zusammen können das postrezeptive Urteil besser erklären als der Verlaufs-Mittelwert. Die Arbeit schließt mit einer Diskussion, in der unter anderem die dynamische und die postrezeptive Messung des Rezeptionserlebens aufeinanderrnbezogen werden und hinsichtlich ihrer Bedeutung kritische Würdigung erfahren.
Zentrale Aufgaben der Hochschule sind die Bewertung, die Ursachenklärung und die Förderung von Studienleistungen (Heublein & Wolter, 2011, S. 215). In diesem Kontext gilt neben intellektuellen Fähigkeiten die Leistungsmotivation als bedeutsamer Prädiktor für den akademischen Erfolg (z. B. Schmidt-Atzert, 2005, S. 132; Steinmayr & Spinath, 2009, S. 80). Im Fokus der vorliegenden Studie stehen deshalb Überlegungen zu Motivationsprozessen von 332 Studienanfängern der Hochschule der Bundesagentur für Arbeit und zu den Faktoren, die sich förderlich auf ihre Lernresultate auswirken. Mit einer Ausschöpfungsquote von 89 % sind die gewonnenen Daten für die Grundgesamtheit repräsentativ. Anhand einer Ex-post-facto-Versuchsanordnung in Form eines quantitativen Prädiktor-Kriteriums-Ansatzes (spezielle Variante eines Längsschnittdesigns) mit unterschiedlichen Erhebungsmethoden, wie standardisiertem Selbstbeurteilungsfragebogen, Leistungstests und offiziellen Dokumenten/Aktenmaterial, wurden folgende Forschungshypothesen zugrunde gelegt: Die Stärke der Leistungsmotivation ist sowohl von Erwartungskomponenten (Fähigkeitsselbstkonzept, Selbstwert, subjektive Notenerwartung, Erfolgszuversicht und Misserfolgsfurcht) als auch von Anreizkomponenten (Gegenstands-, Tätigkeits-, Folgenanreizen) abhängig, welche wiederum vermittelt über das leistungsmotivierte Verhalten einen Einfluss auf die Studienleistung besitzt. Dabei wurde postuliert, dass motivationale Variablen auch dann noch einen bedeutsamen Effekt auf die Studienleistung ausüben, wenn weitere Leistungsprädiktoren, wie die Schulabschlussnote, die Intelligenz, die emotionale Stabilität und die Gewissenhaftigkeit kontrolliert werden.
Die Studie befasst sich mit der Bildungsaspiration, der Wertevermittlung und -tradierung iranischstämmiger Familien in Deutschland. Ziel ist es, zu ermitteln, worauf die familiäre Bildungsaspiration zurückzuführen ist. Im Fokus der Fallstudie stehen drei Familien, die nach der Islamischen Revolution von 1979 aus ihrem Herkunftsland nach Deutschland immigriert sind. Es handelt sich um eine zweigenerationenperspektivische Befragung innerhalb einer Familie. Dies bedeutet, dass innerhalb einer Familie Einzelinterviews mit jeweils einer Person aus der Eltern- und Kindergeneration durchgeführt wurden. So werden gemeinsam erlebte Situationen, wie z.B. Flucht oder Teilhabe am deutschen Bildungssystem, oder Begriffe, wie z.B. Bildung oder Bildungserfolg, aus der jeweiligen Perspektive geschildert bzw. definiert. Darüber hinaus geben die Befragten Auskünfte über die Großelterngeneration, sodass das gesamte Datenmaterial Angaben über drei Generationen umfasst. Dieser qualitativen Exploration geht eine bundesweite Befragung voraus an der 70 Personen iranischer Herkunft teilnahmen. Weiterhin zeichnet sich die Arbeit durch einen ressourcenorientierten Forschungsansatz aus. Die erhobenen Daten geben Antwort auf die zentralen Fragen:
Auf welche Ursachen lässt sich Bildungsaspiration von immigrierten, iranischstämmigen Familien in Deutschland zurückführen?
Welche Rolle spielen die Sprachen des Herkunfts- und Einwanderungslandes in der Wertetradierung? In der Studie werden die individuellen Bildungsgeschichten der Befragten in den wissenschaftlichen Diskurs zur Bildungsaspiration, Bildungs-, Migrations- und Mehrsprachigkeitsforschung eingefügt. Hierbei wird ein interdisziplinäres und somit multiperspektivisches Theoriekonstrukt zugrunde gelegt, welches sich durch einen geschichts-, länder- und generationsübergreifenden Forschungsansatz auszeichnet. Ein zentrales Ergebnis ist, dass ein Verständnis für geschichtliche Entwicklungen im Herkunftsland erforderlich ist, um das Bildungsverhalten im iranischstämmigen Familienkontext nachzuvollziehen. Erst durch Kontextualisierung von individuellen und gesellschaftlichen Dimensionen kann nachvollzogen werden, warum im Falle dieser Minderheitengruppe geringes ökonomisches Kapital, das infolge von beruflichen Brüchen der Eltern nach ihrer Flucht im Einwanderungsland entstanden ist, keine negativen Auswirkungen auf die Entwicklung des kulturellen Kapitals der Folgegenerationen hat. Folglich zeigt die Studie, dass im Falle der interviewten Familien gängige Erklärungsmodelle, wie die Korrelation vom geringem ökonomischen Kapital und geringem kulturellen Kapital, nicht zutreffen. Vielmehr wird kulturelles Kapital von Generation zu Generation tradiert. Ein weiteres Ergebnis der Studie ist das erarbeitete Dreiebenen-Modell. Es umfasst geschichtlich-gesellschaftliche, politische sowie familiäre Entwicklungen und Einstellungen auf der Mikro-, Meso- und Makroebene. Damit ist eine Grundlage geschaffen, um das Tradierungsverhalten anderer Zuwanderungsgruppen zu erklären.
Der Begriff Gebrauchsgrafik ist im Wesentlichen ein Sammelbegriff für jene grafischen Arbeiten, die, im Gegensatz zur freien Grafik Anteil haben an der bewussten künstlerischen Durchformung und Gestaltung praktischer Aufgaben. Hauptbetätigungsfeld der Gebrauchsgrafik als zweckgebundene künstlerische Äußerungsform ist um 1900 die Reklame in Form von Plakaten, Anzeigen, Verpackungen, Firmensignets sowie Akzidenzen. Sie alle brachten den vielseitigen Formenschatz des Jugendstils einem breiten Publikum näher. Die Gebrauchsgrafik als neues Medium um 1900 steht im engen Zusammenhang mit dem technischen Fortschritt der industriellen Revolution: Angesichts zunehmender Konkurrenz durch die Massenproduktion von Konsumgütern versprach künstlerisch ansprechende Werbung Wettbewerbsvorteile. Dank der Erfindung der Lithografie um 1799 war die Gebrauchsgrafik allseitig verfügbar und gut finanzierbar. Sie passte in das Konzept des Jugendstils als Medium, das alle Bereiche mitgestaltet. Sie fungierte als Schnittstelle zwischen Wirtschaft, Kunst und Kultur. Exemplarisch werden drei unterschiedliche, für die Region bis heute bedeutende Branchen untersucht: der Tourismus, der Weinbau und die Industrie. Zudem werden Pfälzer Künstler des Jugendstils vorgestellt, die sich auf dem Gebiet der Gebrauchsgrafik betätigten. So lässt sich in der Pfalz eine repräsentative Anzahl gebrauchsgrafischer Arbeiten des Jugendstils in unterschiedlicher Ausprägung nachweisen. Als entlegene bayrische Provinz nahm sie die Strömungen der Zeit wahr und setzte sie auf ihre Weise um. Ein eigenständiger Pfälzer Jugendstil entwickelte sich aber nicht.
Studien zeigen einen hohen Anteil an gut ausgebildeten Frauen, auch weisen Untersuchungen über die Führungskompetenz mehr führungsstarke Frauen (jede 12.) als Männer (jeder 17.) auf. Diese Ergebnisse spiegeln sich jedoch nicht in der nur geringen Anzahl von Frauen in höheren Führungspositionen wieder, mit der Folge, dass diese Ressource damit ungenutzt bleibt. Wenn Mitarbeitende aber als bedeutsam für den Unternehmenserfolg angesehen werden, dann sollten ein optimaler Einsatz und eine bestmögliche Entwicklung selbstverständlich sein. Dieser Aspekt findet sich auch in der Politik zur Gleichbehandlung der Geschlechter wieder. Organisationen vernachlässigen Potential, wenn sie Frauen, die gut ausgebildet sind, nicht die Möglichkeiten geben, beruflich aufzusteigen. Gerade in der Sozialen Arbeit ist der Anteil der Frauen sehr hoch, dennoch kehrt sich diese Verhältnismäßigkeit, vor allem bei den höheren Führungspositionen wie Vorstände, Geschäftsführungen, Aufsichtsgremien, um. Im Rahmen der vorliegenden Dissertation werden förderliche und hemmende Faktoren im Erreichen einer Leitungsposition von Frauen analysiert. Der besondere Fokus ist dabei auf die obere Führungsebene in Organisationen der Sozialen Arbeit gerichtet, im Besonderen auf die Freie Wohlfahrtspflege. Ziel ist darüber hinaus die Darstellung von Handlungsimplikationen zur Förderung weiblicher Karrieren in der Sozialen Arbeit, als Beitrag zur besseren Nutzung weiblichen Know-Hows. Die Arbeit berücksichtigt dabei sowohl die Sicht von Frauen in Führungspositionen, als auch die Sicht von Personalentscheiderinnen und -entscheidern und leistet einen Beitrag dazu, wie Frauen in Verbänden und Organisationen der Freien Wohlfahrtspflege der Zugang zu Führungspositionen ermöglicht werden kann. Die hieraus resultierenden Leitfragen sind: Welche biografischen und institutionellen Faktoren fördern und hemmen den Aufstieg weiblicher Führungskräfte in die obere Führungsebene? Welche Faktoren zeigen sich aus Sicht der Frauen, welche aus Sicht der Personalentscheiderinnen und -entscheider? Welche Lösungswege ergeben sich zur Anhebung des Frauenanteils in der oberen Führungsebene? In der theoretischen Ausarbeitung werden zunächst im Rahmen des ersten Themenkomplexes Frauen und Führung bspw. geschlechtsspezifische Aspekte von Führungsverhalten besprochen, Bezug nehmende Ergebnisse der Führungsforschung sowie der Frauen- und Geschlechterforschung aufgezeigt und berufliche Situationen und Karrieren von Frauen dargestellt. Einfluss- und Erfolgsfaktoren weiblicher Karrieren, mögliche Aufstiegsbarrieren (biografisch konstruiert, gesellschaftlich sozialisiert, organisationsstrukturell) und Strategien zur Realisierung von Chancengleichheit im Aufstieg werden beschrieben. Der erste Themenkomplex endet mit der analytischen Betrachtung des Nutzens dieser Chancengleichheit. Der zweite Themenkomplex geht konkret auf den Bereich Soziale Arbeit ein, beleuchtet den Begriff Frauenberuf, die berufliche Situation von Frauen in der Sozialen Arbeit, die Freie Wohlfahrtspflege, das hier vorherrschende Verständnis von Führung und geht im Abschluss auf Frauen in Führungspositionen in der Sozialen Arbeit ein. Neben Faktoren, die Frauen möglicherweise einen Führungsaufstieg erschweren, werden auch Möglichkeiten von Organisationen bei der Unterstützung von Karrieren der Frauen beleuchtet. Die Untersuchung legt ihren Schwerpunkt auf die Organisationen der Sozialen Arbeit und die Führungspositionen des oberen Managements. Im sich anschließenden empirischen Teil erfolgt daher die Darstellung des Forschungsprojekts und des Forschungssettings, der Forschungsergebnisse, als auch der daraus abgeleiteten Schlussfolgerungen.
Ziel dieser Arbeit ist die Entwicklung von Verfahren zur realistischen augmentierten Bildsynthese auf Basis von 3D-Photo-Collections. 3D-Photo-Collections sind aus Einzelfotos automatisch erzeugte Repräsentationen einer realen Szene und geben diese als Menge von Bildern mit bekannten Kameraposen sowie einer groben punktbasierten Modellierung der Szenengeometrie wieder. Es wird eine fotorealistische augmentierte Bildsynthese von realen und virtuellen Anteilen in Echtzeit angestrebt, wobei die reale Szene durch 3DPhoto-Collections beschrieben wird. Um dieses Ziel zu erreichen, werden drei Problemfelder bearbeitet.
Da die Fotos unter Umständen in verschiedenen geräteabhängigen RGB Farbräumen liegen, ist eine Farbcharakterisierung der 3D-Photo-Collections notwendig, um korrekte, der menschlichen Wahrnehmung entsprechende Farbinformationen zu erhalten. Das hierzu entwickelte Verfahren transformiert alle Bilder automatisch in einen gemeinsamen Farbraum und vereinfacht so die Farbcharakterisierung von 3D-Photo-Collections.
Als Hauptproblem der augmentierten Bildsynthese muss die Umgebungsbeleuchtung der realen Szene bekannt sein, um eingefügte virtuelle Anteile konsistent zu den realen Anteilen zu beleuchten. Hierfür wurden zwei neue Verfahren zur Rekonstruktion der Umgebungsbeleuchtung aus den Bildern der 3D-Photo-Collection entwickelt.
Um eine Bildsynthese für beliebige Ansichten auf die Szene durchzuführen, wurde ein neues Verfahren zur bildbasierten Darstellung entwickelt, welches neue Ansichten auf die 3D-Photo-Collection unter direkter Verwendung der Punktwolke erzeugt. Dieser Ansatz erzeugt neue Ansichten in Echtzeit und erlaubt somit eine freie Navigation.
Insgesamt konnte mit den entwickelten Methoden gezeigt werden, dass 3D-Photo-Collections für Augmented-Reality eine geeignete Repräsentation von realen Anteilen sind und eine realistische Synthese mit virtuellen Anteilen durchgeführt werden kann.
Die vorliegende Dissertation leistet einen Beitrag zur historischen Frauenbildung in Deutschland. Gegenstand der Studie ist die Mädchenbildung im Zeitalter der Aufklärung. Da diese von der Pädagogik der Jungen stets getrennt betrachtet wurde und Bildung sich nach dem allgemeinen Verständnis bürgerlichen theoretischen Verstandes nur auf die Erziehung des jungen männlichen Geschlechts bezog, blieb die Frau von öffentlicher Bildung im 18. Jahrhundert weitgehend ausgeschlossen. An den Bildungsformen der Lesegesellschaften, der Salonkultur und der "Moralischen Wochenschriften" wird zunächst aufgezeigt, in welcher Weise es Frauen möglich war, sich dennoch Zugang zur Bildung zu verschaffen. Die beiden folgenden Kapitel behandeln La Roches und Campes Biografie. Im Fokus steht dabei ihrer beider Handeln im Feld der Mädchenerziehung und des Reisejournalismus. Vergleichend werden bildende Elemente hinsichtlich ihrer Hinwendung zur Französischen Revolution und des Reisejournalismus dargelegt. Die Betrachtung der Reiseberichte beider Autoren klärt, in welcher Form La Roche und Campe den politischen Reformbestrebungen des späten 18. Jahrhunderts folgen bzw. in welchem Maß sie den Idealen der voraufklärerischen Zeit unterliegen. Im Mittelpunkt der Arbeit stehen La Roches Briefe an Lina (1783/84) und Campes Väterlicher Rath für meine Tochter (1789). Die Mädchenratgeber spiegeln das pädagogische Konzept der Mädchenbildung beider Autoren wider. Eine Gegenüberstellung der Mädchenratgeber wird zeigen, inwieweit La Roche und Campe konservativen bzw. progressiven Leitbildern der Mädchenbildung folgen. Die Studie geht von der Ambivalenzthese aus, nach der La Roche und Campe innerhalb ihrer Denkweisen als Pädagogen und Reiseschriftsteller Gegensätze und Widersprüche aufweisen. Es soll geklärt werden, inwiefern La Roches Mädchenbildungskonzept von emanzipativen Vorstellungen geprägt ist, ihr politisches Denken hingegen konservativ erscheint, während Campes Mädchenbildungstheorie eher traditionell angelegt ist, seine politischen Ideale aber innovativ sind. In einer abschließenden Betrachtung werden die Ambivalenzen zwischen La Roches und Campes pädagogischen und politischen Anschauungen geklärt.
Politiker wünschen die Nähe zu den Bürgern und damit die Nähe der Bürger zu ihnen. Diese zunächst wie ein Gemeinplatz anmutende These wird bestätigt durch die im Jahre 2010 erstellte Deutsche Parlamentarier Studie (DEUPAS). Die Studie macht deutlich, dass mit der Bürgernähe der Wunsch nach verstärkter Einbindung der Bürger in politische Entscheidungsprozesse einhergeht. Wie auch in anderen Bereichen sozialer Interaktionen zeigt sich das Internet in diesem Zusammenhang als mögliche Schnittstelle zwischen Bürgern und Entscheidern. So stellt auch die Politik unter dem Begriff E-Partizipation digitale Beteiligungsmöglichkeiten bereit, in der Absicht, Reaktionen und Kommentare der Bürger zu besonderen Angelegenheiten oder Themen zu sammeln. Auch wenn diese Angebote bisweilen erfolgreiche Konzepte beinhalten, werden die meisten nur von einer geringen Anzahl potenzieller Adressaten genutzt. Gleichzeitig steigt abseits dieser strukturierten und problemzentrierten Portale die Begeisterung der Gesellschaft für die Nutzung sozialer Netzwerke, die somit Eingang in den Alltag gefunden haben. Hier ist eine hohe Aktivität auf allen mehr oder minder relevanten Gebieten zu beobachten, unter anderem auch in der Diskussion politischer Themen. Insofern sind soziale Netzwerke für Politiker wichtig und attraktiv, und zwar auf allen politischen Ebenen, wo die sozialen Netzwerke inzwischen in die alltägliche Arbeit integriert sind.
Problematisch ist jedoch der kontinuierliche Anstieg digitaler "Informationsschnipsel" (englisch: information overload). Eine manuelle Filterung relevanter aus der Vielzahl irrelevanter Beiträge erscheint nahezu unmöglich. Folglich werden neue Techniken und Konzepte (Analyse-Software) zur Sammlung und Analyse der Informationsflut präsentiert. Sie versprechen einen leichten und schnellen Überblick, um die relevanten Informationen zu extrahieren. Insofern ist es gerade für die Politik von hoher Dringlichkeit, nach Nutzbarkeit und Nützlichkeit solcher Instrumente zu fragen.
Die vorliegende Arbeit untersucht die Relevanz von Analysesoftware-Ergebnissen für die Verwendung im politischen Alltag. Der Schwerpunkt liegt auf den sozialen Netzwerken Facebook und Twitter als Datenlieferanten. Die Bewertung erfolgt in Kooperation mit und durch politische Entscheider aus dem Deutschen Bundestag, dem Landtag von Nordrhein-Westfalen, der Staatskanzlei des Saarlandes sowie der Städte Köln (Abteilung E-Government) und Kempten (Pressestelle der Stadt Kempten, Allgäu, im Büro des Oberbürgermeisters).
In der Hauptuntersuchung wird für jeden Teilnehmer ein individueller Analysereport erstellt, der mit einem Methodenmix aus qualitativen Verfahren ausgewertet wird. Die Analysedaten werden mit der WeGov-Toolbox, eine Entwicklung des EU-Projektes WeGov und den darin enthaltenen Analysekomponenten erzeugt. Der Fokus liegt dabei auf der Auswertung des Wahlkreises, des lokalen Bereiches sozialer Netzwerke. Im Rahmen dieser Arbeit wird nicht nur der Relevanz von Analysedaten nachgegangen, sondern es wird auch untersucht, ob Bürgernähe oder sogar Bürgerbeteiligung mit den aus der Analysesoftware gewonnenen Ergebnissen und den daraus resultierenden Rückschlüssen und möglicherweise Handlungen positiv vorangetrieben werden kann.
Die Antworten der Teilnehmer führen zu wesentlichen Schlussfolgerungen:
1) Keiner der Teilnehmer geht davon aus, dass Bürgerbeteiligung über diesen Weg gelingt. Anders fällt die Bewertung in Bezug auf eine Realisierung von Bürgernähe aus: Die Teilnehmer bestätigen vereinzelte Ergebnisse, die besagen, dass Bürgernähe über diesen Ansatz, d.h. über die daraus gewonnenen Erkenntnisse unterstützt werden kann. Damit erhalten Politiker Informationen darüber, was die Bürger denken und sagen.
2) Potenzielle Nutzer werden in der Regel solche sein, die zwar Erfahrung mit sozialen Netzwerken besitzen, jedoch keine "Poweranwender" sind. Daher bietet sich der Einsatz der Tools eher auf Parteiebene und in der Parlamentsarbeit an als auf der Ebene des einzelnen Politikers, der eher gewohnt ist, auf Facebook und Twitter direkt zu reagieren, die analytische Arbeit jedoch bevorzugt von den Partei- und/ oder Abgeordnetenbüros erledigen lässt.
3) Vergleicht man die ländlichen mit den urbanen Regionen, zeigt sich, dass die Menge von relevanten politischen Informationen auf dem Land gering ist. Während die Menge öffentlich zugänglicher Informationen in urbanen Regionen relativ groß ist, hat diese Menge in ländlichen Bereichen sehr viel weniger Gewicht.
Die Erkenntnisse aus den Befragungen werden in der vorliegenden Dissertation systematisch erhoben und ausgewertet.
In der vorliegenden Arbeit wurde untersucht, ob bei Müttern, die an einer stationären Rehabilitations- bzw. Vorsorgemaßnahme für Mütter, Väter und Kinder teilnehmen, positive Ressourcenveränderungen und zwei unterschiedliche Arten von Eingangsbelastungen die allgemeine Lebenszufriedenheit bzw. die Zufriedenheit mit der Gesundheit am Ende der Maßnahme beeinflussen. Ressourcen wurden hierbei in Form der erziehungsbezogenen Selbstwirksamkeit operationalisiert, Eingangsbelastungen in Form von erziehungsbezogenen Stressoren und Depressivität. Ausgehend von der Theorie der Ressourcenerhaltung wurde postuliert, dass Ressourcenzugewinne mit Eingangsbelastungen in ihrem Effekt auf die Zufriedenheit interagieren. Bei Patientinnen mit höheren Belastungen zu Maßnahmenbeginn sollten Ressourcenzugewinne im Verhältnis einen größeren Einfluss auf die Zufriedenheit haben als bei Patientinnen mit geringeren Belastungen.
Die Hypothesen wurden an einer Stichprobe von N = 1.724 Patientinnen über Strukturgleichungsmodelle geprüft. Es zeigte sich, dass erziehungsbezogene Stressoren verschiedene Facetten der allgemeinen Lebenszufriedenheit wie auch die Zufriedenheit mit der Gesundheit am Maßnahmenende negativ beeinflussten; Ressourcenzugewinne hatten niedrige positive Effekte auf die Zufriedenheitsmaße. Eine Interaktion zwischen erziehungsbezogenen Stressoren und Ressourcenzugewinnen konnte nicht belegt werden. Wurde Depressivität als Belastungsindikator einbezogen, so übte diese einen negativen Effekt auf die Zufriedenheitsmaße aus. Ressourcenzugewinne hatten in diesen Modellen wiederum nur einen sehr geringen (bis vernachlässigbaren) positiven Einfluss auf die Facetten der allgemeinen Lebenszufriedenheit bzw. der Zufriedenheit mit der Gesundheit. Auch hier konnten entgegen den Hypothesen keine Interaktionseffekte gefunden werden. Ergänzende Analysen, in denen beide Stressorenarten gleichzeitig als Prädiktoren berücksichtigt wurden, zeigten, dass Depressivität einen deutlicheren Einfluss auf die Zufriedenheitsmaße ausübte als erziehungsbezogene Stressoren (deren Effekt niedriger ausfiel); der Effekt von Ressourcenzugewinnen war sehr gering bis nicht bedeutsam.
Des Weiteren wurde untersucht, ob problem- bzw. handlungsorientierte Bewältigungsstrategien den Effekt von (positiven) Ressourcenveränderungen auf die allgemeine Lebenszufriedenheit bzw. die Zufriedenheit mit der Gesundheit vermitteln (Nebenfragestellung). Die nur teilweise signifikanten Korrelationen zwischen Coping, Ressourcenveränderungen und den Zufriedenheitsmaßen fielen sehr niedrig aus und lagen teils nahe Null. Da keine direkten Zusammenhänge zwischen Ressourcenveränderungen und den jeweiligen Zufriedenheitsmaßen gefunden wurden, waren die Voraussetzungen für eine pfadanalytische Prüfung indirekter Effekte nicht gegeben, die in den Hypothesen formulierte vermittelnde Rolle von Coping konnte daher nicht belegt werden.
Die Studienergebnisse zeigen, dass entgegen den aus der Theorie der Ressourcenerhaltung abgeleiteten Vermutungen positive Veränderungen in Ressourcen und Belastungsindikatoren nicht voneinander in ihrer Wirkung auf verschiedene Zufriedenheitsmaße abhängig sind, sondern voneinander unabhängige Effekte ausüben, welche für die erziehungsbezogene Selbstwirksamkeit jedoch nur gering ausfallen.
Im Zentrum dieser Arbeit stehen multiple Ziele als Merkmale zur Erfassung aktueller sowie überdauernder Motivation. Im Unterricht sind sowohl auf Kompetenzerwerb gerichtete Ziele als auch Ziele, die dem Wohlbefinden dienen, valent. Zur Kategorie der Wohlbefindensziele zählt das Bestreben, mit Mitschülern zu kommunizieren (Affiliationsziel) und möglichst wenig arbeiten zu müssen (Arbeitsvermeidungsziel). Zur Kategorie kompetenzbezogener Ziele gehört das Bestreben, eigene Fähigkeiten erweitern zu wollen (Lernziel), sowie bessere Leistungen als andere erreichen (Annäherungs-Leistungsziel) bzw. schlechte Leistungen gegenüber anderen verbergen zu wollen (Vermeidungs-Leistungsziel).
Bisher ist unklar, ob man Ziele als überdauernde Trait- oder situationsabhängige State-Merkmale konzipieren sollte. Mit dieser Arbeit werden beide Aspekte differentiell konzeptualisiert und deren Zusammenhang in zwei Studien untersucht. Fraglich ist darüber hinaus, wie State-Ziele entstehen. Aus verschiedenen Motivationstheorien wird ein neues Rahmenmodell abgeleitet, in dem situative multiple State-Ziele durch die Trait-Ziele sowierndie Wahrnehmung von spezifischen Kontextmerkmalen erklärt werden. In der Literatur werden drei potentielle Zusammenhangsmuster zwischen Trait-Zielen und wahrgenommenen Situationsmerkmalen hinsichtlich der State-Ziele identifiziert: Erstens könnten Trait-Ziele und wahrgenommene Unterrichtsmerkmale State-Ziele additiv besser prädizieren im Vergleich zu deren individuellen Einfluss (additiver Effekt), zweitens könnten Trait-Ziele State-Ziele über die Unterrichtswahrnehmung mediiert das State-Ziel vorhersagen (reaktiver Effekt) und drittens könnten die Trait-Ziele abhängig von der Ausprägung der wahrgenommenen Unterrichtsmerkmale differentielle Effekte auf State-Ziele haben (Interaktionseffekt). Zudem macht das Rahmenmodell Aussagen zu proximalen Konsequenzen von verschiedenen State-Zielen.
Studie 1 basierte auf zwei Stichproben (N = 197 und N = 297). Die multiplen Ziel-Faktoren sowie deren State- und Trait-Komponenten wurden im Längsschnitt-Design validiert. State-Ziel-Messungen erwiesen sich als sensitiv für Situationseinflüsse und gegenüber Trait-Ziel-Messungen als differentiell valide. Studie 2 fokussierte auf die Erklärung der State-Ziel-Entstehung in aktuellen Lernsituationen. Die Annahmen des Rahmenmodells sowie die Effektmodelle wurden in einer Längsschnitt-Studie (N = 542) systematisch empirisch überprüft. Es zeigte sich erwartungsgemäß, dass kompetenzbezogene Ziele mit adaptiven Lernprozessindikatoren (z.B. Flow) korrelierten, wohingegen die Wohlbefindens-Ziele hier keine Zusammenhänge aufwiesen. Zudem konnte die additive Effekthypothese bestätigt werden, während die reaktive Effekthypothese weitestgehend zurückgewiesen werden musste. Mit latenten Moderatormodellen ließen sich einzelne Interaktionseffekte identifizieren, die zeigten, dass die Trait-Ziele einer Person - abhängig von der Ausprägung der wahrgenommenen Unterrichtsmerkmale - differentielle Effekte auf die State-Ziele haben.
Diese Studie leistet einen Beitrag zur Weiterentwicklung der Nachrichtenwerttheorie. Hierzu wird das Konzept der Fotonachrichtenfaktoren zunächst theoretisch aufgearbeitet und seine Plausibilität anhand verschiedener Teilbereiche der Journalismusforschung dargelegt. Darauf aufbauend wird es im Rahmen einer Inhaltsanalyse eingesetzt, die die Prüfung des erweiterten Modells der Nachrichtenwerttheorie ermöglicht. Dieses Modell geht von einem gemeinsamen Einfluss der textbasierten Nachrichtenfaktoren und der Fotonachrichtenfaktoren auf den Nachrichtenwert bzw. die journalistische Beachtung eines Beitrags aus. Ergänzend werden die Fotonachrichtenfaktoren zur Bildung von Fototypen herangezogen. Die Analysen werden am Beispiel der Kriegs- und Krisenberichterstattung deutscher Tageszeitungen durchgeführt. Dieser Themenbereich des Journalismus genießt viel Aufmerksamkeit sowohl bei Medienrezipienten als auch bei Kommunikationswissenschaftlern. Die Ergebnisse der Studie unterstützen die Grundidee der Fotonachrichtenfaktoren: Sie können, ähnlich wie die textbasierten Nachrichtenfaktoren, zu übergeordneten Bündeln zusammengefasst werden. Diese Bündel zeigen Einflüsse auf die formale Gestaltung der Fotos und können gemeinsam mit den Textnachrichtenfaktoren teilweise die journalistische Beachtung des Artikels erklären. Darüber hinaus ist die gewählte Operationalisierung der Fotonachrichtenfaktoren geeignet, Fototypen bzw. zentrale Motive der visuellen Kriegsberichterstattung deutscher Tageszeitungen zu identifizieren. Die Ergebnisse dieser Studie liefern Ausgangspunkte für weitere Fragestellungen zum Zusammenwirken der Text- und Fotonachrichtenfaktoren, der Anwendung der Zwei-Komponenten-Theorie und der Wirkung von typischen Bildmotiven.
Auf landwirtschaftlichen Flächen ausgebrachte Pflanzenschutzmittel (PSM) können über diffuse Eintragswege (z.B. Oberflächenabfluss) auch in Gewässer gelangen, und eine Bedrohung für die aquatische Lebensgemeinschaft darstellen. Zum Schutz der aquatischen Gemeinschaft werden im derzeitigen Verfahren der deutschen PSM-Zulassung bereits bei Bedarf spezifische Anwendungsbestimmungen festgelegt. Über diese Maßnahmen hinaus, können jedoch weitere Ansätze sinnvoll sein.
Vor diesem Hintergrund wurden in der vorliegenden Dissertation Gewässer innerhalb einer Acker- und einer Weinanbauregion in Deutschland hinsichtlich ihrer PSM-Exposition in Folge von Oberflächenabfluss und (mögliche) Effekte auf aquatische Makroinvertebraten untersucht, um zu überprüfen, ob eine Umsetzung von Risikominderungsmaßnahmen in diesen Gebieten notwendig wäre. Die Ergebnisse zeigten, dass Gewässer in beiden Gebieten PSM-Konzentrationen ausgesetzt sind, in Folge derer Effekte auf die Makroinvertebraten zu erwarten sind. In der Ackeranbauregion war die beobachtete Toxizität dabei überwiegend auf die Insektizide Lambda-Cyhalothrin (in der Wasserphase) und Alpha-Cypermethrin (in der Sedimentphase) zurückzuführen. In der Weinanbauregion waren dagegen Rückstände von Fungiziden von übergeordneter Bedeutung und neben organischen Fungiziden wurden in diesen Gewässern außerdem ökotoxikologisch bedenkliche Kupferkonzentrationen in der Wasser- als auch in der Sedimentphase gefunden. In der Ackeranbauregion wurden neben der PSM-Exposition auch Effekte der PSM auf die Gemeinschaft der aquatischen Gemeinschaften im Freiland untersucht. Die Makroinvertebratengemeinschaft wurde insgesamt überwiegend von, gegenüber PSM toleranten Arten dominiert, was eine hohe PSM-Exposition an allen Probestellen vermuten lässt. Diese Vermutung spiegelt sich auch in den erhöhten PSM-Rückständen wider (logTUMax > -2; TUMax: Maximale Toxic Unit per sample), die in den Proben der Sedimentphase festgestellt wurden. An zwei Probestellen nahm die Abundanz und Anzahl sensitiver Arten (indiziert durch das SPEcies At Risk-Indikatorsystem) in Folge toxischer Lambda-Cyhalothrinkonzentrationen in der Wasserphase (logTUMax > -0,6) ab. An gering mit PSM belasteten Gewässern (logTUMax < -3,5) konnte dagegen eine signifikante Beeinträchtigung sensitiver Makroinvertebraten nicht festgestellt werden. Insgesamt zeigen die Ergebnisse, dass in beiden Untersuchungsgebieten die Umsetzung von Maßnahmen zum Schutz der aquatischen Gemeinschaft notwendig wäre.
Für Oberflächenabfluss werden häufig bewachsene Uferrandstreifen als Minderungsmaßnahme vorgeschlagen. Ein mindernder Einfluss auf die PSM-Konzentration mit zunehmender Breite konnte jedoch für die bereits in den Untersuchungsregionen vorhandenen Uferrandstreifen nicht festgestellt werden. Dieses Ergebnis konnte in der Weinanbauregion auf die hohe Anzahl an befestigten Feldwegen und damit verbundener Wegeinleitungen zurückgeführt werden, die den Oberflächenabfluss in konzentrierter Form zügig in Richtung Gewässer ableiten, und damit die Reduktionseffektivität der Uferrandstreifen erheblich reduzieren. Ein ähnlicher Prozess fand vermutlich auch in der Ackeranbauregion statt, in Folge einer hohen Anzahl an Erosionsrillen, die ein flächenhaftes Eindringen des Oberflächenabflusses in den Randstreifen und damit eine effektive Filterung verhindern. Außerdem dürften Entwässerungsgräben, welche den Oberflächenabfluss von den landwirtschaftlichen Flächen in die Gewässer weiterleiten, zu den beobachteten PSM-Konzentrationen trotz breiter Uferrandstreifen beigetragen haben.
Um PSM-Einträge über Oberflächenabfluss effektiv zu reduzieren, sollten Risikominderungsmaßnahmen umgesetzt werden, die auf die jeweilig identifizierten Haupteintragswege fokussieren. Als geeignete Maßnahmen wurden mit Gras bewachsene Feldwege und bewachsene Gräben oder Rückhaltebecken identifiziert. Darüber hinaus kann auch die Optimierung bereits vorhandener Uferrandstreifen hinsichtlich ihrer Reduktionseffektivität sinnvoll sein. Insgesamt zeigen die Daten der beiden Freilanduntersuchungen die große Bedeutung, Maßnahmen spezifisch für die jeweilige PSM-Belastungssituation von Gewässern zu identifizieren. Um diesen Prozess zu unterstützen wurde im Rahmen der vorliegenden Dissertation ein Leitfaden für die Identifizierung geeigneter Risikominderungsmaßnahmen an belasteten Gewässern entwickelt. Basierend auf einer Kartierung expositionsrelevanter landschaftlicher Parameter wird ein Set an geeigneten Maßnahmen für die jeweilige Belastungssituation vorgeschlagen. Anhand einer Bewertung der Effektivität dieser Maßnahmen PSM-Einträge zu reduzieren, ihrer Umsetzbarkeit und zu erwartenden Akzeptanz kann der Anwender schließlich die jeweiligen Maßnahmen zur Umsetzung auswählen. Der Leitfaden leistet damit einen wichtigen Beitrag zur praktischen Implementierung von Minderungsmaßnahmen.
Früher wurden in Museen den Besuchern meist gesicherte Wissensbestände präsentiert. Heute ist das vielfach anders: Nicht nur fraglos geltendes Wissen, sondern auch der Prozess dorthin wird aufgezeigt. Die dargebotene Information ist teilweise nicht mehr konsistent und widerspruchsfrei sondern konfligierend. Wie aber reagieren die Besucher auf konfligierende Information? Wie unterstützen ihre persönlichen Vorrausetzungen eine differenziertere Betrachtung? Wie können Museen " obwohl ihre Information doch freiwillig, selbstbestimmt, ohne Zwang und Pression rezipiert wird - die Informationsverarbeitung ihrer Besucher durch eine bestimmte räumliche Informationsanordnung beeinflussen? Diese Fragen wurden mittels vier Feldstudien vor Ort untersucht:
Studie 1 charakterisiert Museumsbesucher durch Persönlichkeitsprofile, die aus den für die Verarbeitung konfligierender Information als relevant betrachteten Personenmerkmalen (epistemologischen Überzeugungen, Ambiguitätstoleranz, Selbstwirksamkeitsannahmen) erstellt sind.
Studie 2 untersucht den Einfluss dieser Personenmerkmale und des situationalen Interesses auf die Tendenz zur Konfliktverarbeitung, ohne Fähigkeiten und Fassungskraft des Besuchers zu berücksichtigen.
Studie 3 überprüft die Effekte von situationalem Interesse, epistemologischen Überzeugungen, Ambiguitätstoleranz und Selbstwirksamkeitsannahmen auf die Konfliktverarbeitungsleistung.
In Studie 4 wird schließlich die Wirkung räumlich naher Informationspräsentation untersucht.
Museumsbesucher können durch die Persönlichkeitsprofile "selbstzweifelnd skeptisch", "selbstbewusst vertrauensvoll" und "stabilitätsgläubig" charakterisiert werden. Eine überwältigende Mehrheit zeigt die Bereitschaft, Konflikte wahrzunehmen und ein großer Teil ist darüber hinaus bereit, konfligierende Informationen auf tieferer Ebene zu verarbeiten. Eine räumlich nahe (thematisch kontinuierliche) Präsentation unterstützt die Tendenz, tief zu verarbeiten. Etwa drei Viertel der Besucher konnten erkennen, wann konfligierende Information logisch widersprüchlich ist und konnten überzufällig gut bei konsistenter und konfligierender Information Kohärenz bilden. Positive Selbstwirksamkeitsannahmen unterstützen vermittelt über hohes situationales Interesse die Tendenz, Information tiefer zu verarbeiten und steigern die Fähigkeit, Kohärenz zu bilden. Reifere epistemologische Überzeugungen der Dimension "Sicherheit" und "Veränderlichkeit" fördern Kohärenzbildung.
Interaktive Visualisierungen für den Linking- und Suchprozess heterogener Informationen im Web
(2013)
Die Informationsmenge im Web nimmt stetig zu und auch die Art und Vielfalt von Informationen wird immer größer. Es stehen die unterschiedlichsten Informationen wie Nachrichten, Artikel, Statistiken, Umfragedaten, Börsendaten, Veranstaltungen, Literaturnachweise usw. zur Verfügung. Die Informationen zeichnen sich durch Heterogenität in Aspekten wie Informationsart, Modalität, Strukturiertheit, Granularität, Qualität und ihre Verteiltheit aus. Die zwei Haupttechniken, mit denen Nutzer im Web nach diesen Informationen suchen, sind die Suche mit Websuchmaschinen und das Browsing über Links zwischen Informationseinheiten. Die vorherrschende Art der Informationsdarstellung ist dabei weitgehend statisch in Form von Text, Bildern und Grafiken. Interaktive Visualisierungen bieten eine Reihe von Vorteilen für die Aufbereitung und Exploration von heterogenen Informationen im Web: (1) Sie bieten verschiedene Darstellungsformen für unterschiedliche, sehr große und auch komplexe Informationsarten und (2) große Datenmengen können interaktiv anhand ihrer Eigenschaften exploriert werden und damit den Denkprozess des Nutzers unterstützen und erweitern. Bisher sind interaktive Visualisierungen aber noch kein integraler Bestandteil des Suchprozesses im Web. Die technischen Standards und Interaktionsparadigmen, um interaktive Visualisierungen als Massentechnik im Web nutzbar zu machen, werden erst langsam durch Standardisierungsgremien eingeführt. Diese Arbeit untersucht, wie interaktive Visualisierungen für den Linking- und Suchprozess heterogener Informationen im Web eingesetzt werden können. Basierend auf Grundlagen in den Bereichen Informationssuche, Informationsvisualisierung und Informationsverarbeitung wird ein Modell gebildet, das bestehende Strukturmodelle der Informationsvisualisierung um zwei neue Prozesse erweitert: (1) das Linking von Informationen in Visualisierungen und (2) das Glyphenbasierte Suchen, Browsen und Filtern. Das Vizgr-Toolkit implementiert das entwickelte Modell in einer Webanwendung. In vier verschiedenen Anwendungsszenarien werden Teilaspekte des Modells instanziiert und in Nutzertests evaluiert oder anhand von Beispielen untersucht.
Die Wirbelsäule als tragende Säule des menschlichen Körpers ist bei vielen Bewegungsabläufen hohen Belastungen ausgesetzt. Fehl- und Überbelastungen rufen dabei oft dauerhafte Schädigungen hervor. Daher ist es von Interesse, die innerhalb der Wirbelsäule auftretenden Belastungen zu bestimmen. Eine moderne und zuverlässige Methode zur Belastungsbestimmung ist der Aufbau eines Berechnungsmodells.
In der vorliegenden Arbeit wurde ein Mehr-Körper-System (MKS) Modell der Lendenwirbelsäule erstellt. Mit Hilfe des Modells können sowohl die übertragenen Kräfte und Momente in allen inneren Strukturen berechnet als auch die Kinematik des Bewegungsablaufs simuliert werden. Die Grundstruktur des Modells bilden die als Starrkörper angenommenen knöchernen Strukturen der fünf Lendenwirbel L1 bis L5, des Os Sacrums und des Os iliums, die über die Segmentierung eines CT-Datensatzes des Abgusses der Wirbeloberflächen eines durchschnittlich großen Europäers gewonnen wurden. Die elastischen Elemente der Wirbelsäule wurden unter Berücksichtigung ihrer physikalischen Eigenschaften in das Modell implementiert. Grundlage für die Modellierung der Zwischenwirbelscheiben waren dabei eigens durchgeführte experimentelle Messungen. Das charakteristische Kraft-Deformations-Verhalten der Ligamente wurde der Literatur entnommen.
Die Umsetzung im Computermodell berücksichtigt neben dem physikalischen Verhalten eines einzelnen Ligamentes zusätzlich durch einen Gewichtungsfaktor das Zusammenspiel aller Ligamente im komplex aufgebauten Ligamentapparat. Die Facettengelenke wurden durch Kontaktmodellierung in den Knorpelschichten realisiert. Daneben wurde ein Modell eines Implantatsystems entwickelt, das zur dynamischen Stabilisierung der Lendenwirbelsäule genutzt wird. Die Validierung der erstellten Modelle erfolgte über den Vergleich mit In-Vitro erhobenen Daten. Betrachtet wurden neben der intakten Wirbelsäule zudem degenerative Schädigungen der Zwischenwirbelscheibe und deren operative Versorgung durch Nukleotomie und dynamische Stabilisierung. Die Ergebnisse der Simulationen zeigen dabei eine sehr gute Näherung an die experimentell ermittelten Messwerte. Durch Anwendung der Computermodelle konnten die Auswirkungen verschiedener operativer Eingriffe, wie Interlaminotomie, Hemilaminektomie und Laminektomie auf die unterschiedlichen Strukturen der Lendenwirbelsäule berechnet werden. Ein weiteres Anwendungsgebiet lag in der Untersuchung des momentanen Drehzentrums. Neben der Bestimmung der Drehpunktbahn bei intakter Wirbelsäule konnten die Effekte einer degenerativ geschädigten und operativ versorgten Zwischenwirbelscheibe auf den Verlauf des momentanen Drehzentrums berechnet und simuliert werden.
Die vorliegende Arbeit wurde verfasst, um Einflüsse und Zusammenhänge von Mitarbeiterzufriedenheit auf Burnout zu erforschen. Zudem wurde der Frage nachgegangen, inwieweit organisationsbedingte Variablen beim Zusammenhang von Mitarbeiterzufriedenheit und Burnout bei Flugbegleitern eine Rolle spielen. Hierfür wurde die Airline-Branche, genau genommen das Kabinenpersonal als Repräsentant, verwendet und eine umfangreiche Arbeitsplatzanalyse durchgeführt.
Zur Erfassung der vielfältigen Dimensionen der Mitarbeiterzufriedenheit diente der Fragebogen zur Erfassung der Mitarbeiterzufriedenheit (FEMAZU), sowie für die Facetten von Burnout die Burnout-Screening-Skalen (BOSS) "Beruf" und "körperliche Beschwerden". Die organisationsbedingten Variablen wurden im Zuge einer Gruppendiskussion erhoben und zu entsprechenden Statements ausformuliert, um für den Fragebogen verwendet werden zu können. Dieser wurde im nach der Erstellung durch einen Pretest praktisch validiert. Die Online-Erhebung erfolgte anhand 420 Flugbegleitern im deutschsprachigen Raum.rnZu der quantitativen Erhebung wurde eine qualitative Methode angewandt, um detaillierter Informationen bezüglich der Komplexität in Entstehung und Verlauf der Krankheitsgeschichte von Burnout zu bekommen und Hinweise für die Einwirkung organisationsbedingter Variablen zu erhalten.
Entsprechend der repräsentativen Stichprobe in der vorliegenden Arbeit konnte ein starker Zusammenhang von Mitarbeiterzufriedenheit auf die verschiedenen Facetten von Burnout erwiesen sowie überwiegend signifikante Ergebnisse verzeichnet werden. Als wesentliche Einflussvariablen konnten individuelle Ziele, Arbeitsbedingungen, Aufgabenfeld, Empowerment, Commitment, Emotionsregulation und Work-Life-Balance identifiziert werden. Bedingt durch die ohnehin sehr speziellen Arbeitsbedingungen im Berufsleben der Flugbegleiter sollten die Airlines bei ihren Mitarbeitern auf eine ausgeglichene Work-Life-Balance achten. Die Ergebnisse zeigten hierfür deutliche Zusammenhänge mit Mitarbeiterzufriedenheit und Burnout. Um entsprechende ausfallsbedingten Kosten vorzubeugen, wurde in der vorliegenden Arbeit eine Handlungsempfehlung gegeben. Durch die hohe Flexibilitätsanforderung in der Tätigkeit des Kabinenpersonals sowie den zahlreichen physiologischen Einflüssen wie beispielsweise Lärm, Jetlag, Schichtdienst oder Zeitverschiebungen ist es für Unternehmen, die auf langfristige Mitarbeiter setzen besonders wichtig, an dieser Stelle häufigen und langen krankheitsbedingten Fehlzeiten vorzubeugen. Eine höhere Planstabilität, ein größerer Einfluss auf die Plangestaltung und ausreichend Ruhezeit würde beispielsweise der Vereinbarkeit von Beruf und Privat entgegen kommen.
Andere in der Literatur als bedeutend eruierten Variablen, wie bspw. die Arbeitsplatzsicherheit und der Zivilstand, zeigten keine oder nur eine sehr geringe Signifikanz. Abschließend wurden Faktoren, welche einen Einfluss auf das Ergebnis haben könnten, ausführlich erläutert und diskutiert sowie eine Empfehlung für die Praxis und zukünftige wissenschaftliche Untersuchungen abgeleitet. Insbesondere der Forschungsausblick zeigt, dass der Zusammenhang der Dimensionen Mitarbeiterzufriedenheit und Burnout, welche anhand der Stichprobe der Flugbegleiter in dieser Arbeit erhoben wurde, noch umfassende Erforschungen erfordert, um hier vor allem für die Wirtschaft Verbesserungen und entsprechende Kostenreduktion bewirken zu können. Sowohl für die Wirtschaft als auch die Wissenschaft wäre eine engere Zusammenarbeit wünschenswert und gewinnbringend.
Die zweitgrößte Teilgruppe der Chrysomelidae sind die Galerucinae Latreille, 1802. Zu diesen gehört das Taxon Ootheca, das Chevrolat 1837 festlegte und das ursprünglich nur eine beschriebene Art enthielt. In den nachfolgenden Jahrhunderten wurden in der Gattung Ootheca alle Galerucinae von "kompakter" Körpergestalt, mit breitem Pronotum, stark konvexem Dorsum, kurzen Antennen und kurzen Beinen beschrieben. Zu Beginn meiner Revision umfasste die Gruppe 38 Arten. Durch Vergleich charakteristischer morphologischer Eigenschaften des Ektoskeletts in Kombination mit den morphologischen Strukturen des männlichen Genitals - dargestellt in detaillierten Zeichnungen und Beschreibungen - konnten einzelne Arten von Ootheca beschrieben werden und gegenüber anderen Taxa der Galerucinae abgegrenzt werden. Nach der Revision blieben in der Gattung Ootheca 9 Arten als valide zurück, 4 Arten wurden neu beschrieben, 13 Arten wurden in andere revidierte Gattungen transferiert, und 10 Arten wurden noch nicht bearbeitet, weil sie bisher nicht zugeordnet werden konnten. Weiterhin wurden drei neue monophyletische Gruppen, Schwestertaxa, zu Ootheca beschrieben: Oothecoides (6 Arten), Ootibia (5 Arten ) und Oosagitta (6 Arten).
Der nachhaltige Grundwasserschutz erfordert ein Bewertungssystem, das Aussagen über den Ökosystemzustand zulässt. Folglich sollten, zusätzlich zu physikochemischen Analysen, auch faunistische und mikrobiologische Kriterien bei der Grundwasserbewertung berücksichtigt werden. Um die Anwendbarkeit und Eignung von Grundwasserorganismen für eine qualitative Grundwasserbewertung zu überprüfen, wurden zwischen 2002 und 2009 umfassende Untersuchungen verschiedener Grundwasservorkommen Deutschlands durchgeführt. Schwerpunkte waren die Überprüfung des Indikatorpotenzials von Grundwasserlebensgemeinschaften gegenüber Oberflächenwasser-Grundwasser-Interaktionen und anthropogener Belastungen sowie die Analyse stygofaunaler Verbreitungsmuster, als Basis und Referenz für ein faunistisches Bewertungssystem für Grundwasserlebensräume. Die Grundwasseruntersuchungen berücksichtigen lokale, regionale und biogeografische Verhältnisse. Um das Indikatorpotenzial der Grundwasserorganismen auf lokaler und regionaler Skala zu überprüfen, wurden Grundwassersysteme in Nordrhein-Westfalen (NRW) und Baden-Württemberg (BW) untersucht. Anhand der faunistischen und mikrobiologischen Daten aus quartären Lockergesteinsleitern im Erftgebiet (NRW) konnte die Sensibilität der Grundwasserorganismen gegenüber Landnutzungseffekten, z. B. extensive Landwirtschaft, aufgezeigt werden. Die Datenanalysen ergaben positive Korrelationen von organischem Material (geschätzter Detritus, TOC) und Nitrat mit der faunistischen Abundanz, Artenzahl und Diversität sowie dem Anteil grundwasserfremder Arten. Auch die bakterielle Abundanz und Diversität im Grundwasser des Erftgebiets war, verglichen mit oligotrophen Grundwassersystemen, hoch.
Die Grundwassergemeinschaften zeigen einen erhöhten Oberflächeneintrag ins Grundwasser an, der mit der starken landwirtschaftlichen Nutzung einhergeht. Die Besiedlung des Grundwassers im Alb-Donau-Kreis (BW) wurde auf regionale (Naturraum, Grundwasserleitertyp, Hydrogeologie) und lokale Effekte (Vergleich einzelner Messstellen) untersucht. Dabei reflektierte die Fauna die Stärke des hydrologischen Austauschs auf unterschiedlichen räumlichen Skalen und zeigte auch die Überlagerung regionaler und lokaler Effekte an. Demnach hatten die hohe Konnektivität der untersuchten Karst- und Lockergesteinssysteme, Landnutzung, abschirmende Deckschichten, unterschiedliches Grundwasseralter und Messstellentiefe Auswirkungen auf die Diversität und Abundanz der Gemeinschaften. Die Bakteriengemeinschaften reflektierten vor allem die Zugehörigkeit aller Messstellen zu einem Grundwassersystem. Insgesamt sind die faunistischen und mikrobiologischen Daten charakteristisch für oligotrophe, oligoalimonische Grundwässer. Die Untersuchung großräumiger Besiedlungsmuster der Grundwasserfauna ergab signifikante biogeografische Unterschiede. Die subterranen Besiedlungsmuster weichen deutlich von bestehenden Gliederungssystemen für oberirdische Landschaften oder Fließgewässerzönosen ab. Die größten Abweichungen zwischen den stygofaunalen Verbreitungsmustern und den oberirdischen Gliederungssystemen wurden vor allem in den eiszeitlich überprägten Gebieten Nord- und Süddeutschlands sowie in den Vorgebirgsregionen der zentralen Mittelgebirge beobachtet.
Anhand der erfassten Daten konnten vier Stygoregionen definiert werden, die deutlich unterschiedliche Faunengemeinschaften aufweisen: 1) das "Nördliche Tiefland", 2) die "Zentralen Mittelgebirge", 3) die "Südwestlichen Mittelgebirge" sowie 4) die "Südlichen Mittelgebirge und die Alpen". Die Ergebnisse zeigen die generelle Anwendbarkeit und Eignung der Stygofauna und der mikrobiellen Gemeinschaften für die qualitative Bewertung von Grundwasserökosystemen. Für die biologische Bewertung von Grundwassersystemen sind die faunistische Diversität, Abundanz und die Artenzusammensetzung, die Einteilung in stygobionte (obligate Grundwasserarten) und nicht-sytgobionte Arten sowie die bakterielle Abundanz geeignete Indikatoren für anthropogene Belastungen im Grundwasser. Die Entwicklung eines ökologisch orientierten Erfassungs- und Bewertungssystem für Grundwasserlebensräume ist unabdingbar für ein nachhaltiges Grundwassermanagement, welches den Erhalt unserer Grundwassersysteme und Trinkwasserversorgung gewährleistet. Die Definition von Stygoregionen ist ein entscheidender Schritt für die Entwicklung eines Bewertungs- und Referenzsystems für Grundwasserlebensräume. Die Bewertung des Ökosystemzustands von Grundwassersystemen muss jedoch auf lokaler Skala erfolgen, da die Zusammensetzung der Grundwassergemeinschaften durch die Stärke des lokalen hydrologischen Austauschs mit Oberflächensystemen geprägt ist. Von diesem hängt die Menge an verfügbarer Nahrung, Sauerstoff und konkurrierenden Oberflächenarten im Grundwasser abhängt. Zusätzlich sind Kenntnisse biogeografischer und regionaler Verhältnisse notwendig - als Referenz für das potenzielle Vorkommen von Arten und Abundanzen bestimmter Grundwassersysteme.
Die Suche nach wissenschaftlicher Literatur ist eine Forschungsherausforderung für das Information Retrieval im besonderen Umfeld der digitalen Bibliotheken. Aktuelle Nutzerstudien zeigen, dass im klassischen IR-Modell zwei typische Schwächen auszumachen sind: das Ranking der gefundenen Dokumente und Probleme bei der Formulierung von Suchanfragen. Gleichzeitig ist zu sehen, dass traditionelle Retrievalsysteme, die primär textuelle Dokument- und Anfragemerkmale nutzen, bei IR-Evaluationskampagnen wie TREC und CLEF in ihrer Leistung seit Jahren stagnieren.
Zwei informetrisch-motivierte Verfahren zur Suchunterstützung werden vorgestellt und mittels einer Laborevaluation mit den beiden IR-Testkollektionen GIRT und iSearch sowie 150 und 65 Topics evaluiert. Die Verfahren sind: (1) eine auf der Kookkurrenz von Dokumentattributen basierende Anfrageerweiterung und (2) ein Rankingansatz, der informetrische Beobachtungen zur Produktivität von Informationserzeugern ausnutzt. Beide Verfahren wurden mit einer Referenzimplementation auf Basis der Suchmaschine Solr verglichen. Beide Verfahren zeigen positive Effekte beim Einsatz von zusätzlichen Dokumentattributen wie Autorennamen, ISSN-Codes und kontrollierten Schlagwörtern. Bei der Anfrageerweiterung konnte ein positiver Effekt in Form einer Verbesserung der Precision (bpref +12%) und des Recall (R +22%) erzielt werden. Die alternativen Rankingansätze konnten beim Ansatz von Autorennamen und ISSN-Codes die Baseline erreichen bzw. diese beim Einsatz der kontrollierten Schlagwörter über- treffen (MAP +14%). Einen negativen Einfluss auf das Ranking hatten allerdings die Einbeziehung von Faktoren wie Verlagsnamen oder Erscheinungsorten. Für beide Verfahren konnte eine substantiell andere Sortierung der Ergebnismenge, gemessen anhand von Kendalls, beobachtet werden. Zusätzlich zu der verbesserten Relevanz der Ergebnisliste kann der Nutzer so eine neue Sicht auf die Dokumentenmenge gewinnen.
Die Anfrageerweiterung mit Autorennamen, ISSN-Codes und Thesaurustermen zeigt das bisher ungenutzte Potential, das sich in digitalen Bibliotheken durch die Datenfülle und -qualität ergibt. Die Rankingverfahren konnten die Leistung des Baseline-Systems übertreffen, nachdem eine Überprüfung auf Vorliegen einer Power Law-Verteilung und eine anschließende Filterung durchgeführt wurde. Dies zeigt, dass die Rankingverfahren nicht universell für alle Suchanfragen anwendbar sind, sondern ein Vorhandensein bestimmter Häufigkeitsverteilungen voraussetzen. So wird die enge Verbindung der Verfahren zu informetrischen Gesetzmäßigkeiten wie Bradfords, Lotkas oder Zipfs Gesetz deutlich. Die beiden in der Arbeit evaluierten Verfahren sind als interaktive Suchunterstützungsdienste in der sozialwissenschaftlichen digitalen Bibliothek Sowiport implementiert. Die Verfahren lassen sich über entsprechende Web- Schnittstellen auch in anderen Anwendungskontexten einsetzen.
Kapitel 1 führt - unter Berücksichtigung gesamtgesellschaftlicher Tendenzen im Hinblick auf verschiedene Lebensformen - zunächst in das Thema ein. Auf Basis der Tatsache geringer Scheidungsraten von Managerehen werden unterschiedliche Annahmen formuliert, die für die Ehestabilität dieser Paare eine Rolle spielen könnten.
Im Weiteren werden hier wesentliche Fragestellungen zum Thema der vorliegenden Arbeit und deren Zielsetzung begründet. Kapitel 2 fasst den aktuellen Forschungsstand zusammen. Bisherige Untersuchungsergebnisse zum Themenfeld Manager und deren Ehen sowie auch der Ehestabilitätsforschung werden hier vorgestellt und auf ihre Relevanz hin befragt. Ziel ist es, bereits gewonnene Ergebnisse nach ihrer Bedeutung für diese Arbeit zu bewerten und entsprechende Fragestellungen daraus abzuleiten. Kapitel 3 setzt sich mit theoretischen Ansätzen zur Erklärung von Ehestabilität auseinander. Vor dem Hintergrund verschiedener Handlungsmodelle stellt sich die Frage, ob die Stabilität von Managerehen das Ergebnis von wertorientiertem, zweckorientiertem oder gar traditionalem Handeln ist. Insbesondere werden hier der kultursoziologische Ansatz von Schreiber und die Rational Choice Theorie von Esser als maßgebliche theoretische Grundlage für den Leitfaden und die Auswertung des empirischen Materials vorgestellt und erläutert. Im Anschluss daran erklärt Kapitel 4 die Voraussetzungen und den Ablauf der Erhebung der Daten und beschreibt die Paare des vorliegenden Samples. Als Methode der Befragung wurde das Leitfadeninterview gewählt, welches begründet und von seiner Konzeption wie auch seinen Inhalten her beschrieben wird. Die Erläuterung zur Durchführung der Interviews und zur Methode der Analyse der Gespräche bilden den Abschluss dieses Kapitels. Kapitel 5 führt sodann in das vorliegende empirische Material ein. Es dient der Beschreibung der interviewten Paare in der Darstellungsform von insgesamt zehn Paarportraits. Ziel hierbei ist zum einen, die Beziehungswelt der Paare abzubilden, zum anderen zu zeigen, dass es bei allen Befragten prägnant wiederkehrende Strukturelemente innerhalb der Beziehung gibt. Diese geben einen ersten Hinweis auf die besonderen Stabilitätsfaktoren von Managerehen. Das folgende Kapitel 6 fasst die Erfolgsfaktoren ehelicher Stabilität der befragten Paare zusammen. Es kann aufzeigen, wie die Faktoren Heiratsmotivation, Rollenverteilung, Paarinteraktion, Statussymbole, soziales Umfeld, Beziehungswünsche und -visionen von den Paaren beschrieben werden und welche Rolle sie im Hinblick auf die Ehestabilität der Paare spielen. Hier wird deutlich dass es bei den Aussagen der Befragten große Strukturähnlichkeiten gibt, die es erlauben von einem Sondertypus "stabile Ehe" zu sprechen. In einer zusammenfassenden Beschreibung wird herausgestellt, welche Merkmale diesen besonderen Typus kennzeichnen und was ihn letztendlich charakterisiert. Managerehepaare leben in einer erfolgreichen Lebensform zusammen. Sie stellen einen Sondertypus unter den bisher bekannten Lebensformen dar. Das Schlusskapitel 7 fasst die Ergebnisse dieser Arbeit zusammen und pointiert sie in der Konstruktion einer managerspezifischen Lebensform, für die der Name LTA (Living Together Apart)20 gewählt wurde.
Die Dissertation "Schreibprozesse in der Wikipedia" untersucht auf Basis einer linguistischen Textanalyse individuelle und gemeinschaftliche Schreibhandlungen in der Wikipedia. An Beispiel ausgewählter Artikel werden Artikelinitiationen, Handlungsmuster beim Er- und Überarbeiten der Texte, Prozesse des Planens, Gliederns und Bewertens sowie Kontroversen, Edit Wars und Vandalismus als grundlegende Aspekte des Schreibens in gemeinschaftlichen Online-Kontexten betrachtet. Dabei erscheinen vor allem Kontroversen als ein in der Schreibforschung bisher vernachlässigter Einflussfaktor, der nicht nur Auswirkungen auf die Schreibprozesse in der Wikipedia, sondern auch auf die gesamte Abbildung, Genese und vor allem Aushandlung von Wissen hat.
Vor dem Hintergrund der Individualisierung von Lernwegen beschäftigt sich die Arbeit mit dem Konzept des Didaktischen Laien, welches begrifflich und inhaltlich bestimmt wird. Weiterhin werden methodische Ansätze gesammelt, wie Didaktische Laien in die Gestaltung schulischer Lehr-Lern-Prozesse eingebunden werden können. In einem letzten Teil werden diese Ansätze kategorienbasiert systematisch geordnet.
Das Lernen und Verstehen dynamischer Sachverhalte kann sowohl anhand von statischen Bildern als auch von Animationen erfolgen. Da die bisher vorliegenden Befunde keine eindeutige Überlegenheit der einen oder der anderen Repräsentationsform erkennen lassen, sind differenziertere Wirkungsanalysen erforderlich. Grundannahme der vorliegenden Dissertation war, dass beide Darstellungsformen unterschiedlich gut für den Aufbau dynamischer mentaler Modelle einerseits und den Aufbau dynamischer perzeptueller Repräsentationen andererseits geeignet sind. Es wurde erstens angenommen, dass dynamische mentale Modelle keine kontinuierlichen mentalen Simulationen ermöglichen, sondern aus einer Sequenz von diskreten prototypischen Prozess-Zuständen (sog. "key states") bestehen und deshalb besser anhand statischer Bilder dieser "key states" als anhand einer Animation konstruiert werden können. Zweitens wurde angenommen, dass perzeptuelle Repräsentationen dynamischer Sachverhalte aus dynamischen Schemata bestehen, die besser anhand einer Animation als anhand von statischen Bildern gebildet werden können. Als Indikator für die Qualität mentaler Modelle wurden Inferenzaufgaben verwendet, bei denen durch Manipulation dieser Modelle neue Informationen zu erschließen sind. Als Indikator für die Qualität dynamischer perzeptueller Repräsentationen wurden Leistungen bei der Kategorisierung von Bewegungsabläufen verwendet. Die erste Annahme wurde am Beispiel der synaptischen Informationsübertragung (nach einer Vorpilot- und Pilotstudie) in einer ersten Hauptstudie mit 61 Probanden überprüft.
Die Ergebnisse weisen darauf hin, dass die Hypothese eher bei Probanden mit höherem Vorwissen als bei solchen mit niedrigerem Vorwissen zutrifft. Die zweite Annahme wurde am Beispiel des Erkennens der Gangart von Pferden (nach einer Pilotstudie) in einer zweiten Hauptstudie mit 52 Probanden überprüft. Die Ergebnisse zeigten durchwegs Unterschiede in der erwarteten Richtung, die jedoch nicht oder nur marginal signifikant sind. Allerdings führten die Animationen zu einer hochsignifikant geringeren kognitiven Belastung als statische Bilder. Darüber hinaus zeigten sich signifikante Interaktionen mit den räumlichen Fähigkeiten: Probanden mit geringeren Fähigkeiten profitieren bei der Kategorisierung von Bewegungsabläufen bedeutsam mehr von Animationen als von statischen Bildern.
Die vorliegende Doktorarbeit verfolgt das Ziel, die Bevölkerungsentwicklung im Westerwaldkreis im Zeitraum von 1974 bis 2008 auf Kreis-, Verbandsgemeinde- und Gemeindeebene detailliert zu untersuchen und im Rahmen eines Handlungskonzeptes für ausgewählte Gemeinden geeignete Maßnahmen zur konkreten Gestaltung des Demographischen Wandels aufzuzeigen. Dies geschieht zunächst anhand einer umfassenden Analyse der Bevölkerungsdaten. Dazu zählt eine Einteilung des Untersuchungszeitraums in spezielle Phasen der Bevölkerungsentwicklung, welche durch die jährlichen Veränderungsraten des Bevölkerungsstandes des Westerwaldkreises charakterisiert werden. Anschließend wird ausführlicher auf wichtige Kennzahlen der Bevölkerungsentwicklung aus den Bereichen der natürlichen Bevölkerungsbewegung, der Bevölkerungsstruktur und der Wanderungen eingegangen mit der Intention, einerseits detaillierte Ergebnisse hervorzubringen, die im Rahmen bisheriger Untersuchungen nicht vorliegen und andererseits Grundlagen für die Ursachenforschung zu schaffen, die der Analyse der Bevölkerungsdaten folgt. Für diese Ursachenforschung werden fünf Gemeinden exemplarisch ausgewählt, die eine besonders positive bzw. negative Bevölkerungsentwicklung im Untersuchungszeitraum aufweisen. Integrale Bestandteile dieser Ursachenforschung sind, neben einer ausführlichen Darstellung der Bevölkerungsentwicklung der Gemeinden, Experteninterviews und eigene humangeographische Beobachtungen. Des Weiteren wird speziell für die drei ausgewählten Gemeinden mit negativer Bevölkerungsentwicklung eine Online-Umfrage unter Jugendlichen durchgeführt, um weitere Ursachen herauszufinden und erste zentrale Ansatzpunkte für das abschließende Handlungskonzept zu finden. Dieses Konzept verfolgt primär die Intention, den Demographischen Wandel in den drei Gemeinden in der Art und Weise zukünftig zu gestalten, dass seine negativen Folgen vermieden bzw. zumindest abgemildert werden. Dazu ist es notwendig, auf die spezifischen Situationen vor Ort einzugehen und die praktische Umsetzbarkeit möglicher Handlungsempfehlungen zu berücksichtigen, damit das Konzept Eingang in die kommunalpolitische Planung findet und somit nicht nur einen Beitrag zur bevölkerungsgeographischen Forschung darstellt, sondern auch einen Nutzen für die kommunale Handlungspraxis stiftet.
In dieser Arbeit wurde der Einfluss von nicht wässrigen Mahlflüssigkeiten auf Metall-Keramik-Pulvermischungen im Nassmahlprozess untersucht. Es wurden Al- und Cr-Al₂O₃-Pulvermischungen ausgewählt, um den Einfluss der Mahlflüssigkeiten auf die Mahlung von Metall-Keramik-Pulvermischungen mit einer duktilen (Aluminium) und einer spröden (Chrom) Metallkomponente zu untersuchen.
In der hier vorliegenden Forschungsarbeit wurden die Auswirkungen der Bodenfeuchte und der Bodenart auf die ausgewählten Schaderreger Phytophthora infestans (Mont.) de Bary, Fusarium graminearum Schwabe bzw. F. culmorum (W.G. Smith) Saccardo und die Larven der wichtigsten Elateridenarten Agriotes lineatus Linnaeus, A. obscurus Linnaeus, A. sputator Linnaeus, A. sordidus Illiger sowie A. ustulatus Schaller (im Folgenden als Drahtwürmer zusammengefasst) untersucht. Ziel war die Integration von Bodenmodulen in Prognosemodelle für landwirtschaftliche und gartenbauliche Schaderreger, um die Terminierung von Befallskontrollen weiter zu optimieren, die Bekämpfungsnotwendigkeit festzustellen und somit eine Reduzierung vorbeugender Pflanzenschutzmittelanwendungen zu erreichen. Wegen des hohen Aufwandes zur Messung der Bodenfeuchte sowie ihrer kleinräumigen Variabilität fand dieser Parameter bisher in der Schaderregerprognose nur geringe Beachtung. Im Rahmen dieser Arbeit wurden die Möglichkeiten zur standortspezifischen Simulation der Bodenfeuchte überprüft. Dabei wurde das Bodenfeuchtesimulationsmodell SIMPEL (HÖRMANN 1998) an landwirtschaftliche Problemstellungen angepasst und die standortspezifische Simulation der Bodenfeuchte auf Grundlage der Niederschlagsdaten des Radermessnetzes des Deutschen Wetterdienstes (DWD) sowie interpolierten Wetterdaten (ZEUNER 2007) durchgeführt. Mit einer hochsignifikanten Korrelation zum Signifikanzniveau Alpha = 0,01 und mittleren Abweichungen der simulierten Bodenfeuchte von Feldmessungen von 3,8 % kann diese zuküftig schlagspezifisch berechnet und in den Schaderregermodellen berücksichtigt werden. Die Ergebnisse der Labor- und Freilandversuche und die durchgeführten Datenanalysen zeigten, dass der Einfluss von Bodenparametern auf die drei untersuchten Schaderreger unterschiedlich stark ausgeprägt ist. Während sich bei den Untersuchungen zum Einfluss der Bodenfeuchte auf P. infestans keine eindeutigen Korrelationen aufzeigen ließen, gab es deutliche Zusammenhänge zwischen der Bodenfeuchte bzw. Bodenart und dem Vorkommen von Drahtwürmern sowie von F. graminearum bzw. F. culmorum. Zur Prognose des Drahtwurmauftretens in den oberen 15 cm der Bodenschicht wurde das Modell SIMAGRIO-W entwickelt. In den durchgeführten Versuchen ergaben sich hochsignifikante Zusammenhänge der Bodenfeuchte und der Bodenart auf das Vorkommen der Drahtwürmer. Der Einfluss der Bodenart auf den Schaderreger F. graminearum bzw. F. culmorum wurde in das bestehende Modell FUS-OPT integriert. Eine Korrelation von aus der Luft gefangenen Sporen von F. graminearum mit dem simulierten Perithezienwachstum des veränderten Modells FUS-OPT ergab im Test nach PEARSON einen hochsignifikanten Zusammenhang. Die Ergebnisse dieser Arbeit zeigen, dass die Integration von Bodenfeuchte- und Bodenartmodulen in die Schaderregermodelle möglich ist. Die entwickelten bzw. modifizierten Modelle werden den Pflanzenschutzdiensten der Länder zukünftig zur praktischen Beratung über das Internetportal www.isip.de zur Verfügung stehen.
Diversität und Verbreitung von Schluchtwäldern (Tilio-Acerion) im Rheinischen Schiefergebirge
(2012)
Im Rahmen dieser Studie wurde die Diversität der Gefäßpflanzen von Edellaubmischwäldernrn im Rheinischen Schiefergebirge statistisch erfasst und dabei erstmalig deren Artenzusammensetzung anhand einer angewandten Standortanalyse soziologisch-floristisch beschrieben sowie deren Verbreitung im Einzugsbereich von unterer Mosel, unterer Lahn und dem Mittelrheingebiet zusammenfassend dargestellt.
Zudem war es Ziel dieser Untersuchung die Variabilität und Struktur der Artenzusammensetzung in Abhängigkeit von edaphischen und mikroklimatischen Umweltfaktoren auf Schiefer als anstehendem Gestein zu analysieren und diesbezüglich das Tilio-Acerion des Untersuchungsraums mit den bisher vorwiegend auf kalkhaltigem Untergrund untersuchten Edellaubmischwaldgesellschaften der übrigen deutschen Gebirge zu vergleichen. Mit Blick auf die Einstufung dieser Waldgesellschaft als "prioritären Lebensraum" innerhalb des NATURA 2000-Schutzgebietssystems und der an die FFH-Richtlinie gekoppelten Berichtspflicht von Rheinland-Pfalz, die alle 6 Jahre erfüllt werden muss,wurde die bisherige Einstufung der Ausprägung dieser Waldgesellschaft für die naturräumlichen Haupteinheiten im Untersuchungsraum revidiert. Dabei wurden auch anthropogene Gefährdungen untersucht und Schutzmaßnahmen für den Erhalt dieses in Mitteleuropa streng geschützten Fauna-Flora-Habitats diskutiert sowie Vorschläge zur Eingliederung von bisher unberücksichtigten Regionen in das NATURA 2000-Schutzgebietssystem abgegeben. Insgesamt wurden 191 Taxa in 1209 Aufnahmen erfasst und 29 Arten davon auf Grund ihrer Seltenheit oder Schutzwürdigkeit als bemerkenswert eingestuft. Des Weiteren wurden 3 Assoziationen und eine bisher noch unbekannte Festuca altissima-Tilia cordata-Gesellschaft beschrieben, wobei der überwiegende Teil der Aufnahmen dem Fraxino-Aceretum pseudoplatani zugeordnet wurde, das sich synsystematisch in weitere standörtlich bedingte Untereinheiten differenzieren lässt. Dabei hebt sich das Tilio-Acerion im Rheinischen Schiefergebirge gemeinsam mit Beständen weiterer silikatischer Gebirge von Edellaubmischwäldern auf karbonatischen Gebirgen in Deutschland durch säuretolerante Arten einer Polystichum aculeatum-Variante syntaxonomisch ab. Zudem konnte das in der Literatur bisher umstrittene Adoxo moschatellinae-Aceretum als eigene, dem Tilio-Acerion zugehörige Assoziation anhand von Kennarten wie dem im Untersuchungsraum hochsteten Polystichum aculeatum in der für die syntaxonomische Bewertung prioritären Krautschicht validiert werden. Regionale Unterschiede der Edellaubmischwälder sind im Untersuchungsgebiet anhand der dortigen Verbreitungsgrenzen submediterraner, (sub-)atlantischer und (sub-)kontinentaler Florenelemente erkennbar. Edaphische und mikroklimatische Faktoren haben sich als besonders einflussreich für diverse Ausprägungen der Schluchtwaldflora herausgestellt. Das Tilio-Acerion ist im Einzugsbereich der Mosel besonders artenreich, was lokal auch auf das Lahngebiet zutrifft. Der Straßen- und Wegebau wird als häufigste Gefährdung eingestuft, in den Tieflagen des oberen Mittelrhein- und Moselgebiets kommen Niederwald-Effekte in Form von haselreichen Degradationsstadien hinzu, in den Hochlagen sind Nadelwaldaufforstungen problematisch. Entsprechend wird gefordert derartige Maßnahmen sowie die Abholzung und Totholzentnahme in Edellaubmischwäldern zu vermeiden und diese sich stattdessen ihrer natürlichen Sukzession zu überlassen.
Die Studie hat gezeigt, dass die naturräumlichen Haupteinheiten Hunsrück, Westerwald, Taunus sowie das Mosel-, Lahn- und Mittelrheintal entgegen bisheriger Einstufung ein "Hauptvorkommen" an Schlucht- und Hangmischwäldern mit "guter Ausprägung" aufweisen.
Führungskommunikation ist in Organisationen und damit auch in der Organisation Schule von zentraler Bedeutung. Erstaunlicherweise weist die Forschung zur Schnittstelle von Führungs- und Kommunikationstheorien dennoch deutliche Defizite auf (Cohen, 2004). In jüngster Zeit belegen erste Untersuchungen die Verbindung zwischen Kommunikationskompetenz, Führung und weiteren organisationspsychologischen Konstrukten (z.B. Arbeitszufriedenheit) (u.a. Madlock, 2008; Payne, 2005).
In der Schulleitungsforschung hat die Kommunikationskompetenz bislang noch keine Beachtung gefunden. Diese Dissertation verfolgte daher zwei Ziele: Zum einen sollte ein theoretisch fundiertes Messinstrument entwickelt werden, um die Kommunikationskompetenz von schulischen Führungskräften reliabel und valide erheben zu können. Zum anderen sollte das Konstrukt Kommunikationskompetenz von schulischen Führungskräften in ein theoretisches Rahmenmodell eingebettet werden, das eine Brücke schlägt zwischen der Führungsforschung und der Kommunikationskompetenz-Forschung und damit Cohens Kritik eines unverbundenen Nebeneinanders beider Forschungsstränge begegnet. Das Rahmenmodell wurde auf der Basis eines allgemeinen Kommunikationsprozessmodells von Jablin und Kollegen (1994) sowie der Theorie der Führungsdyaden (LMX, Graen &amp; Uhl-Bien, 1995) entwickelt. Kommunikationskompetenz wird definiert als mehrdimensionales Konstrukt (z. B. Jablin &amp; Sias, 2001; Spitzberg &amp; Cupach, 1984). Die Instrumententwicklung und -validierung erfolgte in fünf Phasen. In Phase I wurden die Items zusammengestellt und mit Hilfe eines Itemratings durch Expert(inn)en inhaltlich validiert. Der so entstandene Itempool wurde in Phase II in einer Online-Befragung von Lehrkräften getestet. Mit exploratorischen Faktorenanalysen wurde die latente Struktur untersucht. Das resultierende 3-Faktoren-Modell mit den Subdimensionen Alterzentrismus, Kommunikationswissen und -bereitschaft sowie Selbstregulationsfähigkeit wurde in Phase III an einer weiteren Stichprobe kreuzvalidiert. Die konfirmatorischen Faktorenanalysen führten zu einer guten Modellpassung (strukturelle Validität). In Phase IV konnte mit Hilfe der Test-Retest-Reliabilität nachgewiesen werden, dass das Instrument zuverlässig misst. Die Einbettung in das nomologische Netzwerk verwandter Konstrukte wurde in Phase V durch die Berechnung von Korrelationen und Regressionen untersucht. Darüber hinaus konnte in dieser Phase nachgewiesen werden, dass das Instrument unabhängig vom Geschlecht der Schulleitungsperson gleichgut misst (Generalisierbarkeit) und dass mit Hilfe der Bewertung der Kommunikationskompetenz der Schulleitungsperson relevante Ergebniskriterien (Arbeitszufriedenheit, Commitment der Lehrkräfte) vorhergesagt werden können.
Als Ergebnis dieser Forschungsarbeit stehen ein Messinstrument und ein theoretisches Rahmenmodell zur Verfügung, die zum einen in der Praxis zur Analyse und Optimierung der Kommunikationskompetenz von schulischen Führungskräften eingesetzt werden können. Zum anderen bildet das Rahmenmodell die Grundlage für die Ableitung von Forschungsfragen, um die Bedeutung der Kommunikationskompe-tenz von Schulleitungspersonen für die Organisation Schule systematisch weiter zu untersuchen.
Problembewältigung stellt eine essentielle (kognitive) Aktivität im alltäglichen Leben, wie auch im Berufsleben, dar. Bereits in der Grundschule wird diese Fähigkeit, z.B. bei der Lösung von mathematischen Textaufgaben, gefordert und gefördert. Trotzdem bereitet dies Schülern verschiedener Klassenstufen nach wie vor große Schwierigkeiten. Das Lösen von Textaufgaben erfordert eine Vielzahl kognitiver Operationen. Dies ist besonders dann der Fall, wenn es sich bei den Aufgaben nicht um Routineaufgaben handelt. Für die Bearbeitung von Textaufgaben können Schüler auf verschiedene Repräsentationen zurückgreifen, wobei sowohl interne und externe als auch depiktionale (abbildende) und deskriptionale (beschreibende) unterschieden werden können. Da bisher kaum empirische Forschungsarbeiten zum Umgang von Schülern mit problemhaltigen Textaufgaben vorliegen, und darüber hinaus sehr wenig über die selbstgenerierten Repräsentationen bei der Bearbeitung von Textaufgaben bekannt ist, ist die vorliegende Arbeit z.T. explorativ angelegt. Im Fokus stehen die spontanen und individuellen Lösungsprozesse von Schülern verschiedener Klassenstufen bei der Bearbeitung von problemhaltigen Textaufgaben. Dabei wurde vorrangig untersucht, auf welche Repräsentationsformen die Schüler bei ihren Lösungsprozessen zurückgreifen.
Insgesamt 268 Schüler verschiedener Klassenstufen (Grundschüler der 3. und 4. Klasse; Gymnasiasten der 6. und 9. Klasse) wurden in Einzeluntersuchungen gebeten, jeweils fünf problemhaltige Textaufgaben zu lösen. Diese wurden ursprünglich im Hinblick auf die Primarstufe entwickelt, scheinen jedoch auch für Schüler höherer Klassenstufen ihren anspruchsvollen Charakter nicht zu verlieren. Für die Aufgabenlösungen standen den einzelnen Schülern verschiedene Materialien zur Verfügung. Von Seiten der Versuchsleitung wurden keinerlei Hilfestellungen gegeben. Nach jeder Aufgabe wurden die Schüler zu ihren Vorgehensweisen mittels halbstrukturiertem Interview befragt. Das individuelle Vorgehen wurde durch Videoaufzeichnungen festgehalten.
Das gewonnene Videomaterial wurde durch drei geschulte Beobachter anhand eines selbstentwickelten Kodiersystems quantifiziert und schließlich statistisch ausgewertet.
Allgemein kann gesagt werden, dass alle Schüler Schwierigkeiten bei der Bearbeitung der fünf Textaufgaben aufwiesen. So gab es nicht einen Schüler, der alle fünf Aufgaben richtig lösen konnte. Trotzdem nahm die Anzahl der richtigen Lösungen mit höherer Klassenstufe signifikant zu. In diesem Zusammenhang ergaben sich jedoch unterschiedlich starke Zuwächse in Abhängigkeit von der jeweiligen Aufgabe und ihren Anforderungen.
Hinsichtlich der selbstgenerierten Repräsentationsformen ergaben sich u.a. folgende Ergebnisse. Erstens operierten die Grundschüler im Vergleich zu den Gymnasiasten sehr stark intern deskriptional, d.h., sie waren versucht, die gesamten Aufgaben durch Kopfrechnen zu bewältigen. Zweitens griffen die Schüler mit höherer Klassenstufe eher auf verschiedene Repräsentationsformen zurück, was für einen flexibleren Umgang mit ihnen spricht. Drittens scheint die Verwendung multipler Repräsentationen bei der Konstruktion des mathematischen Modells nicht per se zu einer richtigen Lösung zu führen. Aber sie verhindert, unabhängig von der Klassenstufe, eine gänzlich falsche Aufgabenbearbeitung bzw. -lösung. Im Bezug auf das Lösungsvorgehen konnte kein eindeutiges Ergebnis erzielt werden. Hier scheinen je nach Aufgabenanforderungen (und wahrscheinlich auch Personenfähigkeiten) ganzheitliche und zergliedernde Vorgehensweisen unterschiedlich gut geeignet zu sein im Hinblick auf den Lösungserfolg. Nachfolgende Untersuchungen müssen die hier berichteten Ergebnisse überprüfen. Die Ergebnisse legen jedoch nahe, dass hinsichtlich des Umgangs von Schülern mit anspruchsvollen Textaufgaben nach wie vor Handlungsbedarf bestehen sollte. Gerade der im Mathematikunterricht gelegte Schwerpunkt auf deskriptionale Repräsentationsformen im Sinne von Rechnungen und Gleichungen scheint bedenklich. Vielmehr sollte eine Schulkultur etabliert werden, die den flexiblen Einsatz von verschiedenen Repräsentationsformen, und hier im Besonderen die Verwendung depiktionaler Repräsentationen, als legitim und durchaus notwendig erachtet.
In einem randomisierten Kontrollgruppen-Design wurde die Wirksamkeit zweier ambulanter psychologischer Tinnitus-Therapien (12-wöchige psychologische Tinnitus-Therapie (PTT) sowie 4-wöchige psychologische Kurzzeit-Tinnitus-Therapie (KPTT)) miteinander verglichen. Die Überprüfung der Wirksamkeit erfolgte mittels folgender Parameter: Tinnitusbelastung, subjektive Lautheit, Dauer der Tinnituswahrnehmung, Tinnitusbelästigung, Copingfähigkeit, Stimmung, Depressivität, Schlaf und Kontrollüberzeugung. An der Studie nahmen 90 Patienten mit chronischem Tinnitus teil, die zufällig der PTT, der KPTT oder einer Wartekontrollgruppe (WKG) zugeteilt wurden. Die Datenerhebung erfolgte zu drei Messzeitpunkten: vor Therapiebeginn, nach Therapieende sowie 6 Monate nach Therapieende. Beide Interventionen führen zur signifikanten Reduktion der Tinnitusbelastung, der subjektiv wahrgenommenen Lautheit, der Dauer der Tinnituswahrnehmung und der Tinnitusbelästigung. Weiterhin führen beide Therapien zum Erlernen und zur Anwendung von effektiven Copingstrategien und damit auch zur Erhöhung der Kontrollüberzeugung. Alle berichteten Verbesserungen bleiben auch 6 Monate nach dem Therapieende stabil. Nachdem in der WKG nach 4 und nach 12 Wochen keine signifikanten Veränderungen beobachtet werden konnten, sind die Veränderungen in den Therapiegruppen in den o.g. Variablen als Therapieeffekte zu sehen. Keine der beiden Interventionen führt zu einer signifikanten Veränderung des Schlafes und der Stimmung. Als einziger signifikanter Prädiktor des Therapieerfolgs hat sich die Tinnitusdauer herausgestellt. Während die PTT unabhängig von der Tinnitusdauer zu einer Reduktion der Tinnitusbelastung führt, ist die KPTT umso wirksamer, je kürzer die Tinnitusdauer ist. Das Vorhandensein einer komorbiden psychischen Störung, die Ausgangsbelastung sowie die Veränderungsbereitschaft beeinflussen die Therapiewirksamkeit nicht. Da sich diese beiden ambulanten psychologischen Tinnitus-Therapien nicht in ihrer Wirksamkeit und in ihren langfristigen Auswirkungen voneinander unterscheiden, kann resümiert werden, dass beide gut für eine ambulante psychologische Behandlung von Patienten mit chronischem Tinnitus geeignet sind. Die kürzere KPTT ist jedoch aufgrund des niedrigeren Zeit- und Kostenaufwandes als effizienter zu bewerten.
Forschungsergebnisse zum Männerchorwesen Deutschlands im 19. Jahrhundert belegen dessen gesellschaftliche und politische Relevanz. Das so genannte Sängerwesen leistete demnach einen wesentlichen Beitrag zur Nationsbildung in Deutschland, da die Sänger durch ihren Gesang sowie durch ihre Aktivitäten im Verein und in der Öffentlichkeit zur inneren Einigung der Bevölkerung beitrugen und somit halfen, eine einheitliche Nation zu formen. Im Gegensatz dazu gab es bislang kaum Erkenntnisse über die gesellschaftlichen und politischen Hintergründe des Männerchorwesens der Pfalz im gleichen Zeitraum. Um diese Lücke zu schließen, wurde mit der vorliegenden Arbeit die Geschichte des Männerchorwesens der Pfalz erforscht, insbesondere hinsichtlich seiner Bedeutung für die Nationsbildung Deutschlands. Der Untersuchungszeitraum erstreckt sich von 1816, dem Jahr, in dem die Pfalz zum bayerischen Staatsgebiet wurde, bis zur Gründung des Deutschen Reiches im Jahre 1871.
Zunächst wird die Entwicklung des pfälzischen Sängerwesens bezüglich der Zahl der gegründeten Vereinen in den einzelnen Jahren und Orten sowie bezüglich des Feierns lokaler und regionaler Sängerfeste im Überblick und im Vergleich zum Musikvereinswesen der Pfalz im gleichen Zeitraum dargestellt. Dieser Betrachtung des pfälzischen Männerchorwesens als Ganzem folgt die Untersuchung seiner Einzelteile, der Personen und Ereignisse innerhalb einzelner Sängervereine und innerhalb bestimmter Zeitabschnitte, vor dem Hintergrund der jeweiligen politischen und gesellschaftlichen Situation. Bedeutend sind in diesem Zusammenhang vor allem die Auswirkungen der politisch-gesellschaftlichen Großereignisse Hambacher Fest von 1832 sowie Revolution von 1848/49 auf die laienmusikalischen Vereinskulturen.
Schließlich werden die einzelnen Phänomene und die Gesamtentwicklung aufeineander bezogen. Der Anhang der Forschungsarbeit beinhaltet, neben Auszügen aus den Protokollbüchern des "Cäcilienverein-Liedertafel Dürkheim" sowie Plakaten von pfälzischen Musik- und Sängerfesten der 1840er Jahre, Übersichtstabellen mit Informationen zu den Pfälzischen Musikfesten des 19. Jahrhunderts sowie zu den im Untersuchungszeitraum gegründeten Sängervereinen, außerdem Kartenmaterial zur räumlichen Verbreitung der Vereine sowie Notenmaterial zum freimaurerischen "Weihelied" des Kaiserslauterer Seminarlehrers Philipp Walter.
Die neuen Medien gewinnen im gesellschaftlichen Leben immer mehr an Bedeutung. Dieser Prozess beeinflusst zunehmend auch die Entwicklungen im schulischen Bereich. Durch die Eingliederung von Computern in den Unterricht entstehen neue Möglichkeiten hinsichtlich der Gestaltung von Lernprozessen. In diesem Zusammenhang ist es von großer Bedeutung, entsprechende Computeranwendungen für die jeweilige Lerngruppe aufzubereiten, sodass ein begründeter Einsatz im Rahmen des Unterrichts erfolgen kann. Zudem erfordert die effiziente Einbindung von Computern eine Veränderung der räumlichen Organisation, der methodischen Konzeption des unterrichtlichen Agierens, sowie einen Wandel im Rollenverständnis der Lehrpersonen. Diese Reflexion und Umorientierung ist die Grundlage dafür, dass neue Medien gewinnbringend für Lehr- und Lernprozesse genutzt werden können.
Ein erstes Ziel der vorliegenden Arbeit ist es - anhand einer landesweiten Befragung - die Situation bezüglich der Verwendung von Computern im Rahmen des Geometrieunterrichts der Grundschule empirisch zu überprüfen. Die Auswertung liefert Auskunft darüber, wie intensiv der Computer im Lernprozess eingesetzt wird und bildet jene Faktoren ab, die ausschlaggebend sind, dass Computer im Geometrieunterricht verwendet werden. Die Ergebnisse sind eine empirische Grundlage für die Entwicklung einer computergestützen Lernumgebung namens "Geolizi" (zweites Ziel der Arbeit). Im Rahmen dieser Lernumgebung sollen die Schüler/innen mittels Computer die Themen "Spiegelbildliche Figuren" und "Konstruktionen von Rechteck und Quadrat" selbstständig er- bzw. bearbeiten. Dabei stehen den Kindern "hands-on" Medien, traditionelle Zeichengeräte sowie interaktive Arbeitsblätter zur Verfügung. Der Computer (samt entsprechender Anwendungen) übernimmt in diesem Lernprozess unterschiedliche Funktionen. Die Erprobung der Lernumgebung erfolgt in mehreren Klassen der Grundstufe II im Rahmen einer formativen und summativen Evaluierung.
Anhand der Schüler/innenfragebögen wird die Benutzerfreundlichkeit der einzelnen Elemente untersucht. Auf der Grundlage eines Prä-Post-Untersuchungsdesigns wird versucht, mögliche Veränderungen der Einstellungen im Bezug auf den Einsatz von Computern im Geometrieunterricht bei den beteiligten Lehrerinnen / Lehrern herauszufinden.
Die Ergebnisse der Erprobungsphasen sowie die Auswertung der Fragebögen lassen die begründete Vermutung zu, dass durch die Verwendung der multimedialen Lernumgebung "Geolizi" eine Steigerung der Nutzungsintensität von Computern im Geometrieunterricht die Folge sein könnte. Insgesamt stellt die entwickelte Lernumgebung eine interessante Möglichkeit dar, Computer im Rahmen des Geometrieunterrichts der Grundschule einzusetzen und so einen wichtigen Beitrag zu einem selbstständigen, individualisierten Lernprozess zu leisten.
Diese Arbeit thematisiert die theoretische Grundlegung, Entwicklung und Validierung eines Instrumentariums, das Lehramtsstudierenden zum Abschluss der Bachelorphase einen Einblick in die eigene Kompetenzentwicklung ermöglicht sowie erste "Praxiserfahrungen" aufarbeiten hilft. Hierdurch wird die Ausbildung der Reflexionsfähigkeit der Studierenden unterstützt. Diese beiden Aspekte und zwei darauf ausgerichteten Instrumente sind die Grundlage für ein Online-Self-Assessment (Tour 3-RLP), das in Anlehnung an das Carreer-Counselling for Teachers (CCT, vgl. cct-germany.de) konzipiert und auf die Kompetenzerfassung ausgerichtet ist. Die Instrumente dienen der Förderung der Professionalisierung der Studierenden und entsprechen dem Anliegen der Reform der Lehrerausbildung in Rheinland-Pfalz. Dieses Reformkonzept, die KMK-Standards für die Lehrerbildung (Bildungswissenschaften), der rheinland-pfälzische "Orientierungsrahmen Schulqualität" sowie die Handreichungen und Manuale zur Durchführung der Vertiefenden Praktika in der Lehrerausbildung bilden die rationale Basis zur Itemgenerierung und Konstruktion der Instrumente.
Der erste Teil dieser Schrift widmet sich den theoretischen Grundlagen zur Erstellung des Instrumentariums für die "CCT-Tour 3-RLP" mit dem Hintergrund der Professionalisierung im Lehrberuf. Ihre historischen Dimensionen und die damit verbundenen Ansätze der Lehrerbildungsforschung stellen ein umfassendes Wissensgebiet dar, das von der "Lehrerpersönlichkeit" bis hin zur Implementation von Standards für die Lehrerausbildung sowie der Outputorientierung reicht. War es in den 60er und 70er Jahren noch der Persönlichkeitsansatz, der in der Lehrerbildungsforschung eine große Rolle spielte, so sind es nun die Ansätze zur Expertiseentwicklung und Modelle der Kompetenzentwicklung, die im Fokus des wissenschaftlichen Interesses stehen.
Im Theorieteil der Dissertationsschrift werden daher sukzessive die diesem momentanen Trend vorausgehenden Paradigmen beschrieben. Im Kontext dieser Erörterungen wird auf das Konzept der Lehrerselbstwirksamkeit eingegangen, es wird ferner intensiv auf topologische und typologische Modelle der Professionalisierung Bezug genommen. Ferner werden die Praxiselemente der Lehrerausbildung und deren Beitrag zur Professionalisierung angehender Lehrkräfte beleuchtet. Professionell reflektierte Praxis, so die Annahme, bildet eine Grundlage zur Expertiseentwicklung. Gerade deshalb ist es unumgänglich, die Transferierbarkeit von Theoriewissen in Praxishandeln zu hinterfragen und die hierzu vorliegenden Erkenntnisse aufzuarbeiten. Eine verbindende Theorie zwischen der Integrationshypothese (Theoriewissen kann in Praxishandeln "übertragen" werden) und der Differenzhypothese (Lehrerkönnen stellt eine eigene, vom Theoriewissen unabhängige Art von Wissensverwendung dar) stellt die kognitive Psychologie, und hier wiederum die Expertiseforschung, bereit. Sie kann annähernd erklären, wie propositionales Wissen (Regelwissen) und die über das berufliche Handeln über kategoriale Wahrnehmung und die Ausbildung von Schemata erzeugten Wissenskomponenten zum professionellen Agieren führen (können). Endpunkt des theoretischen Diskurses ist die Bilanzierung der vorliegenden Erkenntnisse, deren Verbindung mit den Anliegen der Reform der Lehrerbildung in Rheinland-Pfalz und die Rolle, welche die Tour 3-RLP in diesem Kontext spielen kann. rnIm empirischen Teil dieser Arbeit werden die Schritte zur Validierung des Instrumentariums erörtert.
Einführend erfolgt die Darstellung der Professionsstandards der PH Zentralschweiz, die als Modell zum Aufbau eines kompetenzstufenorientierten Instrumentariums gelten können. Eine Analyse von verschiedenen Methoden zur Ermittlung von Cut-Scores mit dem Ziel, Kompetenzstufen zu entwickeln, bildet ebenfalls eine Grundlage zum Aufbau geeigneter Verfahrensweisen innerhalb des eigenen Anliegens. Aus den Ergebnissen der beiden Validierungsstudien Studie lässt sich eine nach psychometrischen Kriterien abgesicherte Skalenstruktur für das Instrument zur Erfassung des Kompetenzstands ableiten und ein Tool aufbauen, das die Erfahrungsverarbeitung der Studierenden fokussiert und der Selbstreflexion dienen soll.
Kernanliegen beider Instrumentarien ist die Förderung der Studierenden, die mit dem Online-Self-Assessment über geeignete Rückmeldestrukturen und daran gekoppelte Handlungsempfehlungen realisiert wird. Der Ausblick widmet sich der Frage, ob eine kompetenzmodellierende oder auf Standards basierende Auseinandersetzung mit dem Thema Professionalisierung die einzige Möglichkeit darstellt, sich dem Thema der Kompetenzentenwicklung anzunähern. Die Rolle der Reflexion erweist sich im integrativen wie auch im differenziellen Ansatz zum Wissenstransfer und Kompetenzaufbau als das verbindende Element zwischen beiden Positionen.
Der immer schnellere technologische Wandel in der Wirtschaft und die damit verbundenen, sich verkürzenden Innovationszyklen machen die Aus- und Weiterbildung der Mitarbeitenden eines Unternehmens zu einem wichtigen Wettbewerbsfaktor. Traditionelle (Weiter-)Bildungsmethoden können jedoch den resultierenden, ständig wachsenden und immer schneller zu befriedigenden Aus- und Weiterbildungsbedarf nur bedingt befriedigen. Deshalb werden in zunehmenden Maße in der Aus- und Weiterbildung Angebote aus dem Bereich des technologiebasierten Lernens eingesetzt, welche ein selbstgesteuertes und -organisiertes Lernen und durch eine Integration in tägliche Arbeitsabläufe einen optimalen Wissenstransfer mit entsprechend hohem Lernerfolg ermöglichen. Um dies aber auch zu realisieren, ist eine entsprechend hohe Angebotsqualität in Bezug auf die Unterstützung der Nutzenden bei der Erreichung ihrer Lernziele erforderlich. Die Entwicklung qualitativ hochwertiger technologiebasierter Lernangebote ist im Allgemeinen aber mit größeren Aufwänden und längeren Entwicklungszeiten verbunden, wodurch eine Verfügbarkeit eines solchen Angebots zeitnah zum entstandenen Bedarf und in der geforderten Qualität oftmals nicht gewährleistet werden kann.
Diese Arbeit beschäftigt sich deshalb mit der Forschungsfrage, wie eine Lernsoftware entwickelt werden muss, um eine qualitativ hochwertige LSW im Sinne der optimalen Ausrichtung auf die Eigenschaften und Lernziele der einzelnen Lernenden sowie auf den von ihnen geplanten Einsatzkontext für das vermittelte Wissen bei gleichzeitiger Reduzierung von Entwicklungsaufwand und -zeit zu produzieren. Die als Antwort auf die Forschungsfrage definierte IntView-Methodik zur systematischen, effizienten und zeitnahen Entwicklung von qualitativ hochwertigen technologiebasierten Lernangeboten wurde konzipiert, um die Wahrscheinlichkeit der Produktion der Angebote ohne Überschreitung von Projektzeitplänen und -budgets bei gleichzeitiger gezielter Ausrichtung des Angebots auf Zielgruppen und Einsatzkontexte zur Gewährleistung der Qualität zu erhöhen.
Hierzu wurden nach einer umfangreichen Untersuchung von bestehenden Ansätzen zur Lernsoftware-Entwicklung, aber auch zur Produktion von verwandten Produkten wie Multimedia-, Web- oder Software-Anwendungen, diejenigen Durchführungsvarianten der Aktivitäten bzw. Aktivitätsschritte zur Lernsoftware-Entwicklung zu einer systematischen Vorgehensweise integriert, welche in ihrem Zusammenspiel den größten Beitrag zu einer effizienten Produktion leisten können. Kern der Methodik ist ein Entwicklungsprozess zur ingenieursmäßigen Erstellung der Angebote, der alle Entwicklungsphasen abdeckt und die Vorgehensweisen und Methoden aller an der Entwicklung beteiligten Fachdisziplinen, inklusive einer kontinuierlichen Qualitätssicherung von Projektbeginn an, in einen gemeinsamen Prozess integriert. Dieser Prozess wird sowohl als Lebenszyklusmodell als auch als daraus abgeleitetes Prozessmodell in Form eines Abhängigkeitsmodells definiert, um eine optimale Unterstützung eines Projektteams bei Koordination und Abstimmung der Arbeiten in der Entwicklung zu ermöglichen. In Ergänzung zu den Modellen wird eine umfassende Arbeitsunterstützung mit Templates bzw. Dokumentvorlagen inklusive Handlungsanweisungen und Beispielen für die direkte Anwendung der Vorgehensweise durch die Nutzenden bereit gestellt.
Im Rahmen der Evaluation der Methodik wird der Nachweis geführt, dass sie im Zusammenspiel mit ihrer umfangreichen Autorenunterstützung eine sowohl effektive als auch effiziente Lernangebot-Entwicklung ermöglichen kann. In den hierfür durchgeführten Beispielprojekten als auch in den durchgeführten drei Fallstudien wird gezeigt, dass die Methodik zum einen an die Erstellung unterschiedlicher Arten von Lernangeboten bzw. an den Einsatz in verschiedenen Projektkontexten einfach anpassbar sowie zum anderen effizient und effektiv nutzbar ist.
Beispielkommunikation: Formen und Funktionen der Beispielverwendung in der verbalen Interaktion
(2012)
Das Beispiel ist ein hoch komplexer, historisch sich vielfach ausdifferenzierender Begriff, mit dem sich seit der Antike die geisteswissenschaftlichen Disziplinen intensiv auseinandergesetzt haben. Die Orientierung am Besonderen, am Konkreten, am Einzelfall, am Exemplarischen ist eine zentrale menschliche Denkbewegung bei der Erkenntnisgewinnung, der Wissensvermittlung, dem Verstehen und der Verständigung ebenso wie bei der Überzeugung und Glaubhaftmachung. Wie wir aber in unserem ganz gewöhnlichen, alltäglichen Sprechen mit Beispielen umgehen, welche Rolle "das Exemplarische" insbesondere in der verbalen, mündlichen Interaktion spielt, wozu und wie wir Beispiele einsetzen, das ist linguistisch wenig und vor allem nicht systematisch untersucht. Wir nehmen im Alltag immer wieder explizit metasprachlich auf das Beispielgeben Bezug, wenn wir etwa sagen "Gib mir doch mal ein Beispiel" oder "Ich mach mal ein Beispiel". Die Analyse der Gesprächspraxis zeigt zudem, dass die Beispielverwendung kein randständiges, sondern ein sehr häufig zu beobachtendes sprachliches Phänomen in verschiedenen Kommunikationskontexten ist, von dem sich vermuten lässt, dass es gerade für die Alltagskommunikation fundamental ist.
Die vorliegende Arbeit hat deshalb zum Ziel, Beispiele in der Sprachverwendung als eine Form des sprachlichen Handelns fassbar und analysierbar zu machen und die Erscheinungsformen sowie Wirkungs- und Funktionsweisen auf der Grundlage von Transkripten natürlichsprachiger Dialoge empirisch zu untersuchen. Aus der Perspektive verschiedener Disziplinen werden Dimensionen des Beispielbegriffs, des fallbezogenen Denkens und des Argumentierens mit Beispielen betrachtet. Es wird auf die grundlegende Rolle des Beispiels, des Besonderen beim Erkennen und Verstehen des Allgemeinen eingegangen, auf die Beschreibungen der Beispielfunktionen und "Funktionslogiken" auf verschiedenen Ebenen. Ausführlich wird auf die bisherigen Analysen zur Beispielverwendung in der Text- und Gesprächslinguistik eingegangen. Im Kontext der Analyse der Sprachverwendung in der natürlichen Sprache wird das Beispiel allerdings nur selten als eigenes Thema behandelt, das Exemplifizieren / Beispielnennen wird häufig als sprachliche Handlung selbstverständlich vorausgesetzt, jedoch dabei nicht konzeptuell betrachtet. Aufbauend auf die Betrachtung und Bewertung der bisherigen Untersuchungen wird in der vorliegenden Arbeit Beispielverwenden als sprachliche Handlung konzeptualisiert, die im Kern eine Konnexstiftung von Besonderem und Allgemeinem enthält. Dabei werden gesprächsanalytische und hermeneutische Ansätze aus der Handlungssemantik aufeinander bezogen und Möglichkeiten für eine Adaption gezeigt.
Die empirischen Analyse stützt sich auf ein umfangreiches Korpus transkribierter verbaler Interaktionen (Diskussionen, Talkshow, Konfliktgespräch). Die Analyseergebnisse bestehen zum einen aus korpusgestützten Beschreibungen und (für Erweiterungen offenen) Typologisierungen von Realisierungsformen und des "displays" von Beispielverwendung sowie der empirisch gestützten Beschreibung von Handlungs- und Interaktionsmustern der Beispielverwendung im Gespräch und ausführlichen, exemplarischen, funktionsbezogenen Einzelanalysen.