Dissertation
Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (222) (entfernen)
Sprache
- Deutsch (222) (entfernen)
Schlagworte
- Führung (6)
- Inklusion (6)
- Grundwasserfauna (5)
- Arbeitszufriedenheit (3)
- Dialog (3)
- Grundwasser (3)
- Inhaltsanalyse (3)
- Integration (3)
- Kultur (3)
- Lendenwirbelsäule (3)
Institut
- Fachbereich 8 (27)
- Fachbereich 7 (20)
- Fachbereich 5 (19)
- Institut für Integrierte Naturwissenschaften, Abt. Chemie (12)
- Institut für Pädagogik, Abteilung Pädagogik (12)
- Institut für Computervisualistik (9)
- Institut für Erziehungswissenschaft (9)
- Arbeitsbereich Biopsychologie, Klinische Psychologie und Psychotherapie (7)
- Fachbereich 6 (7)
- Institut für Germanistik (7)
Fungicide effects on the structure and functioning of leaf-associated aquatic fungal communities
(2022)
Aquatic hyphomycetes are a polyphyletic group of saprotrophic fungi growing abundantly on submerged leaf litter. In stream ecosystems shaped by allochthonous leaf litter inputs, they play a central functional role as decomposers and food source for other organisms. Fungicides pose a threat to aquatic hyphomycetes and their functions, since these substances are inherently toxic to fungi and contaminate surface waters around the world due to their widespread use in agricultural and urban landscapes. While fungicides’ potential to reduce fungal diversity are discerned, the extent of impacts on biodiversity-ecosystem functioning relationships (B EF) remains unclear. This is partly attributed to methodological constraints in the detection and quantification of single aquatic hyphomycete species within microbial leaf-associated communities. The primary aim of this thesis was, therefore, (1) to assess the ecotoxicological impacts of fungicides on B-EF relationships in aquatic hyphomycete communities. To facilitate this, subordinate aims were to (2) develop DNA-based biomolecular tools (i.e., qPCR assays) to detect and to quantify the biomass of different aquatic hyphomycete species in mixed cultures and (3) to investigate the mechanisms underlying B-EF relationships in the absence of chemical stressors.
In the course of this thesis, qPCR assays were developed for detection and species-specific biomass quantification of ten common aquatic hyphomycete species and successfully validated for application in eco( toxico )logical microcosm experiments. Via a systematic manipulation of fungal diversity, these assays allow the examination of B-EF relationships by assessments of deviations between observed and (monoculture-based) predicted activities in fungal mixed cultures. Taking advantage of these tools in a microcosm experiment, it was uncovered that leaf decomposition results from the additive activity of community members, even though functionally distinct species were present. Colonization dynamics are characterized by complex interactions. Colonization success of aquatic hyphomycetes is higher if co-occurring species are genetically and functionally distinct (i.e., complementary interactions). However, the co-occurrence of aquatic hyphomycete species does not necessarily result in a greater colonization success compared to monocultures, unless bacteria are present. Accordingly, the presence of other microbial groups such as bacteria may induce new fungal diversity-based feedback loops, which ultimately enable coexistence of aquatic hyphomycete species in the environment. Exposure to fungicides revealed substantial differences in sensitivities among aquatic hyphomycetes. The most productive species were able to cope with extremely high fungicide concentrations up to the mg/L-range. In assemblages containing these species, leaf decomposition was maintained under fungicide exposure. Yet, already at environmentally relevant fungicide concentrations, tolerant species displaced more sensitive ones, potentially affecting leaves’ nutritional quality for consumers. This thesis thus indicates that fungicide exposure poses a risk to stream food webs rather than the microbial leaf decomposition process per se.
Aktuell gibt es in den Geisteswissenschaften eine Vielzahl von digitalen Werkzeugen, wie beispielsweise Annotations-, Visualisierungs-oder Analyseanwendungen, welche Forscherinnen bei ihrer Arbeitunterstützen und ihnen neue Möglichkeiten zur Bearbeitung unterschiedlicher Forschungsfragen bieten. Allerdings bleibt die Nutzung dieser Werkzeuge stark hinter den Erwartungen zurück. In der vorliegenden Arbeit werden im Rahmen einer Design-Science-Theorie zwölf Verbesserungsmaßnahmen entwickelt, um der fehlenden Nutzungsakzeptanz entgegenzuwirken. Durch die Implementierungen der entwickelten Design-Science-Theorie, können SoftwareentwicklerInnen die Akzeptanz ihrer digitalen Werkzeuge, im geisteswissenschaftlichen Kontext, steigern.
Die Studie thematisiert die Positionierung und Subjektivierung von Medienpädagog*innen im Diskurs um Gewaltdarstellungen in Computerspielen. Der sogenannte ‚Killerspiel‘-Diskurs in den Jahren 2001 bis 2016 stellt für medienpädagogische Fachkräfte ein Feld widersprüchlicher Handlungserwartungen dar, Gewaltdarstellungen in Computerspielen entweder als Problem wahrzunehmen und dieses zu bearbeiten oder Computerspiele als Chance zu begreifen. Als rele-vante Multiplikator*innen diskursiver Wissensbestände wurden deswegen für diese Studie Me-dienpädagog*innen interviewt, die an maßgeblichen Positionen in der Schnittstelle zwischen Wissenschaft und Praxis agieren und daher für viele Kolleg*innen deutungs- und praxisrelevan-tes Wissen generieren. Um die Ausrichtung dieses Wissens zu prüfen, wurde in dieser Studie die Frage gestellt, wie sich diese medienpädagogischen Fachkräfte, die korrigierend in Diskurse ein-greifen, positionieren und inwiefern (medien-)pädagogische Professionalität als Ressource und Grenze der Positionierung fungiert.
Um die Fragestellung zu beantworten wurden zwei empirisch analytische Untersuchungen durchgeführt. Zuerst wurde eine Sekundäranalyse bestehender Diskursanalysen zum ‚Killer-spiel‘-Diskurs durchgeführt, um die Subjektpositionen herauszuarbeiten, mit denen sich die Me-dienpädagog*innen auseinandersetzen mussten. In einem zweiten Schritt wurde eine qualitative Interviewstudie mit neun Medienpädagog*innen durchgeführt. Im Anschluss an die semi-narrativen Expert*inneninterviews wurden diese in einem dreistufigen Verfahren ausgewertet. Nach der deduktiven und induktiven Kategorienbildung in Anlehnung an die inhaltlich struktu-rierende Inhaltsanalyse, wurde im Rahmen einer Deutungsmusteranalyse das Deutungswissen der Medienpädagog*innen und der Sinnhorizont ihrer Intervention in den Diskurs feinanalytisch rekonstruiert. Zuletzt wurden drei biographische Fallanalysen durchgeführt, um die Relationie-rung zwischen Diskurs und (Berufs-)biographie zu diskutieren.
Im Rahmen der Sekundäranalyse des ‚Killerspiel‘-Diskurses konnte die bisher in Diskursanaly-sen rekonstruierte Differenzierung von Risiko- und Chancennarrativ erweitert werden. Durch die Abgrenzung jeweils zweier Deutungsmuster des Problemdiskurses (‚Gefahr‘ und ‚Risiko‘) und des Gegendiskurses (‚Optimierung von Lernchancen‘ und ‚Kultur‘) konnten dadurch Positionie-rungen in multiplen Konfliktfeldern sichtbar gemacht werden. So war es möglich die fachliche Positionierung der Medienpädagog*innen als Zwischenraum zu fassen, in dem sowohl Deutun-gen des Gegendiskurses als auch des Problemdiskurses eigenwillig miteinander relationiert wer-den. Die eigenwillige Aneignung diskursiver Problem- und Deutungsmuster verläuft bei den Medienpädagog*innen über unterschiedliche fachliche Schnittstellen und Kopplungen. Statt den Diskurs mit der eigenen Lebensgeschichte zu relationieren wird er mit der in Handlungsfeld-strukturen situierten fachlichen medienpädagogischen Praxis in Beziehung gesetzt. Dabei ist eine Pädagogisierung des Diskurses und eine Diskursivierung pädagogischer Handlungsfelder zu beobachten. Mittels mehrerer Pädagogiken werden diskursive Deutungsmuster transformiert und das medienpädagogische Handeln durch die Re-Interpretation medienpädagogischer Hand-lungsfelder im Sinnhorizont des Diskurses als Intervention in den Diskurs gerahmt. Gleichzeitig wird in einem ‚Opportunismus der Uneindeutigkeit‘ die Anschlussfähigkeit an Problemdeutun-gen durch die Selbstdarstellung als verantwortliche Problembearbeiter*innen gewahrt, wodurch die eigene Handlungsfähigkeit, die Legitimität des Handelns und der Zugang zu gesellschaftli-chen Ressourcen gesichert wird.
In den Fallanalysen zeigte sich, dass diese fachlichen Positionierungen nur dann einen Subjekti-vierungsprozess dokumentieren, wenn die Erzählbausteine des Diskurses (Deutungsmuster und diskursiver Konflikt) als Material für die eigene Selbsterzählung herangezogen und als Professi-onsverständnis re-artikuliert werden. Das Konfliktszenario wird dann über dessen öffentliche Thematisierung hinaus als berufsbiographisches Projekt formulierbar, was sich insbesondere da-rin zeigt, dass prospektive Zukunftsentwürfe weiterhin im Deutungs- und Konfliktspektrum des Diskurses verortet werden. Subjektivierung professioneller Akteure kann daher als über fachliche Positionierungen (als fachlich orientierte, kommentierende Auseinandersetzungen mit im Diskurs verhandelten Deutungsmustern und Wissensbeständen) hinausgehende Prozesse der Deutung des eigenen Professionalitätsverständnisses, die Ausbildung von Pädagogiken und die Veranke-rung berufsbiographischer Ziele im Horizont des Deutungsspektrum des Diskurses gefasst wer-den.
In der medienpädagogischen Professionsforschung können die Deutungsmuster und Subjektpo-sitionen des Diskurses als Professionalitätserwartungen analytisch Anwendung finden. Ihr Vor-teil gegenüber den hierfür auch herangezogenen Paradigmen der Medienpädagogik ist der Aktu-alitäts- und Gegenstandsbezug. Auch in anderen Themenbereichen (bspw. Mediensucht) können die Deutungsmuster des Diskurses sinnvoll Anwendung finden. Die Studie konnte zudem zei-gen, dass eine Subjektivierungsheuristik sinnvoll auf professionelle Akteure anwendbar ist, da fachliche Positionierungen von Subjektivierungen deutlich unterschieden werden können. Dafür wurde eine spezielle für professionelle Akteure konzipierte Subjektivierungsheuristik entworfen, die insbesondere den unterschiedlichen Funktionen diverser Wissensformen Rechnung tragen kann und in der Professionsforschung die Relevanz des diskursiven Wissens als relevanter Wis-sensform für professionelle Praxis herausstellt.
In der vorliegenden Arbeit wird die Synthese von N-Phenacylpyridinium-Salzen und deren Eignung als Photoinitiatoren für die Umsetzung von Epoxidgruppen beschrieben. In vorangehenden Untersuchungen werden Phenacyl-Salze als Photoinitiatoren für die kationische Polymerisation von Epoxidharz-Systemen beschrieben. Die Einflüsse der einzelnen Bestandteile der beschriebenen Photoinitiatoren sind insbesondere im Hinblick auf die Kinetik des Epoxidgruppen-Umsatzes noch nicht ausreichend erforscht. Als Grundlage für alle Verbindungen der vorliegenden Arbeit wird das N-Phenacylpyridinium-Salz gewählt und mittels Substituenten und dem Austausch der Gegenionen an verschiedenen Stellen variiert. Die Untersuchung der Einflüsse der jeweiligen Substituenten mit Fokus auf den Umsatz der Epoxidgruppen zeigt eine Abhängigkeit von drei wesentlichen Faktoren. Ein Faktor ist dabei das Substitutionsmuster der Phenacylgruppe. Anhand der gezielten Einführung von Phenyl- und Methyl-Substituenten wird Einfluss auf die Kinetik des Photolyse-Prozesses genommen. Die beiden weiteren Faktoren stellen dabei die Variation der Pyridin-Derivate und der Gegenionen dar. Je nachdem welche Pyridin-Derivate und Gegenionen eingesetzt werden, wird die Kinetik des Epoxidgruppen-Umsatzes beschleunigt oder gehemmt. Dabei stellt sich heraus, dass Pyridin-Derivate mit Substituenten, die −I- und −M-Effekte ausbilden, und Gegenionen, die starke Säuren bilden können, einen beschleunigenden Einfluss haben. Im Gegensatz dazu zeigen Pyridin-Derivate mit Substituenten, die einen +M-Effekt ausbilden, eine hemmende Wirkung auf den Epoxidgruppen-Umsatz.
Die ermittelten Umsatzraten und die Einarbeitung in eine Klebstoffformulierung zeigen, dass ausgewählte Verbindungen aus der vorliegenden Arbeit geeignete Photoinitiatoren zur Umsetzung von Epoxidharz-Systemen darstellen.
Beim Zugang zur dualen Berufsausbildung haben Jugendliche und junge Erwachsene mit Migrationshintergrund schlechtere Chancen in eine betriebliche Berufsausbildung einzumünden. Vermehrt wird ein Forschungsbedarf thematisiert, der den Blick darauf richtet, wie die entsprechenden Auswahlentscheidungen in den Betrieben getroffen werden. Die Dissertation setzt an dieser Frage an und befasst sich mittels eines biographischen Zugangs mit den Personalentscheiderinnen und Personalentscheidern, den sogenannten Gatekeepern, in den Betrieben. Im Erkenntnisinteresse steht die Frage, ob und wie biographische Erfahrungen Bedeutung für Auswahlentscheidungen zugunsten zugewanderter junger Menschen haben.
Enterprise Collaboration Systems (ECS) werden zunehmend als Kernkomponenten des digitalen Arbeitsplatzes in Unternehmen eingesetzt, die mit der Implementierung dieser neuen Softwaregattung jeweils unterschiedliche Ziele für die innerbetriebliche Zusammenarbeit verfolgen. Diese Ziele werden in der Praxis oftmals nicht eindeutig genug formuliert. Der Einsatz von traditionellen Controlling-Kennzahlen mit dem Schwerpunkt auf Termineinhaltung und Kosten sind zudem ungeeignet, um die Realisierung des individuellen Nutzens von ECS zu messen. Diese Forschungsarbeit beschreibt die Entwicklung und Anwendung des Benefits Scorecards for Collaboration Platforms in Enterprises (SCoPE) Frameworks, das als ein Rahmenwerk für die kennzahlengestützte Nutzenmessung von ECS dient und an dem Goal-Question-Metrics-Approach der NASA sowie der Balance Scorecard von Kaplan & Norton angelehnt ist. Die Ergebnisse tragen zu einem breiteren Verständnis der kennzahlenbasierten Nutzenanalyse für ECS in Organisationen bei. Das Benefits-SCoPE-Framework wurde in enger Zusammenarbeit mit Experten aus 16 Anwenderunternehmen im Rahmen der Initiative IndustryConnect entwickelt. In einem design-orientierten Ansatz wurde ein ausgewählter Methodenmix angewandt, inklusive Experteninterview, Fokusgruppe, Workshop und Card Sorting. Der von Anwenderunternehmen erwartete Nutzen des ECS wird in spezifische, durch Kennzahlen beantwortbare Fragestellungen umformuliert und fragmentiert. Insgesamt konnten so 313 nutzenorientierte Fragen von drei Anwenderunternehmen identifiziert werden. Die durchgeführte Kategorisierung der Fragen verdeutlicht zum einen das gemeinsame Verständnis der Unternehmen hinsichtlich der entscheidenden Faktoren für die Nutzenrealisierung von ECS und zum anderen die Nutzen-ziele, die die Unternehmen durch den Einsatz des ECS anvisieren. Die Entwicklung und Erhebung von Kennzahlen zur quantitativen Beantwortung von ausgewählten Fragestellungen wird mit funktions-fähigen Prototypen auf einer operativen Kollaborationsplattform demonstriert, die seit mehr als sieben Jahren im Einsatz ist und mehr als 5.000 registrierte Benutzer aufweist. Die Kennzahlenentwicklung, die Auswahl der Datenerhebungsmethode, die Durchführung der Messung sowie die Interpretation der Messergebnisse werden im Framework durch die Verwendung von Benefits Scorecards unterstützt. Die individuelle Orchestrierung mehrerer Benefits Scorecards repräsentiert die Struktur eines Ordnungssystems zur ECS-Nutzenanalyse in Anwenderunternehmen und verdeutlicht das Vorgehen zur Erhebung der äquivalenten Daten.
Die Arbeit stellt eine Systematisierung der wissenschaftsphilosophischen Gedanken der klassischen Pragmatisten (Charles S. Peirce, William James, John Dewey) dar.
Deren Erfahrungstheorie sowie die Bestimmung des Verhältnisses von Theorie und Praxis bilden die Grundlage einer holistischen Wissenschaftsphilosophie.
Die exemplarische Anwendung auf klassische wissenschaftstheoretische Fragestellungen zeigt die Aktualität des Ansatzes.
Eine Ursache des Insektenrückgangs ist die Abnahme der für Arthropoden wichtigen Lebensräume. Der kleinstrukturierte Obstanbau als Dauerkultur mit vielfältigen Strukturen (Bäume, Grünland, offener Boden) kann als Refugium wirken. Gerade Dauerkulturen, welche über viele Jahre bestehen bleiben, können einen großen ökologischen Wert für Insekten und Spinnentiere darstellen, wenn die negativen Einflüsse der Bewirtschaftung durch gezielte Maßnahmen minimiert werden. Im Gegensatz zu den gut untersuchten Streuobstwiesen liegen bisher nur wenige oder ungenaue Daten über die Arthropodenfauna in Erwerbsobstanlagen vor. Ziele dieser Arbeit sind eine genauere Erfassung der Arthropodenfauna in Erwerbsobstanlagen, Benennung der Einflussfaktoren und Erarbeitung einer indikatorgestützten Bewertungsmethode mit Entwicklung von Maßnahmen zur Förderung der Biodiversität. Es wurde eine intensive Erfassung der Insekten und Spinnentiere auf Basis von Individuenzahlen, Verteilung der Tiere auf Großgruppen, Artenzahlen der Käfer (inkl. Rote Liste) und Wanzen, deren Diversität und der sie beeinflussenden Faktoren auf vier Erwerbsobstflächen und einer Streuobstwiese als Referenzfläche in der Gemeinde Zornheim (Rheinland-Pfalz) untersucht. Mittels des erarbeiteten Bewertungsbogens wurden die Auswirkungen der fünf Faktorenkomplexe: Sonderstrukturen, Anlagenstruktur, Beschattung, Mahdregime und Einsatz von Pflanzenschutzmitteln auf die Arthropodenfauna erhoben und die auf der Fläche zu erwartende Biodiversität ermittelt. Die visuelle Darstellung der Einflussfaktoren mit Netzdiagrammen zeigt biodiversitätsbeeinträchtigende Faktoren und ermöglicht so Empfehlungen zur Aufwertung der Biodiversität. Die Bewertungsmethode kann nach Verifizierung im Rahmen von erfolgsorientierten Agrarumwelt- und Klimamaßnahmen (AUKM), zur Anerkennung von Kompensationsmaßnahmen (z.B. PIK) und zur Ermittlung des ökologischen Wertes (Ökosystemdienstleistung) von Obstanlagen genutzt werden. In modifizierter Form könnte es ebenfalls im Bereich der Flächenbewertung in Landschafts- und Bauleitplanung eingesetzt werden.
Lernen in Citizen Science
(2021)
Unsere Welt und die technischen und naturwissenschaftlichen Erkenntnisse verändern sich aktuell sehr schnell. Dies betrifft auch die naturwissenschaftliche Forschung und erfordert vermehrten Einsatz der Wissenschaftskommunikation und der Bildung. Ein Instrument der Wissenschaftskommunikation und eine Erweiterung des schulischen Unterrichts kann die Beteiligung von Freiwilligen bei wissenschaftlichen Arbeiten sein, welches auch als Citizen Science (CS) bezeichnet wird. CS Projekte erfreuen sich einer wachsenden Beliebtheit, unter anderem von Schulen (Burger, 2016). Dabei werden unter anderem die Förderung des Kontextwissens, der Scientific Literacy, der Umwelteinstellung und des –verhaltens versprochen (Peter et al., 2019). Interventionsstudien zu den Bildungspotentialen kommen jedoch zu unterschiedlichen Ergebnissen (Gommermann & Monroe, 2012; Turrini et al., 2018). Diese inkonsistenten Ergebnisse der Studien können auf die unterschiedliche Gestaltung der einzelnen evaluierten CS Projekte zurückgeführt werden. Es wird angenommen, dass Teilnehmende, die in mehr Schritten des wissenschaftlichen Prozesses eingebunden werden, ein größeres Bildungspotential haben, als Teilnehmende, die nur in wenige Schritte eingebunden werden (Burger, 2016; Shirk & Bonney, 2018). Bonney, Ballard et al. (2009) haben dazu ein dreistufiges Modell entwickelt. Das Modell wird unter anderem auch von Shirk et al. (2012) und Jordan et al. (2015) unterstützt, ist jedoch bezüglich der Lernwirksamkeit nicht empirisch überprüft (Edwards et al., 2018; Jordan et al., 2015). Deswegen schließt die Forschungsfrage dieser Studie hier an: Unter welchem Partizipationsansatz sind die Lerneffekte in einem CS Projekt am größten für Schülerinnen und Schüler? Um diese Frage zu beantworten, wurde ein CS Projekt mit drei Experimentalgruppen geplant und durchgeführt. Insgesamt nahmen 199 Schülerinnen und Schüler an dem Projekt teil. Innerhalb der Interventionsstudie wurden die Schülerinnen und Schüler zu drei Testzeitpunkten zur Umwelteinstellung und -verhalten, Nature of Science, Einstellung zur Wissenschaft und dem Kontextwissen befragt. Die Analysen über die Messzeitpunkte zeigen keine statistisch signifikanten Einflüsse der Experimentalgruppen auf die abhängigen Variablen. Jedoch ist die Teststärke bei allen Tests zu gering, um abschließende Aussagen über die Annahmen zu treffen. Wird jedoch die generelle Wirkung der Intervention betrachtet, zeigen sich signifikante Effekte auf alle Schülerinnen und Schüler, unter anderem steigt das Verständnis über Nature of Science. Diese Ergebnisse stimmen mit früheren Schlussfolgerungen von Phillips (2017), Phillips et al. (2019) und Del Bianco (2018) überein, die ebenfalls Zweifel an dem Modell von Bonney, Ballard et al. (2009) äußerten. Innerhalb dieses CS Projektes konnte sich keiner der drei Partizipationsansätze bezüglich des Bildungspotential für Schülerinnen und Schüler hervorheben lassen. Jedoch ist diese Studie unter anderem durch die geringe Teststärke limitiert und endgültige Aussagen bedürfen weiterer systematischer Forschung.
In der Dissertation “Leben am und vom Rhein. Aspekte der Alltagsgeschichte in St. Goar und St. Goarshausen vom Späten Mittelalter bis zum Ende des 17. Jahrhunderts” untersucht der Autor Richard Lange die Historie “kleiner Leute” in zwei Städten am Mittelrhein.
Die Studie konzentriert sich dabei auf die Geschichte jener Berufe, die direkt vom Rhein abhängig waren, also in erster Linie auf das Zollpersonal, die Kranbediensteten sowie die Salmenfischer. Hinzu kommen einige weitere Berufszweige wie Treidler, Fährleute, Schiffsleute sowie Händler und Betreiber von Wirtshäusern.
Für all diese Gruppen wird, soweit anhand der Quellen möglich, der Alltag ihres Berufes nachgezeichnet. Auf diesem Wege wird versucht, das bunte Bild, das sich auf dem Rhein bisweilen bot, darzustellen und gleichzeitig aufzuzeigen, in welcher nicht zu unterschätzenden Weise der Rhein das ganze Leben in St. Goar und St. Goarshausen über die Jahrhunderte hinweg beeinflusste.
Die bisherige Forschung zur Diagnosekompetenz hat trotz langjähriger Forschungstraditionen für die Praxis kaum relevante Befunde erbracht. Dies wurde in der vorliegenden Arbeit als Anlass für den Vorschlag genommen, diagnostische Kompetenz als reine Urteilsgenauigkeit, gemäß der Komponentenanalyse nach Cronbach (1955), zu erweitern. Mit der Einführung der Beobachtungskompetenz als einer weiteren Facette diagnostischer Kompetenz knüpft die vorliegende Studie zudem an der Forschung zu formativem Assessment an.
Die zentralen Fragen der Arbeit beziehen sich darauf, wie die beiden Facetten der diagnostischen Kompetenz Urteilsgenauigkeit und Beobachtungskompetenz von pädagogischen Fachkräften im Elementarbereich ausgeprägt sind, ob diese Facetten zusammenhängen und wie sie durch bereichsspezifische Fortbildungen und explizit durch verschiedene Fortbildungsansätze (Lehrgangs- vs. Lernwegsorientierung) verändert werden können. Untersucht wurden insgesamt 103 Erzieherinnen aus 21 Einrichtungen mit eigens für die Arbeit entwickelten Instrumenten (Fragebögen, Filmvignetten).
Zur Beantwortung der ersten Forschungsfrage, wie die bereichsspezifische diagnostische Kompetenz von Erzieherinnen hinsichtlich der Facetten Urteilsgenauigkeit und Beobachtungskompetenz ausgeprägt ist, zeigt sich, dass Erzieherinnen das Niveau ihrer Gruppe im Vergleich der Urteilsgenauigkeits-Komponenten am besten einschätzen können (Niveaukomponente), mit Tendenz zur Überschätzung. Auch die Wahrnehmung von Unterschieden zwischen den Kindern ihrer Gruppe gelingt ihnen gut (Personenkomponente), dabei neigen sie eher zu einer Überschätzung der Heterogenität. Wesentlich schwerer fällt es ihnen, spezifische Aufgabenschwierigkeiten im mathematischen Bereich korrekt einzuschätzen (Merkmalskomponente) und Unterschiede zwischen den Kindern im Hinblick auf einzelne Aufgaben (Wechselwirkungskomponente) zu beurteilen. Die Erzieherinnen sind jedoch sehr gut in der Lage, die Kinder entsprechend ihrer Leistungen in eine Rangreihenfolge zu bringen, wie es die Korrelationskomponente der Personenkomponente zeigt. Die Beobachtungskompetenz von Erzieherinnen zeigt sich in der Anzahl erkannter Fähigkeiten von Kindern während verschiedener Tätigkeiten mit mathematischem Bezug. Dabei wurde der Schwierigkeitsgrad der Beobachtung mittels Expertinneneinschätzung berücksichtigt. Die Erzieherinnen erkennen durchschnittlich die Hälfte der mathematischen Fähigkeiten von Kindern in verschiedenen komplexen Alltagssituationen bei mathematischen Tätigkeiten. Die zweite Forschungsfrage, ob es einen Zusammenhang zwischen der Urteilsgenauigkeit und der Beobachtungskompetenz gibt, kann klar beantwortet werden. Erwartungswidrig zeigt die vorliegende Untersuchung, dass die Facetten Urteilsgenauigkeit und Beobachtungskompetenz voneinander unabhängig sind. Damit konnte die Annahme, dass auf der einen Seite eine genaue summative Beurteilung auf einer Vielzahl kompetenter Einzelbeobachtungen beruht, auf der anderen Seite aber häufige gezielte Einzelbeobachtungen in ihrer Summe zu einem genaueren Gesamturteil führen, nicht bestätigt werden. Die dritte Forschungsfrage, ob eine bereichsspezifische Fortbildung von Erzieherinnen zur Verbesserung ihrer Urteilsgenauigkeit führt, muss verneint werden. Dagegen beeinflusst der Faktor Zeit (neun Monate zwischen Prä- und Posttest) die Fähigkeit der Erzieherinnen, Unterschiede zwischen den Kindern signifikant besser wahrzunehmen (Personenkomponente) und spezifische Aufgabenschwierigkeiten signifikant besser einzuschätzen (Merkmalskomponente). Damit verbessert sich auch die globale Urteilsgenauigkeit über die Zeit signifikant. Auf die Einschätzung des Leistungsniveaus der Gruppe (Niveaukomponente) sowie von Unterschieden zwischen den Kindern für einzelne Items (Wechselwirkungskomponente) hat jedoch auch der Faktor Zeit keinen signifikanten Einfluss.
Die vierte Forschungsfrage, ob die Unterschiede in der Veränderung der Urteilsgenauigkeit von Erzieherinnen davon abhängig sind, nach welchem Ansatz sie Kinder bereichsspezifisch fördern, lässt sich zusammenfassend verneinen. Die Art und Weise der bereichsspezifischen Förderung spielt keine Rolle für die Variabilität der Urteilsgenauigkeit von Erzieherinnen. Auch die Unterschiedlichkeit in den einzelnen Urteilsgenauigkeitskomponenten lässt sich nicht auf die Art der Fortbildung zurückführen.
Die fünfte Forschungsfrage, ob sich die Beobachtungskompetenz von Erzieherinnen durch eine bereichsspezifische Fortbildung beeinflussen lässt, kann aufgrund einer signifikanten Zunahme der Beobachtungskompetenz nach nur zwei Fortbildungstagen bejaht werden. Damit wird die These gestützt, dass eine Fortbildung zur bereichsspezifischen Förderung für eine gezielte und damit fokussiertere Wahrnehmung früher bereichsspezifischer Kompetenzen bedeutsam ist, selbst wenn sie nicht explizit auf diagnostische Kompetenz, sondern allgemein auf Förderung ausgerichtet ist
Die sechste Forschungsfrage zielt auf Veränderungen der Beobachtungskompetenz von Erzieherinnen in Abhängigkeit von Fortbildungen in verschiedenen bereichsspezifischen Förderansätzen ab. Für eine Zunahme der Beobachtungskompetenz, so zeigt sich, spielt der bereichsspezifische Ansatz, welcher der Fortbildung zugrunde gelegt ist, keine Rolle.
Die vorliegende Studie ist die erste Arbeit, die sowohl Beobachtungskompetenz (Forschung zu formativem Assessment) als auch Urteilsgenauigkeit (Accuracy-Forschung) anhand derselben Stichprobe untersucht. Trotz des im Ergebnis nicht nachgewiesenen Zusammenhangs zwischen Urteilsgenauigkeit und Beobachtungskompetenz stellt die Studie für die zukünftige Forschung bedeutsame Hinweise für die weitere Untersuchung der Facetten diagnostischer Kompetenz bereit.
Im Hinblick auf den frühpädagogischen Kontext zeigt die vorliegende Arbeit zum einen, dass ein ökologisch valides Treatment (Fortbildung) in einem Umfang von zwei Tagen implizit zu einer Verbesserung diagnostischer Kompetenzen führen kann. Zum anderen wird hier erstmalig im deutschsprachigen Raum die Messung der Urteilsgenauigkeit unter vollumfänglicher Erfüllung eines auf Hoge und Coladarci (1989) beruhenden Anforderungsprofils durchgeführt. Ein weiteres Alleinstellungsmerkmal dieser Studie ist die erstmals mit einer Mindestanzahl von vier Einschätzungen pro Erzieherin unter Berücksichtigung der Kontaktzeiten zwischen Erzieherinnen und Bezugskindern erfolgte Erhebung der Urteilsgenauigkeit von Erzieherinnen.
Speziell in Anwendungen mit intensiver Temperatur- und Korrosionsbeanspruchung finden vermehrt Phosphate als sogenannte chemische Binder für Hochleistungskeramiken Verwendung. Konkret ist die Summe der Reaktionsverläufe während des Bindemechanismus in Folge einer thermisch-induzierten Aushärtung und somit die Wirkungsweise von Phosphatbindern prinzipiell innerhalb der Fachliteratur nicht eindeutig untersucht. Innerhalb dieser Arbeit wurden aufbauend auf einer umfangreichen strukturanalytischen Prüfungsanordnung (Festkörper-NMR, RBA, REM-EDX) einer exemplarischen phosphatgebundenen Al₂O₃-MgAl₂O₄-Hochtemperaturkeramikzusammensetzung unter Einbeziehung verschiedenartiger anorganischer Phosphate grundlegende Bindemechanismen charakterisiert. Mechanisch-physikochemische Eigenschaftsuntersuchungen (STA, Dilatometrie, DMA, KBF) deckten zudem den Einfluss der eingesetzten Phosphate auf die Eigenschaftsentwicklungen der Feuerfestkeramiken bezüglich des Abbindeverhaltens, der Biegefestigkeit sowie der thermischen Längenänderung auf, welche mit Strukturänderungen korreliert wurden. Es wurde gezeigt, dass sich Bindemechanismen bei Verwendung von Phosphaten temperaturgeleitet (20 °C ≤ T ≤ 1500 °C) grundsätzlich aus zwei parallel ablaufenden Reaktionsabfolgen zusammensetzen, wobei die sich entwickelnden Phosphatphasen innerhalb der Keramikmasse quantitativ und qualitativ bezüglich ihrer Bindewirkung bewertet wurden. Zum einen wurde die Bildung eines festigkeitssteigernden Bindenetzwerks aus Aluminiumphosphaten meist amorpher Struktur identifiziert und charakterisiert. Dieses bindungsfördernde, dreidimensionale Aluminiumphosphatnetzwerk baut sich innerhalb der Initialisierungs- und Vernetzungsphasen temperaturgeleitet kontinuierlich über multiple Vernetzungsreaktionen homogen auf. Zum anderen werden Reaktionsabfolgen durch parallel ablaufende Strukturumwandlungen nicht aktiv-bindender Phosphatspezies wie Magnesium-, Calcium- oder Zirkoniumphosphate ergänzt, welche lediglich thermische Umwandlungsreaktionen der Ausgangsphosphate darstellen. Vermehrt bei T > 800 °C geht das phosphatische Bindenetzwerk Festkörperreaktionen mit MgAl₂O₄ unter Ausbildung und Agglomeration von Magnesium-Orthophosphat-Sinterstrukturen ein. Die Bildung dieser niedrigschmelzenden Hochtemperaturphasen führt zu einem teilweisen Bruch des Bindenetzwerks.
Im Kontext chronischer Schmerzerkrankungen sind neben dem physischem Schmerzerleben auch Emotionen, wie Depressivität, Angst, Scham und Ärger von großer Relevanz. So leiden beispielsweise ca. 70 % der Menschen mit chronischen Schmerzen unter wiederkehrendem Ärger. Die Forschung zu spezifischen emotionsfokussierten psychologischen Behandlungsansätzen ist jedoch begrenzt. Eine Möglichkeit der Behandlung könnten sogenannte mitgefühlsbasierte Ansätze darstellen. So ist Selbstmitgefühl bei chronischem Schmerz beispielsweise assoziiert mit einer geringeren Schmerzintensität sowie geringerer physischer und emotionaler Beeinträchtigung, wie Depressivität, Angst und Ärger. In der vorliegenden Dissertation wurde die Relevanz von Selbstmitgefühl im Kontext von akutem und chronischem Schmerz unter der besonderen Berücksichtigung von Ärger evaluiert.
Zunächst wuden in einem Überblicksartikel Interventionsstudien (N = 19) zu Behandlungsansätzen von chronischen Schmerzen zusammengefasst, welche Veränderungen in Ärger oder verwandten Aspekten berichteten (Studie 1). Nur zwei der eingeschlossenen Studien untersuchten spezifische Interventionen zur Bewältigung von Ärger. Insgesamt wiesen die Studien große Unterschiede hinsichtlich der Qualität, Stichprobe, Intervention (Art, Dauer, Setting) wie auch der Messinstrumente für Ärger auf. Die vielversprechendsten Ergebnisse zeigten sich für akzeptanz- und mitgefühlsbasierte Ansätze. Als mögliche Fundierung zukünftiger Forschung wurde zudem das „Prozess Modell der Ärger-Regulation bei chronischem Schmerz“ vorgeschlagen und diskutiert.
Da sich mitgefühlsbasierte Ansätze als potentiell wirksam zur Bewältigung von Ärger erwiesen, wurde die Relevanz von Selbstmitgefühl im Kontext von chronischem Schmerz anhand einer kontrollierten Längsschnittstudie (t1: NT1 = 1228; t2: NT2 = 376) evaluiert (Studie 2 & 3). In Studie 2 wurde Selbstmitgefühl anhand der zwei Faktoren „compassionate self-responding (CS)“ und „reduced uncompassionate self-responding (RUS)“ definiert. Hierbei erwies sich CS als distinktes Konstrukt im Vergleich zu Psychologischer Inflexibilität und Selbstwert. RUS und Selbstwert schienen das gleiche latente Konstrukt zu repräsentieren. Die
Relevanz dieser Konzepte für schmerzbezogene Konzepte, wie auch Depressivität und Ärger wurde in Studie 3 überprüft. Nur RUS und nicht CS stellte hierbei einen eigenständigen Prädiktor für schmerzbezogene Aspekte dar. Psychologische Inflexibilität, genauer Vermeidungsverhalten, erwies sich zudem als Prädiktor mit breiterer Relevanz, jedoch konnte keiner der untersuchten Prädiktoren eigenständig Ärger vorhersagen.
Die Relevanz von Selbstmitgefühl zur Bewältigung von akutem Schmerz wurde in einer experimentellen Studie evaluiert (Studie 4). Die Emotionsregulationsstrategien Selbstmitgefühl, Akzeptanz und Ablenkung erwiesen sich als vergleichbar hilfreich hinsichtlich Schmerztoleranz, -Intensität und –Aversion.
Selbstmitgefühl scheint demnach auch im Kontext von Schmerz vor allem in spezifischen Kontexten oder für bestimmte Subgruppen von Bedeutung zu sein. Zukünftige Forschung sollte sich daher auf einen adaptiven Einsatz der Emotionsregulationsstrategie Selbstmitgefühl konzentrieren. Im Speziellen sollte die Wirkung von mitgefühlsbasierten Interventionen auf Ärger bei Schmerz genauer evaluiert werden.
In Kooperation mit dem TÜV SÜD und 985 Führungskräften aus deutschen Unternehmen wurde erprobt, wie Service-Qualität im Rahmen einer Onlinebefragung gemessen werden kann. Es wurde untersucht, welche Komponenten Service-Qualität umfasst, und ein Rahmenmodell entwickelt, das die Zusammenhänge zwischen Service-Qualität, Kundenzufriedenheit und dem Erfolg von Organisationen beschreibt. Die theoretische Konzeption und Operationalisierung des Konstrukts wurde mittels konfirmatorischer Faktorenanalysen überprüft und bestätigt. Das Rahmenmodell der Studie wurde als Strukturgleichungsmodell formuliert und konnte ebenfalls empirisch bestätigt werden. Die Ergebnisse und deren Auswirkung auf die Weiterentwicklung der bestehenden wissenschaftlichen Theorien zu den Konstrukten Service-Qualität, Kundenzufriedenheit und Erfolg von Organisationen wurden kritisch diskutiert.
Zur Steigerung der Ökonomie des Verfahrens wurde ein adaptiver Test zur Erfassung von Service-Qualität entwickelt. Im Rahmen der probabilistischen Testtheorie wurde geprüft, welches Item Response-Modell die empirischen Daten gut beschreiben kann. Als Grundlage für den adaptiven Test wurden die Item-Parameter modellkonform bestimmt. In einer Simulationsstudie wurde untersucht, ob die Ergebnisse der Onlinebefragung sich bedeutsam von den Ergebnissen adaptiver Tests mit unterschiedlichen Konfigurationen unterscheiden. Der Vergleich der Konfigurationen, die sich darin unterschieden, wie der Personenparameter geschätzt wurde und nach welchem Algorithmus das nächste Test-Item gewählt wurde, zeigte, welche Konfigurationen eingesetzt werden können, um eine möglichst geringe Testlänge zu erzielen, ohne dabei bedeutsame Einbußen bei der Reliabilität und Validität der Messung in Kauf zu nehmen. Unter Berücksichtigung dieser Erkenntnisse wurde der Fragebogen zur Erfassung von Service-Qualität als computerbasierter adaptiver Test umgesetzt. Diese neue Erfassungsmethode wurde in der Praxis erprobt, und abschließend wurden Nützlichkeit, Ökonomie und mögliche Nachteile, die mit dieser Art des Testens verknüpft sind, diskutiert.
Dieses Dokument, detailierte Analyseergebnisse, den adaptiven Test zur Erfassung von Service-Qualität und weitere Begleitmaterialien finden Sie unter: https://promotion.creaval.de
Demografische und gesellschaftliche Wandlungsprozesse drohen die informelle Pflege als tragende Säule des Pflegesystems in Deutschland zunehmend zu erodieren. Während einerseits die Zahl an Pflegebedürftigen zukünftig ansteigen wird, nimmt andererseits die Zahl derer, die Pflegetätigkeiten übernehmen könnten ab. Zudem werden Frauen, die heute noch die Hauptlast der Pflegeverantwortung tragen, in Zukunft vermehrt erwerbstätig sein.
Vor diesem Hintergrund ergibt sich folgendes Problemfeld: Bei der Übernahme von informellen Pflegeaufgaben entsteht häufig ein Vereinbarkeitsproblem zwischen Pflege- und Erwerbstätigkeit. Pflegende reduzieren deshalb nicht selten ihre Erwerbsarbeitszeit oder geben die berufliche Tätigkeit ganz auf. Im Kontext des deutschen Sozialversicherungssystems bedeutet das, dass sich informell Pflegende erhöhten sozialen Risiken aussetzen, wenn sie ihre Erwerbs- und Verdienstpotenziale am Arbeitsmarkt nicht vollumfänglich ausschöpfen. Ferner entstehen indirekte Kosten beim Fiskus, die auf verringerte Einkommensteuer- und Sozialversicherungsbeiträge und/oder erhöhte Transferleistungen zurückzuführen sind. Diese sogenannten fiskalischen Kosten wurden im wissenschaftlichen und gesellschaftspolitischen Diskurs bisher jedoch nur unzureichend berücksichtigt.
Demnach ist das Ziel der vorliegenden Arbeit, die fiskalischen Kosten aufgrund informeller Pflege im deutschen Wohlfahrtsstaat empirisch zu prognostizieren. Dazu werden zunächst die Auswirkungen einer Pflegeübernahme auf das Arbeitsangebot evaluiert und dann in ein Steuer- und Sozialversicherungsmodell überführt, um so die fiskalischen Kosten aufgrund informeller Pflege zu quantifizieren. Mithilfe eines dynamischen Populationsmodells erfolgt abschließend die empirische Prognose der fiskalischen Kosten.
Im Ergebnis zeigt sich, dass beim Fiskus erhebliche (Mehr-)kosten durch informelle Pflege in Form von entgangenen Einkommensteuer- und Sozialversicherungsbeiträgen und/oder erhöhte Transferleistungen entstehen. Darüberhinaus ist die informelle Pflegeerbringung von Frauen aus staatlicher Perspektive kostengünstiger als die von Männern.
David Hume und John Dewey
(2021)
In dieser vergleichenden Untersuchung werden die Philosophien David Humes und John Deweys gegenübergestellt. Es werden sämtliche philosophischen und wissenschaftlichen Disziplinen, denen sich beide Denker gewidmet haben, einbezogen: Anthropologie, Bewusstseinstheorie, Psychologie, Erkenntnistheorie, Ethik (Moralphilosophie), Politik, Ökonomie, Soziologie, Sozialphilosophie, Geschichtswissenschaft und Religionswissenschaft. Dabei wird thesengeleitet vorgegangen.
- Pragmatismus-These: David Hume sei Pragmatist avant la lettre gewesen.
- Begriffs-These: Begriffe (hier etwa nature und experience) seien breit genug zu fassen, um mit ihnen zielführend zu operieren.
- Quasi-System-These: Die Vielfalt der philosophischen und wissenschaftlichen Disziplinen, mit denen sich beide Denker befassten, bilde jeweils ein System, ohne als solches angelegt worden zu sein.
- Klassik-These: Es sei ergiebig, sich mit Philosophen zu beschäftigen, die bislang noch nicht oder kaum verglichen wurden, da es neben Entsprechungen, Ähnlichkeiten und Weiterentwicklungsmöglichkeiten auch Lerneffekte aus Überwindungen und Differenzen gebe.
- Instrumentalismus-These: Deweys Philosophie sei dem Streben nach Lösungen für das praktische soziale Zusammenleben dienlich.
Benannte Disziplinen werden einzeln in der folgenden Reihenfolge behandelt:
1) David Humes Gedanken
2) John Deweys Gedanken
3) Prüfung, inwieweit sich Dewey auf Hume direkt oder indirekt bezog
4) Verbindungslinien zwischen den Gedanken beider Philosophen
Diesen Untersuchungsschwerpunkten werden vorgelagert bzw. beigestellt:
- Ausführliche Begriffsarbeit, insbesondere zu den „Ismen“, welche man beiden Denkern zurechnet: Empirismus, Pragmatismus/Pragmatiszismus, Skeptizismus, Naturalismus. Der Verfasser geht dabei auch Bezüge dieser Ismen untereinander ein.
- Die Philosophie William James‘ als eventueller Verbindung zwischen Hume und Dewey
- Der Darwinismus als möglicher missing link zwischen beiden Denkern
- Die Thematik Willensfreiheit/Determinismus als Scharnierstelle zwischen theoretischer und praktischer Philosophie
Als Hauptsäulen seiner Untersuchung arbeitet der Verfasser folgende Konzeptionen heraus.
- Den „pragmatistic turn“, mit dem der Verfasser aussagt, dass Hume durch die unterschiedliche Behandlung seiner skeptischen Denkergebnisse in seinen Hauptwerken Treatise und Enquiry Pragmatist avant la lettre gewesen sei
- Die Idee des „Instrumentalismus zu einem höheren Zweck“, gemäß dem Dewey (und im Effekt auch Hume) zwar instrumentalistisch operierte (was ihm u. a. von Horkheimer vorgeworfen wurde), diesen Instrumentalismus selbst aber dem höheren Zweck der sozialen Gemeinschaft untergeordnet habe.
Als Nebenergebnisse der Arbeit (neben der systematischen Prüfung der Thesen in allen benannten Disziplinen) entstanden Reflexionen über
- Kreativität
- Kommunikation
- Kultur
- Natur
- Meliorismus, Kommunitarismus und Voluntarismus
- Die Stellung der Philosophie in Bezug zu geistes-, natur- und Sozialwissenschaften
- Rekonstruktion,
jeweils in Bezug zum Werk beider Denker.
Darüber hinaus werden die Biographien beider als „Faktor Existenz und Authentizität“ mit Blick auf die jeweilige Entsprechung zwischen Leben und Werk ausgewertet.
Die vorliegende Arbeit umfasst die Auswertung des jeweils umfangreichen Gesamtwerkes sowohl von Hume als auch von Dewey und bezieht den aktuellen Stand der Sekundärliteratur mit ein.
Die bisherige Forschungslage zu einem Vergleich zwischen den beiden Philosophen ist sehr spärlich; diese Arbeit ist in diesem Sinne innovativ im Themenbezug.
Ergebnis der Untersuchung ist, dass in nicht wenigen Teilbereichen große Entsprechungen beider Philosophien vorhanden sind. Aber auch durch Unterschiede und bislang nicht weiterverfolgte Interpretationsansätze werden mögliche Denklinien in der Bewertung beider Philosophien und in der Betrachtung des Bezugs zwischen klassischem Empirismus und dem Pragmatismus sichtbar gemacht.
Modellbildung zum Abbindeverhalten von PCE-verflüssigten und CA-Zement-gebundenen Feuerbetonen
(2021)
Feuerbetone werden als Auskleidung in industriellen Hochtemperaturaggregaten, wie beispielsweise in der Eisen- und Stahlindustrie, eingesetzt. Nach dem Mischen und dem Gießen eines Feuerbetons in Formen bzw. Schalungen, muss dieser abbinden und eine ausreichende Festigkeit ausbilden. Die Kinetik der Abbindevorgänge und somit auch das Erhärtungsverhalten variiert dabei stark in Abhängigkeit der Zusammensetzung, vor allem hinsichtlich des Bindemittels und der Additive, des Feuerbetons. In der Praxis der Herstellung von Feuerbetonen kommt es häufig zu Beschädigungen der hergestellten Bauteile oder Auskleidungen durch das Fließen noch nicht ausreichend abgebundener Feuerbetone bzw. die Beschädigung von Ecken und Kanten während des Ausschalens oder Bauteilen reißen durch mechanische Belastung beim Umsetzen oder beim Transport. Diese Beschädigungen basieren auf Fehleinschätzungen zum Abbindefortschritt und der korrespondierenden Festigkeitsausprägung der Feuerbetone. Diese wiederum sind auf Lücken im Stand der Technik zurück zu führen.
Für PCE-verflüssigte und CA-Zement-gebundene Korund-Feuerbetonen mit einer Al₂O₃- und Al₂O₃-SiO₂-Matrix, werden die Defizite des Stands der Technik für diese Feuerbetonklasse identifiziert: Diese liegen im Bereich der Verflüssigungswirkung und des ersten Ansteifens der Feuerbetone, der Hydratation des CA-Zements in den Feuerbetonen und der Festigkeitsausprägung der Feuerbetone. Hieraus leitet sich ein entsprechender Forschungsbedarf ab.
Am Beispiel von zwei PCE-verflüssigten (PCE mit kurzer Hauptkette und langen Seitenketten sowie PCE mit langer Hauptkette und kurzen Seitenketten) und CA-Zement-gebundenen (70 % Al₂O₃) Feuerbetonen mit einer reaktivtonerde-basierten und einer reaktivtonerde-mikrosilika-basierten Matrix werden abbindekinetische Untersuchungen durchgeführt. Anhand verschiedener abbindekinetischer Messmethoden, wie Schallgeschwindigkeit oder elektrischer Leitfähigkeit, und einigen ergänzenden Messung, wie beispielsweise das ζ-Potential, wird der Abbindeverlauf der Feuerbetone untersucht und die Defizite aus dem Stand der Technik aufgeklärt.
Im Detail wurde der Stand der Technik um folgende Erkenntnisse ergänzt:
• Verflüssigung von Feuerbetonen mit PCE-Molekülen: Es wurde festgestellt, dass die Verflüssigungswirkung und das erste Ansteifen maßgeblich durch die Struktur der Verflüssigermoleküle hervorgerufen werden.
PCE-Moleküle mit langen Seitenketten verflüssigen eher sterisch. Durch die Vermittlung von Ca²⁺ aus dem CA-Zement wird die Adsorption der PCE-Moleküle verstärkt. Freie PCE-Moleküle können auf CAH-Phasen (Hydratationsprodukte) adsorbieren und somit die Fließfähigkeit des Feuerbetons für eine gewisse Zeit aufrechterhalten.
PCE-Moleküle mit kurzen Seitenketten verflüssigen elektrosterisch. Bei Lösung von Ca²⁺ aus dem CA-Zement kommt es zu einer Ca-PCE Gel-Bildung und einer korrespondierenden Koagulation der Feuerbetonmatrix und der Feuerbeton steift zeitnah nach dem Mischen an.
• Hydratation von CA-Zement: Die Hydratation von CA-Zement in den Feuerbetonen wird wesentlich durch die Länge der Seitenketten der PCE-Moleküle bzw. der Anwesenheit von Zitronensäure beeinflusst.
In Feuerbetonen die mit PCE-Molekülen mit langen Seitenketten verflüssigt wurden, kann der CA-Zement weitestgehend frei hydratisieren. Der CAH-Phasenanteil steigt in zwei Abschnitten, getrennt von einer dormanten Phase. Die dormante Phase der CA Zementhydratation wurde auf eine Lösungshemmung der Al-O-H-Passivierungsschicht auf dem CA-Zement bei mäßigem pH-Wert (pH = 12,3) zurückgeführt.
In Feuerbetonen die mit PCE-Molekülen mit kurze Seitenketten und Zitronensäure verflüssigt werden, wird die Hydratationsreaktion durch eine Ca-Citrat-PCE-Al(OH)₄-Gelbildung stark gehemmt. Es besteht die Vermutung, dass die Bindung von Ca²⁺ in dem Gel zum einen eine sehr ausgeprägte dormante Phase (pH < 12,3), mit einer schlechten Löslichkeit der Passivierungsschicht, bewirkt und zum anderen auch die Fällung von CAH-Phasen unterdrückt.
• Festigkeitsausprägung von CA-Zement-gebundenen Feuerbetonen:
Eine Koagulation bewirkt die erste Festigkeitssteigerung der Feuerbetone auf σB < 1 MPa. Im Anschluss findet die Hauptfestigkeitssteigerung auf Grund von Austrocknung durch Hydratation und Verdunstung statt. Der weitere Teil der Festigkeitssteigerung wird durch die Reduzierung der Porosität durch expansive CA-Zementhydratation und die hohe spezifische Oberfläche sowie deren weitere Erhöhung durch die CA-Zementhydratation bewirkt.
Aus den einzelnen abbindekinetischen Effekten können, zusammen mit dem Stand der Technik und den neuen Erkenntnissen, mikrostrukturelle Abbindemodelle und Modelle zur Festigkeitsentwicklung der Feuerbetone abgeleitet werden. In Folge kann für die zwei Feuerbetone zu jedem Zeitpunkt des Abbindens eine Aussage zum Abbindefortschritt und zur Festigkeitsausprägung getätigt werden. Einige der Abbindemechanismen und festigkeitsbildenden Mechanismen können auf andere Feuerbetonzusammensetzungen übertragen werden.
Der Wettbewerb um die besten Technologien zur Realisierung des autonomen Fahrens ist weltweit in vollem Gange.
Trotz großer Anstrengungen ist jedoch die autonome Navigation in strukturierter und vor allem unstrukturierter Umgebung bisher nicht gelöst.
Ein entscheidender Baustein in diesem Themenkomplex ist die Umgebungswahrnehmung und Analyse durch passende Sensorik und entsprechende Sensordatenauswertung.
Insbesondere bildgebende Verfahren im Bereich des für den Menschen sichtbaren Spektrums finden sowohl in der Praxis als auch in der Forschung breite Anwendung.
Dadurch wird jedoch nur ein Bruchteil des elektromagnetischen Spektrums genutzt und folglich ein großer Teil der verfügbaren Informationen zur Umgebungswahrnehmung ignoriert.
Um das vorhandene Spektrum besser zu nutzen, werden in anderen Forschungsbereichen schon seit Jahrzehnten \sog spektrale Sensoren eingesetzt, welche das elektromagnetische Spektrum wesentlich feiner und in einem größeren Bereich im Vergleich zu klassischen Farbkameras analysieren. Jedoch können diese Systeme aufgrund technischer Limitationen nur statische Szenen aufnehmen. Neueste Entwicklungen der Sensortechnik ermöglichen nun dank der \sog Snapshot-Mosaik-Filter-Technik die spektrale Abtastung dynamischer Szenen.
In dieser Dissertation wird der Einsatz und die Eignung der Snapshot-Mosaik-Technik zur Umgebungswahrnehmung und Szenenanalyse im Bereich der autonomen Navigation in strukturierten und unstrukturierten Umgebungen untersucht. Dazu wird erforscht, ob die aufgenommen spektralen Daten einen Vorteil gegenüber klassischen RGB- \bzw Grauwertdaten hinsichtlich der semantischen Szenenanalyse und Klassifikation bieten.
Zunächst wird eine geeignete Vorverarbeitung entwickelt, welche aus den Rohdaten der Sensorik spektrale Werte berechnet. Anschließend wird der Aufbau von neuartigen Datensätzen mit spektralen Daten erläutert. Diese Datensätze dienen als Basis zur Evaluation von verschiedenen Klassifikatoren aus dem Bereich des klassischen maschinellen Lernens.
Darauf aufbauend werden Methoden und Architekturen aus dem Bereich des Deep-Learnings vorgestellt. Anhand ausgewählter Architekturen wird untersucht, ob diese auch mit spektralen Daten trainiert werden können. Weiterhin wird die Verwendung von Deep-Learning-Methoden zur Datenkompression thematisiert. In einem nächsten Schritt werden die komprimierten Daten genutzt, um damit Netzarchitekturen zu trainieren, welche bisher nur mit RGB-Daten kompatibel sind. Abschließend wird analysiert, ob die hochdimensionalen spektralen Daten bei der Szenenanalyse Vorteile gegenüber RGB-Daten bieten
Seit der Bologna-Reform wird von Bund und Ländern eine kontinuierliche Verbesserung der Qualität des Unterrichts in der Schule, die häufig mit der Professionalisierung der zukünftigen Lehrer und der Lehramtsausbildung verbunden wird, angestrebt. Die Qualität des Unterrichts wird mit der Professionalisierung der angehenden Lehrer und der Lehramtsausbildung verbunden. In den meisten Studien zur Qualitätsverbesserung erfolgt die Betrachtung überwiegend aus universitärer Sicht und selten auf das Unterrichtsfach Sport bezogen. An diesen beiden Punkten knüpft die qualitative Studie an und führt zu der zentralen Fragestellung: Bestehen Unterschiede in den Sichtweisen von Lehrenden und Lernenden zur Professionalisierung von Sportlehrkräften zu den einzelnen Ausbildungsphasen in Rheinland-Pfalz?
Mithilfe von 101 Leitfadeninterviews und der Auswertung nach der Grounded Theory kann diese Ausgangsfrage gezielt beantwortet werden. Befragt werden Lehrende der Universitäten, der staatlichen Studienseminare und der Schule sowie Lernende, dazu zählen Referendare/innen sowie Studierende. Im Verlauf der Studie kristallisiert sich in allen Personengruppen einheitlich der „fehlende Schulbezug“ als Schlüsselelement (Kernkategorie) in der ersten und zweiten Ausbildungsphase heraus. Die Interviewten, die verschiedenen Schulformen angehören, geben diesbezüglich konkrete, sportspezifische und teilweise fächerübergreifende Optimierungsvorschläge. Ein Schwerpunkt bildet dabei, frühzeitig den Bezug zum Schulalltag herzustellen und gleichzeitig Unterrichtserfahrungen mit schulischen Lerngruppen zu sammeln, um ihre unterschiedlichen motorischen Fähigkeiten und Fertigkeiten kennenzulernen. Die Verbesserungsansätze betreffen die universitäre Phase und die Ausbildungszeit in den Studienseminaren und Schulen, wobei die Beteiligten eine intensivere Vernetzung der einzelnen Institutionen für nötig erachten. An einer gemeinsamen, kontinuierlichen Zusammenarbeit zur Professionalisierung in der Sportlerausbildung und somit der Optimierung der Sportlehrerausbildung ist allen Beteiligten gelegen.
Die Umsetzung einer flexiblen Integration von Informationen aus verteilten und komplexen Informationssystemen stellt Unternehmen aktuell vor große Herausforderungen. Das im Rahmen dieser Dissertation entwickelte Ontologie-basierte Informationsintegrationskonzept SoNBO (Social Network of Business Objects) adressiert diese Herausforderungen. Bei einem Ontologie-basierten Konzept werden die Daten in den zu integrierenden Quellsystemen (z. B. betriebliche Anwendungssysteme) mithilfe eines Schemas (= Ontologie) beschrieben. Die Ontologie in Verbindung mit den Daten aus den Quellsystemen ergibt dann einen (virtualisierten oder materialisierten) Knowledge Graph, welcher für den Informationszugriff verwendet wird. Durch den Einsatz eines Schemas ist dieses flexibel auf die sich ändernden Bedürfnisse des Unternehmens bezüglich einer Informationsintegration anpassbar. SoNBO unterscheidet sich von existierenden Konzepten aus dem Semantic Web (OBDA = Ontology-based Data Access, EKG = Enterprise Knowledge Graph) sowohl im Aufbau der unternehmensspezifischen Ontologie (= Social Network of Concepts) als auch im Aufbau des nutzerspezifischen Knowledge Graphen (= Social Network of Business Objects) unter der Verwendung von sozialen Prinzipien (bekannt aus Enterprise Social Software). Aufbauend auf diesem SoNBO-Konzept wird das im Rahmen dieser Dissertation entwickelte SoNBO-Framework (nach Design Science Research) zur Einführung von SoNBO in einem beliebigen Unternehmen und die aus der Evaluation (im Unternehmen KOSMOS Verlag) gewonnenen Erkenntnisse vorgestellt. Die Ergebnisse (SoNBO-Konzept und SoNBO-Framework) basieren auf der Synthese der Erkenntnisse zu Ontologie-basierter Informationsintegration aus dem Status quo in Praxis und Wissenschaft: Für den Status quo in der Praxis wird mithilfe einer Tiefenfallstudie (Ingenieurbüro Vössing) die grundlegende Idee zu SoNBO in Form einer vom Fallstudienunternehmen entwickelten und dort seit Jahren eingesetzten Individualsoftware analysiert. Für den Status quo in der Wissenschaft wird das Ergebnis einer im Rahmen der Dissertation durchgeführten strukturierten Literaturanalyse zu Ontologie-basierten Informationsintegrationsansätzen präsentiert. Diese Dissertation liefert damit einen Beitrag sowohl für die Wissenschaft (Erkenntnisgewinn im Bereich der Ontologie-basierten Informationsintegrationsansätze für die Wirtschaftsinformatik u. a. durch die Entwicklung eines evaluierten Artefaktes) als auch für die Praxis (Schaffung eines evaluierten Artefaktes).
Identifizierung und Quantifizierung von Mikroplastik mittels quantitativer ¹H-NMR Spektroskopie
(2021)
Plastik und damit einhergehend auch Mikroplastik (MP) ist mittlerweile global präsent und stellt ein zunehmend signifikantes Problem für die Umwelt dar. Um die Verbreitung und Aus¬wirkung von MP im Ansatz zu verstehen, ist es wichtig, MP über einen weitreichenden Größenbereich zu identifizieren und zu quantifizieren sowie eine Vergleichbarkeit von Studien zu gewährleisten. Jedoch besteht noch großer Forschungsbedarf auf dem Gebiet der größenunabhängigen, quantitativen Analyse von MP in Umweltproben, besonders im Hinblick auf die massenbasierte MP-Konzentrationsangabe. Daher wird in dieser Dissertation die quantitative ¹H-NMR Spektroskopie (qNMR) als eine alternative Methode für die MP-Analyse etabliert. Bei der qNMR-Methode handelt es sich um eine schnelle, größenunabhängige, massenbasierte Methode, welche als alternative MP-Analytik angewendet werden kann und Potential zur Routineanalytik aufweist. Am Beispiel von LDPE, PET und PS erfolgte der Konzeptnachweis (Kapitel 2). Zusätzlich wurden PVC, PA und ABS Partikel getestet, um die wichtigsten Polymertypen für die MP-Analyse abzudecken (Kapitel 3). Am Beispiel von PET, PVC und PS wurde überprüft, ob die qNMR-Methode auch auf die kosteneffektivere NoD-Methode übertragbar ist (Kapitel 4). Die Ergebnisse der Validierung beider Methoden (1D und NoD) zeigen, dass die Quantifizierung von MP-Partikeln mittels qNMR nicht nur prinzipiell möglich ist, sondern auch eine hohe Richtigkeit (88.0 - 110 %) aufweist und die Nachweisgrenzen (1 - 84 µg) im umweltrelevanten Bereich liegen. Weiterhin wurde überprüft, ob sich nicht nur Hochfeld-Geräte für die MP-Analyse eignen, sondern auch niedrigauflösende Benchtop-Geräte, welche in Anschaffung und Unterhalt wesentlich kosteneffektiver sind. Durch Erhöhung der Messzeit von auf ca. 30 min für PET und PS und auf ca. 140 min für PVC konnte die geringere Messfrequenz ausgeglichen werden (Kapitel 4). Um die Frage möglicher Matrixeffekte von Umweltproben zu behandeln, wurden darüber hinaus eben solche Matrixeffekte sowie Wiederfindungsraten von PET-Fasern bei Anwendung einer speziell für die qNMR-Methode optimierten Probenvorbereitung in Gegenwart von Modellmatrices bestimmt (Kapitel 5). Es konnte gezeigt werden, dass die Umweltmatrices die quantitative Analyse nicht stören und die speziell für die qNMR Analytik entwickelte Probenvorbereitung, mit Wiederfindungsraten von > 80% für die unterschiedlichen Umweltmatrices, angewendet werden kann (Kapitel 5). Über erste orientierende Untersuchungen zur simultanen Bestimmung mehrerer Polymerarten in einer Probe wird abschließend berichtet (Kapitel 6).
Außerschulische Lernorte und deren Wirksamkeit im Kontext von BNE-Bildungsmaßnahmen wurden bislang wenig untersucht. Mithilfe einer mehrstufi-gen Analyse identifiziert die vorliegende Studie außerschulische Lernorte mit Be-zug zum BNE-Bildungskonzept im Untersuchungsraum Rheinland-Pfalz. Dazu wurden zunächst mittels qualitativer Literaturanalysen BNE-Kriterien generiert, die als methodisches Instrument in Form einer BNE-Checkliste für außerschulische Lernorte operationalisiert wurden. Die auf diesem Wege gewonnenen Daten liefern die Grundlage für die Erstellung einer geografisch orientierten Lernortdatenbank mit BNE-Bezug. Eine kartografische Visualisierung der Daten ergibt ein räumliches Verteilungsmuster: So zeigen sich mit BNE-Lernorten gut versorgte Landkreise und kreisfreie Städte, aber auch regelrechte BNE-Lernort-Wüsten, an denen Nachhol-bedarf besteht. Des Weiteren zeigt sich eine Häufung von BNE-Lernorten in wald-nahen Gebieten.
Zur Frage, wie die außerschulische BNE im Bundesland Rheinland-Pfalz imple-mentiert wurde, inwiefern Optimierungsbedarf besteht und welche fortsetzenden Maßnahmen im Rahmen der Agenda 2030 für die außerschulische BNE getroffen werden, liefert ein leitfadenbasiertes exploratives Interview mit zwei BNE-Experten zusätzliche Erkenntnisse.
Weiterführend wurde mit 1358 Schülerinnen und Schülern an 30 außerschuli-schen Lernorten nach Teilnahme an einer Bildungsmaßnahme eine quantitative Fragebogenstudie durchgeführt, bei der auch das Umweltbewusstsein, Einstellun-gen zum Umweltverhalten und das Lernen vor Ort betrachtet wurden. Durch ein Miteinbeziehen von Nicht-BNE-Lernorten wurde eine Vergleichsstudie zur Wirk-samkeit von BNE-Lernorten möglich. Die statistische Datenauswertung führt zu ei-ner Vielzahl an interessanten Ergebnissen. Kontraintuitiv zeigt sich beispielsweise die Art des Lernorts (BNE- oder Nicht-BNE-Lernort) als nicht signifikanter Prädiktor für das Umweltbewusstsein und Umweltverhalten der befragten Schüler, wohinge-gen Kommunikationsstrukturen innerhalb von Bildungsmaßnahmen an außerschu-lischen Lernorten, die Multimedialität und Handlungsorientierung sowie die Dauer von Bildungsmaßnahmen einen signifikanten Einfluss ausüben.
Schlüsselwörter: Außerschulische Lernorte, Bildung für nachhaltige Entwicklung (BNE), BNE-Kriterien, Lernortlandschaft Rheinland-Pfalz, BNE-Lernorte, Umwelt-bewusstsein, Umweltverhalten.
Internationale Bildungsstudien (TIMSS und PISA) offenbarten, dass es deutschen Schülern nur begrenzt gelingt, ihr erworbenes Wissen im Physikunterricht zur Problemlösung in neuen Kontexten zu nutzen. Als Grund nennen die Studien die gering ausgeprägte Kompetenz-erwartung in Bezug zum Fach Physik. Die Folge ist eine geringe Motivation der Lernenden, physikalische Aufgaben zu lösen. Studien zeigen aber auch, dass die Motivation beim Lernen durch den Einsatz digitaler Lernmedien gesteigert werden konnte. Aus diesem Grund wird in dieser Arbeit untersucht, ob das Vertrauen in die eigenen Fähigkeiten durch das Lernen in einer integrierten Lernumgebung gefördert werden kann. Im Rahmen eines Design-Based-Research-Forschungsansatzes (DBR) wurde eine integrierte Lernumgebung „Wärmelehre“ mit digitalen Lernmedien für den Physikunterricht gestaltet, die dann in zwei Schulformen (IGS und Gymnasium) innerhalb einer quasi-experimentellen Feldstudie erprobt wurde. Im 1. Zyklus des DBR wurden die Wirkungen des selbstständigen Lernens mit digitalen/analogen Medien in Einzelarbeit untersucht. Die Ergebnisse der Wissenstests zeigen einen höheren Lernerfolg bei den Lernenden der Experimentalgruppen, der sich aber nicht signifikant von den Lernenden der Kontrollgruppen (analoge Medien) unterscheidet. Die Lernenden konnten sich in der integrierten Lernumgebung mit Unterstützung beider Medienformate selbstständig Fachwissen aneignen und problembasierte Textaufgaben lösen. Die Ergebnisse der Befragungen der Lernenden zeigen, dass sich die Lerngruppen signifikant in ihrem erlebten Grad der Selbststeuerung unterscheiden. Die Lernenden beider Experimentalgruppen bewerten ihren Handlungsspielraum besser als die Lernenden der beiden Kontrollgruppen. Ebenfalls konnte festgestellt werden, dass sich die individuellen Lernvoraussetzungen, der Lernstiltyp, das Kompetenzerleben und die Aspekte der Medien-gestaltung wechselseitig beeinflussen und auf den Lernerfolg wirken. Die Ergebnisse der Lernstilanalyse zeigen, dass sich selbst kleine Lerngruppen heterogen zusammensetzen. Demnach scheint es für einen guten Lernerfolg notwendig zu sein, dass die Lehrenden, die Lernumgebung an die individuellen Lernpräferenzen der Lernenden der Lerngruppe anpassen. Aus den Ergebnissen lässt sich als Konsequenz für den Physikunterricht ableiten, dass Selbstlernphasen mit digitalen Lernmedien regelmäßig in den Unterricht integriert werden sollten, um die Problemlöse- und die Selbststeuerungskompetenz zu fördern. Es ist von Vorteil, wenn die Lehrenden für die Gestaltung einer Lernumgebung, das Vorwissen, die individuellen Lernvoraussetzungen und die Zusammensetzung der Lerngruppe (Lernstiltyp) als Qualitätsdimensionen erfassen. Im Re-Design werden Vorschläge unterbreitet, wie die integrierte Lernumgebung lernstilgerecht weiterentwickelt werden kann. Im 2. Zyklus soll dann erforscht werden, ob sich Unterschiede im Lernerfolg und in den untersuchten Aspekten zeigen, wenn die Lernenden in Einzelarbeit, in Partnerarbeit oder in ihrer Lernstilgruppe selbstgesteuert lernen, um die Lernumgebung zyklisch weiterzuentwickeln.
Obwohl Kinder beim Bauen mit Bauklötzen bereits früh Erfahrungen mit Aspekten der Stabilität von Bauwerken, wie z. B. Kräfteverteilung, Standfestigkeit sowie Gleich- und Gegengewicht, sammeln und es verschiedene Studien gibt, die den fächerübergreifenden Lerngehalt von Bauklötzen hervorheben, ist das Verständnis bezüglich der Stabilität von Bauklotzanordnungen bisher kaum erforscht. Daher wurde untersucht, welche Vorstellungen sechs- bis siebenjährige Kinder zur Stabilität von Bauklotzanordnungen zeigen und welche Unterstützungsmaßnahmen eine Vorstellungsveränderung anregen. In Studie 1 und 2 zeigt sich, dass Kinder in der Schuleingangsphase erste Vorstellungen zur Stabilität von Bauklotzanordnungen haben. Über verschiedene Analysen wurden schwierigkeitsbestimmende Merkmale bzw. lösungsrelevante Dimensionen identifiziert. Kinder mit ca. fünf Jahren orientieren sich eher an der geometrischen Mitte und beziehen somit die Abstandsdimension ein, bei Neunjährigen berücksichtigen hingegen knapp über die Hälfte bereits den Massenmittelpunkt. Folglich reicht die „Bauerfahrung“ von Kindern bis zum neunten Lebensjahr nicht aus, um die Fähigkeit, Bauklotzanordnungen bezüglich ihrer Stabilität zu beurteilen, vollständig zu entwickeln. Deshalb wurde in Studie 3 untersucht, inwieweit sich eine Vorstellungsveränderung zur Stabilität von Bauklotzanordnungen mithilfe verschiedener Unterstützungsmaßnahmen innerhalb einer kurzen Lerneinheit anregen lässt. Dabei wurden verschiedene materiale und verbale Unterstützungsmaßnahmen in Form von Fotos und gezielten sprachlichen Instruktionen in einem systematischen Vergleich gegenübergestellt. Die Ergebnisse weisen nach, dass bereits mit einer kurzen Lerneinheit ein Wissenszuwachs bei Siebenjährigen angeregt werden kann, insbesondere wenn sie durch Fotos und gezielte sprachliche Instruktionen unterstützt werden. Die Ergebnisse sind ein erster Schritt für die Entwicklung eines naturwissenschaftlichen Unterrichts zur Stabilität von Bauklotzanordnungen.
Das Hauptziel der vorliegenden Arbeit ist die Absicherung der Qualität eines pharmazeutischen Produktionsprozesses durch die Überprüfung des Volumens mikroskopischer Polymerstäbchen mit einem hochgenauen 3D Messverfahren. Die Polymerstäbchen werden für pharmazeutische Anwendungen hergestellt. Aus Gründen der Qualitätssicherung muss das Istgewicht überprüft werden. Derzeit werden die Polymerstäbchen stichprobenartig mit einer hochpräzisen Waage gewogen. Für die nächste Generation von Polymeren wird angenommen, dass die Produktabmessungen weiter reduziert werden sollen und die Produktionstoleranzen auf 2,5% gesenkt werden. Die daraus resultierenden Genauigkeitsanforderungen übersteigen jedoch die Möglichkeiten der Wiegetechnik. Bei homogenen Materialien ist die Masse proportional zum Volumen. Aus diesem Grund kommt dessen Bestimmung als Alternative in Frage. Dies verschafft Zugang zu optischen Messverfahren und deren Flexibilität und Genauigkeitpotenzial. Für den Entwurf eines auf die Fragestellung angepassten Messkonzeptes sind weiterhin von Bedeutung, dass das Objekt kontaktlos, mit einer Taktzeit von maximal fünf Sekunden vermessen und das Volumen approximiert wird. Die Querschnitte der Polymerstäbchen sind etwa kreisförmig. Aufgrund der Herstellung der Fragmente kann nicht davon ausgegangen werden, dass die Anlageflächen orthogonal zur Symmetrieachse des Objektes sind. Daher muss analysiert werden, wie sich kleine Abweichungen von kreisförmigen Querschnitten sowie die nicht idealen Anlageflächen auswirken. Die maximale Standardabweichung für das Volumen, die nicht überschritten werden sollte, beträgt 2,5%. Dies entspricht einer maximalen Abweichung der Querschnittsfläche um 1106 µm² (Fehlerfortpfanzung). Als Bewertungskriterium wird der Korrelationskoeffzient zwischen den gemessenen Volumina und den Massen bestimmt. Ein ideales Ergebnis wäre 100%. Die Messung zielt auf einen Koeffzienten von 98% ab. Um dies zu erreichen, ist ein präzises Messverfahren für Volumen erforderlich. Basierend auf dem aktuellen Stand der Technik können die vorhandenen optischen Messverfahren nicht verwendet werden. Das Polymerstäbchen wird von einer Kamera im Durchlicht beobachtet. Daher sind der Durchmesser und die Länge sichtbar. Das Objekt wird mittels einer mechanischen Vorrichtung um die Längsachse gedreht. So können Bilder von allen Seiten aufgenommen werden. Der Durchmesser und die Länge werden mit der Bildverarbeitung berechnet. Das neue Konzept vereint die Vorteile der Verfahren: Es ist unempfindlich gegen Farb-/Helligkeitsänderungen und die Bilder können in beliebiger Anzahl aufgenommen werden. Außerdem sind die Erfassung und Auswertung wesentlich schneller. Es wird ein Entwurf und die Umsetzung einer Lösung zur hochpräzisen Volumenmessung von Polymerstäbchen mit optischer Messtechnik und Bildverarbeitung ausgearbeitet. Diese spezielle Prozesslösung in der Prozesslinie (inline) sollte eine 100%ige Qualitätskontrolle während der Produktion garantieren. Die Zykluszeiten des Systems sollte fünf Sekunden pro Polymerstäbchen nicht überschreiten. Die Rahmenbedienungen für den Prozess sind durch die Materialeigenschaften des Objekts, die geringe Objektgröße (Breite = 199 µm, Länge = 935 µm bis 1683 µm) und die undeffinierte Querschnittsform (durch den Trocknungsprozess) vorgegeben. Darüber hinaus sollten die Kosten für den Prozess nicht zu hoch sein. Der Messaufbau sollte klein sein und ohne Sicherheitsvorkehrungen oder Abschirmungen arbeiten. Das entstandene System nimmt die Objekte in verschiedenen Winkelschritten auf, wertet mit Hilfe der Bildverarbeitung die Aufnahmen aus und approximiert das Volumen. Der Korrelationskoffizient zwischen Volumen und Gewicht beträgt für 77 Polymerstäbchen mit einem Gewicht von 37 µg bis 80 µg 99; 87%. Mit Hilfe eines Referenzsystems kann die Genauigkeit der Messung bestimmt werden. Die Standardabweichung sollte maximal 2,5% betragen. Das entstandene System erzielt eine maximale Volumenabweichung von 1,7%. Die Volumenvermessung erfüllt alle Anforderungen und kann somit als Alternative für die Waage verwendet werden.
Perfluorcarbonsäuren (PFCA) sind Substanzen anthropogenen Ursprungs und werden seit mehreren Jahrzehnten verwendet. In der Literatur werden diese Verbindungen als eine neue Klasse von Umweltschadstoffen beschrieben. Ihre hohe thermische Stabilität, Oberflächenaktivität, Amphipathizität und schwache intermolekulare Wechselwirkungen führen zur Persistenz dieser organisch-chemischen Verbindungen und zur Bioakkumulation. Um diese Stoffgruppe sicher nachzuweisen, müssen zuverlässige analytische Methoden eingesetzt werden. GC-MS stellt eine kostengünstige Alternative und Ergänzung zu etablierten LC-MS/MS Methoden dar. Um jedoch die GC-MS erfolgreich einsetzen zu können, müssen die PFCA derivatisiert werden. Viele der bisher veröffentlichten Derivatisierungsreaktionen für PFCA, sind zeitaufwändig und erfordern hohe Reaktionstemperaturen und/oder toxische Reagenzien.
In der vorliegenden Dissertation wurden zwei neue Derivatisierungsreaktionen methodologisch entwickelt und optimiert. Der erste Teil der Arbeit beschreibt die Entwicklung und Optimierung der Derivatisierung mit Triethylsilanol in Wasser. Zusätzlich zur Reaktionsoptimierung, wurde die klassische Festphasenextraktion modifiziert, um die Probenvorbereitung zu vereinfachen.
Im zweiten Teil der Arbeit, wurden die Reaktionsprodukte von Perfluoroktansäure (PFOA) mit Dimethylformamid-dimethylacetal (DMF-DMA) und –diethylacetal (DMF-DEA) identifiziert. Zu diesem Zweck, wurden verschiedene massenspektrometrische Techniken angewandt. Anhand der Messergebnisse konnte gezeigt werden, dass sowohl DMF-DMA als auch DMF-DEA in Gegenwart von PFOA ein Iminium-Kation bildet, was zur Salzbildung führt. Dieses PFOA-Salz reagiert im GC-Injektor weiter zu einem entsprechenden Amin.
Abschließend, im letzten Teil der Arbeit, wurden reale Proben mit der neu entwickelten Methode auf Basis der DMF-DMA Reaktion analysiert. Die Matrixeffekte wurden ausführlich beschrieben. Die Methode wurde erfolgreich für drei Arten von Proben verwendet: Zahnseide, Textilien und Klärschlamm. Die Ergebnisse wurden mittels LC-MS/MS in einem externen Labor verifiziert. Die Unterschiede zwischen den PFCA-Werten, für eine aufgestockte Probe, wurden mittels GC-MS und LC-MS/MS gemessen und waren kleiner als 10 %.
Eine zutreffende Diagnose über den aktuellen Kenntnisstand der jeweiligen Schülerinnen und Schüler ist notwendig, um adäquat in Gruppenarbeitsprozesse intervenieren zu können. Von diesem Zusammenhang wird in der Literatur weit-gehend ausgegangen, jedoch gibt es bisher kaum empirische Studien, die diesen belegen. Die vorliegende Arbeit widmet sich schwerpunktmäßig dem Interventi-onsverhalten von Studierenden. Dabei wird die prozessdiagnostische Fähigkeit „Deuten“ zugrundegelegt, um unterschiedliches Interventionsverhalten auf diese Fähigkeit zurückführen zu können. Sowohl beim Aufbau diagnostischer Fähig-keiten als auch bei der (Weiter-)Entwicklung des eigenen Lehrerhandelns gilt Reflexion als hilfreich. Entsprechend wird auch das Zusammenspiel von Pro-zessdiagnose und Reflexionsverhalten sowie von Interventionsverhalten und Reflexionsverhalten untersucht.
Für die Erhebung der prozessdiagnostischen Fähigkeit „Deuten“ wurden drei Videovignetten erstellt und in das Videodiagnosetool ViviAn eingebunden. Die Videovignetten zeigen jeweils vier Schülerinnen, die sich mit dem Thema „Ter-me“ beschäftigen. Im Rahmen eines Lehr-Lern-Labores wurden über vier Se-mester hinweg alle teilnehmenden Studierenden dazu angehalten, die Videovig-netten zu bearbeiten. Ebenso konzipierten sie jeweils zu dritt eine Laborstation im Mathematik-Labor „Mathe ist mehr“ und erprobten diese mit einer Schul-klasse. Dabei wurden die Interventionen der Studierenden in die Gruppenarbeits-prozesse der Schülerinnen und Schüler videographiert. Anschließend reflektierten die Studierenden in Kleingruppen über die Erprobungen und über die getätigten Interventionen. Die Reflexionsgespräche wurden ebenfalls videographiert.
Es zeigt sich, dass die Studierenden, die sich zum Zeitpunkt der Erhebung im Masterstudium befanden, noch Entwicklungsspielraum in Bezug auf ihre pro-zessdiagnostische Fähigkeit „Deuten“ besitzen. Im Hinblick auf die Interventio-nen waren responsive Interventionen häufiger angemessen als invasive Interven-tionen, wobei responsive Internvetionen auch vergleichsweise häufiger dazu führten, dass mehr Schülerinnen und Schüler nach der Intervention aktiv waren. Studierende mit höherer prozessdiagnostischer Fähigkeit „Deuten“ intervenierten jedoch häufiger invasiv und tätigten dabei trotzdem angemessenere und aktivie-rendere Interventionen als ihre Kommilitoninnen und Kommilitonen. Entspre-chend scheint sich die prozessdiagnostische Fähigkeit „Deuten“ positiv auf die Interventionen der Studierenden auszuwirken und sollte daher bereits im Rah-men des (Lehramts-)Studiums verstärkt geschult werden.
Warum kann ich mir nicht vorstellen, meine Haare wachsen zu lassen, insbesondere meine Körperhaare? Diese Frage und das damit verbundene Unbehagen motivierten mich 2016 zur Entwicklung meines Dissertationsprojektes.
Die Suche nach einer Antwort führt zu einer Studie, die einen feministisch-phänomenologischen Erfahrungsbegriff zentral setzt. Bedeutsam für die Entwicklung eines solchen Begriffs sind die phänomenologischen Beiträge „Zur poststrukturalistischen Kritik an der Erfahrung im Kontext der feministischen Philosophie“ (Stoller 2005) von Silvia Stoller und „Phänomenologie, Poststrukturalismus und feministische Theorie. Zum Begriff der Erfahrung“ (Alcoff 1997) von Linda Martín Alcoff. Darauf aufbauend verfolgt das Dissertationsprojekt zunächst das Anliegen, Erfahrungen sichtbar zu machen, indem sie veranschaulicht und zur Sprache gebracht werden. Auf diese Weise wird es möglich, Erfahrungen hinterfragen zu können, um anschließend Antworten entwickeln zu können. Demnach beruhen mein Unvermögen, Körperhaare wachsen zu lassen, sowie das damit einhergehende Unbehagen darauf, eine drohende Erfahrung der Fremdheit mir selbst gegenüber abwenden zu wollen. Zu einer solchen Fremderfahrung würde es kommen, wenn ich durch meine Körperhaare damit konfrontiert werde, dass ich mir fremd bin. Jedoch um sich selbst kennenzulernen sind Menschen nach phänomenologischem Verständnis (vgl. Meyer-Drawe 2001: 141-142) auf andere Menschen angewiesen, da sie sich selbst erst durch andere bewusst werden können. Doch stellt es angesichts des gelebten Ideals der Haarlosigkeit (vgl. Labre 2002: 120-122, Strmljan 2018: 406) eine Herausforderung dar, meine drohende Fremderfahrung, aufgrund der Konfrontation mit meinen Körperhaaren, im Kontakt mit anderen Menschen zu überwinden, sodass ich eine solche Fremderfahrung vermeide, indem ich meine Körperhaare entferne. Als Resultat verbleibt mein Unbehagen darüber, dem Ideal der Haarlosigkeit zu entsprechen.
Zu einer solchen Antwort gelange ich anhand einer Studie, die folgender Forschungsfrage folgt:
Wie erfahren sich Menschen beim Waxing in einem Kosmetikstudio unter den Bedingungen der binären Geschlechterordnung?
Dass die Erfahrungen in einem Kosmetikstudio erforscht werden, begründet sich damit, dass in einem solchen der Zugang zu Erfahrungen bei der Entfernung von Körperhaaren möglich wird. Körperhaare zu entfernen ist zwar ein alltäglicher Umgang mit Körpern, jedoch intim und persönlich, sodass ein Zugang schwierig wird. Eine Lösung stellt hierfür ein Kosmetikstudio dar. Als Praktikantin in dem Kosmetikstudio Beautystudio werden mir Erfahrungen beim Waxing – einer kosmetischen Technik der Haarentfernung – zugänglich.
Auf solche Weise Daten zu erheben folgt dem ethnographischen Vorgehen der teilnehmenden Beobachtung. Forscher*innen nehmen beobachtend vor Ort teil und erheben Daten, indem sie Notizen, Protokolle und schließlich Studien erstellen. Mittels eines solchen Forschungsstils können Forscher*innen Erfahrungen in einer Studie zentral setzen, da sie so Erfahrungen selbst machen können und Zugang zu den Erfahrungen anderer erhalten (vgl. Amann/ Hirschauer 1997: 29-30, Breidenstein et al. 2013: 86-87, 103, 177-178).
Im Zuge der Datenerhebung zeigt sich wiederum, dass im Umgang mit Körperhaaren die Bedingungen der binären Geschlechterordnung wirksam werden. Beispielsweise wird in vielen Situationen die dichotome Differenz zwischen Männern und Frauen betont, ohne dass es konkret für die kosmetische Anwendung notwendig zu sein scheint. So erklärt sich, dass für die Analyse und das Hinterfragen der zur Sprache gebrachten Erfahrungen ein geschlechtertheoretisches Konzept herangezogen wird, welches Erfahrungen hinsichtlich der Bedingungen der binären Geschlechterordnung befragen kann. Eine solche Betrachtung der Daten bietet Gesa Lindemanns Konzept „Der leiblich-affektiven Konstruktion des Geschlechts“ (1992).
Basierend auf dem feministisch-phänomenologischen Erfahrungsbegriff, dem ethnographischen Vorgehen und dem Geschlechterkonzept Lindemann zeigt sich, dass Menschen beim Waxing erfahren (können), mit anderen Menschen verbunden und sich selbst unverbunden zu sein. Dabei wird die Haut zum Kristallisationspunkt der Verbindung zu anderen Menschen (und auch Apparaten). Durch die Berührungen wird einerseits Verbundenheit gestaltet und eine gegenseitige Zuwendung erfahrbar, andererseits wird diese aber auch unterbrochen, wenn durch das Waxing Schmerz zugefügt wird oder Menschen durch Blicke entblößt werden. So wird die Haut zum Medium zwischen den Erfahrungen der Verbundenheit und Unverbundenheit.
(Hinweisen möchte ich an dieser Stelle, dass alle Namen und Orte anonymisiert sind. Demnach handelt es sich beim Beautystudio um den anonymisierten Namen des Kosmetikstudios, in welchem ich forschte. Auf diese Weise soll die Persönlichkeit der Kontaktpersonen im Feld gewahrt bleiben.)
Literaturhinweise:
Alcoff, Linda M. (1997): Phänomenologie, Poststrukturalismus und feministische Theorie. Zum Begriff der Erfahrung. In: Stoller, Silvia/ Vetter, Helmuth (Hg.): Phänomenologie und Geschlechterdifferenz. Wien: WUV-Universitäts-Verlag: 227-271.
Amann, Klaus/ Hirschauer, Stefan (1997): Die Befremdung der eigenen Kultur. Ein Programm. In: Hirschauer, Stefan/ Amann, Klaus (Hg.): Die Befremdung der eigenen Kultur: Zur ethnographischen Herausforderung soziologischer Empirie. Frankfurt am Main: Suhrkamp Verlag: 7-52.
Breidenstein, Georg/ Hirschauer, Stefan/ Kalthoff, Stefan/ Nieswand, Boris (2013): Ethnografie. Die Praxis der Feldforschung. Konstanz & München: UVK Verlagsgesellschaft
Labre Peixoto, Magdala (2002): The Brazilian Wax: New Hairlessness Norm for Women? In: Journal of Communication Inquiry: 26 (2): 113-132.
Lindemann, Gesa (1992): Die leiblich-affektive Konstruktion des Geschlechts. Für eine Mikrosoziologie des Geschlechts unter der Haut. In: Zeitschrift für Soziologie: 21 (5): 330-346.
Meyer-Drawe, Käte (2001): Leiblichkeit und Sozialität. München: Wilhelm Fink Verlag.
Stoller, Silvia (2005): Zur poststrukturalistischen Kritik an der Erfahrung im Kontext der feministischen Philosophie. In: Stoller, Silvia/ Vasterling, Veronica/ Fisher, Linda (Hg.): Feministische Phänomenologie und Hermeneutik. Würzburg: Königshausen & Neumann GmbH: 139-170.
Strmljan, Alina (2018): Haare zum Schämen? Weibliche Körperbehaarung und ihre Entfernung – Normen, Tabus und Trivialisierungen. In: Breuss, Susanne (Hg.): Mit Haut und Haar. Frisieren, Rasieren, Verschönern. Wien: Metroverlag: 404-410.
Spektroskopie zweiatomiger Moleküle bei Einstrahlung ultrakurzer Laserpulse und ihre Anwendung
(2020)
Durch die Verwendung ultrakurzer Pulse lassen sich selbst bei moderaten Pulsenergien und Durchschnittsleistungen sehr hohe Spitzenleistungen erreichen, deren Wirkung auf Materie sich grundlegend von der anderer Lichtquellen unterscheidet. Die hohe Feldstärke ist hier nicht nur verantwortlich für das vermehrte Auftreten optisch nichtlinearer Effekte wie der Frequenzverdopplung, sondern ist auch hauptverantwortlich für die ”kalte“ Ablation, die zu deutlich kälteren Plasmen führt. Eine Untersuchung dieser beiden Umstände in Hinblick auf eine Vereinfachung der Pulslängenmessung und eine Verbesserung der Molekülbildung in erkaltenden Plasmen ist Thema dieser Arbeit. In diesem Zusammenhang wird gezeigt, dass die Verwendung von Ultrakurzpulslasern bei der Wahl geeigneter Prozessparameter, insbesondere durch gezielte Defokussierung, die Spektroskopie verschiedener emittierender Moleküle wie Aluminiumoxid verbessert, sodass deren Detektion auch ohne die in der Literatur geforderten zeitauflösenden Messinstrumente möglich ist. Darüber hinaus ermöglichen ultrakurze Pulse eine ortsaufgelöste Kristallisation von Zinkoxid auf – mit einfachen Mitteln präparierten – Zinkoberflächen. Die dabei entstandenen Wurtzite richten ihre c-Achse meist annähernd senkrecht zur darunterliegenden Oberfläche aus und können zur Erzeugung von gestreuter Frequenzverdopplung genutzt werden. Hierfür haben sich besonders die in den letzten Jahren entwickelten faserbasierten Femtosekundenlaser mit Pulsenergien im Mikrojoule-Bereich, Pulslängen von wenigen 100fs und äußerst geringem Wartungsaufwand als ein leistungsfähiges Instrument erwiesen. Die hohe Pulsenergie dieser Systeme erlaubt zudem die Verwendung von Frequenzverdopplern mit deutlich geringeren Konversionsezienzen zur Messung der Pulslänge. Trotz uneinheitlicher Kristallachsen hat sich hier das streuend frequenzverdoppelnde Aluminiumnitrid als besonders tauglich für die optische Autokorrelation herausgestellt. Im Vergleich zum üblicherweise verwendeten monokristallinen Beta-Bariumborat, reduzieren die gesinterten Aluminiumnitrid-Keramikplatten den Justageaufwand, vereinfachen durch ihre Robustheit die Handhabung und verringern den Kostenfaktor um zwei bis drei Größenordnungen. Daher eignet sich das hier entwickelte Verfahren auch für die Kontrolle der Pulslänge während des Fertigungsprozesses eines solchen Systems – besonders dann, wenn hohe bzw. für Beta-Bariumborat zu hohe Pulsenergien auftreten können.
Das wissenschaftliche Interesse an nichtsuizidalen Selbstverletzungen (NSSV) von Jugendlichen hat in den letzten zwei Jahrzehnten deutlich zugenommen. Hohe Prävalenz- und Komorbiditätsraten sowie die geringe Lebensqualität und das erhöhte Suizidrisiko betroffener Jugendlicher betonen die Wichtigkeit dieses Forschungszweiges. Die vorliegende Dissertation widmet sich intra- und interpersonellen Faktoren, die sich als relevant für die Entstehung und Aufrechterhaltung von NSSV erwiesen haben.
Ziel der Studie 1 war die Untersuchung der Persönlichkeitsmerkmale von Jugendlichen mit NSSV ohne Borderline-Persönlichkeitsstörung (NSSV-BPS) in Abgrenzung zu Jugendlichen mit NSSV und einer BPS (NSSV+BPS), einer klinischen Kontrollgruppe (KKG) und einer gesunden Kontrollgruppe (GKG). Jugendliche mit NSSV erzielten im Vergleich zur KKG höhere Werte auf den Persönlichkeitsdimensionen Neugierverhalten und Schadensvermeidung und niedrigere Werte auf den Dimensionen Beharrungsvermögen, Selbstlenkungsfähigkeit und Kooperativität. Für Jugendliche mit NSSV+BPS zeigte sich ein ähnliches Persönlichkeitsmus-ter, welches jedoch deutlich ausgeprägter war.
NSSV von Jugendlichen beeinflussen das gesamte Familiensystem und gehen häufig mit Konflikten und einer veränderten Familiendynamik einher. Eltern von betroffenen Jugendlichen berichten von einer hohen Belastung, Unsicherheit und Hilflosigkeit. Jugendliche mit NSSV nehmen im Vergleich zu Jugendlichen ohne NSSV mehr Kritik und Kontrolle und weniger Unterstützung von Seiten der Eltern wahr. In Studie 2 wurde das Erziehungsverhalten in Familien von Jugendlichen mit NSSV untersucht und mit einer KKG und GKG verglichen. Im Vergleich zur GKG berichteten Jugendliche mit NSSV weniger mütterliche Wärme und Unterstützung. Mütter von Jugendlichen mit NSSV erzielten im Vergleich zu Müttern in der GKG höhere Psychopathologiewerte und berichteten weniger Elternzufriedenheit als Mütter der KKG und GKG.
Auch Geschwisterkinder leiden unter der veränderten Familiendynamik. Ziel der Studie 3 war die Untersuchung der Geschwisterbeziehung von Jugendlichen mit NSSV im Vergleich zu einer KKG und GKG. Geschwister von Jugendlichen mit NSSV berichteten von einer Viel-zahl von negativen emotionalen und familiären Konsequenzen bedingt durch die NSSV der Schwester. Im Vergleich zu Geschwistern in der KKG und GKG berichteten sie häufiger von Nötigung/Zwang in der Geschwisterbeziehung. Jugendliche mit NSSV gaben im Vergleich zur GKG höhere Rivalitätswerte und weniger Empathie und Wärme in der Geschwisterbeziehung an. Sowohl für Jugendliche mit NSSV als auch deren Geschwister zeigten sich Zusammenhänge zwischen der geschwisterlichen Beziehungsqualität und internalisierenden Symptomen.
Zur genaueren Untersuchung des familiären Klimas, wurde in Studie 4 das Ausmaß an Expressed Emotion (EE) von Jugendlichen mit NSSV, Jugendlichen einer KKG, einer GKG und deren Müttern erfasst und verglichen. Bisherige Studien zeigen einen Zusammenhang zwischen einem hohen Maß an EE (HEE) der Eltern und NSSV der Jugendlichen. Insbesondere elterliche Kritik scheint mit NSSV assoziiert zu sein. Der Fokus bisheriger Studien lag auf dem EE-Status der Eltern, was womöglich ein unvollständiges Bild darstellt. Aus diesem Grund wurden in dieser Studie auch die EE-Ausprägungen der Jugendlichen miteinbezogen. Jugendliche in der NSSV Gruppe und KKG erfüllten im Vergleich zur GKG häufiger die Kriterien für HEE. Jugendliche mit NSSV äußerten gegenüber ihren Müttern mehr verdeckte Kritik und kritischen Tonfall als Jugendliche der KKG und GKG. HEE der Jugendlichen ging mit Emotionsregulationsschwierigkeiten einher. Für die Gesamtstichprobe zeigte sich eine moderate Übereinstimmung zwischen den HEE-Ausprägungen der Jugendlichen und Mütter.
Die Ergebnisse dieser Arbeit beinhalten wichtige Implikationen für die Behandlung von Jugendlichen mit NSSV. Die Unterschiede in den Persönlichkeitsmerkmalen von Jugendlichen mit NSSV mit und ohne BPS betonen die Relevanz der dimensionalen Persönlichkeitsdiagnostik sowie gezielter Behandlungsprogramme für Jugendliche mit NSSV-BPS. Familiäre Konflikte sind häufige Trigger für NSSV, daher sollten Interventionen für Jugendliche mit NSSV sowohl die Verbesserung der Emotionsregulation als auch der familiären Kommunikation und Interaktion zum Ziel haben. Nebst der Reduktion negativer Beziehungsaspekte, sollte in der Psychotherapie auch an der Steigerung positiver Beziehungsqualitäten gearbeitet werden. Die emotionale Belastung von Familienangehörigen weist auf die Notwendigkeit von Unterstützungsangeboten für Eltern und Geschwister hin.
Im Kontext der Erweiterten Realität versteht man unter Tracking Methoden zur Bestimmung von Position und Orientierung (Pose) eines Betrachters, die es ermöglichen, grafische Informationen mittels verschiedenster Displaytechniken lagerichtig in dessen Sichtfeld einzublenden. Die präzisesten Tracking-Ergebnisse liefern Methoden der Bildverarbeitung, welche in der Regel nur die Pixel des Kamerabildes zur Informationsgewinnung heranziehen. Der Bildentstehungsprozess wird bei diesen Verfahren jedoch nur bedingt oder sehr vereinfacht miteinbezogen. Bei modellbasierten Verfahren hingegen, werden auf Basis von 3D-Modelldaten Merkmale identifiziert, ihre Entsprechungen im Kamerabild gefunden und aus diesen Merkmalskorrespondenzen die Kamerapose berechnet. Einen interessanten Ansatz bilden die Strategien der Analyse-durch-Synthese, welche das Modellwissen um Informationen aus der computergrafischen Bildsynthese und weitere Umgebungsvariablen ergänzen.
Im Rahmen dieser Arbeit wird unter Anwendung der Analyse-durch-Synthese untersucht, wie die Informationen aus dem Modell, dem Renderingprozess und der Umgebung in die einzelnen Komponenten des Trackingsystems einfließen können. Das Ziel ist es, das Tracking, insbesondere die Merkmalssynthese und Korrespondenzfindung, zu verbessern. Im Vordergrund steht dabei die Gewinnung von visuell eindeutigen Merkmalen, die anhand des Wissens über topologische Informationen, Beleuchtung oder perspektivische Darstellung hinsichtlich ihrer Eignung für stabiles Tracking der Kamerapose vorhergesagt und bewertet werden können.
Die Studien der vorliegenden Arbeit untersuchen geschlechtsspezifisch-emotionale Reaktionsmuster auf stärkere und weniger stark emotionalisierte Texte verschiedener Textarten zu negativen Themen. Zusätzlich finden verschiedene Ausprägungen von Geschlechterstereotypen und dahingehend mögliche Zusammenhänge mit emotionalen Reaktionen Berücksichtigung. Versuchspersonen wurden mit Textmaterial konfrontiert und sollten daraufhin mit Hilfe des Emotionsfragebogens M-DAS ihre emotionalen Reaktionen bewerten. Frauen zeigten eine stärkere Ergriffenheit in Bezug auf das Textmaterial im Allgemeinen und besonders auf emotionalisiertes Textmaterial. Gemischte Ergebnisse zeigten sich in Bezug auf geschlechtertypische Textarten. Eine Sachtextpräferenz der Männer ließ sich ebensowenig signifikant belegen wie die erwartete stärkere Vorliebe der Frauen für literarische Texte. Geschlechtsspezifische Emotionen wurden weitestgehend erwartungskonform berichtet: Frauen reagierten mit stärkerer Angst und Trauer auf das Textmaterial, Männer mit stärkerer Verachtung. Die Ergebnisse in Bezug auf Wut sind gemischt, in einigen Fällen wurde Wut jedoch stärker von den Frauen berichtet. Die Untersuchung der Zusammenhänge zwischen internalisierten Stereotypen ergab Einflüsse hauptsächlich von weiblichen Stereotypen auf emotionale Reaktionen, männliche Stereotype konnten nur in einer Teilfragestellung als Einflussfaktor ausgemacht werden. Emotionsbezogene Stereotype wiesen keine Zusammenhänge mit emotionalen Reaktionen auf. Insgesamt belegen die Ergebnisse der Arbeit, dass sich geschlechterspezifische Unterschiede in emotionalen Reaktionen finden lassen.
Abdriftbedingte Pflanzenschutzmittelrückstände in unbehandelten Kulturen auf angrenzenden Flächen
(2020)
Die vorliegende Arbeit beschäftigt sich mit der Abdrift von Pflanzenschutzmitteln (PSM), die auf Lebensmittelkulturen in angrenzenden Flächen, insbesondere in benachbarte Haus- und Kleingärten, gelangt. In einer Reihe von Windtunnelversuchen wurde die Abdrift von PSM aus Flächen- und Raumkulturen während der Applikation mit zwei verschiedenen Testsystemen nachgestellt. Das Testsystem Flächenkultur simuliert die Applikation auf Flächenkulturen, das Testsystem Raumkultur die auf Raumkulturen. Auf der Nicht-Zielfläche wurden die auf Grund von Abdrift entstandenen Rückstände des verwendeten Tracers Pyranin nach der Applikation entfernungsabhängig auf den Lebensmittelkulturen Kopfsalat, Erdbeeren und Tomaten gemessen. Durch die gleichzeitige Messung der Bodendeposition konnten die Messwerte mit Hilfe von Regressionsgleichungen (R² = 0,88 bis 0,97) in Bezug zu den Abdrifteckwerten (AEW) gebracht werden. Dadurch war es möglich, erste Abschätzungen der Höhe von Rückständen vorzunehmen, die über Abdrift von landwirtschaftlichen Flächen auf benachbarte Lebensmittelkulturen im Freiland gelangen können. Diese Abschätzung ist zunächst limitiert auf die drei Versuchspflanzen. Die Versuche zeigen, dass sich die meisten durch Abdrift entstehenden Rückstände auf Salatköpfen wieder finden, gefolgt von Erdbeeren und Tomaten.
Neben dem experimentellen Teil wurden Analysen mit Geoinformationssystemen (GIS) durchgeführt, um die Nachbarschaftsverhältnisse zwischen landwirtschaftlich genutzten Flächen und Gartenflächen für ganz Deutschland und speziell für Rheinland-Pfalz (RLP) zu analysieren. Dazu wurden für die deutschlandweiten Berechnungen die Daten des amtlichen topographisch-kartographischen Informationssystems (ATKIS) und für die RLP-weiten Berechnungen die Daten des amtlichen Liegenschaftskatasterinformationssystem (ALKIS) verwendet. Beachtet werden muss, dass auf Grund der Datenbeschaffenheit eine Abgrenzung der Gartenflächen zu Wohnflächen nicht möglich ist. Deutschlandweit liegen etwa 1,1 % aller potentiellen Gartenflächen innerhalb eines 5 m Pufferbereichs um Raumkulturen bzw. innerhalb eines 2 m Pufferbereichs um Flächenkulturen. Für RLP sind es 0,75 %. Mit Hilfe eines Landbedeckungsdatensatzes der Fa. RLP AgroScience GmbH und den ALKIS-Daten konnte jedoch die exakte Gartenfläche für RLP auf 47.437 ha bestimmt werden. Basierend auf dieser Datengrundlage liegen 1,2 % der Gartenfläche von RLP innerhalb der genannten Pufferbereiche. Des Weiteren ergaben Berechnungen, dass 3 % der Gärten in RLP direkt angrenzend zu landwirtschaftlich genutzten Flächen liegen.
Im Rahmen dieser Arbeit wurden nicht nur Gärten betrachtet, die an landwirtschaftliche Flächen grenzen, sondern auch Nachbarschaftsverhältnisse zwischen ökologisch und konventionell bewirtschafteten Flächen untersucht. Diese Berechnungen erfolgten mit den Daten des Integrierten Verwaltungs- und Kontrollsystems (InVeKoS). Insgesamt grenzen in RLP 47,1 % aller ökologisch bewirtschafteten Flächen unmittelbar an konventionell bewirtschaftete Flächen an.
In dieser Arbeit werden die schottischen Liedbearbeitungen Ludwig van Beethovens auf ihre möglichen gälischen Vorläufer untersucht und in ihrem historischen Kontext aus einer gälischen Perspektive betrachtet. Ihre Liedbiographien werden um Vorläufer ergänzt und vervollständigt, die vom dem schottischen Auftraggeber Beethovens, George Thomson teilweise vorsätzlich unterschlagen wurden. Gründe hierfür sind in der politischen und kulturellen Unterdrückung der gälischen Sprachgemeinschaft Schottlands zu finden. Handelt es sich wirklich um anonyme Volkslieder, oder auch um Kompositionen bekannter Musiker aus der gälischen Kultur? Welche Veränderungen erfuhren sie im Zuge der Anonymisierung und der Degradierung zur Volksmusik, sowie der anschließenden Neuausrichtung in der schottischen Nationalmusik? Zu 12 der schottischen Lieder Beethovens sind ausführliche Liedbiographien mit allen gälischen Liedtexten, deutscher Übersetzung und den historischen Hintergründen der gälischen Vorläufer und ihrer Notierungen entstanden.
Studien der vergangenen Jahre haben gezeigt, dass im Bereich der Datenschutzkompetenz ein Mangel bei Jugendlichen und jungen Erwachsenen besteht, jedoch standen Kinder und Jugendliche im Alter von zehn bis 13 Jahren dabei nicht so stark im Fokus. Daher ist die Leitfrage der Arbeit, wie die Datenschutzkompetenz bei Kindern und Jugendlichen in dem jüngeren Alter ausgebildet ist, um für diese Altersgruppe passende Konzepte entwickeln zu können. Zu Beginn der Arbeit wird ausgehend von einem Medienkompetenzmodell ein Datenschutzkompetenzmodell abgeleitet, welches als Grundlage für die weitere Felduntersuchung dient. An allgemeinbildenden weiterführenden Schulen in Rheinland-Pfalz wurde eine Erhebung durchgeführt, die zeigt, dass die Befragten im Bereich der Risikoabschätzung noch eine ausreichende, aber im Bereich des Wissens, der Auswahl- und Nutzungskompetenz und der Handlungskompetenz eine mangelhafte Kompetenz besitzen. Um diesem Problem zu begegnen, werden im letzten Teil der Arbeit Handlungsempfehlungen in Form von Lernzielbeschreibungen formuliert, um ausgehend davon zukünftig passende Lehr-Lern-Settings implementieren zu können.
Die vorliegende Dissertation beschäftigt sich mit der Anwendung des sogenannten Molekül-LIBS Verfahrens, einem neuartigen Ansatz der Laser-Induced Breakdown Spectroscopy (LIBS), um den Nachweis für Lochkorrosion auslösende Chloride in Betonbauwerken, die z.B. durch Streusalze im Winter eingetragen werden, zu optimieren. Die potentiometrische Titration als Standardverfahren zur Chloridbestimmung in der Baustoffanalytik weist neben einem hohen Kosten- und Zeitaufwand den entscheidenden Mangel auf, dass die Bestimmung der Chloridkonzentration auf die Gesamtmasse des Betons bezogen wird und nicht wie in der europäischen Norm EN 206 gefordert auf den Zementanteil. Die bildgebenden Möglichkeiten von LIBS zur Phasentrennung des Betonserfüllen diese Forderung. LIBS wurde bereits 1998 von der BAM in der Baustoffanalytik eingesetzt, allerdings erfordert der Nachweis von Chloriden mit LIBS eine teure Heliumspülung und Spektrometer außerhalb des sichtbaren Spektralbereichs, um atomare Emissionen von Chlor zu detektieren. Der Ansatz von Molekül-LIBS besteht darin, dass die Emission chloridhaltiger Molekülradikale, die sich in der Abkühlphase des laserinduzierten Plasmas bilden, zur Quantifizierung genutzt werden. Die Vorteile gegenüber dem konventionellen LIBSVerfahren sind die Emission im sichtbaren Spektralbereich und die Anwendbarkeit ohne Edelgasspülung. In dieser Arbeit wird zudem der Einfluss der experimentellen Komponenten auf das Zeitverhalten der relevanten Molekülemissionen untersucht, Signalschwankungen durch Plasmafluktuationen werden deutlich reduziert und für eine umfassende Plasmaanalytik wird die Molekülbildung auf atomistischen Maßstäben simuliert und mit Standardverfahren verglichen. In Simultanmessungen werden atomare und molekulare Cl-Emission direkt verglichen und die Quantifizierung durch Datenzusammenführung optimiert. Molekül-LIBS wird zu einem quantifizierenden und bildgebenden Verfahren erweitert, das Chloride ohne Edelgasspülung detektieren kann.
Lastkraftwagen werden weltweit in verschiedenen Konfigurationen für den Transport von Gütern und für Spezialanwendungen genutzt. Das sichere Navigieren solcher Großfahrzeuge stellt eine herausfordernde Aufgabe für den Fahrer und unter Umständen für automatische Steuerungssysteme, z. B. im semi-autonomen oder autonomen Betrieb, dar. Insbesondere in kinematisch schwierigen Situationen, auf unebenem Untergrund oder bei engen Platzverhältnissen steigt die Komplexität des sicheren Steuerns.
Umso verwunderlicher ist es, dass unterstützende Systeme, welche die speziellen Belange von LKW und insbesondere LKW-Gespannen adressieren, im Vergleich zum Angebot auf dem PKW-Markt nur in rudimentärem Maß angeboten werden. Das Gefahrenpotential, dass von Großfahrzeugen ausgeht, wird zunehmend in der aktuellen Tagespolitik diskutiert. Unter anderem wird die verpflichtende Einführung von Fahrerassistenzsystemen gefordert.
In dieser Arbeit werden zwei Themen behandelt, die sich mit den speziellen Anforderungen von Nutzfahrzeugen befassen. Im ersten Themenblock wird die Erfassung der Artikulation in einem LKW-Anhänger-Gespann mit Drehschemelanhänger bearbeitet. Dabei wird ein neuartiges Verfahren vorgestellt, das auf an der Universität Koblenz-Landau geleisteten Vorarbeiten aufbaut. Es ermöglicht die Erfassung von Knickwinkeln in mehreren Dimensionen und ist daher auch für den Einsatz auf unebenem Grund, wie beispielsweise in Baustellen- oder Agrarszenarien geeignet. Das Verfahren nutzt dabei eine Kamera und ein künstliches Muster, um den Gespannzustand zu ermitteln.
Im zweiten Bereich wird die Umfeldvisualisierung durch eine Vogelperspektivenansicht thematisiert. Herkömmliche Systeme weisen systembedingte Verzerrungen auf, die unnatürlich wirkende Ansichten zur Folge haben. Diesem Problem wird durch die Entwicklung einer neuen Herangehensweise begegnet: Mit den Tiefendaten von Stereokameras wird eine Umgebungsmodellierung realisiert, die im nächsten Schritt perspektivisch korrekt mit Kamerabildern fusioniert wird. Mittels einer speziell für diesen Fall erweiterten Stereo-Hinderniserkennung wird zudem eine zusätzliche Umfeldüberwachung ermöglicht.
Die beiden in dieser Dissertation vorgestellten Verfahren beinhalten grundlegende Arbeiten, die für die Entwicklung maßgeschneiderter Assistenzsysteme für LKW angewandt werden können.
Die Biopolyester Cutin und Suberin stellen hydrophobe Grenzbarrieren dar, die sich im Laufe der Evolution der Landpflanzen entwickelt haben. Cutin bildet den Hauptbestandteil der Cuticula, die den Pflanzen Schutz vor unkontrollierter Transpiration bietet. Die Einlagerung von Suberin in die Zellwände definierter Zellen des Wurzelgewebes ermöglicht eine kontrollierte Aufnahme von Wasser und Nährstoffen. Zu den wichtigsten monomeren Bestandteilen dieser biologischen Polyester gehören langkettige α,ω-Dicarbonsäuren und ω-Hydroxycarbonsäuren. Bisher wurde der mikrobielle Abbau der Makromoleküle unzureichend erforscht. Zur Entschlüsselung der Zersetzung ist es notwendig, den Kreislauf der monomeren Bestandteile im Boden zu betrachten. Hierzu eignen sich vor allem Experimente mit positionsspezifisch ¹³C -markierten α,ω-Dicarbonsäuren und ω-Hydroxycarbonsäuren, die in der vorliegenden Arbeit erstmals synthetisch zugänglich gemacht wurden. Die Synthesen umfassten Dicarbonsäuren der geradzahligen Kettenlängen C12 bis C30, deren Carboxygruppen ¹³C -markiert sind. Ebenfalls wurde die Synthese von ω-Hydroxycarbonsäuren der Kettenlängen C14, C18, C22 und C30 mit ¹³C-Markierung an der Carboxygruppe realisiert. Weitere Zielverbindungen waren ω-Hydroxycarbonsäuren der Kettenlängen C14, C15, C18, C22 und C30, deren terminales hydroxyliertes Kohlenstoffatom mit ¹³C markiert ist. Im Rahmen der durchgeführten Arbeit gelang es, alle 19 Zielcarbonsäuren erfolgreich in hohen Ausbeuten und Reinheiten darzustellen. Die Synthese der isotopenmarkierten Verbindungen erforderte die Entwicklung spezieller auf die jeweiligen Zielsubstanzen individuell angepasster Syntheserouten, die den Einbau des Kohlenstoffisotops ¹³C ermöglichten. Für alle Zielverbindungen erfolgte die Einführung des ¹³C durch die Verwendung von ¹³C -markiertem Kaliumcyanid (99 at%). Wegen der hohen Kosten des ¹³C -markierten Ausgangsstoffes wurden alle Reaktionen zunächst unter der Verwendung analoger unmarkierter Edukte optimiert. Der letzte Teil der Arbeit bestand in der Ausführung eines Inkubationsexperimentes mit den ¹³C -markierten α,ω-Dicarbonsäuren der Kettenlängen C12, C18, C22 und C30. Mittels Phospholipidfettsäure-Analyse konnte gezeigt werden, dass die ¹³C -Dicarbonsäuren zu unterschiedlichen Anteilen von verschiedenen Mikroorganismengruppen zum Aufbau von Phospholipidfettsäuren verwendet wurden. Außerdem konnte durch die Anreicherung des CO2 mit dem Isotop ¹³C nachgewiesen werden, dass die ¹³C -markierten Fettsäuren von den Mikroorganismen zur Energiegewinnung abgebaut wurden. Für zukünftige Arbeiten wäre es interessant, Ausschnitte der Cutin- und Suberinstruktur nachzubilden. Durch die Veresterung der ¹³C -markierten α,ω-Dicarbonsäuren und der ¹³C -markierten ω-Hydroxycarbonsäuren untereinander oder mit Alkoholen könnten Dimere und Oligomere hergestellt werden.
Warum stürzen wir beim Gehen? Dreidimensionale und komplexe
Bewegungsabläufe des menschlichen Ganges exakt zu
analysieren und somit offene Grundfragen der Kinesiologie zu
beantworten ist Kern dieser Arbeit. Die Bewegungswissenschaft
der Gerontologie beschränkt sich derzeit noch auf Modelle und
Methoden mit einfachen und eindimensionalen Bewegungsanalysen.
In einer umfangreichen Literaturrecherche wird der aktuelle
Stand der Technik an Hand der drei gängigsten Methoden zur
Bestimmung der Stabilität beim Gehen erfasst und bewertet.
Eine Bewertung der drei Methoden: Margin of Stability, Lokale
Stabilität und Orbitale Stabilität, erfolgt durch die Ermittlung
der Anwendbarkeit der einzelnen Methoden, um die Tendenz eines
Probanden zu bestimmen, sich von kleinen (natürlichen oder
künstlichen) Störungen des Gangs zu erholen. Auf Grundlage
dieser Bewertungen und das Abwägen der Vor - und Nachteile
der einzelnen Methoden, wurde eine neue Methode zur Beurteilung
der räumlichen-dynamischen Stabilität entwickelt, die sich
für die Analyse des linearen und nicht-linearen menschlichen
Gangs anwenden lässt. Als Methodische Grundlagen dienen
ein Motion-Capture-System, zur Erfassung der kinematischen
Bewegungen, und ein in der Gerontologie fest etablierte Mobilitätstest,
der sogenannte Timed Up and Go Test, zur Beurteilung
des Gleichgewichts und der Mobilität. Zusätzlich wurde eine
numerische Näherung der Marker-Anzahl des Motion-Capture-
Systems durchgeführt. Dabei wurde die Anzahl der Marker auf
ein Marker-Set minimiert, bei der die bestmögliche Korrelation
der Ergebnisse zum Full-Body-Marker-Set erzielt wird. Dies
dient zur Vereinfachung der Methode für zukünftige Anwendungen
bei klinischen oder wissenschaftlichen Fragestellungen. Die
neu entwickelte Methode bedarf einer Validierung, welche mit
Hilfe einer Probandenstudie durchgeführt wurde. Die Ergebnisse
der Probandenstudie werden präsentiert und Interpretationsmöglichkeiten
werden aufgezeigt. Neue relevante Variablen und
Momentbestimmungen besonderer Gangsituationen werden ausgewertet
und bieten Raum für neue Interpretationsansätze zur
Beurteilung des menschlichen Gangs.
Die neue Methode ist somit in der Lage die individuelle Entwicklungen
des Bewegungsablaufes im Alter und die Vermeidung
von Stürzen und einhergehenden Verletzungen aus einer erweiterten
und neuen Perspektive zu beurteilen. Insbesondere
können Richtungswechsel bei einem nicht-linearen Gang neu
betrachtet und beurteilt werden.
Die Zunahme von Mikroplastik (< 5 mm) in der Umwelt ist ein globales Problem, welches im direkten Zusammenhang mit deren steigender Produktionsmenge und –vielfalt steht. Durch direkten Eintrag (primär) oder durch Zersetzung von Meso- und Makroplastik (sekundär) gelangen Mikroplastik-Partikel über die gängigen Stofftransportwege (u.a. häusliche oder industrielle Abwässer, Straßenabflüsse, Gezeiten, Winden, etc.) in die Umweltkompartimente Wasser und/oder Boden. Die Forschungs- und Entwicklungsarbeiten zur nachhaltigen Entfernung von Mikroplastik-Partikeln (inerten organisch-chemischen Stressoren, IOCS) aus dem Abwasser basieren auf der Konstruktion von Polymer-Einschlussverbindungen. IOCS beschreiben organisch-chemische Moleküle, die beim Eintrag in das Ökosystem eine hohe Persistenz aufweisen und nur begrenzt abgebaut werden können.
Nach dem Prinzip der Cloud Point Technologie wurde eine neuartige Separationstechnik entwickelt, welche ein Partikelwachstum bei Mikroplastik induziert und eine leichtere Abtrennung aus Wässer durch Volumenzunahme nach dem Stand der Technik ermöglicht. Das Konzept zur nachhaltigen Entfernung von Mikrokunststoffen von Herbort und Schuhen basiert auf einer Drei-Schritt-Synthese. Dieses Konzept wurde im Rahmen der Forschungsarbeiten weiter optimiert und hinsichtlich der Kriterien Ressourceneffizienz und Wirtschaftlichkeit angepasst. Die Arbeitsgrundlage des Konzeptes basiert auf der Hypothese, dass van der Waals Kräfte mit kurzer Reichweite und lokalisierte hydrophobe Wechselwirkungen zwischen Präkursor und/oder Material und dem anzubindenden IOCS eine Fixierung durch die Ausbildung einer Einschlussverbindung mit Partikelwachstum induzieren können. Durch Zugabe von Silizium basierten ökotoxikologisch nicht relevanten Werkstoffen gelingt es, in einem durch Wasser induzierten Aggregationsprozess, eine molekulare Selbstorganisation mit den hydrophoben Stressoren zu initiieren. Dies führt zu einer Phasentrennung, wodurch Agglomerate mit einem 10000-fach größeren Volumen ( 2-3 cm) aufschwimmen und im Anschluss durch effektive und kostengünstige Filtrationsverfahren (z. B. Sandfang, Fettabscheider) das Polymer-Extrakt vom aquatischen Medium getrennt werden können.
Die Entwicklung von naturwissenschaftlichen Konzepten und Bildungssprache beginnt schon vor dem Schuleintritt und bildungssprachliche und naturwissenschaftliche Kompetenzen werden als wichtige Faktoren für Schulerfolg angesehen (Ehlich, Bredel & Reich, 2008; Saçkes, Trundle & Bell, 2013). Die frühe Förderung dieser Kompetenzen ist deshalb sinnvoll.
Lernumgebungen, die naturwissenschaftliche Konzepte fördern (Hardy, Möller & Stern, 2006; Leuchter, Saalbach & Hardy, 2014), zeichnen sich ebenso wie Lernumgebungen, die Bildungssprache fördern (Gibbons, 2006; Quehl & Trapp, 2013), dadurch aus, dass sie zum Sammeln eigener Erfahrungen (z.B. beim Experimentieren) und zum Versprachlichen und Begründen eigener Gedanken anregen (z.B. in Planungs- und Reflexionsphasen). Die zur Förderung von Bildungssprache erforderliche sprachliche Komplexität wird besonders in Gesprächen herausgefordert, die außerhalb der Experimentiersituation, d.h. kontext-reduziert, stattfinden (Gibbons, 2006; Quehl & Trapp, 2013). Bisherige Forschung untersucht allerdings entweder sprachliche oder konzeptuelle Fortschritte und dies überwiegend im schulischen Kontext. Eine gemeinsame Betrachtung beider Bereiche bei Vorschulkindern fehlt bisher. Die zentrale Forschungsfrage der Arbeit lautet daher: „Welche Effekte haben kontext-reduzierte Gespräche auf Vorstellungen von Vorschulkindern zu zweiseitigen Hebeln und deren bildungssprachliche Lexik und Grammatik?“
Die Effekte kontext-reduzierter Gespräche wurden in einem quasi-experimentellen Design (N = 90) mit drei Gruppen untersucht. Alle Gruppen nahmen an Experimentierphasen zu zweiseitigen Hebeln teil. Zwei Gruppen erhielten außerdem Planungs- und Reflexionsphasen mit verbalen Unterstützungsmaßnahmen. In der kontext-reduzierten Bedingung fanden die Planungs- und Reflexionsgespräche in raum-zeitlicher Trennung zum Experimentiermaterial statt, in der kontextualisierten Bedingung stand den Kindern das Material auch während der Planungs- und Reflexionsphasen zur Verfügung.
Zwischen kontext-reduzierten und kontextualisierten Gesprächen konnten weder signifikante Unterschiede im naturwissenschaftlichen Konzept noch in den bildungssprachlichen Kompetenzen gefunden werden. Ein signifikanter Fördereffekt von Planungs- und Reflexionsgesprächen gegenüber der reinen Experimentierphase ohne Gespräche zeigt sich für konzeptuelle Vorstellungen zu zweiseitigen Hebeln, jedoch nicht für bildungssprachliche Lexik und Grammatik. Diese Ergebnisse lassen sich aus dem theoretischen Hintergrund nur bedingt erklären und geben Anlass für weitere Forschung.
Die vorliegende Dissertation beschäftigt sich mit euroskeptischen Äußerungen in der Parteienkommunikation und der Medienberichterstattung im Vorfeld der Europawahl 2014. Die Arbeit verwendet ein akteurszentriertes Forschungsdesign, welches eine differenzierte Betrachtung der öffentlichen Debatte europäischer Themen erlaubt. Die Analyse deckt auf, welche nationalen Parteien euroskeptische Positionen vertreten und inwiefern diese Einzug in die mediale Berichterstattung finden. Auch die Positionierung der Medien selbst wird durch die Untersuchung meinungsbezogener Artikel berücksichtigt. Die den Studien zu Grunde liegende Konzeptualisierung des Euroskeptizismus-Begriff umfasst neben globalen und konkreten negativen Bewertungen der EU auch die Zuschreibung von Problemverantwortung als weitere Spielart euroskeptischer Äußerungen. Die Arbeit nimmt weiterhin eine international vergleichende Perspektive ein, um den Einfluss nationaler Kontextfaktoren auf die Verbreitung euroskeptischer Positionen aufzuzeigen.
Die Ergebnisse der Analyse decken zunächst auf, dass das Vorhandensein erstarkender euroskeptischer Oppositionsparteien nicht zwangsläufig zu einer Politisierung der europäischen Debatte führt, da sich die europhilen Mainstream-Parteien verschiedener Strategien zur Vermeidung einer solchen Kontroversen bedienen. Die Analysen ergeben weiterhin, dass europhile Regierungsparteien zwar mehrheitlich vor konkreten negativen Bewertungen der EU zurückschrecken, diese aber in Bezug auf die europäische Finanzkrise vorwiegend als Verursacher von Problemlagen skizzieren. Letztlich verdeutlichen die Ergebnisse, dass die mediale Berichterstattung zu Themen mit EU-Bezug eine starke Synchronizität zwischen Nachrichten- und Meinungsteil aufzeigt. Dies gilt sowohl in Bezug auf die geäußerten Bewertungen zur Europäischen Union als auch hinsichtlich der Darstellung von Verantwortlichkeit.
In der vorliegenden Studie geht es um den möglichen und tatsächlichen Beitrag von sogenannten Geschäftsmodellen im Kontext eines reflexiven Bildungsmanagements im Feld der wissenschaftlichen Weiterbildung an (öffentlichen) Hochschulen in Deutschland.
Im Anschluss an Behrmann (2006) wird ein reflexives Bildungsmanagement verwendet, um mögliche strategische und entwicklungsrelevante Orientierungen für die strategische (Neu-)Positionierung von Weiterbildungseinrichtungen bzw. reflexive Entwicklung von Hochschulen im Handlungs- bzw. Geschäftsfeld der wissenschaftlichen Weiterbildung zu strukturieren. In diesem Zusammenhang unterstützen Geschäftsmodelle die Realisierung des (Weiter-)Bildungsauftrags von (öffentlichen) Hochschulen bzw. von deren Weiterbildungseinrichtungen. Diese möglichen Orientierungen wurden im Rahmen von qualitativen Inhaltsanalysen nach Kuckartz (2016) auf der Grundlage von visualisierten Gruppendiskussionen nach Kühl (2009) rekonstruiert. Der Feldzugang erfolgte mit Unterstützung der Deutschen Gesellschaft für wissenschaftliche Weiterbildung und Fernstudium e.V. (DGWF).
Absicherung der analytischen Interpretation von Geolokalisierungsdaten in der Mobilfunkforensik
(2019)
Zusammenfassung
Lokalisierungsdienste gehören mit zu den wesentlichen Merkmalen moderner mobiler Endgeräte. Neben der Tatsache, dass Standortdaten zur Rekonstruktion eines Bewegungsprofils genutzt werden können, steigt der Anteil der zu untersuchenden Geräten mit entsprechender Ausstattung im Rahmen von polizeilichen Ermittlungen enorm an.
Motivation
Ziel dieser Arbeit ist es, tiefergehendes Wissen um Geolokalisierungsfragen im Bereich der Mobilfunkforensik aufzubauen, um die in den Geräten gespeicherten Standortdaten forensisch auswertbar zu machen. Darüber hinaus sollen Werkzeuge entwickelt werden, die die spezifischen Bedürfnisse der Strafverfolgungsbehörden berücksichtigen.
Probleme
Die Prozesse der Geolokalisierung in Smartphones sind komplex. Um seine Position zu lokalisieren zu können, müssen verschiedene Referenzsysteme wie z. B. GPS, Funkzellen oder WLAN-hotspots in unterschiedlicher Art und Weise verknüpft werden. Der gesamte Lokalisierungsmechanismus ist geistiges Eigentum der Hersteller und nicht mit dem Ziel forensischer Auswertungen entstanden. Ein grundlegendes Problem der forensischen Untersuchung ist, dass hauptsächlich Referenzpunkte anstelle reeller Gerätepositionen gespeichert werden. Darüber hinaus bestehen die Geolokalisierungsinformationen aus Bits und Bytes bzw. numerischen Werten, die zuverlässig an ihre Bedeutung geknüpft werden müssen. Die gewonnenen Lokalisierungsdaten sind ferner lückenhaft und stellen lediglich einen Teil des gesamten Prozesses bzw. der Gerätenutzung dar. Dieser Datenverlust muss bestimmt werden, um eine zuverlässige Aussage hinsichtlich der Vollständigkeit, Integrität und Genauigkeit der Daten zu ermöglichen. Zu guter Letzt muss, wie für jedes Beweismittel einer kriminalistischen Untersuchung, gesichert sein, dass eine Manipulation der Daten bzw. Fehler bei der Positionsschätzung des Gerätes keinen nachteiligen Einfluss auf die Auswertung haben.
Forschungsfragen
Im Zusammenhang mit Lokalisierungsdiensten in modernen Smartphones kommt es im forensischen Alltag immer wieder zu ähnlichen Fragestellungen:
* Lassen sich Standorte zu jedem beliebigen Zeitpunkt ermitteln?
* Wie genau sind die ermittelten Geodaten des Smartphones?
* Werden Standortdaten aus Smartphones vor Gericht Bestand haben?
Forschungsansatz
Zur besseren Nachvollziehbarkeit der Prozesse in modernen Smartphones und um die Qualität und Zuverlässigkeit von Geolokalisierungsdaten zu bewerten, sollen Standortdaten verschiedener Plattformen sowohl theoretisch analysiert als auch praktisch während der Lokalisierung betrachtet werden. Der Zusammenhang zwischen Daten und Entstehungskontext wird mithilfe experimenteller Live-Untersuchungen sowie Desktop- und nativen Anwendungen auf den mobilen Endgeräten untersucht werden.
Ergebnis
Im Rahmen dieser Arbeit konnten mithilfe der entwickelten Werkzeuge die forensische Untersuchung verbessert sowie die analytische Interpretation von Geodaten von- bzw. direkt auf modernen Smartphones durchgeführt werden. Dabei hat sich ein generisches Modell zur Beurteilung der Qualität von Standortdaten herauskristallisiert, das sich allgemein auf die ermittelten Geodaten aus mobilen Endgeräten anwenden lässt.
Im Zentrum der Untersuchung steht die Entwicklung des künstlerischen Siebdrucks in Deutschland seit dem Zweiten Weltkrieg. Nach der thematischen Einführung und einer ersten kritischen Bestandsaufnahme der Forschung zum Siebdruck wird im Folgenden der Verlauf und die methodische Vorgehensweise der Arbeit verdeutlicht. Im zweiten Kapitel „Etablierung einer künstlerischen Technik“ wird zuerst die Geschichte des Siebdrucks dem Rahmen dieser Arbeit gemäß nachgezeichnet. Nachfolgend wird in einem Unterkapitel dargestellt, wie sich die Serigrafie als künstlerisches Verfahren parallel zum industriellen Siebdruck etablierte. In der Folge wendet sich die Untersuchung der Entstehung und Entwicklung des künstlerischen Siebdrucks in Deutschland zu. Dabei wird Willi Baumeister als Beispiel für die erste Generation von Künstlern in Deutschland herangezogen, die sich mit der Serigrafie beschäftigte. Im nächsten Schritt wird ein Überblick zu den Willi Baumeister nachfolgenden deutschen bzw. deutschsprachigen Serigrafie–Künstlern präsentiert. In dem sich anschließenden Exkurs-Kapitel liegt der Schwerpunkt auf der Zusammenarbeit zwischen Künstler und Drucker. Dabei werden an Beispielen namhafter Drucker wie Luitpold Domberger und Hans-Peter Haas unter anderem Einflüsse der Drucker auf die Entstehung und den Ausdruck der Kunstwerke aufgezeigt.Nach einer Einführung in die Entstehung und Geschichte der Serigrafie in Deutschland und einem ersten Überblick über deutsche Serigrafie-Künstler wird im vierten Kapitel der Einsatz der Serigrafie-Technik bei verschiedenen Künstlern aus unterschiedlichen Zeiträumen eingehend untersucht. Besonderes Augenmerk gilt dabei dem Einfluss der Technik auf die Ausdrucksmöglichkeiten und Inhalte der Werke, die Anwendung innerhalb einer und verschiedener Kunstrichtungen sowie die Experimente, die mit der Siebdrucktechnik gemacht wurden. Dazu werden Werke ausgewählter Künstler analysiert. Im Fokus stehen Künstler der Pop Art, des Neuen und des Kritischen Realismus, der Abstrakten und Konkreten Kunst. Ferner werden Künstler, deren Werk durch einen expressiven, bisweilen primitiven Charakter geprägt ist, in die Betrachtung mit einbezogen. Eine weitere Gruppe bilden Künstler, die die Serigrafie in einen Zusammenhang zur Architektur und zum öffentlichen Raum stellen. Die aus der Untersuchung hervorgehenden Ergebnisse dienen insbesondere dazu, die Charakteristika der Technik in ihrer künstlerischen Verwendung herauszustellen und Aspekte einer künstlerisch motivierten Weiterentwicklung aufzuzeigen. Die Entwicklung des druckgraphischen Werkes und der Technik von Gerd Winner werden in Kapitel 5 eingehend untersucht. Auf diese Weise lässt sich eine systematische, nicht rein formale, sondern ästhetische und inhaltliche Darstellung der Serigrafie in Deutschland erstellen. Ein besonderes Augenmerk liegt dabei auf der Frage, wie sich die Technik und deren Neuerungen auf den Inhalt auswirkten.
Politische Steuerung in nationalen Bologna-Prozessen in Deutschland, Österreich und der Schweiz
(2019)
Das Ziel der Dissertation besteht in der Erklärung und Analyse grundlegender Steuerungsmuster zwischen Politik und Universitätssystem in den nationalen Bologna-Prozessen in Deutschland, Österreich und der Schweiz: Wurde die Studienreform primär staatlich verordnet, im Dialog mit den Hochschulen implementiert oder die Ausgestaltung der Reform der Wissenschaft weitgehend überlassen - und welche Instrumente wurden dabei weshalb genutzt? Damit schließt die Arbeit an den aktuellen Forschungsstand zu vertikalen Vermittlungsprozessen (übernational-national) im Bologna-Prozess an: Nationale Hochschulsysteme konvergieren nicht zu einem einheitlichen Modell, sondern nationale Faktoren (z.B. Problemdeutungen und Einflussmöglichkeiten von Bildungspolitik, Universitäten u.a.) führen dazu, dass Bologna jeweils länderspezifisch verstanden und interpretiert wird.
Vor diesem Hintergrund wird im theoretischen Teil zur Anleitung eines systematischen Vergleichs ein analytischer Rahmen entworfen, dessen Elemente sowohl aus der Politikwissenschaft (Instrumenteforschung, Politische Steuerung, Governance etc.) als auch aus der Hochschulforschung stammen. In den anschließenden empirischen Kapiteln zu den drei Ländern werden die Akteurkonstellationen und faktisch zu beobachtenden Instrumentarien beschrieben, analysiert und interpretiert. Die methodische Basis bilden neben der Analyse zahlreicher Dokumente 37 leitfadengestützte Interviews mit Expertinnen und Experten.
Grundsätzlich lassen sich auf Basis der empirischen Teile die folgenden zentralen Ergebnisse der Studie festhalten:
Deutschland: Aufgrund der relativ starken Kompetenzen der Länder und der Einflussschwäche der Universitäten ist für den deutschen Bologna-Prozess ein primär interventionistisches Muster kennzeichnend. Dieses wurde und wird bis heute dadurch verstärkt, dass die Umsetzung von Bologna durch spezifische Problemwahrnehmungen und -lösungen von KMK und HRK in den 90er Jahren geprägt ist (z.B. Modularisierung als Antwort auf unstrukturierte Studiengänge, Akkreditierung als Fortführung der tradierten Input-Steuerung). `Bologna` wurde so mit genuin nationalen Instrumenten verquickt, die z.T. quer zum tradierten Lehrhabitus vieler Hochschullehrerinnen und -lehrer lag und liegt (z.B. Modularisierung oder Kompetenzorientierung). Verstärkend trat hinzu, dass die Reform u.a. aufgrund des Bund/Länder-Konflikts in der Bildungspolitik im Vorfeld der Föderalismusreform I nicht finanziell unterstützt wurde. Plastisch formuliert ist der deutsche Bologna-Prozess regulativ über- und finanziell untersteuert, was auch zu den Studierendenprotesten 2009/2010 beitrug.
Österreich: Der Bologna-Prozess lief in Österreich parallel zu einem umfassenden Neuordnungsprozess, innerhalb dessen die Universitäten in ihrer Autonomie erheblich gestärkt wurden und sich das zuvor zentrale Wissenschaftsministerium in seinen Kompetenzen erheblich limitierte. Dieses hatte die Reform unmittelbar 1999 noch angestoßen, zog sich anschließend jedoch im Rahmen einer `minimalen Steuerung` zurück und übernahm auch keine Reformmehrkosten. Da unterhalb der in die Autonomie entlassenen Universitäten kein nationaler Dialog über die Reform in Gang kommen konnte, fand der Bologna-Prozess vor allem auf der Ebene der jeweils eigenständigen Universitäten `vor Ort` statt. Diese erhebliche regulative und finanzielle Untersteuerung führte 2009/2010 zu massiven Studierendenprotesten, die angesichts der schwachen Position des Ministeriums auch nur unzureichend kanalisiert werden konnten.
Schweiz: In der Schweiz hingegen ist eine austarierte regulative und finanzielle Steuerung zu beobachten. Bund und Kantone übertrugen Anfang der 2000er Jahre wenige, aber wesentliche Kompetenzen auf ein gemeinsames Organ, das seinerseits per Gesetz eng mit der Rektorenkonferenz zusammenarbeiten sollte. Bologna stärkte dieses bis dato auf dem Papier bestehende Muster: Vor dem Hintergrund einer übergreifend geteilten prozessualen Subsidiaritätsnorm sowie weitgehender Präferenzenübereinstimmung zwischen Politik und Universitäten finanzierte der Staat gezielt die Reformmehrkosten sowie strategische Projekte und delegiert die Formulierung, Implementierung und Weiterentwicklung zentraler Vorgaben auf der Basis des Entscheidungsvorbehalts an die Rektorenkonferenz bzw. Universitäten. Probleme werden innerhalb dieses Arrangements z.T. identifiziert und bearbeitet. Die Politik greift nur subsidiär im Ausnahmefall ein. Die Schweiz kommt daher dem Idealtypus der strukturierenden Steuerung sehr nahe.
Die Befunde werden abschließend in einen größeren Bezugsrahmen eingeordnet, um sie über Bologna hinaus für die Analyse des deutschen Hochschulsystems fruchtbar zu machen. Maßstab hierfür sind ausgewählte normative Kriterien zur Güte von Steuerungsmustern. So wird z.B. gezielt die politische Entscheidungskapazität in den beobachteten Mustern betrachtet: Während etwa in Deutschland auf die Studierendenproteste 2009 im Rahmen des interventionistischen Musters mit verbindlichen Instrumenten wie Strukturvorgaben, Akkreditierung und letztlich dem Qualitätspakt Lehre nicht nur symbolisch reagiert werden konnte, stand das Wiener Wissenschaftsministerium den starken Protesten durch den Verzicht auf regulative und finanzielle Ressourcen hilflos gegenüber.
Auf dieser Basis werden abschließend einige grundlegende Anregungen zur Weiterentwicklung des deutschen Hochschulsystems gegeben. Unter anderem wird dafür plädiert, den hochschulpolitischen Reformdiskurs, der sich oftmals nur zwischen den Polen `mehr Staat` und `mehr Wettbewerb` zu bewegen scheint, gezielt um alternative Handlungslogiken und Akteure zu erweitern: Die Ergebnisse der Arbeit legen nahe, Verbände und Organisationen (Rektorenkonferenzen, Fachgesellschaften, Fakultätentage u.a.) politisch zu stärken, um diese Sichtweisen und Expertisen in zukünftigen Reformprozessen (z.B. aktuell Digitalisierung) systematischer als zuvor miteinzubeziehen. Denn eine zu starke Entkopplung von politischen und wissenschaftlichen Rationalitäten führt unweigerlich zu nicht intendierten Effekten, die ihrerseits wieder Handlungsdruck erzeugen (z.B. Proteste).
Die Nachhaltigkeitsberichterstattung kann als ein zentrales Element einer konsequenten Unternehmensstrategie zur Umsetzung der gesellschaftlichen Verantwortung (Corporate Social Responsibility) angesehen werden. Um die Unternehmen bei dieser Aufgabe zu unterstützen stellt die Global Reporting Initiative (GRI) mit ihren G4 Leitlinien einen Orientierungsrahmen bereit, dessen Anwendung sich allerdings für Klein und Mittelunternehmen sehr komplex gestaltet. Ein branchenspezifisches Sector Supplement für den Weinbau existiert derzeit noch nicht.
Ziel der vorliegenden Arbeit ist es, diese Forschungslücke durch die Entwicklung weinbauspezifischer Nachhaltigkeitsaspekte und Indikatoren zu schließen, um den Betrieben eine selbstständige GRI-konforme Berichterstattung zu ermöglichen.
Der Prozess zur Identifikation wesentlicher Nachhaltigkeitsaspekte und -indikatoren erfolgt mittels Erhebungs- und Auswertungsmethoden der qualitativen Sozialforschung in Form
von Workshops, betrieblichen Vorortanalysen und Experteninterviews.
Parallel dazu erfolgt eine umfassende Analyse der weinbaulichen Wertschöpfungskette in Form einer Internet- und Literaturrecherche. Diese umfasst vorrangig die ökologischen Nachhaltigkeitsaspekte als diejenigen Bestandteile weinbaulicher Tätigkeiten, die sich sowohl positiv als auch negativ auf die Umwelt auswirken können. Anschließend erfolgt die zentrale Priorisierung der identifizieren Handlungsfelder und Nachhaltigkeitsthemen durch die Stakeholder. Zur Visualisierung der bewerteten Handlungsfelder dient das Instrument der Wesentlichkeitsanalyse.
Auf dieser Basis erfolgt die Entwicklung eines Handlungsleitfadens zur Erstellung von Nachhaltigkeitsberichten in der Weinwirtschaft. Hiermit erlangen Weingüter die praktische Kompetenz ein eigenes Nachhaltigkeitsreporting anzugehen.
Im Rahmen der Arbeit wurde auch ein elektronisches Tool entwickelt, das den Betrieben die Möglichkeit eröffnet, betriebliche Umweltaspekte zu erfassen und zu bewerten. Gleichzeitig wird den Anwendern damit die Generierung eines überbetrieblichen Vergleichs der Umweltleistung ermöglicht (Benchmarking).
Eine weitere Forschungsfrage der vorliegenden Arbeit beschäftigt sich mit der Biodiversitätserfassung und -bewertung für Rebland. Hintergrund sind die bisher nur geringen Funde auf der durch das Bundesamt für Naturschutz festgelegten Kennartenlisten bzw. den HNV-Stichprobenflächen (High nature value farmland-Indikator) für Rebland.
Hierzu wurde mittels Geoinformationssystemen das Artenvorkommen in rheinland-pfälzischen Weinanbaugebieten analysiert und 30 Pflanzenarten als Indikatorarten für den Weinbau abgeleitet. Ergänzend wurden weinbergstypische, geschützte Tierarten als „Bonusarten“ identifiziert. Die Indikatorarten werden den Winzern als ein Instrument zur eigenständigen Erfassung der Biodiversität in den Weinbergen dienen und im Rahmen einer Nachhaltigkeitsberichterstattung herangezogen werden können.
Rieselmassen aus einem mineralischen Füllstoff und einem organischen oder anorganischen Bindersystem kommen als hochtemperaturbeständige Auskleidung in thermisch sehr stark beanspruchten Aggregaten, beispielsweise in der Stahlindustrie, zum Einsatz. Die Komponenten der Rieselmassen werden erst während des Einbringens in das Aggregat vermischt und chemisch oder thermisch gehärtet. Die zur Aushärtung benötigte Zeit ist für die Anwendung der Rieselmassen von entscheidender Bedeutung, da sie ausreichend lang sein muss, um eine vollständige Verarbeitung der Massen zu gewährleisten, gleichzeitig jedoch zu lange Stillstandzeiten der Aggregate zu vermeiden sind. Eine Vorhersage oder Steuerung der Abbindezeiten von Rieselmassen, die für einen optimalen Ablauf des Zustellungsprozesses nötig ist, ist aktuell nur sehr eingeschränkt möglich. Dies liegt zum einen daran, dass bisher geeignete Verfahren zur Prüfung der Härtungsdauer fehlen. Zum anderen ist der sehr komplexe Ablauf der Härtung noch nicht im Detail bekannt und die Wirkung von Einflussfaktoren, wie der Rezeptur der Rieselmassen oder den vorherrschenden Temperaturen, nur unzureichend dokumentiert.
Um einen Beitrag zum Verständnis des Abbindeverhaltens zu leisten, war es das Ziel der vorliegenden Arbeit, zunächst ein geeignetes Verfahren zur zeitabhängigen Prüfung des Härtungsverlaufs von Rieselmassen zu entwickeln. Dies wurde mithilfe der Dynamisch-Mechanischen Analyse realisiert. Darüber hinaus wurde der Härtungsmechanismus in Abhängigkeit von der Temperatur und der Rezeptur anhand einer feuerfesten Rieselmasse mit einem Bindesystem aus Wasserglas und Phosphathärter (AlPO4 und BPO4) durch ergänzende gravimetrische Messungen und der Untersuchung des Lösungsverhalten der Phosphate im Wasserglas-Binder beschrieben. Darauf aufbauend wurde mittels Röntgenbeugungsanalyse, Magnetresonanzspektroskopie und Rasterelektronenmikroskopie untersucht, wie sich die festgestellten Unterschiede im Härtungsverlauf auf die kristalline und amorphe Struktur auswirken. Es konnte gezeigt werden, dass die Härtung mittels der beiden Phosphate zu ver-schiedenartigen Netzwerkstrukturen hinsichtlich der Verknüpfungsdichte führt, die mit unterschiedlichen Abbindegeschwindigkeiten korrelieren. Zusätzlich konnten hieraus Auswirkungen auf ausgewählte Eigenschaften (thermische Längenänderung, temperaturabhängige Phasenentwicklung und -umwandlungen) abgeleitet werden.
Gegeben sei eine Basis b>=10 und eine Ziffer a0 aus der Menge {0,..., b − 1}. Wir untersuchen, ob es unendlich viele Primzahlen gibt, die in ihrer b-adischen Zifferndarstellung die Ziffer a0 nicht besitzen. Ferner schätzen wir die Anzahl dieser Primzahlen, die kleiner sind als X = b^k, nach oben und unten ab.
Damit gelingt uns eine Verallgemeinerung von Maynards Beweis für den Fall b = 10 und wir nutzen hierzu auch die in seiner Arbeit verwendeten Werkzeuge. Unter Anderem benötigen wir die Hardy-Littlewoodsche Kreismethode sowie diverse Siebmethoden, um die Minor Arcs zu kontrollieren.
Schließlich sehen wir, dass wir Maynard's Aussage vor allem dann auf beliebige Basen b>= 10 und ausgeschlossene Ziffern a0 aus {0, ..., b − 1} übertragen können, wenn zwei betragsmäßig größte Eigenwerte von Matrizen, die von b und a0 parametrisiert werden, bestimmte Abschätzungen erfüllen. Dass diese Abschätzungen im Fall b>=102 erfüllt sind, beweisen wir im letzten Kapitel. Für die Fälle b = 10 und b = 11 liegt ebenfalls ein Mathematica-Code vor, der die Abschätzungen bestätigt.
Die Dissertation untersucht das Selbstkonzept der indischen Ordensfrauen in deutschen Pflegeeinrichtungen. Für die Analyse wurde die Methode der Grounded Theory aus der empirischen Sozialforschung ausgewählt. Im Untersuchungsfeld wurden 26 indische Ordensfrauen und 5 Arbeitergeber interviewt. Als theoretische Grundlagen diente die Missionsgeschichte mit dem Standard des missionarischen Dienstes, die Ausprägung des deutschen und indischen Pflegeverständnisses, der Kulturbegriff in seiner strukturellen Bedingtheit von Dimensionen und Modellen mit dem Bezug zur Organisation „Ordensgemeinschaft“. Dem direkten Bezug zur Forschungsfrage dienten das hierarchische Selbstkonzeptmodell nach Shalveson und ein weiteres Modell nach Bracken, das zur Interpretation der empirischen Ergebnisse herangezogen wurde. In den fünf Kernkategorien und den dazugehörigen Subkategorien dominierte das Hauptmotiv „Missionarin sein“.Die indischen Ordensfrauen bezeichnen sich selbst als „Europamissionarin“ und wollen die Liebe Christi durch ihre Arbeit in der Pflege und Betreuung zu den Kranken, Hilfebedürftigen und alten Menschen bringen.
Damit die indischen Ordensfrauen in ihrem Selbstkonzept in Deutschland noch optimaler arbeiten können, empfiehlt es sich ein Anforderungsprofil zu entwickeln, vorausschauend bestimmte Rahmenbedingungen zu beachten und neue Lebensmodelle zu konzipieren.