Dissertation
Filtern
Erscheinungsjahr
- 2019 (31) (entfernen)
Dokumenttyp
- Dissertation (31) (entfernen)
Schlagworte
- Inklusion (2)
- Parteienkommunikation (2)
- Weinbau (2)
- Aluminiumorthophosphat (1)
- Aufsatzdidaktik (1)
- Behinderungen (1)
- Bologna-Prozess (1)
- Bororthophosphat (1)
- Calcium (1)
- Chancengerechtigkeit (1)
- Classroom-Management (1)
- Comic (1)
- Densimetric Measurement (1)
- Dichtemessung (1)
- Dredging (1)
- Drucktechnik (1)
- EP Wahl (1)
- EU (1)
- Ebullition (1)
- Einstellungen und Haltungen zu Inklusion (1)
- Elektronenmikroskopie (1)
- Euroskeptizismus (1)
- Freeze Coring (1)
- Förderschule (1)
- GRAF1 (1)
- Gas storage capacity (1)
- Gefrierkernverfahren (1)
- Governance (1)
- Graphic novel (1)
- Hochschulpolitik (1)
- India (1)
- Indien (1)
- Individuelle Computermodelle (1)
- Inhaltsanalyse (1)
- Integration in der SEK II (1)
- Judentum (1)
- Jüdisch (1)
- Kryo (1)
- Lake Kinneret (1)
- Lendenwirbelsäule (1)
- Lernklima (1)
- Minimalschnitt (1)
- Missionarin (1)
- Nachhaltigkeit (1)
- Nachhaltigkeitsbericht (1)
- Nanoröhren (1)
- Nassbaggerung (1)
- Natronwasserglas (1)
- Nützlinge (1)
- Oligomer (1)
- Ordensfrau (1)
- Pflege (1)
- Politische Steuerung (1)
- Primzahl (1)
- Primzahlen (1)
- Proteinstrukturanalyse (1)
- Quantitative Untersuchung (1)
- Reservoir Sedimentation (1)
- Rieselmassen (1)
- Schreibdidaktik (1)
- Schulklima (1)
- Schädlingskontrolle (1)
- Sediment (1)
- Selbstkonzept (1)
- Serigrafie (1)
- Stauseeverlandung (1)
- Teamteaching (1)
- Tundish (1)
- Unterrichtsforschung (1)
- Unterrichtsmethode (1)
- Vergleichende Politikwissenschaft (1)
- Wahlen zum europäischen Parlament (EU-Wahlen) (1)
- Will Eisner (1)
- Writing Conference (1)
- Zifferndarstellung (1)
- beneficial insects (1)
- biocide (1)
- care (1)
- chironomids (1)
- decision support tool (1)
- ecotoxicity (1)
- environmental risk assessment (1)
- evolution (1)
- fungus resistant grapevine (1)
- groundwater remediation (1)
- long-living systems (1)
- minimal pruning (1)
- missionary (1)
- model-based (1)
- mosquito control (1)
- non-target effects (1)
- nun (1)
- pelzresistente Rebsorten (1)
- periphyton (1)
- pest control (1)
- punishment goals (1)
- security (1)
- self-concept (1)
- software engineering (1)
- student misbehavior (1)
- uptake (1)
- viticulture (1)
Institut
- Fachbereich 7 (5)
- Fachbereich 8 (3)
- Institut für Integrierte Naturwissenschaften, Abt. Biologie (2)
- Institut für Integrierte Naturwissenschaften, Abt. Chemie (2)
- Institut für Pädagogik, Abteilung Schulpädagogik/Allgemeine Didaktik (2)
- Institut für Softwaretechnik (2)
- Fachbereich 5 (1)
- Institut für Germanistik (1)
- Institut für Integrierte Naturwissenschaften (1)
- Institut für Integrierte Naturwissenschaften, Abt. Physik (1)
Nanotemplates for the combined structural and functional analysis of membrane-associated proteins
(2019)
Die Inkubation von unilamellaren Lipid-Vesikeln mit einem als BPG bezeichneten Abschnitt des Proteins GRAF1 führte zur Entstehung von röhrenförmigen Strukturen. Eine Untersuchung mittels negativkontrastierter Elektronenmikroskopie zeigte eine körnige Beschichtung auf der Röhrenoberfläche. Durch die höhere Auflösung der Elektronentomographie war es möglich, helikale Oligomere auf den Röhren zu erkennen. Des Weiteren zeigte sich, dass die Röhren im Durchmesser inhomogen waren und Biegungen aufwiesen. Das hatte ebenfalls Unregelmäßigkeiten in der Ordnung der helikalen Struktur zur Folge. Das Herstellungsverfahren von unilamellaren Vesikeln mittels Extruder wurde so modifiziert, dass es anstatt von Vesikeln Nanoröhren entstehen ließ. Im Gegensatz zu den Röhren, die das Protein formte, wiesen diese eine lineare Struktur mit konstantem Durchmesser auf. Trotz der Inkubation mit BPG behielten diese ihre homogene Form und zeigten nun eine geordnete helikale Beschichtung auf ihrer Oberfläche. Allerdings waren sie nicht hoch genug konzentriert für die Kryoelektronenmikroskopie, und eine reine Erhöhung der Lipidkonzentration führte nicht zu einer höhren Anzahl von Röhren, sondern zu Lipidaggregation. Weitere Experimente zeigten, dass die Chelatliganden EDTA und EGTA in der Pufferlösung zur Entstehung unilamellarer Vesikel führten. Da EDTA und EGTA die Metallionen Mg2+ und Ca2+ absorbieren, wurden weitere Tests mit neuen Pufferlösungen durchgeführt. Zur Absorption bereits vorhandener Metallionen wurden beide Chelatliganden hinzugegeben und eine Variante mit zusätzlichem Magnesiumchlorid und eine weitere mit zusätzlichem Calciumchlorid hergestellt. Es wurde gezeigt, dass Magnesiumchlorid unilamellare Vesikel zur Folge hatte und Calciumchlorid zu einer höhren Konzentration der Nanoröhren führte. Daraus wurde geschlossen, dass Calciumionen die Enstehung von Nanoröhren fördern. Zur weiteren Optimierung der Konzentration wurde eine Varianzanalyse (CCD) der einflussreichsten Variablen im Extrusionsprozess durchgeführt:
- Eine höhere Anzahl von Frier-Tau-Zyklen zur Unterdrückung multilamellarer Vesikel hatte einen positiven Einfluss.
- Es konnte keine Korrelation zwischen der Extrudertemperatur und der Konzentration von Nanoröhren nachgewiesen werden.
- Mehr Extrusionszyklen hatten eine höhere Nanoröhrenkonzentration zur Folge.
Durch das optimierte Protokoll war die Konzentration hoch genug für die Kryoelektronenmikroskopie und eine helikale Rekonstruktion. Dennoch war eine 2D-Klassifizierung nicht erfolgreich, da die Nanoröhren im aufgenommenen Datensatz nicht homogen genug im Durchmesser waren und zudem eine unterschiedliche Anzahl an multilamellaren Rändern aufwiesen. Aus diesem Grund wurde ein Skript entwickelt, das die Röhren nach ihrem Durchmesser sortiert. Mit einer Untermenge des Datensatzes, dessen Röhren einen ähnlichen Durchmesser hatten, wurde eine weitere 2D-Klassifizierung durchgeführt. Daraus resultierten schließlich 2D-Klassen der helikalen Oberflächenstruktur.
Zum Inhalt:
Die Dissertation ist in einem empirisch-qualitativen Forschungssetting eingebettet, bei der das Team-Teaching als Unterrichtsmethode im Forschungsfokus steht. Die Erhebung des empirischen Datenmaterials erfolgt einerseits mittels teilnehmender Beobachtung im Forschungsfeld und andererseits durch ein Gruppeninterview, das mit Lehrkräften geführt wird, die über einen gewissen Beobachtungszeitraum Erfahrungen mit der Unterrichtsmethode des Team-Teaching gesammelt haben. Für die hier zu Grunde gelegte Feldforschung wird das „theoretical sampling“ zum Einsatz kommen, das 1967 von Glaser und Strauss im Rahmen einer empirischen Untersuchung begründet worden ist.
Zum Aufbau:
In der Einleitung wird das Forschungsinteresse, der Forschungsstand und die zentrale Forschungsfrage der Dissertation beschrieben. Im zweiten Kapitel folgt der theoretische Teil mit einer differenzierten Definition des Team-Teachings als Unterrichtsmethode. Es folgt eine allgemeine Definition zum Unterricht, um die spezifischen Merkmale des Team-Teachings differenziert herausarbeiten zu können. Die empirischen Daten werden im Rahmen einer teilnehmenden Beobachtung im Unterricht der Oberstufe einer Förderschule mit dem Förderschwerpunkt Lernen und sozial-emotionale Entwicklung erhoben. Deshalb sind im Theorieteil der Förderschwerpunkt und die curricularen Aspekte zum Förderschwerpunkt dargestellt. Die Bedeutung der Unterrichtsmethode des Team-Teachings für das Unterrichtssetting in einer Förderschule mit dem sozial-emotionalem Förderschwerpunkt ist ebenfalls im Theorieteil verortet.
Im dritten Kapitel werden die qualitativen und quantitativen Erhebungsinstrumente beschrieben und Hypothesen formuliert. Die Darstellung der Methoden zur Aufbereitung des Datenmaterials ist im vierten Kapitel verortet. Die Interpretation der Forschungsergebnisse erfolgt im fünften Kapitel. Die qualitative und quantitative Datenauswertung des empirischen Datenmaterials ist im sechsten Kapitel dargestellt. Die Dissertation schließt im siebten Kapitel mit einen Fazit und Ausblick.
Die didaktische Konzeption der Schreibkonferenz ist soweit etabliert, dass sie bereits in den rheinland-pfälzischen Rahmenplan für die Grundschule für das Fach Deutsch übernommen wurde. Bisher liegt eine Reihe von Erfahrungsberichten zur Schreibkonferenz vor, jedoch wurden dazu bislang kaum systematisch empirische Untersuchungen durchgeführt. Die empirische Studie dieser Arbeit, welche an die VERA-Studie angeschlossen ist, untersucht, ob im Grundschulunterricht (in der dritten und vierten Klasse) der Einsatz von Schreibkonferenzen im Vergleich zur konventionellen Aufsatzdidaktik zu einer Verbesserung der Schreibleistungen, des eigenen Lernens, zu positiven Veränderungen des eigenen Verhaltens sowie zur Förderung der Motivation der Schüler beim Schreiben führt. Dabei wird von folgenden Überlegungen ausgegangen: Zum einen sollte die Schreibkonferenz im Gegensatz zur traditionellen Aufsatzdidaktik das selbstständige Arbeiten der Schüler mit Texten im Deutschunterricht fördern, zum anderen sollte sie zu einer intensiveren Auseinandersetzung mit Texten und damit zu einer Verbesserung des Aufsatzschreibens führen.
Streams are coupled with their riparian area. Emerging insects from streams can be an important prey in the riparian area. Such aquatic subsidies can cause predators to switch prey or increase predator abundances. This can impact the whole terrestrial food web. Stressors associated with agricultural land use can alter insect communities in water and on land, resulting in complex response patterns of terrestrial predators that rely on prey from both systems.
This thesis comprises studies on the impact of aquatic nsects on a terrestrial model ecosystem (Objective 1, hapter 2), the influence of agricultural land use on riparian spiders’ traits and community (Objective 2, Chapter 3), and on the impact of agricultural land use on the contribution of different prey to spider diet (Objective 3, Chapter 4).
In chapter 2, I present a study where we conducted a mesocosm experiment to examine the effects of aquatic subsidies on a simplified terrestrial food web consisting of two types of herbivores (leafhoppers and weevils), plants and predators (spiders). I focused on the prey choice of the spiders by excluding predator immigration and reproduction. In accordance with predator switching, survival of leafhoppers increased in the presence of aquatic subsidies. By contrast, the presence of aquatic subsidies indirectly reduced weevils and herbivory.
In chapter 3, I present the results on the taxonomic and trait response of riparian spider communities to gradients of agricultural stressors and environmental variables, with a particular emphasis on pesticides. To capture spiders with different traits and survival strategies, we used multiple collection methods. Spider community composition was best explained by in-stream pesticide toxicity and shading of the stream bank, a proxy for the quality of the habitat. Species richness and the number of spider individuals, as well as community ballooning ability, were negatively associated with in-stream pesticide toxicity. In contrast, mean body size and shading preference of spider communities responded strongest to shading,
whereas mean niche width (habitat preference for moisture and shading) responded strongest to other environmental variables.
In chapter 4, I describe aquatic-terrestrial predator-prey relations with gradients of agricultural stressors and environmental variables. I sampled spiders, as well as their aquatic and terrestrial prey along streams with an assumed pesticide pollution gradient and determined their stable carbon and nitrogen signals. Potential aquatic prey biomass correlated positively with an increasing aquatic prey contribution of T. montana. The contribution of aquatic prey to the diet of P. amentata showed a positive relationship with increasing toxicity in streams.
Overall, this thesis contributes to the emerging discipline of cross-ecosystem ecology and shows that aquatic-terrestrial linkages and riparian food webs can be influenced by land use related stressors. Future manipulative field studies on aquatic-terrestrial linkages are required that consider the quality of prey organisms, fostering mechanistic understanding of such crossecosystem effects. Knowledge on these linkages is important to improve understanding of consequences of anthropogenic stressors and to prevent further losses of ecosystems and their biodiversity.
Politische Steuerung in nationalen Bologna-Prozessen in Deutschland, Österreich und der Schweiz
(2019)
Das Ziel der Dissertation besteht in der Erklärung und Analyse grundlegender Steuerungsmuster zwischen Politik und Universitätssystem in den nationalen Bologna-Prozessen in Deutschland, Österreich und der Schweiz: Wurde die Studienreform primär staatlich verordnet, im Dialog mit den Hochschulen implementiert oder die Ausgestaltung der Reform der Wissenschaft weitgehend überlassen - und welche Instrumente wurden dabei weshalb genutzt? Damit schließt die Arbeit an den aktuellen Forschungsstand zu vertikalen Vermittlungsprozessen (übernational-national) im Bologna-Prozess an: Nationale Hochschulsysteme konvergieren nicht zu einem einheitlichen Modell, sondern nationale Faktoren (z.B. Problemdeutungen und Einflussmöglichkeiten von Bildungspolitik, Universitäten u.a.) führen dazu, dass Bologna jeweils länderspezifisch verstanden und interpretiert wird.
Vor diesem Hintergrund wird im theoretischen Teil zur Anleitung eines systematischen Vergleichs ein analytischer Rahmen entworfen, dessen Elemente sowohl aus der Politikwissenschaft (Instrumenteforschung, Politische Steuerung, Governance etc.) als auch aus der Hochschulforschung stammen. In den anschließenden empirischen Kapiteln zu den drei Ländern werden die Akteurkonstellationen und faktisch zu beobachtenden Instrumentarien beschrieben, analysiert und interpretiert. Die methodische Basis bilden neben der Analyse zahlreicher Dokumente 37 leitfadengestützte Interviews mit Expertinnen und Experten.
Grundsätzlich lassen sich auf Basis der empirischen Teile die folgenden zentralen Ergebnisse der Studie festhalten:
Deutschland: Aufgrund der relativ starken Kompetenzen der Länder und der Einflussschwäche der Universitäten ist für den deutschen Bologna-Prozess ein primär interventionistisches Muster kennzeichnend. Dieses wurde und wird bis heute dadurch verstärkt, dass die Umsetzung von Bologna durch spezifische Problemwahrnehmungen und -lösungen von KMK und HRK in den 90er Jahren geprägt ist (z.B. Modularisierung als Antwort auf unstrukturierte Studiengänge, Akkreditierung als Fortführung der tradierten Input-Steuerung). `Bologna` wurde so mit genuin nationalen Instrumenten verquickt, die z.T. quer zum tradierten Lehrhabitus vieler Hochschullehrerinnen und -lehrer lag und liegt (z.B. Modularisierung oder Kompetenzorientierung). Verstärkend trat hinzu, dass die Reform u.a. aufgrund des Bund/Länder-Konflikts in der Bildungspolitik im Vorfeld der Föderalismusreform I nicht finanziell unterstützt wurde. Plastisch formuliert ist der deutsche Bologna-Prozess regulativ über- und finanziell untersteuert, was auch zu den Studierendenprotesten 2009/2010 beitrug.
Österreich: Der Bologna-Prozess lief in Österreich parallel zu einem umfassenden Neuordnungsprozess, innerhalb dessen die Universitäten in ihrer Autonomie erheblich gestärkt wurden und sich das zuvor zentrale Wissenschaftsministerium in seinen Kompetenzen erheblich limitierte. Dieses hatte die Reform unmittelbar 1999 noch angestoßen, zog sich anschließend jedoch im Rahmen einer `minimalen Steuerung` zurück und übernahm auch keine Reformmehrkosten. Da unterhalb der in die Autonomie entlassenen Universitäten kein nationaler Dialog über die Reform in Gang kommen konnte, fand der Bologna-Prozess vor allem auf der Ebene der jeweils eigenständigen Universitäten `vor Ort` statt. Diese erhebliche regulative und finanzielle Untersteuerung führte 2009/2010 zu massiven Studierendenprotesten, die angesichts der schwachen Position des Ministeriums auch nur unzureichend kanalisiert werden konnten.
Schweiz: In der Schweiz hingegen ist eine austarierte regulative und finanzielle Steuerung zu beobachten. Bund und Kantone übertrugen Anfang der 2000er Jahre wenige, aber wesentliche Kompetenzen auf ein gemeinsames Organ, das seinerseits per Gesetz eng mit der Rektorenkonferenz zusammenarbeiten sollte. Bologna stärkte dieses bis dato auf dem Papier bestehende Muster: Vor dem Hintergrund einer übergreifend geteilten prozessualen Subsidiaritätsnorm sowie weitgehender Präferenzenübereinstimmung zwischen Politik und Universitäten finanzierte der Staat gezielt die Reformmehrkosten sowie strategische Projekte und delegiert die Formulierung, Implementierung und Weiterentwicklung zentraler Vorgaben auf der Basis des Entscheidungsvorbehalts an die Rektorenkonferenz bzw. Universitäten. Probleme werden innerhalb dieses Arrangements z.T. identifiziert und bearbeitet. Die Politik greift nur subsidiär im Ausnahmefall ein. Die Schweiz kommt daher dem Idealtypus der strukturierenden Steuerung sehr nahe.
Die Befunde werden abschließend in einen größeren Bezugsrahmen eingeordnet, um sie über Bologna hinaus für die Analyse des deutschen Hochschulsystems fruchtbar zu machen. Maßstab hierfür sind ausgewählte normative Kriterien zur Güte von Steuerungsmustern. So wird z.B. gezielt die politische Entscheidungskapazität in den beobachteten Mustern betrachtet: Während etwa in Deutschland auf die Studierendenproteste 2009 im Rahmen des interventionistischen Musters mit verbindlichen Instrumenten wie Strukturvorgaben, Akkreditierung und letztlich dem Qualitätspakt Lehre nicht nur symbolisch reagiert werden konnte, stand das Wiener Wissenschaftsministerium den starken Protesten durch den Verzicht auf regulative und finanzielle Ressourcen hilflos gegenüber.
Auf dieser Basis werden abschließend einige grundlegende Anregungen zur Weiterentwicklung des deutschen Hochschulsystems gegeben. Unter anderem wird dafür plädiert, den hochschulpolitischen Reformdiskurs, der sich oftmals nur zwischen den Polen `mehr Staat` und `mehr Wettbewerb` zu bewegen scheint, gezielt um alternative Handlungslogiken und Akteure zu erweitern: Die Ergebnisse der Arbeit legen nahe, Verbände und Organisationen (Rektorenkonferenzen, Fachgesellschaften, Fakultätentage u.a.) politisch zu stärken, um diese Sichtweisen und Expertisen in zukünftigen Reformprozessen (z.B. aktuell Digitalisierung) systematischer als zuvor miteinzubeziehen. Denn eine zu starke Entkopplung von politischen und wissenschaftlichen Rationalitäten führt unweigerlich zu nicht intendierten Effekten, die ihrerseits wieder Handlungsdruck erzeugen (z.B. Proteste).
Student misbehavior and its treatment is a major challenge for teachers and a threat to their well-being. Indeed, teachers are obliged to punish student misbehavior on a regular basis. Additionally, teachers’ punishment decisions are among the most frequently reported situations when it comes to students’ experiences of injustice in school. By implication, it is crucial to understand teachers’ treatment of student misbehavior vis-à-vis students’ perceptions. One key dimension of punishment behavior reflects its underlying motivation and goals. People generally intend to achieve three goals when punishing misbehavior, namely, retribution (i.e., evening out the harm caused), special prevention (i.e., preventing recidivism of the offender), and general prevention (i.e., preventing imitation of others). Importantly, people’s support of these punishment goals is subject to hierarchy and power, implying that teachers’ and students’ punishment goal preferences differ. In this dissertation, I present three research projects that shed first light on teachers’ punishment and its goals along with the students’ perception of classroom intervention strategies pursuing these goals. More specifically, I first examined students’ (i.e., children’s) general support of each of the three punishment goals sketched above. Furthermore, I applied an attributional approach to understand and study the goals teachers intend to achieve when punishing student misbehavior. Finally, I investigated teachers’ and students’ support of the punishment goals regarding the same student misbehavior to directly compare their views on these goals and reactions pursuing them. In sum, the findings show that students generally prefer retribution and special prevention to general prevention, whereas teachers prefer general prevention and special prevention to retribution. This ultimately translates into a "mismatch" of teachers and students in their preferences for specific punishment goals, and the findings suggest that this may indeed enhance students’ perception of injustice. Overall, the results of the present research program may be valuable for the development of classroom intervention strategies that may reduce rather than enhance conflicts in student-teacher-interactions.
Im Rahmen eines partizipatorischen Aktionsforschungsansatzes wurden die Lehrpersonen und Schüler/innen an einem Oberstufenrealgymnasium mit musischem Schwerpunkt und Montessori (MORG), drei Schuljahre, von 2012-2015, auf ihrem Weg zu einer inklusiven Schule wissenschaftlich begleitet. Basierend auf Einstellungs- und Selbstwirksamkeitstheorien und Ansätzen der inklusiven Pädagogik, sowie akteursbasierten Forschungen, richtete sich das Erkenntnisinteresse auf die Umsetzung einer inklusiven Lern- und Schulkultur – in einer Institution im Bildungssystem der Sekundarstufe II in Österreich, das von seiner Ausrichtung her hoch selektiv ist.
Mittels qualitativer und quantitativer Daten konnte rekonstruiert werden, von welchem Verständnis die Lehrpersonen am MORG (n=19) geleitet wurden, welche Kompetenzen sie aus ihrer Sicht für die Entwicklung einer inklusiven Bildung mitgebracht haben und wie sie die Inklusion am MORG umsetzten. Zur Erhebung der Einstellungen und Selbstwirksamkeitseinschätzungen der Lehrpersonen wurden die international und national erprobten SACIE-R (Sentiments, Attitudes and Concerns about Inclusive Education-Revi-sed) und TEIP (Teacher Efficacy for Inclusive Practice) Skalen in einer deutschsprachigen Fassung verwendet. Ferner wurde die empirische Erhebung im Rahmen einer webbasierten nationalen Befragung von Lehrpersonen an mehreren Schultypen erweitert (n= 427), um vergleichende Aussagen treffen zu können.
Inhaltsanalytisch verarbeitete Interviews und statistisch ausgewertete, im Forschungsteam erstellte Fragebögen für Erziehungsberechtigte (n= 37) sowie Schüler/innen (n=19), ermöglichten den vertieften Einblick in die Praxis aus mehreren Sichtweisen. Die Zusammenschau der Ergebnisse zeigt, dass es einem eher jungen Lehrerteam mit sehr positiven Einstellungen zur Inklusion von Jugendlichen mit Beeinträchtigungen – trotz anfänglicher Schwierigkeiten und selektiver systemischer Rahmenbedingungen auf der Sek. II – gelungen ist, eine für alle Schüler/innen lernförderliche und lebendige Schulkultur herzustellen. Dennoch blieben die Bemühungen der Lehrpersonen im Rahmen der Systemgrenzen. Eine Weiterentwicklung zu einer ‚Schule für alle‘, eine logische Konsequenz inklusionstheoretischer Ansätze, ist nicht festzustellen. Die Auswertungen bestätigen die bisher gewonnenen zentralen Erkenntnisse der Inklusions- und Akteursforschung und werden durch Ergebnisse erweitert, die im Zusammenhang mit den systemischen Rahmenbedingungen auf der Sek. II gesehen werden können.
Absicherung der analytischen Interpretation von Geolokalisierungsdaten in der Mobilfunkforensik
(2019)
Zusammenfassung
Lokalisierungsdienste gehören mit zu den wesentlichen Merkmalen moderner mobiler Endgeräte. Neben der Tatsache, dass Standortdaten zur Rekonstruktion eines Bewegungsprofils genutzt werden können, steigt der Anteil der zu untersuchenden Geräten mit entsprechender Ausstattung im Rahmen von polizeilichen Ermittlungen enorm an.
Motivation
Ziel dieser Arbeit ist es, tiefergehendes Wissen um Geolokalisierungsfragen im Bereich der Mobilfunkforensik aufzubauen, um die in den Geräten gespeicherten Standortdaten forensisch auswertbar zu machen. Darüber hinaus sollen Werkzeuge entwickelt werden, die die spezifischen Bedürfnisse der Strafverfolgungsbehörden berücksichtigen.
Probleme
Die Prozesse der Geolokalisierung in Smartphones sind komplex. Um seine Position zu lokalisieren zu können, müssen verschiedene Referenzsysteme wie z. B. GPS, Funkzellen oder WLAN-hotspots in unterschiedlicher Art und Weise verknüpft werden. Der gesamte Lokalisierungsmechanismus ist geistiges Eigentum der Hersteller und nicht mit dem Ziel forensischer Auswertungen entstanden. Ein grundlegendes Problem der forensischen Untersuchung ist, dass hauptsächlich Referenzpunkte anstelle reeller Gerätepositionen gespeichert werden. Darüber hinaus bestehen die Geolokalisierungsinformationen aus Bits und Bytes bzw. numerischen Werten, die zuverlässig an ihre Bedeutung geknüpft werden müssen. Die gewonnenen Lokalisierungsdaten sind ferner lückenhaft und stellen lediglich einen Teil des gesamten Prozesses bzw. der Gerätenutzung dar. Dieser Datenverlust muss bestimmt werden, um eine zuverlässige Aussage hinsichtlich der Vollständigkeit, Integrität und Genauigkeit der Daten zu ermöglichen. Zu guter Letzt muss, wie für jedes Beweismittel einer kriminalistischen Untersuchung, gesichert sein, dass eine Manipulation der Daten bzw. Fehler bei der Positionsschätzung des Gerätes keinen nachteiligen Einfluss auf die Auswertung haben.
Forschungsfragen
Im Zusammenhang mit Lokalisierungsdiensten in modernen Smartphones kommt es im forensischen Alltag immer wieder zu ähnlichen Fragestellungen:
* Lassen sich Standorte zu jedem beliebigen Zeitpunkt ermitteln?
* Wie genau sind die ermittelten Geodaten des Smartphones?
* Werden Standortdaten aus Smartphones vor Gericht Bestand haben?
Forschungsansatz
Zur besseren Nachvollziehbarkeit der Prozesse in modernen Smartphones und um die Qualität und Zuverlässigkeit von Geolokalisierungsdaten zu bewerten, sollen Standortdaten verschiedener Plattformen sowohl theoretisch analysiert als auch praktisch während der Lokalisierung betrachtet werden. Der Zusammenhang zwischen Daten und Entstehungskontext wird mithilfe experimenteller Live-Untersuchungen sowie Desktop- und nativen Anwendungen auf den mobilen Endgeräten untersucht werden.
Ergebnis
Im Rahmen dieser Arbeit konnten mithilfe der entwickelten Werkzeuge die forensische Untersuchung verbessert sowie die analytische Interpretation von Geodaten von- bzw. direkt auf modernen Smartphones durchgeführt werden. Dabei hat sich ein generisches Modell zur Beurteilung der Qualität von Standortdaten herauskristallisiert, das sich allgemein auf die ermittelten Geodaten aus mobilen Endgeräten anwenden lässt.
In dieser Arbeit wurden erstmals die strukturelle Wechselwirkung zwischen Kalium- Wasserglas-Systemen mit Aluminium-Tetrametaphosphat sowie generell über Wasserglas-Systeme mit Aluminium-Hexametaphosphat als chemischer Härter untersucht. Dabei wurde der kristalline Phasengehalt mittels Pulverdiffraktometrie und anschließender Rietveld-Analyse qualitativ und quantitativ beschrieben. Die Untersuchung des amorphen Phasengehalts erfolgte über verschiedene spektroskopische Methoden (NMR-, ATR-IR- und Raman-Spektroskopie). Das Löslichkeitsverhalten der chemischen Härter in alkalischer Umgebung wurde mit der optischen Emissions- und Elektronenabsorptionsspektroskopie gemessen. Für die Untersuchung der mechanischen Parameter kamen die Drei-Punkt- Biegefestigkeitsprüfung, die Resonanz-Frequenz-Dämpfungsanalyse und die Säureprüfung zum Einsatz. Die Gefüge-Struktur der chemisch gehärteten Wassergläser wurde rasterelektronenmikroskopisch untersucht. Es konnte gezeigt werden, dass der Reaktionsmechanismus der Härtungsreaktion von Kalium-Wassergläsern und Aluminium-Metaphosphaten in Abhängigkeit von der Metaphosphat-Struktur auf unterschiedlichen Wegen abläuft. Bei Aluminium- Tetrametaphosphat bildet sich beim Herauslösen der Aluminium-Ionen aus dem Metaphosphat in einer Ionen-Austauschreaktion das Kalium-Tetrametaphosphat- Dihydrat. Bei Proben mit Aluminium Hexametaphosphat konnte keine vergleichbare Struktur nachgewiesen werden. Parallel dazu findet eine Depolymerisationsreaktion der cyclischen Phosphat-Struktur statt, die stufenweise über mehrere Schritte zum kristallinen Kaliumdihydrogenphosphat abgebaut wird. Das Einbringen des jeweiligen Aluminium-Metaphosphats verursacht einen Abfall des pH-Wertes, wodurch die Polykondensation der Wasserglas-Struktur in Gang gesetzt wird. Diese Polykondensation wird weiter verstärk, indem bei der Depolymerisation des Metaphosphats die Kalium-Ionen in Form von unterschiedlich stark kondensierten Kaliumphosphaten bzw. Kaliumhydrogenphosphaten dem Wasserglas entzogen werden, was zu einer weiteren Herabsetzung des pH-Wertes und somit zu einer Senkung der elektrostatischen Stabilisierung des Wasserglases führt. Die aus der Aluminium-Metaphosphat-Struktur herausgelösten Aluminium-Ionen dringen in die abbindende, silikatische Netzwerkstruktur ein und bilden eine alumosilikatische Bindermatrix. Dieser Effekt ist bei Aluminium-Hexametaphosphat deutlich stärker ausgeprägt als bei Aluminium-Tetrametaphosphat. Weiterhin entstehen röntgenamorphe, hydratisierte Aluminiumphosphat-Strukturen, die in eigenen Bereichen innerhalb der amorphen Bindermatrix vorliegen. Daraus folgt, dass es sich bei den chemisch gebundenen Kalium-Wasserglas-Bindern um kein homogenes System handelt. Dies liegt hauptsächlich an der hohen Oberflächenladung und der Viskosität des Wasserglases, da mit dem Eintrag des feinen Härterpulvers dieses sofort verklumpt. Trotz optimierter Homogenisierungstechniken bleiben Teile des Härters in begrenzten Bereichen bestehen, die dazu führen, dass dieser nicht vollständig umgesetzt wird. Innerhalb der amorphen Bindermatrix liegen teilweise verschieden stark kondensierte Phosphat-Einheiten, silikatische und alumosilikatische Phasen angrenzend nebeneinander vor. Dazu kommen neugebildete kristalline Phasenbestandteile sowie Anteile an nicht vollständig umgesetztem Aluminium-Metaphosphat-Härter.
In Bezug auf die mechanischen Eigenschaften lässt sich zusammenfassen, dass mit zunehmender MVZ des Kalium-Wasserglases die Säurebeständigkeit der Probe sowie der Grad der Porosität zunehmen. Die mechanische Festigkeit und der Elastizitätsmodul hingegen nehmen mit steigender MVZ ab. Mit einer Änderung der Metaphosphat-Struktur vom Aluminium-Tetrametaphosphat zum Aluminium- Hexametaphosphat nimmt die chemische Beständigkeit gegenüber dem Säureangriff ab, auch sinkt der Grad der Porosität. Die Biegefestigkeit und der Elastizitätsmodul liegen bei den Proben mit Aluminium-Hexametaphosphat als chemischen Härter niedriger. Somit lassen sich Aussagen über künftige Wirkungsweisen hinsichtlich der Rezeptoptimierung treffen, um gezielt die chemische Beständigkeit oder die mechanischen Eigenschaften wie Porosität, Festigkeit oder Steifigkeit nach dengewünschten Anforderungen anzupassen.
Die Computermodellierung menschlicher Teilkörperstrukturen gewinnt zunehmend an Bedeutung für den Einsatz in der Medizin. Es handelt sich dabei um ein interdisziplinäres Forschungsfeld, bei dem durch die Zusammenarbeit von Physik, Mathematik, Computervisualistik und Medizin neue Methoden entwickelt werden können, mit denen genauere Aussagen über mechanische Belastungen von inneren kraftübertragenden Strukturen, wie Zwischenwirbelscheiben, Ligamente, Gelenke und Muskeln, bei Bewegungsabläufen getroffen werden können.
Zu Beginn dieser Arbeit wird die Bedeutsamkeit des Forschungsbedarfs in der Computermodellierung, spezialisiert auf den Bereich der Wirbelsäule, dargelegt.
Nachfolgend werden die grundlegenden anatomischen Strukturen erörtert, wozu die Zwischenwirbelscheiben, die Ligamente, die Facettengelenke und Muskulatur zählen.
Anschließend werden Algorithmen entwickelt, mit denen aus CT-Daten unter geringem Zeitaufwand sowie semiautomisch individuelle LWS-Modelle erstellt werden können. Dabei werden Methoden erarbeitet, mit denen die vorgestellten kraftübertragenden Strukturen der Wirbelsäule, wie die Zwischenwirbelscheiben, Ligamente, Facettengelenke und Muskeln, modelliert werden können.
Im weiteren Verlauf werden unterschiedliche bildgebende Verfahren (MRT-Daten, Röntgenfilm, Röntgenfunktionsaufnahmen) zur Validierung der LWS-Modelle vorgestellt und verwendet.
Abschließend werden die erarbeiteten Algorithmen genutzt, um eine größere Anzahl an individuellen LWS-Modellen zu erstellen, die anschließend auf Gemeinsamkeiten und Unterschiede bzgl. der inneren Belastungen sowie auf physiologisch korrekte Bewegungsabläufe hin untersucht werden. Dazu wird insbesondere das relative momentane Drehzentrum zwischen zwei benachbarten Wirbeln berechnet.
Im Zentrum der Untersuchung steht die Entwicklung des künstlerischen Siebdrucks in Deutschland seit dem Zweiten Weltkrieg. Nach der thematischen Einführung und einer ersten kritischen Bestandsaufnahme der Forschung zum Siebdruck wird im Folgenden der Verlauf und die methodische Vorgehensweise der Arbeit verdeutlicht. Im zweiten Kapitel „Etablierung einer künstlerischen Technik“ wird zuerst die Geschichte des Siebdrucks dem Rahmen dieser Arbeit gemäß nachgezeichnet. Nachfolgend wird in einem Unterkapitel dargestellt, wie sich die Serigrafie als künstlerisches Verfahren parallel zum industriellen Siebdruck etablierte. In der Folge wendet sich die Untersuchung der Entstehung und Entwicklung des künstlerischen Siebdrucks in Deutschland zu. Dabei wird Willi Baumeister als Beispiel für die erste Generation von Künstlern in Deutschland herangezogen, die sich mit der Serigrafie beschäftigte. Im nächsten Schritt wird ein Überblick zu den Willi Baumeister nachfolgenden deutschen bzw. deutschsprachigen Serigrafie–Künstlern präsentiert. In dem sich anschließenden Exkurs-Kapitel liegt der Schwerpunkt auf der Zusammenarbeit zwischen Künstler und Drucker. Dabei werden an Beispielen namhafter Drucker wie Luitpold Domberger und Hans-Peter Haas unter anderem Einflüsse der Drucker auf die Entstehung und den Ausdruck der Kunstwerke aufgezeigt.Nach einer Einführung in die Entstehung und Geschichte der Serigrafie in Deutschland und einem ersten Überblick über deutsche Serigrafie-Künstler wird im vierten Kapitel der Einsatz der Serigrafie-Technik bei verschiedenen Künstlern aus unterschiedlichen Zeiträumen eingehend untersucht. Besonderes Augenmerk gilt dabei dem Einfluss der Technik auf die Ausdrucksmöglichkeiten und Inhalte der Werke, die Anwendung innerhalb einer und verschiedener Kunstrichtungen sowie die Experimente, die mit der Siebdrucktechnik gemacht wurden. Dazu werden Werke ausgewählter Künstler analysiert. Im Fokus stehen Künstler der Pop Art, des Neuen und des Kritischen Realismus, der Abstrakten und Konkreten Kunst. Ferner werden Künstler, deren Werk durch einen expressiven, bisweilen primitiven Charakter geprägt ist, in die Betrachtung mit einbezogen. Eine weitere Gruppe bilden Künstler, die die Serigrafie in einen Zusammenhang zur Architektur und zum öffentlichen Raum stellen. Die aus der Untersuchung hervorgehenden Ergebnisse dienen insbesondere dazu, die Charakteristika der Technik in ihrer künstlerischen Verwendung herauszustellen und Aspekte einer künstlerisch motivierten Weiterentwicklung aufzuzeigen. Die Entwicklung des druckgraphischen Werkes und der Technik von Gerd Winner werden in Kapitel 5 eingehend untersucht. Auf diese Weise lässt sich eine systematische, nicht rein formale, sondern ästhetische und inhaltliche Darstellung der Serigrafie in Deutschland erstellen. Ein besonderes Augenmerk liegt dabei auf der Frage, wie sich die Technik und deren Neuerungen auf den Inhalt auswirkten.
Softwaresysteme haben einen zunehmenden Einfluss auf unser tägliches Leben. Viele Systeme verarbeiten sensitive Daten oder steuern wichtige Infrastruktur, was die Bereitstellung sicherer Software unabdingbar macht. Derartige Systeme werden aus Aufwands- und Kostengründen selten erneuert. Oftmals werden Systeme, die zu ihrem Entwurfszeitpunkt als sicheres System geplant und implementiert wurden, deswegen unsicher, weil sich die Umgebung dieser Systeme ändert. Dadurch, dass verschiedenste Systeme über das Internet kommunizieren, sind diese auch neuen Angriffsarten stetig ausgesetzt. Die Sicherheitsanforderungen an ein System bleiben unberührt, aber neue Erkenntnisse wie die Verwundbarkeit eines zum Entwurfszeitpunkt als sicher geltenden Verschlüsselungsalgorithmus erzwingen Änderungen am System. Manche Sicherheitsanforderungen können dabei nicht anhand des Designs sondern nur zur Laufzeit geprüft werden. Darüber hinaus erfordern plötzlich auftretende Sicherheitsverletzungen eine unverzügliche Reaktion, um eine Systemabschaltung vermeiden zu können. Wissen über geeignete Sicherheitsverfahren, Angriffe und Abwehrmechanismen ist grundsätzlich verfügbar, aber es ist selten in die Softwareentwicklung integriert und geht auf Evolutionen ein.
In dieser Arbeit wird untersucht, wie die Sicherheit langlebiger Software unter dem Einfluss von Kontext-Evolutionen bewahrt werden kann. Der vorgestellte Ansatz S²EC²O hat zum Ziel, die Sicherheit von Software, die modellbasiert entwickelt wird, mithilfe von Ko-Evolutionen wiederherzustellen.
Eine Ontologie-basierende Wissensbasis wird eingeführt, die sowohl allgemeines wie auch systemspezifisches, sicherheitsrelevantes Wissen verwaltet. Mittels einer Transformation wird die Verbindung der Wissensbasis zu UML-Systemmodellen hergestellt. Mit semantischen Differenzen, Inferenz von Wissen und der Erkennung von Inkonsistenzen in der Wissensbasis werden Kontext-Evolutionen erkannt.
Ein Katalog mit Regeln zur Verwaltung und Wiederherstellung von Sicherheitsanforderungen nutzt erkannte Kontext-Evolutionen, um mögliche Ko-Evolutionen für das Systemmodell vorzuschlagen, welche die Einhaltung von Sicherheitsanforderungen wiederherstellen.
S²EC²O unterstützt Sicherheitsannotationen, um Modelle und Code zum Zwecke einer Laufzeitüberwachung zu koppeln. Die Adaption laufender Systeme gegen Bedrohungen wird ebenso betrachtet wie Roundtrip-Engineering, um Erkenntnisse aus der Laufzeit in das System-Modell zu integrieren.
S²EC²O wird ergänzt um eine prototypische Implementierung. Diese wird genutzt, um die Anwendbarkeit von S²EC²O im Rahmen einer Fallstudie an dem medizinischen Informationssystem iTrust zu zeigen.
Die vorliegende Arbeit leistet einen Beitrag, um die Entwicklung und Wartung langlebiger Softwaresysteme in Bezug auf ihre Sicherheit zu begleiten. Der vorgestellte Ansatz entlastet Sicherheitsexperten bei ihrer Arbeit, indem er sicherheitsrelevante Änderungen des Systemkontextes erfasst, den Einfluss auf die Sicherheit der Software prüft und Ko-Evolutionen zur Bewahrung der Sicherheitsanforderungen ermöglicht.
Gegeben sei eine Basis b>=10 und eine Ziffer a0 aus der Menge {0,..., b − 1}. Wir untersuchen, ob es unendlich viele Primzahlen gibt, die in ihrer b-adischen Zifferndarstellung die Ziffer a0 nicht besitzen. Ferner schätzen wir die Anzahl dieser Primzahlen, die kleiner sind als X = b^k, nach oben und unten ab.
Damit gelingt uns eine Verallgemeinerung von Maynards Beweis für den Fall b = 10 und wir nutzen hierzu auch die in seiner Arbeit verwendeten Werkzeuge. Unter Anderem benötigen wir die Hardy-Littlewoodsche Kreismethode sowie diverse Siebmethoden, um die Minor Arcs zu kontrollieren.
Schließlich sehen wir, dass wir Maynard's Aussage vor allem dann auf beliebige Basen b>= 10 und ausgeschlossene Ziffern a0 aus {0, ..., b − 1} übertragen können, wenn zwei betragsmäßig größte Eigenwerte von Matrizen, die von b und a0 parametrisiert werden, bestimmte Abschätzungen erfüllen. Dass diese Abschätzungen im Fall b>=102 erfüllt sind, beweisen wir im letzten Kapitel. Für die Fälle b = 10 und b = 11 liegt ebenfalls ein Mathematica-Code vor, der die Abschätzungen bestätigt.
While the existing literature on cooperative R&D projects between firms and public research institutes (PRI) has made valuable contributions by examining various factors and their influence on different outcome measures, there has been no investigation of cooperative R&D project success between firms and PRI from a product competitive advantage perspective. However, insights into the development of a meaningful and superior product (i.e., product competitive advantage) are particularly important in the context of cooperative R&D projects between PRI and (mainly small and medium-sized) firms in the biotechnology industry in response to increasing competition to raise capital funds necessary for survival.
The objectives of this thesis are: (1) to elaborate the theoretical foundations which explain the achievement of a product competitive advantage in cooperative R&D projects between biotechnology firms and PRI, (2) to identify and empirically evaluate the determining factors for achieving a product competitive advantage in cooperative R&D projects between biotechnology firms and PRI, and (3) to show how cooperative R&D projects between biotechnology firms and PRI should be designed and executed to support the achievement of a product competitive advantage.
To accomplish these objectives, a model of determinants of product competitive advantage in cooperative R&D projects between biotechnology firms and PRI is developed by drawing from the theoretical foundations of resource-based theory and information-processing theory. The model is evaluated using data from 517 questionnaires on cooperative R&D projects between at least one biotechnology firm and one PRI. The data are analyzed using variance-based structural equation modeling (i.e., PLS-SEM) in order to conduct hypotheses testing. The evaluation of the empirical data includes an additional mediation analysis and the comparison of effects in subsamples.
The results demonstrate the importance of available resources and skills, as well as the proficient execution of marketing-related and technical activities for the achievement of a product competitive advantage in cooperative R&D projects between biotechnology firms and PRI. By identifying project-related and process-related factors affecting product competitive advantage and empirically testing their relationships, the research findings should be valuable for both researchers and practitioners. After discussing contributions and implications for research and practice, the present thesis concludes with limitations and avenues for future research.
Lakes and reservoirs are important sources of methane, a potent greenhouse gas. Although freshwaters cover only a small fraction of the global surface, their contribution to global methane emission is significant and this is expected to increase, as a positive feedback to climate warming and exacerbated eutrophication. Yet, global estimates of methane emission from freshwaters are often based on point measurements that are spatio-temporally biased. To better constrain the uncertainties in quantifying methane fluxes from inland waters, a closer examination of the processes transporting methane from sediment to atmosphere is necessary. Among these processes, ebullition (bubbling) is an important transport pathway and is a primary source of uncertainty in quantifying methane emissions from freshwaters. This thesis aims to improve our understanding of ebullition in freshwaters by studying the processes of methane bubble formation, storage and release in aquatic sediments. The laboratory experiments demonstrate that aquatic sediments can store up to ~20% (volumetric content) gas and the storage capacity varies with sediment properties. The methane produced is stored as gas bubbles in sediment with minimal ebullition until the storage capacity is reached. Once the sediment void spaces are created by gas bubble formation, they are stable and available for future bubble storage and transport. Controlled water level drawdown experiments showed that the amounts of gas released from the sediment scaled with the total volume of sediment gas storage and correlated linearly to the drop in hydrostatic pressure. It was hypothesized that not only the timing of ebullition is controlled by sediment gas storage, but also the spatial distribution of ebullition. A newly developed freeze corer, capable of characterizing sediment gas content under in situ environments, enabled the possibility to test the hypothesis in a large subtropical lake (Lake Kinneret, Israel). The results showed that gas content was variable both vertically and horizontally in the lake sediment. Sediment methane production rate and sediment characteristics could explain these variabilities. The spatial distribution of ebullition generally was in a good agreement with the horizontal distribution of depth-averaged (surface 1 m) sediment gas content. While discrepancies were found between sediment depth-integrated methane production and the snapshot ebullition rate, they were consistent in a long term (multiyear average). These findings provide a solid basis for the future development of a process-based ebullition model. By coupling a sediment transport model with a sediment diagenetic model, general patterns of ebullition hotspots can be predicted at a system level and the uncertainties in ebullition flux measurements can be better constrained both on long-term (months to years) and short-term (minutes to hours) scales.
Die Dissertation untersucht das Selbstkonzept der indischen Ordensfrauen in deutschen Pflegeeinrichtungen. Für die Analyse wurde die Methode der Grounded Theory aus der empirischen Sozialforschung ausgewählt. Im Untersuchungsfeld wurden 26 indische Ordensfrauen und 5 Arbeitergeber interviewt. Als theoretische Grundlagen diente die Missionsgeschichte mit dem Standard des missionarischen Dienstes, die Ausprägung des deutschen und indischen Pflegeverständnisses, der Kulturbegriff in seiner strukturellen Bedingtheit von Dimensionen und Modellen mit dem Bezug zur Organisation „Ordensgemeinschaft“. Dem direkten Bezug zur Forschungsfrage dienten das hierarchische Selbstkonzeptmodell nach Shalveson und ein weiteres Modell nach Bracken, das zur Interpretation der empirischen Ergebnisse herangezogen wurde. In den fünf Kernkategorien und den dazugehörigen Subkategorien dominierte das Hauptmotiv „Missionarin sein“.Die indischen Ordensfrauen bezeichnen sich selbst als „Europamissionarin“ und wollen die Liebe Christi durch ihre Arbeit in der Pflege und Betreuung zu den Kranken, Hilfebedürftigen und alten Menschen bringen.
Damit die indischen Ordensfrauen in ihrem Selbstkonzept in Deutschland noch optimaler arbeiten können, empfiehlt es sich ein Anforderungsprofil zu entwickeln, vorausschauend bestimmte Rahmenbedingungen zu beachten und neue Lebensmodelle zu konzipieren.
Die vorliegende Dissertation beschäftigt sich mit euroskeptischen Äußerungen in der Parteienkommunikation und der Medienberichterstattung im Vorfeld der Europawahl 2014. Die Arbeit verwendet ein akteurszentriertes Forschungsdesign, welches eine differenzierte Betrachtung der öffentlichen Debatte europäischer Themen erlaubt. Die Analyse deckt auf, welche nationalen Parteien euroskeptische Positionen vertreten und inwiefern diese Einzug in die mediale Berichterstattung finden. Auch die Positionierung der Medien selbst wird durch die Untersuchung meinungsbezogener Artikel berücksichtigt. Die den Studien zu Grunde liegende Konzeptualisierung des Euroskeptizismus-Begriff umfasst neben globalen und konkreten negativen Bewertungen der EU auch die Zuschreibung von Problemverantwortung als weitere Spielart euroskeptischer Äußerungen. Die Arbeit nimmt weiterhin eine international vergleichende Perspektive ein, um den Einfluss nationaler Kontextfaktoren auf die Verbreitung euroskeptischer Positionen aufzuzeigen.
Die Ergebnisse der Analyse decken zunächst auf, dass das Vorhandensein erstarkender euroskeptischer Oppositionsparteien nicht zwangsläufig zu einer Politisierung der europäischen Debatte führt, da sich die europhilen Mainstream-Parteien verschiedener Strategien zur Vermeidung einer solchen Kontroversen bedienen. Die Analysen ergeben weiterhin, dass europhile Regierungsparteien zwar mehrheitlich vor konkreten negativen Bewertungen der EU zurückschrecken, diese aber in Bezug auf die europäische Finanzkrise vorwiegend als Verursacher von Problemlagen skizzieren. Letztlich verdeutlichen die Ergebnisse, dass die mediale Berichterstattung zu Themen mit EU-Bezug eine starke Synchronizität zwischen Nachrichten- und Meinungsteil aufzeigt. Dies gilt sowohl in Bezug auf die geäußerten Bewertungen zur Europäischen Union als auch hinsichtlich der Darstellung von Verantwortlichkeit.
In einem Großteil der Welt wird Grundwasser für die Versorgung von Siedlungen und Agrarflächen genutzt. Organismen, die im Grundwasser leben, erfüllen wichtige Funktionen im Ökosystem und haben positiven Einfluss auf die Grundwasserqualität. Um das Risiko negativer Effekte auf diese wertvollen Ökosysteme zu minimieren muss die entsprechende Sanierungsmethode, im Falle einer Grundwasserbehandlung, mit Vorsicht gewählt werden. In der vorliegenden Thesis wurde das Umweltrisiko von Carbo-Iron untersucht, ein Komposit aus nanoskaligem null-valentem Eisen und Aktivkohle zur in situ-Behandlung von Grundwasser. Des Weiteren wurde eine umfassende Beurteilung des Umweltrisikos und des Nutzens einer Grundwasserbehandlung mit Carbo-Iron durchgeführt.
Zu Beginn der Arbeit an der vorliegenden Thesis existierten noch keine Empfehlungen für Untersuchung der Ökotoxizität von Nanomaterialien. Daher bestanden viele Unsicherheiten hinsichtlich geeigneter Methoden. Im Rahmen dieser Thesis wurde eine Entscheidungshilfe entwickelt, um bei der ökotoxikologischen Untersuchung von Nanomaterialien systematisch geeignete methodische Schritte auszuwählen.
Mögliche Effekte von Carbo-Iron wurden in Tests mit embryonalen, juvenilen und adulten Lebensstadien des Zebrabärblings (Danio rerio) und juvenilen und adulten Amphipoden (Hyalella azteca) untersucht. Die gewählten Testsysteme basierten auf existierenden Testmethoden der OECD und EPA zur ökotoxikologischen Untersuchung von Chemikalien (OECD, 1992a, 2013a, 2013b; US EPA, 2000). Zusätzlich wurde die Aufnahme der Partikel in die genannten Testorganismen untersucht. In Zebrabärblingsembryonen wurden außerdem potentielle Effekte auf die Genexpression mittels Microarrays ermittelt. Die erhaltenen Daten wurden später mit Ergebnissen aus Tests mit dem Wasserfloh Daphnia magna, der Alge Scenedesmus vacuolatus, Larven der Mücke Chironomus riparius und nitrifizierenden Bodenmikroorganismen ergänzt.
In dem Fischembryotoxizitätstest wurde keine Passage der Carbo-Iron-Partikel durch das Chorion in den perivitellinen Raum oder den Embryo beobachtet. Nach der Exposition wurde Carbo-Iron im Darm von H. azteca und D. rerio, aber keinem anderen Gewebe oder Organen detektiert. Carbo-Iron hatte keine signifikanten Effekte auf die Nitrifikationsrate der Bodenmikroorganismen sowie Überleben und Wachstum des Zebrabärblings. Dennoch wurden signifikant negative Effekte auf Wachstum, Fütterungsrate und Reproduktion von H. azteca und auf das Überleben und die Reproduktion von D. magna festgestellt. Des Weiteren war die Entwicklungsrate von C. riparius und das Zellvolumen von S. vacuolatus negativ beeinflusst.
Anhand der durchgeführten Studien wurde basierend auf dem Ergebnis des Reproduktionstests mit D. magna und einem assessment factor von 10 für Carbo-Iron eine predicted no effect concentration von 0,1 mg/L ermittelt. Diese wurde mit modellierten und gemessenen Umweltkonzentrationen von Carbo-Iron verglichen die in einer Studie erhoben wurden, in denen Carbo-Iron zur Behandlung eines mit Chlorkohlenwasserstoffen kontaminierten Aquifers eingesetzt wurde, und Risiko-Quotienten wurden abgeleitet. Zur gesamtheitlichen Betrachtung wurde anschließend ein Schema zur Bewertung des Umweltrisikos vor und nach der Behandlung des Aquifers mit Carbo-Iron entwickelt. Die erhobenen Daten weisen auf ein reduziertes Umweltrisiko nach der Applikation von Carbo-Iron hin. Dementsprechend überwiegen die Vorteile einer Grundwasserbehandlung mit Carbo-Iron die potentiellen negativen Effekte auf die Umwelt.
Engineering criminal agents
(2019)
Die Dissertation mit dem Titel "Engineering Criminal Agents" demonstriert das Zusammenspiel von drei verschiedenen Forschungsbereichen, die bereits im Titel genannt sind: Im Mittelpunkt stehen Engineering (d.h. ingenieurmäßiges Vorgehen bei der Erstellung von Systemen) und Simulation, während beide Bereiche im Kontext des Anwendungsfeldes Kriminologie (und auch den damit verbundenen sozialwissenschaftlichen Aspekten) angewandt werden. Konkreter gesagt, Ziel der Arbeit ist es, zu zeigen, wie spezifische Arten von agentenbasierten Simulationsmodellen unter Berücksichtigung und Anwendung von Methoden der Softwareentwicklung erstellt werden können.
Agentenbasierte Simulation hat sich seit Jahrzehnten als nützliche Methode der Sozialwissenschaften bewährt, und ein Trend zu komplexen Simulationsmodellen ist wahrnehmbar, nicht zuletzt aufgrund der Fortschritte in Datenverarbeitungs- und Simulationstechniken. Eine bedeutende Ursache für Modellkomplexität ist die Einbeziehung von 'Belegmaterialien' als Grundlage von Simulationsmodellen. Solche Belegmaterialien können durch mehrere Stakeholder bereitgestellt werden und dabei deren unterschiedliche Sichtweisen auf einen Modellierungsgegenstand widerspiegeln.
Dabei ergeben sich spezifische Problemstellungen für das Zusammenspiel der beiden hier relevanten Perspektiven auf das Thema Simulation: auf der einen Seite der Benutzer des Simulationsmodells, der die Anforderungen liefert und an den Simulationsergebnissen interessiert ist; auf der anderen Seite der Modellentwickler, der ein verifiziertes und validiertes formales Modell programmieren muss. Um diese beiden Perspektiven systematisch zusammenzubringen, ist substantieller Aufwand in Forschung und Entwicklung erforderlich, wo die vorliegende Dissertation einen Beitrag zu leisten beabsichtigt.
Die in dieser Arbeit erzielten praktischen Ergebnisse - in Form von Software - wurden durch eine bereichsübergreifende Herangehensweise erreicht: Durch die Verwendung von Methoden der Softwareentwicklung konnten Methoden der computergestützten Sozialwissenschaften benutzt werden, um am Ende Einblicke in soziale Systeme - wie die internen Dynamiken von kriminellen Netzwerken - zu ermöglichen.
Die vorliegende Dissertation zeigt die Forschungstätigkeiten, die für die Erzielung der Ergebnisse herangezogen wurden, sowie liefert Details und Spezifikationen zur erstellten Software.
Rahmen für diese Forschungs- und Entwicklungstätigkeiten waren in erster Linie zwei Forschungsprojekte: OCOPOMO und GLODERS.
Sediment transport contributes to the movement of inorganic and organic material in rivers. The construction of a dam interrupts the continuity of this sediment transport through rivers, causing sediments to accumulate within the reservoir. Reservoirs can also act as carbon sinks and methane can be released when organic matter in the sediment is degraded under anoxic conditions. Reservoir sedimentation poses a great threat to the sustainability of reservoirs worldwide, and can emit the potent greenhouse gas methane into the atmosphere. Sediment management measures to rehabilitate silted reservoirs are required to achieve both better water quantity and quality, as well as to mitigate greenhouse gas emissions.
This thesis aims at the improvement of sediment sampling techniques to characterize sediment deposits as a basis for accurate and efficient water jet dredging and to monitor the dredging efficiency by measuring the sediment concentration. To achieve this, we investigated freeze coring as a method to sample (gas-bearing) sediment in situ. The freeze cores from three reservoirs obtained were scanned using a non-destructive X-Ray CT scan technique. This allows the determination of sediment stratification and character-ization of gas bubbles to quantify methane emissions and serve as a basis for the identi-fication of specific (i.e. contaminated) sediment layers to be dredged. The results demon-strate the capability of freeze coring as a method for the characterization of (gas-bearing) sediment and overcomes certain limitations of commonly used gravity cores. Even though the core’s structure showed coring disturbances related to the freezing process, the general core integrity seems to not have been disturbed. For dredging purposes, we analyzed the impact pressure distribution and spray pattern of submerged cavitating wa-ter jets and determined the effects of impinging distances and angles, pump pressures and spray angles. We used an adapted Pressure Measurement Sensing technique to enhance the spatial distribution, which proved to be a comparatively easy-to-use meas-urement method for an improved understanding of the governing factors on the erosional capacity of cavitating water jets. Based on this data, the multiple linear regression model can be used to predict the impact pressure distribution of those water jets to achieve higher dredging accuracy and efficiency. To determine the dredging operational efficien-cy, we developed a semi-continuous automated measurement device to measure the sediment concentration of the slurry. This simple and robust device has lower costs, compared to traditional and surrogate sediment concentration measurement technolo-gies, and can be monitored and controlled remotely under a wide range of concentrations and grain-sizes, unaffected by entrained gas bubbles