Filtern
Erscheinungsjahr
- 2018 (35) (entfernen)
Dokumenttyp
- Dissertation (35) (entfernen)
Schlagworte
- 1H-NMR Relaxometry (1)
- Aesthetics (1)
- Agoraphobie (1)
- Barrieren (1)
- Berufsausbildung (1)
- Betriebliche Ausbildung (1)
- Bildanalyse (1)
- Bildverarbeitung (1)
- Biogasanlage (1)
- Bioökonomie (1)
- Bodenchemie (1)
- Bodenphysik (1)
- Chief Executive Officer (1)
- Cloud Point Extraction (1)
- Collaboration (1)
- Computer Vision (1)
- Deep Learning (1)
- Deep Metric Learning (1)
- Documents (1)
- Duales System (1)
- Economic potential (1)
- England (1)
- Entrepreneurship Education (1)
- Entrepreneurship Experience and Extra-curricular Activity (1)
- Erneuerbare Energien (1)
- Erwachsenenbildung (1)
- Ethnography (1)
- Exposition (1)
- Flächennutzung (1)
- Flächennutzungskonkurrenz (1)
- Führungskräfteentwicklung, Selbstwirksamkeit, Situational Judgment Test (1)
- GIS (1)
- Geistige Behinderung (1)
- Geschlecht (1)
- Größenfraktionierung (1)
- Hard and Soft News (1)
- Hydrogel (1)
- Inhaltsanalyse (1)
- Inklusion (1)
- Innerbetriebliche Kommunikation (1)
- Interaktionseffekt (1)
- Interdisziplinarität (1)
- Interparticulate hydrogel swelling (1)
- Journalismusforschung (1)
- Klassifikation (1)
- Kolloide (1)
- Kolloids (1)
- Kommunikation (intern) (1)
- Kultur (1)
- Lasso (1)
- Last-year students (1)
- Lebensmittelabfall (1)
- Lebensmittelabfälle (1)
- Machine Learning (1)
- Material Culture (1)
- Medizinische Bildverarbeitung (1)
- Menschen mit Lernschwierigkeiten (1)
- Metalle/Matalloide (1)
- Metals/metalloids (1)
- Mikroskopie (1)
- Multiple Object Tracking (1)
- Mustererkennung (1)
- Nanoparticles (1)
- Nanopartikel (1)
- Neurowissenschaften (1)
- Panikstörung (1)
- Paniksyndrom (1)
- Photogrammetrie Kalibrierung EMVA-1288 (1)
- Photogrammetry (1)
- Random Finite Sets (1)
- Renewable energy (1)
- Rheometry (1)
- Russia (1)
- SPEAR (1)
- Schrifttheorie (1)
- Sediment-Water-Interfaces (1)
- Segmentierung (1)
- Semiotik (1)
- Sexuelle Orientierung (1)
- Size-fractionation (1)
- Skalierungsmodelle (1)
- Social Cognitive Career Theory (1)
- Social Entrepreneurship in Vietnam (1)
- Soil physics (1)
- Soil structural stability (1)
- Sonderpädagogik (1)
- Soziale Wahrnehmung (1)
- Sprachkompetenz (1)
- Sprachspielkompetenz (1)
- Sprechweise (1)
- Stimme (1)
- Structural Equation Modeling (1)
- Symboltheorie (1)
- TV debates (1)
- TV-Duelle (1)
- Technical potential (1)
- Tracking (1)
- USA (1)
- Unterrichtsqualität (1)
- Vermeidung (1)
- Versorgungspraxis (1)
- Wahl- und Einstellungsforschung (1)
- Wasser-Sediment-Grenzschichten (1)
- Zeichentheorie (1)
- agriculture (1)
- amphibians (1)
- benthic oxygen fluxes (1)
- bioindicator (1)
- bioturbation (1)
- content analysis (1)
- ecotoxicology (1)
- eddy correlation (1)
- freshwater organisms (1)
- gender (1)
- laser induced fluorescence (1)
- nichtlinearer Zusammenhang (1)
- qualitativ-explorative empirische Studie (1)
- sexual orientation (1)
- social perception (1)
- speech (1)
- traits (1)
- voice (1)
Institut
- Fachbereich 7 (7)
- Institut für Umweltwissenschaften (7)
- Institut für Computervisualistik (3)
- Fachbereich 6 (2)
- Fachbereich 8 (2)
- Institut für Wirtschafts- und Verwaltungsinformatik (2)
- Arbeitsbereich Biopsychologie, Klinische Psychologie und Psychotherapie (1)
- Arbeitsbereich Entwicklungspsychologie und Pädagogische Psychologie (1)
- Fachbereich 5 (1)
- Institut für Germanistik (1)
Retrospektive Analyse der Ausbreitung und dynamische Erkennung von Web-Tracking durch Sandboxing
(2018)
Aktuelle quantitative Analysen von Web-Tracking bieten keinen umfassenden Überblick über dessen Entstehung, Ausbreitung und Entwicklung. Diese Arbeit ermöglicht durch Auswertung archivierter Webseiten eine rückblickende Erfassung der Entstehungsgeschichte des Web-Trackings zwischen den Jahren 2000 und 2015. Zu diesem Zweck wurde ein geeignetes Werkzeug entworfen, implementiert, evaluiert und zur Analyse von 10000 Webseiten eingesetzt. Während im Jahr 2005 durchschnittlich 1,17 Ressourcen von Drittparteien eingebettet wurden, zeigt sich ein Anstieg auf 6,61 in den darauffolgenden 10 Jahren. Netzwerkdiagramme visualisieren den Trend zu einer monopolisierten Netzstruktur, in der bereits ein einzelnes Unternehmen 80 % der Internetnutzung überwachen kann.
Trotz vielfältiger Versuche, dieser Entwicklung durch technische Maßnahmen entgegenzuwirken, erweisen sich nur wenige Selbst- und Systemschutzmaßnahmen als wirkungsvoll. Diese gehen häufig mit einem Verlust der Funktionsfähigkeit einer Webseite oder mit einer Einschränkung der Nutzbarkeit des Browsers einher. Mit der vorgestellten Studie wird belegt, dass rechtliche Vorschriften ebenfalls keinen hinreichenden Schutz bieten. An Webauftritten von Bildungseinrichtungen werden Mängel bei Erfüllung der datenschutzrechtlichen Pflichten festgestellt. Diese zeigen sich durch fehlende, fehlerhafte oder unvollständige Datenschutzerklärungen, deren Bereitstellung zu den Informationspflichten eines Diensteanbieters gehören.
Die alleinige Berücksichtigung klassischer Tracker ist nicht ausreichend, wie mit einer weiteren Studie nachgewiesen wird. Durch die offene Bereitstellung funktionaler Webseitenbestandteile kann ein Tracking-Unternehmen die Abdeckung von 38 % auf 61 % erhöhen. Diese Situation wird durch Messungen von Webseiten aus dem Gesundheitswesen belegt und aus technischer sowie rechtlicher Perspektive bewertet.
Bestehende systemische Werkzeuge zum Erfassen von Web-Tracking verwenden für ihre Messung die Schnittstellen der Browser. In der vorliegenden Arbeit wird mit DisTrack ein Framework zur Web-Tracking-Analyse vorgestellt, welches eine Sandbox-basierte Messmethodik verfolgt. Dies ist eine Vorgehensweise, die in der dynamischen Schadsoftwareanalyse erfolgreich eingesetzt wird und sich auf das Erkennen von Seiteneffekten auf das umliegende System spezialisiert. Durch diese Verhaltensanalyse, die unabhängig von den Schnittstellen des Browsers operiert, wird eine ganzheitliche Untersuchung des Browsers ermöglicht. Auf diese Weise können systemische Schwachstellen im Browser aufgezeigt werden, die für speicherbasierte Web-Tracking-Verfahren nutzbar sind.
The physical-biological interactions that affect the temporal variability of benthic oxygen fluxes were investigated to gain improved understanding of the factors that control these processes. This study, for the first time is able to resolve benthic diffusive boundary layer (DBL) dynamics using the newly developed lifetime-based laser induced fluorescence (τLIF) oxygen imaging system, which enables study of the role of small-scale fluid mechanics generated by benthic organism activity, and hence a more detailed analysis of oxygen transport mechanisms across the sediment-water interface (SWI).
The net benthic oxygen flux across the sediment-water interface is controlled by sediment oxygen uptake and oxygen transport. While the oxygen transport is largely influenced by turbulence driven by large-scale flows, sediment oxygen uptake is mainly affected by oxygen production and biological- and chemical-oxygen degradation of organic matter. Both processes can be enhanced by the presence of fauna and are intimately coupled. The benthic oxygen flux can be influenced by fauna in two ways, i.e. by modulating the availability of oxygen, which enhances the sediment oxygen uptake, and by enhancing the transport of oxygen.
In-situ and a series of laboratory measurements were conducted to estimate the short- and seasonal variability of benthic fluxes including the effects of burrow ventilation activity by tube-dwelling animals using eddy correlation (EC) and τLIF oxygen imaging techniques, respectively.
The in-situ benthic oxygen fluxes showed high variability at hourly and seasonal timescales, where statistical analysis indicated that current velocity and water depth were the most significant predictors of benthic oxygen flux at the waterside, which co-varied with the discharge, temperature, and oxygen concentration. The range of variability of seasonal fluxes corresponded to the friction velocities which were driven by large-scale flows. Application of a simplified analytical model that couples the effect of hydrodynamic forcing of the diffusive boundary layer with a temperature-dependent oxygen consumption rate within the sediment showed that friction velocity and temperature cause similar variability of the steady-state benthic oxygen flux.
The application of τLIF oxygen imaging system in bioturbation experiments enabled the investigation and discovery of insights into oxygen transport mechanisms across the sediment-water interface. Distinct oxygen structures above burrow openings were revealed, these were associated with burrow ventilation. The DBL was degraded in the presence of burrow ventilation. Advective transport generated by the energetic plumes released at burrow outlets was the dominant transport driving mechanism. The contribution of diffusive flux to the total estimated decreased with increasing larval density. For a range of larvae densities, commonly observed in ponds and lakes, sediment oxygen uptake rates increased up to 2.5-fold in the presence of tube-dwelling animals, and the oxygen transport rate exceeded chironomid respiration by up to a factor of 4.
The coupled physical-biological factors affecting net benthic oxygen flux can be represented by temperature, which is a prominent factor that accounts for both oxygen transport and sediment oxygen uptake. Low oxygen transport by flow coincided with high summer temperatures, amplified by a reduction of benthic population density and pupation. It can also, however, be offset by increased ventilation activity. In contrast, low temperature coincided with high oxygen concentrations, an abundance of larvae, and higher flow is offset by less burrow ventilation activity. Investigation of the effect of hydrodynamics on oxygen transport alone suggested that the expected increase of benthic oxygen flux under global warming can be offset by a reduction in flow velocity, which could ultimately lead to increasing carbon burial rates, and in a growing importance of anaerobic mineralization pathways with increasing emission rates of methane.
This study suggests a significant contribution of biological induced benthic oxygen flux to physical transport driven by large-scale flow-fields contributing to bottom-boundary layer turbulence.
Fresh water resources like rivers and reservoirs are exposed to a drastically changing world. In order to safeguard these lentic ecosystems, they need stronger protection in times of global change and population growth. In the last years, the exploitation pressure on drinking water reservoirs has increased steadily worldwide. Besides securing the demands of safe drinking water supply, international laws especially in Europe (EU Water Framework Directive) stipulate to minimize the impact of dams on downstream rivers. In this study we investigate the potential of a smart withdrawal strategy at Grosse Dhuenn Reservoir to improve the temperature and discharge regime downstream without jeopardizing drinking water production. Our aim is to improve the existing withdrawal strategy for operating the reservoir in a sustainable way in terms of water quality and quantity. First, we set-up and calibrated a 1D numerical model for Grosse Dhuenn Reservoir with the open-source community model “General Lake Model” (GLM) together with its water quality module “Aquatic Ecodynamics” library (AED2). The reservoir model reproduced water temperatures and hypolimnetic dissolved oxygen concentrations accurately over a 5 year period. Second, we extended the model source code with a selective withdrawal functionality (adaptive offtake) and added operational rules for a realistic reservoir management. Now the model is able to autonomously determine the best withdrawal height according to the temperature and flow requirements of the downstream river and the raw water quality objectives. Criteria for the determination of the withdrawal regime are selective withdrawal, development of stratification and oxygen content in the deep hypolimnion. This functionality is not available in current reservoir models, where withdrawal heights are generally provided a priori to the model and kept fixed during the simulation. Third, we ran scenario simulations identifying an improved reservoir withdrawal strategy to balance the demands for downstream river and raw water supply. Therefore we aimed at finding an optimal parallel withdrawal ratio between cold hypolimnetic water and warm epilimnetic or metalimnetic water in order to provide a pre-defined temperature in the downstream river. The reservoir model and the proposed withdrawal strategy provide a simple and efficient tool to optimize reservoir management in a multi-objective view for mastering future reservoir management challenges.
This thesis addresses the automated identification and localization of a time-varying number of objects in a stream of sensor data. The problem is challenging due to its combinatorial nature: If the number of objects is unknown, the number of possible object trajectories grows exponentially with the number of observations. Random finite sets are a relatively new theory that has been developed to derive at principled and efficient approximations. It is based around set-valued random variables that contain an unknown number of elements which appear in arbitrary order and are themselves random. While extensively studied in theory, random finite sets have not yet become a leading paradigm in practical computer vision and robotics applications. This thesis explores random finite sets in visual tracking applications. The first method developed in this thesis combines set-valued recursive filtering with global optimization. The problem is approached in a min-cost flow network formulation, which has become a standard inference framework for multiple object tracking due to its efficiency and optimality. A main limitation of this formulation is a restriction to unary and pairwise cost terms. This circumstance makes integration of higher-order motion models challenging. The method developed in this thesis approaches this limitation by application of a Probability Hypothesis Density filter. The Probability Hypothesis Density filter was the first practically implemented state estimator based on random finite sets. It circumvents the combinatorial nature of data association itself by propagation of an object density measure that can be computed efficiently, without maintaining explicit trajectory hypotheses. In this work, the filter recursion is used to augment measurements with an additional hidden kinematic state to be used for construction of more informed flow network cost terms, e.g., based on linear motion models. The method is evaluated on public benchmarks where a considerate improvement is achieved compared to network flow formulations that are based on static features alone, such as distance between detections and appearance similarity. A second part of this thesis focuses on the related task of detecting and tracking a single robot operator in crowded environments. Different from the conventional multiple object tracking scenario, the tracked individual can leave the scene and later reappear after a longer period of absence. Therefore, a re-identification component is required that picks up the track on reentrance. Based on random finite sets, the Bernoulli filter is an optimal Bayes filter that provides a natural representation for this type of problem. In this work, it is shown how the Bernoulli filter can be combined with a Probability Hypothesis Density filter to track operator and non-operators simultaneously. The method is evaluated on a publicly available multiple object tracking dataset as well as on custom sequences that are specific to the targeted application. Experiments show reliable tracking in crowded scenes and robust re-identification after long term occlusion. Finally, a third part of this thesis focuses on appearance modeling as an essential aspect of any method that is applied to visual object tracking scenarios. Therefore, a feature representation that is robust to pose variations and changing lighting conditions is learned offline, before the actual tracking application. This thesis proposes a joint classification and metric learning objective where a deep convolutional neural network is trained to identify the individuals in the training set. At test time, the final classification layer can be stripped from the network and appearance similarity can be queried using cosine distance in representation space. This framework represents an alternative to direct metric learning objectives that have required sophisticated pair or triplet sampling strategies in the past. The method is evaluated on two large scale person re-identification datasets where competitive results are achieved overall. In particular, the proposed method better generalizes to the test set compared to a network trained with the well-established triplet loss.
Schrift ist in ihrer Besonderheit verkannt, versteht man sie allein als Mittel zur Stillstellung gesprochener Sprache. Phänomene wie Schriftbildlichkeit, Operativität und die Physiognomie des Schriftbildes machen Schrift zu einem Medium. In der Entwicklung und in der Verwendung von Schriftgebrauchsformen in unterschiedlichen Kontexten werden sowohl die Eigenschaften, die Schriftzeichen mit verbalen Zeichen gemeinsam haben, als auch die Potentiale, die sie mit pikturalen Zeichen gemeinsam haben, genutzt. Daher werden in der vorliegenden Arbeit die Funktionalisierungsmöglichkeiten von Schriftgebrauchsformen vor dem Hintergrund der Symboltheorie Nelson Goodmans vorgestellt. Eine an die ästhetische Theorie angelehnte Herangehensweise ermöglicht es, gerade die bildlichen Aspekte von Schriftformen – die bislang in schrifttheoretischen Arbeiten meist als irrelevant ausgeblendet werden – zu berücksichtigen. Es wird ein dynamischer Kompetenzbegriff in Anlehnung an J.G. Schneider entwickelt, der alle Fähigkeiten umfasst, die benötigt werden, um Schriftgebrauchsformen erfolgversprechend verwenden zu können. Zu diesen Fähigkeiten gehören nicht nur grammatische und orthographische Kompetenz, sondern ebenso Geschmack und die Fähigkeit zur Analogiebildung. An Beispielen verschiedener Schriftverwendungen wird gezeigt, wie unterschiedlich Schriftgebrauchsformen eingesetzt werden können. So wird Schrift als Kulturtechnik darstellbar und mithin verdeutlicht, dass die Art und Weise, wie Menschen ihre Kultur, ihre Welt, aber auch ihre spezifische Umgebung und eigene Identität modellieren, von Schriftverwendungen geprägt und verändert wird.
Die vorliegende Arbeit geht der Frage nach, wie sich Teilhabe und Inklusion von Menschen mit Lernschwierigkeiten in der allgemeinem Erwachsenenbildung realisieren lassen und was wesentliche Elemente und Rahmenbedingungen einer inklusiven Erwachsenenbildung mit Menschen mit Lernschwierigkeiten sind.
Menschen mit Lernschwierigkeiten haben ein gesetzlich verankertes Recht auf Teilhabe an inklusiver Erwachsenenbildung. Inklusive Erwachsenenbildung bezeichnet gemäß der UN-BRK die Teilnahme und Partizipation auch von Menschen mit Lernschwierigkeiten an allgemeiner Erwachsenenbildung, im Vordergrund steht das gemeinsame Lernen im regulären Programm allgemeiner Erwachsenenbildungseinrichtungen.
In der Aufarbeitung des theoretischen Diskurses und der praktischen Realisierung inklusiver Erwachsenenbildung zeigt sich allerdings, dass das Erwachsenenbildungsangebot für diese Personengruppe und die Möglichkeiten der Teilhabe am allgemeinen Erwachsenenbildungssystem in Deutschland eingeschränkt
sind. Umfassende Praxismodelle inklusiver Erwachsenenbildung sind erst in Ansätzen vorhanden, auch die Rahmenbedingungen gelingender inklusiver Erwachsenenbildung wurden kaum systematisch aufgearbeitet. Somit gilt es, für den Bereich der Erwachsenenbildung Konzepte zu entwickeln, die den Abbau von Barrieren und die Förderung von gleichberechtigter Teilhabe und Inklusion unterstützen. Es ist davon
auszugehen, dass die Kenntnis von wesentlichen Elementen und Rahmenbedingungen allgemeine Erwachsenenbildungseinrichtungen bei der Implementierung und Weiterentwicklung inklusiv gestalteter Erwachsenenbildung unterstützen und somit die Teilhabemöglichkeiten für Menschen mit Lernschwierigkeiten gezielt erweitern kann. Ziel dieser Arbeit ist deshalb die Erhebung und Beschreibung von wesentlichen Elementen und Rahmenbedingungen inklusiver Erwachsenenbildung.
Da es in Deutschland an Erfahrungswerten sowie der systematischen Ausarbeitung notwendiger Realisierungsbedingungen
inklusiver Erwachsenenbildung mangelt, richtet die vorliegende Arbeit ihren Blick in einem zweiten Schritt auf die ‚Inspiring Practice’ anderer Länder. In einer empirischen qualitativ-
explorativen Studie in elf Erwachsenenbildungseinrichtungen und -institutionen Englands werden mit Hilfe von 55 Leitfadeninterviews wesentliche Elemente und Rahmenbedingungen aus Sicht
der beteiligten Akteure erhoben und ausgewertet. Flankiert durch teilnehmende Beobachtungen, Dokumentenanalysen
und Gespräche liefern die Ergebnisse zugleich einen Einblick in die praktische Umsetzung inklusiver Erwachsenenbildung in England. Die Wahl fiel auf England, weil in diesem europäischen Land inklusive Erwachsenenbildung bereits seit den 1990er Jahren als fester Bestandteil
des Bildungssystems verankert ist und umfängliche Erfahrungen gesammelt werden konnten.
Aus der Analyse dieser Erfahrungswerte werden in der Diskussion und Zusammenschau mit theoretischen Überlegungen und praktischen Umsetzungen richtungsweisende Impulse für die Weiterentwicklung
der inklusiven Erwachsenenbildung in Deutschland abgeleitet und in einem Perspektivkonzept einer inklusiven Erwachsenenbildung zusammengefasst.
Aquatische Ökosysteme sind einer Vielzahl an Umweltstressoren sowie Mischungen chemischer Substanzen ausgesetzt, darunter Petroleum und Petrochemikalien, Metalle und Pestizide. Aquatische Gemeinschaften wirbelloser Arten werden als Bioindikatoren genutzt,
um Langzeit- sowie integrale Effekte aufzuzeigen. Die Information über das Vorkommen von Arten kann dabei um weitere Informationen zu Eigenschaften dieser Arten ergänzt werden.
SPEAR-Bioindikatoren fassen diese Informationen für Artengemeinschaften zusammen.
Ziel der vorliegenden Doktorarbeit war es, die Spezifität von SPEAR-Indikatoren gegenüber
einzelnen Chemikaliengruppen zu verbessern – speziell für Ölsand-Bestandteile,
Kohlenwasserstoffe und Metalle.
Für die Entwicklung eines Bioindikators für diskontinuierliche Belastung mit organischen Ölbestandteilen wurde eine Freilandbeprobung in der kanadischen Ölsand-Abbauregion im nördlichen Alberta durchgeführt. Die Arteneigenschaften „physiologische Sensitivitiät
gegenüber organischen Chemikalien“ sowie „Generationszeit“ wurden in einem Indikator,
SPEARoil, integriert, welcher die Sensitivität der Artengemeinschaften gegenüber Ölsand-Belastung in Abhängigkeit von luktuierenden hydrologischen Bedingungen aufzeigt.
Äquivalent zum SPEARorganic-Ansatz wurde eine Rangliste der physiologischen Sensitivität einzelner Arten gegenüber Kohlenwasserstoff-Belastung durch Rohöl oder Petroleum
entwickelt. Hierfür wurden Informationen aus ökotoxikologischen Kurzzeit-Laborversuchen durch Ergebnisse aus Schnell- und Mesokosmen-Tests ergänzt. Die daraus entwickelten
Shydrocarbons-Sensitivitätswerte können in SPEAR-Bioindikatoren genutzt werden.
Um Metallbelastung in Gewässern mittels Bioindikatoren spezifisch nachweisen zu können,
wurden die Arteneigenschaften „physiologische Metallsensitivität“ und „Ernährungsweise“
von Artengemeinschaften in australischen Feldstudien ausgewertet. Sensitivitätswerte für
Metalle erklärten die Effekte auf die Artengemeinschaften im Gewässer jedoch unzureichend.
Die „Ernährungsweise“ hingegen war stark mit der Metallbelastung korreliert. Der Anteil räuberischer Invertebratenarten in einer Gemeinschaft kann daher als Indikator für Metallbelastung in Gewässern dienen.
Weiterhin wurden verschiedene Belastungsanzeiger für Chemikalien-Cocktails in der Umwelt anhand von Pestizid-Datensätzen verglichen. Belastungsanzeiger, die auf der 5%-Fraktion
einer Species-Sensitivity-Distribution beruhen, eigneten sich am besten, gefolgt von Toxic Unit-Ansätzen, die auf der sensitivsten Art einer Gemeinschaft oder Daphnia magna beruhen.
The concept of hard and soft news (HSN) is regarded as one of the most important concepts in journalism research. Despites this popularity, two major research voids can be assigned to the concept. First, it lacks conceptual clarity: the concept gets used interchangeably with related concepts such as sensationalism, which has led to fuzzy demarcations of HSN. Also, it is still not agreed on of which dimensions the concept in composed. Second, little is known about the factors that influence the production of news in terms of their hard or soft nature. The present disserta-tion casts a twofold glance on the HSN concept – it aims to assess the conceptual status of the concept and production of hard and soft news.
At the outset, this dissertation delineates the theoretical base for three manuscripts in total and presented considerations on concepts in social sciences in general and hard and soft news in particular as well as the production of news, particularly of hard and soft news. The first paper proposed a theoretical frame-work model to distinguish HSN and related concepts. Based on a literature review of in total five concepts, this model suggested a hierarchy in which these concepts can be discerned according to their occurrence in media content. The second pa-per focused on the inner coherence of the HSN concept in its most recent academ-ic understanding. The results of a factorial survey with German newspaper jour-nalists showed that, indeed, four out of five dimensions of the HSN concept com-prised what the journalists understood by it. Hence, the most recent academic un-derstanding is to a great extent coherent. The third study shed light on the produc-tion of HSN, focusing on the influence of individual journalists’ and audience’s characteristics on whether news was presented in hard or soft way. The findings of a survey with simulated decision scenarios among German print journalists showed that the HSN dimensions were susceptible to different journalistic influ-ences and that a perceived politically uninterested audience led to a softer cover-age. The dissertation concluded with connecting these findings with the considera-tions on concept evaluation and the production of news. Implications for research on and with the concept of HSN were presented, before concluding with limitations and suggestions for future research.
Exposition in der Versorgungspraxis: Zur Frage der Umsetzbarkeit und Prädiktion früher Veränderungen
(2018)
Ziel der vorliegenden Arbeit war die Beantwortung folgender Fragestellungen: 1. Wie wirksam ist ein evidenzbasiertes Expositionsmanuals bei Panikstörung mit Agoraphobie in der Routineversorgung? 2. Was sind mögliche Barrieren und Hindernisse bei der Umsetzung der Exposition? 3. Was sind Prädiktoren früher Veränderungen im Therapieverlauf?
Methode: Im Rahmen einer prospektiven Längsschnittstudie wurden die Daten der vorliegenden Studie mit denen der Multicenter-Studie von Gloster et al. (2011) mittels Effektstärken und Testung auf Äquivalenz verglichen. Grundlage war das Manual von Lang, Helbig-Lang, Westphal, Gloster und Wittchen (2011). Die Patientinnen und Patienten und Therapeutinnen und Therapeuten wurden zu den Hausaufgaben, der Umsetzung im Alltag und der therapeutischen Beziehung befragt. Zusätzlich wurde die wechselseitige Beeinflussung von therapeutischer Allianz und dem Behandlungserfolg im Therapieverlauf untersucht. In Anlehnung an Westra, Marcus und Dozois (2007) wurde getestet, ob bei es Patientinnen und Patienten mit einer hohen Hausaufgaben-Compliance und einer positiven Behandlungserwartung vor Beginn der Therapie zu einer frühen Reduktion der Panik-Symptomatik kommt und ob frühe Veränderungen durch die Compliance und die Behandlungserwartung beeinflusst werden.
Ergebnisse: 1. Die Behandlung war in der Versorgungspraxis nicht weniger effektiv als in der Multicenter-Studie. 2. Die Abbrecherquote lag bei 20.59%. Die meisten Behandelten gaben an, ihre Hausaufgaben wie besprochen erledigt zu haben und schätzten sie nicht übermäßig schwer ein. Die Umsetzbarkeit der Anforderungen im Alltag wurde von den Patientinnen und Patienten sehr hoch eingeschätzt. Die meisten Therapeutinnen und Therapeuten stimmten der Aussage, die Umsetzung der massierten Exposition sei im therapeutischen Alltag nicht praktikabel eher nicht oder gar nicht zu. Je negativer die Einschätzungen der therapeutischen Beziehung durch die Behandelten war, umso höher waren die Panikwerte am Ende der Therapie. Der HAQ-S korrelierte mit dem Outcome zu r = .21, der HAQ-F zu r = .37. 3. Die beiden Mediator-Hypothesen von Westra et al. (2007) konnten nicht bestätigt werden.
Diskussion: Die Behandlung ist in der Routineversorgung wirksam und praktikabel. Die Hausaufgaben scheinen frühe Veränderungen nicht zu prädizieren. In späteren Arbeiten des Forschungsprojektes wird notwendig sein, zudem die differentielle Wirksamkeit des angepassten Manuals zu untersuchen, und zwar mittels drei aktiver Vergleichsgruppen: massierte Exposition versus prolongierte Exposition versus die Kombination beider.
Die vorliegende Arbeit verfolgt das Erkenntnisinteresse, die Hindernisse auf der Ebene der kulturellen Muster und Wertvorstellungen zu ermitteln, die der Implementierung eines dualen Ausbildungssystems nach bundesdeutschem Vorbild in den USA entgegenwirken. Es wird ein Einblick in die historische und systematische Verwobenheit von gesellschaftlichen Teilstrukturen gegeben und verdeutlicht, warum solche Teilstrukturen nicht ohne Weiteres in andere gesellschaftliche Kontexte übertragen werden können.
Nach einer begrifflichen und theoretischen Grundlegung von deutschen und US-amerikanischen Formen betrieblicher Ausbildung werden die beiden Systeme miteinander verglichen, um signifikante Unterschiede zu identifizieren und dabei erste Anhaltspunkte für vorhandene Inkompatibilitäten auf der strukturellen Ebene zu erhalten. Hierbei steht die Frage im Vordergrund, inwieweit die dominanten und dauerhaften Charakteristika und Komponenten des deutschen Ausbildungsmodells im US-amerikanischen System wiedergefunden werden können. Durch die Einnahme einer kulturalistischen Perspektive werden die kulturspezifischen Werte und Praktiken Deutschlands und der USA erarbeitet, um die Kulturgebundenheit der Struktur, Organisation und Rahmenbedingungen von dualen Berufsausbildungen zu verdeutlichen. Hierfür wird eine Kombination aus einem etischen und einem emischen Vorgehen angewandt und die ermittelten Daten in Form einer kontrastierenden Darstellung aufbereitet, aus der die prägnantesten Kulturunterschiede hervorgehen. Mit Hilfe der erlangten Erkenntnisse werden Ansätze für ein System der dualen Berufsausbildung in den USA entwickelt, das die Implikationen aus dem Kulturvergleich aufgreift und so die für das deutsche System charakteristischen Merkmale unter Berücksichtigung der spezifischen kulturellen Muster adaptiert.
In Agrarlandschaften zählen Laufkäfer zu den weit verbreiteten Fressfeinden verschiedener Schädlinge, wie etwa von Nacktschnecken. Einflüsse von naturnahen Randstrukturen auf Laufkäfer und deren Potenzial zur natürlichen Schädlingsbekämpfung sind bekannt.
Der Einfluss von naturnahen Randstrukturen wurde auf randstrukturbewohnende Laufkäfer und Schnecken untersucht (Kapitel 2). Die Mehrzahl an Laufkäfern sowie Deroceras reticulatum präferierten Krautsäume, wohingegen Arion spp. vor allem in Gehölzen vorkam. Steigende Abundanzen von räuberischen Laufkäferarten und abnehmende Zahlen von Arion spp., gefördert durch einen hohen Anteil an Randstrukturen, lassen auf ein erhöhtes Potenzial zur Schneckenbekämpfung in strukturreichen Landschaften schließen.
Der Einfluss von naturnahen Randstrukturen wurde auf räuberische Laufkäfer und Schnecken in 18 Weizenfeldern getestet (Kapitel 3). Der Artenreichtum an karnivoren Laufkäfern stieg zusammen mit dem Anteil an Randstrukturen in der Landschaft, wobei deren Abundanz von kleinräumigen Effekten unbeeinflusst blieb. Die beiden Schädlinge zeigten unterschiedliche Muster, wobei Dichten von Arion spp. an Gehölzen in strukturarmen Landschaften am höchsten waren. D. reticulatum wurde weder durch lokale noch von großräumigen Effekten beeinflusst, was auf ihre Anpassung an Agrarlandschaften zurückzuführen ist. Die Ergebnisse lassen auf eine gesteigerte Kontrolle von Arion spp. durch Laufkäfer in strukturreichen Gebieten schließen.
Effekte von Randstrukturen und Bewirtschaftung wurden auf die Verteilung von Laufkäfern in 18 Kürbisfeldern getestet (Kapitel 4). Der Artenreichtum stieg mit Nähe zu den Randstrukturen, wobei Laufkäferabundanzen je nach Habitattyp unterschiedlich beeinflusst wurden. Die Bewirtschaftungsart hatte keinen Einfluss auf Laufkäfer und Landschaftsheterogenität beeinflusste nur Laufkäfer in ökologisch bewirtschafteten Feldern.
Prädationsexperimente von Schnecken und deren Eiern durch drei Laufkäferarten wurden im Labor in Einzel- und Zweierkonstellationen durchgeführt (Kapitel 5). Je nach Art wurden synergistische und additive Effekte gemessen. Generell erhöhen naturnahe Randstrukturen das Potenzial zur Schneckenbekämpfung durch Laufkäfer, was vor allem für Schnecken der Gattung Arion zählt. Es ist wichtig, einen bestimmten Anteil an naturnahen Randstrukturen in Agrarlandschaften bereitzustellen, da sie als Rückzugs-, Eiablage- und Überwinterungsorte fungieren und komplementäre Nahrungsressourcen bereitstellen.
Systemische Neonicotinoide gehören zu den weltweit meist genutzten Insektiziden. Neben ihrer Anwendung in der Landwirtschaft werden sie zunehmend zur Bekämpfung von Baumschädlingen in
der Forstwirtschaft eingesetzt. Die im Herbst von Laubbäumen fallenden Blätter können allerdings
immer noch Neonicotinoide enthalten. Gelangen diese kontaminierten Blätter schließlich in
nahegelegene Bäche werden die wasserlöslichen Neonicotinoide wieder mobilisiert und somit
potenziell aquatische Nicht-Zielorganismen über die Wasserphase exponiert. Obwohl der Standardtestorganismus Daphnia magna (Crustacea; Cladocera) relativ unempfindlich gegenüber
Neonicotinoiden ist, sind viele andere aquatische Invertebraten bereits bei einer Exposition im ng/L- bis niedrigem μg/L-Bereich negativ beeinträchtigt. Besonders laubzersetzende Invertebraten (= Shredder) könnten, zusätzlich zu einer Exposition über die Wasserphase, durch den Eintrag von Neonicotinoid-kontaminiertem Laub in ein Fließgewässer negativ beeinträchtigt werden, da Laub für sie eine essentielle Nahrungsquelle darstellt. Jedoch erhielt dieser Expositionspfad im Zusammenhang mit aquatischen Shreddern und Neonicotinoid-kontaminiertem Pflanzenmaterial bisher kaum Aufmerksamkeit seitens der Forschung und findet keine Berücksichtigung in der aquatischen Umweltrisikobewertung. Das Hauptziel dieser Arbeit war daher (1) Neonicotinoidrückstände in Blättern zu quantifizieren sowie für Shredder relevante Expositionswege zu identifizieren, (2)
ökotoxikologische Effekte einer Exposition über die Wasserphase sowie über die Nahrung für zwei
Modell-Shredder Gammarus fossarum (Amphipoda) und Chaetopteryx villosa (Insecta) zu untersuchen, und schließlich (3) biotische und abiotische Faktoren zu betrachten, welche eine Exposition unter Feldbedingungen potenziell beeinträchtigen könnten.
Im Rahmen dieser Arbeit konnten Rückstände der Neonicotinoide Imidacloprid, Thiacloprid und
Acetamiprid in Blätter behandelter Schwarzerlen quantifiziert werden. Ein entwickeltes „Worst-Case
Modell“ prognostizierte niedrige Imidaclopridwasserkonzentrationen für einen Bach in welchen Imidacloprid-kontaminierte Blätter eingetragen werden. Jedoch konnte mit Hilfe des Modells die Aufnahme über die Nahrung als ein für aquatische Shredder relevanter Expositionspfad identifiziert werden. Der Konsum von Neonicotinoid-kontaminierten Blättern führte, bei gleichzeitiger Exposition über die Wasserphase (= kombinierte Exposition), in beiden Testorganismen zu stärkeren Effekten als die alleinige Exposition über die Wasserphase. Des Weiteren gelang es in einem weiteren Laborexperiment die beiden Expositionswege mittels einer Durchflussanlage zu separieren. Hierbei führte die separate Exposition von G. fossarum sowohl über die Nahrung (= Konsum von Thiaclopridkontaminierten Blättern) als auch über die Wasserphase zu vergleichbaren Effektgrößen. Zudem ließen sich die unter einer kombinierten Exposition beobachteten Effektgrößen weitestgehend mit dem Referenzmodell der „Unabhängigen Wirkung“ vorhersagen, was eine Wirkung auf unterschiedliche molekulare Zielorte vermuten lässt. Die durch Imidacloprid ausgelöste toxischen Effekte auf G. fossarum konnten schließlich durch eine Behandlung der Blätter mit UV-Strahlung (repräsentativ für Sonnenlicht) sowie durch Leaching in Wasser reduziert werden. Jedoch waren beide Shredder-Spezies nicht dazu in der Lage aktiv eine Aufnahme von Neonicotinoiden über die Nahrung zu vermeiden. Daher geht aus dieser Arbeit die Empfehlung hervor, bereits während der Registrierung von systemischen Pestiziden, auf nahrungsbedingte Effekte zu testen und dadurch aquatische Shredder als auch assoziierte Ökosystemfunktionen (z.B. Laubabbau) zu schützen.
Während es eine Vielzahl von Arbeiten zu der technologischen Entwicklung im Bereich der erneuerbaren Energien gibt, fehlt es jedoch bislang an einer mikroökonomischen Analyse
der Verhaltensmuster der Akteure im Umfeld von Anlagen nach dem EEG. Als Akteure kommen hier in erster Linie der Anlagenbetreiber selbst und der Staat in Betracht.
Im Hinblick auf Anlagenbetrieb und Vergütung der erzeugten Energie können beide mit unterschiedlichsten Interessen und Nutzenkalkülen aufeinander treffen. Diese Arbeit untersucht
mikroökonomische Aspekte des EEG-Förderungssystems. Im Mittelpunkt der Betrachtung stehen die Förderungsmechanismen für Biogasanlagen, die im Hinblick auf mögliche Prinzipal-Agenten-Konflikte einer Untersuchung unterzogen werden.
Ästuare sind charakterisiert durch einen longitudinalen Salinitätsgradienten. Der Salzgehalt ist einer der wichtigsten Umweltparameter, der die Verteilung der Arten bestimmt. Heute werden Grenzen von Salinitätszonen vor allem mit Hilfe des Venedig-Systems und durch eine von Bulger et al. (1993) entwickelte Methode festgelegt. Beide Systeme wurden in homoio¬halinen Ge¬wäs¬sern entwickelt und die Einteilung in Zonen erfolgt anhand der Verteilung von Arten in Abhängigkeit vom mittleren Salzgehalt. Sie werden jedoch auch regelmäßig in poikilohalinen Systemen angewendet. Ich habe, basierend auf Langzeitdaten von Salinität und Makrozoobenthos (MZB), untersucht, ob die beiden Methoden im poikilohalinen Elbeästuar (Deutschland) anwendbar sind. Meine Ergebnisse zeigten, dass die Variabilität der Salinität und nicht die mittlere Salinität für die Verteilung der Arten in den mittleren Bereichen des Ästuars bestimmend ist. Folglich ist die Anwendung von keinem der beiden getesteten Verfahren in poikilohalinen Gewässern sinnvoll. Ich empfehle die Anwendung von Clusteranalyseverfahren zur Festlegung signifikant unterschiedlicher Salinitätszonen in poikilohalinen Systemen.
In vielen Ästuaren bildet sich eine Zone maximaler Trübung (ZmT), in der suspendiertes Material durch Zirkulationsprozesse akkumuliert. Im Elbeästuar ist diese Zone deckungsgleich mit der Zone höchster Salinitätsvariabilität und weist zudem den höchsten organischen Anteil im Sediment sowie hohe Sedimentationsraten und organische Belastungen auf. Die Stress-Gradienten-Hypothese besagt, dass unter starkem äußerem Druck wie diesem, Populationen oft unter der Kapazitätsgrenze bleiben und Konkurrenz nur von geringer Bedeutung ist. Ich habe mittels stabiler Isotopenanalyse getestet, ob Nahrungskonkurrenz in der ZmT des Elbeästuars für die häufigsten Makroinvertebraten relevant ist. Innerhalb eines Ernährungstyps zeigten die artspezifischen Isotopennischen keine oder nur eine geringe Überlappung. Folglich ist Konkurrenz um Nahrung in der ZmT nur von untergeordneter Bedeutung. Ursachen für getrennte Isotopennischen waren vor allem bedingt durch Unterschiede in Habitat (Korngröße) und Migrationsverhalten der Makroinvertebraten.
Ästuare gehören heute auf Grund anthropogener Einflüsse zu den am stärksten gefährdeten Gewässern. Das Ausmaß der Veränderungen in deren Artengemeinschaften während des letzten Jahrhunderts ist jedoch weitgehend unbekannt. Ich habe anhand historischer und aktueller Daten (1889, 1985, 1986, 2006) taxonomische und funktionale Veränderungen des MZB im Elbeästuar untersucht. Taxonomische Unterschiede zwischen den Untersuchungsjahren waren vor allem auf das Verschwinden von Arten und Auftreten anderer Arten (turnover) zurückzuführen. Funktionale Unterschiede entstanden hauptsächlich dadurch, dass Arten mit bestimmten Traits (Morphologie, Reproduktion, Entwicklung, Ernährung, Habitat) verschwanden, ohne dass diese Arten von anderen Arten mit gleichen Traits ersetzt wurden (nestedness). Artenzahl und funktioneller Reichtum waren 1985 und 1986 am niedrigsten. In den Jahren 1889 und 2006 waren sie am höchsten und nahezu gleich. Dies impliziert, dass die vom MZB im Ästuar von 1889 bereitgestellten Ökosystemfunktionen im Jahr 2006, jedoch unter veränderter taxonomischer Zusammensetzung, wieder vorhanden waren. Meine Ergebnisse verdeutlichen die hohe Relevanz von funktionaler Redundanz und funktionalem Reichtum für die Resilienz und Stabilität von Ökosystemen.
Die Vermeidung von Lebensmittelabfällen als nicht-technische Strategie zur Umsetzung der Bioökonomie
(2018)
Das Konzept der Bioökonomie beruht auf der Vision einer Wirtschaft, die durch die bevorzugte Verwendung biogener Rohstoffe unabhängiger wird von der Nutzung fossiler Quellen und gleichzeitig einen Beitrag zu Klima- und Ressourcenschutz, Ernährungssicherung und Stärkung der heimischen Wirtschaft leisten kann. Da die land- und forstwirtschaftliche Bio-masseproduktion aufgrund knapper Flächen jedoch begrenzt ist und sich bereits heute die negativen Folgen einer verstärkten Nachfrage zeigen, wird bezweifelt, dass sich die Vision in nachhaltiger Weise realisieren lässt. Offizielle Bioökonomie-Strategien setzen auf einen Technik-basierten Umsetzungspfad, in der Hoffnung, mit Hilfe technischer Innovationen Biomasseproduktion und Umweltverbrauch zu entkoppeln. Kritiker aus Wissenschaft und Zivilgesellschaft stehen diesem Weg skeptisch gegenüber. Sie befürchten, dass Effizienzsteigerungen und die Entwicklung neuer, umweltverträglicher Konversionsprozesse nicht ausreichen werden, um potentiell negative Folgen einer verstärkten Biomassenutzung abzuwenden. Angesichts der natürlichen Grenzen der Biosphäre sehen sie vor allem nicht-technische Ansätze zur Veränderung von Produktions- und Konsummustern als unverzichtbare Voraus-setzungen an. Mit der Formulierung eines sozial-ökologischen Umsetzungspfads wird eine Modifizierung des Bioökonomie-Konzepts gefordert, von einem bloßen Wandel der Ressourcenbasis hin zu einer umfassenden gesellschaftlichen Transformation, mit dem Ziel, Ressourcenverbrauch und Rohstoffproduktion neu zu justieren.
Die Arbeit stellt anhand des Beispiels der Lebensmittelabfälle die Bedeutung nicht-technischer Ansätze für die Realisierung der Bioökonomie heraus. Die Basis bilden fünf Publikationen, von denen sich drei mit dem Aufkommen von Lebensmittelabfällen, den Ursachen ihrer Entstehung und möglichen Vermeidungsstrategien befassen. Die anderen beiden Veröffentlichungen behandeln Flächenkonkurrenzen in der Landwirtschaft sowie Implementierungspfade der Bioökonomie. Die Arbeit kommt zu dem Schluss, dass der Beitrag von Lebensmittelabfällen zur Bioökonomie auf zwei Weisen denkbar ist: Entweder können diese als Ausgangsstoff für die Biogasproduktion oder die Bioraffinerie genutzt werden, was der aktuell vorherrschenden Vorstellung entspricht. Oder es können durch eine Reduktion des Abfallaufkommens Ressourcen, die bisher in die Bereitstellung nicht konsumierter Lebensmittel flossen, für andere Biomassenutzungen freigesetzt werden.
Die Analyse des Abfallaufkommens und der damit verbundenen Umweltwirkungen, aber auch vorhandene Studien über die ökologischen Wirkungen von Abfallvermeidungs- und verwertungsoptionen zeigen, dass die Vermeidung unter dem Gesichtspunkt der Ressourceneffizienz die sinnvollere Option darstellt. Die Arbeit hebt das Potenzial hervor, das sich aus der Berücksichtigung einer Reduktion von Lebensmittelabfällen für die Bioökonomie ergeben könnte. So ist denkbar, dass durch einen effizienteren Umgang mit den bereits produzierten Nahrungsmitteln Ressourcen freigesetzt werden können, die den Spielraum für die Realisierung der Bioökonomie verbessern würden oder aber Perspektiven entstehen für alternative Formen des Landbaus, die eine umweltverträglichere Biomasseproduktion ermöglichen könnten. Da nicht-technische Ansätze in der aktuellen Bioökonomie-Debatte kaum Berücksichtigung finden, besteht Bedarf, diese in das politische Konzept der Bioökonomie einzubeziehen und den wissenschaftlichen Diskurs für diese Aspekte zu öffnen.
Tradierte Managementsysteme und primär auf die Erfüllung finanzieller Ziele ausgerichtete Führungsansätze scheinen heute der wirtschaftlichen Dynamik nicht mehr gewachsen. Die Zahl ausgebrannter Führungskräfte und Mitarbeiter nimmt zu. Ebenso der volkswirtschaftliche Schaden durch schlechte Führungsleistung. Zwar beeinflussen externe Faktoren wie globaler Wettbewerb, aufkeimende Handelskriege, die Digitalisierung in Wirtschaft und Gesellschaft die Rahmensetzungen für Unternehmen. Die Entscheidung über Erfolg oder Misserfolg verlagert sich aber signifikant nach Innen.
Diese Arbeit zeigt auf, dass Wissenschaftler und erfolgreiche CEOs einen Paradigmenwechsel fordern, da sie Kommunikationsbereitschaft und Kommunikationsfähigkeit als die relevanten Erfolgsfaktoren identifizieren. Unterstützend bestätigen interdisziplinäre Erkenntnisse und Forschungsergebnisse anderer Disziplinen – speziell der Neurowissenschaften, die Wirksamkeit einer Kommunikationskultur, die alle Sinne des Menschen aktiviert.
Das Phänomen der Kommunikation ganzheitlich zu verstehen und mittels dialogbasiertem Management umzusetzen, wird zum neuen Erfolgsschlüssel und wirkt sich auf alle unternehmerischen Prozesse, Führungs- und Interaktionssituationen aus. Unabhängig von Betriebsgröße und Branche. Die durch Dialog in Gang gesetzte positive reziproke Eskalation führt dazu, dass Kollegen/Mitarbeiter ihr Können und ihr Engagement in viel höherem Maße freiwillig zur Verfügung stellen, als es z.B. finanzielle Anreizsysteme je bewirken können.
Die Empirie dieser Forschungsarbeit spiegelt das Wissen der 22 hoch erfolgreichen österreichischen CEOs, Führungskräfte und Firmeneigentümer über Interne Kommunikation und deren Annäherung an diese Führungsaufgabe wider. In der Folge sind Leit-Ideen das vernetzte Ergebnis der theoretischen und empirischen Analysen. Diese daraus destillierten Leit-Ideen stehen für einen radikal dialogbasierten Kommunikationsansatz, der sämtliche Management-, Geschäfts- und Unterstützungsprozesse determiniert.
Verstehen CEOs und Führungskräften eine dialogbasierte Interne Kommunikation als eindeutig ihnen zufallende Führungsaufgabe, kann heute und in Zukunft die Querschnittsmaterie Interne Kommunikation zum größten Ressourcen-Pool für unternehmerischen Erfolg werden, so die diesbezüglichen Schlussfolgerungen.
Die zentrale Fragestellung dieser Arbeit ist die nach den Effekten unterrichtlicher Faktoren und deren Zusammenspiel auf den Schülerleistungszuwach im Fach Englisch in Vietnam unter Berücksichtigung von Kontextfaktoren. Daneben geht es um methodische Fragestellungen, insbesondere um die Bedeutung der Auswahl eines Skalierungsmodells.
Die verwendeten Daten wurden im Rahmen eines Forschungsprojekts in Vietnam im Schuljahr 2006/2007 erhoben. Neben einem Messwiederholungsdesign mit zwei Messzeitpunkten am Anfang und am Ende des Schuljahres wurde eine Videostudie in der Mitte des Schuljahres durchgeführt. Bei jedem Messzeitpunkt wurden die adaptierten Englisch Tests (C-Test und Hörverstehenstest) und die Fragebögen aus der Studie Deutsch Englisch Schülerleistungen International (DESI) in Deutschland eingesetzt. Zur Gewinnung verhaltensnaher Indikatoren des Unterrichts wurden die Videoaufzeichnungen transkribiert und von trainierten Experten niedrig-inferent kodiert und hoch-inferent geratet. Zur Skalierung der Schülerleistungen wurden mehrere Skalierungsmodelle ausgewählt. Zur Skalierung der Schülerleistung anhand des C-Tests mit einer Testlet-Struktur wurden zwei unidimensionale und zwei Testletmodelle eingesetzt. Um Schülerleistungen anhand des Hörverstehenstests kamen das Raschmodell, das 2PL und das 3PL Modell zum Einsatz. Die Schülerleistungsschätzungen von beiden Messzeitpunkten wurden mithilfe eines gemeinsamen Skalierungsmodells skaliert und miteinander verlinkt. Anschließend wurden die Plausible Values gezogen. Zur Modellierung des Zusammenhangs zwischen den Unterrichtsfaktoren und dem Schülerleistungszuwachs wurden sowohl lineare als auch komplexere Unterrichtseffekte (nicht-linear, additiv, multiplikativ) berücksichtigt. Die anfängliche Leistung und der sozioökonomische Status der Schülerinnen und Schüler werden als Kontextfaktoren betrachtet. Die Analyseverfahren der Wahl waren OLS-Regressionen sowie regularisierten Regressionsmodelle mit lasso (least absolute shrinkage and selection operators).
Die Ergebnisse zeigen hinsichtlich wichtiger fächerübergreifender Merkmale einerseits ein positives Bild der Qualität des Englischunterrichts, aus Sicht der englischen Fachdidaktik jedoch eine mangelde Unterrichtsqualität. Die bedeutsamsten Unterrichtsfaktoren des Schülerleistungszuwachses im C-Test sind Aspekte der Motivierungsqualität sowie der Unterrichtssprache. Für den Zuwachs beim Hörverstehenstest spielten Aspekte der Unterrichtssprache sowie die relative Häufigkeit von Wiederholungsfragen eine wichtige Rolle. Die Hypothesen zu den Unterrichtseffekten wurden durchweg bestätigt. Trotz der Ähnlichkeiten zwischen Schülerleistungsschätzungen anhand verschiedener Skalierungsmodelle hingen die Ergebnisse hinsichtlich der Effekte von Unterrichtsmerkmalen auf den Leistungszuwachs erheblich vom Skalierungsmodell ab.
Changing Lives through Relocation - Ethnography of a Socialized Housing Project in the Philippines
(2018)
Changing lives through relocation - This is the vision of a socialized housing project in the Philippines which is subject of this dissertation. It is a polyphonic ethnography that investigates the transition process from an informal, marginalized, self-organized lifestyle in squatter areas and dumpsite settlements to an institutionalized and policy-based life in the socialized housing project. The transition process is analyzed from a material cultural perspective taking into account selected aesthetic theories. With this approach, the dissertation aims to contribute to the study of the aesthetic dimension of everyday life from an ethnographic perspective. Aesthetics are applied on three levels: (1) On the theoretical level, the concepts of social aesthetics and atmospheres enrich the analysis of the interrelation between the residents and their new house in the socialized housing project. (2) On the methodological level, the relevance of aesthetic experiences for the ethnographic knowledge process are discussed. And (3) on the descriptive level, selected and thematically relevant sensory and aesthetic experiences of the researcher inform the ethnographic account in the form of memoirs. By incorporating aesthetic theories, the dissertation gives a more holistic account of the dynamics active in the transition process. It shows that the change of lifestyle is experienced sensorily through the daily physical engagement with the new material environment, i.e. its specific materiality and infrastructure, its affordances and constraints giving rise to new experiences and needs. In this process, the residents become aware of the differences between the past and present way of life and thus experience the new challenges through their physical being in the new material environment. On the one hand, this evokes a nostalgic attitude towards their previous life, but on the other hand, it also gives form to ideas of a possible future.
Technologische Fortschritte auf dem Gebiet der integrierten Halbleitertechnik, die unter anderem auch zur gestiegenen Leistungsfähigkeit der Kamerasensoren beitragen, konzentrierten sich bisher primär auf die Schnelligkeit und das Auflösungsvermögen der Sensoren. Die sich ständig verändernde Entwicklung hat jedoch direkte Folgen auf das physikalische Verhalten einer Kamera und damit auch Konsequenzen für die erreichbare geometrische Genauigkeit einer photogrammetrischen 3D-Rekonstruktion. Letztere stand bisher nicht im Fokus der Forschung und ist eine Aufgabe, der sich diese Arbeit im Sinne der Photogrammetrie und Messtechnik stellt. Aktuelle Untersuchungen und Erfahrungen aus industriellen Projekten zeigen in diesem Zusammenhang, dass das geometrisch-physikalische Verhalten digitaler Kameras - für höchste photogrammetrische Ansprüche - noch nicht ausreichend modelliert ist. Direkte Aussagen zur erreichbaren Genauigkeit bei gegebener Hardware erweisen sich daher bislang als unzureichend. Ferner kommt es aufgrund der unpräzisen Modellierung zu Einbußen in der Zuverlässigkeit der erreichten Ergebnisse. Für den Entwickler präziser kamerabasierter Messverfahren folgt daraus, dass zu einer optimalen Schätzung der geometrischen Genauigkeit und damit auch vollständigen Ausschöpfung der Messkamera geeignete mathematische Modelle erforderlich sind, die das geometrisch physikalische Verhalten bestmöglich beschreiben. Diese Arbeit beschreibt, wie die erreichbare Genauigkeit einer Bündelblockausgleichung, schon a priori mithilfe des EMVA1288 Standards approximiert werden kann. Eine in diesem Zusammenhang wichtige Teilaufgabe ist die Schaffung einer optimalen Messanordnung. Hierzu gehören Untersuchungen der üblicherweise verwendeten Kalibrierkörper und die Beseitigung von systematischen Fehlern vor und nach der Bündelblockausgleichung. Zum Nachweis dieser Systematiken wird eine auf statistischem Lernen basierende Methode beschrieben und untersucht. Erst wenn alle genauigkeitsmindernden Einflüsse berücksichtigt sind, wird der Anteil des Sensors in den Messdaten sichtbar und damit auch mathematisch parametrisierbar. Die Beschreibung des Sensoreinflusses auf die erreichbare Genauigkeit der Bündelblockausgleichung erfolgt in drei Schritten. Der erste Schritt beschreibt den Zusammenhang zwischen ausgewählten EMVA1288-Kennzahlen und der Unsicherheit eines Grauwertes. Der zweite Schritt ist eine Modellierung dieser Grauwertunsicherheit als Zentrumsunsicherheit einer Zielmarke. Zur Beschreibung dieser Unsicherheit innerhalb der Bündelblockausgleichung wird ein stochastisches Modell, basierend auf dem EMVA1288-Standard, vorgeschlagen. Ausgehend vom Rauschen des Zielmarkenmittelpunktes wird im dritten Schritt die Unsicherheit im Objektraum beispielhaft mit Hilfe von physikalisch orientierten Simulationen approximiert. Die Wirkung der vorgeschlagenen Methoden wird anhand von Realkalibrierungen nachgewiesen. Abschließend erfolgt die Diskussion der vorgeschlagenen Methoden und erreichten Ergebnisse sowie ein Ausblick auf kommende Untersuchungen.
Die zytologische Untersuchung des Knochenmarks dient der Abklärung von
Abweichungen des Differentialblutbildausstriches, zur Ursachenbestimmung bei Blutarmut (Anämie), dem Ausschluss eines Knochenmarkbefalls bei Lymphknotenvergrößerungen (Lymphomen) und wird zudem bei Verdacht auf Leukämie durchgeführt.
Selbst für erfahrene Hämatologen ist die manuelle Klassifikation von Knochenmarkzellen zeitaufwändig, fehleranfällig und subjektiv. Aus diesem Grund wurden im Rahmen dieser Arbeit neue Methoden der Bildverarbeitung und Mustererkennung für eine automatische Klassifikation von hämatopoetischen Zellen samt Vorverarbeitung für ein computer-assistiertes Mikroskopiesystem entwickelt, welche anhand einer einzigartig großen Referenzdatenbank evaluiert und ausgewertet wurden. Die vorgeschlagenen Bildanalyseverfahren für Knochenmarkpräparate, welche insbesondere die Detektion der Ausstriche, die Bestimmung von relevanten Regionen, die Lokalisierung und Segmentierung von einzelnen Zellen sowie die Merkmalsextraktion und Klassifikation automatisieren, liefern die Basis für das weltweit erste System zur automatischen, morphologischen Analyse von Knochenmarkpräparaten für die Leukämiediagnose und stellen daher einen wichtigen Beitrag für eine bessere und effizientere Patientenversorgung in der Zukunft dar.