Filtern
Erscheinungsjahr
- 2019 (45) (entfernen)
Dokumenttyp
- Masterarbeit (20)
- Dissertation (15)
- Bachelorarbeit (8)
- Habilitation (1)
- Ausgabe (Heft) zu einer Zeitschrift (1)
Sprache
- Englisch (45) (entfernen)
Schlagworte
- Internet of Things (2)
- 2019 European Parliament Election (1)
- Agrarlandschaft (1)
- Association Rules (1)
- BPM (1)
- Belief change, concept contraction, EL (1)
- Biodiversität (1)
- Business Process Management Recommender Systems Survey (1)
- Business Process Modeling (1)
- Calcium (1)
- Challenges (1)
- Cold Chain (1)
- Densimetric Measurement (1)
- Dichtemessung (1)
- Dredging (1)
- ECSA (1)
- Ebullition (1)
- Effectiveness (1)
- Elektronenmikroskopie (1)
- Empfehlungssystem (1)
- Entity Component System Architecture (1)
- Food Transportation System (1)
- Foodstuff (1)
- Freeze Coring (1)
- GRAF1 (1)
- Gas storage capacity (1)
- Gefrierkernverfahren (1)
- Handsfree editing (1)
- Human resources management (1)
- International organization (1)
- Kryo (1)
- Lake Kinneret (1)
- Maschinelles Lernen (1)
- Minimalschnitt (1)
- Nanoröhren (1)
- Nassbaggerung (1)
- Nützlinge (1)
- OPD-SHRM (1)
- Oligomer (1)
- Parteienkommunikation (1)
- Pestizid (1)
- Political Communication (1)
- Probabilistic finite automata (1)
- Proteinstrukturanalyse (1)
- Recommender System (1)
- Recommender Systems, Business Process Modeling, Literature Review (1)
- Reservoir Sedimentation (1)
- Schädlingskontrolle (1)
- Sediment (1)
- Solutions (1)
- Stauseeverlandung (1)
- Sustainability (1)
- Wahlen zum europäischen Parlament (EU-Wahlen) (1)
- Weinbau (1)
- agriculture (1)
- beneficial insects (1)
- biocide (1)
- biodiversity (1)
- chironomids (1)
- decision support tool (1)
- ecotoxicity (1)
- environmental risk assessment (1)
- evolution (1)
- fungus resistant grapevine (1)
- groundwater remediation (1)
- leap motion (1)
- long-living systems (1)
- machine learning (1)
- minimal pruning (1)
- model-based (1)
- mosquito control (1)
- non-target effects (1)
- pelzresistente Rebsorten (1)
- periphyton (1)
- pest control (1)
- pesticide (1)
- punishment goals (1)
- regulation (1)
- risk assessment (1)
- security (1)
- software engineering (1)
- student misbehavior (1)
- tracking (1)
- uptake (1)
- virtual reality (1)
- viticulture (1)
Institut
- Institut für Management (8)
- Institut für Wirtschafts- und Verwaltungsinformatik (8)
- Institut für Computervisualistik (7)
- Institute for Web Science and Technologies (7)
- Fachbereich 7 (4)
- Fachbereich 8 (2)
- Institut für Integrierte Naturwissenschaften, Abt. Biologie (2)
- Institut für Softwaretechnik (2)
- Institut für Umweltwissenschaften (2)
- Fachbereich 4 (1)
This work describes a novel software tool for visualizing anatomical segmentations of medical images. It was developed as part of a bachelor's thesis project, with a view to supporting research into automatic anatomical brain image segmentation. The tool builds on a widely-used visualization approach for 3D image volumes, where sections in orthogonal directions are rendered on screen as 2D images. It implements novel display modes that solve common problems with conventional viewer programs. In particular, it features a double-contour display mode to aid the user's spatial orientation in the image, as well as modes for comparing two competing segmentation labels pertaining to one and the same anatomical region. The tool was developed as an extension to an existing open-source software suite for medical image processing. The visualization modes are, however, suitable for implementation in the context of other viewer programs that follow a similar rendering approach.
The modified code can be found here: soundray.org/mm-segmentation-visualization.tar.gz.
Kleine Bäche umfassen den größten Teil der Fließstrecke und des Einzugsgebiets in Gewässernetzen. Sie sind eng mit ihrem Einzugsgebiet verbunden und reagieren empfindlich auf Änderungen des Wasserhaushalts und der Landnutzung. Trotz ihrer geringen wirtschaftlichen Bedeutung sind diese Bäche entscheidend für den ökologischen und chemischen Zustand größerer Gewässer. Obwohl zahlreiche Studien die Auswirkungen anthropogener Stressoren oder Umweltveränderungen untersuchen, mangelt es am Verständnis der natürlichen Bedingungen und Prozesse, welche jedoch die Reaktion eines Baches auf anthropogene oder klimatische Veränderungen entscheidend beeinflussen. Eine der größten Bedrohungen für aquatische Ökosysteme ist der übermäßige anthropogene Eintrag von Nährstoffen. Nährstoffe steuern Nahrungsnetze in erster Linie über die Primärproduzenten und ihre Konsumenten, in kleinen Bächen Periphyton und Grazer. Die Periphyton-Grazer-Interaktion ist der Hauptpfad der autochthonen Produktion in das Nahrungsnetz, und die Stärke dieser Interaktion bestimmt weitgehend die ökologischen Auswirkungen von Nährstoff-einträgen. Daher zielt diese Arbeit darauf ab, wichtige biologische Prozesse der Periphyton-Grazer-Interaktionen zu beleuchten. Ich untersuchte verschiedene Aspekte der Periphyton-Grazer-Interaktionen anhand von Laborexperimenten mit Fokus auf methodischen Fragen und einer Feldstudie, in der ich die benthischen Gemeinschaften drei morphologisch ähnlicher, Phosphor limitierter, natürlicher kleiner Bächen verglich. Mit dem Laborexperiment zur Periphyton-Wachstumsrate konnte ich zeigen, dass das RNA/DNA-Verhältnis von Periphyton als Proxy für dessen Wachstumsrate in kontrollierten Experimenten verwendet und somit dieser wichtigen Prozesses in ökotoxikologische oder ökologische Experimente einbezogen werden kann. Des Weiteren konnte ich zeigen, dass die Fettsäurezusammensetzung von Eintagsfliegen-larven auf Veränderungen der in der Nahrung enthaltenen Fettsäuren innerhalb von zwei Wochen reagiert. Diese schnelle Anpassung der Fettsäurezusammensetzung der Konsumenten zeigt, dass selbst kurzfristige Änderungen der verfügbaren Primärproduzenten wichtige Auswirkungen auf die Versorgung höherer trophischer Ebenen mit physiologisch wichtigen mehrfach ungesättigten Fettsäuren haben. Mit den Ergebnissen der Feldstudie habe ich Lücken im Verständnis der Zusammenhänge zwischen der Phosphorverfügbarkeit im Einzugsgebiet und im Bach unter naturnahen Bedingungen aufgedeckt und gezeigt, dass scheinbar vergleichbare Bäche signifikant unterschiedliche benthische Gemeinschaften aufweisen. Diese Unterschiede wirken sich höchstwahrscheinlich auf die Reaktion der Bäche auf zukünftige Änderungen aus.
Engineering criminal agents
(2019)
Die Dissertation mit dem Titel "Engineering Criminal Agents" demonstriert das Zusammenspiel von drei verschiedenen Forschungsbereichen, die bereits im Titel genannt sind: Im Mittelpunkt stehen Engineering (d.h. ingenieurmäßiges Vorgehen bei der Erstellung von Systemen) und Simulation, während beide Bereiche im Kontext des Anwendungsfeldes Kriminologie (und auch den damit verbundenen sozialwissenschaftlichen Aspekten) angewandt werden. Konkreter gesagt, Ziel der Arbeit ist es, zu zeigen, wie spezifische Arten von agentenbasierten Simulationsmodellen unter Berücksichtigung und Anwendung von Methoden der Softwareentwicklung erstellt werden können.
Agentenbasierte Simulation hat sich seit Jahrzehnten als nützliche Methode der Sozialwissenschaften bewährt, und ein Trend zu komplexen Simulationsmodellen ist wahrnehmbar, nicht zuletzt aufgrund der Fortschritte in Datenverarbeitungs- und Simulationstechniken. Eine bedeutende Ursache für Modellkomplexität ist die Einbeziehung von 'Belegmaterialien' als Grundlage von Simulationsmodellen. Solche Belegmaterialien können durch mehrere Stakeholder bereitgestellt werden und dabei deren unterschiedliche Sichtweisen auf einen Modellierungsgegenstand widerspiegeln.
Dabei ergeben sich spezifische Problemstellungen für das Zusammenspiel der beiden hier relevanten Perspektiven auf das Thema Simulation: auf der einen Seite der Benutzer des Simulationsmodells, der die Anforderungen liefert und an den Simulationsergebnissen interessiert ist; auf der anderen Seite der Modellentwickler, der ein verifiziertes und validiertes formales Modell programmieren muss. Um diese beiden Perspektiven systematisch zusammenzubringen, ist substantieller Aufwand in Forschung und Entwicklung erforderlich, wo die vorliegende Dissertation einen Beitrag zu leisten beabsichtigt.
Die in dieser Arbeit erzielten praktischen Ergebnisse - in Form von Software - wurden durch eine bereichsübergreifende Herangehensweise erreicht: Durch die Verwendung von Methoden der Softwareentwicklung konnten Methoden der computergestützten Sozialwissenschaften benutzt werden, um am Ende Einblicke in soziale Systeme - wie die internen Dynamiken von kriminellen Netzwerken - zu ermöglichen.
Die vorliegende Dissertation zeigt die Forschungstätigkeiten, die für die Erzielung der Ergebnisse herangezogen wurden, sowie liefert Details und Spezifikationen zur erstellten Software.
Rahmen für diese Forschungs- und Entwicklungstätigkeiten waren in erster Linie zwei Forschungsprojekte: OCOPOMO und GLODERS.
Lakes and reservoirs are important sources of methane, a potent greenhouse gas. Although freshwaters cover only a small fraction of the global surface, their contribution to global methane emission is significant and this is expected to increase, as a positive feedback to climate warming and exacerbated eutrophication. Yet, global estimates of methane emission from freshwaters are often based on point measurements that are spatio-temporally biased. To better constrain the uncertainties in quantifying methane fluxes from inland waters, a closer examination of the processes transporting methane from sediment to atmosphere is necessary. Among these processes, ebullition (bubbling) is an important transport pathway and is a primary source of uncertainty in quantifying methane emissions from freshwaters. This thesis aims to improve our understanding of ebullition in freshwaters by studying the processes of methane bubble formation, storage and release in aquatic sediments. The laboratory experiments demonstrate that aquatic sediments can store up to ~20% (volumetric content) gas and the storage capacity varies with sediment properties. The methane produced is stored as gas bubbles in sediment with minimal ebullition until the storage capacity is reached. Once the sediment void spaces are created by gas bubble formation, they are stable and available for future bubble storage and transport. Controlled water level drawdown experiments showed that the amounts of gas released from the sediment scaled with the total volume of sediment gas storage and correlated linearly to the drop in hydrostatic pressure. It was hypothesized that not only the timing of ebullition is controlled by sediment gas storage, but also the spatial distribution of ebullition. A newly developed freeze corer, capable of characterizing sediment gas content under in situ environments, enabled the possibility to test the hypothesis in a large subtropical lake (Lake Kinneret, Israel). The results showed that gas content was variable both vertically and horizontally in the lake sediment. Sediment methane production rate and sediment characteristics could explain these variabilities. The spatial distribution of ebullition generally was in a good agreement with the horizontal distribution of depth-averaged (surface 1 m) sediment gas content. While discrepancies were found between sediment depth-integrated methane production and the snapshot ebullition rate, they were consistent in a long term (multiyear average). These findings provide a solid basis for the future development of a process-based ebullition model. By coupling a sediment transport model with a sediment diagenetic model, general patterns of ebullition hotspots can be predicted at a system level and the uncertainties in ebullition flux measurements can be better constrained both on long-term (months to years) and short-term (minutes to hours) scales.
Nanotemplates for the combined structural and functional analysis of membrane-associated proteins
(2019)
Die Inkubation von unilamellaren Lipid-Vesikeln mit einem als BPG bezeichneten Abschnitt des Proteins GRAF1 führte zur Entstehung von röhrenförmigen Strukturen. Eine Untersuchung mittels negativkontrastierter Elektronenmikroskopie zeigte eine körnige Beschichtung auf der Röhrenoberfläche. Durch die höhere Auflösung der Elektronentomographie war es möglich, helikale Oligomere auf den Röhren zu erkennen. Des Weiteren zeigte sich, dass die Röhren im Durchmesser inhomogen waren und Biegungen aufwiesen. Das hatte ebenfalls Unregelmäßigkeiten in der Ordnung der helikalen Struktur zur Folge. Das Herstellungsverfahren von unilamellaren Vesikeln mittels Extruder wurde so modifiziert, dass es anstatt von Vesikeln Nanoröhren entstehen ließ. Im Gegensatz zu den Röhren, die das Protein formte, wiesen diese eine lineare Struktur mit konstantem Durchmesser auf. Trotz der Inkubation mit BPG behielten diese ihre homogene Form und zeigten nun eine geordnete helikale Beschichtung auf ihrer Oberfläche. Allerdings waren sie nicht hoch genug konzentriert für die Kryoelektronenmikroskopie, und eine reine Erhöhung der Lipidkonzentration führte nicht zu einer höhren Anzahl von Röhren, sondern zu Lipidaggregation. Weitere Experimente zeigten, dass die Chelatliganden EDTA und EGTA in der Pufferlösung zur Entstehung unilamellarer Vesikel führten. Da EDTA und EGTA die Metallionen Mg2+ und Ca2+ absorbieren, wurden weitere Tests mit neuen Pufferlösungen durchgeführt. Zur Absorption bereits vorhandener Metallionen wurden beide Chelatliganden hinzugegeben und eine Variante mit zusätzlichem Magnesiumchlorid und eine weitere mit zusätzlichem Calciumchlorid hergestellt. Es wurde gezeigt, dass Magnesiumchlorid unilamellare Vesikel zur Folge hatte und Calciumchlorid zu einer höhren Konzentration der Nanoröhren führte. Daraus wurde geschlossen, dass Calciumionen die Enstehung von Nanoröhren fördern. Zur weiteren Optimierung der Konzentration wurde eine Varianzanalyse (CCD) der einflussreichsten Variablen im Extrusionsprozess durchgeführt:
- Eine höhere Anzahl von Frier-Tau-Zyklen zur Unterdrückung multilamellarer Vesikel hatte einen positiven Einfluss.
- Es konnte keine Korrelation zwischen der Extrudertemperatur und der Konzentration von Nanoröhren nachgewiesen werden.
- Mehr Extrusionszyklen hatten eine höhere Nanoröhrenkonzentration zur Folge.
Durch das optimierte Protokoll war die Konzentration hoch genug für die Kryoelektronenmikroskopie und eine helikale Rekonstruktion. Dennoch war eine 2D-Klassifizierung nicht erfolgreich, da die Nanoröhren im aufgenommenen Datensatz nicht homogen genug im Durchmesser waren und zudem eine unterschiedliche Anzahl an multilamellaren Rändern aufwiesen. Aus diesem Grund wurde ein Skript entwickelt, das die Röhren nach ihrem Durchmesser sortiert. Mit einer Untermenge des Datensatzes, dessen Röhren einen ähnlichen Durchmesser hatten, wurde eine weitere 2D-Klassifizierung durchgeführt. Daraus resultierten schließlich 2D-Klassen der helikalen Oberflächenstruktur.
Data visualization is an effective way to explore data. It helps people to get a valuable insight of the data by placing it in a visual context. However, choosing a good chart without prior knowledge in the area is not a trivial job. Users have to manually explore all possible visualizations and decide upon ones that reflect relevant and desired trend in the data, are insightful and easy to decode, have a clear focus and appealing appearance. To address these challenges we developed a Tool for Automatic Generation of Good viSualizations using Scoring (TAG²S²). The approach tackles the problem of identifying an appropriate metric for judging visualizations as good or bad. It consists of two modules: visualization detection: given a data-set it creates a list of combination of data attributes for scoring and visualization ranking: scores each chart and decides which ones are good or bad. For the later, an utility metric of ten criteria was developed and each visualization detected in the first module is evaluated on these criteria. Only those visualizations that received enough scores are then presented to the user. Additionally to these data parameters, the tool considers user perception regarding the choice of visual encoding when selecting a visualization. To evaluate the utility of the metric and the importance of each criteria, test cases were developed, executed and the results presented.
Die vorliegende Dissertation beschäftigt sich mit den Chancen und Restriktionen, denen Parteien im Wahlkampf auf supranationaler Ebene der EU begegnen. Mittels kommunikationswissenschaftlicher Konzepte des Agenda-Settings (Fokus: Medien) und Agenda-Buildings (Fokus: Parteien) wird anhand des Wahlkampfs zur Wahl des Europäischen Parlaments (EP) 2014 erstens analysiert, inwieweit nationale politische Parteien die EU als Thema auf ihre Agenda setzen und ob etablierte Parteien so zu einer Normalisierung des EU-Wahlkampfs beitragen können. Zweitens wird untersucht, ob Parteien einen strukturellen Vorteil haben, die mediale Agenda auch auf supranationaler Ebene im Wahlkampf beeinflussen zu können, also mit EU-fokussierter Wahlkampfkommunikation in den Medien punkten können. Drittens wird geprüft, ob sich Parteien durch die Ablehnung der EU-Integration und der damit verbundenen, konflikthaften Kommunikation einen Vorteil für die Sichtbarkeit ihrer Kampagnen verschaffen können. Viertens und abschließend wird erforscht, ob Agenda-Building die Rangfolge spezifischer politischer Themenfelder auf der medialen Agenda im europäischen Kontext beeinflussen kann.
Die Analysen zeigen erstens, dass ein europapolitischer Fokus der Wahlkampfkommunikation nicht mehr nur auf Seiten der kleinen (euroskeptischen) Parteien zu finden ist. Verfolgen die Parteien einen europapolitischen Fokus in ihrer Wahlkampfkommunikation, haben sie zweitens gute Chancen, in der Medienberichterstattung präsent zu sein. Drittens stellt sich ein negativer Tenor der Parteienkommunikation nicht als ausschlaggebend für die Sichtbarkeit der Parteien im Wahlkampf heraus. Eine klare Positionierung auf politischen Sachfragen bereitet Parteien viertens auch auf die Restriktionen der weiteren Ausbildung einer europäischen Themenagenda vor, da die Verschiebung in der Wichtigkeit von Themen zuerst von den Medien erfasst wird, die Kampagnenkommunikation folgt erst darauf. Die Arbeit schließt nach einer Diskussion dieser Ergebnisse mit einer Einschätzung der Analyselimitationen und einem Ausblick auf weitere Forschungsansätze.
Over the past few decades society’s dependence on software systems has grown significantly. These systems are utilized in nearly every matter of life today and often handle sensitive, private data. This situation has turned software security analysis into an essential and widely researched topic in the field of computer science. Researchers in this field tend to make the assumption that the quality of the software systems' code directly affects the possibility for security gaps to arise in it. Because this assumption is based on properties of the code, proving it true would mean that security assessments can be performed on software, even before a certain version of it is released. A study based on this implication has already attempted to mathematically assess the existence of such a correlation, studying it based on quality and security metric calculations. The present study builds upon that study in finding an automatic method for choosing well-fitted software projects as a sample for this correlation analysis and extends the variety of projects considered for the it. In this thesis, the automatic generation of graphical representations both for the correlations between the metrics as well as for their evolution is also introduced. With these improvements, this thesis verifies the results of the previous study with a different and broader project input. It also focuses on analyzing the correlations between the quality and security metrics to real-world vulnerability data metrics. The data is extracted and evaluated from dedicated software vulnerability information sources and serves to represent the existence of proven security weaknesses in the studied software. The study discusses some of the difficulties that arise when trying to gather such information and link it to the difference in the information contained in the repositories of the studied projects. This thesis confirms the significant influence that quality metrics have on each other. It also shows that it is important to view them together as a whole and suppose that their correlation could influence the appearance of unwanted vulnerabilities as well. One of the important conclusions I can draw from this thesis is that the visualization of metric evolution graphs, helps the understanding of the values as well as their connection to each other in a more meaningful way. It allows for better grasp of their influence on each other as opposed to only studying their correlation values. This study confirms that studying metric correlations and evolution trends can help developers improve their projects and prevent them from becoming difficult to extend and maintain, increasing the potential for good quality as well as more secure software code.
The development of a game engine is considered a non-trivial problem. [3] The architecture of such simulation software must be able to manage large amounts of simulation objects in real-time while dealing with “crosscutting concerns” [3,p. 36] between subsystems. The use of object oriented paradigms to model simulation objects in class hierarchies has been reported as incompatible with constantly changing demands during game development [2, p. 9], resulting in anti-patterns and eventual, messy refactoring.[13]
Alternative architectures using data oriented paradigms revolving around object composition and aggregation have been proposed as a result. [13, 9, 1, 11]
This thesis describes the development of such an architecture with the explicit goals to be simple, inherently compatible with data oriented design, and to make reasoning about performance characteristics possible. Concepts are formally defined to help analyze the problem and evaluate results. A functional implementation of the architecture is presented together with use cases common to simulation software.
The erosion of the closed innovation paradigm in conjunction with increasing competitive pressure has boosted the interest of both researchers and organizations in open innovation. Despite such rising interest, several companies remain reluctant to open their organizational boundaries to practice open innovation. Among the many reasons for such reservation are the pertinent complexity of transitioning toward open innovation and a lack of understanding of the procedures required for such endeavors. Hence, this thesis sets out to investigate how organizations can open their boundaries to successfully transition from closed to open innovation by analyzing the current literature on open innovation. In doing so, the transitional procedures are structured and classified into a model comprising three phases, namely unfreezing, moving, and institutionalizing of changes. Procedures of the unfreezing phase lay the foundation for a successful transition to open innovation, while procedures of the moving phase depict how the change occurs. Finally, procedures of the institutionalizing phase contribute to the sustainability of the transition by employing governance mechanisms and performance measures. Additionally, the individual procedures are characterized along with their corresponding barriers and critical success factors. As a result of this structured depiction of the transition process, a guideline is derived. This guideline includes the commonly employed actions of successful practitioners of open innovation, which may serve as a baseline for interested parties of the paradigm. With the derivation of the guideline and concise depiction of the individual transitional phases, this thesis consequently reduces the overall complexity and increases the comprehensibility of the transition and its implications for organizations.
Ökologische Bewertungsansätze auf der Grundlage des Makrozoobenthos in Euphratzuflüssen der Türkei
(2019)
Nachhaltiges Gewässermanagement erfordert Methoden zur Bewertung der ökologischen Gewässerqualität. Die Basis dafür zu entwickeln setzt langjährige limnologische Forschung voraus, die jedoch in der Türkei bisher nicht ausreichend vorhanden ist. Daher war es das Ziel dieser Doktorarbeit, Grundlagenforschung im Bereich der Gewässerökologie durchzuführen und Methoden zur Bewertung der ökologischen Gewässerqualität in der Türkei anhand der Untersuchung von benthischen Invertebraten bereitzustellen. Hierfür habe ich 17 Nebenflüsse des Euphrat mit ähnlicher Typologie/Gewässerordnung ausgewählt, die unter¬schiedlichen anthropogenen Belastungen bis gar keiner Beeinträchtigung ausgesetzt waren. Die Charakterisierung der natürlichen Bergbäche war der erste wichtige Schritt zur Analyse der ökologischen Qualität. Anhand von Gemeinschaftsindizes konnte ich feststellen, dass die hierfür ausgewählten fünf Bäche einen sehr guten ökologischen Zustand aufwiesen. Des Weiteren verglich ich die verschiedenen biologischen Indizes zwischen Frühling (Mai) und Herbst (September), um den optimalen Zeitpunkt der Beprobung festzustellen. Dabei zeigten sich erhebliche Unterschiede in der Makroinvertebratenzusammensetzung zwischen den beiden Jahreszeiten: Die Anzahl der Taxa und der Shannon-Index waren im Herbst deutlich höher als im Frühjahr. Anschließend untersuchte ich bei den Referenzbächen die Nahrungsressourcen des Makrozoobenthos mittels einer Isotopen-Analyse. Als wichtigste Basalressourcen für die benthischen Wirbellosen stellte ich FPOM und Biofilm fest. Infolgedessen unterteilte ich die 17 Bäche anhand der Ähnlichkeit ihrer Gemeinschafts-struktur in drei Qualitätsklassen, die von vier Gemeinschaftsindizes (EPT [%], EPTCBO [%], Anzahl der Individuen, Evenness) unterstützt worden sind. Hierbei wurden 23 Taxa als Indikatoren für die drei Qualitätsklassen identifiziert. Im nächsten Schritt habe ich zwei Möglichkeiten für die Bewertung der Qualitätsklassen entwickelt bzw. angepasst. Als erstes adaptierte ich den biotischen Index Hindu Kush-Himalaya an das Einzugsgebiet des Euphrat, in dem ich eine neue und ökoregionspezifische Score Liste (Euph-Scores) für 93 Taxa erstellt habe. Die gewichteten ASPT-Werte, die in der vorliegenden Arbeit in Euphrat Biotischer Score (EUPHbios) umbenannt worden sind, zeigten im Vergleich zu den anderen ASPT-Werten schärfere Differenzierungen der Qualitätsklassen. Somit erwies sich dieser modifizierte Index in der praktischen Anwendung als sehr aussagekräftig und gut umsetzbar. Als zweiten biologischen Index habe ich den Anteil der Habitat-Spezialisten vorgeschlagen. Um diesen Index zu berechnen, wurden Habitatpräferenzen der 20 häufigsten Makro-invertebraten anhand des neuen Habitat-Scores identifiziert. Der Anteil der Habitat-Spezialisten unterschied sich deutlich zwischen den drei Qualitätsklassen, mit höheren Werten in natürlichen Bächen als in belasteten. Die in dieser Doktorarbeit vorgestellten Methoden und Ergebnisse können in einem multimetrischen Index für ein türkisches Bewertungsprogramm für Fließgewässer verwendet werden.
Streams are coupled with their riparian area. Emerging insects from streams can be an important prey in the riparian area. Such aquatic subsidies can cause predators to switch prey or increase predator abundances. This can impact the whole terrestrial food web. Stressors associated with agricultural land use can alter insect communities in water and on land, resulting in complex response patterns of terrestrial predators that rely on prey from both systems.
This thesis comprises studies on the impact of aquatic nsects on a terrestrial model ecosystem (Objective 1, hapter 2), the influence of agricultural land use on riparian spiders’ traits and community (Objective 2, Chapter 3), and on the impact of agricultural land use on the contribution of different prey to spider diet (Objective 3, Chapter 4).
In chapter 2, I present a study where we conducted a mesocosm experiment to examine the effects of aquatic subsidies on a simplified terrestrial food web consisting of two types of herbivores (leafhoppers and weevils), plants and predators (spiders). I focused on the prey choice of the spiders by excluding predator immigration and reproduction. In accordance with predator switching, survival of leafhoppers increased in the presence of aquatic subsidies. By contrast, the presence of aquatic subsidies indirectly reduced weevils and herbivory.
In chapter 3, I present the results on the taxonomic and trait response of riparian spider communities to gradients of agricultural stressors and environmental variables, with a particular emphasis on pesticides. To capture spiders with different traits and survival strategies, we used multiple collection methods. Spider community composition was best explained by in-stream pesticide toxicity and shading of the stream bank, a proxy for the quality of the habitat. Species richness and the number of spider individuals, as well as community ballooning ability, were negatively associated with in-stream pesticide toxicity. In contrast, mean body size and shading preference of spider communities responded strongest to shading,
whereas mean niche width (habitat preference for moisture and shading) responded strongest to other environmental variables.
In chapter 4, I describe aquatic-terrestrial predator-prey relations with gradients of agricultural stressors and environmental variables. I sampled spiders, as well as their aquatic and terrestrial prey along streams with an assumed pesticide pollution gradient and determined their stable carbon and nitrogen signals. Potential aquatic prey biomass correlated positively with an increasing aquatic prey contribution of T. montana. The contribution of aquatic prey to the diet of P. amentata showed a positive relationship with increasing toxicity in streams.
Overall, this thesis contributes to the emerging discipline of cross-ecosystem ecology and shows that aquatic-terrestrial linkages and riparian food webs can be influenced by land use related stressors. Future manipulative field studies on aquatic-terrestrial linkages are required that consider the quality of prey organisms, fostering mechanistic understanding of such crossecosystem effects. Knowledge on these linkages is important to improve understanding of consequences of anthropogenic stressors and to prevent further losses of ecosystems and their biodiversity.
Die Mitralklappe ist eine der vier Herzklappen des Menschen. Sie befindet sich in der linken Herzkammer und agiert als ein unidirektionales Ventil, welches den Blutfluss vom linken Atrium zum linken Ventrikel steuert. Eine funktionierende Mitralklappe verhindert den Rückfluss von Blut in den Lungenkreislauf, wodurch sie einen unverzichtbaren Anteil zu einem gesunden Herzkreislauf beiträgt. Pathologien der Mitralklappe können eine Reihe von Symptomen hervorrufen, welche in ihrer Schwere von Brustschmerzen und Ermüdung bis zum Lungenödem (dem Eindringen von Flüssigkeit in die Lunge) reichen können. Im schlimmsten Fall kann dieses zum Atemversagen führen.
Dysfunktionale Mitralklappen können mithilfe komplexer chirurgischer Eingriffe wiederhergestellt werden, welche in hohem Maße von intensiver Planung und präoperativer Analyse profitieren. Visualisierungstechniken eröffnen die Möglichkeit, solche Vorbereitungsprozesse zu unterstützen und können zudem einer postoperativen Evaluation dienlich sein. Die vorliegende Arbeit erweitert die Forschung in diesem Bereich. Sie stützt sich auf patientenspezifische Segmentierungen der Mitralklappe, wie sie am Deutschen Krebsforschungszentrum entwickelt werden. Solche Segmentierungen resultieren in 3D-Modellen der Mitralklappe. Der Kern dieser Arbeit wird sich mit der Konstruktion einer 2D-Ansicht dieser Modelle befassen. Die 2D-Visualisierung wird durch Methoden der globalen Parametrisierung erzeugt, welche es erlauben, bijektive Abbildungen zwischen einem planaren Parameterraum und Oberflächen in höheren Dimensionen zu erstellen.
Eine ebene Repräsentation der Mitralklappe ermöglicht Ärzten einen unmittelbaren Blick auf deren gesamte Oberfläche, analog zu einer Karte. Dies erlaubt die Begutachtung der Fläche und Form ohne die Notwendigkeit unterschiedlicher Blickwinkel. Teile der Klappe, die in der 3D-Ansicht von Geometrie verdeckt sind, werden in der 2D-Darstellung sichtbar.
Ein weiterer Beitrag dieser Arbeit ist die Untersuchung verschiedener Visualisierungen der 3D- und 2D-Mitralklappenrepräsentationen. Merkmale der Klappe können durch Assoziation mit spezifizierten Farbschemata hervorgehoben werden. So können zum Beispiel Pathologie-Indikatoren direkt vermittelt werden.
Qualität und Wirkungsgrad der vorgestellten Methoden wurden in einer Studie am Universitätsklinikum Heidelberg evaluiert.
The status of Business Process Management (BPM) recommender systems is not quite clear as research states. The use of recommenders familiarized itself with the world during the rise of technological evolution in the past decade.Ever since then, several BPM recommender systems came about. However, not a lot of research is conducted in this field. It is not well known to what broad are the technologies used and how are they used. Moreover, this master’s thesis aims at surveying the BPM recommender systems existing. Building on this, the recommendations come in different shapes. They can be positionbased where an element is to be placed at an element’s front, back or to autocomplete a missing link. On the other hand, Recommendations can be textual, to fill the labels of the elements. Furthermore, the literature review for BPM recommender systems took place under the guides of a literature review framework. The framework suggests 5stages of consecutive stages for this sake. The first stage is defining a scope for the research. Secondly, conceptualizing the topic by choosing key terms for literature research. After that in the third stage, comes the research stage.As for the fourth stage, it suggests choosing analysis features over which the literature is to be synthesized and compared. Finally, it recommends defining the research agenda to describe the reason for the literature review. By invoking the mentioned methodology, this master’s thesis surveyed 18 BPM recommender systems. It was found as a result of the survey that there
are not many different technologies for implementing the recommenders. It was also found that the majority of the recommenders suggest nodes that are yet to come in the model, which is called forward recommending. Also, one of the results of the survey indicated the scarce use of textual recommendations to BPM labels. Finally, 18 recommenders are considered less than excepted for a developing field therefore as a result, the survey found a shortage in the number of BPM recommender systems. The results indicate several shortages in several aspects in the field of BPM recommender systems. On this basis, this master’s thesis recommends the future work on it the results.
Sediment transport contributes to the movement of inorganic and organic material in rivers. The construction of a dam interrupts the continuity of this sediment transport through rivers, causing sediments to accumulate within the reservoir. Reservoirs can also act as carbon sinks and methane can be released when organic matter in the sediment is degraded under anoxic conditions. Reservoir sedimentation poses a great threat to the sustainability of reservoirs worldwide, and can emit the potent greenhouse gas methane into the atmosphere. Sediment management measures to rehabilitate silted reservoirs are required to achieve both better water quantity and quality, as well as to mitigate greenhouse gas emissions.
This thesis aims at the improvement of sediment sampling techniques to characterize sediment deposits as a basis for accurate and efficient water jet dredging and to monitor the dredging efficiency by measuring the sediment concentration. To achieve this, we investigated freeze coring as a method to sample (gas-bearing) sediment in situ. The freeze cores from three reservoirs obtained were scanned using a non-destructive X-Ray CT scan technique. This allows the determination of sediment stratification and character-ization of gas bubbles to quantify methane emissions and serve as a basis for the identi-fication of specific (i.e. contaminated) sediment layers to be dredged. The results demon-strate the capability of freeze coring as a method for the characterization of (gas-bearing) sediment and overcomes certain limitations of commonly used gravity cores. Even though the core’s structure showed coring disturbances related to the freezing process, the general core integrity seems to not have been disturbed. For dredging purposes, we analyzed the impact pressure distribution and spray pattern of submerged cavitating wa-ter jets and determined the effects of impinging distances and angles, pump pressures and spray angles. We used an adapted Pressure Measurement Sensing technique to enhance the spatial distribution, which proved to be a comparatively easy-to-use meas-urement method for an improved understanding of the governing factors on the erosional capacity of cavitating water jets. Based on this data, the multiple linear regression model can be used to predict the impact pressure distribution of those water jets to achieve higher dredging accuracy and efficiency. To determine the dredging operational efficien-cy, we developed a semi-continuous automated measurement device to measure the sediment concentration of the slurry. This simple and robust device has lower costs, compared to traditional and surrogate sediment concentration measurement technolo-gies, and can be monitored and controlled remotely under a wide range of concentrations and grain-sizes, unaffected by entrained gas bubbles
Geschäftsregeln sind zu einem wichtigen Instrument geworden, um die Einhaltung der Vorschriften in ihren Geschäftsprozessen zu gewährleisten. Aber die Sammlung dieser Geschäftsregeln kann verschiedene widersprüchliche Elemente beinhalten. Dies kann zu einer Verletzung der zu erreichenden Compliance führen. Diese widersprüchlichen Elemente sind daher eine Art Inkonsistenzen oder Quasi-Inkonsistenzen in der Geschäftsregelbasis. Ziel dieser Arbeit ist es, zu untersuchen, wie diese Quasi-Inkonsistenzen in Geschäftsregeln erkannt und analysiert werden können. Zu diesem Zweck entwickeln wir eine umfassende Bibliothek, die es ermöglicht, Ergebnisse aus dem wissenschaftlichen Bereich der Inkonsistenzmessung auf Geschäftsregelformalismen anzuwenden, die tatsächlich in der Praxis verwendet werden.
Belief revision is the subarea of knowledge representation which studies the dynamics of epistemic states of an agent. In the classical AGM approach, contraction, as part of the belief revision, deals with the removal of beliefs in knowledge bases. This master's thesis presents the study and the implementation of concept contraction in the Description Logic EL. Concept contraction deals with the following situation. Given two concept C and D, assuming that C is subsumed by D, how can concept C be changed so that it is not subsumed by D anymore, but is as similar as possible to C? This approach of belief change is different from other related work because it deals with contraction in the level of concepts and not T-Boxes and A-Boxes in general. The main contribution of the thesis is the implementation of the concept contraction. The implementation provides insight into the complexity of contraction in EL, which is tractable since the main inference task in EL is also tractable. The implementation consists of the design of five algorithms that are necessary for concept contraction. The algorithms are described, illustrated with examples, and analyzed in terms of time complexity. Furthermore, we propose an new approach for a selection function, adapt for the concept contraction. The selection function uses metadata about the concepts in order to select the best from an input set. The metadata is modeled in a framework that we have designed, based on standard metadata frameworks. As an important part of the concept contraction, the selection function is responsible for selecting the best concepts that are as similar as possible to concept C. Lastly, we have successfully implemented the concept contraction in Python, and the results are promising.
Softwaresysteme haben einen zunehmenden Einfluss auf unser tägliches Leben. Viele Systeme verarbeiten sensitive Daten oder steuern wichtige Infrastruktur, was die Bereitstellung sicherer Software unabdingbar macht. Derartige Systeme werden aus Aufwands- und Kostengründen selten erneuert. Oftmals werden Systeme, die zu ihrem Entwurfszeitpunkt als sicheres System geplant und implementiert wurden, deswegen unsicher, weil sich die Umgebung dieser Systeme ändert. Dadurch, dass verschiedenste Systeme über das Internet kommunizieren, sind diese auch neuen Angriffsarten stetig ausgesetzt. Die Sicherheitsanforderungen an ein System bleiben unberührt, aber neue Erkenntnisse wie die Verwundbarkeit eines zum Entwurfszeitpunkt als sicher geltenden Verschlüsselungsalgorithmus erzwingen Änderungen am System. Manche Sicherheitsanforderungen können dabei nicht anhand des Designs sondern nur zur Laufzeit geprüft werden. Darüber hinaus erfordern plötzlich auftretende Sicherheitsverletzungen eine unverzügliche Reaktion, um eine Systemabschaltung vermeiden zu können. Wissen über geeignete Sicherheitsverfahren, Angriffe und Abwehrmechanismen ist grundsätzlich verfügbar, aber es ist selten in die Softwareentwicklung integriert und geht auf Evolutionen ein.
In dieser Arbeit wird untersucht, wie die Sicherheit langlebiger Software unter dem Einfluss von Kontext-Evolutionen bewahrt werden kann. Der vorgestellte Ansatz S²EC²O hat zum Ziel, die Sicherheit von Software, die modellbasiert entwickelt wird, mithilfe von Ko-Evolutionen wiederherzustellen.
Eine Ontologie-basierende Wissensbasis wird eingeführt, die sowohl allgemeines wie auch systemspezifisches, sicherheitsrelevantes Wissen verwaltet. Mittels einer Transformation wird die Verbindung der Wissensbasis zu UML-Systemmodellen hergestellt. Mit semantischen Differenzen, Inferenz von Wissen und der Erkennung von Inkonsistenzen in der Wissensbasis werden Kontext-Evolutionen erkannt.
Ein Katalog mit Regeln zur Verwaltung und Wiederherstellung von Sicherheitsanforderungen nutzt erkannte Kontext-Evolutionen, um mögliche Ko-Evolutionen für das Systemmodell vorzuschlagen, welche die Einhaltung von Sicherheitsanforderungen wiederherstellen.
S²EC²O unterstützt Sicherheitsannotationen, um Modelle und Code zum Zwecke einer Laufzeitüberwachung zu koppeln. Die Adaption laufender Systeme gegen Bedrohungen wird ebenso betrachtet wie Roundtrip-Engineering, um Erkenntnisse aus der Laufzeit in das System-Modell zu integrieren.
S²EC²O wird ergänzt um eine prototypische Implementierung. Diese wird genutzt, um die Anwendbarkeit von S²EC²O im Rahmen einer Fallstudie an dem medizinischen Informationssystem iTrust zu zeigen.
Die vorliegende Arbeit leistet einen Beitrag, um die Entwicklung und Wartung langlebiger Softwaresysteme in Bezug auf ihre Sicherheit zu begleiten. Der vorgestellte Ansatz entlastet Sicherheitsexperten bei ihrer Arbeit, indem er sicherheitsrelevante Änderungen des Systemkontextes erfasst, den Einfluss auf die Sicherheit der Software prüft und Ko-Evolutionen zur Bewahrung der Sicherheitsanforderungen ermöglicht.
Der Verlust der Biodiversität wird sowohl auf einer globalen Skala als auch für die anthropogen geformten Landschaften, die heute fast 50% der terrestrischen Landfläche ausmachen, festgestellt. Auf den landwirtschaftlichen Anbauflächen werden Pestizide, biologisch aktive Chemikalien, ausgebracht um Schädlinge, Krankheiten und Unkräuter zu kontrollieren. Um die Auswirkung der Pestizide auf die Biodiversität zu verstehen ist die Quantifizierung der verbliebenen semi-natürlichen Strukturen wie Feldsäume und Hecken, die Organismen in Agrarlandschaften als Habitat dienen, eine Voraussetzung. Für eine Abschätzung ihrer potentiellen Pestizidexposition ist zudem die Anwesenheit der Organismen in diesen Habitaten und in den Feldkulturen notwendig. Im vorliegenden Text stelle ich Studien für Tiergruppen wie Amphibien, Fledermäuse und Motten vor, die bisher nicht in der Risikobewertung für Pestizide berücksichtigt worden sind. Für alle Gruppen wurde dargelegt, dass sie sowohl in der Agrarlandschaft leben als auch potentiell mit Pestiziden in Kontakt kommen und daher ein Risiko angezeigt ist. Für die Risikobetrachtung sind auch Informationen zur Empfindlichkeit der Organismen notwendig und hier werden neue Daten für Pflanzen, Amphibien und Bienen vorgestellt. Effekte die bis auf die Gemeinschaftsebene wirksam waren, wurden für die Auswirkungen von Herbizid, Insektizid und Dünger in einem natürlichen System betrachtet. Das Ergebnis nach drei Behandlungsjahren waren vereinfachte Pflanzengemeinschaften mit geringerer Artenzahl und einer reduzierten Anzahl von Blütenpflanzen. Die Abnahme an Blüten stellt ein Beispiel eines indirekten Effekts dar und war für die Effekte eines Herbizids auf den scharfen Hahnenfuß besonders auffällig. Subletale Herbizideffekte für Pflanzen hatten einen Einfluss auf daran fressende Raupen was durch eine Verminderung der Nahrungsqualität erklärbar ist. Für Feldsäume realistische Insektizidmengen reduzierten die Bestäubung der weißen Lichtnelke durch Motten um 30%. Diese indirekten Effekte durch Veränderungen im Nahrungsnetz spielen eine kritische Rolle für das Verständnis des Rückgangs von verschiedenen Organismengruppen, allerdings werden sie bisher nicht in die Risikobewertung von Pestiziden mit einbezogen. Der aktuelle intensive Pestizideinsatz in der Landwirtschaft und ihre hohe Toxizität könnten zu einer chemisch fragmentierten Landschaft führen in der Population nicht mehr verbunden sind und damit deren Größe und genetische Struktur beeinflussen. Die Modellierung von möglichen Pestizideffekten als Kosten für die Anwanderung von Amphibien zu Fortpflanzungsgewässern in Weinbergen in Rheinland-Pfalz zeigte die Isolation der untersuchten Populationen an. Eine erste Validierung für den Grasfrosch bestätigte die Modellvorhersagen für einige Populationen. Für den terrestrischen Bereich der Risiko-bewertung ist eine Vielzahl von Richtlinien vorhanden oder wird aktuell entwickelt oder verbessert. Die Ergebnisse der vorliegenden Arbeiten zeigen, dass vor allem die reproduktiven Blütenstadien von Pflanzen sehr empfindlich sind und ihr Risiko unterschätz ist. Die Erholung von Arthropodenpopulationen nach Pestizideffekten muss auf Landschafts-ebene neu bemessen werden und eine Risikobewertung für Amphibien für die Zulassung wird vorgeschlagen. Die Etablierung und Anpassung von Risikobewertungssystemen ist allerdings ein zeitaufwändiger Prozess und daher stellt die Entwicklung von Risikomanagementmaßnahmen eine pragmatische Alternative mit unmittelbaren Auswirkungen dar. Künstliche Gewässer der Agrarlandschaft sind wichtige Nahrungsgebiete für Fledermäuse und ihre Anlage würde negative Auswirkungen des Pestizideinsatzes abschwächen. Die Einbindung von direkten und indirekten Effekten für alle Organismengruppen in eine Risikobewertung in der auch der Landschaftsmaßstab und Pestizidmischungen betrachtet werden wird viel Entwicklungszeit benötigen. Die Etablierung von Modellandschaften in der Managementmaßnahmen und integrierter Pflanzenschutz auf größerer Skala angewendet werden, würde es uns jedoch erlauben die Auswirkungen von Pestiziden in einem realistischen Szenario zu untersuchen und Ansätze für die Landwirtschaft der Zukunft zu entwickeln.