Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (475)
- Ausgabe (Heft) zu einer Zeitschrift (355)
- Bachelorarbeit (275)
- Diplomarbeit (196)
- Masterarbeit (192)
- Studienarbeit (138)
- Wissenschaftlicher Artikel (23)
- Konferenzveröffentlichung (11)
- Sonstiges (8)
- Bericht (8)
Sprache
- Deutsch (1139)
- Englisch (548)
- Mehrsprachig (4)
- Spanisch (2)
Gehört zur Bibliographie
- nein (1693) (entfernen)
Schlagworte
- Vorlesungsverzeichnis (55)
- Bildverarbeitung (16)
- Augmented Reality (15)
- Simulation (12)
- Computersimulation (11)
- Computergraphik (10)
- Pestizid (10)
- Robotik (10)
- Computergrafik (9)
- Computervisualistik (9)
Institut
- Institut für Computervisualistik (335)
- Fachbereich 4 (298)
- Zentrale Einrichtungen (176)
- Institut für Informatik (147)
- Institut für Wirtschafts- und Verwaltungsinformatik (147)
- Institut für Management (117)
- Fachbereich 7 (99)
- Institute for Web Science and Technologies (57)
- Institut für Softwaretechnik (54)
- Fachbereich 8 (47)
The Apple ][ computer was one of the frst three completely assembled systems on the market. It was sold several million times from april 1977 to 1993. This 8 bit home computer was developed by Steve Wozniak and Steve Jobs. They paved the way for the Apple Macintosh computer and the nowadays well known brand Apple with its products.
This thesis describes the implementation of a software emulator for the complete Apple ][ computer system on a single Atmel AVR microcontroller unit (MCU). The greatest challenge consists of the fact that the MCU has only a slightly higher clock speed as the Apple ][. This requires an efcient emulation of the CPU and the memory management, which will be covered later on along with the runtime environment controlling the emulator. Furthermore the hardware implementation into a handheld prototype will be shown.
In summary this thesis presents a successful development of a portable Apple ][ emulator covering all aspects from software design over hardware design ending up in a prototype.
Frühere Publikationen belegen die Bedeutung von Einleitungen aus Abwasserreinigungsanlagen für den Eintrag von organischen und anorganischen Chemikalien (=Mikroverunreinigungen) in die aquatische Umwelt. Von dort können diese Mikroverunreinigungen in das Grundwasser gelangen - und schließlich in das Trinkwasser - oder führen zu mannigfachen Auswirkungen in aquatischen Organismen, beispielsweise die Entwicklung multipler Resistenzen von Bakterien. Daher wird derzeit eine Erweiterung des Abwasserreinigungsprozesses diskutiert, um den Eintrag dieser Mikroverunreinigungen zu reduzieren.
Die vorliegende Arbeit setzte sich in diesem Zusammenhang zum Ziel ökotoxikologische Auswirkungen der Abwasserozonierung, als tertiäre Reinigungsstufe, anhand von speziell entwickelten Testverfahren unter Verwendung der Spezies Gammarus fossarum (Koch) auf verschiedenen Ebenen der ökologischen Komplexität zu untersuchen. Um dieses Ziel zu erreichen, wurden verschiedenste Studien unter Labor- sowie Halbfreilandbedingungen durchgeführt. Zunächst wurde die Sensitivität der Testspezies mittels einer vierwöchigen Exposition gegenüber sekundär behandeltem Abwasser der Abwasserreinigungsanlage (ARA) Wüeri, Schweiz, untersucht. Diese Untersuchung belegte statistisch signifikante Reduktionen der Fraßleistung, der Assimilation sowie physiologischer Endpunkte, welche Auswirkungen auf Reproduktion sowie Populationsentwicklung vermuten lassen. In einer weiteren Untersuchung wurde eine Fraßpräferenz von G. fossarum für Laubscheiben festgestellt, die in ozoniertem Abwasser konditioniert wurden, über solche, konditioniert in nicht ozoniertem (=sekundär behandeltem) Abwasser. Diese Präferenz scheint auf eine veränderte laubassoziierte mikrobielle Gemeinschaft zurückzuführen zu sein. Eine Reihe von Laboruntersuchungen belegte zudem eine statistisch signifikant erhöhte Fraßrate von G. fossarum, welche gegenüber ozoniertem Abwasser der ARA Wüeri - unabhängig davon, ob die Ozonierung auf der ARA selbst oder unter Laborbedingungen durchgeführt wurde - exponiert wurden, verglichen mit nicht ozoniertem Abwasser. Diese Experimente lassen zudem die Schlussfolgerung zu, dass die Veränderungen der organischen Matrix, welche durch die Anwendung der Ozonierung hervorgerufen werden, nicht für die erhöhte Fraßrate von Gammarus verantwortlich sind, da sich die mittlere Fraßrate nur geringfügig zwischen sekundär und ozonbehandeltem Abwasser, welches kaum Mikroverunreinigungen enthielt, unterschied. Auch konnte gezeigt werden, dass Veränderungen im Profil des gelösten organischen Kohlenstoffs (DOC) die Fraßrate nicht beeinflussen. Zudem untermauern in situ Expositionssysteme, welche direkt im Vorfluter Anwendung fanden, die Resultate der Laborstudien. Diese Experimente zeigten lediglich während der Einleitung von sekundär behandeltem Abwasser unterhalb der Einleitung der ARA signifikant reduzierte Fraßraten verglichen mit einer Kontrollstelle direkt oberhalb der Einleitung. Während der Einleitung von ozoniertem Abwasser sind, jedoch, keine Reduktionen in den Fraßraten feststellbar. Schließlich konnten auch Populationsstudien einen höheren Fraß, sowie eine höhere Populationsgröße von G. fossarum, bei einer Exposition gegenüber ozonbehandeltem Abwasser, verglichen mit sekundär behandeltem Abwasser belegen.
Zusammenfassend legt die vorliegende Arbeit dar, dass die Behandlung von Abwasser mit Ozon geeignet ist, durch die Reduktion von Mikroverunreinigungen, die Ökotoxizität zu reduzieren. Daher könnte diese Technologie helfen die Vorgaben der Wasserrahmenrichtlinie, auch unter den vorhergesagten Klimawandelszenarien, welche einen höheren Abwasseranteilen im Vorfluter während der Sommermonate vermuten lassen, einzuhalten. Jedoch werden durch die Anwendung von Ozon auch Nebenprodukte gebildet werden, welche eine höhere Ökotoxizität aufweisen als deren Muttersubstanzen. Daher sollte im Falle der Etablierung dieser Technologie ein weitergehendes chemisches und ökotoxikologisches Monitoring erfolgen.
The goal of this PhD thesis is to investigate possibilities of using symbol elimination for solving problems over complex theories and analyze the applicability of such uniform approaches in different areas of application, such as verification, knowledge representation and graph theory. In the thesis we propose an approach to symbol elimination in complex theories that follows the general idea of combining hierarchical reasoning with symbol elimination in standard theories. We analyze how this general approach can be specialized and used in different areas of application.
In the verification of parametric systems it is important to prove that certain safety properties hold. This can be done by showing that a property is an inductive invariant of the system, i.e. it holds in the initial state of the system and is invariant under updates of the system. Sometimes this is not the case for the condition itself, but for a stronger condition it is. In this thesis we propose a method for goal-directed invariant strengthening.
In knowledge representation we often have to deal with huge ontologies. Combining two ontologies usually leads to new consequences, some of which may be false or undesired. We are interested in finding explanations for such unwanted consequences. For this we propose a method for computing interpolants in the description logics EL and EL⁺, based on a translation to the theory of semilattices with monotone operators and a certain form of interpolation in this theory.
In wireless network theory one often deals with classes of geometric graphs in which the existence or non-existence of an edge between two vertices in a graph relies on properties on their distances to other nodes. One possibility to prove properties of those graphs or to analyze relations between the graph classes is to prove or disprove that one graph class is contained in the other. In this thesis we propose a method for checking inclusions between geometric graph classes.
This paper offers an informal overview and discussion on first order predicate logic reasoning systems together with a description of applications which are carried out in the Artificial Intelligence Research Group of the University in Koblenz. Furthermore the technique of knowledge compilation is shortly introduced.
In this paper, we demonstrate by means of two examples how to work with probability propagation nets (PPNs). The fiirst, which comes from the book by Peng and Reggia [1], is a small example of medical diagnosis. The second one comes from [2]. It is an example of operational risk and is to show how the evidence flow in PPNs gives hints to reduce high losses. In terms of Bayesian networks, both examples contain cycles which are resolved by the conditioning technique [3].
This thesis focuses on approximate inference in assumption-based argumentation frameworks. Argumentation provides a significant idea in the computerization of theoretical and practical reasoning in AI. And it has a close connection with AI, engaging in arguments to perform scientific reasoning. The fundamental approach in this field is abstract argumentation frameworks developed by Dung. Assumption-based argumentation can be regarded as an instance of abstract argumentation with structured arguments. When facing a large scale of data, a challenge of reasoning in assumption-based argumentation is how to construct arguments and resolve attacks over a given claim with minimal cost of computation and acceptable accuracy at the same time. This thesis proposes and investigates approximate methods that randomly select and construct samples of frameworks based on graphical dispute derivations to solve this problem. The presented approach aims to improve reasoning performance and get an acceptable trade-off between computational time and accuracy. The evaluation shows that for reasoning in assumption-based argumentation, in general, the running time is reduced with the cost of slightly low accuracy by randomly sampling and constructing inference rules for potential arguments over a query.
The largest population of the anadromous Allis shad (A. alosa) of the 19th century was found in River Rhine and has to be considered extinct today. To facilitate the return of A. alosa into River Rhine an EU LIFE-project was initiated in 2007. The overall objective of this thesis was to assist aquaculture and stocking-measures at River Rhine, as well as to support restoration and conservation of populations of Allis shad in Europe.
By culturing the free-swimming nematode T. aceti in a solution of cider vinegar we developed a cost-effective live food organism for the larviculture of fish. As indicated by experiments with C. maraena, T. aceti cannot be regarded as an alternative to Artemia nauplii. However it has to be considered a suitable supplemental feed in the early rearing of C. maraena by providing essential fatty acids, thereby optimizing growth.
Also mass-marking practices with Oxytetracycline, as they are applied in the restocking of Allis shad have been evaluated. In experiments with D. rerio we demonstrated that water hardness can detrimentally affect mortality during marking and has to be considered crucial in the development of marking protocols for freshwater fish.
In order to get independent from wild spawners an ex-situ Broodstock-facility for Allis shad was established in 2011. Upon examination of two complete year classes of this broodstock, we found a high prevalence of various malformations, which could be traced back to distinct cysts developing one month post hatch. Despite applying a variety of clinical tests we could not identify any infectious agents causing these malformations. The observed malformations are probably a consequence of suboptimal feeding practices or the properties of the physio-chemical rearing environment.
The decline of stocks of A. alosa in Europe has been largely explained with the increase of river temperatures as a consequence of global warming. By investigating the temperature physiology of larval Allis shad we demonstrated that A. alosa ranges among the most thermo-tolerant species in Europe and that correlations between rising temperatures and the disappearance of this species have to be understood in a synecological context and by integrating a variety of stressors other than temperature. By capturing and examining juvenile and adult Allis shad from River Rhine, we demonstrated the first natural reproduction of A. alosa in River Rhine since nearly 100 years and the success of stocking measures within the framework of the LIFE project.
Streams are coupled with their riparian area. Emerging insects from streams can be an important prey in the riparian area. Such aquatic subsidies can cause predators to switch prey or increase predator abundances. This can impact the whole terrestrial food web. Stressors associated with agricultural land use can alter insect communities in water and on land, resulting in complex response patterns of terrestrial predators that rely on prey from both systems.
This thesis comprises studies on the impact of aquatic nsects on a terrestrial model ecosystem (Objective 1, hapter 2), the influence of agricultural land use on riparian spiders’ traits and community (Objective 2, Chapter 3), and on the impact of agricultural land use on the contribution of different prey to spider diet (Objective 3, Chapter 4).
In chapter 2, I present a study where we conducted a mesocosm experiment to examine the effects of aquatic subsidies on a simplified terrestrial food web consisting of two types of herbivores (leafhoppers and weevils), plants and predators (spiders). I focused on the prey choice of the spiders by excluding predator immigration and reproduction. In accordance with predator switching, survival of leafhoppers increased in the presence of aquatic subsidies. By contrast, the presence of aquatic subsidies indirectly reduced weevils and herbivory.
In chapter 3, I present the results on the taxonomic and trait response of riparian spider communities to gradients of agricultural stressors and environmental variables, with a particular emphasis on pesticides. To capture spiders with different traits and survival strategies, we used multiple collection methods. Spider community composition was best explained by in-stream pesticide toxicity and shading of the stream bank, a proxy for the quality of the habitat. Species richness and the number of spider individuals, as well as community ballooning ability, were negatively associated with in-stream pesticide toxicity. In contrast, mean body size and shading preference of spider communities responded strongest to shading,
whereas mean niche width (habitat preference for moisture and shading) responded strongest to other environmental variables.
In chapter 4, I describe aquatic-terrestrial predator-prey relations with gradients of agricultural stressors and environmental variables. I sampled spiders, as well as their aquatic and terrestrial prey along streams with an assumed pesticide pollution gradient and determined their stable carbon and nitrogen signals. Potential aquatic prey biomass correlated positively with an increasing aquatic prey contribution of T. montana. The contribution of aquatic prey to the diet of P. amentata showed a positive relationship with increasing toxicity in streams.
Overall, this thesis contributes to the emerging discipline of cross-ecosystem ecology and shows that aquatic-terrestrial linkages and riparian food webs can be influenced by land use related stressors. Future manipulative field studies on aquatic-terrestrial linkages are required that consider the quality of prey organisms, fostering mechanistic understanding of such crossecosystem effects. Knowledge on these linkages is important to improve understanding of consequences of anthropogenic stressors and to prevent further losses of ecosystems and their biodiversity.
Augmented Reality ist eine neuartige, auf vielen Gebieten einsetzbare Technologie. Eines dieser Gebiete ist die Touristeninformation. Hier ermöglicht die AR dem Anwender eine schier endlose Fülle der verschiedensten Möglichkeiten. Mit Ihrer Hilfe kann der Benutzer nicht nur die Zeit bereisen, er kann auch Unsichtbares sehen. Doch stellt sich die Frage, ob die AR auch für weiterreichende Zwecke geeignet ist. Ist es möglich mit ihrer Hilfe Wissen nachhaltig zu vermitteln? Und wenn ja, wie kann dies geschehen? In althergebrachter Form von Texten und Bildern, oder auf interaktive und spielerische Weise? Was muß beachtet werden bei dem Versuch eine AR Anwendung für die Wissensübermittlung zu erstellen? Wie kann der Benutzer mit Ihr umgehen? Weiss der Benutzer später auch wirklich mehr? Die vorliegende Diplomarbeit geht diesen Fragen nach, indem sie zuerst der AR einen genaueren Blick widmet. Sie betrachtet die möglichen einsetzbaren Medien und gibt Vorschläge für interaktive Anwendungen, die mit Hilfe von AR ausgeführt werden. Zum Schluß untersucht sie anhand einer erstellten Beispielanwendung, ob der Benutzer mit Hilfe der AR etwas lernen und auch behalten kann.
Die Reputation von Unternehmen ist einer zunehmenden Gefahr ausgesetzt, die sich aus der (unreflektierten) Nutzung sozialer Netzwerke durch die eigenen Mitarbeiter ergibt. Die Treiber und Hemmnisse eines solchen Nutzerverhaltens von Arbeitnehmern in sozialen Netzwerken wurden bislang nur unzureichend erforscht. Der vorliegende Beitrag untersucht unter Verwendung der Boundary Theorie am Beispiel der Plattform Facebook, inwieweit die Persönlichkeitsmerkmale Neurotizismus und Extraversion, die Organisationsidentifikation und die Unternehmensreputation ein zustimmendes Verhalten von Nutzern begünstigen. Eine experimentelle Online-Studie mit 494 Probanden zeigt, dass insbesondere eine hohe Unternehmensreputation und Organisationsidentifikation zu einem erhöhten zustimmenden Verhalten führen.
Menschen wünschen sich im Allgemeinen "Kontrolle" über ihre Umweltbedingungen. Dieses Bedürfnis kommt in Form von Selbstgestaltungen von Architektur und Selbstregulierungen von Stressoren zum Ausdruck. Aus diesem Grund wird das Konzept der Umweltkontrolle als zentrales Kriterium für gebaute Umwelten in allen drei Fall-Studien zu Schule (Waldorfschule Köln), Hochschule (Universität Koblenz) und Bürogebäude (Post Tower Bonn) angewendet. Im deutschen Sprachraum werden damit erstmalig in einer Monographie psychologische Untersuchungen von innovativen Gebäuden in Anlehnung an die International Building Performance Evaluation (Gebäudeleistungsevaluation) beschrieben. Der "Koblenzer Architekturfragebogen" wird als Instrument zur Beurteilung von gebauten Umwelten in drei Varianten vorgestellt. Bis zu 21 psychologische Kriterien für den Erfolg von Organisationen werden pro Studie angewandt. Ziel aller drei Studien ist unter anderem, Empfehlungen für Verbesserungen von Um- und Neubauten benennen zu können. Zwei zentrale Fragestellungen lauten daher: Unterscheidet sich in einer User-Needs Analysis eine Einschätzung des Gebäudes "zur Zeit" von der Beurteilung der "Wichtigkeit in Zukunft"? Haben Merkmale der Architektur Auswirkungen auf die Performance-Kriterien? Zu den Studien wurden drei Abbildungssätze nach dem Facettenansatz und zwei Schemata zur Beurteilung der Qualität von Schul- und Bürogebäuden entwickelt. Die in den drei Studien ermittelten Zusammenhänge der zentralen Performance-Kriterien lassen begründet annehmen, dass durch gezielte Verbesserungen wichtiger Umweltaspekte, insbesondere solcher, die Umweltkontrolle ermöglichen, das Wohlbefinden und somit die Leistung von Nutzern positiv beeinflusst werden können.
In dieser Arbeit wird untersucht, ob man einen Hardwareprototyp für Adhoc Netze auf Basis von Arduino erstellen kann, der für die Gewässerüberwachung geeignet ist. Ziel der Prototypentwicklung ist einen Sensorknoten mit modularem Aufbau zu entwickeln, der die Möglichkeit bietet Komponenten leicht auszutauschen. Zusätzlich sind bei diesem Einsatzgebiet einige Anforderungen an den Sensorknoten gestellt, die erfüllt werden müssen. Diese Anforderungen leiten sich von dem Tmote Sky Sensorknoten ab, somit soll der hier neu erstellte Sensorknoten eine Alternative zu diesem darstellen und alle seine Funktionen erfüllen. Dazu werden in dieser Arbeit verschiede erhältliche Arduino Mikrokontroller Versionen auf ihre Tauglichkeit zu einem Sensorknoten überprüft. In der weiteren Arbeit wird der Aufbau der Prototypen dokumentiert. Hierbei werden die verwendete Hardware und ihre Kosten veranschaulicht. Der Folgende erstelle Prototyp ermöglicht es, durch leicht austauschbare Funkmodule, Daten über die drei Funkfrequenzen von 433 MHz, 866 MHz und 2,40 GHz zu verschicken. Zum Abschluss der Arbeit wird der Prototyp einem Experiment unterzogen, die seine Tauglichkeit zur Gewässerüberwachung auf die Probe stellen. Dazu wurden Messungen auf Boden und auf dem Wasser durchgeführt und ausgewertet. Am Ende konnte der Prototyp fast alle gestellten Anforderungen erfüllen, nur die Kosten waren etwas zu hoch.
Agricultural plastic covers made from polyethylene (PE) and polypropylene (PP) provide increased yields and an improved crop quality. However, such covers are suspected of partially breaking down into smaller debris and thereby contributing to soil pollution with microplastics. To scrutinize this, we randomly sampled 240 topsoil cores (0–5 cm) from eight fields which were covered with fleeces, perforated foils, and plastic mulches for less than 2 years. Samples from the field periphery (50 m perimeter) served as a reference. Visual plastic debris > 2 mm was analyzed by Fourier transform infrared spectroscopy. Smaller, soil-associated plastic debris was dispersed from 50 g of fine soil (≤ 2 mm) using sodium hexametaphosphate solution and density-separated with saturated NaCl solution. The collected PE, PP, and polystyrene (PS) debris was selectively dissolved in a mixture of 1,2,4-trichlorobenzene and p-xylene at 150 °C and quantified by pyrolysis–gas chromatography–mass spectrometry (Py-GC/MS). We counted six PE and PS fragments > 2 mm in two out of eight fields. By contrast, Py-GC/MS detected PE, PP, and PS contents in the fine soil of six fields (6 % of all samples). In three fields, PE levels of 3–35 mg kg−1 were potentially associated with the use of thinner and less durable perforated foils (40 µm thickness). This was slightly more pronounced at field edges where the plastic covers are turned and weighed down. By contrast, 50 µm thick PE films were not shown to emit any plastic debris. PP contents of 5–10 mg kg−1 were restricted to single observations in the field centers of three sites. At one site, we found expanded PS particles > 2 mm that concurred with elevated PS levels (8–19 mg kg−1) in the fine soil. Both PP and PS were distributed indistinctly across sites so that their source remained unresolved. In addition, the extent to which plastic contents of up to 7 mg kg−1 in the field periphery of some sites were attributed to wind drift from the covered fields or from external sources needs to be investigated in future studies. Our results suggest that the short-term use of thicker and more durable plastic covers should be preferred over thinner or perforated films to limit plastic emissions and accumulation in soil.
Eine Ursache des Insektenrückgangs ist die Abnahme der für Arthropoden wichtigen Lebensräume. Der kleinstrukturierte Obstanbau als Dauerkultur mit vielfältigen Strukturen (Bäume, Grünland, offener Boden) kann als Refugium wirken. Gerade Dauerkulturen, welche über viele Jahre bestehen bleiben, können einen großen ökologischen Wert für Insekten und Spinnentiere darstellen, wenn die negativen Einflüsse der Bewirtschaftung durch gezielte Maßnahmen minimiert werden. Im Gegensatz zu den gut untersuchten Streuobstwiesen liegen bisher nur wenige oder ungenaue Daten über die Arthropodenfauna in Erwerbsobstanlagen vor. Ziele dieser Arbeit sind eine genauere Erfassung der Arthropodenfauna in Erwerbsobstanlagen, Benennung der Einflussfaktoren und Erarbeitung einer indikatorgestützten Bewertungsmethode mit Entwicklung von Maßnahmen zur Förderung der Biodiversität. Es wurde eine intensive Erfassung der Insekten und Spinnentiere auf Basis von Individuenzahlen, Verteilung der Tiere auf Großgruppen, Artenzahlen der Käfer (inkl. Rote Liste) und Wanzen, deren Diversität und der sie beeinflussenden Faktoren auf vier Erwerbsobstflächen und einer Streuobstwiese als Referenzfläche in der Gemeinde Zornheim (Rheinland-Pfalz) untersucht. Mittels des erarbeiteten Bewertungsbogens wurden die Auswirkungen der fünf Faktorenkomplexe: Sonderstrukturen, Anlagenstruktur, Beschattung, Mahdregime und Einsatz von Pflanzenschutzmitteln auf die Arthropodenfauna erhoben und die auf der Fläche zu erwartende Biodiversität ermittelt. Die visuelle Darstellung der Einflussfaktoren mit Netzdiagrammen zeigt biodiversitätsbeeinträchtigende Faktoren und ermöglicht so Empfehlungen zur Aufwertung der Biodiversität. Die Bewertungsmethode kann nach Verifizierung im Rahmen von erfolgsorientierten Agrarumwelt- und Klimamaßnahmen (AUKM), zur Anerkennung von Kompensationsmaßnahmen (z.B. PIK) und zur Ermittlung des ökologischen Wertes (Ökosystemdienstleistung) von Obstanlagen genutzt werden. In modifizierter Form könnte es ebenfalls im Bereich der Flächenbewertung in Landschafts- und Bauleitplanung eingesetzt werden.
Intensivierung der Landwirtschaft führt weltweit zu einem fortschreitenden Verlust der biologischen Vielfalt in Agrarlandschaften. Die daraus resultierende Homogenität der Landschaft, die mit der Ausweitung von Monokulturflächen und dem Verlust naturnaher Lebensräume einhergeht, hat schwerwiegende Auswirkungen auf Arthropoden in Agrarlandschaften. Während Ackerflächen aufgrund intensiver und häufiger Störungen für viele Arten ungeeignete Habitate darstellen, können naturnahe Lebensräume in Agrarökosystemen als wichtige Rückzugsflächen fungieren. Die Erschaffung von naturnahen Lebensräumen durch Agrarumweltmaßnahmen in intensiven Agrarlandschaften, wie der Maifelder Agrarlandschaft in Westdeutschland, sollen den negativen Auswirkungen der landwirtschaftlichen Intensivierung entgegenwirken. Allerdings ist die Wirksamkeit dieser Maßnahmen für den Artenschutz noch umstritten. Aus diesem Grund wird in dieser Arbeit die Artenvielfalt der Käfer (Coleoptera) und Spinnen (Araneida) auf Weizenfeldern und verschiedenen naturnahen Lebensräumen (grasbewachsene Feldränder angrenzend an Weizen- und Rapsfelder; klein- und großflächige, mit Wildblumenmischungen eingesäte, Stilllegungsflächen; dauerhafte Grünlandbrachen) miteinander verglichen. Hierfür wurden die Arthropoden in den Jahren 2019 und 2020 mit Bodenfallen und Saugproben erfasst. Die vorliegenden Ergebnisse zeigen, dass die Landnutzung die Käfer- und Spinnendiversität im Untersuchungsgebiet beeinflusst, mit einer deutlich höheren Artenvielfalt auf den Grünlandbrachen als auf den Weizenfeldern. Überraschenderweise bestanden zwischen allen naturnahen Lebensräumen nur geringe Unterschiede, jedoch beherbergten sie unterschiedliche Artengemeinschaften. Hier unterschieden sich vor allem die Käfer- und Spinnengemeinschaften der großflächigen Grünlandbrachen deutlich von allen anderen untersuchten Landnutzungstypen. Insbesondere für Habitatspezialisten und gefährdete Arten stellten die Grünlandbrachen wichtige Lebensräume dar, wahrscheinlich aufgrund ihrer variablen Bodenfeuchtigkeit und komplexen Lebensraumstruktur. Im Gegensatz dazu wiesen Weizenfelder homogene Arthropodengemeinschaften mit einem geringeren Merkmalsreichtum auf und wurden von einigen wenigen räuberischen Arten dominiert, die sich an derartig intensive Lebensräume angepasst haben. Die Ergebnisse deuten darauf hin, dass sich alle Schutzmaßnahmen ergänzen, indem sie auf unterschiedliche Weise zur Förderung der Käfer und Spinnen auf landwirtschaftlichen Flächen beitragen können. Selbst kleinflächige naturnahe Lebensräume und bestehende Habitatgrenzen in einer landwirtschaftlichen Matrix scheinen wertvolle Lebensräume für Arthropoden in Agrarökosystemen darzustellen, indem sie zur Erhöhung der taxonomischen Vielfalt beitragen. Feldränder und kleine, mit Wildblumen eingesäte Flächen, können isolierte naturnahe Lebensräume miteinander verbinden und zu einer heterogenen Agrarlandschaft beitragen. Folglich führt eine Kombination verschiedener klein- und großflächiger Begrünungsmaßnahmen zu einer erhöhten Landschaftsheterogenität, die sich wiederum positiv auf die Käfer- und Spinnenvielfalt auswirkt. In Anbetracht des weltweit anhaltenden Verlustes der Artenvielfalt in Agrarlandschaften, sollten Agrarumweltmaßnahmen in Zukunft gefördert werden, da sie für den Arthropodenschutz in intensiven Agrarlandschaften, wie im Maifeld, besonders bedeutsam sind.
Die nächste Generation des World Wide Web, das Semantic Web, erlaubt Benutzern, Unmengen an Informationen über die Grenzen von Webseiten und Anwendungen hinaus zu veröffentlichen und auszutauschen. Die Prinzipien von Linked Data beschreiben Konventionen, um diese Informationen maschinenlesbar zu veröffentlichen. Obwohl es sich aktuell meist um Linked Open Data handelt, deren Verbreitung nicht beschränkt, sondern explizit erwünscht ist, existieren viele Anwendungsfälle, in denen der Zugriff auf Linked Data in Resource Description Framework (RDF) Repositories regelbar sein soll. Bisher existieren lediglich Ansätze für die Lösung dieser Problemstellung, weshalb die Veröffentlichung von vertraulichen Inhalten mittels Linked Data bisher nicht möglich war.
Aktuell können schützenswerte Informationen nur mit Hilfe eines externen Betreibers kontrolliert veröffentlicht werden. Dabei werden alle Daten auf dessen System abgelegt und verwaltet. Für einen wirksamen Schutz sind weitere Zugriffsrichtlinien, Authentifizierung von Nutzern sowie eine sichere Datenablage notwendig.
Beispiele für ein solches Szenario finden sich bei den sozialen Netzwerken wie Facebook oder StudiVZ. Die Authentifizierung aller Nutzer findet über eine zentrale Webseite statt. Anschließend kann beispielsweise über eine Administrationsseite der Zugriff auf Informationen für bestimmte Nutzergruppen definiert werden. Trotz der aufgezeigten Schutzmechanismen hat der Betreiber selbst immer Zugriff auf die Daten und Inhalte aller Nutzer.
Dieser Zustand ist nicht zufriedenstellend.
Die Idee des Semantic Webs stellt einen alternativen Ansatz zur Verfügung. Der Nutzer legt seine Daten an einer von ihm kontrollierten Stelle ab, beispielsweise auf seinem privaten Server. Im Gegensatz zum zuvor vorgestellten Szenario ist somit jeder Nutzer selbst für Kontrollmechanismen wie Authentifizierung und Zugriffsrichtlinien verantwortlich.
Innerhalb der vorliegenden Arbeit wird ein Framework konzeptioniert und entworfen, welches es mit Hilfe von Regeln erlaubt, den Zugriff auf RDF-Repositories zu beschränken. In Kapitel 2 werden zunächst die bereits existierenden Ansätze für die Zugriffssteuerung vertraulicher Daten im Sematic Web vorgestellt. Des Weiteren werden in Kapitel 3 grundlegende Mechanismen und Techniken erläutert, welche in dieser Arbeit Verwendung finden. In Kapitel 4 wird die Problemstellung konkretisiert und anhand eines Beispielszenarios analysiert.
Nachdem Anforderungen und Ansprüche erhoben sind, werden in Kapitel 6 verschiedene Lösungsansätze, eine erste Implementierung und ein Prototyp vorgestellt. Abschließend werden die Ergebnisse der Arbeit und die resultierenden Ausblicke in Kapitel 7 zusammengefasst.
Navigation is a natural way to explore and discover content in a digital environment. Hence, providers of online information systems such as Wikipedia---a free online encyclopedia---are interested in providing navigational support to their users. To this end, an essential task approached in this thesis is the analysis and modeling of navigational user behavior in information networks with the goal of paving the way for the improvement and maintenance of web-based systems. Using large-scale log data from Wikipedia, this thesis first studies information access by contrasting search and navigation as the two main information access paradigms on the Web. Second, this thesis validates and builds upon existing navigational hypotheses to introduce an adaptation of the well-known PageRank algorithm. This adaptation is an improvement of the standard PageRank random surfer navigation model that results in a more "reasonable surfer" by accounting for the visual position of links, the information network regions they lead to, and the textual similarity between the link source and target articles. Finally, using agent-based simulations, this thesis compares user models that have a different knowledge of the network topology in order to investigate the amount and type of network topological information needed for efficient navigation. An evaluation of agents' success on four different networks reveals that in order to navigate efficiently, users require only a small amount of high-quality knowledge of the network topology. Aside from the direct benefits to content ranking provided by the "reasonable surfer" version of PageRank, the empirical insights presented in this thesis may also have an impact on system design decisions and Wikipedia editor guidelines, i.e., for link placement and webpage layout.
Aspekt-Orientierung in PHP
(2012)
Diese Diplomarbeit hat das Thema der fehlenden Cross-Cutting-Concerns(CCCs)-Unterstützung in PHP zum Inhalt. Die Basis bilden zu definierende Anforderungen an eine AOP-Realisierung im PHP-Umfeld. Es wird analysiert, wie und ob verwandte Sprachen und Paradigmen es gestatten, CCCs zu unterstützen. Darüber hinaus wird die Möglichkeit erörtert, AOP in PHP ohne PHP-Erweiterung zu realisieren. Weiter werden die bisherigen Ansätze, AOP in PHP umzusetzen, qualitativ untersucht. Die vorliegende Arbeit zielt darauf ab, eine eigene AOP-PHP-Lösung zu präsentieren, die nicht die Schwächen existierender Lösungen teilt.
Assessing ChatGPT’s Performance in Analyzing Students’ Sentiments: A Case Study in Course Feedback
(2024)
The emergence of large language models (LLMs) like ChatGPT has impacted fields such as education, transforming natural language processing (NLP) tasks like sentiment analysis. Transformers form the foundation of LLMs, with BERT, XLNet, and GPT as key examples. ChatGPT, developed by OpenAI, is a state-of-the-art model and its ability in natural language tasks makes it a potential tool in sentiment analysis. This thesis reviews current sentiment analysis methods and examines ChatGPT’s ability to analyze sentiments across three labels (Negative, Neutral, Positive) and five labels (Very Negative, Negative, Neutral, Positive, Very Positive) on a dataset of student course reviews. Its performance is compared with fine tuned state-of-the-art models like BERT, XLNet, bart-large-mnli, and RoBERTa-large-mnli using quantitative metrics. With the help of 7 prompting techniques which are ways to instruct ChatGPT, this work also analyzed how well it understands complex linguistic nuances in the given texts using qualitative metrics. BERT and XLNet outperform ChatGPT mainly due to their bidirectional nature, which allows them to understand the full context of a sentence, not just left to right. This, combined with fine-tuning, helps them capture patterns and nuances better. ChatGPT, as a general purpose, open-domain model, processes text unidirectionally, which can limit its context understanding. Despite this, ChatGPT performed comparably to XLNet and BERT in three-label scenarios and outperformed others. Fine-tuned models excelled in five label cases. Moreover, it has shown impressive knowledge of the language. Chain-of-Thought (CoT) was the most effective technique for prompting with step by step instructions. ChatGPT showed promising performance in correctness, consistency, relevance, and robustness, except for detecting Irony. As education evolves with diverse learning environments, effective feedback analysis becomes increasingly valuable. Addressing ChatGPT’s limitations and leveraging its strengths could enhance personalized learning through better sentiment analysis.
Feldsäume gehören zu den letzten verbliebenen Lebensräumen für Wildpflanzenarten in der Agrarlandschaft. Aufgrund ihrer unmittelbaren Nähe zu den bewirtschafteten Flächen kann jedoch ihre Vegetation durch den Eintrag von Agrarchemikalien beeinträchtigt werden. Das Ziel dieser Arbeit war es die Einzel-, und Kombinationseffekte von Herbizid-, Insektizid- und Düngereinträgen auf die Pflanzengemeinschaft eines Feldsaums zu untersuchen. Es wurde ein 3-jähriges Freilandexperiment mit einem randomisierten Blockdesign, bestehend aus 7 Behandlungen (H: Herbizid, I: Insektizid, D: Dünger, H+I, D+I, D+H, D+H+I) und einer Kontrolle mit jeweils 8 Replikaten (= Parzellen), auf einer Wiese durchgeführt. Die Parzellen hatten je eine Größe von 8 m × 8 m und waren durch 2 m breite Wege voneinander getrennt. Die für die Behandlung der Parzellen verwendeten Dünger- (25 % der Feldrate) und Pestizidraten (30 % der Feldrate) entsprachen realistischen Eintragsraten (Überspritzung + Abdrift) in den ersten Meter eines Feldsaums in Nachbarschaft zu einem Getreidefeld.
Die Studie zeigte, dass Dünger- und Herbizideinträge wesentliche Faktoren darstellen, welche die natürliche Pflanzengemeinschaft in Feldsäumen beeinflussen. 20 der 26 häufigsten auf der Wiese vorkommenden Arten zeigten signifikante Effekte durch die Dünger- und Herbizidbehandlung. Die Düngung förderte stickstoffliebende Pflanzenarten und reduzierte das Vorkommen von kleinwüchsigen Arten. Durch das Herbizid wurden drei Pflanzenarten bereits im ersten Jahr fast vollkommen verdrängt, während andere Arten hauptsächlich subletale Effekte (z.B. phytotoxische Effekte, eine bis zu 100 % reduzierte Samenproduktion) vorwiesen. Werden Feldsäume allerdings über mehrere Jahre Agrarchemikalien ausgesetzt, führen auch diese subletalen Effekte (insbesondere Effekte auf die Reproduktion) zu einer Reduzierung der Populationsgröße, wie in dem Feldversuch beobachtet werden konnte. Die Kombinationsbehandlung von Dünger und Herbizid führte zu signifikanten Interaktionseffekten, welche sich nicht von den Effekten der Einzelbehandlungen extrapolieren ließen. Die Dünger- und Herbizideffekte intensivierten sich über den Untersuchungszeitraum, führten nach 3-jähriger Anwendung zu einer Veränderung in der Pflanzengemeinschaft, und reduzierten die Pflanzendiversität um 15 % im Vergleich zur Kontrolle. Das Insektizid wirkte sich signifikant auf das Vorkommen von zwei Pflanzenarten aus (1 positiver, 1 negativer Effekt). Die Ergebnisse des Feldversuchs lassen darauf schließen, dass eine fortführende Behandlung zu weiteren Gemeinschaftsveränderungen und wahrscheinlich auch zum Verschwinden bestimmter Pflanzenarten führen würde. Es war eine Tendenz zur Ausbildung von Gras-Dominanzbeständen zu erkennen, welche einen Verlust von Blütenpflanzen mit sich brachte. Dies konnte auch in eigenen Monitoringstudien in Feldsäumen beobachtet werden.
Zwar zielt die Risikobewertung von Herbiziden darauf ab Nichtziel-Pflanzen in Habitaten außerhalb des bewirtschafteten Feldes vor nachteiligen Auswirkungen zu schützen, Reproduktionseffekte und Kombinationseffekte werden bisher jedoch nicht berücksichtigt. Zudem gibt es keine Regelungen zur Düngeranwendung in Nachbarschaft zu Feldsäumen, weshalb Düngereinträge in Feldsäume und deren Interaktion mit Herbizideffekten sehr wahrscheinlich sind.
Anpassungen der derzeitigen Risikobewertung, eine Entwicklung von Risikominderungsstrategien für die Herbizid- und Düngerapplikation, sowie generelle Managementmaßnahmen für Feldsäume sind daher dringend notwendig, um die Pflanzendiversität in Feldsäumen zu erhöhen und zu schützen.
Etwa 50 % der Fläche Europas werden landwirtschaftlich genutzt. Dennoch gibt es nahezu keine Information ob Fledermäuse diese Flächen beispielsweise zur Nahrungsaufnahme nutzen. Aufgrund der limitierten Datenbasis mangelt es auch an Schutzkonzepten, die mögliche negative Effekte der landwirtschaftlichen Intensivierung auf die Fledermäuse und deren Nahrungsgrundlage ausgleichen könnten. Da die Exposition von Fledermäusen mit Pflanzenschutzmitteln bislang nicht thematisiert wurde, sind im europäischen Zulassungsverfahren für Pflanzenschutzmittel keine Risikoabschätzungen für Fledermäuse gefordert. Um für Fledermäuse die mögliche Exposition gegenüber Pflanzenschutzmitteln abschätzen zu können, sind Informationen über Vorkommen und Aktivität von Fledermäusen in landwirtschaftlich genutzten Flächen erforderlich. Die Erfassung von Fledermäusen auf einer Vielzahl von Flächen machte es notwendig sich im Vorfeld auf eine geeignete Methodik festzulegen. Die akustische Fledermauserfassung ist im Gegensatz zu deutlich zeitaufwändigeren Methoden wie Netzfang, Telemetrie oder direktes Beobachten die einzige logistisch durchführbare Methode. In der wissenschaftlichen Literatur werden jedoch bei vielen bisher durchgeführten akustischen Methoden Bedenken bezüglich der Berücksichtigung zeitlicher und räumlicher Varianz und der Eignung der verwendeten Detektorsysteme geäußert. Deshalb wurden verschiedene Methoden und Detektorsysteme verglichen und das parallele Beproben mit mehreren stationären und kalibrierten automatischen Aufnahmesystemen als die am besten geeignete Methode zur verlässlichen und vergleichbaren Fledermausaktivitäts-Erfassung befunden.
Mit dieser Methode wurden die Fledermaus-Diversitäten und Aktivitäten in verschiedenen landwirtschaftlichen Kulturen, Wiesen und Wäldern aufgenommen. Außerdem wurde gleichzeitig die Verfügbarkeit von fliegenden Insekten (potentieller Fledermausbeute) mit Licht- oder Klebefallen erfasst. In mehr als 500 Erfassungsnächten wurden circa 110,000 akustische Fledermaus-Rufsequenzen und nahezu 120,000 nachtaktive Insekten gesammelt. Insgesamt wurden 14 Fledermausarten nachgewiesen, darunter die im Gebiet sehr seltene und stark bedrohte Nordfledermaus (Eptesicus nilssonii) und die Mopsfledermaus (Barbastella barbastellum). Alle Arten wurden auch auf landwirtschaftlich genutzten Flächen detektiert.
Die Landwirtschaft im südlichen Rheinland-Pfalz ist durch Weinanbau geprägt. Die Untersuchungen zeigten, dass Weinberge aufgrund der geringen Verfügbarkeit an kleineren nachtaktiven Insekten für die meisten Fledermausarten nur eine geringe Qualität als Jagdgebiet haben. Ein weiterer paarweiser Vergleich von Weinbergen und benachbarten Regenrückhaltebecken bezüglich Nahrungsverfügbarkeit und Fledermausaktivität zeigte, dass Regenrückhaltebecken wichtige Nahrungshabitate im Weinbaugebiet darstellen. Das Anlegen dieser künstlichen Kleingewässer ist somit eine geeignete Methode um Nahrungshabitate für Fledermäuse zu schaffen und damit den negativen Effekten der konventionellen Landwirtschaft hinsichtlich der Nahrungsverfügbarkeit entgegenzuwirken. In anderen landwirtschaftlichen Kulturen wurden mit den parallel untersuchten Wald- und Wiesenhabitaten vergleichbar hohe Insektenvorkommen und Fledermausaktivitäten nachgewiesen. Besonders hohe Fledermausaktivitäten so wie eine besonders hohe Verfügbarkeit von geeigneten Nahrungstieren wurden in Apfelplantangen und Gemüsefeldern gemessen. Da diese beiden Kulturen hohem Pestizidaufwand unterliegen, kann eine Exposition von Fledermäusen gegenüber Pflanzenschutzmitteln dort nicht ausgeschlossen werden. Um das zurzeit verwendete Verfahren zur Risikoabschätzung von Pflanzenschutzmittel-anwendungen auf Vögel und Säuger auf Fledermäuse zu übertragen, wurden nach Applikation eines Insektizides dessen Rückstände auf Fledermaus-artspezifischen Beuteinsekten gemessen. Parallel dazu wurde die Fledermausaktivität erfasst. Die höchsten Pestizidrückstände wurden auf kronenbewohnenden Insekten und Spinnen nachgewiesen. Die darauf basierende Risikoabschätzung deutet auf ein Langzeitrisiko für alle Fledermausarten, die sich wenigstens zum Teil von kronenbewohnenden Arthropoden ernähren, hin. Das Vorkommen von Fledermäusen in landwirtschaftlichen Flächen, die einen Großteil der europäischen, aber auch der weltweiten Fläche ausmachen, führt je nach Kultur zur Exposition von Fledermäusen durch kontaminierte Nahrung oder zu einer Verringerung von Beuteinsekten. Bisher konzentrierten sich Schutzbemühungen auf die Sicherung von Winterquartieren und die Bereitstellung künstlicher Tagesquartiere. Potentielle Effekte von Pflanzenschutzmitteln auf Agrarflächen haben aber möglicherweise einen entscheidenden Einfluss auf die Populationsgrößen von Fledermausarten die in diesen Gebieten vorkommen. Aus diesem Grund sollten die Effekte von Pflanzenschutzmitteln auf Fledermäuse untersucht werden, insbesondere bei der Risikoabschätzung im Pflanzenschutzmittel-Zulassungsverfahren.
Agricultural pesticides, especially insecticides, are an integral part of modern farming. However, these may often leave their target ecosystems and cause adverse effects in non- target, especially freshwater ecosystems, leading to their deterioration. In this thesis, the focus will be on Insect Growth Regulators (IGRs) that can in many ways cause disruption of the endocrine system of invertebrates. Freshwater invertebrates play important ecological, economic and medical roles, and disruption of their endocrine systems may be crucial, considering the important role hormones play in the developmental and reproductive processes in organisms. Although Endocrine Disruption Chemicals (EDCs) can affect moulting, behaviour, morphology, sexual maturity, time to first brood, egg development time, brood size (fecundity), and sex determination in invertebrates, there is currently no agreement upon how to characterize and assess endocrine disruption (ED). Current traditional ecotoxicity tests for Ecological Risk Assessment (ERA) show limitations on generating data at the population level that may be relevant for the assessment of EDCs, which effects may be sublethal, latent and persist for several generations of species (transgenerational).
It is therefore the primary objective of this thesis to use a test method to investigate adverse effects of EDCs on endpoints concerning development and reproduction in freshwater invertebrates. The full life-cycle test over two generations that includes all sensitive life stages of C. riparius (a sexual reproductive organism) allows an assessment of its reproduction and should be suitable for the investigation of long-term toxicity of EDCs in freshwater invertebrates. C. riparius is appropriate for this purpose because of its short life cycle that enables the assessment of functional endpoints of the organism over several generations. Moreover, the chironomid life cycle consists of a complete metamorphosis controlled by a well-known endocrine mechanism and the endocrine system of insects has been most investigated in great detail among invertebrates. Hence, the full life-cycle test with C. riparius provides an approach to assess functional endpoints (e.g. reproduction, sex ratio) that are population-relevant as a useful amendment to the ERA of EDCs. In the laboratory, C. riparius was exposed to environmentally-relevant concentrations of the selected IGRs in either spiked water or spiked sediment scenario over two subsequent generations.
The results reported in this thesis revealed significant effects of the IGRs on the development and the reproduction of C. riparius with the second (F1) generation showing greater sensitivity. These findings indicated for the first time the suitability of multigenerational testing for various groups of EDCs and strongly suggested considering the full life-cycle of C. riparius as an appropriate test method for a better assessment of EDCs in the freshwater environment. In conclusion, this thesis helps to detect additional information that can be extrapolated at population level and, thus, might contribute to better protection of freshwater ecosystems against the risks of Endocrine Disrupting Chemicals (EDCs.) It may furthermore contribute to changes in the ERA process that are necessary for a real implementation of the new European chemical legislation, REACH (Registration, Evaluation Authorization and Restriction of Chemicals). Finally, significant interactions between temperature, chemical exposure and generation were reported for the first time and, may help predict impacts that may occur in the future, in the field, under predicted climate change scenarios.
Assessment of renewable energy potentials based on GIS. A case study in southwest region of Russia
(2018)
In the present thesis, the initial conditions for the development of RES potentials for the production of wind, solar and biomass energy in the Krasnodar region (southwestern region of the Russian Federation) are examined using a multi-criteria assessment methodology. For the assessment of the RES potentials at regional scale, the prosed multi-criteria methodology based on the geographic information systems (GIS) and has been complemented by the evaluation and analysis of primary and secondary data as well as economic calculations relevant related to economic feasibility of RES projects.
In einem Großteil der Welt wird Grundwasser für die Versorgung von Siedlungen und Agrarflächen genutzt. Organismen, die im Grundwasser leben, erfüllen wichtige Funktionen im Ökosystem und haben positiven Einfluss auf die Grundwasserqualität. Um das Risiko negativer Effekte auf diese wertvollen Ökosysteme zu minimieren muss die entsprechende Sanierungsmethode, im Falle einer Grundwasserbehandlung, mit Vorsicht gewählt werden. In der vorliegenden Thesis wurde das Umweltrisiko von Carbo-Iron untersucht, ein Komposit aus nanoskaligem null-valentem Eisen und Aktivkohle zur in situ-Behandlung von Grundwasser. Des Weiteren wurde eine umfassende Beurteilung des Umweltrisikos und des Nutzens einer Grundwasserbehandlung mit Carbo-Iron durchgeführt.
Zu Beginn der Arbeit an der vorliegenden Thesis existierten noch keine Empfehlungen für Untersuchung der Ökotoxizität von Nanomaterialien. Daher bestanden viele Unsicherheiten hinsichtlich geeigneter Methoden. Im Rahmen dieser Thesis wurde eine Entscheidungshilfe entwickelt, um bei der ökotoxikologischen Untersuchung von Nanomaterialien systematisch geeignete methodische Schritte auszuwählen.
Mögliche Effekte von Carbo-Iron wurden in Tests mit embryonalen, juvenilen und adulten Lebensstadien des Zebrabärblings (Danio rerio) und juvenilen und adulten Amphipoden (Hyalella azteca) untersucht. Die gewählten Testsysteme basierten auf existierenden Testmethoden der OECD und EPA zur ökotoxikologischen Untersuchung von Chemikalien (OECD, 1992a, 2013a, 2013b; US EPA, 2000). Zusätzlich wurde die Aufnahme der Partikel in die genannten Testorganismen untersucht. In Zebrabärblingsembryonen wurden außerdem potentielle Effekte auf die Genexpression mittels Microarrays ermittelt. Die erhaltenen Daten wurden später mit Ergebnissen aus Tests mit dem Wasserfloh Daphnia magna, der Alge Scenedesmus vacuolatus, Larven der Mücke Chironomus riparius und nitrifizierenden Bodenmikroorganismen ergänzt.
In dem Fischembryotoxizitätstest wurde keine Passage der Carbo-Iron-Partikel durch das Chorion in den perivitellinen Raum oder den Embryo beobachtet. Nach der Exposition wurde Carbo-Iron im Darm von H. azteca und D. rerio, aber keinem anderen Gewebe oder Organen detektiert. Carbo-Iron hatte keine signifikanten Effekte auf die Nitrifikationsrate der Bodenmikroorganismen sowie Überleben und Wachstum des Zebrabärblings. Dennoch wurden signifikant negative Effekte auf Wachstum, Fütterungsrate und Reproduktion von H. azteca und auf das Überleben und die Reproduktion von D. magna festgestellt. Des Weiteren war die Entwicklungsrate von C. riparius und das Zellvolumen von S. vacuolatus negativ beeinflusst.
Anhand der durchgeführten Studien wurde basierend auf dem Ergebnis des Reproduktionstests mit D. magna und einem assessment factor von 10 für Carbo-Iron eine predicted no effect concentration von 0,1 mg/L ermittelt. Diese wurde mit modellierten und gemessenen Umweltkonzentrationen von Carbo-Iron verglichen die in einer Studie erhoben wurden, in denen Carbo-Iron zur Behandlung eines mit Chlorkohlenwasserstoffen kontaminierten Aquifers eingesetzt wurde, und Risiko-Quotienten wurden abgeleitet. Zur gesamtheitlichen Betrachtung wurde anschließend ein Schema zur Bewertung des Umweltrisikos vor und nach der Behandlung des Aquifers mit Carbo-Iron entwickelt. Die erhobenen Daten weisen auf ein reduziertes Umweltrisiko nach der Applikation von Carbo-Iron hin. Dementsprechend überwiegen die Vorteile einer Grundwasserbehandlung mit Carbo-Iron die potentiellen negativen Effekte auf die Umwelt.
Globale Beleuchtungssimulationen versuchen die physikalischen Eigenschaften von Licht und dessen Ausbreitung möglichst korrekt zu berechnen. Dabei werden diese üblicherweise im dreidimensionalen Objektraum berechnet und sind deshalb sehr rechenintensiv und von der Anzahl der Polygone der Szene abhängig. Objektraum-basierte Verfahren ermöglichen durch komlexe Berechnungen allerdings auch gute Annährungen physikalisch korrekter Beleuchtungen. Die Beleuchtungsberechnung in den Bildraum zu verlagern hat aber den großen Vorteil, dass die Berechnung hier unabhängig von der Größe und Komplexität der Szene durchführbar ist. Einzig die Auflösung entscheidet über den Rechenaufwand. Dieser Geschwindigkeitsvorteil beinhaltet jedoch einen Kompromiss was die physikalische Korrektheit der Beleuchtungssimulation angeht. Bei bisherigen Bildraum-Verfahren war es nicht möglich, für die Kamera nicht sichtbare Teile der Szene und deren Beleuchtungsinformationen, in die Berechnung mit einzubeziehen. Dies erscheint logisch, da über Geometrie die aus Sicht der Kamera nicht eingefangen wurde, im Bildraum zunächst keinerlei Informationen zur Verfügung stehen. Ein bekanntes Beispiel zur Annährung einer globalen Beleuchtung im Bildraum ist das Verfahren "Screen Space Ambient Occlusion". Dieses liefert zwar sehr gut Selbstverschattungen und wirkt dadurch realitätsnah, erzeugt aber keinen korrekten Lichtaustausch. Da die Beleuchtung von dem Inhalt des aktuellen Bildausschnitts abhängig ist, entstehen visuelle Artefakte, die vor allem bei Kamerabewegungen störend auffallen. Ziel der Studienarbeit ist es daher diese Artefakte durch die Verwendungen von Textur-Atlanten zu vermeiden. Dies wird durch eine Bildraum-basierte Beleuchtungssimulation ermöglicht, die die gesamte Szene zur Berechnung der Beleuchtung miteinbezieht und nicht nur die Sicht der Kamera. Dabei wird in einem Textur-Atlas die gesamte Szene gespeichert.
Die Arbeit befasst sich mit atlasbasierter Segmentierung von CT-Datensätzen mit Hilfe von elastischen Registrierungsmethoden. Ziel ist die vollautomatische Segmentierung eines beliebigen Eingabedatensatzes durch Registrierung mit einem vorsegmentierten Referenzdatensatz, dem Atlanten. Ein besonderes Augenmerk liegt dabei auf der Implementierung und Evaluation elastischer Registrierungsverfahren, da rigide Registrierungsmethoden besonders in Bereichen hoher anatomischer Varianzen keine genaue Segmentierung gewährleisten. Im Vordergrund steht zunächst die Generierung zweier Atlanten, die als durchschnittliche Referenzdatensätze Informationen über die anatomische Varianz männlicher und weiblicher Bevölkerungsgruppen enthalten. Weiter werden vier etablierte elastische Registrierungsarten implementiert und im Hinblick auf eine atlasbasierte Segmentierung der wichtigen Organe des menschlichen Torsos evaluiert: BSpline-Registrierung, Demons-Registrierung, Level-Set-Motion-Registrierung und FEM-Registrierung. Robustheit und Genauigkeit der implementierten Verfahren wurden anhand von Lungen- und Abdomendatensätzen sowohl intra- als auch interpatientenspezifisch ausgewertet. Es wird gezeigt, dass vor allem die elastische BSpline-Registrierung hier genauere Segmentierungsergebnisse liefern kann, als es mit einer rigiden Registrierung möglich ist.
Ein grundlegendes Verständnis der Anlagerung von künstlich hergestellten Nanopartikeln ist für die Prognose des Schicksals und Transports von Nanopartikeln in der Umwelt unerlässlich.
In dieser Arbeit wurde die Anlagerung von unbedeckten und mit Citrat bedeckten Silbernanopartikeln an unterschiedliche Modell- und Umweltoberflächen in An- und Abwesenheit der Huminsäure untersucht.
Für diese Untersuchungen wurden Sorptionsexperimente durchgeführt. Das Ziel dieser Arbeit ist es zu untersuchen, wie die Silbernanopartikel mit Oberflächen wechselwirken, die verschiedene chemische funktionelle Gruppen besitzen. Dabei wurde ebenfalls der Effekt der Huminsäure auf die Wechselwirkungen zwischen Partikel und Oberfläche untersucht. Die Wechselwirkungen zwischen Nanopartikel und Oberfläche sind in Abwesenheit der Huminsäure wahrscheinlich durch die chemische Natur der wechselwirkenden Oberflächen beeinflusst. In Anwesenheit der Huminsäure wurde diese chemische Sensitivität gegen Anlagerung von Nanopartikeln nicht beobachtet und die Sorption war durch die spezifische Oberfläche von Sorbentien beeinflusst. Die Sorptionsisothermen wurden für die Sorption von Silbernanopartikeln an allen Oberflächen in Abwesenheit der Huminsäure durch Langmuir-Modell beschrieben. Das deutete auf Monoschicht-Sorption der Nanopartikel an Oberflächen hin. Das kann durch den bei der Partikel-Partikel-Abstoßung generierten blockierenden Effekt erklärt werden. In Anwesenheit der Huminsäure zeigten alle Sorptionsisothermen ein lineares Verhalten. Wenn die Huminsäure im Wechselwirkungsmedium vorhanden war, waren die Nanopartikel und Oberflächen mit Huminsäure bedeckt. Dadurch wird die chemische Funktionalität von Oberflächen maskiert. Das führt zu den Unterschieden zwischen Partikel-Oberfläche-Wechselwirkungen in An- und Abwesenheit der Huminsäure. Die mit Citrat und Huminsäure bedeckten Silbernanopartikel zeigten eine Abnahme der Sorption an Oberflächen im Vergleich zu unbedeckten Silbernanopartikeln. Im Falle der mit Citrat bedeckten Silbernanopartikel kann die Abnahme der Sorption durch elektrostatische Kräfte erklärt werden, da diese Partikel ein mehr negatives Zetapotential zeigten. Die Sorptionsabnahme für die mit Huminsäure bedeckten Nanopartikel ist offensichtlich eine Folge der sterischen Behinderung, da es auf Grund der Sorption der Huminsäure an Oberflächen zur Konkurrenz zwischen Nanopartikeln und Huminsäuremolekülen für die Sorptionsplätze kommt. Durch die chemischen Eigenschaften der Nanopartikeloberfläche wird die Effizienz der Anlagerung an Oberflächen beeinflusst. Deswegen ist die Charakterisierung der Nanopartikeloberfläche ein wichtiger Schritt bei der Untersuchung des Schicksals von Nanopartikeln in der Umwelt.
Ein anderes Ziel dieser Arbeit ist es das Potential der chemischen Kraftmikroskopie für die Charakterisierung von Nanopartikeloberflächen mit chemischer Sensitivität zu zeigen. Durch die Anwendung dieser Methode war es möglich zwischen unbedeckten, mit Citrat und Huminsäure bedeckten Silbernanopartikeln zu unterscheiden. Das wurde durch die Messung der Adhäsionskräfte zwischen Nanopartikeln und fünf verschiedenen Atomkraftmikroskope-Spitzen mit unterschiedlichen chemischen Funktionalisierungen ermöglicht.
Diese Arbeit betrachtet die Online-Aufmerksamkeit gegenüber Forschern und deren Forschungsthemen. Die enthaltenen Studien vergleichen die Aufmerksamkeitsdynamiken gegenüber Gewinnern wichtiger Forschungspreise mit Forschern die keinen Preis erhalten haben. Web-Signale wie Wikipedia Seitenaufrufe, Editierungen von Wikipedia-Artikeln und Google Trends wurden als Proxy für Online-Aufmerksamkeit verwendet. Dabei wurde herausgefunden, dass Wikipedia-Artikel über die Forschungsthemen von Gewinnern zeitnahe zum Artikel über den Gewinner erstellt wurden. Eine mögliche Erklärung hierfür könnte sein, dass die Forschungsthemen in einer engeren Beziehung zu den Gewinnern stehen. Dies würde die These unterstützen, dass Gewinner ihr Forschungsgebiet eingeführt haben. Zusätzlich wuchs die Online-Aufmerksamkeit gegenüber den Forschungsthemen von Gewinnern nach dem Tag an dem der Artikel über den Forscher erstellt wurde. Daraus kann abgeleitet werden, dass Themen von Gewinnern beliebter sind als die Themen von Forschern die keinen Preis erhalten haben. Des Weiteren wurde gezeigt, dass Gewinner des Nobelpreises vor der Verkündung weniger Online-Aufmerksamkeit erhalten als die Liste von Nominierten basierend auf den Thomson Reuters Citation Laureates. Ferner sank die Beliebtheit gegenüber der Preisträger schneller als gegenüber Forschern die keinen Preis erhalten haben. Zuletzt wurde demonstriert, dass eine Vorhersage der Gewinner basierend auf Aufmerksamkeitsdynamiken gegenüber Forschern problematisch ist.
Auditorischer Neglekt und auditorische Extinktion bei Patienten mit visuell-räumlichem Neglekt
(2008)
In der vorliegenden Arbeit wurden auditorische Vernachlässigungen (auditorische Extinktion und auditorischer Neglekt) bei Patienten mit visuell-räumlichem Neglekt untersucht. Neben diesen Patienten mit rechtshemisphärischer Hirnschädigung wurde eine hinsichtlich des Alters kontrollierte Vergleichsgruppe untersucht. Als Verfahren zur Untersuchung des auditorischen Neglekts und der auditorischen Extinktion wurden drei aus der Literatur adaptierte experimentelle Verfahren eingesetzt, in denen sowohl alltagsnahe (Zahlenwörter, Alltagsgeräusche) als auch alltagsferne (Rauschen) akustische Reize monaural und binaural präsentiert wurden. In einem der Verfahren wurde ein monaural und binaural präsentiertes Rauschen durch den Stimulus unterbrochen. Über alle Untersuchungsbedingungen hinweg wiesen die Patienten im Vergleich zu der Kontrollgruppe in den untersuchten Bereichen deutlich schlechtere Leistungen auf. Unter monauralen Untersuchungsbedingungen machten die Patienten unabhängig vom präsentierten Stimulusmaterial wenig Fehler mit einer tendenziellen Abhängigkeit der Performanz von der Präsentationsseite, wobei rechtsseitig präsentierte Reize besser erkannt wurden. Monaurale Reizdetektion bei gleichzeitiger Präsenz eines kontinuierlichen Hintergrundgeräusches führt darüber hinaus zu einer deutlich schlechteren kontraläsionalen Detektionsleistung sowie zu einer Abhängigkeit der Detektionsleistung von der Art des Stimulusmaterials. Diese Ergebnisse liefern einen Hinweis auf eine grundsätzliche Beeinträchtigung der kontraläsionalen Diskriminationsfähigkeit in der untersuchten Patientengruppe, welche in der vorliegenden Studie als kritisches Merkmal des auditorischen Neglekts angesehen werden. Bei der binauralen Stimuluspräsentation zeigte sich, dass identische, simultan an beiden Ohren präsentierte akustische Reize von den Patienten kaum ihren getrennten Ursprungsorten zugeschrieben werden können. Die Patienten identifizierten diese Reize häufig als monaural, was charakteristisch für das Störungsbild der Extinktion ist, und zeigten eine Tendenz, diese Reize dem rechten, auf der Seite der Hirnschädigung gelegenen, Ohr zuzuschreiben. Unter dichotischen Präsentationsbedingungen, das heißt bei simultaner Darbietung von zwei ungleichen akustischen Reizen, steigert sich dagegen die Lokalisations- und Identifikationsleistung der Patienten signifikant. Zusätzlich zeigte sich unter dichotischen Untersuchungsbedingungen eine deutliche Asymmetrie der Extinktionsseite, mit einer signifikant häufigeren Extinktion linksseitiger im Vergleich zu rechtsseitigen Reizen. Insgesamt zeigt sich eine Abhängigkeit der Testergebnisse von den spezifischen Bedingungen der Reizpräsentation und dem Alltagsrelevanz des Stimulusmaterials. Die Ergebnisse zeigen, dass nahezu alle untersuchten Patienten mit visuell-räumlichem Neglekt auch von Vernachlässigungsphänomenen in der auditorischen Modalität betroffen sind. Allerdings konnte kein genereller Zusammenhang der Schweregrade der Symptome in der auditorischen und visuellen Modalität nachgewiesen werden. Während sich ein Zusammenhang hinsichtlich der Schwere der Beeinträchtigung für den auditorischen Neglekt zeigte, ließ sich diese Assoziation für die auditorische Extinktion nicht nachweisen. Auf Grundlage der vergleichenden Analyse der untersuchten experimentellen Testverfahren zur auditorischen Vernachlässigung wird vorgeschlagen, dass Neglekt und Extinktion auch in der auditorischen Domäne als sinnvolle Störungsbilder beibehalten sollten und ihre Unterscheidung in Analogie zur visuellen Modalität vorgenommen werden kann. Die vorliegenden Ergebnisse unterstreichen die Notwendigkeit des Einsatzes experimentell-neuropsychologischer Aufgaben in der klinischen Praxis um räumlichattentionale Beeinträchtigungen in der akustischen Reizverarbeitung nach einer Hirnschädigung erfassen zu können. Es wird eine Testbatterie bestehend aus einem auditorischen Extinktionstest " mit simultaner Darbietung von identischen und unterschiedlichen binauralen Stimuli " sowie einem Neglekttest vorgeschlagen, bei dem unterschiedliche Zielreize in der Gegenwart eines kontinuierlichen binauralen Hintergrundrauschens detektiert werden müssen.
Ziel dieser Diplomarbeit ist es, katadioptrische Stereosysteme aufzubauen und zu testen. Hierfür gilt es, die Komponenten auszuwählen und zu beschaffen. Es soll ein System mit einem Planspiegel und eines mit einem gekrümmten Spiegel aufgebaut werden. Die Vorgehensweise in beiden Fällen unterscheidet sich jedoch deutlich voneinander. Das Planspiegel-System wird unter den Vorraussetzungen angefertigt, dass es möglichst kostengünstig ist und bietet sich vor allem deshalb für eine solches Vorgehen an, da es mit handelsüblichen Komponenten realisierbar ist. Die Verwendung dieser Komponenten bringt allerdings Einschränkungen in der Bildqualität mit sich. Hinzu kommt noch die Tatsache, dass es sich um eine Computational Camera mit geringer Komplexität handelt, da es direkt rektifizierte Ergebnisse liefert und aufgrund dessen leicht zu implementieren ist. Diese Kombination von Eigenschaften macht es zu einem geeigneten Kandidaten für eine solche Herangehensweise. Das radiale System wird hingegen unter der Prämisse maximaler Qualität gebaut. Der verwendete Spiegel ist eine Einzelanfertigung und zusätzlich wird ein zirkuläres Fisheye-Objektiv benötigt, was die Kosten für ein solches System relativ hoch werden lässt. Des Weiteren ist die Dekodierung der Rohaufnahmen deutlich komplexer, als bei den bereits rektifizierten Aufnahmen des Planspiegel-Systems. Nach erfolgreichem Aufbau der beiden Gesamtsysteme sollen diese unter qualitativen Aspekten miteinander verglichen werden.
Ein Kinect-Sensor verfügt über die Fähigkeit, gleichzeitig Farb- und Tiefenbilder aufzunehmen. In dieser Bachelorarbeit wird versucht, das Tiefenbild zu nutzen, um Beleuchtungsinformationen und Materialeigenschaften im Farbbild zu manipulieren. Die vorgestellten Verfahren zur Beleuchtungs- und Materialmanipulation benötigen eine Lichtsimulation der Lichtverhältnisse zum Zeitpunkt der Aufnahme und übertragen dann Informationen aus einer neuen Lichtsimulation direkt zurück in das Farbbild. Da die Simulationen auf einem dreidimensionalen Modell durchgeführt werden, wird nach einem Weg gesucht, ein solches aus einem einzigen Tiefenbild zu erzeugen. Dabei wird auf Probleme der Tiefendatenerfassung des Kinect-Sensors eingegangen. Es wird ein Editor entwickelt, mit dem Beleuchtungsund Materialmanipulationen möglich gemacht werden sollen. Zum Erzeugen einer Lichtsimulation werden einfache, echtzeitfähige Renderingverfahren und Beleuchtungsmodelle vorgestellt. Mit ihnen werden neue Beleuchtungssituationen, Schatten und Spiegelungen in das Farbbild eingefügt. Einfache Umgebungen mit definierten Lichtverhältnissen werden in Experimenten manipuliert, um Grenzen und Möglichkeiten des Sensors und der verwendeten Verfahren aufzuzeigen.
Diese Bachelorarbeit befasst sich mit der Entwicklung einer Anwendung für die HoloLens von Microsoft. Die Anwendung dient der Vermarktung von Werbeflächen der Firma awk AUSSSENWERBUNG GmbH. Anhand der Entwicklung wird die Frage beantwortet, welches die Möglichkeiten und Grenzen der HoloLens in Verbindung mit der Mixed Reality Platform sind. Dabei wird auch auf die Probleme eingegangen, welche bei der Ent- wicklung einer Anwendung für eine neue Technologie, wie die HoloLens auftreten. Neben der neuen Technologie, ergeben sich auch durch den Ein- satzort der Anwendung weitere Herausforderungen. Diverse Anwendungs- beispiele und Präsentationen lassen vermuten, dass die HoloLens primär für Anwendungen innerhalb von Räumen ausgelegt ist. Die zu entwickeln- de Anwendung ist dagegen für die Verwendung außerhalb geschlossener Räume konzipiert. Bei der Entwicklung konnten Erkenntnisse über die- se neue Technologie gewonnen werden. Zum einen wurde deutlich, dass sowohl die HoloLens, als auch die Entwicklungsumgebung noch an eini- gen Stellen verbessert werden können. Zum anderen, dass die HoloLens nicht für den Einsatz im Freien geeignet ist. Trotz der Schwierigkeiten bei der Entwicklung konnten auch die vielen Möglichkeiten der HoloLens be- leuchtet werden.
Ziel dieser Studienarbeit ist es, eine vorhandene video-see-through Augmented Reality Visualisierung (ARToolKit) anhand von Shaderprogrammierung mit der OpenGL Shading Language um nicht-photorealistische Renderingverfahren zu ergänzen. Dabei sollen nicht nur die virtuellen Objekte mit diesen Verfahren dargestellt, sondern auch die realen vom ARSystem gelieferten Bilder analog stilisiert werden, sodass die Unterscheidbarkeit zwischen Realität und Virtualität abnimmt.
Diese Studienarbeit beschäftigt sich mit der Entwicklung einer Extension für Mozilla Thunderbird, welche direkt in den Text einer Email eingebettete strukturierte Informationen (wie z.B. Termine, Kontaktdaten) automatisch erkennt und es dem Benutzer ermöglicht, diese in weiteren Anwendungen weiter zu verwenden. Es werden Überlegungen zur Usability und möglichen weiteren Entwicklungen vorgestellt, sowie der Code des Prototyp genauer aufgezeigt.
Auf eine bestehende Erhebung der Gesellschaft für Qualität in der Außerklinischen Geburtshilfe QUAG e.V. wurden moderne statistische Verfahren, insbesondere Faktorenanalyse und Mann-Whitney-U-Test angewendet. Es wurden hierzu die von den Hebammen ausgefüllten Perinatalbögen von 17269 Erstgebärenden aus dem Zeitraum 1999 bis 2004 ausgewertet. Der Mann-Whitney-U-Test wurde für die metrischen Variablen "Alter bei Geburt" und Hebammen-Erstkontakt angewendet. Unter anderem konnte gezeigt werden, dass Frauen mit besonderen sozialen Belastungen erst spät den Kontakt zur Hebamme suchen. Die Faktorenanalyse ergab sehr gut bekannte, aber auch neue Zusammenhänge, was auf die Stärke dieses Verfahrens schließen lässt. Eine kurze geburtshilfliche und/oder medizinische Erklärung wurde, sofern möglich, erstellt und recherchiert. Es ist jedoch weitere Erforschung und medizinische Beurteilung der Einzelergebnisse notwendig.
Auswirkung der Einführung eines Mindestlohns auf den Arbeitsmarkt, anhand eines Simulationsmodells
(2012)
Die Diskussion zum Thema Mindestlohn ist ein stets aktuelles und findet zur Jahreswende 2011/2012, in der diese Arbeit entstanden ist, von der Politik und Wirtschaft besonders viel Aufmerksamkeit. Die Aktualität dieses Themas und ihre Dynamik werden besonders darin bemerkbar, dass bei der Untersuchung der deutschen Literatur zu diesem Thema viele der Aussagen und Thesen nicht mehr zutreffen. Das eingangs aufgeführte Zitat von der amtierenden Bundesministerin für Arbeit und Soziales, Ursula von der Leyen, bringt zum Ausdruck, dass mittlerweile in der Politik ein Konsens darüber existiert, dass vollzeitbeschäftigte Arbeitnehmer in der Lage sein müssen, ihren Lebensunterhalt aus ihrem Einkommen zu sichern. Dies stellt für die christlich-demokratische Regierungspartei einen Dogmenwechsel dar. Während die CDU in den letzten Jahrzehnten auf die Tarifbindung gesetzt und einen Mindestlohn kategorisch abgelehnt hat, geht sie nun dazu über, Lohnuntergrenzen für alle Branchen zum Ziel ihrer Regierungsarbeit zu machen. Dies ist in starkem Maße darauf zurückzuführen, dass auf dem Arbeitsmarkt in den letzten Jahren die Lohnspreizung, die traditionell in Deutschland niedrig war, eine stark divergente Entwicklung genommen hat.
Ein weiterer Grund ist die abnehmende Rolle der Tarifbindung der letzten Jahre. Die Folge dieser Entwicklungen ist, dass 1,2 Millionen Menschen, somit vier Prozent der Beschäftigten, für Löhne unter fünf Euro. Weitere 2,2 Millionen Menschen arbeiten für Stundenlöhne unter sechs Euro, 3,7 Millionen Menschen verdienen unter sieben Euro und 5,1 Millionen Menschen arbeiten für Löhne unter acht Die Frage inwieweit ein Leben in Würde unter diesen Voraussetzungen möglich ist, beschäftigt große Teile der Gesellschaft. Denn damit sind das Volumen und die Lohnhöhe des Niedriglohnsektors auf ein Niveau gesunken, welche gesellschaftlich und politisch nicht mehr einfach zu vertreten sind. Zur Abwendung dieser Entwicklung wird das wirtschaftspolitische Instrument Mindestlohn, als probates Mittel, häufig in die Diskussion gebracht. So haben in der Vergangenheit viele Staaten den Mindestlohn auf unterschiedliche Art eingesetzt. Die Einführung eines flächendeckenden Mindestlohns in der Bundesrepublik wird vor allem mit den folgenden Zielen befürwortet.
Der Mindestlohn soll zum einen gewährleisten, dass Vollzeitbeschäftigte ein Einkommen erzielen, dass mindestens ihrem soziokulturellen Existenzminimum entspricht. Andererseits soll die Einführung des Mindestlohns die Notwendigkeit des Aufstockens mit dem Arbeitslosengeld II hemmen und somit die öffentlichen Kassen entlasten. Die Gegner des Mindestlohns lehnen die Einführung eines flächendeckenden allgemeinverbindlichen Mindestlohns, vor allem aufgrund arbeitsmarkttheoretischer Überlegungen, kategorisch ab. Diese vertreten die Ansicht, dass die Mechanismen des Arbeitsmarktes eine selbstregulierende Wirkung besitzen und ergänzt um die Tarifautonomie ausreichend geregelt sind. Eine drohende Vernichtung bestehender Arbeitsplätze und eine ausbleibende Schaffung neuer Arbeitsplätze werden als Folge der Einführung von Mindestlohn weiterhin argumentiert.
Hinzu kommt, dass in der Theorie je nach Denkschule und Position eine entgegengesetzte Auswirkung auf den Arbeitsmarkt prognostiziert werden kann. Vor dem Hintergrund der aktuellen Debatte untersucht die vorliegende Arbeit die Auswirkung der Einführung eines Mindestlohns. Um eine objektive Wertung für die vorliegende Problemstellung zu finden, wird mit Hilfe von Netlogo die computergestützte agentenbasierte Simulation benutzt. Anhand eines fiktiven Marktes mit fiktiven Akteuren/"Agenten" wird der Versuch unternommen, eine modellhafte Darstellung des Arbeitsmarktes abzubilden. Insbesondere soll untersucht werden, inwieweit die Einführung eines Mindestlohns, branchenspezifisch oder flächendeckend, den Beschäftigungsgrad und die Höhe der Löhne beeinflusst.
Auswirkungen des Zweiten Weltkrieges auf Psychopathologie und Therapie bei psychischen Erkrankungen
(2009)
In der vorliegenden Arbeit wurden die Auswirkungen des Zweiten Weltkrieges auf die Psychopathologien und Therapien psychischer Erkrankungen am Beispiel der Heil- und Pflegeanstalt Klingenmünster aufgezeigt. Als Quellenmaterial dienten 186 Patientenakten. Die Auswertung der Krankenberichte erfolgte zum einen nach soziodemographischen Merkmalen (wie z.B. Alter, Geschlecht, Wohnort, Beruf usw.), zum anderen nach Diagnose und Therapie. Der Schwerpunkt wurde auf die Auswertung der Diagnosen und die damit verbundenen Psychopathologien gelegt. Dafür wurden die Akten vor dem Zweiten Weltkrieg (1932) und nach dem Zweiten Weltkrieg (1948) miteinander verglichen. Dabei erhob sich auch die Frage, ob die Behandlung, die den Patienten in Klingenmünster zuteil wurde, dem Stand der zeitgenössischen Wissenschaft entsprach. Bei den Diagnosen gab es Unterschiede dergestalt, dass 1932 die Diagnose Progressive Paralyse und Schizophrenie signifikant häufiger gestellt wurde als 1948. Nach dem Zweiten Weltkrieg wurde dafür der angeborene Schwachsinnszustand und die Psychische Störung des höheren Lebensalters signifikant häufiger diagnostiziert. Die Progressive Paralyse trat 1948 wahrscheinlich deshalb seltener auf, weil in den 30er Jahren mit der wirksamen Malariakur und Salvarsantherapie eine recht hohe Remissionsrate erzielt wurde und sie deshalb Ende der 40er Jahre allgemein seltener auftrat. 1948 wurden Patienten mit Schizophrenie seltener aufgenommen als 1932. Es ist denkbar, dass der Anteil der Schizophrenen aufgrund der bereits 1933 laufenden rassenhygienischen Maßnahmen sowie der frühen Deportation und Tötung dieser Patienten abgesunken sein könnte. Patienten mit der Diagnose einer Störung des höheren Lebensalters fielen der Euthanasie wahrscheinlich nicht zum Opfer, da sie ihr Leben lang dem Gemeinwesen genutzt hatten und nicht erbkrank waren. Die Ermordung von "sozial Wertvollen", jetzt jedoch alt gewordenen Menschen wäre auf großen öffentlichen Widerstand gestoßen. Für diese Menschen gab es keinen anderen Ort mehr, denn die Pflege- oder Altenheime waren ausgebombt. Die Versorgung der alten und hinfälligen Menschen wurde im ganzen Land immer schwieriger. Diese Entwicklung der letzten Kriegsjahre und Nachkriegsjahre in Deutschland könnte eine Erklärung dafür sein, dass diese Patienten die größte Patientengruppe 1948 in Klingenmünster bildeten. Das galt sicherlich nicht für Patienten mit angeborenem Schwachsinn, die als erbkrank galten und somit den rassenhygienischen Maßnahmen zum Opfer fielen. In den 40-er Jahren war auch die Öffentlichkeit so weitgehend über die mit einem Klinikaufenthalt verbundene Gefahr der Tötung informiert, dass weniger Patienten einer stationären Behandlung zugeführt worden sein dürften. Diese Patienten wurden während des Krieges wahrscheinlich von ihren Angehörigen nicht in eine Anstalt gebracht. Ziel der vorliegenden Arbeit war es auch zu klären, ob der Zweite Weltkrieg Auswirkungen auf psychiatrische Krankheitsbilder im Sinne einer Kriegsneurose hatte. Es zeigte sich, dass der Zweite Weltkrieg keine Auswirkungen auf die Prävalenz des Krankheitsbildes Kriegsneurose in der Heil- und Pflegeanstalt Klingenmünster hatte. Neben den Krankheitsbildern und den Psychopathologien wurden auch die Therapieformen der beiden Jahrgänge miteinander verglichen. Aber auch hier gab es keine kriegsbedingten Unterschiede. Betrachtet man die Therapieformen zur Zeit der Weimarer Republik und der Nachkriegszeit vor dem Hintergrund der gängigen Therapien zu dieser Zeit, so war Klingenmünster auf dem aktuellen wissenschaftlichen Stand. Die am häufigsten eingesetzten Behandlungsmethoden waren zum einen die Arbeitstherapie, zum anderen die medikamentöse Therapie. Der Rückgang der Arbeitstherapie von 1932 auf 1948 könnte mit dem Personalmangel in den Nachkriegsjahren in den Kliniken zu tun haben, wonach unzureichend qualifiziertes Pflegepersonal vorhanden war, die die Kranken bei der Arbeit anleiten und beaufsichtigen konnten. Die medikamentöse Therapie war die führende Therapieform, die in der Heil- und Pflegeanstalt Klingenmünster eingesetzt wurde. Zwischen den beiden Jahrgängen gab es hinsichtlich der Häufigkeit keine Unterschiede. Doch die Art der Therapie hatte sich im Verlauf der Jahre durch die Einführung der Insulinkomatherapie 1933, der Cardiazolkrampftherapie 1934 und der Elektrokrampftherapie 1938 verändert.
Auswirkungen verschiedener Werbeformen im Internet auf Einstellung, Erinnerung und Kaufabsicht
(2009)
Die vorliegende Bachelorarbeit untersucht anhand eines Experiments die Auswirkungen dreier Online-Werbeformen (Banner, Streaming Ad und Interstitial) auf die Einstellung, Erinnerung und Kaufabsicht. Sie gibt eine Einführung in die Internetwerbung und die untersuchten Werbeformen sowie einen Überblick über die drei theoretischen Untersuchungsschwerpunkte. Das Experiment wurde während einem Online-Fragebogen durchgeführt. Es nahmen 358 Probanden teil. Die erhobenen Daten wurden mittels Korrelationsmatrizen und der univariaten Varianzanalyse auf Differenzen geprüft.
Das übergeordnete Ziel der vorliegenden Arbeit ist die Verbesserung von Lehren und Lernen im Physikunterricht. Damit fügt sie sich in den Bereich physikdidaktischer Forschung ein, die eine forschungsbasierte Entwicklung und Evaluation von Unterricht zum Gegenstand hat, sich also auf die empirische Lehr-Lern-Forschung konzentriert. Die Motivation dazu basiert dabei auf drei in der aktuellen physikdidaktischen Diskussion prioritären Defiziten: Die mangelnde Fähigkeit deutscher Lernender zur Anwendung ihres physikalischen Wissens in neuen Kontexten, die Realitätsferne der Aufgaben und Inhalte des deutschen Physikunterrichts sowie die unzureichende Einbindung der auf diesen Erkenntnissen basierenden Konzepte in den Physikunterricht. Diese Defizite stellen die physikdidaktische Forschung vor drei grundlegende Aufgaben: Initiierung stärker schüler- und anwendungsorientierter Lehr-Lernprozesse, Hervorhebung der Bedeutung einer neuen "Aufgabenkultur" im Rahmen authentischer Problemstellungen sowie Entwicklung von Konzepten zur nachhaltigen Implementation neuer Erkenntnisse in den Physikunterricht. Der Anspruch dieser Arbeit ist die Reduktion der analysierten Defizite. Dazu erfolgt die Ausrichtung auf drei Ziele hin: Die theoriegeleitete Entwicklung praktikabler und flexibler Lernmedien im Rahmen aufgabenorientierter Lernumgebungen, die Implementation und detaillierte empirische Untersuchung des entwickelten Ansatzes sowie die Bildung einer "Learning Community" zur Unterrichtsentwicklung. Dazu wird basierend auf dem instruktionspsychologischen "Anchored Instruction"-Ansatz theoriegeleitet das Konzept einer Modifizierten "Anchored Instruction" (MAI) entwickelt. Dieses greift die Vorzüge der originären Rahmentheorie auf und behebt zudem die damit verbundenen Probleme durch die Umsetzung von drei Leitlinien: "Praktikabilität", "Flexibilität" und "empirische Forschung". Dies wird hier durch die Entwicklung und theoretische Einbettung von "Zeitungsaufgaben" als authentisch wirkendes Lernmedium zur Verankerung des Wissens an realitätsnahen Lerngegenständen verdeutlicht. Die Effektivität der Implementation von "Zeitungsaufgaben" als Lernmedium im Physikunterricht im Sinne des MAI-Ansatzes bildet dabei den ersten Untersuchungsschwerpunkt. Es wird Breitenwirkung und Robustheit des Ansatzes hinsichtlich Lerneffekt und Motivation im Rahmen einer Interventionsstudie mit 911 Lernenden, 15 Lehrkräften und in insgesamt 39 Schulklassen an zehn verschiedenen Schulen untersucht. Die durch Mehrebenenanalysen erhaltenen Ergebnisse zeigen, dass "Zeitungsaufgaben" themenübergreifend zu größerer Motivation und Leistungsfähigkeit der Lernenden führen als "traditionelle" Aufgaben und dass diese Überlegenheit zudem auch wenigstens mittelfristig Bestand hat (Motivation: p < 0.001; Cohens d = 0.87; Leistung: p < 0.001; Cohens d = 1.13). Zudem wurden vielfache Einflüsse von Moderatorvariablen auf die Motivations- und Lerneffekte geprüft (Lehrkraftmerkmale, Geschlecht, Thema, Schulart, Physik-Vorleistung, Intelligenz und Textverständnis). Es zeigt sich, dass die positive Wirkung von "Zeitungsaufgaben" auf die Motivation der Lernenden weitgehend unempfindlich gegenüber diesen Einflussfaktoren ist. Hingegen wird die Lernleistung neben der großen, positiven Wirkung von "Zeitungsaufgaben" zudem noch durch die Physik-Vorleistung sowie durch die Ausprägung des Interesses der Lehrkräfte am Unterrichten von Physik beeinflusst, und zwar in praktisch bedeutsamen Ausmaß. Neben Breitenwirkung und Robustheit des MAI-Ansatzes stellt dessen Optimierung im Rahmen einer Interventionsstudie den zweiten Untersuchungsschwerpunkt dar. Diese Detailuntersuchung resultiert aus dem Zusammenhang zwischen Authentizität und Komplexität einerseits und kognitiver Belastung andererseits. Bezogen auf das MAI-Lernmedium " Zeitungsaufgabe" steht dabei die Optimierung des Instruktionstextes " also des Zeitungsartikels " im Zentrum der Untersuchung. Es wird nachgewiesen, dass "Zeitungsaufgaben" mit mittelschweren Zeitungsartikeln sowohl Motivation als auch Lernleistung besser fördern als "Zeitungsaufgaben" mit leichten oder schweren Zeitungsartikeln. Dagegen sind Motivation und Leistung bei der Arbeit mit "traditionellen Aufgaben" umso geringer je schwieriger der Aufgabentext ist. Zudem wird im Rahmen von Pfadanalysen ein Wirkgefüge modelliert, das kausale Zusammenhänge zwischen verschiedenen Variablen darstellt, die die positive Wirkung von "Zeitungsaufgaben" auf Motivation und Leistungsfähigkeit beeinflussen. Dieses Kausalmodell verdeutlicht, dass die positive Wirkung von "Zeitungsaufgaben" am stärksten davon abhängt, wie stark die laut Theorie für ein MAI-Lernmedium erforderlichen Merkmale auch tatsächlich von den Lernenden als solche wahrgenommen werden (Motivation: p < 0.001; b = 0.40; Leistung: p < 0.001; b = 0.30). Ein Konzept zur Einbindung der auf Erkenntnissen der Lehr-Lern-Forschung basierenden Maßnahmen in den Physikunterricht stellt den Abschluss dieser Arbeit dar.
This Thesis contributes by reporting on the current state of diffusion of collaboration information technology (CIT). The investigation concludes, with a high degree of certainty, that today we have a "satisfactory" diffusion level of some level-A CITs (mostly e-Mail, distantly followed by Audio Conferencing), and a "dissatisfactory" diffusion level of higher-level CITs (i.e. those requiring significant collaboration and cooperation among users, like Meeting Support Systems, Group Decision Support Systems, etc.). The potential benefits of the latter seem to be far from fully realised due to lack of user acceptance. This conclusion has gradually developed along the research cycle " it was suggested by Empirical Study I, and tested through Empirical Studies II and III. An additional, unplanned and rather interesting, finding from this study has been the recognition of large [mostly business] reporting on numerous Web 2.0 user-community produced collaboration technologies (most of them belonging to the category of "social software") and their metamorphosis from autonomous, "bottom-up" solutions into enterprise-supported infrastructures. Another contribution of this Thesis " again suggested by Empirical Study I, and tested through Empirical Studies II and III " pertains to the "process structure" of CIT diffusion. I have found that collaboration technology has historically diffused following two distinct (interdependent but orthogonal) diffusion paths " top-down (authority-based) and bottom-up. The authority-based diffusion path seems to be characterised by efforts aimed at "imposing" technologies on employees, the primary concern being to make sure that technology seamlessly and easily integrates into the organisational IT infrastructure. On the other hand, the bottom-up diffusion trail seems to be successful. The contribution of this investigation may be summarised as threefold: 1. This investigation consolidates most of the findings to date, pertaining to CIT adoption and diffusion, which have been produced by the CIT research community. Thus, it tells a coherent story of the dynamics of the community focus and the collective wisdom gathered over a period of (at least) one decade. 2. This work offers a meaningful framework within which to analyse existing knowledge " and indeed extends that knowledge base by identifying persistent problems of collaboration technology acceptance, adoption and diffusion. These problems have been repeatedly observed in practice, though the pattern does not seem to have been recognised and internalised by the community. Many of these problems have been observed in cases of CIT use one decade ago, five years ago, three years ago, and continue to be observed today in structurally the same form despite what is unarguably "rapid technological development". This gives me reason to believe that, at least some of the persistent problems of CIT diffusion can be hypothesised as "determining factors". My contribution here is to identify these factors, discuss them in detail, and thus tackle the theme of CIT diffusion through a structured historical narrative. 3. Through my contribution (2) above, I characterise a "knowledge-action gap" in the field of CIT and illuminate a potential path through which the research community might hope to bridge this gap. The gap may be operationalised as cognitive distance between CIT "knowledge" and CIT "action".
Die vorliegende Dissertation behandelt den Einsatz von Theorembeweise innerhalb der automatischen Fragebeantwortung (question answering - QA). QA-Systeme versuchen, natürlichsprachliche Fragen korrekt zu beantworten. Sie verwenden eine Vielzahl von Methoden aus der Computerlinguistik und der Wissensrepräsentation, um menschliche Sprache zu verarbeiten und die Antworten aus umfangreichen Wissensbasen zu beziehen. Diese Methoden sind allerdings meist syntaxbasiert und können kein implizites Wissen herleiten. Die Theorembeweiser der automatischen Deduktion dagegen können Folgerungsketten mit Millionen von Inferenzschritten durchführen. Die Integration eines Beweisers in ein QA-System eröffnet die Möglichkeit, aus den Fakten einer Wissensbasis neues Wissen herzuleiten und somit die Fragebeantwortung zu verbessern. Herausforderungen liegen in der Überwindung der gegensätzlichen Herangehensweisen von Fragebeantwortung und Deduktion: Während QA-Methoden normalerweise darauf abzielen, auch mit unvollständigen oder fehlerhaften Daten robust und schnell zu halbwegs annehmbaren Ergebnissen zu kommen, verwenden Theorembeweiser logische Kalküle zur Gewinnung exakter und beweisbarer Resultate. Letzterer Ansatz erweist sich sich aber als schwer vereinbar mit der Quantität und der Qualität der im QA-Bereich üblichen Wissensbestände.
Die Dissertation beschreibt Anpassungen von Theorembeweisern zur Überwindung dieser Hürden. Zentrales Beispiel ist der an der Universität Koblenz-Landau entwickelte Beweiser E-KRHyper, der im Rahmen dieser Dissertation in das QA-System LogAnswer integriert worden ist. Außerdem vorgestellt werden zusätzliche Erweiterungsmöglichkeiten auf der Implementierungs- und der Kalkülebene, die sich aus dem praktischen Einsatz bei der Fragebeantwortung ergeben haben, dabei aber generell für Theorembeweiser von Nutzen sein können. Über die reine Deduktionsverbesserung der QA hinausgehend beinhalten diese Erweiterungen auch die Anbindung externer Wissensquellen wie etwa Webdienste, mit denen der Beweiser während des Deduktionsvorgangs gezielt Wissenslücken schließen kann. Zudem ermöglicht dies die Nutzung externer Ontologien beispielsweise zur Abduktion. Evaluationsergebnisse aus eigenen Versuchsreihen und aus Wettbewerben demonstrieren die Effektivität der diskutierten Methoden.
Augmented Reality erfreut sich wachsender Beliebtheit. Zusatzinformationen in HMDs, Windschutzscheiben oder im Kamerabild des Smartphones oder Tablets sind hier die nennenswertesten Anwendungsfälle. Um eine Einblendung korrekt anzuzeigen, ist es notwendig die Position und Orientierung (Pose) der Kamera im Raum zu erfassen. Dies geschieht zurzeit hauptsächlich unter Zuhilfenahme von Markern. Dabei werden vordefinierte Marker im Raum positioniert und das System angelernt, wie es diese zu interpretieren hat. Der nächste Schritt ist es ohne Marker auszukommen. Hierbei wird von dem markerlosen Tracking gesprochen. Anstelle von künstlichen Markern werden natürliche Objekte der realen Umgebung als Referenzpunkte genutzt, um die Kamerapose zu bestimmen. Dadurch lässt sich dieses Verfahren flexibel und dynamisch einsetzen. Es wird zwar auf die Zuhilfenahme von Markern verzichtet, aber ein größeres Vorwissen über die Szenerie ist notwendig. Dies wird über technische Maßnahmen realisiert und/oder durch Interaktion des Benutzers. Beides ist nicht komfortabel oder effizient in der Verwendung eines solchen Systems und ist ein Grund dafür, warum markerloses 3D-Tracking nach wie vor ein Forschungsbereich ist.
An diesem Punkt setzt diese Arbeit an. Es wird ein Ansatz vorgeschlagen, der lediglich eine Menge von 2D-Feature und eine Menge von 3D-Feature eines Objekts benötigt, um die initiale Pose zu finden. Es sind keine weiteren technischen Hilfen notwendig und auch auf die Interaktion mit dem Benutzer wird verzichtet. Die 2D-Feature, wie auch die 3D-Feature, können auf beliebige Art gewonnen werden.
Die Idee ist es, diese zwei Mengen mit sechs Korrespondenzen zu verbinden. Anhand dieser Korrespondenzen kann eine Pose geschätzt werden. Mit der erhaltenen Pose kann jedes 3D-Feature auf Bildkoordinaten abgebildet werden, wodurch sich die geschätzte Pose bewerten lässt. Dabei wird der Abstand zwischen abgebildetem 3D-Feature und seinem zugehörigen 2D-Feature gemessen. Jede Korrespondenz wird so bewertet und die Ergebnisse aufsummiert. Je niedriger die Summe, desto besser ist die Pose. Es hat sich gezeigt, dass ein Wert von zehn Pixeln bereits ausreichend ist, um eine Pose als richtig zu bewerten.
Da es sehr viele Möglichkeiten gibt, diese sechs Korrespondenzen zwischen beiden Mengen aufzubauen, muss dieses Verfahren optimiert werden. Dies geschieht mit einem genetischen Algorithmus. In dem Testszenario arbeitet das fertige System sehr zuverlässig. Es wird eine Trefferquote von ca. 90%, bei einer Laufzeit von ungefähr zwölf Minuten, erreicht. Ohne Optimierung kann das Finden der initialen Pose schnell mehrere Jahre dauern.
Zur Erkennung vorhandener Usability-Probleme führen Usability-Experten Nutzerstudien durch. Eine etablierte Methode ist das Aufzeichnen von Blickverhalten
mit einem Eye-Tracker. Diese Studien erfordern allerdings einen hohen Aufwand für die Auswertung der Ergebnisse. Eine automatisierte Erkennung von guter und schlechter Usability in aufgezeichneten Nutzerdaten kann den Usability-Experten bei der Eye-Tracking-Auswertung unterstützen und den Aufwand reduzieren. Das Ziel der vorliegenden Arbeit ist die Identifizierung geeigneter Eye-Tracking-Metriken, die mit der Qualität der Usability korrelieren. Dazu wird die Forschungsfrage beantwortet:
Welche Eye-Tracking-Metriken korrelieren mit der Qualität der Bedienung eines Web-Formulars? Zur Beantwortung wurde eine quantitative A/B- Nutzerstudie mit Eye-Tracking durchgeführt und das Blickverhalten von 30 Probanden während der Bearbeitung eines Web Formulars aufgezeichnet.
Das Web-Formular wurde so gestaltet, dass jede Web-Formularseite als gute und schlechte Variante nach bekannten Usability-Richtlinien vorlag. Die Ergebnisse bestätigen einen signifikanten Zusammenhang der Eye-Tracking-Metrik "Anzahl der Besuche einer AOI" mit der Qualität der Bedienung eines Web-Formulars. Die Eye-Tracking-Metriken "Anzahl der Fixationen innerhalb einer AOI" und "Dauer der Fixationen innerhalb einer AOI" korrelieren ebenfalls mit der Qualität der Usability. Für die "Zeit der ersten Fixation innerhalb einer AOI" konnte keine Korrelation bestätigt werden.
Die zytologische Untersuchung des Knochenmarks dient der Abklärung von
Abweichungen des Differentialblutbildausstriches, zur Ursachenbestimmung bei Blutarmut (Anämie), dem Ausschluss eines Knochenmarkbefalls bei Lymphknotenvergrößerungen (Lymphomen) und wird zudem bei Verdacht auf Leukämie durchgeführt.
Selbst für erfahrene Hämatologen ist die manuelle Klassifikation von Knochenmarkzellen zeitaufwändig, fehleranfällig und subjektiv. Aus diesem Grund wurden im Rahmen dieser Arbeit neue Methoden der Bildverarbeitung und Mustererkennung für eine automatische Klassifikation von hämatopoetischen Zellen samt Vorverarbeitung für ein computer-assistiertes Mikroskopiesystem entwickelt, welche anhand einer einzigartig großen Referenzdatenbank evaluiert und ausgewertet wurden. Die vorgeschlagenen Bildanalyseverfahren für Knochenmarkpräparate, welche insbesondere die Detektion der Ausstriche, die Bestimmung von relevanten Regionen, die Lokalisierung und Segmentierung von einzelnen Zellen sowie die Merkmalsextraktion und Klassifikation automatisieren, liefern die Basis für das weltweit erste System zur automatischen, morphologischen Analyse von Knochenmarkpräparaten für die Leukämiediagnose und stellen daher einen wichtigen Beitrag für eine bessere und effizientere Patientenversorgung in der Zukunft dar.
In Enhanced Reality Umgebungen nimmt der Betrachter die Umgebung und zusätzliche, in eine halbdurchsichtige Datenbrille eingeblendete Informationen wahr. Das Kalibrierungsproblem der Datenbrille ist die Aufgabe, die eingeblendete Information mit dem korrekten realen Hintergrund zur Deckung zu bringen. Heutige Datenbrillen sind vergleichsweise klobig und schwer, deshalb kommt es häufig zu leichtem Verrutschen der Brille. Wird dieses Verrutschen nicht in die Position der Einblendung in der Brille einbezogen, so passt die Einblendung nicht mehr zum realen Hintergrund. Dies wird in Abbildung 1.1 exemplarisch dargestellt. Nach initialer Kalibrierung der teildurchsichtigen Datenbrille auf das Auge des Betrachters soll deshalb bei relativer Lageveränderung der Datenbrille zum Auge (durch leichtes Verrutschen) eine Re-Kalibrierung in Echtzeit automatisch erfolgen. Eine automatische Re-Kalibrierung bei Verrutschen wird von uns erstmalig erforscht.
Im Rahmen der Glaukomdiagnostik sind Größe und Position des Sehnervkopfes wichtige Parameter zur Klassifikation des Auges. Das Finden und exakte Markieren der Papille ist ein subjektiver Vorgang und kann von Arzt zu Arzt stark variieren. Ziel der Arbeit ist die Entwicklung eines automatischen Verfahrens zur Detektion der Papille. Zunächst wird der medizinische Hintergrund erläutert (Aufbau des Auges, Glaukom) und das bildgebende Verfahren, der Heidelberg Retina Tomograph, dargestellt. Nach einer Diskussion bisheriger Ansätze zur Detektion der Papille wird ein eigenes Verfahren entwickelt und detailliert beschrieben. Für bei der Implementation aufgetretene Probleme werden Ansätze zur Optimierung vorgeschlagen.
Automatische und manuelle Informationszusammenstellung in der Nachbearbeitung von Reality Szenarien
(2007)
Als thematische Fortsetzung der beiden vorangegangenen Diplomarbeiten "Abstrakte Interaktionskonzepte in Erweiterten Realitäten" von Philipp Schaer und "Vor- und Nachbereitung einer Augmented Reality Applikation" von Anke Schneider im Rahmen des Mitte 2005 gegründeten Forschungsprojektes "Enhanced Reality" an der Universität Koblenz, befasste sich diese Arbeit mit dem Aufbau und der Informationszusammenstellung in der Nachbereitungsphase eines Augmented Reality Szenarios. Als kurzen Einstieg in das Forschungsgebiet der Augmented Reality diente eine Einordnung und Begriffsklärung sowie die Vorstellung verschiedener Anwendungsfelder zu Beginn der Arbeit. Danach wurde die Bedeutung der einzelnen Phasen Vorbereitung, AR-Tour und Nachbereitung im allgemeinen Ablauf eines AR Szenarios erläutert und versucht, Parallelen zum dramaturgischen Konzept des Digital Storytelling herzustellen. Die Nachbereitung im Sinne einer neuen Vorbereitungsphase anzulegen, wurde dabei als entscheidender Faktor zur positiven Beeinflussung des Spannungsverlaufs innerhalb eines AR Szenarios bewertet. Anhand von drei aktuellen Beispielen zu AR Edutainment bzw. Eduventure Projekten konnte die Idee und die Art der Wissens- und Informationsvermittlung, die durch eine AR-Tour stattfinden soll, näher gebracht werden. Hauptaugenmerk lag dabei auf der Herausstellung eines Ansatzes für eine mögliche Nachbereitungsphase, die bei den vorgestellten Projekten bisher noch keine Berücksichtigung gefunden hat.
RMTI (RIP with Metric based Topology Investigation) wurde in der AG Rechnernetze an der Universität Koblenz-Landau entwickelt. RMTI stellt eine Erweiterung zum RIP (Routing Information Protocol) dar, die das Konvergenzverhalten bei Netzwerkveränderungen, insb. bei Routingschleifen, verbessern soll. Dies geschieht durch Erkennen von Routingschleifen und Reduzieren des Count-to-infinity Problems. Um dieses gewünschte Verhalten nachweisen zu können, bedarf eine reichhaltige Evaluierung des RMTI- Algorithmus. Hierzu wurde in der gleichen Arbeitsgruppe die Client-/Server-Applikation XTPeer entwickelt. In Kombination mit anderen Software wie VNUML und Quagga Routing Suite lässt sich per XT-Peer der Algorithmus evaluieren. Die Applikation XTPeer generiert durch die Simulationen Daten. Diese können in Form von XML konforme SDF-Dateien exportiert werden. Diese können ohne weitere Auswertungen wieder in die XTPeer Applikation importiert werden. Die Evaluierung der Simulationen findet automatisiert nur an der aktuellen Simulation statt. Evaluierung über mehrere Simulationen muss der Benutzer manuell berechnen. Um diese Evaluierungsarbeiten für den Benutzer zu vereinfachen, verfolgt die vorliegende Diplomarbeit daher das Ziel, die XTPeer Applikation mit einem Auswertungsmodul zu erweitern. Die Auswertungen soll sich über alle gespeicherten Simulationsdaten und nicht wie bisher nur über die aktuell laufende Simulation erstrecken. Dies ermöglicht bessere statistisch verwertbare Aussagen. Zusätzlich können diese Auswertungsergebnisse grafisch unterstrichen werden.
Das Ziel der Bachelor-Arbeit ist es, einen existierenden sechsbeinigen Kleinroboter zu programmieren, der dann in der Lage sein soll, seine Umgebung autonom zu explorieren und eine Karte selbiger zu erstellen. Zur Umgebungswahrnehmung soll ein Laserscanner integriert werden. Die Erstellung der Karte sowie die Selbstlokalisation des Roboters erfolgt durch Anbindung des Sensors an ein geeignetes SLAM (Simultaneous Localization and Mapping) Verfahren. Die Karte soll die Grundlage für die Pfadplanung und Hindernisvermeidung des Roboters bilden, die ebenfalls im Rahmen dieser Arbeit entwickelt werden sollen. Dazu werden sowohl GMapping als auch Hector Mapping verwendet und getestet.
In der Arbeit wird zudem ein xplorationsalgorithmus beschrieben, mit welchem der Roboter seine Umgebung erkunden kann. Die Umsetzung auf dem Roboter erfolgt innerhalb des ROS (Robot Operating System) Frameworks auf einem "Raspberry Pi" Miniatur-PC.
Rettungsroboter helfen nach Katastrophen wie z.B. Erdbeben dabei, in zerstörten Gebäuden Überlebende zu finden. Die Aufgabe, die Umgebung effizient möglichst vollständig abzusuchen und dabei eine Karte zu erstellen, die den Rettungskräften bei der Bergung der Opfer zur Orientierung dient, soll der Roboter autonom erfüllen. Hierzu wird eine Explorationsstrategie benötigt; eine Strategie zur Navigation in bekanntem und zur Erkundung von unbekanntem Gelände. Für den mobilen Roboter "Robbie" der Arbeitsgruppe Aktives Sehen wurde in dieser Arbeit ein Grenzen-basierter Ansatz zur Lösung des Explorationsproblems ausgewählt und implementiert. Hierzu werden Grenzen zu unbekanntem Gelände aus der Karte, die der Roboter erstellt, extrahiert und angefahren. Grundlage der Navigation zu einem so gefundenen Wegpunkt bildet die sog. Pfad-Transformation (Path-Transform).
Quadrokopter sind Helikopter mit vier in einer Ebene angeordneten Rotoren. Kleine unbemannte Modelle, die oft nur eine Schubkraft von wenigen Newton erzeugen können, sind im Spielzeug- und Modellbaubereich beliebt, werden aber auch von Militär und Polizei als Drohne für Aufklärungs- und Überwachungsaufgaben eingesetzt. Diese Diplomarbeit befasst sich mit den theoretischen Grundlagen der Steuerung eines Quadrokopters und entwickelt darauf aufbauend eine kostengünstige Steuerplatine für einen Modellquadrokopter.
Die theoretischen Grundlagen enthalten eine Untersuchung der Dynamik eines frei fliegenden Quadrokopters, bei der Bewegungsgleichungen hergeleitet und mit den Ergebnissen verglichen werden, die in "Design and control of quadrotors with application to autonomous flying" ([Bou07]) vorgestellt wurden. Weiterhin wird die Funktionsweise verschiedener Sensoren beschrieben, die zur Bestimmung der aktuellen räumlichen Ausrichtung geeignet sind, und es werden Verfahren besprochen, mit denen die Ausrichtung aus den Messwerten dieser Sensoren abgeschätzt werden kann. Zusätzlich wird in den Schiefkörper der Quaternionen eingeführt, in dem dreidimensionale Rotationen kompakt dargestellt und effizient verkettet werden können.
Daran anschließend wird die Entwicklung einer einfachen Steuerplatine beschrieben, die sowohl einen autonomen Schwebeflug als auch Fernsteuerung ermöglicht. Die Platine wurde auf einem X-Ufo-Quadrokopter der Firma Silverlit entwickelt und getestet, der daher ebenfalls vorgestellt wird. Die eingesetzten Bauteile und deren Zusammenspiel werden besprochen. Dabei ist insbesondere die WiiMotionPlus hervorzuheben, die als kostengünstiges Gyrosensormodul verwendet wird. Daneben werden verschiedene Aspekte der Steuersoftware erläutert: die Auswertung der Sensordaten, die Zustandsschätzung mit Hilfe des expliziten komplementären Filters nach Mahony et al. ([MHP08]), die Umsetzung des Ausrichtungsreglers sowie die Erzeugung der Steuersignale für die Motoren. Sowohl die Steuersoftware als auch Schaltplan und Platinenlayout der Steuerplatine liegen dieser Arbeit auf einer CD bei. Schaltplan und Platinenlayout sind zusätzlich im Anhang der Arbeit abgedruckt.
Diese Bachelorarbeit befasst sich mit der Entwicklung eines Autorensystems zum modellieren von 3D Szenen mit physikalischer Beschreibung. Ähnlich einem herkömmlichen 3D Modellierungstool soll ein Benutzer Szenen erstellen können mit dem Unterschied, dass bei der Erstellung der Geometrie physikalische Eigenschaften direkt berechnet und eingestellt werden können. Wichtig für solche Systeme ist vor allem ihre Erweiterbarkeit und Anpassungsfähigkeit an die entsprechenden Anforderungen des Benutzers. Der Fokus liegt hierbei auf der Entwicklung einer einfachen Architektur, die leicht erweiterbar und veränderbar ist.
Außerschulische Lernorte und deren Wirksamkeit im Kontext von BNE-Bildungsmaßnahmen wurden bislang wenig untersucht. Mithilfe einer mehrstufi-gen Analyse identifiziert die vorliegende Studie außerschulische Lernorte mit Be-zug zum BNE-Bildungskonzept im Untersuchungsraum Rheinland-Pfalz. Dazu wurden zunächst mittels qualitativer Literaturanalysen BNE-Kriterien generiert, die als methodisches Instrument in Form einer BNE-Checkliste für außerschulische Lernorte operationalisiert wurden. Die auf diesem Wege gewonnenen Daten liefern die Grundlage für die Erstellung einer geografisch orientierten Lernortdatenbank mit BNE-Bezug. Eine kartografische Visualisierung der Daten ergibt ein räumliches Verteilungsmuster: So zeigen sich mit BNE-Lernorten gut versorgte Landkreise und kreisfreie Städte, aber auch regelrechte BNE-Lernort-Wüsten, an denen Nachhol-bedarf besteht. Des Weiteren zeigt sich eine Häufung von BNE-Lernorten in wald-nahen Gebieten.
Zur Frage, wie die außerschulische BNE im Bundesland Rheinland-Pfalz imple-mentiert wurde, inwiefern Optimierungsbedarf besteht und welche fortsetzenden Maßnahmen im Rahmen der Agenda 2030 für die außerschulische BNE getroffen werden, liefert ein leitfadenbasiertes exploratives Interview mit zwei BNE-Experten zusätzliche Erkenntnisse.
Weiterführend wurde mit 1358 Schülerinnen und Schülern an 30 außerschuli-schen Lernorten nach Teilnahme an einer Bildungsmaßnahme eine quantitative Fragebogenstudie durchgeführt, bei der auch das Umweltbewusstsein, Einstellun-gen zum Umweltverhalten und das Lernen vor Ort betrachtet wurden. Durch ein Miteinbeziehen von Nicht-BNE-Lernorten wurde eine Vergleichsstudie zur Wirk-samkeit von BNE-Lernorten möglich. Die statistische Datenauswertung führt zu ei-ner Vielzahl an interessanten Ergebnissen. Kontraintuitiv zeigt sich beispielsweise die Art des Lernorts (BNE- oder Nicht-BNE-Lernort) als nicht signifikanter Prädiktor für das Umweltbewusstsein und Umweltverhalten der befragten Schüler, wohinge-gen Kommunikationsstrukturen innerhalb von Bildungsmaßnahmen an außerschu-lischen Lernorten, die Multimedialität und Handlungsorientierung sowie die Dauer von Bildungsmaßnahmen einen signifikanten Einfluss ausüben.
Schlüsselwörter: Außerschulische Lernorte, Bildung für nachhaltige Entwicklung (BNE), BNE-Kriterien, Lernortlandschaft Rheinland-Pfalz, BNE-Lernorte, Umwelt-bewusstsein, Umweltverhalten.
Avoidance of routing loops
(2009)
We introduce a new routing algorithm which can detect routing loops by evaluating routing updates more thoroughly. Our new algorithm is called Routing with Metric based Topology Investigation (RMTI), which is based on the simple Routing Information Protocol (RIP) and is compatible to all RIP versions. In case of a link failure, a network can reorganize itself if there are redundant links available. Redundant links are only available in a network system like the internet if the topology contains loops. Therefore, it is necessary to recognize and to prevent routing loops. A routing loop can be seen as a circular trace of a routing update information which returns to the same router, either directly from the neighbor router or via a loop topology. Routing loops could consume a large amount of network bandwidth and could impact the endtoend performance of the network. Our RMTI approach is capable to improve the efficiency of Distance Vector Routing.
In this thesis, I present the results of my studies on taxonomy, systematics, and biogeography of Impatiens (Balsaminaceae) in Madagascar and the Comoro islands.
In Chapter 1 I reviewed the literature on taxonomy and classification of Balsaminaceae, on habitat, world distribution, morphology, molecular phylogenetics and infrageneric classification of the genus Impatiens. In Chapters 2-15 (Fischer & Rahelivololona 2002, 2003, 2004, 2007, 2015a, 2015b, 2015c, 2016, Fischer et al. 2004. 2017, 2018a, b submitted, Rahelivololona et al. 2003) I presented the first results of a revision of Balsaminaceae of Madagascar and the Comoro islands including the description of 78 new species. In Chapter 16 (Yuan et al. 2004) we worked on the phylogeny and biogeography of Balsaminaceae inferred from ITS sequences using combined results from molecular phylogenetic and morphological analyses. In Chapter 17 (Rahelivololona et al. 2018) we conducted a phylogeny and assessment of the infrageneric classification of species in the Malagasy Impatiens (Balsaminaceae) with a particular emphasis on taxa collected from Marojejy.
Below I summarise the most important findings of each chapter and provide an outlook for future studies.
How many species of Impatiens occur in Madagascar and the Comoro islands?
To provide additional information on the taxonomic revision of Impatiens in Madagascar and the Comoro islands, the identification of already described species as well as the description of new species was conducted. Based on herbarium specimens from BR, G, K, NEU, P, TAN and on living plants collected during several field trips, 78 new species and 6 nomina nova have been published and another 70 new taxa are already identified. Actually more than 260 species occur in Madagascar and the Comoro islands and all of them are endemic. For each species, a description of the morphology, phenology, ecology and known distribution range was provided. Apart from new taxa, the delimitation of already described species like Impatiens firmula Baker and Impatiens hildebrandtii Baill. could be clarified by studying the types and by observing the variability in the field.
Are the groups of Impatiens in Madagascar monophyletic, and what is the systematic position of Trimorphopetalum?
Yuan & al. (2004) conducted a molecular phylogenetic study to examine the morphological and karyological evolution, and the historical biogeography of the Balsaminaceae family by using nucleotide sequence data of internal transcribed spacer regions of nuclear ribosomal DNA. The results support the monophyly of the Malagasy endemic section Trimorphopetalum and show that the cleistogamous Impatiens inaperta should be included in the sect. Trimorphopetalum which is the most derived within Impatiens. Therefore, the section Preimpatiens proposed by Perrier de la Bâthie (1934) is paraphyletic.
Rahelivololona & al. (2018) provided a phylogenetic study focused on three subdivisions (based on macromorphological characters) proposed by Perrier de la Bâthie (1934). The analysis was done using two nuclear AP3/DEF homologues (ImpDEF1 and ImpDEF2) and the plastid atpB-rbcL spacer to reassess or assess the monophyly of the Malagasy Impatiens, of the sections Preimpatiens (Humblotianae and Vulgare groups) and Trimorphopetalum. A focus was on the species of Impatiens from the Marojejy National Park and of the morphologically variable species I. elatostemmoides, I. “hammarbyoides”, I. inaperta and I. manaharensis, using monophyly as the primary criterion.
As results the Malagasy Impatiens are paraphyletic and the section Preimpatiens sensu Perrier de la Bâthie (1934) (= subgen. Impatiens sensu Fischer & Rahelivololona 2002) was not resolved as a monophyletic group. The section Trimorphopetalum sensu Perrier de la Bâthie (1934) (= subgen. Trimorphopetalum sensu Fischer & Rahelivololona 2002), however, was strongly confirmed as a monophyletic lineage (BS: 92; BPP: 1). Neither the Humblotianae group nor the Vulgare group was supported as monophyletic. None of the morphologically variable species appeared to be monophyletic and the sampled species of Impatiens from the Marojejy National Park do also not form a monophyletic group.
What are the biogeographical position and the distribution patterns of Impatiens in Madagascar and the Comoro islands?
Investigation of the geographical affinities and species distribution of section Impatiens (including Humblotianae group and Vulgare group) and section Trimorphopetalum were conducted and the origin and evolution as well as species richness and endemism were discussed.
The isolation, the climate and the complex topography of Madagascar have generated the microhabitats and ecological niches favourable to the diversification of Impatiens species. Impatiens of Madagascar with 260 endemic species is actually the largest genus in Madagascar. Therefore, Madagascar and the Comoro islands are among the most species-rich regions in the world for Impatiens.
Future studies
In Impatiens on Madagascar, there remain numerous unresolved questions that need to be adressed:
• A further study based on a much larger molecular data set and sampling from the entire geographic ranges of Impatiens in Madagascar is needed to retest the monophyly of the different subgenera and sections, as well as a molecular dating of the Malagasy Impatiens.
• The study of pollinators as a key for understanding the radiation and species richness is required: Within Impatiens the different shapes of spur are related to pollinators (bees, birds, butterflies and moths). Therefore pollinator observation of specific species need to be done to understand the radiation of species by adaptation and coevolution with these pollinators. A pollination study with a large number of species within section Trimorphopetalum will help to understand the mechanism of complete disappearance of the spur, the shift of pollinators and the evolution of species richness.
• The destruction of the natural habitats of Impatiens and the subsequent reduction of humidity in logged area constitute a severe threat for the survival of many species. The conservation and reforestation of vulnerable areas such as Ankaratra, Daraina, Mandraka and Col des Tapia near Antsirabe is required.
• In terms of conservation and to mitigate the threat on the genus, a study on the ex-situ-conservation of Malagasy Impatiens species is very important as long as some species are suitable for horticultural purposes (e.g. Impatiens mayae-valeriae, Impatiens emiliae and species with broad red spur).
• Finally, the publication of the revision of Impatiens of Madagascar and the Comoro islands will help other botanists to identify the species and will thus increase our knowledge on the group.
Schizophrenia is a chronic mental health disorder, which changes rapidly the life of the persons and their families, who suffer from it. It causes high biological and psychological vulnerability as well as cognitive, emotional and behavioral disorders. Nowadays, evidence-based pharmacotherapy and psychotherapy are available aiming the rehabilitation and recovery of individuals with schizophrenia. A democratic society is obliged to give these people the opportunity to have an access to those treatments.
The following three published studies present this dissertation thesis and have a common focus on the implementation of evidence-based psychotherapy in individuals with schizophrenia.
The first study evaluates the efficacy of the Integrated Psychological Therapy (IPT) in Greece, one of the most evaluated rehabilitation programs. IPT was compared to
Treatment as Usual (TAU) in a randomized controlled trial (RCT) with 48 individuals with schizophrenia. Significant effects favouring IPT were found in working memory,
in social perception, in negative symptoms, in general psychopathology and in insight. This study supports evidence for the efficacy of IPT in Greece.
The second study evaluates a second hypothesis, when IPT is more and less effective regarding treatment resistant schizophrenia (TRS) and non treatment resistant
schizophrenia (NTRS). It is a part of the first paper. Significant effects favouring NTRS were found for verbal memory, for symptoms, for functioning and quality of
life. Effect sizes showed superiority of NTRS in comparison to TRS. IPTTRS showed on the other side some significant improvements. This study presents the initial findings of a larger study to be conducted internationally for the first time.
The third study is a systematic review, which aims to evaluate the efficacy of Cognitive Behavioral Therapy (CBT), of Meta Cognitive Therapy (MCT), Metacognitive Training (MCTR), Metacognitive Reflection and Insight Therapy
(MERIT), of various Rehabilitation Programs and Recovery Programs in individuals with schizophrenia. 41 RCTs and 12 Case Studies were included. The above interventions are efficacious in the improvement of cognitions, symptoms, functional outcome, insight, self-esteem, comorbid disorders and metacognitive capacity.
The three studies provide insight regarding the importance of evidence-based psychotherapy in persons with schizophrenia leading to recovery and reintegration into
society. Future RCTs with larger samples and long-term follow up, combining evidence-based psychotherapies for individuals with schizophrenia need to be done.
Die Zeitschrift c't stellte in der Ausgabe 02/2006 einen Bausatz für einen kleinen mobilen Roboter vor, den c't-Bot, der diese Studienarbeit inspirierte. Dieser Bausatz sollte die Basis eines Roboters darstellen, der durch eine Kamera erweitert und mit Hilfe von Bildverarbeitung in der Lage sein sollte, am RoboCupSoccer-Wettbewerb teilzunehmen. Während der Planungsphase veränderten sich die Ziele: Statt einem Fußballroboter sollte nun ein Roboter für die neu geschaffene RoboCup-Rescue-League entwickelt werden. In diesem Wettbewerb sollen Roboter in einer für sie unbekannten Umgebung selbstständig Wege erkunden, bzw. Personen in dieser Umgebung finden. Durch diese neue Aufgabenstellung war sofort klar, dass der c't-Bot nicht ausreichte, und es musste ein neuer Roboter entwickelt werden, der mittels Sensoren die Umgebung wahrnehmen, durch eine Kamera Objekte erkennen und mit Hilfe eines integrierten Computers diese Bilder verarbeiten sollte. Die Entstehung dieses Roboters ist das Thema dieser Studienarbeit.
Im schulischen Kontext wird dem Prozess der Erkenntnisgewinnung in eigenverantwortlichen Lernprozessen immer mehr Bedeutung beigemessen. Experimentelles Arbeiten wird in den nationalen Bildungsstandards als Prozess beschrieben, welcher vier Teil-schritte durchläuft: (1) Fragestellung entwickeln, (2) Experimente durchführen, (3) Daten notieren und (4) Schlussfolgerung ziehen [1]. In der fachdidaktischen Forschung gibt es bisher keine Untersuchungen, die explizit den Teilschritt der Datenaufnahme und dessen Bedeutung behandeln.
In dieser Arbeit werden die unterschiedlichen Definitionen der naturwissenschaftlichen Protokollformen voneinander abgegrenzt sowie im Rahmen von drei Teilstudien die Bedeutung des Protokollierens für die Lernwirksamkeit untersucht. Zusätzlich wird eine Auswertungsmethode für die Qualität von Erarbeitungsprotokollen vorgestellt.
Die vorliegende Forschungsarbeit beschäftigt sich mit der Positionierung und anbieterinternen Kommunikation der innovativen IT-Architektur SOA. Die zentralen Ziele der vorliegenden explorativen und empirischen Forschungsarbeit, die im Kontext der Innovations-Erfolgsfaktorenforschung angesiedelt ist, bestehen in der Beantwor-tung der beiden folgenden forschungsleitenden Fragestellungen:
Forschungsfrage 1: Welche Bedingungen tragen zu einer erfolgreichen Positionierung von SOA bei? Forschungsfrage 2: Welche Bedingungen tragen zu einer erfolgreichen anbieterinternen Kommunikation bezüglich SOA bei? Zur Überprüfung dieser beiden Forschungsfragen wurde ein zweistufiges Delphi-Verfahren durchgeführt. Hierbei wurde zunächst eine qualitative Befragungswelle (N=53) zur Identifizierung der SOA-Positionierungsbedingungen und anbieterinternen SOA-Kommunikations-bedingungen durchgeführt. Insgesamt wurden in der ersten Befragungswelle 122 SOA-Positionierungsbedingungen identifiziert, die sich in 65 Bedingungen auf Anbieterseite, 35 Bedingungen auf Kundenseite, 19 Bedingungen auf SOA-Seite und 3 Bedingungen aufseiten des weiteren Umfeldes aufteilen. Im Rahmen der anbieterinternen SOA-Kommunikation konnten 31 Bedingungen identifiziert werden. Die in der ersten Welle identifizierten SOA-Positionie-rungsbedingungen und anbieterinternen SOA-Kommunikationsbedingungen wurden mittels der zweiten Befragungswelle (N=83) einer quantitativen Analyse unterzogen. Somit liefert die vorliegende Studie Bedingungen, die sowohl zu einer erfolgreichen SOA-Positionierung als auch zu einer erfolgreichen anbieterinternen SOA-Kommunikation beitragen.
Die Resultate dieser Arbeit werden zusammengefasst und theoretisch eingeordnet. Ebenfalls wird die methodische Vorgehensweise kritisch diskutiert und die Güte der Daten beurteilt. Schließlich wird ein Ausblick auf zukünftige Forschungsfelder gegeben.
Zentrale Aufgaben der Hochschule sind die Bewertung, die Ursachenklärung und die Förderung von Studienleistungen (Heublein & Wolter, 2011, S. 215). In diesem Kontext gilt neben intellektuellen Fähigkeiten die Leistungsmotivation als bedeutsamer Prädiktor für den akademischen Erfolg (z. B. Schmidt-Atzert, 2005, S. 132; Steinmayr & Spinath, 2009, S. 80). Im Fokus der vorliegenden Studie stehen deshalb Überlegungen zu Motivationsprozessen von 332 Studienanfängern der Hochschule der Bundesagentur für Arbeit und zu den Faktoren, die sich förderlich auf ihre Lernresultate auswirken. Mit einer Ausschöpfungsquote von 89 % sind die gewonnenen Daten für die Grundgesamtheit repräsentativ. Anhand einer Ex-post-facto-Versuchsanordnung in Form eines quantitativen Prädiktor-Kriteriums-Ansatzes (spezielle Variante eines Längsschnittdesigns) mit unterschiedlichen Erhebungsmethoden, wie standardisiertem Selbstbeurteilungsfragebogen, Leistungstests und offiziellen Dokumenten/Aktenmaterial, wurden folgende Forschungshypothesen zugrunde gelegt: Die Stärke der Leistungsmotivation ist sowohl von Erwartungskomponenten (Fähigkeitsselbstkonzept, Selbstwert, subjektive Notenerwartung, Erfolgszuversicht und Misserfolgsfurcht) als auch von Anreizkomponenten (Gegenstands-, Tätigkeits-, Folgenanreizen) abhängig, welche wiederum vermittelt über das leistungsmotivierte Verhalten einen Einfluss auf die Studienleistung besitzt. Dabei wurde postuliert, dass motivationale Variablen auch dann noch einen bedeutsamen Effekt auf die Studienleistung ausüben, wenn weitere Leistungsprädiktoren, wie die Schulabschlussnote, die Intelligenz, die emotionale Stabilität und die Gewissenhaftigkeit kontrolliert werden.
Hintergrund
Das neue Modell einer Knieorthese Condlya 4 soll die Bewegungsfreiheit im Knie nur geringfügig einschränken, so dass viele sportliche Bewegungen weiterhin gewährleistet sind. Dennoch stabilisiert die Orthese das Gelenk soweit, dass Scherbewegungen vermieden werden und während der Rehabilitationsphase nach Knieverletzungen und Instabilitäten bereits nach kurzer Zeit mit dem Sport wieder begonnen werden kann.
Das Ziel der Arbeit
Ziel der Masterarbeit war es mittels Bewegungsanalyse den Einfluss der Knieorhese auf die Bewegungsqualität des Handstands zu prüfen. Zu dieser 2D- Analyse wurden die Bewegungsabläufe mit mehreren digitalen Hochgeschwindigkeitskameras (OptiTrack Flex 3) aus zwei Ebenen gefilmt. Über die an anatomischen Fixpunkten angebrachten Markern wurden die Aufnahmen mit der Software MyoVideo am Rechner mittels automatischem Marker Tracking verarbeitet. Damit konnten die zeitlichen Verläufe von Marker-Koordinaten und Gelenkwinkeln aufgezeigt werden.
Ergebnisse
Die Ergebnisse dieser Untersuchung bestätigten, dass die untersuchte Knieorthese Condyla 4 für den Sport geeignet ist und keinen negativen Einfluss auf die Bewegungsqualität des Handstands nimmt. Die Anwendung der Knieorthese lässt sich dadurch auch auf andere Elemente aus dem Bereich des Turnens übertragen, bei denen die unteren Extremitäten ähnlichen Belastungen ausgesetzt sind.
IT-Risk-Management ist ein Bereich, der in den letzten 2 Jahren stark diskutiert und sich verändert hat. Die Anlässe findet man sowohl in den terroristischen Überfällen und entsprechenden Konsequenzen für Unternehmen als auch an die Naturkatastrophen oder Fehlinvestitionen und undurchsichtigen Geschäfte mancher Unternehmen. Daher wurden Richtlinien und Gesetze entworfen, die Vorstände verpflichten, das eigene Unternehmen gegen konkrete Risiken zu schützen. Der Detaillierungsgrad der Vorschläge ist je nach Bereich unterschiedlich. Sind aber Unternehmen bereit, die hohen Investitionen, die mit solchen umfangreichen Projekten zusammenhängen, auf sich zu nehmen um diese Richtlinien zu verfolgen? Wo sehen sie die Vorteile einer IT-Risk-Management-Strategie und wo die Herausforderungen? Welche Entwicklungen oder Veränderung wünschen sie sich? Das sind Fragen, die in der vorliegenden Studie, Experten des Bereich IT-Risk-Management gestellt wurden um die Zukunft des IT-Risk-Managements beeinflussen zu können. Diese Fragestellungen wurden in der vorliegenden Studie untersucht, dazu haben wir Experten des Bereichs IT-Risk-Managements mit Hilfe der Delphi-Methode befragt. Der vorliegende Bericht fasst die wichtigsten Ergebnisse zusammen.
Beispielkommunikation: Formen und Funktionen der Beispielverwendung in der verbalen Interaktion
(2012)
Das Beispiel ist ein hoch komplexer, historisch sich vielfach ausdifferenzierender Begriff, mit dem sich seit der Antike die geisteswissenschaftlichen Disziplinen intensiv auseinandergesetzt haben. Die Orientierung am Besonderen, am Konkreten, am Einzelfall, am Exemplarischen ist eine zentrale menschliche Denkbewegung bei der Erkenntnisgewinnung, der Wissensvermittlung, dem Verstehen und der Verständigung ebenso wie bei der Überzeugung und Glaubhaftmachung. Wie wir aber in unserem ganz gewöhnlichen, alltäglichen Sprechen mit Beispielen umgehen, welche Rolle "das Exemplarische" insbesondere in der verbalen, mündlichen Interaktion spielt, wozu und wie wir Beispiele einsetzen, das ist linguistisch wenig und vor allem nicht systematisch untersucht. Wir nehmen im Alltag immer wieder explizit metasprachlich auf das Beispielgeben Bezug, wenn wir etwa sagen "Gib mir doch mal ein Beispiel" oder "Ich mach mal ein Beispiel". Die Analyse der Gesprächspraxis zeigt zudem, dass die Beispielverwendung kein randständiges, sondern ein sehr häufig zu beobachtendes sprachliches Phänomen in verschiedenen Kommunikationskontexten ist, von dem sich vermuten lässt, dass es gerade für die Alltagskommunikation fundamental ist.
Die vorliegende Arbeit hat deshalb zum Ziel, Beispiele in der Sprachverwendung als eine Form des sprachlichen Handelns fassbar und analysierbar zu machen und die Erscheinungsformen sowie Wirkungs- und Funktionsweisen auf der Grundlage von Transkripten natürlichsprachiger Dialoge empirisch zu untersuchen. Aus der Perspektive verschiedener Disziplinen werden Dimensionen des Beispielbegriffs, des fallbezogenen Denkens und des Argumentierens mit Beispielen betrachtet. Es wird auf die grundlegende Rolle des Beispiels, des Besonderen beim Erkennen und Verstehen des Allgemeinen eingegangen, auf die Beschreibungen der Beispielfunktionen und "Funktionslogiken" auf verschiedenen Ebenen. Ausführlich wird auf die bisherigen Analysen zur Beispielverwendung in der Text- und Gesprächslinguistik eingegangen. Im Kontext der Analyse der Sprachverwendung in der natürlichen Sprache wird das Beispiel allerdings nur selten als eigenes Thema behandelt, das Exemplifizieren / Beispielnennen wird häufig als sprachliche Handlung selbstverständlich vorausgesetzt, jedoch dabei nicht konzeptuell betrachtet. Aufbauend auf die Betrachtung und Bewertung der bisherigen Untersuchungen wird in der vorliegenden Arbeit Beispielverwenden als sprachliche Handlung konzeptualisiert, die im Kern eine Konnexstiftung von Besonderem und Allgemeinem enthält. Dabei werden gesprächsanalytische und hermeneutische Ansätze aus der Handlungssemantik aufeinander bezogen und Möglichkeiten für eine Adaption gezeigt.
Die empirischen Analyse stützt sich auf ein umfangreiches Korpus transkribierter verbaler Interaktionen (Diskussionen, Talkshow, Konfliktgespräch). Die Analyseergebnisse bestehen zum einen aus korpusgestützten Beschreibungen und (für Erweiterungen offenen) Typologisierungen von Realisierungsformen und des "displays" von Beispielverwendung sowie der empirisch gestützten Beschreibung von Handlungs- und Interaktionsmustern der Beispielverwendung im Gespräch und ausführlichen, exemplarischen, funktionsbezogenen Einzelanalysen.
Enterprise Collaboration Systems (ECS) werden zunehmend als Kernkomponenten des digitalen Arbeitsplatzes in Unternehmen eingesetzt, die mit der Implementierung dieser neuen Softwaregattung jeweils unterschiedliche Ziele für die innerbetriebliche Zusammenarbeit verfolgen. Diese Ziele werden in der Praxis oftmals nicht eindeutig genug formuliert. Der Einsatz von traditionellen Controlling-Kennzahlen mit dem Schwerpunkt auf Termineinhaltung und Kosten sind zudem ungeeignet, um die Realisierung des individuellen Nutzens von ECS zu messen. Diese Forschungsarbeit beschreibt die Entwicklung und Anwendung des Benefits Scorecards for Collaboration Platforms in Enterprises (SCoPE) Frameworks, das als ein Rahmenwerk für die kennzahlengestützte Nutzenmessung von ECS dient und an dem Goal-Question-Metrics-Approach der NASA sowie der Balance Scorecard von Kaplan & Norton angelehnt ist. Die Ergebnisse tragen zu einem breiteren Verständnis der kennzahlenbasierten Nutzenanalyse für ECS in Organisationen bei. Das Benefits-SCoPE-Framework wurde in enger Zusammenarbeit mit Experten aus 16 Anwenderunternehmen im Rahmen der Initiative IndustryConnect entwickelt. In einem design-orientierten Ansatz wurde ein ausgewählter Methodenmix angewandt, inklusive Experteninterview, Fokusgruppe, Workshop und Card Sorting. Der von Anwenderunternehmen erwartete Nutzen des ECS wird in spezifische, durch Kennzahlen beantwortbare Fragestellungen umformuliert und fragmentiert. Insgesamt konnten so 313 nutzenorientierte Fragen von drei Anwenderunternehmen identifiziert werden. Die durchgeführte Kategorisierung der Fragen verdeutlicht zum einen das gemeinsame Verständnis der Unternehmen hinsichtlich der entscheidenden Faktoren für die Nutzenrealisierung von ECS und zum anderen die Nutzen-ziele, die die Unternehmen durch den Einsatz des ECS anvisieren. Die Entwicklung und Erhebung von Kennzahlen zur quantitativen Beantwortung von ausgewählten Fragestellungen wird mit funktions-fähigen Prototypen auf einer operativen Kollaborationsplattform demonstriert, die seit mehr als sieben Jahren im Einsatz ist und mehr als 5.000 registrierte Benutzer aufweist. Die Kennzahlenentwicklung, die Auswahl der Datenerhebungsmethode, die Durchführung der Messung sowie die Interpretation der Messergebnisse werden im Framework durch die Verwendung von Benefits Scorecards unterstützt. Die individuelle Orchestrierung mehrerer Benefits Scorecards repräsentiert die Struktur eines Ordnungssystems zur ECS-Nutzenanalyse in Anwenderunternehmen und verdeutlicht das Vorgehen zur Erhebung der äquivalenten Daten.
Die Diffusions-Tensor-Bildgebung (DTI) ist eine Technik aus der Magnet-Resonanz-Bildgebung (MRI) und basiert auf der Brownschen Molekularbewegung (Diffusion) der Wassermoleküle im menschlichen Gewebe. Speziell im inhomogenen Hirngewebe ist die Beweglichkeit der Moleküle stark eingeschränkt. Hier hindern die Zellmembranen der langgestreckten Axone die Diffusion entlang nicht-paralleler Richtungen. Besonderen Wert hat die Diffusions-Tensor-Bildgebung in der Neurochirugie bei der Intervention und Planung von Operationen. Basierend auf den mehrdimensionalen DTI-Tensor-Datensätzen kann für den jeweiligen Voxel das Diffsusionsverhalten abgeleitet werden. Der größte Eigenvektor des Tensors bestimmt dabei die Hauptrichtung der Diffusion und somit die Orientierung der entsprechenden Nervenfasern. Ziel der Studienarbeit ist die Erstellung einer Beispielapplikation zur Visualisierung von DTI-Daten mit Hilfe der Grafikhardware. Dazu werden zunächst die relevanten Informationen für die Erzeugung von geometrischen Repräsentationen (Streamlines, Tubes, Glyphen, Cluster...) aus den Eingabedaten berechnet. Für die interaktive Visualisierung sollen die Möglichkeiten moderner Grafikhardware, insbesondere Geometryshader ausgenutzt werden. Die erzeugten Repräsentationen sollen nach Möglichkeit in ein DVR (Cascada) integriert werden. Für die Arbeit wird eine eigene Applikation entwickelt, die bestehende Bausteine (Volumenrepräsentation, Volumenrendering, Shadersystem) aus Cascada analysiert und integriert.
Die vorliegende Arbeit beschreibt die Entwicklung eines OpenGL-basierten Tools zur Visualisierung von Hohlräumen in Proteinen, welche während eines statischen Dockings beobachtet werden können. Ziel ist es, anhand von Informationen über Abstände zwischen Proteinen und Liganden, Schluss- folgerungen über Interaktionen zu ziehen, um daraus Ansätze für die Entwicklung künstlicher Liganden zu gewinnen. Zunächst wird auf chemische Grundlagen eingegangen, die das Thema motivieren und für das Verständnis der Thematik und der genutzten Algorithmen wichtig sind. Des Weiteren wird bestehende Software vorgestellt, die ähnliche Sachverhalte löst. Anschließend werden die Voraussetzungen zur Entwicklung des Programmes genannt, woraufhin dieses detailliert beschrieben wird. Zum Abschluss wird das Tool in Hinblick auf Performance und Nutzen evaluiert und ein zusammenfassendes Fazit getroffen, in dem sich das Programm als gute Hilfe für bestehende Forschungen und gute Basis für weitere, tiefergehende Forschungsprojekte erweist.
In dieser Arbeit wurden insgesamt fünf verwandte, aber variante Definitionen der Hermite-Normalform vorgestellt, angefangen bei der ursprünglichen Version von Charles Hermite. Anschließend wurden vier Basisalgorithmen zur Berechnung der Hermite-Normalform ganzzahliger Matrizen im Detail und anhand von vollständigen Beispielen präsentiert. Hierbei wurde vor allem Wert darauf gelegt, linear-algebraische Grundlagen wie beispielsweise die Verwendung von Permutationsmatrizen für unimodulare Spaltenoperationen verständlich zu vermitteln.
Bildsynthese durch Raytracing gewinnt durch Hardware-Unterstützung in Verbraucher-Grafikkarten eine immer größer werdende Relevanz. Der Linespace dient dabei als eine neue, vielversprechende Beschleunigungsstruktur. Durch seine richtungsbasierte Natur ist es sinnvoll, ihn in andere Datenstrukturen zu integrieren. Bisher wurde er in ein Uniform-Grid integriert. Problematisch werden einheitlich große Voxel allerdings bei Szenen mit variierbarem Detailgrad. Diese Arbeit führt den adaptiven Linespace ein, eine Kombination aus Octree und Linespace. Die Struktur wird hinsichtlich ihrer Beschleunigungsfähigkeit untersucht und mit dem bisherigen Grid-Ansatz verglichen. Es wird gezeigt, dass der adaptive Linespace für hohe Grid-Auflösungen besser skaliert, durch eine ineffiziente GPU-Nutzung allerdings keine optimalen Werte erzielt.
Warum stürzen wir beim Gehen? Dreidimensionale und komplexe
Bewegungsabläufe des menschlichen Ganges exakt zu
analysieren und somit offene Grundfragen der Kinesiologie zu
beantworten ist Kern dieser Arbeit. Die Bewegungswissenschaft
der Gerontologie beschränkt sich derzeit noch auf Modelle und
Methoden mit einfachen und eindimensionalen Bewegungsanalysen.
In einer umfangreichen Literaturrecherche wird der aktuelle
Stand der Technik an Hand der drei gängigsten Methoden zur
Bestimmung der Stabilität beim Gehen erfasst und bewertet.
Eine Bewertung der drei Methoden: Margin of Stability, Lokale
Stabilität und Orbitale Stabilität, erfolgt durch die Ermittlung
der Anwendbarkeit der einzelnen Methoden, um die Tendenz eines
Probanden zu bestimmen, sich von kleinen (natürlichen oder
künstlichen) Störungen des Gangs zu erholen. Auf Grundlage
dieser Bewertungen und das Abwägen der Vor - und Nachteile
der einzelnen Methoden, wurde eine neue Methode zur Beurteilung
der räumlichen-dynamischen Stabilität entwickelt, die sich
für die Analyse des linearen und nicht-linearen menschlichen
Gangs anwenden lässt. Als Methodische Grundlagen dienen
ein Motion-Capture-System, zur Erfassung der kinematischen
Bewegungen, und ein in der Gerontologie fest etablierte Mobilitätstest,
der sogenannte Timed Up and Go Test, zur Beurteilung
des Gleichgewichts und der Mobilität. Zusätzlich wurde eine
numerische Näherung der Marker-Anzahl des Motion-Capture-
Systems durchgeführt. Dabei wurde die Anzahl der Marker auf
ein Marker-Set minimiert, bei der die bestmögliche Korrelation
der Ergebnisse zum Full-Body-Marker-Set erzielt wird. Dies
dient zur Vereinfachung der Methode für zukünftige Anwendungen
bei klinischen oder wissenschaftlichen Fragestellungen. Die
neu entwickelte Methode bedarf einer Validierung, welche mit
Hilfe einer Probandenstudie durchgeführt wurde. Die Ergebnisse
der Probandenstudie werden präsentiert und Interpretationsmöglichkeiten
werden aufgezeigt. Neue relevante Variablen und
Momentbestimmungen besonderer Gangsituationen werden ausgewertet
und bieten Raum für neue Interpretationsansätze zur
Beurteilung des menschlichen Gangs.
Die neue Methode ist somit in der Lage die individuelle Entwicklungen
des Bewegungsablaufes im Alter und die Vermeidung
von Stürzen und einhergehenden Verletzungen aus einer erweiterten
und neuen Perspektive zu beurteilen. Insbesondere
können Richtungswechsel bei einem nicht-linearen Gang neu
betrachtet und beurteilt werden.
Die Erkennung von Bewegungen mit einem Smartphone ist durch die internen Sensoren, mit denen es ausgestattet ist, ohne externe Sensoren möglich. Zunächst werden vergangene Untersuchungen und deren Verfahrensweise betrachtet. Von diesen Untersuchungen wird die hier verwendete Umsetzung der Bewegungserkennung abgeleitet und beschrieben. Ein Großteil der Literatur verwendet ausschließlich den Beschleunigungssensor für die Bewegungserkennung. Diese Bachelorarbeit untersucht dazu den Nutzen weiterer Sensoren, wie z.B. das magnetische Feld, die lineare Beschleunigung oder das Gyroskop. Die Bewegungserkennung erfolgt durch maschinelles Lernen mit Klassifizierungsalgorithmen. Es werden Decision Tree, Naive Bayes und Support Vector Machines verwendet. Zunächst werden die benötigten Sensordaten mit Hilfe einer eigens entwickelten Applikation von Testpersonen gesammelt und gespeichert. Diese Daten werden als Trainingsdaten für die Klassifizierungsalgorithmen benötigt.
Das Ergebnis ist ein Modell, das die Struktur der gelernten Daten enthält. Validiert werden die Modelle mit Testdatensätzen, die sich von den Trainingsdatensätzen unterscheiden. Die Ergebnisse bestätigen vergangene Untersuchungen, dass die Daten des Beschleunigungssensors ausreichend sind, um Bewegungen sehr genau erkennen zu können. Orientierung, Gyroskop und die lineare Beschleunigung hingegen sind nur bedingt für die Bewegungserkennung einsetzbar. Außerdem scheint für eine geringe Anzahl an Testdaten der Decision Tree am besten geeignet zu sein, wenn Bewegungen von Benutzern erkannt werden sollen, von denen keine Trainingsdaten bei der Erstellung des Modells vorhanden sind.
Quellen sind hochdiverse Lebensräume mit einer stark spezialisierten Fauna, wobei noch Lücken im Verständnis der besiedlungsrelevanten Faktoren für die aquatische Makrofauna bestehen, so dass die Arbeit einen klärenden Beitrag hinsichtlich anthropogener Veränderungen und ihrer Auswirkungen auf die Besied-lung leisten will. Basierend auf Daten von 334 Quellen aller Grundwasserlandschaften von Rheinland-Pfalz wurden die Quellen morphologisch und faunistisch bewertet. Außerdem wurden die Quellen des Landes morphologisch typisiert, Referenzquellen analysiert und ein Ansatz für die morphologische und faunistische Leitbildentwicklung gegeben. Außerdem wird ein selbst entwickeltes, kompaktes Kartier- und Bewertungsverfahren zur Quellstruktur vorgestellt, wo bislang noch ein Defizit bestand. Das Verfahren erfasst in einem Erfassungsbogen alle ökologisch bedeutsamen Strukturparameter und bewertet in einem 5-stufigen System. Quellen sind hochdiverse Lebensräume mit kleinen Populationen in isolierter Lage. Bei der Untersuchung der 310 Quellen wurden insgesamt 292 Arten bzw. höhere Taxa des Makrozoobenthos nachgewiesen. Es wurden 89 quellassoziierte Taxa gezählt, hiervon waren 24 krenobiont und 65 krenophil. Der Anteil der quellassoziierten Fauna an der Gesamtfauna lag bei über 30%. Es fanden sich 19 Erstnachweise für Rheinland-Pfalz, 9 besondere Nachweise (seltene Arten) und 19 Rote-Liste-Arten. Erstnachweise fanden sich in wenig bearbeiteten Dipterengruppen, vor allem den Psychodidae (13), Limoniidae (5) und ferner den Simu-liidae (1). Bei den Köcherfliegen wurden etliche seltene Arten gefunden, welche bisher in Rheinland-Pfalz kaum gefunden wurden. Häufigere krenobionte Taxa waren Crunoecia irrorata, Bythinella dunkeri, Niphar-gus sp., Pisidium personatum, Salamandra salamandra, Thaumalea sp., Agabus guttatus, Crenobia alpina, Oxycera sp. und Beraea maura. Die durchschnittliche Taxazahl pro Quelle betrug 11, die maximale 62 Taxa. Schüttung und Morphologie der Quellen waren von Naturraum und Grundwasserlandschaft abhängig, so schütteten etwa Buntsandsteinquellen ergiebiger und konstanter als Tonschieferquellen. Quellen spiegeln die Hydrologie ihrer Einzugsgebiete wider, so dass in verschiedenen hydrogeologischen Einheiten die chemischen Parameter differierten. In einzelnen Quellen schwankte die Hydrochemie jahreszeitlich aber nur gering. Der pH-Wert etwa war im Quellwasser versauerungsgefährdeter Gebiete niedrig (Hunsrück, Pfälzer-wald), der Nitratgehalt anthropogen bedingt hoch in intensiv landwirtschaftlich genutzten Räumen. Die morphologische Quelltypologie, welche sich in erster Linie auf gängige Quelltypen stützte, ergab in elf hydrogeologischen Quelltypenräumen vier Basisquelltypen und fünf geochemische Sondertypen. Die Wan-derquelle wurde neu hinzu genommen. Die landesweite Verteilung der Quelltypen ergab bei ungefassten Quellen 57 % Sicker-, 32 % Sturz-, 9 % Tümpel- und über 2 % Wanderquellen. Wanderquellen dürften aber noch öfter vorkommen. Relief und Substrateigenschaften waren entscheidende Faktoren für die Typologie, so dass etwa Sturzquellen vor allem im Buntsandstein häufig waren, während Sickerquellen im Tonschiefer des rheinischen Schiefergebirges dominierten. Es wurden 85 Strukturreferenzquellen als typische, naturnahe Beispiele für einzelne Quelltypenräume genannt. Etwa zwei Drittel aller Quellen waren strukturell beein-trächtigt bis stark geschädigt, 59 % gefasst. Fassungen, Verrohrungen und Betonverbau waren ökologisch besonders bedeutsam. In Regionen mit intensiver Landwirtschaft lagen generell die stärksten Schädigungen vor. Im Forst waren Quellen durch Nadelholzmonokulturen und in den Hochlagen pufferarmer Mittelgebirge durch Versauerung geschädigt. Hinsichtlich der Besiedlung ergaben sich Unterschiede zwischen den Naturräumen, beeinflusst durch die Faktoren Geologie, Hydrochemie, Schüttungsverhältnisse, Landnutzung im Einzugsgebiet sowie die Struk-turvielfalt an der Quelle. Strukturell unveränderte und unversauerte Quellen besaßen im Schnitt höhere Ta-xazahlen. Einzelne Faktoren mit Einfluss auf die Besiedlung wurden in ihrer Auswirkung getestet. In Quel-len ist die Versauerung grundsätzlich besiedlungsbeschränkend und überlagert strukturelle Faktoren. Bei niedrigen pH-Werten kommt es zu verminderten Taxazahlen, allerdings sind viele Quellorganismen offen-sichtlich an eine leichte Versauerung angepasst, da in sauren Quellen der Anteil der Quellfauna höher war. Außerdem ergab die Untersuchung, dass neue und intakte Fassungen weniger Taxa und Quelltaxa aufwiesen, während bei alten und verfallenen Fassungen oft eine hohe Quelltaxazahl vorlag, so dass diese als sekundär ökologisch wertvoll zu bezeichnen sind. Die Umfeldnutzung und die Größe des Quellbereichs sind ebenfalls wichtig, so dass Quellen in Laub- und Mischwald sowie in extensivem Grünland am besten besiedelt waren. Die stärksten statistischen Zusammenhänge mit der faunistischen Besiedlung ergaben sich bei den Bewer-tungsergebnissen des Strukturverfahrens, was zeigt, dass das Verfahren realistisch bewertet. Multivariate statistische Methoden dienten der Ermittlung von Besiedlungsfaktoren und der Leitbildentwick-lung. Es ergab sich eine unterschiedliche Besiedlung bei verschiedener Hydrogeologie und Hydrochemie sowie bei verschiedenen Quelltypen. Allerdings waren die Ergebnisse nicht eindeutig, so dass die Trennung der Quelltypen nur teilweise gelang und die Quelltypen von den Grundwasserlandschaften überlagert waren. Die Faunenunterschiede verschiedener Regionen waren größer als die einer Region, so dass morphologische Quelltypen faunistisch nur innerhalb einer hydrogeologischen Einheit von Bedeutung sind. Es wurden regionale faunistische Leitarten für vier Grundwasserlandschaften genannt, wobei sich auf wenige hochstete Quellarten beschränkt wurde. Die Arbeit zeigt, dass faunistisch orientierte Leitbilder nur unter Schwierigkeiten anzugeben sind und vollständige Typuszönosen für größere Gebiete grundsätzlich in Frage zu stellen sind. Sehr häufige grundsätzliche Leitarten für Quellen silikatischer Mittelgebirge in Rheinland-Pfalz sind Crunoecia irrorata und Bythinella dunkeri.
Technologische Fortschritte auf dem Gebiet der integrierten Halbleitertechnik, die unter anderem auch zur gestiegenen Leistungsfähigkeit der Kamerasensoren beitragen, konzentrierten sich bisher primär auf die Schnelligkeit und das Auflösungsvermögen der Sensoren. Die sich ständig verändernde Entwicklung hat jedoch direkte Folgen auf das physikalische Verhalten einer Kamera und damit auch Konsequenzen für die erreichbare geometrische Genauigkeit einer photogrammetrischen 3D-Rekonstruktion. Letztere stand bisher nicht im Fokus der Forschung und ist eine Aufgabe, der sich diese Arbeit im Sinne der Photogrammetrie und Messtechnik stellt. Aktuelle Untersuchungen und Erfahrungen aus industriellen Projekten zeigen in diesem Zusammenhang, dass das geometrisch-physikalische Verhalten digitaler Kameras - für höchste photogrammetrische Ansprüche - noch nicht ausreichend modelliert ist. Direkte Aussagen zur erreichbaren Genauigkeit bei gegebener Hardware erweisen sich daher bislang als unzureichend. Ferner kommt es aufgrund der unpräzisen Modellierung zu Einbußen in der Zuverlässigkeit der erreichten Ergebnisse. Für den Entwickler präziser kamerabasierter Messverfahren folgt daraus, dass zu einer optimalen Schätzung der geometrischen Genauigkeit und damit auch vollständigen Ausschöpfung der Messkamera geeignete mathematische Modelle erforderlich sind, die das geometrisch physikalische Verhalten bestmöglich beschreiben. Diese Arbeit beschreibt, wie die erreichbare Genauigkeit einer Bündelblockausgleichung, schon a priori mithilfe des EMVA1288 Standards approximiert werden kann. Eine in diesem Zusammenhang wichtige Teilaufgabe ist die Schaffung einer optimalen Messanordnung. Hierzu gehören Untersuchungen der üblicherweise verwendeten Kalibrierkörper und die Beseitigung von systematischen Fehlern vor und nach der Bündelblockausgleichung. Zum Nachweis dieser Systematiken wird eine auf statistischem Lernen basierende Methode beschrieben und untersucht. Erst wenn alle genauigkeitsmindernden Einflüsse berücksichtigt sind, wird der Anteil des Sensors in den Messdaten sichtbar und damit auch mathematisch parametrisierbar. Die Beschreibung des Sensoreinflusses auf die erreichbare Genauigkeit der Bündelblockausgleichung erfolgt in drei Schritten. Der erste Schritt beschreibt den Zusammenhang zwischen ausgewählten EMVA1288-Kennzahlen und der Unsicherheit eines Grauwertes. Der zweite Schritt ist eine Modellierung dieser Grauwertunsicherheit als Zentrumsunsicherheit einer Zielmarke. Zur Beschreibung dieser Unsicherheit innerhalb der Bündelblockausgleichung wird ein stochastisches Modell, basierend auf dem EMVA1288-Standard, vorgeschlagen. Ausgehend vom Rauschen des Zielmarkenmittelpunktes wird im dritten Schritt die Unsicherheit im Objektraum beispielhaft mit Hilfe von physikalisch orientierten Simulationen approximiert. Die Wirkung der vorgeschlagenen Methoden wird anhand von Realkalibrierungen nachgewiesen. Abschließend erfolgt die Diskussion der vorgeschlagenen Methoden und erreichten Ergebnisse sowie ein Ausblick auf kommende Untersuchungen.
Ziel dieser Arbeit ist die Entwicklung von Verfahren zur realistischen augmentierten Bildsynthese auf Basis von 3D-Photo-Collections. 3D-Photo-Collections sind aus Einzelfotos automatisch erzeugte Repräsentationen einer realen Szene und geben diese als Menge von Bildern mit bekannten Kameraposen sowie einer groben punktbasierten Modellierung der Szenengeometrie wieder. Es wird eine fotorealistische augmentierte Bildsynthese von realen und virtuellen Anteilen in Echtzeit angestrebt, wobei die reale Szene durch 3DPhoto-Collections beschrieben wird. Um dieses Ziel zu erreichen, werden drei Problemfelder bearbeitet.
Da die Fotos unter Umständen in verschiedenen geräteabhängigen RGB Farbräumen liegen, ist eine Farbcharakterisierung der 3D-Photo-Collections notwendig, um korrekte, der menschlichen Wahrnehmung entsprechende Farbinformationen zu erhalten. Das hierzu entwickelte Verfahren transformiert alle Bilder automatisch in einen gemeinsamen Farbraum und vereinfacht so die Farbcharakterisierung von 3D-Photo-Collections.
Als Hauptproblem der augmentierten Bildsynthese muss die Umgebungsbeleuchtung der realen Szene bekannt sein, um eingefügte virtuelle Anteile konsistent zu den realen Anteilen zu beleuchten. Hierfür wurden zwei neue Verfahren zur Rekonstruktion der Umgebungsbeleuchtung aus den Bildern der 3D-Photo-Collection entwickelt.
Um eine Bildsynthese für beliebige Ansichten auf die Szene durchzuführen, wurde ein neues Verfahren zur bildbasierten Darstellung entwickelt, welches neue Ansichten auf die 3D-Photo-Collection unter direkter Verwendung der Punktwolke erzeugt. Dieser Ansatz erzeugt neue Ansichten in Echtzeit und erlaubt somit eine freie Navigation.
Insgesamt konnte mit den entwickelten Methoden gezeigt werden, dass 3D-Photo-Collections für Augmented-Reality eine geeignete Repräsentation von realen Anteilen sind und eine realistische Synthese mit virtuellen Anteilen durchgeführt werden kann.
Im Rahmen der Arbeit wurde ein mehrstufiger Algorithmus entwickelt, der es ermöglicht, aus Bildfolgen eine Trajektorie der Kamerabewegung zu rekonstruieren. Die Kalibrierung der Kamera beruht auf dem Verfahren von Zhang und ermöglicht den Ausgleich der durch das Objektiv entstehenden radialen Verzerrung der Bilder. Die sich anschließende Detektion prägnanter Merkmale wird durch den SIFT-Operator geleistet, welcher neben subpixelgenauer Lokalisation der Merkmale zusätzlich einen stark markanten Deskriptor zu deren Beschreibung liefert. Außerdem sind die Merkmale invariant gegenüber Rotationen, was für einige mögliche Anwendungsfälle sehr relevant ist. Die Suche nach Korrespondenzen wurde auf Basis der Distance Ratio ausgeführt. Hier wurde eine komplette Formalisierung der Korrelationsbeziehung zwischen Merkmalsvektoren präsentiert, welche eindeutig eine symmetrische Beziehung zwischen SIFT-Merkmalsvektoren definiert, die den an eine Korrespondenz gestellten Ansprüchen gerecht wird. Zusätzlich wurde motiviert, warum die sonst in der Bildverarbeitung gängige Methode der Hierarchisierung zur Reduktion des Aufwands in diesem speziellen Fall zu schlechteren Inlier-Raten in den gefundenen Korrespondenzen führen kann. Anschließend wurde ein genereller Überblick über den RANSAC-Algorithmus und die aus ihm entspringenden Derivate gegeben.
Das Wissen über die genaue Position und Lage eines unbemannten Luftfahrzeugs spielt während der Durchführung einer autonomen Mission eine dominante Rolle. Unbemannte Luftfahrzeuge sind daher mit einer Vielzahl an Sensoren ausgestattet. Jeder dieser Sensoren leistet einen Beitrag zu diesem Ziel, wobei ein Sensor entweder eine absolute oder eine relative Angabe über den derzeitigen Aufenthaltsort oder die Fluglage ermöglicht. Alle Sensoren werden zu einer Gesamtlösung verknüpft, der Navigationslösung. Das am häufigsten eingesetzte - und auch meistens einzige - Verfahren zur absoluten Positionsbestimmung ist die Satellitennavigation. Diese ist abhängig von einer direkten Sichtlinie der mitgeführten Empfangsantenne zu den Satelliten. Falls es zu einer Unterbrechung dieser Sichtlinie kommt, ist eine genaue, absolute Positionsangabe nicht mehr möglich. Die Navigationslösung hat somit nur noch Sensoren zur Verfügung, die eine relative Positions- bzw. Lageangabe ermöglichen. Hierzu gehören das mitgeführte Magnetometer und das Inertialmesssystem. Beide unterliegen dem Phänomen der Drift. Dieses bedeutet, dass die Genauigkeit der Positions- und Lageangabe bei einem Ausfall der Satellitennavigation mit fortschreitender Zeit zunehmend unzuverlässig wird. Um diese Drift in einem bestimmten Rahmen zu kompensieren, kann ein Bildsensor verwendet werden. Dieser ermöglicht eine bildbasierte Bewegungsschätzung und stellt somit einen zusätzlichen Sensor zur Messung von relativen Lage- und Positionsänderungen dar. Ziel der Arbeit ist es, ein Verfahren zur bildbasierten Bewegungsschätzung für einen unbemannten Helikopter zu entwickeln und zu evaluieren.
Diese Arbeit untersucht an einem realistischen Szenario den Ansatz der bildbasierten Integration von Software hinsichtlich seiner Praktizierbarkeit. Als praktische Aufgabe wird die Entwicklung eines Expertensystems für Online- Poker-Plattformen durchgeführt. Die wichtigsten, zu untersuchenden Aspekte sind der Aufwand der Implementierung, die Performance und die Qualität dieses Ansatzes.
Die Selbstlokalisation von Robotern ist schon seit Jahren ein aktuelles Forschungsthema, das insbesondere durch immer weiterentwickelte Techniken und Verfahren verbessert werden kann. Insbesondere finden Laserscanner in der Robotik immer häufiger Anwendung. In dieser Arbeit wird untersucht, ob durch die Fusionierung von Kamerabildern und 3D-Laserscannerdaten eine robuste und schnelle Selbstlokalisation theoretisch sowie praktisch realisierbar ist.
Diese Studie leistet einen Beitrag zur Weiterentwicklung der Nachrichtenwerttheorie. Hierzu wird das Konzept der Fotonachrichtenfaktoren zunächst theoretisch aufgearbeitet und seine Plausibilität anhand verschiedener Teilbereiche der Journalismusforschung dargelegt. Darauf aufbauend wird es im Rahmen einer Inhaltsanalyse eingesetzt, die die Prüfung des erweiterten Modells der Nachrichtenwerttheorie ermöglicht. Dieses Modell geht von einem gemeinsamen Einfluss der textbasierten Nachrichtenfaktoren und der Fotonachrichtenfaktoren auf den Nachrichtenwert bzw. die journalistische Beachtung eines Beitrags aus. Ergänzend werden die Fotonachrichtenfaktoren zur Bildung von Fototypen herangezogen. Die Analysen werden am Beispiel der Kriegs- und Krisenberichterstattung deutscher Tageszeitungen durchgeführt. Dieser Themenbereich des Journalismus genießt viel Aufmerksamkeit sowohl bei Medienrezipienten als auch bei Kommunikationswissenschaftlern. Die Ergebnisse der Studie unterstützen die Grundidee der Fotonachrichtenfaktoren: Sie können, ähnlich wie die textbasierten Nachrichtenfaktoren, zu übergeordneten Bündeln zusammengefasst werden. Diese Bündel zeigen Einflüsse auf die formale Gestaltung der Fotos und können gemeinsam mit den Textnachrichtenfaktoren teilweise die journalistische Beachtung des Artikels erklären. Darüber hinaus ist die gewählte Operationalisierung der Fotonachrichtenfaktoren geeignet, Fototypen bzw. zentrale Motive der visuellen Kriegsberichterstattung deutscher Tageszeitungen zu identifizieren. Die Ergebnisse dieser Studie liefern Ausgangspunkte für weitere Fragestellungen zum Zusammenwirken der Text- und Fotonachrichtenfaktoren, der Anwendung der Zwei-Komponenten-Theorie und der Wirkung von typischen Bildmotiven.
Wenn es um die Vermittlung und Förderung von Kompetenzen geht, die für die Transformation zu einer nachhaltigen Gesellschaft notwendig sind, nehmen angehende Lehrpersonen eine Schlüsselrolle ein. Mit der modellhaften Einführung des Zertifikatsstudiums „Bildung – Transformation – Nachhaltigkeit“ (BTN) an der Universität Koblenz-Landau bietet sich Lehramtsstudierenden aller Fächer und Schulformen die Möglichkeit, sich in verschiedenen Modulen – begleitend zum regulären Studium – wissenschaftlich fundiert, multiperspektivisch und praxisorientiert mit Aspekten nachhaltiger Entwicklung auseinanderzusetzen. Ziel ist es, Lehramtsstudierende mit relevanten Nachhaltigkeitskompetenzen auszustatten, sie für ihre Rolle in Bezug auf die notwendige Transformation hin zu einer nachhaltigen Gesellschaft zu sensibilisieren und sie zu befähigen, in ihrem zukünftigen Berufsleben an Schulen, Hochschulen oder außerschulischen Bildungseinrichtungen inklusive und systemische Nachhaltigkeitskonzepte zu implementieren. Ein besonderer Schwerpunkt des Zertifikats liegt auf der Förderung der Reflexionsfähigkeit der Studierenden. Das Zertifikat BTN ist ein Projekt des Zentrums für Bildung und Forschung an Außerschulischen Lernorten (ZentrAL) der Universität Koblenz-Landau und wurde durch die Deutsche Bundesstiftung Umwelt (DBU) als Pilotvorhaben gefördert.
Die Studie befasst sich mit der Bildungsaspiration, der Wertevermittlung und -tradierung iranischstämmiger Familien in Deutschland. Ziel ist es, zu ermitteln, worauf die familiäre Bildungsaspiration zurückzuführen ist. Im Fokus der Fallstudie stehen drei Familien, die nach der Islamischen Revolution von 1979 aus ihrem Herkunftsland nach Deutschland immigriert sind. Es handelt sich um eine zweigenerationenperspektivische Befragung innerhalb einer Familie. Dies bedeutet, dass innerhalb einer Familie Einzelinterviews mit jeweils einer Person aus der Eltern- und Kindergeneration durchgeführt wurden. So werden gemeinsam erlebte Situationen, wie z.B. Flucht oder Teilhabe am deutschen Bildungssystem, oder Begriffe, wie z.B. Bildung oder Bildungserfolg, aus der jeweiligen Perspektive geschildert bzw. definiert. Darüber hinaus geben die Befragten Auskünfte über die Großelterngeneration, sodass das gesamte Datenmaterial Angaben über drei Generationen umfasst. Dieser qualitativen Exploration geht eine bundesweite Befragung voraus an der 70 Personen iranischer Herkunft teilnahmen. Weiterhin zeichnet sich die Arbeit durch einen ressourcenorientierten Forschungsansatz aus. Die erhobenen Daten geben Antwort auf die zentralen Fragen:
Auf welche Ursachen lässt sich Bildungsaspiration von immigrierten, iranischstämmigen Familien in Deutschland zurückführen?
Welche Rolle spielen die Sprachen des Herkunfts- und Einwanderungslandes in der Wertetradierung? In der Studie werden die individuellen Bildungsgeschichten der Befragten in den wissenschaftlichen Diskurs zur Bildungsaspiration, Bildungs-, Migrations- und Mehrsprachigkeitsforschung eingefügt. Hierbei wird ein interdisziplinäres und somit multiperspektivisches Theoriekonstrukt zugrunde gelegt, welches sich durch einen geschichts-, länder- und generationsübergreifenden Forschungsansatz auszeichnet. Ein zentrales Ergebnis ist, dass ein Verständnis für geschichtliche Entwicklungen im Herkunftsland erforderlich ist, um das Bildungsverhalten im iranischstämmigen Familienkontext nachzuvollziehen. Erst durch Kontextualisierung von individuellen und gesellschaftlichen Dimensionen kann nachvollzogen werden, warum im Falle dieser Minderheitengruppe geringes ökonomisches Kapital, das infolge von beruflichen Brüchen der Eltern nach ihrer Flucht im Einwanderungsland entstanden ist, keine negativen Auswirkungen auf die Entwicklung des kulturellen Kapitals der Folgegenerationen hat. Folglich zeigt die Studie, dass im Falle der interviewten Familien gängige Erklärungsmodelle, wie die Korrelation vom geringem ökonomischen Kapital und geringem kulturellen Kapital, nicht zutreffen. Vielmehr wird kulturelles Kapital von Generation zu Generation tradiert. Ein weiteres Ergebnis der Studie ist das erarbeitete Dreiebenen-Modell. Es umfasst geschichtlich-gesellschaftliche, politische sowie familiäre Entwicklungen und Einstellungen auf der Mikro-, Meso- und Makroebene. Damit ist eine Grundlage geschaffen, um das Tradierungsverhalten anderer Zuwanderungsgruppen zu erklären.
BinaryGXL
(2006)
XML ist aus der heutigen IT-Welt nicht mehr wegzudenken und wird für vielfältige Zwecke verwendet. Die Befürworter von XML führen insbesondere die Menschenlesbarkeit und leichte Editierbarkeit als Gründe für diesen Erfolg an. Allerdings hat XML gerade dadurch auch in manchen Anwendungsgebieten gravierende Nachteile: XML ist sehr verbos, und das Parsen von XML-Dateien ist relativ langsam im Vergleich zu binären Dateiformaten. Deshalb gibt es Bestrebungen ein binäres XML-Format zu schaffen und gegebenenfalls zu standardisieren. Die vorliegende Studienarbeit beschreibt einige schon existierende binäre XML-Formate und zeigt auf, wie weit der Entwurf und die Standardisierung eines allgemein akzeptierten Binary-XML-Formats fortgeschritten sind. Der praktische Teil der Studienarbeit umfasst den Entwurf und die Implementierung eines eigenen Binärformats für den XML-Dialekt GXL. Zur Bewertung der entwickelten Lösung wird diese mit den heute üblichen Kompressionstools verglichen.
Diese Arbeit untersucht die Biozönosen kontaminierter schlammig-schluffiger Sedimente in Stillwasserzonen großer Flüsse. Diese feinkörnigen und weichgründigen Sedimente beherbergen Lebensgemeinschaften, die zu einem großen Teil als Meiozoobenthos angesprochen werden und im Vergleich zu den Makrozoobenthos-Biozönosen grobkörniger und hartgründiger Fließgewässer und den Meiobenthos-Biozönosen der Küsten-, Tiden- und Ästuarbereiche bisher nur unzulänglich untersucht worden sind. Da die feinkörnigen Sedimente eine große Kapazität zur Schadstoffbindung haben, sind sie generell von großem ökotoxikologischen und wasserbaulichen Interesse. Ziele der Arbeit: (1) Entwicklung einer quantitativen Methode zur Bestandserfassung. (2) Untersuchung der lokalen und saisonalen Dynamik der benthischen Metazoen- Biozönose in Schluffsedimenten. (3) Ermittlung der Einflüsse chemischer und physikalischer Sedimenteigenschaftenrnauf die Biozönosen. (4) Beschreibung der Resilienz der Benthos-Biozönosen schluffiger Sedimente; Einfluss katastrophaler Ereignisse.
Wärmeübertrager werden zur Aufkonzentrierung verschiedener flüssiger Produkte, zur Entsalzung von Meerwasser, aber auch als Kühlelemente in technischen Anlagen eingesetzt. Dabei kommen die Verdampfelemente nicht nur mit Prozesswasser, sondern, gerade bei der Meerwasserentsalzung, auch mit Mikroorganismen in Kontakt.
Klassische Wärmeübertrager bestehen aus Stahl. Nach einer Betriebszeit von mehr als 2 Jahren ist das Material starkem Biofouling ausgesetzt. Durch die Besiedlung mit Mikroorganismen und die Bildung der gelartigen Biofilmmatrix verlieren Wärmeübertrager ihre Effizienz und erzeugen zusätzliche Kosten. Die Reinigung eines Wärmeübertragers ist üblicherweise aufwendig. Dafür wird der Wärmeübertrager, nach Außerbetriebnahme, komplett demontiert.
Mogha et al. 2014 stellen in ihrer Studie die These auf, dass die Initialbesiedlung von Materialien durch veränderte Oberflächenparameter verlängert wird. Dies verzögert die Entstehung von Biofouling und minimiert den Einsatz von Desinfektionsmitteln und green chemicals stark.
Kunststofffolien als alternativer Werkstoff für den Einsatz im wärmeübertragenden Element haben durch ihre niedrigen Produktionskosten, leichte Verfügbarkeit und höhere Korrosionsbeständigkeit als Stahl das Potential, die Kosten für Stilllegung, Reinigung und Effizienzverlust zu reduzieren. Dabei sollen die dünnen Folien komplett ausgetauscht werden, wenn der Wirkungsgrad abnimmt. Schwankenden Stahlpreisen und langen Stillstandszeiten könnte ausgewichen werden. Zur zielgerichteten Untersuchung der mikrobiologischen und verfahrenstechnischen Herausforderungen des Projekts besteht eine Kooperation zwischen dem Lehrstuhl für Thermische Verfahrenstechnik (TU Kaiserslautern) und der AG Mikrobiologie (Universität Koblenz-Landau).
Ziel dieser Arbeit ist die Konstruktion und Herstellung eines Reaktors zur Exposition der Kunststofffolien nach realem Vorbild, die Erstellung eines Untersuchungsdesigns und die experimentelle Untersuchung verschiedener Kunststofffolien auf Biofouling im Vergleich zu austenitischen Stahlfolien.
Die Hauptaufgabe dieser Arbeit war der Entwurf und die Konstruktion eines Reaktors, dessen Prozessparameter vergleichbar mit realen Wärmeübertragungsanlagen und kostengünstiger als kommerzielle Systeme (~1000$) sind. Für eine positive Zielerreichung wurden folgende Kriterien umgesetzt: Vergleichbare Prozessparameter zu realen Anlagen bereitstellen, kostengünstige, schnelle Konstruktion und serienreife Produktion ermöglichen, schnelle Online-in-situ Mikroskopie sowie Online-3D-Konfokale-Ramanspektroskopie ermöglichen, reproduzierbare Ergebnisse von Zellzahl- und Biomassebestimmung erzeugen und eine möglichst große Anzahl an Untersuchungs-parallelen bereitstellen.
Da die Bestimmung von Biomasse und Zellzahl ein Standardwerkzeug zur Bestimmung von Biofouling darstellt, bilden epifluorenszenzmikroskopische und gravimetrische Verfahren die Grundlage dieser Arbeit. Die Unterschiede in Zellzahl und Biomasse zwischen Oberflächenmodifikation und Werkstoff werden quantitativ dargestellt und ausgewertet.
Um die reale biologische Relevanz der Daten herauszustellen, wurde als Modellorganismus das Bakterium Escherichia coli K12 sowie als natürliches Inokulum Flusswasser aus dem Rhein untersucht. Die damit erzeugten Daten zum Biofouling durch Umweltmedien unbekannter mikrobieller Zusammensetzung und einem Laboransatz mit definierter biologischer Zusammensetzung sind für die Beschreibung der technischen Relevanz wesentlich.
Die materialwissenschaftlichen Parameter Oberflächenenergie (DIN 55660) und Oberflächenrauigkeit (DIN EN ISO 4287) sind der erste Kontaktpunkt zwischen Materialoberfläche und Mikroorganismus. Deren Bestimmung und Korrelation mit der Biomasse und der bakteriellen Zellzahl dient als basale Verknüpfung zwischen dem Biofoulingverhalten als biologisch induziertem Prozess und den Materialeigenschaften. Darauf basierend können zukünftig definierte Materialeigenschaften zur Zielerreichung festgelegt werden.
Der in dieser Arbeit exemplarisch gezeigte Einsatz der Raman-Spektroskopie als neuartiger "cutting-edge" Methode gibt einen Ausblick auf zukünftige Untersuchungsmöglichkeiten zur routinemäßigen Erfassung des Biofouling-Verhaltens neuer, funktional optimierter Materialien.
Der nachhaltige Grundwasserschutz erfordert ein Bewertungssystem, das Aussagen über den Ökosystemzustand zulässt. Folglich sollten, zusätzlich zu physikochemischen Analysen, auch faunistische und mikrobiologische Kriterien bei der Grundwasserbewertung berücksichtigt werden. Um die Anwendbarkeit und Eignung von Grundwasserorganismen für eine qualitative Grundwasserbewertung zu überprüfen, wurden zwischen 2002 und 2009 umfassende Untersuchungen verschiedener Grundwasservorkommen Deutschlands durchgeführt. Schwerpunkte waren die Überprüfung des Indikatorpotenzials von Grundwasserlebensgemeinschaften gegenüber Oberflächenwasser-Grundwasser-Interaktionen und anthropogener Belastungen sowie die Analyse stygofaunaler Verbreitungsmuster, als Basis und Referenz für ein faunistisches Bewertungssystem für Grundwasserlebensräume. Die Grundwasseruntersuchungen berücksichtigen lokale, regionale und biogeografische Verhältnisse. Um das Indikatorpotenzial der Grundwasserorganismen auf lokaler und regionaler Skala zu überprüfen, wurden Grundwassersysteme in Nordrhein-Westfalen (NRW) und Baden-Württemberg (BW) untersucht. Anhand der faunistischen und mikrobiologischen Daten aus quartären Lockergesteinsleitern im Erftgebiet (NRW) konnte die Sensibilität der Grundwasserorganismen gegenüber Landnutzungseffekten, z. B. extensive Landwirtschaft, aufgezeigt werden. Die Datenanalysen ergaben positive Korrelationen von organischem Material (geschätzter Detritus, TOC) und Nitrat mit der faunistischen Abundanz, Artenzahl und Diversität sowie dem Anteil grundwasserfremder Arten. Auch die bakterielle Abundanz und Diversität im Grundwasser des Erftgebiets war, verglichen mit oligotrophen Grundwassersystemen, hoch.
Die Grundwassergemeinschaften zeigen einen erhöhten Oberflächeneintrag ins Grundwasser an, der mit der starken landwirtschaftlichen Nutzung einhergeht. Die Besiedlung des Grundwassers im Alb-Donau-Kreis (BW) wurde auf regionale (Naturraum, Grundwasserleitertyp, Hydrogeologie) und lokale Effekte (Vergleich einzelner Messstellen) untersucht. Dabei reflektierte die Fauna die Stärke des hydrologischen Austauschs auf unterschiedlichen räumlichen Skalen und zeigte auch die Überlagerung regionaler und lokaler Effekte an. Demnach hatten die hohe Konnektivität der untersuchten Karst- und Lockergesteinssysteme, Landnutzung, abschirmende Deckschichten, unterschiedliches Grundwasseralter und Messstellentiefe Auswirkungen auf die Diversität und Abundanz der Gemeinschaften. Die Bakteriengemeinschaften reflektierten vor allem die Zugehörigkeit aller Messstellen zu einem Grundwassersystem. Insgesamt sind die faunistischen und mikrobiologischen Daten charakteristisch für oligotrophe, oligoalimonische Grundwässer. Die Untersuchung großräumiger Besiedlungsmuster der Grundwasserfauna ergab signifikante biogeografische Unterschiede. Die subterranen Besiedlungsmuster weichen deutlich von bestehenden Gliederungssystemen für oberirdische Landschaften oder Fließgewässerzönosen ab. Die größten Abweichungen zwischen den stygofaunalen Verbreitungsmustern und den oberirdischen Gliederungssystemen wurden vor allem in den eiszeitlich überprägten Gebieten Nord- und Süddeutschlands sowie in den Vorgebirgsregionen der zentralen Mittelgebirge beobachtet.
Anhand der erfassten Daten konnten vier Stygoregionen definiert werden, die deutlich unterschiedliche Faunengemeinschaften aufweisen: 1) das "Nördliche Tiefland", 2) die "Zentralen Mittelgebirge", 3) die "Südwestlichen Mittelgebirge" sowie 4) die "Südlichen Mittelgebirge und die Alpen". Die Ergebnisse zeigen die generelle Anwendbarkeit und Eignung der Stygofauna und der mikrobiellen Gemeinschaften für die qualitative Bewertung von Grundwasserökosystemen. Für die biologische Bewertung von Grundwassersystemen sind die faunistische Diversität, Abundanz und die Artenzusammensetzung, die Einteilung in stygobionte (obligate Grundwasserarten) und nicht-sytgobionte Arten sowie die bakterielle Abundanz geeignete Indikatoren für anthropogene Belastungen im Grundwasser. Die Entwicklung eines ökologisch orientierten Erfassungs- und Bewertungssystem für Grundwasserlebensräume ist unabdingbar für ein nachhaltiges Grundwassermanagement, welches den Erhalt unserer Grundwassersysteme und Trinkwasserversorgung gewährleistet. Die Definition von Stygoregionen ist ein entscheidender Schritt für die Entwicklung eines Bewertungs- und Referenzsystems für Grundwasserlebensräume. Die Bewertung des Ökosystemzustands von Grundwassersystemen muss jedoch auf lokaler Skala erfolgen, da die Zusammensetzung der Grundwassergemeinschaften durch die Stärke des lokalen hydrologischen Austauschs mit Oberflächensystemen geprägt ist. Von diesem hängt die Menge an verfügbarer Nahrung, Sauerstoff und konkurrierenden Oberflächenarten im Grundwasser abhängt. Zusätzlich sind Kenntnisse biogeografischer und regionaler Verhältnisse notwendig - als Referenz für das potenzielle Vorkommen von Arten und Abundanzen bestimmter Grundwassersysteme.
Eutrophierung infolge übermäßiger Nährstoffeinträge ist eine ernsthafte, weltweite Bedrohung für aquatische Ökosysteme und ist einer der wesentlichen anthropogenen Stressoren auf aquatische Organismen in europäischen Fließgewässern. In Bächen und kleinen bis mittelgroßen Flüssen führt Eutrophierung zu einem übermäßigen Wachstum von Periphyton und dadurch zu einem Verstopfen des hyporheischen Interstitials (biogene Kolmation). Infolgedessen kommt es zu einem Sauerstoffdefizit im Interstitial, wodurch die Habitatqualität für das Makrozoobenthos und für Eier und Larven kieslaichender Fische erheblich beeinträchtigt wird. Anders als in stehenden Gewässern fehlen effiziente Werkzeuge zur Eutrophierungssteuerung in Fließgewässern bisher. Eine Top-down Steuerung des Nahrungsnetzes durch gezielte Stützung der Fischbestände, vergleichbar mit der erfolgreich in Seen angewendeten Methode der Biomanipulation, ist ein vielversprechender Ansatz zur Reduktion von Eutrophierungseffekten in Fließgewässern – insbesondere in Einzugsgebieten, in denen die Nährstoffeinträge nicht erheblich reduziert werden können. Ziel dieser Arbeit war es, das Potenzial einer Top-down Steuerung zur Reduktion von Eutrophierungseffekten durch zwei großwüchsige karpfenartige Fischarten – die herbivore Nase (Chondrostoma nasus) und den omnivoren Döbel (Squalius cephalus) – in mittelgroßen Flüssen zu erfassen. Dazu habe ich Freilandexperimente auf unterschiedlich großen räumlichen und zeitlichen Skalen in einem eutrophierten Mittelgebirgsfluss durchgeführt. Generell haben die Ergebnisse dieser Experimente die zentrale Rolle von Top-down Effekten durch Fische in Fließgewässernahrungsnetzen aufgezeigt. In einem vierjährigen großskaligen Experiment, dem zentralen Teil meiner Arbeit, konnte ich zeigen, dass die Stützung der Bestände von Nase und Döbel zu einer deutlichen Verbesserung der Sauerstoffversorgung und des Wasseraustauschs im oberen Bereich des Interstitials geführt hat, und das, obwohl die Top-down Effekte der Fische auf die Periphytonbiomasse vergleichsweise gering ausgeprägt waren. Diese Ergebnisse konnten durch ein vierwöchiges Mesokosmosexperiment gestützt werden, das zugleichwertvolle Hinweise auf die zugrundeliegenden Mechanismen für die Verringerung der Eutrophierungseffekte im Interstitial durch Nase und Döbel geliefert hat. Durch hohe Dichten beider Fischarten wurde das Sauerstoffdefizit im Interstitial verringert, was wahrscheinlich auf eine Reduktion der biogenen Kolmation des Interstitials durch benthisches Grazing der Nasen bzw. durch Bioturbation der Döbel zurückzuführen war. Insgesamt zeigen die Ergebnisse meiner Arbeit, dass eine Biomanipulation durch Stützung der Bestände herbivorer und omnivorer Fische potenziell geeignet ist, um Eutrophierungseffekte in mittelgroßen Flüssen zu reduzieren. Die Ergebnisse könnten somit der erste Schritt sein, um Biomanipulation als unterstützende Maßnahme zur Verringerung von Eutrophierungseffekten in Fließgewässern zu etablieren, und damit zum Erhalt der aquatischen Biodiversität beitragen.
Verletzungen des vorderen Kreuzbands (vKB) ohne aktive Einwirkung eines Gegenspielers sind ein großes Problem im Fußball. Als möglicher Risikofaktor wird in diesem Zusammenhang oft das Stollendesign der Fußballschuhe genannt. Ziel der Arbeit war daher die Untersuchung der Frage, ob es einen Zusammenhang zwischen dem Stollendesign der Fußballschuhe und den Belastungen im vorderen Kreuzband gibt, oder nicht.
Da Messungen während Fußballspielen nicht möglich sind und Probanden aus ethischen Gründen nicht akuter Verletzungsgefahr ausgesetzt werden dürfen, ist die einzige Möglichkeit zur Untersuchung der Problemstellung die Verwendung mechanischer Tests. Um hiermit aussagekräftige Daten ermitteln zu können ist eine möglichst realistische Belastung der Fußballschuhe während der experimentellen Tests von elementarer Bedeutung.
Hierfür wurde in der vorliegenden Arbeit die Kinematik und die Bodenreaktionskraft realer Verletzungssituationen mittels der Poser-Methode bestimmt und über eine anschließende invers-dynamische Computersimulation die resultierenden Gelenkmomente berechnet. Diese Daten definierten die Randbedingungen für den experimentellen Vergleich von vier unterschiedlichen Stollendesigns mit dem neu entwickelten mechanischen Testgerät TrakTester.
Bei den durchgeführten Vergleichsmessungen zeigten sich aussagekräftige Unterschiede bei den gemessenen Kräften und Momenten zwischen den Stollendesigns. Zur Abschätzung des Einflusses des Stollendesigns auf die Belastungen des vKB wurden aus den Messwerten, unter Berücksichtigung biomechanischer und medizinischer Erkenntnisse, Gefährdungspotentiale für jedes Stollendesign bei jedem untersuchten Lastfall bestimmt. Diese Gefährdungspotentiale lassen den Schluss zu, dass das Stollendesign die Kräfte im vKB beeinflusst, allerdings erheblich von den exakten Randbedingungen abhängt.
Grundsätzlich bestätigt die vorliegende Arbeit die Annahme, dass von lamellenförmigen Stollen pauschal eine größere Gefahr für das vKB ausgeht, nicht.
Mobile payment has been a payment option in the market for a long time now and was predicted to become a widely used payment method. However, over the years, the market penetration rate of mPayments has been relatively low, despite it having all characteristics required of a convenient payment method. The primaryrnreason for this has been cited as a lack of customer acceptance mainly caused due to the lack of perceived security by the end-user. Although biometric authentication is not a new technology, it is experiencing a revival in the light of the present day terror threats and increased security requirements in various industries. The application of biometric authentication in mPayments is analysed here and a suitable biometric authentication method for use with mPayments is recommended. The issue of enrolment, human and technical factors to be considered are discussed and the STOF business model is applied to a BiMoP (biometric mPayment) application.
Change of ecosystems and the associated loss of biodiversity is among the most important environmental issues. Climate change, pollution, and impoundments are considered as major drivers of biodiversity loss. Organism traits are an appealing tool for the assessment of these three stressors, due to their ability to provide mechanistic links between organism responses and stressors, and consistency over wide geographical areas.
Additionally, traits such as feeding habits influence organismal performance and ecosystem processes. Although the response of traits of specific taxonomic groups to stressors is known, little is known about the response of traits of different taxonomic groups to stressors. Additionally, little is known about the effects of small impoundments on stream ecosystem processes, such as leaf litter decomposition, and food webs.
After briefly introducing the theoretical background and objectives of the studies, this thesis begins by synthesizing the responses of traits of different taxonomic groups to climate change and pollution. Based on 558 peer-reviewed studies, the uniformity (i.e., convergence) in trait response across taxonomic groups was evaluated through meta-analysis (Chapter 2). Convergence was primarily limited to traits related to tolerance.
In Chapter 3, the hypothesis that small impoundments would modify leaf litter decomposition rates at the sites located within the vicinity of impoundments, by altering habitat variables and invertebrate functional feeding groups (FFGs) (i.e., shredders), was tested. Leaf litter decomposition rates were significantly reduced at the study sites located immediately upstream (IU) of impoundments, and were significantly related to the abundance of invertebrate shredders.
In Chapter 4, the invertebrate FFGs were used to evaluate the effect of small impoundments on stream ecosystem attributes. The results showed that heterotrophic production was significantly reduced at the sites IU. With regard to food webs, the contribution of methane gas derived carbon to the biomass of chironomid larvae was evaluated through correlation of stable carbon isotope values of chironomid larvae and methane gas concentrations.
The results indicated that the contribution of methane gas derived carbon into stream benthic food web is low. In conclusion, traits are a useful tool in detecting ecological responses to stressors across taxonomic groups, and the effects of small impoundments on stream ecological integrity and food web are limited.
Beim Bitcoin handelt es sich um eine dezentrale virtuelle Währung in einem Peer-to-Peer Netzwerk. Die digitalen Münzen wurden 2008 durch Satoshi Nakamoto erfunden und seit 2009 in Umlauf gebracht. Das angestrebte Ziel des Bitcoin sind Transaktionen zum Erwerb virtueller und realer Güter ohne das Einwirken von Finanzintermediären. Dadurch können Transaktionskosten minimiert werden. Das Vertrauen in solche dritte Parteien wird dabei durch ein mathematisches Konzept ersetzt und durch das Bitcoinnetzwerk und all seine Nutzer sichergestellt. Obwohl die digitalen Münzen eigentlich als Tauschmittel konzipiert wurden, ist der aktuelle Anwendungsbereich noch sehr gering. Die Kursentwicklung hingegen erfuhr seit Anfang 2013 mehrere Berg- und Talfahrten auf den Handelsplattformen für den Bitcoin. Während sich viele wissenschaftliche Arbeiten mit den technischen Aspekten im Bereich der Informatik befassen, klafft im ökonomischen Kontext noch eine große Lücke. Was macht ein Zahlungsmittel eigentlich aus und wie ist der Bitcoin im volkswirtschaftlichen Sinne einzuordnen? Mit diesen Fragestellungen wird sich in dieser Ausarbeitung auseinandergesetzt. Als Vergleichsgröße wurden dabei, auf Basis sorgfältig ausgewählter Literatur, die Aspekte realer Währungen nach ihren Funktionen, Eigenschaften und Formen untersucht. Anschließend wurden die technischen Grundlagen der virtuellen Währung dargelegt, um ebenfalls den Bitcoin darauf anzuwenden. Dabei hat sich gezeigt, dass die digitalen Münzen als virtuelle Währung, gegenüber realen Währungen, noch deutliche Defizite aufweisen. Eine besonders gravierende Schwachstelle stellt dabei die hohe Volatilität des Kurses dar. Sie sorgt dafür, dass der Bitcoin mit einer solchen Instabilität nicht die Wertaufbewahrungsfunktion gewährleisten kann. Da dies ein ausschlaggebendes Kriterium zur Erfüllung der Geldfunktionen darstellt, kann der Bitcoin ebenfalls nicht die Rolle als Zahlungsmittel erfüllen, wie es bei den realen Währungen der Fall ist.
In der vorliegenden Dissertation mit dem Titel "Blickanalysen bei mentalen Rotationsaufgaben" wird eine Analyse der visuellen Verarbeitungsprozesse bei mentalen Rotationsaufgaben mittels Eye-Tracking-Technologie durchgeführt, um die zugrundeliegenden kognitiven Prozesse und Strategien, die bei der Lösung dieser Aufgaben angewandt werden, zu untersuchen. Ein Anliegen dieser Arbeit ist es, die Problemstellung zu adressieren, wie individuelle Unterschiede, insbesondere geschlechtsspezifische Differenzen in den Blickmustern, die visuelle Verarbeitung und Leistung bei mentalen Rotationsaufgaben beeinflussen. Hierzu wurden drei Studien durchgeführt, die nicht nur die Identifikation von Blickmustern und die Analyse der Leistungsunterschiede in Bezug auf Geschlecht umfassen, sondern auch die Korrelation zwischen Blickverhalten und Leistung untersuchen. Die Ergebnisse dieser Forschung bieten Einblicke in die Mechanismen der visuellen und kognitiven Verarbeitung bei mentalen Rotationsaufgaben und heben die Bedeutung des Eye-Tracking als Forschungsinstrument in der kognitiven Psychologie hervor, um ein umfassendes Verständnis der Einflussfaktoren auf räumliches Denken und Problemlösungsstrategien zu erlangen.
Blockchain in Healthcare
(2020)
The underlying characteristics of blockchain can facilitate data provenance, data integrity, data security, and data management. It has the potential to transform the healthcare sector. Since the introduction of Bitcoin in the fintech industry, the blcockhain technology has been gaining a lot of traction and its purpose is not just limited to finance. This thesis highlights the inner workings of blockchain technology and its application areas with possible existing solutions. Blockchain could lay the path for a new revolution in conventional healthcare systems. We presented how individual sectors within the healthcare industry could use blockchain and what solution persists. Also, we have presented our own concept to improve the existing paper-based prescription management system which is based on Hyperledger framework. The results of this work suggest that healthcare can benefit from blockchain technology bringing in the new ways patients can be treated.
Aufgrund des branchenweiten Bedarfs den Konkurrenzkampf zu umgehen, entwickelten Kim und Mauborgne die Blue Ocean Strategy, um neue Märkte zu ergründen. Diese bezeichnen sie als einzigartig. Da jedoch weitere Strategien zur Ergründung neuer Märkte existieren, ist es das Ziel dieser Arbeit herauszufinden, anhand welcher Charakterisierungsmerkmale die Blue Ocean Strategy als einzigartig angesehen werden kann.
Die Strategie von Kim und Mauborgne soll daher mit Schumpeters schöpferischen Zerstörung, Ansoffs Diversifikationsstrategie, Porters Nischenstrategie und Druckers Innovationsstrategien verglichen werden. Für den Vergleich werden die Charakterisierungsmerkmale herangezogen, nach denen Kim und Mauborgne die Blue Ocean Strategy als einzigartig beurteilen. Auf Basis dieser Kriterien wird ein Metamodell entwickelt, mit dessen Hilfe die Untersuchung durchgeführt wird.
Der Vergleich zeigt, dass die Konzepte von Schumpeter, Ansoff, Porter und Drucker in einigen Kriterien der Blue Ocean Strategy ähneln. Keine der Strategien verhält sich jedoch in allen Punkten so wie das Konzept von Kim und Mauborgne. Während die Blue Ocean Strategy ein Differenzierung und Senkung der Kosten anstrebt, orientieren sich die meisten Konzepte entweder an einer Differenzierung oder an einer Kostenreduktion. Auch die Betretung des neuen Marktes wird unterschiedlich interpretiert. Während die Blue Ocean Strategy auf einen Markt abzielt, der unergründet ist und somit keinen Wettbewerb vorweist, werden bei den anderen Strategien oft bestehende Märkte als neu interpretiert, auf denen das Unternehmen bisher nicht agiert hat. Dies schließt die vorherige Existenz der Märkte jedoch nicht aus.
Auf Basis der durch den Vergleich gezogenen Erkenntnisse, kann somit die Blue Ocean Strategy als einzigartig bezeichnet werden.
Ziel des Verbundprojektes 3D-RETISEG ist es, ein optimiertes echtzeitfähiges Soft- und Hardwarepaket zur 2D/3D-Segmentierung und Klassifizierung basierend auf hierarchischen Inselstrukturen, und zur schnellen Volumenvisualisierung sehr großer Volumendaten aus komprimierten Datensätzen zu entwickeln. Die Entwicklungen sollen in konkreten Anwendungsfällen der Forschung und der Wirtschaft als marktreifes Modul in das Softwarepaket VGStudioMax integriert werden. In der Medizin, speziell bei der Segmentierung von Volumendatensätzen, die durch unterschiedliche Tomographietechniken (z.B. CT und MRI) erzeugt werden, liefern zweidimensionale Verfahren häufig eine unzureichende Qualität aufgrund der anisotropen Berücksichtigung der Rauminformationen. Bisher entwickelte dreidimensionale Verfahren sind, neben der der schlechten Verfügbarkeit ihrer Implementierungen, häufig nur für bestimmte Fragestellungen dediziert und daher für andere Anwendungsfälle schlecht adaptierbar. Weiterhin benötigen Verfahren, die gute Ergebnisse liefern, meist eine hohe Laufzeit. Dies ist aber speziell in medizinischen Anwendungen von großem Nachteil, da hier die Qualität der Ergebnisse in letzter Instanz von einem Experten beurteilt wird. Damit das Ergebnis schnell zu benutzerdefinierten Optimierungen durch Veränderung der Verfahrensparameter zur Verfügung steht, sollte ein Verfahren nur sehr kurze Rechenzeiten benötigen. Weist ein Verfahren eine geringe Laufzeit auf, so kann es außerdem intra-operativ eingesetzt werden. Der hier im Projekt verwendete 3D-Color-Structure-Code verspricht, ein besseres und generisches Verfahren zu ermöglichen.
The growing numbers of breeding rooks (Corvus frugilegus) in the city of Landau (Rhineland- Palatinate, Germany) increase the potential for conflict between rooks and humans, which is mainly associated with noise and faeces. Therefore, the aim of this work is a better understanding of the breeding tree selection of the rook in order to develop options for action and management in the future.
Part I of this thesis provides general background information on the rook and includes mapping of the rookeries in the Anterior Palatinate and South Palatinate including Landau in the year 2020. That mapping revealed that the number of rural colonies has decreased, while the number of urban colonies has increased in the study area in the last few years. In line with current literature, tree species and tree size were important criteria for breeding tree selection. However, the mapping showed that additional factors must be important as well.
Therefore, as rooks seem to often breed along traffic axes, Part II of this thesis examines how temperature, artificial light and noise, which are all linked to traffic axes, affect the breeding tree selection of the rook in the city of Landau. The following three hypotheses are developed: (1) manually selected breeding trees (Bm) have a warmer microclimate than manually selected non-breeding trees (Nm) or randomly selected non-breeding trees (Nr), (2) Bm are exposed to a higher light level than Nm or Nr and (3) Bm are exposed to a higher noise level than Nm or Nr. To test these hypotheses, 15 Bm, 13 Nm and 16 Nr are investigated.
The results show that Bm were exposed to more noise than both types of non-breeding trees (μBm, noise = 36.52481 dB, μNm, noise = 31.27229 dB, μNr, noise = 29.17417 dB) where the difference between Bm and Nr was significant. In addition, there was a tendency for Bm to be exposed to less light (μBm, light = 0.356 lx) than Nm (μNm, light = 0.4107692 lx) and significantly less light than Nr (μNr, light = 1.995 lx), while temperature did not differ between the groups (μBm, temp = 16.90549 °C, μNm, temp = 16.93118 °C, μNr, temp = 17.28639 °C).
This study shows for the first time that rooks prefer trees which are exposed to low light levels and high noise levels, i.e. more intense traffic noise, for breeding. It can only be speculated that the cause of this is lower enemy pressure at such sites. The fact that temperature does not seem to have any influence on breeding tree selection may be due to only small temperature differences at nest height, which might be compensated by breeding behaviour. Consequently, in the long term one management approach could be to divert traffic from inner-city areas, especially schools and hospitals, to bypasses. If tree genera suitable for rooks, such as plane trees, are planted along the bypasses, those sites could provide suitable alternative habitats to inner-city breeding locations, which become less attractive for breeding due to noise reduction. In the short term in addition to locally implemented repellent measures the most effective approach is to strengthen rook acceptance among the population. However, further research is needed to verify the results of this thesis and to gain further insights into rook breeding site selection in order to develop effective management measures.
Die modellgetriebene Softwareentwicklung beabsichtigt die Spezifikation von Softwaresystemen durch Modelle zu vereinfachen und die automatisierte Entwicklung zu verbessern. Die Modellierungssprachen und Werkzeuge, die zur Modellierung von Systemen und Anwendungsdomänen herangezogen werden, werden in modellbasierten technologischen Räumen zusammengefasst. Ontologiebasierte technologische Räume enthalten Ontologiesprachen und Technologien zum Entwurf, der Anfrage und dem Schlussfolgern von Wissen. Mit der Verbreitung des semantischen Webs werden Ontologien in der Entwicklung von Software zunehmend eingesetzt.
In dieser Arbeit werden zur Kombination von technologischen Räumen Brückentechnologien vorgestellt. Transformationsbrücken übersetzen Modelle, Abbildungsbrücken stellen Beziehungen zwischen Modellen verschiedener technologischer Räume her und Integrationsbrücken verschmelzen Räume zu neuen allumfassenden technologischen Räumen. API Brücken erschaffen Interoperabilität zwischen Werkzeugen. Diese Arbeit beschäftigt sich insbesondere mit der Kombination von modellbasierten und ontologiebasierten technologischen Räumen. Nach einem Vergleich zwischen Sprachen und Werkzeugen der einzelnen Räume wird die Integrationsbrücke herangezogen um einen neuen gemeinsamen technologischen Raum zu erstellen, der den hybriden Gebrauch von Sprachen und den interoperablen Einsatz von Werkzeugen ermöglicht. Die Syntax und Semantik von Modellierungssprachen kann mit Hilfe von Ontologiesprachen spezifiziert werden. Die Korrektheit von Modellen wird durch den Einsatz von Ontologietechnologien gewährleistet. Ontologiebasierte Modellierungssprachen erlauben den Nutzen von Anfrage- und Schlussfolgerungstechnologien. Sie sind darüber hinaus so flexibel um verschiedene Anforderungen von Softwareentwicklern zu erfüllen. Domänenspezifische Sprachen unterstützen neben der Spezifikation von Systemen auch die konzeptionelle Beschreibung von Domänen durch Modelle, die aus möglichen Laufzeitinstanzen und deren Typen bestehen. Integrierte Ontologiesprachen helfen eine formale Semantik für Domänenmodellierungssprachen zu definieren und Ontologietechnologien ermöglichen das Schlussfolgern über Typen und Instanzen.
Alle Ansätze in dieser Arbeit werden mit Hilfe eines Szenarios, in dem die Konfigurationen für Familien von Netzwerkgeräte modelliert werden, veranschaulicht. Ferner werden die Implementationen aller Brückentechnologien zur Kombination von technologischen Räumen und alle Werkzeuge für die ontologiebasierte Entwicklung von Modellierungssprachen illustriert.
Bruchsimulation
(2014)
Aufgrund ihrer Komplexität wird die Simulation von Brüchen in echtzeitfähigen Anwendungen der Computergraphik häufig gemieden. Durch Methoden aus den Ingenieurswissenschaften können Simulationen geschaffen werden, die Spiele und andere Anwendungen enorm bereichern. Stetig steigende Rechnerleistungen ermöglichen entsprechende Simulationen in Echtzeit und machen diesen Aspekt zunehmend interessanter.
Das Ziel dieser Arbeit ist die Modellierung von Brüchen starrer Körper durch eine Simulation. Der Fokus richtet sich dabei auf die physikalische Plausibilität und Performanz der Anwendung. Durch diese Ausarbeitung soll beantwortet werden, inwiefern eine Simulation von Brüchen mit Mitteln der Computergraphik umgesetzt werden kann.
Es wurden drei bestehende Ansätze und eine eigene Entwicklung implementiert und analysiert. Dieser Arbeit liegen die Verfahren "Real-Time Simulation of Deformation and Fracture of Stiff Materials" von Müller et al., "Real-Time Simulation of Brittle Fracture using Modal Analysis" von Glondu et al. und "Fast and Controllable Simulation of the Shattering of Brittle Objects" von Smith et al. zugrunde. Die vorgestellten Methoden führen voneinander abweichende Bruchbildungen durch. Das eigenständig entwickelte Verfahren baut auf deren Vorzügen auf und erweitert sie mit der Idee der sekundären Risse. Die Implementierung der vier Ansätze erfolgte in der Physik-Engine Bullet.
Die Ergebnisse der Arbeit zeigen, dass physikalisch basierte Brüche in Echtzeit realisierbar sind. Die Untersuchung der physikalischen Methoden auf Performanz zeigte, dass diese vor allem mit der Struktur der Objekte zusammenhängen. Die präsentierten Methoden lieferten für eine Auswahl an Objekten physikalisch plausible Ergebnisse in Echtzeit. Durch die Ausarbeitung wird deutlich, dass die weitere Erforschung der Thematik neue Möglichkeiten aufdecken kann. Die Verbesserung des Realismus in echtzeitfähigen, virtuellen Welten kann mit dem Einsatz von physikalisch plausiblen Methoden erreicht werden.
Ein zentrales Problem der stationären Behandlung psychischer und psychosomatischer Störungen ist die Nachhaltigkeit von Therapieerfolgen. Im Rahmen einer Pilotstudie wurde ein SMS-basiertes Nachsorgeprogramm zur Modifikation Perfektionismus-bezogener Kognitionen im Anschluss an eine stationäre Behandlung von Burnout-Patienten evaluiert.
Es handelte sich um eine kontrollierte Verlaufsstudie mit vier Messzeitpunkten (Aufnahme, Entlassung, 6 und 10-Wochen-Katamnese). Die Patienten der Versuchsgruppe (n=31) erhielten zusätzlich zur Routine-Behandlung eine 6-wöchige kognitiv ausgerichtete individualisierte SMS-Nachsorge. Als Kontrollgruppe (n=30) diente eine Gruppe von Patienten mit einer stationären Routine-Behandlung. Zur Erfassung der Burnout-Symptomatik wurde das Maslach Burnout Inventory General Survey (MBI-GS-D) eingesetzt, die depressive Symptomatik wurde mit dem Beck-Depressions-Inventar-V (BDI-V) erhoben. Zur Erfassung der Facetten des Perfektionismus dienten Items aus der Multidimensional Perfectionism Scale (FMPS und HMPS) sowie der Almost Perfect Scale (APS-R).
Ein sehr hohes Interesse, eine hohe Inanspruchnahme sowie eine hohe Akzeptanz des Nachsorgeprogramms konnte anhand der Bereitschaft zur Teilnahme und der von den Teilnehmern bewertete Nutzen aufgezeigt werden.
Eine Wirksamkeit der SMS-Nachsorge bzgl. Burnout und depressiver Symptomatik sowie dysfunktionalen Facetten des Perfektionismus konnte mittels zweifaktoriellen Kovarianzanalysen (Gruppe, Zeit, Baseline als Kovariate) nicht nachgewiesen werden. Ein Grund hierfür könnte sein, dass der Interventionszeitraum von 10 Wochen nach der stationären Entlassung für eine effektive Nachsorge zu kurz bemessen wurde. Bzgl. einiger dysfunktionaler Perfektionismusskalen (Concern over Mistakes, Discrepancy, Socially Prescribed Perfectionism) zeigten sich kleinere Interaktionseffekte, die einen ersten Hinweis liefern, dass die eingesetzten SMS-Nachrichten Perfektionismus-bezogene Kognitionen verändern können. Da das vorgestellte Interventionsprogramm ein ökonomisches und niedrigschwelliges ambulantes Nachsorge-Konzept darstellt und sich erste Hinweise auf eine Wirksamkeit ergeben, wären für die Zukunft weitere Studien wünschenswert, die sich über einen längeren Interventionszeitraum erstrecken. Es sollten weitere Messinstrumente einbezogen und die Implementierung eines Feedbackprozesses erwogen werden.
Business continuity planning
(2008)
Unternehmenskrisen lassen die Weltwirtschaft aufhorchen - gerade in jüngster Zeit häufen sich die Nachrichten über Notfälle und folgenschwere Fehlentscheidungen in Organisationen aller Art. Vieles bekommt die Außenwelt aber gar nicht erst mit, wenn die Ausweitung von Störungen noch in letzter Sekunde verhindert werden kann. Und wenn das Ausmaß zu groß wird? Dann droht oft das wirtschaftliche Aus. Business Continuity Planning ist der Vorsorgeprozess, der eine Institution auf den Ausnahmefall vorbereitet und garantiert, dass deren Existenz zu jeder Zeit gesichert ist und alle geschäftskritischen Prozesse auch während einer Krise aufrecht erhalten werden können. Diese Diplomarbeit erleichtert den Einstieg in das Thema Business Continuity Planning und in die erfolgreiche Umsetzung von Notfallmaßnahmen. Aus dem Blickwinkel der IT werden wertvolle Definitionen und Abgrenzungen gegeben und die Problemstellungen und Lösungswege einer individuellen Notfallvorsorge aufgegriffen. Fokussiert wird ein umfassender Überblick über die zentralen Teilbereiche des Planungsprozesses (und ihrer Erfolgskriterien) und ein praktischer Einblick in das Krisenmanagement.