Filtern
Erscheinungsjahr
- 2016 (86) (entfernen)
Dokumenttyp
- Dissertation (31)
- Ausgabe (Heft) zu einer Zeitschrift (19)
- Bachelorarbeit (13)
- Masterarbeit (13)
- Diplomarbeit (6)
- Konferenzveröffentlichung (2)
- Habilitation (1)
- Bericht (1)
Sprache
- Deutsch (50)
- Englisch (34)
- Mehrsprachig (1)
- Spanisch (1)
Schlagworte
- Vorlesungsverzeichnis (4)
- Raytracing (2)
- soil water repellency (2)
- Abwasser (1)
- Ad-hoc-Netz (1)
- Algorithmische Geometrie (1)
- Analytischer Hierarchieprozess (1)
- Animationsfilm (1)
- Archäologie (1)
- Articles for Deletion (1)
Institut
Reaktiv lokale Algorithmen sind verteilte Algorithmen, die den Anforderungen großer, batteriebetriebener, Drahtloser Ad Hoc und Sensornetzwerke im besonderen Maße gerecht werden. Durch Vermeidung überflüssiger Nachrichtenübertragungen sowie Verzicht auf proaktive Ermittlung von Nachbarschaftstabellen (d.h. beaconing) minimieren solche Algorithmen den Kommunikationsaufwand und skalieren gut bei wachsender Netzgröße. Auf diese Weise werden Ressourcen wie Bandbreite und Energie geschont, es kommt seltener zu Nachrichtenkollisionen und dadurch zu einer Erhöhung der Paketempfangsrate, sowie einer Reduktion der Latenzen.
Derzeit wird diese Algorithmenklasse hauptsächlich für Geografisches Routing, sowie zur Topologiekontrolle, insbesondere zur Ermittlung der Adjazenzliste eines Knotens in zusammenhängenden, kantenschnittfreien (planaren) Repräsentationen des Netzgraphen, eingesetzt. Ersteres ermöglicht drahtlose multi-hop Kommunikation auf Grundlage von geografischen Knotenpositionen ohne Zuhilfenahme zusätzlicher Netzwerkinfrastruktur, wohingegen Letzteres eine hinreichende Grundlage für effiziente, lokale Lösungen einer Reihe algorithmischer Problemstellungen ist.
Die vorliegende Dissertation liefert neue Erkenntnisse zum Forschungsgebiet der reaktiven Algorithmen, zum Einen auf einer abstrakten Ebene und zum Anderen durch die Einführung neuer Algorithmen.
Erstens betrachtet diese Arbeit reaktive Algorithmen erstmalig im Ganzen und als eigenständiges Forschungsfeld. Es wird eine umfangreiche Literaturstudie zu dieser Thematik präsentiert, welche die aus der Literatur bekannten Algorithmen, Techniken und Anwendungsfelder systematisch auflistet, klassifiziert und einordnet. Weiterhin wird das mathematische Konzept der O- und Omega-reaktiv lokalen Topologiekontrolle eingeführt. Dieses Konzept ermöglicht erstmals die eindeutige Unterscheidung reaktiver von konventionellen, beacon-basierten, verteilten Topologiekontrollalgorithmen. Darüber hinaus dient es als Klassifikationsschema für existierende, sowie zukünftige Algorithmen dieser Art. Zu guter Letzt ermöglicht dieses Konzept grundlegende Aussagen über die Mächtigkeit des reaktiven Prinzips, welche über Entwurf und Analyse von Algorithmen hinaus reichen.
Zweitens werden in dieser Arbeit neue reaktiv lokale Algorithmen zur Topologiekontrolle und Geografischem Routing eingeführt, wobei drahtlose Netze durch Unit Disk bzw. Quasi Unit Disk Graphen modelliert werden. Diese Algorithmen berechnen für einen gegebenen Knoten die lokale Sicht auf zusammenhängende, planare, Euklidische bzw. Topologische Spanner mit konstanter Spannrate bzgl. des Netzgraphen und routen Nachrichten reaktiv entlang der Kanten dieser Spanner, wobei die Nachrichtenauslieferung garantiert wird. Alle bisher bekannten Verfahren sind entweder nicht reaktiv oder gewährleisten keine konstanten Euklidischen oder Topologischen Spannraten. Ein wesentliches Teilergebnis dieser Arbeit ist der Nachweis, dass die partielle Delaunay Triangulierung (PDT) ein Euklidischer Spanner mit konstanter Spannrate für Unit Disk Graphen ist.
Die in dieser Dissertation gewonnenen Erkenntnisse bilden die Basis für grundlegende und strukturierte Forschung auf diesem Gebiet und zeigen, dass das reaktive Prinzip ein wichtiges Werkzeug des Algorithmenentwurfs für Drahtlose Ad Hoc und Sensornetzwerke ist.
In recent years head mounted displays (HMD) and their abilities to create virtual realities comparable with the real world moved more into the focus of press coverage and consumers. The reason for this lies in constant improvements in available computing power, miniaturisation of components as well as the constantly shrinking power consumption. These trends originate in the general technical progress driven by advancements made in smartphone sector. This gives more people than ever access to the required components to create these virtual realities. However at the same time there is only limited research which uses the current generation of HMDs especially when comparing the virtual and real world against each other. The approach of this thesis is to look into the process of navigating both real and virtual spaces while using modern hardware and software. One of the key areas are the spatial and peripheral perception without which it would be difficult to navigate a given space. The influence of prior real and virtual experiences on these will be another key aspect. The final area of focus is the influence on the emotional state and how it compares to the real world. To research these influences a experiment using the Oculus Rift DK2 HMD will be held in which subjects will be guided through a real space as well as a virtual model of it. Data will be gather in a quantitative manner by using surveys. Finally, the findings will be discussed based on a statistical evaluation. During these tests the different perception of distances and room size will the compared and how they change based on the current reality. Furthermore, the influence of prior spatial activities both in the real and the virtual world will looked into. Lastly, it will be checked how real these virtual worlds are and if they are sufficiently sophisticated to trigger the same emotional responses as the real world.
Die Entstehung von Gründungsteams wird bisher lediglich als Abfolge von Suche, Auswahl und Gewinnung von Gründerpersonen verstanden. In der vorliegenden Arbeit wird auf Basis von 47 interviewten Gründerpersonen ein neues Verständnis für die Entstehung von Gründungsteams geschaffen. Dabei wird im Stil der Grounded Theory das bisher vorherrschende Model der Teamentstehung maßgeblich erweitert. So wird eine neue Art der Unterscheidung von Grünerpersonen entdeckt, welche auf die Intention von Teammitgliedern abzielt. Zudem zeigt sich, dass Teams in einem iterativ-epiodischen Prozess entstehen und Veränderungen von Teamzu-sammmensetzungen Bestandteil der Entstehung sind. Aufgrund der in dieser Arbeit geschaffenen neuen Erkenntnisse zur Teamentstehung können Handlungsempfehlungen für Gründerpersonen und die Gründungsförderung gegeben werden. Zudem werden neue Untersuchungsgebiete für Gründungsteams eröffnet, die das hier entwickelte Modell als Bezugsrahmen für weitere Forschung nehmen können.
Conversion of natural vegetation into cattle pastures and croplands results in altered emissions of greenhouse gases (GHG), such as carbon dioxide (CO2), methane (CH4), and nitrous oxide (N2O). Their atmospheric concentration increase is attributed the main driver of climate change. Despite of successful private initiatives, e.g. the Soy Moratorium and the Cattle Agreement, Brazil was ranked the worldwide second largest emitter of GHG from land use change and forestry, and the third largest emitter from agriculture in 2012. N2O is the major GHG, in particular for the agricultural sector, as its natural emissions are strongly enhanced by human activities (e.g. fertilization and land use changes). Given denitrification the main process for N2O production and its sensitivity to external changes (e.g. precipitation events) makes Brazil particularly predestined for high soil-derived N2O fluxes.
In this study, we followed a bottom-up approach based on a country-wide literature research, own measurement campaigns, and modeling on the plot and regional scale, in order to quantify the scenario-specific development of GHG emissions from soils in the two Federal States Mato Grosso and Pará. In general, N2O fluxes from Brazilian soils were found to be low and not particularly dynamic. In addition to that, expected reactions to precipitation events stayed away. These findings emphasized elaborate model simulations in daily time steps too sophisticated for regional applications. Hence, an extrapolation approach was used to first estimate the influence of four different land use scenarios (alternative futures) on GHG emissions and then set up mitigation strategies for Southern Amazonia. The results suggested intensification of agricultural areas (mainly cattle pastures) and, consequently, avoided deforestation essential for GHG mitigation.
The outcomes of this study provide a very good basis for (a) further research on the understanding of underlying processes causing low N2O fluxes from Brazilian soils and (b) political attempts to avoid new deforestation and keep GHG emissions low.
Prototyp einer generischen Recommendation Engine basierend auf Echtzeit-Assoziationsanalysen mit R
(2016)
In dieser Arbeit wurde unter Verwendung der Programmiersprache R ein Prototyp zur Erstellung einer Recommendation Engine zur Aufdeckung von Assoziationen innerhalb einer gegebenen Datenmenge entwickelt. Die Berechnung der Assoziationen findet hierbei in Echtzeit statt und des Weiteren wurden die Analysefunktionen generisch programmiert, um ein schnelles Einbinden und einfaches Parametrisieren von Datensätzen zu ermöglichen. Die Entwicklung fußte auf der grundlegenden Motivation, Data Mining Methoden wie das Assoziationsverfahren teilweise zu automatisieren, um damit generierte Lösungen effizienter umsetzen zu können. Der Entwicklungsprozess war insgesamt erfolgreich, sodass alle Grundfunktionalitäten im Sinne eines evolutionären Prototypings vorhanden sind.
Die vorliegende Arbeit beschäftigt sich mit der Fragestellung, wie eine repräsentative und aussagekräftige Vergleichbarkeit hinsichtlich der Nachhaltigkeitsleistung (Ökoeffizienz) von Unternehmen branchenunabhängig gewährleistet werden kann trotz der Problematik der Definition repräsentativer Bewertungskriterien der Nachhaltigkeit, sowie der Heterogenität der zu bewertenden Branchen. Bisherige Konzepte zu Umwelt- und Nachhaltigkeitsmanagementsystemen (z.B. EMAS, ISO 14000, ISO 26000, EMASplus), zur Umweltleistungsmessung sowie zur Nachhaltigkeitsbewertung und -berichterstattung (z.B. DNK, GRI) sind mit ihren branchenunabhängigen Formulierung zu allgemein gehalten, um für eine konkrete effizienzorientierte Messung nachhaltigen Wirtschaftens von Unternehmen geeignet zu sein.
Folglich besteht kein System zur Messung der Umweltleistung, um den Forschungsbedarf der Herstellung einer aussagekräftigen Vergleichbarkeit der Ressourcen- und Energieverbräuche der Betriebe einer heterogenen Branche zu begegnen. Angesichts dessen wurde im Rahmen der Arbeit eine allgemeine und branchenunabhängig anwendbare aber dennoch –spezifische Methodik zur Herstellung der Vergleichbarkeit von Unternehmen einer Branche hinsichtlich der Ressourcen- und Energieeffizienz entwickelt. Dabei stellt der Kern der Methodik die Generierung eines betriebsindividuellen Gesamtgewichtungsfaktors dar (GGF-Konzept), welcher als Operationalisierung der Vergleichbarkeit angesehen werden kann und damit der Problematik der Heterogenität begegnet. Die Ermittlung von Kriteriengewichtungen im Rahmen des GGF-Konzeptes kann in Analogie zu einem Entscheidungsproblem bei Mehrfachzielsetzung (Multi Criteria Decision Making – MCDM) gesehen werden, da mehrere Kriterien und Sub-Kriterien zueinander in Relation gesetzt werden mussten. Infolgedessen stellte sich der Analytische-Hierarchie-Prozess als das geeignete Verfahren im Rahmen der Methodikentwicklung heraus. Anwendung fand die Methodik in einem ersten empirischen Test anhand einer ausgewählten Stichprobe von 40 Wäschereibetrieben. Dabei zeigten die Ergebnisse auf, dass repräsentatives sowie aussagekräftiges betriebsindividuelles Benchmarking der Ressourcen- und Energieverbräuche völlig unterschiedlicher und bislang nicht vergleichbarer Betriebe möglich wurde. Hierfür mussten zunächst branchenspezifische repräsentative Bewertungskriterien der Ressourcen- und Energieeffizienz bestimmt werden. Abschließend konnten betriebsspezifische Brennpunkte identifiziert und somit Handlungsempfehlungen zur Optimierung der Ressourcen- und Energieeffizienz der Wäschereibetriebe abgeleitet werden, sodass eine zielorientierte Reduzierung des Ressourcen- und Energieverbrauchs folgen kann.
Die vorliegende Arbeit befasst sich mit der Entwicklung eines Pixel-Sticks, ein digitales Hilfsmittel für das Light Painting. Schwerpunkte sind die Entwicklung von Hard- und Software des Sticks, sowie einer Android Applikation für die Bedienung.
Der Einbezug des Smartphones unterscheidet diesen Pixel-Stick anderen Varianten. Neben der grundlegenden Steuerung ist es möglich, Bilder direkt von dem Smartphone auf den Stick zu übertragen.
Dass Jugendliche lieber Computerspiele nutzen, als Hausaufgaben zu machen oder zu lernen, ist sicherlich allen Lehrern und Lehrerinnen bewusst. Ein Ansatz zur Lösung diese Problems besteht darin, Lernen und Computerspiele miteinander zu verbinden. Zur Zeit wird in der Wissenschaft über Game-based-Learning und Gamification eifrig diskutiert. Was die einzelnen Begriffe bedeuten, soll diese Arbeit beleuchten. Sie fokussiert hierbei jedoch auf den Bereich der Gamification. In diesem Bereich geht es nicht darum, vermeintlich langweiligen Lehrinhalten eine Spielstruktur überzustülpen oder an erfolgreich gemeisterte Übungsaufgaben als Belohnung ein Spiel zu bieten, das mit dem Lehrinhalt nichts zu tun hat. Stattdessen geht es darum, Elemente aus Spielen zu Motivationszwecken in Lernumgebungen einzusetzen. Das Sprachlernen kann im Besonderen von den Möglichkeiten des computergestützten Lernens profitieren.
Über Online-Lernumgebungen können Sprachlernende mit anderen in Kontakt treten und sich austauschen. Bestimmte Spielelemente können Lernende in eine ungezwungene Wettkampfsituation bringen, in der sie sich spielerisch messen können.
Im Rahmen dieser Diplomarbeit wird ein Prototyp entwickelt, der Elemente aus Spielen in eine Lernapplikation für das Thema „Deutsch als Fremdsprache“ einbindet. Im Prototyp soll dargestellt werden, welche Möglichkeiten den Lehrenden offenstehen, ihre Lerner und Lernerinnen zu motivieren. In einem Nutzungstest wird der Prototyp evaluiert. Die so erhobenen Daten werden ausgewertet und Verbesserungsvorschläge gemacht. Ein Fazit fasst die erkannten Vorzüge und Mängel des Prototyps sowie die erarbeiteten Verbesserungsvorschläge zusammen. Zu guter Letzt wird ein Ausblick auf weitere erforderliche Arbeitsschritte gegeben.
Das Ergebnis der Arbeit beinhaltet, dass der Prototyp zwar gute Ansätze enthält und erfolgreich getestet werden konnte, aber in wesentlichen Teilen noch Verbesserungsbedarf besteht. Weiterhin müssen Evaluationsmethoden entwickelt werden, die spieltypische Eigenheiten beachten.
Das Ziel dieser wissenschaftlichen Arbeit ist es, verschiedene vorhandene cloud-basierte Internet of Things (IoT) Entwicklungsplattformen zu untersuchen und hier im Speziellen eine Plattform (IBM Watson IoT) anhand eines Anwendungsfallszenarios detailliert zu untersuchen. Bei IoT handelt es sich um eine aufkommende Technologie mit der Vision, die virtuelle Welt (z.B. Clouds, soziale Netzwerke) und die physikalische Welt (z.B. Geräte, Autos, Kühlschrank, Menschen, Tiere) durch die Internettechnologie miteinander zu verknüpfen. Beispielsweise kann das IoT-Konzept von “smart cities”, welche das Ziel verfolgen, die Produktivität und die Geschäftsentwicklung sowie die sozialen und kulturellen Angebote in der Stadt zu verbessern, durch die Nutzung von Sensoren, Aktuatoren, Clouds und mobilen Geräten erreicht werden (IEEE, 2015). Ein Sensor (z.B. ein Temperatursensor) in einem Gebäude (globale Welt) kann Echtzeitdaten an die IoT Cloud-Plattform (virtuelle Welt) senden, wo sie überwacht, gespeichert und analysiert werden oder eine Aktion auslösen können (z.B. das Kühlsystem in einem Gebäude anschalten, wenn die Temperatur eine bestimmte Grenze überschreitet). Obwohl IoT viele Möglichkeiten in verschiedenen Bereichen schafft (z.B. Transportwesen, Gesundheitsversorgung, verarbeitende Industrie), bringt es auch Herausforderungen mit sich, wie z.B. die Standardisierung, Interoperabilität, Skalierbarkeit, Sicherheit und Privatsphäre. In diesem Bericht werden IoT Konzepte und verwandte Schlüsselprobleme behandelt.
Der Fokus dieser wissenschaftlichen Untersuchung liegt in dem Vergleich verschiedener cloud-basierter IoT Plattformen, um die geschäftlichen Aspekte und die technischen Funktionen zu verstehen, die diese bieten. Die cloud-basierten IoT Plattformen von IBM, Google, Microsoft, PTC und Amazon wurden dabei untersucht.
Für die Ausgestaltung dieser Arbeit wurde die Design Science Research (DSR) Methode verwendet; für die Nachbildung des Echtzeit-IoT Systems wurde die IOT-A modellig Methode verwendet.
Der Vergleich verschiedener cloud-basierter IoT Entwicklungsplattformen zeigt, dass alle untersuchten Plattformen einfache IoT Funktionen bereitstellen, wie z.B. die Verbindung von IoT Geräten und der cloud-basierten IoT Plattform, das Sammeln von Daten von IoT Geräten, die Datenspeicherung und die Datenanalyse. Jedoch ist die IBM IoT Plattform den anderen Plattformen gegenüber aufgrund des integrierten Laufzeitsystems im Vorteil; dies macht sie zudem entwicklerfreundlich. Aus diesem Grund wurde die IBM Watson IoT für Bluemix für die weitere Untersuchung ihrer Einsatzmöglichkeiten ausgewählt. Das Angebot von IBM Watson IoT für Bluemix beinhalten Analytik, Risikomanagement, Verbindungs- und Informationsmanagement. Es wurde ein Anwendungsfall implementiert, um die Einsatzmöglichkeiten der IBM Watson IoT Plattform einzuschätzen. Die digitalen Artefakte (d.h. Anwendungen) wurden entwickelt, um die IoT Lösung von IBM zu bewerten. Die Ergebnisse zeigen, dass IBM eine skalierbare und entwickler- und einsetzungsfreundliche IoT Plattform bietet. Die enthaltene kognitive, kontextuelle und vorhersehbare Analytik erlaubt eine vielversprechende Funktionsweise, die Einblicke auf Basis der IoT Daten gewährt, die durch Sensoren oder andere IoT Geräte übertragen werden.
Eine der grundlegenden Entscheidungen bei der Entwicklung eines Systems ist die Darstellung der Daten. Üblicherweise werden in der Computergrafik Objekte durch Dreiecke dargestellt. Allerdings existieren viele weitere Varianten, welche andere Stärken und Schwächen besitzen. In dieser Arbeit soll die Repräsentation von Objekten durch Distanzfelder untersucht werden. Distanzfelder sind Funktionen, welche für jeden Raumpunkt die Distanz zum nächsten Oberflächenpunkt angeben. Aus dieser einfachen Beschreibung lassen sich viele interessante Eigenschaften ableiten, welche zur Darstellung einer Vielzahl von Formen, Operationen und Effekten genutzt werden können. Es wird ein Überblick über die Hintergründe und Methoden des Distanzfeld-Renderings gegeben. Weiterhin werden verschiedene neue oder erweiterte Ansätze vorgestellt, etwa zur Darstellung impliziter Oberflächen, approximativer indirekter Beleuchtung oder einer GPU Implementation.
Um die Attraktivität eines Unternehmens für Bewerber zu steigern und die Zufriedenheit der Angestellten zu verbessern ist es heutzutage unumgänglich, eine Vielzahl an Work-Life-Balance Maßnahmen anzubieten. Doch die zeitlichen und finanziellen Kosten, welche deren Einführung verursacht, fordern eine Priorisierung der Maßnahmen. Zur Entwicklung einer solchen Empfehlung für Unternehmen untersucht diese Studie ob es Work-Life-Balance Maßnahmen gibt, welche einen höheren Einfluss auf die Arbeitszufriedenheit ausüben als andere, wie groß der relative Effekt von den Maßnahmen im Vergleich zu anderen arbeitsbezogenen und privaten Variablen auf die Veränderung der Arbeitszufriedenheit ist, ob es einen Zusammenhang zwischen der Effektivität einer Maßnahme und deren Nutzung gibt und ob es Unterschiede zwischen den Erwartungen der Angestellten und den Angeboten der Unternehmen gibt.
Diese Fragen sind in acht Forschungshypothesen formuliert, welche in einem quantitativen Design mit Daten von 289 Angestellten von fünfzehn verschiedenen deutschen Unternehmen aus einem Online-Fragebogen überprüft werden. Für die Bildung einer Hierarchie von Maßnahmen nach ihrem Einfluss auf die Arbeitszufriedenheit und die Untersuchung des relativen Effektes im Vergleich zu anderen Variablen wird eine multiple Regressionsanalyse verwendet, während für die Ermittlung der Unterschiede zwischen den Erwartungen der Angestellten und der Verfügbarkeit der Angebote T-Tests durchgeführt werden.
Unterstützung bei der Kindesbetreuung, Unterstützung bei ehrenamtlichen Tätigkeiten und Teambuilding-Events haben einen signifikant höheren Einfluss auf die Arbeitszufriedenheit als andere Maßnahmen, und die hypothetische Nutzung ist höher
als die tatsächliche Nutzung, was auf ein hohes Potenzial dieser Maßnahmen bezüglich der Verbesserung der Arbeitszufriedenheit durch deren Einführung schließen lässt. Darüber hinaus sind aus Sicht der Angestellten flexible Arbeitszeiten und Arbeitsorte sowie Freizeit- und Überstundenkonten die wichtigsten Maßnahmen, welche auch bereits flächendeckend in den befragten Unternehmen angeboten werden. Allgemein sind die Nutzung der verfügbaren Maßnahmen und die Anzahl der angebotenen Maßnahmen wichtiger im Hinblick auf die Arbeitszufriedenheit als die Art der Maßnahmen. Außerdem nehmen Work-Life-Balance Maßnahmen bei jüngeren Menschen einen höheren Stellenwert in Bezug auf die Arbeitszufriedenheit ein als bei älteren Menschen.
Die vorliegende Arbeit beschäftigt sich mit der Betrachtung der Rolle von Vertrauen zwischen den Kapitalnehmern und Kapitalgebern auf einer der größten Crowdfunding-Plattformen, Kickstarter. Kernthema ist die Beantwortung der Forschungsfragen, wie das Vertrauen zwischen den Kapitalgebern und Kapitalnehmern im Kontext von Crowdfunding entsteht, welche Faktoren das Maß von Vertrauen in dieser Beziehung beeinflussen und welche Signale für die Vertrauensbildung verantwortlich sind. Das Ziel dieser Arbeit besteht darin, das von Zerwas, Kilian und von Kortzfleisch 2015 vorgestellte konzeptuelle Modell der Einflussfaktoren von Vertrauen im Kontext von Crowdfunding aus Sicht der Kapitalgeber zu überprüfen und gegebenenfalls zu erweitern.
Auf Grundlage einer Literaturrecherche und qualitativer, leitfadenorientierter Interviews werden die gesammelten Daten diskutiert, bestehende Faktoren verifiziert und weiterführend neue Faktoren und Signale identifiziert, die die Bildung von Vertrauen auf Crowdfunding-Plattformen beeinflussen.
Als Ergebnis werden die Überarbeitung sowie Erweiterung des Ausgangsmodells um die neuen Faktoren geographische Nähe, Vermittlerqualität und Verständnis vom Konzept Crowdfunding vorgeschlagen. Anhand der Häufigkeit der Erwähnung und Relevanz der Faktoren und beeinflussenden Signale in den durchgeführten Interviews wird weiterführend eine Gewichtung der Einzelfaktoren vorgenommen. Abschließend werden Implikationen und Bedeutung für Wissenschaft und Forschung diskutiert.
The establishment of aquatic alien species can strongly affect community and food web structure of the invaded systems and thus represents a major threat to native biodiversity. One of the most important aquatic invasive species in European rivers is the Ponto-Caspian amphipod Dikerogammarus villosus. The species invaded most of the major European waterways within two decades, often associated with a decline of many other macroinvertebrate species, including other amphipods. Based on laboratory results predation by the so called ‘killer shrimp’ is often regarded as the key driver for observed displacement effects, but recent studies indicated a minor relevance of predation by D. villosus in the field. To allow the determination of exact predator-prey interactions from field samples, I established 22 group-specific rDNA primers for freshwater taxa suitable for prey species identification in dietary samples (Chapter II) and an approach for the screening of D. villosus gut contents using 16 of these primers. Combining genetic gut content analyses, with one of these primers, and stable isotope analyses, I examined the importance of intraguild predation (IGP) by D. villosus, which is often assumed the key driver for the displacement of native amphipod species, at an invasion front of the species in Switzerland (Chapter III). The results of this study revealed a low importance of IGP during this particular D. villosus invasion and indicated an overall sparsely predacious feeding behaviour of the species. As the feeding behaviour of D. villosus is supposed to differ between habitats and this study was only conducted at a few sampling sites of one river, I also investigated the role of predation by D. villosus at multiple sites of the River Rhine system, covering a broad range of microhabitats (Chapter IV). In keeping with the results from the invasion front results of this study strongly indicated a sparsely predacious feeding but rather a flexible feeding behaviour of D. villosus even within the same microhabitat.
However, established populations of D. villosus have changed aquatic food webs and can be expected to affect aquatic-terrestrial energy fluxes. In Chapter V of my thesis, I present a field study investigating the impact of D. villosus on the diet of two riparian spider taxa. The results of this study indicate an effect of D. villosus on the terrestrial food web via cross-ecosystem resource flow.
In conclusion, D. villosus influences terrestrial food webs by altering cross-ecosystem resource fluxes, but it is rather an opportunistic omnivore than a predator in the field.
The application of pesticides to agricultural areas can result in transport to adjacent non-target environments. In particular, surface water systems are likely to receive agricultural pesticide input. When pesticides enter aquatic environments, they may pose a substantial threat to the ecological integrity of surface water systems. To minimize the risk to non-target ecosystems the European Union prescribes an ecotoxicological risk assessment within the registration procedure of pesticides, which consists of an effect and an exposure assessment.
This thesis focuses on the evaluation of the exposure assessment and the implications to the complete regulatory risk assessment, and is based on four scientific publications. The main part of the thesis focuses on evaluation of the FOCUS modelling approach, which is used in regulatory risk assessment to predict pesticide surface water concentrations. This was done by comparing measured field concentrations (MFC) of agricultural insecticides (n = 466) and fungicides (n = 417) in surface water to respective predicted environmental concentrations (PEC) calculated with FOCUS step 1 to step 4 at two different levels of field relevance. MFCs were extracted from the scientific literature and were measured in field studies conducted primarily in Europe (publications 1 and 3).
In addition, an alternative fugacity-based multimedia mass-balance model, which needs fewer input parameters and less computing effort, was used to calculate PECs for the same insecticide MFC dataset and compared to the FOCUS predictions (publication 3). Furthermore, FOCUS predictions were also conducted for veterinary pharmaceuticals in runoff from an experimental plot study, to assess the FOCUS predictions for a different class of chemicals with a different relevant entry pathway (publication 2).
In publication 4, the FOCUS step-3 approach was used to determine relevant insecticide exposure patterns. These patterns were analysed for different monitoring strategies and the implications for the environmental risk assessment (publication 4).
The outcome of this thesis showed that the FOCUS modelling approach is neither protective nor appropriate in predicting insecticide and fungicide field concentrations. Up to one third of the MFCs were underpredicted by the model calculations, which means that the actual risk might be underestimated. Furthermore, the results show that a higher degree of realism even reduces the protectiveness of model results and that the model predictions are worse for highly hydrophobic and toxic pyrethroids.
In addition, the absence of any relationship between measured and predicted concentrations questions the general model performance quality (publication 1 and 3). Further analyses revealed that deficiencies in protectiveness and predictiveness of the environmental exposure assessment might even be higher than shown in this thesis, because actual short-term peak concentrations are only detectable with an event-related sampling strategy (publication 4). However, it was shown that the PECs of a much simpler modelling approach are much more appropriate for the prediction of insecticide MFC, especially for calculations with a higher field relevance (publication 3). The FOCUS approach also failed to predict concentrations of veterinary pharmaceuticals in runoff water (publication 2). In conclusion, the findings of this thesis showed that there is an urgent need for the improvement of exposure predictions conducted in the environmental risk assessment of pesticides as a group of highly relevant environmental chemicals, to ensure that the increasing use of those chemicals does not lead to further harmful effects in aquatic ecosystems.
Gegenstand der Dissertation ist der Handlungsspielraum der schwarz-gelben Bundesregierung unter der Führung Angela Merkels vor dem Hintergrund der Staatsschuldenkrise im Euroraum von 2009 bis 2013. Ausgehend von der Hypothese, dass sich im Rahmen von Krisen der Bewegungskorridor von Regierungen verringert, wurden strukturelle, inhaltliche und prozessuale Beschränkungen der Bundesregierung in der 17. Legislaturperiode mittels qualitativer und quantitativer Methoden untersucht. Im Ergebnis konnte seit Ausbruch der Eurokrise eine Reduzierung der Handlungsmöglichkeiten der Exekutive festgestellt werden.
This thesis presents novel approaches for integrating context information into probabilistic models. Data from social media is typically associated with metadata, which includes context information such as timestamps, geographical coordinates or links to user profiles. Previous studies showed the benefits of using such context information in probabilistic models, e.g.\ improved predictive performance. In practice, probabilistic models which account for context information still play a minor role in data analysis. There are multiple reasons for this. Existing probabilistic models often are complex, the implementation is difficult, implementations are not publicly available, or the parameter estimation is computationally too expensive for large datasets. Additionally, existing models are typically created for a specific type of content and context and lack the flexibility to be applied to other data.
This thesis addresses these problems by introducing a general approach for modelling multiple, arbitrary context variables in probabilistic models and by providing efficient inference schemes and implementations.
In the first half of this thesis, the importance of context and the potential of context information for probabilistic modelling is shown theoretically and in practical examples. In the second half, the example of topic models is employed for introducing a novel approach to context modelling based on document clusters and adjacency relations in the context space. They can cope with areas of sparse observations and These models allow for the first time the efficient, explicit modelling of arbitrary context variables including cyclic and spherical context (such as temporal cycles or geographical coordinates). Using the novel three-level hierarchical multi-Dirichlet process presented in this thesis, the adjacency of ontext clusters can be exploited and multiple contexts can be modelled and weighted at the same time. Efficient inference schemes are derived which yield interpretable model parameters that allow analyse the relation between observations and context.
Diese Arbeit präsentiert einen Ansatz zur Optimierung der Berechnung von Halbschatten flächiger Lichtquellen. Die Lichtquelle wird durch Sampling uniform abgetastet. Als Datenstruktur wird ein N-tree verwendet, durch den die Strahlen als Paket traversiert werden. Der N-tree speichert in seinen Knoten einen Linespace, der Informationen über Geometrie innerhalb eines Schaftes bietet. Diese Sichtbarkeitsinformation wird als Kriterium für eine Terminierung eines Strahles genutzt. Zusätzlich wird die Grafikkarte (kurz GPU – engl. „graphics processing unit“) zur Beschleunigung durch Parallelisierung benutzt. Die Szene wird zunächst mit OpenGL gerendert und anschließend der Schattenwert für jedes Pixel auf der GPU berechnet. Im Anschluss werden die CPU- und GPU-Implementationen verglichen. Dabei zeigt die GPU-Implementation eine Beschleunigung von 86% gegenüber der CPU-Implementation und bietet eine gute Skalierung mit zunehmender Dreieckszahl. Die Verwendung des Linespace beschleunigt das Verfahren gegenüber der Durchführung von Schnitttests und zeigt für eine große Anzahl an Strahlen keine visuellen Nachteile.
How entrepreneurs become successful with their business ideas has been a topic of discussion within entrepreneurial research circles for many years. Business success has been related to psychological characteristics and many research findings have explained how people become entrepreneurs and furthermore, how they find success in regards to their business ventures. People always wanted to know what defines an entrepreneur and more importantly, what is needed to become a successful entrepreneur. Curious minds began to search for the recipe for success. Personality Traits have been researched for years, leading to the discovery of many diverse and distinct forms which are still recognized today. Researchers compared the Behavioral Approach or the analysis of demographical characteristics to success.
This raises the question of what an entrepreneur needs to become successful which is made more difficult due to the fact that entrepreneurship and who an entrepreneur is can be difficult do define exactly. Entrepreneurs are diverse and distinct individuals that each possess their own characteristics, behavior and reasons for starting a business. Many people assume that it is just someone who starts their own business. While partially correct, this only scratches the surface of what it is to be an entrepreneur.
This thesis answers the following three research questions: 1. Which personality traits were found in the almost sixty years of researching? 2. What triggers do entrepreneurs need for starting a new business? 3. Which factor makes the entrepreneur successful with their business idea? Also, reading the thesis, one may gain a better understanding of what entrepreneurship is, what defines an entrepreneur and what one needs to become a successful entrepreneur.
In this thesis the reviewing literature method developed by Wolfswinkel et al. (2011) was used to identify suitable literature and references for the main chapters. For that the five stages of the grounded-theory method for reviewing the literature were used in an iterative fashion. In step one inclusion and exclusion criterias for literature were defined. Then literature was searched matching the criterias of step one. In step three the samples were refined. Then in step four the found literature was analyzed and coded before the results of this research was presented in the following text. Many entrepreneurial personality traits were discovered and confirmed during the studies conducted over the last sixty years, these include but are not limited to Need for Achievement, Locus of Control, or risk taking propensity. Motivation is clearly the main trigger to start your own business. During the studies reasons were discovered of how and why an entrepreneur may become successful outside of posessing the right combination of traits. For example: having human, financial and social capital, an entrepreneurial behavior and the right economic conditions to start a business that will survive for more than five years.
Confidentiality, integrity, and availability are often listed as the three major requirements for achieving data security and are collectively referred to as the C-I-A triad. Confidentiality of data restricts the data access to authorized parties only, integrity means that the data can only be modified by authorized parties, and availability states that the data must always be accessible when requested. Although these requirements are relevant for any computer system, they are especially important in open and distributed networks. Such networks are able to store large amounts of data without having a single entity in control of ensuring the data's security. The Semantic Web applies to these characteristics as well as it aims at creating a global and decentralized network of machine-readable data. Ensuring the confidentiality, integrity, and availability of this data is therefore also important and must be achieved by corresponding security mechanisms. However, the current reference architecture of the Semantic Web does not define any particular security mechanism yet which implements these requirements. Instead, it only contains a rather abstract representation of security.
This thesis fills this gap by introducing three different security mechanisms for each of the identified security requirements confidentiality, integrity, and availability of Semantic Web data. The mechanisms are not restricted to the very basics of implementing each of the requirements and provide additional features as well. Confidentiality is usually achieved with data encryption. This thesis not only provides an approach for encrypting Semantic Web data, it also allows to search in the resulting ciphertext data without decrypting it first. Integrity of data is typically implemented with digital signatures. Instead of defining a single signature algorithm, this thesis defines a formal framework for signing arbitrary Semantic Web graphs which can be configured with various algorithms to achieve different features. Availability is generally supported by redundant data storage. This thesis expands the classical definition of availability to compliant availability which means that data must only be available as long as the access request complies with a set of predefined policies. This requirement is implemented with a modular and extensible policy language for regulating information flow control. This thesis presents each of these three security mechanisms in detail, evaluates them against a set of requirements, and compares them with the state of the art and related work.
Die vorliegende Arbeit behandelt Techniken zur interakativen und physikalisch basierten Darstellung von Haaren für Computer-Generated Imagery (CGI). Dafür werden Techniken zur Simulation und Approximierung der Interaktionen von Licht mit Haar hergeleitet und vorgestellt. Des Weiteren wird beschrieben, wie Haare, trotz solch berechnungsintensiver Algorithmen, sehr interaktiv dargestellt werden können. Verfahren zur Berechnung von Schatten in Haaren sowie Ansätze zur effizienten Darstellung von Haar als transparente Geometrie werden ebenfalls vorgestellt. Einen Hauptschwerpunkt der Arbeit bildet dabei der DBK-Buffer, welcher im Rahmen dieser konzeptioniert, implementiert und evaluiert wurde. Mit Hilfe des DBK-Buffers ist es möglich tausende von transparenten Haaren sehr effizient darzustellen ohne auf Funktionalitäten der neusten Grafikkarten-Generation, oder sehr viel Videospeicher, angewiesen zu sein. Darüber hinaus wurde eine umfassende Evaluierung der beschriebenden Techniken bezüglich der visuellen Qualität, der Performanz und des Speicheraufwandes durchgeführt. Dabei wurde gezeigt, dass Haare nicht nur mit interaktiven, sondern sogar mit echtzeitfähigen Bildwiederholungsraten physikalisch basiert dargestellt werden können.