Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (469)
- Ausgabe (Heft) zu einer Zeitschrift (352)
- Bachelorarbeit (275)
- Diplomarbeit (196)
- Masterarbeit (189)
- Studienarbeit (138)
- Wissenschaftlicher Artikel (14)
- Konferenzveröffentlichung (12)
- Sonstiges (8)
- Bericht (8)
Sprache
- Deutsch (1134)
- Englisch (533)
- Mehrsprachig (4)
- Spanisch (2)
- (1)
Schlagworte
- Vorlesungsverzeichnis (55)
- Bildverarbeitung (16)
- Augmented Reality (15)
- Simulation (12)
- Computergraphik (10)
- Computersimulation (10)
- Pestizid (10)
- Robotik (10)
- Computergrafik (9)
- Computervisualistik (9)
Institut
- Institut für Computervisualistik (336)
- Fachbereich 4 (298)
- Zentrale Einrichtungen (174)
- Institut für Wirtschafts- und Verwaltungsinformatik (147)
- Institut für Informatik (143)
- Institut für Management (116)
- Fachbereich 7 (99)
- Institute for Web Science and Technologies (56)
- Institut für Softwaretechnik (54)
- Fachbereich 8 (47)
Softwaresysteme haben einen zunehmenden Einfluss auf unser tägliches Leben. Viele Systeme verarbeiten sensitive Daten oder steuern wichtige Infrastruktur, was die Bereitstellung sicherer Software unabdingbar macht. Derartige Systeme werden aus Aufwands- und Kostengründen selten erneuert. Oftmals werden Systeme, die zu ihrem Entwurfszeitpunkt als sicheres System geplant und implementiert wurden, deswegen unsicher, weil sich die Umgebung dieser Systeme ändert. Dadurch, dass verschiedenste Systeme über das Internet kommunizieren, sind diese auch neuen Angriffsarten stetig ausgesetzt. Die Sicherheitsanforderungen an ein System bleiben unberührt, aber neue Erkenntnisse wie die Verwundbarkeit eines zum Entwurfszeitpunkt als sicher geltenden Verschlüsselungsalgorithmus erzwingen Änderungen am System. Manche Sicherheitsanforderungen können dabei nicht anhand des Designs sondern nur zur Laufzeit geprüft werden. Darüber hinaus erfordern plötzlich auftretende Sicherheitsverletzungen eine unverzügliche Reaktion, um eine Systemabschaltung vermeiden zu können. Wissen über geeignete Sicherheitsverfahren, Angriffe und Abwehrmechanismen ist grundsätzlich verfügbar, aber es ist selten in die Softwareentwicklung integriert und geht auf Evolutionen ein.
In dieser Arbeit wird untersucht, wie die Sicherheit langlebiger Software unter dem Einfluss von Kontext-Evolutionen bewahrt werden kann. Der vorgestellte Ansatz S²EC²O hat zum Ziel, die Sicherheit von Software, die modellbasiert entwickelt wird, mithilfe von Ko-Evolutionen wiederherzustellen.
Eine Ontologie-basierende Wissensbasis wird eingeführt, die sowohl allgemeines wie auch systemspezifisches, sicherheitsrelevantes Wissen verwaltet. Mittels einer Transformation wird die Verbindung der Wissensbasis zu UML-Systemmodellen hergestellt. Mit semantischen Differenzen, Inferenz von Wissen und der Erkennung von Inkonsistenzen in der Wissensbasis werden Kontext-Evolutionen erkannt.
Ein Katalog mit Regeln zur Verwaltung und Wiederherstellung von Sicherheitsanforderungen nutzt erkannte Kontext-Evolutionen, um mögliche Ko-Evolutionen für das Systemmodell vorzuschlagen, welche die Einhaltung von Sicherheitsanforderungen wiederherstellen.
S²EC²O unterstützt Sicherheitsannotationen, um Modelle und Code zum Zwecke einer Laufzeitüberwachung zu koppeln. Die Adaption laufender Systeme gegen Bedrohungen wird ebenso betrachtet wie Roundtrip-Engineering, um Erkenntnisse aus der Laufzeit in das System-Modell zu integrieren.
S²EC²O wird ergänzt um eine prototypische Implementierung. Diese wird genutzt, um die Anwendbarkeit von S²EC²O im Rahmen einer Fallstudie an dem medizinischen Informationssystem iTrust zu zeigen.
Die vorliegende Arbeit leistet einen Beitrag, um die Entwicklung und Wartung langlebiger Softwaresysteme in Bezug auf ihre Sicherheit zu begleiten. Der vorgestellte Ansatz entlastet Sicherheitsexperten bei ihrer Arbeit, indem er sicherheitsrelevante Änderungen des Systemkontextes erfasst, den Einfluss auf die Sicherheit der Software prüft und Ko-Evolutionen zur Bewahrung der Sicherheitsanforderungen ermöglicht.
Simulation von Schnee
(2019)
Mit Hilfe von Physiksimulationen lassen sich viele
Naturphänomene auf dem Rechner nachbilden. Ziel ist, eine physikalische
Gegebenheit möglichst korrekt zu berechnen, um daraus Schlüsse für die
reale Welt zu ziehen. Anwendungsgebiete sind beispielsweise die Medizin,
die Industrie, aber auch Spiele oder Filme.
Schnee ist aufgrund seines physikalischen Aufbaus und seinen Eigenschaften
ein sehr komplexes Naturphänomen. Um Schnee zu simulieren, müssen
verschiedene Materialeigenschaften beachtet werden.
Die wichtigste Methode, die sich mit der Simulation von Schnee und seiner
Dynamik befasst, ist die Material-Point-Method. In ihr werden die auf
der Kontinuumsmechanik basierenden Lagrange-Partikel mit einem kartesischen
Gitter vereint. Das Gitter ermöglicht die Kommunikation zwischen
den eigentlich nicht verbunden Schneepartikeln. Zur Berechnung werden
Daten der Partikel auf die Gitterknoten übertragen. Dort werden Berechnungen
mit Informationen über benachbarte Partikel durchgeführt. Die Ergebnisse
werden danach zurück auf die Partikel übertragen.
Durch GPGPU-Techniken lassen sich physikalische Simulationen auf der
Grafikkarte implementieren. Verfahren wie die Material-Point-Method lassen
sich durch diese Techniken gut parallelisieren.
Diese Arbeit geht auf die physikalischen Grundlagen der Material-Point-
Method ein, und implementiert diese mit Hilfe von Compute-Shadern auf
der Grafikkarte. Anschließend werden Performanz und Qualität bewertet.
Gegeben sei eine Basis b>=10 und eine Ziffer a0 aus der Menge {0,..., b − 1}. Wir untersuchen, ob es unendlich viele Primzahlen gibt, die in ihrer b-adischen Zifferndarstellung die Ziffer a0 nicht besitzen. Ferner schätzen wir die Anzahl dieser Primzahlen, die kleiner sind als X = b^k, nach oben und unten ab.
Damit gelingt uns eine Verallgemeinerung von Maynards Beweis für den Fall b = 10 und wir nutzen hierzu auch die in seiner Arbeit verwendeten Werkzeuge. Unter Anderem benötigen wir die Hardy-Littlewoodsche Kreismethode sowie diverse Siebmethoden, um die Minor Arcs zu kontrollieren.
Schließlich sehen wir, dass wir Maynard's Aussage vor allem dann auf beliebige Basen b>= 10 und ausgeschlossene Ziffern a0 aus {0, ..., b − 1} übertragen können, wenn zwei betragsmäßig größte Eigenwerte von Matrizen, die von b und a0 parametrisiert werden, bestimmte Abschätzungen erfüllen. Dass diese Abschätzungen im Fall b>=102 erfüllt sind, beweisen wir im letzten Kapitel. Für die Fälle b = 10 und b = 11 liegt ebenfalls ein Mathematica-Code vor, der die Abschätzungen bestätigt.
Dieses Dokument umfasst den zweiten Zwischenbericht zum Projekt GeKOS – Gemeinsam entdecken Kinder ihren Ort mit Studierenden, der im Oktober 2017 an die Schöpflin-Stiftung übergeben wurde.
Das Projekt GeKOS wird vom Ministerium für Wissenschaft, Weiterbildung und Kultur des Landes Rheinland-Pfalz im Rahmen der Programmbudgets Hochschulpakt III sowie von der Schöpflin-Stiftung mit Sitz in Lörrach von 2016 bis 2020 finanziell gefördert. Zudem gewährte das rheinland-pfälzische Ministerium für Integration, Familie, Kinder, Jugend und Frauen im Jahr 2015 eine Anschubfinanzierung.
The development of a game engine is considered a non-trivial problem. [3] The architecture of such simulation software must be able to manage large amounts of simulation objects in real-time while dealing with “crosscutting concerns” [3,p. 36] between subsystems. The use of object oriented paradigms to model simulation objects in class hierarchies has been reported as incompatible with constantly changing demands during game development [2, p. 9], resulting in anti-patterns and eventual, messy refactoring.[13]
Alternative architectures using data oriented paradigms revolving around object composition and aggregation have been proposed as a result. [13, 9, 1, 11]
This thesis describes the development of such an architecture with the explicit goals to be simple, inherently compatible with data oriented design, and to make reasoning about performance characteristics possible. Concepts are formally defined to help analyze the problem and evaluate results. A functional implementation of the architecture is presented together with use cases common to simulation software.
Dieses Dokument umfasst den dritten Zwischenbericht zum Projekt GeKOS – Gemeinsam entdecken Kinder ihren Ort mit Studierenden, der im Oktober 2018 an die Schöpflin-Stiftung übergeben wurde. Das Projekt GeKOS wird vom Ministerium für Wissenschaft, Weiterbildung und Kultur des Landes Rheinland-Pfalz im Rahmen der Programmbudgets Hochschulpakt III sowie von der Schöpflin-Stiftung mit Sitz in Lörrach von 2016 bis 2020 finanziell gefördert. Zudem gewährte das rheinland-pfälzische Ministerium für Integration, Familie, Kinder, Jugend und Frauen im Jahr 2015 eine Anschubfinanzierung.
While the existing literature on cooperative R&D projects between firms and public research institutes (PRI) has made valuable contributions by examining various factors and their influence on different outcome measures, there has been no investigation of cooperative R&D project success between firms and PRI from a product competitive advantage perspective. However, insights into the development of a meaningful and superior product (i.e., product competitive advantage) are particularly important in the context of cooperative R&D projects between PRI and (mainly small and medium-sized) firms in the biotechnology industry in response to increasing competition to raise capital funds necessary for survival.
The objectives of this thesis are: (1) to elaborate the theoretical foundations which explain the achievement of a product competitive advantage in cooperative R&D projects between biotechnology firms and PRI, (2) to identify and empirically evaluate the determining factors for achieving a product competitive advantage in cooperative R&D projects between biotechnology firms and PRI, and (3) to show how cooperative R&D projects between biotechnology firms and PRI should be designed and executed to support the achievement of a product competitive advantage.
To accomplish these objectives, a model of determinants of product competitive advantage in cooperative R&D projects between biotechnology firms and PRI is developed by drawing from the theoretical foundations of resource-based theory and information-processing theory. The model is evaluated using data from 517 questionnaires on cooperative R&D projects between at least one biotechnology firm and one PRI. The data are analyzed using variance-based structural equation modeling (i.e., PLS-SEM) in order to conduct hypotheses testing. The evaluation of the empirical data includes an additional mediation analysis and the comparison of effects in subsamples.
The results demonstrate the importance of available resources and skills, as well as the proficient execution of marketing-related and technical activities for the achievement of a product competitive advantage in cooperative R&D projects between biotechnology firms and PRI. By identifying project-related and process-related factors affecting product competitive advantage and empirically testing their relationships, the research findings should be valuable for both researchers and practitioners. After discussing contributions and implications for research and practice, the present thesis concludes with limitations and avenues for future research.
Unkontrolliert gewachsene Software-Architekturen zeichnen sich i.d.R. durch fehlende oder schlecht nachvollziehbare Strukturen aus. Hierfür können als Gründe beispielsweise mangelhafte Definitionen oder ein langsames Erodieren sein. Dies ist auch unter dem Begriff "Big Ball of Mud" bekannt. Langfristig erhöhen solche architekturellen Mängel nicht nur die Entwicklungskosten, sondern können letztendlich auch Veränderungen vollständig verhindern.
Die Software-Architektur benötigt somit eine kontinuierliche Weiterentwicklung, um solchen Effekten entgegen wirken zu können. Eine gute Software-Architektur unterstützt die Software-Entwicklung und erhöht die Produktivität. Auf der Ebene von Quellcode existieren bereits etablierte Vorgehensweisen zur kontrollierten Verbesserung der Qualität. Im Gegensatz hierzu existieren für Verbesserungen einer Software-Architektur jedoch keine allgemeingültigen Vorgehensweisen, welche unabhängig vom Anwendungsfall angewandt werden können. An diesem Punkt setzt die vorliegende Arbeit an.
Bisherige Arbeiten beschäftigen sich einerseits nur mit Teilpunkten des Problems. Anderseits existieren zwar bereits Vorgehensweisen zum Treffen von Architekturentscheidungen, jedoch agieren diese auf einer stark abstrakten Ebene ohne praktische Beispiele. Diese Arbeit stellt eine leichtgewichtige Vorgehensweise zum gezielten Verbessern einer Software-Architektur vor. Die Vorgehensweise basiert auf einem generischen Problemlösungsprozess. Auf dieser Basis ist ein Prozess zum Lösen von Problemen einer Software-Architektur entwickelt worden. Im Fokus der Arbeit stehen zur Eingrenzung des Umfanges architektonische Probleme aufgrund geforderter Variabilität sowie externer Abhängigkeiten.
Die wissenschaftliche Methodik, welcher der Arbeit zugrunde liegt, agiert im Rahmen der Design Science Research (DSR). Über mehrere Iterationen hinweg wurde eine Vorgehensweise entwickelt, welche sich an Softwareentwickler mit zwei bis drei Jahren Erfahrung und Kenntnissen über Grundlage der Softwareentwicklung und Software-Architektur richtet. Fünf Schritte inkl. Verweise auf aussagekräftige Literatur leiten Anwender anschließend durch den Prozess zur gezielten Verbesserung einer Software-Architektur.
Lakes and reservoirs are important sources of methane, a potent greenhouse gas. Although freshwaters cover only a small fraction of the global surface, their contribution to global methane emission is significant and this is expected to increase, as a positive feedback to climate warming and exacerbated eutrophication. Yet, global estimates of methane emission from freshwaters are often based on point measurements that are spatio-temporally biased. To better constrain the uncertainties in quantifying methane fluxes from inland waters, a closer examination of the processes transporting methane from sediment to atmosphere is necessary. Among these processes, ebullition (bubbling) is an important transport pathway and is a primary source of uncertainty in quantifying methane emissions from freshwaters. This thesis aims to improve our understanding of ebullition in freshwaters by studying the processes of methane bubble formation, storage and release in aquatic sediments. The laboratory experiments demonstrate that aquatic sediments can store up to ~20% (volumetric content) gas and the storage capacity varies with sediment properties. The methane produced is stored as gas bubbles in sediment with minimal ebullition until the storage capacity is reached. Once the sediment void spaces are created by gas bubble formation, they are stable and available for future bubble storage and transport. Controlled water level drawdown experiments showed that the amounts of gas released from the sediment scaled with the total volume of sediment gas storage and correlated linearly to the drop in hydrostatic pressure. It was hypothesized that not only the timing of ebullition is controlled by sediment gas storage, but also the spatial distribution of ebullition. A newly developed freeze corer, capable of characterizing sediment gas content under in situ environments, enabled the possibility to test the hypothesis in a large subtropical lake (Lake Kinneret, Israel). The results showed that gas content was variable both vertically and horizontally in the lake sediment. Sediment methane production rate and sediment characteristics could explain these variabilities. The spatial distribution of ebullition generally was in a good agreement with the horizontal distribution of depth-averaged (surface 1 m) sediment gas content. While discrepancies were found between sediment depth-integrated methane production and the snapshot ebullition rate, they were consistent in a long term (multiyear average). These findings provide a solid basis for the future development of a process-based ebullition model. By coupling a sediment transport model with a sediment diagenetic model, general patterns of ebullition hotspots can be predicted at a system level and the uncertainties in ebullition flux measurements can be better constrained both on long-term (months to years) and short-term (minutes to hours) scales.
In dieser Bachelorarbeit geht es um den Einsatz des Wii Balance Boards
in -Realität-Anwendungen. Als Anwendungsbeispiel wird ein Snowboard
Spiel implementiert, in dem der virtuelle Avatar mit den Drucksensoren
des Wii Balance Board gesteuert werden kann. Der Anwender soll mit seiner
Körperbalancierung, spielerisch und intuitiv in der virtuellen Umgebung
manövrieren. Es werden die Immersion und der Einfluss auf Motion-
Sickness beziehungsweise Cybersickness erforscht. Außerdem wird dasWii
Balance Board mit dem Xbox Controller verglichen was die Steuerung betrifft.
Ziel der Arbeit ist es zu evaluieren, ob das Wii Balance Board in
der Lage ist, freies Bewegen in der virtuellen Umgebung zu ermöglichen.
Außerdem soll untersucht werden, welcher der beiden Geräte vorteilhafter
ist. Die Umfrageergebnisse laufen darauf hinaus, dass das Wii Balance
Board einen wesentlich positiveren Einfluss auf die Immersion hat, als der
Controller, trotz der besseren Spielergebnisse. Außerdem hat die Untersuchung
ergeben, dass die Verwendung des Wii Balance Board viel häufiger
für Motion-Sickness und Cybersickness Fälle verantwortlich ist.
Eine wachsende Werbe- und Informationsflut sowie eine eingeschränkte Kapazität der Informationsaufnahme stellen das Marketing in unserer heutigen Zeit vor eine Herausforderung. Das Marketing ist allgemein für den Erfolg eines Unternehmens von großer Bedeutung. Jedoch dominiert die klassische Marketinglehre, welche die Besonderheiten junger Unternehmen gerade im Hinblick auf deren Marketing unbeachtet lässt. Ein junges Unternehmen mit einer neuen Idee und einem neuen Produkt trifft auf einen bestehenden Markt mit Kunden und bereits etablierten Wettbewerbern. Auf eine Innovation bezogenen Gründungskontext stellt das eine besondere Herausforderung dar.
In der vorliegenden Bachelorarbeit werden zunächst die Teilbereiche der Thematik, das Entrepreneurship und das Marketing thematisiert. Grundlegend ist die Herausarbeitung der besonderen Eigenschaften von jungen Unternehmen, der sogenannten Liabilities. Die Bedeutung des Begriffs des Entrepreneurial Marketing wird durch die detaillierte Betrachtung des engen, wie auch des weiten Begriffsverständnis dargelegt. Anschließend wird durch die Gegenüberstellung der Unterschied zum klassischen Marketing verdeutlicht. Im Rahmen der Literaturanalyse wird der aktuelle Stand der Forschung dargelegt und die praktische Anwendung anhand der zentralen Ansätze näher betrachtet. Zu diesen Ansätzen zählen das Guerilla Marketing, Ambient Marketing, Sensation Marketing, Viral Marketing und das Ambush Marketing. Wie genau das Entrepreneurial Marketing in Form der zentralen Ansätzen konkret in einem Gründungsunternehmen Einsatz findet, wird durch eine qualitative Untersuchung in Form einer Case Study analysiert.
Der Case Study geht hervor, dass durch unkonventionelle Marketingmaßnahmen und einen geringen Mitteleinsatz eine große Wirkung erzielt werden kann. Das Entrepreneurial Marketing bietet demnach eine Alternative zum klassischen Marketing, die den besonderen Eigenschaften eines jungen Gründungsunternehmens Beachtung schenkt. Die vorliegende Arbeit zeigt somit, dass das Entrepreneurial Marketing unter Einsatz der zentralen Ansätze die Schwächen eines jungen Gründungsunternehmens in Stärken verwandelt und zur Überlegenheit gegenüber der Konkurrenz führen kann.
Die Dissertation untersucht das Selbstkonzept der indischen Ordensfrauen in deutschen Pflegeeinrichtungen. Für die Analyse wurde die Methode der Grounded Theory aus der empirischen Sozialforschung ausgewählt. Im Untersuchungsfeld wurden 26 indische Ordensfrauen und 5 Arbeitergeber interviewt. Als theoretische Grundlagen diente die Missionsgeschichte mit dem Standard des missionarischen Dienstes, die Ausprägung des deutschen und indischen Pflegeverständnisses, der Kulturbegriff in seiner strukturellen Bedingtheit von Dimensionen und Modellen mit dem Bezug zur Organisation „Ordensgemeinschaft“. Dem direkten Bezug zur Forschungsfrage dienten das hierarchische Selbstkonzeptmodell nach Shalveson und ein weiteres Modell nach Bracken, das zur Interpretation der empirischen Ergebnisse herangezogen wurde. In den fünf Kernkategorien und den dazugehörigen Subkategorien dominierte das Hauptmotiv „Missionarin sein“.Die indischen Ordensfrauen bezeichnen sich selbst als „Europamissionarin“ und wollen die Liebe Christi durch ihre Arbeit in der Pflege und Betreuung zu den Kranken, Hilfebedürftigen und alten Menschen bringen.
Damit die indischen Ordensfrauen in ihrem Selbstkonzept in Deutschland noch optimaler arbeiten können, empfiehlt es sich ein Anforderungsprofil zu entwickeln, vorausschauend bestimmte Rahmenbedingungen zu beachten und neue Lebensmodelle zu konzipieren.
Simulation von Rauch
(2019)
Diese Bachelorarbeit befasst sich mit der Simulation von Rauch mittels einem Partikelsystem. Hierbei werden die Möglichkeiten untersucht Rauch möglichst realistisch in einem Partikelsystem zu implementieren und in Echtzeit berechnen zu lassen. Die physikalische Simulation basiert dabei auf den Arbeiten von Müller und Ren, welche sich mit den physikalischen Eigenschaften von Fluiden und Gasen beschäftigen. Die Simulation wurde mittels C++, OpenGL und der in OpenGL verfügbaren Compute-Shader auf der GPU implementiert. Dabei wurde ein besonderes Augenmerk darauf gelegt, dass diese möglichst performant ist. Hierfür werden Techniken von Hoetzlein benutzt um das Partikelsystem zu beschleunigen. Daraufhin wurden zwei Beschleunigungsverfahren implementiert und werden noch gegenübergestellt. Dabei werden die Laufzeit, sowie verbrauchter Speicherplatz der GPU betrachtet.
Die Mitralklappe ist eine der vier Herzklappen des Menschen. Sie befindet sich in der linken Herzkammer und agiert als ein unidirektionales Ventil, welches den Blutfluss vom linken Atrium zum linken Ventrikel steuert. Eine funktionierende Mitralklappe verhindert den Rückfluss von Blut in den Lungenkreislauf, wodurch sie einen unverzichtbaren Anteil zu einem gesunden Herzkreislauf beiträgt. Pathologien der Mitralklappe können eine Reihe von Symptomen hervorrufen, welche in ihrer Schwere von Brustschmerzen und Ermüdung bis zum Lungenödem (dem Eindringen von Flüssigkeit in die Lunge) reichen können. Im schlimmsten Fall kann dieses zum Atemversagen führen.
Dysfunktionale Mitralklappen können mithilfe komplexer chirurgischer Eingriffe wiederhergestellt werden, welche in hohem Maße von intensiver Planung und präoperativer Analyse profitieren. Visualisierungstechniken eröffnen die Möglichkeit, solche Vorbereitungsprozesse zu unterstützen und können zudem einer postoperativen Evaluation dienlich sein. Die vorliegende Arbeit erweitert die Forschung in diesem Bereich. Sie stützt sich auf patientenspezifische Segmentierungen der Mitralklappe, wie sie am Deutschen Krebsforschungszentrum entwickelt werden. Solche Segmentierungen resultieren in 3D-Modellen der Mitralklappe. Der Kern dieser Arbeit wird sich mit der Konstruktion einer 2D-Ansicht dieser Modelle befassen. Die 2D-Visualisierung wird durch Methoden der globalen Parametrisierung erzeugt, welche es erlauben, bijektive Abbildungen zwischen einem planaren Parameterraum und Oberflächen in höheren Dimensionen zu erstellen.
Eine ebene Repräsentation der Mitralklappe ermöglicht Ärzten einen unmittelbaren Blick auf deren gesamte Oberfläche, analog zu einer Karte. Dies erlaubt die Begutachtung der Fläche und Form ohne die Notwendigkeit unterschiedlicher Blickwinkel. Teile der Klappe, die in der 3D-Ansicht von Geometrie verdeckt sind, werden in der 2D-Darstellung sichtbar.
Ein weiterer Beitrag dieser Arbeit ist die Untersuchung verschiedener Visualisierungen der 3D- und 2D-Mitralklappenrepräsentationen. Merkmale der Klappe können durch Assoziation mit spezifizierten Farbschemata hervorgehoben werden. So können zum Beispiel Pathologie-Indikatoren direkt vermittelt werden.
Qualität und Wirkungsgrad der vorgestellten Methoden wurden in einer Studie am Universitätsklinikum Heidelberg evaluiert.
Die vorliegende Dissertation beschäftigt sich mit euroskeptischen Äußerungen in der Parteienkommunikation und der Medienberichterstattung im Vorfeld der Europawahl 2014. Die Arbeit verwendet ein akteurszentriertes Forschungsdesign, welches eine differenzierte Betrachtung der öffentlichen Debatte europäischer Themen erlaubt. Die Analyse deckt auf, welche nationalen Parteien euroskeptische Positionen vertreten und inwiefern diese Einzug in die mediale Berichterstattung finden. Auch die Positionierung der Medien selbst wird durch die Untersuchung meinungsbezogener Artikel berücksichtigt. Die den Studien zu Grunde liegende Konzeptualisierung des Euroskeptizismus-Begriff umfasst neben globalen und konkreten negativen Bewertungen der EU auch die Zuschreibung von Problemverantwortung als weitere Spielart euroskeptischer Äußerungen. Die Arbeit nimmt weiterhin eine international vergleichende Perspektive ein, um den Einfluss nationaler Kontextfaktoren auf die Verbreitung euroskeptischer Positionen aufzuzeigen.
Die Ergebnisse der Analyse decken zunächst auf, dass das Vorhandensein erstarkender euroskeptischer Oppositionsparteien nicht zwangsläufig zu einer Politisierung der europäischen Debatte führt, da sich die europhilen Mainstream-Parteien verschiedener Strategien zur Vermeidung einer solchen Kontroversen bedienen. Die Analysen ergeben weiterhin, dass europhile Regierungsparteien zwar mehrheitlich vor konkreten negativen Bewertungen der EU zurückschrecken, diese aber in Bezug auf die europäische Finanzkrise vorwiegend als Verursacher von Problemlagen skizzieren. Letztlich verdeutlichen die Ergebnisse, dass die mediale Berichterstattung zu Themen mit EU-Bezug eine starke Synchronizität zwischen Nachrichten- und Meinungsteil aufzeigt. Dies gilt sowohl in Bezug auf die geäußerten Bewertungen zur Europäischen Union als auch hinsichtlich der Darstellung von Verantwortlichkeit.
In einem Großteil der Welt wird Grundwasser für die Versorgung von Siedlungen und Agrarflächen genutzt. Organismen, die im Grundwasser leben, erfüllen wichtige Funktionen im Ökosystem und haben positiven Einfluss auf die Grundwasserqualität. Um das Risiko negativer Effekte auf diese wertvollen Ökosysteme zu minimieren muss die entsprechende Sanierungsmethode, im Falle einer Grundwasserbehandlung, mit Vorsicht gewählt werden. In der vorliegenden Thesis wurde das Umweltrisiko von Carbo-Iron untersucht, ein Komposit aus nanoskaligem null-valentem Eisen und Aktivkohle zur in situ-Behandlung von Grundwasser. Des Weiteren wurde eine umfassende Beurteilung des Umweltrisikos und des Nutzens einer Grundwasserbehandlung mit Carbo-Iron durchgeführt.
Zu Beginn der Arbeit an der vorliegenden Thesis existierten noch keine Empfehlungen für Untersuchung der Ökotoxizität von Nanomaterialien. Daher bestanden viele Unsicherheiten hinsichtlich geeigneter Methoden. Im Rahmen dieser Thesis wurde eine Entscheidungshilfe entwickelt, um bei der ökotoxikologischen Untersuchung von Nanomaterialien systematisch geeignete methodische Schritte auszuwählen.
Mögliche Effekte von Carbo-Iron wurden in Tests mit embryonalen, juvenilen und adulten Lebensstadien des Zebrabärblings (Danio rerio) und juvenilen und adulten Amphipoden (Hyalella azteca) untersucht. Die gewählten Testsysteme basierten auf existierenden Testmethoden der OECD und EPA zur ökotoxikologischen Untersuchung von Chemikalien (OECD, 1992a, 2013a, 2013b; US EPA, 2000). Zusätzlich wurde die Aufnahme der Partikel in die genannten Testorganismen untersucht. In Zebrabärblingsembryonen wurden außerdem potentielle Effekte auf die Genexpression mittels Microarrays ermittelt. Die erhaltenen Daten wurden später mit Ergebnissen aus Tests mit dem Wasserfloh Daphnia magna, der Alge Scenedesmus vacuolatus, Larven der Mücke Chironomus riparius und nitrifizierenden Bodenmikroorganismen ergänzt.
In dem Fischembryotoxizitätstest wurde keine Passage der Carbo-Iron-Partikel durch das Chorion in den perivitellinen Raum oder den Embryo beobachtet. Nach der Exposition wurde Carbo-Iron im Darm von H. azteca und D. rerio, aber keinem anderen Gewebe oder Organen detektiert. Carbo-Iron hatte keine signifikanten Effekte auf die Nitrifikationsrate der Bodenmikroorganismen sowie Überleben und Wachstum des Zebrabärblings. Dennoch wurden signifikant negative Effekte auf Wachstum, Fütterungsrate und Reproduktion von H. azteca und auf das Überleben und die Reproduktion von D. magna festgestellt. Des Weiteren war die Entwicklungsrate von C. riparius und das Zellvolumen von S. vacuolatus negativ beeinflusst.
Anhand der durchgeführten Studien wurde basierend auf dem Ergebnis des Reproduktionstests mit D. magna und einem assessment factor von 10 für Carbo-Iron eine predicted no effect concentration von 0,1 mg/L ermittelt. Diese wurde mit modellierten und gemessenen Umweltkonzentrationen von Carbo-Iron verglichen die in einer Studie erhoben wurden, in denen Carbo-Iron zur Behandlung eines mit Chlorkohlenwasserstoffen kontaminierten Aquifers eingesetzt wurde, und Risiko-Quotienten wurden abgeleitet. Zur gesamtheitlichen Betrachtung wurde anschließend ein Schema zur Bewertung des Umweltrisikos vor und nach der Behandlung des Aquifers mit Carbo-Iron entwickelt. Die erhobenen Daten weisen auf ein reduziertes Umweltrisiko nach der Applikation von Carbo-Iron hin. Dementsprechend überwiegen die Vorteile einer Grundwasserbehandlung mit Carbo-Iron die potentiellen negativen Effekte auf die Umwelt.
Engineering criminal agents
(2019)
Die Dissertation mit dem Titel "Engineering Criminal Agents" demonstriert das Zusammenspiel von drei verschiedenen Forschungsbereichen, die bereits im Titel genannt sind: Im Mittelpunkt stehen Engineering (d.h. ingenieurmäßiges Vorgehen bei der Erstellung von Systemen) und Simulation, während beide Bereiche im Kontext des Anwendungsfeldes Kriminologie (und auch den damit verbundenen sozialwissenschaftlichen Aspekten) angewandt werden. Konkreter gesagt, Ziel der Arbeit ist es, zu zeigen, wie spezifische Arten von agentenbasierten Simulationsmodellen unter Berücksichtigung und Anwendung von Methoden der Softwareentwicklung erstellt werden können.
Agentenbasierte Simulation hat sich seit Jahrzehnten als nützliche Methode der Sozialwissenschaften bewährt, und ein Trend zu komplexen Simulationsmodellen ist wahrnehmbar, nicht zuletzt aufgrund der Fortschritte in Datenverarbeitungs- und Simulationstechniken. Eine bedeutende Ursache für Modellkomplexität ist die Einbeziehung von 'Belegmaterialien' als Grundlage von Simulationsmodellen. Solche Belegmaterialien können durch mehrere Stakeholder bereitgestellt werden und dabei deren unterschiedliche Sichtweisen auf einen Modellierungsgegenstand widerspiegeln.
Dabei ergeben sich spezifische Problemstellungen für das Zusammenspiel der beiden hier relevanten Perspektiven auf das Thema Simulation: auf der einen Seite der Benutzer des Simulationsmodells, der die Anforderungen liefert und an den Simulationsergebnissen interessiert ist; auf der anderen Seite der Modellentwickler, der ein verifiziertes und validiertes formales Modell programmieren muss. Um diese beiden Perspektiven systematisch zusammenzubringen, ist substantieller Aufwand in Forschung und Entwicklung erforderlich, wo die vorliegende Dissertation einen Beitrag zu leisten beabsichtigt.
Die in dieser Arbeit erzielten praktischen Ergebnisse - in Form von Software - wurden durch eine bereichsübergreifende Herangehensweise erreicht: Durch die Verwendung von Methoden der Softwareentwicklung konnten Methoden der computergestützten Sozialwissenschaften benutzt werden, um am Ende Einblicke in soziale Systeme - wie die internen Dynamiken von kriminellen Netzwerken - zu ermöglichen.
Die vorliegende Dissertation zeigt die Forschungstätigkeiten, die für die Erzielung der Ergebnisse herangezogen wurden, sowie liefert Details und Spezifikationen zur erstellten Software.
Rahmen für diese Forschungs- und Entwicklungstätigkeiten waren in erster Linie zwei Forschungsprojekte: OCOPOMO und GLODERS.